,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,半监督学习综述,(,Semi-supervisedLearning),1,半监督学习综述(Semi-supervisedLearn,有监督的学习,:学习器通过对大量有标记的训练例进行学习,从而建立模型用于预测未见示例的标记,(label),。,很难获得大量的标记样本,。,无监督的学习,:无训练样本,仅根据测试样本的在特征空间分布情况来进行标记,,准确性差,。,半监督的学习,:有少量训练样本,学习机以从训练样本获得的知识为基础,结合测试样本的分布情况逐步修正已有知识,并判断测试样本的类别。,机器学习,2,有监督的学习:学习器通过对大量有标记的训练例进行学习,从而建,3,3,半监督学习,的过程,4,半监督学习的过程4,传统机器学习算法需要利用大量有标记的样本进行学习。,随着信息技术的飞速发展,收集大量未标记的,(,unlabeled,),样本已相当容易,而获取大量有标记的示例则相对较为困难,因为获得这些标记可能需要耗费大量的人力物力。,如何利用大量的未标记样本来改善学习性能成为当前机器学习研究中备受关注的问题。,优点,:半监督学习(,Semi-supervisedLearning,)能够充分利用大量的未标记样本来改善学习机的性能,是目前利用未标记样本进行学习的主流技术。,半监督学习背景,5,传统机器学习算法需要利用大量有标记的,半监督学习的发展历程,未标记示例的价值实际上早在上世纪,80,年代末就已经被一些研究者意识到了。,R.P.Lippmann.Pattern classification using neural networks.,IEEE Communications,1989,27(11):47-64.,一般认为,半监督学习的研究始于,B.Shahshahani,和,D.Landgrebe,的工作,最早是在这篇文章当中提到的。,B.Shahshahani,D.Landgrebe.The effect of unlabeled samples in reducing the small sample size problem and mitigating the hughes phenomenon.,IEEE Transactions on Geoscience and Remote Sensing,1994,32(5):1087-1095.,D.J.Miller,和,H.S.Uyar,认为,半监督学习的研究起步相对较晚,可能是因为在当时的主流机器学习技术(例如前馈神经网络)中考虑未标记示例相对比较困难。随着统计学习技术的不断发展,以及利用未标记示例这一需求的日渐强烈,半监督学习才在近年来逐渐成为一个研究热点。,D.J.Miller,H.S.Uyar.A mixture of experts classifier with learning based on both labelled and unlabelled data.In:M.Mozer,M.I.Jordan,T.Petsche,eds.,Advances in Neural Information Processing Systems 9,Cambridge,MA:MIT Press,1997,571-577,6,半监督学习的发展历程未标记示例的价值实际上早在上世纪80年代,在进行,Web,网页推荐时,需要用户标记出哪些网页是他感兴趣的,很少会有用户愿意花大量的时间来提供标记,因此有标记的网页示例比较少,但,Web,上存在着无数的网页,它们都可作为未标记示例来使用。,这类问题直接来自于实际应用:例如,大量医学影像,医生把每张片子上的每个病灶都标出来再进行学习,是不可能的,能否只标一部分,并且还能利用未标的部分?,半监督学习的应用领域,7,在进行Web网页推荐时,需要用户标记出哪些网页是他感兴趣的,,半监督学习应用实例,语音识别(,Speech recognition,),文本分类(,Text categorization,),词义解析(,Parsing,),视频监控(,Video surveillance,),蛋白质结构预测(,Protein structure prediction,),8,半监督学习应用实例语音识别(Speech recogniti,半监督学习的主要方法,最大期望(,EM,算法),自训练(,Self-training,),协同训练(,Co-training,),转导支持向量机,(,Transductive Support Vector Machines,),基于图的方法,(,graph-based methods,),现状与展望,9,半监督学习的主要方法最大期望(EM算法)现状与展望9,1.,最大期望(,EM,算法),背景,:期望最大化(,EM,)方法和朴素贝叶斯方法有着共同的理论基础。期望最大化是一种基于循环过程的最大似然参数估计方法,用于解决带缺失数据的参数估计问题。是最早的半监督学习方法。,前提,:,样本数据分为标记样本和未标记样本,按照统计的观点,对于每一个样本的产生,其背后都有一个模型,即样本,生成模型,(,generative models,)。样本生成模型的参数先由标记样本确定,再通过标记样本和利用当前模型判断标记的未标记样本共同调整。,10,1.最大期望(EM算法)背景:期望最大化(EM)方法和朴,1.1 EM,算法的特点,定义,:具有隐状态变量的分布中参数的最大似然估计。,适用,:能够产生很好的聚类数据,困难,:如果把在参数 下的期望 为 。那么,在估计状态变量,X,时,估值当然应该用条件期望然而这时就需要知道参数 的值;另一方面,为了知道 ,又必须先知道,X,的估值(作为状态已知样本值),11,1.1 EM算法的特点定义:具有隐状态变量的分布中参数的最大,1,、设定初值,2,、(,E,-,步骤)对 ,令,3,、(,M,-,步骤)(修正的估计)取使之满足:,其中,E,-,步骤为取条件期望(,expectation,),而,M,-,步骤为取最大(,maximum,)。这种交替的方法称为,EM,方法。,优点,:,算法构思很简单,并且在数学上有很严格的理论基础,缺点,:,计算量过大,对生成模型的依赖较大。,1.2 EM,算法的具体步骤(解决方法),返回,12,1、设定初值1.2 EM算法的具体步骤(解决方法)返回12,Figure:If the model is wrong,higher likelihood may lead to lower classification,accuracy.For example,(a),is clearly not generated from two Gaussian.If we insist that each class is a single Gaussian,(b),will have higher probability than,(c),.,But,(b),has around 50%accuracy,while,(c),is much better.,13,Figure:If the model is wrong,Figure:An example of unidentifiable models.Even if we known p(x)(top),is a mixture of two uniform distributions,we cannot uniquely identify the two,components.For instance,the mixtures on the second and third line give the same,p(x),but they classify x=0.5 differently.,14,Figure:An example of unidenti,2,自训练(,Self-training,),定义,:,首先利用已标记的样本训练分类器,然后利用已有未标记训练样本建立的模型标记,使用分类器选出置信度高的样本加入训练集中重新训练,迭代这个过程,得到一个比较理想的分类器。,适用,:用监督学习分类器时很复杂或者是很难修正,优点,:,简单、容易实现。,缺点:,误差也同时会自我迭代放大,。,返回,15,2 自训练(Self-training)定义:首先利用已标记,3,协同训练(,Co-training,),背景:,最早是,1998,年由,A.Blum,和,T.Mitchell,在,Combining labeled and unlabeled data with co-training.In:,Proceedings of the 11th Annual Conference on Computational Learning Theory(COLT98),Wisconsin,MI,1998,92-100.,提出来的,在当时来说可谓是半监督学习的核心主流算法。,定义:,假设特征能够分成两个集,这两个数据集是独立同分布的。每个子特征集能够训练一个很好的分类器。每个分类器把未标记的样本分出来给另一个分类器,选择出置信度高的新的为标记样本进行标记,重复上面的过程。,适用,:特征能够很好的分成两类。,缺点,:,大多数的问题并不具有“充分大”的属性集,而且随机划分视图这一策略并非总能奏效,,16,3 协同训练(Co-training)背景:最早是1998年,Figure:Co-Training:Conditional independent assumption on feature split.,With this assumption the high confident data points in x1 view,represented by,circled labels,will be randomly scattered in x2 view.This is advantageous if they,are to be used to teach the classifier in x2 view.,17,Figure:Co-Training:Condition,3.1,协同训练的改进,S.Goldman,和,Y.Zhou,提出了一种不需要充分冗余视图的协同训练算法。他们用不同的,决策树算法,,从同一个属性集上训练出两个不同的分类器,每个分类器都可以把示例空间划分为若干个等价类。,他们,又对该算法进行了扩展,使其能够使用,多个不同种类的分类器,。,tri-training,算法:不仅可以简便地处理标记置信度估计问题以及对未见示例的预测问题,还可以利用集成学习(,ensemble learning,),来提高泛化能力,18,3.1 协同训练的改进S.Goldman和Y.Zhou提,3.2,协同训练的应用实例,D.Yarowsky,在研究词义消歧时,通过同时使用词的局部上下文以及词在文档其他部分出现时的含义这两部分信息,有效减少了对人工标注数据的需求量,E.Riloff,和,R.Jones,在对名词短语进行地理位置分类时,同时考虑了名词短语本身及其出现的上下文。,M.Collins,和,Y.Singer,进行名实体识别时,也同时使用了名实体的拼写信息及名实体出现的上下文信息。,返回,19,3.2 协同训练的应用实例D.Yarowsky 在研究词义,背景,:,TSVM,是为了改进,SVM,在文本分类中本已出色的表现而做的更一步改进,.,使用,SVM,进行文本分类一个问题是难于建造出那么多的标记文档,要么是可用的训练数据本身就少,或者是用人工方法把无标记的文档分类为有标记的文档所花费的功夫无法承受。这样就引出了,TSVM,。,定义,:,是标准,SVM,在半监督学习当中的拓展,是通过加入约束项使得未标记数据落在,Margin,