,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,人工神经网络常用的学习规则,MP模型是于1943年由美国心理学家McCulloch和数学家Pitts建立的第一个神经元模型,也可以称为处理单元(Processing Element),它是一个多输入多输出的非线性信息处理单元。如图5-6所示,图5-7为MP模型的作用函数。MP神经元是人工神经元模型的基础,也是人工神经网络模型的基础。,图5-6 MP神经元模型,0,1,(x),F(x),人类具有学习能力,人类的知识和智慧是在不断的学习与实践中逐渐形成和发展起来的。关于人工神经网络的学习机制,涉及到神经元如何分布、处理和存储信息。常用的人工神经网络学习规则如下,图5-8是权值调整的一般情况,其中:,Wj,为联接到神经元,j,的权值向量,,X,为输入向量,,r,为学习信号,,d,为导师信号。权向量的调整准则为,式中,为学习速率。权值调整的迭代格式为,权值调整的一般情况,w,X,r(w,x,d),d,j,信号生成器,O,j,j,w,j,X,1)Hebbian学习规则,1949年,心理学家D.O.Hebb最早提出了关于神经网络学习机理的“突触修正”的假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元,i,与神经元,j,同时处于兴奋状态时,两者之间的连接强度应增强。根据该假设定义的权值调整方法,称为Hebbian学习规则。在Hebbian学习规则中,学习信号简单地等于神经元的输出,式中,W,为权向量,,X,为输入向量。权向量的调整公式为,权向量中,每个分量的调整由下式确定,上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。在这种情况下,Hebbian学习规则需预先设置权饱和值,以防止输入和输出正负始终一致时出现权值无约束增长。此外,要求权值初始化,即在学习开始前(,t,=0),先对,Wj,(0)赋予零附近的小随机数。Hebbian学习规则代表一种纯前馈、无导师学习。该规则至今仍在各种神经网络模型中起着重要作用。,2)Perceptron(感知器)学习规则,1958年,美国学者Frank Rosenblatt首次定义了一个具有单层计算单元的神经网络结构,称为感知器(Perceptron)。感知器的学习规则规定,学习信号等于神经元期望输出(教师信号)与实际输出之差,式中 为期望的输出 ,。感知器采用了与阈值转移函数类似的符号转移函数,其表达为,因此,权值调整公式应为,式中,当实际输出与期望值相同时,权值不需要调整;在有误差存在情况下,由于、,,权值调整公式简化为,感器学习规则只适用于二进制神经元,初始权值可取任意值。,感知器学习规则代表一种有导师学习。由于感知器理论是研究其他神经网络的基础,该规则对于神经网络的有导师学习具有极为重要的意义。,3)(,Delta,)学习规则,1986年,认知心理学家McClelland和Rumelhart在神经网络训练中引入了规则,该规则亦可称为连续感知器学习规则,与上述离散感知器学习规则并行。规则的学习信号规定为,上式定义的学习信号称为。式中是转移函数的导数。显然,规则要求转移函数可导,因此只适用于有导师学习中定义的连续转移函数,如Sigmoid函数。,事实上,规则很容易由输出值与期望值的最小平方误差条件推导出来。定义神经元输出与期望输出之间的平方误差为,式中,误差E是权向量,Wj,的函数。欲使误差E最小,,Wj,应与误差的负梯度成正比,即,式中,比例系数是一个正常数。由式(5-12),误差梯度为,可以看出,上式中,与,X,之间的部分正是式(5-11)中定义的学习信号,。,Wj,中每个分量的调整由下式计算,学习规则可推广到多层前馈网络中,权值可初始化为任意值。,4)Widrow-Hoff学习规则,1962年,Bernard Widrow和Marcian Hoff提出了Widrow-Hoff学习规则,又称为最小均方规则(LMS)。Widrow-Hoff学习规则的学习信号为,权向量调整量为.,的各分量为,实际上,如果在学习规则中假定社会元转移函数为 ,则有,此时式(5-11)与式(5-17)相同。,因此,Widrow-Hoff学习规则可以看成是学习规则的一个特殊情况。该学习规则与神经元采用的转移函数无关,因而不需要对转移函数求导数,不仅学习速度较快,而且具有较高的精度。权值可初始化为任意值。,5)Correlation(相关)学习规则,相关学习规则学习信号为,易得出分别为,该规则表明,当,dj,是,xi,的期望输出时,相应的权值增量,ij,与两者的乘积,djxi,成正比。,如果Hebbian学习规则中的转移函数为二进制函数,且有,oj,=,dj,,则相关学习规则可看作Hebbian规则的一种特殊情况。应当注意的是,Hebbian学习规则是无导师学习,而相关学习规则是有导师学习。这种学习规则要求将权值初始化为零。,6)Winner-Take-all(胜者为王)学习规则,Winner-Take-all学习规则是一种竞争学习规则,用于无导师学习。一般将网络的某一层确定为竞争层,对于一个特定的输入X,竞争层的所有,p,个神经元均有输出响应,其中响应值最大的神经元为在竞争中获胜的神经元,即,只有获胜神经元才有权调整其权向量,调整量为,式中,是学习常数,一般其值随着学习的进展而减小。由于两个向量的点积越大,表明两者越近似,所以调整获胜神经元权值的结果是使,Wm,进一步接近当前输入X。显然,当下次出现与X相像的输入模式时,上次获胜的神经元更容易获胜。在反复的竞争学习过程中,竞争层的各神经元所对应的权向量被逐渐调整为输入样本空间的聚类中心。在有些应用中,以获胜神经元为中心定义一个获胜领域,除获胜神经元调整权值外,领域内的其他神经元也不同程度地调整权值。权值一般被初始化为任意值并进行归一化处理。,7)Outstar(外星)学习规则,神经网络中有两类常见节点,分别称为内星节点和外星节点,其特点见图5-8和5-9。图5-8中的内星节点总是接受来自四面八方的输入加权信号,因此是信号的汇聚点,对应的权值向量称为内星权向量;图5-9中的外星节点总是向四面八方发出输出加权信号,因此是信号的发散点,对应的权值向量称为外星权向量。内星学习规则定内星节点的输出响应是输入向量X和内星权向量,Wj,的点积。该点积反映了X与,Wj,的相似程度,其权值按式(5-23)调整。因此Winner-Take-All学习规则与内星规则一致。,下面介绍外星学习规则。外星学习规则属于有导师学习,其目的是为了生成一个期望的维输出向量,设对应的外星权向量用,Wj,表示,学习规则如下,式中,的规定与作用与式(5-23)中的相同,给出的外星学习规则使节点,j,对应的外星权向量向期望输出向量,d,靠近。,W,ij,W,nj,W,1j,j,W,ij,W,nj,W,1j,j,2.4神经网络学习,人工神经网络是由人工神经元(简称神经元)互联组成的网络,它是从微观结构和功能上对人脑的抽象、简化,是模拟人类智能的一条重要途径,反映了人脑功能的若干基本特征,如并行信息处理、学习、联想、模式分类、记忆等。目前,已发展了几十种神经网络,例如Hopfield模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart等的多层感知机模型和Kohonen的自组织网络模型等等。,在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。多层感知机神经网络的研究始于20世纪50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算法),实现了Minsky的多层网络设想。,神经网络对控制领域和反问题研究有吸引力的特征表现在:(1)能逼近任意L2上的非线性函数;(2)信息的并行分布式处理与存储;(3)可以多输入、多输出;(4)便于用超大规模集成电路(VLSI)或光学集成电路系统实现,或用现有的计算机技术实现;(5)能进行学习,以适应环境的变化。,决定网络整体性能的三大要素包括:(1)神经元(信息处理单元)的特性;(2)神经元间相互联接的形式拓扑结构;(3)为适应环境而改善性能的学习规则。表5-1为对神经网络发展有重要影响的神经网络,神经网络通过相继给网络输入一些样本模式,并按照一定的规则(或学习算法)不断改变网络各层的连接权值,使网络的输出不断地接近期望的输出值,这一个过程称为神经网络的学习或训练。学习的实质是可变权值的动态调整的自适应过程。改变权值的规则称为学习规则或学习算法(相应也称训练规则或训练算法)。单个处理单元,无论采用哪一种学习规则进行调整,其算法都十分简单。大量处理单元集体进行权值调整时,网络就呈现出“智能”的特性。,神经网络结构和功能不同,学习方法也各不相同。在人工神经网络的结构和转移函数决定以后,如何设计权使网络达到一定的要求,就成为决定神经网络信息处理性能的第三大要素。学习问题归根结底就是网络连接权的调整问题,其方法有以下几种:,名称,提出者,年代,典型应用领域,局限性,特点,Perceptron(感知器),Frank Rosenblatt(康奈尔大学),1958,文字识别、声音识别、声纳信号识别、学习记忆问题研究,不能识别识别复杂字符,对字的大小、平移和倾斜敏感,最早的神经网络,已很少应用;有学习能力,只能进行线形分类,Adaline(自适应线形单元)和Madaline(多个Adaline的组合网络),Bernard Widrow(斯坦福大学),1960,1962,雷达天线控制,自适应回波抵消,适应性调制解调,电话线中适应性补偿等,要求输入-输出之间为线性关系,学习能力较强,较早开始商业应用,Madaline是Adaline的功能扩展,Avalanche(雪崩网),S.Drossberg(波士顿大学),1967,连续语音识别,机器人手臂运动的教学指令,不易改变运动速度和插入运动,Cerellatron(小脑自动机),D.Marr(麻省理工学院),1969 1982,控制机器人的手臂运动,需要复杂的控制输入,类似于Avalanche网络,能调和各种指令序列,按需要缓缓地插入动作,Back Propagation(误差反传网络),P.Werbos(哈佛大学),David umlhart(斯坦福大学)James MeClelland(斯坦福大学),1974 1985,语音识别,工业过程控制,贷款信用评估,股票预测,自适应控制等,需要大量输入-输出数据,训练时间长,易陷入局部极小,多层前馈网络,采用最小均方差学习方式,是目前应用最广泛的学习网络,Self-organizing feature map(自组织特征映射网络),Tuevo Konhonen(芬兰赫尔辛基技术大学),1980,语音识别,机器人控制,工业过程控制,图像压缩,专家系统等,模式类型数需预先知道,对输入样本自组织聚类,可映射样本空间的分布,Hopfield网络,John Hopfield(加州理工学院),1982,求解TSP问题,线性规划,联想记忆和用于辨识,无学习能力,连接要对称,权值要预先给定,单层自联想网络,可从有缺陷和有噪声输入中恢复完整信息,Boltzman machine(玻尔兹曼机),Cauchy machine(柯西机),J.Hinton(多伦多大学),T.Sejnowski(霍尔金斯大学),1985 1986,图像、声纳和雷达等模式识别,波尔兹曼机训练时间长,柯西机在某些统计分布下产生噪声,采用随机学习算法的网络,可训练实现全局最优,Bidirectional Associative Memory(BAM,双向联想记忆网),Bart Kosko(南加州大学),1985 1988,内容寻址的联想记忆,存储的密度低,数据必须适应编码,双向联想式单层网络,具有学习功能,简单易学,Counter Propa