人工神经网络-PPT课件

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

人工神经网络中国科学院自动化研究所吴高巍gaowei.wu@ia.ac.cn2016-11-29联结主义学派又称仿生学派或生理学派认为人的思维基元是神经元,而不是符号处理过程认为人脑不同于电脑核心:智能的本质是联接机制。原理:神经网络及神经网络间的连接机制和学习算法麦卡洛可(McCulloch)皮茨(Pitts)什么是神经网络所谓的人工神经网络就是基于模仿生物大脑的结构和功能而构成的一种信息处理系统(计算机)。个体单元相互连接形成多种类型结构的图循环、非循环有向、无向自底向上(Bottom-Up)AI起源于生物神经系统从结构模拟到功能模拟仿生人工神经网络内容生物学启示多层神经网络Hopfield网络自组织网络生物学启示•神经元组成:细胞体,轴突,树突,突触•神经元之间通过突触两两相连。信息的传递发生在突触。•突触记录了神经元间联系的强弱。•只有达到一定的兴奋程度,神经元才向外界传输信息。生物神经元神经元神经元特性信息以预知的确定方向传递一个神经元的树突-细胞体-轴突-突触-另一个神经元树突时空整合性对不同时间通过同一突触传入的信息具有时间整合功能对同一时间通过不同突触传入的信息具有空间整合功能神经元工作状态兴奋状态,对输入信息整合后使细胞膜电位升高,当高于动作电位的阈值时,产生神经冲动,并由轴突输出。抑制状态,对输入信息整合后使细胞膜电位降低,当低于动作电位的阈值时,无神经冲动产生。结构的可塑性神经元之间的柔性连接:突触的信息传递特性是可变的——学习记忆的基础神经元模型从生物学结构到数学模型人工神经元M-P模型Xgffyθx1x2xnyω1ω2ωnInputOutputThresholdMcCllochandPitts,Alogicalcalculusoftheideasimmanentinnervousactivity,1943f:激活函数(ActivationFunction)g:组合函数(CombinationFunction)WeightedSumRadialDistanceniiixg1Xniiixffy1niiixffy0niiicx12CXniicxffy12组合函数)(f)(f)(f)(f)(f)(f0+1(e)(f)ThresholdLinearSaturatingLinearLogisticSigmoidHyperbolictangentSigmoidGaussian激活函数)exp(11)(f)tanh()(f人工神经网络多个人工神经元按照特定的网络结构联接在一起,就构成了一个人工神经网络。神经网络的目标就是将输入转换成有意义的输出。生物系统中的学习自适应学习适应的目标是基于对环境信息的响应获得更好的状态在神经层面上,通过突触强度的改变实现学习消除某些突触,建立一些新的突触生物系统中的学习Hebb学习律神经元同时激活,突触强度增加异步激活,突触强度减弱学习律符合能量最小原则保持突触强度需要能量,所以在需要的地方保持,在不需要的地方不保持。ANN的学习规则能量最小ENERGYMINIMIZATION对人工神经网络,需要确定合适的能量定义;可以使用数学上的优化技术来发现如何改变神经元间的联接权重。ENERGY=measureoftaskperformanceerror两个主要问题结构Howtointerconnectindividualunits?学习方法HowtoautomaticallydeterminetheconnectionweightsorevenstructureofANN?SolutionstothesetwoproblemsleadstoaconcreteANN!人工神经网络前馈结构(FeedforwardArchitecture)-withoutloops-static反馈/循环结构(Feedback/RecurrentArchitecture)-withloops-dynamic(non-lineardynamicalsystems)ANN结构……………………………………………………………………………………………………………………………………………………………………………………………侧抑制连接反馈连接……1x2x3xnx1y2y3ynyGeneralstructuresoffeedforwardnetworksGeneralstructuresoffeedbacknetworks通过神经网络所在环境的模拟过程,调整网络中的自由参数Learningbydata学习模型Incrementalvs.Batch两种类型Supervisedvs.UnsupervisedANN的学习方法若两端的神经元同时激活,增强联接权重UnsupervisedLearningtxtxttjiijij1学习策略:HebbrianLearningixijjx最小化实际输出与期望输出之间的误差(Supervised)-DeltaRule(LMSRule,Widrow-Hoff)-B-PLearningKkkkeK1*,1minargYDωωObjective:Solution:ωωωω学习策略:ErrorCorrection采用随机模式,跳出局部极小-如果网络性能提高,新参数被接受.-否则,新参数依概率接受LocalMinimumGlobalMinimum学习策略:StochasticLearning“胜者为王”(Winner-take-all)UnsupervisedHowtocompete?-HardcompetitionOnlyoneneuronisactivated-SoftcompetitionNeuronsneighboringthetruewinnerareactivated.学习策略:CompetitiveLearning重要的人工神经网络模型多层神经网络径向基网络Hopfield网络Boltzmann机自组织网络……多层感知机(MLP)感知机实质上是一种神经元模型阈值激活函数Rosenblatt,1957感知机)(vfyxviiix1x2x3w1w2w30?判别规则输入空间中样本是空间中的一个点权向量是一个超平面超平面一边对应Y=1另一边对应Y=-1+1-10x单层感知机学习调整权值,减少训练集上的误差简单的权值更新规则:初始化对每一个训练样本:ClassifywithcurrentweightsIfcorrect,nochange!Ifwrong:adjusttheweightvector30学习:BinaryPerceptron初始化对每一个训练样本:ClassifywithcurrentweightsIfcorrect(i.e.,y=y*),nochange!Ifwrong:adjusttheweightvectorbyaddingorsubtractingthefeaturevector.Subtractify*is-1.0if10if1xxyxy*xy*x多类判别情况Ifwehavemultipleclasses:Aweightvectorforeachclass:Score(activation)ofaclassy:Predictionhighestscorewinsyxyxyyymaxargbiggest1xbiggest2xbiggest3x学习:MulticlassPerceptron初始化依次处理每个样本PredictwithcurrentweightsIfcorrect,nochange!Ifwrong:lowerscoreofwronganswer,raisescoreofrightanswerxyyymaxargxxyyxyy**感知机特性可分性:trueifsomeparametersgetthetrainingsetperfectlycorrectCanrepresentAND,OR,NOT,etc.,butnotXOR收敛性:ifthetrainingisseparable,perceptronwilleventuallyconverge(binarycase)SeparableNon-Separable感知机存在的问题噪声(不可分情况):ifthedataisn'tseparable,weightsmightthrash泛化性:findsa“barely”separatingsolution改进感知机线性可分情况Whichoftheselinearseparatorsisoptimal?SupportVectorMachinesMaximizingthemargin:goodaccordingtointuition,theory,practiceOnlysupportvectorsmatter;othertrainingexamplesareignorableSupportvectormachines(SVMs)findtheseparatorwithmaxmarginSVMixyii,1min221优化学习问题描述训练数据目标:发现最好的权值,使得对每一个样本x的输出都符合类别标签样本xi的标签可等价于标签向量采用不同的激活函数平方损失:},...,2,1|),{(nicxiimTikiRtt]0,...,0,,0,...,0[,nimkikiktxy112,21)(单层感知机单层感知机单层感知机单层感知机采用线性激活函数,权值向量具有解析解批处理模式一次性更新权重缺点:收敛慢增量模式逐样本更新权值随机近似,但速度快并能保证收敛多层感知机(MLP)层间神经元全连接MLPs表达能力3layers:Allcontinuousfunctions4layers:allfunctionsHowtolearntheweights???waitingB-Palgorithmuntil1986B-PNetwork结构Akindofmulti-layerperceptron,inwhichtheSigmoidactivationfunctionisused.B-P算法学习方法-Inputdatawasputforwardfrominputlayertohiddenlayer,thentooutlayer-Errorinformationwaspropagatedbackwardfromoutlayertohidderlayer,thentoinputlayerRumelhart&Meclelland,Nature,1986…………………jikjiyjyjixkjxB-P算法GlobalErrorMeasuredesiredoutputgeneratedoutputsquarederrorTheobjectiveistominimizethesquarederror,i.e.reachtheMinimumSquaredError(MSE)nydeiii1221ωωωωeminarg*B-P算法Step1.Selectapatternfromthetrainingsetandpresentittothenetwork.Step2.Computeactivationofinput,hiddenandoutputneuronsinthat

1 / 90
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功