机器学习与应用-第02讲-人工神经网络-1

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

神经网络的思想起源神经元的原理神经网络结构正向传播算法怎样用于实际问题反向传播算法概述算法的历史神经网络训练时的优化目标函数几个重要的复合函数求导公式算法的推导算法的总结工程实现问题人类的大脑由大约800亿个神经元组成这些神经元由突触与其他神经元相互连接,交换电信号和化学信号大脑通过神经元之间的协作完成各种功能神经元之间的连接关系是通过进化、生长发育和后天刺激形成的人工神经网络受动物神经系统的启发,是一种仿生的方法。但只是简单的模仿是感知器模型、logistic回归的进一步发展神经元的原理1x2x3x4x5xbxwfiii51b12345,,,,xxxxx12345,,,,Twxfb输入值连接权重偏置项输出值为什么需要激活函数?向量和矩阵形式11expfxxsigmoid函数定义域值域单调性导数神经网络结构多层前馈型神经网络,也称为多层感知器模型MLP是一个分层结构,每一层有多个神经元输入层隐含层输出层123,,xxx1234,,,yyyy12,zz1111(1)11112213312111(1)21122223323111(1)31132233334111(1)411422433411exp11exp11exp11expywxwxwxbywxwxwxbywxwxwxbywxwxwxb12222(2)111122133144122222(2)211222233244211exp11expzwywywywybzwywywywyb1uWxbxullllllf神经网络每一层完成的变换权重矩阵的每一行为本层神经元与上一层所有神经元的连接权重激活函数分别作用于每个神经元的输出值,即向量的每个分量,且使用了相同的函数111111111111........................llllllllllllslllllsssssswwxbuwwxbu内积加偏置1...lllsxxf激活函数正向传播算法nm神经网络实现的是向量到向量的映射yxh1uWxbxullllllf网络的每一层完成的变换对于前面例子中的网络2112zWWxbbff1122yWxbzWybff完整的正向传播算法1xx1uWxbllllxullf设置输入值循环,对于2,...,lm结束循环输出xm神经网络本质上是一个多层复合函数通过调整权重和偏置项实现不同的映射权重和偏置项的值通过训练得到怎样用于实际问题分类问题-输入值为特征向量或原始数据,输出值为one-hot编码回归问题-输出值为回归函数值对于分类问题,分类结果为输出层神经元的最大值对于回归问题,直接是输出层的值2828输入层有784个神经元输出层有10个神经元隐含层的神经元数量根据需要设定0123456789分类问题-手写数字图像识别回归问题-预测人脸关键点神经网络直接为输入图像预测出关键点的坐标(x,y)反向传播算法简介解决神经网络参数求导问题源自微积分中多元函数求导的链式法则与梯度下降法配合,完成网络的训练DavidE.Rumelhart,GeoffreyE.Hinton,andRonaldJ.Williams.Learninginternalrepresentationsbyback-propagatingerrors.Nature,323(99):533-536,1986.1111(1)11112213312111(1)21122223323111(1)31132233334111(1)411422433411exp11exp11exp11expywxwxwxbywxwxwxbywxwxwxbywxwxwxb12222(2)111122133144122222(2)211222233244211exp11expzwywywywybzwywywywyb以下面的3层网络为例:输入层隐含层输出层隐含层完成的变换:输出层完成的变换:激活函数选用sigmoid:11expfxx写成矩阵和向量形式为:2112zWWxbbff1122yWxbzWybff1uWxbxullllllf神经网络每一层完成的变换为:权重矩阵的每一行为本层神经元与上一层所有神经元的连接权重激活函数分别作用于每个神经元的输出值,即向量的每个分量,且使用了相同的函数111111111111........................llllllllllllslllllsssssswwxbuwwxbu内积加偏置1...lllsxxf激活函数211xy2miiiLWhm神经网络的权重和偏置参数通过训练得到训练的目标是最小化训练样本的预测误差以均方误差为例(也叫欧氏距离):真实标签值神经网络的预测值二范数的平方可以写成对单个样本损失的均值:2111xy2miiiLWhm单个样本的损失1ttWtWWLW所有参数如果对所有参数的梯度值已经计算出来,则可以用梯度下降法更新:现在的问题是目标函数是一个复合函数,每层都有权重矩阵与偏置向量,如何计算损失函数对它们的导数值?221121WWxbby2ff2221111xc....22nnLxcxc111x...xcnnnLxcxLLxcx欧氏距离损失函数的梯度值多元函数求导的链式法则,,,,,fuxyvxywxyffufvfwxuxvxwxffufvfwyuyvywy上一层中所有和本变量有关的变量都要考虑问题1yWxyf?yWff1111nnkllillmmklljkkijkijkijiijiwxwxyfffffxwywywywy1111111111....................................nnnnmmnmmmfffffxxwwyyyxxfffffxxwwyyyTWyxff2111211121222221...........................nnmmmnnm结论:问题2yWxyf?yxff11y111...njkkmmmjkjiimijjjijijiiwxyffffTxyWff结论:2111211121222221...........................nnmmmnnm问题3yxgiiygx?yxffiiiiyffxyx'xyxffg结论:yf问题4uWxyug?yxffyfTT'xuyWWufffg结论:问题5:yxg12,,...,,1,...,iinygxxximyf?yxff111......mimijijjjmfyyyyffxyxxxfyT11111111111.......................................mnmmmnmmnnnyyyyfffxxxxxyyfyfyyfyxyyxxxxTxyyxff结论:雅克比矩阵111122221212.....................nnmmmnyyyxxxyyyxxxyyyxxx21211211先从最外层算起计算某一层时需要依靠它外面贴近的那一层1uWxbxullllllfT1WuxlllLLbullLL正向传播时的变换公式:计算权重和偏置的梯度:这一项对于权重矩阵和偏置向量的梯度是共用的''uxuxyulllllLLff输出层:T1'WxyuxllllLf'bxyulllLf权重和偏置的梯度可以直接求出:11111uWxbWublllllllf隐含层正向传播时的变换:1T1''uxuuWullllllLLfLf'Tu11'xyuWulllllllllflnLfln定义误差项:根据后一层的梯度计算本层的梯度:终点递推公式反向传播算法'xyulllnnnfT11'WullllfT1wxlllLbllL计算误差项:输出层:隐含层:计算梯度值:权重:偏置:梯度下降更新:WbWWbbllllllLL复合函数求导梯度下降法神经网络的训练算法可以总结为梯度下降法有几种不同的实现单样本模式批量模式除梯度下降法以外,还可以采用二阶技术,如牛顿法随机梯度下降法工程实现问题激活函数值,导数值,在正向传播的时候已经计算出来,存储备用编程语言中的向量和矩阵按行存储,因此计算公式有所变化1uxWbllllT11'WullllfT1WxllL

1 / 32
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功