迁移学习

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

赖传滨迁移学习TransferLearning目录•迁移学习介绍•迁移学习的应用•迁移学习的一些方法•相关论文实例1迁移学习介绍PPT模板下载:行业PPT模板:节日PPT模板:素材下载:背景图片:图表下载:优秀PPT下载:教程:教程:教程:资料下载:课件下载:范文下载:试卷下载:教案下载:论坛:介绍迁移学习–利用之前学到的知识来帮助完成新环境下的学习任务比如:C++-Java1.1迁移学习的概念Task:学习任务Domain:域–数据的来源1介绍1.2研究迁移学习的原因AndrewNg预测未来机器学习各领域在产业界的占比•目前大多数成功的模型都是依赖于大量的有标签数据•很多学习任务很难获得大量的有标签数据•对于每一个任务都从头开始训练,成本非常高1介绍1.3迁移学习的定义•Domain(域)𝐷={𝜒,𝑃(𝑋)}•Task(学习任务)𝑇=𝒴,𝑓∙(𝑇={𝒴,𝑃(𝒴|𝑋)})•迁移学习定义:给定源域(sourcedomain)𝐷𝑠和对应的任务𝑇𝑠,给定目标域(targetdomain)𝐷𝑡和对应任务𝑇𝑡迁移学习即是在𝐷𝑠≠𝐷𝑡或𝑇𝑠≠𝑇𝑡时,利用𝐷𝑠和𝑇𝑠中的知识,来帮助学习𝐷𝑡上的预测函数𝑓𝑡∙𝜒:𝑎𝑓𝑒𝑎𝑡𝑢𝑟𝑒𝑠𝑝𝑎𝑐𝑒𝑋={𝑥1,𝑥2…,𝑥𝑛}∈𝜒𝑃𝑋:𝑎𝑚𝑎𝑟𝑔𝑖𝑛𝑎𝑙𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡𝑦𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛𝒴:𝑎𝑙𝑎𝑏𝑒𝑙𝑠𝑝𝑎𝑐𝑒𝑓∙:𝑝𝑟𝑒𝑑𝑖𝑐𝑡𝑖𝑣𝑒𝑓𝑢𝑛𝑐𝑡𝑖𝑜𝑛→通过训练集𝑥𝑖,𝑦𝑖训练(𝑥𝑖∈𝑋,𝑦𝑖∈𝒴)𝑓𝑥→用来预测𝑥的标签,可以写成𝑃(𝑦|𝑥)1介绍1.4迁移学习的应用场景给定源域𝐷𝑠和目标域𝐷𝑡,𝐷=𝜒,𝑃𝑋;给定源任务𝑇𝑠和目标任务𝑇𝑡,𝑇={𝒴,𝑃(𝒴|𝑋)})𝐷𝑠≠𝐷𝑡:•𝜒𝑠≠𝜒𝑡:源域和目标域的特征空间不一样。比如文本分类任务中,一类是中文文本,一类是英文文本•𝑃(𝑋𝑠)≠𝑃(𝑋𝑡):源域和目标域的边缘概率分布不一样。比如文本讨论的话题不一样𝑇𝑠≠𝑇𝑡(下面两种情景一般同时出现):•𝒴𝑠≠𝒴𝑡:任务的标签空间不一样。比如源任务是2分类,而目标任务有10个类别•𝑃(𝒴𝑠|𝑋)≠𝑃(𝒴𝑡|𝑋):任务的条件概率分布不一样。比如源和目标文档在类别上是不均衡的2迁移学习的应用PPT模板下载:行业PPT模板:节日PPT模板:素材下载:背景图片:图表下载:优秀PPT下载:教程:教程:教程:资料下载:课件下载:范文下载:试卷下载:教案下载:论坛:从模拟中学习•在现实世界中收集数据、训练模型:昂贵,耗时,甚至危险•从模拟中学习并将学到的知识应用在现实世界•对应应用场景𝑃(𝑋𝑠)≠𝑃(𝑋𝑡),即特征空间一样,但边缘概率分布不一样(模拟无法完全重现现实)•例子:使用游戏来训练无人驾驶汽车2应用•另一个需从模拟中学习的领域:机器人•在实际的机器人上训练模型是非常缓慢和昂贵的•从模拟中学习并且将知识迁移到现实世界的机器人上2应用2.2适应新的域•标签信息易于获取的数据和我们实际关心的数据经常是不一样的•视觉任务中不同的视觉域•文本处理中不同的文本类型(报纸、网络社交媒体)、不同的主题•语音识别中不同的口音2应用2.3跨语言迁移知识•将知识从一种语言迁移到另一种语言•可靠的跨语言域的方法会允许我们借用大量的已有的英文标签数据并将其应用在任何一种语言中,尤其是一些缺少资源的语言•目前还没有比较好的方法3迁移学习的一些方法PPT模板下载:行业PPT模板:节日PPT模板:素材下载:背景图片:图表下载:优秀PPT下载:教程:教程:教程:资料下载:课件下载:范文下载:试卷下载:教案下载:论坛:特征•较低的卷积层捕获低级图像特征,如:边缘•越高的卷积层捕获越来越高级的特征,如:人脸•最后的全连接层通常被认为是捕获与解决相应任务相关的信息•迁移学习的研究历史可以追述到上世纪90年代[1]•深度学习的出现导致了一系列迁移学习的新方法一些通过CNN学到的卷积模板一些经过卷积得到的featuremap3方法•利用已经训练好的模型帮助解决新的任务•训练好的模型包含一些通用特征,如图像里的边缘、形状组合等•在已有的模型的基础上,训练新的模型:保持已有模型的参数不变使用较小的学习率一个CNN(Lenet)的结构3方法3.2学习domain-invariant(域不变)特征•域不变特征:和域无关的一些一般性特征•通常只需要每个域中的无标签数据•这种一般性的特征通常用栈式的自编码器(StackedAutoencoders)学习得到3方法3.2.1稀疏自编码器•稀疏自编码器是具有一层隐藏层的BP神经网络,其思路是让输出尽可能等于输入。即尝试学习一个ℎ𝑤,𝑏(𝑥)≈𝑥的函数•稀疏性:隐藏层不能携带太多信息,希望所有隐藏层单元平均激活值接近于0•隐藏层对输入进行了压缩,并在输出层中解压缩(图像的压缩表示)自编码器倾向于学习得到能更好地表示输入数据的特征3方法•对输入层到隐藏层的权重进行可视化,得到如下图所示结果:3方法3.2.2栈式自编码器•由多层稀疏自编码器组成的神经网络,其前一层自编码器的输出作为其后一层自编码器的输入•例子(包含两个隐藏层):3方法•将这三层结合起来构建一个包含两个隐藏层和一个最终softmax分类器层的栈式自编码网络4相关论文实例PPT模板下载:行业PPT模板:节日PPT模板:素材下载:背景图片:图表下载:优秀PPT下载:教程:教程:教程:资料下载:课件下载:范文下载:试卷下载:教案下载:论坛:研究背景•对于一个新任务,只有较少的标记样本(目标域有少量标记样本)•有大量的其他相关任务的标记样本(源域有大量标记样本)•如何通过这两种样本训练出在新任务上表现良好的模型BoostingfortransferlearningWenyuanDai,QiangYang,Gui-RongXue,YongYu.Proceedingsofthe24thinternationalconferenceonMachinelearning.ACM,20074.1第一篇论文4相关论文4.1.2方法理论•源域的大量样本中中存在一部分样本比较适合用来在目标任务上训练有效的模型•使用boosting来过滤掉源域样本中与目标域样本最不像的样本•boosting的作用是建立一种自动调整权重的机制,源域中重要的样本的权重将会增加,不重要的样本的权重将会减小•调整权重之后,这些源域中带权重的样本将会作为额外的训练数据,与目标域中的样本一起训练4相关论文4.1.3boosting调整权重的例子用一些线段把红色的球与深蓝色的球分开仅用一条线是分不开的24弱弱强4相关论文4.1.4具体算法𝑇𝑠目标域的数据集;𝑇𝑑源域的数据集4相关论文相关论文44.2第二篇论文4.2.1研究背景Self-taughtlearning:transferlearningfromunlabeleddataRainaR,BattleA,LeeH,BPacker,AYNgProceedingsofthe24thinternationalconferenceonMachinelearning.ACM,2007•对机器学习所需的标签数据获取难度高,成本大•如何利用大量无标记数据辅助进行迁移学习•不要求无标记的数据和目标域的数据同属一类或取自同一分布1相关论文44.2.2方法步骤•首先根据未标数据训练出一组基(比如稀疏编码)•再对目标域的数据用这组基表示出来•然后用分类算法如SVM对目标域的数据进行训练1相关论文44.2.3算法流程求解基向量组b(和前面的稀疏自编码类似)1参考文献参考文献[1]Pan,SinnoJialin,andQ.Yang.ASurveyonTransferLearning.IEEETransactionsonKnowledge&DataEngineering22.10(2010):1345-1359.[2]Dai,Wenyuan,etal.Boostingfortransferlearning.InternationalConferenceonMachineLearningACM,2007:193-200.[3]Raina,Rajat,etal.Self-taughtlearning:transferlearningfromunlabeleddata.Proceeding

1 / 31
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功