下载‖深度学习论文合集大全从全局到枝干,从经典到前沿,从理论到应用,还有最新的研究......,所有你不需要的需要的,现在不需要的未来需要的,你不需要的周边小伙伴需要的......反正全都在这了。拿走不谢,就在AI科技大本营。整理|AI科技大本营(rgznai100)参考-对于大多数想上手深度学习的小伙伴来说,“我应当从那篇论文开始读起?”有没有一份完整的深度学习论文导引,让所有人都可以在里面找到想要的内容呢?它让大家对整个深度学习领域及其个枝干都能有一个相对完整的理解。这份阅读列表的组织原则是这样的:从全局到枝干:从综述类,全局性的文章到细分领域的具体论文。从经典到最前沿:每个话题的文章都是按时间顺序来排的,可以清晰给出每个方向的发展脉络。从通用理论到具体应用:有些论文是针对深度学习通用理论的,有些论文章则针对具体的应用领域。专注于最先进的研究:收集有许多最新论文,保证阅读列表的时效性。当然,这里的每个话题都只选几篇最具代表性的论文,深入研究的话,还需要更进一步的阅读。基于这些论文的影响力,你会发现很多新近发表的文章也值得一读。此外,这份阅读列表在原文页面会不断更新,值得你时时备查。1.0书[0]深度学习圣经★★★★★本吉奥,Yoshua,IanJ.Goodfellow和AaronCourville。“深入学习”。麻省理工学院出版社(2015年)。1.1报告[1]三巨头报告★★★★★LeCun,Yann,YoshuaBengio和GeoffreyHinton。“深入学习”。Nature521.7553(2015):436-444。深度信念网络(DBN)Hinton,GeoffreyE.,SimonOsindero和Yee-WhyeTeh。“深度信念网的快速学习算法”。神经计算18.7(2006):1527-1554。,GeoffreyE.和RuslanR.Salakhutdinov。“用神经网络降低数据的维数”。科学313.5786(2006):504-507。革命(深度学习大爆炸)Krizhevsky,Alex,IlyaSutskever和GeoffreyE.Hinton。“具有深卷积神经网络的Imagenet分类”。神经信息处理系统的进展。2012。[5]VGGNet深度神经网络出现★★★西蒙妮,凯伦和安德鲁Zisserman。“用于大规模图像识别的非常深的卷积网络”。arXivpreprintarXiv:1409.1556(2014)。[6]GoogLeNet★★★他,凯明,等“图像识别的深度残差学习”。arXivpreprintarXiv:1512.03385(2015)。1.4语音识别革命[8]语音识别突破★★★★[9]RNN论文★★★格雷夫斯,亚历克斯,阿卜杜勒-拉赫曼·穆罕默德和杰弗里·亨顿。“具有深层次神经网络的语音识别”。2013IEEE国际声学,语音和信号处理会议。IEEE,2013。[10]端对端RNN语音识别★★★[11]Google语音识别系统论文★★★[12]百度语音识别系统论文★★★★Amodei,Dario等“深度讲话2:英文和普通话的端对端语音识别”。arXivpreprintarXiv:1512.02595(2015)。[13]来自微软的当下最先进的语音识别论文★★★★W.熊,J.Droppo,X.Huang,F.Seide,M.Seltzer,A.Stolcke,D.Yu,G.Zweig“AchievingHumanParityinConversationalSpeechRecognition”。arXivpreprintarXiv:1610.05256(2016)。读完上面这些论文,将对你深度学习的历史,深度学习模型(CNN,RNN,LSTM等)基本的架构有一个基本认识,并理解能学习深度的英文如何解决图像及语音识别问题的接下来。的将论文带你深入理解深度学习方法,深度学习在前沿领域的不同应用。根据自己的兴趣和研究方向选择阅读即可:深度学习方法2.1模型辍学★★★Hinton,GeoffreyE.,etal。“通过防止特征检测器的共同适应来改善神经网络”。arXivpreprintarXiv:1207.0580(2012)。[15]过拟合★★★Srivastava,Nitish,etal。“辍学:一种防止神经网络过度配合的简单方法”。机器学习研究杂志15.1(2014):1929-1958。[16]批次归化--2015年杰出成果★★★★Ioffe,Sergey和ChristianSzegedy。“批量归一化:通过减少内部协变量来加速深入网络训练。arXivpreprintarXiv:1502.03167(2015)。[17]Batch归一化的升级★★★★Ba,JimmyLei,JamieRyanKiros和GeoffreyE.Hinton。“层规范化”。arXivpreprintarXiv:1607.06450(2016)。[18]快速训练新模型★★★Courbariaux,Matthieu,etal。“二进制神经网络:训练神经网络的权重和激活约束为+1或-1”。[19]训练方法创新★★★★★Jaderberg,Max,etal。“使用合成梯度解耦神经接口”。arXivpreprintarXiv:1608.05343(2016)。[20]修改预训练网络以降低训练耗时★★★陈天奇,IanGoodfellow和JonathonShlens。“Net2net:通过知识转移加速学习”。arXivpreprintarXiv:1511.05641(2015)。[21]修改预训练网络以降低训练耗时★★★魏涛等“网络形态”。arXivpreprintarXiv:1603.01670(2016)。2.2优化动力优化器★★Sutskever,Ilya,etal。“深入学习初始化和动力的重要性”。ICML(3)28(2013):1139-1147。神经优化器★★★★★Andrychowicz,Marcin,etal。“通过梯度下降学习学习梯度下降”。arXivpreprintarXiv:1606.04474(2016)。[25]ICLR最佳论文,让神经网络运行更快的新方向★★★★★韩,宋,惠子毛,WilliamJ.Dally。“深压缩:用修剪,训练量化和哈夫曼编码压缩深层神经网络。CoRR,abs/1510.001492(2015)。[26]优化神经网络的另一个新方向★★★★Iandola,ForrestN.,etal。“SqueezeNet:AlexNet级精度,参数减少50倍,模型尺寸小于1MB。”arXivpreprintarXiv:1602.07360(2016)。2.3无监督学习/深度生成式模型[27]Google脑找猫的里程碑论文,吴恩达★★★★Le,QuocV.“构建使用大规模无监督学习的高级特征”。2013IEEE国际声学,语音和信号处理会议。IEEE,2013。[28]变分自编码机(VAE)★★★★[30]解卷积生成式对抗网络(DCGAN)★★★★Radford,Alec,LukeMetz和SoumithChintala。“无监督的表示学习与深卷积生成对抗网络”。arXivpreprintarXiv:1511.06434(2015)。[31]注意机制的变分自编码机★★★★★[32]PixelRNN★★★★Oord,Aaronvanden,NalKalchbrenner和KorayKavukcuoglu。“像素复现神经网络”。arXivpreprintarXiv:1601.06759(2016)。[33]PixelCNN★★★★Oord,Aaronvanden,etal。“使用PixelCNN解码器的条件图像生成”。arXivpreprintarXiv:1606.05328(2016)。2.4RNN/序列到序列模型[36]神经网络的序列到序列学习★★★★★Sutskever,Ilya,OriolVinyals和QuocV.Le。“使用神经网络进行序列学习”。神经信息处理系统的进展。2014年[37]神经机器翻译★★★★Bahdanau,Dzmitry,KyungHyunCho和YoshuaBengio。“通过联合学习来平移和翻译神经机器翻译”。arXivpreprintarXiv:1409.0473(2014)。2.5神经网络图灵机Zaremba,Wojciech和IlyaSutskever。“加固学习神经图灵机”。arXivpreprintarXiv:1505.00521362(2015)。端对端记忆网络★★★★指针网络★★★★Vinyals,Oriol,MeireFortunato和NavdeepJaitly。“指针网络”。神经信息处理系统进展。2015年。[44]整合神经网络图灵机概念的里程碑论文★★★★★Graves,Alex,etal。“混合计算使用神经网络与动态外部存储器”。自然(2016)。2.6深度强化学习[46]里程碑★★★★★Mnih,Volodymyr,etal。“通过深层次的强化学习进行人为的控制”。Nature518.7540(2015):529-533。Lillicrap,TimothyP.,etal。“强化学习持续控制”。arXivpreprintarXiv:1509.02971(2015)。舒尔曼,约翰,等“信托地区政策优化”。CoRR,abs/1502.05477(2015)。[52]阿尔法★★★★★2.7深度迁移学习/终生学习/强化学习[53]班加奥教程★★★[54]终生学习的简单讨论★★★银,丹尼尔·李,强杨,李良浩。“终身学习系统:超越学习算法”。AAAI春季研讨会:终身机器学习。2013。=10.1.1.696.7800&rep=rep1&type=pdf[55]Hinton,JeffDean大神研究★★★★Hinton,Geoffrey,OriolVinyals和JeffDean。“在神经网络中挖掘知识”。arXivpreprintarXiv:1503.02531(2015)。Rusu,AndreiA.,etal。“政策蒸馏”。arXivpreprintarXiv:1511.06295(2015)。[57]多任务深度迁移强化学习★★★Parisotto,Emilio,JimmyLeiBa和RuslanSalakhutdinov。“演员模仿:深度多任务和转移强化学习”。arXivpreprintarXiv:1511.06342(2015)。累进式神经网络★★★★★Rusu,AndreiA.,etal。“进步神经网络”。arXivpreprintarXiv:1606.04671(2016)。2.8一次性深度学习[59]不涉及深度学习,但值得一读★★★★★Lake,BrendenM.,RuslanSalakhutdinov和JoshuaB.Tenenbaum。“通过概率计划诱导进行人文概念学习”。科学350.6266(2015):1332-1338。Vinyals,Oriol等人“匹配网络一次学习”。arXivpreprintarXiv:1606.04080(2016)。应用3.1自然语言处理(NLP)AntoineBordes,etal。“联合学习词语和开放语义分析的含义表示”。AISTATS(2012)https