我爱机器学习机器学习干货站DeepMind团队的《DeepReinforcementLearninginLargeDiscreteActionSpaces》发表于2016年4月7日由smallroofPaper:DeepReinforcementLearninginLargeDiscreteActionSpacesAuthors:GDulac-Arnold,REvans,HvHasselt,PSunehag,TLillicrap,JHunt,TMann,TWeber,TDegris,BCoppinLink:前阵刚炒作过AlphaGo的DeepMind本月4号更新了《DeepReinforcementLearninginLargeDiscreteActionSpaces》第二版,看起来真的将RL用在推荐系统了。不过看起来文章的最大创新只是引入了actionembedding,具体如何做embedding的并未展开,估计是离不开word2vec的。文章提出了如图所示的WolpertingerPolicy网络,然后用DeepDeterministicPolicyGradient(DDPG)进行训练。最后的实验没看到大的突破,目前还是花招,期待未来更大的突破。发表在DeepLearning,机器学习|留下评论机器学习(MachineLearning)大家与资源发表于2015年4月7日由smallroof=======================国外====================MachineLearning大家(1):M.I.Jordan(~jordan/)在我的眼里,MJordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐镇一方,在附近的两所名校(加stanford)中都可以说无出其右者,stanford的DaphneKoller虽然也声名遐迩,但是和Jordan比还是有一段距离。Jordan身兼stat和cs两个系的教授,从他身上可以看出Stat和ML的融合。Jordan最先专注于mixturesofexperts,并迅速奠定了自己的地位,我们哈尔滨工业大学的校友徐雷跟他做博后期间,也在这个方向上沾光不少。Jordan和他的弟子在很多方面作出了开创性的成果,如spectralclustering,Graphicalmodel和nonparametricBayesian。现在后两者在ML领域是非常炙手可热的两个方向,可以说很大程度上是Jordan的lab一手推动的。更难能可贵的是,Jordan不仅自己武艺高强,并且揽钱有法,教育有方,手下门徒众多且很多人成了大器,隐然成为江湖大帮派。他的弟子中有10多人任教授,个人认为他现在的弟子中最出色的是stanford的AndrewNg,不过由于资历原因,现在还是assistantprofessor,不过成为大教授指日可待;另外TommiJaakkola和DavidBlei也非常厉害,其中TommiJaakkola在mit任教,DavidBlei之前在普林斯顿任副教授,最近刚刚(2014年4月初)被哥伦比亚大学花了三年时间挖走了,数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markovnetwork的structure结构结合起来,赫赫有名。2012年获得科学家总统奖,2014年初获得2013ACM-InfosysCSAward。还有一个博后是来自于toronto的YeeWhyeTeh,非常不错,有幸跟他打过几次交道,人非常nice。另外还有一个博后居然在做生物信息方面的东西,看来jordan在这方面也捞了钱。这方面他有一个中国学生EricP.Xing(清华大学校友),现在在cmu做assistantprofessor。总的说来,我觉得Jordan现在做的主要还是graphicalmodel和Bayesianlearning,他去年写了一本关于graphicalmodel的书,今年由mitpress出版,应该是这个领域里程碑式的著作。3月份曾经有人答应给我一本打印本看看,因为Jordan不让他传播电子版,但后来好像没放在心上(可见美国人也不是很守信的),人不熟我也不好意思问着要,可以说是一大遗憾.另外发现一个有趣的现象就是Jordan对hierarchical情有独钟,相当多的文章都是关于hierarchical的,所以能hierarchical大家赶快hierarchical,否则就让他给抢了。用我朋友话说看jordan牛不牛,看他主页下面的Paststudentsandpostdocs就知道了。MachineLearning大家(2):D.Koller(~koller/)D.Koller是1999年美国青年科学家总统奖(PECASE)得主,IJCAI2001ComputersandThoughtAward(IJCAI计算机与思维奖,这是国际人工智能界35岁以下青年学者的最高奖)得主,2004WorldTechnologyAward得主。最先知道Dkoller是因为她得了一个大奖,2001年IJCAI计算机与思维奖。Koller因她在概率推理的理论和实践、机器学习、计算博弈论等领域的重要贡献,成为继TerryWinograd、DavidMarr、TomMitchell、RodneyBrooks等人之后的第18位获奖者。说起这个奖挺有意思的,IJCAI终身成就奖(IJCAIAwardforResearchExcellence),是国际人工智能界的最高荣誉;IJCAI计算机与思维奖是国际人工智能界35岁以下青年学者的最高荣誉。早期AI研究将推理置于至高无上的地位;但是1991年牛人RodneyBrooks对推理全面否定,指出机器只能独立学习而得到了IJCAI计算机与思维奖;但是koller却因提出了ProbabilisticRelationalModels而证明机器可以推理论知而又得到了这个奖,可见世事无绝对,科学有回。Dkoller的ProbabilisticRelationalModels在nips和icml等各种牛会上活跃了相当长的一段时间,并且至少在实验室里证明了它在信息搜索上的价值,这也导致了她的很多学生进入了google。虽然进入google可能没有在牛校当faculty名声响亮,但要知道google的很多员工现在可都是百万富翁,在全美大肆买房买车的主。Koller的研究主要都集中在probabilisticgraphicalmodel,如Bayesian网络,但这玩意我没有接触过,我只看过几篇他们的markovnetwork的文章,但看了也就看了,一点想法都没有,这滩水有点深,不是我这种非科班出身的能趟的,并且感觉难以应用到我现在这个领域中。Koller才从教10年,所以学生还没有涌现出太多的牛人,这也是她不能跟Jordan比拟的地方,并且由于在stanford的关系,很多学生直接去硅谷赚大钱去了,而没有在学术界开江湖大帮派的影响,但在stanford这可能太难以办到,因为金钱的诱惑实在太大了。不过Koller的一个学生我非常崇拜,叫BenTaskar,就是我在(1)中所提到的Jordan的博后,是好几个牛会的最佳论文奖,他把SVM的最大间隔方法和Markovnetwork结合起来,可以说是对structuredata处理的一种标准工具,也把最大间隔方法带入了一个新的热潮,近几年很多牛会都有这样的workshop。我最开始上BenTaskar的在stanford的个人网页时,正赶上他刚毕业,他的顶上有这么一句话:流言变成了现实,我终于毕业了!可见Koller是很变态的,把自己的学生关得这么郁闷,这恐怕也是大多数女faculty的通病吧,并且估计还非常的push!2013年去世的牛人UW的BenTaskar就是Koller的学生。另外Koller和NG合办了Coursera。Machinelearning大家(3):J.D.Lafferty大家都知道NIPS和ICML向来都是由大大小小的山头所割据,而JohnLafferty无疑是里面相当高的一座高山,这一点可从他的publicationlist里的NIPS和ICML数目得到明证。虽然江湖传说计算机重镇CMU现在在走向衰落,但这无碍Lafferty拥有越来越大的影响力,翻开AI兵器谱排名第一的journalofmachinelearningresearch的很多文章,我们都能发现author或者editor中赫然有Lafferty的名字。Lafferty给人留下的最大的印象似乎是他2001年的conditionalrandomfields,这篇文章后来被疯狂引用,广泛地应用在语言和图像处理,并随之出现了很多的变体,如Kumar的discriminativerandomfields等。虽然大家都知道discriminativelearning好,但很久没有找到好的discriminative方法去处理这些具有丰富的contextualinxxxxation的数据,直到Lafferty的出现。而现在Lafferty做的东西好像很杂,semi-supervisedlearning,kernellearning,graphicalmodels甚至manifoldlearning都有涉及,可能就是像武侠里一样只要学会了九阳神功,那么其它的武功就可以一窥而知其精髓了。这里面我最喜欢的是semi-supervisedlearning,因为随着要处理的数据越来越多,进行全部label过于困难,而完全unsupervised的方法又让人不太放心,在这种情况下semi-supervisedlearning就成了最好的。这没有一个比较清晰的认识,不过这也给了江湖后辈成名的可乘之机。到现在为止,我觉得cmu的semi-supervised是做得最好的,以前是KAMALNIGAM做了开创性的工作,而现在Lafferty和他的弟子作出了很多总结和创新。Lafferty的弟子好像不是很多,并且好像都不是很有名。不过今年毕业了一个中国人,XiaojinZhu(上海交通大学校友),就是做semi-supervised的那个人,现在在wisconsin-madison做assistantprofessor。他做了迄今为止最全面的Semi-supervisedlearningliteraturesurvey,大家可以从他的个人主页中找到。这人看着很憨厚,估计是很好的陶瓷对象。另外我在(1)中所说的Jordan的牛弟子DBlei今年也投奔Lafferty做博后,就足见Lafferty的牛了。Lafferty做NLP是很好的,著名的LinkGrammarParser还有很多别的应用。其中languagemodel在IR中应用,这方面他的另一个中国学生ChengXiangZhai(南京大学校友,2004年美国青年科学家总统奖(PECASE)得主),现在在uiuc做assistantprofessor。Machinelearning大家(4):PeterL.Bartlett鄙人浅薄之见,Jordan比起同在berkeley的PeterBartlett还是要差一个层次。Bartlett主要的成就都是在learningtheory方面,也就是ML最本质的东西。他的几篇开创性理论分析的论文,当然还有他的书NeuralNetworkLearning:TheoreticalFoundations。UCBerkeley的统计系在强手如林的北美高校中一直是top3,这就足以证明其肯定是群星荟萃,而其中,PeterL.Bartlett是相当亮的一颗星。关于他的研究,我想可以从他的一本书里得到答案:NeuralNetworkLearning:TheoreticalFoundati