人工智能的现状与未来网经科技刘继明人工智能概述第一节深度学习与智能围棋第二节人工智能3.0第三节目录content人工智能的新革命第一节•人工智能简述•深度学习算法•知识图谱人工智能将引领人类第四次工业革命–智能化时间18世纪末工业1.0创造了机器工厂的“蒸汽时代”20世纪初电力广泛应用蒸汽机信息物联系统1970年代初今天工业2.0将人类带入分工明确、大批量生产的流水线模式和“电气时代”工业3.0应用电子信息技术,进一步提高生产自动化水平自动化、信息化工业4.0开始应用信息物理融合系统(CPS)复杂度悄悄来临互联网时代正在终结•人工智能•机器人•交通工具(即无人机、无人驾驶等)•VR(虚拟现实)AI将催生“无用阶层”吗?•人工/脑力劳动:翻译、记者...•人工/体力劳动:保安、保姆...什么是人工智能(AI)?•全面实施战略性新兴产业发展规划,加快人工智能等技术的研发和转化,做大做强产业集群•把发展智能制造作为主攻方向,推进国家智能制造示范区、制造业创新中心建设人工智能:国家战略(2017年政府工作报告)•人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。•它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。•人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。什么是人工智能?人工智能有那些类型?•弱人工智能,包含基础的、特定场景下角色型的任务,如Siri等聊天机器人和AlphaGo等下棋机器人;•通用人工智能,包含人类水平的任务,涉及机器的持续学习;•强人工智能,指比人类更聪明的机器;195619741980198719932006AI的诞生1956达特矛斯会议,“人工智能”正式诞生孕育期电子计算机机器翻译与NLP图灵测试计算机下棋早期神经网络搜索式推理聊天机器人乐观思潮所有的AI程序都只是“玩具”运算能力计算复杂性常识与推理专家系统知识工程五代机神经网络重生未达预期削减投入摩尔定律统计机器学习AI广泛应用大数据计算能力应用增多深度学习人工智能2016人工智能发展历程手机中的AI•人工智能相关技术刚刚越过曲线高峰(处于狂热期),是推动透明化身临其境体验技术发展的主要动力•涉及透明化身临其境体验的人本技术(如智能工作空间、互联家庭、增强现实、虚拟现实、脑机接口)是拉动另外两大趋势的前沿技术•数字平台在曲线上处于快速上升期,其中的量子计算和区块链将在今后5—10年带来变革性的影响AI处于什么阶段?AIRoadmap国人为什么要关注AI?为什么人类能成为地球的主宰?基因:人和大猩猩的基因,有98.4%都是完全一样的,只有1.6%有区别“符号语言”(口头语言和书面文字):传递、保存、共享知识“集体知识”:人类的大脑可以相互共享信息,交换知识人类个体比其他动物没有多大优势,掌握了符号语言,人类社会的结构发生了突变,有了一个连接在一起的集体大脑。这种物种之间相互关联、相互作用的方式,才是我们和其他物种的真正区别脑容量:历史上的“尼安德特人”和我们的祖先脑容量是一样的。但后来尼安德特人就没留下来,只有我们这一支留下来了《时间地图:大历史导论》知识和创新是推动人类发展的动力AI学科结构常识性推理演绎、问题求解逻辑心理学知识的模型化和表示认识论心理学AI系统和语言系统程序设计计算机语言启发式搜索现代控制理论图论运筹学基本方法和技术近期主要应用领域近期主要应用领域信息处理心理学逻辑控制理论心理学语言学自然语言系统声学语音学机器视觉光学模式识别心理学图示学机器人工业自动化控制理论空间研究自动程序设计系统程序设计算法分析计算原理逻辑自动定理证明数学逻辑学教学、科学和工程辅助博弈管理科学有关学科符号操作图示学AI的几大门派符号学派联结学派行为学派神经网络知识表示机器人模拟人的心智模拟脑的结构模拟人的行为聪明的AI有学识的AI深度学习知识图谱感知识别判断思考语言推理贝叶斯学派进化学派类推学派人工智能产业生态的三层基本架构基础资源层:主要是计算平台和数据中心,属于计算智能;技术层:通过机器学习建模,开发面向不同领域的算法和技术,包含感知智能和认知智能;应用层:主要实现人工智能在不同场景下的应用。基础资源支撑AI生态逐步形成:基础资源+技术+应用人工智能系统的技术架构智能终端智能云平台人工智能的新革命第一节•人工智能简述•深度学习算法•知识图谱推理期知识期机器学习期人工智能的三个研究阶段1950s1970s1980s基于符号知识表示通过演绎推理技术基于符号知识表示通过获取和利用领域知识建立专家系统神经网络第二个高潮NP(non-deterministicpolynomial-time)难题中获重大进展助力大量现实问题神经网络第一个高潮期神经网络以深度学习之名再次崛起大幅提升感知智能准确率201790s中期统计学习登场并占据主流,支持向量机、核方法为代表性技术提出支持向量、VC维等概念统计学的研究成果经由机器学习研究,形成有效的学习算法联结学派对大脑进行逆向分析灵感来自于神经科学和物理学产生的是“黑箱”模型神经网络可归置此类符号学派将学习看作逆向演绎并从哲学、心理学、逻辑学中寻求洞见代表包括决策树和基于逻辑的学习机器学习&深度学习•从以“推理”为重点到以“知识”为重点,再到以“学习”为重点•机器可以自动“学习”的算法,即从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。目前,机器学习=“分类”•人工智能机器学习深度学习•深度学习是使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法•深度学习是一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征用数据优化计算机程序的模型参数通过经验自动改进的计算机算法深度学习算法简介:机器学习•机器学习的基本定理模型的出错率∝推论:模型复杂-》大样本样本小-》简化模型模型的复杂程度样本的大小)(xFxyClasslabel(Classification)Vector(Estimation)机器学习实施过程特征提取特征1样本数据样本数据样本数据…n预处理特征样本集原始样本集机器学习算法训练预测输出验证集评价目标特征1…n目标特征1…n目标特征1…n训练集目标特征1…n目标特征1…n目标特征1…n验证集目标特征1…n目标特征1…n目标预测目标预测目标预测目标改进特征提取特征提取特征1样本数据样本数据样本数据…n特征样本集原始样本集目标特征1…n目标特征1…n目标统计分析变换特征运算特征选取是成败的关键•人脑是通过分级的、多层网络模型来识别•减少数据量,保留物体的有用信息低层信息预处理特征提取识别分类•对效果影响极大•手动化特征工程•非常耗时图像识别的一般流程人脑识别图像的过程第一个模型是一个线性模型,低度拟合,不能很好地适应训练集;第三个模型是一个四次方的模型,过度拟合,虽然能非常好地适应我们的训练集,但在新输入变量进行预测时可能会效果不好;中间的模型似乎最合适经过算法预测的结果是一个连续的值,我们称这样的问题为回归问题。算法能够学会如何将数据分类到不同的类里,我们称这样的问题为分类问题。深度学习算法简介:数学基础•当感知器用于两类模式的分类时,相当于在高维样本空间中,用一个超平面将两类样本分开•神经网络的学习过程就是神经网络参数的设定过程•一个神经元网络结构确定之后,需要对一系列参数(权重、阈值等)进行有效的设定。这个过程叫做学习或训练过程,此时的方法叫学习算法•是一个由线性阈值元件组成的单层(或多层)神经元的神经网络•当输入的加权和大于或等于阈值时,输出为1,否则为0•模型假定神经元中间的耦合程度(即加权系数W)可变,这样,该模型可以学习深度学习算法简介:感知器监督学习通过已有的训练样本(即已知数据以及其对应的输出)训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,从而也就具有了对未知数据进行分类的能力各种神经网络类型LogisticRBMAutoEncoderSparseCodingConvolutional(卷积)强化学习类似人类与环境交互的方式,智能系统从环境到行为映射的学习,以使奖励信号函数值最大。环境对产生动作的好坏通过奖励信号作评价,而不是告诉强化学习系统如何去产生正确的动作。强化学习不能立即得到标记,而只能得到一个反馈,因此可以说强化学习是一种具有“延迟标记信息”的监督学习典型案例:AlphaGo深度学习的训练方法2006年,GeoffreyHinton在《科学》上发表论文提出深度学习主要观点:•多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类•深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wisepre-training)来有效克服,逐层初始化可通过无监督学习实现的•在著名的ImageNet问题上将错误率从26%降低到了15%,并且输入没有用到其他任何人工特征,仅仅是图像的像素迁移学习将从拥有大数据的源领域上学习到的东西应用到仅有小数据的目标领域上去,实现个性化迁移,即举一反三、触类旁通。典型案例:斯坦福学者使用卫星图像获取的灯光信息来分析非洲大陆的贫穷情况深度学习的神经网络训练方法LeNet-5:卷积神经网络手写数字识别的应用卷积过程包括:用一个可训练的滤波器fx去卷积一个输入的图像,然后加一个偏置bx,得到卷积层Cx。子采样过程包括:每邻域四个像素求和变为一个像素,加权再增加偏置,通过一个激活函数,产生一个缩小四倍的特征映射图C1层:输入图片大小:32*32卷积窗大小:5*5卷积窗种类:6输出特征图数量:6输出特征图大小:28*28(32-5+1)神经元数量:4707[(28*28)*6)]连接数:12304[(5*5+1)*6]*(28*28)可训练参数:156[(5*5+1)*6]局部感受-卷积FeatureMap池化•原理:根据图像局部相关的原理,图像某个邻域内只需要一个像素点就能表达整个区域的信息•常见的方法:最大值池化(max-pooling)L2池化(L2pooling)均值池化(MeanPooling)LeNet-5•YannLecun,1989年用美国邮政系统提供的近万个手写数字的样本来训练神经网络系统,在独立的测试样本中,错误率只有5%•进一步运用CNN,开发出LeNet-5用于读取银行支票上的手写数字,这个支票识别系统在九十年代末占据了美国接近20%的市场深度学习的训练方法•HintoninImageNet•比赛•140万图像,•1000类•图库•1000万图像•20000类•7层CNN•准确率74%-85%深度学习的成功应用•AlphaGo战胜李世乭•图像识别全面超越人类•语音识别接近人类•将声学模型中混合高斯模型替换为DNN模型•获得30%+相对提升•TeslaAutopilot投入商用•GoogleTranslate投入商用•它把原文例如中文词先翻成一个词向量,变成一个数字向量。•它对这个词向量再编辑,变成一个语义表示的方式。•再把它翻译成它的目标语言,例如英文。人工智能的新革命第一节•人工智能简述•深度学习算法•知识图谱知识图谱(KnowledgeGraph)•知识图谱旨在描述真实世界中存在的各种实体或概念及其关系,一般用三元组表示•知识图谱亦可被看作是一张巨大的图,节点表示实体或概念