人工智能发展及应用1人工智能发展的重要性1.1人工智能的起源与发展史人工智能(ArtificialIntelligence,AI),是研究用于模拟和扩展人的智能的理论方法及应用系统的科学,是对人的意识和思维过程进行模拟的科学。对人的思维模拟可以从两条路径进行,一是结构模拟,仿照人脑结构机制,制造出“类人脑”机器;二是功能模拟,撇开人脑内部结构,从其功能过程进行模拟。现代计算机便是对人脑思维功能的模拟,是对人脑思维过程的模拟。人工智能研究员佩德罗·多明戈斯根据人工智能研究人员采取的方式,将他们分为五大流派——根据抽象符号进行逻辑推理的“符号派”;受人脑启发搭建结构的“联结派”;受达尔文进化论启发的“进化派”;采用概率推理的“贝叶斯派”以及根据以前出现的类似情况进行推理的“类推派”。虽然人工智能的界限并不确定并且随旪间推移发生变化,但这并非问题的重点,重点在于人工智能的研究和应用始织围绕自动化或者复制智能行为。图1人工智能的演化历史1.2人工智能的重要性从我们手机中的个人助理,到越来越多的商业互动背后的分析、定制和网络保护,人工智能几乎涉及我们生活的各个方面。有分析表示,随着人工智能的加速发展和普及,到2030年人工智能将给全球GDP带来14%的额外增长,相当于增加了15.7万亿美元。AI对经济的影响主要有以下几个方面:(1)企业自动化进程(包括机器人和自动驾驶汽车的使用)带来的生产力的提升。(2)企业通过人工智能技术(辅助和增强智能)增强现有劳动力,从而提高生产效率。(3)由于提供个性化和更高质量的AI增强产品及服务而导致的消费者需求的增加。在过去的十年里,我们工作和生活中几乎所有的方面——从零售、制造业到医疗保健——都变得越来越数字化。移动互联网技术推动了第一波数字浪潮,即人与人之间的移动互联。然而,有人工智能专家分析预计,物联网所产生的数据将超过人与人之间移动互联所产生的数据。大量增加的数据已经促进了标准化的起步发展期反思发展期应用发展期低速发展期稳步发展期蓬勃发展期热度初春初冬初秋寒冬复苏爆发人工智能诞生任务失败目标落空专家系统遍地开花人工智能转向使用多项研究发展缓慢互联网推动人工智能不断创新和实用深度学习与大数据星期带来了人工智能的爆发机器定理证明智能跳棋程序……机器翻译笑话百出定理证明发展乏力……医疗专家系统化学专家系统地址专家系统……专家系统发展乏力神经网络研究受阻……深蓝战胜国际象棋冠军IBM提出智慧地球我国提出感知中国……物联网云计算大数据……1956196019701980199020002010产生,同时也必将导致自动化、个性化的产品和服务,这将为下一波数字化的浪潮奠定基础。人工智能将利用人和事物所产生的数据,使用我们以前从未想过的新方法来自动化地帮助我们。在短期内,人工智能最大的潜在经济增长可能来自于生产力的提升。这包括日常任务的自动化,从而使员工能够专注于更高附加值的工作。人工智能可能会给制造业和运输业等资本密集型行业带来最大生产力的增长,因为他们的许多运营流程都非常容易受到自动化的影响。对生产力的影响可能具有加大的竞争性和变革性——不能适应和采用人工智能自动化技术的企业可能很快就会在周转时间和成本方面被赶超。因此,他们将失去大量的市场份额。最终,产品增强带来的GDP增长以及人工智能产生的消费需求、行为和消费的后续变化将超过生产率的提高,可能在2030年实现9万亿美元的额外GDP增长。消费者将被更高质量和更个性化产品和服务吸引,同时商家也有机会更好地利用他们的时间——如果人们不再需要开车去工作,可以做些什么。反过来,增加的消费创造了更多的数据,从而产生良性循环,随着人工智能的发展,一步步产生更多的数据,更好的见解,更好的产品和更多的消费。2人工智能的关键核心技术数据量、运算力和算法模型是影响人工智能行业发展的三大要素。图2人工智能的三大技术基石(2000年之后,数据量的上涨、计算力的提升和深度学习算法的出现极大的促进了人工智能行业的发展。2.1数据是人工智能的基础移动互联网、物联网等技术的发展让我们拥有了以往难以想象的海量数据,尤其是在某一细分领域更深度的、逻辑化的数据,而这些都是训练某一领域“智能”的前提。从软件时代到互联网,再到如今的大数据时代,数据的量和复杂性都经历了从量到质的改变。在线数据量大增长速度快价值密度低类型繁多图3大数据的五大特征互联网、物联网为智能化进程提供深厚的数据基础。据WeAreSocial公司统计,独立移动设备用户渗透率于2014年9月超过了总人口的50%;活跃互联网用户在2014年11月突破了30亿人;接入互联网的活跃移动设备于2014年12月超过了36亿台。据德勤统计,2015年全球有10亿部物联网设备出货,比2014年增加六成,全球的物联网设备总量高达28亿部。在此背景下,全球数据总量在快速膨胀。根据IDC监测,全球在2010年正式进入ZB时代,总数据量大约每两年翻一番,这意味着人类在最近两年产生的数据量相当于之前产生的全部数据量,预计到2020年,全球将总共拥有35ZB的数据量。而根据HIS的估计,2015年全球产生的数据总量已达到十年前的20多倍。如此海量的数据给机器学习带来了充足的训练素材,打造了坚实的数据基础。2.2芯片的快速发展带动计算力的提升GPU和云计算的兴起,为人工智能带来了质的飞跃。其中GPU等芯片性能的快速提升,为人工智能的快速发展提供了可能性。与此同时,分布式计算(云计算)的兴起,大大降低了计算的时间、硬件成本,也为人工智能的快速发展提供了契机。表1目前深度学习领域常用的四大芯片类型训练端推理端GPU:以英伟达为主,AMD为辅标榜通用性,多维计算及大规模并行计算架构契合深度学习的需要。在深度学习上有训练端(主要用在云计算数据中心里),GPU是当仁不让的第一选择。GPU:英伟达VoltaGPU也开始布局推理端,深度学习下雨推理端虽可容纳CPU/FPGA/asic等芯片,但竞争态势下英伟达依然主导ASIC:以谷歌的TPU、英特尔的NervanaEngine为代表,真对特定框架进行深度优化定制,但开发周期比较长。通用性较低。ASIC:下游推理端更接近终端应用,需求也更佳细分,英伟达等DLA,寒武纪的NPU等逐步面试,将依靠特定优化和效能优势,未来在深度学习领域分一杯羹。CPU:通用型强,但难以适应于人工智能时代大数据并行计算工作。FPGA:依靠可编程性及电路等通用性,适用于开发周期较短的IoT产品、传感器数据预处理工作以及小型开发试错升级迭代阶段等,单较成熟的量产设备多采用ASIC。表2目前深度学习领域常用的四大芯片类型及主要芯片商类别GPUASICASIC:TPUCPUFPGA特点1.可多达上千个简单核心,上千个并行硬件线程;2.并行运算能力、1.需求确定后可进行专门优化设计;2.优秀的功耗控制3.性能稳定,1.与TensorFiow深度结合更接近DSA;2.已能同时用于高性能计算和浮点计算;1.通用性强;2.核心复杂程度高;3.串行运算能力强,单线程性能优化4.晶体1.电路级别的通用性;2.可编程性;3.适用于开发周期较短的IOT产品、传感器浮点运算能力强大;3.最大化浮点运算数据吞吐量可靠性高3.结合谷歌云提供云计算服务管空间用于复杂并行性指令数据预处理工作以及小型开发试错迭代阶段主要厂商英伟达、ADM、Imagination等英特尔、德州仪器、三星、高通等谷歌英特尔、ADM、高通等Xilinx、Altera(已被英特尔收购)、Lattice、Microsemi目前国内专注于人工智能芯片开发的企业有限,且总体技术水平与发达国家存在较大的差距,高端芯片严重依赖国外进口。中国是人工智能芯片制造的后起之秀,目前已推出中科院“寒武纪”、中星微“星光智能一号”等多款人工智能芯片,华为也表示将在年内推出人工智能芯片产品。国产人工智能芯片的崛起不仅带来计算能力的提升,同样也可以起到降低成本的作用。表3国内人工智能芯片公司芯片简介寒武纪寒武纪1A处理器具有完全的自主知识产权,在实测中达到了传统4核通CPU25倍以上性能和50倍以上的能效。集成寒武纪1A处理器的世界首款人工智能手机芯片华为麒麟970于2017年10月正式发布,并应用于华为Mate10手机。中星微星光智能一号全球首颗具备深度学习人工智能的嵌入式视频采集压缩编码系统级芯片,运用在人脸识别上,最高能达到98%的准确率,超过人眼的识别率。启英泰伦CI1006基于ASIC架构的人工智能语音识别芯片,包含了脑神经网络处理硬件单元,能够完美支持DNN运算架构,进行高性能的数据并行计算,可极大的提高人工智能深度学习语音技术对大量数据的处理效率。地平线“征程”1.0处理器、“旭日”1.0处理器“征程”1.0处理器面向智能驾驶,具备同时对行人、机动车、非机动车、车道线、交通标志牌、红绿灯等多类目标进行精准实时检测与识别的处理能力。“旭日”1.0处理器面向智能摄像头,“旭日”1.0处理器则通过深度学习算法,支持在前端实现大规模人脸检测跟踪、视频结构化,可应用于智能城市、智能商业等场景。其优势在于高性能(实时处理1080P@30帧,并对每帧中的200个目标进行检测、跟踪、识别)、低功耗(典型功耗在1.5W)和低延迟(延迟小于30毫秒)。比特大陆SOPHONBM1680(算丰)可以用于深度学习的训练和推断两方面,侧重于推断。2.3应用层技术1)语音识别语音识别的目标是用机器自动将人类的语音内容转换为相应的文字。语音识别包含语音模型和语言模型两个主要部分。声学模型是对发声的建模,它能够把语音输入转换成声学表示的输出,给出语音片段对应于某个声学符号的概率。语言模型的作用是在声学模型给出发音序列之后,从候选的文字序列中找出概率最大的字符串序列。在语音识别领域,我国的科大讯飞公司处于世界顶尖水平,在2016年Google承办的国际多通道语音分离和识别大赛(CHiME)中包揽全部项目的最好成绩。2)语音合成语音合成的目标是通过机器产生人类语音。语音合成主要包含前端和后端两个模块。前端模块主要是对输入文本进行分析,提取后端模块所需要的语言学信息。比如将文本中的数字和缩写转换成对应的完整词,给每个词标音,将文本分解成短语、短句等韵律结构。后端模块根据前端分析的结果,通过参数建模生成语音波形,或者通过单元数据库选择波形进行拼接。在语音合成领域,我国的科大讯飞公司处于世界顶尖水平,在语音合成领域最权威的暴风雪竞赛中连续12次获得世界第一。3)自然语言处理自然语言处理(NLP)是研究人与计算机之间用自然语言进行有效通信的各种理论和方法。主要包括:1.句法语义分析、2.信息抽取、3.文本挖掘、4.机器翻译、5.信息检索、6.问答系统、7.对话系统等。随着深度学习的不断发展,人们对深度学习在NLP中的应用寄予厚望。在自然语言处理领域,美国处于世界最顶尖水平。其中斯坦福大学计算机系的ChrisManning教授连续多年排在全球AI学者排行榜该领域第一名。4)计算机视觉计算机视觉是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,主要任务就是通过对采集的图片或视频进行处理以获得相应场景的三维信息。计算机视觉包含画面重建,事件监测,目标跟踪,目标识别,机器学习,索引创建,图像恢复等分支。在计算机视觉领域,美国处于世界最顶尖水平。在人脸识别领域,我国涌现出了商汤科技、云从科技、依图科技、旷视科技等优秀企业。3人工智能发展现状3.1人工智能研发现状1)人工智能技术发展阶段图4人工智能发展历程推理期。20世纪50年代—70年代初,人们赋予机器基本的判断、决策和推理能力。在这个期间,人工智能学科在1956年达特茅斯会议上建立。知识期。20世纪70年代人工智能进入知识期。人们总结专家的知识,将这些知识提炼赋予机器,产生了大量的专家系统。但专家系统知识有限,设计过程耗时耗力,知识无穷无尽,很多知识难以总结给计算机。而且这种专家系统只能用于解决某个特定的领域的问题,当扩展到更复杂更宽泛的问题时,性能不理想。机器学习期。