为什么最近有很多名人比如比尔盖茨_马斯克_霍金等_让人们警惕人工智能?-完整版47

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

为什么最近有很多名人,比如比尔盖茨,马斯克、霍金等,让人们警惕人工智能?我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大–VernorVinge如果你站在这里,你会是什么感觉?看上去非常刺激吧?但是你要记住,当你真的站在时间的图表中的时候,你是看不到曲线的右边的,因为你是看不到未来的。所以你真实的感觉大概是这样的:稀松平常。-------------------------------遥远的未来——就在眼前想象一下坐时间机器回到1750年的地球,那个时代没有电,畅通通讯基本靠吼,交通主要靠动物拉着跑。你在那个时代邀请了一个叫老王的人到2015年来玩,顺便看看他对“未来”有什么感受。我们可能没有办法了解1750年的老王内心的感受——金属铁壳在宽敞的公路上飞驰,和太平洋另一头的人聊天,看几千公里外正在发生进行的体育比赛,观看一场发生于半个世纪前的演唱会,从口袋里掏出一个黑色长方形工具把眼前发生的事情记录下来,生成一个地图然后地图上有个蓝点告诉你现在的位置,一边看着地球另一边的人的脸一边聊天,以及其它各种各样的黑科技。别忘了,你还没跟他解释互联网、国际空间站、大型强子对撞机、核武器以及相对论。这时候的老王会是什么体验?惊讶、震惊、脑洞大开这些词都太温顺了,我觉得老王很可能直接被吓尿了。但是,如果老王回到了1750年,然后觉得被吓尿是个很囧的体验,于是他也想把别人吓尿来满足一下自己,那会发生什么?于是老王也回到了250年前的1500年,邀请生活在1500年的小李去1750年玩一下。小李可能会被250年后的很多东西震惊,但是至少他不会被吓尿。同样是250来年的时间,1750和2015年的差别,比1500年和1750年的差别,要大得多了。1500年的小李可能能学到很多神奇的物理知识,可能会惊讶于欧洲的帝国主义旅程,甚至对于世界地图的认知也会大大的改变,但是1500年的小李,看到1750年的交通、通讯等等,并不会被吓尿。所以说,对于1750年的老王来说,要把人吓尿,他需要回到更古老的过去——比如回到公元前12000年,第一次农业革命之前。那个时候还没有城市,也还没有文明。一个来自狩猎采集时代的人类,只是当时众多物种中的一个罢了,来自那个时代的小赵看到1750年庞大的人类帝国,可以航行于海洋上的巨舰,居住在“室内”,无数的收藏品,神奇的知识和发现——他很有可能被吓尿。小赵被吓尿后如果也想做同样的事情呢?如果他会到公元前24000年,找到那个时代的小钱,然后给他展示公元前12000年的生活会怎样呢。小钱大概会觉得小赵是吃饱了没事干——“这不跟我的生活差不多么,呵呵”。小赵如果要把人吓尿,可能要回到十万年前或者更久,然后用人类对火和语言的掌控来把对方吓尿。所以,一个人去到未来,并且被吓尿,他们需要满足一个“吓尿单位”。满足吓尿单位所需的年代间隔是不一样的。在狩猎采集时代满足一个吓尿单位需要超过十万年,而工业革命后一个吓尿单位只要两百多年就能满足。未来学家RayKurzweil把这种人类的加速发展称作加速回报定律(LawofAcceleratingReturns)。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快。即使放到更小的时间规模上,这个定律依然有效。著名电影《回到未来》中,生活在1985年的主角回到了1955年。当主角回到1955年的时候,他被电视刚出现时的新颖、便宜的物价、没人喜欢电吉他、俚语的不同而震惊。但是如果这部电影发生在2015年,回到30年前的主角的震惊要比这大得多。一个2000年左右出生的人,回到一个没有个人电脑、互联网、手机的1985年,会比从1985年回到1955年的主角看到更大的区别。这同样是因为加速回报定律。1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度要快,因为1985年的世界比1955年的更发达,起点更高,所以过去30年的变化要大过之前30年的变化。进步越来越大,发生的越来越快,也就是说我们的未来会很有趣对吧?未来学家Kurzweil认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成——2000年的发展速度是20世纪平均发展速度的5倍。他认为2000年开始只要花14年就能达成整个20世纪一百年的进步,而之后2014年开始只要花7年(2021年),就能达到又一个20世纪一百年的进步。几十年之后,我们每年都能达成好几次相当于整个20世纪的发展,再往后,说不定每个月都能达成一次。按照加速回报定,Kurzweil认为人类在21世纪的进步将是20世纪的1000倍。如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们吓尿了——下一个吓尿单位可能只需要十几年,而2050年的世界会变得面目全非。你可能觉得2050年的世界会变得面目全非这句话很可笑,但是这不是科幻,而是比你我聪明很多的科学家们相信的,而且从历史来看,也是逻辑上可以预测的。那么为什么你会觉得“2050年的世界会变得面目全非”这句话很可笑呢?有三个原因让你质疑对于未来的预测:1.我们对于历史的思考是线性的。当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的,但是但是考虑未来的时候我们应该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。2.近期的历史很可能对人产生误导。首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。S曲线发生在新范式传遍世界的时候,S曲线分三部分-慢速增长(指数增长初期)-快速增长(指数增长的快速增长期)-随着新范式的成熟而出现的平缓期如果你只看近期的历史,你很可能看到的是S曲线的某一部分,而这部分可能不能说明发展究竟有多快速。1995-2007年是互联网爆炸发展的时候,微软、谷歌、脸书进入了公众视野,伴随着的是社交网络、手机的出现和普及、智能手机的出现和普及,这一段时间就是S曲线的快速增长期。2008-2015年发展没那么迅速,至少在技术领域是这样的。如果按照过去几年的发展速度来估计当下的发展速度,可能会错得离谱,因为很有可能下一个快速增长期正在萌芽。3.个人经验使得我们对于未来预期过于死板。我们通过自身的经验来产生世界观,而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。”我们还会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测偏了。如果我现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀。接下来的内容,你可能一边读一边心里“呵呵”,而且这些内容可能真的是错的。但是如果我们是真的从历史规律来进行逻辑思考的,我们的结论就应该是未来的几十年将发生比我们预期的多得多得多得多的变化。同样的逻辑也表明,如果人类这个地球上最发达的物种能够越走越快,总有一天,他们会迈出彻底改变“人类是什么”这一观点的一大步,就好像自然进化不不断朝着智能迈步,并且最终迈出一大步产生了人类,从而完全改变了其它所有生物的命运。如果你留心一下近来的科技进步的话,你会发现,到处都暗示着我们对于生命的认知将要被接下来的发展而彻底改变。通往超级智能之路人工智能是什么?如果你一直以来把人工智能(AI)当做科幻小说,但是近来却不但听到很多正经人严肃的讨论这个问题,你可能也会困惑。这种困惑是有原因的:1.我们总是把人工智能和电影想到一起。星球大战、终结者、2001:太空漫游等等。电影是虚构的,那些电影角色也是虚构的,所以我们总是觉得人工智能缺乏真实感。2.人工智能是个很宽泛的话题。从手机上的计算器到无人驾驶汽车,到未来可能改变世界的重大变革,人工智能可以用来描述很多东西,所以人们会有疑惑。3.我们日常生活中已经每天都在使用人工智能了,只是我们没意识到而已。JohnMcCarthy,在1956年最早使用了人工智能(ArtificialIntelligence)这个词。他总是抱怨“一旦一样东西用人工智能实现了,人们就不再叫它人工智能了。”因为这种效应,所以人工智能听起来总让人觉得是未来的神秘存在,而不是身边已经存在的现实。同时,这种效应也让人们觉得人工智能是一个从未被实现过的流行理念。Kurzweil提到经常有人说人工智能在80年代就被遗弃了,这种说法就好像“互联网已经在21世纪初互联网泡沫爆炸时死去了”一般滑稽。所以,让我们从头开始。首先,不要一提到人工智能就想着机器人。机器人只是人工智能的容器,机器人有时候是人形,有时候不是,但是人工智能自身只是机器人体内的电脑。人工智能是大脑的话,机器人就是身体——而且这个身体不一定是必需的。比如说Siri背后的软件和数据是人工智能,Siri说话的声音是这个人工智能的人格化体现,但是Siri本身并没有机器人这个组成部分。其次,你可能听过“奇点”或者“技术奇点”这种说法。这种说法在数学上用来描述类似渐进的情况,这种情况下通常的规律就不适用了。这种说法同样被用在物理上来描述无限小的高密度黑洞,同样是通常的规律不适用的情况。Kurzweil则把奇点定义为加速回报定律达到了极限,技术进步以近乎无限的速度发展,而奇点之后我们将在一个完全不同的世界生活的。但是当下的很多思考人工智能的人已经不再用奇点这个说法了,而且这种说法很容易把人弄混,所以本文也尽量少用。最后,人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类。弱人工智能ArtificialNarrowIntelligence(ANI):弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。强人工智能ArtificialGeneralIntelligence(AGI):人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。LindaGottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。超人工智能ArtificialSuperintelligence(ASI):牛津哲学家,知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是为什么人工智能这个话题这么火热的缘故,同样也是为什么永生和灭绝这两个词会在本文中多次出现。现在,人类已经掌握了弱人工智能。其实弱人工智能无处不在,人工智能革命是从弱人工智能,通过强人工智能,最终到达超人工智能的旅途。这段旅途中人类可能会生还下来,可能不会,但是无论如何,世界将变得完全不一样。让我们来看看这个领域的思想家对于这个旅途是怎么看的,以及为什么人工智能革命可能比你想的要近得多。我们现在的位置——充满了弱人工智能的世界弱人工智能是在特定领域等同或者超过人类智能/效率的机器智能,一些常见的例子:汽车上有很多的弱人工智能系统,从

1 / 47
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功