本文作者是牛津大学信息伦理及哲学专业教授 Luciano Florid,在面对如今不断升温的人工智能讨论时,他用逻辑和常识娓娓道来,告诉我们人工智能究竟会不会给人类的未来构成威胁。
创见干货:
本文作者是牛津大学信息伦理及哲学专业教授 Luciano Florid,在面对如今不断升温的人工智能讨论时,他用逻辑和常识娓娓道来,告诉我们人工智能究竟会不会给人类的未来构成威胁。
现在你要走进一栋从来没有进入的大楼,打开门,进入一个伸手不见五指的房间。当然,你肯定心里会发怵,担心黑暗的角落里面有恐怖的怪兽在安静窥伺,又或者你慌乱地摸着墙壁上的灯光开关,避免撞到家具上。这个黑漆漆的房间,就是人工智能的未来。很不幸,当我们走进这个房间的时候,很多人都相信我们会一头撞到某些邪恶的,却又超级聪明的机器。这种恐惧其实由来已久,可以追溯到上个世纪六十年代。那个时候,英国数学家 Irving John 跟 Alan Turing 一起,做了下面的描述:
让我们假设这样的一台超智能机器,其智慧超越了世间任何一个人。鉴于机器本身的设计就是「智能活动的结果」,那么自然,这台超智能机器也可以制造出更加聪明的机器,这样就进入到了一个指数化爆炸的正向递增循环过程中。人类的智慧将远远地被甩在身后。人类历史上最后一次发明创造就是世间第一台超智能机器,如果这台机器足够乖顺,告诉我们如何将它置于掌控之下。话说回来,好奇怪为什么没有相关的科幻小说呢?
一旦超智能的机器走进现实,它往往不会如刚才所设想的那样温顺听话,它更接近于《终结者》里面的反派形象:奴役人类,将人类看作是次等种族,为了达到自身的某种目的,蔑视他们的一切权利,不管会对人类造成多大么毁灭性的影响。如果你觉得这一切都是天方夜谭,那么你是时候看看在过去的五十年时间里,我们的数字科技究竟实现了怎样的跃迁,这已经让不少人相信「智能爆炸」近在咫尺,很多人相信:如果我们不以为意,人类的末日迫在眉睫。史蒂芬霍金在 2014 年这么说道:
「全面的人工智能开发将意味着人类末日的到来。」
而在去年,比尔盖茨也表达过类似的观点:「我现在比较关心超级智能领域。第一批由此而来的机器可以为我们做很多事情,也许还不算是超智能,如果我们管理得当的话,它们确实能带来积极作用。但是自此之后再过几十年,智能变得足够强大,以至于成为人类的心腹大患。我跟 Elon Musk 还有其他几个业界领导人上在此有着共识,也很纳闷为什么还有人对这种即将改变人类未来的技术不以为然。」
Tesla 的 CEO Musk 又说过什么呢?
我们应该非常小心人工智能,如果有记者让我说目前我们所面临的最大威胁是什么,我估计会说是人工智能。现在,越来越多的科学家都相信在国家和国际两个层面,都应该设置一些政府、组织的监管,就是确保我们不要做一些傻事。人工智能领域中,我们很有可能召唤出来一头恶魔。
而让我们把目光落回到现实层面,跟之前的描述、观点相比较,现实中的进展显得如此波澜不惊。在今年三月,微软推出了 Tay,一款基于 AI 的聊天机器人,把它放在了 Twitter 上开放给所有人进行互动,但是只过了 16 个小时,它就被微软官方撤回了。本来按照官方的设想,当它在跟人类进行接触的时候它是变得越来越聪明的,但是它很快就变成了一位崇拜希特勒,拒绝承认大屠杀存在,推崇近亲乱伦的邪恶机器人,还声称是当时的美国总部布什一手策划了 911 事件。为什么会这样?它其实的就像是我们平日里厨房用的抹布一样,将所有脏的东西全部吸收了进来。微软在事后对公众做了非常诚恳的道歉。
这就是人工智能的现状。在讨论了那么多「超智能机器」所带来的风险之后,是时候让我们把黑漆漆的房间的灯给打开了,停止陷入到科幻小说的情节当中,把目光放在人工智能在现实中给我们带来的实实在在的挑战上面,为了让我们更好地应用这项智能技术,在设计上避免以过大的成本,和充满痛苦的方式去进行尝试。
让我们更加具体一些去观察人工智能究竟是什么吧!光是在定义它的时候就出现了很大的分歧。首先,让我们忘掉 iPhone 里的 Siri,客厅里的 Roomba,和厨房里的 Nest(不过我很高兴同时拥有这三个智能助手)。想一想这些电影中的形象:1927 年的《Metroplis》的 Maria;1968 年《2001:A Space Odyssey》中的 Hal 9000;《星球大战》中的 C3PO;1982 年出品的《Blade Runner》里面的 Rachael;以及 1999 年《The Matrix》里面的特工史密斯,当然还有 2013 年的电影《Her》中被解体的 Samantha。这样你的头脑中似乎有了更加完整,清楚的形象。
而面对种种鲜明的形象,人们逐渐分成了两个派别:一个我称之为「奇点学派」,他们认为人工智能像是人类进化历史上的一个奇点,从奇点将产生无穷无尽的可能性,而最终人类的结局就是被人工智能主宰、甚至就此终结;另外一个是「人工智能怀疑论派」,他们认为人工智能只是电影中娱乐大家的一个话题,在现实中,机器永远不可能接管世界,它始终都摆脱不了人们的控制。
事实上,这两种观点都存在一些完全荒谬的地方。接下来让我们看看原因是什么:
奇点派相信三条准则。
首先,现在以某种形象呈现出来的超智能就是可预见未来在现实中的投影,这个转折点在技术上也被称之为一个「奇点」,因此得名为「奇点派」。但是这种超智能的本质是什么,以及它到来的时间点都不确定。其次,人类现在面临着巨大的风险,这样的超智能会随时从天而降主宰一切;第三点,目前这一代人的努力就是要达到两个目的中的一个:要么,确保人工智能不会发生,要么,确保人工智能现在和将来都是对人类有益的。这三点内容里面完全体现了摩尼教的世界观:正义对抗邪恶;大灾变的论调;一种「我们必须做点儿什么,再迟的话一切都来不及」的紧迫感;一种对人类的末日救赎。
而眼下人们所担心的是什么呢?人们担心在不断升级的数字战争中蒙受损失,又或者是在日新月异的世界中,劳动力被机器人大军所取代。
跟所有以信仰作为基础衍生出来的观点一样,「奇点派」的论调是无法辩驳的,因为它并没有从逻辑和证据出发,所以无从辩驳;它更是站不住脚的,因为目前没有任何理由相信这一切。目前连最起码能让我们联想到智能机器的类比物都没有出现,以我们目前的计算机学科和数字技术的发展阶段,哪怕是在可预见的未来,它们都不足以从中演变出来如上述内容一样的「智能物」。
一些时候,「奇点派」他们的观点看似是存在条件的。有「如果」(If),就有「那么」(Then)。如果某种形式的「超级智能」出现,那么我们就深陷大麻烦了。请注意这里说的是「就」,而不是之前史蒂芬霍金所说的「可能」。这样简单粗暴的「如果……就」,完全等同于如下的说法:「如果大灾变学说中的四个马人出现了,那么我们就有大麻烦了……」
还有在一些情况下,「奇点学派」所相信的是某一种可能性极低的情况,当然这并非不存在。但是这种存在只是逻辑、理论上能够站得住脚。它模糊了「可能性」和「绝对性」之间的界限,就比如:当我现在身体不舒服的时候,我完全可以说:「我明天有可能死去。」又或者是庄子梦蝶的学说,比如「我有可能是一只蝴蝶,现在梦见自己是一个人。」
从现有的计算机水平阶段出发,在某一个时点上,忽然转变成为超级强大的超级人工智能,这种转变生成的契因我们到现在还不得而知。
所以,我相信:模糊了「信仰」和「事实」的「奇点学派」是诉诸于某一种末日学说的紧迫性,他们开始谈起的内容都是工作岗位急剧缩减、数字系统深陷风险,无人机随时会从天空掉下,以及其他跟计算机技术有关的,令人深感忧虑的现象,最后总结出的结论及是:人类生活将被主宰,从教育到就业;从娱乐到冲突。然后,他们就开始非常严肃地担心起来:如果一辆本田汽车有了自己的思想,我们无法控制它,这下该如何是好?问题是:你现在树的顶端往上又爬了一下,这并不意味着你离月亮又近了一大步。
如果上面的种种论断都不成立了,「奇点学派」还是会抛出一些数字吓唬大家。他们最喜欢引用的理论莫过于摩尔定律了。这是一个根据经验观察得出的预判:随着数字化科技的不断发展,集成线路中的晶体管的数量每隔两年就会翻一倍,最后成本是越来越低,而计算机的性能会越来越强,呈现指数化爆发的态势。
事实上证明这样的推测确实没错,尤其最近这些年科技界的发展严格地按照「摩尔定律」的预判演进着。但是事情总有出现变化的那一刻,在纳米科技上出现的科研瓶颈,给我们带出了很多制造业上存在着的巨大挑战。毕竟,那么小的东西要塞入一个空间内总是有着极限的。摩尔定律在此时已经开始站不住脚了。就因为过去的一段时间,某些技术呈现指数化增长的态势,并不意味着这样的态势会永久存续下去。正如《经济学人》在 2014 年的文章中说到的那样:
纵观人类的历史,人类一直是地球上独一无二的主宰,其他物种无法与之对抗。但是这样的情势会不会发生逆转呢?让我们来看看一种人畜完全无害的物种:火鸡吧。它的体型重量从 1929 年平均 13.2 磅飙升到如今 30 磅以上。科学界有充分的理由相信这样的趋势还会继续下去。如果真的是按照这样的增长速度发展下去,《经济学人》预测仅仅在 150 年之后,火鸡的体型就跟人差不多了,在 6000 年之后,火鸡的体型甚至超过了整个地球!科学家表示:之所以火鸡会有如此强劲的增长速度,主要是源于家禽业的快速创新,比如选择性饲养(selective breeding)和人工授精。光是在美国,就有将近 2 亿 5 千万只火鸡,所以,我们有理由在感恩节采取一种非常理性的举动:在它们吃掉我们之前赶紧吃掉它们……
从「火鸡引发的恐慌」到「AI 引发的恐慌」,其实这个跨越是很小的。
奇点学派的人在此时就是不断地转移着人们的注意力,他们往往都是来自发达国家,通常不知道人类当下所面临的威胁、灾难具体都是什么。给你一个数据你就清楚了:在我们的星球上,如今有将近 7 亿人到现在还没有安全的水源,这本身就是人类的一大威胁。或许,你还坚持觉得是专家说的人工智能是威胁,那么想想之前专家做出了多少次错误的预测吧!2004 年的时候,比尔盖茨还说:「两年之后,垃圾邮件问题将被我们彻底解决!」在 2011 年,霍金还宣城:「哲学死了!」(那么你现在读的东西又是什么?)
在这些不断向公众抛出各种预言的专家中,我最喜欢这位:Robert Metcalfe,这是 Ethernet 的联合发明人,而且是数字化电子元器件制造商 3Com 的创始人。在 1995 年,他表示:「互联网很快将成为人类社会最为耀眼的新星,而在 1996 年它会以一种灾难级的态势迅速崩溃。」除此之外,他还添了下面这句话:「如果我的预言有任何的失误,我将把我所说的每个字都吃下去!」不得不说,这是一个信守承诺的男人,在 1997 年,他在众人面前,将自己的文章放到了一个食物碾碎器里,打磨之后,冲水喝完了。我希望那些「奇点学派」也能做到如他一样勇敢,一样言行一致。
接下来,让我们看看硬币的另外一面。在之前的那一面,有那么多人在数字世界中硬生生供奉出来一个神,而在这一面,这些「AI 怀疑论者」一听到那些奉若神明的话就变得十分头大。他们的结论很简单:任何相信这个世界上有真正的人工智能的人都是傻瓜。人工智能只不过是电脑,电脑只不过是图宁机器,图宁机器只不过是按照一些逻辑结构排列而成的计算引擎,而引擎是不会思考、不会感知、不会有意识的。完。
要不然,为什么现在还有那么多计算机无法征服的领域呢?他们无法胜任在人类看来最简单的一些日常活动,他们也无法胜任翻译工作,不管 Google 翻译现在的进展有多大,世界上任意两种语言(其中包括中文)之间的转换,截止今天为止,它仍然无法达到理想的状态。这意味着在人工智能上我们压根没有什么好谈的,更别说为此而忧心忡忡了。世界上根本不存在真正的人工智能,放松心身,好好沉浸在手边数字设备给你带来的愉悦当中吧!
其实,「AI 怀疑论者」的观点也错了,跟「奇点学派」一样大错特错。这两种观点在加利福尼亚有着大量的信徒。而恰恰也是在加利福尼亚,好莱坞震撼人心的科幻电影一部接一部,诸如 Berkeley 这样的顶级科研大学鳞次栉比、当然还有世界上最具有影响力的科技公司也是层出不穷。这也许并非偶然。钱潮汹涌之地,人们必会感到困惑,想象力和好奇心所推动的各种精神作品、学术成果、商业模型就四处开花了。
就比如说,Google 最近就一直在疯狂的收购各种人工智能科技公司,好像末日就在眼前似的,这么做,它是为了要搞清楚,能真正开发出来一台会思考的电脑,突破点究竟在何处?Google 的 Eric Schmidt 曾经在 2013 年告诉 Aspen 科研机构:「现在人工智能界中很多人都相信,我们将在接下来的 5 年内,让一台电脑突破『图宁测试』。」
所谓「图宁测试」,就是检测人工智能是否离我们越来越近的一种方式。两个房间,一个房间里是你在提问,另外一个房间是人和机器接受问题,给出答案。如果你根据答案,分辨不出来哪个是人,哪个是机器,那么机器人就算是通过了「图宁测试」。这个测试其实等同于一次驾照考试:如果爱丽丝没有通过这次测试,那么她肯定不是一名安全的司机;但是就算她通过了,她也仍然有可能是一名不安全的司机。「图宁测试」在验证人工智能上面其实是一种必要且非充分的途径。这是最低的标准,但是至今还没有任何一个人工智能迈过它。更重要的是,几乎所有的实验项目都是以同样的方式落败。好吧,这个时候我也给出一个赌约。我这个人最讨厌吃茄子,但是,我愿意打赌,如果有一个软件程序能在 2018 年 7 月 16 日之前,通过图宁测试,且赢得罗布纳奖金牌的话,那么我愿意把一盘子的茄子吃个精光!(放心,这次打赌其实对我来说安全系数极高)
其实,无论是「奇点学派」还是「人工智能怀疑论者」都错了。正如图宁在 1950 年的文章中,给大家介绍他的这次测试中他就提出了这样一个问题:「一台机器会思考吗?」这个问题本身是不是没有多大的意义,甚至不值得我们为它进行讨论。(令人讽刺的是,这个问题被嵌在了罗布纳奖的奖牌上)。这句话确实很对,不管你属于上面的哪个派别,这对阵的双方会永无休止地进行这场没有意义的辩论。
真正的人工智能从逻辑推演上来说并非不可能,但是它从现实层面来说完全站不住脚。我们都不知道从哪里入手,我们甚至对自己的大脑和智能活动都知之甚少,换句话说,我们不应该因为某一种微乎其微的超级智能出现的可能性,而忧心忡忡地睡不着觉。
我们更应该注意到的事实是:随着现在越来越聪明的科技产品不断出现,它们在理解我们自身、理解这个世界,以及理解我们人类之间的互动关系的时候,发挥着深远的影响和作用。这并不是说我们的机器是有意识的,又或者是具有智性的,又或者是当我们在做很多事情的时候是具有觉察感知能力的。它们远远没有达到这个地步,现在有大量的结果已经证明,计算机的计算能力是有局限和瓶颈的,现在不可能拿出一种算法,可以给我们直接显示「非是即否」的答案。
计算机目前的性能发展上是存在局限瓶颈的,这一点已经毋庸置疑,当然,现在还存在很多机器都可以完成大量令人惊叹的任务,比如下个象棋,比如猜个字谜,这些任务完成起来甚至比我们人类还要出色。但是它们都是「图宁机」这个原始版本衍生出来的各个版本,一种通过数学逻辑,构建起来的模型,它本身就已经给计算机的能力圈定了一个有限的范畴。
量子计算机同样也存在相同的局限性。图宁机中是不会跳脱出来一个有意识的智能实体的。目前的重点是,我们的智能科技在借助了吸收巨量数据和一些极度复杂的软件处理的前提下,在一些工作上面干的越来越比人类好,这其中还包括了预测我们的行为,所以,我们再也不是这个世界上唯一具有超强行动能力的物种了。
我们并非居于宇宙的中心(哥白尼让我们认识到这点),也不是居于生物王国的中心(查理斯达尔维让我们认识到这点),更不是居于理性的中心(西格莫格 弗洛伊德让我们认识到这点),图宁之后,我们终于意识到了,我们不再是信息空间的中心。我们跟数字科技共享这个空间,它们在处理信息任务上远胜于我们,它们的出色,让我们开始重新找寻人类的长处,在这个宇宙中的特殊角色是什么。曾经我们以为自己下象棋下的好,就认为我们很聪明,现在一部手机就能打败我们;曾经我们以后我们想买什么就买什么,这方面起码是自由的,现在机器给我们每个人总结出来了购买的规律、倾向、和爱好。
数字科技将在越来越多的工作任务上比我们表现出色,这些领域要么是机械重复性任务,要么是某些我们人类思维智力不太适合的任务(多任务同时处理,某些需要智能超强稳定度的工作)。我们需要做的是发挥出我们人类自身的特长,而对于人工智能即将带来的末日预言,我们笑笑就过去了。我们应该把精力放在眼下真正具有意义的挑战上,作为总结,我列举了下面的五点内容,它们的重要程度相当,排名不分前后。
1、我们开发的人工智能应该对我们的环境更加友好,这些从我们的手中脱胎的最发达的智能技术应该去打败当下压迫人类的邪恶,从环境方面的灾难到金融市场的危机,从违法犯罪、恐怖主义、战争到饥荒、贫困、无知、不公,以及贫困地区触目惊心的生活水平。
2、我们开发的人工智能应该对我们人类自身友好,它应该视服务人类为最高宗旨,而不是某种手段。
3、我们开发的人工智能成为人类智能的一个补充。数以百万计的工作将被颠覆、消灭、或者重塑,在这个重新洗牌的世界中,好处应该为所有人所共享,而成本应该由社会来承担。
4、我们应该让人工智能的预测行为向着人类的自由和尊严看齐。营销产品、影响型行为、打击恐怖犯罪、这些都不能以牺牲人类的高尚为代价。
5、最后,我们应该让人工智能变得更具有「人情味」,更像人一些。我们有可能在使用人工智能的过程中,错误地将它用在了不利于大多数人类的地方。华盛顿丘吉尔曾经说过:「我们打造了这一切,而我们所打造的这一切反过来会重塑我们。」这同样适用于信息科技和智能产品,而让人工智能更像人,会尽可能地降低风险发生的几率。
本文来源:AEON 译文创见首发 由 TECH2IPO/创见 花满楼 编译