对人类来说,我们在电影里常看到的僵尸和外星人可能并不是什么真正存在的威胁,但我们却不能忽视另一种经常在电影里看到的反派人物,那就是有意识的机器人。
他们的到来可能只是时间问题。但是,当真正的有意识机器人出现时,世界会变成什么样呢?到那时,人类还有生存空间吗?
近几年,人工智能的研究领域在经历着一场革命。现在,人工智能系统可以在围棋上胜过人类,在识别人脸、安全驾驶等领域都有非凡的成果。
大多数研究人员认为,真正有意识的机器人(不只是运行固定程序程序,而是有情感和自我意识的机器)或许还有几十年的时间就会出现。机器需要学习推理能力,和强大的泛化能力,才能学习更多的知识。只有机器拥有这样的能力后,人工智能才能达到掌握意识所需的复杂程度。
但一些人认为,并不用几十年那么久,我们或许很快就能看到有意识的机器人出现。德克萨斯大学的计算机科学家贾斯汀哈特说:“人们认为自我意识将成为人工智能的终极游戏,而实际上,没有任何的科学追求是从终极目标入手来进行研究的。”贾斯汀和其他研究人员已经在研究具有基本思想的机器人。
他们设计了如同新生婴儿一样的机器人,机器人能够学习理解自己的身体构造,看到新的事物会“呀呀”乱叫,而当人类碰到它时机器人会哭泣,这都像新生婴儿的行为。这些机器人已经开始探索自己的世界。
机器人没有内在的情感体验,它们不会因为地板拖得干净而自豪,也不会因为身体流过120伏特的电流而开心。但是,机器人现在可以学习一些类似人类拥有的品质,包括同理心、适应能力和进取心。
不再沉迷于创造很酷的机器人,研究人员开始研究拥有控制论(Cybernetic,控制论是研究各类系统的调节和控制规律的科学)系统的机器人,试图解决机器学习系统长期以来的缺陷。
机器学习系统或许功能很强大,但它们却是不透明的。它们的工作原理就是将输入关联到输出,这就像在“A”和“B”栏中做匹配连线一样,人工智能系统基本记住了这些关联关系,他们给出的答案背后没有更深层次的逻辑。这一直是机器学习系统存在的问题。
人类是很难读懂的物种。我们花了大量的时间来分析自己和他人,可以说,这是我们的意识思维在起作用。如果机器也有思想,它们可能就不会那么神秘了,如果我们想要了解机器,就可以直接问他们。
位于纽约州特洛伊的伦斯勒理工学院的人工智能研究人员Selmer Bringsjord说,“如果我们能理解一些人类大脑意识的结构,我们就能够让机器学习一些有趣的能力。”尽管科幻小说会让人类惧怕有意识的机器人,但实际上,即使是暂时无意识的机器人,我们也需要小心谨慎,而有意识的机器人则可能会成为我们的盟友。
机器人,认识自己
如今,自动驾驶汽车拥有一些最先进的人工智能系统。它们决定车辆驶向何方,决定何时刹车,通过持续的雷达和激光探测来收集数据,并将数据输入到算法中。但自动驾驶技术希望在车辆驾驶时,车辆能自动演习和自主防御突发事故,这就是与意识相关的能力。
巴塞罗那庞贝大学的神经学家Paul Verschure说,“自动驾驶汽车需要推测出附近的自动驾驶车辆下一步的行为。”
为了展示这一内在原理,哥伦比亚大学的工程学教授Hod Lipson(Hod Lipson教授同时也是一本关于自动驾驶汽车的书的合著者)和韩国首尔世宗大学的kyung-joong Kim进行了一个实验,研发了一个“发疯”的机器人司机。
在实验中,有一个小型的圆形机器人(大约相当于冰球的大小)按照自己的运动逻辑在一个环形轨道上移动。然后,这个“发疯”的机器人司机总是要在第一个圆形机器人启动时拦截它,因此“发疯”机器人就无法按照固定的路线运动,它必须预测到第一个圆形机器人的运行轨迹。
通过模仿达尔文进化理论,Lipson和Kim设计了一种拦截策略。Lipson说:“实验的机器人基本上已经发展了一个行为者的大脑,也许不够完美,但已经足够让它预测对方的行为了。”
Lipson的团队还设计了另外一个机器人,这个机器人可以对自己的身体构造进行学习理解。这是一只四足蜘蛛的机器人,它的大小约相当于一只大狼蛛的大小。
当蜘蛛机器人启动后,其内部程序没有记录任何关于自身的信息。Lipson说:“它不知道它的发动机是怎样的构造,也不知道身体的运动逻辑是如何设计的。”但它有学习的能力,它能观察到自己发生的所有动作。例如,它能观察自己是如何操作某个马达来让一条腿弯曲的。Lipson说:“就像一个婴儿一样,婴儿是会乱动的。它以一种随机的方式移动马达。”
四天后,这个蜘蛛机器人已经意识到它有四条“腿”(马达),并弄清楚了如何协调和移动才能让自己滑过地板。当Lipson卸掉其中一个马达时,机器人能够意识到自己现在只有三条腿,因此原来的行为不会再产生预期的效果。
Lipson说:“我认为这个机器人有一种非常原始的自我意识。”这是另一种类似人类的能力,是研究人员想要建立在人工智能的基础上的。AlphaGo之所以能在围棋之战中脱颖而出,是因为人类研究人员引导机器赢得比赛。机器本身不能自己定义问题,因为定义问题通常是很困难的部分。
一位神经学家Ryota Kanai和一家位于东京的创业公司的创始人即将发表一篇论文——“认知科学的趋势”,他们在论文中讨论了如何给机器内在的动力。在一次演示中,他和他的同事展示了在虚拟环境中驾驶一辆汽车Agent攀爬一座陡峭的山,而这座山太过陡峭,只有在助跑的情况下才能爬上去。Aagent收到命令要爬上山时,它就会想出办法。在接到这个命令之前,Agent就一直闲置着。
然后,Kanai的团队给这些虚拟的Agent增加了“好奇心”机制。Agent勘测了山的地形,将登山视为一个待解决的问题,并且在没有任何指示的情况下就找到了如何攀爬的方法。
Kanai说:“我们没有给Agent设定任何目标。Agent只是在自己探索环境,通过对自身行为的后果做出预测,来了解自己的处境。”关键是要给机器人足够的内在激励,让它们更好地解决问题,而不是让它们选择放弃,离开实验室。机器可以像人类一样固执。
Joscha Bach是哈佛大学的人工智能研究员,他把虚拟机器人放进了“Minecraft”,里面堆满了美味但有毒的蘑菇,Bach希望Agent能自己学会避免犯错误,如同在Minecraft里一样,如果机器不知道避开有毒的蘑菇,就会吃下毒蘑菇而中毒。
Bach 说:“如同人类一样,机器并不在乎此刻的行为对未来会造成什么影响。”他们可能只是觉得这些蘑菇非常好吃,所以必须向机器灌输一种天生的厌恶感。从某种意义上说,机器必须学会建立价值观,而不仅仅是理解目标。
注意力机制
除了自我意识和自我激励之外,意识的一个关键功能是集中注意力。在人工智能研究领域,选择性注意力一直是一个重要领域,AlphaGo的创造人谷歌DeepMind团队在这一领域有深入研究。
“意识是一种注意力过滤器。”孟菲斯大学计算机科学教授斯坦利富兰克林提到。在去年发表在生物学上的认知结构杂志上的一篇论文中,富兰克林和他的同事们回顾了他们创造的一个名为LIDA的人工智能系统,这一系统通过竞争机制来选择出需要集中精力的地方,算法采纳了20世纪80年代的神经学家Bernard Baars所提出的方法。
竞争过程中机器系统会观察一些有趣的刺激物——响亮的、明亮的、奇异的刺激物,然后这些刺激物争夺主导地位。在竞争中胜利的刺激物,决定了人们的精神集中在哪里,随后通知机器系统的“大脑”,告知“大脑”注意力应该放在哪里,随之告知更多的大脑功能,包括控制思考和运动的部分。感知、注意力和动作的循环每秒钟重复5到10次。
LIDA的第一个版本是美国海军的工作匹配服务器。它会阅读邮件,注意力集中在切题的邮件上——涉及求职者的兴趣、工作的难度和政府官僚机构的工作要求这一些邮件。
从那以后,富兰克林的团队就利用这个系统来模拟动物的大脑,特别是那些每次只专注于一件事的行为习惯。例如,LIDA和人类一样容易出现一种奇怪的心理现象,即“注意力盲点(attention blink)”——当某件事吸引了你的注意力时,你会在大约半秒的时间里忘记其他事情。这个认知盲点取决于很多因素,而LIDA则表现出类似人类的反应。
一位芬兰的人工智能研究人员Pentti Haikonen,根据类似的原则建立了一个名为XCR-1的机器人。Haikonen认为,他创造的XCR-1能够拥有真正的主观体验和基本的情感。
XCR-1机器人拥有联想的能力,这与我们大脑中的神经元非常相似。当我们展示了给XCR-1机器人一个绿色球,并对它说出“绿色”这个词,那么XCR-1机器人的视觉和听觉模块会做出反应,将看到的绿色球和“绿色”这个词联系起来。如果Haikonen再次说“绿色”,那么XCR-1机器人的听觉模块将会做出反应,通过记录的联系,视觉模块也会“回忆”起来“绿色”对应的样子,就如同它真正听到了这个单词,看到了它的颜色一样。
相反,如果机器人看到了绿色,它的听觉模块会做出反应,哪怕它没有真正“说出”这个词。简而言之,机器人会产生一种联觉(synesthesia)。
Haikonen说:“如果我们看到一个球,我们可能会对自己说:喔,那是一个球!在那一刻,我们的感觉就如同我们真正听到了这个词一样,但其实我们只是看到了它。xcr-1也是一样的。”
当听觉和视觉模块发生冲突时,事情会变得有趣。例如,当视觉模块看到绿色,而听觉模块听到“蓝色”时,如果这时是听觉模块占了上风,那么整个系统就会把注意力转移到它听到的单词上——“蓝色”,而忽略了它所看到的颜色——绿色。机器人有一种简单的意识流,它由一种瞬间支配的知觉组成“绿色”、“球”、“蓝色”等等。当Haikonen把听觉模块连接到一个语音引擎时,机器人会自己默默对自己说出它所看到和感觉的一切。
Haikonen还将振动设为机器人的“痛点”,它可以抢占其他感官作为输入,占据机器人的注意力。在一次演示中,Haikonen轻拍了机器人,然后机器人就突然地说:“我受伤了”。
Haikonen说:“因为某些原因,有些人会受到情感上的困扰,对这些作品并不感冒,认为这是不好的机器人。”
一个新物种
基于早期的努力,研究人员将开发出更逼真的机器人。我们可以看到意识系统的连续统一体,就像自然界中存在的一样,从单细胞生物、狗到黑猩猩,再到人类和其他物种。这项技术的逐步发展是好的,因为它给了我们时间来适应:未来有一天,我们不再是地球上唯一的先进生物。
在很长一段时间里,我们创造的人工智能机器很脆弱,与其说它们会威胁到人类,不如说是我们创造出来的新宠物。如何对待它们,将取决于我们是否意识到他们是有意识的,机器是否有能力忍受痛苦。
康涅狄格大学的哲学家苏珊施耐德说:“我们之所以重视非人类的动物,是因为我们在他们身上看到了意识的存在,就像人类自己也是基于我们自己的意识存在的。”苏珊施耐德研究人工智能的含义。事实上,她认为我们故意不去创造有意识的机器,以避免它所造成的道德困境。
施耐德说,“如果你在创造有意识的机器人系统,让它们为我们工作,这就很像是在实行奴隶制度。”出于同样的原因,如果我们不赋予先进的机器人感知能力,机器人对人类的威胁可能是更严重的,因为没有意识的机器人不会自己思考,它们无法思考出任何理由要和人类站在同一立场,承认并珍视人类。
从我们目前所看到的情况来看,有意识的机器将会继承人类的弱点。如果机器人必须预测其他机器人的行为,它们就会把彼此当作有组织的生物来对待。像人类一样,它们可能会开始认识一些无生命的物体:雕塑动物、雕像和风。
去年,北卡罗来纳大学的社会心理学家库特格雷和Daniel Wegner在他们的“心灵俱乐部”中提出,这种本能是宗教的起源。Verschure说:“我期待电影中出现机器人自己发展的宗教,因为我们已经为它们设计了意识偏好,让它们成为社会的一部分。但他们的意识偏好可能先起作用了。”
这些机器将大大超出我们解决问题的能力,但并非所有事情都是可以解决的问题。他们可能会沉迷于自己的意识体验中,随着机器人感官感知范围的扩大,他们会看到一些人类并不相信的东西。
Lipson说:“我不认为未来的机器人物种会像我们想的那样冷酷无情。他们可能会有我们永远无法理解的音乐和诗歌。”
注:本文英文版权归NBC环球传媒有限公司所有。
英文来源:futurism 作者:George Musser
编译:网易见外编译机器人 审校:Claire