虽然有关杀手机器人的炒作从未停止过,但2017年人工智能领域(AI)的确取得了许多显著进步。
例如,名为“Libratus”的机器人在扑克游戏中大杀四方。而在现实世界中,机器学习正被用于改善农业和医疗行业。
但是,你最近同苹果智能助理Siri或者亚马逊的人工智能助理Alexa聊过吗?然后你就会知道,尽管有许多关于AI的大肆宣传,亿万富翁们对此感到十分担忧,但有很多东西仍然是AI无法做到或能理解的。这里有五个比较棘手的问题,专家们将在明年重点关注它们。
人类话语意义
与以往任何时候相比,机器现在似乎可以更好地使用文本和语言。Facebook的AI可以为视障人士阅读图片上的描述,谷歌的AI可为回复邮件提供简短建议。然而,软件仍然不能真正理解我们话语中的意义,以及我们与之分享的想法。波特兰州立大学的梅勒妮·米切尔教授(Melanie Mitchell)说:“我们能够以不同的方式运用将所学到的概念,并将它们应用到新的环境中。而这些AI和机器学习系统还没有这样的能力。”
米切尔认为,今天的软件存在数学家吉安-卡洛·罗塔(Gian-Carlo Rota)所谓的“意义障碍”。许多领先的AI研究团队正试图弄清楚如何克服它。其中一项工作的目的是赋予机器以常识和物质世界的基础,这些基础同样支撑着我们的思维。
例如,Facebook的研究人员正试图通过观看视频来教软件理解现实。其他团队正在努力模仿我们对这个世界的认识。谷歌一直在研究试图学会理解隐喻的软件。米切尔已经尝试了一些系统,用类比和关于世界的概念来解释照片中发生的事情。
现实差距阻碍了机器人革命
机器人硬件已经准备就绪,你可以花500美元买到装有高清摄像头、手掌大小的无人机。那些拖着箱子、使用两条腿行走的机器也有了很大改进。那么,为什么我们还没有被熙熙攘攘的机械帮手所包围?今天的机器人缺乏与其复杂肌肉相匹配的大脑。
让机器人从事需要特定编程来完成的特定任务时,它们可以通过反复试验(和错误)来学习诸如抓取物体之类的操作,但这个过程相对较慢。
一个很有希望的捷径是让机器人在虚拟的模拟世界中训练,然后把那些来之不易的知识下载到物理机器人的身体里。然而,这种方法却被“现实差距”一词所困扰,这个短语描述了机器人在模拟过程中学习到了技能,但在被移植到物理世界的机器上时却并非总是有效。
“现实差距”正在缩小,今年10月份,谷歌在实验中报告了十分乐观的结果,模拟和真正的机器人手臂学会了挑选不同的物体,包括胶带、玩具以及梳子。然而,对于那些研究无人驾驶汽车的人来说,还需要更大的进步。
为了减少在真实交通和道路条件下测试的时间和资金,在模拟街道上驾驶虚拟汽车的公司竞相在模拟街道上部署虚拟汽车。
无人驾驶汽车初创企业Aurora的首席执行官克里斯·厄姆森(Chris Urmson)表示,让虚拟测试更适用于真正的汽车是他的团队的首要任务之一。厄姆森之前负责领导谷歌母公司Alphabet旗下的无人驾驶汽车项目,他说:“明年我们将会很清楚地看到,我们如何利用这一优势加速学习。”
防范AI黑客
运行我们的电网、安全摄像头以及手机的软件总是被安全漏洞所困扰,我们不应该指望无人驾驶汽车和家用机器人的软件会有什么不同。事实可能更糟糕:有证据表明,机器学习软件的复杂性为黑客引入了新的攻击途径。
研究人员今年发现,你可以在机器学习系统中隐藏一个秘密的触发点,使其在特定信号触发的情况下进入邪恶模式。纽约大学的研究小组设计了一个街头标志识别系统,它的功能十分正常,除了在看到黄色便利贴的情况下。
在布鲁克林一个停车标志上贴上黄色便签,该系统将标牌报告为限速标志。这种黑客技术的潜力可能会给无人驾驶汽车带来许多麻烦。
这个威胁被认为是非常严重的,世界上最著名的机器学习研究者们在本月初召开了为期一天的关于机器欺骗威胁的研讨会。研究人员讨论了诸如如何生成看起来与人类正常手写数字一样的复杂技巧,但似乎又与软件不同。
以2为例,机器视觉系统可能将其看作是3。研究人员还讨论了防御这种攻击的可能性,并担心AI可能被用来愚弄人类。
组织这次研讨会的蒂姆·黄(Tim Hwang)预测,随着机器学习变得更容易部署和日益强大,使用这种技术来操纵人们是不可避免的。蒂姆指出:“你不再需要一屋子的博士来研究机器学习技术。”他还称,在2016年美国总统选举期间,俄罗斯的“反信息”运动就是一场AI增强信息战的潜在先行者。蒂姆预测,最有效的方法就是使用机器学习来生成假视频和音频。
玩转棋牌游戏
在2017年,Alphabet旗下的围棋软件AlphaGo得到迅速发展。今年5月份,更强大的软件版本击败了中国冠军。它的创造者、研究单位DeepMind后来又开发出一个版本AlphaGo Zero,在不学习人类棋路的情况下学会了这个游戏。今年12月份,另一项升级努力诞生了AlphaZero,它可以学习国际象棋和日本棋牌游戏Shogi(虽然不是同时学习)。
这些引人注目的结果令人印象深刻,但也提醒了我们AI软件的局限性。国际象棋、shogi以及围棋都是复杂的,但它们都有相对简单的规则,并对双方都可见。对于计算机来说,这种挑战恰好与其快速进化的能力相匹配。但是,生活中的大多数情况和问题都不是这么井然有序。
这就是DeepMind和Facebook在2017年开始研发多人游戏《星际争霸》(StarCraft)的原因,目前两家公司都没有取得太大成就。现在,业余爱好者制造的最好的聊天机器人,依然无法匹敌那些技术精湛的玩家。
DeepMind研究人员Oriol Vinyals在今年早些时候告诉《连线》杂志,他的软件目前缺乏精心组装和指挥军队所需的计划和记忆能力,同时也无法对对手的移动进行预测和反应。无独有偶,这些技能也能让软件更好地帮助处理现实世界的任务,比如办公室工作或实际的军事行动。在2018年,《星际争霸》或类似游戏取得重大进展可能预示着更强大AI的新应用。
教AI辨别是非
即使没有在上述领域取得新的进展,如果现有的AI技术被广泛采用,经济和社会的许多方面也会发生巨大的变化。随着公司和政府急于部署AI,许多人担心AI和机器学习会造成意外和故意伤害。如何在安全和符合道德规范的范围内对技术保持控制,是本月NIPS机器学习会议上一个重要的讨论话题。
研究人员发现,当机器学习系统接收远离“完美世界”的数据训练时,它们可以接受令人讨厌的或不受欢迎的行为,比如永远维持性别刻板的印象。现在,有些人正在研究可以用来审计AI系统内部工作的技术,并确保它们在从事金融或医疗等行业工作时做出公平的决策。
明年,科技公司将会提出如何让AI保持人性正确一面的想法。
谷歌、Facebook、微软以及其他公司已经开始讨论这个问题,并且成立了新的非营利组织Partnership on AI,它将研究并试图塑造AI的社会影响。此外,名为“人工智能伦理与治理基金会”的慈善项目正在支持麻省理工学院(MIT)、哈佛大学以及其他研究AI和公共利益的机构。现在,纽约大学的一个新研究机构AI Now也有一个类似的任务。在最近的一份报告中,它呼吁各国政府放弃使用“黑匣子”算法。
选自:WIRED
作者:Gregg Johnson
编译:网易见外智能编译平台
审校:小小