摘要:如果人工智能要反人类,那么人类应该如何避免这种情况?
转载请注明出处及文章作者。
关于“我们是否该担心人工智能的威胁”的讨论已经持续很久了。支持的人认为“人工智能会威胁人类”这样的话题纯属炒作,而反对的人则坚定的表示要警惕和远离人工智能。
越来越多的人参与到这一话题的讨论中,Elon Musk、霍金和 Steve Wozniak 等人也表达了自己的看法:他们的态度很一致,人工智能在某些领域的发展的确需要人类警惕并且加以控制。
近日,在布宜诺斯艾利斯举办的国际人工智能联合会议(International Joint Conference on Artificial Intelligence,简称 IJCAI)上,特斯拉 CEO Elon Musk、苹果联合创始人 Steve Wozniak、Google 旗下人工智能公司 DeepMind CEO Demis Hassabis、著名物理学家史蒂芬·霍金博士,以及上百位人工智能研究专家共同签署了一封号召禁止人工智能武器的公开信。
公开信称,人工智能武器将会是继火药和核武器后“战争领域的第三次革命”。人工智能专家认为,数年内人工智能技术就将迎来成熟。届时,各国政府有可能会引发一场人工智能武器的军备竞赛。因此,人工智能武器禁令必须尽快颁布。在他们看来,这比“控制人口数量增长更有深远意义”。
新南威尔士大学人工智能领域教授 Toby Walsh 称,类似激光致盲武器,人工智能武器也应被归纳到联合国禁止的范畴内。由于激光致盲武器的恐怖威力,早在 1980 年联合国就发布了《特定常规武器公约》,明确禁止使用激光致盲武器。
众所周知,Elon Musk 对人工智能一直持谨慎怀疑态度。去年10月份,在麻省理工大学的一场公开访谈上,Elon Musk 就将人工智能比作恶魔:“研究人工智能就像召唤恶魔一样。就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但没有一个最终成功的。”
另一方面,越来越多公司将人工智能运用在商业领域,例如 Google Now、苹果 Siri、微软 Cortana 等语音助手。不过,将人工智能运用到军事领域似乎一直是禁区。在 Google 收购人工智能公司 DeepMind 时,该公司就曾在收购协议中明确指出,要求 Google 不能将其人工智能技术运用于军事领域。
(from:杨雪,PingWest中文网)
转载请注明出处及文章作者。