虽然谈论这样的大灾难可能有些牵强,但人工智能的一个更符合实际的后果已经存在,并值得认真关注:人工智能的道德影响。
人工智能在某种程度上是可行的,因为复杂的算法能够识别、记忆和关联相关数据。尽管这样的机器处理已经存在了几十年,但现在的不同之处在于,强大的计算机处理着数千兆字节,并实时提供有意义的结果。此外,有些机器可以做人类和其他智能的专属领域:自主学习。
正是这种自动化学习带来了一个关键问题:机器能学会道德准则吗?
作为一名学习科学方法的研究人员和一个沉浸在道德决策中的伦理学家,我知道,人类要同时驾驭这两个迥然不同的领域是很困难的,更难以想象计算机算法能让机器的行为符合道德准则。
学术界和商界都使用实证科学来确定其相关性和因果关系,这类研究的成果是获得大量的客观信息,例如,抵押贷款发放机构的算法可能会发现,边缘借款人对广告的反应最为灵敏,这表明在他们最喜欢的足球队输掉一场大大比赛后,他们的利率会有所提高,数据处理计算机可以识别这种关联性,并学会投放相关广告。
然而,道德层面的选择并没有问一个行动是否会产生一个有效的结果,它问的是,这是否是一个好的决定。
换句话说,不管功效如何,这是正确的做法吗?这种分析并没有反映一个客观的、数据驱动的决策,而是一个主观的、基于判断的决策。
在一个被边缘化的、情感脆弱的目标市场上投放广告,对这家抵押贷款公司来说可能非常有效,但许多人会质疑推广的道德性,人类可以做出这种道德判断,但数据驱动的计算机如何得出同样的结论呢?这其中就包括了对人工智能的主要担忧。
那么,制造出来的计算机能够具有一种正直的观念吗?编程是否包含公平的理念?算法能学会尊重吗?对于机器来说,模仿主观的、道德的判断似乎是不可思议的,但如果存在这种潜力,至少有四个关键问题亟待解决:
令人鼓舞的是,人工智能已经对许多人的生活产生了积极的影响,而且令人兴奋的是,我们可以想象,更先进的应用将会成倍地增加这种积极影响。
同样,发展技术的人也必须培养“道德可持续性”,在未来,我相信选择正确的道德观念将被编码成人工智能。
选自 | insider
审校 | Simone