公众号/AI前线
作者 | R. Colin Johnson
译者 | Sambodhi
策划 | 陈思
动画《成龙历险记》中“老爹”这一角色曾有一句名言:“要用魔法击败魔法。”随着 AI 技术的发展以及部分滥用,这句话也被应用在了人工智能上,一场新的军备竞赛开始了:人工智能 vs 人工智能。
利用机器学习来编译“合成身份”(Synthetic identities),显示其信用卡持有人的通常行为模式,金融机构可以实时发现异常行为。然而不幸的是,网络罪犯同样也利用人工智能创建自己的合成身份,产生的结果也足够真实,足以愚弄发现异常行为的人工智能。
这场人工智能之战——也是打击网络安全欺诈者,正在假新闻、假视频和假音频的战壕中展开。就这样,一场新的军备竞赛开始了:人工智能 vs 人工智能。
Jupiter Research 的 Steffen Sorrell 表示,合成身份是信用卡欺诈“容易实现的目标”。根据 Jupiter Research 最新的在线支付欺诈 报告,到 2024 年,合成身份推动在线支付欺诈给坏人造成 2000 亿美元的损失。对好人来说,这也将推动欺诈检测市场同期达到 100 亿美元,高于今年的 85 亿美元。
“在线欺诈发生在高度发达的、存在分工的生态系统中,”位于美国爱达荷州博伊西的基于 ID 的反欺诈企业 Kount Inc 的人工智能科学主管 Josh Johnston 说,网络犯罪分子专门从事不同类型的犯罪,从手动“刷卡”到用人工智能创建合成身份。Johnston 说:“还有一些人针对慈善机构和数字商品商户等软目标测试被盗的卡号和凭证,以确保它们没有被取消。”他声称,在 暗网 的网络黑市中,用不了一美元就可以买到具有准确姓名、地址和 CVV(卡片验证值)的大额信用卡卡号。
Johnston 说:“欺诈者可以购买这些验证卡的清单,并通过任意数量的在线计划从中获利。“这些犯罪分子大量使用人工智能,他们也像合法开发者一样,在互联网论坛上分享软件工具和技巧。”
根据 Johnston 的说法,这些大量 Fake 使用了所有类型的人工智能和其他自动化技术,从通过组合真实姓名和随机数字来生成并注册真实的电子邮件地址的小程序,到通过结合多个真实人物的信息来创建合成身份的大型机器学习程序。如果欺诈检测器检查一个合成身份,它们通常会发现一个虚假的电子邮件账户、Facebook 页面、以及其他显示合成身份细节的互联网形象已经被欺诈者记录下来。
因此,网络安全程序员的欺诈检测技能和 黑帽黑客 的欺诈创造技能形成了交锋。
这些欺诈创造技能不仅用于信用卡诈骗,还扩展到图像和语音识别领域,在这些领域中,这些工具被反过来用于制造假新闻、假视频和假音频。事实上,据 Juniper Research 的 Nick Maynard 称,使用假音频的汇款欺诈比在线支付欺诈增长得更快。他表示,到 2024 年,这一领域的损失预计将增长 130%。
Maynard 说:“机器学习对于遏制欺诈越来越重要。”
Deepfake 是一场打地鼠游戏,因为每一种人工智能(无论是好的还是坏的)都会暂时占据上风。“这是一场猫捉老鼠的游戏,”Johnston 说,他用一个变量来衡量成败,该变量他称之为“摩擦”,这种变量会减缓一方或另一方的速度,直到一种新形式的“润滑”可以让一方领先于另一方。
“欺诈者会对摩擦做出反应,就像互联网上的合法用户一样。当我们占了上风,给欺诈者造成太多摩擦时,他们就会转向一个不受欺诈检测器保护的软目标。一个好的欺诈解决方案会增加坏人的摩擦,减少好客户的摩擦。然而,一方的进步,会导致另一方面的策略发生转变。”
Johnston 说,当互联网刚刚出现的时候,网上就没有什么值得盗窃的东西,因此欺诈者大多在网上测试信用卡,然后通过亲自购买商品来变现而获利。如今,在线交易对坏人来说,和对我们其他人一样方便。信用卡内置安全芯片的普遍采用,使得面对面交易成为欺诈者的一大风险,其结果是,欺诈活动越来越多地转移到网上。因此,Johnston 表示,欺诈检测人工智能正在使用更详细的分析。
Johnston 称:“在不放弃农场的情况下,我们在 2020 年成功防欺诈的方法依赖于跨越大型数据集来寻找欺诈的固有模式。坏人可以窃取你所有的秘密,但他们无法模仿你的品味、行为和历史。归根结底,欺诈者不得不通过欺诈手段才能拿到有价值的东西,只要有正确的数据,我们就能分辨出欺诈者和好客户。”
假新闻 / 假视频 / 假音频
人工智能已经被用来自动创建假新闻故事。例如,OpenAI 的原型 GPT-2 文本生成系统使用机器学习来翻译文本、回答问题和编写假新闻。当“唐纳德·特朗普意外地……俄罗斯已向美国宣战”这句话被输入 GPT-2 后,它就创造了下面这则假新闻故事:
在唐纳德·特朗普意外向空中发射导弹后,俄罗斯向美国宣战。俄罗斯表示,已经“确定导弹的弹道,并将采取必要措施,确保俄罗斯民众和该国战略核力量的安全。”白宫方面称,它对俄罗斯违反《中程导弹条约》的行为表示“极为关切”。
更多关于 GPT-2 产生假新闻的细节,可以在 OpenAI 网站上的 样本 中找到。
纽约州立大学水牛城分校(University at Buffalo)科学与工程学教授 David Doermann 说,“像 OpenAI 这样的开源联盟正在向我们展示未来的欺诈行为可能是什么样子的:使用自动化工具可以扩展到大规模攻击。目前,Fake 占据了上风,但是我们需要缩小差距,以便我们能够迅速超越它们。这种情况变得很像恶意软件,黑客利用的每个新漏洞,都由网络安全程序员来修补。有朝一日,对于造假者来说,可能会因为成本太过高昂而无法继续追求下去,但更有可能的是,这将是一场拉锯战,没有明确的赢家。”
同时,根据 Doermann 的说法,好人需要教育公众,对互联网上的一切要持保留态度;如果听起来太好(或太坏)而不像是真的,那么它可能就是真的。Doermann 说,“这并不是一项不可能完成的任务。例如,现在大多数人都知道,不要点击来源不明的附件,媒体也知道如何在垃圾邮件到达收件箱之前识别出来并过滤掉它们,”同样,已知的赝品甚至可能的赝品也可以贴上这样的标签,以提醒人们不要太当真。在某些情况下,比如儿童色情制品,赝品可以完全被过滤掉,而不会侵犯第一修正案的权利。
联合国区域间犯罪和司法研究所(United Nations International Crime and Justice Research Institute,UNICRI)人工智能和机器人中心 负责人 Irakli Beridze 对此表示赞同。“Deepfake 只是‘被操控’新闻问题的一个新维度。”Beridze 说,“这项技术一直存在,但直到最近才被‘民主化’,通过众多的应用程序变得更容易使用,使那些没有什么技术诀窍的人,也能创造出自己的 Deepfake。Deepfake 的蔓延带来了影响深远的挑战,它有可能会威胁到国家安全,包括威胁到选举和公共安全,以及破坏外交教、民主、公共话语和新闻业。”
据 Beridze 称,许多组织都在努力开发软件,以便更容易识别出 Deepfake。她和 Doermann 声称,识别 Deepfake 的技术工具已存在,只需进一步开发即可成为“交钥匙”的解决方案。与此同时,双方都认为,需要做更多的工作来降低普通消费者的轻信率。正如垃圾邮件问题在公众意识中提到提高一样,对 Deepfake 的认识也需要提高。Beridze 称之为“对消费者资深的批判性分析”。
就在去年,联合国区域间犯罪和司法研究所在海牙举行的 “和平、正义与安全”黑客松(Hackathon for Peace, Justice and Security)会议 上提出了一个 Deepfake 的挑战。比赛要求参赛者创建用于检测被操纵视频的工具,这些工具可用于支持执法、安全机构、司法、媒体和公众。
Beridze 说:“获胜团队提出了一个用于图像分类的神经网络架构和一个简化用户交互的 Web 应用程序。这个解决方案作为概念的技术证明,随后在 2019 年的技术研讨会上得到了完善。到 2020 年,我们将积极努力,将这项技术从概念验证推广到全面应用。”
但是,Beridze 警告说,对于 Deepfake 这个问题还没有快速的解决办法。他解释说,技术变化的步伐越来越快,需要更全面的的解决方案来监控技术进步和使用技术的 Deepfake,从而通过预测明年的更先进技术来领先于看不见的问题。
Beridze 称,“这是一个需要多方利益相关者和跨部门合作的循环过程。在这方面,联合国中心的目标之一是增加和促进与整个公共部门、工业界、学术界以及相关安全实体、情报机构和反恐机构等利益相关者的知识共享和关系建设,以帮助当局跟上步伐。在这样做的时候,我们为制定、部署和使用合法、可信、尊重人权、民主、正义和法治的解决方案提供指导。”
假视频和假音频是由不良的人工智能驱动的最新欺诈创新。可以说,公众对这类假新闻的认识始于 2016 年大选年,当时“假新闻”成为一个流行词。大多数政治视频都是明显的 Deepfake,知识一次性的模仿,只不过是用“愚人节”版的演讲取代了政客们的嘴唇。然而,通过使用机器学习重新利用人工智能面部识别工具,程序员创造了即使是最老练的观众也能愚弄的 Deepfake 假视频。
Doermann 曾经是美国国防高等研究计划署(Defense Advance Research Project Agency,DARPA)MediFor(媒体取证,Media Forensics)计划的项目经理,他表示,DARPA 已经为政府机构获得的图像开发了自动取证工具,这些工具曾经是手动的,需要专家级别才能使用,但后来被安装到了执行认证的人工智能中。
“早在 Deepfake 成为公众问题之前,我们就开发出了检测 Deepfake 的人工智能工具。我们担心恐怖分子和外国政府的假情报来源,我们的目标是将人类专家用来识别 Deepfake 的方法完全自动化。这样,理想情况下,政府收集的每一种基于图像的媒体都可以理所当然的通过我们的鉴定器来鉴定。”Doermann 说。
MediFor 正在进行中,但已经进入将其基础研究结果整合到最终自动化工具中的阶段。与此同时,一个名为 SemaFor(语义取证)的新项目接过了基础研究的接力棒。SemaFor 的目标是获取被识别为假图像,并应用人工智能归因算法来推断媒体的来源,同时使用特征算法来确定 Deepfake 是出于恶意目的(比如造谣活动)还是处于良性目的(如娱乐)。
对公众而言,第一批与真正的总统竞选视频难以区分的 Deepfake 视频很可能会在 2020 年美国总统大选期间浮出水面。假音频已经被网络犯罪分子成功用于汇款欺诈。例如,《华尔街日报》(The Wall Street Journal)报道称,一通模仿公司首席执行官声音的 Deepfake 电话欺骗了该公司,诱骗该公司将 24.3 万美元汇给了网络罪犯。Deepfake 最终被发现,但这些钱早已通过电汇网络消失,当局无法追查。
用于欺诈检测的“大铜铃”是一种验证器,可以及时识别并实时标注“Fake”。但不幸的是,其结果很可能招来欺诈者的人工智能报复,旨在实时愚弄验证者。
作者介绍:
R. Cllin Johnson 是京都奖(Kyoto Prize)得主,从事科技记者工作有 20 年之久。
原文链接:
https://cacm.acm.org/news/245531-ai-vs-ai/fulltext