根据福布斯获得的法庭文件披露的信息,一个欺诈团伙利用音频深度伪造技术克隆了一个企业董事的声音,并将3500万美元转移到几个海外账户。这是迄今为止最成功的“deep voice” 欺诈案,尽管这可能只是这类案件增长趋势的一部分。
深度伪造(Deepfake)该技术可以训练人工智能系统模仿某人的面孔,通常是演员或其他知名人士的面孔。然后,人工智能技术可以制作动画并将其面孔粘贴到视频中,以将克隆对象插入场景中。
但他们的图像不仅可以放在视频中,还可以伪造他们的声音。这就是音频深度伪造的地方。你可以训练人工智能技术模仿某人的声音,然后用它的声音说出内容。
专家认为,一旦深度欺诈技术达到一定水平,它将推动一个充满错误信息、骚扰和糟糕电影的新时代。
2020年,阿联酋的一位银行经理接到了一家大公司董事的电话。董事声称他的公司正在进行大规模收购,因此他要求银行授权将3500万美元转移到美国的几个账户。他说,他已经发送了一封来自律师的电子邮件来确认转账一切看起来都是合法的,银行经理确认了转账。
但是这家公司的“董事”其实是训练有素的。“deep voice”算法听起来像他的声音。阿联酋有关部门关部门正在寻求美国警方的帮助,以追回丢失的资金。据报道,这些资金已被17名或更多的欺诈者转移到全球账户。
这并不是Deepfake第一次欺诈和抢劫是迄今为止最成功的。类似的事件显然将来会发生,规模可能会大得多。那么,企业和政府能做些什么来减轻威胁呢?很难说。
因为Deepfakes技术仍在改进,最终会变得更强大,使人类无法正确识别。然而,训练有素的人工智能可能会识别出深度伪造的行为,因为克隆受害者的面部和声音往往包含一些错误,如数字噪音或人类无法发出的声音。