AI换脸技术被用于诈骗。图源:视觉中国
在赵本山和范伟的经典小品里,面对骗局,范伟的一句“哎呀,防不胜防啊”成为一时金句。没想到,如今的骗局更加隐蔽,让人难辨真假。
近日,包头警方发布一起利用AI实施电信诈骗的典型案例。福州市某科技公司法人代表郭先生10分钟内被骗430万元,对方通过智能AI换脸技术,佯装成好友对其实施了诈骗。随后,#AI诈骗正在全国爆发#的话题也冲上热搜,引发热议。
包裹在AI技术下的骗局,让人心生恐慌,因为它具有强大的隐蔽性。以往,骗子多是以“未曾谋面的陌生人”角色出现,或是假借执法人员的身份,或是编造情况危急的情境,尽管具备迷惑性,但不少人一想到要与陌生人进行金钱交易,难免会多几个心眼。然而穿上“AI”外衣的诈骗,却意图在受害人心里建立起信任基础,利用“熟人”身份降低受害人的戒备心。通过AI换脸、AI变声等手段,骗子摇身一变成了“身边人”,在眼见、耳听都不一定为实的情况下,识别骗局不是一句“多加小心”就能完成的易事。
近些年,AI写作、AI换脸等深度合成技术迅速发展,令人喜忧参半。人们一边惊叹于技术的先进扩充了人类的想象,一边又担心它模糊现实与虚拟的边界。面对这把双刃剑,如何在技术创新与风险防范间找到平衡并不简单。有学者将其称之为“科林格里奇困境”——当技术的改变相对容易时,其不良后果却难以完全预见;而当不良后果变得明显时,采取行动往往为时已晚或成本过高。
AI换脸技术被用于诈骗,尚属人工智能高速成长阶段的新问题,但其引发的财产风险,对肖像权、知识产权等权益的侵犯却不容低估。此前,人类总能通过不断适应新技术的发展而调整治理手段,一次次走出“科林格里奇困境”。如今,也该为狂奔的AI安上“刹车”了。
针对技术手段日益更新的AI诈骗,2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,明确了深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。而抖音平台也于今年5月9日发布《关于人工智能生成内容的平台规范暨行业倡议》,其中提到,各生成式人工智能技术的提供者,均应对生成内容进行显著标识,以便公众判断。
简而言之,AI换脸技术用于诈骗并非“无计可施”。从目前看来,换脸必须经过本人同意、AI画面与真实画面必须形成“辨识差异”将是监管的着重方向。而在本案中,个人微信、人脸、声音等隐私信息为何遭泄露也值得追问,AI技术之所以在诈骗事件中屡屡得逞,也是因为盗取了个人的隐私信息,作为编织骗局的“脉络”。因此,对隐私信息的使用处理,理应严格遵守信息保护边界,避免因为利益等原因随意泄露,给信息提供者带来严重后果。
无论是问题暴露前的“未雨绸缪”,还是问题显现后的“查缺补漏”,都是人类厘清技术发展“边界”的必要手段。我们尤需引导新技术向上向善,谨防诈骗穿上AI外衣。
“转载请注明出处”