AI新骗局来袭
诈骗成功率接近100%
近日
话题#AI诈骗正在全国爆发#
冲上微博热搜
只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。
“AI换脸”新型诈骗频发
和你视频对话的
可能不是本人!
确认过长相声音仍被骗
10分钟被骗走430万元
近日,包头警方发布一起使用智能AI技术进行电信诈骗的案件。
据介绍,4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系他。短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想借用郭先生公司的账户走一下账。
好友向郭先生要了银行卡号,声称已经把钱打到账户上,还把银行转账凭证截图发给郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。
可当郭先生主动给好友微信发消息,称事情已经办妥时,好友竟然不知情。他这才意识到遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时给我打了视频,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
值得注意的是,骗子并没使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。
警方接报后,在银行的全力协助下,仅10分钟就将该诈骗账户内的336.84万元被骗资金拦截,但仍有93.16万元资金被转移,目前福建警方与包头警方正在全力追缴中。
骗子手段防不胜防
“AI诈骗”成功率竟近100%
在这起骗局中,骗子防不胜防的程度,超出正常认知的仿真度,令人不寒而栗。
据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。
AI技术如何介入新骗局?
有什么新的诈骗方式?
注意了
第一种是声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
例如,某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,该财务信以为真,在1小时内转款完成,后发现被骗。
第二种是AI换脸
因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
第三种是转发微信语音
除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,日前就有骗子通过转发微信语音的方式行骗。
在盗取微信号后,骗子向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。
第四种是AI筛选受骗人群
值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。
遏制人工智能违法应用
还须多方发力多管齐下
要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得多方主体共同发力多管齐下。
4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能产业给出较为详尽的规定,对用户安全保护已经迈出第一步。此外,监管部门要看到这一问题的严峻性,担负起监管责任,挖出相关产业链,给犯罪分子以震慑。平台和个人也应避免信息泄露,不给骗子留下把柄。
技术是一把双刃剑,拥抱新技术带来的发展与变革,也必须规避可能存在的风险和危险。既然有人在用它图谋不轨,就必须为这把剑装上剑鞘,这是为了保护剑,也是为了保护人。
警方提示
针对花样翻新的智能AI诈骗
公众要提高防范意识
!!!
1. ?不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
2. ?网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
3. ?如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
4. ?如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
来源:广州日报、平安包头、湖北网警、北京晚报、财经网等
`
罂粟果能给鸡止泻?盐城一养鸡户种了30株被抓了
·
412种!盐城条子泥湿地鸟类家族再添新成员
·
盐城首位!出征世乒赛!
·太漂亮了!盐城有一处300亩玫瑰花海
本文地址:http://sicmodule.glev.cn/quote/2355.html 歌乐夫 http://sicmodule.glev.cn/ , 查看更多