新闻中心

利用“AI换脸”等音视频诈骗案件多发

作者:侦探调查 时间:2023-05-25 09:39

  今年以来,ChatGPT和GPT-4等技术的应用成为信息科技领域的热点,引起公众对AI技术的广泛关注和热情。昨日,中国互联网协会发文称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。北京青年报记者查询发现,国内多地警方已经发布了相关案例。

 
  利用“AI换脸”虚假视频诈骗已发生多起
 
  据内蒙古包头警方消息,近日,福建省一知名企业家被境外诈骗团伙骗走430万元。在得知涉案的一张银行卡在包头市一银行后,包头警方立即介入,仅用10分钟便将钱款及时控制住,为受害人止损336万余元。
 
  据当事人郭先生介绍,4月20日当天,骗子冒充他的至交好友,通过微信联系到他,视频中谎称一个朋友在外地招标,需要430万元,且需要公对公账户过账,想要借用郭先生公司的账户走一下账。“从头至尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去。因为在视频中也确认了面孔和声音,所以我放松了戒备。当时已经临近中午,对方又说招标款12点前必须到账,基于对好友的信任,还没等钱到我的账户,我就先把这430万元给对方打了过去。”郭先生说。
 
  钱款打过去后,郭先生给好友发了一条微信,称事情已经办妥。到对方回过来是一个问号,一问才知道自己竟遇上了AI换脸的骗局。
 
  多地警方密集提醒 涉及转账交易要格外留意
 
  北京青年报记者注意到,针对AI换脸诈骗的案件,近期国内各地警方密集进行了提醒。
 
  温州警方表示,不法分子通常会先盗取QQ或微信号,从QQ相册或微信朋友圈内找到号主照片、视频、声音等,大面积找好友聊天,看到有回复的,使用“AI换脸”技术与之进行视频聊天,再找各种理由骗钱,受害人往往看到视频聊天界面后,以为是好友本人,便相信转账。
 
  武汉警方提醒,在涉及转账交易等行为时,个人要格外留意。
 
  对自称“领导”“朋友”的转账要求务必提高警惕
 
  中国互联网协会则表示,如果有人自称“家人”“朋友”“老师”“领导”,通过社交软件、短信、电子邮件等,以各种方式和理由诱导你转账汇款,务必第一时间提高警惕。在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道,未经核实就直接转账汇款,无论对方是谁。
 
  案例
 
  AI除了换脸换声扮好友还能合成不雅视频敲诈
 
  浙江温州市公安局也通报过一起利用AI换脸技术进行诈骗的案件。在这起案件中,陈先生收到了身处国外的好友“阿诚”发来的私信,在添加了对方的新微信后,对方表示自己最近准备回国,但购买机票的过程中遇到了难题,回国的机票已付了8000元定金,受到国际漫游限制,联系不上国内航空公司的经理,希望将剩余的钱转给陈先生,请他帮忙联系经理进行付款。
 
  对于此人的身份,陈先生有所怀疑,但对方随后打来视频电话,视频中“阿诚”和陈先生挥着手打招呼很是亲切,没过一会儿,对方就挂断了视频电话,称国外网络很卡。陈先生渐渐打消了心中的顾虑,并在“阿诚”一步步的“指导”下添加了“航空公司经理”的微信替“阿诚”支付了4.9万元。经过警方核实,骗子用AI换脸技术,利用阿诚社交平台上先前发布的视频,截取了面部视频画面并进行了“换脸”,从而对陈先生进行了诈骗。
 
  此外,江苏常州警方也通报了一起类似案例。小刘的初中同学“小韩”通过QQ联系小刘,准备借6000元钱, “小韩”先发来一条语音,声音很像本人,后来又给小刘打了一通视频电话。小刘转完钱后越想越不对劲,觉得“小韩”表情僵硬,于是拨打小韩的电话,没想到小韩的QQ账号被盗了
 
  北青报记者注意到,除了通过AI换脸,然后视频通话的手段直接诈骗钱财,还有诈骗分子通过AI不雅视频的方式进行诈骗,诈骗分子用AI技术合成诈骗对象的个人不雅照,然后以举报、散播等手段威胁当事人,要求诈骗对象汇款。
 
  在温州警方通报的一起案件中,温州的陈先生遭遇“AI换脸”敲诈,他收到一封“私家侦探”的敲诈信,同时附带了他与一名女子的所谓的不雅视频,信件中对方要求陈先生收件后速与其联系,不要心存侥幸,并威胁将视频散播到互联网。因为知道这是一段合成视频,但不知如何处理,陈先生向警方求助。目前此案件正在调查中。


联系我们

实力雄厚、手续完善、设备先进、在守法的前提下具有高效率的调查公司