Qnews|多地警方提醒:警惕利用AI技术诈骗 加强个人信息保护意识
北京青年报客户端 2023-05-24 18:11

今年以来,ChatGPT和GPT-4等技术的应用,成为信息科技领域的热点,引起公众对AI技术的广泛关注和热情。5月24日,中国互联网协会发文称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。北京青年报记者查询发现,国内多地警方已经发布了相关案例。

利用“AI换脸”虚假视频诈骗已发生多起

据内蒙古包头警方消息,近日,福建省一知名企业家被境外诈骗团伙骗走430万元。在得知涉案的一张银行卡在包头市一银行后,包头警方立即介入,仅用10分钟便将钱款及时控制住,为受害人止损336余万元。

据当事人郭先生介绍,4月20日当天,骗子冒充郭先生一名至交好友,通过微信联系到郭先生。对方告诉郭先生,他的朋友在外地招标,需要430万元,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。“从头至尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频电话,我在视频中也确认了面孔和声音,所以才放松了戒备。因为当时已经临近12点了,对方又说招标款12点前必须到账,所以基于信任的前提下,我还没等钱到我的账户,就先把这430万元给对方打了过去。”郭先生说。钱款打过去后,郭先生拿起手机给好朋友的微信发了一条消息,称事情已经办妥。让他没想到的是,此次对方回过来的消息竟然是一个问号。很快,郭先生拨打了好朋友的电话,这一问才知道自己竟然是遇上了“高端”骗局,对方通过智能AI的诈骗手段,佯装成好朋友对他实施了诈骗。

浙江温州市公安局也通报过一起利用AI换脸技术进行诈骗的案件。在这起案件中,陈先生收到了身处国外的好友“阿诚”发来的私信,在添加了对方的新微信后,对方表示自己最近准备回国,但购买机票的过程中遇到了难题,回国的机票已付了8000元定金,但受到国际漫游限制,联系不上国内航空公司的经理,希望将剩余的钱转给陈先生,请他帮忙联系经理进行付款。

对于此人的身份,陈先生有所怀疑,但对方随后打来视频电话,视频中“阿诚”和陈先生挥着手打招呼很是亲切,没过一会儿,对方就挂断了视频电话,称国外网络很卡。陈先生渐渐打消了心中的顾虑,并在“阿诚”一步步的“指导”下添加了“航空公司经理”的微信替“阿诚”支付了4.9万元。当天晚上陈先生偶然刷到“阿诚”的“旧”微信,并聊起了转账的事情这才知道自己被骗了

经过警方核实,骗子用AI换脸技术,利用阿诚社交平台上先前发布的视频,截取了面部视频画面并进行了“换脸”,从而对陈先生进行了诈骗。

此外,江苏常州警方也通报了一起类似案例。小刘的初中同学“小韩”通过QQ联系小刘,准备借6000元钱,小刘向来谨慎,担心“小韩”不是本人,没想到“小韩”发来一条语音,声音很像本人,后来“小韩”又给小刘打了一通视频电话,看到对方的脸后,小刘便相信了对方,于是小刘便给“小韩”提供的银行卡转了6000元,小刘转完钱后越想越不对劲,觉得“小韩”表情僵硬,于是拨打小韩的电话,没想到小韩的QQ账号被盗了,这才意识到被骗,随后立即报警。

警方初步判断,通话的视频极有可能是诈骗分子通过AI技术“变声”、“换脸”诈骗手段合成而来。

用AI换脸合成不雅视频进行诈骗

北青报记者注意到,除了通过AI换脸,然后视频通话的手段直接诈骗钱财,还有诈骗分子通过AI不雅视频的方式进行诈骗,诈骗分子用AI技术合成诈骗对象的个人不雅照,然后以举报、散播等手段威胁当事人,要求诈骗对象汇款。

在温州警方通报的一起案件中,温州的陈先生遭遇“AI换脸”敲诈,他收到一封“私家侦探”的敲诈信,同时附带了他与一名女子的所谓的不雅视频,信件中对方要求陈先生收件后速与其联系,不要心存侥幸,并威胁将视频散播到互联网。因为知道这是一段合成视频,但不知如何处理,陈先生向警方求助。目前此案件正在调查中。

各地警方密集提醒  不轻易提供人脸指纹等个人生物信息给他人

 北京青年报记者注意到,针对AI换脸诈骗的案件,近期,国内各地警方密集进行了提醒。

温州警方表示,AI换脸就是通过人工智能技术把别人的脸换成自己的脸,不法分子通常会先盗取QQ或微信号,从QQ相册或微信朋友圈内找到号主照片、视频、声音等,大面积找好友聊天,看到有回复的,再使用“AI换脸”技术与之进行视频聊天,再找各种理由骗钱,受害人往往看到视频聊天界面后,以为是好友本人,便相信转账。

武汉警方则提醒,在涉及转账交易等行为时,个人要格外留意,加强个人信息保护意识,尽量避免过多地暴露自己的信息。对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。避免占便宜心理,警惕陌生人无端“献殷勤”。

中国互联网协会则表示,为防止遭受AI换脸诈骗,个人要加强信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人,管理好自己的朋友圈,也不要轻易向陌生人开启手机屏幕共享;如果有人自称“家人”“朋友”“老师”“领导”,通过社交软件、短信、电子邮件等,以各种方式和理由诱导你转账汇款,务必第一时间提高警惕。在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道,未经核实就直接转账汇款,无论对方是谁。

文/北京青年报记者 李铁柱
编辑/王朝
校对/董一凡

相关阅读
“AI捏脸”解压?背后风险不容忽视 已出现利用换脸技术的敲诈勒索案件
解放日报 2024-11-06
“AI换脸”诈骗?新技术建起安全屏障 “AI火眼”5秒识破“AI换脸”
广州日报 2024-09-09
打击AI换脸诈骗 技术力量当有更大作为
中国青年报 2024-08-21
一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段
央视新闻客户端 2024-08-18
AI“多人换脸”冒充公司高层 香港一财务职员被骗2亿港元
南方都市报 2024-03-28
“摁鼻子”就能识破“AI换脸”?随着技术发展,这招未必靠谱
解放日报 2024-03-08
防范“AI换脸”诈骗 你需要的知识都在这儿了
央视新闻 2024-02-29
随着Sora等模型的开放和应用,AI换脸等技术的门槛持续降低
解放日报 2024-02-21
最新评论