打击AI换脸诈骗 技术力量当有更大作为
中国青年报 2024-08-21 12:00

我们常说“眼见为实”,但在AI时代,肉眼所看见的也不一定是真相。一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。

电信网络诈骗本就变幻莫测,让人防不胜防,如今有了AI换脸技术的“加持”,更加大了防骗反诈的难度。对此,民众不仅要进一步擦亮眼睛、提高警惕,还需要技术力量有更大的作为,在技防层面实现“降维打击”。

虽然AI换脸几乎可以一键完成,但其依托的深度合成技术还是存在很高技术门槛与壁垒的。被不法分子利用来进行诈骗的AI换脸软件,大概率也是依托于各大科技公司或单位开发的相关产品,因而要在源头上阻止AI换脸技术被滥用,理论上不存在太大困难,毕竟绝大多数诈骗分子或团伙还没强大到能自主研发一套AI换脸系统。

动用技术力量打击AI换脸诈骗,一方面要从源头上防止技术被滥用。对于一些开放性的技术或AI模型,平台当然没有办法阻止诈骗分子使用,可对于此类几乎能以假乱真的深度合成技术内容,显然要有必要的提醒,明确告知受众其为AI技术生成的产品。

另一方面,要加大对AI换脸诈骗行为的识别力度。不法分子利用AI生成的图片、视频实施诈骗,完成换脸只是第一步,接下来还需要通过各种社交媒体平台向潜在目标传输虚假照片或视频,以达到迷惑对方实施诈骗的目的。在这种情况下,各大平台如果能研发并及时推出AI换脸诈骗检测与预警机制,那无形中又给用户的安全加了把锁。

除了技防层面的不断强化之外,反电诈宣传也要与时俱进,将AI换脸类诈骗的识别、防范及时纳入宣传范畴,让大家知晓在AI生成技术面前,有图不一定有真相,即便是视频也可以被伪造,让大家在网络生活中务必多留个心眼。

面对层出不穷的新型骗局套路和花样,作为自身安全第一责任人的广大民众,做好“提高警惕心莫贪”“陌生链接不点击”等常规防骗措施外,更要有针对性地防范AI换脸诈骗。AI换脸得以进行的前提是掌握了目标对象的面部信息与动作,让AI技术有训练与学习的数据素材。因而,大家在网络生活交往中,要进一步保护好自己的人脸等生物信息,不过度公开或分享动图、视频,不法分子无法轻易获取行骗对象的面部信息,自然也就无法通过AI换脸来实施诈骗行为了。可见,随着诈骗技术的水涨船高,民众的安全意识与防骗技能也要相应加以提升。

文/夏熊飞

图源/视觉中国

编辑/姬源

相关阅读
火爆网络的AI捏脸,竟然藏着这些危险
上海网络辟谣 2024-11-05
“AI换脸”诈骗?新技术建起安全屏障 “AI火眼”5秒识破“AI换脸”
广州日报 2024-09-09
一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段
央视新闻客户端 2024-08-18
“骗子来电,声音容貌和我家人一模一样” 记者调查AI换脸拟声技术使用乱象
法治日报 2024-08-16
国家金融监管总局:防范“AI换脸拟声”类新型电信网络诈骗
国家金融监督管理总局 2024-07-24
AI“多人换脸”冒充公司高层 香港一财务职员被骗2亿港元
南方都市报 2024-03-28
关于警惕利用AI新型技术实施诈骗的风险提示
北京青年报客户端 2024-03-16
防范“AI换脸”诈骗 你需要的知识都在这儿了
央视新闻 2024-02-29
最新评论