北京青年报
“摁鼻子”就能识破“AI换脸”?随着技术发展,这招未必靠谱
解放日报 2024-03-08 07:50

最近,香港警方披露的一起“AI换脸诈骗案”:一公司职员参加“多人视频会议”后,被骗2亿港元。原来,在这场会议中,只有受害人是“真人”,其他“参会者”是诈骗分子用“AI换脸”技术冒充的。

一段时间以来,基于“AI换脸”等新技术的诈骗案时有发生,视频生成模型Sora的问世,更让人意识到“有视频有真相”也不再可靠。那么,有什么办法能识别视频电话那端的是“真人”还是基于AI技术的“数字人”呢?

热搜上有一种“摁鼻子识别AI换脸”的办法。有专家提出,可以让对方摁鼻子、摁脸,观察其面部变化——真人做这些动作后,相关部位会发生变化,比如塌下去、变形等;但“数字人”就不会,或出现破绽。这些做法有效吗?

蚂蚁集团天玑实验室安全算法专家朱凯表示,以上做法有一定的参考价值,但未必完全奏效。

具体来看,大多数的生成算法(AIGC)生成的都是干净的脸,而摁鼻子或者摁脸,意味着给人脸增加了遮挡,相关算法可能因为训练时数据不够,从而在生成有遮挡的脸时出现破绽。

不过,一些比较先进的算法已经可以在静态场景下、有局部遮挡的情况下生成画面。也就是说,如果只是摁鼻子或者摁脸,有些算法也能给出以假乱真的效果。

因此,他更建议通过遮挡结合“动起来”的方式,来识别到底是“真人”还是“数字人”——比如,在摁鼻子或摁脸的同时左右摇晃头部,这就是“动起来”的一种方式。目前很多“AI换脸”的基础是被模仿者的照片,照片是平面的,所以生成的“数字人”以正面、平面为主。当人脸动起来时,会呈现出脸部的三维结构,算法只能基于平面的照片推测三维结构,按照现有的技术手段,会产生破绽。

以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”也有可能难不倒新技术。

所以,防范AI诈骗,还是要做好信息保护,提高警惕。例如,不要泄露个人信息。个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。同时,在涉及资金交易等场景下,不轻易相信视频、声音。此外,传统的识别方式要比技术识别更有效。例如,可以询问对方只有彼此知道的“暗号”、共同经历的事情等。

文/任翀

编辑/倪家宁

相关阅读
现代版“画皮”:AI换脸生成“爱情骗局”,杀猪盘正走向人工智能
21世纪经济报道 2024-10-16
“AI换脸”诈骗?新技术建起安全屏障 “AI火眼”5秒识破“AI换脸”
广州日报 2024-09-09
打击AI换脸诈骗 技术力量当有更大作为
中国青年报 2024-08-21
一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段
央视新闻客户端 2024-08-18
企业小程序“AI换脸”搬运他人短视频进行局部替换合成 被判赔7500元
北京青年报客户端 2024-07-26
用AI技术“换脸”,哪些底线不能碰?
人民网 2024-07-11
AI换脸精准诈骗难以防范 全国人大代表建议 推进立法强化人工智能技术安全应用
法治日报 2024-04-09
AI“多人换脸”冒充公司高层 香港一财务职员被骗2亿港元
南方都市报 2024-03-28
最新评论