最近,香港警方披露的一起“AI换脸诈骗案”:一公司职员参加“多人视频会议”后,被骗2亿港元。原来,在这场会议中,只有受害人是“真人”,其他“参会者”是诈骗分子用“AI换脸”技术冒充的。
一段时间以来,基于“AI换脸”等新技术的诈骗案时有发生,视频生成模型Sora的问世,更让人意识到“有视频有真相”也不再可靠。那么,有什么办法能识别视频电话那端的是“真人”还是基于AI技术的“数字人”呢?
热搜上有一种“摁鼻子识别AI换脸”的办法。有专家提出,可以让对方摁鼻子、摁脸,观察其面部变化——真人做这些动作后,相关部位会发生变化,比如塌下去、变形等;但“数字人”就不会,或出现破绽。这些做法有效吗?
蚂蚁集团天玑实验室安全算法专家朱凯表示,以上做法有一定的参考价值,但未必完全奏效。
具体来看,大多数的生成算法(AIGC)生成的都是干净的脸,而摁鼻子或者摁脸,意味着给人脸增加了遮挡,相关算法可能因为训练时数据不够,从而在生成有遮挡的脸时出现破绽。
不过,一些比较先进的算法已经可以在静态场景下、有局部遮挡的情况下生成画面。也就是说,如果只是摁鼻子或者摁脸,有些算法也能给出以假乱真的效果。
因此,他更建议通过遮挡结合“动起来”的方式,来识别到底是“真人”还是“数字人”——比如,在摁鼻子或摁脸的同时左右摇晃头部,这就是“动起来”的一种方式。目前很多“AI换脸”的基础是被模仿者的照片,照片是平面的,所以生成的“数字人”以正面、平面为主。当人脸动起来时,会呈现出脸部的三维结构,算法只能基于平面的照片推测三维结构,按照现有的技术手段,会产生破绽。
以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”也有可能难不倒新技术。
所以,防范AI诈骗,还是要做好信息保护,提高警惕。例如,不要泄露个人信息。个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。同时,在涉及资金交易等场景下,不轻易相信视频、声音。此外,传统的识别方式要比技术识别更有效。例如,可以询问对方只有彼此知道的“暗号”、共同经历的事情等。
文/任翀
编辑/倪家宁