近日,全国多地警方发布了多个“AI诈骗”的典型案例,引发大众对于使用人工智能技术进行诈骗的案件频发进行探讨。网络安全从业人员告诉紫牛新闻记者,当下AI技术的发展使得技术运用门槛降低,容易被不法分子利用,而相应防范手段却显得滞后,普通大众更需要提高自身防范意识。
记者体验AI换脸 “质量高,速度快”
网络安全从业人员小郑告诉紫牛新闻记者,随着人工智能技术的发展,不少例如AI换脸、AI语音合成的技术门槛已越来越低。小郑介绍,如今AI替代了合成技术人员,能够在犯罪分子使用简单指令和操作下,自动完成细致到毛发、光影都真实的合成图片。并且AI的工作效率能短时间生成大量图片合成视频,这样也就实现在视频中以假乱真换脸。而音频合成诈骗电话早些年就已出现,甚至有犯罪分子通过骚扰电话的形式来录取受害者声音特征,最终合成音频实施诈骗。
在专业人员指导下,紫牛新闻记者体验了多款AI换脸合成工具。其中一款国外软件被称为效果最好最自由的工具,本意是为了帮助艺术创作者提高工作效率,最后却因功能强大和免费开放下载,成为当前AI换脸违法行为的主要工具。记者在电脑上安装好软件后,使用网络下载的明星脸部模型,加上网络分享的指令,最快5秒就能生成一张该明星极为真实的照片,而通过指令的改变可以随意切换场景、人物动作、表情等细节。
记者同时还使用了自己平时20张左右的生活照提供给AI,尝试对其进行换脸训练,AI用几小时时间就掌握了记者的面部特征,并生成一个带有记者脸部信息的模型文件。运用该模型,记者尝试了正面、侧面等多角度人物照片生成,结果几秒内导出的照片就已非常近似记者本人照片。小郑告诉记者,AI的学习能力很强,如果能有30张以上的人物露脸照片,就能生成很“真实”的图片。
紫牛新闻记者在手机软件下载程序中搜索“AI换脸”,可以搜索到数十种各类换脸软件,其中不少的介绍都包含“一键视频换脸”“一键换装换发型”等宣传。而一些主流的短视频软件中,也出现了植入的换脸特效。记者使用发现,只要上传自己的一张照片,再配合软件给出的一些影视片段、网络视频,就可以自动生成换脸视频。
视频中除了脸型变化不大,人物的五官基本都被替换,而且色调、光线等方面均没有什么违和感,只是在侧脸时会露出一些“破绽”,以及脸部有时会出现一些特殊的抖动,这些软件制作的换脸视频以娱乐为主,细看还是很难乱真。
各类软件的层出不穷,也带来不少法律问题。近期,上海一家网络公司就因换脸手机APP新增多份肖像权纠纷裁判文书。据悉,该公司未经原告许可擅自使用其影像作品,并制作融脸视频模板,提供给付费会员使用。法院认为,部分视频存在明显的“换脸”痕迹,系利用信息技术手段伪造等方式侵害原告的肖像权。
如何识别和预防AI换脸?
紫牛新闻记者注意到,在AI换脸图片、视频层出不穷后,如何鉴定相关内容真假成为了不少网友讨论的热点。一名经常使用AI进行写真创作的设计师告诉记者,AI制作的真人照片与视频如今还存在一些没有完善的地方,例如AI生成的人眼神会比较奇怪,常出现瞳孔不自然,呆滞无神的情况。此外,一些人物身体细节也是容易出错的区域,例如手部手指的不自然、人体比例的不协调等。但该设计师表示,这些情况可能随着AI技术快速进步而逐渐得以解决。
与此同时,也有不少平台开始尝试利用技术手段识别AI生成图片。记者在抖音、哔哩哔哩、小红书等平台看到,一些看似真实的照片被识别判定为AI生成内容,使用眼神、手部等细节观察法,确实也能发现照片为假。不过类似平台的技术手段依然存在不准确的问题,不少作者明确注明AI创作的情况下,判定系统未能识别成功。
除了平台加大对AI生成内容的管控提醒,个人也需提高警惕,在碰到涉及转账、支付等情况时,可以通过特殊的问题提问,指定行为不同角度的视频要求等形式来确定对方身份。
多位AI图像技术使用者告诉记者,大众在使用社交软件时,一定要尽可能少发布个人正面照片或视频,不提及年龄、工作、所在地等内容,减少个人信息的暴露。同时对于网上信息,一定要留有疑心,多方求证,不轻易相信任何一个涉及个人财产的恐吓信息。
文/刘浏 陈燃
编辑/倪家宁