最近,“AI捏脸”视频在社交平台上颇为流行——一双手捏住各种立体人像,慢慢用力,把人像捏扁、捏爆、捏碎,被捏的对象既有发布者本人,也有各种影视剧人物乃至虚拟人物。不少发布者表示“AI捏脸非常解压”,并鼓励他人尝试。
其实,实现AI捏脸的技术并不复杂。简单来说,就是应用人工智能技术,先将照片、视频里的人物进行3D建模,然后经技术处理,用捏脸模板中的“双手”将3D模型捏扁、捏爆。
调查发现,“AI捏脸”效果起初来自一款海外AI工具软件,随着相关视频走俏,国内平台上也出现类似应用软件。但上海辟谣平台试用发现,这些应用虽说能实现“AI捏脸”效果,但在保护个人信息、不滥用个人信息上做得并不够。对使用者来说,无异于主动将人脸等隐私信息拱手送上,安全风险极大。
根据一名主播的推荐,记者搜索到一款声称免费提供“AI捏脸”效果的小程序。从该小程序的算法公式、隐私条款和服务方式看,它也让人不太放心。其在“算法公式”中称,基本原理是将人脸图片的面部特征转移到视频素材中的特定人物上,但并未表示哪些视频素材不能用、哪些场景不适合合成。“隐私条款”表示,小程序会收集用户的昵称、头像、性别、地区、相册、设备信息等个人信息,这些信息的存储地点和期限非常模糊,前者是“境内”,后者是“小程序停止运营后即时删除”。至于该小程序的服务内容,除了用AI技术为用户实现捏脸等效果外,还收费提供各种换脸、换背景的照片、视频产品。
将个人照片等发送给不明来历的应用程序、平台等,风险极大。此前,多地警方披露过犯罪分子使用AI换脸、换声等技术实施敲诈勒索案件,作案的基础就是受害人的头像等个人信息有过泄露。
例如,深圳市民吴先生收到陌生手机号码发送的彩信,里面是他与一名陌生女子在酒店房间的不雅照片,并以此敲诈勒索。吴先生选择报警。深圳警方侦查后发现,全市有同样遭遇的不止吴先生一人,背后是一个犯罪团伙,内部分工明确,有人负责寻找作案目标,有人负责修图,有人负责发短信打电话敲诈勒索。最终,警方成功抓获10多名犯罪嫌疑人,并在他们的电脑里发现大量经过合成换脸后的不雅照片。
网络安全专家表示,随着AI技术的发展,一张照片、一段语音、一段视频,都有可能成为不法分子的犯罪工具。他们利用AI技术,不仅能把人物的静态照片合成到各种背景中,还能变成动态视频;同样的,获得一定量的音频信息后,AI技术可以模拟声音,制造更多的语音文件,从而实施诈骗等犯罪行为。
要预防这类犯罪,保护好个人隐私信息至关重要。眼下,部分网民有“晒”的习惯,会通过社交平台晒出身份证、结婚证、房产证、孩子的出生证等各种证件照片。殊不知,各种证件照片包含了个人隐私信息,很容易被不法分子利用,用来办理信用卡、网贷等金融业务。
网络安全专家提醒,公众在日常上网和使用各种AI工具及应用时,要有保护个人隐私、个人信息的意识,不随意上传人脸、照片、声音等个人信息。在朋友圈等社交平台分享个人生活时,也要避免晒出那些含有重要信息或容易被不法分子偷梁换柱的照片。
文/任翀
编辑/倪家宁