“AI捏脸”解压?背后风险不容忽视 已出现利用换脸技术的敲诈勒索案件
解放日报 2024-11-06 10:32

最近,“AI捏脸”视频在社交平台上颇为流行——一双手捏住各种立体人像,慢慢用力,把人像捏扁、捏爆、捏碎,被捏的对象既有发布者本人,也有各种影视剧人物乃至虚拟人物。不少发布者表示“AI捏脸非常解压”,并鼓励他人尝试。

其实,实现AI捏脸的技术并不复杂。简单来说,就是应用人工智能技术,先将照片、视频里的人物进行3D建模,然后经技术处理,用捏脸模板中的“双手”将3D模型捏扁、捏爆。

调查发现,“AI捏脸”效果起初来自一款海外AI工具软件,随着相关视频走俏,国内平台上也出现类似应用软件。但上海辟谣平台试用发现,这些应用虽说能实现“AI捏脸”效果,但在保护个人信息、不滥用个人信息上做得并不够。对使用者来说,无异于主动将人脸等隐私信息拱手送上,安全风险极大。

根据一名主播的推荐,记者搜索到一款声称免费提供“AI捏脸”效果的小程序。从该小程序的算法公式、隐私条款和服务方式看,它也让人不太放心。其在“算法公式”中称,基本原理是将人脸图片的面部特征转移到视频素材中的特定人物上,但并未表示哪些视频素材不能用、哪些场景不适合合成。“隐私条款”表示,小程序会收集用户的昵称、头像、性别、地区、相册、设备信息等个人信息,这些信息的存储地点和期限非常模糊,前者是“境内”,后者是“小程序停止运营后即时删除”。至于该小程序的服务内容,除了用AI技术为用户实现捏脸等效果外,还收费提供各种换脸、换背景的照片、视频产品。

将个人照片等发送给不明来历的应用程序、平台等,风险极大。此前,多地警方披露过犯罪分子使用AI换脸、换声等技术实施敲诈勒索案件,作案的基础就是受害人的头像等个人信息有过泄露。

例如,深圳市民吴先生收到陌生手机号码发送的彩信,里面是他与一名陌生女子在酒店房间的不雅照片,并以此敲诈勒索。吴先生选择报警。深圳警方侦查后发现,全市有同样遭遇的不止吴先生一人,背后是一个犯罪团伙,内部分工明确,有人负责寻找作案目标,有人负责修图,有人负责发短信打电话敲诈勒索。最终,警方成功抓获10多名犯罪嫌疑人,并在他们的电脑里发现大量经过合成换脸后的不雅照片。

网络安全专家表示,随着AI技术的发展,一张照片、一段语音、一段视频,都有可能成为不法分子的犯罪工具。他们利用AI技术,不仅能把人物的静态照片合成到各种背景中,还能变成动态视频;同样的,获得一定量的音频信息后,AI技术可以模拟声音,制造更多的语音文件,从而实施诈骗等犯罪行为。

要预防这类犯罪,保护好个人隐私信息至关重要。眼下,部分网民有“晒”的习惯,会通过社交平台晒出身份证、结婚证、房产证、孩子的出生证等各种证件照片。殊不知,各种证件照片包含了个人隐私信息,很容易被不法分子利用,用来办理信用卡、网贷等金融业务。

网络安全专家提醒,公众在日常上网和使用各种AI工具及应用时,要有保护个人隐私、个人信息的意识,不随意上传人脸、照片、声音等个人信息。在朋友圈等社交平台分享个人生活时,也要避免晒出那些含有重要信息或容易被不法分子偷梁换柱的照片。

文/任翀

编辑/倪家宁

相关阅读
火爆网络的AI捏脸,竟然藏着这些危险
上海网络辟谣 2024-11-05
“AI换脸”诈骗?新技术建起安全屏障 “AI火眼”5秒识破“AI换脸”
广州日报 2024-09-09
一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段
央视新闻客户端 2024-08-18
“骗子来电,声音容貌和我家人一模一样” 记者调查AI换脸拟声技术使用乱象
法治日报 2024-08-16
博主短视频遭“换脸”后制成“AI换脸”付费模板 法院:构成对个人信息权益侵犯
北京青年报客户端 2024-06-21
“只要能看到脸的都能换” 滥用“AI换脸”技术伪造女明星涉黄视频 法院判了!
央视新闻 2024-03-21
“AI换脸”,便利背后有风险
人民日报 2023-12-05
小心!HPV疫苗预约骗局坑了50余人
检察日报 2023-10-20
最新评论