4月 16 日,蚂蚁数科旗下深度伪造(Deepfake)综合防控产品ZOLOZ Deeper 在北京正式发布,以拦截用户刷脸过程中的“AI换脸”风险,目前已率先应用在身份安全领域。
Deepfake是“deep learning”(深度学习)和“fake”(伪造)两个单词的结合,指的是基于深度学习算法,从大量的视频和图像数据中学习,伪造出逼真的面部动画和语音。Deepfake 不仅增加了公众识别视频真伪的难度,也进一步滋生了诈骗、色情等违法犯罪活动的风险和隐患。
近年来,全球Deepfake事件呈 10 倍速度激增,北美、亚太地区等地成为 Deepfake 攻击的重灾区,2023年315晚会同样曝光了多起“AI换脸”诈骗案件。中国信通院人工智能研究中心安全与元宇宙部主任石霖指出,随着深度学习算法不断优化和创新,Deepfake带来的安全风险和隐私侵犯问题愈加严峻,且生成的内容越来越难以区分真伪,业界和学术界需要多管齐下,不断提高“以AI对抗AI”的能力。
“对个人来说,深度伪造的这些技术其实也会带来非常多一些具体风险。包括像境外的明星被人伪造非常多涉黄的音视频,其实我们之前发现,在某些平台上,它其实可能可以专门定制某一个明星的一些涉黄的小视频等等,这一块其实可能都在一定程度上会侵犯明星的荣誉权”,石霖说,“有关利用人工智能合成的音视频来实时换脸或者是来进行电信诈骗行为,现在相关问题也是越来越多。当然技术只是其中的一环,更多可能还是收集到了一些相关公司和被诈人员基本情况、个人信息等等,巧妙的设置了一个故事,但是这个确实深度伪造在里边也扮演了非常重要的角色。还有包括一些侵犯著作权,现在其实有非常多的一些模仿明星唱歌的问题以及复活去世的人,对逝者的伪造、合成,这种其实现在也是有非常多民事方面的版权争议,这一块仍然是没有得到有效的归置和解决。”
据介绍,ZOLOZ Deeper 搭建了端云一体的全链路技术体系,以应对系统、服务器、应用等多环节的 Deepfake 安全威胁。前端通过精密的传感器校验与多维特征动态风控,对摄像头状态、设备及网络环境、输入图像等进行严格审查,确保软硬件环境安全无风险,采集到的生物特征数据真实无篡改;在用户操作过程中,运用深度学习模型对用户面部动态进行细致入微的分析,捕捉微表情、肌肉纹理、眼神流转等细微特征,精准判断其是否为真人实时互动。
“我们遇到的AIGC深度防伪还有注入式攻击,在用户扫脸过程当中实际没有检测到任何脸,这个时候用技术方式注入一段视频之后直接就通过了,这个里面完全不需要扫脸,也完全用不到我们所说的一些视觉上面的算法,怎么去解决它的一些注入的问题?链路上的安全问题,这两类是我们在实际应用当中最广泛的攻击形式”, ZOLOZ 产品总监陶冶说,“我们最早在2022年的时候,在国内多家银行就已经发现了深度伪造,最早期的伪造还是比较简单的,比如换脸时产生边缘不是很融合等问题。很快他们开始去模拟刚才提到的活化,用视频去模拟眨眼、张嘴的时候也会绕过,这个时候我们也通过技术手段攻防过程当中发现是否活化更逼真,是否能够更像一个真人。”
为此,蚂蚁集团天玑实验室会通过GAN模型生成超 30 万测试样本,交给 ZOLOZ Deeper 进行判别训练,每个月还会对其进行超过20000次的攻防测评,模拟上百种伪造攻击情况。“Deepfake攻和防是一个相对且不断精进的过程,你在进步,Deepfake也在进步,我们要做的就是跑在它的前面。”陶冶这样说道。
据介绍,ZOLOZ早在 2019 年就启动了 Deepfake 算法研发,彼时主要应对一些简单的人脸攻击,比如把图片、视频、面具等虚假内容呈现在摄像头前面,攻破人脸识别系统。ZOLOZ Deeper 是针对注入式、活化等复杂攻击手段迭代而来的产品,在服务印尼某头部银行后,产品上线一个月时间内实现了 Deepfake 风险“0 漏过”。
文/北京青年报记者 温婧
编辑/田野