三部门发布深度合成新规:AI换脸应显著标识避免公众混淆误认
南方都市报 2022-12-21 11:32

以后发布“换脸”“仿声”视频,平台将被要求用显著标识向公众提示视频使用了深度合成技术,否则涉嫌违规。12月11日晚,国家网信办、工信部、公安部发布《互联网信息服务深度合成管理规定》(下称《规定》)——继算法推荐之后,深度合成技术也迎来单独规范,自明年1月10日起施行。

所谓深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术。近日火爆全网的聊天机器人ChatGPT,以及“换脸”、AI绘画、虚拟主播等为人所熟知的场景都使用了深度合成技术。

根据《规定》,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,避免公众混淆或者误认。在源头把关上,深度合成服务提供者和应用商店也需对合成内容和使用者资质具有审核责任。

深度合成服务提供者需审核合成内容

中共中央印发的《法治社会建设实施纲要(2020-2025年)》提出,制定完善对算法推荐、深度伪造等新技术应用的规范管理办法。其中《互联网信息服务算法推荐管理规定》已于今年1月施行,《规定》则是第二部专门针对算法的规范。

近日,OpenAI开发的聊天机器人ChatGPT以其远超出同类的高质量回答和极好的交互体验风靡全网。而就在前不久,AI绘画才因不输画家的“功力”掀起了一场行业地震。不过,随着深度合成技术越来越成熟,它也被应用在了散播虚假信息、诈骗、色情内容制作上,亟须得到规范。

《规定》要求,深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。

此外,深度合成服务提供者应当基于移动电话号码、身份证件号码、统一社会信用代码或者国家网络身份认证公共服务等方式,依法对深度合成服务使用者进行真实身份信息认证,不得向未进行真实身份信息认证的深度合成服务使用者提供信息发布服务。

除了对使用者进行身份认证,深度合成服务提供者还要加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。还明确应用程序分发平台应当落实安全管理责任,核验深度合成类应用程序相关情况。

也就是说,除了深度合成服务使用者,深度合成服务提供者和应用商店都要从源头上对深度合成内容提前把关,否则也要担责。

《规范》还明确了主管部门职责,由网信部门负责统筹协调深度合成服务的治理和相关监督管理工作;电信主管部门、公安部门依据各自职责负责深度合成服务的监督管理工作。

使用人脸合成应取得被编辑人单独同意

2019年,AI“换脸”应用ZAO一度爆红。人们只要上传一张自己的照片,就可以换脸成为影视剧主角。然而仅仅三天,ZAO便因涉嫌未依法依规收集使用人脸信息被工信部约谈,接着直接下架。

对此,《规定》要求深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。

南都记者对比征求意见稿发现,《规定》还新增条款,要求具有生成或者编辑人脸、人声等生物识别信息的模型、模板等工具的深度合成服务提供者和技术支持者,应当自行或者委托专业机构开展安全评估。

值得注意的是,《互联网信息服务算法推荐管理规定》提出,算法生成合成信息作出显著标识后方可继续传输。《网络音视频信息服务管理规定》也要求,网络音视频信息服务提供者和网络音视频信息服务使用者利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播非真实音视频信息的,应当以显著方式予以标识。

类似地,在《规定》中,对深度合成内容进行标识也是重要内容之一,并进一步具象到文本、声音、图像、视频等场景中。

《规定》要求,深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。

“出台《规定》,能够划定深度合成服务的‘底线’和‘红线’,维护网络空间良好生态。”国家网信办有关负责人指出,对应用深度合成技术提供互联网信息服务制定系统性、专门性规定,能够明确各类主体的信息安全义务,为促进深度合成服务规范发展提供有力法治保障。

焦点问答

问:《规定》中所称深度合成技术是指什么?

答:《规定》中所称深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,具体包括篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术,文本转语音、语音转换、语音属性编辑等生成或者编辑语音内容的技术,音乐生成、场景声编辑等生成或者编辑非语音内容的技术,人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术,图像生成、图像增强、图像修复等生成或者编辑图像、视频内容中非生物特征的技术,三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术等。

问:《规定》对深度合成服务提供者落实信息安全主体责任作出了哪些要求?  

答:《规定》对深度合成服务提供者主体责任进行了明确规定。

一是不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,或从事法律、行政法规禁止的活动。

二是建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。

三是制定和公开管理规则、平台公约,完善服务协议,落实真实身份信息认证制度。

四是加强深度合成内容管理,采取技术或者人工方式对输入数据和合成结果进行审核,建立健全用于识别违法和不良信息的特征库,记录并留存相关网络日志。

五是建立健全辟谣机制,发现利用深度合成服务制作、复制、发布、传播虚假信息的,应当及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告。

问:《规定》明确了深度合成服务提供者和技术支持者的哪些数据和技术管理规范?  

答:一是加强训练数据管理。采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定;提供人脸、人声等生物识别信息显著编辑功能的,应当提示使用者依法告知被编辑的个人,并取得其单独同意。

二是加强技术管理。定期审核、评估、验证生成合成类算法机制机理;提供具有对人脸、人声等生物识别信息或者可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息编辑功能的模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估。

问:《规定》明确了深度合成服务提供者的哪些标识要求?  

答:一是深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依法依规保存日志信息。

二是提供智能对话、合成人声、人脸生成、沉浸式拟真场景等具有生成或者显著改变信息内容功能服务的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示信息内容的合成情况,避免公众混淆或者误认;提供非上述深度合成服务的,应当提供显著标识功能,并提示使用者可以进行显著标识。

任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。

文/蒋琳

编辑/倪家宁

相关阅读
不得恶意删除、篡改、伪造、隐匿标识!事关人工智能生成合成内容标识 新规征求意见
财联社 2024-09-14
国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》
网信中国 2024-09-14
一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段
央视新闻客户端 2024-08-18
AI换脸精准诈骗难以防范 全国人大代表建议 推进立法强化人工智能技术安全应用
法治日报 2024-04-09
“只要能看到脸的都能换” 滥用“AI换脸”技术伪造女明星涉黄视频 法院判了!
央视新闻 2024-03-21
律师:用AI“复活”李玟涉嫌侵权
澎湃新闻 2024-03-14
随着Sora等模型的开放和应用,AI换脸等技术的门槛持续降低
解放日报 2024-02-21
“AI换脸”,便利背后有风险
人民日报 2023-12-05
最新评论