中国人民政治协商会议第十四届全国委员会第二次会议3月4日下午在北京人民大会堂开幕。北京青年报记者获悉,全国政协委员、中国作家协会副主席邱华栋已通过政协委员网上平台,向大会提交了《关于加强人工智能领域版权保护,推动产业高质量发展》的提案。
邱华栋在提案中表示,以Chat GPT为代表的生成式人工智能大模型的“井喷式”发展给版权产业和文艺创作带来前所未有的挑战,甚至有动摇文艺创作与文化繁荣高质量发展根基的巨大潜在风险。因此,在数字经济背景下,加强版权保护已成为人工智能发展进程中一个非常重要而且无法回避的关键命题,关涉广大文学艺术科技创作者和版权产业的规范健康发展,关涉我国对人工智能技术向善、版权法治保障的政策取向,关涉数字经济的高质量发展。
问题:
人工智能侵犯人格权利现象多有存在
邱华栋告诉北京青年报记者,在他看来,目前,我国人工智能领域版权保护存在以下关键问题:第一,权利人对其权利内容在人工智能活动中被各种演绎使用过程的控制力未能得到充分保障。主要体现在:其一,人工智能开发者在训练活动中使用大量版权内容普遍未获权利人授权也未向权利人支付报酬;其二,权利人无法明确了解人工智能如何对其作品展开使用,这也是其权利维护最大的实践阻力之一。这违反了《民法典》和《著作权法》的相关规定。
第二,人工智能生成内容的法律属性模糊,其可版权与否问题缺少切实可行的法律、行业界定标准。人工智能生成内容的可版权性问题一直是版权界讨论但始终莫衷一是的话题,我国法院的相关判决结果并非一致,说理论证多有不足,未能给权利人、人工智能开发者与使用者、人工智能生成内容的使用者等市场主体的实践作出指导,相关市场不能有序向好发展。
第三,人工智能生成内容的标识义务落实不到位,互联网平台仍大量存在未标识内容,造成社会公众认知混淆。2023年7月,国家网信办、工信部等七部门联合发布《生成式人工智能服务管理暂行办法》,给生成式人工智能提供者设置了按照《互联网信息服务深度合成管理规定》对人工智能生成内容作出标识的义务,同时对违法责任与处置作出规定。然而该规定的落实却并不充分,互联网平台仍存在大量未予标识的人工智能生成内容,造成社会公众混淆的同时,对良好清朗网络空间的建设提出挑战。
第四,人工智能活动未经授权使用自然人人格特征的情况多有存在,侵犯个人人格权的同时造成公众混淆。使用者利用人工智能程序进行自然人面部操控、声音伪造生成视频、音频等内容并上传至互联网平台用以广泛传播,这不仅构成对自然人肖像权、声音权、姓名权等人格权利及个人信息的严重侵犯,更是利用深度合成手段混淆社会公众视听的风险行为。
第五,人工智能容易生成违反公序良俗和社会主义核心价值观的内容,影响文化安全和意识形态工作。
建议:
完善相关立法明确人工智能版权保护原则
为此,邱华栋建议:完善相关立法,明确人工智能领域版权保护的原则性问题。首先,由《著作权法》相关配套条例明确:未经合法授权,不得在人工智能模型训练或预训练过程中使用受著作权及其相关权保护的内容,不宜将人工智能模型训练或预训练活动纳入著作权合理使用范畴。
其次,通过《著作权法》相关配套条例释明人工智能生成物的可版权性问题:其一,宜明确规定,仅由人工智能生成而不具有人类创造性参与的内容不应受著作权或相关权保护;其二,宜列明人工智能生成物可版权保护的标准,如,需要有多大程度的人类参与及如何衡量(包括但不限于司法实践活动)等。再次,在相关法律法规和部门规章中规定人工智能开发者负有公示版权内容使用的记录标识义务,保障版权内容使用可追溯,并明确不履行与不充分履行的法律责任、主管单位及处理程序。
邱华栋还建议,要充分发挥行业政策、国标、行标等“软法”的作用,提升人工智能领域版权保护工作的专业化精细化水平。鼓励相关科研院所、专业机构按人工智能规划方针要求,广泛征求并尊重著作权集体管理组织、新闻出版广播影视演出设计等行业协会、作协、文联等权利人集中单位的意见,加快人工智能领域版权保护相关标准的研究与细化,发挥各标准在司法实践、行政监管和社会治理中的参考作用,选择制定良好的国标、行标等纳入或转化为规范性文件,发挥指导性甚至强制性作用。
此外,建立人工智能开发者与权利人组织良性对话机制,推动国家权威机构监管的正版语料数据库建设;加快落实人工智能领域版权保护多方主体责任,构建行政主管部门、人民团体、著作权集体管理组织、行业协会以及司法机关和检察机关等多主体参与的共建共治共享社会治理体系。
文/北京青年报记者 张恩杰
编辑/马晓晴
校对/董一凡