生成式AI监管新规征求意见,专家:应为市场留足发展空间
观察者网 2023-04-19 15:16

今年以来,随着人工智能技术不断发展,生成式人工智能(AIGC)成为绝对的市场焦点。为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室近日起草了《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》),并向社会公开征求意见。

从百度的“文心一言”到阿里的“通义千问”再到商汤的“日日新”,国内各大厂相继发布生成式人工智能产品。作为一项正快速发展的技术,AIGC可通过算法、模型、规则等方式生成各种类型的文本、图片、声音、视频、代码等内容,市场应用前景广泛。

然而,生成式人工智能技术也面临着一些挑战,其中包括知识产权、安全、伦理和数据等问题。针对这些挑战,《征求意见稿》对人工智能生成内容、主体责任、训练数据和数据处理等方面都做出了规定,旨在保障生成式人工智能技术的合规性和安全性。

华东政法大学数据法律研究中心主任高富平解读指出,我国对人工智能的研发一直采取鼓励发展的态度。此次《征求意见稿》对人工智能的监管措施,只是针对面向公众提供的人机交互式的生成式人工智能,而不是针对所有人工智能的。《征求意见稿》对生成式人工智能产品的开发提供了基本遵循,对此类产品的开发有积极的正向引导作用。

但与此同时也有学者提出,人工智能产业刚刚起步,业界还不清楚究竟会出现哪些问题,又需要设置哪些规则。在这种情况下,过于超前的立法也有可能会阻碍技术的发展和创新。

例如,《征求意见稿》提到:“提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。”对此,北京大学法学院教授薛军表示:“生成式人工智能服务,在特定情况下更类似于搜索服务,本质是一种智能检索,应当允许用户以游客的身份使用。比如,必应搜索引擎迁入了ChatGPT问答模型,普通游客都可以浏览使用。这样,也可以更好保护用户的隐私,方便网民使用。”

AI生成的图片

在生成内容方面,《征求意见稿》提到:“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”,确立了内容真实性的要求。但这一规定目前存在颇多争议。

一些行业人士指出,从实践的角度来看,生成内容的真实准确性与生成式人工智能的技术原理是互相冲突的,人工智能生成内容并不是从知识库中搜索并拼凑出结果,生成结果是通过计算机算法得来的,所以对于生成信息的真实准确性,会存在一些不可避免的技术限制。

中国社会科学院大学法学院副教授、互联网法治研究中心执行主任刘晓春表示,大模型服务提供者有责任积极采取与技术发展水平相适应的风险预防措施,及时响应监管要求,对权利主体提出的合理诉求给出及时的回应。如果按照规定执行,可以明确大模型服务提供者的具体治理义务,在其尽到与技术发展水平相应的义务的情况下,给予一定的免责规则。

在训练数据方面,《征求意见稿》对预训练数据提出了更多的要求,要求能够保证训练数据的“真实性、准确性、客观性、多样性”。

中国国家创新与发展战略研究会副会长吕本富认为,“真实”“准确”缺乏明晰的衡量标准,网络上的新闻、认知存在刷新、反转等情况,且数据来源于网络,需要发挥各个网站主体意识,从源头上保障“真实准确客观”。综合来看,对提供者和使用者、传播者的违法行为进行规制,或许更符合实际情况。

清华大学中国发展规划研究院执行副院长董煜则指出,数据训练的规模会决定人工智能生成内容的质量,数据的数量和质量比算法和模型更重要。从欧盟、美国、韩国、日本等国家针对预训练数据合法性的要求来看,为了支持大模型的发展,他们允许使用各种出版物对生成式人工智能训练数据进行分析。因此,如果由于真实性、版权等问题无法使用相关训练数据,将对人工智能技术发展带来很大的负面影响。

在责任认定方面,《征求意见稿》第五条提出,“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任”。

对此,中国人民大学教授、国家发展与战略研究院研究员刘永谋表示,生成式AI产品提供的服务大多是生成文本、图像、声音等信息内容,在使用在不同的场景可能会产生不同的影响。作为内容生产者的提供方,是无法确定使用者的具体用途的。比如说,一段由AI生成的正常的文字,或者一张AI绘制的图片,平台方是无法得知它是否被用于创作领域,还是用于一些灰黑产业的,其产生的后果其理所应当由内容的使用方负责。

此外,《征求意见稿》第十五条规定“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成”。

但在当前环境下,大型语言模型的参数规模在到达一个临界值后,涌现能力变得越来越强。即使是OpenAI这样的团队,也很难解释这样的涌现现象。在这种情况下,人工智能基座大模型生成的内容往往是难以精确预测和控制的,这是生成式人工智能方法的固有缺陷之一。

因此,清华大学人工智能研究院视觉智能研究中心主任邓志东教授提出,“通过模型优化训练的方式防止再次生成侵权内容,在技术上非常难以实现,而利用价值对齐的算法采取内容过滤等措施或可实现。如果要求生成式人工智能产品服务提供方在收到侵权问题反馈时,第一时间过滤侵权内容,并通过模型优化训练,实际上是非常困难的,人工智能立法应当在智能涌现能力和安全性中找到平衡”。

法立于上则俗成于下。刘永谋指出,未来新法规的出台,将界定新技术服务的“底线”和“红线”,使科技得以在合乎伦理的轨道上运行发展。同时也应注意到,新产业、新业态和新模式,虽然意味着新的风险,但也正在为生产力和经济增长注入新动能。新法规的制定,为市场留足发展空间,才会让人工智能大范围的得到普及,让创新更进一步。

编辑/樊宏伟

相关阅读
不得恶意删除、篡改、伪造、隐匿标识!事关人工智能生成合成内容标识 新规征求意见
财联社 2024-09-14
国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》
网信中国 2024-09-14
Meta暂停在巴西使用生成式AI工具以回应监管要求
经济参考报 2024-07-20
AI为数字办公按下“加速键”!
人民日报海外版 2024-02-08
AI为数字办公按下“加速键”
人民日报海外版 2024-02-07
生成式AI上演“超级星期三” 科技厂商和监管各自祭出王牌
第一财经 2023-12-08
欧盟拟分三级监管生成式人工智能 模型越强大规则越严
澎湃新闻 2023-10-18
国内首个生成式AI安全指导性文件明确31种风险 建语料数据黑名单
澎湃新闻 2023-10-15
最新评论