欧盟正在考虑采用分级方法来监管生成式人工智能(AI)模型。一项提案称,欧盟将为3个级别的基础大型语言模型建立规则,并对最强大的AI技术进行额外的外部测试。
根据拟议的规则,第一级将包括所有基础模型;第二级针对“非常强大”的基础模型,将通过用于训练其大型语言模型的算力来区分,提案称这些模型可能“超出了当前的技术水平,并且可能尚未被完全理解”;第三级被称为大规模通用目的人工智能系统,将包括最流行的人工智能工具,并以用户总数来衡量。
像ChatGPT这样的聊天机器人依赖于大型语言模型——即使用大量数据集来开发人工智能的算法,在此基础上开发的生成式人工智能软件可以通过文本、图片和视频来响应人类的提示,其技能水平有时候令人惊讶和担忧。
目前,全球多国都在努力为生成式AI设置护栏,以应对这一新兴技术迅速发展带来的安全风险。欧盟有望成为第一个对人工智能制定强制性规则的西方政府。根据其拟议的《人工智能法案》,开发和部署人工智能系统的公司需要进行风险评估、标记人工智能生成的内容,并完全禁止使用生物识别监控等措施。谈判人员希望在10月25日举行的下次会议上完善该立法,目标是在年底前敲定法案。
欧盟3个机构的代表在本月早些时候的一次会议上普遍支持分级监管方法,但技术专家提出了更具体的建议。根据彭博社看到的10月16日的文件,这些想法目前正在形成,但随着谈判的展开,它们可能会发生变化。
知情人士表示,此举的目标是不让新初创企业承受过多监管负担,同时又对大型企业进行控制。
以下为提案对三级监管的要求:
1.所有基础模型(All Foundational Models)
人工智能开发人员在将任何模型投放市场之前都必须遵守透明度要求。他们必须记录模型及其训练过程,包括内部“红队”工作的结果,即独立专家试图将模型推向不良行为从而对安全性进行评判的过程。开发人员还将根据标准化协议进行评估。
模型投放市场后,公司需要向使用该技术的企业提供信息,并使它们能够测试基础模型。
公司必须对用于开发模型的内容以及如何管理版权问题提供“足够详细”的摘要,包括确保权利所有者可以选择不将其内容用于训练模型。公司还必须确保人工智能内容能够与其他材料区分开来。
谈判人员提议将基础模型定义为一个能够“胜任执行各种独特任务”的系统。
2.非常强大的基础模型(Very Capable Foundation Models)
开发这一级技术的公司将遵守更严格的规则。在投放市场之前,这些模型必须接受外部专家的定期红队审查,这些专家将接受欧盟新成立的人工智能办公室的审查。测试结果将发送给该机构。
公司还必须引入系统来帮助发现系统性风险。这些模型投放市场后,欧盟将让独立审查员和研究人员执行合规控制,包括检查公司是否遵守透明度规则。
谈判代表还考虑为公司创建一个论坛,讨论最佳实践和自愿行为准则,这些准则将得到欧盟委员会的认可。
非常强大的基础模型将根据训练它们所需的算力进行分类,使用称为FLOPS或每秒浮点运算的衡量标准。确切的门槛将由欧盟委员会在稍后阶段确定,并将根据需要进行更新。
公司可以对这一评估提出异议。相反,即使调查后未达到阈值,委员会也可以认为模型“非常强大”。谈判人员还在考虑使用该模型的“潜在影响”——基于其上构建的高风险人工智能应用程序的数量,作为对技术进行分类的一种方式。
3. 大规模通用目的人工智能系统(General Purpose AI Systems at Scale)
这些系统也必须接受外部专家的红队检查以识别漏洞,结果将发送给委员会的人工智能办公室。公司还必须引入风险评估和缓解系统。
欧盟将认定任何拥有10000名注册企业用户或4500万注册终端用户的系统都属于大规模通用目的人工智能系统。委员会稍后将决定如何计算用户数量。
公司可以就其大规模通用人工智能系统的地位提起上诉,同样,欧盟可以让其他系统或模型遵守这些附加规则,即使它们没有达到阈值,但可能“引发风险”。
此外,提案表示,需要进一步讨论来确定护栏,以确保通用目的人工智能系统和非常强大的人工智能系统都不会生成非法和有害内容。
大规模通用目的人工智能和非常强大的基础模型的附加规则将由新的人工智能办公室监督。该机构可以索取文件、组织合规测试、创建注册制度审核红队测试人员并进行调查。该机构甚至可以“作为最后手段”暂停某个模型。
人工智能办公室虽然位于欧盟委员会内,但将是“独立的”。欧盟可以对大规模通用目的人工智能和非常强大的基础模型收取费用,从而获得资金来雇用办公室人员。
编辑/范辉