当地时间7月21日,包括谷歌、微软、OpenAI、亚马逊、Meta、Anthropic、Inflection在内的七家顶级人工智能公司在白宫召开会议。这些企业的高管承诺,将为消费者创建识别生成式人工智能的方法,并确保在生成式人工智能工具发布前,会测试其安全性。
国会推出AI法规前的“过渡”
据了解,参加周五白宫会议的高管包括亚马逊AWS首席执行官Adam Selipsky、Anthropic首席执行官Dario Amodei、谷歌全球事务主管Kent Walker、Inflection首席执行官Mustafa Suleyman、Meta全球事务主管Nick Clegg、微软总裁Brad Smith以及OpenAI总裁Greg Brockman。
美国对于人工智能的监管是全球较为宽松的,因此人工智能创新也能在美国得以较快的发展。然而,自从OpenAI去年年底发布ChatGPT以来,生成式AI的安全性已成为人工智能领域的首要关注点。顶级科技公司和投资者正在向生成式AI背后的大型语言模型投入数十亿美元。
白宫与企业召开会议后,企业同意为生成式AI技术的快速发展提供新的保障措施。这些措施包括为人工智能内容添加水印,以使其更容易识别,以及对技术进行第三方测试,以试图发现危险的缺陷。
具体而言一共涉及八项措施:在音频和视频内容上使用水印来帮助识别人工智能生成的内容;在向公众发布工具之前,请独立专家评估其工具的安全性;与其他行业参与者、政府和外部专家分享有关最佳实践和规避安全措施的尝试的信息;投资网络安全措施;鼓励第三方发现安全漏洞;报告技术的局限性并指导适当使用人工智能工具;优先研究人工智能的社会风险,包括歧视和隐私问题;使用最前沿的人工智能系统(前沿模型)来解决社会最严重的问题,例如缓解气候变化和疾病等社会挑战。
以上为企业的自愿承诺,这些措施将成为美国国会通过正式的人工智能监管法规之前解决风险的直接方法。美国国会正在考虑有关人工智能的规则,但这一实施标准的制定可能需要数月或数年的时间推出。
拜登在白宫发表讲话时表示,这些公司的承诺是“真实而具体的”,将有助于“开发安全、可靠和值得信赖”的技术,造福社会并维护价值观。但一些人工智能监管倡导者表示,拜登的举动只是一个开始,还需要做更多工作来让科技公司及其产品承担相应的责任。
企业“自己约束自己”几乎不可能
非营利组织Common Sense Media创始人兼首席执行官詹姆斯·斯泰尔(James Steyer)在一份声明中表示:“许多科技公司实际上并没有兑现自愿承诺采取负责任的行动并支持强有力的监管。”
AI Now Institute研究小组执行董事安巴·卡克 (Amba Kak) 表示:“我们需要更广泛的公众审议,要指望企业自己提出问题并履行承诺几乎是不可能的,因为这会直接影响它们的商业模式。”
卡克指出,应更加关注“八项承诺”清单中未被列入的问题,例如竞争问题、这些人工智能系统的歧视性影响等。“这些公司表示,他们将研究隐私和偏见,但事实上我们已经拥有强大的研究机构对此展开研究,现在我们需要的是问责制。”他表示。
还有一些专家则担心,这种监管类型可能会对OpenAI、谷歌和微软等财力雄厚的行业巨头有利,因为较小的参与者会因为合规问题而付出高昂的成本,从而失去竞争力。
值得关注的是,就在周四,OpenAI公司的信任和安全团队负责人戴夫·威尔纳(Dave Willner)宣布离职,威尔纳的离职凸显了OpenAI面临的监管压力。
在今年5月的一封公开信中,人工智能的行业专家和领导人呼吁“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模风险一起成为全球优先事项。”
目前,欧洲和中国在人工智能的监管方面走在前沿。上周,中国网信办联合七部门公布《生成式人工智能服务管理暂行办法》,新的《办法》将于下个月正式生效。《办法》从生成式人工智能服务商的准入,算法设计、训练数据选择、模型到内容,以及用户隐私、商业秘密等方面提出了相关要求。
欧盟立法者也一直在就成员国内部达成全面的人工智能规则进行谈判。尽管细节仍在讨论中,但欧盟人工智能法案包含强有力的法规,将为消费者提供重要的保护,并旨在防止某些类型的高风险人工智能模型的过度扩张、侵犯隐私和偏见。
联合国也正在呼吁采用人工智能“全球监管标准”。联合国秘书长安东尼奥·古特雷斯最近表示,联合国是采用全球标准的“理想场所”,联合国还任命了一个委员会,将在年底前报告全球人工智能治理的选择。
古特雷斯还表示,他欢迎一些国家所呼吁的建立一个新的联合国机构,以支持全球治理人工智能的努力,该机构可以参照国际原子能机构或政府间气候变化专门委员会等模式。
编辑/樊宏伟