从首席科学家伊尔亚·苏茨克维(Ilya Sutskever)离职到旨在解决人工智能安全治理问题的“超级对齐”团队被传解释,OpenAI近期纷争不断,似乎是为了回应外界对于其安全治理的质疑,5月28日,OpenAI在官网宣布该公司成立安全与安保委员会(Safety and Security Committee),同时宣布他们已经开始训练下一个前沿模型,并预计由此产生的系统将“把我们带到通往AGI的下一个能力水平”。
新的安全治理团队
据OpenAI发布的公告,上述安全与安保委员会由董事布莱特·泰勒(Bret Taylor,主席)、亚当·德安杰罗(Adam D'Angelo)、尼克·塞利格曼(Nicole Seligman)和山姆·奥特曼(Sam Altman,首席执行官)领导,该委员会将负责就OpenAI项目和运营的关键安全和安保决定向董事会全体成员提出建议。
布莱特·泰勒、亚当·德安杰罗都是去年年底山姆·奥特曼回归OpenAI后组建的新董事会成员。其中担任主席的布莱特·泰勒,毕业于斯坦福大学,曾任Facebook首席技术官、Salesforce联席首席执行官。
OpenAI表示,安全和安保委员会的首要任务将是在未来90天内评估和进一步发展OpenAI的流程和保障措施。在90天结束后,安全和安保委员会将与全体委员会分享他们的建议。在董事会全面审查后,OpenAI将以符合安全和安保的方式公开分享已通过建议的最新情况。
在公告中,OpenAI称,“虽然我们为构建和发布在能力和安全性方面处于行业领先地位的模型感到自豪,但我们欢迎在这个重要时刻进行激烈的辩论。”
在人员构成上,除领导层外,OpenAI技术和政策专家亚历山大·马德里(Aleksander Madry,准备工作主管)、翁丽莲(Lilian Weng,安全系统主管)、约翰·舒尔曼(John Schulman,校准科学主管)、马特·奈特(Matt Knight,安全主管)和雅各布·帕乔奇(Jakub Pachocki,首席科学家)也将成为委员会成员。
此外,OpenAI还将保留并咨询其他安全、安保和技术专家以支持这项工作,包括前网络安全官员、为OpenAI提供安全建议的罗布·乔伊斯(Rob Joyce)和约翰·卡林(John Carlin)。
安全与商业的博弈
过去的几个月中,OpenAI的人员变动持续引发社会各界关注,尤其在OpenAI前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)离职后,引发了一系列连锁反应。在Ilya离职后,OpenAI负责安全的超级团队的联合主管杨·莱克(Jan Leike)也宣布离职,他在社交网站发布13条推文,公开自己离开OpenAI的真正原因,其中提及对AGI安全治理问题优先级不如推出“闪亮的产品”的不满,以及算力资源的分配问题。在两人先后离开OpenAI后,由他们共同领导的超级对齐团队也四分五裂。
据Vox报道,熟悉OpenAI的消息人士透露,安全意识强的员工已经对奥特曼失去了信心。一位不愿透露姓名的公司内部人士说:“这是一个信任一点一点崩塌的过程,就像多米诺骨牌一张一张倒下。”
因而OpenAI在这一时间点宣布成立安全与安保委员会,更像是对人工智能安全问题的回应。
但从委员会的成员构成来看,OpenAI选择由公司内部人士组成这个委员会而非外部人员,对成员的职能范围也没有公开说明。有专家指出,OpenAI成立此类的企业监督委员会,类似于谷歌的高级技术外部咨询委员会,其实在实际监督方面几乎没有什么作为。所有报告将同时发送给领导层和董事会。虽然领导层是决策者,但董事会有权推翻决定。
此前,OpenAI已经招募了一家位于美国加利福尼亚州的数据安全初创公司Indent,提供数字安全的相关服务。5月23日,Indent的联合创始人、CEO阿福德·马丁(Fouad Matin)在X上宣布自己将加入OpenAI负责安全相关的工作。根据Indent团队在X上发布的信息,他们加入的是OpenAI的准备团队而非超级对齐团队,负责前沿模型的准备到客户的数据管理。
从超级对齐团队解散,到引入Indent团队,再到成立由董事会主导的安全委员会,从这一系列的行动中不难看出,OpenAI在安全与商业的博弈中,逐步向后者倾斜。山姆·奥特曼正在把OpenAI向商业化的道路不断推进。(实习生 方卉 澎湃新闻记者 宦艳红)
编辑/田野