北京青年报
突发!OpenAI又迎人事动荡!安全主管辞职,“超级智能对齐团队”已被解散
每日经济新闻 2024-05-18 12:05

5月18日凌晨,OpenAI安全主管、“超级智能对齐团队”负责人Jan Leike在社交平台宣布,离开OpenAI。这也是本周三OpenAI联合创始人兼首席科学家Ilya Sutskever辞职之后,又有一名高管辞职。

Jan Leike在X上公开透露了他离职的部分原因。他的潜台词是,他与OpenAI高层在公司的核心优先事项上存在长期分歧,最终双方的分歧已经严重到无法调和的地步。团队在推动其研究项目和争取计算资源时遇到了重大阻碍,缺乏资源会严重影响研究的进度和质量。

本周五(当地时间5月17日),OpenAI证实,由Ilya和他的亲信Jan Leike共同领导的“超级智能对齐团队”已经解散。此后,该团队的研究工作将被整合到OpenAI的其他研究小组中。至此,一度几乎导致OpenAI分崩离析的宫斗事件终于尘埃落定。

马斯克针对OpenAI的长期人工智能风险团队已经解散这一消息评价称:“这显示安全并不是OpenAI的首要任务。”

OpenAI首席执行官Sam Altman感谢并肯定了Jan Leike在OpenAI的贡献和领导能力。并表示,未来几天内会发表一篇更长的文章,来阐述OpenAI对于产品安全的规划和所做的事情。

加入OpenAI之前,Jan Leike曾在谷歌DeepMind工作,主要负责从人类反馈中进行强化学习的原型设计。在OpenAI期间,参与了InstructGPT、ChatGPT的开发以及GPT-4的安全对齐工作。

对于Ilya、Jan的辞职,有人表示这两位安全领导高管都辞职了,以后谁来负责OpenAI的产品安全呢?

也有一位网友爆料,想离开OpenAI没问题,但是你必须签署一份“离职协议”, 如果你不签署终身不诋毁承诺,将失去所有已获得的OpenAI股权。不知道Jan Leike的一番吐槽,是否会影响到他的股权。

在去年7月份,OpenAI宣布成立一个新的研究团队“超级对齐”,要用AI监督AI的方式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI系统的目标要和人类的价值观与利益相一致。公司创始人之一伊利亚·苏茨克沃被任命为团队共同负责人。

而现在AI风险团队解散是公司内部最近出现动荡的又一证据,也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的质疑。OpenAI章程规定,必须安全地开发通用人工智能(AGI),即可以与人类匹敌或超越人类的技术。

编辑/樊宏伟

相关阅读
OpenAI面临多个挑战:人才流失、财务压力与竞争对手的追赶
​第一财经 2024-08-19
OpenAI任命美国大学教授为新董事,曾以简单代码挑战ChatGPT安全性
澎湃新闻 2024-08-09
OpenAI人事动荡未止:联合创始人长期休假,另一名创始团队成员离任
​第一财经 2024-08-06
OpenAI训练数据从哪里来、与苹果合作进展如何?“ChatGPT之母”最新回应
​每日经济新闻 2024-07-16
OpenAI惊现内部举报人 SEC主席呼吁尽快调查
财联社 2024-07-15
OpenAI“断供”,国产大模型“抢客”
澎湃新闻 2024-06-26
OpenAI劲敌来了!这款大模型多项测试超越GPT-4o,号称最强智能
澎湃新闻 2024-06-21
AI周报 | 英伟达市值一夜涨了“一个英特尔”
​第一财经 2024-06-09
最新评论