OpenAI面临多个挑战:人才流失、财务压力与竞争对手的追赶
​第一财经 2024-08-19 07:35

自去年首席执行官奥尔特曼(SamAltman)被OpenAI董事会解雇又重新聘用后,OpenAI人事动荡愈演愈烈。

今年以来,已有多位高层先后离职。截至目前,OpenAI的11位联合创始人中仅剩3位,他们分别是:奥尔特曼、语言和代码生成团队负责人扎伦巴(WojciechZaremba)和处于休假的总裁布罗克曼(GregBrockman)。

在人工智能领域有巨大影响力的OpenAI缘何留不住这些创始人?

释放这些信号

本月初,对构建ChatGPT起到重要作用的舒尔曼(JohnSchulman)宣布离开OpenAI,投奔竞争对手Anthropic。他表示,“我决定在Anthropic寻求研究AI对齐这一目标,并与深入研究我感兴趣主题的人一起进行研究。”而去年新加入的产品负责人、消费者产品副总裁邓(PeterDeng)也官宣离职。

上海交通大学副教授、生成式人工智能研究组负责人刘鹏飞在接受第一财经采访时表示:“舒尔曼这些高级研究人员的离职表明,OpenAI可能不再是顶尖AI科学家的首选,其他专注于AI安全的公司(如Anthropic)或新创立的公司正在吸引人才。这可能标志着AI研究生态系统的多元化。”

值得注意的是,在去年罢免风波中坚定地和奥尔特曼站在一起的布罗克曼也几乎同时宣布将休假至年底,并表示“任务远未完成,我们还需要建立一个安全的AGI(通用人工智能)”。

对此,中欧国际工商学院决策科学与管理信息系统教授谭寅亮在接受第一财经采访时表示,业内普遍将布罗克曼此举解读为即将离职,因为OpenAI前联合创始人卡帕西(AndrejKarpathy),也是在休长假后离职的。

谭寅亮表示,舒尔曼和布罗克曼近日的动作释放了两个信号:第一,OpenAI内部管理存在问题,优秀科学家可能继续出走,其他AI企业和OpenAI的发展差距可能逐渐消失;第二,GPT5和下一代模型的发展有可能遇到了瓶颈,技术领域可能要思考ScalingLaws(规模化定律)是否已经接近了尽头。

“等到下个月,美国企业的竞业禁止性条款被全面废止,AI人才流动被彻底解绑,OpenAI的人才流失问题可能更加严重。”他说。

“叛变者”开启新时代

根据行业研究机构统计,OpenAI已有近75名核心员工离职,创立了约30家人工智能初创公司。人工智能公司Anthropic的创始人、CEO阿莫迪(DarioAmodei)7月在一档节目中表示,人工智能模型公司即将获得超万亿美元的收入。而万亿规模的人工智能市场中,OpenAI及其出走员工创业可占据超一半。

阿莫迪兄妹曾任OpenAI研究副总裁和安全政策副总裁。2020年,他们因不满OpenAI在安全问题尚未解决的情况下就直接发布GPT-3而离职,同时也带走了前政策负责人克拉克(JackClark)和研究员卡普兰(JaredKaplan)等参与打造GPT-3的14位研究人员。公司2021年以来已从谷歌、亚马逊等科技巨头处筹集了至少70亿美元资金。6月推出的聊天机器人最新版本Claude3.5Sonnet,被认为在整体表现上与OpenAI的GPT-4o相当或更佳。

而由OpenAI前研究科学家斯瑞尼瓦斯(AravindSrinivas)2022年8月创立的人工智能搜索公司Perplexity,目前估值已超30亿美元。该公司表示其上个月的查询次数为2.5亿次,是去年全年查询次数的一半。爆发式增长让Perplexity被视为谷歌旗下的Geimini和OpenAI的SearchGPT的强劲对手。

今年7月,OpenAI联合创始人、特斯拉CEO马斯克也“拿到了最后一张船票”,宣布了其人工智能公司xAI的成立,以“了解宇宙的真实本质”。

谭寅亮表示:“创始人出走的情况在硬科技领域还是比较常见的,而且硅谷兴起之初就开始盛行这种‘出走’文化。最出名的就是‘仙童八叛逆’,这八位从仙童离职后,创立了包括英特尔、AMD等一大批早期科技企业,正是这一批企业,使旧金山成为硅谷。在人工智能时代,为大模型奠基的论文《AttentionIsAllYouNeed》的八位论文作者目前也全部离开了谷歌,创立了自己的公司。”

他表示:“个人的创业规划、企业发展过程中出现的种种理念分歧,都可能成为创始人离开的原因。不过有些时候离开也不一定是坏事,正是这些‘叛变者’开启了全新的领域和时代。”

安全性是OpenAI绕不过去的话题

然而不可否认的是,在创始人们的离职声明中,“安全”与“对齐”也是高频词汇。

除舒尔曼之外,OpenAI联合创始人、首席科学家苏茨克维尔(IlyaSutskever)和超级对齐团队负责人雷克(JanLeike)于5月宣布离职。雷克更是在社交媒体X上控诉“安全文化和流程已经让位于闪亮的产品”。

随后,苏茨克维尔于今年6月宣布创立了一家新人工智能公司SafeSuperintelligenceInc.(SSI)并表示“安全的超级智能是我们唯一的关注点”。雷克则加入了OpenAI的竞争对手人工智能公司Anthropic,“继续超级对齐的使命”。

对此,谭寅亮表示:“在人工智能领域,‘对齐’(AIAlignment)指的是确保AI系统的行为与人类的价值观、意图和预期目标保持一致。简单来说,就是让AI更好按照人的要求做事、人的价值观思考。奥尔特曼在安全部分确实做得不够,本来承诺给到超级对齐团队20%的算力资源,但是最终被偷换概念,成了整个安全团队瓜分这20%。对于一批有初心的科学家来说,安全是他们的坚持。”

今年7月末,OpenAI还把安全部门高级主管马蒂(AleksanderMadry)调离了安全岗位,并给他重新分配了“AI推理”(AIreasoning)的工作。而本月初,马斯克再次对OpenAI及奥尔特曼提起诉讼,指控OpenAI将利润和商业利益置于公共利益之上,背离了创立公司时造福全人类的初衷。

南开大学讲席教授、中国公司治理研究院院长李维安在接受第一财经采访时表示:“在传统创业中,很多跳槽是由于没有得到与所创造的价值相应的报酬、股份或职位等待遇问题,但OpenAI的联合创始人的离开大多并不是这个原因。”

他表示,OpenAI的创始人基本不持有股份,从人工智能治理角度来看,创始人们离开的原因主要是治理理念的冲突,即人工智能治理是向善还是向利。

挑战者Anthropic

从雷克到舒尔曼,Anthropic不断吸引着OpenAI的核心成员。

该公司最近还聘请了今年4月因涉嫌泄露信息而被解雇的OpenAI的前研究员伊斯梅洛夫(PavelIzmailov)。在OpenAI担任技术人员两年多的比尔斯(StevenBills)上个月也表示他已离开OpenAI,加入Anthropic的对齐团队。

刘鹏飞表示,Anthropic从创立之初就将AI安全和对齐作为核心使命,这种专注使得它能够将更多资源和注意力集中在对齐问题上,可能为研究人员提供一个更纯粹的研究环境。此外,对于像舒尔曼这样的资深研究者来说,在一个较新、规模相对较小的公司工作,可能意味着更大的影响力和更多塑造公司方向的机会,这对于那些希望在职业生涯中期寻求新挑战的研究者来说非常有吸引力。

李维安表示:“Anthropic在公司治理结构上的创新体现了在商业和安全之间更好的平衡,这可能也是它能不断吸引人才跳槽过去的理由。”

他解释称:“为了在AI向善和AI向利之间取得平衡,在治理结构上,Anthropic专门成立了一个由社会知名人士组成的信托委员会对董事进行监督,他们有权罢免违背科技向善宗旨的董事会成员。此外,为了保障制度的执行,Anthropic还设置了一类特殊的T类股票,由信托成员持有。”

今年5月,阿莫迪更是在一场峰会上表示:“我们有七位联合创始人。三年半过去了,我们所有人都还在公司。”

而对于OpenAI面对的挑战,谭寅亮表示:“放眼其他AI企业,Claude的模型在某些领域已经超过了GPT,当大家都在Transformer这条既定路线上赛跑,终点和路径其实都是很清晰的。目前看,如果科学家们持续出走,OpenAI存在的先发优势并不是不可超越。”

“8月马斯克也重启了对OpenAl的诉讼。财务方面,OpenAI公司一年的亏损可能高达50亿美元,现金流在未来一年内有可能耗尽。内忧外患之下,今年对于OpenAI来说应该是很艰难的。”他说。(程程)

编辑/田野

最新评论