GPT-5摊上大问题:烧了数亿美金后OpenAI发现牛吹早了
财联社 2024-12-23 16:02

OpenAI的GPT项目一直是业界最为关注的话题,然而在该公司近期热火朝天的宣传之中,备受瞩目的GPT-5却消失无踪。

去年11月,OpenAI首席执行官奥尔特曼曾强调,不会在2024年推出任何名为GPT-5的模型。但知情人士透露,OpenAI最大投资者微软曾预期在2024年年中时看到该模型。

有人还称,距今为止,该项目已经筹备超过18个月,总体而言,这个代号为Orion的未来GPT-5模型的气氛已不太友好。该模型已经进行了至少两次大规模训练,每次训练都需要数月时间来处理大量数据,但每次训练后都会出现新的问题。

了解该项目的人士还指出,Orion目前充其量只比OpenAI的公开模型要好一些,距离该公司所谓的“重大飞跃”还很遥远,其也无法说服投资人投入目前的巨大成本。据估计,该模型为期六个月的训练仅在计算成本方面就“烧”了约5亿美元。

危险的是,OpenAI在10月的最新估值达到1570亿美元,受到了投资者的继续追捧,但分析人士指出这一估值很大程度上基于奥尔特曼的乐观预测,即GPT-5将在各类学科和任务上表现出博士水准,较目前GPT-4的高中生水平实现质的飞跃。

这意味着如果GPT-5不能在一个合理的时间内给出一个合理的亮相,那么OpenAI的繁荣可能将如泡沫般被刺破,成为反噬噩梦的开始。

数据“燃”尽

OpenAI原本的想法是,让GPT-5有能力解锁新的科学发现,并完成诸如预约或航班预定等类人类的决策行为,且其犯错的概率更小,或者至少对AI幻觉有所警惕。

但设想是设想,内部人士透露OpenAI的预期有些过于乐观,仅在数据问题上,GPT-5就面临着难以想象的挫折。

人工模型在训练过程中需要不断测试,可能持续很长一段时间。在此期间,模型将输入数万亿个单词片段,即所谓的token。而未来的人工智能模型吞噬token的数量将会是目前模型的十倍,甚至更多。

GPT-4的训练就使用了大约13万亿个token,按照一千人每天协5000个单词计算,这种规模的团队在几个月才能生产十亿个token,而其花费据奥尔特曼称超过1亿美元。

因此GPT-5模型的最关键问题在于:数据不足。此前的模型使用的是新闻文章、社交媒体贴文和科学论文,但研究人员透露,公共互联网上的数据已经不够,他们需要更多样且更高质量的数据,来让GPT-5变得更加强大。

难以调头

OpenAI目前的解决方案是从头开始创建数据,如招聘人员编写新的软件代码或解决数学问题,以供Orion学习。这些员工之中部分是软件工程师,部分是数学家,必要时他们还需要向Orion解释自己的工作。

还有一个方法是让现有的人工智能创造数据来训练Orion,比如OpenAI的o1。但研究人员又指出,用人工智能产出的数据喂给人工智能通常会引发故障或导致无意义的答案。

总之,在让Orion变成名副其实的GPT-5的道路上,OpenAI已经感到心累,在实现质的飞跃之前,人工智能先倒在了量的累积上。更无奈的是,OpenAI今年持续的人才流失加深了这一困境。

从首席科学家Ilya Sutskever到首席技术官Mira Murati再到上周四辞职的知名研究员Alec Radford,OpenAI的各路大神纷纷离巢,这为“难产”的GPT-5再添一层浓重的悲观色彩。

迟迟看不到结果的GPT-5也难免被OpenAI内部的商业化项目,如Sora,争夺走有限的计算资源。这同时也是一种警告,即Orion没有多少从头再来的机会,因为OpenAI已经明确了其想要盈利的雄心。

编辑/樊宏伟

最新评论