上周末,Facebook 母公司Meta在旧金山举行了一场媒体活动,庆祝其基础人工智能研究团队成立 10 周年。
在这场活动上,Meta的首席AI科学家、深度学习先驱、图灵奖得主杨立昆(Yann LeCun)表示,他认为如果人类想要训练出一种不仅仅具备总结文本能力、而且具备某种意义上类人的感知能力和常识的人工智能系统,还需要几十年的时间。
他的观点与英伟达CEO黄仁勋上周的观点截然不同。黄仁勋上周曾表示,人工智能将在不到五年的时间里成长到“相当有竞争力”的水平,在许多脑力密集型任务上胜过人类。
未来更有可能出现“猫级”人工智能
杨立昆表示,在“人类级”水平的人工智能出现前,社会更有可能出现“猫级”或者“狗级”的人工智能。科技行业目前对语言模型和文本数据的关注,不足以创造出研究人员在过去几十年来一直梦想的那种先进的类人人工智能系统。
杨立昆认为,限制当前人工智能发展速度的原因之一,在于训练数据的来源主要局限于文本。
“文本是一个非常糟糕的信息来源,”杨立昆解释说,目前要训练出一个现代语言模型,所需要的的文本量巨大,需要人类用2万年才能阅读完。然而,“即便你用相当于两万年的阅读材料来训练一个系统,它们仍然不明白:如果A和B相同,那么B就和A相同……世界上有很多非常基本的东西,他们没法通过这种训练来了解。”
因此,杨立昆和Meta AI的其他高管一直在大力研究如何定制用于创建ChatGPT等应用程序的所谓转换器模型,以处理各种数据(包括音频、图像和视频信息)。他们认为,只有这些人工智能系统能发现这些不同类型的数据之间可能存在的数十亿个隐藏的相关性,它们才更有可能达到更高的水平。
Meta高管们展示了他们的研究成果之一:一个戴着AR眼镜打网球的人能够看到AI视觉提示,教他们如何正确地握住网球拍,并以完美的方式摆动手臂。为这类数字网球助手提供动力所需的AI模型,除了文本和音频之外,还需要混合三维视觉数据。
英伟达仍将继续受益
这些所谓的多模型人工智能系统代表了下一个前沿领域,但这一发展所需要投入的成本会更大。杨立昆预计,随着Meta和谷歌母公司Alphabet等越来越多的公司研究更先进的人工智能模型,英伟达可能会获得更大的优势,尤其是在没有其他竞争对手出现的情况下。
一直以来,英伟达都是生成式人工智能的最大受益者之一,其价格昂贵的GPU已成为用于训练大规模语言模型的标准工具。
“我认识Jensen(黄仁勋),”杨立昆表示,英伟达可以从当前的人工智能热潮中获益良多,“这是一场人工智能战争,他在提供武器。”
″(如果)你认为人工智能很流行,你就得买更多的GPU,”杨立昆谈到,只要OpenAI等公司的研究人员继续追求AGI(通用人工智能),他们就需要更多英伟达的计算机芯片。
那么,随着Meta和其他研究人员继续开发这类复杂的人工智能模型,科技行业是否需要更多的硬件供应商呢?
杨立昆对此的回答是:“目前不需要,但如果有,将会更好。”
他还补充说,GPU技术仍然是人工智能的黄金标准。不过,未来的计算机芯片可能不会被称为GPU。
量子计算机的意义和可行性存疑
除了人工智能,杨立昆也对量子计算机持怀疑态度。
目前,微软、IBM和谷歌等科技巨头都在量子计算领域投入了大量资源。许多研究人员认为,量子计算机器可以在数据密集型领域(如药物发现)取得巨大进步,因为它们能够使用所谓的量子比特(而不是现代计算中使用的传统二进制比特)执行多次计算。
但杨立昆对此表示怀疑:“你用量子计算所可以解决的问题,用经典计算机也可以更快解决。”
“量子计算是一个迷人的科学话题,”杨立昆说,但目前还不太清楚“量子计算机的实际意义和制造真正有用的量子计算机的可能性”。
Meta高级研究员、前技术主管迈克·施罗普夫(Mike Schroepfer)对此表示赞同。他每隔几年就会对量子技术进行评估,并认为有用的量子机器“可能会在某个时候出现,但它的时间跨度太长,与我们目前正在做的事情无关。”
编辑/范辉