大模型应用:很近 亦很远
澎湃新闻 2024-09-03 14:29

【写在前面】得益于AI大模型应用,今年每次需要写方案时我少了很多恐惧心理,在过去若干年的从业经历中,我并没有写过多少方案。但现在没关系,即便没有任何头绪,也可以先把需求丢给AI,让它写一版出来看看,一家应用写出来的不满意还可以再多换两家试一试,毕竟切换只是打开一个网站或APP的事。

但我工作更重要的内容是写稿件,这点AI暂时还没办法帮我解决,譬如将采访录音整理成一篇稿件,即便是像写方案那样,只是出一版看上去算合理的框架。因此,如果现在让我为AI大模型应用付费,很难。

或许是因为有很多像我这样的消费者,大模型应用现阶段要想从C端(消费端)直接赚到钱是极其困难的事,为B端(企业端)客户部署私有模型的需求成为很多大模型公司目前获取收入的重要路径(有一些大型企业出于安全等方面因素的考虑,相对于直接调用大模型公司的API接口,他们愿意投入部署私有模型),但鉴于底座模型仍然存在幻觉等缺陷,以及投入规模大、场景难以深入、尚不能真正赋能企业主流业务、缺乏训练模型所需的数据等问题也使得这些企业在部署私有模型时也进退维艰。

技术迭代的列车正在滚滚向前,谁也不愿意错过,但是谁能真正抵达终点,还需要经历漫长的考验。大模型应用来了,很近,近在身边,但它成为一门好的生意,路还很远。

焦虑正在蔓延

今年6月,创新工场联合CEO汪华在AGI Playground 2024上一场广受好评的演讲中说到,有很多同学和他交流,有焦虑感,觉得在算力上花了这么多钱,成就的只有英伟达,应用没有爆发,到底什么时候应用能爆发,将来应用到底能不能爆发?汪华觉得大家还是太焦虑了。

这种焦虑感是现实存在的,如果说去年大家都还在追赶ChatGPT,锻造大模型,进入2024后,大家关注的焦点开始从底座模型向AI应用侧转移,无论是ToB还是ToC,AI应用正在大面积普及。向应用转移的本质是大家开始考虑如何实现大模型的商业化,完成赚钱这件事。而现状是,很少有公司能够依赖大模型赚到钱。

最重要的原因之一是大模型投入太贵了。训练成本、推理成本、人力成本是锻造一个大模型绕不过去的硬性成本。据悉,OpenAI在今年年中年化收入超过34亿美元,但预计年底将有50亿美元的亏损,在AI模型训练和人员配备上花了85亿美元。

“大模型企业训练基础模型的算力投入基本都是亿元级别的,他们很难将这部分成本通过目前的ToB项目来分摊,所以只能通过不断融资不断投入,但是随着估值越来越高,融资只会越来越困难,到最后大家必须要有一个能够实现规模化收入的商业模式。”云启资本合伙人陈昱说。

然而,训练大模型的算力等成本投入超过了以往任何一项技术,私有化部署大模型硬件加上软件至少上千万元,一般企业很难承担。

这样的大规模投入对于尚未实现正向回血的创业企业来说无异于一次大冒险。

对于很多早期已经从事人工智能领域的企业来说,投入还是不投入大模型,不是一道选择题而是一道必答题。

2015年成立的达观数据有限公司便是其中之一,该公司是一家为企业提供各类场景智能文本机器人的国家高新技术企业,大模型技术的出现对于该公司原先用于智能文本识别业务的NLP(自然语言处理)是一次重要的考验,只有抓住大模型的技术发展浪潮快速进行技术迭代,才能持续获得原有市场。

达观数据有限公司首席战略官刘江贤说,“大模型新技术带来的问题是虽然效果可能更好,但需要投入更大的训练资金。原先客户可以承担POC(概念验证)的费用,但现在很难,这不是普通的产品,它需要不断迭代,并且要和行业应用相结合,这是一个巨大的挑战。”

数据和场景是困难的核心

海通证券2023年初开始布局大模型建设,目前与商汤合作,以商汤的日日新大模型为基座,构建证券垂直领域的大模型。经过近一年时间的摸索,海通证券和商汤联合研制的大模型已经在企业内部启动了多元应用。譬如应用大模型能力建立了投顾知识库,打造研报资讯核心观点生成等场景;数字员工实现了多模态交互能力,可以理解复杂的语言指令,通过语音识别和自然语言处理技术,实现与用户的无缝对话。

但还有更多AI功能的实现需要攻克难关,譬如通过利用大模型技术来替代原先的内部搜索引擎,最终不仅可以实现更多的智能功能,还能达到降本增效的目标,但现在的最大的问题是在数据上,“算力毕竟可以用资金解决,但除了算力,还需要高质量的语料数据,需要收集、清洗、标记、最后才能给到大模型训练。”海通证券相关负责人介绍说。行业语料不能实现共享也是目前作垂类大模型存在的一个最大的问题。据报道,目前已经有至少17家券商在大模型领域有所探索,大家用的基座模型能力其实差别不大,各自在部署私有模型里最终会被局限于各自拥有的数据。

此外,落地的应用场景也是企业大模型研发人员的一大挑战。最初企业员工可能会因为好奇来使用AI,但如果不能真正赋能到主营业务中,使用频率会持续下降。赋能企业业务发展,并且让AI应用简单易用,是海通证券大模型研发团队要解决的核心问题。

科大讯飞星火军团政企业务的相关负责人在一场媒体交流会上表示,数据和场景同样是他们在为央国企等B端客户服务的过程中遇到的挑战。“对于大模型技术的发展来说,资金大家可以通过各种方式去解决,但更核心的其实是行业数据,以及应用场景,以及在场景下的迭代。”

“有的企业成立的时间有好几十年,组织庞大,数据标准不统一,从自动化到数字化、信息化直到现在的智能化,每个企业的进展都不一样,如果是数字化水平较高的企业那么在使用大模型过程中,数据可能问题就不大;但有的企业连自动化都还没有完成,数据还是纸质的,那么智能化就很难推进。”该负责人表示。

上述科大讯飞相关负责人表示,每个行业都有细分场景,对于大模型的服务商来说,必须筛选出适合大模型去介入的场景,和甲方一起完成共赢共创。“从0到1 的事情总得有人去做,只有用上了大模型才能知道大模型在这个地方是否能够落地。以我们做的人工智能赋能招投标为例,虽然投入成本很高,但我们还是咬着牙坚持在干这件事,这算是一个重要的战略选择。我们还是希望可以和各个龙头企业去深耕细作,真正去解决场景的问题,做到有效果、可量化、可推广,这是一个长期过程。”

不过对于使用大模型的企业来说,开放场景不是一个容易的选择。由于当前的技术尚未成熟,难以达到精准,一旦出现错误带来的责任将由谁来承担,成为一项难题。在金融科技圈里,大家有句玩笑话,“AI可以代替人工作,但不能代替人坐牢。”虽然大模型应用理论上可以在多个领域里发挥作用,但目前它仍然只能在非核心业务范围内试错。

给技术多一点时间

对于科大讯飞的星火军团政企业务来说,他们最终的目的是在与合作伙伴深入行业之后,将从中提升的通用能力再运用到各行各业,“我们看来,目前B端市场仍然是大模型落地最快,也是最能有效验证大模型技术的一个主要市场。”

虽然挑战很大,但在达观数据董事长陈运文看来,在这样一个技术变革的关口,同样充满了机遇,只不过需要时间来给技术一些成长的空间。“当一个新技术在行业内尚未被大规模应用时,会出现很多质疑和观望,大模型目前才不过一两年的时间,产品化仍需要经历一个打磨、成熟的过程,就大模型来说,现在要解决的更多是落地过程中和应用场景结合的工程问题。”

在陈运文看来,这个成熟的过程可能比我们想象的更快,“20年前,我读博期间,学术界普遍认为认知智能技术的成熟至少需要三五十年的时间才能实现突破,但现在大模型对此的突破和发展远超了当时的想象,并且还在加速发展,成果越来越多,当前大模型所存在的幻觉、精准度等问题,我认为在未来通过技术迭代都可以克服。”

陈运文将目前的大模型比喻成汽车的发动机,“它具备非常强劲的能力,但是只有一个发动机是很难实用的,还需要配套开发大量的功能模块,装配成一辆‘整车’才能变成各行业里真正可用的系统。”

另有大模型企业人士表示,当下大模型技术是应用落地困难的重要原因,但只要给大模型更多的应用场景,底座大模型的能力就能根据用户反馈得以不断提高,形成大模型迭代应用的正循环,最终实现智能时代的到来。

对此,汪华的公开发言表达了差不多的观点,他说,大模型从开始到现在才一年多时间,应用发展本质上还是要随着模型的成熟和整个应用生态的构建逐渐发展。“2010年时跟大家说将来所有的应用,吃喝玩乐、看视频、购物等都可以在手机上完成,但是TikTok出现的时候,已经是五六年之后的事情了。”

AI应用本身正确的交互形态到底是什么,需要给开发者和应用者一点时间。在汪华看来,这个时间会比当年移动互联网更快,可能是两三年时间。“模型成本的下降是一件工程的事情,也是一件确定的事情”,汪华判断,到今年年底、明年年初,百万token会降到几块钱人民币,到明年年底,数字还会再降一个数量级。

陈运文也认为,伴随着技术的快速迭代,锻造大模型的使用成本会极速下降。“100年前,当汽车刚被发明时,不仅运营成本远高于马车,并且维护也很麻烦,每行驶两公里就要保养一次,人们普遍认为汽车不如马车方便。然而随着汽车技术的不断改进,汽车只用了10年就实现了对马车的全面替代。”就大模型而言,当下能够看到客户提出了许多的需求,这本身就是一件很值得期待的事情。

编辑/范辉

最新评论