【编者按】
2023年已经过去,如果要给这不平凡的一年做个注脚,你会打出什么标签?
这一年,全球经济的脚步趋于放缓,为提振信心,中国使出了大招:“深改19条”激发了北交所的潜能;各地调整限购政策和降低房贷利率,让楼市被人们重新期待。
这一年,新文旅重新点燃百姓的消费热情,从年初淄博 “赶烤”到岁末的哈尔滨热,再到各地文旅局长披挂上阵,让我们重新“看见”了很多城。
这一年,ChatGPT爆火引发大模型百家争鸣,打工人的生活自此被重新定义,而一年里似乎稳稳霸占了全球出口榜单前列的新能源汽车,在年底因小米的高调进场而高潮迭起……
凡是过往皆为序章,所有未来皆有可能!因为2023年的这些,2024年似乎更加值得期待。
第十篇 人工智能
也许很多人从未想过,有一天自己可以与人工智能对话——把大模型当做一个助理,这样的“科幻”在2023年终于成为了现实。然而夫妻肺片里有“夫妻”,娃娃菜里有“娃娃”,让大模型看起来似乎还需进化。2024年,大模型会继续“奔跑”,中国已成为赛道里不可或缺的玩家。国内大模型如何赶上红利,占据这轮由AI掀起的科技革命的领先位置?
“百模大战”开启
根据《北京市人工智能行业大模型创新应用白皮书(2023年)》显示,截至2023年10月,我国10亿参数规模以上的大模型厂商及高校院所共计254家,分布于20余个省市或地区。如此众多的大模型如雨后春笋般涌出,当前的中国正上演名副其实的“百模大战”。
其中,语言类大模型是各厂商开发的重点。百度是国内首个公布对标ChatGPT产品的大厂,截止到2023年11月28日,文心一言用户规模已突破1亿。2023年4月7日,阿里云大模型“通义千问”启动邀测,用户可以在线与它对话,可以让它写短文、写邮件、写电影脚本甚至撰写代码。
腾讯的混元开放得较晚,最早仅面向内部业务进行使用。2023年9月7日,腾讯混元大模型正式亮相,并通过腾讯云对外全面开放。商汤发布的“商量”是千亿级参数语言大模型,拥有领先的语义理解、多轮对话、知识掌握、逻辑推理的综合能力。科大讯飞发布的“讯飞星火”已经持续迭代至3.0。
除了语言类大模型外,应用于行业和产业的大模型也有不少。华为公司2020年开始在大模型有布局,2021年发布鹏城盘古大模型,是业界当时首个千亿级生成和理解中文自然语言处理大模型。之后,又陆续发布行业大模型系列。2023年9月,蚂蚁集团也发布了基于蚂蚁自研基础大模型的金融大模型,并于11月完成备案。
“算力”难题正被破解
在国内大模型发展热火朝天之际,作为大模型重要底层支撑的“算力”也自然成为业界关注的焦点。新智元创始人&CEO杨静指出,很多的创业公司都面对算力紧缺和算力荒,这是百模大战的瓶颈,就像互联网的瓶颈在后厂村,大模型的瓶颈就在算力这方面,算力的确是大模型发展的驱动力。
如何打破“算力”这个瓶颈?各大厂商可谓“各显神通”。比如,百度大模型产品“文心一言”的算力是由百度阳泉智算中心提供,每秒可完成2000万亿次深度神经网络计算。可完美适配百度“文心一言”正常运行。腾讯则通过对计算、网络和存储的升级,做出了一套专门面向大模型训练的高性能计算集群,不仅算力性能比之前提升了3倍,互联带宽更是达到3.2Tbps。
大厂可以自建算力设施,但是百模大战中的各个中小企业则没有这样的能力,不少企业因为缺乏算力而暂停大模型的训练。为此,政府与企业侧都在寻求突破口。在北京,为充分发挥算力基础设施作用,已经成立京西智谷人工智能生态创新中心,率先打造北京首个全栈自主创新和面向中小企业服务的普惠算力中心,算力中心首期100P算力资源,满足当下大模型训练需求。
在北京,计算中心创新中心已对接300多家北京市内具备有人工智能研发能力的企业,为医渡云、格灵深瞳、智进网络、宝兰德、深思考等60+多家行业头部企业提供公共的、普惠的算力服务。实际上,当前,在国家统筹规划下,已有20多个城市在规划和建设人工智能计算中心此前一度被垄断的“算力”问题,目前正在慢慢被破解。
一张照片秒成科目三舞王
只要一张照片就能生成一段舞蹈视频,2024年第一个工作日开始,兵马俑、马斯克以及各地网友跳科目三和网红舞的视频就陆续在国内社交媒体和朋友圈刷屏。这些大约10秒左右的视频都不是真人出镜,均由大模型生成这是阿里云通义千问APP上线的免费功能。
随着科技的飞速发展,AI已经成为我们生活中不可或缺的一部分,AI大模型带来前所未有的便捷和趣味体验。
比如利用搭载了大模型的讯飞听见写作功能,是一个具有“超能力”的 AI 文字助理,它可以将一篇“口水稿”进行语篇规整,成为文从句顺的“书面稿”,还可以帮你根据需求写会议纪要、写新闻稿件、写品宣文案。
不过,到现在为止,国内依然没有一款持续火爆的AI应用出现,即便是红极一时的妙鸭相机,也在上线仅两个月后渐渐淡出大众视野。更多的大模型应用还是出现在行业端。2023年6月,北京市首批人工智能行业大模型应用案例发布。其中包括智慧能源、智慧医疗等领域。
不过,目前大模型的应用仍显不足。投资人吴畏在接受媒体采访表示:“国内大模型应用的商业模式仍待探索。此类问题也并不可操之过急,大模型高昂的使用成本、自身存在的幻觉问题、市场的付费意愿不足等都是限制应用发展的原因,而这些问题的解决都在日新月异的变革中推进。”
商汤科技数字文娱事业部总经理栾青在接受媒体采访时表示:“整个大模型实际上是一个应用场景和行业非常广泛的操作系统,它必将不是单一的应用,也不是单一的一种体验。相信会有非常多的企业、行业,都会在这个方向上体验到效率的迭代和更新,可能行业中的很多算法都要被重做一遍。”
记者观察:如何管理考验人类智慧
大模型在掌握事实性知识上展现出巨大的能力和潜力,但是其仍然存在一些问题,比如缺乏领域知识,缺乏实时知识,可能会产生幻觉等等,这极大的限制了大模型的应用和可依靠性。
目前业界普遍认为,大型语言模型具有无与伦比的能力,但其产生非事实或误导性内容的可能也让人产生担忧。此外,对一些特定领域知识或者实时事实知识的缺乏也极大限制了大模型的使用。比如当你问关于某个知名人士的问题,它可能会根据它所掌握的信息生成答案,但这些信息可能已经过时或者错误。
其次,AI生成的虚假图片在社交媒体上泛滥成灾。这些虚假图片具有高度逼真的视觉效果,让人难以分辨真伪。比如在今年8月28日,学位法草案提请十四届全国人大常委会第五次会议初次审议中,对学位获得者利用人工智能代写学位论文等行为,判定撤销学位证书等事件,都可看出大模型在我们日常生活应用中,还存在一些风险和问题。
在现在的大模型中,主要面临技术风险+管理风险两大风险。在技术风险方面,中国科学院信息工程研究所技术副总师韩翼中认为,从技术上,模型包含两个问题。第一个问题大模型有一个模糊性或不可知性,在这个问题中,包括了这些大模型的涌现能力和由什么结构或者什么数据构成都是未知或者模糊的。第二个问题大模型的高隐藏性,在过去我们使用工具它的接口是明确的,但是现在这些大模型在我们使用的时候,我们用不同的对话它会产生的结果不一样。这个接口变的模糊了。每次给你的答案都不相同,所以对于现在测评来说,要更麻烦一点才能把所有的安全性探测到。
在管理风险方面,现在大模型是基于大模型的应用,而应用本身是有安全性问题的。而且在传播这些大模型应用服务生成的内容过程中,也存在安全性问题。
所以对于未来大模型如何进行管理和风险控制?复旦大学教授张谧认为,科技行业应该负责任地发展AI,兼顾AI发展和风险管控。张谧说:“现在全球范围内有AI竞赛的氛围,注重安全反而可能造成技术落后,为了占领先机便不得不搁置安全。各方应该立足长远,携手营造有序竞争,把风险控制在防护能力的上界之内,保障AI发展处于安全区域。”张谧对AI大模型未来的安全前景持乐观态度,她援引前沿观点指出,随着评测、治理技术的成熟,以及治理体系的完善,人类提供一整套安全规则,AI就能根据规则实现“用模型监督模型”;而更长远地看,AI大模型有可能自主对齐人类价值观、主动向善发展。“只要我们负责任地对待AI,就能构建‘爱人类’的AI。”
浙江大学教授潘恩荣指出,生成式人工智能对人类经济社会发展带来巨大的观念冲击,“宜疏不宜堵”。一方面,必须克服各种恐惧和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的方式。
阿里巴巴人工智能治理和可持续发展研究中心首席科学家何源认为“风险不能仅仅靠安全措施在输入和输出环节,提升内生安全才是根本的解决方案”。
目前,国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》(以下简称《办法》)已经正式施行,为人工智能的发展提供了具体的规则边界。不过,随着技术的发展,更多的具体问题仍在产生,亟待更多的管理办法。世界上其他国家和地区,包括美国、欧盟等国家,也在出台标准化的策略。
“学以成人,君子不器”,现在的大模型几乎代表了各厂商最先进的技术成果,每家的大模型都如同自家孩子,通过自己提供给的算法模型、数据、训练方法和伦理等,不断成长为预设的模样。那么,我们是否可以从大模型元年开始,就为人工智能建立起健康的、持续的、有责任的学习机制,并且找到关于大模型更好的发展之路呢?这将考验着人类的智慧。
【版权声明】本文著作权(含信息网络传播权)归属北京青年报社所有,未经授权不得转载
实习记者 荣巧凤
文/北京青年报记者 温婧
编辑/樊宏伟