11月19日下午,2024年世界互联网大会领先科技奖颁奖典礼在浙江乌镇举行。2024世界互联网大会领先科技奖设立了基础研究、关键技术、工程研发三种类型,共有20个项目获奖,它们代表了互联网领域前沿科技创新。
据了解,2024世界互联网大会领先科技奖从全球270项成果中,历经2轮评审遴选出,评审委员会中中方专家70%为两院院士,外方专家由多位互联网名人堂入选者、院士组成。奖项涵盖了超级计算、数字孪生、大模型、6G等前沿技术领域,入选项目包括:清华大学“基于原语表示的类脑互补视觉感知芯片”、国家高性能计算所“超算互联网平台”、国家天文台“LAMOST 天体光谱数据处理和发布平台”、 微软“新一代人工智能副驾驶”等项目。
蚂蚁集团自主研发的“认知决策智能体技术创新与应用”入选关键技术组奖项。中国工程院院士、世界互联网大会领先科技奖评审委员会主席邬贺铨院士揭晓获奖项目时评价,“关键技术是推动行业发展的核心动力,本次获奖的项目通过技术创新推动产业数字化转型,为数字技术服务实体发展注入了源源不断的新动能。”
蚂蚁集团副总裁、首席技术官何征宇现场领奖并发言。他介绍,“这一项目解决了人工智能大规模落地产业时面临的领域认知能力弱、复杂推理能力差、端到端落地难三大难题,并在多项关键技术上取得了创新成果。目前,该项目已在蚂蚁集团内部及外部合作方得到了大规模应用。如在大模型时代,支撑了蚂蚁集团AI生活管家“支小宝”、AI金融管家“蚂小财”,首个可陪诊数字健康人“安诊儿”,为用户提供生活办事、金融和医疗专业领域等服务。他表示,这项技术也为未来大模型迈向更专业、更垂直的领域应用,提供了技术储备和落地样本。
由腾讯科技(深圳)有限公司、北京大学、北京科技大学共同研发的“Angel大规模机器学习平台关键技术与应用”在关键技术组脱颖而出。腾讯 Angel 机器学习平台针对万亿规模大模型分布式训练和推理、应用部署难的挑战,在网络互联、框架效率、平台规模三方面实现了突破。在通信方面,从网卡到交换机,再到路由协议,腾讯自研的RDMA网络实现了集群高速互联,单节点带宽达到3.2T,相比于同类领先产品,性能提升30%,成本降低70%。在效率方面,自研了训练/推理框架,提出显存加主存的一体化机制,实现多维并行和算子优化,相比开源框架,训练性能提升2.6倍,推理速度提升2.3倍。在规模方面, 实现了单任务万卡的线性扩展,GPU集群加速比从50%提升到99%。
目前,基于腾讯 Angel 机器学习平台,腾讯混元大模型已经构建了从0.5B到70B不同尺寸的通用模型和领域模型,涵盖了语言模型、多模态理解模型和多模态生成模型等。这些模型已被应用在超过700个腾讯业务场景,展现了其强大的应用潜力和价值。对外,Angel 平台通过腾讯云输出,广泛应用在大模型、广告、推荐、社交、金融等领域,服务30万行业客户,助力实体行业进行数智化升级。
阿里云面向AI的云计算基础设施荣获工程研发组奖项,成为世界互联网大会史上首个以AI基础设施整体获奖的科技成果。面向AI时代,阿里云全面重构了一个从底层硬件到计算、存储、网络、数据处理、模型训练和推理平台的全栈技术架构体系,成为国内最早自研、布局最深入的AI基础设施。目前,80%的中国科技公司、65%的专精特新“小巨人”企业和60%的A股上市公司使用阿里云的算力服务。
在大模型时代,数据训练背后的硬件尤为重要。据悉,基于全栈优化,阿里云AI基础设施的系统稳定性和计算效率大为提升,连续训练有效时长达到 99%,GPU 使用效率(MFU)提升了 20% 以上。全新打造的阿里云灵骏智算集群,可支持10 万张GPU卡高效互联,在万卡规模下的性能线性增长率达到 96%,可提供 20TB/S 的超高吞吐并行存储,网络有效使用率达到99%的业界领先水平。
百度文心智能体技术也同时获奖。国家卓越工程师、百度首席技术官王海峰介绍,文心智能体技术受到人脑快思考慢思考的启发,在基础大模型之上研制了系统2,更理性、更准确。系统2的核心是思考模型,通过思考过程的有监督精调、行为决策的偏好学习、结果反思的增强学习等思考增强训练,具备理解、规划、反思与进化能力,一定程度上将思考过程白盒化,从而让机器像人一样思考和行动,自主完成复杂任务,并在环境中持续学习自主进化。
他表示,文心智能体技术的突破为大模型技术及应用带来了积极影响。一方面,智能体技术拓展了大模型能力边界,促进文心大模型能力全面提升。IDC、沙利文、中国软件评测中心等多家权威评测显示,文心大模型位居中国及国际第一梯队。另一方面,智能体技术进一步释放大模型潜力,加速应用爆发,截至目前,文心大模型日均调用量已超过15亿,文心一言用户规模达到4.3亿。文心智能体已凝聚超过80万开发者、15万家企业。
文/北京青年报记者 温婧
编辑/樊宏伟