“百模大战”告一阶段,国内大模型领域开始进入到各行各业的应用探索阶段。
12月6日,“2024 AI+数字笔迹创新应用发展论坛”在重庆举行。《每日经济新闻》记者在现场注意到,阿里云副总裁、产业智能首席科学家张磊表示,大模型真正变成生产力可能会经历三个阶段,最终将打破固有的生产关系。越往深层走,大模型作为一个新质生产力产生的业务价值、社会价值将会越来越大。
随着大模型的应用进入日常生活以及生产经营领域,其安全短板也亟待解决。电子科技大学网络空间安全学院院长、俄罗斯工程院外籍院士张小松认为,大模型的背后是机器学习,而机器学习存在脆弱性,需通过多种措施加以应对。
行业重点向应用层迁移
近年来,国内的大模型领域经历了“百模大战”,各行各业的开源、闭源大模型层出不穷。
在张磊看来,大模型产业中长期可能有两个比较重要的发展趋势:一是从大模型利用或者需求的角度来说,肯定会呈现大模型越来越多、百花齐放的普惠效应趋势;二是在整个大模型技术、基础设施的供给上,全球范围内又将是一个比较极化的效应趋势,即寡头格局、强者愈强。
因此,张磊认为,在大模型的供给方面,需要生态圈里最头部的厂商抱团,包括云计算厂商、运营商、硬件厂商等,从而形成一个完整的产业链。
与此同时,值得注意的是,随着“百模大战”需要的投入越来越大,行业发展的重点也逐渐向应用层迁移。
张磊表示,大模型真正变成生产力可能有三个阶段:第一个阶段是没有行业属性的大模型应用,包括客服、问答、数据分析、报表总结、文本及图片生成、会议纪要生成、招聘辅助等,各行各业都可以用;第二个阶段是大模型通过智能体、私域数据库、小助手的方式进入有行业属性的实际场景的业务流程中,开始为现有的业务流程降本提效;第三个阶段是大模型将产生新的能力,开始去重构业务流程,打破固有的生产关系。
而对于推动大模型产业的发展,张磊也给出了自己的建议,包括统筹算力、构建高质量的数据集、大力推动人才培养以及加速示范应用。
安全问题不容忽视
在大模型逐渐进入应用阶段之际,数据安全和算法漏洞等问题也愈发受到各方关注。
张小松指出,大模型的实践手段是机器学习。在机器学习的早期,存在几个威胁:一是机器学习的算法非常脆弱,脆弱到甚至还不如几岁的小孩,稍微把图形图像的内容进行篡改就会发生识别错误;二是部分人利用机器学习的错误来操纵大模型,例如有意喂错样本进行投毒攻击或对抗攻击,通过有选择性地学习进行逃逸攻击。
“所以一是要对学习过程进行完整性检测,二是要对推理过程进行防错性检测,三是要对机器学习内容样本进行隐私保护处理。”张小松补充道。
值得一提的是,在人工智能时代,由深度伪造等带来的挑战也愈发显现,网络安全中的身份认证问题亟待解决。
《2024人工智能数字笔迹技术白皮书》在论坛现场发布。根据白皮书内容,AI数字笔迹将成为多模态生物特征识别的重要手段之一,并作为数字交易中确权和授权的底层基础技术,在数字经济高质量发展中发挥非常重要的作用。
“AI在提高数字笔迹识别准确率方面可发挥关键作用,通过卷积神经网络(CNN)等深度学习模型,未来本人数字笔迹识别的识别通过率将提高到99.99%。”白皮书显示。
编辑/范辉