10月10日,在2024 vivo开发者大会上,vivo正式发布了全新AI战略——蓝心智能。蓝心智能是将大模型技术与手机操作系统深度融合的个人智能,在蓝心大模型的加持下,手机将具备更强大的分析能力,深度解读用户的意图,进而给你需要的反馈和服务;而依托大模型,蓝心小V可以让手机能够与人自然对话、翻译语言、模拟人声甚至理解对话中的情绪。特别是,基于vivo AI功能的“vivo听说”和“vivo看见”看见持续升级,为视障和听障群体带来了便利。
vivo高级副总裁、首席技术官施玉坚介绍说,在过去三年和今年前三季度,vivo始终稳居国产手机销量第一。不久前,vivo还空降凯度BrandZ最具价值中国品牌百强榜单。
去年,vivo推出了自己的技术品牌——“蓝科技”。 其包含了“蓝图影像”、“蓝海续航系统”、“蓝晶芯片技术栈”以及全新升级的“蓝心大模型”和“蓝河操作系统”。同时vivo发布了自研十亿、百亿、千亿三个参数量级,由5款语言大模型组成的蓝心大模型矩阵。并在行业中率先跑通了1B、7B、13B的端侧大模型,同时基于蓝心大模型推出了蓝心小V和蓝心千询APP。截至今天,vivo的AI能力已覆盖全球60多个国家和地区,服务超过5亿手机用户,大模型token输出量超过了3万亿个。
vivo副总裁、OS产品副总裁、vivo AI全球研究院院长周围正式发布了蓝心智能。以蓝心大模型为技术底座,蓝心智能可以理解用户的个人情景和偏好,为用户提供个人化的专属服务; 同时,蓝心智能将全方位守护用户的隐私安全; 通过系统深度融合,为用户持续构建更自然、符合直觉的交互,带来更智能温暖的体验。
在蓝心大模型的加持下,手机将具备更强大的分析能力,无论是按压屏幕的力度、圈搜文字或图片、还是拖拽一段地址信息,多模态大模型都可以深度解读你的意图,进而给你需要的反馈和服务。而依托文本大模型,结合自监督学习语音编解码、多语音任务学习和模态对齐等技术,让蓝心小V在文本能力外,进一步具备强大的语音表征理解与生成能力,进而让手机能够与人自然对话、翻译语言、模拟人声甚至理解对话中的情绪。
vivo依托蓝心大模型对手机的基础功能进行了全面升级。同时,vivo为三方开发者构建了连接服务的框架和平台,让人找服务的同时,服务也主动匹配人的需求。另外,vivo还构建了个人智能系统框架,通过本地化知识图谱,基于端侧大模型能力,建立人与设备共同的记忆。
周围展示了vivo基于蓝心大模型技术做出的 “PhoneGPT”也就是手机智能体。在演示中,蓝心小V不仅可以对屏幕界面进行识别和操作,也可以通过接管音频进行自主对话,以完成用户交代的任务,例如帮助我们去订餐厅、订咖啡等等。这是手机自动化的一小步,却是解放用户双手的一大步。随着AI发展,未来PhoneGPT一定会带来更多的应用场景,更好的智能体验,让小V成为更懂用户的私人助理。
vivo还将强大的AI能力跨端流转到生态设备,让用户能够通过自然语言与设备高效沟通。比如,vivo智能车载连接超过170个汽车品牌,覆盖超过8500款车型。为实现智能车载、数字车钥匙技术升级,vivo牵头发起ICCOA联盟,推出的协议覆盖了市场上超过350W辆汽车。
此外,vivo还成为国内首家能兼容苹果生态的厂商。vivo通过深度适配苹果M系列芯片,实现了与苹果电脑的跨端协同,用户可以通过vivo办公套件对苹果电脑进行全端搜索、远程操控。
在现场,令人关注的是一群残障群体,他们都表示十分依赖vivo的无障碍功能。去年,vivo读谱功能的发布,让喜爱音乐的视障人士可以利用手机学习乐谱和乐器。而今,vivo利用多模态大模型,让手机成为视障人士的眼睛,帮助他们可以独自安全的走到更远的陌生的地方。不少残障人士表示,自己常用的功能就是“vivo听说”和“vivo看见”,vivo听说功能可以实时语音文字互译,尤其符合听障人士的使用习惯,vivo看见功能可以实时播报画面中的场景和文本,帮助视障人士辨认物品及告诉他们准确位置。Vivo还为不久前正式开馆的国家无障碍环境展示馆制作了行业首款视障用户导览软件,为展馆提供助力。
文/北京青年报记者 温婧
编辑/樊宏伟