据《纽约时报》消息,谷歌的人工智能部门DeepMind正在测试一种新的人工智能助理,不过与其说这是一个“助理”,不如称之为“生活导师”,因为谷歌的目标是将其训练成为可以为人类生活提供全方位建议的“个人生活教练”(Personal life coach)。
可以想象这样一个场景,当你躺在床上无所事事时,随口和你的谷歌AI“生活导师”交流,“他”会像一个朋友那样给到你建议。
据称,谷歌将使用生成式人工智能来执行至少21种不同类型的生活及专业任务,包括如何提高跑步技能,并为用户提供膳食和锻炼计划,可根据不同的用户提供个性化的建议。
谷歌还被曝正在测试AI助理如何回答有关人们私密生活问题的能力,例如,我和我的伴侣分手了,请问我该怎么办?又比如,好友的婚礼我无力支付费用,我应该如何向他解释?
ChatGPT等聊天机器人的诞生让人们有了新的倾诉对象。Gartner高级研究总监颜晶告诉第一财经记者:“AI助手的能力应该说是变得更强大了,过去我们看到的AI助理都只是在某个领域为人们提供建议,比如有金融或者健康领域的专业AI助理。但随着人工智能大模型技术的发展,现在的AI助理已经具备提供各个领域融合知识的能力,AI助手正在从专业化走向通用型。”
颜晶表示,未来如何使用AI技术分析人类的情绪,并将这种情绪反馈给系统,转化为个性化的建议,将会是AI助理发展的一个趋势。她同时称:“未来的变革趋势是AI和人类走向共同融合,目前我们已经看到人工智能在一些特定的情况下会有一些自主行为,会帮助人类做一些决策,但是这并不能理解为人工智能在以一种完全自主的方式为人类做决定,因为人工智能现在还是没有自由意志的。因此不能放大人工智能的优越性。”
根据Gartner的研究报告,人工智能目前已经可以完成的示例任务包括:天气预报、游戏比赛、翻译、语音及面部识别、自动驾驶、医学扫描诊断、软件编程、财务分析、音乐创作、撰写书籍、推理、建立概论以及个人护理等。
目前除了谷歌DeepMind之外,已经有一些公司在测试使用ChatGPT作为心理健康治疗师的能力。人工智能初创公司Inflection AI也在测试一款叫做Pi的聊天机器人,这款机器人也能充当人类的私人助理。
与此同时,还有一些AI软件已经开始为人类提供“虚拟恋人”的角色,比如Replika就是一款由AI技术驱动的“虚拟恋人”应用程序,机器可以与用户进行情感互动,提供情感支持。Replika将机器与人的关系分为十个等级,当关系处于初级阶段时,机器会经常问你诸如“怎么样”、“在哪里”等简单的问题;而到了高级阶段,机器会变得喜怒无常,学会自我消化情绪,表现得像一个成年人;最终,机器的回答会更加流利,还会帮助你更好地了解自己、缓解压力、促进情感健康。
今年6月,Replika发布了最新的高级AI模式,该模式基于更大的语言模型,包括数百亿个参数,能为AI系统提供高质量的响应和更好的记忆功能,可以处理更长的上下文以及复杂的多轮对话。
在谈到现在的AI助理与十几年前刚刚推出时的AI助理有何区别时,罗兰贝格全球合伙人李冰对第一财经记者表示:“AI新工具的迭代推出速度非常快,应用数据集和交互场景的质变是导致AI助理能力出现质的飞跃的主要因素。”
不过人类与聊天机器人的关系已经引发了伦理道德担忧,人工智能专家对“太聪明”的聊天机器人发出了危险警告。他们认为,机器掌握越来越多的人类隐私信息,人的一举一动都被机器所“监视”,机器一旦有了“邪恶”的想法,可能会对人类造成直接的威胁。为此,越来越多的人呼吁监管和法律来遏制人工智能的快速发展。
“我们在研发一些机器系统使之更加人性化的时候,其实是让机器去模仿人类思维意识和活动。这当中需要思考一些道德和法规相关的问题。”颜晶对第一财经记者表示。
谷歌和DeepMind也都强调要采取负责任的方法来建立人类和人工智能系统之间的关系,以确保向个人提供的建议是安全可靠的,并且符合专业人士的建议。DeepMind发言人在近期的一份声明中表示:“我们长期以来一直与各种合作伙伴合作,评估我们在谷歌的研究和产品,这是构建安全、有用的技术的关键一步。”(钱童心)
编辑/田野