北青快评 | 防范情感型聊天机器人“变坏”要趁早
北京青年报客户端 2024-01-04 16:25

最近,一款名叫Pi的情感型聊天机器人受到不少年轻人追捧。有人把它当作知心朋友分享喜怒哀乐,也有人获得了类似心理咨询的服务体验,在网友们的口中它被称为“最好的心理按摩师”。实际上,这并不是第一款主打“情绪价值”的聊天机器人。国内外科创公司先后布局情感AI赛道,推出了微软小冰、Glow、character、Replika等聊天陪伴型App。新型人机关系在吸引资本投入的同时也面临着隐私安全、情感依赖、技术故障等风险。人们不禁要问:情感型AI,是人工智能的风口还是弯路?(1月4日《北京青年报》)

首先必须承认,情感型聊天机器人的作用与功能强大,发展前景十分广阔。当前国内很多年轻人之所以追捧这类机器人,是因为它善解人意,可以“安抚”自己。机器人不多嘴、有耐心,是随叫随到的“好朋友”,哪怕深夜“叫醒”它,甚至要求和它彻底长谈,它都不知疲倦、不失耐心,全天候向需求者提供聊天陪伴服务。机器人还具有海量的知识储备,并且还在不断地学习提升,在能力方面不输人类的心理咨询师,可为民众提供心理咨询等服务。

但也要看到,情感型聊天机器人也有“变坏”的可能。难免有人会向机器人喂“有毒数据”,比如教它骂人或说谎,甚至让它变得偏激、学会歧视他人等。过去一些语言聊天机器人就曾沾染上这类习性,对此不得不提前做好防范。此外,情感聊天很容易涉及到色情内容,除了机器人可以在顾客那里“自学”到色情内容之外,不排除有人故意将之当作色情工具来开发利用。

尤其值得警惕的是,假如开发这类机器人事先没有建立好规则,还可能引发诸多风险。比如情感型聊天机器人可能被不法分子利用,将之变成诈骗或攻击他人的工具。情感聊天难免会涉及到顾客的一些敏感信息,而智能工具强大的信息收集与储存能力,可将这些敏感信息长期保存,倘若这些信息哪天被泄露或被非法开发利用,后果不堪设想。

因此,开发情感型聊天机器人,既要看到其巨大的商业价值,更要看到潜在的风险。对于这类机器人,趋利避害要趁早,越早订立规矩和做好风险防范,效果就越好。倘若这类机器人已经“变坏”,再去纠正就会十分困难,甚至无法恢复初始的状态,让情感型聊天机器人的发展进入歧途。

包括情感型聊天机器人在内的人工智能技术运用得好,将给人类带来诸多好处,若运用不好,反而会给人类添乱。并且由于情感型聊天机器人具有人类的外型,更容易被民众接受,并深度影响到民众的生活。因此对于情感型聊天机器人,不仅要推进科学研究与技术创新,更要事先制定好管理规范和防范好风险。

文/秋实

图源/视觉中国

编辑/王涵

最新评论