据《法治日报》报道,一段时间以来,不少未成年人的家长饱受AI剧情聊天软件困扰。一些打着“角色扮演”等旗号的AI剧情聊天应用,在吸引未成年人的同时,也悄然滋生了一些灰色地带。在部分AI剧情聊天软件的对话中,出现了色情擦边、语言暴力以及侮辱用户的内容。
在社交媒体持续深入生活的当下,包括聊天软件在内的各种应用,本质上已带有某种公共属性,应该为个人、家庭、社会提供积极助力。反观这些所谓的AI剧情聊天软件,有不少提供的都是“逆服务”:通过设定极富想象力的剧情和风格迥异的人物角色来吸引用户,允许用户与虚拟角色进行深度互动,甚至允许用户设定虚拟角色为“出轨对象”。显然这些皆属于极不健康的AI软件。
身处高度数字化、信息化的今天,技术向善是一个基本常识,但技术向恶的问题时有发生,也提醒着各方加固技术防火墙的必要。围绕很多App的使用,相关平台都推出了青少年模式,可该模式很多时候形同虚设,轻易就被未成年人绕过,早已为人诟病。
乱象频仍,主要还是相关平台企业受到利益驱使,无视自身社会责任。都知道未成人的钱好赚,但决不能因此丢了底线、失了节操,搞出很多影响未成人三观形塑和健康成长的东西来。
在这个问题上,相关软件运营商首先要守土尽责。可以利用AI技术提供剧情聊天服务,但不能背离公序良俗污染社会空气,更不能无视未成年人的合法权益。2023年7月颁布的《生成式人工智能服务管理暂行办法》第四条规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。
包括AI剧情聊天软件在内的各类软件运营商都要按照《未成年人保护法》《未成年人网络保护条例》等法律规定,履行法定责任和社会责任。其中软件所提供的青少年模式决不能沦为摆设,因为在相关软件未分类分级管理的情况下,未成年人很容易看到不符合其年龄的内容,进而影响其身心健康。这就需要各软件运营商切实将青少年模式设计为不容绕过的“钢铁模式”。
近日,国家网信办发布《移动互联网未成年人模式建设指南》,其中重点提出了未成年人模式建设的整体方案,鼓励和支持移动智能终端、应用程序和应用程序分发平台等共同参与。
这对运营商是一个严峻考验,既考验运营商保护未成年人的诚意和决心,也在考验运营商的技术服务能力。家长应当对问题软件进行积极投诉,消协组织应以侵害不特定未成年消费者为由提起公益诉讼。另外,有关部门也要依据相关法律和规章,对AI剧情聊天软件乱象深入调查,精准处罚。
有专家指出,针对AI剧情聊天软件,特别是其青少年模式,应强化内容审核机制以确保技术能有效筛选并阻止不当对话。此外,平台需要对AI模型进行伦理审查,以保障其生成的内容符合相关法律与法规的要求。总之,只有强化平台责任,才能保护未成年人。
文/老鹰
图源/视觉中国
编辑/姬源