据报道,某社交平台上,有博主利用AI仿冒奥运冠军全红婵的声音卖土鸡蛋;孙颖莎、王楚钦的声音也被“克隆”,用来给“婵宝家土鸡蛋”高调带货……评论区显示,不少网友误以为这就是奥运冠军本人,纷纷下单购买。此外,还有博主“克隆”演员靳东等的声音,进行24小时语音直播。
随着AI技术的发展与普及,AI声音滥用现象也越来越普遍,AI“偷声”也越来越能以假乱真、混淆视听。国家金融监管总局2024年7月发布的《关于防范新型电信网络诈骗的风险提示》显示,不法分子可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
未经授权将他人的声音AI化,可能侵犯他人的声音权,侵犯了个人信息安全,还可能扰乱网络空间生态和秩序。《民法典》第1023条第二款规定,对自然人声音的保护参照适用肖像权保护的规定,防止其被混淆、滥用、冒用、不正当使用。特定的声音除了有身份识别、人格属性外,还具有经济价值(市场经济价值)的属性。《生成式人工智能服务管理暂行办法》明确规定,提供和使用生成式人工智能服务,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。
2024年4月23日,北京互联网法院开庭宣判了全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。侵权者被判赔礼道歉,并向原告赔偿损失共计25万元。
AI换声等技术在各个领域中的应用越来越广泛,AI技术本身是中性的,但如果使用不当,就可能带来“双刃剑”效应。所以,对于AI换声、人脸识别等新业态新技术,要能明确划清应用边界,要防范“双刃剑效应”,不能忽视了对声音权、人脸信息等公民合法权益的保护。
要更好保护声音权等公民合法权益,亟须完善相关法律法规,强化人工智能伦理规制,明确侵权赔偿责任,完善监管机制等。除了要加强司法机制的建设,还要加强普法宣传,增强网友的法律素养,懂得尊重他人的声音权。网络平台则要加强管理,及时发现、处理可能涉及侵权的AI生成作品,对侵权视频采取下架等处理。
自然人的声音也是应予保护的合法权利,他人不得侵犯。声音权不能成了人格权保护的盲区、死角。AI声音不能成了“李鬼盗声”。规范网络上正火爆的“AI换声”,遏制AI“盗声”,不让“AI换声”偷走了他人的声音,不让不法分子将他人的声音当成自己牟利的工具,要有法治“护声符”,需要法治“强音”和监管“强音”,筑牢法治“消音墙”。
只有坚决遏制“AI换声”偷梁换柱、任性“盗声”,才能让AI声音得到正用而不是滥用。
文/戴先任
编辑/胡克青