网友“被雷军骂”?AI“克隆”已有判例 法院明确用AI生成声音需获得本人授权
扬子晚报 2024-10-11 14:32

刚刚过去的国庆长假期间,网络平台上出现了一系列“雷军AI配音”视频。这些视频冒用AI生成的雷军声音,其中一些内容言辞激烈,引发网友关注热议。随着AI技术的普及,“克隆”特定人物声音已实现“一键式”的便携操作,同时也带来了民事侵权甚至涉嫌犯罪的法律问题。扬子晚报紫牛新闻记者注意到,今年4月,北京互联网法院宣判了全国首例AI生成声音人格权侵权案,明确收集、使用自然人声音作为数据进行AI化处理,需获得本人合法授权。

AI“克隆”声音广泛传播,配音师起诉维权

殷女士是一名配音师,2023年5月经朋友告知,自己的声音被AI化,他人利用该AI声音制作的作品在多个知名APP广泛流传。

但是,殷女士从来没有授权过任何人或公司将自己的声音AI化。经声音筛选和溯源,上述作品中的声音来自于北京某智能科技公司运营平台中的文本转语音产品。

此前,殷女士曾接受北京某文化传媒公司的委托录制录音制品,该公司为录音制品的著作权人。后该公司将殷女士的录音制品音频提供给某软件公司,允许其以商业或非商业的用途使用、复制、修改数据用于其产品及服务。

软件公司以殷女士录制的一部录音制品作为素材,进行AI化处理。最终,生成一款文本转语音产品,在某平台调取使用。

殷女士认为,涉事五家公司的行为已经严重侵犯其声音权益,要求相关公司立即停止侵权、赔礼道歉,赔偿其经济损失60万元。对此,五家公司均否认侵权。

法院认定构成侵权,判决赔偿损失25万元

北京互联网法院经审理认为,本案中,因被告之一的某软件公司使用原告个人声音开发涉案文本转语音产品,而且经当庭勘验,该AI声音与原告的音色、语调、发音风格等具有高度一致性,能够引起一般人产生与原告有关的思想或感情活动,能够将该声音联系到原告本人,进而识别出原告的主体身份。因此,原告声音权益及于涉案AI声音。

被告北京某文化传媒公司对录音制品享有著作权等权利,但不包括授权他人对原告声音进行AI化使用的权利。该公司与同属被告的某软件公司签订数据协议,在未经原告本人知情同意的情况下,授权软件公司AI化使用原告声音的行为无合法权利来源。

最终,法院综合考量被告侵权情节、同类市场产品价值、产品播放量等因素,对损害赔偿予以酌定。判决被告北京某智能科技公司、某软件公司向原告殷女士赔礼道歉,被告北京某文化传媒公司、某软件公司向殷女士赔偿损失共计25万元。

假冒某网红创始人声音,被采取刑事强制措施

如今,随着AI技术的普及,一般网民也有机会便捷地使用相关软件生成视频、图像、声音等内容。但相关技术在带来新奇体验的同时,也带来了新的纠纷和法律风险。

扬子晚报紫牛新闻记者查询网络,发现不少AI配音程序,用户可选择程序中提供的人物,以文本输入自己想要的内容,就可以生成以该人物声音阅读输入内容的语音文件。此外,还有程序可以由用户输入一段数十秒的人物语音作为学习素材,然后即可生成该人物声音讲述任何内容的语音。

在各网络平台,还能够搜索到大量相关操作教程,其中不乏讲解“克隆雷军声音”的视频。

目前,AI生成声音引发的纠纷仍属于一种新的法律问题,扬子晚报紫牛新闻记者未检索到使用AI生成冒用他人声音发布不实内容的已判决案件。但记者注意到,已有人因为此种行为,被采取刑事强制措施。

今年9月,一段“录音”在网络引发关注。9月16日,25岁男子王某某利用从互联网下载的音视频资料,杜撰酒后言论脚本,先使用AI工具训练生成假冒的音频,后用视频软件合成音视频,并通过网络发布,形成谣言大量传播。

根据合肥市公安局高新分局通报,经过侦查,警方将犯罪嫌疑人王某某抓获,并在其电脑、手机和制作AI音频的网站中发现伪造相关音视频的证据。王某某已被依法采取刑事强制措施,案件正在进一步侦办中。

律师说法

如造成严重后果,可能构成刑事犯罪

“自然人的声音是一种法定权利,属于其特有的人格权。《民法典》中新增了对自然人声音的保护内容,第1023条明确,参照适用肖像权保护的有关规定。”苏亿诚律师事务所合伙人徐旭东告诉扬子晚报紫牛新闻记者,未经本人授权使用AI技术生成自然人的声音,令人以为是特定人物的声音,尤其是AI生成声音的使用、传播配合相关文字、图像等形式,直接或间接关联到某特定自然人,降低其社会评价,可以认定为侵害他人人格权的行为。

徐旭东表示,对于使用AI生成声音经传播,造成自然人的名誉、荣誉等严重伤害后果的,还有可能涉及侮辱、诽谤等刑事犯罪,受害人可依据《刑法》第246条规定,提起刑事自诉,追究行为人的刑事责任。

扬子晚报紫牛新闻记者注意到,北京互联网法院课题组在今年9月发表的一篇期刊论文中指出,声音作为关乎自然人人格的重要人格权益,AI技术服务开发者在使用自然人声音时应当起到较高的注意义务。《生成式人工智能服务管理暂行办法》第7条明确生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,要求必须使用具有合法来源的数据和基础模型;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。

对于引导AI技术供应方正确对待自然人声音权益,该论文提出,可参照欧盟人工智能法,强调高风险AI系统的透明度和可追溯性,AI生成声音技术供应方应当清晰展示其生成声音的过程和来源。

文/万承源

编辑/倪家宁

相关阅读
甄嬛修仙?雷军用骂声催你起床?何炅和黄磊打斗? AI玩梗视频暗藏法律风险
解放日报 2024-11-20
严防AI“偷声音”,也要引导技术向善
北京青年报客户端 2024-10-29
北青快评|对滥用公众人物声音的AI应用要严管
北京青年报客户端 2024-10-28
从“一眼假”到“真假难辨”再到“深度伪造” 滥用公众人物声音 AI技术应用玩过界
工人日报 2024-10-28
滥用公众人物声音恶搞,AI技术应用“玩过界”被质疑
工人日报 2024-10-28
滥用公众人物声音恶搞 AI技术应用“玩过界”被质疑
工人日报 2024-10-28
现代版“画皮”:AI换脸生成“爱情骗局”,杀猪盘正走向人工智能
21世纪经济报道 2024-10-16
“试水”数字权益司法保护规则 北京互联网法院:为服务保障新质生产力蓄势赋能
人民法院报 2024-09-16
最新评论