眼见不一定为实! 人工智能造假行骗:能治吗?
央视新闻客户端 2024-10-12 15:08

眼见不一定为实,有图未必有真相。随着AI技术不断发展,AI合成,已经不仅限于换脸,或生成音频这么简单,而是可以将人脸、声音、手势动作等多种元素深度合成,甚至可以实现使用合成的人物进行实时视频通话。

而与此同时,AI合成的技术门槛也越来越低,使得普通人也可以轻松学会。如何去防范利用AI深度伪造技术的新型诈骗?又该如何通过治理让AI技术能更好向善?《新闻1+1》关注:人工智能造假行骗:能治吗?

人工智能造假行骗,责任如何划分?

对外经贸大学数字经济与法律创新研究中心主任许可:在深度伪造技术发展、使用过程中,有非常多的主体发挥作用。有技术的研发者、分发者、使用者。利用技术实施诈骗的人,当然是第一责任人,但在整个生态中,技术的研发者、软件的分发平台以及传播相关信息的人也可能发挥着一定的作用,如何形成一种治理的合力?这里面可能要区分两种不同的责任:

一种责任是行为人的责任,比如说利用人工智能去诈骗的人。

另一种责任是平台责任,平台一端连着用户,一端连着提供人工智能技术的人,这要求平台发挥管理两边的责任。一旦发现违法违规行为,平台就应该采取积极措施,去制止无论是信息内容的发布者还是软件的提供者,从而实现整个平台治理的安全稳定。

法律如何应对人工智能造假行骗?

对外经贸大学数字经济与法律创新研究中心主任许可:人工智能的发展其实刚刚开始,用在违法违规、刑事犯罪方面也不久,我国的法律也及时进行了应对。法律出台之后,需要做的是进一步实施和落地。这些新制度的出台,目前还仍在建规立制的阶段,通过各方的合力,既要依托于监管部门,不断将法规的细则落实到每一个主体身上,也要通过社会的综合治理,实现个人要知道、主张自己的权益,企业要知道、践行自己的责任和义务。还需要一个循序渐进、逐渐完善的过程。

AI生成合成内容将有“专属水印”

9月,国家网信办起草了《人工智能生成合成内容标识办法(征求意见稿)》,这能遏制“换脸”诈骗吗?

对外经贸大学数字经济与法律创新研究中心主任许可:在大量AI深度伪造技术的诈骗中,最大的问题是被骗的人以为视频是真的。《人工智能生成合成内容标识办法(征求意见稿)》要求,通过人工智能生成的视频、音频、图片都必须加以明确的标识。这样,看到的人能够知道这是AI生成的内容。这种通过信息披露实现的治理,在我们现在来看是非常有效的措施。

老年人如何防范“AI换脸”诈骗?

对外经贸大学数字经济与法律创新研究中心主任许可:这是一个素质素养提升的工作,因为信息鸿沟、技术鸿沟,很多老年人根本就不知道世界上还有这么一种技术,能把假的变成真的。

让老年人提升认识,需要包括媒体、教育机构、科研院所共同普及这方面的知识,告诉他们信息的真假是需要认真甄别的。另一方面,老年人获取信息的来源除了社会,很多是来自于家人。孩子们应该多和自己的父母、长辈沟通,告诉他们这些诈骗案例,让他们产生警惕。通过社会和家庭的共同作用,让老年人提升认识。

编辑/朱葳

相关阅读
AI造假众多名人躺枪 谁来斩断人工智能黑手?
第一财经 2024-10-27
以法治防范人工智能安全风险
法治日报 2024-09-11
艺术院校如何应对人工智能之变
光明日报 2024-06-05
2024中关村论坛年会|齐向东: 人工智能带来的安全难题,还是要用人工智能来解决
北京青年报客户端 2024-04-27
AI换脸精准诈骗难以防范 全国人大代表建议 推进立法强化人工智能技术安全应用
法治日报 2024-04-09
“人工智能+”潜力巨大
经济日报 2024-03-28
应对人工智能技术滥用,合作才是未来
光明日报 2024-03-17
首届“AI善治论坛”在京召开 会议发布《人工智能法(学者建议稿)》
北京青年报客户端 2024-03-17
最新评论