半两财经 | 数据泄露事件频发 多国考虑对ChatGPT等工具进行审查
北京青年报客户端 2023-04-11 16:45

据媒体报道,拜登政府已开始研究是否需要对ChatGPT等人工智能工具进行审查。报道称,当地时间周二,美国商务部下属机构美国国家电信和信息管理局(简称NTIA)正式向公众征求意见,研究是否在新型AI模型发布前对其进行审核认证,侧重点是审核新型AI模型的最佳方法。这意味着拜登政府即将在ChatGPT等新型AI产品监管方面迈出第一步。

数据泄露事件频发 ChatGPT遭多国围剿

在美国考虑进行审查的同时,ChatGPT已遭到多国围剿。3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用ChatGPT,并表示已对ChatGPT背后的Open人工智能公司展开调查。该机构提到,3月20日的数据泄露事件导致一些ChatGPT用户的对话数据和有偿服务支付信息丢失。4月3日,德国联邦数据保护专员发言人称,出于数据保护方面的考虑,可能会暂时禁止在德国使用ChatGPT。

日前,韩国三星称,该公司近期发生的数起数据泄露事件和ChatGPT直接相关。主要原因是因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。

除韩国某星外,微软、亚马逊等国际巨头企业亦对自己的员工发出预警,不要与ChatGPT分享公司的相关敏感信息,因为它们可能会被ChatGPT用于训练未来的语言模型。出于对敏感数据泄露风险的担忧,花旗集团、德意志银行、高盛集团、摩根大通等企业亦明确禁止员工使用ChatGPT处理工作任务。

中国支付清算协会倡议 从业人员慎用ChatGPT等工具

4月10日,中国支付清算协会发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(以下简称“倡议”)。倡议提出,正确认识ChatGPT等工具的机遇和风险。倡议称,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》等法律规定,中国支付清算协会向行业发出倡议。

具体内容包括,一是提高思想认识,依法依规使用。支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。

二是不上传关键敏感信息。支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

三是会员单位加强内部管理和引导。会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。

专家:ChatGPT这类大语言模型会收集用户的聊天内容用于算法训练

对于ChatGPT等工具可能存在的风险,索信达控股AI创新中心主任邵俊博士认为主要来自两个层面,一是信任风险,比如不法分子通过ChatGPT技术模仿真人实施不法行为;二是模型风险,ChatGPT从网络大量数据中学习,但网上也充斥着大量错误信息,这些信息容易对用户造成误导,从业者的“无心之失”也容易在工作中把重要数据流出,构成信息泄露的风险。

大成律师事务所高级合伙人、律师肖飒认为,传统的聊天软件通常会声称“本软件不会收集聊天记录、聊天信息也会点对点进行加密传输”,事实上绝大部分的聊天软件也都会做到这一点。但是这一点对于ChatGPT而言几乎不可能实现,原因在于ChatGPT这类大语言模型一定会收集用户的聊天内容,并将其用于后续算法训练,以使得自身进一步迭代成为更加高效的AI。因此,用户在与ChatGPT聊天的过程中提供的隐私内容,很可能会被ChatGPT收集,并成为其自身算法训练的素材,然后在其他场景中透露给别人。

肖飒认为,AIGC正在慢慢改变隐私数据处理的边界与预期,这对企业合规、数据相关法律规范制定者、司法机关都是一个挑战,未来可能会涉及的数据合规尤其是数据出境等问题,可能仍需进一步探索与研究。

【版权声明】本文著作权(含信息网络传播权)归属北京青年报社所有,未经授权不得转载

文/北京青年报记者 朱开云
编辑/田野

最新评论