在2023世界人工智能开发者先锋大会开幕式上,开放元宇宙基金会董事罗尤·奥布莱恩谈及ChatGPT时,特别提到了安全问题,“我们一定要有保障的规则,要有护栏,确保做坏事的人带来的影响有限。”
“安全”二字在大会期间被反复提及。
尽管ChatGPT的概念出现没有多久,但对网络安全和数据安全带来威胁的问题已经成为业内关注的焦点。对于目前为止还在“一本正经胡说八道”的ChatGPT,如此担忧是否杞人忧天?
安全威胁已经或正在发生
Fortinet 北亚区首席技术顾问谭杰对第一财经记者表示,ChatGPT等AI技术对网络和数据安全的威胁已经在发生了。
谭杰表示,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但是由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。此外,攻击者还可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。因此,AI可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。
谭杰告诉记者,在自动化、AI、 “攻击即服务” 等技术和模式加持下,网络安全攻击呈现出暴涨趋势。在ChatGPT火爆之前,已发生了多次黑客使用AI技术进行的网络攻击。事实上,人工智能被用户调教“带偏节奏”的案例并不鲜见,6年前,微软推出智能聊天机器人Tay,上线时,Tay表现得彬彬有礼,但不到24小时,“她”就被不良用户“带坏”,出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。小姑娘只好被下线结束了短暂的生命。
另一方面,距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。
硅谷媒体报道,亚马逊的公司律师称,他们在ChatGPT生成的内容中发现了与公司机密“非常相似”的文本,可能是由于一些亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息,该律师担心输入的信息可能被用作ChatGPT迭代的训练数据。
企业闻风而动构建安全屏障
由于人工智能的迭代速度惊人,未来可能会继续超越人们的认知,世界人工智能开发者先锋大会期间,不少行业人士对记者表示,业界应该高度重视这个问题,应立即着手构建相应的安全技术和制度。
已经有企业在思考如何反制人工智能和类ChatGPT应用可能带来的威胁。在人工智能开发者先锋大会上,商汤科技智能产业研究院院长田丰透露将会推出人工智能安全开放平台。
该平台的目标是打造广泛验证使用的可信任的全栈AI安全服务,在深度模型安全上,平台提供模型体检(涵盖对抗安全、鲁棒性以及后门安全评估)和开源的防御解决方案。在内容创作保护上,平台提数字水印功能,并且利用投毒技术保护图片信息不被深度生成模型所利用。
早在2020年4月,清华大学AI研究院孵化企业Real AI(瑞莱智慧)就尝试性地推出了首个针对AI在极端和对抗环境下的算法安全性检测与加固的工具平台——Real Safe人工智能安全平台。
随后,瑞莱智慧于2021年6月,联合清华大学、阿里安全推出AI攻防对抗基准平台。该平台主要用于对AI防御和攻击算法进行自动化、科学评估。
在上海“2022 世界人工智能大会-可信AI论坛”期间,中国信通院、清华大学、蚂蚁集团联合发布AI安全检测平台“蚁鉴”,面向AI模型开发者提供从模型对抗测试到防御加固的一站式测评解决方案,帮助开发者一键识别和挖掘模型漏洞。
此外,记者从业内人士了解到,用AI打败AI的安防策略也在流行,不少公司目前正在防火墙、WAF、EDR、NDR、沙盒、SIEM等产品中植入AI引擎,以提升对于威胁的检测和响应能力。
对于企业高校和企业的前瞻性布局,德勤中国区主席蒋颖告诉记者,一般性技术的创新领域中,科技总是走在前面的,而治理和监督相对而言往往是后置的,但是就目前看来,对于人工智能的安全和伦理的关注已经走在了技术的前面。
而在谈及人工智能安全开放平台类似产品的前景时,蒋颖表示人工智能安全相关市场前景将会非常广阔,但是目前更需要正视的,是开发人才短缺的问题。(樊雪寒)
编辑/田野