由安全问题引发的OpenAI“职场宫斗戏”还没有结束。当地时间周二,数十位OpenAI前员工通过一封公开信再次警告,像OpenAI这样的人工智能公司缺乏法律监管和内部批评机制,尤其是对“吹哨人”的保护远远不够。该公开信由十三名 OpenAI 前员工签名,并得到了包括“人工智能教父”Geoffrey Hinton 在内的三名外部人员署名支持。
与此前音乐行业、电影演员行业的公开警告类似,公开信强调了AI双刃剑的属性:他们相信人工智能技术可以造福人类,但也看到了风险,比如加剧社会不平等,操纵和捏造信息。在生成式AI风靡的这两年,人们已经见到了侵犯版权、深度造假影响政治选举、AI生成色情图片等冲突势不可挡地蔓延至现实生活。
去年7月,OpenAI、谷歌、微软、meta、亚马逊、Anthropic、Inflection曾向拜登政府承诺,愿意接受外部第三方的安全测试,并向外界公开测试结果。但这一承诺主要是自愿性质,硬性约束仍为空白。
公开信由此指出一个关键问题:在缺乏硬性监管的情况下,不能指望公司自愿披露AI系统的真实性能、局限和风险。员工有责任要求公司对AI安全风险负责,但员工正受制于公司的保密协议。
“整个行业发生过类似事件,我们中的一些人有理由担心各种形式的报复。我们并不是第一个遇到或谈论这些问题的人。”公开信暗指的是Ilya Sutskever离职引发的种种风波。半个月前,OpenAI解散了负责安全问题的“超级对齐”团队,团队负责人和成员——联合创始人兼首席科学家Ilya Sutskever、Jan Leike、Gretchen Krueger 纷纷离职。
据媒体报道,离职的原因是OpenAI在优先保证安全还是优先推出产品上有分歧。Jan Leike在社交平台上的发言直接证明了一点,他披露OpenAI曾直接砍掉“超级对齐”部门的算力资源,部门被边缘化。随后外媒曝光了OpenAI 的离职协议,指出公司禁止离职员工公开批评公司,甚至禁止承认保密协议的存在。
根据美国的《吹哨人保护法》(Whistleblower Protection Act),举报工资违规、歧视、安全和欺诈等问题的员工受到保护,这意味着公司不能用解雇、降职等方式报复举报人。但签署公开信的前员工们称,AI安全风险问题往往不是非法活动,普通的法律保护措施是不够的。他们因此呼吁人工智能公司取消禁止批评的保密协议、建立匿名举报流程,并建设支持公开批评的公司文化。
公开资料显示,谷歌、Meta、亚马逊、微软等公司均有成立专门的内部安全团队,确保公司负责地开发AI系统。目前,OpenAI也已新建了由Sam Altman领导的安全团队,其首要任务是评估OpenAI 的安全流程和政策,由董事会拍板最终方案。不过,安全团队的三位负责人均在董事会任职,因此外界也质疑其能否真正解决安全隐患。OpenAI员工的举报信无疑加深了这一担忧和反思,在没有硬性监管的约束下,仅靠公司的自我约束能不能给予安全问题足够重视?需要打上一个问号。
编辑/樊宏伟