OpenAI前资深员工狠批公司只顾开发“光鲜产品” 漠视安全隐患

撰文: 王海
出版:更新:

OpenAI 的一名前资深研究员莱克(Jan Leike)表示,这家以开发ChatGPT而闻名的公司将开发“光鲜的产品”置于安全之上,并透露他与公司在关键目标上的分歧达到“临界点”后辞职。

作为 OpenAI 超级对齐(Super Alightnment)的前部门联席主管,Jan Leike 是集团旗下在人工智能安全领域关键的研究员,确保强大的人工智慧系统遵循人类的价值观和目标。 他离职的时间点极其微妙,因为下周首尔将举行一场全球人工智能峰会,届时政界人士、专家和技术高管都将在会上讨论对人工智能技术的监管问题。

在这家总部位于三藩市的企业刚推出其最新的人工智能模型 GPT-40 几天后,莱克选择请辞。 他的离职意味著,在OpenAI 联合创办人兼超级对齐部门联席主管苏茨克韦尔( Ilya Sutskever) 辞职后,再有两名资深安全研究人员于本周离职。

莱克在5月17日发布的X帖文中详细说明他离职的原因,他在帖子中表示,有关人工智能安全的企业文化已变得无足轻重。“在过去的几年里,安全文化和工作流程已经让位给光鲜的产品,”他写道。

OpenAI成立的目标是透过人工智慧(公司内部将其描述为“通常比人类更聪明的人工智能系统”)造福全人类。 莱克在他的X贴文中表示,在过去一段时间以来,他一直与 OpenAI的管理层就公司应该优先处理的工作出现分歧,但这个僵局“终于来到临界点”。

莱克表示,在成功开发 Dall-E图像生成器和 Sora 影片生成器的基础上,OpenAI 应该投放更多资源确保下一代人工智能模型的安全、为社会带来正面影响及其保密性和安全性。

他指出:“这些问题很难解决,我担心我们无法实现这一目标。”他补充说,他的团队要进行研究变得“越来越困难”。

“建造比人类更聪明的机器本质上是一项危险的工作。 OpenAI代表全人类肩负著巨大的责任。他强调 OpenAI 必须成为一家安全至上的通用人工智能(AGI,全称 Artificial General Intelligence) 企业。

OpenAI行政总裁尔特曼(Sam Altman) 在X上发文回应莱克的帖文,感谢他的对公司在安全文化方面的贡献。

“他是对的,我们还有很多事情需要做; 我们致力于做到这一点,”他写道。

身兼OpenAI首席科学家的苏茨克韦尔在宣布离职的X贴文中写道,他相信OpenAI 在目前的管理层领导下“将打造出既安全又有益的 AGI”。 在去年11月,苏茨克韦尔最初支持解除奥尔特曼作为OpenAI行政总裁的职务,但在公司内部发生了几天的骚乱后,他又支持让奥尔特曼复职。

就在莱克发出警告之际,一个国际人工智能专家小组发布了首份有关人工智能安全的报告,该报告指出,对于强大的人工智能系统是否能够回避人类控制的可能性存在分歧。 然而,这份报告提出,监管机构可能会因科技的快速进步而变得落后,并警告“科技进步的步伐与监管反应的步伐之间可能存在差距”。