OpenAI加强内部监管 董事有权否决管理层决定

撰文: 联合早报
出版:更新:

人工智能(AI)聊天机械人程式ChatGPT母公司OpenAI赋予公司董事权利,否决公司领导的决策,以进一步加强开发尖端科技的安全保障。

OpenAI于12月18日发表一系列指引,阐明公司计划如何应对它最强大人工智能(AI)系统可能引起的极端风险。

在指引下,OpenAI只会在确定最新科技的安全性之后才会开始运用。公司也将成立一个顾问团队以审核安全报告,再转交公司高层和董事局。虽然公司领导负责做决策,董事局可推翻决定。

公司在总裁奥尔特曼(Sam Altman)短暂被罢免期间,市场焦点放在这家全球顶尖科技公司的董事局和管理层之间的权利平衡上。

图为OpenAI行政总裁奥尔特曼(Sam Altman)2023年9月13日出席的一个关于人工智能的跨党派论坛,有全体美国参议员出席。论坛由民主党籍的参院多数派领袖舒默(Chuck Schumer)主持。(Reuters)

OpenAI 10月宣布成立“备灾小组”,并会持续评估它的AI系统在网安、化学、核子和生物威胁等4大范畴的表现,同时减低科技可能带来的任何危害。

具体来说,公司检查的是定义为:能造成上亿元经济损失,或导致许多个人受伤害或死亡的“灾难性”风险。

领导公司备灾小组的马德里(Aleksander Madry)告诉彭博社,他的团队会每月提交报告给内部新成立的安全顾问团队,再由奥尔特曼与公司董事局分析团队呈交的建议。

马德里说:“AI本身没有好坏,我们正在塑造它。”

他也希望,其他公司能利用OpenAI的指引来评估旗下AI模型的潜在风险。

4月,一群AI领域的领导和专家签署一份公开信,基于对社会有潜在风险理由,要求停止发展一套比OpenAI的GPT-4更有威力的人工智能系统。

本文获《联合早报》授权转载