英国首届AI安全峰会 多间开发商同意与政府测试模型
撰文: 张颢庭
出版:更新:
英国11月1至2日举行首届人工智能(AI)安全峰会,并发表《布莱奇利宣言》(Bletchley Declaration)。多间AI开发商同意在发布新模型前,先同政府合作测试,协助管理AI技术急速发展所造成的风险。
路透社3日引述英国首相苏纳克(Rishi Sunak)称,峰会宣言及进行测试、建立国际风险小组的承诺,将“令天秤向有利人类的一方倾斜”。
苏纳克指,美国、欧盟和其他志同道合国家已与一些处于AI工作前沿的公司达成一项具里程碑意义的协议,原则上模型在部署前后,均须经过严格评估。
他表示,至今仅有开发公司对自己的新AI模型进行安全性测试,各国不应依赖他们“自行批改作业”。
Elon Musk见苏纳克 欢迎中国参与AI安全峰会第一届人工智能安全峰会发布《布莱奇利宣言》各国抢着举行人工智能峰会 英美G7与联合国的AI计划有何不同?全球AI峰会通过布莱奇利宣言 英美中28国同意加强合作减风险