各国抢着举行人工智能峰会 英美G7与联合国的AI计划有何不同?
人工智能(AI)发展一日千里,除了英国,美国、七国集团(G7)及联合国近日都就发展AI举行会议,讨论发展、订立规则、设置框架及控制风险。这多场会议有什么不同?多国对AI发展将采取什么样的准备方向?
G7的广岛AI进程
10月30日,七国集团(G7)领导人开展了名为广岛AI进程(Hiroshima AI Process)的计划。计划旨在安全管理人工智能的发展,发挥AI的潜力,同时管控风险。
G7将引入国际指导原则和行为准则,供开发先进人工智能系统的组织参考,并计划在年底前制订一份详细计划,纳入各国与组织的意见,包括政府、学校和企业,确保大家了解人工智能系统的能力和限制。
G7特别提及要采取强有力的安全措施,保护数据的安全,同时帮助用户识别人工智能生成内容的方法,例如要求在AI生成的作品上加上水印。
联合国建立咨询框架
在G7推出广岛计划前,10月26日联合国亦宣布成立一个名为人工智能咨询机构(AI Advisory Framework)的部门。该咨询部门旨在采讨负责任地利用AI解决全球问题,并确保包括发展中国家亦能使用AI技术。
联合国新的AI倡议焦点在于利用AI协助应对气候变化等全球挑战,寻找在公共卫生和教育等重要领域中利用AI的方法,以加快实现可持续发展目标。
联合国亦提出需研究并应对人工智能可能带来的危险,包括错误资讯和侵犯私隐,呼吁开始全球讨论如何有效使用AI,以获得最大的效益同时减少风险。
美国AI治理行政命令
除了G7及联合国的国际组织外,个别国家也希望成为制订AI管理的领导者。美国总统拜登(Joe Biden)签署了AI治理行政命令,为管理AI风险建立框架,要求主要的AI开发者在发布前与政府分享关键信息。
这项命令是关于美国在AI的法规之一,旨在为使用AI安全设下标准,减少风险,同时确保各个领域可负责任地使用AI。
法规的内容主要包括要求企业公开对先进AI系统进行安全测试的结果,对存在的风险的模型进行广泛测试,并制订一个利用AI识别软件漏洞的网络安全计划。
英国AI安全峰会
英国在11月1日至2日举行AI安全峰会,峰会邀请了学术界、业界和各国政府参与,中国也包括在内。
峰会探讨AI安全的关键问题,特别是被称为前沿AI的最先进通用AI模型。这主要包括了大型语言模型(LLMs),及其他支持前沿AI的系统。
讨论涵盖了广泛的主题,包括使用AI的道德规范,防止滥用,及使用前沿AI的快速扩展和不可预测所带来的风险。会议特别讨论了开发非常先进的AI可能带来失控,对人类产生的风险。
因此峰会讨论了国家制定政策,包括监测和问责机制,确定国际合作的领域,以管理前沿AI的风险并实现机遇,善用先进AI为后代带来好处。