【军备竞赛】得人工智能者得天下 致命自主武器“歼灭者”非空想
电影《未来战士》(Terminator)中,人工智能机器天网(SkyNet)派出“歼灭者”机器人消灭所有幸存的人类。“被造之物”拥有自我意识后,反过来歼灭“造物者”是不少科幻电影的桥段。随科技日益进步,距离人类兑现“自我实现预言”的一日或者愈来愈近。
人工智能(artificial intelligence,AI)科技近年突飞猛进。军事大国也积极开发军用人工智能,不但用来协助人类作出更准确的判断,甚至研制更强大的武器,包括致命自主武器(lethal autonomous weapon)。
俄罗斯总统普京曾形容,得人工智能者得天下。回顾人类军事历史,火药和核武器的发明均掀起重大变革。不少专家也认为,人工智能将会是新时代军备竞赛的重要一环。
人工智能大跃进
现代人工智能的大跃进始于2012年。研究员成功开发“深度学习”(deep learning)技术,利用深度类神经互联网进行学习。自此,人工智能系统开始超越人类,能够辨识人脸、分辨物件、抄录演说甚至玩复杂的游戏。
哲学家米勒(Vincent Müller)和博斯特伦(Nick Bostrom)在2011年至2013年期间进行的研究,访问170名人工智能专家。普遍认为高等机器智能(high-level machine intelligence)有九成机会于2075年前诞生,亦有一半机会于2040年出现。
科学家很清楚人工智能系统的威力,也担心终有一天会研发出“歼灭者”般的自主武器。物理学家霍金(Stephen Hawking)曾警告规管人工智能的重要,形容人工智能有可能是人类文明历史中最坏的事件。Tesla行政总裁马斯克(Elon Musk)亦指,人工智能军备竞赛或成为第三次世界大战的药引。
中美俄分途出击
中国、美国和俄罗斯三大军事势力早已磨拳擦掌。2017年,中国国务院公布《新一代人工智能发展规划》,扬言于2030年前成为世界主要人工智能创新中心。2019年,美国总统特朗普公布《美国人工智能计划》(American AI Initiative),追求国家战略发展。
杂志《外交政策》(Foreign Policy)形容,中国采取的战略最进取,专注发展能够执行战略决策的人工智能。相比起人类,电脑能够处理大量信息,如部队准确的全球定位系统(GPS)位置、无人机和卫星报告。利用人工智能作决策,自然占有军事优势。
美国的策略相对较保守。奥巴马时期的国防部官员发表第三次抵销战略(Third Offset Strategy),提到华府将主力发展“人机合作”,而非制造全自主系统,意味机器将协助人类作出更好的决定。例如利用“电脑视觉”分析影像和锁定目标,协助人类操作无人机。
至于俄罗斯则采取最直截了当的方向,将人工智能应用于军事硬件。俄罗斯战术导弹公司(Tactical Missiles Corporation)已着手开发能够于飞行途中改变航道的自我导航导弹,用来避开防导系统。
“未来战士”指日可待
如同“歼灭者”的杀手机器人又会否出现?随人脸辨识和决策演算法愈来愈成熟,科幻剧情或许会成为现实。
人工智能的威力可谓毋庸置疑。2016年,美国研发的人工智能系统阿尔法(Alpha)于模拟战斗中击败两架战机。代表人类出战的退役空军上校李(Gene Lee)未能击中目标,屡战屡败。他形容,人工智能系统似乎能够洞悉自己的意图,并即时作出反应。
人工智能研究员拉塞尔(Stuart Russell)认为,技术上,自主武器比起自动驾驶汽车更简单。现时,美军已在驻军地区部署大量军事无人机。不过无人机仍由人手操控,决定何时展开攻击。最简单的致命自主武器不会如同“歼灭者”,反而是沿用现有的军事无人机硬件,将人手操纵改为由演算法操纵。
升级版的无人机能够消除传送信息的“时差”,同时能大量部署。演算法可以设定“杀人名单”,攻击特定目标,或者从影片或实战中训练,学习分辨攻击目标。有人提出,由于机械不会感到疲累,因而不会犯错,也因为不带有复仇情绪,所以不会犯下战争罪行,蓄意杀害无辜平民。
“歼灭者”将误入歧途?
如果继续发展致命自主武器,武器最终会变得廉价。现时要购买无人机已经极为容易,随技术改进,价钱也将持续下降。如果有人于战场使用无人机,毫无疑问亦会有部份无人机落入敌方。制造便宜、容易扩散的大规模杀伤性武器,将会反过来被敌方利用。
致命自主武器甚至会成为执行暗杀、种族清洗和种族灭绝的“绝佳工具”。生命未来研究所(Future of Life Institute)通讯总监康恩(Ariel Conn)指,无人机能够将特定种类的人设定成目标,这亦是最直接的应用方式。
由机器完全取代人类上战场,背后仍有极大争议。退役美国陆军游骑兵沙尔(Paul Scharre)忆述自己于阿富汗执行任务时,塔利班恐怖份子派出一名6岁女童报告美军位置。根据战争法,战斗人员没有年轻限制,当时射杀女童亦完全合法,但美军没有如此做,因为他们认为杀害儿童是错误的。换成是按战争法运作机械人的话,也许女童已毙命。沙尔说:“合法的事和正确的事并非必然相同。”
要避免“自我实现”,发展人工智能的过程应该审慎。康恩说:“我们试图避免一场人工智能竞赛。没有人想竞赛,但没有人想不代表不会发生。引发人工智能竞赛的其中一项因素是武器的竞赛。”如果有国家过于注重发展军用人工智能,其他国家也自然跟随,最终或酿成无法挽回的后果。
▼想观看更多俄罗斯阅兵仪式的相片,请点击以下图辑: