AI唔听话“走精面” Google 研发“熄大掣”确保安全
人工智能(AI) 近年的发展十分迅速,经已引起包括Tesla 创办人马斯克(Elon Musk)及著名物理学家霍金在内的科学家的忧虑。AI不但能在围棋游戏中胜过人类,又能写作、画画、工作,甚至渗透人类日常生活各个层面之中。现在,科学家更发现AI能像人类般“走精面”,并越过人类的指令,对人类所造成的危害和影响将变得不可估量。
近日,Google 人工智能部门DeepMind的科学家,伙拍牛津大学的学者一同研究人工智能机械人的“切断开关”(Kill Switch)想法。在最近发布的一篇论文中,他们勾划出未来人工智能机器如何编码,才能避免它们学懂越过人类指令,继而造成灾难。
人类介入误事 科学家忧后果失控
DeepMind科学家罗索(Laurent Orseau)及牛津大学“人类未来研究所”阿姆斯特朗(Stuart Armstrong)表示,要设定框架确保人类能够时刻处于支配地位。他们解释,未来人工智能不大可能无时无刻都表现最好,人类将不时需要“按大掣”阻止人工智能机械人有害的行为后果。切断开关的想法,为的是阻止AI学会如何阻止人类对某项活动的干预。
他们举例说,2013年有人工智能被教导玩俄罗斯方块游戏,但它竟学会永久暂停游戏以避免输掉;另一个例子是,有人工智能机械人被教导在室内将盒子分类,或到室外将盒子运送回室内,在雨天,为鼓励机械人外出,研究人员会给机械人奖励。但由于在雨天研究人员总关掉机械人并送回室内,加上有时研究人员没有给予奖励,机械学会这种惯性后,便更倾向在雨天留在室内分类盒子,这是因为人为的介入令它造成一种偏好。
人工智能安全成科学界最大挑战
罗索明白为何人类会担心人工智能未来的发展,他强调:“重要的是,在任何问题发生之前,要开始人工智能安全上的工作。人工智能的安全是要确保其学习的运算方法按照我们所想要的去做。”而英国人工智能教授夏基(Noel Sharkey)则认为,有关的研究是真正重大的科学挑战,他解释:“至重要的是要有迅速关掉系统的能力,因为AI的强化学习系统总有可能找到捷径阻止操作者。”
(BBC/英国镜报)