【无人车】火车难题或会过时 科技世界将道德外判
驾车走在路上,冷不防冒出一个嶙峋老婆婆,步履不稳。煞车不及,应左转伤及途人,扭右軚与其他车相撞,还是任其向前?千钧一发,老妇可怜,路人无辜,连环相撞可大可小,一切就在转念之间,軚盘前的人无论如何总要下决定。但如果是自动导航,电脑驾驶,又可怎样?
有人或以路上的意外,来说明无人驾驶不可取,但其实此题并非无解。首先,科技可以令路面交通都井然有条,比起现时由司机驾驶或许能避免不少意外。即使真的撞车,我们都可以研发科技,由无线讯号侦测汽车附近有多少人,计算出撞向哪个方位带来的人命伤亡最少。
但即使电脑能够计算伤亡,我们仍然要问,量化而得的决定是否一定最符合道德。情况有如著名的火车难题(Trolley problem),应否为了不撞死一个人,牺牲另外五条无辜性命?甚至如修改版本,应否从推下一名胖子进路轨,煞停火车保住其他人?套用到我们的处境,冲出马路而受伤,责任在老妇,路上其他人不应该受害。
或许我们可以退一步假设,电脑除了计算出人命数字,还可以加入参数,考虑是谁打乱原本的路面秩序,然后作出决定。这种做法固然不无好处,毕竟人在电光石火之间,往往未能“心水清”做出最理性的决定,正如心理学家卡内曼(Daniel Kahneman)在《快思慢想》(Thinking, Fast and Slow)所提醒,我们的直觉判断往往非理性。
但目前仍然有两大个问题未处理。第一,复杂多变的现实世界,未必有一条完美的方程式计算可完全应对。例如,如果车前的人是朋友、父母或情人,电脑的计算又是否仍然最好?又或者为了保住人命,撞向几只猫,是否符合道德?甚至乎,如果汽车计算后要牺牲车上乘客,又有人会乐意吗?再者,即使退一万步说,一切都可以换化成公式作决定,那么应该由谁来决定?政府立法规管,研发自动车的企业,还是车主自己?
于是,我们面对的困境更难拆解。如果每名车主可以自行决定“撞车方程式”,有些人的设定或许不利其他路面使用者,情况未必安全。但如果由政府或企业全都安排,换言之将来出意外,再没有车主要承担道德责任,人人都可以归咎于汽车的程式。
其实就如医院分流,不少都靠科技计算,决定哪个病人优先,谁人排得较后。当社会愈来愈倚重科技,人类要负上的道德责任也愈来愈少。虽然道德问题仍然要争论,但或许早在设定程式之前就有定案,而且由政府或科技专才安排好,其他人只须负责使用,不用再作道德决定。孟子言人之所以异于禽兽者,就在仁义之心,君子存之。西方自柏拉图以降亦重理性,强调人生省思。但今人却随科技发展,反将道德外判,两难取舍都假手于人。
无人车所揭示的,不只是交通意外怎么办,毕竟这向来是科技进步无法避免之处。正如法国哲学家维希留(Paul Virilio)所说,“发明船,就会发明海难;发明飞机,就会发明空难;发明电力,就会发明触电死。”更值得省思的或许是,当社会将所有工作都电脑化之时,人类会否日渐失去其可贵之处,连道德也都一并自动化。
01百科
全球首宗致命车祸
约在1803年,自从英国工程师特里维西克(Richard Trevithick)发明了新型高压蒸气机后,汽车始投入实际应用。而在60多年后的1869年,全世界第一宗汽车事故令女科学家华特(Mary Ward)丧命。在爱尔兰奥法利郡的小镇比尔(Birr),在汽车转弯时,华特被抛出车外而死亡。根据历史画作,当时的汽车没有车顶或车门,外形类似马车。即使当时汽车的平均时速只有十多公里,转弯时的冲力亦足以致命。
首宗无人车车祸
Google无人车的首次车祸发生于今年2月14日情人节,肇事车辆由凌志RX450h改装,在加州山景市(Mountain View)以自动驾驶模式行驶,其间在慢线前进,准备于路口转弯时侦测到路边有沙包,以时速3公里绕过沙包前行,等候切线。当时后方有巴士驶近,但系统与测试司机均判断巴士应会减速或停下让无人车切入中线,故司机没有切换至手动驾驶模式。但估计错误,巴士没有让道而令两车相撞。事件中两车均以低速行驶故无人受伤,车辆亦只是轻微受损。
Google表示车祸中他们明白必须负部分责任,又指此次车祸后会修正无人车系统,加入如巴士等大型车倾向不让路等资料。
你想看更多精彩的深度文章吗?请购买今期《香港01》周报,或点击此处:成为我们的订户。