Tesla 自驾系统存七大安全隐患 “公开测试”做法惹争议
上周曝光的全球首宗无人车致命交通意外,揭示了无人驾驶技术仍处于开发阶段,仍须改进。其实除了今次造成致命交通意外的猛烈阳光外,自驾系统还存在七大安全隐患。另外,涉事的Tesla Model S自驾系统现时仍属公开测试阶段(Public Beta Phase),该公司的做法惹起外界批评,苹果创办人之一沃兹尼亚克 (Steve Wozniak)质疑:“公开测试不应有这种生与死的后果。”
Tesla 自驾系统用摄录镜头及雷达同时探测及避开障碍物,今次意外证明这个双重功能有机会同时失效。不仅阳光有机会令自驾系统出现问题,以下几类日常的情况同样会暴露出它的缺陷:
1. 感应系统的融合问题
当无人车上众多的感应器传递各种可能自相矛盾的信息,会令自驾系统无所适从。自驾系统如何确定应该采纳哪一个感应器的数据作出最终决定?这将是无人车生产商最大的问题需要处理。
2. 多变的路面工程
2015年4月,无人车生产商Delphi派出无人车横越美国3400公里,但当中50公里需由工程师负责操控,原因是因为市区内多变的路面情况,如未划线的行车路及大型道路工程,但这些情况在城市中颇为常见。
3. 估计错误
Google 无人车在今年2月,曾于美国加州山景城 (Mountain View) 发生意外,与一辆巴士相撞。当时无人车正尝试绕过一堆沙包,车的左前方撞到正在爬头的巴士侧。无人车当时有探测到巴士,但估计它不会爬头,当时坐在司机位的测试人员作出了相同的判断。Google 事后表示:“不幸地,这些所有的假设会导致我们在路面相撞,这种误会每天都会发生在人类驾驶者身上。”
4. 恶劣天气
恶劣天气对驾驶者及无人车的感应系统造成能见度的问题,雨水会阻碍车上的摄录镜头及构成引起混乱的反射和强光,令雷射感应器误判距离及减低准确性。
5. 黑客
配备高科技的无人车意味更容易受到黑客攻击,有安全专家曾测试 Lidar 感应系统,发现它容易遭受不存在的障碍物欺骗,如单靠一支手提雷射笔,就可以迫使无人车减慢、停低甚至转弯。
6. 轻信的人类
九成的交通事故都是由人类错误而造成,同样亦可以是自驾系统最弱一环,尤其是一项被标签为“自动驾驶”的功能,鼓励用家对无人车予以信任。美国汽车研究中心 (Center for Automotive Research) 的Richard Wallace批评:“无人车公司太早鼓励司机放弃控操权,但他们根本未准备好接手。”
7. 其他驾驶者
美国密歇根州大学 (University of Michigan) 的一项研究指出,无人车的意外比率是一般汽车的两倍。但很多时候无人车都是被撞的一方,原因是一般司机不习惯无人车拘泥于交通规则的驾驶方式。Google亦因此著手设计更人性化的驾驶方式,如在十字路口缓慢前进来表示将会移动。
人命悠关 “公开测试是恶梦”
归根究底,今次致命车祸最为人垢病的是矽谷 (Silicon Valley) 一种根深柢固的文化习惯,即所谓“公开测试”变试变改的做法。科技界深信“失败乃成功之母”,但有批评者指出,车祸随时可以致命,自动驾驶系统必须先通过全面安全测试,才应拿出来让人们使用,“变试变改”的做法,是拿人命来赌博。就在上周公布调查Tesla致命车祸后数天,第二宗Tesla相撞意外再次发生。美国一名美术馆总监Albert Scaglione 及艺术家女婿 Tim Yane,乘坐Tesla Model X座驾,以自驾模式驶经宾夕法尼亚州收费公路时出事翻侧,幸未有造成严重受伤。
Tesla的自驾系统自2014年10月开始,经已安装在70,000部汽车上,但目前仍属公开测试阶段。软件的公开测试是科技界一贯的惯常做法,尤其是协助手机程式软件解决瑕疵故障问题。此一矽谷文化,让产品能尽快到达客户的手上,之后根据客户的反应对产品进行监控及改进。
德国杜伊斯堡 - 埃森大学 (University of Duisburg-Essen) 汽车研究中心主管 Ferdinand Dudenhöffer 认为情况不能接受,他说:“汽车并不是玩具,推出具安全隐患的公开测试软件不是一间关心人类生命的企业应有的做法,单单贴上注明“顾客有责任”标签的做法简直是个恶梦。”
他强调:“传统汽车生产商绝不会在未经全面测试就推出产品,当涉及任何汽车安全的情况,让顾客公开测试是一个差劲的主意。”
(卫报)