算法出错了,应该谁来背锅?
转载来源: https://github.com/liuyubobobo 更新时间:2019-09-24 15:33:29 一个人追求的目标越高,他的才力就发展得越快,对社会就越有益。 ——高尔基 1. 2018 年 3 月,Uber 的一辆无人驾驶汽车在夜晚行驶时,撞到了一个行人。受害者被迅速送往医院,但依旧抢救无效死亡[1]。 警察很快公布了在 Uber 无人驾驶车中的监控录像。当时道路非常黑暗,能见度很低。受害者推着一辆自行车横穿马路。当车灯打在受害者身上时,已经来不及了。悲剧就这样发生了。 无论是警察还是法院,得出的结论一致认为,受害者出现在车前方太过突然,加上当时是夜间,不管是使用无人驾驶还是人工驾驶,都很难避免这场悲剧。 事件发生以后,优步马上暂停了他们的无人驾驶测试。同时,解雇了近 100 名自动驾驶的安全监控人员。 什么是自动驾驶的安全监控人员?现如今,自动驾驶技术刚刚起步。为了应付突发情况,所有自动驾驶车辆的驾驶舱中,都必须配备安全监控人员。在自动驾驶算法出现错误,或者出现算法无法应对的状况时,迅速转为人工手动处理。 发生事故时,优步的无人驾驶车辆中也有安全监控人员(必须有,这是法律的要求)。至今为止,整个事件已经过去1年多的时间了。最终,法院裁决,对于这起事故,优步并不承担任何责任。 但是,整个事件并没有结束。警方认为,当时,无人驾驶车中的安全监控人员可能是负有责任的。整个案件还在继续审理中。 2. 无独有偶,同样是在 2018 年 3 月,特斯拉也发生了一起悲剧。一辆处在无人驾驶状态(autopilot)的特斯拉汽车,在高速公路上直接撞向了护栏,导致车主死亡[2]。 据调查显示,在事故发生前 8 秒的时候,这辆特斯拉一直以 65 迈的速度,紧紧跟随一辆前车行驶。但是在碰撞发生前 4 秒,这辆特斯拉突然提速至 71 迈,并直接撞向了高速公路旁的护栏。由于速度过快,整辆特斯拉直接解体,还引发了大火。 据调查,这辆特斯拉所撞向的护栏,并不是它本来的样子。由于同样的地点在之前发生过另外一起事故,所以警方暂时使用路障将这个护栏标识了出来,如下图所示:左边是 Google 街景显示的这段护栏平时的状态;右边是发生事故时护栏的样子。 图片来源:ABC 新闻网 几乎所有的工程师都认为,是护栏的样子发生了改变,导致了这场事...