#阿爷网友评论
聊一聊:为什么我觉得 #无人驾驶 无法实现商用
未免后面出现互撕的情况,首先做好定义:
无人驾驶------指的是高自由度的L4级别和L5级别的完全无人驾驶;
无法实现------指的是在一段较长的时间内,若干年。如果要非要具体,那就先预计5年内;
这是一篇应该6年前就写的文章。以前苦于没有平台能谈论严肃题目,或者有字数限制。今天终于可以在六度世界写一下6年前就有的思考。其实在这6年间,已经不断地向身边的朋友讲过这个题目。
无人驾驶(或者叫自动驾驶),简单来说就是完全不需要人类干预的自动驾驶系统。这一直是吸引大家眼球的科技,也是很多商用汽车的卖点。但其实很多消费者也从来没整明白什么是自动驾驶。以为能自动控制方向盘就是自动驾驶,以为特斯拉发布个更新,从A点到B点能自己导航过去就是自动驾驶。其实,L4以下的都叫做先进辅助驾驶(ADAS: Advanced Driver Assistance Systems)。L0-L5级别的定义可参考下图:
而现在全世界主要国家中,除了中国的威马汽车发布了一款L4级自动驾驶汽车之外,其它国家还没有获批准的L4级汽车上路。目前:
德国已批准L4的自动驾驶系统上路,在有限的环境下,可实现完全自动驾驶;
日本,将于2023年批准L4级别的车辆在一定限制环境下上路行驶。预计2025年将允许L4级别车辆在高速公路行驶。丰田在其建立的Woven City内试验L4级别车辆,但目前没有商用车型发布。而目前,日本最高级别的商用辅助驾驶车辆为L3级别的本田Honda SENSING Elite;
美国,预计2025年批准L4级别车辆在高速公路行驶;
中国,已在深圳订立了关于自动驾驶的相关法规《深圳经济特区智能网联汽车管理条例》,允许L4级别车辆上路。但由于目前法规内容较为粗糙,适用范围非常有限,也属于商用测试性质。
自动驾驶,很明显是一个完全技术性的概念,一个人工智能的概念,一个传感器的概念。
其实自动驾驶技术,我也愿意聊,因为AI技术从Expert System开始,进化到Neural Network,直到现在AI。而我大学专业,就是包含这些早期学科。比如自动导航(最短路径算法),都是以前大学的作业。
但今天我们不需要讲技术,因为,自动驾驶的商用,不是科学问题,而是一个法律问题。
由于多年职业原因,我们对于任何新项目、新科技的风险,风险造成的法律后果,都非常执着。在没有完善的法律解决办法之前,基本不会对相关项目给与正面看法。可这时候来了马斯克,把自动驾驶吹成了人类即将实现的技术,他口中的特斯拉自动驾驶车辆很快就能驰骋在世界各地。
这时就让我们很疑问,自动驾驶可以实现,但电脑总是会出错的。万一造成人类伤亡,责任是谁的?如何追责?
大多数人会认为,责任当然是商家的,车厂的,谁出产的车,就是谁的责任。可以是谷歌的,可以是丰田的,也可以是特斯拉的。但是,企业只能以赔偿金钱的方式承担法律责任,如果涉及直接的伤亡,造成刑事纠纷,那谁来承担呢?当然,企业作为刑事案件的被告人,如果被定罪,也可以惩罚高管。比如2012年美国政府诉多家LCD屏厂价格操控,结果除罚款之外,台湾AUO的两位高管也被定罪入狱服刑。
但是问题来了,汽车不比其它产品,成千上万的数量在街上跑,交通事故也是天文数字的,其中涉及刑事级别的,也会是数量惊人,难道都要惩罚高管?哪儿有那么多高管可以去坐牢?
因此,自动驾驶的问题来。在大自由度的L4和L5级别的全自动驾驶环境下,人类是不需要干预驾驶的,而自动驾驶系统,即车辆本身是驾驶行为的最终决策人。那么在系统自行决策的情况下,发生了伤亡事故,应该由谁承担法律责任?
或者我们再把场景定细一些,由于自动驾驶车辆A的决定(事故被执法部门判定为A车辆全责),造成车内乘客或车外的人类(路人或其它车辆的乘客)死亡,这个刑事责任该由谁来负?
责任已明确,是A车本身的责任。问题就在于谁来为A车承担造成死亡的刑事责任。
情况1:如上面谈到的,A车生产商的高管承担刑事责任,入狱服刑。当然可以,但是上面也谈到了,如果出现10次同类事故,100次同类事故,公司有足够的高管捐出来服刑吗?显然这个方式没有可行性;
情况2:惩罚车辆,作为智能机器,做出了导致人类死亡的决策,因此对其报废销毁。这样做可以吗?当然可以,但要修改法律,因为目前人类法律的刑事惩罚对象都是人类本身。
这里说的两种情况,实际上想指出我们在自动驾驶上讲遇到两个人类尚未遇到的法律问题:
问题1、**人类首次将人类生命的决策权完全,请注意,是完全交给机器。**而该类机器是可以直接导致人类丧失生命的。这在以前都是没有出现过的。很多全自动的机床设备,都是强制需要人类最终干预。飞机的自动飞行系统,它的mandate也强制需要人类最终干预操作决策。因此,造成伤害的责任由人类本身承担。100%归咎于机械故障的事故也存在,但这与自动驾驶不同,那是硬件问题,硬件涉及人类的错误,不属于“自动”的概念。这里讨论的是自动驾驶系统,软件方面。飞机的自动飞行系统要求人类需要最终干预,而汽车的自动驾驶系统是完全不需要人类最终干预。因此,人类坐进汽车的一刻,就已经把生命的操控权交给了智能系统。因此,上述A车辆的情况下(假设硬件完好),造成人类的生命丧失,则自动驾驶系统是唯一刑事责任方;
问题2、如果上述情况出现,而自动驾驶车辆就成为承担刑事责任的一方。而我们在上面已论证以高管惩罚的形式无法长久操作。那我们是是否要考虑惩罚自动驾驶车辆本身?如上面的情况2。那么我们又将遇到第二个人类首次出现的问题,刑事处罚的主题为非人类。我们想过类似的案例,比如人类的宠物造成其他人类死亡(猫狗咬死其他人),那猫狗面临人道毁灭,猫狗的主人承担一部分民事责任。但主人对猫狗有看管的义务,而自动驾驶系统是完全自主的(尤其是L5),没有任何“看管”或“monitoring”可言。每一个决策都是由个体车辆的系统自行做出,因此可以说是完全独立的。因此,这与宠物的案例也不一定。所以,这是人类首次面临,是否要将非人类作为完全承担刑事责任的对象。而这,是一个人类重大的伦理问题。如果说问题1,人类还可以草草立法认定,允许人类生命的决策权在搭乘车辆的时间里完全交给系统与机器。但问题2,是人类很难跨越的伦理问题,人类如果将智能机器作为惩罚对象,那以后会出现无数的衍生案例,比如人类自己制造一个智能机器,专门做坏事,而造成的责任由机器本身承担,人类逍遥法外。更重要的是,这一步跨越,意味着人类宝贵的生命,与可以被无限制造的机器被列为同一等级。这是人类能接受的伦理吗?我没有答案,目前也没看到任何人有答案。
当然,有很多法律不健全的国家,会有先行先试的情况。比如中国,可能会率先允许高自由度的L4与L5,而发生伤亡事故就以赔钱了事,重一些的就高管受罚。但这不是法治国家的正常过程。法治国家在这个问题上需要辩论,需要立法,需要无先例可循的案例(case of first impression)。而这个人类首次的伦理问题,可能在辩论阶段,就无法进行下去。
当然,关于更细一些的伦理问题,比如,出现紧急情况,系统应该首要保护车内乘客还是保护车外人类?我记得前几天李其博士在节目中提了一下,《科学家》的节目里访问的学者有谈及这样的问题。回头抽时间看一下。但这在技术上和伦理上还是有可能解决的,毕竟车内车外都是人类还没有重大伦理区别。也就是那个经典的铁路扳手的难题,扳这边死N个孩子,扳那边死1个孩子。类似这样的伦理难题,但毕竟还是人类和人类,实在不成就人类自己负刑责。
但在上述两个问题,伦理在于:人类的生命是否完全交予机器?机器是否可以单独承担人类伤亡的刑事责任?
我觉得这才是自动驾驶面临的最大难题,which,我认为在很长的时间里,人类无法解决这个伦理问题。也就无法在法律上可行。
科学技术,从来不是人类的难题。人类社会的每次迈进都由科学技术实现。可人类跨越不了的,是人类本身。人类制造了无数种杀人的武器,改变了人类社会。但对生命宝贵的珍视,是人类从来没有改变的。每一次人类的死亡,都伴随着长时间的法律辩论,来决定由谁来负责每一次的死亡。如果人类的死亡,由没有生命的机器来承担,那人类的生命还重要吗?
本文也希望打开大家的思考,欢迎大家提出自己的思考。
文中引用的信息资料链接如下: