王华平|自动驾驶汽车的责任归属问题研究

  尼霍姆认为,一些类型的集体行动,例如遵循“监督–遵从原则”的集体行动,其责任在集体中的某一方。遵循“监督–遵从原则”的集体行动是一个行动者在另一个权威行动者的监管下做出的行动。尽管遵从的一方做了大部分事情,但负责任的是监督的一方。尼霍姆举了个例子来说明这一点:“一个大人与一个小孩一起抢劫银行,主意是大人拿的,大部分‘事情’是拿枪的小孩干的。大人监督着‘搭档’的活动,如果需要,就会介入并对小孩发号施令。”尼霍姆认为,在这个例子中,尽管小孩做了大部分事情,但责任显然在大人。同样,一个乘坐AV的人监督着AV的驾驶,在需要的时候接管或发布不同的驾驶指令。这种情况下,如果有事情发生,责任在监督AV的人。但是,如果事故是由AV功能失常引起,则责任应由制造商承担。总之,AV造成的事故,其责任应该直接由人承担。

  但是,尼霍姆的类比事实上并不成立。首先,AV的反应速度非常快,很多情况下人根本无法介入。人对AV的监控只是诸如开车、停车、关闭系统等非实时监控,它不同于大人对小孩的实时监督。其次,至少在驾驶方面,AV比人做得更好(正因如此,我们才要发展AV)。而大人之所以能够监督小孩,是因为他比小孩更能干。所以,人与AV的关系并非大人与小孩的关系。最后,也是最重要的,人向AV发布驾驶指令是合乎伦理和法律的,而大人命令小孩抢银行既违反了伦理,也违反了法律。所以,不能从抢银行的例子中责任在大人推断出AV事故的责任在监控AV的人。

  实际上,对于自动驾驶这样的集体行动,无论将责任归属给作为集体成员的个体行动者,还是归属给作为集体子集的某一方,都不恰当。自动驾驶是集体行动,集体能动性的不可还原性决定了,责任主体是集体行动者。问题就在于,在目前的社会制度中,我们找不到一个可与自动驾驶集体行动者相匹配的可归属责任的社会组织。正因如此,一些人主张将责任归属给AV的所有者或使用者,另一些人主张将责任归属给AV的制造商,还有人主张将责任归属给AV本身。赫夫尔克和奈达-吕梅林认为,应该通过设立专门保险或对AV收税的方式来落实责任。然而,无论是保险公司还是政府,都与自动驾驶集体行动者相隔甚远,让它们承担责任难以彰显归责的警示意义与纠正作用。

  但是,成立保险公司的想法亦有其可取之处。在当今社会,由公司承担责任是常规操作。公司是法律实体,可签订合同、拥有财产,可发起诉讼和应诉。公司的概念最早可追溯至拜占庭皇帝查士丁尼的统治时期。查士丁尼正式确认了一系列公司实体,包括大学、公司、学院、宗教团体、政治团体等。在很多方面,这些公司实体就像是一个法律上大写的“人”。公司从一开始就被设定为:代人行使权利和承担责任。公司代人承担责任的方式是为它的股东提供有限责任。有限责任意味着股东可以不对合同上约定的公司义务承担责任,也不用为公司对第三方的非故意侵权行为承担责任,因为这些责任由“人的替身”——公司承担。以此观之,公司是天生的责任主体。

  既然AV的责任归属问题源于目前社会上没有一个可与自动驾驶集体行动者相匹配的责任主体,而公司恰是代人行使权利和承担责任的主体,则有必要成立这样一个“AV安全公司”。成立社会组织,从而将抽象的集体行动者具体化,这是我们社会的普遍做法。AV安全公司代表自动驾驶集体行动者,直接对AV的驾驶行为负责。

  AV安全公司应该至少由制造商、拥有者、使用者与AV自身等成员组成。这也是AV安全公司与一般公司不同的地方:一般公司的股东自愿加入公司,而AV安全公司的成员却是被强制加入。这种强制性应该由法律保证,因此,将来需要制定这样的法律:制造商在生产AV前、拥有者在购买AV前、使用者在使用AV前,必须加入AV安全公司;而AV在销售前也必须在一家AV安全公司注册。

  强制成员加入的依据是,其明知自己所参与的行为(即自动驾驶)具有潜在风险,仍然参与其中:拥有者和使用者为了享受AV所带来的便利选择接受AV所带来的风险;制造商为了利润选择将有潜在风险的产品推向市场。既然如此,他们就需为自己的选择所带来的风险承担责任。此外,AV也有责任,因为它是自主行动者,是驾驶行为的直接执行者。因此,AV安全公司必须至少包含以上四类行动者,如此才算得上是合理的归责对象,才可以填补责任空缺。

  此外,AV安全公司还可以解决惩罚空缺问题。在很多国家(包括中国和美国)的民事法律中,公司可以是被惩罚的对象。如果调查发现所有行动者都没有“大错”,那么惩罚就落实并终止于AV安全公司。这个时候,AV安全公司就像保险公司一样,只受经济惩罚。如果调查发现某个行动者,比如程序员,犯了明显错误,那么就应该让他接受惩罚。不管是哪种情况,从法律角度看,关键在于确认谁有过错。

  然而,对自动驾驶来说,这通常不是一件容易的事。自动驾驶是包括设计者、程序员、生产者、拥有者、使用者在内的众多行动者相互作用的结果,在它们之间分配责任存在“多只手难题”。同时,AV涉及多种不同技术,包括软件和硬件,且均对AV的驾驶行为有不同程度的因果贡献,因此在它们之间分配责任又存在“多种东西难题”。要填补惩罚空缺,首先要解决这两个问题。

  AV安全公司的一个重要任务就是为责任分配问题提供一个可行的技术方案。方案大致为:AV安全公司开发一个标准化的安全包,并要求所有AV智能系统都必须接入安全包才能投放市场。安全包应包含一个因果推理模块,可对实际因果关系进行追溯。实际因果关系不同于类型因果关系:前者是由果推因,后者则是由因推果。此外,安全包还应包含一个监测模块,负责记录AV智能系统接收到的所有指令、升级情况以及关键运行数据,并定期对智能系统进行测试。

  AV的定期测试就像普通汽车的年检一样,十分必要。这是因为,具有自主学习能力的智能系统与一般软件系统大不一样。一般软件系统的信息储存在内部网络中,可直接提取出来进行分析。但是,智能系统的信息是以隐性的方式储存在神经网络中,无法直接提取,只能通过应用测试模式激发其输出方式,进而了解其所包含的信息和响应模式。定期测试可以告诉我们智能系统的进化历史和进化水平,再结合AV的关键运行数据,就有可能推断出引发事故的主要原因。

  以上所有数据都应该用区块链技术进行保护,以确保其不会因AV的损坏而丢失、不会被篡改,并且可以追溯。有了这些制度上和技术上的保障,“多只手难题”和“多种东西难题”在多数情况下就能得以解决。

  探讨至此,惩罚空缺问题已可以获得解决。当AV安全公司确定所有行动者都无重大过失时,惩罚落实并终止于AV安全公司。当AV发现某个人类行动者有重大过失时,人类行动者就应该接受惩罚。当AV安全公司确定AV有重大过失,比如它做了一个错误决定,则AV应该接受惩罚。

  那么,如何理解对AV的惩罚呢?这需要我们从“向后看”的视角转换到“向前看”的视角。以“向后看”的视角,把惩罚当作是对过去错误的当然报复,这是一种过时的想法。更为合理的当代看法是,惩罚的目的是让行动者产生将来避免此类行为的动机。因此,应采取“向前看”的视角,对AV的惩罚应该着眼于其未来的响应模式,具体措施包括但不限于降速、强制学习、销毁等。AV安全公司应该开发相关技术来保证这些措施得以有效执行。