选粹 | 郑玉双:法教义学如何应对科技挑战?——以自动驾驶汽车为例

  

  

  来源

  2022年第12辑(2022年第2辑)

  作者简介

  

  # 郑玉双

  中国政法大学副教授,法学博士;兼任中国法学会法理学研究会理事,普林斯顿大学詹姆斯·麦迪逊协会(James Madison Society)会员等。先后在《中国法学》《政法论坛》等期刊发表论文三十余篇;代表译作有《合法性》《法律简义》等。主要研究领域为法哲学、政治哲学、新兴科技法理等。

  引用格式参考:郑玉双:《法教义学如何应对科技挑战?——以自动驾驶汽车为例》,《法理——法哲学、法学方法论与人工智能》2022年第8卷第2辑,第45-64页。

  #

  摘要

  智能技术等新兴科技形态带来巨大的法律挑战,法教义学在应对这种挑战时存在理论供给上的不足。以自动驾驶汽车为例,法教义学需要面对自动驾驶所引发的电车难题和归责困境。通过对自动驾驶的伦理抉择难题和电车难题之间的差异做出区分,可知自动驾驶汽车对法教义学的挑战体现在自动驾驶算法的道德决策意义和归责难题上。道义论和功利主义算法无法解决这些困境,通过最大化最小值算法的引入和算法正义视角的融合可以破解这一难题,充分释放法教义学在应对科技挑战上的潜力。

  

  引 言

  新兴科技的发展带来了社会结构的剧烈转型,也给法律实践和法学研究带来巨大挑战。伴随着人工智能技术落地和不断推广,其应用领域不断拓展,所引发的法律问题也日益增多。在这些问题中,一部分是由人工智能技术所产生的经济关系变革而引发的,比如个人信息保护的法律挑战,使用机器学习或算法的商业平台借助于人工智能技术提供更好的商品服务,但也凭借技术优势而轻而易举地获取大量用户信息。另外一些问题体现在人工智能技术规制问题上。显然,新兴科技不同于传统技术形式。如果说汽车或计算机带来的是社会实践模式之改变的话,人工智能等新兴科技带来的则是社会实践的内在结构和价值基础的重构。对人工智能的法律规制应当不同于传统规制模式。然而,这种不同应落脚在何处,目前在理论上仍然存在诸多待澄清之处。其中迫切需要回应的一个问题是,新兴科技所催生的规制理论如何面对法教义学的经典结构和议题。

  在既有研究之中,科技规制和科技所引发的教义学难题常常被作为两个不同的问题而处理。然而,从自动驾驶汽车所引发的特殊困境来看,区分规制难题和教义学困境是行不通的。自动驾驶汽车是人工智能技术应用的巅峰,也是考验法律制度应对科技挑战之能力的试验场。学界对自动驾驶汽车技术的法律规制和教义学应对通常是分别展开讨论的,由此引发很多难题。规制理论重点关注自动驾驶汽车技术的运行条件和技术标准,却无法充分应对自动驾驶技术所带来的伦理挑战,比如自动驾驶汽车是否具有主体地位,以及作为决策之核心的自动驾驶算法是否应承担责任等。而从法教义学的视角来看,传统上关于法律主体的地位、法律责任的构成要件等原理在人工智能的现实应用上有些捉襟见肘。自动驾驶汽车会遭遇电车难题,这给法教义学带来严峻挑战。伦理学中的电车难题探讨寻求的是理想情境下的最好方案,但自动驾驶汽车会在真实驾驶场景中遇到各种不同版本的电车难题,引发不同形式的归责困境。寻求高度稳定性的法教义学只能针对自然人在驾驶中因故意或过失而引发的事故责任,对于预先设计的自主运行算法在电车困境中的抉择,法教义学并无太多现成资源可以利用。法教义学无力面对这种挑战吗?本文以自动驾驶汽车的法律挑战为例,探讨法教义学在应对自动驾驶的技术革命上所面对的难题及突破之路。

  

  一、自动驾驶与电车难题

  自动驾驶是智能时代的产物,其发展基础在于人工智能技术的革命性进展和数据计算能力的提升,人机协作成为可能,机器决策部分地替代人类决策。随着人工智能越来越多地参与到社会生活之中,相应的伦理挑战不断出现,自动驾驶技术尤甚。对自动驾驶之伦理分析通常聚焦于两个方面:一是自动驾驶是否改变人们的伦理思考方式,二是自动驾驶过程中如何应对电车难题这种棘手困境。

  (一)自动驾驶的伦理判断

  对自动驾驶所引发的伦理变革的剖析,应当在社会计算化的语境之下开展,由此必须回答两个前提性问题:第一,人机互动的社会模式是否改变了人类道德推理的基本原则和方式?第二,无人驾驶的社会应用中出现的道德疑难,是否存在着确切的解决方案?

  第一个问题涉及到对人工智能的价值判断问题。随着人工智能应用场景的不断扩展,人工智能对人类生活的塑造效应越来越强烈,以算法为内在驱动的机器学习在诸多社会领域替代了人类决策,以更为客观和高效地方式促进人类社会的合作和发展。然而,人工智能的应用模式不同于传统科技方式,而是对人类互动和实践方式的全新构造,“渗入我们的身体、思想和社会交往,改变我们与其他人和非人的关系”。

  对新兴技术如何影响现代社会生活的反思,不应仅仅局限于技术的利弊和技术所产生的收益,而是看技术与人类生活的整全性架构之间是否能够协调一致。这个架构围绕着人类生活所追求的基本价值展开。生命是一项基本价值,如果某种新兴技术对人的生命构成威胁,那么这种技术就失去了发展的正当性基础。整全性架构也包含着人类应对技术发展之弊端的调适性方案。现代技术发展和应用历程表明,没有任何一种科技是完美的。人类在享受科技所带来的福祉的同时,也需要与科技的消极后果进行抗争。例如,互联网的出现大大提升了生产能力,但也产生了复杂的互联网治理难题,并引发法律观念和关系的变革。由于人工智能对社会实践的价值体系造成巨大冲击,改变了技术嵌入人类生活的架构,因此其价值问题引发前所未有的关注。

  第二个问题触及自动驾驶技术所引发的独特伦理困境。自动驾驶技术的核心虽然体现为汽车内置算法的计算和操控,但自动驾驶是一个全景式的智能技术应用平台,通过环境感知、数据处理、算法决策和机器执行完成路面行驶的任务。因此,自动驾驶是一个技术应用的社会化过程。在这个过程中,技术当然是驾驶任务是否能够成功完成的关键要素,但其社会意义却是这种高级别的人机协作是否与我们的伦理实践相调和,“根本就是一个道德问题”。在人机协作模式下,人们的推理方式发生变化,传统驾驶模式以保障驾驶员和行人安全为主要目标,驾驶的道德要求是在尊重生命和避免危害的前提下提高交通效率。自动驾驶模式则以机器为推理起点,通过智能联动和多主体参与保障驾驶安全,因此安全的内涵也发生变化。因此,技术应用的道德评价语境出现了改变。自动驾驶汽车要做到比人类驾驶更为安全,则不仅需要自动驾驶汽车在技术上更为先进和可靠,同时也需要它们能够具有伦理感,而将这种伦理感转化为算法是非常困难的一项任务。人们不只是关心算法能否像人类心灵一样做出合理判断和决定,以及在算法出现计算失误或者不得不产生碰撞时应当如何进行责任分配。

  现代法律实践关于某种行为的伦理判断和法律评价之界分已经形成了较为稳定的认识框架。故意损害他人财产通常在道德上是错误的,也会受到法律的追责。如果这种损害是不可避免的,比如为了救灾或者挽救他人生命,则行为人在法律上可以豁免相关责任。自动驾驶所引发的伦理评价方式的变革,打破了这一相对稳定的格局。如果行为人因其行为过错而受到惩罚是正义之要求,那么在自动化机器产生损害的情形中,正义的实现就会变得格外复杂,比如自动化武器所产生的伤亡问题。汽车驾驶是一种规则指引下的交通互动,也具有潜在的致命威胁。传统驾驶员在突如其来的行人、迎面而来的失控车辆面前需要紧急避让,因此会产生无法预见的额外损害。当自动驾驶汽车在面临类似情境时,很多学者主张自动驾驶汽车进入了电车难题困境,即自动驾驶算法必须在不同的碰撞选项中进行选择。汽车面对的碰撞情形要更为复杂,比如在碰撞时应该优先保护乘客还是路人,或者如果汽车不得不撞向路人,应该撞向孩子还是老人等。真实情境可以被看作是复杂化的电车难题,因此很多学者主张自动驾驶的伦理判断必须首先解决电车难题,否则其正当性存疑,更无法在法律上确立其规范基础。

  (二)自动驾驶面临电车难题吗?

  电车难题是伦理学中的经典问题,也是检验特定伦理学说的试金石。在电车情境下,一辆失控的电车要么撞向施工的五个工人,要么撞向另一条轨道的路人以避免五个工人的死亡。电车司机、旁观者以不同的身份面临着如何做出正确选择的困境。伦理学家以道义论或功利计算方式为撞向五人或者路人的不同选择进行辩护,并设想了更为复杂的一些情形来检验各种学说的合理性,比如五名工人和路人所在的轨道在终端相连,或者旁观者只能引爆一个炸弹才能阻止电车,但可能会殃及一个无辜路人。这其中的差异在于,“对某人或某些人造成伤害的不同方式,也意味着获致其他人不被伤害这一善好结果的不同方式”。

  本文无法就电车难题的丰富讨论进行全面梳理,而是将重点放在自动驾驶的碰撞难题和电车难题的类比之上。一些论者认为电车难题误导了自动驾驶伦理的讨论方向。电车难题尽管是在一种非常受限的情境设置中检验伦理学说的合理性,但其背后的原理在医疗、驾驶和公共危机中都有所体现。但同时,电车难题的讨论并未给自动驾驶算法的介入预留充足空间,而算法对社会实践方式的革命性冲击可能会改变人们进行道德推理的方式。当碰撞由人为设计的算法做出时,人们关心的不只是哪一选项在伦理上更能得到辩护,而是算法能不能应对这种道德困境。自动驾驶汽车在三个方面与电车难题存在不同。

  第一,自动驾驶汽车是通过编程来预先设计车辆应该如何应对事故场景。在碰撞情形下,自动车的决策是对预先决策的执行。而在电车情境下,个体(司机或者旁观者)面临着是否扳动铁轨,让五个人被撞还是一个人被撞的即时性困境。这个决策是需要瞬间做出的,而且是基于应救五人还是一人的临时性的道德判断。当然,反对者可以主张说,电车难题这个思想实验同样也是对人们可能面对的类似情境进行预先探讨,通过伦理论辩确立哪一种方案是符合道德的。然而,即使我们可以通过道德论辩预先确定一种合理的选择(比如旁观者扳动铁轨,使电车撞向无辜的路人),二者之间仍然存在较大差异。碰撞算法是面向风险的计算化伦理方案,通过对碰撞概率的计算和碰撞场景的预先设计来实现最优的碰撞选择。即使是探究电车难题的代表性哲学家卡姆也认为,只有在自动驾驶汽车需要为自身所导致的威胁进行编程时,标准电车难题中的杀死一人救其他人的可行性才具有相关意义。

  第二,电车难题是在假想的两难情境中检验哪一种伦理主张能够更具有说服力,对电车司机或旁观者的艰难选择进行伦理对与错的判断,目的在于让人们形成关于道德责任的更深理解,但无需涉及法律责任问题。自动驾驶汽车的碰撞算法设计既要考虑自动车设计者和拥有者的道德责任,也要为碰撞结果的法律责任确立基础。尽管碰撞算法也需要合理的道德责任原则指导,并且同样也需要理想理论模型的支持,但其目的在于为自动驾驶中的风险预防和事故处理划定基本原则,并提供法律归责的基础。

  第三,电车难题解决的问题是,在确定的事实面前,个体的决策应当如何进行道德评价。电车事故是不可避免的,当事人需要进行生命权衡。在自动驾驶中,碰撞算法的设计者需要计算碰撞发生的系数和概率、不确定状态下潜在的受害者状况。虽然碰撞算法的设计者会尽可能地综合考虑各种数据,但自动驾驶汽车的运行状态是复杂的,不可能被完全数据化。因此,电车难题是在理想情境下检验道德理论的可行性,而自动驾驶的伦理困境则是在面向不确定风险处境的算法设计之中,如何构想一种满足正义要求的社会参与模式与风险控制机制。

  但毫无疑问,电车难题对于理解自动驾驶中的碰撞选择依然具有启示意义。我们在确立电车难题中各方主体(电车司机、旁观者)如何做出正确选择的过程中,最终的目标是寻找道德对与错的根本原则。电车难题反映了人类道德实践确立对错标准和行为模式的艰难程度,以及人们在道德问题上的巨大分歧。尽管我们对撞向五个人还是撞向一个人来救五个人的抉择难以形成定论,对这个难题的伦理学反思能够对自动驾驶的道德设计产生裨益,特别是在政策和立法容易受到工业导向的伦理观所影响和制约的情况下尤为必要。

  首先,电车难题表明,人们的道德实践呈现出原则指引与具体道德情境的紧张关系。在电车难题中,人的生命的至上性毫无疑问是应当坚持的,但电车困境使得我们必须在撞死五个人和一个人之间进行选择。选择的主体,比如电车司机还是旁观者,会产生实质的道德差异。存在着其他的复杂情形,重塑着不同主体之选择的道德意义。比如轨道旁边的一个胖子出现,将胖子推向轨道可以阻止失控电车,或者失控电车可以撞向另外一辆电车来避免撞向五个人,但中间不得不撞死在轨道上的一个人。这些复杂的情形表明得出一个根本性原则是困难的,以及人们在紧急情况下进行道德推理的不确定性。尽管电车难题表明人们在复杂道德处境之下难以做出好的抉择和形成共识,但道德信念依然是社会存续的动力,人们正是基于对道德困境的不断反思和构想,才能够形成应对日常道德实践的道德观念和正义理念,特别是关于功利、公平、权利、责任和可辩护性等概念的理解。即使电车难题不能给自动驾驶的伦理设计提供全备的伦理指导,但在具体的情境中,电车难题依然能够有启发。

  其次,关于电车难题的法律意义,伦理学家探讨地并不充分,主要原因在于法律按照不同的原理和逻辑来应对紧急困境下的伤害行为。即使某种伤害行为在道德上是不被接受的,比如紧急避险,但法律可能会豁免当事人的责任。反过来说,即使为了救五个人而杀害一个人的行为在道德上是可允许的,并不意味着其在法律上不应承担责任。从具体的制度设计来说,是否应该在法律中明确特殊伦理情境中的法律责任,则存在不同的建议。拉科夫斯基(Rakowski)认为应当将这些行为的法律责任加以法典化,从而明确相应的归责依据。但在具体设计中,仅从法教义学内部无法完整地展现这种归责图景,关于算法设计让无辜路人牺牲还是让乘客牺牲的问题,在刑法责任认定上依然存在教义学上的判断困难。

  从以上分析可以看出,碰撞算法的伦理设计无法从电车难题的解决方案中获得直接的指引。驾驶者基于对生命的尊重而谨慎驾驶车辆,以免对其他车辆和行人造成威胁。这种伦理是以人的生命价值为出发点而构建的一系列准则。人们遵守这些准则,并纳入到社会评价和制度实施之中。我们可以把关于驾驶的伦理准则放置在人们道德实践的整体框架之中,与关于生命、尊严和安全等价值的理解相融合。在由道德话语和法律制度交织的社会交往活动中,人们通过制度约束和社会评价机制来尽可能的减少损害事故的发生。然而,自动驾驶汽车的出现将彻底重构了这一伦理结构。

  自动驾驶伦理是一种技术伦理。技术伦理的本质是,在技术冲击或者改变人们对于对与错的道德评价的反思中,确定可靠的证成性判断依据。如果只是为了减少交通事故发生频率、保障行人生命安全的话,或许提高驾驶员驾驶技能和改善汽车性能就能部分地达到这个目标。自动驾驶技术的运用,并不只是为了让出行更方便和安全,而是在更为宏观和长远的意义上深化人类社会发展的智能变革。这一变革包含着两个层面。第一,人类行为模式的变革,即基本上由人类能动性主导、技术为辅的决策和行动模式转向人机协作模式。第二,人类社会实践的原理发生革新,道德和法律实践的传统原则和争议被赋予新的形式,智能机器的参与成为影响纠纷解决和法律责任分配的介入因素。

  

  二、自动驾驶算法的道德决策与归责

  算法运行的本质是数据处理与输出指令的技术过程,技术运行本身并不包含道德色彩,但正是由于技术应用嵌入到道德世界之中,因此自动驾驶算法也具有了道德意义。有两个问题迫切需要回应。一是自动驾驶汽车这台机器是不是“道德机器”,是否能够进行道德推理。二是自动驾驶汽车是否能够承担道德责任,以及如何在此基础上判断各方主体的法律责任。

  (一)自动驾驶算法的道德决策

  机器或者人工智能能够进行道德判断和决策吗?从人工智能的技术属性来说,人工智能并不具有道德意识,也难以成为道德主体,但并不妨碍我们将道德意义赋予人工智能。人工智能在具体的应用场景之中会引发新兴的道德归责的难题,对道德责任的判断需要考虑人工智能的运行方式,这是当前人工智能的应用场景之下展示其道德意义的主要方面。

  按照当前人工智能的发展程度,我们无法把人类价值教给人工智能。人类价值实践具有人身属性,人们对价值的追求包含着人对基本价值的追求和反思性批判,以及根据价值内涵而生发出的实践选择。这个过程体现的是人的理性推理,同时也具有一定的“神秘性”,即价值具有实践指引性,但价值的存在形态或客观性却始终存在元理论层面的争议。元伦理学的探讨一方面展示了人类价值实践的特殊形态,另一方面也表明价值的论辩性与价值实践引发的深刻分歧。

  人工智能当然能模仿人类的价值实践形式,但人工智能无法真正理解人的价值。即使机器通过大量的数据学习可以形成符合人在合作中所形成的价值倾向,但人工智能仍然无法成为适格的道德实践主体。主要原因有两点。第一,价值实践存在着一个反思批判的空间,其中既有对价值之客观属性的论辩,也有关于价值之最佳形态的反思性理解。第二,人类价值实践创造出一个互惠性空间,即实践与价值形态之间的互惠,其典型形式是人们在实践过程中通过对价值内涵的不断反思而建构性地呈现价值的具体形态。以隐私权的保护为例。隐私权在价值上以人的尊严为支撑,通过保障个人私密空间的不受侵入性而彰显人的尊严属性。但随着社会实践的复杂性,隐私权的内涵在扩张,从空间意义转向个人自主生活的不受干预和侵入。这表明实践可以与价值内涵形成互惠性支持关系。

  人工智能缺乏第一个层面的反思批判空间。即使人工智能能够追求某些价值,比如效率和安全等,但在当前阶段,人工智能并不具备反思价值的能力。只有在人工智能能够具备自治能力和对道德相关事实的敏感性时,我们才能将道德地位赋予人工智能,并探索与人工智能进行道德交往的基本原则。因此,虽然人机协作将成为智能社会的发展趋向,机器的能动性在不断提升,人工智能决策的道德意义仍然需要归结到人或机构身上。

  在第二个层面上,我们可以相对乐观一些。人的实践所产生的互惠空间最终是促进人们对价值的追求和共识,尽管实践分歧不断出现,但通过价值论辩和建构,人们可以强化对价值的认同。人工智能并不是互惠行为的主体,毕竟其是服务于人的福祉。但由于人工智能是通过社会生活的数据化和计算化而影响人类决策,人类价值实践的深化可以提升人工智能分析数据和优化决策模型的能力,如瓦拉赫等人所言,“满足互动性、自主性和适应性标准的人工智能体即使没有表现出自由意志、精神状态或者责任感,也依然是合理合法、完全可以问责的道德(或不道德)行为的源头”。

  如果人工智能决策的道德意义归属于人,而其应用又对人的社会价值实践生互动意义,那么在应用于自动驾驶的过程中,人工智能算法会产生两方面的社会内涵。一方面,通过高强度感知技术和运算能力的支持,自动驾驶算法可以极大地提升汽车适应路况和安全运载的能力,减少了人类驾驶可能出现的决策失误和事故风险。另一方面,由于人工智能是一种决策机制,交通决策不只是包括如何调整速度和避让行人的决定,同时也必须面对大量突如其来的未知干扰因素和艰难决策场景。传统驾驶员能够基于经验对未知危险进行判断并做出应急决策,但人工智能是否具备这种充分的风险感知和道德决策能力,则存在疑问。

  对人工智能算法主导驾驶并做出决策的技术应用进行概念化建构,是解决自动驾驶之伦理问题的理论出路。这项概念建构工作包含两个宏观架构:一是自动驾驶的实际应用产生了何种社会、伦理和法律意义上的变革,二是如何从价值和制度层面应对这一变革。这两个方面在结构上存在重叠,但各自包含着不同的问题域。自动驾驶应用减少了人为驾驶过失的损害,但增加了机器决策的不确定性,从而引发各种社会问题,比如算法失灵、道路交通设施配套不足和智能标准不统一等。针对这些问题,在政治决策上应当确立可控的产业标准,并为人工智能良性发展提供明确指引,在法律上则需要确立规范自动驾驶的道德基础和法理依据,并为侵权法和刑法的相关规则设计提供引导。然而,如果不能对自动驾驶所引发的全新伦理挑战进行揭示,政治和法律上的应对方案仍然是治标不治本。

  (二)自动驾驶决策的归责难题

  自动驾驶之法律归责的厘清是自动驾驶汽车投入市场的前提,也是完善人工智能之法律规制体系的必要内容。随着人工智能技术不断成熟,其市场应用不断拓展,产生的法律问题和规制空间也在相应扩展。自动驾驶相关的法律责任具有两方面的特殊性。

  第一,与人工智能在互联网平台或者知识产权领域的法律责任问题不同,自动驾驶算法关涉的是生命和健康这类核心价值。人工智能引发的知识产权争议背后是人们对利益分配模式的分歧,而自动驾驶则直接指向人们在交通出行这一社会基本生活形态中如何最大限度地保障生命,以及对生命损失进行救济。

  第二,交通出行领域的传统法律责任划分相对清晰,《道路交通安全法》和《刑法》等对交通事故的责任分配或事故肇事者的刑事责任做出了清楚界定,汽车所有人或者管理人的过错是交通责任认定的主要依据,相关主体的注意义务或者事故的因果关系是判断。然而,当人机协作参与到交通出行之中,自动驾驶算法提前对汽车的行驶和碰撞选择进行规划和预设之后,以人类主体过错为责任分配依据的传统模式不再适用,因为汽车驾驶者不再是通过个人意志和选择来应对驾驶过程中的各种突发情况或风险,而是交由算法通过分析和计算来前瞻性地应对未知情形。驾驶者成为一个享受驾驶益处但分离于驾驶过程的旁观者,那么对驾驶者(本质上是乘客)的责任认定就是一个全新的问题,注意义务或因果关系等概念的传统内涵无法直接适用于自动驾驶。因此,有学者认为,对驾驶决策的人工智能体进行追责成为一种备选方案。然而,人工智能体是否能够承担责任,紧系于其道德地位是否成立,目前来看,这一方案并不可行。

  法律制度应当对自动驾驶事故发生之后的法律责任归属做出明确的规定,但以事故算法为驱动的驾驶事件在发生机制和社会评价上都不同于传统交通事故。从发生机制上来说,自动驾驶事故是由算法引起的,包括算法计算失灵所产生的碰撞和算法避险所导致的损害。从社会评价上来说,传统交通事故由于驾驶员主观疏忽或者技术不娴熟而导致碰撞或人员伤亡,通过追求驾驶员的民事和刑事责任以弥补损失并预防更多事故的发生。社会评价和法律归责都是为了让社会成员形成更强的生命价值认同和安全意识,保障交通秩序和生命安全。自动驾驶的出现,改变了交通事故的发生机制。在碰撞情境中,决策主体不是乘客,而是对碰撞选择进行编程的算法设计团队和汽车制造商,而碰撞选择本身也是生产者在法律框架之内设定的,“法律的规定最终决定了自动车辆的程序在紧急情况发生时,将会如何进行实践推理,并形成最终的决定”。

  首先,对交通事故进行评价的伦理基础发生变化。交通规则是对驾驶行为的约束,驾驶者违背交通规则带来了潜在的公共安全风险,因此在道德上是可谴责的,减少交通违规、防范交通风险是有序和团结之社会合作的基础。如果驾驶员在电车难题情境中不得不做出撞向五人还是一人的决定,则需要借助于道义论或者后果主义的框架,结合具体情境的紧急程度和驾驶者的主观状态对驾驶者的选择进行伦理判断。我们当然对应该撞向五人还是一人产生伦理分歧,但由于驾驶者的选择是不得不做出的,损害不可避免,对驾驶者的道德评价反映了我们身处的社会究竟应当如何通过这种评价构建一种社会伦理认识。对自动驾驶的伦理评价则遵循着完全不同的逻辑和原则。在驾驶过程中,不再需要驾驶者以负责任的方式参与到这项实践之中,而是由算法完成整个驾驶过程。在这种情况下,事故的发生并非出自个人应受谴责的过错,而是预先设计之算法的“正当选择”。换言之,问题不是出在个体的道德失范,而是事故算法的程序执行。对传统车驾驶员的伦理判断一方面表明了共同体的对行为失范的反应,另一方面为法律归责提供规范依据。算法指令执行则不涉及个体责任与共同体合作之间的冲突,而是社会生活计算化过程中的技术支配。如何对这种新兴的支配形式进行道德评价,以及在此基础上如何追究法律责任,显然是一个全新的问题。

  其次,汽车是机器时代的产物,带来了生产革命和生活效率的提升。人作为汽车的驾驶者,通过长期驾驶经验和理性认知操控汽车,以享受汽车所带来的交通便利。自动驾驶彻底改变了驾驶的社会内涵,相应地也改变了人的驾驶行为的结构和模式。受传统观念影响,现代社会对社会生活的数据化和社会决策的算法化保持审慎,但自动驾驶时代的到来,意味着社会运转引擎的数字化,社会合作也将更新换代。彭特兰提出,这种数据社会对人类理解构成严峻挑战:“随着稠密、连续的数据和现代计算的到来,我们已经能够绘制出社会的细节并构建相应的数学模型,但是,这些未经加工的数学模型远非大部分人所能理解”。这意味着,我们将进入一个机器与人协同行为且需要计算化指引的行为模式之中。传统责任观在应对这种数字化转型和合作模式变革时倍感无力。

  最后,自动驾驶事故中的法律责任认定的基础也发生革命性变化。从概念上来讲,法律责任是对个体违反法律之行为进行的回应。虽然法律责任与道德责任存在区别,但二者共享着一些结构性特征,而且都承载着共同体的回应性态度。自动驾驶改变了对交通事故的道德分析方式,也重构了法律责任认定的基础。对疏忽大意的驾驶者进行惩罚可以传达社群对违法驾驶者的谴责态度。然而,在类似于电车难题的碰撞事故中,我们无法谴责自动驾驶算法,因为算法并不具有独立的道德人格。如果对自动驾驶汽车研发者进行惩罚,则会陷入到一种尴尬处境,即汽车研发者因为预先设定的碰撞方案在现实中发生而受到追责。由此可见,自动驾驶汽车应用过程中的归责,特别是在碰撞事故中的责任认定,需要新的责任原理的支持。

  

  三、算法正义:自动驾驶的首要伦理准则

  本文尝试在既有研究基础上搭建一个面向人机协作之未来的分析框架,为自动驾驶汽车之伦理判断和法律制度设计建构一种基于算法正义的理论方案。自动驾驶汽车的产业发展和社会定位需要符合算法正义的基本原理。算法正义是社会正义在算法社会发展结构的具体体现。社会正义的内涵非常丰富,包含着对个人自由和权利的保障、促进社会公正的制度设计等。算法社会则“利用数据和算法来治理社会并改善社会,算法社会的抱负是无所不知地了解一切并预测一切”。算法正义指向的是,当人工智能通过算法决策深度介入人类社会结构和制度设计之中时,与社会正义原则相一致的一系列道德要求,比如如何防范损害发生、控制风险和约束参与算法实践的各方主体。

  算法正义是在算法应用对社会结构和实践方式产生影响的基础上提炼出来的总纲性正义原则,但其本身不能提供关于如何分配道德责任和法律责任的具体方案,因为道德和法律实践追求的价值是多元的,正义只是社会实践中指向公平分配的一种维度,所以需要结合其他价值要素和法理原则来确定自动驾驶之责任分配的基本方向。由于传统正义观并不包含如何对机器介入社会生活进行回应的基本原理,因此需要借助于算法正义的价值内涵与社会实践的基本原理,对自动驾驶的归责法理的建构提供一个理论分析框架。算法正义并非完全取代法律实践所追求的多元正义体系,比如社会资源的分配、损害救济或保障基本权利等,而是填补自动驾驶的伦理争议与法律归责之间所存在的论证空白。

  首先,鉴于自动驾驶汽车仍然处于理论构想阶段,相关法律制度并未健全,可行的思路是探究法律背后的价值世界是否能够吸纳关于自动驾驶的道德论证,从而尽可能不对既有法律制度造成巨大冲击。算法正义是展现这个吸纳框架的缓冲器。日益深入的人机协作的确产生了新的问题,但机器目前不具有人格,也不能成为责任主体,因此法律归责仍然是针对人类行动者的归责。自动驾驶算法改变了汽车行驶逻辑和技术结构,“具有各种传感器(例如距离、灯光、碰撞)和电机设备的简单汽车已经可以通过自组织神经网络产生复杂的行为”。但驾驶依然没有脱离交通的原初内涵,即为了生产或生活的空间移动,所以对交通的规范依然需要纳入到维持社会秩序和保障基本安全的法律体系之中。

  其次,在认可自动驾驶的法律规制仍然需要与既有法律制度协调的基础上,我们需要确立自动驾驶对既有法律制度和实践逻辑的实质突破,才能更好地应对自动驾驶的根本挑战。既有研究尝试在传统侵权责任法观念或刑法理论中为自动驾驶寻找可靠的归责依据,但这种思路弱化了人工智能革命对传统责任形态之区分的冲击,也忽视了法律制度在面对这种挑战时的自我调适空间。虽然自动驾驶技术只是人工智能的一种应用,但仍然可以把该技术应用的法律意义放置在新兴科技与法律的互动关系之中加以考察。新兴科技在价值结构和归责原理上与法律实践形成重构关系,即科技的内在逻辑和价值以动态的方式嵌入到法律运行的过程之中,法律并不是被科技所“吞噬”以至于让位于科技逻辑,也不是消极地应对科技风险,而是在与新兴科技的重构关系之中重塑自身的价值语境和规范性形态。

  当前关于自动驾驶算法的设计和编程存在着功利主义和道义论两种伦理观,也存在着自上而下的算法设计进路(比如阿西莫夫机器人定律),以及自下而上的归纳进路。功利主义和道义论的各自立场在揭示自动驾驶的价值考量上具有各自的优势,比如功利主义支持自动驾驶过程中的伤害最小化或快乐最大化,这符合人们关于交通安全的直觉。而道义论则主张在碰撞情境下,不能以人数作为计算依据,否则是将个体当做手段。

  然而,功利主义和道义论都存在局限,因为无论是对自动驾驶之风险和损害后果的功利计算,还是将个体当成目的的道义论前提,都无法有效回应机器介入对道德推理的实质影响。功利主义计算的是作为主体并受道德指引的个体之行为对总体功利所做出的贡献,从而为个体提供指引,这个计算过程并不能有效地评价由非主体性的人工智能算法做出但影响人之功利的决策,因为做决策的算法并不具有主体性,也不受功利计算的约束,否则算法也应当承担违背功利原则的责任。道义论虽然以人作为目的,但在复杂的碰撞情境中,的确无法对算法应当如何做出碰撞选择提出明确的指引。因此,算法正义原则的提炼不能基于功利主义或道义论,而应从算法应用所引发的社会计算化格局之中进行。

  

  四、自动驾驶的教义学建构

  (一)基于算法正义的归责原理

  基于公平的正义观,在汽车发生碰撞时,特别是汽车无法做出更好的优化选项时——这种情形在复杂的实际驾驶过程中会反复不断的出现——最大化最小值算法是克服功利主义和道义论之困境的更好方案。在碰撞造成的各种事故场景中,借助于先进的传感技术和内置算法的瞬时计算技术,通过对损害和生命危险进行量化和计算,确定每个潜在碰撞对象的生存概率。自动驾驶算法会针对每个对象的处境和生存几率和危险系数进行量化并做出计算。任何一种碰撞选择都会存在生存概率的最高值和最低值。最低值最高的那个选择是合乎正义的碰撞选择。

  最大化最小值算法包含着解决自动驾驶之归责难题的出路。法律责任的划分和界定是一项复杂的理论工程,既需要不同部门法之间的有效分工,也需要在归责原理上实现融贯,否则会引发大量的实践难题。既有的交通驾驶法律规范无法应对自动驾驶的驾驶过程,立法者目前也无法针对未来的自动驾驶指定详细的行为规范。

  责任概念在理论上存在争议,道德责任和法律责任在内涵和社会意义上存在差异。道德责任通常来源于道德对与错的判断,比起正义或不正义的要求更为宽泛。法律责任则是通过制度性回应形式传达共同体的态度,是正义实践的直接体现。道德责任向法律责任的转化需要一个特定的转化机制。

  在法律实践中,侵权责任的认定蕴含着矫正正义的要求,即将个体行为产生的损害修复为符合正义标准和社会期待的一种合理状态,比如生产者弥补消费者使用产品所造成的损失。刑事责任的认定则对应于犯罪在社会共同体中所引发的特殊道德评价,通过惩罚向刑事主体传达社会对其行为的否定态度。如前所述,自动驾驶算法的应用改变了法律责任认定的道德语境和制度环境。一方面,交通行为不再是个体的意志行为,而是一种集体性的算法决策。另一方面,在算法所带来的智能化决策网络之中,对某一主体的责任认定不应是分离的,比如传统意义上的生产者责任或行人责任,而是整体性的,即自动驾驶算法的设计者与粗心大意的司机(乘客)和误入车道的自行车赛手之间存在着跨越时空的技术关联,这是集体能动性的体现。刑法理论中关于紧急状态下正当理由与宽恕理由的划分也因为算法正义环境的转变而失去意义。这两个方面大大地增加了严格界定法律责任的难度。

  自动驾驶法律责任的认定,可以视为算法正义原则指导下对最大化最小值算法的法律回应。传统法律责任的认定,无论是刑事责任还是侵权责任,旨在通过惩罚或者索赔向责任主体传达社会正义要求和共同体态度。自动驾驶汽车的法律责任分配则受算法正义支配,其正义评价不同于传统模式。在碰撞情形下,责任认定需要考虑责任归属和责任承担两个方面。归责法理需要回应的问题是,算法决策如何影响事故发生后的道德评价及相应的责任划分?这个问题是自动驾驶汽车进入市场和相应立法的前置性问题。在最大化最小值算法的建构基础上,可以为回应该难题提供两种分析视角。

  首先,基于对算法的道德决策能力的中道态度,自动驾驶算法可以进行道德推理并产生相应的道德责任,但自动驾驶算法无法预估所有的碰撞情形,这也是智能技术发展所催生的一种全新的道德实践形态。经过预先设计的机器道德准则,决定了汽车如何应对未知的突发情形并对事故发生后的责任进行分配。算法设计者、汽车生产者、驾驶者、路边行人、迎面而来的汽车等,同时受制于这个预先设计的伦理框架和具体碰撞语境。最大化最小值算法确定了对各种不同角色进行认定的一个基础性准则,也体现出算法正义的要求,但该算法在应用之中存在一些限制因素。

  第一,无论碰撞算法的设计再怎么精细,都只能预见到有限的情形,无法涵盖所有的碰撞可能。最大化最小值算法对技术实践保持一种谨慎的开放态度,一方面接受算法自我学习以提升决策能力的技术可能,另一方面也与法律实践形成一种互惠机制,如Bert Huang所主张的,法律制度运行会借助于人们对算法实践的期待和机器学习而改变人们的道德直觉和提升机器的道德能力。

  第二,碰撞情形中“最大化最小值”的判断,不只是一个事实判断,也包括规范判断,这意味着算法设计过程中,需要对最小值的类型不断进行评估,也要基于相关的伦理探究和技术进展进行更新。举例来说,在碰撞选择中,乘客是否享有生命优先是一个充满争议的核心问题,最大化最小值算法并不绝对地预设乘客优先,因为在失控或者遭遇失控汽车的自动驾驶汽车面临撞向五个人还是伤害乘客的情况下,最大化最小值要求汽车避开五个人而伤害乘客。但这个计算过程是变动的,受制于乘客的人数(比如同有五名乘客)、汽车保护乘客的能力、对面的失控汽车是由人驾驶还是自动驾驶等因素,最终的碰撞选择需要算法的更新与调整。与此相关的是乘客的责任认定问题。理论上通常认为乘客应当承担严格责任,即仍然为损害后果负责。然而,在算法正义的框架下,这个预设太过强烈,并未充分展现出乘客在最大化最小值算法运行中作为使用者、受益者或受害者的多重可能身份。

  第三,最大化最小值算法反映了在算法设计中的有限理性。功利主义或道义论过强地预设了伦理判断的统一标准,并不能充分展示出在复杂的碰撞情形下算法决策的多元空间,也无法为自动驾驶算法设计提供更有针对性的伦理指引。最大化最小值算法吸收了罗尔斯的正义理论之公平观,将最小值予以最大化,体现的是在应对未知的碰撞可能时,通过预先的计算化设计来公平地分担风险和追求福祉。

  (二)自动驾驶的归责法理

  最大化最小值算法具有何种法理内涵?不同于传统责任认定,自动驾驶中的法律责任归属的结构更为复杂。自动驾驶相关法律规范的设计需要在算法正义原则指导之下保障法律的可执行性和规范性。

  第一,自动驾驶汽车的实际应用在立法上会“牵一发而动全身”,无论是道路基础设施重建、汽车数据和信息保护、产业监管以及标准制定等各个方面,都需要立法规范上的完善,这在一定程度上会稀释甚至掩盖自动驾驶之道德维度。

  第二,自动驾驶的责任认定在智能化语境之中进行,但不能完全脱离既有的侵权法和刑法规范体系,即尊重既有法律制度的动态性和灵活性。对自动驾驶之碰撞法理的架构既要展现出与既有法律规范的融洽性,也要适切于自动驾驶的算法正义维度。最大化最小值算法是以公正的方式提升最小损害的可能性,也即认可了损害发生或风险的必然性。从某项碰撞选择的伦理评价转向法律责任的划定,需要充满展现算法应用对法律实践的重构意义,以及在智能技术伦理框架下重新安顿技术应用所引发的归责难题。

  首先,最大化最小值算法是一种公平引导自动驾驶碰撞中各方主体之行为选择并划定责任的正义机制,提供了碰撞算法如何做出最佳设计的方案。基于最大化最小值算法并不能完全得出碰撞发生后如何界定法律责任的完整方案,主要原因在于,在自动驾驶之法律制度的建构中,法律责任的归属受制于智能机器是否应承担(道德)责任、自动驾驶各方主体之间的法律关系等难题的解决。然而,最大化最小值算法可以为自动驾驶之责任体系的构建提供有益启示。

  一方面,碰撞事故中的财产损失、身体伤害甚至死亡都需要在最大化最小值算法的伦理架构之中进行评估。损害的发生并不是因为传统意义上的驾驶人过失,而是碰撞算法的“不得以而为之”的正义决策。对损害之法律意义的评估应当体现其伦理论辩意义。最大化最小值算法可以预先以最大化最小值模式设计公允的损害发生方案,在算法无法充分预估的突发情形下,我们也可以遵循最大化最小值算法的正义要核进行公正评价。

  另一方面,最大化最小值算法可以增强自动驾驶责任体系之构建的正义维度。自动驾驶的应用将会带来法律责任体系的复杂化,既要设计出应对各种碰撞情形的归责机制,也要明确划分各方主体的法律责任。在归责机制设计上,我们应该区分自动驾驶的教义性责任(doctrinal liability)和证成性责任(justificatory liability)。教义性责任落实为与侵权和刑法规范相对应的产品瑕疵或算法失灵等。毫无疑问,关于自动驾驶的民法和刑法规范将会根据自动驾驶的业态发展而进行修订,自动驾驶汽车的质量标准、算法运行状态、汽车探测能力等都将成为对责任主体进行评估的重要依据。最大化最小值算法不需要对教义性责任贡献太多智识,因为自动汽车的行业标准和法律规范可以较为清晰地确定车辆设备是否需要硬件质量标准,或者算法是否能够有效处理数据并安全运行。而在碰撞情形中,最大化最小值算法可以为汽车是否能够充分地按照预先设定的计算方案而执行指令提供判断标准,比如是否能精确地计算乘客和行人人数、对方车辆的碰撞力度等,在此基础上可以确定相关主体的责任。

  证成性责任则是自动驾驶之法律归责的最大难题,即在碰撞发生后,因为算法决策而产生之财产和生命损失应当如何追责。在这个问题上,基于最大化最小值算法的计算方式,最大化最小值可能带来行人的死亡,也可能导致乘客丧命。在损害发生后,汽车生产者、算法设计者、乘客等改由谁承担责任?在算法正义的图谱之下,这个问题需要在社会的计算化、交通的智能化和算法对社会实践的重构语境下进行整体性应对。算法决策部分地取代了人类决策和更新了社会对风险和损害的道德理解。一些论者认为算法设计者仍然需要为碰撞造成的无辜伤亡承担刑事责任。但类似主张未能充分展现出算法实践对刑法之证成结构的冲击。

  通过刑法的惩罚措施对经过预先计算的可预见的风险进行防范并无充分的法益基础。更合理和务实的方案是事后救济,特别是完善事故保险机制,或者实施人工智能储备金制度。有学者认为,应当“基于自动驾驶整体在安全性与社会利益方面的巨大技术优势而容忍极端情况下的低概率的技术边界问题及两难困境下的无法避免的损害”。这并不意味着免除了汽车生产者和算法设计者在事故发生上的法律责任,而是强化了他们在将交通事务纳入到计算社会网络中的独特角色,其中包含着对每一种可能的碰撞情形的充分伦理评估,对碰撞之损害救济的完善机制的构建,以及在每个具体个案中如何释放出算法决策最优化和公平分配法律责任的理想方案。

  在传统驾驶实践中,安全意识的提升和碰撞事故的减少需要驾驶员的严格训练和持续的社会动员。而在智能驾驶时代,这一任务将由算法完成。立法决策者的主要任务转变成如何规范自动驾驶的研发,提升自动驾驶的人机信任,以及在碰撞事故中确立符合算法正义的损害救济方案。从这一点我们也可以看出,自动驾驶的成熟应用需要在进行充分的道德论辩和立法平衡之后才能实现。智能技术的突破性发展会超出我们的想象,随着汽车行业巨头投入大量金钱和精力对自动驾驶汽车进行研发,技术突破指日可待,但在人们对自动驾驶的伦理判断和法律归责问题达成充分共识之前,驾乘自动驾驶汽车仍然只能是一种想象。

  

  结  语

  作为人工智能之实践应用的极致,自动驾驶将带来一场技术革命,包括重构交通运输模式和人类出行方式,同时也引发各个层面的巨大挑战。对自动驾驶所引发的社会、伦理和法律挑战进行回应,需要以自动驾驶算法的设计为核心展开。道德和法律实践以正义为追求,算法正义因而成为自动驾驶算法设计的首要伦理准则和价值追求。自动驾驶算法的道德主体地位、道德决策能力和法律归责分析需要在算法正义的框架之中进行理论建构,而碰撞情境是展现这些任务的试验田。如果自动驾驶算法无法克服碰撞难题,那么自动驾驶汽车就不具备实践可行性。经过本文的探讨可以得出,在众多理论模型中,最大化最小值算法具有更好的应对碰撞难题的理论力量,也能够弥合在自动驾驶的伦理价值判断与法律归责之间存在的鸿沟。从自动驾驶算法设计到汽车上路,仍然需要经过大量的技术升级、道路测试和政策评估,这条路可能会比较漫长,但除了技术难关的攻克,自动驾驶的伦理判断和归责难题是亟需回应的核心议题。基于对算法正义的追求,以一种反思平衡模式应对算法对道德和法律实践的重构意义,是迎接智能时代的应有姿态。

  ▼ 法理杂志往期选粹 ▼

  R E V I E W

  

  欢迎关注法理杂志

   选粹|思享|域外|写作|学界 

  赐稿邮箱|ratiojuriswechat@126.com

  ?法理杂志官方“有赞”书籍商铺 | 扫码选好书

  文字编辑 | 朱玉宸 陈冰倩?