自动和联网车辆交通的伦理规则20条

  Ethical rules for automated and connected vehicular traffic

  2017/06德国自动与联网驾驶伦理委员会(Ethics Commission - Automated and Connected Driving)受德国联邦交通与数字基础设施部委托发布了自动和联网车辆交通的伦理规则的报告,总结了20条伦理规则。

  这些伦理规则的拟定基于以下一些基本问题的思考:为了获得更好的流动性,更加安全,便利,我们可以接受的依赖于复杂技术系统(未来将基于人工智能,特别是深度学习能力)的程度?需要怎样的预防措施来保证可控性,透明以及数据主权?怎样的技术发展规范能保证人类社会以人为本的核心价值观不被侵蚀。

  以下是本人翻译的20条伦理规则,为了可读性我没有完全逐字逐句的翻译。斜体字部分是我(FZ)的点评,不感兴趣可以直接跳过。

  这些内容可能有些枯燥,需要耐心的反复品读才能理解和把握整体的伦理思考。

  ——————

  在阅读前我们先看一下伦理的定义。

  维基百科中关于伦理学(Ethics)的定义是:

  伦理学又称道德哲学,是一门哲学学科,主要探讨道德价值;在此,“道德”被定义为一群人或一种文化所认可的所有行为准则。

  所以伦理规则可以认为是一种被社会认可的行为准则。自动驾驶的伦理规则可以认为是自动驾驶系统需要遵守的行为准则。

  2017年发布的东西对于人工智能可能已经过时了,但是伦理的演化,特别是涉及安全的问题,并不会快速改变,所以现在再来研读也不迟。

  ——————

  1. 部分或全自动交通系统的主要目的是提升所有道路使用者的安全。另一个目的是增加移动出行的机会以及(因为出行机会的提高而)进一步的获益。技术发展必须遵守个人自主的原则。

  FZ:说明自动驾驶的目的和技术发展的基本原则

  2. 对人的保护必须高于其他利益性考虑。目标是减少伤害的程度直至完全防止。只有相比于人类驾驶能够降低风险时,自动驾驶获得牌照才是合理的。

  FZ:说明优先级和目标

  3. 政府部门对于公共道路安全负有责任,因此自动驾驶系统需要获得官方牌照并接受监督。首要的原则是避免事故发生, 即使自动驾驶不能完全消除风险。

  FZ:政府责任,牌照许可,安全原则

  4. 个人对自己的决定负责是以人为本的社会的一种表现,每个个体都有个人发展和获得保护的权力。政府的行政决定应促进个人的自由发展和对个人的保护。科技应在个人自由的最大化与保障其他人的自由和安全之间获得平衡。

  FZ:以人为本,个人自由与公共利益的平衡

  5. 自动与联网驾驶技术应尽可能防止事故发生。首要的选择是通过最新的科技避免危险情景,包括两难情景的出现。加强道路安全的第一步是通过车辆的设计和编程,使车辆以一种防御性和预防性的方式驾驶,从而使弱势道路使用者的风险最小化。

  FZ:设计的原则

  (图片来源:英伟达)

  6. 如果具有减少伤害的潜能,引入更多的高级自动驾驶系统,特别是带有自动碰撞避免功能的系统, 可能会成为社会或伦理的强制要求。相反的,如果是因为从技术角度不可避免(技术驱动力)而强制引入更多的高级自动驾驶系统,从伦理角度是有问题的。

  FZ:引入自动驾驶系统的驱动力(目的性)

  7. 在不可避免的危险情景下,保护人类生命是第一位的。只要技术上有可能,如果能够因此而保护人类不受伤害,系统应可以接受动物的伤害或财产的损失。

  FZ:铲屎官可能不同意?

  8. 在一些极端的两难境地,例如在不同人类生命之间选择的决定,与真实环境相关,且被选择对象可能会有不可预测的行为,因此程序并不能清晰的标准化,且无论何种选择都会有伦理问题。虽然从技术角度系统应避免事故,但系统并不能执行复杂的或学术性的风险评估,以预测负责任的人类驾驶员的正确选择。在紧急情况下人类驾驶员有可能为了拯救更多人的生命而选择非法的杀害另一个人,在这种情况下驾驶员未必会被判有罪。这种法律判断是事后回顾而不能先验的编入程序。因此,需要一个联邦政府部门系统性的调查和处理这些事故。

  FZ:两难境地,见以下文章https://zhuanlan.zhihu.com/p/546501092

  9. 在不可避免的事故情景下,任何基于个人特征的区分都是严格禁止的,如年龄,性别,物理与精神状态。禁止(用被拯救者)抵消受害者。一般性的减少受害者数量的程序也许是合理的。与移动风险产生有关的一方不得牺牲其他无辜人员。

  FZ:不得歧视特定人群,不得将风险转移给无辜人员

  10. 对于自动和联网驾驶,责任方由驾驶员转变成技术系统的制造商和运营商,以及负责基础设施,政策和法律决定的机构。

  FZ:责任方的转变

  11. 自动驾驶系统造成的损害的责任与其他产品责任采用相同的原则。因此,制造商或运营商有义务持续优化他们的系统,并观察已交付的系统,在技术上可行且合理的情况下进行改进。

  FZ:制造商与运营商责任

  12. 公众应能获得新技术及其部署的信息。信息获取的方式应尽可能的差异化。对于本报告建立的伦理原则的实际应用,自动驾驶车辆的编程和部署的导则应尽可能的透明,与公众充分沟通,并经由一个独立的专业机构审核。

  FZ:公众知情权

  13. 虽然目前还不现实,但未来有可能通过数字基础设施(类似于航空和轨道交通)将所有车辆联网进行中央控制。但是如果不能对道路使用者进行完全的监督并且防止对车辆控制的操纵,通过数字基础设施将所有车辆联网进行中央控制从伦理上是有问题的。

  FZ: 所有车辆联网中央控制的可能性及实现的先决条件

  14. 只有当网络攻击,特别是对IT系统操纵或利用系统内在的缺陷,不会导致使人类丧失对道路交通的信心的情况下,自动驾驶才是合理的。

  FZ:信息安全

  15. 利用自动和联网驾驶(无论是否直接与车辆控制相关)产生的数据的商业模式应受到道路使用者的自主性和数据主权的限制。应由车辆所有者和使用者决定是否发送和使用生成的数据。数据披露有一种“习惯成自然”的特性,就像搜索引擎和社交网络的运营商对数据的获取,应在早期阶段就施加强制性规范以对抗这种“既成事实“的发生。

  FZ:数据保护

  16. 必须清晰的区分是否正在使用无人驾驶系统,或者驾驶员保有责任并可以随时接管驾驶(否决自动驾驶系统的决定)?对于非无人驾驶系统,人机界面的设计应清晰明了。在任何时候,责任,特别是控制的责任在哪一方都是明确的。责任的分配,例如时间和访问的安排,必须归档并存储。这一点特别适用于人机移交程序。由于汽车和数字技术越来越国际化,应该寻求人机移交程序及其文件(日志)的国际标准化以提高兼容性。

  FZ: 人机界面的设计,控制责任和日志

  17. 高级自动驾驶技术及其软件应避免在紧急情况下突然将控制权移交给驾驶员。为了确保高效的,可靠的和信息安全的人机通讯并防止过载,系统应适应人的沟通行为而不是反过来让人类加强适应能力。

  FZ:紧急情况下的处理,可靠的人机通讯。本人一直认为车厂将事故责任推给人类驾驶员就是耍流氓,无论哪个等级的自动驾驶。

  18. 可以在车辆运行时自学习的学习系统以及他们连接的中央场景数据库,如果可以带来安全方面的收益,从伦理上是可以接受的。自学习系统可以部署的前提是可以满足车辆控制相关功能的安全要求,并且不会破坏本报告建立的规则。将相关的场景移交给一个中立机构的中央场景数据库似乎是可取的,以便建立统一标准,包括任何接受性测试。

  FZ:自学习系统,中央场景数据库

  19. 在紧急情况下,车辆必须全自动的(没有人类辅助)进入安全状态。期望可以统一定义安全状态以及控制权移交程序。

  FZ:紧急情况下的处理,再次重申,本人一直认为车厂将事故责任推给人类驾驶员就是耍流氓。

  20. 正确使用自动驾驶系统应该成为人类通用数字教育的一部分。在人类申请驾照的培训和考试中应该学习如何正确操作自动驾驶系统。

  FZ:论教育的重要性

  ——————

  德国人做事的理念是想清楚再做。虽然毫不例外在AI领域德国人又输在了起跑线。但这些基础的研究和思考还是很有价值的。这些伦理规则是从政府监管和政策制定的角度建立的,但是更多的考虑是对于(道路)弱势群体的保护,对自动驾驶开发商和运营商进行约束。

  我们中国人的理念是先做上再说,摸石头过河。在起步阶段动作很快,但是往往效率不高,有很高的试错成本,并且发展到一定阶段以后就会遇到瓶颈。在很多行业能取得成功,一部分原因是中国的市场体量,综合的工业能力以及工程师红利,更重要的原因可能是“养蛊机制”,高淘汰率导致只有竞争力最强的企业能存活下来。但是也有很多领域由于规则不合理,朝令夕改等等因素导致劣币驱良币,或者令整个行业陷入泥潭。另外正如本报告第15条规则所述,如果在行业发展的早期没有进行规范,等习惯成自然,对个人利益的侵害将成为一种“伦理共识“而更难制止,就像打工人的996福报一样。

  如先哲所言,“无规矩,不成方圆”。希望这些翻译和介绍能对AI和自动驾驶的从业人员有所帮助,在进行自动驾驶系统设计和编制软件时能有一个伦理框架作为依据。