智能网联汽车引发商业伦理困境
一、智能网联汽车面临伦理难题
将来某天,乘客坐在一部自动驾驶汽车上疾驰行驶在街道上。解放了双手后正在享受着路边的美景与车内的娱乐资讯,但在一个下坡路段,突然一辆在对向车道行驶的校车冲了过来。
这时自动驾驶车已经没时间刹停,也无法控制方向盘完成紧急变道,自动驾驶汽车有三种选择:
第一,紧急转向冲进树林,这样也许会救了校车和乘客,但可能会让乘客丧命;
第二,紧急变道进入对向车道,保证自己的安全,牺牲校车司机和孩子们;
第三,直接撞向校车,大家同归于尽。
在日常驾驶中,这种极端情况很少会出现,也来不及采取“最为正确”的措施。不过,对于自动驾驶汽车而言,在设计之初就要针对类似情况做出设定。
目前,世界各国都在加快自动驾驶在真实大街上的测试运行,不久的将来,曾经只存在于科幻电影中的无人汽车可能就会擦身而过,因此道德选择已经不再是停留在理论阶段的空想,而是具有非常现实的意义。
想象一下,当无人驾驶车辆行驶到拥堵路口时,其如何与人类驾驶的车辆博弈通行?当自动驾驶汽车面对电车难题时,机器如何进行两难选择?当高度智能驾驶车与有人驾驶车辆发生撞击剐蹭时,谁来承担主要责任,是汽车制造商或者技术提供者,抑或算法设计师与规则制定者?当驾乘人员的隐私数据和国家地理交通等安全数据面临巨大风险时,政府如何来防御与监管?
不难发现,自动驾驶面临的伦理困境绝非电影《拯救大兵瑞恩》中简单的伦理算人数问题,未来无人化会给汽车交通与出行引发更加深刻、更加错综的伦理难题和矛盾。
所以说,智能网联汽车技术以算法设计为前置,令原先由个人本能应对的不同路况和紧急状况充满了诸多的伦理难题。
二、无人情景的伦理困境
历史上,存在电车难题、隧道难题等是伦理学领域的知名理论实验,难于发生在现实生活当中,而近年来无人超市、无人飞行以及无人驾驶的出现,让这些教科书中的经典论题难题更具现实意义。
1. 电车难题
1967年,菲利帕·福特发表的《堕胎问题和教条双重影响》中,首次提到了电车难题。
电车难题是伦理学领域最为知名的思想实验之一,其内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,另一个电车轨道上也有一名无辜的人。
从一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人,这是一道简单的算术题。但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋,因为你要为另一条轨道上无辜的人牺牲负一定责任。
在自动驾驶技术发展中,不完备信息下的车辆决策结果有可能引发伦理问题的争议,因为相比人类一刹那的判断,智能车辆的决定是预先设计并植入的。
此外,如何推动社会公平享用自动驾驶资源、解决老龄人、残疾人等社会弱势群体的公平出行,也对自动驾驶运营系统设计中的伦理问题提出了挑战。
2. 隧道难题
隧道难题是电车难题的修改版本。
你站在天桥上,看到有一台刹车损坏的电车。在轨道前方,有五个正在工作的人,他们不晓得电车向他们冲来。一个体重很重的路人,正站在你身边,你发现他的巨大体形与重量,正好可以挡住电车,让电车出轨,不致于撞上那五个工人。你是否应该动手,把这个很胖的路人从天桥上推落,以拯救那五个工人,还是应该坐视电车撞上那五个工人?
在现有交通规则体系下,智能网联汽车会面临大量“简化的”电车和隧道难题。
与以上电车难题类似的两难情况是,两名摩托车驾驶员各自行驶,一名根据交通法规佩戴安全头盔,另一名没有任何戴头盔,对于智能网联车辆来说,面临紧急情况时将会如何选择。
诸多情况更加常见,如未走斑马线的行人、横跨护栏的行人、闯红灯的车辆等,自动驾驶都将面临选择困境,是遵从法律?还是最小损伤?
除了电车难题和隧道难题,智能网联汽车可能还会遇到以下窘境,解决起来也着实困难:
(1)智能网联汽车在路上行驶时发现路两边有两批行人,一批人数多,而另一批则只有一人。这时它是否应该给人数更多的那拨行人留下更多安全空间?如果这样做了,是否会增加那位单独行人被撞的几率?
(2)智能网联汽车是否应该学习人类驾驶员,在大卡车驶过时主动让出更多空间?这样会不会增加自己撞到另一边车道上车辆或行人的可能?
(3)如果智能网联汽车的法则里就没有“撞击行人”这个词,那么一旦有人要自杀(主动撞车),车辆是否会失控?
(4)如果一只狗突然冲了出来,或者麋鹿、松鼠之类,智能网联汽车是会直接撞过去?加速或刹车躲避?这样是不是就会增加撞到其他车辆的可能性?
(5)如果智能网联汽车智能到会躲避交通事故和拥堵,它们是否会蜂拥进入宁静的社区呢?如果真是这样,恐怕原本可以在社区奔跑打闹的孩子就危险了。同时,噪音变大的社区房地产价值也会随之缩水。
电车难题、隧道难题都是智能网联汽车在无人状态下产生的伦理困境,那为什么过去的有人驾驶车辆并未涉及这些问题呢?
三、智能网联汽车面临更深层难题
智能网联车辆通过先进的计算处理平台,通过不断深度学习很快会拥有一个“聪明大脑”,将来有望替代人类驾驶员。
然而,就像任何无人系统一样,无人驾驶汽车业会面临诸多困境,而且由于汽车和交通将是人工智能与实体经济最大的结合点,因此面临的社会问题、伦理矛盾会更加深刻。
科技创新尤其新一代人工智能而引发的责任主体的多元化、因果关系的复杂化将导致将来交通事故侵权责任类型多样化,民事责任判定更加复杂。
民事责任归属可能是对方原因、汽车硬件缺陷、程序系统故障(自身、第三方)、所有人或管理者未尽责。当中,系统程序的故障又有系统自身运行错误和第三方入侵系统造成两种情况。
2016年,谷歌无人驾驶汽车与一辆公交大巴发生摩擦,就引发了对无人驾驶系统牵涉责任主体界定的争议。今后,无人系统的自主性不断提升,将对传统法律体系产生巨大的冲击和颠覆。
按照智能化水平,L3级以下的智能网联汽车拥有防碰撞、车辆跟随、自动泊车等辅助驾驶功能,皆为人类驾驶员为主。
如果驾驶员启动辅助驾驶时,将双手脱离开方向盘,车辆会提醒驾驶员手动控制方向,而不应该完全依赖于自动驾驶系统。
因此,目前较为普及的辅助驾驶行驶时,所采用的机动车交通事故民事责任认定方法与现存管理办法并无区别。
现阶段,车企都是与用户签订免责条款,来避免辅助驾驶过程产生的事故责任争议问题。
然而,当迎来L3以上的自动驾驶时,人类将车辆控制权让位于机器,谁来负责安全驾驶的责任变得并不清晰。
技术方案研发商提供了自动驾驶解决技术、车辆制造商生产了自动驾驶车辆、交通管理部门发布动态交通信息,如果算上驾驶员、其他事故参与人员等责任方在一次,如果要清晰地判断出交通事故的责任显得更加困难,法律也应该有预判。
自动驾驶技术的变革并未动摇机动车责任的构造,却令自动驾驶汽车的制造商或者技术提供商具备了驾驶人的属性。
这种生产者的产品责任有替代机动车责任的趋势,并与我国现行机动车交通责任认定、强制保险等发生矛盾,所属的监管部门之间也出现了管理交集,是自动驾驶发展所面临的更加实际的问题。
作为自动驾驶车辆生产强国的德国于2017年5月颁布了《自动驾驶汽车法》,成为世界首部规范自动驾驶车辆的法律文件。
该法规定了自动驾驶车辆需要安装黑匣子装置,记录车辆运行情况以明确交通事故责任。事故发生在人工驾驶阶段的由驾驶人承担责任,发生在驾驶系统运行阶段或者系统失控状态下的由汽车制造商承担责任。可以说,德国做出了尝试,基于民事事故责任给出了明确的划分。
四、未来挑战
当下,世界多地都在大力发展自动驾驶技术,将汽车业向着更加智能、交通更加智慧的方向推进。
无论在中国,还是在欧、美、日等世界上开展自动驾驶测试最活跃的地区,影响自动驾驶汽车产业推进的最大屏障并不是技术本身,而是相关的政策法规与伦理道德,而突破这些障碍则需要政府、监管部门的共同参与与保驾护航,需要通过一系列监管、保险、法律等措施。
自动驾驶立法方面,德国走在了世界前列。
2017年6月,德国联邦议院颁布了“道路交通法第八修正案”,允许自动驾驶汽车上路,明确了自动驾驶路试技术的合法性,区分了不同责任主体的权利和义务。
时隔不久,德国又出台了全球首套自动驾驶伦理指南,该伦理指南由德国联邦交通与数字基础设施部下设的伦理委员会起草,共有二十条。总体来看,这一准则在如下范畴规定了自动驾驶汽车的行为方式:
1、自动驾驶的首要目标是提升所有交通参与者的安全,在同等程度上降低所有交通参与者的风险;
2、从伦理层面上,允许自动驾驶系统发生事故;
3、自动驾驶系统要同等对待所有交通参与者,不能有任何歧视,不准根据行车者的性别、年龄、身体或精神状况等特征做出鉴定,也不能直接做出“撞一个而救五个”的道德选择;
4、自动驾驶系统不能解决电车困境等难题,而是要防止这样的难题发生;
5、人类的生命安全优先于其他利益,在发生事故时,可以牺牲财产及动物的生命,以保护人的生命安全;
6、必须清晰界定机器和人的责任,机器不能取代或优先于人类自主决定权,面对不可避免的事故,最终的行为决定权还要由人类掌握;
7、自动驾驶技术的应用和发展,不应受到技术强制力的影响;
8、数据主权及使用需由车辆所有者或使用者决定。
制定上述指南的伦理委员会成员非常丰富,包括了技术工程师、交通专家、法学家、哲学家、神学家信息学研究者、以及消费者保护协会和企业界的代表。
上述方式中对一些自动驾驶的伦理问题以及数据归属进行了说明,是首次从国家顶层对自动驾驶伦理进行了指引。尽管该准则依然保留了不少开放性的问题,但它却已经为自动驾驶的伦理判断开辟了方向,甚至也将成为全球自动驾驶伦理设计的准绳。
自动驾驶车辆已经在世界多个地区发生交通事故,但是保险、伦理、交通法规等跟进滞后,同时个人信息和国家数据的安全性也存在巨大风险,因此,随着智能技术和网联技术的不断普及应用,自动驾驶汽车可能会引发交通系统瘫痪或者大规模交通伤亡事故的系统性风险,值得高度重视。
另一方面,未来人、机混合驾驶的复杂交通体系会长期存在,我们也要观察到驾驶角色的转移给自动驾驶系统带来的责任归属问题。
自动驾驶汽车的事故责任由个人承担将转变为包括司机、系统提供商、整车制造商、运营单位以及基础设施、政府和法律制定者在内的众多主体,相应的法律责任制度要有效地调整。
此外,无人驾驶和有人驾驶汽车会长期混合于未来交通出行体系中,并且自动驾驶汽车会同时拥有机器驾驶和人工驾驶的功能,这就为产业技术的进步与管理体系的更新带来了更大挑战。
究其以上挑战的原由,未来无人驾驶车辆的行驶规则与内涵一定是由工程师、立法者、律师、政府工作者、伦理学者等多个群体商量,需要构建一套独特的道德体系。
更进一步地思考,虽然驾驶过程是无人操作与干预的,但依然是有人在背后制定了无人情境下的道德算法,需要在远离真实情景的情况下做出前置的伦理选择,更需要把人类头脑当中那些隐性的道德判断显性化并输入给机器。
然而,机器将来也许不会沿着这些显性化输入,而可能会从零开始发展出一套它独特的道德体系,类似AlphaGoZero学习了不计其数的围棋棋谱后会自创一套连世界冠军都无法理解的战术,它的价值理性不是把人的价值外显,而是机器自生、内生、学习和成长获得的。
电影《机器纪元》中,人类给机器的显性化输入是保护人类,但当地球气候恶劣到必将导致人类物种走向灭亡时,是保护人类的生命,还是保护人类历经数万年的文明传承,机器自生的道德体系是选择后者,这是机器自己深度学习后得到的“保护指令”。未来,无人驾驶的机器(也可能是无人飞行汽车)会如何思考呢?
五、结尾
自动驾驶汽车不是完美的汽车,不可能永远不出事故。在事故发生时,道德算法应当以生命安全为第一考虑因素,以最小化总体伤害为原则,同时要兼顾具体事故的情境因素和公众意见。
因此,还应该在如下方面开展进一步的深入研究工作:
1、未来积极促进自动驾驶发展的法律法规和伦理规范升级。
2、要重点围绕自动驾驶在园区、机场、港口等特定场景内的应用,开展自动驾驶行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。
3、探索自动驾驶与共享出行的商业伦理和政府监管方面的研究。
如果说自动驾驶技术使得“汽车变聪明”过程中引发了诸多的伦理难题,那么车路协同技术使得“交通变智慧”进程中暴露了更大的伦理世界,需要更加深入的探究。
*文章摘自中国智能网联汽车产业创新联盟《智能网联汽车引发商业伦理困境分析》一文,原文篇幅过长,本站进行了删减。
