【原文刊发于华东理工大学学报(社会科学版)】电车难题、隐私保护与自动驾驶
电车难题、隐私保护与自动驾驶
唐兴华 1 郭 喨 2 唐解云 3 (1. 清华大学 科学史系,北京 100084;2. 浙江大学 光华法学院司法与人工智能研究中心, 浙江杭州 310008;3. 中国人民大学 哲学院,北京 100872)
[摘要]自动驾驶将深刻改变我们的生活形态,其带来的伦理困境与隐私冲突也将集中呈现。伦 理困境在个体层面体现为事故时的“电车难题”等伦理选择问题,可以通过在危机处理时“量化 价值”并预先嵌入“道德代码”,使软件的行为逻辑符合人类社会的伦理准则;就社会层面而 言,可以通过考察和建立多元化协作平台的方式处理自动驾驶车辆事故及其责任分配问题。在 隐私保护方面,乘客需要向自动驾驶这一“透明监狱”交付大量重要的个人信息以换取足够的 便利,涉及网络隐私保护和信息泄露等问题。可通过成立数据管理组织管理信息的合法使用,从 而实现乘客、数据管理组织、政府以及软件供应商等共同努力保护信息安全和乘客隐私,克服软 件脆弱性导致的信息泄露等问题。自动驾驶的到来难以抗拒,但这些问题必须优先得到解决。
[关 键 词]自动驾驶 电车难题 价值量化 道德代码 伦理困境 隐私保护
[基金项目]本文系安徽省社会科学创新发展研究课题攻关项目“人工智能革命及其社会治理”
(2018CX125)阶段性成果。
自 动 驾 驶 正 在 重 塑 我 们 现 在 习 以 为 常 的 生 活 。
近年来,“自动驾驶”已成为全社会最为关注 的人工智能具体应用之一。自动驾驶汽车将取代 “智能手机”成为人们生活中“最大的移动通讯工 具 ”,人 们 可 以 在 自 动 驾 驶 汽 车 上 办 公 、娱 乐 、生 活,自动驾驶汽车将成为人类新的移动生活空
间。自动驾驶汽车正带来颠覆性、革命性的影响, 它将重构我们的生活方式和价值理念。正如人们 所预见的,自动驾驶将给人类带来显著的利益:
( 1 ) 在 交 通 方 面 :减 少 车 祸 发 生 率 ,从 而 减 少 伤 亡 和 污 染 ;( 2 ) 在 公 共 资 源 优 化 配 置 方 面 : 自 动 驾 驶 汽车及共享自动驾驶汽车的广泛使用,将促使我 们更加有效地重新配置车辆,减少资源浪费,提 高 资 源 利 用 效 率 ;( 3 ) 在 社 群 空 间 方 面 : 将 改 变 人 们对空间的认知,住所位置将进一步外延,城市 面积将进一步扩大,室内停车场将会重新被规划 为 住 宅 和 商 业 空 间 ;( 4 ) 在 价 值 观 等 “ 软 性 ” 方 面 : 人 类 的 娱 乐 、工 作 、购 物 习 惯 将 被 全 面 颠 覆 ,整个社会面临着人工智能的重新洗牌。1我们应当合 理预判自动驾驶可能带来的问题并寻求解决方 案,以期为近几年内即将开启的“自动驾驶时代” 作好准备。
自动驾驶已在法律制度、社会安全方面带来 诸多挑战,也将在价值、道德等方面引发某些伦 理症候——这意味着一系列复杂的问题。我们有 必要前瞻性地讨论自动驾驶带来的机遇和可能 引发的问题。例如:在制度层面,自动驾驶发展将 促进道路安全、汽车生产及责任事故认定等相关 法律法规的修改或制订;在社会层面,自动驾驶 汽车将带来能源和制造行业转型、保险和汽车产 业变革等;在道德伦理方面,自动驾驶汽车促使 我们重新思考事故责任分配、用户隐私保护、人 类驾驶员失业等问题。以上问题中外研究者多已 论及,而一种基于深入理解技术的内在主义视角 会提出更多值得思考的“真问题”:自动驾驶的“驾驶权”如何在人类与机器之间分配?如何才能 相信其他车辆实时生成的高精度地图?实际上, 随 着 时 间 的 流 逝 ,这 种“ 前 瞻 ”已 经 变 得 越 来 越 紧 迫、越来越不那么“前瞻”了。
有必要对自动驾驶技术所引发的新的伦理问 题进行全方位思考,提出可操作的建议以促进自 动驾驶的良性发展,这是人工智能技术进行社会 治理的“核心试点”。自动驾驶目前得到较多讨论 的是其伦理考量。自动驾驶汽车作为一种“技术 人工物”(Technical Artifact),面临着至少两种类 型的伦理考量。其一是自动驾驶汽车与人类之间 的道德冲突;其二是自动驾驶汽车自身产生的道 德冲突。在此,暂不探讨此类人工物是否终将具 备类似于人类的道德推理能力,以及自动驾驶汽 车作为汽车本身是否能够成为自主的道德体等 话题。这种终极讨论虽有其必要性,但就目前而 言太过遥远,应该先从自动驾驶汽车与人类关系 角度去探讨自动驾驶汽车普遍上路后引发的人 类生活、人车关系中的伦理问题。
自动驾驶技术发展的具体路径难以精准预 测,我们也无力完整预测未来的技术会引发哪些 具体伦理问题。随着科学技术的更新迭代,某些 事前看似严重的伦理问题会“自然解决”抑或根本 不 会 发 生 。 实 际 上 ,“ 社 会 — 科 学 ” 是 个 复 杂 的 巨系统,我们根本无力完整模拟、详细描述其相 互作用、相互影响的具体细节;然而好在我们可 以对其整体演化的方向和核心机制予以较为精 确地预测(事实上我们已经对其大致可能的技术 路 线 及 其 核 心 问 题 进 行 了 预 测 2)。 在 此 ,笔 者 从 个体层面和社会层面对自动驾驶可能引发的伦 理问题进行探讨。个体层面的伦理问题主要是伦 理选择难题;社会层面的伦理争议包括事故的责 任归属、网络隐私保护和信息泄露问题。
一、事故责任、“电车难题”与伦理选择
事故责任问题是自动驾驶被讨论最多的问 题。这不仅是伦理问题,更是技术设计中需要应 对的重点。3自动驾驶汽车面临的突发事件大致可分为两种:人类目前可以解决的和人类尚不能 解决的。自动驾驶汽车首先要面对的是人类目前 可 以 解 决 的 突 发 事 件 ( 第 一 种 情 况 ) ,只 有 自 动 驾 驶汽车在处理问题的“能力”上等于或者超过人 类时才会得到大众的认可。4人类驾驶员在驾驶 时会面临诸多突发情况,诸如拐角处冲出来的小 黑 狗 ,两 车 交 汇 迎 面 而 来 的“ 远 光 狗 ”等 。 人 类 驾 驶员必须很好地处理此类情况。不过,即便操作 软件通过学习和模拟能够准确灵活地处理了人 类驾驶员所能处理的各种突发情况 (第一种情 况 ) ,面 对 人 类 驾 驶 员 也 无 力 处 理 的 情 况 ( 第 二 种情 况),机 器 又 该 如 何 应 对 ? 例 如 ,如 何 面 对 人 类 也无力解决的“电车难题”和“隧道难题”?1
“电车难题”(Trolley Problem)最早由英国哲学 家菲利帕·福特(Philippa Foot)于 1967 年提出,其 完整表达如下:
电车的铁轨上站着五个人,此时,一辆失控的 电车朝他们驶来,若在原轨道上继续行驶,电车 将使这五个人丧失生命。但是电车司机可以选择 拉动电车从狭窄轨道转向另一条轨道,那么这五 个人就可以幸免于难。问题在于,另一条铁轨上 也有一个人。此时,司机面临着两难选择:一是不 改道继续行驶,这将使五人丧生;二是主动操作 转向另一条轨道,使原本安全的一人丧生。矛盾 很明显:无论电车司机开向哪一条轨道,都会有 人遇害。面对这种情况,司机应当做何选择?2
面对这种人类驾驶员都难以抉择的情况,自 动驾驶车辆又将如何处置?另一个相似的情况是 “隧道难题”(Tunnel Problem),可以理解为更具
“自动驾驶”意味的“电车难题”。隧道难题如下: 乘客正坐在一辆行驶在单行道上的自动驾驶 汽车上,当汽车行驶到隧道入口时,忽然一个小 孩跑到车道中间,堵住了隧道的入口。此时,自动 驾驶车辆只有两个选择:继续行驶撞向孩子,或 者转向隧道某一侧的墙壁,从而导致车上的乘客丧生。3 “电车难题”在一般意义上表征了“自动驾驶”在 面 对 外 部 目 标 时 的 选 择 困 境 ,“ 隧 道 难 题 ” 则 把
这 一 困 境 引 向 了 “ 车 内 乘 客 ”( 这 一 情 境 中 同 时 为 “车主”)这一“选择的选择”之主体。毕竟,如果一 辆 车 总 是 试 图“ 舍 己 为 人 ”,谁 会 去 买 它 就 成 了 大 问题。这意味着自动驾驶车辆的“困境选择”将影 响消费者的选择。“隧道难题”与“电车难题”是自 动驾驶终将面临的现实挑战,但无论如何取舍都 会 陷 入 两 难 的 处 境 。 和 鸿 鹏 认 为 ,“ 隧 道 难 题 ” 凸 显了车内人员与路人之间的利益冲突,将伦理选 择指向驾驶人员的自我牺牲。4这种伦理问题是 人类需要面对的,同样也是自动驾驶汽车需要面 对的。更为关键的是,这种两难并不再只是哲学 上 的“ 思 想 实 验 ”,而 是 每 天 都 真 实 地 在 我 们 身 边上演着。5
无论是电车难题还是隧道难题,共同点都是 面对人类目前无法解决的伦理问题,自动驾驶如 何 处 理 。 或 许 可 以 先 借 鉴 人 类 的“ 处 理 方 案 ”:当 面 对 突 发 情 况 的“ 责 任 事 故 ”时 ,人 类 驾 驶 员 通 常 迅 速 综 合 考 虑 多 方 因 素 ,并 凭 借“ 直 觉 ”做 出“ 下 意识”的判断,自动驾驶汽车则可使用数据和软 件来计算出“最佳方案”。具体做法是价值量化, 对人类道德推理中不可量化、不容量化的要素,比如“价值”进行量化。与此同时,对生命、财产进 行赋值,程序员按照大家普遍接受的伦理规范将 量 化 的 数 值 进 行 编 码 形 成“ 道 德 代 码 ”,预 置 到 汽 车驾驶软件中。当然,这种预置并不是将情境固 定化,而是充分利用深度学习软件,以大数据为 依托,对可能遇到的各种生命体和财产进行赋 值 ,根 据 具 体 面 对 的 紧 急 情 境 进 行“ 冷 静 ”而 快 速 的 处 理 。 需 要 培 养 机 器 软 件 的“ 直 觉 ”,使 其 在 各种复杂情况下利用数据做出最佳选择。“即在车 祸发生的瞬间,经过程序员的提前预设,软件的 决策逻辑也会发生作用。经过特别的设计,软件 能针对事故做出妥善回应,把破坏程度降到最 低。”1如果不能完美设计出方案,那就退而求其 次追求“损失最小”。
实际上,就事故责任中的伦理选择而言,在发 生紧急情况时自动驾驶在反应速度上有很大优 势。“在我们的主干道上,我们通常与我们前方的 车辆保持约 1.5 秒的时间距离。自动驾驶汽车能 够将该时间距离减少更多,因为计算机能够立即 做出反应,这与人类驾驶员不同。”2这主要归功 于 5G 更快的传输速度,3以及更好性能的传感器 件和计算能力更强大的 GPU。然而,速度上的优 势并不能直接转化为道德上的优势,技术上的成 熟并不意味着必然被人们所接受,否则我们就该 在每年的 8 月 21 日纪念尤塞恩·博尔特(Usain Bolt)而不是在每年1月的第三个星期一来纪念 马丁·路德·金(Martin Luther King)了。因此,我们 必须继续提高自动驾驶技术的安全性,使其事故 发生率远低于人类驾驶的对应比率,为普及自动 驾驶汽车奠定基础。
存在这样一种合理质疑:人类凭什么相信机 器做出的决定就是最佳决策呢?除非自动驾驶汽 车具有远超人类的认知和智能,否则我们不会轻 易信任它。然而,事实上自动驾驶技术的安全性 的确可以远远高于人类驾驶员。同时,自动驾驶 的车祸发生率很快将远低于人类驾驶。数据显 示,全世界每年大约有 160 万人死于车祸,这个 死亡率相当于每年释放 10 个广岛级别的原子弹 爆炸。如果路面上的汽车 90%能够换成无人驾驶 车辆的话,将减少三分之二的死亡人数。4随着技 术的进步,自动驾驶所致的车祸可以无限趋近于 零。另外,人类驾驶员在面临紧急情况时依靠直 觉和“习惯”做出价值判断或决定。这通常是无意 识的动作操作,然而其实质依然是“比较和计 算 ”,毕 竟“ 智 能 的 本 质 就 是 计 算 ”。 罗 伯 特 · 特 拉 普(Robert Trappl)指出,人类驾驶员和自动驾驶 的一个重要区别在于:“人类驾驶员做出错误的 决定会被宽恕或原谅,然而自动驾驶汽车做出错
误的决定就会被指责和怀疑,即便自动驾驶汽车 做出错误决定的比率远远低于人类驾驶员。”5为 什么凭借人类直觉所做出的判断能被接受,而 自动驾驶的计算逻辑就要被质疑?我们原谅人类 驾驶员的错误、相信人类的直觉而质疑软件逻辑 并 没 有 特 别 的 原 因 ,有 的 只 是 我 们 的“ 习 惯 ”。 大 卫·休谟(David Hume)认为,“习惯是人生的伟大 指 南 ”,而 人 类 经 常 误 把“ 习 惯 ”当 作“ 因 果 必 然 性 ”。 6 同 理 ,在 道 德 问 题 上 ,人 类 倾 向 于 把 习 惯 视 为“最优的选择”,乐于依据直觉做出判断。如果去 除 对 人 类“ 习 惯 ”的 先 天 信 任 ,理 性 地 分 析 人 类 与 自动驾驶车辆面对紧急情况的两种方式,就会发 现自动驾驶汽车的决策可能更为合理。胡迪·利 普森(Hod Lipson)和梅尔芭·库曼(Melba Kurman) 指出:“自动驾驶汽车的驾驶更为合理是因为它 能够快速地进行风险和利益分析,这比一个自 私、疲惫的醉汉的决策要好很多;自动驾驶拥有 360 度的感知器,掌握的信息也更全面。”7事实 上,道德问题并非一定要依赖人类直觉才能更好 地处理。问题的关键也并非自动驾驶车辆是否有 道德,而在于它们处理紧急情况的内在逻辑是否 符合伦理。自动驾驶汽车“危机处理”的逻辑是: 根据发生事故的概率以及其后果的严重程度确 定对应行动。对事故大小的认定某种程度上是由 各利益相关者洽谈和商讨确定的,符合“商谈逻辑”。有学者提议不借助预置的“道德代码”,而是 在具体判断中使用随机数生成器来做出“公平” 的决策,1驾驶者或者行人则服从“内在随机”的 命 运 裁 决 。 人 人 都 接 受“ 随 机 ”的 决 定 ,这 也 是 一 种公平(就像随机选择的双色球一样)。2比较而 言 ,还 是“ 道 德 代 码 ”更 为 可 靠 。 显 然 ,经 过 良 好“伦理设计”的自动驾驶车辆的“危机处理”可以 比人类驾驶员“更理性、更可靠”。
二、自动驾驶汽车的责任归属问题
与“ 危 机 处 理 ”紧 密 相 关 的 一 个 问 题 是“ 责 任 判 断 ”,即 自 动 驾 驶 汽 车“ 危 机 处 理 ”时 或 者 处 理 后的责任归属问题。当人类驾驶者驾驶的汽车发 生责任事故时,责任可以被清晰地划归于人类的 某一方或者双方甚至多方;人类是事故的责任主 体,相关法律法规对责任的认定是比较清晰的。 但是,一旦自动驾驶车辆在道路上驰骋时,发生 事故的责任认定就变得复杂了。当没有司机、方 向盘的汽车出现交通事故时,这个责任具体归属 方 是 车 主 ( 乘 客 ) 、自 动 驾 驶 汽 车 的 制 造 商 、自 动 驾驶软件的提供者还是道路的基础设施建设者 呢?在人类驾驶的车辆中,人类行为导致的后果 是 有 承 担 者 的 ,而 自 动 驾 驶 车 辆 的“ 肇 事 主 体 ”是 作 为 整 体 的“ 车 ”,对 事 故 的 发 生 存 在“ 多 因 一 果 ” 的效应。既然汽车的软件供应商和硬件供应商可 以认领属于自己部分的责任,那么分别认领多大 的责任以及对责任如何进行具体划分呢?杰弗 里·格尼(Jeffrey K. Gurney)认为:“承担责任的适 当方将根据自动驾驶汽车使用者的性质以及该 人防止事故的能力而有所不同。”3这也是一个亟 待解决并需要多方代表集体协商的事情。
自动驾驶汽车的责任归属问题,应从多维度 权衡。笔者主张:在汽车软件设计之初就应该将 伦理道德嵌入,使得软件成为承载着“道德代码” 的 道 德 载 体 ,即 将 道 德“ 物 化 ”。 对 人 和 物 同 时 进 行伦理考察,正如彼得保罗·维贝克(Peter-Paul Verbeek)所 呼 吁 的 :“ 将 装 置 道 德 化 ,并 认 为 人 类 应该停止人类之间长久以来的互相道德化,而去 开启技术的道德化。”4由于机器人驾驶员会不打 折扣地执行计算机程序,因此,程序员在设计程序时就要事先考虑到一切不良后果,而不是事后 采取补救措施。
笔者主张,在布兰登·英格拉姆(Brandon Ingram)所提出的“机器人工程师的伦理准则”的基 础上,具体分析各方的责任。首先,对于自动驾驶 汽车硬件供应商而言,应该在汽车出厂之前经过 多方面的审查,保证出厂的汽车在特定程度和范 围内没有质量问题(特殊情况难以全面考察)。其 次,对于软件供应商而言,需要不断提高汽车的安 全性能 (即便只是将 1 万小时可靠性提高 0.01%, 对于未来“自动驾驶统治”的世界地面交通系统而 言,依然意义重大),同时对自动驾驶系统进行多次 检验并不断根据新情况进行修正。建立应急反馈系 统,一旦出现软件做出的决定引发伤亡的情形,必 须保证信息及时传送到周围的可施救场所,尽量减 少人类伤亡;再次,就后期安全维护而言,建立健全 道路全网反馈系统,对于道路的改造等规划及时上 传,敦促自动驾驶汽车及时更新路况信息。最后,还 应建立多维合作平台的责任认定组织,对引发交通 事故原因进行全面深刻的分析,以确定责任承担者(责任承担者可以是一方,也可以是多方)。
正如菲利普·布瑞(Philip Brey)所言:我们应 寻求一种新的方式进行讨论,这种方式包含利益 相关群体的诉求;同时,采取一种更为深思熟虑的 方法,这种方法将尊重相关的道德争论。5未来自 动 驾 驶 汽 车 责 任 的“ 分 担 ”,必 然 是 各 方 利 益 相 关 方“协商”的结果。高奇琦建议搭建一个传统汽车 制造商、自动驾驶技术提供商和出行服务(共享服务) 提供商的“三维”合作平台,从而解决事故 担责、事故赔偿主体和获利的问题。1这是一个有 价值的提议,不过也不排除现有的成熟的汽车市 场自己就能在责任明确的情境中消化此类问题。
三、自动驾驶汽车的新型网络隐私问题
在自动驾驶汽车中,另一个亟待解决的问题是 自动驾驶的网络隐私安全问题。自动驾驶汽车依赖 的是物联网与数据共享,想要做到安全快速,就要 尽可能多地掌握乘客个人信息。自动驾驶汽车会成 为人类乘客的“透明空间”,无论你在选择路线还是 进行消费都会被记录在案,甚至你与女友聊天的内 容都可能会被收集存储起来。此外,自动驾驶车辆 使人丧失了相对隐匿的移动能力,这在无形之中将 乘 车 人“ 监 控 ”起 来 ,形 成 了“ 透 明 监 狱 ”。 2 与 自 动 驾驶车辆相关联的数据包括乘客上下车的地点、 生活习惯、行车时间与行车路线的信息。这些信息 极具价值,同时也是巨大的数据资源。不过,最终 这些资源由谁监管,乘客是否拥有自治的权利等 相关问题亟待解决,这就对乘客、数据管理组织、 政府以及软件供应商提出了新的要求。
首先,对乘客而言,应当允许乘客根据自己的 意愿查看自动驾驶汽车收集的数据内容、数据流 通的情况和数据流向等,并有权自主决定数据去 向。乘客应有维护自己隐私的意识、积极参与制 定数据管理规则并有权决定是否将个人数据用 于商业用途。丽莎·柯林伍德(Lisa Collingwood)强 调 :“ 个 人 具 有 保 护 隐 私 和 做 出 选 择 的 自 治 权 , 乘 客有权利对是否乘车、乘车路线以及数据使用进 行 自 主 选 择 ,避 免 被 入 侵 者 操 纵 和 控 制 ”。 3 其 次 , 对于公众和公共组织而言,可由接受监督的非营 利 组 织(数 据 管 理 组 织)来 负 责 数 据 的 收 集 、使 用 等问题。我们应将收集来的人脸、指纹等生物特 征数据交由数据管理组织,而非数据采集者负 责。再次,对于监管机构和立法部门而言,应建立 监督数据管理组织使用数据的监管机构,对数据 的用途进行监管。立法部门应针对隐私问题提供 适当的法律保护。最后,对于软件供应商和管理 车队的企业而言,要严格遵守个人隐私保护指 引,加强网络安全性建设,防止信息泄露。当前,
美国加利福尼亚州要求所有自动驾驶车辆保存 事故发生前 30 秒的详细记录,同时也要求自动驾 驶技术的输出方提供保证及报告。乘客、软件供应 商、网络公司和车队企业等要在数据管理组织的主 导下协商构建数据保护和使用规则,并由政府和公 众根据相关行业乘客数据的用途严格监督数据的 使用,数据管理组织、政府和公众共同对数据负责。 这虽然会增加一些麻烦,但此类数据对许多利益相 关行业极具价值。例如运营自动驾驶车队的公司, 他们利用这些数据来分析市场需要投放多少车辆、 车辆的实时位置以及何时应该对其充电或加油。
软件的脆弱性所导致的信息泄露是另一个需 要关注的问题。随着自动驾驶汽车硬件和软件复 杂性的增加,会出现更多的漏洞。任何软件操作 系统都有一定的脆弱性,容易受到错误操作影响 和恶意入侵的攻击。至少存在这样几种技术解决 方案,有助于避免因软件故障而导致的信息泄 露。(1)应当注意在软件的操作系统中加入适当 的冗余设计,添加备用系统和防护设计,使得软 件在遇到危险及信息盗取情况下自动启动备用 系统进行防护。(2)在无人驾驶车辆中采用双操 作 系 统 ,这 两 个 系 统 之 间 相 互 备 份 、同 时 运 行 ,以 便保障车辆在出现错误时仍能平稳行驶。4(3)借 鉴鲁特·布里奇斯(Rutt Bridges)在《我们自动驾 驶的未来:天堂还是地狱?》(Our Driverless Future: Heaven or Hell)中给出的解决方案:在无 人驾驶汽车中安装一个智能屏,每位乘客在上车 时可以将智能屏抬起,选择属于自己的信息存储区,将自己的行车信息进行存储,并对其进行加 密;乘客下车时选择将智能屏关闭,即每位乘车 者将自己的行程等敏感信息独立存储。
有人也许会质疑,如果用户的信息具有独立 性和隐秘性,是否就增加了更新地图和发生紧急 情况救助的困难?这并不具有必然性。首先,无人 驾驶汽车收集到的所有信息都直接到达数据管 理组织那里,数据管理组织负责信息的隐私保 护 ,并 结 合 以“ 黑 盒 ”方 式 存 储 数 据 ,以 便 在 发 生 碰撞或其他事件时进行检查。1数据管理组织在 进 行“ 把 关 ”之 后 ,将 信 息 交 给 相 关 行 业 ,如 地 图 公司、软件开发商、消费公司等。(当然,乘客可以 自己选择是否将这些信息交给相关部门。)其次, 建立紧急事故救助站,这些紧急事故救助站将全 面掌握乘客的行程信息,只要行程未结束,他们 就会收到完整的信息——其实饱经批评之后“滴 滴出行”这方面已经有很大提升。最关键的是,随 着科技新时代的技术发展,未来的自动驾驶技术 其实不会让这种“紧急情况”频繁发生。
关于自动驾驶,应采用一种以未来为导向的 思维方式对这些问题进行深刻而全面的分析。本 文所探讨的是自动驾驶汽车发展可能带来的个 体层面和社会层面的伦理问题,这有益于我们对 自动驾驶汽车时代所产生的主要伦理问题形成 科学认识和深刻理解,有利于“以技术的手段解 决伦理的问题”,有助于促进人工智能时代伦理 规则的设立与技术治理的进步。
无论如何,与自动驾驶相关的伦理问题是我 们无法绕开、必须解决的问题;自动驾驶将是一 个可期的技术(在我国有望于 2020 年正式启动), 未来将是一个更加智能的时代。
Trolley Problem,Privacy Protection of Automatic Driving
TANG Xinghua1,GUO Liang2,TANG Jieyun3 (1. Department of the History of Science,Tsinghua University,Beijing 100084,China; 2. Institute of Justice and AI,Guanghua Law School,Zhejiang University,Hangzhou 310008,China;3. School of Philosophy,Renmin University of China,Beijing 100872,China)
Abstract: Automatic driving will profoundly change our life style,in the meantime,the ethical dilemma and privacy conflict of “automatic driving”will also emerge. The ethical dilemma is embodied at the individual level as ethical choices such as "trolley problem" in accidents. In privacy protection,passengers need to deliver a large amount of personal important information to the prison of automatic driving for sufficient convenience,involving issues such as network privacy protection and information disclosure. By establishing a data management organization to manage the legitimate use of information,passengers,data management organizations,governments,and software suppliers can work together to protect information security and passenger’s privacy,thus overcoming information leakage caused by software vulnerabilities. The arrival of automatic driving is hard to resist,but these problems must be solved first.
Key words: automatic driving;trolley problem;value quantification;moral code;ethical dilemma;privacy protection