No.1562 郭锐 | 人工智能伦理的终极困境

  《弗兰肯斯坦》电影海报

  以创造秩序的思考为前提,我们看到人工智能伦理的两大难题:1. 因果联系难题:人工智能被委以对人类事务做决策的能力,但它对决策结果的伦理判断能力不足:2. 终极准则难题:由于缺乏引导人工智能发挥作用的终极道德准则,人工智能难以在互相冲突的决策之间权衡。产生上述两个难题的根本原因是人工智能相对于人的局限。

  因果联系难题来自人工智能对决策后果的伦理意义的认知的局限性。换言之,人工智能对某一决策与其他社会影响之间难以建立因果联系,这在超级人工智能出现的条件下会导致人类的灭顶之灾。泰格马克举了人和蚂蚁的例子:尽管人并不是故意想要踩死蚂蚁,但是人因为不在乎蚂蚁的利益,经常会踩死蚂蚁。放在人和人工智能之间,因果联系难题在于人工智能并不“在乎”人的利益。尽管人工智能决策的目标并不是直接损害人,但完全可能对人产生间接损害,而后者对人可能是致命的。从蚂蚁的视角观察这个世界,类似于面对工业革命以后,人类对机器的恐惧:人操作的是一台开动起来就无法及时停下的机器,工人的手要是不小心卷进高速运转的机器,就会造成工伤。人对机器怀有一种根深蒂固的恐惧:机器只是重复机械执行人的命令,一旦开始就停不下来,会造成无法预料的后果(这种无法预料可能是因为设计者的疏忽,也可能是因为人的智力局限无法预料),如对人类肢体的伤害。这里我们看到机器区别于和人的特征是它缺乏随时随地进行的伦理判断的能力,而等到人介入的时候,为时已晚。

  在当代,人工智能往往被用来解决一个具体问题,而且只能通过已有的有限数据来作出决策,往往无法像人一样理解更广的社会和伦理语境。例如,人可能给出的是获取食物的指令,带来的是宠物被人工智能杀死的结果。人工智能对结果的伦理意义无法完全理解,以致于执行了人没有想到的指令。故此,我们对人工智能缺乏对对决策后果的伦理意义的认知有恐惧,是完全可以理解的。在人工智能技术(机器学习)本身缺乏透明度(黑箱问题)时,我们更有理由忧虑人工智能对决策结果的伦理判断能力不足。人工智能往往因为算法的原因(例如机器学习)和在具体情形下总是会有算力的局限,无法回溯机器作出决定的具体机制。无法回溯会带来在事先预测后果和事后作出纠正的能力的局限,导致我们在是否应用人工智能技术的问题上踌躇不决。

  终极准则难题来自于人工智能因没有已知的道德准则来指引其决策,难以在不同的决策结果之间进行比较。当人工智能能力很强大,它有潜力成为新的“上帝”,即人工智能成为人类全部决定的参与和影响者。但是,上述困境导致我们创造的“上帝”无力护理这个世界。”电车难题“淋漓尽致地表现了机器决策的困境:在发生事故时,无论自动驾驶汽车作出何种决策,都不是人类已有的共识。但其决策结果势必决定众多群体(如车内乘客和路上行人)的生死。这种困境让我们惊恐万分:当我们在发展一种强大的技术时,却没有能力找到它的终极控制方案,这让掌控技术的人承担了难以负担的责任。

  这两大难题导致了在实践的层面人们对人工智能技术的影响有如下两方面的忧虑:1. 人工智能技术恶化(范围扩大和程度加深)了已有的问题(如歧视、财富不平等);2. 人工智能技术带来了新的问题(如让有些人智力超过其他人,产生新的不平等的渊源)。工业革命之后,当机器出现在人类生活中,人们也曾感到忧虑。但人工智能技术带来的忧虑远甚于当年。人工智能技术第一次让机器不仅比人强大、而且还可以不依赖于人进行自主决策。如果问题仅仅是人控制机器做坏事,我们还可以通过对人的教育、追责来进行预防;如果机器可能“自己决定”做坏事,我们如何应对?

  面对人工智能伦理的终极困境,当我们真正谦卑地寻找这些问题的答案,我们应该回到历史中、社会变迁的背景下寻找新的起点。每当人们开始谈论伦理学,其背景总是社会上已经出现对伦理失范的恐惧。古希腊的修昔底德描述了希腊哲学开始探讨伦理学的历史背景。伯罗奔尼撒战争的第二年,雅典爆发了大瘟疫。瘟疫对雅典人道德的影响非常大。修昔底德写道:

  人们在神庙当中的作为,对神谕的讨论以及类似举措,这一切都无济于事。事实上,最后人们完全被他们所遭受的痛苦所压倒,以至于根本没有多余的精力投入到这些事上……他们在无人照料的境地下死去;实际上在很多房屋里,屋中人在无人注意的情况下悄然离世…死者的尸体相互枕藉,随处可见奄奄一息的病人在街上蹒跚而行,或是因为干渴而成群地聚集在泉水边。神庙当中到处都是尸体,他们死在神庙当中。由于灾难是如此无法抵抗,不知道接下来自已身上会发生什么的人们对于一切宗教律令和法律规定都视而不见……无论是对神的恐惧还是人制定的法律都不再具有约束效力。至于神灵,无论是否崇拜它们,事情看起来都是一样的,当人们看到好运和厄运无差别地降临到人们身上的时候。[2]

  面对日常存在的死亡威胁,有不少雅典人选择不再服从传统和习惯,开始整日纵欲享乐,因为即便是富人权贵也可能死于非命。荣誉对雅典人也不再有吸引力,法律也不能再约束雅典人。这让希腊的思想家们开始思考伦理究竟是什么。

  

  马可?奥勒留(公元282年-公元283年在位)

  类似地,罗马帝国的两次瘟疫是西方伦理学传统形成的关键时期。公元165年,在马可?奥勒留( Marcus Aurelius)统治时期,一场毁灭性的大瘟疫席卷整个罗马帝国。在瘟疫最盛行的时候,川流不息的大篷车和四轮马车不停的把尸体运出城外。一个世纪以后,罗马再次遭遇了大瘟疫。在此背景下,罗马社会迅速地被基督教伦理思想所影响,其最终结果是君士坦丁大帝顺应民情改宗基督教。迦太基主教居普良写道:

  在这看似可怖和致命的瘟疫和灾难当中,寻找属于每个人的正义并检视人类的心灵是多么适合,又是多么必要;病人是否得到了妥当的照料,亲属是否如他们所应做的那样去负责地爱护他们的亲眷,主人是否对他们染病的奴隶展现出同情,医生是否不离弃染病者…尽管死亡对任何其他事都毫无益处,但它对于基督徒和上帝的仆人有进益之功,当我们学着不去恐惧死亡的时候,我们已经开始愉快地寻求殉道之路。这是我们的尝试性的锻炼,而非死亡;它们给心灵以拯救之荣耀;通过蔑视死亡,它们准备了王冠…我们的弟兄们因主的召唤而自这土地上挣脱出来获得自由,不应为此感到悲伤,因为我们知道他们并未消逝,而只是先走一步;在启程之时他们引领着道路;正如旅人惯于漂泊,他们不应得到悲悼……而异教徒由此而来的对我们的指责是不公平也不公正的,追根究底,我们是在为那些我们说仍然活着的人们而感到悲伤。[3]

  在西方,早期基督教在文艺中面对死亡的伦理反思,大大影响了伦理学中对超验基础的强调。基督教伦理思考开始了“把人作为人来对待”这一伟大传统。类似地,当查尔斯.泰勒在追溯现代社会观念的产生时,在众多形形色色、纷繁芜杂的思潮中发现了自然法思想的独特。在过往的西方思想史研究中并不引人关注的国际法学家格劳秀斯、普芬道夫成了泰勒眼中现代性的真正开端:尽管一开始他们主张的自然法思想不过是国王统治秩序的新颖辩护,很快这种思想就成为批评旧秩序的思想来源。泰勒的追溯,为如何理解西方现代性的独特性提供了新鲜视角。[4] 自然法思想将个人权利建立在超验基础上时,才有了现代社会生活的可能性。在西方世界,人们以自然法为开端,把社会想象为(1)通过互相交换货物和服务而达到共同获益的经济,(2)在陌生人之间讨论共同关心话题的公共空间;和(3)无需共同接受的超验原则、通过某些世俗做法而形成一个国家。自然权利和自然法由此成为西方现代性的伦理基石。

  在上述自然法和自然权利的语境下,人们将善恶、好坏的追问归结于主体或者客观世界,这是现代性生成中主体构建的过程。[5] 在技术革命又一次到来的今天,很多学者把人工智能技术比作蒸汽机,认为这是社会巨变的又一次肇始。我们有没有发现一种新的伦理思想框架?何种理论会成为伦理学的新起点?何为人工智能时代的“自然法”?本书正是对这些问题的初步思考。

  如果我们回顾人类社会的发展历程,会看得很清楚,十九世纪和二十世纪工业革命和现代机器大工业的发展,让人们开始反思科技到底给人类社会带来了怎样的影响。一方面,现代科技帮助人类征服了洪水猛兽、干旱饥饿等等“外部敌人”;另一方面,在物质层面,科技发展打破了人与自然的原始平衡,带来了笼罩全球的环境和生态危机,在精神层面,技术在帮助人类征服自然方面的成功引发了工具理性的过度膨胀。工具理性所关注的是非人格化的逻辑关系,它以可计算的效率为主要追求目标,拒绝价值考虑的介入。而包括马克思在内的社会理论家提出的反思是,随着工具理性逐渐成为现代社会的主要模式,人本身也逐渐失去主体性而被对象化。

  人工智能技术对人的主体性带来了更大的挑战:人工智能把人更彻底地带进了算法决策的技术规程之中,这会不会恶化已有的问题、让社会产生更多的新问题?这一点我们在目前的技术发展和应用中已初见端倪。随着人工智能技术的发展及其在自动驾驶汽车、医疗、传媒、金融、工业机器人以及互联网服务等越来越多领域和场景应用的不断扩大和深入,一方面带来了效率的提升、成本的降低,有助于解决诸如失业、贫困等社会性问题;另一方面,人工智能系统的自主性使机器逐步替代了人类的工作,并且这种替代有时非但没有解决已有的问题,还恶化了已有的困境,甚至带来了新的挑战,引发社会公正、安全以及责任界定等诸多问题。如何在机器决策范围越来越广、程度越来越深的同时,保持人的道德主体性,是我们提出解答的关键。

  注 释

  [1] 关于对道义论和功利论的批评,参见【德】朋霍费尔:《伦理学》,胡其鼎译,上海世纪出版集团2005年版,第39-41页。

  [2] 参见:[古希腊] 修昔底德:《伯罗奔尼撒战争》,徐松岩、黄贤全译,广西师范大学出版社2004年版,第137-144页。

  [3] 参见:[美]罗德尼·斯塔克:《基督教的兴起》,上海古籍出版社2005年版,第四章。

  [4] 参见:[加]查尔斯·泰勒:《现代社会想象》,林曼红译,译林出版社2014年版,第14页。

  [5] 参见:[加]查尔斯·泰勒:《自我的根源:现代认同的形成》,韩震等译,译林出版社,2012年版,第34-40页。

  “

  本文选自郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第12-20页。

  ”