该怎样做符合“伦理”的超人?---《超人主义思想史》005 | 津渡中文杂志译页

  但是通过一些微妙的边界因素,我们能够缩小可能性的范围,从而形成对人类未来和我们在宇宙中地位的可持续观点。这些限制源自各种各样的事物:基于物理或化学的模拟分析,经济分析,进化论,概率论;,博弈论和宇宙学。由于这些事物的跨学科性和受时代受限,它们并没有得到广泛的理解。因此,任何能够加深我们对长期发展了解的尝试,都应该被严肃对待。

  ---

  本文于2005年由牛津大学哲学系教授尼克.博斯特罗姆(Nick Bostrom)写作。“为什么我们不能一直无忧无虑地生活下去呢?没有生老病死也没有愚蠢残缺。”这位牛津人类未来研究所创始人问,“为什么我们不能更新一下自己的系统,成为‘Human +’甚至‘Human ++’?”

  虽然除了最近真的没时间写稿以外,我觉得自己过得蛮好的,只想做咸鱼人类。大概正因为想法如此肤浅,才想要不服气地把这篇25页长的文章啃下来:凭什么要做“超人“?创造”超人“是可行的么?“超人”还是人类么?以及,到底为什么没事干要想这些东西啊!——或许我也可以写一篇《咸鱼人类史》。

  祝阅读愉快,挑刺愉快——如果你觉得文中有任何看起来不顺眼的地方,请留言+私信我们,向没有语病的美好世界看齐。初次做长文翻译,还请不要手下留情。

  (译:一块肉饼/编辑:Bessie)

  ---

  在过去的几十年里,学术界接下了“超人主义分析”这块烫手山芋。种类繁多,无法一一赘述。因此本文仅挑选其中的佼佼者作为示例。让我们从伦理学开始说起。

  自诞生以来,道德哲学(编者按:即伦理学的另一种说法,不过直译上前者是ethics,后者是moral philosophy。中文翻译都可以叫做伦理学,但表述略有不同。)就从不避讳讨论应用性问题。也曾有那么一段时间,应用伦理学宛如一潭死水。那是20世纪前中叶时,逻辑证实主义(logical positivism)正如日中天,道德哲学家们都跑去关注语言学和元伦理问题上了(编者按:关于语言哲学的部分,有兴趣的大家可以去搜索维特根斯坦。津渡有一篇关于羊肉的文章恰巧擦了一点他的边。元伦理学,meta-ethics,是侧重分析“本质”的伦理学分支,比较经典的问题如:道德和不道德的定义分别是怎样的?)。在那之后,应用伦理学死而复生,成为了学术界争相探讨的领域。这种逆转始自医学伦理(medical ethics)。二战时期,纳粹打着科学名义对人类进行的可怕实验,导致战后纽伦堡守则(1947)和赫尔辛基宣言(1964年)的推行。它们为医学实验制定了严格的保障措施,强调了“患者同意”的重要性和必须性。但是,现代医疗的兴盛却带来了前所未有的伦理困境——关闭维生系统,器官捐赠,资源配置,流产,预防指导,医患关系,知情同意协议及无行为能力的患者(编者按:这里的“无能”所指的是无法自主作出决定的患者,比如昏迷中的患者是没有办法自己决定是否关闭呼吸机或者是否捐献器官的)。在70年代,随着遗传学和辅助生殖技术的发展,人们对医学伦理的需求急速增长着。这个领域后来被称之为生物(生命)伦理学(bioethics)。现在,和超人主义有直接关联的问题,大多都逃不过这个范畴。除此之外,超人类主义还涉及人口伦理学(population ethics),元伦理学(meta‐ethics),政治哲学(political philosophy)及生物伦理学年轻的“姊妹”们——计算机伦理学,工程伦理学,环境伦理学(computer ethics, engineering ethics, environmental ethics)。

  甫一开始,生物伦理学就是由神学家,法律学家,医生以及越来越多的哲学家们主导的跨学科研究。患者权利团体的代表,残疾人活动家倡导者和其他兴趣团体偶尔也有加入。由于缺乏明确的方法论,这样的运动经常受到政治或宗教的非议,研究的学术质量往往深受其害。但在种种困难之余,生物伦理学仍然顽强生长着。愤世嫉俗者可能会将这一成就归功于该领域从别的地方中拿到的“好处”:医学教育的培养,医院董事会的协力,媒体的宣传,甚至是政治家以争议性手段提供的庇护。或许这些是可能的吧,但是我们可以从更善意的角度来理解这个学科的发展。它促使人们认识到,现代生物医学中出现了的道德困境。而解决这些问题,需要学者们研究并运用某种专业、系统的方式。虽然现存的学术水平和方法都有待提高和巩固,但我们已经充分利用了我们所拥有的资源。

  在人类进化问题上,道德哲学家们亦有许多贡献。 德里克.帕菲特(Derek Parfit)的经典之作《理与人(Reasons and Persons)》(1984)讨论了许多与人类改造相关的规范性问题。虽然帕菲特的分析都十分理想化,但他的论点无疑阐明了超人类计划中出现的许多道德考虑。同年,乔纳森·格洛弗(Jonathan Glover)的《我们该做怎样的人(What Sort of People Should there Be)?》一书在更具体的层面上探讨了人类改造技术,侧重于遗传学和各种可以提高社会透明度的技术。格洛弗对这些问题进行了明确和平衡的分析处理,远超乎时代。他的结论可以概述为:

  不单单只有人性是值得保存的。那些关乎于自我发展,自我表达,发展某种关系以及意识和理解的天性(都是需要延续下来的)。其中一些功能应该加以扩展,而非受到技术的威胁。

  因此有人说,在环境与遗传干预之间,必须有某种道德上的等同性原则。依此,彼得·辛格(Peter Singer)于2003年提出了“预防原则(preventive principle)”:

  如果有任意一种条件(称为X)——比如父母对出生不久的孩子进行虐待,使其可能患有X这种疾病。那么我们至少可以采取措施,阻止虐待的发生,从而防止孩子们患上X。

  (编者按:即从根源解决问题。不是因为孩子得病,只治病就可以了。而是找到病发的根源,然后根本性地铲除根源的存在。这样才能造福更多的孩子。同理,其他情况亦如是。)

  朱利安·萨库列斯(Julian Savulescu)在2001年提出了一种生殖受益原则(procreative beneficence),他认为,父母应该根据遗传信息选择孩子——哪个孩子会生活的更好?(作者按:这里的“应该”指的是有理有据的判断,而非胁迫)。然而这个原则,并非把所有的可能性都被摆在进一个详细的排名表上去比较。而是在有限的情况下进行成对的比较。例如,如果一对夫妇接受了IVF(编者按:即人工受孕),他们就必须选择遗传信息相同的两个胚胎之一。假设其中一个具有易患哮喘的缺陷基因。根据生殖受益原则,他们“应该”选择的是没有哮喘缺陷的健康胚胎进行植入。

  在《从机会到选择(From Chance to Choice)》(2010)中,艾伦.布坎南(Allen Buchanan),丹.布鲁克(Dan W. Brock),诺曼.丹尼尔斯(Norman Daniels)和丹尼尔.维勒(Daniel Wikler)探讨了遗传工程的进步会如何影响我们去定义正义,平等机会,我们作为父母的权利和义务,对残疾的理解,以及伦理理论和实践中的人性概念。在约翰·罗尔斯(John Rawls)启发下,他们研究出了旨在回答上述问题的理论框架。

  尼克.博斯特罗姆(作者)提出,我们需要发展出一系列方法,来探索(由于我们的生物学限制目前无法看到的)“更大的空间”和“更可能的存在模式”(编者按:此处即是作者多次提出的人类+和人类++。对于初次看到本章的读者,可以理解为类似于软件更新式的人类进化。)。这个更大的空间中,可能包含着非常有价值的生活方式,思想和感觉。为了达到这种更可能的模式,他还提出了缓解衰老甚至逆转死亡的紧迫性,提出了一个更广泛的人类尊严观念——“后人类尊严(posthuman dignity)”。

  独立学者埃利泽.尤德科夫斯基(Eliezer Yudkowsky)则更关注适用于超级智慧的伦理学。他试图找到一个办法,可以创造出对人类友好的AI这尤德科夫斯基认为基于规则的简单禁令(例如艾萨克·阿西莫夫的“机器人三项法则”)将产生致命且意想不到的后果。他认为超级智能是一个非常强大的优化系统,其核心任务是实现理想的结果。因此,尤德科夫斯基希望在人工智能上,能够推行一个更原始的规则,让它们“自己约束自己”

  (编者按:如何理解这个“理想结果”,可以参见本文作者于2015年TED的演讲。其中提到,我们让别人发笑的办法是说笑话逗对方笑,但超级机能智慧会采取更有效率的办法,一下子达到目的——给人的脸上安上电击,然后通电拉扯你的面部肌肉。这个斯基提出的办法,实际上就是给人工智能制定道德,制定伦理。这也是后来,在作者创办的人类未来研究中心里,科学家们一直试图在做的事情——让人工智能学会哲学。在理解给肌肉通电不是令人发笑的正确办法,它们就不会那么做了。即使,它们有能力做到。)

  博斯特罗姆(作者)于2002年引入了“存在风险(extensial risk)”的概念,将其定义为“将消灭地球智慧生活或永久削弱其力量的不利因素”,并创建了一份他认为的存在风险名录。纳米技术和超级智能在这个名录上名列前茅。同年,在一篇颇受讨论的热门文章《为什么未来不需要我们(Why the Future Doesn’t Need Us)》,比尔.乔伊(Bill Joy)认为人类应该放弃人工智能,纳米技术和遗传学的发展——因为这些学科最终会变得十分危险。 有些人对此十分反对,认为这不切实际,并会让人类损失巨大。甚至认为,如果这些科学研究被禁止后转入地下活动,其结果将更为恶劣。这样的禁令只会让风险徒增不减。尽管如此,这些技术的潜在隐患得到了广泛认可——约翰·莱斯利(John Leslie),马丁·里斯(Martin Rees)和理查德·波斯纳(Richard Posner)将有关风险评估为“至关重要”。

  基于以上考虑,博斯特罗姆又探讨了反乌托邦的概念,以及它可能导致的未来进化情景:

  下列假设至少有一项会真实发生:1)人类种族非常可能在到达“后人类阶段”前就灭绝。2)任何后人类文明都极不可能模拟出我们现在生活的真实情景。3)几乎可以肯定,我们会生活在电脑模拟中。假如这种电脑模拟不是由“后人类”开发出来的,那么现在的我们恰恰就身处这样模拟中。

  (编者按:可以参考《黑客帝国》的剧情来理解这第三个假设。或者这么想吧:有这样的一种情况,我们的后人,研发出了一种电脑模拟,来还原他们的祖先是如何生活的。还有一种情况,不存在什么后人类,因为在这那之前人类就灭绝了,那么我们现在生活的是由我们自己发展出的电脑模拟——这两种情况必然是矛盾的。)

  我们不知道会发生什么。但是通过一些微妙的边界因素,我们能够缩小可能性的范围,从而形成对人类未来和我们在宇宙中地位的可持续观点。这些限制源自各种各样的事物:基于物理或化学的模拟分析,经济分析,进化论,概率论;,博弈论和宇宙学。由于这些事物的跨学科性和受时代受限,它们并没有得到广泛的理解。因此,任何能够加深我们对长期发展了解的尝试,都应该被严肃对待。

  接下来是:世界上最危险的想法……么?---《超人主义思想史》006终 | 津渡中文杂志译页计划 - 知乎专栏

  往期回顾:是美丽新世界,还是1984?---《超人类思想史》002 | 津渡中文杂志译页计划 - 知乎专栏只需三步你的意识即可上传---《超人类主义思想史》003 | 津渡中文杂志译页计划 - 知乎专栏放我进去,还能再冻五百年---《超人类主义思想史》004 | 津渡中文杂志译页计划 - 知乎专栏

  (津渡中文杂志:jindumagazine——五分钟,陌生人,出戏。乱七八糟的想法都放进来。)