郑戈:技术面前,伦理的解释权归谁是个大问题

  【文/观察者网专栏作者 郑戈】

  伦理委员会在最近一段时间不断成为新闻热点。

  3月26日,谷歌宣布成立“先进技术外部咨询委员会”,希望通过哲学家、工程师和政策专家组成的团队帮助解决人工智能带来的道德风险。委员会原本计划每年举行四次会议,并编写报告,为谷歌的人工智能项目提供反馈,“为公司提供多元化的观点”。

  然而这一重大决定宣布仅仅十天,4月4日,这个探讨“AI道德”的精英委员会就宣布解散。究其原因,则是这个由8人组成的委员会名单中,有两位专家遭到了来自谷歌公司内部和外部的强烈反对。

  一个是美国保守派智库传统基金会的主席凯·科尔斯·詹姆斯,该基金会曾传播有关气候变化的错误信息,也是一个反对调节碳排放的智囊团。更重要的是,她对移民采取强硬立场,反对保护LGBTQ群体的权利。

  另一个是一家生产无人机的企业老总戴安·吉本斯。2018年,谷歌曾为美国军方提供云人工智能以分析无人驾驶飞机图像,当时该项目遭到谷歌员工的强烈反对,吸纳无人机公司创始人进入人工智能道德委员会让人们担心谷歌会重蹈覆辙。

  评估道德的专家自身的道德受到批判和质疑,很快这个摇摇欲坠的委员会也难以为继了,一次旨在美化公司形象的公关行动以公关危机的形式而告终,这是谷歌的管理层始料未及的。

  

  超过2350名谷歌员工签署了反对任用詹姆斯的联名信(图片来源:网络)

  从德国交通部伦理委员会发布自动驾驶汽车算法伦理指导意见,到贺建奎事件所涉及的医院内设伦理委员会。在信息技术和生物医学技术迅猛发展并遍及性地影响人类生活的今天,技术所带来的已经不仅仅是风险问题,还越来越多地涉及伦理争议。

  即使一种技术是安全的,其风险是可控的,它是否应当被用于某种目的、某种情境?

  这是一个科学家和技术人员无法给出明确答案的问题,或者说是一个任何专业人员所给出的答案都无法自带权威属性的问题。因此,无论是政府还是企业都试图通过设立跨学科的、有“广泛代表性”的伦理委员会来安抚公众,营造“不作恶”的表象。但不同国家的政治、法律和经济环境影响着伦理委员会的制度化形式、决策程序、功能和效果。

  通过最近的一系列事件可以帮助我们理解伦理委员会和伦理审查在美国和欧洲呈现出的不同样态。

  美国政府是一个毫不掩饰地为市场和资本家服务的政府。对技术应用的伦理审查主要是由各商业机构、大学和医院本身内设的伦理委员会来进行的。除非是在申请政府资助的场合,公权力并不主导或干预伦理审查。于是,伦理审查成为行业自治和企业公关的主要策略。

  值得注意的是,在涉及人的科学研究和技术应用领域引入伦理审查机制,这本身也起源于美国。1932年,美国公共健康服务局(U.S. Public Health Service)在阿拉巴马州的主要招收黑人学生的塔斯基吉学院(Tuskegee College)启动了一项关于黑人男性中的梅毒现象的研究。这项研究旨在观察未经治疗状态的梅毒发展情况。研究人员故意不给数百名试验对象任何有效的治疗,以便观察梅毒如何导致失明、心脏病、痴呆乃至死亡(政府为试验对象提供免费丧葬服务)。

  试验对象一开始被告知试验将持续六个月,而实际上这项试验一直持续了40年。1972年,一位塔斯基吉梅毒研究的参与者,彼得·巴克斯顿(Peter Buxtun)向媒体爆光了这项研究,导致参议员爱德华·肯尼迪紧急召集国会听证。1974年,美国国会通过了《国家科研法》,提出了在涉及人的科学研究和技术应用中引入伦理审查机制的要求。随后,美国卫生及公共服务部内设立了“人类研究保护司”(OHRP),负责监督临床试验。同时,所有从事涉及人的科学研究和技术开发机构也纷纷设立了“机构内置伦理委员会”(IRBs)。

  

  美国人类研究保护司(图片来源:网络)

  美国《国家科研法》还创设了一个“生物医学与行为研究中的人类主体保护国家委员会”,负责制定美国的科研伦理政策。该委员会于1978年发布了著名的《贝尔蒙特报告》(Belmont Report),其中提出了仁慈、正义和尊重人三大原则,作为科技伦理政策的指导原则。