人工智能伦理的无用性

  本文首发于“数据合规与治理”。

  作者信息: Luke Munn是常驻在新西兰奥克兰的媒介研究学者。他的研究关注数字文化的社会文化影响,以及数字文化与种族、政治和环境的交叉。

  文献引用:Munn, Luke. "The uselessness of AI ethics." AI and Ethics (2022): 1-9.

  摘要:随着人们对人工智能的力量和危险的认识不断提高,主流的反应是转向道德原则。在过去几年里,公共和私营部门都发布了大量的人工智能准则和道德规范。然而,这些都是毫无意义的原则,有争议或不融贯,使其难以应用;这些是孤立的原则,处于一个基本上忽视道德的行业和教育系统中;这些是没有牙齿的原则,缺乏后果,孜孜于企业的议程。由于这些原因,我认为人工智能的伦理原则是无用的,不能在任何有意义的层面减轻人工智能技术的种族、社会和环境损害。结果是高尚原则和技术实践之间存在差距。即使这种差距被承认,并且原则试图被“运维化”,从复杂社会概念到技术的规则集的转换也不容易。在一个零和的世界里,超着人工智能原则的主流转向不仅没有结果,而且是一种危险的分心,将巨大的财力和人力资源从潜在的更有效的活动中转移出来。最后,我强调了超越伦理原则的人工智能正义的替代方法:更广泛地思考压迫系统,更聚焦地思考准确性和审计。

  关键词:AI;伦理;伦理原则;道德;社会病;研究

  1 引言

  从医疗保健到人力资源、教育、农业、制造业和执法, 人工智能技术正越来越多地部署在一系列部门。然而,随着人工智能普及,其损害生命和生计的能力也在增长。在福利和社会支持系统中,自动决策系统会加剧不平等、并惩罚穷人[18]。种族化的假设可以嵌入到信息基础设施中,使得思维定势观念和偏见永久化[55]。数据驱动的模型可能是不透明且有偏见的,在高风险领域做出有害选择,并破坏民主和平等的条件[60]。所有这些技术都是在已出现经济和社会分层的人和空间上运行的[51],这提高了使得技术以促进人权和尊严的方式运行的重要性和难度。人工智能的承诺已经被其潜在的危害所削弱[64]。

  随着对人工智能的力量和危险的认识的提高,主流的应对是转向人工智能的伦理学——根据牛津英语词典和韦氏词典,伦理学在这里被理解为狭义、但已被证实的“一套道德原则”。公共和私营部门已发布指导方针、框架和原则,都是为了在创造新的人工智能技术时适用。其中有50多个是由政府机构发布,包括由英国、美国、日本、中国、印度、墨西哥、澳大利亚和新西兰等国的国家框架[69]。还有《北京人工智能原则》、DeepMind的《伦理与社会原则》[15]、IEEE的《统一伦理设计》[34]、德国电信的《人工智能准则》[17]以及被称为《罗马人工智能伦理呼吁》的梵蒂冈人工智能原则[65]。事实上,人工智能伦理学家已经有了80多个原则的清单,而且还在不断增加[2]。

  这篇文章认为,大量的人工智能伦理原则基本上是无用的。虽然这个观点有些挑事,但绝非踽然独行:越来越多的声音开始批评朝着人工智能伦理原则的现实转向是无效的[39, 48, 69, 78]。在前三节中,我列出了这种失败的三个原因:无意义的原则、孤立的原则和没有牙齿的原则。这种失败的结果,是高尚理想和实践技术发展间的鸿沟——原则和实践间的差距。虽然新近工作旨在通过运维这些原则来解决这一差距[12, 49],但这项工作在试图将有争议的社会概念转化为技术规则和特征集方面充满了问题。最后一节认为,在一个零和的世界里,对人工智能原则的迷恋不仅无用,而且危险,因为它把人力和财力从更有成效的方法中抽离。因此,文章最后强调了一些替代方案:第一种方案是更宽泛地思考人工智能正义,考虑社会政治动态和压迫的系统[14, 46];第二种方案更聚焦地思考、关注具体问题,如准确性、审计和治理[25, 67]。

  2 无意义的原则

  近年来,大量的人工智能道德准则、框架和指南产出了相应的原则。事实上,已有定期的元调查试图整理和总结这些原则[35]。然而,这些原则高度抽象且模糊,愈发不融贯。Mittelstadt[45,第501页]认为关于人工智能伦理的工作在很大程度上产生了“模糊的、高层次的原则和价值声明,它们承诺是行动指南,但实际上几乎没有提供具体建议,也没有解决关键概念中蕴含的基本规范和政治张力。”这里的重点不是要辩论任何一种价值对另一种价值的好处,而是要强调在关键术语方面根本就缺乏共识。像“公平”和“隐私”这样值得称赞的价值观在接受审视时的崩坏,导致了各异的愿景和严重不相容的目标。

  存在哪些共同的人工智能原则?尽管道德声明如雨后春笋般涌现,Floridi和Cowls[21]认为许多价值频繁登场,可以浓缩为五个核心的原则:为善、无害、自主、公正和可解释。这些理想听起来很美好。毕竟,谁会反对为善的原则呢?然而,当我们开始定义为善原则的含义时,问题立即出现了。例如,蒙特利尔原则[77,第545页]使用了“福祉”一词,暗示着人工智能的发展应该促进“所有有生命的生物的福祉”。虽然值得称赞,但这里显然存在需要考虑的张力。例如可以想一想,信息技术是如何通过实现通信和商业交易来支持人类繁荣的某些概念——同时造成了碳排放、环境退化和气候危机[33, 41, 52]。换句话说,人工智能促进了一些生物(人类)的福祉,同时却能动地破坏了其他生物的福祉。

  同样的问题出现在《关于人工智能、机器人和自主系统的声明》中[19]。其中通过“可持续发展”的概念来表示善意,宣称人工智能必须促进地球上的生命的基本前提条件。很少有人直接反对这样一个值得称赞的目标。然而,对于如何实现这一目标,显然存在着巨大的分歧。新自由主义的干预措施(自由贸易、全球化、放松管制)的支持者会认为这些措施有助于经济繁荣,并在这个意义上维持地球上的生命。事实上,甚至石油和天然气行业也在促进可持续性的名义下倡导使用人工智能[16]。那么,可持续性是一个高度模糊、甚至是智识上空洞的术语[3,40],为不同的活动和意识形态所裹挟。某种意义上,可持续性可以意味着你需要它的任何含义。事实上,即使是欧洲小组的成员也谴责这些准则是“温吞水”和“蓄意模糊的”,认为其“掩盖了困难的问题”,比如通过修辞掩盖可解释性的问题[43]。

  如果说可持续性是模糊的,那么人工智能伦理框架中使用的许多关键术语也是模糊的。安全、福祉、自治和正义都是有争议的概念,并且经常根据场景不同发生重大的变化。例如,隐私长期以来充斥着相互竞争且矛盾的定义,学术界注意到这一术语缺乏明确性和共识[5]。即使是最有影响力的隐私概念也将其描述为一个大篷子,容纳了不同的利益集团和不同的含义[75]。因此,人工智能框架中的许多关键概念都承载了过重的负担,充满了矛盾的含义。Floridi[20]建议人工智能的开发者可以进行道德的购物,从不同的框架中自由借用,来达到一套易于实施的规范。然而,上文概述的人工智能原则的模糊性表明,这种玩世不恭的混搭可能根本没有必要。相反,像“为善”和“正义”这样的术语可以简单地以适合的方式定义,以符合已然决定的产品特性和商业目标。这种模糊性有利于道德的“打勾”,使得公司可以声称遵守一套原则或理想,而不需要进行任何有意义的反思或重新配置。

  3 孤立的原则

  人工智能的发展并非在真空中进行的。技术的发展和采用总是高度社会和文化的[27],嵌入到人类和非人类行动者的丰富网络中[38]。这意味着技术受到现有实践和结构的影响,无论是公司的文化还是组织的规范[61]。如果认为一个人工智能模型是“有偏见的”,并且认为只需要调整这个模型,那就是采用了一个过于狭窄的范围,忽略了更广泛或更系统的问题。正如Lauer[39]所言,“建立道德人工智能的失败可以追溯到整个组织道德的失败”。在这个意义上,工程师缺乏对伦理问题的有意义的参与是一个更深层次问题的症状。不道德的人工智能是一个不道德的行业的逻辑副产品。

  科技文化的有毒性及其对性别歧视和厌女症的传播有据可查[81]。这是一种以超男性化的程序员或“哥们程序员”而闻名的文化,在大会上使用“展台美女”来吸引眼球,其著名的公司创始人经常提到色情内容[10]。一家以创新和财务成功而闻名的全球共享汽车公司,长期以来由一名男子掌舵,他为公司的庆祝活动撰写了一份性的备忘录,并将其泡妞能力描述为“优捕”[50]。一些最受崇拜的公司和创始人公开炫耀这类活动,促成了一个高度厌恶女性的环境。在对200多名在硅谷工作超过10年的女性科技工作者的调查中,60%报告了不受欢迎的性挑逗[80]。

  涉及种族问题时,可以看到同样的有毒条件。最近的一项集体诉讼指控一家广为人知的科技公司多年来培育了种族主义的工作条件,包括每天遭受种族污辱,被分配到工厂隔离区从事低级工作,以及在晋升管理层时被拒[63]。或者我们可能会想到在另一家以人工智能工作闻名的主要科技公司流传的十页“反多样性”备忘录,该备忘录暗示白人男性被边缘化和压迫[13]。尽管声称自身是后种族主义的贤能制,但科技文化仍然是一个以白人、男性、异性恋价值观为标志的文化——那些不符合这种身份的人以微妙但实质性的方式被歧视[56]。

  如果科技行业缺乏道德,那么即将加入该行业的软件工程师和技术专家的教育也是如此。本科的数据科学学位强调计算机科学和统计学,但在伦理学方面有所欠缺[59]。软件工程、计算机科学和其他导向人工智能发展的学位都紧紧围绕技术挑战及其解决方案,但几乎没有考虑伦理挑战——技术与种族、阶级和文化的交叉,以及这一切如何引入新的伤害或加剧现有的不平等[68]。尽管新兴技术带来了明显的伦理困境,但García-Holgado等人[23]观察到在西班牙大学的计算机科学课程中缺乏对计算机伦理的整合。同样,在澳大利亚,Gorur等人[26]调查了大学中的12个课程,发现这些课程侧重于微观的道德概念,如职业精神,而缺乏宏观的道德议程,如改善社会和地球。伦理学单元很少包括在计算机科学课程中,如果还有时间的话,其中几个单元甚至被分流到最后几节课[24],显示出伦理学在人工智能教育中的低下地位。

  教育中缺乏伦理培训,再加上行业中缺乏伦理应用,表明人工智能的发展是在一个伦理空洞的环境中进行的。不能说人工智能技术专家是“不道德的”,因为这意味着对道德规范的认知和积极地忽视或违反道德规范的决定。相反,这些技术是在一个“非道德”的空间里被概念化、开发并推向市场的,在这个领域里,道德困境甚至从未进入框架。在这个意义上,开发技术时考虑的问题空间过于狭窄,没有包括以特定方式设计产品的伦理、道德和社会影响[62]。鉴于这些情况,紧紧围绕数字产品或服务的人工智能道德准则的存在似乎完全不够。这样一个位于公司文化“下游”的道德框架,将无法解决更根本的不平等和影响技术发展的潜在社会问题。

  4 没有牙齿的原则

  最后,由于缺乏后果,人工智能伦理原则已经失败。Rességuier和Rodrigues[69]认为,目前的人工智能伦理学没有牙齿,这是因为伦理学被用来代替监管。伦理学被要求去做一些设计时从未预期过的事情。人工智能伦理框架可以设定规范性的理想,但缺乏强制遵守这些价值和原则的机制[69]。在调查了22套准则之后,Hagendorf[28]得出结论,人工智能伦理学在许多方面都是失败的;它们缺乏任何执行机制,它们的价值观很容易被经济激励所取代,往往成为营销手段而已。

  Calo[11]指出原则不是“自我强化的”,“而且违反原则也没有实际的惩罚”。例如在2019年,谷歌宣布建立一个新的独立机构来审查该公司的人工智能实践。先进技术外部咨询委员会由哲学家、工程师和政策专家组成,将审查并评估该公司的项目是否违反了其人工智能原则。然而,委员会将没有实际权力来否决项目,或者以任何有意义的方式终止它们[36]。

  对(没有牙齿的)道德的关注是技术公司的福音,他们长期以来一直试图超越或避免立法。优步超越了监管,以一种旨在绕过劳工责任和保护的商业模式迅速扩张到全球各地的城市[50]。同样,Airbnb也迅速在全球范围内扩张,在主要中心地区经营多年,最终面临着房屋租赁和酒店的监管。当立法赶上时,公司试图阻碍、抵制或推翻法规,涉及苹果、谷歌、脸书和其他公司的引人注目的法律案件表明了这一点。

  立法需要时间来起草、通过和执行,在这个意义上,Nemitz[54]将对人工智能伦理的关注和随后对监管的延宕描述为企业的天才之举。将道德声明的制作置于聚光灯下,使得科技运作不受约束,不受诉讼、罚款或其他处罚的阻碍。Ochigame[57]对此表示赞同,他断言道德人工智能“在战略层面与硅谷寻求避免对有争议的技术进行法律上可执行的限制的努力保持一致”。因此,Nemitz[54]呼吁立法应该紧随道德:法律具有民主的合法性,可以强制执行,产生可信的、人工智能的庄家们需要考量的威胁。

  没有牙齿不仅是指缺乏惩罚,也是指道德原则和现有商业原则之间缺乏摩擦。格林[27,第209页]提出道德是“模糊的,没有牙齿的”,是“被企业的逻辑和激励所吸收”。人工智能伦理声明列出的价值观和人工智能伦理组织提出的价值观与企业价值观紧密相连(或者如第一节所示,可以用与企业价值观一致的方式来解释)。这些原则被整齐地塞进了现有的企业规则手册,很少有人质疑“不断将这些产品推向市场的商业文化、收入模式或激励机制”[31, 43]。例如,“人工智能伙伴”(Partnership on AI)将自己标榜为一个由学术界、民间社会、工业界和媒体等不同利益相关者组成的非营利团体。这个组织隐含的主张是为人们发声,并以此对抗企业的过度扩张,或至少使其受到制约。然而,Ochigame[57]观察到该组织的建议“与企业议程一致”,基本上是为了使人工智能庄家们的活动合法化。

  没有牙齿意味着企业可以通过在伦理框架方面开展高调的工作来纾缓其声誉,并确信这种伦理不会从根本上改变其产品性能、组织结构或季度收益。换句话说,公司可以享受道德的外表、并避免其实质。借用众所周知的“绿色洗涤”的概念,这种以“道德洗涤”为手段来逃避监管的现象在关于人工智能伦理的辩论中已经变得非常突出[20, 30, 43, 82]。

  5 原则/实践的差距

  人工智能伦理原则的失败并非引人注目,而是无声无息,也导致了所欲的结果:一切照旧。在其人工智能辩论声明中,Calo[11]强调了这个悖论。人工智能被誉为革命性的,是一种将以无数种方式颠覆工作和生活的转变——然而,在更新立法和监管以管理这一转变方面却存在很大的阻力。对人工智能伦理的痴迷使得这一悖论永久化,维护人工智能创新的修辞的同时,从未允许人工智能的变革潜力改变法律框架,或以任何有意义的方式影响技术运行。

  一切照旧表明:在道德准则和实际执行之间存在鸿沟,在原则和实践之间存在差距。当我们转向开发人工智能技术的生产环境时,这一鸿沟变得很明显。像计算机协会这样的行业机构已经通过了道德准则,旨在指导和管理工程实践。然而,在一项对软件工程学生和专业软件开发人员的研究中,McNamara等人[42]发现与对照组相比,明确指示开发人员考虑这一道德准则没有造成明显的差异。开发人员并没有改变他们既定的工作方式。

  在另一项研究中,Vakkuri等人[79]在五个参与人工智能开发的不同公司进行了访谈。虽然所有参与者都承认道德的重要性,但当被问及他们的人工智能开发实践是否考虑了道德问题时,所有的受访者都回答没有[79]。在这项基于经验的研究的基础上,作者提出,在人工智能伦理的研究和实践之间存在着巨大的差距[71]。在后来的研究中,Vakkuri等人[78,第195页]专门研究了软件创业环境中开发者的态度,得出的结论是:“在人工智能的努力中,伦理考量被完全无视。”在学术界和研究机构中备受推崇的伦理,在进入实际构建技术的工程实验室和开发者工作室时却被抛却了。

  认识到目前人工智能原则和人工智能实践之间的差距,研究人员和公司旨在使伦理价值在现实世界中可行且可操作。存在弥补这种伦理/实践差距[73]、使得人工智能伦理原则可操作化[12, 47]、并将原则转化为实践[49]的驱动力。思想高尚的规范性声明必须以有意义的方式整合到数据集、生产管线和产品功能中。Morley等人[48]以软件即服务为线索,建议可以将伦理作为一种由独立多学科伦理委员会、合作开发的伦理守则和人工智能从业者本身组成的服务。

  然而,人工智能伦理的可操作性有可能是困难的,甚至是不可能的,这是一个被专注于技术的行业甚至是伦理学家所低估的艰巨挑战。例如,Hagendorf[28,第103页]既提出了一些突出的观点,也提到了隐私和公平——这些在伦理框架中经常出现的方面——“可以或已经开发出了技术的修复方案”。他接着说,“问责制、可解释性、隐私、公正,还有其他价值,如稳健性或安全性,最容易用数学方法操作,因此倾向于用技术解决方案来运维”[28,第103页]。像公平和隐私这样的问题被轻易地挥着手着“解决”了,令人震惊。这些都是高度争议的问题,具备很大的风险。什么是公平,谁能决定它?公平的概念如何应对特定人群遭受的历史不平等?在不同的环境和条件下,公平会有什么不同的表现?这些都是复杂的问题,随着时间的推移发生很大的变化,并与种族、性别和文化相互交叉[29, 58]。

  当然,这并不是说计算机科学中没有围绕这些问题的工作。例如,当涉及隐私时,基于云的技术启动了数据分类或加密变量的新方法,使得识别主体或取消匿名的能力最小化[53]。但这些工作采用了对隐私的一种特定的理解,并以一种特定的方式来回应。而且即使在这个狭窄的范围内,也总是有需要考虑的权衡和变通[53]。这一点也适用于相关的概念,如公平、安全和正义,这些概念绝不能被认为由迄今为止仅有限的技术回应“解决”了。

  运维不是简单地将伦理价值“转化”为技术成果的敷衍了事。有一些张力和权衡必须通过努力,并在数据模型或数字产品的物质形式中得到解决。Krijger[37]认为在试图操作人工智能伦理时有两种关键的张力:一种是原则间的张力,即对人工智能的设计提出竞争性的伦理要求;另一种是原则内的张力,它强调了将原则具体化为技术形式的困难性。基于上述见解,我们可以提出操作化的两个障碍:(1)与相互竞争的原则搏斗、以达成有意义要求的挑战;(2)将这些要求落实为具体的功能、界面和基础设施的挑战。这是一项艰难的工作,需要参与社会和政治问题,并对不同的设计进行原型设计、测试和拒绝:没有捷径。

  6 伦理原则的替代选项

  朝着人工智能原则的主流转向,同时也是远离其他替代性方法的转向。在一个零和世界里,大量的人力和财力资源被投入到生成人工智能伦理框架的过程中,使其远离了其他行动方案。因此,谴责人工智能伦理学没有结果或没有用处是不够的。相反,对迄今为止的伦理学工作的影响进行批判性评估后,必须得出结论:它是危险的,囤积了本该用于更有效工作的专业知识和资金。人工智能的高风险——能够以物质方式伤害一些最脆弱的社区和生态-——会增加认识到这种战略失误及其资源分配错误的紧迫性。

  除了事实上转向道德原则,还有什么方法更有成效?从本质上讲,一种方法是更广泛地思考人工智能的正义。Zal-nieriute[84,第139页]认为,目前对人工智能的程序性问题(如透明度)的关注是盲目的,起到了“混淆视听的作用,使人无法理解关于权力集中、实质性政策和技术巨头的行动等更实质性的基本问题”。Powles同样[66]提出,紧紧集中在偏见上会分散我们对关于权力和人工智能的更基本和更紧迫的问题的注意力。

  人工智能正义提供了一个有用的术语,有效地扩大了调查和干预的伦理范围。正如Gabriel[22,第218页]所指出,人工智能正义“重新构建了围绕‘人工智能伦理’的大部分讨论,提请注意算法的道德属性不是模型本身的内部属性,而是其被部署其中的社会系统的产物。”如果道德原则位于公司文化和更广泛的权力体系中(如第2节所述),那么扩大道德参与的范围是有意义的。或者,换句话说,如果机器学习反映、复制和放大了结构性的不平等,那么任何道德项目都必须交叉地运作,考虑一系列广泛的社会和政治动态[14]。

  这种更广泛的分析可能会带来什么?作为一个简单的例子,人工智能的公正可能会让我们更批判性地反思人工智能修辞中“人类”的普遍概念,以及我们需要设计人工智能以造福“人类”这一经常是空洞的道理。历史表明,一些种族和族裔群体被认为比其他人更“为人”,更值得拥有,而其他人则被认为不如人,甚至是亚人[51]。同样地,人工智能正义可能提供了有用的方法来解决像“公平”这样出现在许多伦理框架中的理所当然的原则的问题。历史上,公平被霸权集团以延续其优势的方式定义,远非什么“常识”,公平总是历史的、文化的,具有主导性的种族和性别的层面[83]。

  对人工智能正义的承诺在实践中可能是什么样子?在具体层面上,它可能意味着组织与那些首当其冲受到人工智能影响、但通常不被咨询的群体接触:儿童、有色人种、LGBTQIA+社区、移民及其他群体。那些开发人工智能的人需要更好地了解这些社区的特殊需求,然后以有意义的方式与他们合作,确保人工智能有助于他们的福祉,不会加剧历史上的不平等。大型科技公司和“技术领先”的政府在这方面尤其可以发挥表率作用,从而为未来的最佳人工智能工作建立一个蓝图。

  人工智能的正义还可以如何体现?更广泛地考虑人工智能的正义可能意味着要面对资本主义和计算之间的长期关系[4],认识到技术将女性边缘化的程度[32],或者考虑被赋予特权的知识体系和被忽略的本土认识论[74]。一项具体的工作已经开始更具体地思考如何使得人工智能去殖民化,解离不平等的历史和不对称的权力系统[46]。然而,这项工作刚刚起步,而且仍然不清楚人工智能技术如何被去殖民化,甚至不清楚这可能意味着什么[1]。这是一项艰巨的工作,可能需要承认特权,面对企业的假设,或者发展社区的共识。与人工智能原则方面的突出工作相比,Bender[6]提出,这种扭转权力集中和长期压迫系统的工作更难,也更不时髦——但如果没有它们,关于道德人工智能的工作就会没用。

  如果说人工智能的正义及其对拓宽我们的伦理视野的呼吁是一种方法,那么另一种方法本质上就是更聚焦地思考。这样的工作并没有引入人工智能伦理的宏大范围,而是经常使用更平凡但更容易理解的术语:准确性、对齐、错配和影响。在这方面,Timnit Gebru和她同事的工作堪称典范。如果面部分析因其数据集以浅色皮肤被试者为主而导致被试者分类错误,这个问题可以通过引入一个新的、平衡性别和皮肤类型的数据集来部分地诊断和解决[9]。如果人工智能产品使用的数据集的出处和来源经常被掩盖,那么这个问题可以通过“数据表”来缓解,该文件列出了数据集的创建、收集方法、局限性、推荐用途等[25]。

  这是细活,甚至也是粗活,是挖掘机器学习和人工智能生产的数据基础设施和数字底座的不太引人注目的劳动。毕竟,人工智能是物质而非魔法,是由数据集、软件库、工程专业知识和硬件加速计算拼凑而成。正如Joanna Bryson[7]所提醒的:人工智能和机器学习是通过设计发生的,并产出一个物质的人工制品;审计、治理和立法应该被用来纠正马虎或不适当的制成品,就像我们对其他产品一样。这种研究的基本思路是,通过将通常模糊的“道德”概念分解为可衡量的指标和独立的目标,在改善人工智能方面取得具体进展。

  在调查这项工作时,出现了两个目的。首先是透明度。这是一种可以看到一个系统是如何运作、掌握其假设是什么、并了解其如何应对不同场景和情形的能力。监督和审计是这个主题中的关键术语。作为一个例子,Raji等人[67]提出了一个用于人工智能生产的端到端框架。该系统将允许开发者在每个阶段审计他们的工作,并查看其与组织原则的匹配程度。这种工具的目的是对正在做出的各种决定和可能产生的各种(潜在的有害)后果提供更好的监督。与此类似,Mitchell等人[44]提出了用于模型报告的模型卡。这些简短的文件将与训练的机器学习模型一同提供,并提供基线的评估。这样的工具允许开发者看到模型在各种不同条件下的反应,例如,分析其在不同人口或表型群体中的表现。

  一旦我们能够理解一个模型或系统的问题所在,我们就需要有能力根据这一信息采取行动。因此,透明度必须伴随着问责制。追究、责任和管理是这里的关键术语。需要有明确的责任界限,技术的生产者和消费者都必须有能力有意义地解决有害的人工智能技术。纠正这些伤害可能需要重新设计产品、咨询社区成员、或完全停止人工智能服务。问责制必须得到执行的支持:诉讼、罚款或禁止在特定的司法管辖区使用。这样的目标表明:可以通过使用管理层级和人在环路的传统治理结构来确定组织内的责任[8]。然而,同样地,他们也建议草根层面的努力,旨在通过更好适应特定社区的需求的方式重新想象数据模型,以求纠正伤害[71]。

  综合来看,这些更广泛和更聚焦的思考方式表明:许多不同的利益相关者都可以在重塑人工智能方面发挥自己的作用。设计师和开发人员能够将特定的能力写成代码,并将其整合到数字产品和平台中。管理者可以在实施测试和审计库方面发挥主导作用。商业和社区领导人可以建立反思的文化,并对批评性质疑和探索的形式持开放态度。政府可以创建新的政策机制,并通过为相关机构提供适当的资源来强制遵守。甚至像专业协会和保险公司这样的小角色也可以通过行为准则和将某些做法定义为风险而施加力量。双管齐下的方式超越了道德原则,通过对人工智能的潜力和隐患进行深入和彻底的反思在这一关键领域取得进展。

  参考文献

  1. Adams, R.: Can artificial intelligence be decolonized? Interdiscipl. Sci. Rev. 46(1–2), 176–197 (2021)

  2. AI Ethicist.: AI principles. AI Ethicist (2021). https://www.aiethicist.org/ai-principles

  3. Amsler, S.S.: Embracing the politics of ambiguity: towards a normative theory of ‘Sustainability.’ Capital. Nat. Social. 20(2), 111–125 (2009)

  4. Beller, J.: The World Computer: Derivative Conditions of Racial Capitalism. Duke University Press, Durham (2021)

  5. Bellin, J.: Pure privacy. Northwest. Univ. Law Rev. 116(2), 463 (2021)

  6. Bender, E.: Working out systems of governance, appropriate regulations & most importantly how to reverse modern power centralization & long-standing systems of oppression is both much harder and much less trendy. But work on ‘Responsible’ or ‘Ethical’ ML/‘AI’ is useless without it. Tweet. Twitter (2022). https://twitter.com/emilymbender/status/1529556392268468224

  7. Bryson, J.J.: The artificial intelligence of the ethics of artificial intelligence: an introductory overview for law and regulation. In: Dubber, M.D., Pasquale, F., Das, S. (eds.) The Oxford Handbook of Ethics of AI. Oxford University Press, New York (2020)

  8. Buckley, R.P., Zetzsche, D.A., Arner, D.W., Tang, B.W.: Regulating artifcial intelligence in fnance: putting the human in the loop. Sydney Law Rev. 43(1), 43–81 (2021)

  9. Buolamwini, J., Gebru, T.: Gender shades: intersectional accuracy disparities in commercial gender classifcation. In: Conference on Fairness, Accountability and Transparency, pp. 77–91. PMLR (2018)

  10. Burleigh, N.: What silicon valley thinks of women. Newsweek 28, 2015 (2015)

  11. Calo, R.: Remark at AI debate 2. (2021). https://www.youtube.com/watch?v=XoYYpLIoxf0

  12. Canca, C.: Operationalizing AI ethics principles. Commun. ACM 63(12), 18–21 (2020)

  13. Conger, K.: Exclusive: Here’s the full 10-page anti-diversity screed circulating internally at Google. Gizmodo (2017). August 5, 2017. https://gizmodo.com/exclusive-heres-the-full10-page-anti-diversity-screed-1797564320

  14. Davis, J.L., Williams, A., Yang, M.W.: Algorithmic reparation. Big Data Soc. 8(2), 20539517211044810 (2021)

  15. DeepMind.: Ethics & society. (2020). https://www.deepmind.com/about/ethics-and-society. Accessed 25 May 2022

  16. Desai, J.N., Pandian, S., Vij, R.K.: Big data analytics in upstream oil and gas industries for sustainable exploration and development: a review. Environ. Technol. Innov. 21, 101186 (2021)

  17. Deutsche Telekom.: AI guidelines. (2018). April 24, 2018. https://www.telekom.com/resource/blob/532446/f32ea4f5726f3ed3902e97dd945fa14/dl-180710-ki-leitlinien-en-data.pdf

  18. Eubanks, V.: Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press, New York (2018)

  19. European Group on Ethics in Science and New Technologies.: Statement on artificial intelligence, robotics and ‘autonomous’ systems: Brussels, 9 March 2018. European Commission, Brussels (2018). https://data.europa.eu/doi/10.2777/531856

  20. Floridi, L.: Translating principles into practices of digital ethics: five risks of being unethical. Philos. Technol. 32(2), 185–193 (2019). https://doi.org/10.1007/s13347-019-00354-x

  21. Floridi, L., Cowls, J.: A unified framework of five principles for AI in society. Harv. Data Sci. Rev. (2019). https://doi.org/10.1162/99608f92.8cd550d1

  22. Gabriel, I.: Toward a theory of justice for artificial intelligence. Daedalus 151(2), 218–231 (2022). https://doi.org/10.1162/daed_a_01911

  23. García-Holgado, A., García-Pe?alvo, F.J., Therón, R., Vázquez-Ingelmo, A., Gamazo, A., González-González, C.S., Iranzo, R.M.G., Silveira, I.F., Forment, M.A.: Development of a SPOC of computer ethics for students of computer science degree. In: 2021 XI International Conference on Virtual Campus (JICV), pp. 1–3. IEEE (2021)

  24. Garrett, N., Beard, N., Fiesler, C.: More than ‘If Time Allows’: the role of ethics in AI education. Proc. AAAI/ACM Conference on AI, Ethics, and Society, pp. 272–8. (2020). https://dl.acm.org/doi/abs/10.1145/3375627.3375868.

  25. Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J.W., Wallach, H., Iii, H.D., Crawford, K.: Datasheets for datasets. Commun. ACM 64(12), 86–92 (2021). https://doi.org/10.1145/3458723

  26. Gorur, R., Hoon, L., Kowal, E.: Computer science ethics education in Australia—a work in progress. In: 2020 IEEE International Conference on Teaching, Assessment, and Learning for Engineering (TALE), pp. 945–947. (2020). https://doi.org/10.1109/TALE48869.2020.9368375

  27. Green, B.: The contestation of tech ethics: a sociotechnical approach to technology ethics in practice. J. Soc. Comput. 2(3), 209–225 (2021). https://doi.org/10.23919/JSC.2021.0018

  28. Hagendorf, T.: The ethics of AI ethics: an evaluation of guidelines. Mind. Mach. 30(1), 99–120 (2020). https://doi.org/10.1007/s11023-020-09517-8

  29. Hanna, A., Denton, E., Smart, A., Smith-Loud, J.: Towards a critical race methodology in algorithmic fairness. In: Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, pp. 501–512 (2020)

  30. Hao, K.: In 2020, let’s stop AI ethics-washing and actually do something. MIT Technology Review (2019). https://www.technologyreview.com/2019/12/27/57/ai-ethics-washing-time-to-act/

  31. Hickok, M.: Lessons learned from AI ethics principles for future actions. AI Ethics 1(1), 41–47 (2021)

  32. Hicks, M.: Programmed Inequality: How Britain Discarded Women Technologists and Lost Its Edge in Computing. MIT Press, Cambridge (2018). https://mitpress.mit.edu/books/programmed-inequality

  33. Hogan, M.: Data flows and water woes: the Utah Data Center. Big Data Soc. 2(2), 205395171559242 (2015). https://doi.org/10.1177/2053951715592429

  34. IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems.: Ethically aligned design: a vision for prioritizing human well-being with autonomous and intelligent systems. IEEE (2019). https://ethicsinaction.ieee.org/

  35. Khan, A.A., Badshah, S., Liang, P., Khan, B., Waseem, M., Niazi, M., Akbar, M.A.: Ethics of AI: a systematic literature review of principles and challenges. (2021). http://arxiv.org/abs/2109.07906 [Cs]

  36. Knight, W.: Google appoints an ‘AI Council’ to head of controversy, but it proves controversial. MIT Technol. Rev. (2019). March 26, 2019. https://www.technologyreview.com/2019/03/26/136376/google-appoints-an-ai-council-to-head-of-controversybut-it-proves-controversial/

  37. Krijger, J.: Enter the metrics: critical theory and organizational operationalization of AI ethics. AI Soc. (2021). https://doi.org/10.1007/s00146-021-01256-3

  38. Latour, B.: Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press, Oxford (2007)

  39. Lauer, D.: You cannot have AI ethics without ethics. AI Ethics 1(1), 21–25 (2021). https://doi.org/10.1007/s43681-020-00013-4

  40. Luke, T.W.: Neither sustainable nor development: reconsidering sustainability in development. Sustain. Dev. 13(4), 228–238 (2005)

  41. Maxwell, R., Miller, T.: Greening the Media. Oxford University Press, Oxford (2012)

  42. McNamara, A., Smith, J., Murphy-Hill, E.: Does ACM’s code of ethics change ethical decision making in software development?” In: Proceedings of the 2018 26th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering, pp. 729–733 (2018)

  43. Metzinger, T.: Ethics washing made in Europe. Der Tagesspiegel Online. (2019). April 8, 2019. https://www.tagesspiegel.de/politik/eu-guidelines-ethics-washing-made-in-europe/24195496.html

  44. Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Deborah Raji, I., Gebru, T.: Model cards for model reporting. In: Proceedings of the Conference on Fairness, Accountability, and Transparency, pp. 220–229 (2019)

  45. Mittelstadt, B.: Principles alone cannot guarantee ethical AI. Nat. Mach. Intell. 1(11), 501–507 (2019)

  46. Mohamed, S., Png, M.-T., Isaac, W.: Decolonial AI: decolonial theory as sociotechnical foresight in artificial intelligence. Philos. Technol. 33(4), 659–684 (2020). https://doi.org/10.1007/s13347-020-00405-8

  47. M?kander, J., Floridi, L.: Operationalising AI governance through ethics-based auditing: an industry case study. AI Ethics (2022). https://doi.org/10.1007/s43681-022-00171-7

  48. Morley, J., Elhalal, A., Garcia, F., Kinsey, L., M?kander, J., Floridi, L.: Ethics as a service: a pragmatic operationalisation of AI ethics. Mind. Mach. 31(2), 239–256 (2021)

  49. Morley, J., Floridi, L., Kinsey, L., Elhalal, A.: From what to how: an initial review of publicly available AI ethics tools, methods and research to translate principles into practices. In: Ethics,

  Governance, and Policies in Artificial Intelligence, pp. 153–183. Springer, Berlin (2021)

  50. Munn, L.: Cash burning machine: uber’s logic of planetary expansion. TripleC Commun. Capital. Crit. Open Access J. Glob. Sustain. Inf. Soc. 17(2), 1–17 (2019). https://doi.org/10.31269/triplec.v17i2.1097

  51. Munn, L.: Automation is a Myth. Stanford University Press, Stanford (2022)

  52. Munn, L.: Data and the new oil: cloud computing’s lubrication of the petrotechnical. J. Environ. Media 2(2), 211–227 (2022). https://doi.org/10.1386/jem_00063_1

  53. Munn, L., Hristova, T., Magee, L.: Clouded data: privacy and the promise of encryption. Big Data Soc. 6(1), 2053951719848781 (2019). https://doi.org/10.1177/2053951719848781

  54. Nemitz, P.: Constitutional democracy and technology in the age of artificial intelligence. Philos. Trans. Roy. Soc. A Math. Phys. Eng. Sci. 376(2133), 1–13 (2018). https://doi.org/10.1098/rsta.2018.0089

  55. Noble, S.: Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press, New York (2018)

  56. Noble, S., Roberts, S.: Technological Elites, the Meritocracy, and Postracial Myths in Silicon Valley. Duke University Press, Durham (2019)

  57. Ochigame, R.: How big tech manipulates academia to avoid regulation. The Intercept. (2019). December 21, 2019. https://theintercept.com/2019/12/20/mit-ethical-ai-artif?icial-intelligence/

  58. Ochigame, R.: The long history of algorithmic fairness. Phenomenal World (blog). (2020). January 30, 2020. https://www.phenomenalworld.org/analysis/long-history-algorithmic-fairness/

  59. Oliver, J.C., McNeil, T.: Undergraduate data science degrees emphasize computer science and statistics but fall short in ethics training and domain-specific context. PeerJ Comput. Sci. 7, e441

  (2021)

  60. O’Neil, C.: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Penguin Books, London (2018)

  61. Orlikowski, W.J.: The duality of technology: rethinking the concept of technology in organizations. Organ. Sci. 3(3), 398–427 (1992)

  62. Oswald, D.: From ethics to politics: if design is problem solving, what then are the problems. In: Proceedings of the 18th International Conference on Engineering and Product Design Education,

  pp. 620–625. Aalborg (2016)

  63. Paul, K.: Black workers accused tesla of racism for years. Now California Is Stepping In. The Guardian. (2022). February 19, 2022. https://www.theguardian.com/technology/2022/feb/18/tesla-california-racial-harassment-discrimination-lawsuit

  64. Pazzanese, C.: Ethical concerns mount as AI takes bigger decision-making role. Harvard Gazette (blog). (2020). October 26, 2020. https://news.harvard.edu/gazette/story/2020/10/ethicalconcerns-mount-as-ai-takes-bigger-decision-making-role/

  65. Pontifical Academy for Life.: Rome Call for AI Ethics. The Vatican, Rome (2020). https://www.romecall.org/wp-content/uploads/2022/03/RomeCall_Paper_web.pdf

  66. Powles, J.: The seductive diversion of ‘Solving’ bias in artificial intelligence. OneZero (blog). (2018). December 7, 2018. https:/ http://onezero.medium.com/the-seductive-diversion-of-solving-bias-in-artif?icial-intelligence-890df5e5ef53

  67. Raji, I.D., Smart, A., White, R.N., Mitchell, M., Gebru, T., Hutchinson, B., Smith-Loud, J., Theron, D., Barnes, P.: Closing the AI accountability gap: defining an end-to-end framework for internal algorithmic auditing. In: Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, pp. 33–44. FAT* ’20. Association for Computing Machinery, New York (2020). https://doi.org/10.1145/3351095.3372873.

  68. Reidy, M.: Lack of ethics education for computer programmers shocks expert. Stuf. (2017). July 1, 2017. https://www.stuf.co.nz/business/innovation/93629356/minimal-ethics-education-for-computer-programmers

  69. Rességuier, A., Rodrigues, R.: AI ethics should not remain toothless! A call to bring back the teeth of ethics. Big Data Soc. 7(2), 2053951720942541 (2020)

  70. Resseguier, A., Rodrigues, R.: Ethics as attention to context: recommendations for the ethics of artifcial intelligence. Open Res. Europe 1(27), 27 (2021)

  71. Sambasivan, N., Arnesen, E., Hutchinson, B., Prabhakaran, V.: Non-portability of algorithmic fairness in India. (2020). http://arxiv.org/abs/2012.03659 [Cs]

  72. Schif, Daniel, Justin Biddle, Jason Borenstein, and Kelly Laas. 2020. “What’s next for Ai Ethics, Policy, and Governance? A Global Overview.” In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 153–58.

  73. Shneiderman, B.: Bridging the gap between ethics and practice: guidelines for reliable, safe, and trustworthy human-centered AI systems. ACM Trans. Interact. Intell. Syst. 10(4), 1–31 (2020). https://doi.org/10.1145/3419764

  74. Smith, L.T.: Decolonizing Methodologies: Research and Indigenous Peoples. Zed Books Ltd, London (2021)

  75. Solove, D.J.: A taxonomy of privacy. Univ. PA Law Rev. 154, 477 (2005)

  76. UNESCO.: Recommendation on the ethics of artificial intelligence. UNESCO (2020). February 27, 2020. https://en.unesco.org/artif?icial-intelligence/ethics

  77. Université de Montréal.: The declaration. Université de Montréal, Montreal (2018). https://www.montrealdeclaration-responsibleai.com/the-declaration

  78. Vakkuri, V., Kemell, K.-K., Jantunen, M., Abrahamsson, P.: ‘This Is Just a Prototype’: how ethics are ignored in software startup-like environments. In: International Conference on Agile Software Development, pp. 195–210. Springer, Cham (2020)

  79. Vakkuri, V., Kemell, K.-K., Kultanen, J., Siponen, M., Abrahamsson, P.: Ethically aligned design of autonomous systems:industry viewpoint and an empirical study. https://doi.org/10.48550/arXiv.1906.07946 (2019). http://arxiv.org/abs/1906.07946

  80. Vassallo, T., Levy, E., Madansky, M., Mickell, H., Porter, B., Leas, M., Oberweis, J.: Elephant in the valley. The Elephant in the Valley. (2016). 2016. https://www.elephantinthevalley.com/.

  81. Wachter-Boettcher, S.: Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech. WW Norton & Company, London (2017)

  82. Wagner, B.: Ethics as an escape from regulation: from ‘Ethics-Washing’ to ethics-shopping? In: Bayamlio?lu, E., Baraliuc, I., Janssens, L., Hildebrandt, M. (eds.) Being profiled, pp. 84–89. Amsterdam University Press, Amsterdam (2018). https://doi.org/10.2307/j.ctvhrd092.18

  83. Weinberg, L.: Rethinking fairness: an interdisciplinary survey of critiques of hegemonic ML fairness approaches. J. Artif. Intell. Res. 74, 1–35 (2022). https://doi.org/10.1613/jair.1.13196

  84. Zalnieriute, M.: ‘Transparency-Washing’ in the digital age: a corporate agenda of procedural fetishism. In: The Digital Age: A Corporate Agenda of Procedural Fetishism, pp. 21–33. (2021)