数字治理Jenna Burrell 等:算法时代的权力与社会

  问题出在哪?问题就是,这些替代变量并非儿童受虐的有效指标。首先,这些变量存在主观性。尤班克斯解释,转介个案隐含偏见。“匿名举报人和强制举报人举报黑人和混血家庭虐待和疏忽儿童的频率,比举报白人家庭高出3.5倍。”

  有时甚至是愤怒的邻居、房东或家庭成员故意报假案,存心惩罚或报复。尤班克斯在书中写道:“ 预测性建模需要清晰、明确的衡量标准和大量的相关数据,才能运算出准确的结果。”阿勒格尼县缺乏这样的衡量标准,但CYF还是推行了算法。

  结果呢?算法精度有限。尤班克斯指出,2016年共接获15,139起虐儿举报,算法作出了3,633个错误预测,导致成千上万贫穷的少数族裔家庭生活遭受无端侵扰和监视。

  03

  算法是否公平?

  缺乏足够的数据也可能使算法的应用在本质上不公平。例如,阿勒格尼县没有全部家庭的数据,而仅收集到曾使用公共资源的家庭数据,即低收入家庭的数据。这导致算法针对低收入家庭进行审查,可能产生反馈环路,使得家庭一旦被纳入系统就难以逃脱监控和监视。这个结果违背了公平的基本概念。受到负面影响的家庭必然感到不公。

  许多措施有助促进算法的公平性。算法对同类群组采取类似的还是截然不同的处理方式?系统优化的目的是在于公平、公共安全、平等待遇还是资源的最有效配置?受影响的社区是否有机会参与并影响有关算法设计、实施和使用的决策,包括衡量公平性的决策?在算法产生不当伤害之前,那些受到不利影响的人是否有机会寻求有意义的、快速的检查?

  组织应该对所采用的公平标准保持透明,并且应该让各利益相关方参与决定采用何种公平措施,包括将直接受到影响的社区。未能获得通过的算法就不应该作为解决方式。基于算法决策的系统一旦投入使用,就应该开展持续评审流程进行结果预测和不同影响修正。

  04

  人类如何(真正)使用这些结果?

  组织必须考虑的另一个变量是人类将如何使用这些运算结果。尽管阿勒格尼县利用算法得出“受威胁评分”,作为社工决定跟进调查哪些家庭的指标之一,尤班克斯却观察到,“实践中似乎是算法在训练社工。”过去,社工的判断有助于抵消转介中隐藏的偏见。 当算法出现后,社工开始运用算法代替自己作出判断,实际上放弃了把关的作用,结果系统变得更有阶级和种族偏见。

  算法决策经常被吹捧为优于人类本能。将机器视为客观可靠,属于“自动化偏见”。我们在决策的过程中会受到诸多认知偏差的影响,而自动化偏见又增加了其中的复杂性。考虑到人类拥有自动化偏见等多重偏见,当算法的结果仅作为辅助决策的一个潜在因素时,组织必须小心创建控制自动化偏见的系统和实践,比如设计算法以提供叙述报告而不是数字评分,确保人类决策者接受过基本的培训,其中包括统计学,也包括他们将与之交互的特定算法系统的潜在限制和缺点。

  在某些情况下,决策者有可能倾向于采纳算法的答案,仅此足以建议放弃使用该算法。例如,为确定刑期而预测再犯率。在威斯康辛州,法院支持使用COMPAS算法来预测被告的再犯率,理由是法官是最终作出决定的人。但是,了解到人类信任机器的本能,认为法官没有受到算法的过度影响的想法是相当天真了。

  一项调查研究了算法风险评估对肯塔基州法官的影响,发现算法对法官决策的影响只延续了很短一段时间,其后法官开始恢复之前的状态,但不同社区的法官受影响程度可能有所不同,而作出对嫌疑犯不利的裁决是事关重大的,因为将以对方失去自由作为代价。考虑到量刑决定的重要性,以及预测再犯率的困难(现有体系本质上是妖魔化黑人罪犯,并且自发给予白人罪犯无罪推定),在这种情况下使用算法是不合适和不道德的。

  05

  受这些决定影响的人会对系统产生影响吗?

  最后,算法的建立应该用于服务社区,而不仅仅是不惜代价地节省时间和资源。这就要求数据科学家考虑到受影响群体的恐惧和担忧,但数据科学家往往远离算法应用的社区。正如《破坏性数学武器》作者凯西·奥尼尔所言,“ 构建算法的人与真正受算法影响的人之间完全脱节了。”在这种情况下,即使最善意的系统也注定会产生意料之外的严重后果。

  在部署算法系统之前,必须解决数据科学家、组织和受影响社区之间的所有脱节问题。奥尼尔建议数据科学家利用“道德矩阵”,尽可能考虑可能受到系统影响的各利益相关者的担忧,“ 列出所有这些相互竞争的影响、动机和考虑,容许数据科学家更全面地考虑设计的深远影响。”受影响的社区也应当有机会对相关系统作出评价、修正并发挥作用。

  正如《卫报》所述, “糟糕的意图并非造就糟糕AI的必要条件。”这同样适用于任何基于算法决策的系统。如果组织不后退一步,不考虑使用算法决策是否适宜并符合道德,即使是最善意的系统也可能造成重大的伤害。上述五个提问只是起点,无法保证结果公平,但是所有组织在实施算法决策系统之前都应该先向自己发问这五个问题。

  

  原文链接:

  https://www.eff.org/deeplinks/2018/05/math-cant-solve-everything-questions-we-need-be-asking-deciding-algorithm-answer

  原作者:Jamie Williams, Lena Gunn

  译者:Claire

  监制:April

  版权说明

  本译文仅用于学习和交流目的。图片源自网络,版权归作者所有,非商业转载请注明译者、出处,并保留文章在译言的完整链接。

  算法时代的社会权力:序数权

  20世纪社会公民权的扩大减轻了经济不平等对人们生活的残酷影响。然而,新的权利也产生了新的社会分化,通过公民的能力来分隔他们。21世纪,在新技术的推动下,公民身份的概念模型得到了进一步发展,并且为人 们生活的方方面面带来了新的自由和机会。随着经济和社会融合范围的扩大,对人员进行分类、排序、插置和缩放的可能性也在增长和多样化。与早期精英统治的崛起相呼应的是,这个新的模型产生了自己的赢家和输家,部分是在重复旧的不平等,部分是在创造新的不平等。对关心自我和个人健康的需求逐渐增多,削弱了历史上公民权利扩张赖

  以兴盛的普遍团结的基础 。取而代之的是本文所称的 序数权(Ordinal citizenship),一种以社会测量、分化和等级制度为基础社会包容的形式。

  作者简介:

  Marion Fourcade,加州大学伯克利分校社会学系。

  文献来源:

  Fourcade,M. (2021). Ordinal citizenship. The British of Sociology , 72(2), 154-173.

  

  图为作者Marion Fourcade

  前言

  20世纪社会公民权的扩大减轻了经济不平等对人们生活的残酷影响。社会权利和福利制度的制度化意识到,获得一个文明的人的生活不应该仅仅取决于财富。可以肯定的是,这一过程是不完整的,具有污名的,而且往往是残酷的,特别是对穷人和各种少数民族来说。尽管如此,可靠地提供教育、医疗保健、住房和社会保险已成为世界各国政府行使其职能的主要理由之一,同时也加强新公民作出牺牲和承担责任来作为回报的要求。然而,正是这些事实也使社会权利受到质疑。不像公民权利和政治权利,社会经济权利与自由主义政治理论有着曲折的关系。对许多人来说,自由主义强调契约关系、占有式个人主义和消极自由,除了残存的形式团结,几乎没有留下任何空间。对另一些人来说,如果自由归结为过一种悲惨的、非人的生活的自由,那它就毫无意义。就人类自治而言,作为一个社会的正式成员并参与其政治活动的能力是具体的、实际的成就,社会权利对他们来说至关重要。

  只要国家被认为是社会权利的主要提供者,契约主义和包容性团结就似乎不可调和。然而,这一核心假设的减弱,以及团结政治从分配正义向承认和认同的转变,使他们更加紧密地联系在一起。公民身份的语义光环已经广泛扩散,支撑着经济、政治和文化领域的广泛社会需求。这里的利害关系是平等参与所有活动的能力,这些活动可能被视为一个人作为社会生物的基本功能。

  关于公民身份的新迭代讨论了公民身份作为可取的活动,或者公民身份作为声明,这在四个关键方面不同于旧的概念。首先,新公民生活在一个多极世界中。它不是一个支持普遍权利和保护的吸收一切的社会状态,而是定义了人与机构之间的多重义务和权利。其次,在每个世界中,定位的问题,而不是简单的获取,成为人们关注的焦点。新的公民身份是精算和量化的。它关心的是统计公平,而不是社会公平。因此第三点,它依赖于为这些计算提供动力的个性化生物政治学科的招生,而且往往需要他们的主观能动性。第四,公民身份的意义,从努力追求普世主义和团结,变得更加具有交易性。企业,而不是国家,控制了许多正在制定新的权利要求的领域,公民的形象在语义上正在转变为顾客、客户或数字用户的形象。

  一、认同感

  马歇尔将现代公民权利描述为权利展开的历史过程,并将其分为三个主要的时间阶段18世纪的公民权利、19世纪的政治权利和20世纪的社会权利。然而,这些阶段没有一个是完全确定的。尤其是社会权利,一直都在变化。鉴于社会权利的标准——经济安全的标准,以及支持“文明生活”的标准一直在变化,我们应该期望社会呈现出一个持续的、动态的过程,即提出要求、授予权利和制度变革。马歇尔曾设想,公共供给是这种扩张的唯一真正普遍的基础,但历史表明,情况并非总是如此:私人机构也曾迫于压力,以扩大公民身份的名义,招收和服务每一个人。

  作者在此提出如下论点,对公民身份的要求已经重新转向社会技术系统,而这些系统最明显地由私人机构主导。特别是,金融化和数字化被解释为解决信贷、教育、就业、政治或医疗等领域的机会、公平和团结等问题的解决方案。把这两个过程串联起来而不是按顺序来处理的一个原因是,它们正日益相互分解。首先,一切事物的数据化(可以说)是日常生活金融化这一更广泛现象的延伸:通过数字手段适当分类的体验的每一个方面,都可以被商品化、资产化、捆绑和交易。其次,金融化和数字化通过金融科技的发展在技术上融合,特别是在没有现有银行基础设施的贫穷国家。

  二、优才制度

  在一个自由社会中,公民政治永远是克服排斥和维持实质团结的问题。作者通过回顾教育扩张的历史,来思考当下的转变。受教育权的扩大创造了一个新的社会分层轴,受教育权的扩大创造了一个新的社会分层轴。英体制无法实现结果平等,这引发了两种主要的纠正策略。第一种是对历史劣势的补偿,通过多元化和包容项目制度化,通过弱势群体的成员身份来识别他们。第二种解决方案是在价值的更明确的可量化方面加倍下注,把公度的边界往外推得越来越远。

  数字技术不仅拓宽了经济和社会融合的范围,而且扩大了对人进行分类、排序、插置和缩放的可能性从经济责任到社会影响,从友善到守时,从身体健康到可靠性,新的衡量优点的方法由此产生。为了管理个人对资源和机会的要求,市场和国家都发现自己被迫建立和利用这种高效的、不断扩散的、精细的知识。社会包容似乎不仅取决于被纳入这些系统,而且取决于根据它们的规则行事和表现,取决于在这些系统中展示优点。

  在这部分,本文展示了这些关于包容的新思维方式既改变了公民的道德经济,也改变了经济不平等的模式。原因有两方面。首先,公民身份的扩大总是会促成某种形式的生物政治调节。权利产生关税。孩子们必须上学。失业者必须找工作。同样,我们必须分析伴随新的公民身份要求而来的特定的道德禁令。其次,与此相关的是,任何扩张性和均衡性的过程总是促使分化的努力。正如社会权利的发展创造了围绕福利和教育的新分层形式,或合法公民身份的开放促使公民测试重新划分界限,金融和数字包容性的发展正在产生新的可采取行动的社会分歧,社会责任和资本形式以多种方式塑造人们的生活轨迹。换句话说,对马歇尔来说非常重要的地位平等正在产生新的有意义的差异。

  三、独创性

  随着金融业的正式公民身份,尤其是数字化程度的扩大,排斥现象变得越来越明显。工业资本主义有它的工业后备军队和它的流氓无产阶级。金融资本主义有其顽固的现金经济和流氓无产阶级。数字化也有广阔的无人区和精明的抵抗位点。但纳入数字基础设施也要承担社会和个人成本。总的来说,它依赖于在体制内部辛苦工作、工资过低的“幽灵工人”。

  随着金融业的正式公民身份,尤其是数字化程度的扩大,排斥现象变得越来越明显。工业资本主义有它的工业后备军队和它的流氓无产阶级。金融资本主义有其顽固的现金经济和流氓无产阶级。数字化也有广阔的无人区和精明的抵抗位点。但纳入数字基础设施也要承担社会和个人成本。总的来说,它依赖于在体制内部辛苦工作、工资过低的“幽灵工人”。

  

  因此,近距离曝光已经成为社会整合的一个不容置疑的先决条件,包括广泛的私人领域,也包括公共领域。监控存在于数字公民的条件中。数字政府,就像数字资本主义一样,要求每个人都处于监视之下但是,对于那些生活依赖于扩大公共或私人服务的人群来说,监督的道德门槛、参与的强制性压力以及潜在的有害影响更高。算法管理的社会政策通常需要侵入性的预审信息,要求索赔者频繁地检查系统,并受到不透明的欺诈检测系统的监控,最终不可避免地以最脆弱的人为目标。

  其次,数字公民具有顺序性。计算机天生就是排序的:它们通过排列优先级和队列来排序世界。它们通过控制反馈循环进行排名、得分和使用奖励功能。在世界范围内,无论是私人的还是公共的,面向用户的算法,组织了社会、经济和政治生活的重要方面。他们重新定义了社会进程本身所运行的相关类别、组织它的阶层以及这些阶层背后的价值。公民的性质,以及与之相关的权利即,参与各种活动的能力以及这种参与发生的条件在某种顺序的尺度上越来越多地被一个人的位置所定义,这个过程在其他地方被作者称之为顺序化。在市场上,信用卡公司更青睐历史悠久、使用多种信用卡的客户,而不是那些倾向于隐形的谨慎的消费者。

  四、个体化

  从历史上看,公民身份的发展往往伴随着性别、种族、财产、宗教、民族、种姓等作为投票、统治或担任公职的核心标志的标准的下降。但是,随着正式平等的进步和围绕公民身份的界限逐渐消失,公民之间的差异变得更加明显。正如雅思敏·索伊萨尔指出的那样,自由主义对个人自治和权利的阐述越来越要求在个人层面上划分道德界限。

  第一个问题是,序化在理论上基本上是一种社会学,如果不是在实践中。因为行为(包括金融行为)通常都是按照这些分类维度精确分类的。跨多个领域对人们行为的精确跟踪、聚合和具体化,是否仅仅代表了公民个性化的又一次迭代?也许。确实,回到个体化来理解序化的革命性吸引力是很重要的。对行为的关注,而且只关注行为,有助于动摇与人与人之间的分类区分相关的僵化优势。正如前面提到的,规范性技术的普及,如信用评分,在美国与反歧视立法的历史密切相关。序化巩固了一种民主承诺,即以一种名义上平等的方式来评判个人,这将揭示个人应得的真相。与此同时,杨对这种计划的士气低落的影响的警告仍然有效。不平等可能是公正的或应该得到的这一概念在很大程度上仍然是一种幻觉,而且是一种特别有害的幻觉。

  第二个问题,回到杨的批判,是规范性本质上是道德化的。无论其实际目的是什么,社会通约性和社会排序技术在本质上都是分层的。他们总是最终产生道德价值和社会期望的标准。在人类社会中,任何优先顺序、任何队列或排名系统也是一种道德秩序,或者如巴里·施瓦茨所说,一种道德需求的秩序。也许,没有什么地方比信用和债务领域更真实了,正如弗里德里希 ·尼采所言,信用和债务领域是社会分配优越感、道德应得感、羞耻感和负罪感的最有力场所之一。因此,随着我们越来越多地通过融入社会和扩大公民身份的梦想,将评级和分数的逻辑带入我们的生活,我们相信,我们获得的分数,以及它们决定的结果,代表了我们内在的某种东西。例如,实验证据表明,具体化的措施倾向于强化社会地位在某种程度上是应得的信念。因此,它们往往成为强烈的个人关注和制定战略的原因,并有助于使不平等更广泛地合法化.

  第三个问题是,这种信念掩盖了序数精英制度的真正本质。正如本文上面所提到的,算法引擎的逻辑,尤其是私有引擎,基本上是精算的。它们的设计目的是提取价值,而不是创造价值标准。有时这两个目标是一致的,但并非总是如此。这种区别在分析上是很重要的。弗里德里希?哈耶克在《自由宪法》中相当客观地解释道:[我们]期望在与他人打交道时得到的报酬不是根据我们的主观价值,而是根据我们的服务对他们的价值,换句话说就是他们的市场价值。算法排序主要是针对具体提取项目的需求。例如,这就是为什么没有一个信用评分,而是有数千个,每个都是为其服务的特定经济目的量身定做的。这意味着人们在顺序尺度上的上下移动可能与自己的行为无关,而与系统规则的改变有关。有序分层是由价值意识形态的文化动力和自然化的,但在物质上是由价值的不平等所支撑的。

  五、高纬度

  一个由算法管理的世界,它的主体具有自我优化和自我欣赏的伦理约束。但这种对自我的作用必须如何进行却越来越模糊。支持计算排序的数据感知实践已经变得非常复杂。与模拟数据不同的是,善于数字技术的组织被处理高维数据的雄心所驱使,对各种来源进行筛选。

  新的计算技术不需要特定类型的输入,而是能够发现模式和相关性,几乎不需要预先建立关于数据结构的概念。一切事物都有可能渗透到其他事物中。在一个几乎无所不在的世界里,用路易丝·阿莫尔的话来说,每一分钟和平凡的行为,生活方式的每一个方面都可能成为分类的一部分,算法最终看到什么,尤其是它如何看到,是不可能理解的。由于机器学习计算的结果本质上是不透明的,甚至对他们自己的设计师来说,人们发现他们没有足够的装备来博弈控制他们生活的精算系统,更不用说质疑他们的决定

  机构正在发展一种理解社会世界的新方式,立足于前瞻性地感受现实,归纳地识别需求,利用一切可用数据进行管理。这样的政体从下往上发展知识,通过关注而不是从上到下实现其愿景。通过识别大型数据集中的模式和偏离常态的情况,它以概率的方式工作,通过Amoore(2013)所称的一种可能性政治,将未知的未来可视化,让人害怕或希望。在实践中,政府的主体不再是个人,而是个人的碎片,可测量的类型,他们必须沿着个人和集体准备的道路,通过折衷的算法向量数组。

  身份不再仅仅是声称或承认,他们是从行为中推断出来的,并由数据引擎进行理论分析,甚至种族、民族、性别或性取向等类别也可以被重新定义为统计概率。算法看待和分类我的方式可能与我看待和分类自己的方式截然不同,但关于我的算法真相在经济、社会和政治上越来越重要。它推动了切尼-利波尔德所说的Jus算法或算法的权利。随着我们从实体空间转向数字空间,算法从日常网络行为中辨别人们在文化上属于哪里,并决定向何处引导他们。

  六 、 一个文明人的生活

  序数权首先取决于培养一个以数字为媒介、独立管理和技术辅助的自我的意愿。实际上,创作这部小说的政治计划采取了许多不同的形式。一种解决方案依赖于直接的强制,既有规范的强制,也有身体上的强制。

  另一条路径,由行为经济学和市场设计驱动,依赖于选择架构的使用和激励来管理个人和集体行为。良好的公民身份主要取决于各机构努力灌输新的秉性。这可能包括通过网站报告可疑威胁,或向市政府官员提供不平路面的照片。但它主要意味着我们将自己展现为金融、数字和生物项目,通过控制性反馈或行为修正的方式,将我们推向某种制度上理想的状态。重要的是,价格体系在这个循环中显得尤为重要。

  最后,有可能的是,即使有复杂的道具,这位受到正常管理的公民也从未完全进入自己的视野。随着新的数据流的出现,支撑这种努力的机制变得无定形、不稳定和不可捉摸。序数规则经常改变,也许是为了规避古德哈特定律,或者作为算法系统中正在进行的权力游戏的一部分。这使得得分位置算法不稳定,并对受试者的政府和自我行为的合法方向产生不确定性。随着普通公民的游戏变得越来越难玩,科技在自由意识形态的棺材上敲下了最后一颗钉子。谷歌的登月项目部门的设计主管尼克?福斯特设想了这样一个世界:人们将所有决策外包给数字设备。谷歌无缝接管,组织您的生活和根据你过去的行为、决定、偏好、行动和关系,为你设计产品。随着这个过程的进行,包括几代人的每个人,算法扫描其他人的账本,以发现你的数据中的空白,产生填补这些空白的方法,从而使你的账本更丰富。在最后一步,我们的社会DNA的数字版本的分类帐被赋予了目的,因为算法工作来强化那些行为特征,它认为在物种层面上是可取的,因此,未来的一代,在他们自己的数字助手的适当推动下,可以从前人的算法处理智慧中获益。这可能不是充分分享社会遗产的本意。但也许是政治视野决定了我们未来如何看待它。

  编译 | 黄 勇

  审核 | 林陌声

  终审 | 李致宪

  ?Political理论志

  算法的社会

  海量数据与用计算机代码编写的程序或算法相配合,以进行数据分类、组织、提取或挖掘,几乎所有主要的社会制度中都发生了这一现象。本文解读了有关这一转变的社会影响的学术文献。首先,我们讨论了一个新职业阶层的兴起,我们称之为代码精英(coding elites)。通过对数字生产方式的技术控制,以及从新近被边缘化或无报酬的劳动力——网络工人阶级(cybertariat)——中抽取劳动力,这个群体巩固了他们的权力。第二,数字优化技术在教育、医疗、信贷和金融以及刑事司法等不同领域的使用,加强了精算决策逻辑的主导地位,有可能改变社会再生产和流动性的途径,但也促成了那些被治理者的反击。第三,我们探讨了数字传播中同样普遍的算法中介是如何改变人们的互动、联系和思考方式的。最后,我们建议审慎对待人工智能的疯狂承诺,但承认算法过程、社会结构和主体性之间日益紧密的结合。

  作者简介:

  Jenna Burrell 加州大学伯克利分校信息学院

  Marion Fourcade 加州大学伯克利分校社会学系

  文献来源:

  Burrell, J., & Fourcade, M. (2021). The Society of Algorithms. Annual Review of Sociology , 47: 213-37.

  

  

  本文作者:Jenna Burrell, Marion Fourcade

  在我们这个迷恋技术的时代,算法已经承担了一个特别神秘的角色,让它穿上神学的外衣。像“算法”这样的概念已经成为模糊的短语,一个把多部分的复杂系统误认为是简单、单一系统的俚语。

  —Ian Bogost

  黑客伦理与硅谷精神

  在冷战初期的一次政府投资中,斯坦福大学从田园象牙塔变成了全球经济的引擎——国防部的计算机技术带着“科学作为无尽疆界”的高尚话语开始进入大学,最终抵达了斯坦福西海岸。然而与政府结合并不容易:越战和60 年代的反文化运动使得军事赞助越来越遭到新兴工程师和计算机科学家的反对。他们想要宣称其自主权,相信信息的自由流通、共同体的政治优势以及赠与和互惠的精神。硅谷文化的神话随着一次次的技术革命(半导体、个人电脑、互联网、社交媒体等)开始具象化:在帕洛阿托(硅谷中心),大部分公司诞生于车库和地下室;没有人打领带;高管们都是大学辍学生;企业架构扁平。工程师们赞颂这些价值观,也称颂他们自己。但是他们玩世不恭的道德观和与之相连的无政府主义-自由主义政治倾向,也变成了一种意识形态。尽管谈及共同体和互惠,科技界的领导者和普通人都怀着对个人主义、竞争和适者生存的狂热信仰。

  2000 年3 月,“.com ”泡沫的破灭开启了关键性的转变。硅谷正处在十字路口:与互联网相关的公司(彼时还是一种新事物)不能取得长期盈利;那些在经济萧条中生存下来的新公司(例如谷歌),仍然免费提供服务,没有显著的盈利战略。这种情况随着“行为过剩”(behavioral surplus )的发现而改变——在搜索、聊天、社交等方面无利可图的业务线被广告商重新利用,预测用户行为。由广告作为资金支持的平台,通常是开放的、名义上免费的。现在似乎任何人都可以独立开发APP ,独立开发者也可以获得巨大利润。

  这种网络接入民主化的反面,是对用户监视和操纵的增强。现在,用户隐私或消费者福祉之类的考虑站在了商业发展的对立面,创收越来越依靠诡计(trickery )。为了吸引用户注意力,开发商采用赌博业中惯用的成瘾手法。与其对开放、自由、相互连接的愿景不同,商业公司现在专注于从更多人那里生成更多数据,并操控他们以确保预期的结果:一次滚动、点击,最好是一次购买。对数据的控制是通过更改法律 (cooptation of existing law )完成的。首先,科技公司将通过cookies 和追踪器产生的个人数据定义为丰富和免费的;他们通过平台协议和看似良性的模板合同来获取这些数据,将这一过程描述为一种互利的交换。接着,他们用专利权的法律表演和关于商业机密的争论来保护他们的数据财富。一旦打上“法律特权的标志”,本应属于个人或公共资源的数据就被有效地占有并重新编码为私人资本或资产。

  从这些对数字生产手段前所未有的所有权要求中,现在可能出现一个新的阶级关系体系。本文分析了科技产业崛起和通过算法(algorithms )重组社会进程背景下的 社会分工( social divisions )。在下一节中,我们认为数字资本主义的核心鸿沟在于:代码精英(掌控数据和软件的人)和网络工人阶级(为算法提供训练数据,有时甚至将自动工作,而使其自身变成多余的人)的对立。我们还表明,对技术、经济效率以及公平性的要求是代码精英社会权力的重要组成部分。

  代码精英的崛起和

  其他所有人的预先自动化

  在“.com ”的繁荣与萧条之后,硅谷浴火重生。一种由大数据和分析技术驱动的新生产模式正在涌现。收入的增加使房产价值飙升,一个又一个工人阶级社区被清空,留下的却是无家可归者的聚集地。这个地方的政治仍然是加州式的:理论上是进步的,但实践中“事不关己高高挂起”(not in my backyard )。当硅谷的工程师们享受生活或建立雄心勃勃的新慈善机构时,越来越多的人挨饿,睡在圣何塞和旧金山的街头。2019 年COVID-19 大流行,不仅没有催生必要的反思,反而可能进一步为科技“解决主义者”(solutionist )的主张站台,并创造了新型的不平等。

  城市极端财富和贫困的同时存在是新经济最明显的特征,而算法社会正是建立在这种特征之上的。以经典的马克思主义方式,这种区别将资本所有者与为他们工作的人对立起来。马克思认为生产关系及其产生的意识形态与技术发展紧密相关。他在《哲学的贫困》中指出:“社会关系是与生产力紧密联系在一起的。在获得新的生产力时,人们会改变他们的生产方式;而在改变他们的生产方式和谋生手段时,他们会改变他们所有的社会关系。手工磨坊为你提供封建领主的社会;蒸汽磨坊则提供工业资本家的社会。”今天与之相当的技术是软件系统,它由数据和算法的独特性驱动,并为我们提供了一个软件资本家的社会。

  大规模的代码精英

  新的精英占据了数字社会的上层——一种我们称之为代码精英的阶层,在此我们有意识地认同(self-conscious nod )米尔斯的“权力精英”。代码精英是这样一群人:他们由软件开发人员、技术CEO 、投资者、计算机科学和工程教授组成,同时常常毫不费力地在这些富有影响力的角色之间切换。在全国各大高校(斯坦福大学更甚),学术界和工业界之间的隔膜并不大,教授们在创业公司、大公司的关键职位、政府资助的实验室和大学教室之间往复。

  对计算技术的掌握赋予了特殊的权力(powers ),这些权力同时是文化、政治和经济的。在文化方面,代码精英居住在值得信赖的数字世界,因为他们的形式主义可以在数学上证明,他们的技术看起来是普遍的,并能够远离人类政治的纷争。代码精英们将计算推崇为几乎每一门学科突破的关键,包括社会学;改造政府行为的每一个领域,以及解决人类面对的诸多问题。通过解决棘手的问题,他们提高了自己的社会地位。

  在政治方面,代码精英们居住在强大的控制世界。在狭义上,为了将社会规范和法律规则从人类语言转化为计算机代码而必须进行的解释工作中,计算科学家不可避免地进行了简化和扭曲。但在广义上,“代码就是法律”(code is law )。代码治理有两层含义:第一,代码使世界变得清晰可读(legible ),通过将人和物重构为机器可读的实体,从而为人和物说话;第二,代码的执行(enforces ,暗合“执法”的隐喻,译者注),它像法律一样运行;但是纸面上的法律必须由一个单独机构(通常是人,因此能够行使自由裁量权)来执行,而代码既规定了规则,(一旦编译和运行)又将它们自动化。

  在物质方面,代码精英们居住在有利可图的金钱世界里。对于风险投资人来说,数字技术产品最引人注目的是它们的规模有多大。例如,Facebook 迄今为止在全球拥有超过26 亿用户。正如Morozov 所说,“Facebook 上的人越多,它就越有价值.... ,这对搜索引擎来说也是如此:使用谷歌的人越多,它就越好,因为每次搜索在某种意义上都是对服务的修补和改进”。第一个优势被称为网络效应,第二个是机器学习的直接结果,可以提高预测的准确性。

  与传统职业的制度化不同,代码精英的权力几乎完全停留在他们对技术的控制上,他们通过“更好更快地完成某项任务的纯粹能力”来获得权力;必要时,他们也依靠技术神话中预言和承诺的诱惑力。在市场扩张的过程中,科技产业要求完成曾被宣称为某种职业判断的任务——因此,所有职业都无法免于受到算法的影响,甚至完全被取代。合法性已经从专业人士转移到程序员,而且越来越多地转移到算法。在这个过程中,存在着一种意识形态,即“人类的思维是脆弱、有缺陷的,会导致非理性的选择,未能充分考虑更广泛的其他方案”。但是,这种克服人类不理性倾向的宣称,却蕴含着更强大的经济激励的欲望。

  不联合的全世界网络工人阶级

  权力在代码精英手中的巩固,也通过其向工人榨取劳动力的方式显现出来。如果说工业资本主义通过商品的拜物教掩盖了劳动的存在,那么数字资本主义则有意通过人工智能的拜物教和伪装的自动化来掩盖它。这是因为如果没有人工进行检查、纠正以及所谓“最后一英里”的工作,大多数算法系统无法充分运作:例如评价网页质量,纠正数字地图,标注视频,社交媒体审核等等。在人工智能的拜物教之下,是一条由沉默的、不可见的人组成的全球数字装配线,许多人在全球南方(Global South )的后殖民地。一个新的工人阶级站在代码精英的对立面:网络工人阶级。

  网络工人阶级的工作并不只是为了将传统的任务数字化,或将其外包给更廉价的、分布在全球的劳动力;相反,它们也是数字资本主义运作的关键。与马克思时代的工厂工人不同,随着众包平台的兴起,网络工人阶级成员越来越个人化并且相互隔离,使得集体行动和团结变得更加困难。

  对马克思和恩格斯来说,使无产阶级苦恼的是来自其他工人和技术本身的竞争。对于网络工人阶级来说,这两种威胁都已经完全内生化了。首先,数字公司通过平台扩大劳动力规模并将其工作分解为无数个微任务,这个过程被称之为“预先自动化”。换言之,平台同时使用他们自己的网络工人,既执行难以自动化的任务,又使用他们产生的数据来进一步完成这些任务的自动化。这些工人在被宣传为人工智能的系统中工作;他们的贡献被有意掩盖了,许多购买他们服务的人希望最终能够完全消除对这种人类工作的需求。第二,平台也放大了工人之间的竞争,因为它允许某些职业(例如教师、文化表演者)扩大他们的影响范围,将人力需求降到最低。第三,平台化的劳动力,无论是线上还是线下,通常都是通过算法自己管理的,以便根据市场条件、服务质量、物理距离或补偿进行实时优化。由此产生的工作体验的不稳定性——工作不确定、时间表不固定、令人窒息的监视、持续的高风险审查和不稳定的工资——导致了一系列的社会问题。此外,工人可能会经历算法的残酷,其形式是由不断变化的算法规则或跨越危险阈值所造成的命运突然逆转。例如,许多临时工或内容提供者都经历过因他们的评级或工作时间的下降而突然从作为他们主要收入来源的平台上被切断(cut off )。

  精算主义及其反对者

  代码精英们不断扩张进不同的领域,这以另一种基本方式改变了组织进程:推进一种以技术效率和机器客观性为基础的治理逻辑。通过数字管理的思维并不新鲜,新鲜之处在于对行为追踪数据的使用。大量不同种类的数据使得某些已经存在的算法类别变得更加强大。此外,一类新的算法(深度学习,即神经网络模型的进化)通过从数据中直接推断来利用这种数据的丰富性。虽然算法自己编程并不恰当,但是它们确实以超越人类理解的方式进行自我优化。这些技术放大了计算主义(computationalism )的文化力量,即相信计算机可以而且必须覆盖社会组织和资源分配的基本过程。

  上一节讨论了代码精英如何将人类推理界定为不精确从而巩固其权力——机械化的、非个人化的过程优于个人裁量权的观念,也并非计算机时代的发明。韦伯讨论的专家职能部门的兴起就表明了这一点——官僚机构越去人化(dehumanized ),越是发展得充分。同时,将社会群体的历史数据纳入官僚体系的运作,使得对未知个体的风险评估更加准确,而这种精算被提升至一种同进步思想相联系的崇高理想,希望提供更公平的社会准入机制与改善少数群体的生活机会。政治环境变化揭示出的对人的判断的过分依赖,也让人们将目光转向算法的平等承诺。

  算法分类制度符合程序正义的论证,因为它似乎消除了人的任意性;但是,它可能无法满足其他社会公平的定义。它可能再现某些群体的不平等,也可能创造新的社会等级制。

  算法不平等

  在韦伯的分析框架中,最终形成阶级(或阶级状况)的是资产和机会在一系列制度领域内和之间的社会分配方式。算法的分配,改变了个人的生活机会,但也隐而不彰地重塑了社会阶层的形成过程。新的算法机制产生了一个分类的滑动尺度,对位置进行了更精细的区分。例如,对信贷风险有良好评估的理想借贷人享有慷慨的信贷合同,不理想的借款人面临高利贷,而那些位于两者之间的人则收到一系列或多或少的提议。因此,数字性可能会促进各种形式的掠夺性包容(predatory inclusion),而不是完全的排斥。

  算法治理

  被一个不可感知、毫无情感的系统统治——或过度统治——似乎违背了人类尊严和自主权的基本观念。欧盟的《通用数据保护条例》呼应了这些情绪,制定了一项解释权,要求对算法决策进行人工审查。同样,新的民族志文献表明,人们在工作生活中悄悄地抵制算法的权威。最后,算法系统及其倡导者有可能推动危险的迷信,哈耶克曾经谴责过这种迷信——即只有可测量的东西才是重要的。根据算法系统的技术能力来设定社会规范或法律准则,可能会使我们对不可测量但至关重要的过程视而不见。因此,适度的批判必须从承认算法是伦理政治实体(ethico-political entities )开始,它们能产生自己关于善、越轨和社会应该是什么的想法。换句话说,算法正在改变我们道德直觉的本质。下一节将研究这种变化的状况。

  分类指标及其反对者

  专家系统,无论由人还是机器组成,总是对与之互动的外行人提出要求。人们必须让自己变得清晰可辨,否则系统将无法识别他们,他们在与系统互动时必须遵守规则,而且他们质疑决策的能力往往受到限制。代码精英们不是让机器增强人类的智慧,而是重新组织社会活动,让人类支持计算机的运行。因此,在某种意义上,是人类被自动化了。一个人与数字系统的互动越多,他的个人和社会生活的进程就越依赖于算法的操作和选择。随着新数据流入,类别、分类被动态调整,计算系统在此基础上的行动也如此,这对人们如何看待自己以及社会身份如何形成有重要影响。

  身份的调控

  在今天的数据提取和分析系统中,个人属性往往是从行为痕迹中推断出来的。每个有血有肉的人都有一个由这些痕迹组成的“数据替身”。那些曾经被认为是固定的或几乎不变的身份方面——性别、种族、公民身份、国籍——在这种虚拟化的方式下也变得可读,例如通过数字活动推断是否为男性或女性。由于系统的评估总是灵活而可变的,因此对性别的算法推断随时可能改变。

  虽然算法可以使生活的事实成为外在的和可调节的,改变“我们在世界中的方位的感觉”,但它们不太可能从根本上改变主要的结构形式(如性别或种族)在世界上的运作方式。随着算法分类不断回溯到我们身上,它们使我们质疑对自己的了解以及我们了解的方式。由于有了算法工具,我们现在可能不得不不断地在可测量生物或社会指标中寻找和发现自己,我们必须以一种超理性的、动态的、持续的方式来管理这些指标。

  算法层面的道德经济

  在线互动的庞大数字基础设施大多以广告创收为导向,需要人们的眼球和点击量来维持运作。平台的出现促成了心理学和经济学技术的使用,像Twitter 、Facebook 、YouTube 、Instagram 、Reddit 的数字平台已经把自己建成了一个事实上的全球公共领域,对注意力的社会分配具有近乎垄断的权力。公共辩论、知识流动、平权诉求都已密切依赖于社交媒体的中介机构及其黑箱算法;同时,已有的行动者被熟练的或资金充足的活动家、有组织的网上暴民和点击式广告的制作者所取代。集体动员和反动员的精神在数字生产方式的不平等斗争中很容易被压倒。

  从“算法社会(the Algorithmic Society)”到“算法的社会(the Society of Algorithms)”

  代码精英们的终极目标就像他们建立的算法一样,仍是不透明的。许多计算机科学家的愿景是:算法社会只是一个新的社会物种(social species )出现的前奏,通用人工智能将复制或超越人类智力,也许会摆脱人的控制。摩尔定律指出,计算机功率趋向于指数级增长。如果我们接受这样的前提:即测量智能和进一步发展智能的能力根植于计算机处理能力,那么摩尔定律标志着一个明确的进步轨迹。然而,人工智能在社会中的发展轨迹不只是人类是否会受益的问题,而是谁会受益的问题。机器学习的分类将知情人(the knowers )与被知情人(the known )对立起来;那些让人工智能发挥作用的人对立于那些让人工智能为自己服务的人。目前,工业界的主流言论承诺了一种更温和、更可接受、更少偏见的人工智能,符合效率最佳的实践并有道德的注入。

  多年来,许多人宣称,摩尔定律的终结迫在眉睫。如果不加批判地接受代码精英中狂热推动者的梦想,从“神学上而不是科学或文化上”对待计算,那将是一个错误。在这方面,社会学提供了一个有益的现实检视。观察数字技术的民族志学者已经指出了算法并不光彩的日常现实。我们可以拒绝机器智能的魔法式思考,同时也承认科技产业在经济、政治、文化中的巨大的改变生活的力量。除了未来主义和炒作,现有的人工智能实际上是相当平凡的。它由代码精英设计,由网络工人阶级维持,由大型数字公司的个人数据推动,常常为了利润最大化而优化,并由一套偶然的法律制度支持,以授权向企业和国家服务器输入持续的数据流。像以前的控制创新一样,人工智能监视、分类、解析、组装和自动化。像以前的社会监视和规训形式一样,它对穷人和少数族裔的影响不同,而且更有偏见。它远不是纯粹的机械化,而是深刻的、不可避免的人类。

  编译 | 范屹槟

  审核 | 华唐门生

  审核 | 李致宪

  导语

  或许随着技术快速发展,很多领域都会逐渐被算法和人工智能替代,但算法终究不能替代人的作用。人,能够创造意义,能够解释意义。技术只能改变一些事情。而人所特有的素养和能力,使我们能够更好地了解由人构成的环境和文化。通过数据,只能得到抽象的正确,通过人的能力才能得到真实的意义。

  算法不是万能的——在算法时代,看见人的力量

  刘书博 | 文

  算法不是万能的

  在快速变化的环境中,心神不宁的人们想摆脱现实的不确定性,于是向科学的力量求助,并认为AI、大数据分析、算法新技术一定能够更好地解释一切复杂和快速变革的全局。很多人对于技术的倚重不仅来自技术带来的效率提升,而且更加来自“技术崇拜”——用近乎虔诚的态度对待技术。甚至有一种激进的思维希望用算法理解世界的方方面面,并且认为科学知识优于其他类型知识。

  此思维代表的是“唯科学主义”意识形态(scientism)——对算法技术的痴迷。持有此意识形态的人认为,算法是智慧与经验的替代品。在他们看来,无论是在医疗、教育、政府,还是在我们个人生活领域,人工智能与大数据分析技术都可以给出最优答案。

  但是,算法并非全知全能,如果太过信赖技术,人的判断力还会被削弱。就像是我们专心盯着GPS,听从它发出的每一条指令,反而失去了对头上闪耀的星星的感知力。对于组织的决策者来说,只有具体的数据分析结果,依然无法胸有成竹;只有抽象的数据,而没有对现实的感知,就难以从数据中获得还原真实全貌的能力。数据没有了具体的语境背景和色彩,所呈现的只是这个世界的抽象表征,而不是世界本身。如果管理者、决策者总是被一层层抽取到的数据所包围,他们的想象力和直觉就会枯竭。就像是只吃各种维生素和工业提纯后的营养液,导致味觉退化。人的独特能力是不能够被机器和技术替代的。

  算法技术本身不能给出有关真实性的全部答案。因为大数据背后的假设关注的是相关性,而不是因果关系,所以大数据可以提供信息,但是无法给出解释;大数据可以构建事物在统计上的显著关系,却不能解释为何会出现这样的现象。经济学家蒂姆·哈福德说:“大数据并没有解决困扰了统计学家和科学家几百年的问题——关于洞察力的问题,也就是如何推断到底发生了什么,并找出如何干预或优化一个系统的方式。”

  谷歌的“流感趋势检索”案例呈现出了以上问题。2008年,谷歌的研究人员提出了一个用搜索词条预测疾病大规模暴发的想法。经过筛选与流感相关的检索,并对这些检索进行追踪,研究人员想当然地认为他们可以比美国疾病控制与预防中心(CDC)更早预测出流感的暴发。他们所采用的技术被命名为“临近预报”(now-casting)。这似乎是一次算法技术上的成功——谷歌的检索可以比美国疾病控制与预防中心提早两周预测出流感暴发。然而之后不久,谷歌的流感趋势预测就不灵验了——它并没有预测出2009年的H1N1流感大暴发,而且高估了2012-2013年的流感疫情。问题在于,谷歌的算法对于任何与流感季节相关的检索都会产生反应,但这些检索的背后不一定与真正的流感暴发有关。比如,像“高中篮球”和“鸡汤”这样的检索都会引发谷歌算法的流感警报。这是因为大数据并不关注解释,而只是反映经验主义者的思维。

  大数据想要从等式中去除偏见,充分采用演绎思维,摒弃归纳的探究方式。它的逻辑是,在数据充分的情况下,数字就可以指向结论,根本不需要理论。但是,就如同谷歌流感趋势的例子所展示的,我们还需要进行更深入的分析,以探讨数据的相关性,并确定因果关系。大数据无法摆脱对传统研究方法的依赖,因为数据的意义仍然来自人对数据的解读。

  如果像谷歌这样处理数据的话,大数据永远不能做到保持中立,不偏不倚。类似的,我们经常用所谓的“技术”手段来了解真实情况,但是却如隔靴搔痒。比如,公司管理者想要通过客户的“痛点”或“未被满足的需求”来帮助客户、消费者或员工。这些说法背后是一种居高临下的态度,拿着技术工具的放大镜俯视别人,将他人的经历抽象化、将人流动的想法和细微的个性差异解剖、放大分析,本质上是一种简化。

  科学知识不断发展,但是来自科学技术的信息却导致我们对其他形式的信息与求知方式置若罔闻。而往往是那些能够接受各种形式的信息的人最终胜出。如果一个人只是相信科学知识和技术,那ta就会都被限制在了自己构建的“技术牢笼”:有的人被困在桌上堆满了数字表格的会议室里,还有的人被困在充斥着空洞的缩略语的战略会议中。无论是被困于哪种“技术牢笼”,ta都难以在复杂的环境下领会真正真实的生活。

  比如,在一家制药公司,ERP系统可以告诉管理者有多少销售人员完成了季度目标,但是不能让管理者明白究竟是什么塑造了一位成功的销售人员;在一家时装公司,最新的市场细分模型能展示出不同的奢侈品消费者是怎样消费的,但是不能揭示出他们在消费时追求的是一种什么样的体验和心情;一家销售养老保险的公司要理解变老的感受,才能够走进老年人消费者的心里,赢得他们的好感和信任。而一个人变老的感受,是算法量化模型可以描述清楚的吗?

  人的独特认知能力

  所以,要寻找因果关系和现象形成的过程机制,依然需要人的投入、思考和归纳。只有人们自己可以从对具体经验和复杂现实的体察中总结提炼出捕捉整体真实性的理论框架。要把握这个VUCA时代的机会,企业高管不能迷信技术算法,更要随时掌握政治、科技、文化社会领域的新知识,并且理解不同方面信息是如何相互交织、共同塑造的。

  比如,食品生产业务不仅是由定制市场进入战略、资本投入、产品市场定位构成。做好这个生意,还需要管理者理解人与食物的关系:如何消费和分享食物、美食聚餐对于人们的文化意义等。企业的发展战略也不仅是不同周期的计划目标和财务报表,也是与文化、人、情感相关。要真正了解生活在社会和组织环境中的人,学习者需要平视人,做人所做,见人所见,才能思人所想,获得同样的人的视角与思维方式。此外,要了解一种文化和人行为的社会背景,你还要去了解这样文化的历史、传承和习俗,从而获得人行为背后的复杂动机与经历的影响。

  所有这些,都不是技术崇拜者和唯科学主义者迷信的统计学“大数据”和算法能够领悟的,而是需要真实场景的“厚数据”(thickdata)。

  对于“厚数据”的关注,体现在金融大鳄索罗斯的投资方法论中。因在童年时期经历了世界范围的战争,看到了人类的不理智,索罗斯对历史的非线性发展异常敏感。他意识到,宏大的政治事件,往往是由那些看似微不足道的人物事件引发的。理性的货币政策与条约的表象之下,是人们的愤怒、受伤的自我和地盘之争。

  索罗斯基金管理公司所具有的人文思维文化要求投资人必须探寻数据背后的文化。索罗斯的投资伙伴罗伯特·约翰逊所遵循的独特流程是:“多数时候,数据并不是数字,它们无法在表格中量化。数据是经历,是报纸上的文章,是人们的反应,是对话,是描述性数据。”

  索罗斯和同事们的决策过程并不是在办公室中反复摆弄各种模型分析数据,而是来到真实的“田野”进行调研,是从与真实的不同的人进行的互动中获得了真实的感受,而不是通过机械的经济学基础理论和大数据分析去感知市场动向。

  投资和商业决策都需要数据来支持,但如果只是把数据理解为单纯的数字,你可能就会错过更本质的信息。像索罗斯这些投资者的天赋,就是能够在如海洋般浩瀚的数据、印象、事实、经验、观点和观测中找出规律,并把这些规律整合成一种洞察力。这需要与相关数据进行直接、几乎是感官上的接触,需要对什么与什么相匹配,什么源于什么,什么导致什么有一种敏锐的感知能力和整体思维能力。

  类似的,英国历史学家哲学家以赛亚·伯林发现,就如同索罗斯这样的大金融家能够同时整合多种复杂要素一样,伟大的政治领袖也具有一套可以被称为“完全平凡、经验主义和准美学式”的个人技能。这些技能的特点,是以经验、对他人的理解和对环境的敏感为基础的现实参与。“整合那些千变万化、多姿多彩、稍纵即逝的,像一只只蝴蝶一样难以捕捉、分类的信息”。

  这是一种了不起的能力,是算法和人工智能不能够替代人类的原因,因为人类有洞见。温斯顿·丘吉尔说:真正的才华,体现在人们对未知、危险和矛盾的信息的判断之中。

  所以,那些认为只要数据够多,算法够先进,就可以无所不能的判断是站不住脚的。这和“唯科学论”和“拜科学教”的迷信一样,本质上是一种认知惰性和对未知领域的恐惧。

  结语

  社会学家马克斯·韦伯总结了社会“现代性”的三个特征:量化可计算的(calculative)、程序化(procedure)、反思性(reflexivity)。进入工业社会后,人们发现自己被束缚在“理性的牢笼(IronCage)”中,就像是如今被束缚在各种“技术牢笼”中一样,其中重要原因就是人们总是关注现代性的前两个特征,却总是忘记了反思——对整体的反思能力。人们对世界全局的整体性把握,正是人所特有的能力,这是算法无法替代的。算法也因此不能主宰人类社会。

  现实中,当人们视算法及其提供的解决方法超过其他一切时,我们就难以看到人类智慧所表现出的机敏与精细。当人们将技术凌驾于人类之上时,就不再把数据与其他资源整合在一起,那么就会失去可持续发展的效率,因为它源自整体的思维,而不是优化的方式。

  在商业竞争的快速变化环境中,管理决策者需要跳出“技术崇拜”和“唯科学主义”的限制,需要灵活自如地综合运用所有四种知识:客观知识、主观知识、共享知识、感官知识。有点类似管理学者明茨伯格提出的对管理的定义——管理既是科学,也是艺术,更是门手艺,这四种知识没有孰优孰劣。

  客观知识:是自然科学的基础,例如“2+2=4”、“这块砖重3磅”、“水是由两个氧原子和一个氢原子构成的”。但这种类型的知识没有真正的视角,这就是哲学家托马斯·内格尔将其描述为“无源之见”的原因。客观知识可以被反复检验,并得到相同的结果。细胞、原子和小行星都可以用客观知识进行观察、测量,因为其结果是可复制的、普遍成立的,并与现实观测相一致。

  主观知识:即个人的观点与感受。主观知识反映的是我们内在的世界。人们会把自己确信无疑的事情看作是知识。当我们说“我脖子疼”或“我饿了”时,大家就会尊重我们对自己身体的判断。当某个人正经历某种感官体验时,这种感受就是他的最真实的知识。

  共享知识:与客观知识不同,这种知识是无法像原子和距离那样被测量的。同时,与主观知识不同,这类知识具有公共性和文化性。换言之,第三种知识是共享的人类经历。

  感官知识:这种知识让我们利用一种关于世界的浅层次意识来决定如何行动。经验丰富的消防员通过“第六感”感受火焰的移动;专业救护人员在没有看到心脏骤停迹象前,已经伸手去拿除颤器。这些都是“技艺”层面的感官知识在发挥作用。

  同时掌握四种知识,而不是仅仅盯着技术算法等客观知识,可以帮助人从特定的情境中抽取更多的关键信息,回归世界的真实。所以,我们既需要顶尖的电脑工程师和软件开发人员来推动算法进步,也需要才华横溢的诗人、艺术家、哲学家和人类学家来帮助我们获得整体洞见和灵感。我们需要综合方方面面的精彩见解,而不是试图作为单个的个体或文化达到最优状态。演算法可以提供最优路径,但是只有人——艺术家、思考者、数学家、企业家、政治家——具有洞察力和同理心的人,才能构建和解释意义、定义人类社会的目的。

  算法时代,人的力量就体现于此,让我们看到它,使用它。

  关于作者 | 刘书博:中央财经大学 商学院副教授

  文章来源 | 本文刊登于《清华管理评论》2021年4月刊,内容有删减

  当前浏览器不支持播放音乐或语音,请在微信或其他浏览器中播放 归来 音乐: 刘祥飞陶笛音乐 - 精选陶笛国风音乐

  

  当前浏览器不支持播放音乐或语音,请在微信或其他浏览器中播放 墨染 音乐: 旭润音乐;安九;小时姑娘 - 墨染