一个值得思考的问题:你会把机器人归为“我们”吗?

  #头号周刊#

  

  人与机器人是否称呼“我们”

  真有这么重要吗?重要。

  ▼

  我最早意识到使用复数“我们”是个极严肃的问题,是在1991年开始写博士论文之时。一天,我的博导奥斯汀·亚当斯(Austin Adams)一脸严肃地对我说:“Shu,你写博士论文时只能用‘I’,不许用‘We’”。我颇为震惊,心想:“我将导师您默认为自己人‘We’,反而称呼错了?”

  如今,这种要求研究生完全“独立完成”论文的学术规范有了变化。一是现在所做的研究几乎不可能完全靠研究生独自一人完成,而且严肃的学术期刊也鼓励用“我们”;二是因为回到了典型集体主义文化的祖国,将一切学术成就归功于“我”,与传统文化相悖。现在,我的学生做实验、写毕业论文,从构思到论文印刷成白纸黑字,不但少不了导师的指导,还有众多同门的贡献。若有哪个学生我行我素仅标榜“我”,反而在导师眼里显得刺眼。

  在我读书时代,还有人是用打字机打出毕业论文的。如果某位博士的论文是心理学院里的某位秘书帮忙打字的,那这位博士候选人定会在致谢部分提及其名字。现在,几乎就没见过我们在致谢部分感谢帮助我们排版、打印、装订的工作人员名单。

  再如,英国利物浦大学研究团队开发了一款能全年无休地自动进行化学实验的研究机器人(a mobile robotic chemist)。人类需要耗费数月完成的工作量,研究机器人仅需8天即可完成。这款机器人具有自动研究的功能,还真的能帮助人类完成研究实验。但是,在目前的研究生态中,我们大概率会看到研究人员会向帮忙润色英文的编辑公司致谢,而不会向帮忙做实验的这款“高级机器人”致谢。

  那么,到了机器可以完全扮演人类角色的时代,我若能活着成为奥斯汀那样严肃的导师,我应该板着脸对学生说什么?是说:你写论文应该用“I”,你拥有完全自主的知识产权,因为没有其他“人类”参与其中?还是说:你写论文应该用“We”,你只能拥有部分自主的知识产权,因为大部分工作都是智能机器人(算法)替你做的?

  01

  “我”还是“我们”?人机有别

  用于判断人类是用“We”还是用“I”的标准,尚不能直接迁移于“智能机器人”的情景。

  ● 人对人不公平,人会生气;机器人对人不公平,人不会生气

  我们课题组2019年发表在Social Cognitive and Affective Neuroscience期刊上的实验结果表明:在人与人交往的世界里,队友对自己不公平,我们会生气并会“惩罚”对方的不公平分配。具体表现为:人们与“人类对手”玩“最后通牒”游戏(ultimatum game)时,当人类对手提出不公平的分配方案时,参与者大都会拒绝其提议,即为了不想让对方拿到分配多的奖赏,宁愿自己不要奖赏,也会做出“伤敌一千自损八百”的选择。

  然而,当队友变换成机器人时,人们在面临这样不公平分配时的行为却完全不同。具体表现为:人们与“计算机对手”玩“最后通牒”游戏时,当计算机对手提出不公平的分配方案时,人们变得不再拒绝提议。因为惩罚计算机,不让它拿到分配多的奖赏,不仅“伤”不到计算机、于事无补,甚至还会损失自己原本可以得到的小奖赏。

  

  ● 人与人共处,人有顾忌;人与机器人共处,人无顾忌

  2005年,陈晓萍和我发表在Journal of International Business Studies期刊上的实验结果表明:尽管存在被剥削或伤害的风险,我们仍会与其他人合作。在囚徒困境博弈(prisoner's dilemma game)中,在国外的中国人更愿意与那里的中国同胞合作,而澳大利亚人不管是与本国人合作还是与外国人合作,都会采取一视同仁的态度。中国人和澳大利亚人的合作倾向受到了文化价值取向的影响。

  然而,当合作对象换成是机器人,人们的行为又大不一样。卡布斯(Karpus)等人2021年发表在iScience上的一项研究发现,在信任游戏(trust game)中,当投资方是机器人时,人们选择返还投资获益的比例要少于面对人类投资方。因为人们预测:即使自己背叛机器人,机器人也不会在下一次投资中选择拒绝投资。

  该研究还发现,人们只有在利用人类时会感到内疚,而在利用机器人时却没有类似反应。这说明人们往往会没有顾忌地利用机器人的“友善”为自己赚取更多利益,而不会像对待人类那样愿意牺牲个人利益以维持相互之间的合作关系。机器人默认“友善”的选择,而人们却不会真正把机器人视为“We”的存在。

  ● 人给人提供信息,人去探索;机器给人提供信息,人不去探索

  人们对人机信息的处理方式和反应也有所不同。有研究通过简单的选择范式 ( 让参与者在已知和未知选项之间进行选择 ) 研究探索行为。结果发现,当已知选项的信息来自其他人时,人们更倾向于探索 ( 即选择未知选项 ),而当已知选项的信息来自计算机时,则更少去探索。原因是当信息源是人时,人们可能直觉地采用“We”的视角来看待问题,会为了丰富群体经验而进行探索,而当信息源是计算机时,人们可能就不会把它视为“We”,则不会去探索。

  以上研究都表明,人们目前给予了“人类”与“机器人”区别对待,并没有真正把“机器人”当成“人”来看待。这表明人机有别,目前人与机器人尚不能称为“We”。

  02

  “我”还是“我们”?不是单复数之别

  以上研究细思极恐,人能否称呼机器人为“我们”,还真不是简单的单复数之别。

  《现代汉语词典》给“我们”的定义是:包括自己在内的若干人。《牛津词典》给“we”的定义是:I and another person or other people。如果真的要和机器人称为“我们”,《现代汉语词典》和《牛津词典》都需勘正。

  我觉得,人机最起码要享有一个“共同”之处,如果连一个共同之处都没有,应该无法称“我们”。最起码的人机“共同”之处是要遵循共同的“行为规范”。一起做事,就需要所有人都共同遵守一个“行为规范”;越多人遵守这个“行为规范”,越可能成大事。

  

  一起做事,有共同的行为准则,方能称“We”,以上研究其实都提供了证据:目前为止,人和机器在执行任务时,并没有遵循共同的行为准则。

  人们还会因为种族、性别、性格的相似性彼此吸引,走向“共同”。人机交互(human computer interaction, HRI)设计中有意增进人机的相似性,亦能引起人对机器的认“同”感。

  经典匹配理论认为:人与机器人的共同性是可以塑造的。提高人机“共同”之处、提升匹配度会拉近人与机器人之间的人际距离。

  或许,在长长一串的“共同之处”名单中,我们赋予“情感”的权重最大。

  比如,日本人曾用庄严的神道祈福仪式为“去世”的索尼爱宝机器狗送行。再如,美军曾向“光荣牺牲”的排爆机器人“Boomer”鸣放21响礼炮,并为它颁发奖章。这或许暗示:即使智能机器人可将所有的事都做了,而且能做得更多、更好,但只要人类嫌弃机器没有感情,就不会将它们称为“我 们”。

  最后,我猜测,人类有“共同”之处的最高境界当是:心有灵犀一点通,即,在会意时,“我们”迅速对视一下,就可理解人的言外之意。2021 年,北京大学心理系朱露莎研究团队发表在Science Advances期刊上的研究探索了人类如何理解言外之意、弦外之音。人类之间的交流也是一种博弈行为,听话者主要通过模拟说话者对话语理性选择的过程来理解言外之意,推断交流信号的潜在含义。

  然而,由于机器人没有几亿年的进化史留在人类身上的刻痕,没有生物的直觉和本能,没有产生独立意识的能力,无法像人类大脑一样随机应变地编码和解码隐含的交流信号,如理解幽默或讽刺交流信号等。理解言外之意也是人工智能领域开发真实情景下人机交互工具、进行自然语言处理面临的一大挑战。从这一角度来看,就目前的发展状况而言,人很难将机器人称为“我们”。

  03

  人与机器人一旦成为“我们”,

  会有什么问题?

  读者或许会问 :是否称呼“我们”,真有这么重要吗?

  重要。因为这不仅仅是一个语法问题。如果到了一个时间拐点,人将机器人称为“我们”,那么,“我们”这一称呼便会在法律、伦理、道德和文化等方面产生诸多问题。

  ● 法律问题

  在法庭上,当被告说“我们”而不说“我”时,目的就是为了分散责任,甚至免责。于是,当法官量刑时,便可能判断机器人“共犯”承担了大部分犯罪工作,从而轻判人类“嫌疑人”,这样便可让机器人成为替罪羊。届时,我们所处的社会是否需要两个人机有别的法律系统?

  ● 伦理问题

  在学术委员会上,当智能机器人参与了数据搜集、整理、分析、有选择性地报告实验结果等全部过程,如何判断“剽窃、篡改数据、不当署名”等事实则取决于人与机器人成为了“我们”还是没有成为“我们”。我个人亲睹一个案例,在一个基金的重点项目评审会上,一位申请人标书上写的“代表作”竟然重复列了同一篇论文,而遭“一票否决”。其真相或是,那一年基金委第一次采用《科研之友》软件自动生成申请人的著作列表,而机器自动将同一作者姓名的大小写判别成不同作者的不同论文。

  ● 道德问题

  在消费者市场上,人工智能的拟人化女性形象,如将顺从听话、温柔可人的女性形象作为服务者,称呼使用者为“主人”等做法已经遭多方诟病。之所以有人——特别是女性——站在道德的制高点加以反对,其根源还是在于人与机器人是否成为了“我们”。女性之所以更生气、反应更激烈,或许因为她们更可能将“拟人化女性”机器人划入“我们”之列。

  ● 文化问题

  在我们原先熟悉的集体主义、个体主义文化划分体系中,个体主义文化中的个体与“我”更兼容;集体主义文化中的个体与“我们”更兼容。但是,一旦人与机器人成为“我们”,原来个体主义文化中的极端个体,即事事都不依赖其他人类的个体,反而会因为太依赖计算机,变成最容易将机器人称为“我们”的个体,即人工智能时代下“新集体主义文化”的个体。

  总之,人与机器人一旦成为“我们”,就不可避免地会产生一系列法律、伦理、道德和文化方面的问题,这些问题都是“我们”前所未见、闻所未闻的新问题。也正因为,每个人一不小心就会成为“我们”,对这个所有人都躲不掉的“我们”问题,我们应该未雨绸缪。

  参考文献 :

  ① Chen, X. P. & Li, S. Cross-national differences in cooperative decision making in mixed-motive business contexts: The mediating and moderating effects of vertical and horizontal individualism [J]. Journal of International Business Studies, 2005, 36(6) :622-636.

  ② Karpus, J., Krüger, A., Verba, J. T., Bahrami, B., & Deroy, O. Algorithm exploitation: Humans are keen to exploit benevolent AI [J].iScience, 2021, 24(6).

  ③ Winet, Y. K., Tu, Y., Choshen-Hillel, S., & Fishbach, A. Social exploration: When people deviate from options explored by others [J]. Journal of Personality and Social Psychology,2022, 122(3) :427-442.

  ④ Mi, Q., Wang, C., Camerer, C. F., & Zhu, L. Reading between the lines: Listener's vmPFC simulates speaker cooperative choices in communication games [J].Science Advances, 2021, 7(10).

  ⑤ Wang, Y., Zheng, D., Chen, J., Rao, L. L., Li, S., & Zhou, Y. Born for fairness: Evidence of genetic contribution to a neural basis of fairness intuition [J]. Social Cognitive and Affective Neuroscience, 2019,14(5):539-548.

  * 文章选自《管理视野》杂志,作者李纾为杂志专栏作者,中国科学院大学教授、中国心理学会决策心理学专业委员会创会主任

  * 《管理视野》杂志是面向企业管理者的新一代商业思想读本,由复旦大学管理学院承办,中国管理研究国际学会(IACMR)提供学术支持

  举报/反馈