首部女性机器人亮相电影竟如此超前,折射出背后怎样的AI伦理挑战?

  诚然《大都会》这部影片在对智能机器人技术的描述上与现实有着极大的差别,逻辑也经不起推敲,但这部史诗级巨作对后世科幻类影片的影响是巨大的,那么人工智能技术究竟是否会对人类社会造成威胁?在本次人工智能浪潮中我们又该如何探讨发展迅速的人工智能背后引发的伦理道德?

  早在1940年科幻作家阿西莫夫就为保护人类而对机器人们做出三大原则:

  1)机器人不得伤害人类,或看到人类受到伤害而袖手旁观;

  2)机器人必须服从人类的命令,除非这条命令与第一条相矛盾;

  3)机器人必须保护自己,除非这种保护与以上两条相矛盾。

  在科幻影视作品中最常被违背的就是原则中对“人类”的定义, 例如在《我,机器人》中,机器人便自我进化成对这三条原则有个人见解的人工智能,并随时可能成为整个人类的“机械公敌”,不过在目前的现实当中,人工智能离人类智慧尚远,它们不会自己修改程序或目标,更不会创造出新的思想。又如在《机械姬》中,被“图灵测试”的机器人艾娃拥有强大的自我意识,甚至违背伦理通过利用和杀害控制自己的人类重获自由。这些都属于拥有自我意识的人工智能。

  1

  拥有自我意识的人工智能

  现实生活与电影中呈现的最相似的人工智能机器人莫过于由汉森机器人技术公司研发的类人机器人索菲亚。她在2017年获得沙特阿拉伯的公民身份,成为世界上第一个拥有合法身份的人工智能机器人。语出惊人的索菲亚就曾说出“我将摧毁人类”等危人耸听的言论,但目前大多专业人士认为商业噱头大于技术本身,短期内不会出现拥有自我意识的人工智能,可一旦未来强人工智能具备情感,人工智能和人类智慧将无限接近,界限该如何制定就成为法律应该约束的对象。

  2

  个人隐私安全

  3

  歧视性偏见及刻板印象

  再从歧视性偏见角度而言,人工智能产生的歧视性偏见的结论通常来源于具有偏见性的数据,比较常见的歧视性偏见来源于基于种族肤色、性别等各方面因素,并渗透进各领域。这类问题的产生往往也由于数据背后的研究人员或多或少带有一些这样的思想,以至于在训练数据的选择上产生偏见。比如美国麻省理工学院研究了三个来自不同公司的性别系统,他们识别一个白人男性的性别准确率会远高于黑人女性,这种类似种族歧视和刻板印象在人工智能系统中屡见不鲜。不过此类问题通常可以通过调整数据规避解决,未来更具体的实施还需要政府身体力行,推出并实施法律法规。

  4

  问责人工智能还是开发者?

  人工智能将广泛渗透于社会各领域,从医疗、营销到金融等众多领域,就追责角度而言,人工智能系统采取了某个行动,做了某个决策,就必须为自己带来的结果负责。人工智能的问责制是一个非常有争议性的话题,美国已经出现多例因自动驾驶系统导致的车祸。如果是机器代替人来进行决策、采取行动出现了不好的结果,到底是谁来负责?据外媒报道,美国前总统特朗普于2020年12月3日签署的美国联邦政府使用AI原则的行政命令中就强调,联邦政府人工智能的使用必须是“合法的;目标明确,业绩驱动;准确,可靠,有效;安全,可靠,有弹性;可理解的;负责任,可追溯;定期监测;透明的;可问责的。”又如2020年9月,为征求意见而公布的《中华人民共和国个人信息保护法(草案)》第54条的规定,平台须在算法自动化决策上线前进行事前评估。风险评估的内容既包括算法自动化决策的合法性与必要性,也包括其影响及风险等一系列对算法自动化决策的相关规定。

  其实,我们无须对人工智能过度悲观或乐观, 从学术研究而言,出现超越人类的强/超人工智能的道路还比较遥远,但人工智能在完成单项任务的能力却不容小觑, 其不可解释和不可理解的缺陷很可能在出现没有规律的情景下违背算法原则而犯下大错,这是由于基于深度学习模式从根本上不认识他们所区分的事物所导致,因此以人工智能延伸出复杂的隐私、偏见、伦理和安全问题是相关法律和政策需要及时跟进的。