机器人的伦理抉择
谭薇
在战场上命悬一线之际,人们的心智往往为恐惧、愤怒或仇恨所蒙蔽,即使是训练有素的士兵也难免违反日内瓦公约之类的战争法则。科学家认为,在战场上,自动机器人可以作出更符合伦理道德的决定。
道德机器人的必要
经美国军方委托,佐治亚理工大学的计算机科学家罗纳德·艾金(Ronald Arkin)已经开始为战斗机器人编写软件。如今,飞行器、探雷器和传感装置等早已在战场上大显身手,形形色色的飞行器更是成为纵横伊拉克和阿富汗的战场新秀。不过,艾金及其同事的目标是制造全自动的机器人。他认为,杀伤性自动机器人的诞生只是时间的问题,它不仅成本低廉,而且便于大量生产。根据其研究假定,机器人在战场上的表现比人类士兵更符合道义。
英国谢菲尔德大学(University of Sheffield)的计算机科学家诺埃·夏基(Noel Sharkey)在专业杂志《创新技术》(Innovative Technology)上撰文指出,战斗机器人的开发应用并不仅仅存在于《终结者》之类的科幻小说中,而是业已成为严峻的现实。不少国家已将武装机器人部队派往边境,其中包括韩国和以色列。他认为,在其道德判断能力得到证明之前,杀伤性自动机器人都应当被禁止。鉴于这一目标仍是遥遥无期,夏基担心,杀伤性机器人的支持者会利用这项研究来消除反对的声音。
《道德机器:培养机器人的是非观》(Moral Machines: Teaching Robots Right From Wrong)的作者之一,美国印第安纳大学的哲学家科林·艾伦(Colin Allen)亦对此表示赞同,因为如今不少国家正竞相开发自动机器人,这将在世界范围内掀起新一轮的高科技武器竞赛。不过在《道德机器》一书中,艾伦亦强调,尽管追求功能最大化的工程师与伦理学家的目标似乎相悖,然而在某种程度上,提高机器人对于道德决定的敏感度与创建稳定、高效、安全的系统还是可以兼容的。这是一个应当引起所有人思考的伦理问题。
艾金的研究得到了美国陆军研究办公室信息科学局的资助。科学局局长兰迪·扎克瑞(Randy Zachery)表示,军方希望“基础科学”可以回答以下问题:士兵应当如何使用自动系统并与之进行互动,软件程序如何使自动系统在发挥作用的同时遵守战争法则。目前,科学家尚未开发出具体的产品或程序,其目标在于为未来的研究奠定基础。
在去年提交给军方的报告中,艾金介绍了战斗型自动机器人的潜在好处:他们没有自我保护的本能,不会变得愤怒或莽撞,亦不会因恐惧而失控。不仅如此,他们还可避免“情景实现”(scenario fulfillment)所带来的问题——人类更倾向于接受与自身知识体系相契合的新信息。