机器人伦理的不同观点:权利与义务相结合的规范伦理体系

  机器人伦理是权利与义务相结合的规范伦理体系。在构建机器人伦理的过程中,往往涉及到两方面:道义论和后果论。

  对于机器人伦理来说,道义论(以义务为基础)认为机器人专家或机器人自身的道德决定可以根据一些有限的(可假定或可编程的演算)规则而设定,道德决定的做出符合一阶单调逻辑,由计算可编程的规则产生的结果组成。尽管这些包含诸如基础逻辑的演算并不能把伦理理论完全纳入其中,然而道义逻辑却在编辑程序方面具有重要作用。

  

  实际上,道义论的进路仅仅是把伦理看作是(可编程的)一组规则,在道义论者看来,原则上讲可以创造符合伦理的机器人,并确保它能符合任何(可编程的)伦理标准。康德的“绝对命令”(Categorical Imperative)和阿西莫夫(阿西莫夫)关于“机器人的三大定律”‘.是机器人伦理学中具有较大影响的两个代表性理论。

  康德的道义论

  康德的理论有两个基本的策略:绝对命令CI (1)或普遍规律(FUL):“行为与准则相一致,同时你可视其为一个通用的规则。”

  

  “绝对命令”是关于一个人日的和意愿的陈述:为什么一个人要做他应该做的事情。因此,康德宣称这唯一的意愿是道德,它是每一个人都应该具备的,在道德的世界里不存在不公平。康德还宣称当把他人仅仅看作是对我们的一种伤害时,这种行为也是不道德的。毕竟,我们自身也不希望对方如此看待我们。因此,在任何社会关系中应用CI时,康德必须提供第二个策略:

  CI (2)或最终表达原则:“无论是自身或其它人,在行动过程中总是以人道的方式来解决,并以此结束,而绝不只是把它作为一种手段。”

  

  康德宣称,他关于CI (2)的解释是CI (1 )的最为直接的继承和发展。在他看来,我们不可能把人道仅仅视为对待他人的一种手段。这个策略引进了固有的人格尊严和对人的尊重。也就是说,尊重之类的共同特性是人格尊严所必须的,我们必须把它当作是一种价值而非对待他人的一种手段。对于康德来说,所有合理的存在都有其固有的道德价值,而在非理性的世界中,它可能仅仅是一种工具,但对于人类来说,却不能如此。

  康德的道义论认为诸如盗窃和说谎这样的行为是不道德的,然而把它们普遍化会导致悖论。例如,对身患绝症的人说谎,偷窃打算实施自杀行为人的凶器未必是不道德的。康德这一理论具有]’一泛的影响,但是其在适用性上存在一定的问题,它在道德后果上表现出漠视的态度也是一个缺陷。例如,机器人可能永远不会说谎,但如果它被不怀好意的人控制,那么机器人的这一特性无疑会给正义力量带来困扰。

  

  进一步来说,CI (1)是非常宽容的,它允许任何具有普遍性准则的行为中潜在劣性的存在。但这同样也会引起与CI (2)的冲突。例如,CI (1)可能要求制裁自愿劳役或强制劳役。就机器人而言,Petersen对这一问题进行了探讨。对于在机器人中纳入道义论伦理,更为糟糕的是,运用CI (1)会产生责任的冲突—当两个普遍化的准则同时出现时,就可能会导致冲突。

  但CI (2)就过于严格,从字面上解读,它禁止所有的战争行为,或者在其他人不同意或不赞成的情况下我行我素。这种情况可能会出现在大多数的人机交互关系中,特别是军事行动中。这一原则既不同意为了夺取胜利而允许伤害平民(附带损害),也不会同意在大多数人类活动中为了多数人的利益而损害少数人利益的活动。实际上,正是在道义论的约束下产生了许多荒谬的结果。在完成复杂任务过程中,机器人并不会完全按照人类的指令行事,问题的关键在于是在什么时间,以什么方式才能正确做出决定以及为什么这样做。就此而言,CI (2)的限制太多,不具可行性。

  

  最后,在使规则普遍化的问题上,康德道义论也存在问题。例如在一场战争中,机器人可能具有一种使规则普遍化的能力:“永远不会朝孩子幵枪”,但如果叛乱分子意识到这一状况,那么组织童子军叛乱会对机器人构成严重的威胁。此外,若战争规则允许它把进攻目标确定在敌人用枪指向它时(若对方受伤或没有能力反抗这种状况除外)。那么机器人是否有能力区分对方受伤的程度和报复的能力,并做出正确的决定呢?对这些问题,康德道义论也无法做出恰当的回答。

  

  阿西莫夫的道义论观点

  在机器人伦理中引起更多讨论的另一个道义论观点是阿西莫夫的机器人三规则,具体如下:1、机器人可以不伤害人类,或者可以通过无作为,让人类在行动中自我灭亡;2、机器人必须遵守人类的命令,除非这一命令与第一条规则相惊;3、机器人必须保护自身的存在,但是这种保护与第一、二条规则不相冲突。

  为了使冲突降到最低限度,规则具有优先性。因此,对人类不构成伤害的行动,其程序要高于人类的指令,并遵守自我防卫的最高指令。然而,在表述规则之后,阿西莫夫举例说明了三个不同层次规则的排列。例如,当机器人收到来自两个人不同的指令时,或者当保护一个人而可能会对另一个人构成伤害时,那么机器人会自动终止行为。正如上文所述,第一条规则显然是不完备的,因为它忽略了这样的问题:如果机器人不知道它行动的结果会对人类构成伤害,那么它就完全有能力去伤害人类,也就是说它的伤害是无意识的。例如,在机器人没有意识到它的行为会构成伤害时,当机器人在收到指令以后,它可能会用己经污染的水服务人类,或把一个人淹死在水塘中,或把冰块当作水而强迫人喝。

  

  解决方案之一是用明确的具有限定性的“知识”重新编写第一条和随后的规贝“在机器人的知识构成中,它在行动过程中可能不会伤害人类;也不会受到人类的伤害”。巾但是人们可以把一个任务分配到多重机器人那里,这种巧妙的规避道德的方式,使得没有一个机器人可以知道它的行为会对人类构成伤害。假设某个机器人负责放置福射性物品,另一个机器人负责安置导火线,还有一个负责安装计时器,等等,它们各负其责,最终导致“放射性物体”爆炸。所以,我们还会面临这样的问题:机器人可能完全遵守规则,但仍旧会产生可怕的后果。另一个难题是阿西莫夫的“不作为”(规则明确指出,机器人在行动的过程中会把对人类的伤害降低到最小点,所以这就可能会出现不能完成一些基本的任务。因此,调整后的第一条规则是:机器人不应该伤害人类。

  但是对“不作为”规则的修正却带来了另一个更大的问题:机器人接到命令即开始一个行动,这个行动可能会伤害到人类。例如,假设一个军用机器人进入自动开火程序,这时它看到一个非战斗人员也在火线范围内。因为机器人有阻止伤害平民的程序(终止自动开火程序),但是,因为这个程序并不是严格的终止程序,所以很可能会为了完成任务而伤害平民。

  

  如果机器人在行动或不予行动过程中可以立即终止其对人类的伤害,却因此可能在随后伤害更多人,这一问题将如何面对?我们能否因为牺牲一个人来拯救更多的人?为了修正这一缺陷,阿西莫夫随后增加了零规则,以继续使低限度(的模式代替高限度(的模式,从而使得零规则具有更高的优先权而不会被违背:或者机器人不应该对人类构成伤害,或者在行动过程中允许存在损害。这就默许了机器人伤害人类中单个个体的事实,在这样的情况下就有可能阻止一个关乎人类的“潜在威胁”。

  但是,机器人如何判定这个威胁什么时候存在,或这个威胁有多么严重,以至于允许伤害单个个体来阻止威胁?零规则是否允许机器人强迫人类作为试验品进入医药实验中,去研发可以抑制可能引起大范围瘟疫的抗菌疫苗?这一“预防性原则”究竟有多么强大的约束力?对于这些问题,阿西莫夫的道义论没有能够做出正确的回答。

  举报/反馈