人工智能的伦理问题-结题作业
此乃2020年厦门大学研究生小学期工程伦理的结题作业,作者王某某,老师看到了不要认为我是抄袭的哈。这是原创。。
时间2020-7-19保存。
2019级同学看到了不要引用我的观点哈!!
a_rose_for_tang
230 0000000@xmu.edu.cn
(厦门大学信息学院,福建 厦门 361005)
帕斯卡曾说过:人是一根能思想的苇草。
人类的聪明之处,在于其对世界万物,生存的、死去的、可知的、不可知的东西,都能够在头脑里想象到存在的模样,或者说,想象到其可能存在的模样,这是人类的聪慧的体现。
自700万年前古猿转变为人类始祖,之后建立了部落国家,在满足了基本的生存需求之后,大众便开始构建一种规范,道德和法律便是两把利器。当一个人作了恶,法律便会制裁他,当一个人想要作恶,道德便会谴责他,伦理概念就交织在这两者之间,伦理在中国的本意是人伦道德之理,指人与人相处的各种道德准则。现代科技的发展,使得伦理不仅限于人与人的交往,当前出现了网络伦理,医学伦理,生物伦理等新的概念,当然了还有机器人伦理学的研究。身系于社会关系的人,都遭受了伦理规则的桎梏。
可是,当人类把自己的聪明经验赋予给了机器,用一串串01字符来决定机器对现实发生的事情的反应,人类看上去就不再是宇宙万物下的唯一智慧的个体了,现在,那些有着机械臂,判断循环语句的硬软结合体,逐渐浮现并影响人们的生活。
与此同时,那些在人工智能领域产生的伦理问题有哪些,以及适用于人类的伦理规则,是否还适用在这些新出现的“人类“身上,是一个又一个亟需讨论的问题。
人工智能的蓬勃发展不可避免地带来了许多伦理问题,像是自动驾驶汽车产生交通事故的问责问题,医学机器带来的医疗事故归责,等等由人工智能带来的生产生活上的损害。这些是具体的问题体现,就我而言,将人工智能的伦理问题暂时归结为以下的三个方面。
人的身份定位是由其社会关系决定的,就一位女性来说,她在家庭之中可以兼任母亲,女儿,姑姑,阿姨等角色,在工作中她可以担当经理,师傅,同事等角色,在普通的马路上她可以作为路人甲,追星族一员等身份。
这在人工智能的发展后,如何给那些人工智能安排好合适的身份标签,将会是伦理困境之一。
对待一个自动驾驶的软件,人们对待它无法像对待现实世界中,自己在劳务市场招聘来的司机一样,现实中的司机有血有肉,有的脾气暴躁一些,会骂骂咧咧,有的还会在车内吸烟,需要别人禁止。长年累月的相伴下,可能雇主还会和司机称兄道弟,但是和软件不会,软件只会自动开门,自动驾驶,如果需要可以加一些幽默程序,来讲些趣事,但是它们不会被生活上的柴米油盐琐事困扰,它们虽然可以说出来这些麻烦事,但是还是无法被人所认同,可是它对人们的悉心照顾又不亚于那些现实的司机,不能简单地看待它们作为一个可以随用随装的软件程序。
再比如说,未来的医生被人工智能所取代,每一位病人被一位专属医生所救治,病人本该向医生护士道谢,但是此刻的他们是医生机器人和护士机器人,病人所要道谢的对象应该是机器人还是软件设计者,还是医院的软件管理人员?
同时,智能家居里面的管家系统,替代了类似电视剧里面传统大宅门内的老管家,新的管家们更加无微不至地照顾学生的起居饮食,但是无法定位它们的独特身份,它们的所有记忆可以被当作日志保存下来,即使遭到了破坏也可以及时恢复,它们无法像那些管家们一样,融入所服务的家庭,然后成为其中一员。
这些例子只是说明,当前来看,人们还是无法定位这些智能体是作为一款随用随弃的工具,还是将成为一个可以寄托情感的“类人“体。
工作是社会分工中每个劳动者体现社会价值和自我价值的角色定位。人类从原始部落开始就有了工作的划分,有的人作为观察员,勘探哪里有野兽、有果实,有的人作为捕猎者,张弓搭箭,诱敌捕猎。
在当前的社会下,工作对人类的重要程度依旧是不言而喻的,人们从工作中获得生存资料,获得自我实现。而当人工智能发展到一定的程度,许多工作将要被取代,李彦宏的想法是:让AI存在的价值是教人学习、让人成长,而非超越人、替代人。想法很美好,当前的发展趋势却不允许人们活在自己的美梦中,第一次工业革命极大提高了生产力,将人类的双手从纺纱机上释放出来,这是它的优点,可是由此失业的人很多。
毋庸置疑的是,未来那些工作枯燥,重复简单的工作将会被那些机器人取代,这一批下岗工人本来就是社会上的弱势群体,那么,他们的生活保障由谁负责,或者说,他们莫名地被下岗了,这本来可能就不符合伦理规范。
换个方面来说,这对那些需要提高生产效率的企业家,以及提高生活舒适度的消费者来说又有些不公正,他们所追求的是利益最大化,生活满意程度最高,在现有的科技水平之下,不让他们使用这些科技又不符合他们的利益需求,这就导致了那些人工智能的分工困境,哪些工作能做,哪些工作不能被取代陷入两难。
有的人建议说:只让人工智能取代那些具有高危险性的工作,这也产生了不公,这些人虽然只是社会的小部分,但是他们的利益却被影响了,生命的利益得到了保证,生存的利益却可能遭到了侵犯。
总的来说,人工智能只是试图取代工作,而不是创造工作,这就是矛盾的本质原因。调和那些本来可以选择工作或者不工作的人,以及想要提高生活质量的人,成为了伦理困境之一。
当前社会对违反社会伦理规则的人有特定的惩罚规则,或是罚款或是判刑。奖赏也有一定的规则,好人好事,见义勇为等,赏钱赏物。这些规定一定程度上维持了社会的稳定,不过对于人工智能,这些赏罚制度是否仍旧适用,又是难题之一。
简单地思索一下,人工智能的惩罚方法是无法像对待人类一样,轻则监禁,重则枪毙,对那些智能程序的赏罚,没有合适的实施方法,如果以人类的体验标准来看,程序体会不到痛苦的感觉,也享受不到被赞美的快乐,这就使对它们的惩罚只单单变成一种触发条件,在必要的时候不得不触发,没有了相应的作用。
另一个方面,惩罚那些犯错的人工智能是公平的吗?他们的产生过程并非自愿,人类可以控制自己的思想欲望,他们不可以,他们按照规则一步一步地执行程序,做的或对或错,都是身不由己,可是惩罚那些制作者也不完全合理,他们本意也并非作恶。
总而言之,如何规范人工智能的行为,制定合适的赏罚方案,也是伦理问题之一。
对应的方法有如下几条。
无以规矩,不成方圆。首先要建立人工智能的法律规范,人工智能技术的研发和应用正在蓬勃发展,与此同时,人工智能伦理方面的法律规范却相对空白,这一问题是首要的,有了法律依据,主观判断的错误就会减少很多。各国应该相互交流,积极促进通过一部具有最高效力的国际通用法则,保证人工智能伦理问题不会在个别地域“生根发芽”,进而造成世界范围的伦理问题。
主体分大小,国家社会只是大局,具体实施还是取决于研发个体,因此,规避人工智能伦理困境的一个重要方面就是加强科学家的道德建设,培养其道德责任感。在科学技术范围里,科研人员比人工智能机器更需要接受伦理规范的约束,因为科研人员决定着未来能否制造出对人类有益的机器人并且不会被滥用对人类造成危害。
在以政府监督为主体的监管方式下,辅以民众的监督。政府应充分利用权利对人工智能生产者和研发者进行准入认证,要求其公开人工智能产品的安全信息,例如从设计源代码、学习训练数据、专业机构的检测报告等。对于民众,应当根据不同领域的特点,赋予人们监督决策权,限制人工智能的自主程度和智能水平。
人类的智慧若是真的能够完全传递给人工智能的话,那么伦理问题的解决倒是可以简单不少,可以直接采取社会已有的伦理规则,但是前提要确定这些人工智能是隶属于人类的范畴还是机器的范畴,这个前提的结果要在真正的人工智能出现的时候就要立刻决定下来的,不然就会绵绵无期地陷入新的伦理辩论。人工智能伦理问题的解决也许像人类社会上的许多伦理问题一样,或许本来就没有答案,只能在未来的生活中一一实践,然后调错探索。