ChatGPT的科技伦理问题及法律治理
原创 徐欣欣 民主与法制时报
核心提示:ChatGPT带来的科技伦理道德挑战包括社会公平、学术伦理规范、算法偏见与歧视等问题,可以在技术内部层面嵌入法律道德评价机制实现数据正义,在外部层面加强科技伦理约束,从而实现科技与法律道德的良性互动。
北美时间4月20日,美国公司Open AI联合创始人Greg Brockman受邀出席“2023TED”大会,并在现场分享了多个ChatGPT Plus(GPT-4)未发布的新功能和插件。根据Greg Brockman现场演示视频,GPT-4已经具备了跨业务流程、平台、系统的端到端超级自动化功能,这也是前段时间爆火的开源应用Auto-GPT的招牌功能。
众所周知,ChatGPT是由Open AI开发的一款自然语言处理技术,采用了深度学习等人工智能技术,可以模仿人类的自然语言交流,包括问答、对话、文章生成等多种任务。目前,ChatGPT已经发展到第四代,能够生成连贯的、具有逻辑性的文章,具有强大的数据存储能力、超强地方信息检索功能和语言识别技术。ChatGPT的诞生是智能机器人或人工智能技术十分重要的阶段性进步,但由此带来的诸多科技伦理问题,应当引起人们足够重视。
ChatGPT带来的科技伦理道德挑战
ChatGPT的出现就像生成式人工智能的“潘多拉魔盒”被打开一样,它在给人们带来惊喜的同时,也引发了一系列担忧甚至恐慌,比如科技伦理问题。
社会公平问题。以生成式人工智能为代表的人工智能产业的崛起,可能使未来的劳动力市场出现薪资偏向问题,比如与人工智能开发相关的职业可能拥有更高薪资,被生成式人工智能代替的职业可能面对降薪,甚至部分员工被迫下岗。此外,目前,类似ChatGPT式的生成式人工智能已经成为资本投资的热点,与此相关的企业市值均呈上涨态势,这使得许多企业的资本收益率大幅提升,尤其是在此轮技术浪潮中领先的企业以及这些企业所在的国家获得了巨大收益。这将进一步引发社会收入不平衡,最终造成社会排除现象与“数字鸿沟”出现,即有的人因为基础设施不足等原因无法跟上快速发展的社会智能化步伐。因此,一旦决策者依赖这些数据作出决策时,可能会不自觉地将非数据人群的需求排除在这些算法数据收集的范围之外。
学术伦理规范问题。自2022年年底发布以来,ChatGPT被许多学生用于完成作业或撰写论文,对学术研究工作造成了重大冲击。据央视新闻报道,有调查显示,美国有89%的学生用ChatGPT写作业。利用ChatGPT完成学习任务可以很好地避开“论文查重”等问题,且质量效率远超此前许多商家开发的解题软件,这使它对学生极具诱惑力。考虑到ChatGPT在教育学术领域可能引发的问题,许多学校、组织陆续发出声明,禁止或严格限制学生使用ChatGPT进行论文写作。多所美国中学及大学陆续宣布校内禁止使用ChatGPT,并通过减少课后作业方式,避免学生利用家庭网络访问ChatGPT作弊。《科学》杂志禁止在投稿论文中使用ChatGPT生成的文本,《自然》杂志更新投稿规则,明确只能将ChatGPT在内的大语言模型作为一种工具,并在论文的方法部分适当介绍,不能将ChatGPT列为作者。
算法偏见与歧视问题。虽然ChatGPT可以为人类带来更加智能化的体验,但它的智能化程度仍然有限,尤其是在理解和应用知识方面。ChatGPT可以通过大量的训练数据不断提高自己的服务能力,但它仍然无法像人类一样具有深刻的理解和应用能力,因此,在某些高度复杂和专业化的领域,人类的经验仍然无法被替代。当面对一些复杂的问题或者情境时,ChatGPT则很难给出正确的答案或者建议。在首批用户测试中,ChatGPT甚至出现了辱骂用户、诱导用户离婚等言论。可见,一旦训练语料库中包含有害言论、错误言论时,人工智能习得后所作出的有害行为,将进一步加剧算法偏见和歧视。
ChatGPT科技伦理问题的法律规制方案
科技伦理是理性的产物,它的底层逻辑要求科技创新和成果只能有益于或最大限度地有益于人、生物和环境,而不能损伤人、损害生物和破坏环境,即便不可避免会不同程度地损人毁物——如药物的副作用,也要把这种副作用降到最低,甚至为零。技术与法律是社会治理的两种基本手段,兴科技与强法治二者应相辅相成,共同引导社会向善向好。面对科技伦理失范问题,可从以下方面做起:
在技术内部层面嵌入法律道德评价机制,实现数据正义。数据是信息的载体,是一种可被编码的符号,本身不具有价值倾向。ChatGPT等生成式人工智能依托数据构建而来,在一定程度上会体现设计者、生产者个人偏好的技术治理程序,并在“物理-数字”双重空间影响法律关系。技术伦理失范的底层逻辑在于设计者等主体对数据的解读具有自我主观认识,这种主观认识因不符合法律价值规范、公序良俗等社会共识,使得数据具有非正义的价值倾向,而导致伦理偏差。因此,科技伦理的实现基础是回归数据正义。具体来说,一方面应在意识形态层面建立诸如公平正义、安全法治、共建共享等体现社会共识的数据价值观,引导数据主体建立对科技伦理的正确认知。生成式人工智能的科技伦理,主要表现为科研活动中人与社会、人与自然以及人与人关系的思想与行为准则,涉及科学研究中的伦理、科研人员应当遵守科技伦理、科研成果应用中的伦理。另一方面,应培养人工智能的伦理自主习得能力,以技术制约技术。ChatGPT等生成式人工智能的伦理失范之所以具有隐蔽性、耐受性以及机制化特点,是因为人工智能程序结构具备深度学习的主动性。因此,要确保科技伦理朝着数据正义方向发展,需要培养算法自主的伦理习得能力;要在技术知识和法律价值中间实现弥合,并通过人-机反复博弈,不断矫正、升级、完善自我约束技术。
在外部层面以制度的规范性加强科技伦理约束,实现科技与法律、科技与道德的良性互动。伦理规范是调节人与人之间关系的行为准则,旨在引导人们作出有道德、值得推崇的行为。科技伦理是指科技活动中的人与人、人与社会、人与自然之间的伦理关系,旨在规范科技活动符合道德要求。因此,在制度层面加强科技伦理约束,就要加强科技伦理审查和算法影响评价,重点考察技术应用是否在现行法律框架下运行、能否依法保障人们合法权利。具体来说,包含两个方面:第一,建立科技伦理(审查)委员会。结合企业具体情况,厘清决策部门、管理部门、业务部门同科技伦理(审查)委员会之间的关系和职责分工,明确科技伦理在企业常态化管理中的工作机制。第二,组织开展算法应用调查,识别不同应用场景下的算法滥用危害,加快制定算法应用规则和标准规范,建立算法应用影响评估制度。针对典型场景,要求企业在算法正式上线前,评估算法对消费者权益、个人基本权利等方面的影响,并针对评估中发现的相关风险,采取相应防范措施。
ChatGPT等生成式人工智能不仅改变生产关系,而且改变人们认知方式和行为能力,如何应对这种生成式人工智能,值得法律人认真思考。有的学者提出,应当在一定程度上赋予生成式人工智能主体地位,并使其承担相应法律责任。笔者认为,法律人格地位的确认应当是有限度的,在遵循科技向善基础上,算法设计者、生产者、使用者等相关主体仍需按照分级分类的要求承担相应法律责任。
综上所述,完善科技伦理治理体系,提升科技伦理治理能力,有效防控科技伦理风险,应当进一步加深对人工智能正当技术程序工具与算法责任原理的研究,平衡过程与结果端的规制手段,引入风险场景与类别区分式规制模式,为生成式人工智能的可持续发展提供有效的规制方案。
(作者单位:东南大学法学院)