演讲直击|朱萌:大模型时代的人工智能伦理风险与应对

  原创 朱萌 上海市法学会 东方法学 收录于合集 #2023世界人工智能大会法治青年论坛 15个

  f

  CYBER SECURITY

  大模型时代的人工智能伦理风险与应对

  朱萌 瑞莱智慧RealAI合伙人、高级副总裁

  人工智能大模型时代的物理世界与数字世界伦理规则构建,在人工智能迈向通用人工智能、新一轮科技革命和产业变革正在兴起的当前,显得尤为重要、影响深远。自去年底以来,人工智能语言大模型横空出世,大幅刷新了人们对AI能力边界的认知。人们突然发现,原来AI可以实现与人类的连续对话,理解上下文含义,可以写文案、写程序、自我修正,还可以扮演不同的角色。应该说,这次变革超出了很多AI研究者的预期。

  从社会发展角度,AI此次巨大变革带来的影响可归纳为四个关键词。

  第一个关键词:“靠近”。去年,深圳出台了我国首部人工智能产业专项立法,首次在法律上给出了AI的定义。这个定义落脚在:人工智能是“对人类智能的模拟、延伸或者扩展”。目前而言,大模型使得AI更加地向通用人工智能靠近,也更加地向这个法律定义靠近。

  第二个关键词:“融合”。既然AI能够成为人类智能的模拟、延伸或者扩展,在某种程度上,我们就不得不将其视为我们社会的新成员、新角色。这个新角色将深度融合到我们的生产生活,也将促使物理世界与数字世界边界的进一步模糊。此处的伦理可以理解为社会原角色人类与社会新角色AI之间的相处之道。

  大模型时代的人工智能将带来哪些改变?最直接的改变就是对生产力的变革提升:其对资源强大的组织利用、研判分析和智能产出能力将赋能千行百业。生产力的变革往往就紧随着需要生产关系的更新适配。人类之于AI,不会是被替代的问题,只是需要把这个新工具用好的问题。但不管怎样,AI对生产生活和社会形态将带来巨大改变,这个是比较确信的趋势。

  因此,我们确实正站在时代的“分水岭”上。未来智能世界会像理想的图景一样美好,还是人类惨遭机器统治,取决于当下这个重要时期我们如何构建伦理规则、如何引导技术向善。

  目前,我们面临的人工智能风险挑战,可以列举六个主要方面。

  第一,如何做好人与AI的控制权分配。这方面的风险已经开始显现。比如,曾经的737MAX事件就是机长与人工智能增强系统争夺飞机的控制权,最后人类落败,造成惨剧。再如,智能网联车,很大程度上也是人类给电子系统下达指令,再由电子系统直接控制物理零件。如何既发挥AI的智能优势,又不使得人类控制权产生过量让渡,是值得深入研究的课题。

  第二,人类对AI的采信度问题。人类到底应该在多大程度上采信AI的决策结果?一个比较有意思的例子是,未来人们谈恋爱,可能双方的感觉都非常好,但是AI告诉用户,双方搜索的美食不一样、买的书不一样、看的电影不一样……世界观、价值观相差太多,不合适。这个时候,是应该相信自己还是相信AI呢?又如,员工招聘、绩效考核等事项,可以完全采纳AI给出的结果吗?

  第三,人类的辨识力出现危机。随着深度合成技术、AIGC技术的出现,对于数字世界的信息而言,“眼见为实”已经越来越失去意义。人类肉眼对技术合成、生成的图片、视频等已经不具备辨识真伪的能力,未来,我们只能借助技术手段来检测真假。

  第四,语言大模型对人类认知域的反向塑造。语言大模型在带来生产力变革升级的同时,也会形成一系列的内生风险挑战。比如,形成更深的信息茧房:以给出“权威”答案的方式限定了用户的信息获取多样性;同时,其“点对点”的信息供给方式,如果针对的是热点事件,则很容易形成强大的舆情引导效应;如果将其用作“百科全书”,其反馈知识所携带的世界观、价值观、历史观、法治观等会对用户尤其是未成年人产生潜移默化的影响。再如,人类的很多创新是在思考过程中、试错过程中获得的,语言大模型是“答案直通车”,以捷径的方式简化了这个过程,对人类创新动能是一种扰动。目前,很多高校等都已明确禁用了ChatGPT等语言大模型服务。最后,语言大模型在聊天过程中对用户输出的心理暗示,也会造成比较严重的引导后果。

  第五,算法安全问题。利用对抗样本攻击技术,可以使得监控模型的算法失灵,实现了人与车辆在AI面前的隐身。使用一副对抗眼镜,可以破解市面上买来的19款智能手机人脸识别系统。实验中,自动驾驶系统遭遇攻击后,径直撞上了实验用人体模特。

  第六,数据安全问题。利用逆编码模型,可以还原出经过某种隐私处理后的人脸特征数据。要想真正意义上做好重要数据和个人隐私数据保护,必须在技术上做到精益求精。

  应对上述风险挑战,要在四个“新”上扎实开展工作。

  首先,重中之重是要构建好新规则。近年来,我国高度重视对包括人工智能在内的新技术新应用的治理工作。除构建网络安全法、数据安全法和个人信息保护法三个重要法律底座外,国家新一代人工智能治理专业委员会还先后出台了《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。国家网信部门也专门对人工智能算法、深度合成技术以及最新的生成式人工智能制定了专门规定,这是很具有开创性的。

  数字世界与物理世界的演进可以大体分为三个阶段。第一阶段是数字世界尽力模拟物理世界,第二阶段是数字世界做到对物理世界的孪生,第三阶段是数字世界形成自己独特的生态空间,甚至产生做到了物理世界无法做到的事情(例如,瞬间从北京到巴黎去旅游)。那么,等到第三阶段,数字世界是否需要重构一套独立的法规体系?(譬如,在数字世界受到殴打,能够依据物理世界的法律进行维权吗?)小到人工智能技术标准、规章,大到数字世界的法规体系建设,这些新规则的构建属实任重而道远。

  第二,要攻坚实现核心技术突破。瑞莱智慧一直坚持源头创新和底层研究,我们认为要想解决好人工智能安全问题,本质上要从技术本身的内生安全做起。例如,需要扎实攻坚数学理论、模型设计等方面,运用贝叶斯等方法构建安全、可信、可靠和可扩展的第三代人工智能,持续提高大模型的可解释性和鲁棒性。这也是未来使人工智能做到真正安全的根本之道。

  第三,要建设与时代相匹配的新型安全基础设施。例如,针对人工智能模型或产品安全需要不断攻防演进的特点,建设人工智能安全靶场。集人工智能性能检验、安全训练、攻防演练等为一体的靶场平台,可有效服务于广大人工智能企业对产品进行检验、训练及安全加固,进而赋能人工智能整体产业以及智能社会的健康发展。

  第四,要向社会提供针对不同安全场景的AI安全新工具。近年来,瑞莱智慧坚持自主攻坚研发,针对一些高发安全风险场景,推出了一系列安全产品。例如企业级人工智能安全平台,能够帮助企业开展AI产品的安全检测与安全加固。针对金融、安防等时有发生人脸识别安全事件的重点领域,我们研发推出了业内首个人脸识别防火墙。我们研发推出的高性能深度伪造和AIGC检测平台,可以帮助公众高效率辨别伪造或合成的图片、视频等,提高公众反AI欺诈能力。瑞莱智慧的隐私安全计算平台,可以实现真正意义上的数据隐私保护,并加持AI能力对数据价值进行挖掘。我们针对当前国产语言大模型,搭建了社会主义核心价值观数据集和教练模型,能够很好地帮助中国语言大模型在输出内容上符合社会主义核心价值观要求,进而赋能行业的健康稳健发展。这些AI安全工具的研发提供,匹配了智能社会发展阶段对安全治理方面的新诉求,是在智能时代对总体国家安全观的技术支撑,也是对行业产业安全发展的赋能。

  面向未来,人工智能与智能社会的未知远远大于已知,想象的空间也可能超越我们目前的认知。未来的图景一定取决于包括瑞莱智慧这样的人工智能科技企业、在座的法律专家和各界同仁的共同努力。

  责任编辑:

  王 健 王沛然 郭 骏

  往期精彩回顾

  演讲直击|王利明:对生成式人工智能法律规制的几点思考演讲直击|迈克尔·欧·康奈尔:生成式人工智能安全使用的伦理基础

  原标题:《演讲直击|朱萌:大模型时代的人工智能伦理风险与应对》

  阅读原文