ChatGPT 监管:生成式人工智能对信息传播之影响

  垦丁律所 - 人工智能法律研究部是由所内几位对人工智能法律问题足够好奇的小伙伴共同发起,部门将聚焦科技与行业动态,专注于人工智能产品研发、使用主体的合规服务,包括网络安全、数据合规和个人信息保护、知识产权与反不正当竞争以及相关诉讼服务,并对各类法律法规进行研究分析。

  关于生成式人工智能法律问题的思考

  文 | 程念

  《生成式人工智能服务管理办法(征求意见稿)》发布之后,关于国内生成式 AI 的监管问题一直处于热烈讨论之中。这段时间我一直在参加各种关于人工智能和 ChatGPT 的研讨活动,也使用过一些内容生成人工智能产品,听过许多技术人员、业内人员介绍过这类产品,现将一些想法分享给大家。

  一、新技术产品的监管程度越来越受到用户实际交互行为的影响,平台责任面临 " 兜底 " 难题

  以 ChatGPT 为例,ChatGPT 的本质是一个自然语言处理机器模型,通过语言训练掌握基本规律,再基于大数据的加持,对用户的需求做出反应 [ 1 ] 。天津大学智算学部王博副教授用 " 接话茬 " 的例子来形象地描述了 ChatGPT 语言模型及其功能 [ 2 ] 。只不过从我们用户的视角,ChatGPT 是以对话机器人的形式来面向我们提供服务的。如果单从 ChatGPT 的技术属性来看,我们可能会误认为它是一个互联网世界的 "Siri",在没有使用它的前提下,我们可能不太会 " 预见性 " 地对这一类产品做过多的法律风险判断。

  然而,用户并不关心 ChatGPT 的本质是一个什么样的东西,因为在用户看来这就是一个 " 无所不能 " 的对话机器人,并且为了满足用户各式各样的需求,ChatGPT 也在不断 " 成长 "。最后,用户的期待加上反复多次的互动学习将 ChatGPT 推上了一个 " 神坛 ",使之成为一个集内容搜索、内容生成、聊天娱乐一身的产品(客观上,ChatGPT 也的确能很大程度满足用户的这些需求)。尽管我们内心都清楚 " 内容生成≠内容搜索 ",但实际需求和使用效果导致我们并不能完全将 ChatGPT 从 " 搜索引擎 " 等角色中剥离开 [ 3 ] 。

  对此,有一点我比较困惑,如果我们按照 OpenAI 对产品的 " 生成、编辑、迭代创意 " 的定位 [ 4 ] ,将 ChatGPT 单纯作为一个能对话的机器人,并且认为这样的人工智能具有 " 类人的智慧 " 时,那么我们是否也可以允许它犯 " 类人的错误 "。例如,人与人之间各种形式的交流所传达的信息也并非一定是准确的,我们可能因为记不清某个法条的全称,而给对方一个模糊的说法,甚至因为信息过多而产生的记忆混乱的情况。如果是这样,我们也可以容忍 ChatGPT 在与我们交流中产生的信息也会存在误差,需要我们去实践、去验证之后才能被进一步使用。但后来我发现这个问题,就如同人工智能能否拥有人类的 " 情感 "、" 情绪 " 等话题一样,是伦理层面的问题,法律规范更关注于这一产品所带来的可能的影响和效果,而不是 " 理想化 " 地去纠正人们的观念然后再去进行规制。

  二、类似 ChatGPT 的生成式人工智能产品触发较快的监管响应,其根源在于对信息传播产生极大的影响

  很多人说现在应当让新技术的 " 子弹再飞一会儿 ",但生成式人工智能对信息传播的影响之大显然已经超出了以往对新技术的 " 容忍程度 "。主要原因我认为有以下四方面:

  1、流量入口的颠覆

  确切的说,类似 ChatGPT 这样的生成式人工智能很有可能会垄断流量入口。我们现在已经看到了一种 " 遇事不决,就问 AI" 的趋势了。然而,比 ChatGPT 更厉害的是 "ChatGPT+",当许多应用和服务接入 ChatGPT 之后,我们也许就可以通过 ChatGPT 直接搜索想要的服务。我们可以天马行空一下,例如,原本我们需要通过一个个 APP 去看火车票、飞机票的时间、价格,来安排我们的行程,而当这些应用和服务都能接入 ChatGPT 的时候,我们可以直接在 ChatGPT 的入口输入我们的行程时间、预算等等,然后由它为我们推荐适合我们的行程安排。于是,流量入口从原本的一个个 APP 变成了类似 ChatGPT 这样的工具并且这样的工具普及之后很有可能成为一个唯一的入口。这对目前的互联网业态会有很大的影响。

  2、信息传播环节透明度下降

  ChatGPT 等产品是可以人为训练的。我们输入的信息都可能成为这类产品语言学习的 " 素材 ",国内曾有学者针对 ChatGPT 反馈的错误信息进行反复纠正,最后终于提供了正确答案的情况。因此,一些恶意的人很可能给这类产品灌输具有不良价值导向、包含他人个人信息的一些内容,甚至编造谣言训练这些产品。训练过程可以很隐蔽,最后输出的内容来源也很难追溯,从而增加信息安全监管的难度。

  3、信息的实际影响越来越难以有效消除

  原来的互联网企业通过收集、存储、分析用户的数据来提供服务,同时服务提供者可以按照用户的意愿删除用户的数据或者不再分析用户的数据(例如经常访问的页面等)来停止为用户提供个性化推荐等服务。由于 ChatGPT 这样的产品能从日常的与用户互动的过程中实现进一步的语言训练,因此我们一旦向这类产品提供我们的一些信息,它的参数就会发生变化,不论该数据是否被留存,从而产生个人信息保护的问题。

  4、增加信息安全隐患

  ChatGPT 这类 AI 产品可以快速分析大量网络设备和软件中的潜在漏洞。传统的手动分析方法耗时较长,而 AI 技术可以大幅度提高分析速度,能够帮助攻击者迅速找到目标系统的弱点。基于产品本身的标记能力和分析能力 [ 5 ] ,也能被利用更精确地定位高价值目标,如关键基础设施、政府机关和大型企业。同时,攻击者也能利用这类产品开发出更加智能的攻击工具。

  因此,从 ChatGPT 等生成式人工智能产品的影响来看,基于这类产品本身的特性,其对现有信息传播的改变非常可观,再加上人为使用的效果(也包括滥用的效果),其带来的信息安全风险也就成为目前最亟待解决的合规风险。由于互联网领域的治理和监管已经形成以平台为抓手的习惯,信息安全和治理的主要责任也毫无疑问落在产品开发者和使用者(往往是平台服务提供者)身上。

  我研究了《生成式人工智能服务管理办法(征求意见稿)》里面的条款,并且梳理了自己的想法和意见,并通过线上途径提交我的修改意见,这里就不展开详述了。

  当然我也拜托有权限的朋友帮我询问了 GPT-4,作为生成式人工智能中的典型代表,我也想了解一下 " 当事人 " 的想法。我让朋友帮我输入了问题 " 请你针对中华人民共和国网络安全和信息化委员会办公室发布的《生成式人工智能服务管理办法 ( 征求意见稿 ) 》里面的条文提出修改意见 ",而它给出的回复如下:

  可以看出," 它 " 对自己可能的影响和需要规制的地方都有非常清晰的认识,也给了我接下来细化研究的方向。

  最后写一点自己其他方面的感受:

  我原本担心使用类似人工智能产品会使我产生依赖感,放弃自己的思考。但我现在觉得,相比于机械地从它那里获取现成的知识,我更加享受它给我打开思路的过程。单纯将它作为一个聊天工具,可以从它那里获得知识线索,它会说出一些我之前从未接触过的知识盲点,启发我去搜索、验证更多的内容。这里引用我厂阿来律师在《法律人会是下一个李世石吗?》的直播中说的一句话来总结:AI 能够发挥什么作用,取决于使用它的人的能力和想法。

  参考:

  维基百科:https://zh.wikipedia.org/wiki/ChatGPT

  清华大学智能法治研究院微信公众号:"ChatGPT 的问题、风险与机遇 " 会议综述 https://mp.weixin.qq.com/s/neFstQ4mUbgUd4pbL8XbZQ

  36Kr:《ChatGPT 现象级 AI 应用,真要颠覆搜索引擎?》https://36kr.com/p/2036764677991431

  OpenAI 官网:https://openai.com/product/gpt-4

  人工智能学家微信公众号:《不经意间!发现 GPT-4 标注性能已超越人类:模型目标与道德行为的权衡》https://mp.weixin.qq.com/s/zDaVSAlcvASED2w6Tu5-ig