法学学者共话AIGC合规发展路径

  《法治周末》记者 仇飞

  4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称征求意见稿)公开征求意见。作为首个针对生成式人工智能产业发布的规范性政策,征求意见稿在法学界引发热议,法学学者们纷纷为搭建AIGC的法治架构建言献策。

  广东财经大学法学院教授姚志伟:

  内容责任是否应全由平台方承担,有待研究

  征求意见稿第五条对“提供者”施加了“内容生产者”的责任。提供服务的平台是重要的责任主体,监管机构对平台进行监管,是必要的。不过在我看来,人工智能内容责任是否应该全部加到平台方,有待研究。

  首先,“使用者”也可能要承担人工智能内容责任。例如,使用者故意突破“提供者”为生成式人工智能设置的安全防线,致使人工智能生成违法的内容,这个责任通常不应由“提供者”来承担。其次,违法的生成内容仅会传递给“使用者”,而对这些违法内容进行复制、发布、传播往往是由人来完成的,这些行为的责任不应由“提供者”来承担。最后,“内容生产者的责任”其实是一个比较模糊的概念,从字面上看,是创建内容的一方承担的责任,不仅包括内容安全责任,还可能包括知识产权侵权、民事责任等应该在民事法律体系框架内解决的责任,不宜由部门规章进行规制。

  很多问题是在发展中解决的,我国人工智能产业发展尚处于初期阶段,与国外差距比较明显,如同万里长征第一步,还需要引导企业积极创新,迎头赶上。正如征求意见稿第三条指出,国家支持人工智能技术创新,从促进人工智能产业的发展和国际竞争的角度出发,如果企业责任过重,可能会抑制企业的创新热情和技术进步。

  就此,可以考虑采取二元化的策略,对于危害到国家安全和重要公共安全的问题,列出清晰的规则,明确法律责任和后果,划定底线进行监管;而对于个人信息保护、知识产权侵权、人格权侵权问题,则可以先观察和等待。待产业实践更成熟、可供参考的海外经验更多的情况下,再进一步进行这部分的立法监管也更可期。

  郑州大学法学院常务副院长、教授沈开举:

  对于虚假信息的监管可重点从复制、传播环节入手

  征求意见稿第四条对人工智能生成内容,要求“真实准确”“防止生成虚假信息”。该条规定可能不太能符合人工智能技术实际情况,对人工智能技术的落地可能造成影响。人工智能并非一个全知全能不会出错的“百科全书”,不同行业、不同领域对于真实性和准确性的要求不尽相同,不少用户也需要人工智能生成虚构内容帮助创意。

  从目前对生成式人工智能技术的了解来看,即使是美国OpenAI公司的最先进的GPT4模型,该公司的负责人也坦言,其仍然会产生幻觉、生成错误答案,并会出现推理错误。从技术角度讲,当前还不能完全避免生成不正确的信息,这是摆在眼前的客观现实。

  我国发展人工智能大模型,也不能逃脱这一客观规律。如果要求内容全部真实准确,结果可能是没有一款大模型能合规上市,这显然不是监管部门希望规制的目的。

  那么对于虚假信息,到底应该如何管?个人来看,立法和监管可重点从复制、传播环节入手。网络安全法第十二条规定,任何个人和组织使用网络,不得编造、传播虚假信息扰乱经济秩序和社会秩序。征求意见稿第四条的本意,应该是防止上述行为,例如,违反新闻信息的管理要求,捏造传播虚假新闻。对于正常的生成式人工智能技术辅助进行虚构文学艺术创作等,并不属于监管规制的本意范围之列。

  此前网信办发布的《互联网信息服务深度合成管理规定》第六条,就较好体现了上述监管思路:“深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。”

  因此,重点对发布、传播虚假新闻信息的环节进行监管,既符合技术发展的客观规律,不至于把所有产品一棍子打死,也能取得更好的监管效果。

  中国政法大学传播法研究中心副主任朱巍:

  对AI生成的内容加上标识会影响文化作品的感官体验

  整体上看,征求意见稿为我国生成式AI发展提供了新的遵循和指导,与此同时,从生成式AI产品的属性、产业实际等情况出发,期盼对征求意见稿部分细节作出进一步完善。

  比如征求意见稿第五条提出,“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(即“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任”。

  其实这一责任分配问题很值得探讨。鉴于生成式AI相关技术发展更新速度较快,但相关业务模式和落地应用场景仍在构建过程中,且“内容生产者”的定性恐涉及知识产权归属分配等问题,在产业发展的初级阶段,建议不将相关产品服务提供者直接定性为“生成式人工智能产品生成内容的生产者”,而是考虑通过定义为内容管理者,同样可以要求其承担与其权利匹配的管理责任。

  再如征求意见稿第十六条提出,“提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识”。生成式AI其中的一个应用场景即文化作品创作,可以设想,要求对AI生成的图片与视频加上标识,这必然会影响文化作品的感官体验。加强公众法治教育,对不当使用工具的人进行惩戒,或许是更优的举措。

  结合生成式AI产业界的呼声来看,目前人工智能科技存在不可避免的薄弱环节,而对技术提供方更包容的监管条例,能够更好引导并激励科技进步与产业发展。

  纵观中国网络技术进步和网络产业勃兴的三十年,也正是网络法治建设始终坚持创新引领的三十年。中国网络法治的创新驱动基因,在规范新技术新产业有序发展,有效维护网民合法权益的同时,也不断促进了中国网络技术和网络经济的全面发展,为中国从网络大国迈向网络强国提供了有力保障。

  当前,生成式AI技术已关乎国际间科技实力的较量。中国企业需要更多政策支持,期待征求意见稿能更广泛听取社会声音,进化成为更具前瞻性、支持性和实操性的规则体系,助力中国生成式AI高质量发展。

  北京外国语大学法学院副教授陈明涛:

  对于生成式人工智能服务提供者可考虑采用避风港机制

  在规范的同时,也要为新兴产业经济活动留出充足空间,比如征求意见稿第七条规定,生成式人工智能服务提供者用于生成式人工智能产品的预训练、优化训练数据,不得含有侵犯知识产权的内容。但对知识产权的侵权性判断必须考虑到训练数量问题。面对海量的训练数据,生成式人工智能服务提供者是很难作出有效判断的。

  其实,面对海量信息的审核难题,现有立法对网络服务提供者会建立一种避风港机制,即要求权利人发通知主张权利,从而降低审核难度。对于生成式人工智能服务提供者,也可以考虑采用类似制度。

  北京大学法学院助理教授、牛津大学法学博士彭錞:

  对用户个人信息保护的规定细节还可进一步优化

  征求意见稿释放了一个特别明显的讯号,就是关注生成式人工智能的产品或服务对用户个人信息的保护,明确了服务提供者对用户的输入信息和使用记录承担保护义务,通过“三个不得”的规定,为用户输入信息的使用划定了红线,积极回应了用户在使用新兴互联网服务过程中对隐私安全和个人信息保护的关切。

  当然,在规定细节上还可以进一步优化,比如,“不得向他人提供用户输入信息”可能会抑制以可编程接口等方式接入第三方服务等现实业务需求,这种规定的目的是为了提供更好的用户体验,但也涉及第三方提供用户输入信息,故有必要设置相应的例外情况。

  北京航空航天大学计算机学院工业和信息化法治研究员周瑞珏:

  并无强制规定实名制使用生成式人工智能服务的必要

  征求意见稿第九条规定,提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。

  根据网络安全法的规定,为用户提供信息发布、即时通讯等服务,应当要求用户提供真实身份信息。而生成式人工智能服务,是用户与机器之间,以输入和输出的方式实现的交互,不是人与人之间的即时通讯,也不涉及面向公众的信息发布和传播,因此不属于“信息发布”或“即时通讯”服务。依照网络安全法,实际是不需要提供真实身份信息的。

  从立法目的来说,要求用户提供真实身份信息,看似是一种安全保障,但实际上,用户面对机器所作的“输入”类似于检索,即使一些用户“输入”的问题不安全,也不能仅因为“输入”而要求其承担责任。所以并无强制规定实名制使用生成式人工智能服务的必要,可以考虑改为鼓励,以激励更多用户使用新的产品及服务,不断提升技术发展水平。