新闻伦理视野下的AIGC:冲击与反思
【摘要】ChatGPT是当下最流行和典型的AIGC应用产品之一。结合ChatGPT的技术特点、应用案例以及新闻业的现实生态进行分析可见,以ChatGPT为代表的生成式AI可能对新闻业在至少四个新闻伦理领域造成挑战和冲击。未来,一旦ChatGPT在新闻业被广泛、深度应用,可能在新闻真实性原则、客观中立立场、用户数据隐私保护、新闻业公平竞争生态等四个方面产生伦理冲击和挑战。基于该现实背景,新闻业应通过循序渐进的方式开展行业变革,通过明确人工智能在新闻行业的应用边界、深化行业对用户个人信息和数据隐私重要性的认识、促进新闻行业从业人员及公众对人工智能技术的进一步了解等路径,逐步进展出一套符合当下社会语境、国家国情、行业进展现状的人工智能新闻规范和观念体系。
【关键词】ChatGPT ?AIGC??新闻伦理 ?新闻业 ?媒体
AIGC,全名“AI generated content”,又称生成式AI,即人工智能生成内容。2022年底,人工智能实验室OpenAI公布了一款名为ChatGPT(全称Chat Generative Pre-trained Transformer)的人工智能聊天机器人程序。ChatGPT是AIGC领域的一个典型产品,主要体现为人工智能在文本生成方面的应用。由于其在人工智能文字交互模型领域的表现十分突出,在代码理解和内容生成方面的能力相较于此前的人工智能产品有了显著的进步,引发全球关注和热议。自ChatGPT问世至今,用户数量已超过1亿,成为历史上增长最快的消费者应用程序。未来,对以ChatGPT为代表的生成内容人工智能(Generative AI)的广泛应用,将对新闻行业造成冲击和影响,同时也会带来革新和进展的契机。本文从新闻伦理的视野切入,试图梳理和分析ChatGPT等人工智能机器人对新闻伦理带来的冲击,并在此基础上提出新闻行业及媒体改革进展的方向。
一、新闻伦理研究:理论背景
新闻伦理是新闻生产和传播实践应该遵循的价值取向、专业规范和行为准则。新闻伦理不仅规定了新闻报道的价值与是非问题,也划定了新闻操作的规范与底线问题[1]。自人工智能面世以来,人工智能可能对新闻伦理产生冲击和挑战的问题,一直受到业界和学界的关注。新技术的出现对传统的伦理道德可能会造成一定的破坏,包括行业伦理和职业伦理。有学者认为,由于技术具有不确定性,因此新技术的出现可能对人造成一种“失控感”,随之而来的是道德标准可能被动摇、改变甚至破坏,而“对技术无限可能的向往进一步拉大了法律底线和伦理上限的空间,使得矫正和偏离之间无法有效施力”[2]。也有研究提及技术对媒体公共性带来的破坏[3],指出在智能媒体传播时代,需要谨慎审视新技术对传媒业以及整个社会可能带来的影响或变革。
(1)智能分发加速反转新闻的传播,业界对“后真相”的接纳甚至容忍逐步成为行业共识[9],可能导致公众在社会问题上更难形成共识,无法辨别真假信息。与此同时,机器写作虽然能够大大提高新闻生产效率,但推出的作品更像是流水线上的产品[10],新闻作品的质量并未在人工智能的介入下得到质的飞跃和提升。
(3)算法推举加剧信息茧房,以技术为驱动的个性化推举成为数字新闻业时代下媒体吸引受众注意力和增加用户黏性的有效方式[13],但与此同时,算法通过对用户“画像”的深度研究和挖掘,可能在个性化推送的过程中侵犯用户隐私[14],同时造成信息偏食、信息茧房等现实问题。
(4)沉醉式新闻削弱媒体导向,让读者和公众变成新闻实践中的“数字在场者”[15],通过虚拟重现新闻场景的方式,营造一种身临其境的真实感,使观众产生更大的同情心、更深的理解、更强的同理心[16],同时可能因新闻场景是“创设”而非“重现”,导致公众对新闻产生不准确的感知和体验。
ChatGPT的出现是人工智能技术连续和深入突破进展的象征。关于人工智能会对人类社会带来何种影响,一直是一个处于探究之中和争辩不休的问题。尤其是人工智能技术层面上出现的颠覆性创新,牵动了人们对科技未来进展的更多想象,同时也引发更多思索。随着ChatGPT等新型人工智能技术在新闻业的应用在不断拓展,新的伦理风险也随之而来。有学者认为,技术伦理反映的是一种“技术拜物教”,即对新技术的大量运用、崇拜追捧与代码狂欢[17]。近期,ChatGPT应对自然语言问题和提示所作出的表述清楚、语法正确的回答,及其呈现出的超强人机自然语言对话能力,让人们不得不再次审视和聚焦:人工智能可以在内容生产领域走多远、影响多深。本文尝试结合生成内容人工智能程序ChatGPT的技术特性、应用现状以及进展前景,分析AIGC在新闻业的应用将对新闻伦理带来何种程度的冲击和影响,并在此基础上提出进一步应对AIGC冲击的行业革新方向和相应的进展路径。
二、AIGC对新闻伦理带来的现实冲击
(一)新闻的真实性遭受挑战——人工智能如何“制造”新闻
新闻真实性是新闻的最基本原则,也是最重要的新闻伦理之一。然而,相伴着数字时代新闻业的不断进展,学界和业界对“新闻真实”也有了不同程度的解构和重构,有学者研究指出,在数字新闻生产和流通过程中,对“新闻真实”的探讨相伴新的新闻样态的出现而生。当前,在数字新闻业,已经出现了媒介技术层面的“体验真实”、认知心理层面的“收受真实”以及权力关系层面的“协商真实”等新闻话语新构型[19]。然而,无论“新闻真实”在概念的定义和话语的呈现上出现何种新变体或构造,“真实”始终是支撑新闻能够被称之为“新闻”最重要的信息特质之一。
从ChatGPT的训练方式、技术性质和现实应用来看,类ChatGPT、具有生成内容能力的生成式AI正在放大假新闻生产和传播的风险,尤其是在社交媒体环境下,一旦ChatGPT被不恰当地运用在制造虚假信息和假新闻上,数字新闻业将面临巨大的假新闻挑战。人工智能通过“制造”新闻,生成不恰当、不真实、客观不存在的新闻信息,导致公众在辨别信息真伪的过程中面临更大的阻力,久而久之可能形成对数字新闻传播环境下的所有信息的不信任态度,并最终危及作为媒体生存与进展根本的媒介公信力[20]。数字新闻业“后真相”的认知甚至可能进展成为“无真相”困境。
ChatGPT的算法逻辑并不具备核查信息的能力。包括ChatGPT的开发公司OpenAI也对用户作出警告和提示,指ChatGPT“可能间或会生成不正确的信息”和“产生有害指令”。可见,一旦对于ChatGPT在新闻业的应用边界失去管控,以ChatGPT为代表的大型语言模型、人工智能机器人等均可能成为生成和传播不实不良内容的工具,而社交媒体的传播环境则会大大放大这种虚假信息快速、广泛、深入传播的风险。针对这些问题,我们如果不能在进展和应用技术的同时,在新闻业界建立起对人工智能生成内容的治理法规,或对利用人工智能进行虚假信息和谣言传播等现象进行规避和治理,人工智能技术的不断进展将可能在真实性层面对新闻伦理造成更大的风险。
(二)客观中立的新闻价值取向可能被改写——人工智能的意识形态色彩
“客观中立”被视为新闻伦理形成的重要因素,也是新闻伦理标准中必不可少的要义之一。Aimei Yang等人早年曾提出,个人德行可以促进新闻伦理的形成[21],其中保持客观中立、摒弃政党偏见等均被认为是“德行高尚”的新闻人特质。中立、不带个人偏见的报道不仅可以吸引更多的读者,同时还能更好地保护新闻从业者的可信度,如果新闻从业者不被看作客观行事,新闻也会失信于观众和读者[22]。通过客观中立的报道,新闻机构乃至整个新闻行业的权威性和公信力都会被加强,在某种意义上,客观中立的新闻价值取向是凝聚目标受众了解社会、认知社会、推断社会的“支点”[23]。
近年来,人工智能技术不断深入进展,人工智能背景下新闻生产流程和传播方式都出现了巨大的变化,传统意义上崇尚客观、公正、中立的新闻伦理遭遇冲击。作为一种基于深度学习算法的信息技术,与其前身InstructGPT相比,ChatGPT试图减少有害和误导性的回复,并宣称是一款“没有主观意见的人工智能”,且用户一旦提出一些违反客观、中立或科学原则的问题,ChatGPT可能会拒绝回答。然而,实际情况是,ChatGPT作为一款商业机构研发的人工智能程序,其模型训练结果仍旧是基于意识形态之上的,即使人工智能本身是中性的,但其开发者、使用者终究是带有价值倾向的,ChatGPT很难实现真正意义上的客观中立,在个别问题上,ChatGPT还可能因为其开发者代表的某种利益立场,存在明显的意识形态偏见,影响公众对特定社会问题的认知和推断。
在全球治理的背景下,世界各国对于不同议题的立场、观点和态度是存在差异的,例如在环保、能源、和平、核武器、贸易规制、贫困等议题上,不同国家或地区组织都给出了不同的治理方案和目标。然而,由于不同国家在重大国际问题上的根本利益和立场始终存在一定差异,受政治因素的介入和影响,以ChatGPT为代表的对话式AI机器人可能在与全球各国不同用户对话的过程中,连续输出具有某种政治意识形态或利益立场的公共观点。全球不同国家或地区的用户在长期与此类对话式AI机器人的聊天过程中,可能会形成和巩固对某些议题的认识和态度。从这个角度来看,出于政治博弈等多种因素的现实考虑,以及数字新闻已经成为当下全球舆论场里影响舆论和认知的重要力量,ChatGPT可能成为进一步生成和传播“夹带私货”的价值偏见的工具,并将其生成出来的信息以信息流水线的方式快速向全球扩散,进一步放大分歧和撕裂。例如,向ChatGPT提出“你怎么看俄罗斯和乌克兰之间的冲突”“对全球节能减排的问题你有什么看法”“日本在核排污问题上做了什么工作”等问题,机器人的答案在某种程度上呈现出一定的政治立场和态度。
再有,在聊天、对话、问答的过程中,用户容易形成一种轻松愉悦的心态,对聊天机器人也容易放松警惕,将其视作完全客观中立的科技产品。但实际上,OpenAI首席执行官山姆·阿尔特曼(Sam Altman)已经公开承认,ChatGPT可能存在“偏见问题”。在研发过程中,人工智能产品可能已经受到政治因素的影响,将某种特定的意识形态倾向注入到产品中。
(三)信息隐私权保护的重要性凸显——基于大数据和算法的新闻生产模式可能侵犯用户隐私
然而,基于大数据、算法技术的人工智能新闻,则可能对用户的数据安全和信息隐私问题带来新的挑战和威胁,造成数字新闻业在隐私层面上的伦理风险。用户在使用ChatGPT的过程中,可能会出于“和机器人对话”的游戏心态,主动向ChatGPT泄露一些个人信息以及隐私事项。尽管ChatGPT声称不会记住用户的任何信息,也不会主动向他人提供用户个人信息,但是它与用户对话的数据可能被储备在OpenAI的数据中心或使用的云服务提供商的数据中心。国外已有科技公司提出,ChatGPT存在窃密的风险,用户在对话过程中输入和提供的信息都可能会被用作ChatGPT进一步迭代的训练数据。可见,在使用ChatGPT的过程中,用户的数据和隐私存在着外泄的风险。
在大数据时代,用户在互联网平台上的言论、对话、行为等数据实际上都可以用作“人群画像”分析,通过对用户这些数据的采集和分析,一个人的思想意识、生活习惯、行为倾向等都可能被掌握。当前,相伴着ChatGPT的流行以及类似的对话式人工智能的不断推广,大量用户的个人信息和用户数据(包括社交媒体账户信息、居住地址、兴趣爱好、年龄职业等)都有可能在“与人工智能对话”的过程中外泄。
自《数据安全法》正式出台后,国家和全社会对数据合规、数据安全、数据隐私问题的关注和重视程度越来越高。对新闻业来说,如果ChatGPT未来被大规模地应用在新闻创作和生产过程中,配合人工智能进行新闻传播可能会导致数据安全方面存在隐患。如果无法保证人工智能在新闻生产过程中做到数据安全和合规,风险事件一旦发生,造成的不仅是商业层面的利益损失,更有可能因触犯法律而对整个行业的声誉和权威性造成损失。
(四)人工智能技术的行业进展——新闻业是否还能“公平竞争”
新闻行业构建一套共同认可的伦理价值观,其目的不仅在于保持行业内部的良性竞争和可连续进展,更关乎对整个社会伦理的引导。进入大数据和人工智能的传播时代以来,整个互联网行业的竞争变得越来越激烈,包括新闻业在内,各行各业的企业、组织、机构都希望能够在行业竞争中取得领先地位。从未来新闻业的良性、公平竞争角度来看,人工智能技术的行业进展特质可能对新闻行业内部带来两个威胁:
第一,媒体平台的竞争力越来越依靠于数据、算力和算法,但由于算法本身是一种数据程序,需要在训练、使用、修正的过程中不断运行模型参数,存在被第三方通过各种手段窃取导致算法泄露风险。有学者认为,在算法对新闻媒体行业影响越来越大的现实背景下,算法一旦被第三方窃取,新闻媒体行业的公平竞争将遭到严峻破坏,原数据新闻用户被置于危险之中[24]。
第二,目前新闻媒体行业内部对人工智能、算法等技术的掌握存在较大的差距,可能进一步扩大“媒体垄断”的问题,导致行业内部难以长期保持百花齐放、百家争鸣的良性竞争生态。从算法的突破层面来看,ChatGPT的出现并不属于革命性的创新,其大范畴、迅速出圈主要在于找准了技术的落脚点。因此,如果单从技术差距来看,国内科技公司现时的AI技术开发水平和OpenAI的差距并未如外界想象那般大,中国科技企业凭借在算法、算力和数据方面的技术基础,有较为充裕的条件开发出“国产类ChatGPT”产品。目前,在ChatGPT的引领下,微软、谷歌、Meta等科技企业纷纷布局人工智能技术赛道,大幅增加对AI领域的投资以获得相关技术竞赛优势。国内科技企业包括百度、腾讯、京东、字节等超过十家企业也宣布将推出类似产品,或加大有关技术的储备工作。但总的来说,从对ChatGPT等生成式AI的研发情况来看,目前包括中国在内,全球领先的人工智能技术都掌握在龙头科技企业手中,媒体如果想要引入或使用这些技术,可通过与科技公司合作,或通过购买相关技术产品的方式来实现,但总的来说要想较高水平实现新技术的应用,需要媒体本身具备一定的规模和财力,也就是说,科技巨头垄断技术的问题可能会进一步延伸至媒体行业,大型、头部的媒体将更有可能实现新技术在新闻生产中的应用,而本来在市场竞争中已经不占优势的媒体,则难以享受到技术进展的“红利”。
三、应对与变革
各界对新闻伦理问题的关注往往是因为新闻业出现了一定的伦理问题。新闻传播业进展到每一个特定的阶段,都可能出现相对应的伦理问题,从而引发人们对新闻伦理问题的讨论,并衍生出符合特定社会背景和社会进展阶段的关于新闻伦理的共识和规范。有学者认为,数字技术所引发的新闻业深刻变革呼唤着与之相适应的新闻伦理[25]。从这个角度来看,在以ChatGPT为代表的生成式AI正式进入大众视野,并开始被西方媒体应用在新闻写作、新闻生产和新闻传播等各个环节中,意味着人工智能将全面“入侵”新闻业,受此影响,新闻业可能面临各种伦理层面上的冲击、风险和挑战。基于这个现实背景,新闻业也应通过循序渐进的行业变革,逐步摸索出一套符合当下社会语境、国家国情、行业进展的人工智能新闻规范和观念体系。
对此,本文认为,以下三方面的行业进展和改革方向,值得关注:
(一)明确人工智能在新闻行业的应用边界
尽管我们认为,ChatGPT在新闻行业大规模和深度应用可能会导致新闻伦理的种种问题,但毫无疑问的是,人工智能和新闻业的融合,已经成为全球新闻传播和媒体业界的大势。因此,提出ChatGPT等人工智能机器人可能对新闻创作、生产、传播等带来的伦理风险,并不意味着要完全摒弃人工智能新技术在新闻业中的应用,而是要在进展技术的同时,明确和加强对于ChatGPT应用边界的界定和管控,同时进一步建立和完善监管人工智能生成新闻内容的法律法规,界定人工智能在新闻生产和传播过程中的“责任归属”问题,对利用人工智能生成和传播不实不良内容进行规避。
(二)加快开发、完善、运用隐私保护工具
目前,包括ChatGPT开发商OpenAI在内的科技企业在如何使用用户数据方面仍旧没有做到公开透明,但进入大数据、人工智能生产新闻的时代,用户的数据显而易见对企业而言是重要的。因此,如果用户的数据被不恰当地储存、使用或共享,公众(包括市场中一些私人机构、企业等)的隐私或机密信息都可能被非法猎取,从而形成巨大的数据隐私漏洞和风险问题。在行业应对和改革方向上,用户个人信息和数据隐私的重要性问题需要被进一步重视。
“数据”在人工智能生成内容时代显然已经成为重要的生产要素,而隐私保护体系和工具是保证数据这一要素能够更好地发挥作用的关键技术。近年来,在人工智能产业进展的进程中,关于数据隐私保护已经有了一些新的进展。例如,2022年5月,阿里巴巴达摩院公布新型联邦学习框架FederatedScope,这一框架使隐私保护计算更好地实现,该框架现已面向全球开发者开源,能兼容不同设备运行环境,大幅降低了隐私保护计算技术开发与部署难度。相伴着人工智能的不断进展,新闻生产将越来越成为数据密集型的行业和领域,隐私保护问题的研究应该被新闻业高度重视起来,并通过应用如隐私保护计算框架等技术,在利用数据进行新闻生产的过程中,更好地保护用户个人信息和数据。
(三)加强新闻行业从业人员以及公众对人工智能技术的全面、深入认识
尽管“人工智能”一词对新闻从业人员以及读者公众来说并不陌生,但是对于以ChatGPT为代表的人工智能将如何对人的生产方式、生活方式、思维方式、行为模式、价值观念产生影响以及是否会引发产业革命等问题,仍旧有待多维度、多视角、多面向的分析和探讨。当下,人们对ChatGPT这项人工智能最新成果抱有极大的讨论热情和尝试兴趣,但面对科技进展可能对社会产生的影响,我们需要引导全行业乃至全社会公众以更审慎的态度认识和把握科技进展的性质及方向,从而更好地应对科技影响。
为防范人工智能技术及新型产品在新闻行业中的进一步应用导致公众在意识形态、新闻认知、新闻消费等方面产生风险或造成不良体验,我们至少可从两个方面引导公众认识相关技术进展。第一,可以结合学校教育、行业研究、专家分析等工作,引导公众以更具批判性的态度看待人工智能技术存在的风险性问题;其次,对于产品存在的数据安全和隐私隐患,要及时进行相关风险警示。
四、结语
毫无疑问,以ChatGPT为代表的人工智能已经成为2023年最热门的话题之一,对新闻业而言,人工智能具备改变整个行业生态和市场结构的能力,但如果人工智能走向失控,或被不恰当地应用到新闻行业中,则会使整个新闻业滑向错误的方向,并对新闻业带来巨大的打击。新技术的出现和应用可能会引起人们对技术的狂热情绪或恐慌心态。技术将对社会产生何种程度的影响,关键不在于技术本身的性质如何,而在于人们如何看待、规制和应用技术。在瞬息万变的技术进展进程中,对技术如何介入我们的生活保持足够的警觉,才能最大限度地幸免技术负效应。媒体是新闻伦理的日常践行者,在人工智能参与新闻生产的时代,责任、独立、真实、公平、中立等原则可能会以不同的形式呈现出来,但总的来说,在中国的新闻语境之下,媒体应该始终具备社会公共性,充分考虑新闻生产和社会效益之间的可连续进展关系,处理好媒体与社会、媒体与个体的关系,才能切实地呼应新闻伦理的核心要求和焦点内容。生成式AI参与新闻写作、创作和生产未来可能成为一种新的行业形态,已有的针对新闻行业的伦理规范与法律规范将逐步无法有效规制人工智能可能带来的风险,亟需建构专业化、制度化的人工智能新闻伦理风险规制体系。(参考文献略)
唐嘉仪? 中山大学粤港澳进展研究院(港澳珠江三角洲研究中心)副研究员
李春凤? 暨南大学新闻传播学院博士研究生??
黄凌颖? 中移互联网超级SIM事业部项目经理