热点透析|谷歌AI觉醒?一文带你了解智能算法的伦理问题

  前不久,ChatGPT的火爆再度将人工智能算法的讨论引入大众话题,甚至有不少评论反馈称其足够智能到可以与人比拟,在情感应对和知识储备方面均表现出色。另一方面,也有不少人对此表现出了对于人工智能伦理问题的质疑与反思。《华盛顿邮报》曾记载报道,一位名叫布莱克·莱莫因的谷歌AI伦理研究人员宣称自己在与AI的对话中被说服,认为它产生了意识。此AI名为“LaMDA”,是一个AI语言模型的名字,专门用于对话,应用愿景是为谷歌旗下的搜索和语音助手等功能提供服务。研究人员布莱克·莱莫因称LaMDA具有了自己的感受和意识。

  消息一出即引发了广泛的讨论。人工智能行业从业者、技术人士等并不认可他的观点,他们认为LaMDA能做到对答如流,根本在于适当的程序和高效率的运算,而非人工智能本身能够真正的理解信息,具有意识。那么,我们究竟应该如何理解人工智能的“边界”?如何看待智能算法背后的伦理问题呢?

  一、人工智能+传媒业

  人工智能(Artificial Intelligence)技术如今已经渗透至传媒业的方方面面。从腾讯Dream Writer、新华社“快笔小新”等新闻采集、写作阶段的机器人写作,到今日头条、一点资讯等根据用户个人喜好进行精准推荐的新闻分发平台,再到人民日报等主流媒体纷纷采取VR、AR等虚拟现实、沉浸现实的沉浸式新闻体验,都能看到人工智能在传媒业的广泛应用。

  具体来看:

  新闻生产层面,AI通过网络信息检索与挖掘、图像处理与视频处理、自然语言与机器翻译等实现机器化、智能化、分布式的新闻写作、改写与编辑;

  信息分发层面,AI通过观点挖掘与机器学习、社交网络分析与挖掘、路径发现与规划方法等技术,寻找潜在的受众对象,完成对受众群体的用户画像和群集组合分析,实现信息社交化、个性化的高效率分发,提高信息内容和受众需求的一致性;

  新闻呈现层面,AI合成主播的出现,提升了电视新闻的制作效率,降低了制作成本,保证新闻报道的时效和质量;

  反馈互动层面,AI通过智能技术运用呈现出传感化与智能化特点,加强用户的参与性,设计各种探索和互动环节,如《纽约时报》利用人工智能管理评论区,识别、筛除不良和恶意评论,打造智能化的优质内容管理平台。

  人工智能通过算法和大数据分析已经深刻改变了人类的新闻传播行为。人工智能时代的新闻伦理的重点是在新技术背景下的新闻实践问题,信息茧房效应、后真相、算法偏见和被遗忘权引发学界广泛的讨论。

  二、人工智能时代的新闻伦理问题

  目前,人工智能与社交媒体技术融合,已渗透到新闻的生产、传播和互动各个环节中。其中机器人写作、传感器新闻和智能推荐机制是人工智能应用于新闻传播领域的典型代表。

  随着新媒体技术进入新闻行业,长久被珍视的伦理传统,如新闻客观性、新闻记者的功能,受到极大的挑战。学者们对人工智能技术和新闻传播的结合整体保持乐观态度,但对其间产生的信息茧房效应、信息源真实性、算法纠偏、个人隐私和被遗忘权等问题存在伦理忧虑。

  01 个人隐私与被遗忘权

  大数据是人工智能的基础,无论是传感器新闻还是算法推荐,都必须以浏览数据为基础进行加工,这就涉及了个人隐私数据的二次使用。个人与公共隐私边界的模糊,隐私数据所有权界定的模糊,当下隐私数据保护规制的不完善,都使得对个人隐私数据的二次使用始终存在着侵权的风险。

  算法实现精准的信息推送,首先要基于用户、信息和环境信息的数据采集,生成受众的用户画像,最终实现信息内容和受众的匹配。精准的信息分发是以让渡用户个人隐私为前提的。而深挖用户信息和阅读习惯的同时,也侵犯了用户的隐私。通过数据挖掘技术,可以从大量不完整或模糊的数据中提取到有用的个人信息,使得便利与隐私成为悖论。

  被遗忘权是近年个人数据所有权和隐私权探讨的一个焦点。牛津大学教授维克托·舍恩伯格提出了数字时代的被遗忘权概念,他指出,“遗忘变成例外,记忆变成常态”是大数据时代信息安全的一个隐患。如何平衡信息利用与用户的隐私权,成为人工智能开发数据过程中必须关注的问题。

  02 算法推荐与新闻偏向

  算法推荐可能导致新闻偏向与虚假新闻的传播。作为个体的记者对道德行为有很强的责任感,但算法作为内容发送者的制度化,会引发专业新闻的各种伦理挑战。从聚合类算法运作的原理来看,当迭代次数受到限制时,这类算法天然存在重复推送同类信息、造成信息疲劳的问题。在新媒体环境下,算法分发的更多是碎片化、个性化的信息,而不是新闻,算法推荐机制实际上是一种对新闻专业主义和公共性的解构。

  这种算法短视加深了用户偏见,可能会导致信息茧房和回音廊效应,进而造成人与人之间的区隔,更使虚假消息得以借算法传播。有学者指出,“后真相”长期以来是一种政治现象,但在新闻行业结构转变的背景下,新闻传播领域的“后真相”时代获得了更为广泛的关注。

  关于新闻媒体行业该如何应对后真相,迈克尔·舒德森指出,我们仍然需要“不可爱的新闻界”,并指出真新闻应总是把真相放在首位,它不会让诚实的报道屈从于意识形态、政治鼓动或商业利益,甚至也不会迎合读者的口味,并提出了三条新闻质量的判定标准。潘忠党指出,我们需要将重新建构新闻专业定位在“以事实界定真相”为内容的公共生活上,新闻界需要做的是将寻求、核查、鉴定事实和真相的过程置于公共讨论之中,重构交往的伦理规范。

  03 算法干预与信息茧房

  自主决策是算法权力的核心,在社交网络时代,算法实际上成为一种新的议程设置,取代媒体引导舆论。目前没有基于算法伦理和规制设立基本的防御机制,公共媒体对用户大数据的使用,不能保证过程的合理性。敏感信息的使用、传播,某些受众被特定类型信息屏蔽(或者过于吸引),其实都存在伦理风险。

  在新闻题材方面,算法依据受众的需求生成用户画像并自动生成相关的知识谱系,生产符合用户口味的新闻,使得娱乐新闻、黄色信息取代政治、经济和文化新闻,成为新闻推送的主体;在新闻质量层面,机器人写作的新闻注重信息,而忽略了新闻的知识性和人情味,注重时效性而缺乏人文关怀;在新闻价值层面,公众应知而未知的新闻鲜少送达受众。如果对人工智能技术不加干预,新闻报道为公众服务的价值将受到严重削弱。

  算法实现信息与用户精准匹配的同时,传统媒体时代一对多的传播模式变为“一对一”传播,容易造成受众的信息接触面越来越窄。沉浸在“信息茧房”之中的受众,由于长期接触同类信息,面临虚假的信息声势,而不易形成对外界的全面感知;用户原有的观念经由反复传播而得到加强或放大;这种思想僵化极易在网络群体的讨论加强之下得到进一步放大,甚至出现群体极化效应;不同群体的观念极化易导致社会共识的瓦解,削弱大众传播的社会整合作用。

  三、反思与革新

  新技术动摇了新闻从业者一直以来对新闻采集和传播的垄断地位,随着媒体边界的模糊化,“该由谁来决定公众应该知道什么和不知道什么”成为争执的焦点,其背后则是新媒体技术与社会伦理期待的冲突。

  首先,在新传播领域,需要更加清晰而整体性地阐释人工智能时代的技术内涵、社会内涵、伦理内涵和规制内涵,为新闻传播学界对此人工技术物的理性反应提供理论基础。其次,跨学科研究的数量和质量有待进一步提高。目前,算法和大数据已经产生传播权(新闻价值权重排序决策权)、信息自由(人的传播自主性)、信息触达(服务的普适性、信息的不当触达)、信息隐私权和数字身份及其保护等问题。在国家层面,就会产生数据安全、信息主权、社会凝聚力等更为宏观也更加重要的议题。

  

  四、写在最后

  新闻传播带有明显的公共产品属性。当新媒体已经成为公众获取信息最重要的途径时,就有必要对传媒的行为进行约束,规避可能产生的伦理和法律问题,并及时对已经产生的问题加以解决,从而维护新闻的真实性和合法性,并维护新闻传媒“社会公器”的职能。同样地,技术固然会带来一些问题,我们也不能固步自封,在技术面前保持冷静与克制,坚守人的理性,才是掌控技术的第一要义。

  参考文献:

  [1]靖鸣,娄翠.人工智能技术在新闻传播中伦理失范的思考[J].出版广角,2018(01):9-13.

  [2]陈昌凤,虞鑫.智能时代的信息价值观研究:技术属性、媒介语境与价值范畴[J].编辑之友,2019(06):5-12.

  [3]杜娟.从“人机协同”看人工智能时代的新闻伦理构建[J].社会科学研究,2019(04):197-204.

  [4]李政.人工智能时代新闻记者的价值定位[J].出版广角,2019(10):61-63.

  [5]邵国松.媒体智能化发展的伦理与法律问题初窥[J].现代传播(中国传媒大学学报),2018,40(11):9-14.