AI不是万能|CyberDaily

  

  封面:by DALL·E 2

  CyberDaily:

  AI愈演愈烈

  吞食世界与现实世界融合的趋势,在所难免。与此同时,诚如AI教父?Geoffrey Hinton?所言,AI很危险....

  而今的境地是,人们仿佛正在一条悬崖边上跳舞

  被眼前的美丽玫瑰魅惑时,可能忽略了深渊也在脚下。

  因而,AI正在带来类似工业革命的一项革命,同时

  有学者站出来,切勿过多的幻觉蒙蔽了双眼。

  比如寄予厚望于大公司可以解决任何问题....而是应当避免他们加速割裂原本不平等的现实世界。

  以下,Enjoy:

  在围绕所谓人工智能的快速推出展开的众多争论中,有一个相对模糊的小冲突集中在“幻觉”这个词上。

  这是生成式 AI 的架构师和支持者已经确定的术语,用于描述聊天机器人提供的响应是完全制造的,还是完全错误的。例如,当您向机器人询问不存在的事物的定义时,它相当有说服力地给了您一个,并附有编造的脚注。“该领域还没有人解决幻觉问题,”谷歌和 Alphabet 的首席执行官桑达尔皮查伊最近告诉一位采访者。

  这是真的——但为什么要把这些错误称为“幻觉”呢?为什么不是算法垃圾?还是故障?好吧,幻觉是指人脑感知不存在现象的神秘能力,至少不是传统的唯物主义术语。通过使用心理学、迷幻药和各种形式的神秘主义中常用的一个词,AI 的支持者在承认他们的机器容易出错的同时,同时也在喂养该行业最珍贵的神话:通过建立这些大型语言模型,并在一切可以训练的东西上训练它们。我们人类已经在视觉上书写、表达和表现,他们正在孕育一种有生命的智能,即将激发我们物种的进化飞跃。否则像 Bing 和 Bard 这样的机器人怎么会在以太中绊倒呢?

  然而,扭曲的幻觉确实在人工智能的世界中出现——但并不是机器人拥有它们;释放他们的是科技公司的首席执行官,还有他们的一大批粉丝,他们个人和集体都陷入了疯狂的幻觉。在这里,我不是在神秘或迷幻的意义上定义幻觉,而是确实可以帮助获得深刻的、以前未被感知的真理的精神改变状态。不,这些人只是被绊倒了:看到,或者至少声称看到,根本不存在的证据,甚至召唤整个世界将他们的产品用于我们的普遍提升和教育。

  他们告诉我们,生成式人工智能将终结贫困。它将治愈所有疾病。它将解决气候变化问题。这将使我们的工作更有意义和令人兴奋。它将释放休闲和沉思的生活,帮助我们找回因晚期资本主义机械化而失去的人性。它将结束孤独。它将使我们的政府变得理性和反应灵敏。我担心,这些才是真正的 AI 幻觉,自去年年底推出 Chat GPT 以来,我们一直在循环播放它们。

  在这个世界中,生成人工智能作为一种强大的预测研究工具和繁琐任务的执行者,确实可以被组织起来造福于人类、其他物种和我们共同的家园。但要做到这一点,这些技术需要部署在一个与我们自己的经济和社会秩序截然不同的经济和社会秩序中,这种秩序的目的是满足人类需求和保护支持所有生命的行星系统。

  正如我们这些目前还没有被绊倒的人所理解的那样,我们当前的系统与此完全不同。相反,它的建立是为了最大限度地从人类和自然界中获取财富和利润——这一现实将我们带到了我们可能认为的资本主义的技术死灵阶段。在权力和财富高度集中的现实中,人工智能——远非所有那些乌托邦式的幻觉——更有可能成为进一步剥夺和掠夺的可怕工具。

  我会深入研究为什么会这样。但首先,思考关于人工智能的乌托邦幻觉的目的是有帮助的。当我们遇到这些奇怪的新工具时,这些仁慈的故事在文化中做了什么工作?这里有一个假设:它们是可能成为人类历史上规模最大、后果最严重的盗窃案的有力而诱人的掩护故事。因为我们目睹的是历史上最富有的公司(微软、苹果、谷歌、Meta、亚马逊……)单方面夺取以数字化、可刮擦形式存在的人类知识总量,并将其隔离在专有产品中,其中许多将 直接瞄准人类,他们一生的劳动未经允许或同意就训练了机器。

  这不应该是合法的。对于我们现在知道的训练模型的受版权保护的材料(包括本报),已经提起了各种诉讼,认为这显然是非法的。例如,为什么一家营利性公司应该被允许将在世艺术家的绘画、素描和照片输入到像 Stable Diffusion 或 Dall-E 2 这样的程序中,这样它就可以用来生成这些艺术家的分身版本 工作,除了艺术家自己之外,每个人都从中获益?

  画家和插画家 Molly Crabapple 正在帮助领导一场挑战这种盗窃行为的艺术家运动。“AI 艺术生成器在庞大的数据集上进行训练,其中包含数以百万计的受版权保护的图像,这些图像是在创作者不知情的情况下获取的,更不用说补偿或同意了。这实际上是历史上最大的艺术品抢劫案。由硅谷风险投资支持的看似受人尊敬的公司实体实施。这是白天的抢劫,”她共同起草的一封新公开信说。

  当然,诀窍在于硅谷通常将盗窃称为“破坏”——而且往往侥幸逃脱。我们知道这一举动:冲进无法无天的领域;声称旧规则不适用于您的新技术;大声说监管只会帮助中国——同时你的事实是扎实的。当我们都忘记这些新玩具的新鲜感并开始评估社会、政治和经济的残骸时,这项技术已经无处不在,以至于法院和政策制定者都举手投降。

  我们通过谷歌的书籍和艺术扫描看到了它。随着马斯克的太空殖民,优步对出租车行业的入侵, Airbnb对租赁市场的进攻,也 随着 Facebook 对我们数据的滥用。不要请求许可,破坏者喜欢说,请求宽恕。(并用慷慨的竞选捐助来满足要求。)

  在监视资本主义的时代,肖莎娜·祖博夫细致地详细描述了谷歌的街景地图如何通过派出装有摄像头的汽车去拍摄我们的公共道路和我们家的外观来超越隐私规范。到捍卫隐私权的诉讼开始时,街景已经无处不地出现在我们的设备上(而且很酷,也很方便……),以至于德国以外的法院很少愿意介入。

  现在,发生在我们房屋外部的同样事情正在发生在我们的文字、图像、歌曲和整个数字生活中。所有这些目前都被没收并用于训练机器模拟思维和创造力。这些公司必须知道他们从事盗窃活动,或者至少可以证明他们从事盗窃活动。他们只是希望旧剧本能再次奏效——抢劫的规模已经如此之大,并以如此之快的速度展开,以至于法院和政策制定者将再次在这一切假定的不可避免性面前举手投降。

  这也是为什么他们对人工智能将为人类做的所有美好事情的幻觉如此重要。因为这些崇高的主张将这种大规模盗窃伪装成一种礼物——同时它们有助于合理化人工智能不可否认的危险。

  到目前为止,我们大多数人都听说过一项调查,该调查要求人工智能研究人员和开发人员估计先进人工智能系统将导致“人类灭绝或类似的永久和严重的人类丧失能力”的可能性。令人不寒而栗的是,中值反应是有 10% 的机会。

  人们如何合理化上班和推出带有这种存在风险的工具?通常,给出的理由是这些系统还具有巨大的潜在优势——除了这些优势在很大程度上是幻觉。让我们深入研究一些更狂野的。

  幻觉#1:人工智能将解决气候危机

  几乎总是排在人工智能优势榜首的是声称这些系统将以某种方式解决气候危机。从世界经济论坛到外交关系委员会再到波士顿咨询集团,我们从每个人那里都听到了这一点,他们解释说人工智能“可以用来支持所有利益相关者采取更明智和数据驱动的方法来应对碳排放和建设 一个更绿色的社会。它还可以用来重新权衡全球气候努力,使其转向风险最大的地区。” 前谷歌 CEO 埃里克施密特在告诉大西洋时总结了这个案例,人工智能的风险是值得冒的,因为“如果你考虑世界上最大的问题,它们都是非常困难的 - 气候变化,人类组织等等 . 因此,我一直希望人们变得更聪明。”

  按照这个逻辑,没能“解决”像气候变化这样的大问题,是因为缺乏智慧。不要介意那些拥有博士学位和诺贝尔奖的聪明人几十年来一直在告诉我们的政府需要做什么才能摆脱这种混乱局面:削减我们的排放量,将碳留在地下,解决富人过度消费和消费不足的问题 穷人,因为没有一种能源是没有生态成本的。

  这个非常聪明的建议被忽视的原因不是因为阅读理解问题,也不是因为我们需要机器来为我们思考。这是因为按照气候危机的要求,我们将搁置数万亿美元的化石燃料资产,同时挑战我们相互关联的经济体核心的以消费为基础的增长模式。事实上,气候危机并不神秘。或很多时候,我们觉得神秘,是由于数据集不够稳健。 我们知道这需要什么,但这不是一个快速的解决方案——这是一种范式转变。 等待机器吐出更可口和/或更有利可图的答案并不能治愈这场危机,这是它的另一个症状。

  消除幻觉,看起来人工智能更有可能以积极加深气候危机的方式进入市场。首先,使聊天机器人的即时文章和艺术作品成为可能的巨型服务器是一个巨大且不断增长的碳排放源。其次,随着可口可乐等公司开始进行巨额投资以使用生成式 AI 来销售更多产品,这项新技术的使用方式将与上一代数字工具相同,这一点变得非常清楚:从崇高开始 关于传播自由和民主的承诺最终变成了针对我们的微广告,这样我们就可以购买更多无用的、排放碳的东西。

  还有第三个因素,这个因素更难确定。我们的媒体渠道越是充斥着各种深度造假和克隆,我们就越有陷入信息流沙的感觉。Geoffrey Hinton 通常被称为“人工智能教父”,因为他十多年前开发的神经网络构成了当今大型语言模型的基石,他非常了解这一点。他刚刚辞去了谷歌的高级职位,这样他就可以自由地谈论他帮助创造的技术的风险,包括,正如他告诉纽约时报的那样,人们将“无法再知道什么是真的”的风险。.

  这与人工智能将帮助应对气候危机的说法高度相关。因为当我们对在越来越离奇的媒体环境中阅读和看到的一切不信任时,我们就更没有能力解决紧迫的集体问题。当然,信任危机早于 ChatGPT,但毫无疑问,深度造假的泛滥将伴随着已经蓬勃发展的阴谋文化呈指数级增长。那么,如果人工智能在技术和科学上取得突破,会有什么不同呢?如果共享现实的结构在我们手中分崩离析,我们将发现自己根本无法做出任何连贯的回应。

  幻觉#2:人工智能将提供明智的治理

  这种幻觉召唤着不久的将来,政治家和官僚们利用人工智能系统的大量聚合智能,能够“看到需求模式并制定基于证据的计划”,从而为他们的选民带来更大的利益。这一说法来自波士顿咨询集团基金会发表的一篇论文,但在许多智库和管理咨询公司内部得到了回应。很明显,这些特定的公司——政府和其他公司聘请的公司通常通过解雇大量员工来确定成本节约——最快加入了人工智能的行列。普华永道(前身为普华永道)刚刚宣布了一项 10 亿美元的投资,据报道,贝恩公司和德勤都热衷于使用这些工具来提高客户的“效率”。

  与气候声明一样,有必要问:政治家实施残酷和无效政策的原因是他们缺乏证据吗?正如 BCG 论文所建议的那样,无法“看到模式”?他们是否不了解在大流行病期间公共医疗保健挨饿,或者在帐篷填满我们的城市公园时未能投资非市场住房,或者在气温飙升时批准新的化石燃料基础设施的人力成本?他们是否需要人工智能让他们变得“更聪明”,用施密特的话说——或者他们是否足够聪明,知道谁将为他们的下一次竞选活动提供资金,或者,如果他们迷路了,为他们的竞争对手提供资金?

  如果人工智能真的能够切断企业资金与管理者鲁莽决策之间的联系,那就太好了——但这种联系与为什么像谷歌和微软这样的公司被允许向公众发布他们的聊天机器人,尽管有大量警告和 已知风险。施密特和其他人进行了长达数年的游说活动,告诉华盛顿的两党,如果他们不能自由地推进生成人工智能,不受严格监管的负担,那么西方大国将被中国甩在后面。去年,顶级科技公司花费了创纪录的 7000 万美元游说华盛顿——超过了石油和天然气行业——彭博新闻指出,这一数额超过了“在其广泛的贸易团体、非 利润和智库”。

  然而,尽管他们非常了解金钱如何准确地影响我们国家首都的政策,但当你听 OpenAI(ChatGPT 的制造商)的首席执行官山姆·奥特曼谈论他的产品的最佳状况时,所有这一切似乎都是 忘记了。相反,他似乎在幻觉一个完全不同于我们自己的世界,一个政治和行业根据最佳数据做出决策,绝不会为了利润和地缘政治优势而将无数生命置于危险之中。这给我们带来了另一种幻觉。

  幻觉#3:可以相信科技巨头不会破坏世界

  当被问及他是否担心 ChatGPT 已经掀起的疯狂淘金热时,奥特曼说他担心,但乐观地补充道:“希望一切都会成功。” 对于他的科技公司 CEO 同行——那些竞相赶出竞争对手的聊天机器人的人——他说:“我认为更好的天使会胜出。”

  更好的天使?在谷歌?我很确定公司解雇了其中的大部分人,因为他们发表了关于 AI 的批评性论文,或者呼吁公司反对工作场所的种族主义和性骚扰。更多“更好的天使”惊慌失措地退出了,最近的一次是 Hinton。这是因为,与从人工智能中获利最多的人的幻觉相反,谷歌并没有根据对世界最有利的方式做出决策——它根据对 Alphabet 股东最有利的方式做出决策,他们不想错过最新的泡沫,而不是 当 Microsoft、Meta 和 Apple 已经全部加入时。

  幻觉#4:人工智能将把我们从苦差事中解放出来

  如果硅谷的仁慈幻觉对许多人来说似乎是可信的,那么这是有一个简单的原因的。生成式人工智能目前处于我们可能认为的人造社会主义阶段。这是现在熟悉的硅谷剧本的一部分。首先,创建一个有吸引力的产品(搜索引擎、地图工具、社交网络、视频平台、拼车……);免费或几乎免费赠送几年,没有明显可行的商业模式(“玩玩机器人,”他们告诉我们,“看看你能创造出多么有趣的东西!”);对你的做法提出许多崇高的主张,只是因为你想创建一个“城市广场”或“信息共享”或“连接人民”,同时传播自由和民主(而不是“邪恶”)。然后看着人们沉迷于使用这些免费工具,而您的竞争对手宣布破产。一旦领域清晰,就可以引入有针对性的广告、持续监控、警察和军事合同、黑匣子数据销售和不断上涨的订阅费。

  从出租车司机到租赁市场再到当地报纸,许多人的生命和行业都被这本剧本的早期版本所摧毁。随着人工智能革命,这些损失可能看起来像舍入误差,教师、编码员、视觉艺术家、记者、翻译、音乐家、护理人员和许多其他人的收入可能会被有问题的代码取代。

  别担心,AI 爱好者会产生幻觉——这会很精彩。谁喜欢工作呢?我们被告知,生成式人工智能不会终结就业,只会终结“无聊的工作”——聊天机器人会帮助完成所有毁灭灵魂的重复性任务,而人类只是监督它们。就奥特曼而言,他认为未来工作“可以是一个更广泛的概念,不是你必须做的事情才能吃饭,而是你做的事情是一种创造性的表达方式,也是一种寻找满足感和幸福感的方式”。

  这是一个更美好、更悠闲的生活的令人兴奋的愿景,许多左派人士都认同这一点(包括卡尔·马克思的女婿保罗·拉法格,他写了一份名为“懒惰的权利”的宣言)。但我们左派也知道,如果赚钱不再是生活的动力,那么就必须有其他方式来满足我们对住所和生计的生理需求。一个没有糟糕工作的世界意味着租金必须是免费的,医疗保健必须是免费的,每个人都必须拥有不可剥夺的经济权利。然后突然间我们根本不在谈论人工智能——我们在谈论社会主义。

  因为我们并不生活在奥特曼似乎产生幻觉的星际迷航启发的理性、人文主义世界中。我们生活在资本主义制度下,在这种制度下,市场充斥着能够合理地执行无数劳动人民的经济任务的技术,其效果并不是那些人突然可以自由地成为哲学家和艺术家。这意味着这些人会发现自己正凝视着深渊——真正的艺术家是最先坠落的。

  这就是 Crabapple 公开信的信息,它呼吁“艺术家、出版商、记者、编辑和新闻工会领导人为人类价值观做出承诺,反对使用生成式 AI 图像”,并“承诺支持人们创作的编辑艺术 ,而不是服务器场”。这封现在由数百名艺术家、记者和其他人联名的信指出,除了最精英的艺术家之外,所有艺术家都发现他们的作品“面临灭绝的危险”。根据“AI 教父”Hinton 的说法,没有理由相信这种威胁不会扩散。聊天机器人“带走了苦差事”,但“带走的可能不止于此”。

  Crabapple 和她的合著者写道:“生成式 AI 艺术就像吸血鬼一样,以过去几代的艺术作品为食,即使它从生活中吸取生命之血。艺术家。” 但是有办法抵制:我们可以拒绝使用这些产品,并组织起来要求我们的雇主和政府也拒绝使用它们。人工智能伦理学著名学者的一封信,其中包括因挑战工作场所歧视而于 2020 年被谷歌解雇的 Timnit Gebru,列出了政府可以立即引入的一些监管工具——包括完全透明地说明哪些数据集被用来训练人工智能 楷模。作者写道:“当我们遇到合成媒体时,不仅应该始终清楚,而且构建这些系统的组织也应该被要求记录和披露训练数据和模型架构……。我们应该建造为我们工作的机器,而不是让社会‘适应’为机器可读和可写。”

  尽管科技公司希望我们相信,现在取消这种可替代人类的大规模模仿产品已经为时已晚,但有高度相关的法律和监管先例可以强制执行。例如,美国联邦贸易委员会 (FTC) 迫使 Cambridge Analytica 以及照片应用程序的所有者 Everalbum 销毁被发现在非法盗用数据和抓取照片上训练的整个算法。早期,拜登政府就监管大型科技提出了许多大胆主张,包括打击窃取个人数据以构建专有算法。随着总统大选的临近,现在是兑现这些承诺的好时机——并在下一轮大规模裁员发生之前避免它们。

  深度造假、模仿循环和不平等加剧的世界并非不可避免。这是一组政策选择。我们可以规范当前形式的吸血鬼聊天机器人——并开始建立一个人工智能最令人兴奋的承诺将不仅仅是硅谷幻觉的世界。

  因为我们训练了机器,,我们所有人。但我们从未表示同意。它们吸取了人类的集体智慧、灵感和启示(以及我们更贪财的特征)。这些模型是圈地和挪用机器,吞噬和私有化我们的个人生活以及我们的集体知识和艺术遗产。他们的目标从来都不是解决气候变化或让我们的政府更负责任或让我们的日常生活更悠闲。它总是从大规模贫困中获利,在资本主义制度下,这是用机器人取代人类功能的明显和合乎逻辑的结果。

  这一切是否过于戏剧化?对激动人心的创新的沉闷和反身性抵制?为什么期望更糟?奥特曼向我们保证:“没有人想毁灭世界。” 也许不是。但正如日益恶化的气候和灭绝危机每天向我们展示的那样,许多有权势的人和机构似乎都知道他们正在帮助破坏世界生命支持系统的稳定性,只要他们能够继续创造 记录他们认为可以保护他们和他们的家人免受最坏影响的利润。奥特曼和硅谷的许多生物一样,他自己就是一个准备者:早在 2016 年,他就吹嘘说:“我有枪支、黄金、碘化钾、抗生素、电池、水、来自以色列国防军的防毒面具和一大片土地 在大苏尔,我可以飞去。”

  我很确定这些事实更多地说明了,奥特曼对他正在释放他未来的真实信念,而不是他选择在新闻采访中分享的任何华丽幻觉。

  / 关于作者?/

  Naomi Klein 是《卫报》美国专栏作家和特约撰稿人。 她是《No Logo》和《休克主义》的畅销书作者,也是不列颠哥伦比亚大学气候正义教授和气候正义中心的联席主任。

  编译:CyberDaily

  基于创作共享协议BY-N

  参考引用资料

  https://www.theguardian.com/commentisfree/2023/may/08/ai-machines-hallucinating-naomi-klein#comments