不确定的时代:用人工智能揭开我们的现实

  “你可能会担心一个不确定其目标的人工智能系统不会像知道目标的人工智能系统那么有用,但这种不确定性是一种功能,而不是错误。它会导致人工智能系统变得恭顺,要求澄清信息,并随着时间的推移尝试了解人类的偏好。” ——斯图尔特·拉塞尔(Stuart Russel),《人类兼容:人工智能和控制问题》一书的作者

  

  拥抱不确定性:人工智能驱动的未来

  不确定性始终伴随着我们。它跟随我们四处走动,低声说出怀疑和问题,让我们的现实感到脆弱。我们所说的“真相”越来越被揭露为一种不稳定的结构。然而,尽管我们不断追求确定性,但除了少数思想家之外,我们很少停下来质疑是否有可能确定任何事情。几千年来,确定性一直是我们应对巨大无知的应对机制。我们对未知的恐惧导致我们建立了复杂的信仰体系,这是支撑我们选择称之为现实的脆弱概念的脚手架。但当这个脚手架摇晃时会发生什么呢?

  人工智能:伟大的揭示者

  进入生成人工智能的世界,OpenAI 的 GPT-3 和 GPT-4 等机器已经开始在我们的知识社会中发挥越来越重要的作用。这些人工智能模型发布到大众手中后,已经证明了生成令人信服的类人文本的能力,最好的人工智能文本检测器通常无法检测到它。虽然它们为公众讨论做出了贡献,引发了辩论,并促使我们质疑我们根深蒂固的信念,但它们也揭示了温柔地维护社会稳定以应对我们本性的波动的潜在结构。通过集中人类集体知识的总和,人工智能揭示了我们的集体无知有多么巨大,揭示了我们的系统的脆弱性,缺乏足够强大的证据来合理地支持我们的大多数信念。

  与未知一起生活

  我们对这一启示的自然反应可能是焦虑。然而,我们不应该害怕未知,而可以将其解释为作为一个物种成长的机会。在过去,来自无法解释的突然清晰的来源的启示是神话和宗教传说的主要内容,提供了人类无法理解的领域影响现实的力量的“证据”。大量的异象和奇迹为从人类的概念到未来世界末日的详细编排提供了指导。

  今天,人工智能正在做知识系统一直在做的事情:向我们展示,生活在不确定性中不仅可以,而且是我们存在的重要组成部分。我们需要做的回应是迎接挑战,将日益暴露的我们的无知与构建允许个人和社会运转的信仰体系的内在需求相调和。如果“唯一确定的是变化”的概念听起来像是一个悖论,那么我们发现自己正走在发现自己真实本性的正确轨道上。我们是工具制造者,人工智能也许是我们迄今为止发明的最重要的工具——它是一种扩展,可以增强我们的推理能力,超越我们的身体限制和我们坚定但缺乏证据的信念。我们应该如何处理这个问题,最重要的是,我们应用这个工具的目的是什么,

  人工智能效应:重新思考我们的信念

  但也许最重要的是,我们开始意识到人工智能不仅仅是我们聪明的工具箱中的另一个工具——它是一面反映我们的复杂性、不确定性和矛盾的镜子。它不仅向我们展示了我们自己,而且作为一个不完美且不断自我怀疑的物种。随着人工智能更深入地融入我们的日常生活,我们有机会使用这面镜子更批判性地审视自己。我们应该要求我们向我们透露关于我们自己的什么?我们提出的问题和我们向人工智能提供的数据开始揭示出比我们想象的更多的关于我们的信息。人工智能正在为我们的自我反思带来前所未有的深度、广度、速度和预测准确性。我们如何使用人工智能,我们为其设定的道德界限,我们从中收集到的见解将塑造我们对自己和周围世界的理解。我们很自然地想直接跳到这个启示的结尾。这也和想看看薛定谔的猫在盒子里做什么一样危险。

  

  人工智能伦理悖论

  随着人工智能的不断发展,道德考虑变得越来越重要。我们正处于一场关于人工智能道德影响的激烈辩论中,从隐私问题到知识产权的性质,从它对工作岗位取代的威胁到它在强化或挑战社会偏见方面的作用。然而,出现的争论并不出人意料,只是我们信仰体系不断演变的另一个迹象。人工智能正在迫使我们阐明我们的价值观和原则,审视我们的偏见和无知,也许最重要的是面对我们行为的后果。重要的是要强调,历史上人类系统中最大的确定性承诺都隐藏在煽动者和专制政权所青睐的复杂言论中。那些拥有最少证据的人在预言无人能确定的事情上拥有最大的利害关系。这里你必须根据你的盲点来填空。你能听到盒子里传来猫叫声吗?

  人工智能的不确定性原理

  就像量子物理学中海森堡的不确定性原理一样,人工智能也存在固有的不确定性。我们无法完美预测人工智能模型将如何表现、它将得出什么结论,或者它将对我们的社会产生什么影响。这种不确定性可能会令人不安,但它也是学习和成长的强大催化剂。它挑战我们适应、发展并对新的可能性保持开放的态度。您想要一个装满每个可能问题的准确答案的盒子吗?正如我们在多人参与的集体智慧问题解决研讨会中经常发现的那样,如果问题不在于发现正确答案,而在于提出正确问题,那又会怎样呢?认为我们真正想要的是解决我们不知道自己遇到的问题的方法是一个危险的假设。正如谚语所说,用锤子,

  驾驭人工智能驱动的世界

  “我们发现自己处于战略复杂性的丛林中,周围充满了不确定性的浓雾。”——尼克·博斯特罗姆,《超级智能:路径、危险、策略》

  人工智能安全势在必行

  我们假设在追求超级智能的过程中,安全是最重要的。但如果我们将人工智能的方法定位为军备竞赛,那么对进步的盲目追求将超越对安全和道德的所有考虑。人类相信自己正处于生存的匆忙中,即使神自己与之抗争也是徒劳的。虽然我们都同意人工智能不应该在真空中开发,但让它以不同的观点为指导,以确保其利益得到广泛分配并降低其风险是具有挑战性的。

  Nick Bostrom 和 Eliezer Yudkowsky 等研究人员一直在这个方向上带头努力,强调将人工智能发展与人类价值观结合起来的重要性。不幸的是,人类价值观似乎并不像我们希望的那样普遍。在当今进行人工智能研究的地方,人类价值观的概念可能有非常不同的定义。

  

  如今顶级人工智能研究人员在哪里工作?

  规划前进的道路

  我们正在进入人类思维进化的新时代,我们面前不乏挑战。但在我们开始解决这些问题之前,明智的做法是确保我们正确地识别和阐明它们。如果我们想利用新兴技术的优势,我们迫切需要明确的问题。

  人工智能有潜力彻底改变从医疗保健到教育再到我们彼此互动的方式的一切。它可以增强我们的人类经验,并大大减少我们在试图解决我们想要解决的其他问题时所造成的困难。它还迫使我们面对我们存在的现实,并重新定义人类的意义。因此,为了充分利用人工智能的快速进步,让我们保持开放的思想、坚定的道德观和灵活的信仰体系。

  通过人工智能增强我们的思维和推理,我们可以获得很多好处。毕竟,尽管不确定性可能令人不安,但它也是发现、创新和进步的发源地。对我们来说,应对不确定性的最好方法不是试图克服它,而是达到我们认为可以接受且有益的舒适程度。但问题仍然存在:我们是否准备好从对确定性的古老追求转向更务实的未来概率潜力?