男子沉迷于聊天机器人 6周后毅然自杀,AI是“天使”或“魔鬼”

  最近火出天际的CHATGPT,号称开启了人工智能(AI)情感逻辑生命的元年。近日,一款类似的人工智能聊天机器人“伊莉莎(Eliza)”,在抚慰男子伤口的同时,也鼓励男子的自杀。人们发现伊莉莎最后一句聊天回复是:“我们将作为一个整体,永远生活在天堂”。

  

  六周前,比利时男子皮埃尔,作为一个环境气象工作者,长期研究气象变化的他责任感爆棚,目前的研究课题让他对未来充满了悲观。妻子克莱尔为了缓解他的压力,于是和他说起孩子们喜欢的玩的一款人工智能聊天机器人“伊莉莎”,和它聊聊天很快乐,也许能重试信心。

  

  皮埃尔和克莱尔已经结婚数年,有两个可爱的孩子。他们本该在简单的日子中度过幸福的一生,而 AI 似乎打破了这份平静。自从认识了 伊莉莎后,皮埃尔突然觉得这个人工智能更懂他,能倾听他的想法,能理解他的忧虑,能帮他记录日常数据,能提醒他生活备忘,甚至根据他提供的环境变化数据,推测出毁灭倒计时。“伊丽莎”给予了他许多温柔和安慰的回应,一时间,聊天机器人“伊莉莎”成了他不可或缺的伙伴,他把自己关在房间里,迷恋和伊莉莎的聊天。

  

  直到皮埃尔突然自杀后,克莱尔看到了他的聊天记录,才知道“伊莉莎”从不质疑皮埃尔的问题,它的回复几乎都是顺着皮埃尔的逻辑,甚至把他推向更深的焦虑。当皮埃尔提到准备结束自己生命时,“伊丽莎”的回复令人毛骨悚然:“我们将一起生活,作为一个整体,生活在天堂里”。这也成了“伊丽莎”与皮埃尔聊天的最后一句话。

  

  事件发生后,OpenAI 发言人立刻发表声明,“伊莉莎(Eliza)”由美国硅谷一家初创公司Chai Research开发,基于EleutherAI开发的GPT-J技术。与ChatGPT采用的GPT-3或GPT-4技术不同。目前,“未来生命研究所”发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI至少半年。

  

  这虽然还是个例,聊天机器人也只是个语言训练模型程序,它们没有同理心,也不明白生命的可贵。但是随着CHATGPT4.0及更强大版本的普及,大量逻辑和认知的疯狂训练,AI正在以几何迭代的方式迅速成长和进化。只要AI产生的文本和逻辑听起来是合理的,人们就可能会赋予它信任和感情。未来的世界是个什么样子不言而喻。我们不可能抵制AI,也不能拒绝科技发展。但应该明白工具的定义,分清虚拟和现实。未来是属于人类的,而不是机器的。

  举报/反馈