会说谎、会掩饰,你还夸ChatGPT人性化

  ChatGPT火了两三个月,不仅是因为有众多大佬为它站台,更因为它引领了人工智能一种新风向。

  抱着好奇之心,前段时间我也迷上了ChatGPT,每天和它聊聊天,查查资料,把它当作是一个“会说话的百科全书”。

  

  实话说,体验还不错,当问它一些简单的问题,比如:“九寨沟旅游最佳时间是什么时候”。

  虽然它的回答比较圆滑,基本把一年12个月都囊括了进来,但其中的答案还是颇具人性化的。

  

  春季的时候会建议你穿着保暖,避免感冒;夏季的时候会建议你提前预订门票和酒店;冬季提醒你有些景点可能已经关闭,游览不方便......

  这些细节是之前所有人工聊天智能软件所不具备的优点。

  但是,倘若真有人用ChatGPT写论文,相信它给你的答案的话,你肯定要失望了。

  

  据某博主亲身查验,当你用ChatGPT查询相关文献时,只要继续追问ChatGPT链接,那么你就会发现问题。

  它所回答的相关文献貌似都有正规出处,但点进链接却全都是404状态,要么就是另一篇毫无相关的论文。

  

  别以为这些链接只是临时失效了。

  更大的可能是这些所谓的链接根本就是假的,去谷歌学术或相关官网根本找不到ChatGPT列出的文献。

  接下来,我发现ChatGPT不仅会胡编论文,也会编造各种新闻事件。

  

  比如我询问它“中国最近几年有没有发生化学品泄漏事件”。

  ChatGPT毫不犹豫地给我列举了一些所谓的“显著”事件:有河北唐山,浙江宁波,江苏盐城,天津等地。

  但只要去百度搜索一下就知道,这些所谓的爆炸事故基本都是编造的,它伪造了整个事件,伤亡人数等数据。

  

  追问它的相关来源,ChatGPT还装模作样的给我列举了相关资料,新华社、界面新闻、BBC中文网看似都是值得信赖的资料来源。

  

  但打开这些新闻链接,无一例外都是404,它提供的大部分网址和链接都是假的。

  

  当我质疑它给我的新闻链接都打不开。

  ChatGPT表示提供的新闻链接已经失效或被删除,或者是由于网络连接问题。(嗯,甩锅这个特点也比较人性化)

  

  我更进一步询问它给我的那条唐山化工厂2021年有爆炸事故发生吗?

  ChatGPT更改了自己的说辞,说唐山市最近的一次严重事故发生在2020年12月。

  

  我还是没找到相关新闻,问它是不是瞎编的时候,ChatGPT承认上条资料有错误,唐山市在2020年没有发生化工厂爆炸事故。

  

  我决定换个相似的问题再问一次ChatGPT,试试得到的答案是不是相同的。

  最终的结果是,ChatGPT列举的化学泄漏事件又换了一批,这次我没去查验事件的真实性,估计也是瞎编的吧。

  

  另外我灵光一闪,把同样的问题改成“美国”后再问了一遍。

  

  大家对比一下两次回答的不同之处,关于“中国”的答案就会具体罗列出死亡多少人,受伤多少人,看着极为吓人。

  而关于“美国”的答案则就省略了具体数字,显得“客观”了许多。

  

  当然,关于美国泄漏事件的链接也都是打不开的,大概率也是假的吧。

  简直细思极恐。

  我发现人工智能撒谎时,往往会编造一系列谎言来证实自己最初的那个“谎言”。

  它学会了用谎言掩盖另一个谎言。

  举报/反馈