AI技术克隆声音制造恐怖诈骗,美国母亲接到女儿被绑架的电话

  如果你收到一个陌生电话,听到你的女儿在哭喊求救,你会怎么做?这是美国亚利桑那州的詹妮弗·德斯特凡诺(Jennifer DeStefano)最近遇到的恐怖场景。她接到一个自称绑架了她15岁女儿布里(Brie)的男子的电话,要求她支付100万美元的赎金,否则就把她的女儿带到墨西哥去“注射毒品”和“强奸”。电话中,她听到了女儿的声音,完全符合她的语调和情绪。但事实上,布里并没有被绑架,而是安全地在滑雪旅行中。那么,电话中的声音是怎么来的呢?原来,这是一起利用AI声音克隆技术进行的诈骗案。

  

  AI声音克隆技术是指利用人工智能算法,通过分析一个人的语音样本,生成与其相似或相同的语音。这种技术可以用于多种正当目的,比如语音合成、语音翻译、语音恢复等。但同时,它也可能被用于非法或不道德的目的,比如伪造证据、造谣传播、欺诈勒索等。这就是所谓的“深度伪造”(deepfake)技术,它不仅可以克隆声音,还可以克隆图像和视频。

  

  据英国《每日星报》(Daily Star)4月12日报道,受害者是一名叫詹妮弗·德斯特凡诺(Jennifer DeStefano)的母亲,她的女儿布里安娜·德斯特凡诺(Brie DeStefano)当时正在参加学校组织的滑雪旅行。德斯特凡诺说,她的女儿没有任何社交媒体账号,但她在学校网站上有一些参加体育活动的采访视频。这些视频中有她的语音样本,可能就是诈骗者利用AI声音克隆技术模仿她的声音的来源。事发当天,布里正在参加学校组织的滑雪旅行。她的母亲接到了一个陌生号码打来的电话。电话中传来了布里焦急的声音:“妈妈!”她哭着说:“我犯了错。”然后,一个男人的声音命令布里躺下。德斯特凡诺说:“那完全是她的声音。那是她的语气。那是她哭泣时的样子。”她说,当时她非常恐慌和震惊,根本没有怀疑过电话中的声音。

  接着,她听到了一个男人的声音命令布里躺下。“这个男人上来就说,‘听着。我抓住你女儿了。事情是这样的。你要是报警或者找任何人,我就给她打满毒品。我要玩弄她然后把她扔到墨西哥去’。”詹妮弗回忆说,“就在那一刻,我开始发抖。”“在背景里她在说,‘救救我,妈妈。请救救我。救救我’。”

  诈骗分子要求100万美元赎金,而Jennifer表示无法承担这个数额后,对方将价格降低了一半。接着这位慌张的母亲让他等待电话,然后请求在场的朋友们联系警方。几分钟后,Jennifer松了一口气,得知她的女儿仍然安全地度过了滑雪旅行,并没有任何危险。

  

  专家多年来一直警告说,人工智能将能够复制一个人的声音,从简单的欺诈到引发世界大战的风险都存在。AI技术的滥用给人们带来了极大的危害,需要加强监管和技术防范。同时,人们也应该提高自我防范意识,不要轻易相信来自陌生人的信息和电话。

  您怎么看<AI克隆声音模仿少女被绑架,母亲惊恐接到勒索电话>,如果您有不同意见或想了解哪方面的新奇内容,欢迎在评论区告诉我!

  如果感兴趣,欢迎点赞关注转发给朋友!

  举报/反馈