注意!那个难以描述的视频,里面的女生竟跟她一模一样…

  近日,一名拥有百万粉丝的女网红爆出了一起“AI换脸”事件。这名女网红表示,她的视频评论区突然涌来了很多人说看过她的“视频”,但她从未发布过这样的视频。

  她疑惑地点开了这个视频,结果发现里面的女生和她长得一模一样,但做着一些难以描述的动作,让她感到非常愤怒和无助。她随即意识到可能是她的脸被人工智能(AI)盗用了。

  AI技术发展迅速,最近爆火的AI换脸,大家不知道玩过没有。

  只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。

  有人把鹿晗的脸置换到刘亦菲扮演的“小龙女”角色中,就是下面这个效果。如果不是事先看过《神雕侠侣》,还以为就是本人呢。

  AI技术是把“双刃剑”

  在给人们生活提供便利的同时

  也给不法分子留下了可乘之机

  眼见不一定为真

  耳听也不一定为实

  从声音、图像到视频

  只要你一不小心就会“入套”

  今天就带大家

  分辨AI“花式”骗局

  练就“火眼金睛”

  让AI诈骗“无所遁形”!

  AI诈骗常见手法

  01

  AI合成声音诈骗

  诈骗分子会通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,利用AI技术进行语音合成,使诈骗对象放松警惕,进而用伪造的声音实施诈骗。

  02

  AI换脸诈骗

  人脸效果更易取得对方信任,诈骗分子用AI技术换脸,可以伪装成任何人,他们会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人,通过合成视频或照片来“以假乱真”,扰乱诈骗对象的视线进而实施诈骗。

  03

  AI筛选受骗人群

  诈骗分子不是漫无目的地广撒网,而是别有用心地锁定诈骗对象。他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。

  警方提醒

  1.多重验证,确认身份

  在涉及钱款时,大家要提高安全意识,通过电话、视频等方式确认对方是否为本人,在不能确定真实身份时,要格外留意、不要着急汇款,避免上当受骗,建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。

  2.保护信息,拒绝诱惑

  为避免诈骗分子窃取个人信息实施诈骗,大家应当加强个人信息保护意识,切勿接听任何陌生人邀请的视频验证或语音聊天,谨防诈骗分子利用AI技术搜集人脸、声音等素材,掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。

  3.相互提醒,共同预防

  当前信息技术发展快,老人常常难以适应,中青年人要及时做好家中老人的宣传教育工作。提醒老年人对不认识、不熟悉的人和事,均不要理睬,向老年人及时解析新型诈骗手段,以防被骗。遇到亲友借钱,应多方核实,不要贸然转账。

  信息来源:梅州市反诈骗中心

  原文标题:深刻了解“AI技术诈骗”,诈骗成功率高达100%

  (注:本微信中部分图片来源于网络,版权归原作者所有。如有任何涉及版权方面的问题,请及时与我们联系,我们将妥善处理!)

  觉得不错请点击“在看”哦↓ ↓

  原标题:《注意!那个难以描述的视频,里面的女生竟跟她一模一样…》

  阅读原文