编辑|大宇
       在阅读此文前,诚邀您点击一下“
       关注
       ”,既方便您进行讨论与分享,又给您带来不一样的参与感,感谢您的支持。
       这些年来,我们虽然感受到了科技发展的魅力,但也不能忽视科技发展带来的威胁,就拿AI技术来说,AI技术的出现丰富并方便了我们的日常生活。
       比如AI画画、AI写作、AI唱歌等等,他们都能够通过模拟人的行为来完成这些任务,而且有很多完成的还不错。
       但在AI技术发展的过程中,除了造成某些群体失业以外,也给诈骗分子可乘之机。如今一种基于AI技术上的芯片局出现诈骗率甚至接近100%。




       这些年来,我们对于电信诈骗早就不陌生了,他们也是在科技时代所诞生的一类新型诈骗手段。
       和传统诈骗手段相比,新型的电信诈骗更防不胜防,上当者也遍布各个年龄,就连一些年轻的接受过高等教育的人可能都难以避免,更别提老年人了。
       现在好不容易才让大家深刻了解刷单、兼职等诈骗手段,如今AI换脸诈骗又让不少人不知不觉掉入陷阱中。请大家重视起来,转告家人和朋友。


       顺应着时代变化,这些诈骗分子的手段也越来越先进,当普通人享受着科技发展带来的便利时,诈骗分子却将其当作获利的工具。
       而且据专业人员介绍,这种AI换脸诈骗手段和其他电信诈骗手段不同,公安部门发布的预警信息显示这类诈骗手段的成功率极高,接近100%。




       此前网络上一则信息显示,来自福州的一位郭先生就因遭受AI换脸诈骗损失430万巨款,不过好在郭先生及时报警账户中的336.84万受骗资金被及时拦截。
       但郭先生的这次上当经历却给不少人提了个醒。


       据郭先生介绍,案发当天,他的一位好友曾通过微信视频与郭先生取得联系,两个人简单聊了一会儿天后。
       此人告诉郭先生,他的朋友在外地投标急需430万保证金,而且还要公对公账户过账,他想借郭先生的账户一用。
       由于该好友并没有直接借钱,只是表示想要借对公账户一用,更何况两个人在视频聊天中,郭先生郭先生也确定视频中的人和声音都和这位朋友对得上,也就没有太强的防备心。


       当时此人要了郭先生的银行账号并声称他已经把钱打入了郭先生的账户中,还给郭先生发了一个转账成功的截图。
       而那时候的郭先生出于信任并没有仔细核对,而是直接将430万分两笔给对方账户打了过去,等到郭先生完成这一切后告知对方却没想到,这位好友给他发过来一个问号。
       此时郭先生给这位好友打了电话才意识到刚才和他视频聊天的根本不是这位好友本身,他们遭受了AI换脸技术诈骗。




       除了郭先生以外,还有一位大学生小张也掉入了AI换脸陷阱中。某天这位大学生小张收到好朋友发来的借钱信息,表示需要2000元急用。
       由于涉及到钱财这样的敏感问题,小张非常警惕的给对方打去了电话,后来又不放心的打了个视频,确定了对方身份后才把钱转了过去。
       可是在转账结束后,小张再次联系这位朋友时才发现自己已经上当了。


       以往传统的电信诈骗一般都是通过低级的身份伪装来骗取受害者的信任,这也就导致一旦受害者提出要通过打电话或者是视频核实身份时诈骗分子就露馅儿了。
       可现在这种高端的AI换脸诈骗技术让人防不胜防。
       即便有些人防备心很强在亲戚朋友借钱时提出视频验证,
       但看见对方那张熟悉的脸,这些受骗者还是不由分说的就转了钱,这也是AI换脸诈骗技术成功率极高的原因。


       那些诈骗分子通过收集受害者的语音或照片,深度仿造技术打造出了合成视频,一般只需要采集受害者一两张照片或者一小段声音即可完成合成视频的制作。
       而且在虚拟的摄像头下,大多数人都发现不了和自己对话的其实根本不是我们熟悉的人。
       而这种AI诈骗技术能够成功完成诈骗关键之处就在于他超出了大多数普通人的认知,这种技术上的变化也直接改变了电信诈骗的剧本。


       那些诈骗分子瞄准的不单纯是贪小便宜的人,任何一个人都有可能成为他们的诈骗对象。
       该如何防范这种情况现在我们能做的就是希望国家提高对AI诈骗的监管,加强技术上的防御能力,充分保护用户的隐私和安全并完善有关法律制度。
       为了避免上当,我们也需要保护好个人隐私,避免落入诈骗分子精心打造的陷阱中。
       对此,您有什么想说的呢?欢迎在评论区留下您的看法!

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com