随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI换脸技术。近日,包头警方发布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。 ![]() 警惕!AI诈骗来袭,成功率接近100%! 随着互联网技术的发展,各类诈骗模式层出不穷,但最新的AI诈骗,你听过吗?据湖北网警巡查执法5月6日消息,AI技术改变诈骗,新骗局来袭后,诈骗成功率竟接近100%。 第一种是声音合成,骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。例如,某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,该财务信以为真,在1小时内转款完成,后发现被骗。 ![]() 图片来源:湖北网警巡查执法 另外还有AI换脸,因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中再利用AI换脸,骗取信任。 ![]() 图片来源:湖北网警巡查执法 近日就有一大学生遇到此类诈骗。肖丽(化名)的大学同学通过QQ跟她借钱。对方打过来一段五秒的视频电话,肖丽看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,于是报案。警方判断,那段视频很有可能是被人换了脸。 除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。 值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是通过AI技术筛选受骗人群,别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,想想你能hold住几个? “我觉得科技的进步也让防范诈骗的难度在提升。发生的原因还在于信息爆炸导致的信息泄露过度。”博通咨询首席分析师王蓬博告诉北京商报记者,不管是个人消费者还是在监管和立法上,都要加强对个人信息的保护,不管是在互联网上还是社交软件上,消费者都要尽量避免过多地暴露自己的信息。另外,要预防此类诈骗,消费者还是要提高警惕,涉及到转账的行为,都要认真核实信息的真实性,及时通过正规渠道联系相关信源。 警方提示:针对花样翻新的智能AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。 如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。 |
联系电话:647-830-8888|多伦多六六网 www.66.ca
GMT-4, 2025-8-4 06:38 PM , Processed in 0.044561 second(s), 23 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.