人工智能快速发展,最先获利的是利用AI换脸技术的骗子?
近日,包头市公安局电信和网络犯罪侦查局公布了一起利用智能人工智能技术实施电信诈骗案。警方与银行联合成功截获涉嫌电信诈骗资金330万余元。
4月20日中午,福州某科技公司法定代表人郭先生的朋友突然通过微信视频联系到他。他的朋友在外地竞拍,需要430万保证金,并且需要公对公转账。他想向郭先生的公司借钱。账户转账。基于对朋友的信任,并已通过视频聊天验证了其身份,郭先生在未核实钱是否到账的情况下,分两期向朋友的银行卡转账了430万。郭先生拨打朋友的电话后才发现自己被骗了。骗子利用智能AI换脸和拟声词技术冒充朋友对其进行诈骗。
值得注意的是,骗子并没有使用模拟好友微信添加郭先生为好友,而是直接使用好友微信发起视频聊天。这也是郭先生被骗的原因之一。骗子很可能是利用技术手段窃取了郭先生朋友的微信账号。福州、包头警方银行接到报警后,迅速启动止付机制,成功止付,截获336.84万元。但仍有93.16万元被转移,目前正在全额追回中。
AI诈骗成功率接近100%?
郭先生的经历并非个案。此前,一位拥有百万粉丝的女网红爆出了一起“AI换脸”事件。这位女网红表示,她的视频评论区突然挤满了人,说看过她的“视频”,但她从来没有发过这样的视频。
她疑惑地打开视频,发现里面的女孩长得一模一样,却在做着一些难以形容的动作,这让她感到非常愤怒和无奈。然后她意识到她的脸可能被人工智能(AI)窃取了。
![]()
事实上,近两年来,在浙江、安徽、江苏等地,已有多名窃取个人信息的犯罪嫌疑人被公安部门抓获。犯罪嫌疑人的犯罪过程非常相似:首先非法获取他人照片或付费购买他人声音等“素材”,然后利用人工智能技术将照片“激活”并合成动态视频,然后直接在社交平台和支付宝账户上欺骗人们。人脸验证机制牟取非法利益;或在手机卡注册过程中欺骗人工审核流程,进而利用他人名义的手机号码进行电信网络诈骗、网络赌博等,致使信息被收集人遭受安全威胁和财产损失。
既然人工智能应用如此广泛,那么利用人工智能进行诈骗的常见手法有哪些呢?
首先是语音合成。骗子通过骚扰电话录音等方式提取某人的声音,拿到素材后再合成声音,从而可以用伪造的声音欺骗对方。
第二种是AI换脸。人脸效应更容易获得对方的信任。骗子利用人工智能技术换脸。他们可以假装成任何人,然后通过视频确认信息。诈骗者首先分析公众在互联网上发布的各类信息,并根据他们想要实施的欺骗手段,利用人工智能技术筛选目标人群。使用人工智能在视频通话期间换脸以获得信任。
第三种是骗子盗取好友微信号后转发微信语音向好友“借钱”。为了取得对方的信任,他们会转发之前的声音来骗取钱财。微信虽然没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件)来实现语音转发。
第四种方法是利用AI技术筛选受骗人群。骗子并不是漫无目的地撒网,而是别有用心地针对特定目标。他们会根据想要实施的欺骗手段对人群进行筛选,从而选择目标。

不轻易提供人脸、指纹等个人生物特征信息。
包头市公安局反诈骗中心民警告诉媒体,智能AI诈骗是指不法分子非法获取他人照片或付费购买他人声音等“素材”。只需要少量的音视频样本数据,就可以合成媲美真人的假音视频。通过模拟创建的动态人物不仅可以点头、摇头,还可以完成眨眼、张嘴、皱眉等丰富的表情。效果极其逼真,可用于进行精准诈骗,侵犯他人人身财产安全。
警方提醒,公众应增强防范新型智能AI诈骗意识,不要轻易向他人提供人脸、指纹等个人生物识别信息,不要过度披露或分享动画图片、视频、 ETC。;在进行网上转账前,应通过电话等方式与他人沟通,利用各种沟通渠道核实对方身份,发现风险及时报警求助。如果有人自称“熟人”、“领导”通过社交软件或短信以各种理由诱导您汇款,请务必通过电话、会议等方式核实,未经核实请勿转账,请勿轻易泄露身份证、银行卡。 、验证码等信息。如果您不小心被骗或遇到可疑情况,请保护证据并立即报警。
中新经纬综合从北方新闻网、平安包头公众号、贵州司法公众号、半月谈等处获取信息。