“AI诈骗”冲上热搜第一 我们整理了一份普通人反诈指南+ 查看更多
。
除了郭先生的案件,稍早前外媒Gizmodo也报道过一起AI诈骗事件。一位英国能源公司的CEO,在不知情的情况下被骗子采集了声音。随后,骗子将获取到的声音素材进行了AI合成,再利用电话转账的漏洞,将22万英镑转到自己的异国账户上。
按照这位CEO说法,他后来自己听到这段AI合成语音时也惊讶了,因为这段语音不仅模仿出了他平时说话的语调,甚至还带有一点他的口癖。
模仿一个人的声音,对AI来说早就不是新鲜事。今年年初, 微软推出了语音模型VALL-E,甚至只需要3秒就能复制任何人的声音,还可以保持语气,就连环境背景都能模仿 。
图/微软
这项技术显然还不能飞入「寻常百姓家」,但寻常人已经可以通过一些开源的语音合成技术,基于大量的声音数据,也能合成真实无破绽的声音。比如具备语音合成功能的工具Bark,除了声色接近真人,还能加入背景噪音和高度拟真的笑声、叹息和哭泣声等效果。
而在最近两个月,「AI孙燕姿」 也在各大视频平台走红,大量的AI创作者通过「AI孙燕姿」翻唱不同曲风的作品,也让很多网友「重新认识了这些歌曲」,其中「AI孙燕姿」版本的《发如雪》仅在B站一个平台的播放量就接近200万。
图/b站截图
技术门槛的降低,也给了犯罪分子可乘之机。在郭先生的案件中,骗子盗用了其好友的微信,大量的声音素材同样唾手可得,也难怪郭先生从始至终都没发现好友的声音有问题。
当然,就视频聊天而言,我们判断真伪的核心还是「看脸」,毕竟我们在生病的时候声音也会改变,手机的降噪也一直没有被很好地解决。
同时人脸也更容易取得我们的信任。
然而AI换脸的技术其实已经非常成熟。新华社就曾报道,合成一个动态视频的成本在2元-10元,针对大型直播平台,支持实时换脸的全套模型购买价格为3.5万元,并且可以做到很低的延迟和出错率。
除了骗子用AI换脸技术伪装成其他人, 在直播带货中,最近也有很多主播用上了AI换脸,将自己的脸替换成更有知名度和流量的「明星」 ,本质上就是想利用「明星」名气进行带货,也可以称得上另一种诈骗。但更重要的是,这件事说明 AI换脸的成本已经相当低下 。
图/中国新闻网
人们对AI的担忧是应该的,就连孙燕姿本人在针对「AI孙燕姿」的声明中也说,「你可能会反对,说我还是能分辨出区别的,它没有情绪,没有音调和呼吸(或任何你能想到的术语)的变化。很抱歉,我怀疑这只是一个非常短期内的回应。」
AI改变诈骗,普通人如何自处?
回到电信诈骗这件事上,原本骗子的手段就层出不穷,AI技术更让诈骗变得防不胜防。除了监管机构的规范和引导,我们普通人虽然无法影响AI技术的进化速度,但面对AI诈骗,还是有一些事是我们可以做到的。
第一,保护好个人信息。
今天微信早就成为了所有中国人最主要的联系方式之一,在默认情况下都不会想到被盗,特别是互相之间熟悉的人,很容易就会被骗转账。不仅如此,微信上还存有大量的个人信息、语音、文件,可能还包括一些人像视频和身份证,我们都要谨慎处理。
而在微信之外,我们也必须意识到,AI时代,个人隐私数据将变得越来越重要。
AI让核实身份变得前所未有地困难,毕竟从声音到人脸全都能合成,而且技术还在不断地迭代优化。虽然亲自碰面可以避免AI诈骗,但显然这不现实,我们和家人、朋友、同事大量的互动都迁移到了互联网上,也包括数不清的交易。
我们只能学着适应,特别是大金额的转账,不能只靠对方的脸和声音,要在不同渠道进行确认,比如电话和微信。如果可以,最好还要多问一些问题,最好只有双方知道。
第三,及时拨打110报警。
。