必发365游戏登录永利的炸金花是假的吧

  在这个满是「照骗」的年代,我们可能更相信「耳听为实」。比方说在用微信或者支付宝给好友转账的时候,很多人都会像骚尼一样先让对方发一句「语音」作为接头暗号。说什么都行,只要能听得出那是「本人」。然而,这种自认为靠谱的认证方式,其实早就被诈骗分子Shutdown了。

AI变声

骗术一:语音提取法

  首先和大家讲的这个骗术在国内有个流传更广泛的名字——「微信克隆」。毕竟树大招风,超10亿的用户量很难不让诈骗分子盯上。所谓的微信克隆实际上是通过木马程序盗取微信号并提取微信号语音数据来实施诈骗的一种手段。安徽卫视在去年底就曾经报道过这样的案例:

AI变声

  河北石家庄的一位董女士收到其父亲的微信,后者称自己在超市买东西需要董女士转200块钱。董女士也非常警惕的用语音回复「爸,是你吗?」,对方随即回复了一句「是我」。董女士听后确认这是自己父亲的声音,便把钱转了过去。直到晚上回到家与父亲聊起,董女士才意识到受骗。

AI变声

  诈骗分子就是通过克隆的微信号将其中的关键语音信息发送给好友(例如上述案例的「是我」以及「没错」、「好的」这类短语音),降低好友的防范意识,从而成功诈骗。

  有人会说:被骗的话只能说明你们这些人的防范意识还不够强,直接打个微信电话一问就都完事儿了。骗子总不能老是回复你「我是,我是」吧?

  还真不能。像下面这类用上了AI技术的诈骗分子,在你转钱之前还能和你唠唠嗑。

骗术二:AI变声畅聊法

  就在上月底,华尔街日报报道了一个利用AI变声的诈骗案例。犯罪分子利用AI软件合成英国某能源公司德国母公司CEO的声音,并成功诈骗转移了22万欧元(约合人民币173万元)。

AI变声

  根据该英国公司CEO描述,他接到了德国母公司老板的电话,对方要求他在1小时内给匈牙利供应商转账22万欧元。整个通话过程中,这位英国CEO没有丝毫怀疑对方身份的真实性,因为对方正操着与老板同样腔调的德味儿英语和他讲话。所以,这笔款项非常顺利地进入了诈骗分子的口袋。

  然而,诈骗分子并未就此收手。在收到款项后,这位英国CEO又连续两次接到「老板」的汇款命令。若不是第三通电话的通信位置(来自奥地利)引起了公司行政部门的怀疑,该CEO可能仍被蒙在鼓里。经调查,已转账的22万欧元被转移到墨西哥等多个地方,诈骗分子身份至今仍未确定。

AI变声

  负责处理此次案件的欺诈专家Rüdiger Kirsch表示,这是他们首次应对「语音钓鱼(Vishing,以AI技术模仿受害者声音实施诈骗)」案件,对于受害公司以及调查当局来说都是一次全新的挑战。未来可能会有更多的声音遭到模仿,目前尚未有很好的应对措施,形势并不乐观。

  试想一下,如果国内的骗子把AI变声技术应用进微信诈骗,多少人会中招?

你离被AI克隆,只差一念

  有不少人认为,这种和我们隔着8个时区的骗局远在天边,不痛不痒,因此也无须杞人忧天。事实上,AI变声的技术已经相当成熟,国内部分科技公司甚至已经将这项技术应用到了一些产品之中。天天为你「高德导航」的志玲姐姐,据科大讯飞董事长刘庆峰介绍就是通过机器合成的。而在最新版本的「搜狗输入法」中,你甚至可以通过内置的变声功能模仿马云、周星星。

  更关键的一点是,和之前闹得沸沸扬扬的DeepFake以及近两周被用户「Q毙」掉的ZAO一样,AI变声技术同样能够从网上获得相关的开源代码。在一些论坛上,你甚至还能找到现成的训练工具(B站之前还有UP主上传过使用教程,目前已被屏蔽)。也就是说,AI变声技术的使用门槛并不高。

AI变声

  遗憾的是,目前防范AI诈骗的技术手段还比较匮乏,「以AI制衡AI诈骗」的方案也还处于谈兵阶段。但诈骗分子不会等着我们,在防范措施上线之前,他们会最大化地疯狂输出。想要不遭此类诈骗侵害,我们目前最好的方式还是「不乱用软件,不乱点链接,不乱看网站,不随意填写隐私信息」。万一上当受骗,「不要紧张、不要私了,找警察叔叔才是更安全有效的应对途径」。

  中秋将至,愿科技向善。

网友评论