- +1
【防诈骗】注意!眼见不一定为实,AI变声换脸诈骗来了!
AI诈骗,你知道吗?
“一键换脸,和你爱的明星小哥哥合影”
“大叔秒变萝莉御姐网红音”
AI变声换脸应用玩法多样
你有没有尝试过?
相信很多人看到这张图,
都是傻傻分不清楚?
AI技术带来方便与乐趣的同时,
也被爱凑热闹的骗子们盯上了!
利用它玩起了“真假美猴王”
AI诈骗常用手法
level1 合成声音
骗子通过拨打骚扰电话并录音等方式提取到某人的声音,在获取素材后对对声音素材进行合成,从而伪造出可以用于诈骗的声音内容,进而使用这些伪造的声音实施。
案例回顾
近日,从事财务工作的小王接到“领导”电话,要求其立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由注明为避免缴纳滞纳金。由于电话中“领导“”的声音和平常十份相近,小王并没有发现异常,就听从了“领导”的指示在1个小时内给对方转款2万元。后来与真正的领导联系才发现自己被骗,连忙报警。
level2 AI换脸
骗子首先会在网上搜集公众发布的照片、视频等各类信息,并对搜集到的信息进行分析,然后根据所要实施的骗术需求生成假脸,再通过AI技术筛选目标人群。最终在视频通话中利用AI换脸,骗取受害人信任后实施诈骗。
案例回顾
近日,小李的“大学同学”通过QQ跟她借钱。为了打消小李的顾虑,对方还打来一段四五秒的视频电话,小李见视频中的人确实是“同学”本人,便放心地给对方转了3000元。然而,没过多久“同学”又提出了借钱的请求,就在小李准备第二次转账时,她察觉到了异常,便给对方打了电话,这才发现同学的账号被盗,和自己借钱的并不是同学,马上报警。
如何防范?
HOME
面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:
多重验证,确认身份
01
目前,AI换脸难以肉眼区分。所以,在涉及钱款时,最好能够当面确认,如不方便也应该通过电话等多种方式进行验证身份,不要轻信视频、语音等形式的借钱信息。记住有时候眼见不一定为实!
保护信息,避免诱惑
02
日常生活中要加强个人信息的保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防
03
应该做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账,做到“不听、不信、不转账”!
来源:中国警察网
原标题:《【防诈骗】注意!眼见不一定为实,AI变声换脸诈骗来了!》
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司