发现1例!注意防范

文章正文
发布时间:2024-11-09 03:38

AI换脸换声诈骗的案件

和您视频通话的人

可能是骗子伪装的!

诈骗分子运用AI技术

一键换脸、声音合成

让人防不胜防

大家一定要提高警惕!

淮安市公安局反诈预警

警情通报

2024年3月3日,淮阴区刘某收到同学发来的QQ消息,称其QQ转账被限制,希望刘某能帮忙发QQ红包给其表姐。同学向刘某要了微信收款码,随后发来了一张转账截图,声称设置了“2小时后到账”,但是表姐急用钱希望刘某能尽快转账。刘某有些犹豫,就询问对方现在人在哪里,对方发来了一段视频,声音和容貌都是同学本人,刘某彻底打消疑虑。之后,同学将刘某拉进一个QQ群中,多次让刘某在群里发QQ红包,共计6499元。当刘某银行卡内没有余额了,同学微信转账一直未到账,这才觉得不对劲,选择报警。

淮安市公安局反诈中心

2024年4月

01

AI诈骗常见手法

声音合成

诈骗分子通过各种方式提取声音素材,获取声音特征后进行声音合成,之后通过背景环境渲染并添加合成后的声音进而实施诈骗。

AI换脸

人脸效果更易取得信任,诈骗分子利用算法精准地识别素材视频中的人脸图像,提取如眼睛、鼻子、嘴巴等关键面部特征,再将这些特征与目标人脸图像进行匹配、替换、融合,生成视频或照片来“以假乱真”,进而实施诈骗。

警方提醒

01

保护信息、杜绝泄露。不随意在网络上暴露人脸、指纹、声音等个人信息。

02

多重核验,确认身份。可以让对方在脸前挥手、摁鼻子、捏脸等,观察其面部是否出现变形、抖动等。还可以拨打对方常用的电话号码,而非所谓的“新号码”,进一步核实对方身份。

03

杜绝诱惑,提高警惕。不登录、不下载来路不明的网站、软件,不点击不明平台发来的广告、中奖信息,以免被病毒侵入。

04

如不慎被骗或遇可疑情形,请注意保护证据立即拨打110报警。

原标题:《发现1例!注意防范》

首页
评论
分享
Top