“AI‘胡歌’竟让反诈领导‘扑空’?上海警方最新通报:已抓获1244名诈骗嫌疑人!

2025-11-27

AI‘胡歌’


骗了反诈中心的领导?


11月23日


上海市反电信网络诈骗中心


发布了一条既有趣又发人深省的视频


视频里


反诈中心的领导


接到了‘胡歌’打来的视频通话


于是特意找到胡歌本人核实


结果发现……对方竟是AI伪造的!


网友们纷纷留言:


太有创意了,笑到停不下来


这波反诈宣传很接地气


得警惕AI诈骗啊!


这条视频看着让人忍俊不禁


可要是自己真遇上类似的诈骗


估计就笑不出来了


下面是闵行警方公布的反诈数据


看完让人十分震惊


↓↓↓


今年以来


闵行警方通过“取现”交易拦截


资金查扣冻结


以及现金流追踪溯源等方式


查扣、冻结涉案资金超5000万元、


黄金5800余克、


抓获犯罪嫌疑人1244名


近日,闵行警方举行了返还仪式


向受害群众集中返还了


电信网络诈骗案件中


拦截到的资金540多万元


在发还现场,市民赵先生向记者讲述了自己被骗的经历。几个月前,他在某网络平台加入了一个投资理财群,群里的“投资老师”自称掌握内幕消息,还承诺跟着他操作短期内就能获得高额回报。


赵先生说:“他们说要是操作得好,一个月收益可能翻倍,因为有老师带着,那老师还说自己在里面赚了几千万呢。”


看到群里不断有人晒出“高额收益”的截图,赵先生一时冲动,给对方转了130万元。转完账后他才察觉不对劲,马上报了警。警方迅速联合银行启动止付程序,在资金被骗子取现前成功拦截了这笔钱。


闵行公安分局刑侦支队民警谭道松表示:“我们其实是在和骗子抢时间,只要能比他们快一步冻结银行卡,被骗的钱就有可能追回来一部分。”


大家一定要提高警惕


如今,AI技术正快速融入我们的生活,带来了不少便利。但技术是把双刃剑,不法分子会利用AI的换脸、变声、精准信息分析等功能,设计诈骗陷阱,让“眼见为实”“耳听为真”的传统判断方式不再可靠。大家务必保持警惕,保护好自己的财产和信息安全。


01


案例速递


一天,老李正在上班,手机突然收到一条陌生短信,还附带一张模糊的老照片。照片里是个穿旧棉袄的小女孩,老李一眼就认出那是童年时的姑姑。他正疑惑许久不联系的姑姑怎么突然找自己,紧接着就接到一个电话,电话那头传来姑姑苍老虚弱的声音,要求他支付赎金,还反复叮嘱不能报警。老李没多想,直接就把钱打了过去。


老李不知道的是,这是一个诈骗团伙。他们用AI修复技术,把从网上搜集来的老照片修复加工,伪造成受害者失联亲人的童年照,再用AI语音合成技术模拟出老年人的声音,编造绑架勒索的谎言实施诈骗。


02


诈骗套路


声音合成:骗子通过骚扰电话录音提取他人声音,获取素材后进行合成,用伪造的声音欺骗对方。


AI换脸:骗子先分析公众在网上发布的各类信息,结合要实施的骗术,用AI技术筛选目标人群,在视频通话时用AI换脸骗取信任,进而实施诈骗。


转发语音:骗子盗取社交账号后,会向账号好友“借钱”,为取得信任,他们会转发之前的语音来骗钱。


AI程序筛选受害人:骗子用AI分析公众在网上的各类信息,根据骗术筛选人群,短时间内生成定制化诈骗脚本,实施精准诈骗。


AI技术能让不法分子轻松“换脸变声”,大家要注意:“眼见”未必为实!下面教你如何辨别AI诈骗:


动作验证法:当视频里的对方(尤其是涉及转账、借钱等敏感要求时)看起来有点“奇怪”,别急着答应。可以让对方做连贯的转头动作,或者用手掌完全遮住脸再快速移开。目前的AI技术在模拟这些复杂的面部遮挡和光影变化时,容易出现卡顿、模糊或扭曲的情况。


声音细节辨真伪:留意语音细节。AI生成的语音有时缺乏自然的呼吸停顿、情感起伏,或者带有轻微机械感、背景杂音异常。如果对方声音“和平常不一样”,一定要提高警惕。


多渠道核实身份:不管视频、语音多逼真,涉及金钱交易或敏感信息时,一定要通过其他可靠途径二次确认。比如挂断后直接拨打对方常用且你熟悉的电话号码(别回拨可疑来电),或者通过共同认识的第三人侧面核实。


编辑:小冉、小刘


审稿:卞英豪


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com