看完AI变脸综艺节目后,AI诈骗让我背部发凉。

2024-05-05

AI技术的发展已经逐渐渗透到各个领域,电影和电视剧的制作方式也发生了很大的变化。AI脸部交换技术已经成为影视圈的重要组成部分。


近日,在一档名为《萌探2024》的综艺节目中,有一档以“反诈骗”为主题的节目,设计了一个既刺激又具有挑战性的游戏阶段。嘉宾需要通过AI换脸技术打扮成亲戚朋友,通过视频聊天获得别人的认可。


这个综艺节目把AI变脸玩出了新的创意,让很多观众搞笑不断,但是笑过之后对AI诈骗不寒而栗。


反诈骗主题综艺节目,AI变脸惹观众搞笑


四月二十六日,由爱奇艺制作的全开放IP任务抵抗真人秀《萌探2024》开播。节目中精彩的AI变脸体验给观众带来了惊喜。节目播出后,人气持续升温,众多话题在全网各大社交平台上热搜,其中#向太没有认出向佐#在微博榜上排名前7。、#高叶效仿吴镇宇一模一样#登抖音热榜TOP4、#向太要和吴镇宇交换孩子#登上TOP9的抖音热榜。


作为节目的亮点,向佐和黄子韬的表演无疑是这个节目的高潮。他们选择了吴镇宇和向佐的形象来改变他们的脸,然后打电话给向太。这一举动无疑是对向太智慧的考验,也是对观众洞察力的挑战。


令人惊讶的是,作为视频通话的对象,向太似乎没有注意到这种变化,并与AI变脸后的“向佐”和“吴镇宇”交谈。之后,在陈岚的帖子里,她嘲讽自己好像被向佐“电信诈骗”了,并提醒大家注意AI变脸诈骗。


此外,高叶AI变脸成吴镇宇骗古力娜扎,孟子义AI变脸成高叶邀请演员王阳参加综艺节目也没有被发现。徐志胜变脸杨坤给张碧晨视频被发现是因为他恰好在身边,而其他人因为声音和脸型的巨大差异而在几分钟内被识破。


事实上,在2023年11月的《王牌对王牌第八季》中,AI变脸打视频电话的游戏环节也安排在以“反诈骗”为主题的第一期节目中。其中,当大家都把AI变成“沈腾”的时候,整个游戏就更搞笑了,好像每个平行宇宙的腾哥都聚在一起开会。


无论是《王牌对王牌第八季》还是《萌探2024》,节目中的AI变脸环节都有着出色的直播效果,节目嘉宾和观众都很开心。但是笑过之后,AI变脸技术的逼真程度真的很震撼,很多时候真假难辨。


节目不是简单的停留在搞笑的方面,而是肩负着社会责任,也就是电信诈骗。对于很多人来说,AI变脸诈骗离我们的生活比较远,节目中明星的言行会让大家真正意识到这项技术的真实性很难区分,然后在生活中保持警惕。


《王牌对王牌第八季》还邀请了来自浙江各地的嘉宾和警察拍摄“剧场”,介绍了AI技术的工作原理,并分享了反诈骗技巧。《萌探2024》与“平安北京”等数十家公安新媒体矩阵账号联动,发起了“萌探2024向反诈骗英雄致敬”的科普反诈骗知识话题。


随着生成型人工智能技术的发展,通过AI技术改变脸型和声音来模拟另一个人的真实外观已经不再困难。据不完全统计,近年来AI诈骗案件数量迅速增加,仅2023年全国就发生了至少16起。


AI变脸案急剧增加,AI产生的声音使骗术更加准确。


去年7月17日,一名女子在社交软件上添加了一个自称是埃隆·马斯克的账户。在聊天过程中,她得到了该女子的认可,并很快骗取了7000万韩元(约36万人民币)。



最后,为了安抚受害者,该账户还发送了一段音频,声称“我是埃隆·马斯克,希望听到这个录音文件后能放心”,但专业人士分析了这个录音,确认是AI生成的。


今年年初,香港警方披露了涉及深度AI造假技术的复杂骗术,一家跨国公司的香港办事处遭受了1.8亿元的重大财务损失。该公司首席财务官和其他员工通过AI技术出现在视频电话会议上,指示员工转移资金。


因为其他参与者看起来和听起来都像他认识的同事,最后员工相信电话里的其他人都是真实的,所以他们同意汇总。 2 约合1亿港元(约合 2560 万美金)。


今年3月1日晚,刘德华电影公司发表声明称,微信客户“华仔共享团”及其相关号码利用AI生成刘德华声音,未经授权在微信上发布视频编辑,误导公众,利用刘先生的知名度获取流量,销售商品盈利。这一行为侵犯了刘先生的肖像权、姓名权和声音权,并涉嫌欺诈。



AI变脸已经很难区分真假,而AI产生的声音让整个骗术更加逼真。在社交平台上,很多留学生发帖称,他们遇到了利用AI生成自己的声音在中国欺骗父母的情况。这些诈骗以绑架的名义释放了AI产生的求助声音,同时利用时间和空间的差异,在引起恐慌的心理下骗取了大量金额。


所以,在享受科技带来便利的同时,也要提高警惕,不断提高自己对科技安全的理念和预防能力。正如陈岚在节目结束后的帖子中所说,“我们必须小心现在的AI变脸技术,谨防被变脸的亲戚朋友欺骗”。AI变脸不仅是综艺节目中的一个小游戏,也是我们生活中真正的诈骗手段。


面临AI诈骗,我们该怎么办?


无论技术如何发展,很多诈骗套路都是以不变的方式应对一切变化:盗取隐私,用恐惧、贪婪和情感价值编故事,假冒熟人或包装自己获得信任,以金钱为最终目标。


诈骗者通常会把自己的AI变脸,打扮成家人、朋友、同事、领导等有一定交集的熟人。如果他们想完美地欺骗受害者,他们需要提前获得面部、声音等重要信息。因此,我们总结了一些预防欺诈的意见:


验证身份:1.验证:如果你收到一个声称是亲戚朋友或同事的紧急求助电话或视频聊天,你应该通过其他方式检查对方的真实身份(比如直接拨打对方已知的电话)。


保护个人信息:2.个人信息:别轻易分享个人生物信息和社交帐户,同时要警惕社交媒体上的隐私设置,限制不熟悉的人获取个人信息。


注意异常:3.注意:沟通时要注意对方的行为是否与平时一致,如语言习惯、说话风格等,如有不寻常之处,要提高警惕。


双验证:4.双验证:对重要的操作要求,如转账汇款,双重验证标准,如通过银行官方渠道或零距离确定。


反诈骗普及:把这种诈骗手法普及给家人朋友,尤其是老年人和不熟悉科技产品的人,因为他们更容易上当受骗。


使用安全软件:6。为避免恶意程序收集个人信息,确保电脑和手机安装了最新的安全软件。


关注官方信息:7。密切关注政府、金融机构和网络安全机构发布的反欺诈提示和警告。


8.报警处理:如果发现有可能发生变脸诈骗,应立即停止所有交易并联系警方。


除了提高警惕意识和自我防范之外,还需要法律、法规等各方面的控制。对于AI面部交换技术,一般采取一系列法律应对策略,包括加强监管、制定严格的法律法规、追究相关责任人的法律责任等。此外,数字水印、身份认证等技术手段也可用于防范和打击非法行为。



为了规范人工智能的发展,去年1月10日,国家互联网信息办、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理条例》正式实施,生成数据和技术管理条例明确。其中提到:深度生成服务供应商应在不影响使用的情况下添加使用服务生成或编辑的信息内容的标志。如果提供生成或显著改变信息功能的服务,如智能对话、生成人声、人脸生成、沉浸式拟真场景等。,应显著标记,以防止公众混淆或误解。


近日,一些平台和企业发布了“关于人工智能生成内容的平台规范和行业倡议”,明确禁止使用生成人工智能技术创作和发布侵权内容,包括但不限于肖像权和知识产权。一旦发现,平台将受到严厉处罚。


近年来,随着人工智能技术的快速发展,人工智能在许多领域取得了惊人的成就。从语音助手到自动驾驶,从医疗诊断到金融风险控制,人工智能对我们的生活和工作产生了深远的影响。然而,随之而来的安全隐患不容忽视。我们应该更加重视对人工智能技术的监督和规范,以更好地发挥积极作用,最大限度地避免其不良影响。


写在最后


AI浪潮的席卷也让诈骗更加猖獗,而第二期AI变脸综艺节目则是在搞笑的同时宣传诈骗知识,帮助更多人认识到AI变脸诈骗的严重性。作为普通人,我们通常是技术变革浪潮中的一朵浪花。面对超乎想象的迭代AI技术,我们所能做的就是跟上时代。


虽然我们不能因为噎着而浪费食物,但我们不能忽视它的双刃剑效应。如果缺乏适当的规则,AI可能会打开潘多拉魔盒。因时制宜,扬长避短,可以促进科技辅助生活的美好未来。


本文来自微信微信官方账号“元宇宙新声”(ID:NFTMall),作者:元时文化,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com