社会评论:对“AI生成谣言”说不,让网络环境更加清晰。

01-15 08:10


根据央视1月12日的新闻报道,近日,西藏日喀则市定日县发生6.8级地震后,网络上不断发展着一系列“小男孩被埋图”。经过公安机关审查,上述图片由AI工具创作,青海某网友将其与日喀则地震信息联系起来,造成谣言扩散。当前,涉案人员已被当地公安机关依法行政拘留。警方发现,地震发生后,来自世界各地的网友参与了数百条地震谣言的发布,有的利用过去地震现场的图片假冒定日灾区现场,有的利用过去地震现场的图片制造虚假信息,比如“走在路上体验地震瞬间”,还有人工智能工具参与创作。


地震发生后,一些自称来自灾区的视频和图文信息无疑备受关注和欢迎。随着“小男孩被埋在地图里”的不断发展,人们原本悲伤的心情增添了另一层阴云。在一个短视频平台上,以这一系列图片为内容的出版商数十人,一些单项作品获得了1万多份评价数据,很多网友质疑“孩子怎么样了”。


事实上,每次发生地震、泥石流等地质灾害、暴雨等极端天气灾害和一些重大事故,往往都会有传言,随机编制相关视频,如遇难人数、恶意猜测原因或“移花接木”。大部分目的是收获关注度,实现流量实现。


让谣言付出代价是人们的共同心声,但很多时候,谣言还是跑在真相前面,有时候谣言甚至成了生意。目前AI生成的内容门槛低,难以定制和识别,文生图片、图片视频、爆改视频都很容易。在短视频时代,信息的传播只需要“点击”,很多人不会认真辨别真伪,这也加剧了虚假信息的病毒传播。


面对地震这样的重大事件,谣言的危害不容小觑。第一,制造虚假热点,恶意消费公众的注意力和同情心,以及人们布下爱心捐赠类骗术。第二,影响一线救援工作的秩序和节奏,影响数据的收集判断和救援力量的分配。此外,谣言对各战线的救灾人员、遇难者及其亲属都是极大的不尊重,甚至可能造成二次伤害。还需要注意的是,“谣言-流量-实现”的路径可能会带来一些负面的鼓励。比如这个“小男孩被埋的图片”刚刚被传言,就有网友发表了“过一段时间就到了。××这个地方,经验之谈”“300多年来一次大的,两次大的”等言论。


随着谣言生产成本和批量越来越低,公众必须保持警惕,多思考,少随意分享,对没有权威来源的信息要特别谨慎。从长远来看,针对AI工具参与谣言制造和传播,更需要加强技术抵抗。一方面,随着AI接受的基础材料越来越多,其信息会越来越真实,相应的识别和打击会更加困难。相关部门必须从技术抵抗的角度考虑如何高效管理生成型人工智能技术及其产品,早期预防和早期治疗不良迹象;另一方面,相关平台应完善技术手段,加强对深层生成内容的管理——目前,很多平台要么没有提醒AI生成信息,要么字体很小,有些审核机制滞后甚至“先给后审”,给谣言传播留下了很大的空间。近年来,国家有关部门颁布了深层生成服务管理规定、生成人工智能服务管理规定等。,这些都明确表示不应该使用AI或深层生成来炮制谣言,也不应该使用AI来传播谣言。


近几年来,关于如何使AI技术向上向善屡屡引发热议。对于普通人来说,“AI赋能”是更有利还是更有“韭菜味”,往往与技术开发和应用方坚持哪些价值观、发展观、相关平台和监管行为密切相关。无论是“每一件大事都有谣言”还是“每一个谣言都有AI”,都提醒我们,治标要治本,要以前瞻性的思维布局进行规划,让打击谣言事半功倍。


灾难的话题是严肃而严肃的。相关方绝不允许“吃流量馒头”的次生灾害反复发生,相关违法行为也必须受到处罚。这是规范网络秩序、让社会更文明、更法治的需要,也是减少公众恐慌、让社会更加信任、更加良心的需要。


原标题:“社会评论:对“AI生成谣言”说不,让网络空间更加清晰”


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com