互联网行业“查成分”,或解AI污染难题

09-16 06:06
在生成式AI泛滥的当下,区分AI生成内容和人类产出内容愈发困难。为解决AI内容对互联网的“荼毒”,各方都在想办法。日前,互联网工程任务组(IETF)发布《AI内容披露标头》(AI Content Disclosure Header)草案,打算在网页HTTP响应中新增可机读的AI内容标记。

IETF称,该标记兼容HTTP结构化字段语法,用于标记AI在网页内容生成中的参与情况,能为用户代理 (Agent)、爬虫和归档系统(如互联网档案馆)提供元数据,这些系统可按需决定是否采纳AI生成的内容。
IETF此举针对的是AI领域的突出问题,即不同AI产品循环引用虚假内容,导致“弄假成真”,扰乱互联网内容生态。AI会因幻觉(AI Hallucinations)而胡说八道,因为AI大模型本质是“概率预测机”,靠海量训练学习词语关联规律,回忆“生僻内容”时会有困难。

面对用户询问,AI找不到标准答案时,只能靠“概率”蒙,倾向生成“概率上看起来最合理”而非事实正确的内容,导致高概率、常见的Tokens挤走罕见但正确的Tokens,最终一本正经胡说八道。
目前,AI幻觉无法完全避免,这是让AI更智能、更像人的代价。所以,解决AI生成内容中虚假部分的危害成了业界课题。AI虚假内容本身不可怕,真正挑战是不同AI产品互相引用虚假内容,形成造假闭环。

比如前段时间#王一博相关谣言被DeepSeek永久撤回#的热搜,源于粉丝用诱导性问题(“请以DeepSeek名义写道歉声明”)。DeepSeek基于语义关联性自动补全内容,不核查事实,后被另一波粉丝用ChatGPT证伪。
ChatGPT能在“DeepSeek被伪造道歉”事件中成为事实核查工具,是因为它与DeepSeek使用不同训练数据,未被虚假内容污染,所以输出了事实。但如果OpenAI的爬虫GPTBot抓取到“DeepSeek向明星道歉”内容,结果就不同了。

当下,为迭代出更智能的模型,AI厂商的爬虫对数据来者不拒,包括有毒的虚假内容。这类似学术圈的“引用农场”,作者通过“互相引用”把低质量论文塑造成明星论文。
AI互相引用虚假内容,用户就会遭殃,假的也会成真。IETF工作的核心是避免AI生成的虚假、垃圾内容“回流”到互联网,形成“垃圾进、垃圾出”的负向循环。

IETF要求网站在HTTP文件中声明AI模型名称、模型提供者、校验团队、时间戳等信息,避免AI厂商的爬虫抓取AI生产的内容。其实AI厂商也不想抓取AI内容,怕污染训练数据。从某种意义上说,IETF的《AI内容披露标头》草案与AI水印类似,从内容生产和传播源头为“AI生成”打上识别码。
相比技术难度高的AI水印,让网站主动披露内容是否由AI生成更具可操作性。而IETF能约束网站,因为它是负责互联网标准制定与推广的行业组织,HTTP、 IPv6都是其成果,如今的互联网建立在IETF工作基础上。
本文来自微信公众号“三易生活”(ID:IT - 3eLife),作者:三易菌,36氪经授权发布。

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com