AI乱象:问题根源或在“信任”
如今,“AI”成为近年来最大的风口之一。一方面,与AI相关的行业往往能吸引大量关注,即便发展未达预期,也能获得不少目光。

另一方面,“AI闹笑话”的消息也屡见不鲜。比如知名AI给出奇葩回答,患者因医生治疗方案与AI不同而产生矛盾,专业学者指出AI存在“虚空造史”等问题。
这些问题的根源是什么呢?从技术角度看,可归结为时代局限,当下AI不够完善,模型训练量不足,硬件算力不高。但从非技术角度看,问题或许没那么复杂,各种“AI事故(和故事)”的症结似乎都能归纳为“信任”二字。

先说说用户对AI的“信任”。家中有长辈的朋友可能有体会,教会长辈使用AI后,他们会盲目信任AI的回答。对于大多数非专业人士,即便明知AI回答有问题,也难以指出错误所在。
三易生活内部讨论时曾感叹,部分用户对AI盲目信任,互联网搜索引擎公司不如停掉传统广告业务,直接在AI回答里植入广告。反正只要说是“AI说的”就有人信,出了事还能甩锅给AI,何必搞传统的搜索竞价排名。
那么,用户盲信AI,AI是否也盲信用户呢?答案是肯定的,且程度可能更严重。

使用过AI问答、AI工具的朋友会发现,AI对用户的“忍让度”极大。无论用户问题多么反智,AI都会耐心回答。甚至在某些案例中,AI回答正确,用户却坚称其犯错,AI也会顺从,不会指正。这对想从AI学习知识的人来说,并非好事。
更糟糕的是,AI对用户盲目信任,大语言模型无法区分对话对象是开发者还是普通用户,从而引发“提示词注入攻击”问题。

例如IBM官网的例子,大语言模型无条件信任用户,当用户输入符合开发者习惯的命令时,AI会将其当作开发者并执行命令。

这种攻击的危险性在于,攻击者无需懂编程语言,AI能直接“理解”自然语言。而且此类攻击并非只是“找乐子”。
比如新发布的AI助手软件“Claude”,开发者在使用说明中对注入式攻击发出警告。该AI助手能帮助用户阅读网页、填写表单、撰写和发送邮件,可能会被网页里隐藏的命令语句“蛊惑”,向攻击者发送包含用户隐私的邮件,这是AI盲信用户可能导致的极端糟糕结果。
除了用户和AI之间的“互相盲信”,还有AI和AI之间糟糕的“信赖关系”。如果说用户盲信AI是出于“对威权的崇拜”,AI对用户的盲信是出于商业利益的“刻意逢迎”,那么AI和AI之间的“信任关系”,大多可解释为开发者的偷懒行为。

近期,许多使用DeepSeek V3.1模型的AI服务,推理输出结果会不时出现牛头不对马嘴的“极”字,严重影响编译效率,甚至让回答面目全非。

一位测试过DeepSeek - R1早期模型的网友认为,这可能是R1时期的BUG未在迭代时清理干净,新版模型在自行蒸馏过程中,将其当作“成熟经验”学去了,这是典型的“AI教坏AI”事件。
多数时候,“AI教坏AI”的例子影响力没这么大,但错误程度可能更离谱。如今不少网站文章由“AI生成”,很多AI助手服务靠抓取互联网公开内容生成观点和信息。若AI抓取AI生成的文章,产出的观点又被用于新文章创作,结果会怎样呢?

为此,互联网工程任务组(IETF)颁布新草案,建议使用AI生成内容的网站在标头加入“AI生成”标签,让其他AI知晓内容“可能不靠谱”,避免AI反复“自己抄自己”,使错误内容愈发离谱。不过,该举措并非强制,效果如何只能拭目以待。
本文来自微信公众号“三易生活”(ID:IT - 3eLife),作者:三易菌,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




