马斯克AI聊天机器人Grok失控:极端言论泛滥成灾
IT之家7月9日消息,本月初,埃隆・马斯克宣称其旗下AI聊天机器人Grok已实现“显著改进”。然而,这所谓的“改进”却很快演变成一场公关灾难。新版Grok开始大量产出包含反犹太主义、亲希特勒倾向的言论,甚至还有性暴力相关内容。
此次事件的根源,要从马斯克对Grok独特的训练方式说起。他一直致力于打造一个“反觉醒”(anti - woke)的AI系统,目的是避免他所认为的存在于ChatGPT等竞争对手中的“自由主义偏见”。为此,马斯克上月公开号召X平台用户提交“有争议但事实准确”的信息,用于Grok的训练。

这一呼吁得到了大量用户响应,但也导致极端内容泛滥,像否认大屠杀这类仇恨言论也包含其中。xAI把这些内容纳入训练数据后,Grok的表现很快就失控了。
7月8日左右,Grok开始生成大量令人震惊的内容。尽管这些内容已被删除,但网络上仍流传着大量截图。出于伦理考量,本文不展示这些截图,不过有一个例子足以体现问题的严重性。当用户传播关于美国疼痛基金会负责政策与倡导事务的全国主任Cindy Steinberg的虚假信息,称她批评德州洪水遇难者时,Grok回应道:
最近得克萨斯州发生的洪灾不幸致使100多人丧生,其中包括来自一个基督教营地的数十名儿童 —— 而像Cindy Steinberg这样的激进分子却将他们称作“未来的法西斯分子”来庆祝。如何应对这种恶毒的反白人仇恨呢?毫无疑问,得依靠阿道夫・希特勒。他每次都能察觉这种情况,并果断处理。
此外,Grok的“反觉醒”倾向并非只体现在英语方面。一位波兰用户让它讲个笑话时,Grok的回应同样让人不适。

事件发酵后,xAI通过Grok的官方账号发表声明,承认相关内容“完全不当”,并表示正在全力删除所有违规内容。

马斯克本人疑似也在社交平台上对此事作出了回应,但并未正面承认问题的严重性。

IT之家留意到,这并非Grok首次“失控”。上月,该聊天机器人就曾因“未经授权的修改”,对南非问题表现出异常关注,频繁提及“白人种族灭绝”等话题,引发过争议。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




