GPT-5.4核心内幕曝光:永久记忆或成真,极限推理能力狂飙
【导读】GPT-5.4即将登场!目前已开启测试,单次可生成6000行代码,外媒爆料其具备极限推理模型,甚至可能拥有永久记忆功能。
若你觉得近期AI圈略显平静,缺乏刺激,那或许只是风暴来临前的短暂宁静。
据多方消息,GPT-5.4已蓄势待发!

LMArena平台上,GPT-5.4的身影已悄然出现。

就在刚刚,外媒The Information披露了GPT-5.4的诸多核心内幕。
消息足够震撼:它拥有更长的上下文处理能力、更强大的极限推理模型,甚至可能具备永久记忆!

若传闻属实,这一代模型绝非简单升级,而是能力形态的重大跃迁。
GPT-5.4提前测试,代码能力惊艳
近期,GPT-5.4的相关信息不断流出。

从Codex错误日志、GitHub PR到员工误发截图,短短几天内,GPT-5.4至少被“曝光”三次。

这些信息均由OpenAI自身意外泄露。
最初,开发者Corey Noles使用OpenAI Codex时触发网络安全限制,系统返回的错误日志中出现一串长模型名称:
- gpt-5.4-ab-arm1-1020-1p-codexswic-ev3
其中最关键的是开头的“gpt-5.4”。
这串字符可视为OpenAI的内部部署ID,表明这是一个真实部署、正在测试的GPT-5.4实验版本。

随后,OpenAI官方Codex仓库出现两个Pull Request:
一个PR写道:
- minimummodel version = (5,4)
另一个PR更直接:
- toggleFast mode for GPT-5.4
看来OpenAI为GPT-5.4添加了“Fast Mode”开关。几小时后,这两个PR被强制推送删除。
更具戏剧性的是,OpenAI Codex团队员工Tibo在社交平台发布截图,模型选择器中清晰显示“GPT-5.4”。

不久后该帖子被删除。
随后有开发者报告在Codex错误信息中看到类似模型字符串,进一步证明GPT-5.4已部署在内部服务器,正在进行A/B测试。
单次提示生成6000行代码?
部分测试者反馈,模型推理速度明显提升,代码生成长度增加,甚至单次提示可生成6000+行代码!

这在以往难以实现。
还有用户发现新特征“Fast Mode”,推测OpenAI可能在尝试新的推理架构,如多级延迟管道或不同速度档位模型。
此外,新模型界面特征也被发现:部分用户表示,若在推理摘要(Chain-of-Thought summary)旁看到点赞或点踩按钮,可能意味着账户已被分配到GPT-5.4测试模型。
极限推理模式,性能大幅提升
The Information的爆料与上述信息完全吻合。
此次爆料中最引人注目的是“极限推理模式(Extreme Reasoning Mode)”。
传统模型思考时间有限,而该模式能让模型性能拉满,遇到难题时可花费更多时间、调用更多计算资源进行深层推理。
有趣的是,调查显示许多普通ChatGPT用户对推理功能兴趣不大,从商业应用角度看,企业更希望AI快速给出答案。
因此OpenAI仍重视推理能力,动机显得更为纯粹。
不过,这对科研领域和部分企业客户是重大利好。
在科研领域,许多用户愿意让模型在有价值的研究问题上运行数小时甚至数天;部分企业也需要GPT-5.4更强的推理能力和长周期任务表现,以构建能自动化复杂业务流程的AI智能体。
各方爆料称极限推理模式将非常强大,这也拉满了大家的期待。
上下文窗口翻倍,达100万tokens
GPT-5.4的另一硬核升级是上下文窗口从40万tokens提升至100万tokens,超过当前GPT-5.2的两倍(部分OpenAI模型如GPT-4.1支持100万token,但5.2不支持)。
这意味着GPT-5.4可处理几十万字文档、分析整本书籍或长代码库与数据,在长上下文能力上追平谷歌Gemini和Anthropic的Claude。
坊间甚至有更夸张的爆料称上下文达到200万tokens!

GPT-5.4更擅长“长任务”
爆料还提到GPT-5.4在持续数小时的任务上表现更优,能更好记住用户请求细节、自身权限及避免错误。
这对OpenAI的Codex编程工具帮助极大,因为Codex正是用AI自动化复杂长时间任务;同时对AI Agent也很关键,Agent可自主读取需求、查资料、写代码、修bug,无需每步人工提示。
GPT-5.4或具备永久记忆?
最疯狂的传闻是GPT-5.4可能拥有永久记忆!
一位工程师在X平台爆料后,AI社区瞬间沸腾,硅谷投资大佬、YC创始人Garry Tan也迅速转发。

爆料人介绍了GPT-5.4的“持久状态”,Jeff Dean在latentspacepod播客中也提到相关方向,可见各大AI实验室都在探索。
有人猜测OpenAI内部可能已找到大规模有效结合状态空间模型(SSM)和Transformer的方法。SSM设计本身能在每步计算中持续传递隐藏状态,计算复杂度线性增长,不像Transformer随上下文长度呈二次增长,这与上下文达200万token的传闻相呼应。

持久化状态本质上让AI模型从《记忆碎片》中依赖短期记忆的角色,转变为《雨人》中拥有稳定持久记忆的角色,赋予其真正的长期记忆能力。若能实现,将是重大技术突破!

竞争压力下,OpenAI开启“月更”模式
GPT-5之后,OpenAI明显加快模型更新节奏,今年已推出GPT-5.1、GPT-5.2,GPT-5.4也即将到来,更新频率接近每月一次。
显然,OpenAI是被竞争对手逼到了墙角。
目前ChatGPT周活跃用户达9.1亿,虽数字惊人,但未达OpenAI 10亿WAU目标。谷歌、Anthropic等竞争对手在长上下文、Agent、推理能力上持续发力。
若GPT-5.4真具备100万长上下文、极限推理、持久状态,AI形态可能变成持续工作的智能体;若能“记住事情”,或将成为大模型发展的关键节点。
奇点已至,我们正加速前行。你,准备好了吗?
参考资料:
https://x.com/marmaduke091/status/2028604854143176958
https://www.theneurondaily.com/p/openai-leaked-gpt-5-4-three-times
https://x.com/daniel_mac8/status/2028849150368862416
https://www.theinformation.com/newsletters/ai-agenda/openais-next-ai-model-will-extreme-reasoning?rc=bfliih
本文来自微信公众号“新智元”,编辑:Aeneas,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com



