奥特曼坦言OpenAI路线曾偏离,称未来写代码重要性将降低
观众提问大胆直接,奥特曼回答坦诚不遮掩!
近日,奥特曼与众多AI领域从业者开展了一场直播对话,围绕软件工程、商业发展、模型研发、科学探索、教育领域、安全防护等多个方面,进行了一场毫无保留的交流。
问题尖锐且直击痛点,奥特曼也展现出十足的诚意,全程秉持着开放的态度,欢迎大家提出各种疑问。

听完这场直播,能感受到奥特曼分享了不少实在的观点,以下是一些关键总结:
未来工程师的从业人数或许会显著增长。
人们在编写代码和调试代码上花费的时间会大大减少,更多精力将投入到让系统完成任务上。
未来几年内,为个人或极小群体量身打造的软件会被大量使用。
OpenAI承认在ChatGPT5系列模型的研发上存在失误,未来ChatGPT定会回归真正的通用模型方向。
接下来几年,模型掌握新技能的速度可能会超越人类。
以下是本次直播重点内容的整理实录,围绕核心观点进行了筛选,部分内容在不改变原意的前提下做了适当调整。
AI正重塑工作、技术与教育格局
问:若AI使写代码变得高效且低成本,是否意味着未来软件工程师的需求会减少?
Sam Altman:我认为未来工程师的数量可能会“显著增长”。
不仅如此,AI能帮助工程师创造更多价值,让计算机实现预期功能,这意味着人们在敲代码和调试代码上的时间会大幅减少,更多精力将用于“让系统完成任务”。
甚至,我们会大量使用为个人或极小群体定制的软件,每个人都能不断为自己打造专属工具。
所以在我看来,软件工程岗位的需求不会减少,反而会增加,规模会远超当前,全球GDP中会有更大比例通过这种方式创造。
问:随着模型和工具日益强大,我们是否会被现有技术方案束缚,即使出现更优技术,也难以应用到模型和系统中?
Sam Altman:我对此持乐观态度,相信我们能让模型很好地掌握新技术和工具。
本质上,只要方法得当,这些模型就是通用的推理引擎。
从现有架构来看,模型本身已包含大量世界知识,所以我们正朝着正确方向前进。
我期待并相信未来几年,模型更新和学习新技能的速度会超过人类。
一个让我自豪的里程碑是:当模型遇到全新事物——新环境、新工具、新技术时,只需一次解释,甚至无需解释,它就能自行探索并稳定可靠地使用。
而且,这个时刻似乎并不遥远。
问:你认为在人生重要的成长阶段,教育会如何被人工智能改变?
Sam Altman:我一直认为幼儿园不应配备电脑。
在我看来,幼儿阶段最重要的是通过运动、玩耍,与真实事物和人互动学习交流,而非面对屏幕。
所以不仅是AI,我甚至不希望电脑出现在幼儿园,目前我们尚未完全了解技术对青少年的长期影响。
虽然已有很多关于社交媒体的研究,但结论存在分歧,整体情况不容乐观。更糟糕的是,针对幼儿的科技产品潜在问题可能更大,却未得到足够关注。
因此,在明确这些影响之前,我认为幼儿园阶段没必要引入AI。
OpenAI调整产品方向:回归通用模型
问:我发现ChatGPT近期模型出现明显“偏科”,OpenAI会继续这种“能力失衡”的路线,还是回归通用、能力均衡的模型?
Sam Altman:说实话,在这件事上我们确实“犯了错误”。
在ChatGPT-5系列模型开发中,我们将主要精力放在提升其智力、推理和编程能力上,但专注某一方面难免会忽视其他。
这就是为什么ChatGPT-5系列模型的写作能力不如4.5模型稳定,这一点我们承认。

但从长远来看,我认为未来主流会是高质量的“通用型”模型。
例如,当需要模型生成完整应用程序时,不仅要求代码正确,还希望它在互动中具备清晰、有条理的表达能力。这里的写作能力并非指华丽辞藻,而是思路清晰、沟通高效。
所以我的目标是:继续开发下一代模型,使其在“所有维度”都表现出色,我相信这是可以实现的。
而且我认为单一模型完全可以同时具备多种强大能力,当前正是关键时期。
我们必须继续推进“编程智能”,同时也要努力弥补其他能力的短板。
问:若要让数百万甚至上亿个Agent同时运行,成本是主要瓶颈。OpenAI如何看待小模型和推理成本的下降空间?未来模型调用成本是否会大幅降低?
Sam Altman:现在模型发展已进入新阶段,大家关注的不再只是降低成本,越来越多的人开始追求更快的输出速度,甚至愿意为此支付更高费用。
从历史数据来看,我们在“降低模型成本”方面做得很好,回顾从最初预览版到现在,模型成本呈明显下降趋势。

但现在的关键变化是,除了成本,“速度”这一过去不太受重视的维度变得同样重要。
在某些场景中,人们愿意为更快的输出支付更高费用,哪怕价格贵很多,只要能在极短时间内得到结果。
所以我们现在面临的不仅是降低成本,还要在成本和速度之间找到平衡。
如果我们继续降低成本,且市场有此需求,我相信能将模型成本降至很低,让“大规模运行Agent”在经济上可行。
问:在人类注意力稀缺的时代,OpenAI能否开发工具来提升人们提出想法的质量,让更多产品在源头就“值得被开发、值得被关注”?
Sam Altman:我知道很多人将AI生成内容称为垃圾,但实际上,人类本身也生成了大量垃圾内容。
真正困难的从来不是生成内容,而是想出好的新点子。
我认为我们应该开发帮助人们产生好想法的工具,这类工具应用前景广阔。
随着创作成本持续下降,我们可以用低成本快速试错、验证想法,建立紧密反馈机制,更快筛选出可行的点子。

从模型能力来看,我认为这完全可以实现。目前我们内部使用的“特殊版本”GPT-5.2模型,据科学家反馈,它带来的科学进展已具有重要意义。
AI将引发经济变革,风险也随之增加
问:目前女性因工资差距每年损失约100万美元,人工智能如何解决这些长期存在的经济差距问题?
Sam Altman:我确实认为AI会产生很强的“通缩”效应。

我这样说是因为AI很可能成为一种赋权工具,让个人以低成本完成过去只有大公司或大团队才能做的事。
如果这种能力得到广泛普及,确实有可能缩小部分长期存在的经济差距,包括因结构性不公平导致的收入问题。
但我也警惕另一种可能:AI可能会让权力和财富进一步集中到少数人手中。如果这些工具仅被少数人或公司掌握,带来的可能不是缩小差距,而是“扩大差距”。
所以在我看来,AI能否真正缩小这些长期经济差距,最终取决于我们如何部署、监管它,以及相关政策的设计。
问:我们如何利用人工智能提升安全基础设施水平?
Sam Altman:我对2026年AI可能出现的问题非常担忧,其中最担心的是生物安全。
目前这些模型在生物领域已相当强大,而我们当前的主要策略仍是限制访问权限、添加分类器,防止人们用模型危害人类,但说实话,我认为这种“封堵式”方法难以长期奏效。
我认为AI安全,尤其是生物安全,必须从阻止一切风险转向提高整体抗风险能力,即“韧性式”安全。
就像人类面对火一样:火带来了巨大价值,但也烧毁城市。起初我们试图禁止用火,后来发现行不通,于是转而建立防火规范、使用耐火材料、完善城市基础设施,最终让火变得可控可用。
我认为AI也需走同样的路:AI存在现实风险,但也能成为解决问题的一部分,它既是问题本身,也是解决方案的一部分。

此外,如果今年AI出现严重事故,我认为最可能发生在生物安全领域。未来几年,其他领域也可能出现问题。
AI无法解决差异化价值难题
问:现在大家都能用Codex、Cursor开发产品,但新问题是如何找到真正需要并能从产品中获益的用户?你怎么看?
Sam Altman:我一直认为创业最难的不是“开发产品”,而是让大众关注、使用并与产品建立联系,过去如此,现在依然如此。
AI确实让软件开发变得轻松,但这并不意味着创业其他环节也会变简单。必须找到真正有差异化的价值点,产品才有可能被市场接受。
即使现在能用AI自动化部分销售和营销流程,也只能带来局部成功,无法解决根本问题。
在我看来,这件事始终困难是因为一个底层约束未变——人类注意力极其稀缺。即使进入软件丰富、能力强大的时代,注意力仍会是最稀缺的资源。
在高度丰富的世界里,真正稀缺的是人的注意力和好创意,创业依然需要持续创造非凡价值才能成功。
参考链接:https://www.youtube.com/watch?v=Wpxv-8nG8ec
本文来自微信公众号“量子位”,作者:梦瑶,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com



