奥特曼坦言OpenAI路线曾偏离,称未来写代码重要性将降低

2分钟前
有问必答 诚意满满

观众提问大胆直接,奥特曼回答坦诚不遮掩!


近日,奥特曼与众多AI领域从业者开展了一场直播对话,围绕软件工程、商业发展、模型研发、科学探索、教育领域、安全防护等多个方面,进行了一场毫无保留的交流。


问题尖锐且直击痛点,奥特曼也展现出十足的诚意,全程秉持着开放的态度,欢迎大家提出各种疑问。



听完这场直播,能感受到奥特曼分享了不少实在的观点,以下是一些关键总结:


未来工程师的从业人数或许会显著增长


人们在编写代码和调试代码上花费的时间会大大减少,更多精力将投入到让系统完成任务上。


未来几年内,为个人或极小群体量身打造的软件会被大量使用。


OpenAI承认在ChatGPT5系列模型的研发上存在失误,未来ChatGPT定会回归真正的通用模型方向。


接下来几年,模型掌握新技能的速度可能会超越人类。


以下是本次直播重点内容的整理实录,围绕核心观点进行了筛选,部分内容在不改变原意的前提下做了适当调整。


AI正重塑工作、技术与教育格局


问:若AI使写代码变得高效且低成本,是否意味着未来软件工程师的需求会减少?


Sam Altman:我认为未来工程师的数量可能会“显著增长”。


不仅如此,AI能帮助工程师创造更多价值,让计算机实现预期功能,这意味着人们在敲代码和调试代码上的时间会大幅减少,更多精力将用于“让系统完成任务”。


甚至,我们会大量使用为个人或极小群体定制的软件,每个人都能不断为自己打造专属工具。


所以在我看来,软件工程岗位的需求不会减少,反而会增加,规模会远超当前,全球GDP中会有更大比例通过这种方式创造。


问:随着模型和工具日益强大,我们是否会被现有技术方案束缚,即使出现更优技术,也难以应用到模型和系统中?


Sam Altman:我对此持乐观态度,相信我们能让模型很好地掌握新技术和工具。


本质上,只要方法得当,这些模型就是通用的推理引擎。


从现有架构来看,模型本身已包含大量世界知识,所以我们正朝着正确方向前进。


我期待并相信未来几年,模型更新和学习新技能的速度会超过人类。


一个让我自豪的里程碑是:当模型遇到全新事物——新环境、新工具、新技术时,只需一次解释,甚至无需解释,它就能自行探索并稳定可靠地使用。


而且,这个时刻似乎并不遥远。


问:你认为在人生重要的成长阶段,教育会如何被人工智能改变?


Sam Altman:我一直认为幼儿园不应配备电脑。


在我看来,幼儿阶段最重要的是通过运动、玩耍,与真实事物和人互动学习交流,而非面对屏幕。


所以不仅是AI,我甚至不希望电脑出现在幼儿园,目前我们尚未完全了解技术对青少年的长期影响。


虽然已有很多关于社交媒体的研究,但结论存在分歧,整体情况不容乐观。更糟糕的是,针对幼儿的科技产品潜在问题可能更大,却未得到足够关注。


因此,在明确这些影响之前,我认为幼儿园阶段没必要引入AI。


OpenAI调整产品方向:回归通用模型


问:我发现ChatGPT近期模型出现明显“偏科”,OpenAI会继续这种“能力失衡”的路线,还是回归通用、能力均衡的模型?


Sam Altman:说实话,在这件事上我们确实“犯了错误”


在ChatGPT-5系列模型开发中,我们将主要精力放在提升其智力、推理和编程能力上,但专注某一方面难免会忽视其他。


这就是为什么ChatGPT-5系列模型的写作能力不如4.5模型稳定,这一点我们承认。



但从长远来看,我认为未来主流会是高质量的“通用型”模型。


例如,当需要模型生成完整应用程序时,不仅要求代码正确,还希望它在互动中具备清晰、有条理的表达能力。这里的写作能力并非指华丽辞藻,而是思路清晰、沟通高效。


所以我的目标是:继续开发下一代模型,使其在“所有维度”都表现出色,我相信这是可以实现的。


而且我认为单一模型完全可以同时具备多种强大能力,当前正是关键时期。


我们必须继续推进“编程智能”,同时也要努力弥补其他能力的短板。


问:若要让数百万甚至上亿个Agent同时运行,成本是主要瓶颈。OpenAI如何看待小模型和推理成本的下降空间?未来模型调用成本是否会大幅降低?


Sam Altman:现在模型发展已进入新阶段,大家关注的不再只是降低成本,越来越多的人开始追求更快的输出速度,甚至愿意为此支付更高费用。


从历史数据来看,我们在“降低模型成本”方面做得很好,回顾从最初预览版到现在,模型成本呈明显下降趋势。



但现在的关键变化是,除了成本,“速度”这一过去不太受重视的维度变得同样重要。


在某些场景中,人们愿意为更快的输出支付更高费用,哪怕价格贵很多,只要能在极短时间内得到结果。


所以我们现在面临的不仅是降低成本,还要在成本和速度之间找到平衡。


如果我们继续降低成本,且市场有此需求,我相信能将模型成本降至很低,让“大规模运行Agent”在经济上可行。


问:在人类注意力稀缺的时代,OpenAI能否开发工具来提升人们提出想法的质量,让更多产品在源头就“值得被开发、值得被关注”?


Sam Altman:我知道很多人将AI生成内容称为垃圾,但实际上,人类本身也生成了大量垃圾内容。


真正困难的从来不是生成内容,而是想出好的新点子。


我认为我们应该开发帮助人们产生好想法的工具,这类工具应用前景广阔。


随着创作成本持续下降,我们可以用低成本快速试错、验证想法,建立紧密反馈机制,更快筛选出可行的点子。



从模型能力来看,我认为这完全可以实现。目前我们内部使用的“特殊版本”GPT-5.2模型,据科学家反馈,它带来的科学进展已具有重要意义。


AI将引发经济变革,风险也随之增加


问:目前女性因工资差距每年损失约100万美元,人工智能如何解决这些长期存在的经济差距问题?


Sam Altman:我确实认为AI会产生很强的“通缩”效应。



我这样说是因为AI很可能成为一种赋权工具,让个人以低成本完成过去只有大公司或大团队才能做的事。


如果这种能力得到广泛普及,确实有可能缩小部分长期存在的经济差距,包括因结构性不公平导致的收入问题。


但我也警惕另一种可能:AI可能会让权力和财富进一步集中到少数人手中。如果这些工具仅被少数人或公司掌握,带来的可能不是缩小差距,而是“扩大差距”。


所以在我看来,AI能否真正缩小这些长期经济差距,最终取决于我们如何部署、监管它,以及相关政策的设计。


问:我们如何利用人工智能提升安全基础设施水平?


Sam Altman:我对2026年AI可能出现的问题非常担忧,其中最担心的是生物安全。


目前这些模型在生物领域已相当强大,而我们当前的主要策略仍是限制访问权限、添加分类器,防止人们用模型危害人类,但说实话,我认为这种“封堵式”方法难以长期奏效。


我认为AI安全,尤其是生物安全,必须从阻止一切风险转向提高整体抗风险能力,即“韧性式”安全。


就像人类面对火一样:火带来了巨大价值,但也烧毁城市。起初我们试图禁止用火,后来发现行不通,于是转而建立防火规范、使用耐火材料、完善城市基础设施,最终让火变得可控可用。


我认为AI也需走同样的路:AI存在现实风险,但也能成为解决问题的一部分,它既是问题本身,也是解决方案的一部分。



此外,如果今年AI出现严重事故,我认为最可能发生在生物安全领域。未来几年,其他领域也可能出现问题。


AI无法解决差异化价值难题


问:现在大家都能用Codex、Cursor开发产品,但新问题是如何找到真正需要并能从产品中获益的用户?你怎么看?


Sam Altman:我一直认为创业最难的不是“开发产品”,而是让大众关注、使用并与产品建立联系,过去如此,现在依然如此。


AI确实让软件开发变得轻松,但这并不意味着创业其他环节也会变简单。必须找到真正有差异化的价值点,产品才有可能被市场接受。


即使现在能用AI自动化部分销售和营销流程,也只能带来局部成功,无法解决根本问题。


在我看来,这件事始终困难是因为一个底层约束未变——人类注意力极其稀缺。即使进入软件丰富、能力强大的时代,注意力仍会是最稀缺的资源。


在高度丰富的世界里,真正稀缺的是人的注意力和好创意,创业依然需要持续创造非凡价值才能成功。


参考链接:https://www.youtube.com/watch?v=Wpxv-8nG8ec


本文来自微信公众号“量子位”,作者:梦瑶,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com