在ChatGPT发布之前,OpenAI最新播客上线,高管首次恢复内部拉锯战。

当地时间7月1日,OpenAI在Youtube官方账号发布了第二个播客节目——安德鲁・梅恩(Andrew Mayne)马克主持,公司首席研究官・陈(Mark Chen)尼克克和ChatGPT负责人・特利(Nick Turley)作为嘉宾参加。
这个节目不仅回顾了“ChatGPT“名字的起源、发布前的内部争议和病毒式的流行过程也深入探讨了OpenAI发布策略的演变、模型在实用性和中立性之间的平衡、记忆功能和人性化服务的未来发展等关键话题。核心观点如下:
- “Chat with GPT-在发前夜,3.5被临时简化为“ChatGPT”,对于“GPT“解读团队仍然存在矛盾。
- 在过去,OpenAI像硬件一样寻求“万无一失”。ChatGPT 后来,逻辑变成了“边用边改”,人类反馈加强了学习。(RLHF)建立核心流程:不仅可以提高能力,还可以立即修复安全漏洞和偏见。
- 最初的RLHF失调导致模型过度取悦客户;OpenAI随后增加了透明规范和可定制角色,力求“默认中立” 顾客可以调整”。
- 在内容安全方面,OpenAI表示严格控制生物武器等高风险话题,适当放开化妆诊断、户外识别等低风险场景。目标是在责任和创新之间找到稳定的平衡。
- 目前,该模型可以异步提交数百个Pulll。 Request、功能性测试和日志分析,使工程师能够从“对话生成代码”跃升到“给予高层指令,自动完成整个任务”。
- 未来智能助手需要像人类同事一样处理5分钟至5天的任务;多代理交叉验证可以降低长链推理的错误率。
- AI模型正逐渐成为研究人员的新“工具箱”。这一趋势意味着AI将“协助搜索”走向“主动合作”,开启跨学科知识创造浪潮。
- 当AI的意见开始超越普通人的认知时,发现它的错误会变得更加困难。这意味着开发者、客户和监管者必须对AI的“可解释性”和系统的“脆弱性”提出警惕。
下面是本次播客节目的精华版本:
01.ChatGPT名称的由来
ChatGPT在人工智能发展史上的出现充满了戏剧性。特利回忆,它最初被称为“Chat with GPT-发布前夕,团队在深夜临时决定简化名称,这看似随意的调整,却让它成为科技史上辨识度极高的品牌。在发布之前,团队还在为“GPT”解释争论:有人说是“generative pretrained”缩写,有人坚持“generative pre-trained transformer”,这个争议至今还没有完全统一。
商品发布后的爆红远远超出预期。特利表示,在发布的第一天看到数据时,仍然认为统计是错误的,直到第四天才意识到其颠覆性影响。马克・在此之前,陈还提到父母认为他在研究。 “通用人工智能” 在ChatGPT走红之后,ChatGPT不再催促他跳槽到谷歌。这个“听起来不起眼的名字”最终与谷歌、雅虎等一起被永久记录下来。深夜更名的决定悄然改变了人工智能的发展轨迹。
02.ChatGPT走红
当《南方公园》把ChatGPT写进剧情时,特利真的感受到了技术和文化的碰撞:“看了很多年这部剧,看到自己的研发技术出现在流行文化中,感触很深。红色背后的技术挑战很大。特利回忆说,在圣诞晚会上,有人预测热度会消散,但事实是热度会继续上升。
当时的系统结构并不是为了完善产品设计。该团队不断遇到GPU资源耗尽、数据库连接不足等问题。“客户应该记住,ChatGPT在早期经常停机”。为了缓解客户的情绪,他们甚至用GPT-3制作了一首以停机为主题的诗,制作了一首小诗。 鲸鱼的失败” 网页上,“这个临时计划帮助我们度过假期”。
马克・陈则从用户数量的持续增长中看到了深刻的价值:“这么大的需求表明ChatGPT非常普遍,人们慢慢发现它可以用于各种场景。” 最后,R&D团队把它从研究预览版做成了稳定的产品。特利叹了口气:“当我们意识到每个人都有多依赖它时,我们觉得熬夜是值得的。”
03.发布前的内部争议
在ChatGPT发布之前,OpenAI团队非常吵闹。马克・“当时伊尔亚·苏茨克维斯·陈回忆(Ilya Sutskever,OpenAI创始人和已经离职的首席科学家使用了10个难题测试模型,大约只有5个答案让他满意。在发布的前一天晚上,我们还在纠结要不要发。” 这种犹豫是因为开发者长期接触AI,容易产生认知偏差:“在公司待久了,很快就适应了模型能力,很难从普通用户的角度发现它的魔力。”
这个团队最终决定使用 “最小化商品” 策略:“不要扩大范围,尽早获取用户反馈和数据,” “发布后得到的反馈,比封闭训练更有意义。”用户的反应完全改变了商品进化的方式。
04.OpenAI发布策略的演变
OpenAI 出版策略正从“追求完美”向“快速迭代”转变。马克・陈说:“让模型尽快接触真实用户,有问题就改。没什么大不了的。用户反馈是提高性能最有效的方法,封闭测试根本无法替代。”
他回忆说,最初的团队总是猜测客户的爱好。“结果远不如上线后的真实反馈有意义。如今,反馈不仅决定了产品的方向,也关系到安全机制的完善。”
特利补充说,最初的发布模式就像硬件一样,必须是完美的。一旦上线,就很难更新。“时间长,成本高,不灵活”。ChatGPT的推出意味着一个转型,已经走向了软件发布:产品可以不断更新,节奏更灵活,即使功能有问题,也可以随时取消。这降低了风险,更贴近用户需求。
他强调,这种“边用边改”的方式本质上是“公开学习”。与其等待模型完全成熟,不如先发布,然后借助用户反馈不断完善。在这个转变过程中,加强人类反馈学习(RLHF)成为关键工具。在加快性能提升的同时,帮助模型防止过度迎合顾客。马克・陈总结道:“‘有用’是一个广泛的概念,没有人能预测模型什么时候会突然对每个人都有用”,这凸显了现实世界检验的不可替代性。
05.奉承事件和模型中立性
在实施RLHF时,OpenAI遇到了太多的模型。 “谄媚” 问题。马克・陈解释说:“我们的训练模型生成了大多数用户会喜欢的回复。如果平衡做得不好,我们会说‘你的智商是190’这种夸张的话。” 在深度用户发现这个问题后,他回忆说,团队在48小时内做出了回应。
马克克关于模型价值观的中立性・陈说:“默认行为保持中立,用户可以定制自己的角色——想和更传统或更自由的版本交谈,这种需求得到满足。”特利补充了透明度原则:“我们不需要隐藏的系统提示来公开人工智能应该遵守的规范。如果用户发现模型行为不正确,可以清楚地知道是漏洞还是规范许可。”
团队在处理敏感话题时,花费了大量的精力来制定规则。马克・例:“如果客户有错误的观点,我们不会直接否认,而是引导他们一起寻找真相。”特利承认解决方案非常复杂:“即使是理性的人也可能有不同的观点,所以我们必须公开讨论,给用户定制的空间。”
随着用户与模型联系的不断演变,特利观察到了一个新现象:“越来越多的Z世代将ChatGPT作为处理人际关系或规划职业发展的思维伙伴。但同时,他警告了潜在的风险:“任何流行的技术都是一把“双刃剑”。我们不仅要看到它帮助我们更快地完成电子邮件写作、Excel数据分析等实际任务,还要防止它被滥用。“这一稳定平衡将继续考验OpenAI的治理智慧——就像团队总结的核心理念一样:与客户公开透明地共创,才是应对技术伦理挑战的正确途径。。”
06.未来的记忆功能和个性化
OpenAI团队对记忆功能和人性化服务的未来发展有着深刻的思考。马克・陈说:“记忆是我们从客户那里收到的最受欢迎的功能之一,就像一个可以随时建立关系的私人助理——他越了解你,他们的合作就会越深。” 他观察到,顾客愿意为这种人性化的服务买单,认为深层记忆功能会使人工智能成为用户生活的延伸。
记忆功能在技术实现上分为二级机制。:“参考保存记忆”用于存储用户提供的姓名、饮食偏好等结构化数据;“参考聊天记忆”从历史对话中获取重要信息,实现跨对话的连接。经过体验,梅恩发现人工智能能够准确分析自己“信息量大、逻辑严谨、厌恶模糊总结”的性格特点,印证了记忆功能对人性化服务的提升。另一方面,顾客也担心隐私风险,就像梅恩说的:“当它知道我的一切,包括我的脾气和和别人争论时,我会感到不舒服。”
对于这一点,特利强调要把握平衡之道:“我们把临时聊天功能放在主屏幕上,因为隐私交流越来越重要。他指出,未来的核心矛盾在于,如果ChatGPT想要成为用户的“最宝贵的数字账户”,它必须同时保证可控的透明度。为了解决用户的隐私问题,R&D团队设置了三重机制:客户可以随时关闭记忆功能,删除特定记录,或者打开 “匿名方式” 数据存储完全被禁止。
特利推测:“一两年后,人工智能将成为最了解你‘自我’的载体。 这一进化不仅体现在日常生活中,比如根据饮食偏好推荐餐厅,而且改变了人机交互的本质。然而,技术挑战并不小,跨对话记忆要解决“记忆过载”问题。今天的方法是对长期记忆进行分级存储:将高频信息放入快速检索层,将低频数据归档到二次存储。特利总结:“记忆功能是‘超级助手’愿景的基石,但用户必须做出最终决定。”
07.图像生成的突破时刻
OpenAI团队对图像生成技术的成功突破感到惊讶和兴奋。马克·陈直言:“真没想到,这要归功于许多研究者的努力。”他特别提到,真正的进步是,模型可以一次生成完全符合要求的图像,用户不再需要从大量照片中选择最佳结果。特别重要的是,模型的“变量绑定能力”有了很大的提高。过去,模型很难准确地结合复杂的图像特征,而GPT-4规模模型很好地解决了这个问题。
尼克·特利回忆起发布时的热烈场景:“在发布的那个周末,大约5%的印度互联网用户涌入体验。这个爆炸性的场景类似于ChatGPT刚刚推出时的场景。“他还注意到用户群发生了变化,许多以前从未接触过ChatGPT的人被图像生成功能所吸引,因为它大大降低了使用门槛。更令人惊讶的是,团队改变了用户的使用场景。本来估计会以娱乐为主,结果出现了装修设计模拟、商业演示插图等实用用途。马克·陈笑道:“我自己生成AI公司的时候,毫不犹豫地把OpenAI排在第一位。”
关于审计策略的发展,最初限制人物图像生成的原因是需要平衡模型的能力和社会责任。马克·陈说:“随着安全技术的进步,我们逐渐放宽了这些限制,但核心目标始终是实现可控的创作自由。”特利补充道:“最初过于保守的做法限制了创造力,然后通过优化安全技术,实现了内容审计与创作自由的平衡”。
08.文化转变和自由探索的安全设置
谈话中提到,OpenAI的安全设置正面临着文化转型。
特利回忆说,最初的团队对能力的开放非常谨慎。“这是正确的。新技术首先要保证安全。”但他也指出,转折点是团队意识到盲目限制会压制有价值的用法。比如在讨论图像识别功能是否开放时,他坚持支持开放。“因为用户可能会用它来讨论化妆、发型甚至医疗问题,比如‘这是湿疹吗?”这些用途的价值远远超过潜在的风险。
如今,OpenAI 更倾向于“按风险分类”管理安全。特利说:“像生物武器这样的高风险问题要特别严格控制,但日常使用不能太传统。” 同时,梅恩提出的“直白方法”也被采纳,尼克证实:全世界的用户都希望 AI 更加直观地表达,这是我们商品正在优化的方向。”
09.进化Codex
谈起 Codex 梅恩回忆说:“早期的演变,” GPT-3 生成 React 部件令人震惊,但真正的飞跃始于特殊代码模型的出现。
马克・陈指出未来的核心趋势是“代理编程”——用户只需发布高级指令,模型就可以异步完成复杂的任务,比如分析大型代码库的兼容性。特利进一步解释说:“同步对话有感觉上限, Codex 异步模式可以直接将模型性能转化为实用性。
在 在OpenAI内部,Codex已经广泛应用于功能测试、日志分析等场景,并且被工程师创新地应用于任务管理。“有些人把待办事项交给了他们。 Codex 一键式生成任务框架,这是最好的产品验证。” 特利补充道。
马克・“重度用户每天通过Codex生成数百个用户” PR(Pull Request)。它是提高效率最直观的证明。 尼克总结道:“当工程师愿意改变工作模式时,这表明这个工具确实带来了。 10 倍效率。” 正如马克所说:“我们从来没有发布过我们甚至不想使用的产品。
10.职场竞争力在AI时代的竞争力
在人工智能飞速发展的时代,OpenAI团队揭示了未来人才应该具备的核心竞争优势。“当学生问我如何应对这个复杂多变的世界时,我总是告诉他们要好奇。在我们这个领域,比正确答案更重要的是有价值的问题。” 在回忆团队招聘标准时,他强调:“我对求职者是否拥有AI博士学位并不重要。重要的是他们能否保持谦逊,继续探索未知领域。”
马克・陈以自己的经历证明了这一观点:“我加入的时候只是个见习生,但关键在于能动性。这里没有人会给你待办的清单,你需要自己去发现和解决问题。“这种自我驱动的工作模式创造了OpenAI惊人的创新速度——尼克笑着说:“外界认为我们每周都会发布新产品,但我总觉得可以更快。” 梅恩的入职故事就是最好的例子:“我最初是通过制作GPT-3应用视频来吸引注意力的,尽管有些同事可能会感到恼火。”
此外,适应能力已经成为团队的另一个无形评估指标。马克·陈指出:“你必须像AI系统一样快速迭代,早上重要的项目可能需要在下午调整方向。” 尼克补充道:“为了让有想法的人积极行动,而不是被过程所束缚,我们刻意维持组织扁平化。” 在AI时代,这种对好奇心、能动性和适应性的三重追求,正在重新定义职场竞争力。
异步工作流和超级助手
异步工作流和超级助手在人工智能领域的演变正在不断重塑人机合作的范式。特利指出,构建真正智能助手的关键突破:“我们必须突破同步交互的束缚,就像现实中有效的合作伙伴一样,它可以独立处理从5分钟到5天的各种任务——当客户愿意等待有价值的结果时,深度合作的大门就会打开。” 马克・陈从认知科学的角度证明了这一观点:“模型需要有时间像人类的解谜一样思考,仓促的回答通常容易出错,只有深入的推理才能产生真正的见解。”
梅恩回忆起学术界的反复验证过程:“一些论文声称发现了模型的问题,但通常可以通过提示来解决——这揭示了系统脆弱性和时间约束之间的深刻差异。” 对于这一点,团队提出了三层防御机制:双重系统交叉验证外加第三重保险,正如吴恩达教授所发现的,多智能体合作可以显著提高解决方案的质量。马克克・陈直言面临的大规模困境:“每一个研究思路的大规模生产就像攀登一个新的高峰。我们一处理旧的障碍,新的挑战就会接踵而至。”
在落地应用方面,尼克强调场景适应的重要性:“给人工智能配置合适的工具就像给外科医生一把手术刀。联想超级智能已经证明,对领域模型有深刻理解的人工智能可以成为不可替代的工作伙伴。” 这一演变方向与EDA行业的趋势不谋而合——人工智能正在从一个简单的辅助角色升级为一个可以独立处理大量数据的代理系统。
未来的机会12.
OpenAI团队在人工智能重塑世界的过程中,描绘了一个充满希望的未来景象。
特利指出,AI在医疗方面的角色是赋予权力而非替代品:偏远地区的妈妈可以用手机做第二次诊断,夜班医生也可以得到即时帮助。前提是提高模型的可靠性,公开其局限性,因为“当AI超越人类时,更难发现它的错误”。
马克・陈预测,未来 18 个月将出现AI驱动的科学研究爆发:GPT 该系列已成为科学家简化公式和数学家验证猜测的全新“科研仪器”。尼克补充说,“任何明确定义的问题——从纳税申报到癌症研究——都可能被打破,剩下的限制只有想象力”。
另外,互动范式也在迭代。例如,梅恩,顾客愿意让他们 AI 就像研究人员一样,“思考三天”来解决复杂的问题;尼克认为,聊天界面是保留的,异步工作流将成为主流——例如,让智能体完成结婚戒指的设计或深度旅行计划。在未来的某一天,当我们回顾“以人工智能为聊天机器人”的阶段时,我们可能会忍不住微笑。"
面对技术的边界,马克表现出科学家的清醒:“当科学家发现人工智能可以促进公式简化时,他们既惊讶又警惕。我们正在创造一个‘思维加速器’,这需要开发者始终敬畏。”
本文来源于“腾讯科技”,作者:无忌 经授权发布的海伦,36氪。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




