沈抖与谭待之争,撕开了云厂商的焦虑

02-16 11:39

发文| 郝鑫


编辑| 吴先之


昨天,两位老百度人隔空展开了一场“斗嘴”。


两位主角是现任百度智能云业务集团总裁沈抖和火山引擎总裁谭待。根据公开信息,2008年至2019年期间,谭待曾担任网页搜索、网盘和系统架构的首席架构师和T11级技术专家。


这场争论源于2月12日,沈抖百度智能云业务群(ACG)在全体会议上,非常有针对性的发言。沈抖在会上提到:“去年国内大模型的‘恶意’价格战,导致行业整体创收比海外差很多”。


火山引擎、阿里巴巴云、腾讯云等。,去年参加“大模价格战”的厂商纷纷躺枪。然而,当沈抖改变主意时,他独立拿出豆包作为经典案例。在谈到Deepseek的影响时,沈抖直言不讳,认为首当其冲的AI产品是字节豆包,因为它的训练成本和流失成本都很高。


随后,谭待在朋友圈里进行了积极的反击。对于“恶意”这个词,他回应说:“豆包1.5Pro模型的预训练费用和推理费用都低于DeepSeek。 V3,更是远低于国内其它模型,在目前的价格下有相当不错的毛利。



谭待之所以能降价,是因为“技术进步”。他指出,“国内外厂商都在依靠技术创新来降低模型价格。我们刚刚完成了Geminini。 2.0 只是Flash的价格水平,这个价格完全取决于技术进步。”


最后,谭待也没有忘记把自己的“建议”送给老东家。:每个人都应该像DeepSeek一样专注于基本功,专注于创新,不急不躁,少无端猜测,归因于外界。


在发表之前,沈抖没有对谭待的上述言论发表任何意见。


争论矛盾


这次争论的话题主要集中在三个方向:大模型降价、商业化和DeepSeek。


话里话外,沈抖指责火山发动机偏向整个市场趋势,使得大模型卷入价格战,使AI产品陷入投流营销战,从而走向恶性循环。谭待完全否定了这一点,认为降价是火山发动机的技术优势,把锅扔回百度,嘲讽其大模型技术在找理由之前没有回家。


事实上,国内大部分云厂商都参加了去年的大模型价格战,当然也包括百度,所以很难把责任归咎于哪一方。


故事一开始,DeepSeek首先开始了第一枪,火山引擎发起了攻击,将大模型的价格打到了“厘时代”。随后,行业内爆发了大规模降价,百度甚至使出了必杀技巧,宣布了文心大模型ERNIE的两大主要模型。 Speed、ERNIE Lite完全免费。


在DeepSeek大火之后,市场部署DeepSeek-R1的需求也随之爆发,但是由于DeepSeek官方服务器不稳定,计算率资源有限,无法承担从天而降的流量。所以,机会来到云厂商这里,新一轮的价格战又开始了。


为抢占流量和拉新,大厂纷纷宣布接入满血版DeepSeek-R1,API调用价格仍低于DeepSeek官方,同时免费发送token。


给用户50万token免费额度的火山引擎,DeepSeek-R1 全血版半折优惠,每100万token输入2元,100万token导出8元;DeepSeek-R1和DeepSeek-V3模型正式推出百度智能云千帆大模型平台,低至DeepSeek官方出版价3-5折,还可享受限时免费服务。



虽然大模型价格战意味着宣传,但它也是技术发展到一定阶段的产物,但它集中在一个时间节点。其中,沈抖提到国内大模型行业的创收,“不如海外同行”是客观事实,但不能一概而论,把一切都归结为大模型价格。


DeepSeek-虽然R1是中国大型模式发展的转折点,但不可忽视的事实是,到目前为止,国内大型模式刚刚达到去年的海外水平,刚刚达到支持情境和应用的水平。从根本上说,正是客观模型能力的差距导致了与国外大模型的收入差距。在模型能力没有绝尘的情况下,国内的大模型本来就不是一个好生意,属于赔钱赚钱。最后,我们应该把流量转化为云服务来赚钱。


在这一点上,百度云和火山引擎面临着同样的情况,互相指责实际上对行业没有任何好处。


如果要说“恶意”,大概体现在豆包的外部流量上。背靠字节的豆包自然获得了曝光的优势,但“其他AI应用从此无法投入”无形中抑制了其他创业公司的成长。


开源,普惠势不可挡


大型卷“低价”一定是负面的吗?答案是否定的。开源、普惠、技术平权将是未来的大趋势。


“鲶鱼”DeepSeek已经对以OpenAI为首的闭源模型体系产生了冲击,并以自己的力量扭转了行业对开源的认识。


这种声音在各种玩家的行动中逐渐被淹没,“大模型开源没有意义”和“闭源大模型将继续领先”。


OpenAI于2月6日宣布,ChatGPT搜索功能将向所有用户开放,无需注册。2月13日,OpenAICEOSam Altman发布消息称,GPT-4.5、GPT-5将陆续发布,在标准智能设置下,免费版ChatGPT将使用GPT-5进行无限对话。另外,他还特别指出,OpenAI的新路线是:跨越o3、免费浏览,开源“模型规范”。


国内百度也及时更新了方向,进一步拥抱了免费和开源。从4月1日起,文心一言将全面免费,所有PC和APP用户都可以体验文心系列的最新模式。从4月1日起,文心一言推出了深度搜索功能,该功能将免费开放。


二月十四日,百度又正式宣布新消息,将在接下来的几个月里陆续推出文心大模型4.5系列,并于6月30日开始正式开源。


就技术发展曲线而言,大模型推理和AI成本将继续下降。例如,2023年GPT-4的token成本为36美元/百万token,到2024年中期,GPT-4o成本下降到4美元/百万token,在此期间,每一个token的价格下降了150倍左右,摩尔定律以每18个月性能翻倍的速度改变了世界。


有些人把每12个月使用特定水平的AI成本降低十倍称为“奥特曼定律”。Sam Altman认为,正是因为技术曲线已经发展成为一个新的节点,大模型的效率在多方竞争下正在加速提升,这可能也是AI大模型性价比热的原因。


这一竞争仍在持续,在DeepSeek搅拌行业不久之后,谷歌Gemini-2.0-Flash/超越Lite。 这为整个行业的发展发出了积极的信号,这意味着我们可以以更低的成本和更高的效率建立业务和应用程序,这将为Agent的爆发奠定坚实的基础。

“DeepSeek”效应


对于大型工厂来说,防御比创新更重要。之前王小川说过一句话:“大创新靠小厂,小创新靠大厂”。 难得的是,DeepSeek这次引起了集体反思。 根据智能报道,有关DeepSeek对百度的影响,沈抖回应员工,每当技术发展到瓶颈期,总会有一个领先的组织来制造拐点,而DeepSeek就是这个拐点。在DeepSeek引起这波虹吸效应之后,他认为开发生态将进一步繁荣。 除了百度一改闭源的坚持,面对DeepSeek的突然崛起,其他厂商也在激荡。 根据晚点报道,字节CEO梁汝波在2025年字节全会上再次谈到。 “务实浪漫”。在DeepSeek中反思 R1创新点之一的长链思维模式并不是业内首创。9月OpenAI发布长链思维模式后,字节没有实时跟进,而是错失了机会,意识到技术发生了重大变化。 在短期内,DeepSeek爆红所形成的流量,受益者仍然是云大厂。得益于稳定的基础设施,DeepSeek在阿里云、百度云、火山引擎等方面的表现还是略胜一筹。伴随着token消耗和新用户的增加。 但是回到商业化的问题,云厂商刷足了存在感,凭借减价、免费政策可转换的收入却很少。MaaS模式不会产生网络外部效应,相反,客户的涌入越多,机器、服务和人力投入的成本就越高。 更重要的问题是,更强的性能模型的诞生并不是什么新鲜事。下一步是继续跟随模型探索,将推理能力与需求场景相结合。 一些知情人士告诉光子星球,春节期间来咨询和测试DeepSeek-R1的人不在少数,但是他们的顾客仍然在观望。归根结底,“狼来了”的故事,他们已经听过很多次了,手中各厂商的token已经攒了不少钱,仍然无法解决实际问题。 另外,DeepSeek也在向云厂商的大型2B业务延伸。 一些媒体没有完全统计,至少有160多家企业集体接入了DeepSeek,而且这一数字每天都在上升。另外,许多央国企已经开始发布采购订单,点名要当地部署DeepSeek-R1,采购适配模型硬件和计算率。 最近Toto“给我一套DeepSeek” 销售人员最常听到的一句话。


本文来自微信公众号“guangzi0088”(ID:TMTweb),作者:郝鑫,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com