冯大刚对火山引擎谭待的对话:284张1元钱的照片,但是豆包不打算。「内卷」
随着2024年的临近,大模型市场依然如火如荼。
另一方面,国内外各大创业公司高融资新闻频发,AI数据分析公司Databricks以单轮超过700亿元人民币的融资目标刷新了全球AI创业企业的融资记录,超越了OpenAI。
另一方面,以OpenAI发布季为首,全球新模式和新产品也迎来了年底的集中更新浪潮。就在不久前的12月18日,火山发动机也在2024年冬季FORCE原动力会议上带来了一系列全新升级的豆包模型家族。

比如豆包Pro作为字节最强的大语言模型,这次迎来了大版本的更新升级。与5月份相比,综合任务处理量增加了32%,全面对齐GPT-4o,使用价格仅为后者的1/8。
豆包最新的视觉理解模型不仅可以准确识别视觉内容,而且具有优秀的理解和推理能力。它可以根据图像信息计算复杂的思维,完成分析图表、处理代码、回答学科问题等任务,具有详细的视觉描述和创作能力。
特别是在这次FORCE会议上,火山引擎宣布,豆包视觉理解模型千tokens的输入价格只有3%,284张720P的照片可以用一元钱处理,比行业便宜85。%,引起了业界的热议。
火山发动机总裁谭待向36Kr透露,事实上,即使在这个价格下,火山发动机的毛利也是相当可观的。低价不是“烧钱补贴”的市场策略,而是通过算法、工程、硬件的联合创新,实现从底层系统架构到上层应用的共同进步。火山发动机希望帮助企业和开发者更方便、更低门槛地使用大型技术,促进人工智能技术的普及,使蛋糕更大。
根据火山发动机的数据,在过去的三个月里,豆包模型的信息处理场景调用量增加了39倍,客户服务和销售场景增加了16倍,硬件助手场景增加了13倍,AI工具场景增加了9倍。它在B端汽车、金融和教育行业有大量的合作伙伴,如梅赛德斯-奔驰、广汽集团、华泰证券、招商银行、浙江大学等。
自从ChatGPT于2022年11月底推出以来,大模型已经在全球范围内燃烧了两年多。两年后的今天,大模型市场格局发生了翻天覆地的变化,尤其是在to上。 在B领域,越来越多的企业已经摘下了大模型的“滤镜”,然后从实际应用领域、经济效益等方面考虑。
火山发动机如何通过技术创新降低大模型落地成本?大模型对云计算行业的影响和机遇是什么?未来十年,我们将迎来什么样的AI云原生结构?火山发动机总裁谭待在2024年冬季FORCE动力大会期间,围绕这些备受业界关注的话题,与36KCEO冯大刚进行了深入对话。

下面是对话记录。
01、过去一年,最重要的是什么?
冯大刚:今日提问,虽然核心内容是我们出的,但也让豆包出版,我觉得还是挺有意思的。例如,今天的第一个问题:众所周知,你在技术领域有着深厚的造诣和丰富的经验。是什么机会让你从百度这样的巨头转向字节跳动,肩负起火山引擎开拓企业市场的重担?
谭待:这个经历非常重要。在百度,我一直扮演着技术领袖的角色,在这个过程中,我逐渐扮演了一些新的角色。
(从技术到开拓市场)不容易。作为一个纯粹的技术人员,如果没有大团队的管理经验和业务背景,人们往往会认为你应该继续从事技术工作。但从另一个角度来看,虽然没有直接的经验,但我的思维和方法可能与前辈有很大不同。幸运的是,我在字节上得到了这个机会。
冯大刚:今天内部管理需要更多的时间,还是外部竞争?
谭待:我不认为我们应该把内部和外部分开来看待这个问题,或者我们可以这样理解:首先,我们必须处理生产力问题,其次,我们必须处理生产关系问题,生产关系包括内部生产关系和外部生产关系。
管理者的重要职责是先处理关键问题,再处理只能自己处理的问题。很多事情可能处理不了,所以不需要在上面花费太多精力,而是专注于只有自己水平才能解决的问题。
冯大刚:这是什么问题?例如,在过去的一年里,你必须解决哪些问题?
谭待:今年我投入的精力主要是如何做好模型to。 B,包含内部和外部。对于内部产品来说,我们不仅要考虑如何提高模型效果,还要考虑如何降低工程结构成本,提高产品的应用性。外部也是如此。如何让更多的人使用它们,并带回他们的反馈来提高他们的产品性能?另外,还要弄清楚应该采用什么样的服务团队,什么样的阵容,什么样的组织结构,从而为客户提供良好的服务,实现良好的连接。
这里有很多不确定性,商品还处于0-1阶段,客户需求存在很多不确定性,模型能力也在快速提升。同时,市场、技术和商品完成后,需要建立相应的组织结构来承接。这些事情对我来说是最重要的,也是只有我能解决的问题。
02、在大模型之前,所有的B/C端技术都是分开的。
冯大刚:如何看待目前的大模型to? B跟to C之争?
谭待:大型模型和以前所有的技术都不一样,以前的技术在to上 B跟to c是相互分离的。例如,使用抖音并不意味着个人正在使用火山引擎;在淘宝上购物并不意味着会使用阿里云,两者截然不同。但是今天的大模型在to中 B跟to C仍然具有高度耦合度,应用背后的能力主要来自模型。无论大模型技术如何,to C还是to B,核心并不像以前那样清晰。
但是这也是有益的。以前的to 在B端,决策者与用户分离是非常重要的,我们不知道如何使用用户。还有许多CRM。、ERP商品都是这样,决定的人不是用的人,他们不能亲自体验,只能看PPT。、解释案例以了解他人的使用方法。
但是大模型不一样。首先,大模型可以完全体验。其次,决策者和用户在很多场景中是相通的。现在我们遇到了包括董事长和首席执行官在内的每一位客户。我的第一个建议是让他先下载豆包APP。因为负责人和决策者对AI有感知,每天都在用,所以他可以知道公司可以通过大模型优化哪些环境。
在我看来,这不仅仅是大模型技术本身的变化,更是整个to B和to C的商业模式带来了巨大的差异。过去,业务端没有意识到如何使用云。真正与云打交道的是运维人员,但R&D人员只看到了一堆数字,只能在事故发生时感知到一些东西。但是,大模型不同。每个人都是第一个用户,在日常生活中可以感知到商品的优缺点。其次,我们将讨论如何作为提高生产效率的工具。
冯大刚:C端产品在不同的大模型之间有很大的差距吗?
谭待:C端产品的差距可能更大,比如如何撰写Prompt,如何优化产品设计交互等。,所有这些都会有加分项,模型本身的效果也会有差距。
一般情况下,我不会直接告诉你豆包的使用水平,只是告诉他们我们有这些能力。仅仅看参数实际上是没有意义的,或者说参数只是非常片面的信息之一。使用后你有什么感觉?是否使用类似的产品?使用后自己的对比感觉如何?当我们讨论一个大模型是否好用时,仅仅依靠一个PPT并不能欺骗你平时的感受,你会有一个明确的判断——这个产品真的很好用。许多人告诉我,豆包很容易使用,而且关键是豆包进步很快,(模型学习)斜率很高,这一点很重要。
03、谁是第一?
冯大刚:如果我们讨论谁是大模型领域的“第一”,你认为最关键的指标是什么?
谭待:从消耗量来看,token消耗量最重要,这意味着使用了多少推理。项目金额不是一个好的层次,因为集成项目太多了。如果项目是私有化的,它包含许多成分,如硬件、软件、应用开发和人力外包。这里的大模型比例是多少?不同的统计口径会得出不同的结论。
冯大刚:你认为火山现在处于什么样的位置?
谭待:尽管没有第三方数据,但是纵观业界大家公布的数据,我认为火山处于一个非常靠前的位置。但是每个人的规格都不一样,比如我们直接谈论token数,有些人不谈论token数,他们只谈论调用频率。目前所有模型的定价模式都是按照token收费的。虽然我认为这是一种更初级的商业模式,但不可否认的是,这种模式可能会持续很长时间,最终可能会演变成一种价值收费的方式,而不是按照token进行清算。
例如OpenAI最初的订阅费是200美元,他想做一个2000美元的商品,因为他的AI能力显著提高,因此可以为你提供更高的价值,这就是长期商业模式的演变。

冯大刚:你提到的按价值收费的方式,在网络大厂中似乎还没有实施。
谭待:这是模型能力逐渐增强的结果。为了按照价值收费,模型需要实现功能复杂的agent。希望25年内能有一些试点。
冯大刚:如何定义按价值收费?
谭待:这一模式一开始就存在于火山中。在许多领域,我们选择端到端的方式,为企业解决更困难的问题,帮助企业节约资金,并帮助您盈利。例如,起初,我们在火山上的产品提供推荐服务。通过AB测试,我可以清楚地告诉你,我的服务可以帮助你赚更多的钱,然后我会从中获得一些。我们还需要在模型中实现这一点。根据价值收费的核心,AI必须深入到业务方面,未来大模型也有机会做到这一点。
冯大刚:现在很多人都开始谈论它,比如Kimi,添加它并不重要,保留它更重要。您认为保留取决于什么?
谭待:客户体验必须保留在C端,B端也是如此。我们现在特别注意保留。客户本周使用,下周还会使用吗?虽然我们没有遵循C端留存率和活动率的指标体系,但是如果客户第二周或者第二个月不来,说明你做得不好。
04、AI云原生时代
冯大刚:在这次豆包更新(冬季FORCE原动力大会)中,你认为最值得关注的是什么?
谭待:此次豆包大模型的新发布与优化,核心在两个方面:
第一,豆包Pro作为我们最强的语言模型,会有更大的版本更新。目前的版本与GPT-4o全方位对齐,可以解决更多的问题。同时,我们发布了豆包视觉理解模型,这是人类理解世界最重要的方式,也是大模型的方式。
除了模型本身,第二个亮点是推出了一系列需要相应的智能体开发平台工具的模型落地,包括火山方舟的新能力,比如使用大模型进行多模式搜索和推荐,我们还提供了100。 应用模板,帮助企业低成本地完成这些事情。
接下来,我们将围绕更强的模型、更低的成本和更容易实施的计划开展工作。如今,大型模型在公司的IT负荷中所占的比重越来越大,整个企业的IT结构已经到了一个变化的节点。一开始我们讨论的是传统的IT架构,后来我们讨论了云的原生。我们认为,在有了AI之后,行业将走向AI云的原生。
冯大刚:如何理解AI云的原生?和云原生有什么不同?
谭待:尽管有人提到AI原生,但我认为“AI云原生”是一种更加准确的表达方式。AI的背后是计算驱动逻辑,所以云计算能力的消耗无疑会更大。AI云将继承云原生带来的韧性和构建冗余,但另一方面,AI的出现极大地改变了计算数据的安全性。在此之前,我们所有的计算架构都是针对CPU进行优化的,但现在我们需要在CPU之外独立添加一个GPU来重建GPU。在计算网络和数据方面,传统的以太网架构已经不能满足新的需求。再一次构建一个以GPU为核心的数据流动系统。
而且在数据方面,大型模型带来的最大价值之一就是我们最终可以很容易地处理非结构化数据。在数字化转型之前,第一个困难在于如何将非结构化数据转化为结构化数据。这个过程很容易丢失大量的信息,无法找回。下一步,如何提取非结构化数据也是一件很困难的事。但是在大型模型之后,语音、视频等非结构化数据可以直接交给大型模型进行处理。
另一方面,我们还应该考虑如何在数据库中统一存储和管理结构化数据和非结构化数据。我不能在大数据中放置一个数据,而是在模型处理中放置一个数据,这样数据就会沉积太多,这将涉及整个数据架构的重新设计。
安全也是如此。在这次FORCE会议上,我们还讨论了如何利用人工智能处理隐私问题的私人计算方案。我们提供了一个可以解决云上更通用需求的解决方案,比如知识库、推理等领域。以前有很多安全和运维的日志和报警,都是手动处理的,但实际上这些都可以通过人工智能来控制。
一般来说,AI在IT系统设计、数据、安全等方面都带来了很多变化。这一次,我们发布了一系列关于AI延伸的产品,这也是云2.0带来的变化。云原生技术已经存在了10多年,是2013年和2014年提出的技术。未来10年或20年,行业将走向AI云原生。
05、AI技术普惠
冯大刚:现在很多豆包工具AI都在字节内部使用,使用效果如何?
谭待:很好,现在我在飞书上提问,它会帮我自动总结,如果数据有异常,也会帮我查看原因。而且我们现在对客户的工单进行分析,在对结构和非结构数据进行总结之后,还可以了解他们对我们的产品是否满意。从经理的角度来看,这样你就能更好地把握全局。IT架构也是如此。比如我们目前的豆包模型效果好,成本低,因为这些都是先在公司内部平台上线,我们通过AI云原生计算网络进行优化,否则很难实现持续AI产品的低价和利润。
冯大刚:豆包视觉理解模型是怎样定价的?
谭待:大豆包模型的定价,就是要做好。 AI 普惠的东西。
我们推出了一个大模型,希望它能够真正使用它。 AI 帮助更多的开发者和企业提高效率,尤其是中小企业。由于开发者和中小企业之前缺乏各种资源,它们可以通过大模型生成自己的代码,自动创建内容,完成各种复杂的任务,这实际上可以大大提高开发者和中小企业的生产力。
要实现这一目标,首先要有更好的模型能力,其次要有更低的成本,这样大家才能积极创新,才能涌现出越来越多的应用来解决实际问题。
大豆包模型的定价,都是一步到位的合理价格,价格透明,并非“高刊例价” “打折”的做法。我们希望促进大模型的普及,让更多的中小企业和个人开发者释放自己的生产力,帮助他们做出更多的创新,这也是一件可持续的事情。不但豆包大模型降低了维修费用,从全球来看,OpenAI、Gemini一直在不断地降价,实际上都是用类似的方法来做的。
冯大刚:但是仍然会有人认为你在打价格战。
谭待:对于企业市场来说,商业模式是建立在可持续发展的基础上的。任何商品都必须盈利,价格不能通过补贴来降低。如果降价是亏损,规模越大,损失越大,这不是一个合理的商业模式。
即使豆包视觉理解模型的价格只有每千tokens3厘钱,我们也保持毛利为正,而不是赔钱补贴。
冯大刚:为什么能达到这样的价格?
谭待:大豆包模型在技术上有了很大的提升,通过技术创新降低了成本,不仅实现了AI技术的普及,也让我们的业务毛利可持续。
具体方法是算法、软件工程和硬件相结合的方案:例如,算法具有较好的模型结构,可以以较低的成本进行复杂的推理。相比之下,人脑(对应GPU功能)实际上只有5瓦特的功耗,成本非常低。大型模型也有很大的优化空间,可以使其维护成本越来越低,同时保持相同的智能水平。另外,算法团队从一开始就考虑到了豆包大模型在模型结构设计中的巨大推理需求,在预训练阶段就有针对性地在attention,KV 创新优化了cache机制。既保持了模型的智能化水平,又对推理极为友好,能有效降低推理成本。
另外一方面,工程中最重要的一点是规模化。因为规模越大,负荷越大,可以混合调度不同的负荷。例如,一些研究任务在半夜进行大量的模型推理;办公室场景,使用高峰在白天;有些负荷是娱乐场景,可能是早晚高峰。所以,当大型客户越来越多,公司的负荷越来越多样化时,通过大规模调度可以将成本降低数倍。
事实上,火山引擎全力推广豆包大模型,已积累了这种规模优势。另外,我们还在实际的软硬结合方案中做了许多事情,比如我们应该在国内大规模地使用PD分离推理。因为推理的不同阶段,对计算能力和带宽的需求也不同。通过这种方式,我们可以根据阶段将模型推理分开,放入不同的池化资源池中,然后与下面不同的硬件选择相匹配。由于有的硬件计算率强,有的硬件带宽大,各自适应不同的推理阶段,这样也可以大大降低成本。再加上运营管理方面,我们做库存管理,供应链管理。以上因素综合起来,每个环节都有几倍的成本优化,总体上是很大的提升。
冯大刚:火山云在过去的云域并非第一,能否借助AI云实现后发制人?
谭待:云的逻辑是,云必须是一条很大的跑道,它使用GDP。 x 数字化占比 x 渗透率 计算出来的,所以这个空间特别大。其次,对企业来说一定是阴天,所以市场肯定可以容纳几家公司,而不仅仅是一两家公司。由于从供给安全的角度来看,企业肯定会使用阴天,从坦然灾害的角度来看也是如此。其三,不同的云能力有不同的特点,它可以利用每个家庭的优势。就数据而言,公司阴天的比例和数量也可以得到证实。云的本质是规模。服务器越多,带宽越大,成本越低,弹性越好,可以以更好的价格提供更多的服务,拥有更多的客户。
对云计算而言,AI是一个巨大的变量。AI加入后,云的特性发生了变化,可以更好地为业务端服务。云的所有产品都会发生很大的变化,不像过去10年云的产品没有变化,未来10年云的产品会发生很大的变化。正如我们刚才所说,AI云原生就是这个概念。一旦发生变化,新产品就可以多样化,更好地为客户服务,这是一个很好的机会。第一,我们对传统云上平台的规模很有信心,对AI这一部分更有信心,我们的目标是做到第一。
冯大刚:我观察到今年机场的广告一般是云厂商和AI厂商不断“展示肌肉”,方法是粘贴客户名单。你认为明年会选择什么方法?
谭待:我最近也在和团队沟通。我们的机场广告需要稍微修改一下吗?之前的逻辑是告诉大家很多人都在用,但是现在我觉得客户关心的是有没有深度使用,有没有带来什么效果。所以,从我们的角度来看,我们未来可能会朝着这个方向发展。
冯大刚:谢谢谭先生。今天,我们愉快地交谈了。我们用豆包问的最后一个问题来结束。豆包问,你在忙碌的工作之余有哪些个人爱好和独特的放松方式?这些对管理有什么启发?
谭待:在平时放松的时候,我喜欢玩两个游戏,一个是足球经理,这是一个模拟商业游戏;一个是文明,这是一个战略游戏。这两个游戏每次都要花很长时间。第一,我非常喜欢历史和足球,第二,你也许还能理解一些管理理念,并能进行沙盘演练等操作。我认为你每天都在思考的问题,比如今天长期思考的管理问题,无论是看书还是玩游戏,这些问题在这个过程中肯定会被联想到。而且这两款游戏都是单机版,可以归档,这意味着你可以一直赢(笑)。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




