OpenAI自研芯片版图浮现,携手博通开启推理效率变革
电子发烧友网报道(文 / 莫婷婷)在人工智能大模型训练与推理成本居高不下、算力需求呈指数级增长的背景下,10月,OpenAI与Broadcom(博通)正式宣布达成一项前所未有的战略合作:共同部署总规模达10吉瓦(GW)的定制AI芯片与网络系统机架。这一合作彰显了博通在AI时代端到端的技术实力,标志着其技术能力已形成从底层研发到大规模工程落地的完整闭环。

博通技术底座赋能,成OpenAI定制AI集群的隐形引擎
根据官方公告,此次合作的核心内容为:OpenAI负责AI加速器及整机系统架构的设计,博通负责部署人工智能加速器和网络系统机架,并提供全套以太网网络解决方案。
合作方向聚焦于构建面向下一代AI大模型的高性能、高能效计算集群。整套系统将完全基于博通的以太网技术栈构建,这些机架包含高带宽交换芯片、PCIe互连、光学连接及共封装光学(CPO)等端到端互联方案。此举旨在将OpenAI在训练GPT系列、o1、Sora等前沿模型过程中积累的软硬件协同优化经验,直接融入定制硬件中,从而提高推理效率、降低单位算力成本。
在进展方面,双方已签署合作意向书,并计划从2026年下半年开始分阶段部署AI加速器机架,预计到2029年底前完成10吉瓦算力的建设。这些系统将部署在OpenAI自有设施及合作数据中心,以满足其不断增长的全球用户需求。OpenAI在官方通告中指出,其周活跃用户已超8亿。
此次合作不仅增强了OpenAI在算力基础设施上的自主可控能力,也充分发挥了博通在网络芯片领域的深厚技术积累。作为网络芯片龙头,博通借此合作实现了从传统网络芯片供应商向AI全栈基础设施核心伙伴的战略升级,在超大规模AI集群中占据关键地位。
根据2025财年第三季度财报,博通单季营收达159.5亿美元,同比增长22%;其中AI芯片收入高达52亿美元,同比激增63%,占总营收的三分之一。这一增长的核心驱动力,正是其面向超大规模数据中心客户提供定制化AI加速器(XPU/ASIC)业务。
博通的技术优势首先体现在其领先的以太网互连架构上。在AI集群规模不断扩大的趋势下,网络已成为性能瓶颈。博通持续迭代交换芯片,近期公司推出了业界领先的Tomahawk 6交换芯片,提供高达102.4Tbps的带宽,并支持512个200Gbps SerDes通道。作为新一代CPO以太网交换芯片,Tomahawk 6带宽容量达到102.4Tbps,是业内同类芯片的2倍,功耗降低约70%,每1.6Tbps端口功耗从30W降至9W,满足AI训练与推理对高带宽、低延迟的严格要求。
此外,今年8月,博通还推出专为跨数据中心的scale - across场景设计的Jericho - 4路由器芯片(51.2Tbps),能够安全连接地理上分散的数据中心内超过100万个各类处理器(XPUs),进一步巩固了博通在大规模AI网络中的技术壁垒。
此外,博通还在推进新型互联技术。此前,博通提出新型互连框架SUE ( Scale Up Ethernet ) ,旨在将以太网的优势引入AI系统内部的Scale Up,实现XPU集群高速、可靠、开放,再次稳固其在AI时代交换器市场的主导权。
与此同时,博通在软件层面的整合也初见成效。自收购VMware后,公司成功将其转型为AI优化的私有云平台——VMware Cloud Foundation(VCF)9.0。本季度90%的头部企业客户已采购许可。这一软件能力与博通的硬件形成协同效应,使其不仅能提供芯片,还能交付完整的AI基础设施解决方案。
由此可见,博通与OpenAI的合作并非仓促之举,而是建立在长期技术积累与战略前瞻布局的基础之上。业内消息指出,OpenAI与博通的合作早在2024年之前就已开始,至今已有18个月,双方共同设计了面向推理优化的定制芯片产线。
自研ASIC成降本增效关键
为了推进AI基础建设,OpenAI不仅与博通展开合作,还与英伟达、甲骨文、AMD签下合作协议。根据公开资料,OpenAI与上述三家企业的合作大约达到33吉瓦算力。
OpenAI创始人山姆・奥特曼(Sam Altman)表示,10吉瓦只是一个开端。尽管它比当下的规模大得多,但我们期望以极低的价格快速交付高质量的情报——世界将以极快的速度接纳它,并发掘出令人难以置信的新用途。
业内曾有观点认为,博通的入局将替代或瓜分英伟达在OpenAI的大部分订单,形成竞争关系。事实上,在此次多方合作中,英伟达仍负责前沿研究和高峰算力需求,而Broadcom的定制芯片负责大规模推理场景等,例如为OpenAI专门设计的推理优化ASIC等。
从OpenAI近期的举措来看,Altman采取了“多供应商并行”的策略。
一方面可以分散对单一技术路线或厂商的依赖,提高供应链安全;另一方面,OpenAI通过引入定制化芯片,能够针对训练、推理等不同应用场景实现更高效的算力分配与能效比优化。尤其在推理成本不断增加的背景下,专用芯片在延迟、功耗和单位成本上具有明显优势。博通半导体解决方案事业部总裁Charlie Kawwas博士表示,定制加速器与基于标准的以太网纵向扩展和横向扩展网络解决方案完美结合,可提供成本和性能优化的下一代人工智能基础设施。
业内人士认为,OpenAI与博通的合作将推动定制ASIC在AI芯片市场的加速普及与技术发展,促使通用GPU向针对特定工作负载优化的专用芯片转变,重塑AI硬件生态格局。
成本是推动这一转变的因素之一。相比通用GPU,定制推理芯片可降低高达3倍的成本。OpenAI高管提到,1吉瓦数据中心的成本约为500亿美元,芯片成本约占350亿美元(基于英伟达定价估计),而自研ASIC能够优化巨额基础设施投入,实现Sam Altman所强调的“巨大效率提升”,即更强性能、更快迭代与更低模型成本。
不可否认,OpenAI这一超级算力扩张计划不仅改变了数据中心的规模与架构,也为整个AI产业链带来了巨大机遇。我们注意到,在数据中心网络与AI训练集群领域,多家芯片企业正加快布局。例如Marvell凭借其在高速互连、定制ASIC和数据中心PHY技术方面的技术积累,有望在本轮AI芯片浪潮中实现增长。
更多热点文章阅读
点击关注 星标我们
将我们设为星标,不错过每一次更新!

喜欢就奖励一个“在看”吧!
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com

