英特尔携手火山引擎,共启「全局效率优化」新纪元

2025-12-20
AI普惠的时代终将降临。

全球市场正面临着一场前所未有的算力需求大爆发。


尤其是在多模态技术日益成熟,企业级复杂Agent落地愈发完善的当下,越来越多的企业走在了AI转型的前列。


然而,随着模型选择增多,算力需求持续膨胀,如何算好经济账,如何实现高吞吐、低时延,在稳定性、可靠性与兼容性上更有针对性,这些问题让AI加速进入了云原生时代。


12月19日,在2025火山引擎冬季FORCE原动力大会上,豆包大模型1.8以及音视频创作模型Seedance 1.5 pro正式亮相。权威评测数据表明,豆包大模型在多模态理解、生成能力以及Agent能力方面,已跻身全球第一梯队。


 


另外,据火山引擎总裁谭待介绍,截至今年12月,豆包大模型日均token使用量突破50万亿,与去年同期相比增长超过10倍。


在千行百业落地应用AI的关键节点,火山引擎的AI普惠究竟是怎样实现的呢?



爆发背后的AI原生解决方案


“数据是新时代的石油”,火山引擎总裁谭待曾在采访中表示,云计算行业的第二次浪潮在于智能化,其意义不仅是发挥数据价值,还在于端到端的业务落地,以大模型为基础,包括MaaS(模型即服务)、AI Agent将成为未来数年内的主流方向。


沿着这样的思路,火山引擎进行了一系列布局。


与1.0时代不同,云原生的主体不再是网页,而是Agent。业内将2025年视为Agent元年,作为大模型落地的重要载体,Agent的能力决定了大模型应用的深度。


为了突破Agent的能力上限,火山引擎一方面抓底层模型,密集迭代模型版本,推出了性能与性价比兼具的模型产品,比如此次更新的视频生成模型Seedance系列,在性能表现上灵活性更高:Seedance-1.0-Lite以成本优先,兼顾速度,适配高频创作。Seedance-1.0-Pro可实现影视级画质与原生音效,支持2–12秒1080P自由生成、多镜头叙事及精准指令参考,满足电影级感官叙事需求。


而Seedance 1.5 pro音视频创作模型有着更为出色的完成度,采用创新的原生音视频联合生成架构,支持环境音、背景音乐、人声等多种元素,实现了毫秒级的音画同步输出。在对白处理上,模型支持多人多语言对话,口型对齐精准,覆盖中文方言(如四川话、粤语等)、英文及小语种,极大地提升了视频内容的真实感与全球化创作潜力。


另一方面,火山引擎也携手生态伙伴做好硬件配置,开启云边端协同新模式,通过软硬件高度配合的生态解决方案,最大化释放AI能力。


今年6月,在火山引擎2025春季原动力大会上,火山引擎已联合英特尔共同发布搭载英特尔至强6性能核处理器的第四代通用计算型(ECS)实例家族,使得传统应用与AI应用全面升级。



据测算,与上一代实例相比,通用计算基础型实例g4i在MySQL数据库和Web应用上分别实现了20%和19%的性能提升,算力增强型实例g4ie在视频解码和图像渲染上带来了15%和26%提升,I/O增强型实例g4il在Spark大数据和Redis数据库上也实现了13%和30%的提升。


在火山引擎的构想中,AI时代CPU同样重要,通过与GPU的高度协同,为企业级AI Agent提供端到端支持。其特性在于高并发快响应、算力成本进一步优化,并保障安全隐私性。


特别是在安全方面,对于许多企业而言,业务的稳定和安全都是最核心的,随着大模型应用深入产业,越来越多高质量、高价值敏感数据都成为AI应用的关键。


火山引擎与英特尔TDX构建的机密虚拟化实例,无论是RAG应用中的信息提取处理流程还是数据库流程,亦或是模型生成流程,都可以在不改变应用程序中间框架的前提下,直接访问机密虚拟机,实现云中的隔离和保护,用户使用RAG部署过程保证数据安全。


火山引擎云存储还引入了至强处理器的压缩加速技术(英特尔®QAT),以提升数据压缩和解压缩效率,实现优于软件LZ4算法的压缩率和更低时延。QAT硬件加速生成CRC32校验码,确保数据完整性,并支持AES-XTS模式的对称加密,增强数据可靠性。



如此强大、灵活并兼顾成本效益的方案,最终构成了企业的AI弹性基础设施底座,加速了企业的智能化进程。正如英特尔市场营销集团副总裁、中国区总经理郭威所言:“释放AI的真正价值,关键在于以易部署、可扩展的方式将其融入企业工作流与个人体验。依托火山引擎在算力资源调度和大规模AI推理优化方面的优势,我们将芯片级的创新通过云原生架构无缝延伸至边缘与终端,实现对多样化、异构算力资源的高效协同与统一交付,构建稳定可靠的服务环境,助力开发者与企业聚焦于业务创新与落地。”



AI普惠前夜,云边端协同筑牢发展基石


火山引擎的AI云原生,不仅仅是技术的创新,也是未来推动AI应用落地的关键基础设施,通过与英特尔合作推进“云边端协同”趋势,火山引擎将推动AI应用于更为广阔的行业和场景。


在此次2025火山引擎冬季FORCE原动力大会的展位,我们也见到了火山引擎与英特尔在边侧与端侧的多元应用。


在基层社区治理中,工作人员往往面对着琐碎繁杂的事物,并且业务跨度大,需求千丝万缕。AI如何在其中发挥价值?社区全能助手“华格格”应运而生。它通过企业AI工作台的智能意图识别能力,能够自动理解用户多领域不同需求,并将其精准分配给对应的智能体,将原本分散在多个系统中的功能无缝衔接、自然协同。


顺畅的使用体验背后,则是英特尔HiAgent智能一体机解决方案在发挥价值。其重点针对多智能体跨域请求需频繁切换、体验割裂、上下文丢失等问题,依托于火山引擎HiAgent企业AI工作台实现了优化。自动将用户跨领域请求及上下文路由至对应智能体,聚合离散功能,打造“一专多能”数字员工,提升使用体验与处理效果。并且是以灵活、普惠的方式进一步降低部署门槛与算力成本。



此前在德国慕尼黑车展期间,懂车帝巨懂车也曾联合英特尔,完成了一场属于未来世界的展览,刷新沉浸式体验的上限。


通过PICO VR眼镜,由英特尔PC与服务器平台驱动的6DoF虚拟现实场景,简单来说,不仅支持用户头部旋转(3个旋转自由度),还能检测用户在空间中的位置移动(3个平移自由度),从而实现真实的空间行走和交互感。但其同样需要极低的延迟才能做到优质的沉浸式体验,因此结合低延迟、高并发的RTC实时通讯技术,多方合作实现多路高清视频低延迟传输至VR设备的效果。


在个人端侧,基于英特尔与火山引擎提供的弹性AI能力,一种新的内容创作工作模式也在诞生。英特尔AI PC视频剪辑Demo,基于LLM/VLM大模型与端云混合算力打造的全自动视频创作工具,通过弹性灵活的算力组合方式,极大的优化生产流程效率。


例如,端侧GPU可运行VLM模型,对视频素材进行深度解析,变成结构化数据后上传至云端。而云端的LLM模型当即发挥所长,依据用户指令,自动完成主题挖掘、故事性规划、分镜编排、背景音乐匹配及字幕生成,依托于脚本规划,再将任务回归本地,端侧完成视频剪辑合成和导出。通过端云协作,最大化优化视频创作者的工作效率。


AI时代,算力已成为企业竞争的“新能源”,而云边端协同,让企业级Agent能力不断趋于成熟。作为AI价值的关键衡量指标,豆包大模型日均调用量实现253倍增长,从去年5月1200亿/天攀升至今年9月的30万亿/天。


截至目前,豆包大模型多个关键行业实现深度落地,覆盖超5亿终端设备、超九成主流车企、八成系统重要性银行和超九成985高校等,展现出广泛的应用前景。


另据谭待现场透露,豆包大模型日均使用量超过50万亿,自发布以来增长417倍。“万亿Tokens俱乐部”成员突破100家。


谭待表示,“明年模型之间最重要的还不是竞争,最重要的是要把市场做大。明年这个市场可能还要再涨10倍,大家其实就不是存量的竞争,不是零和博弈,而是说大家一起把市场做大。同时,明年模型还需要进一步降价,这个市场才能做大。”


如今,AI算力竞争已进入白热化阶段,英特尔与火山引擎的合作正在重新定义企业获取和使用算力的方式。从云端到边缘,从训练到推理,从性能到安全,双方构建的全栈解决方案正逐步消除企业AI转型的技术门槛。如果说最初的通力协作解决了产业智能的单点突破,现如今“全局效率优化”时代正在开启,在火山引擎与英特尔的通力协作下,AI普惠时代终将到来。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com