Agent应用爆发,谁能成为向上托举的力量?Infra如何担此重任?
历经两年多的发展,AI正加速迈入Agent时代。
当AI从“被动响应”转变为“主动决策”,AI Agent成为连接数字世界与物理世界的关键枢纽。
从自动处理客户服务工单的企业Agent,到协调多步骤科研实验的学术Agent,再到管理智能家居生态的个人Agent,这种具备推理、规划、记忆与工具使用能力的智能体,正在重塑产业形态。
然而,支撑其智能的是一套复杂且精密的基础设施,它不仅包含算法与模型,还涵盖从研发到部署、从协作到运维的全生命周期支撑体系。
2025年,AI Agentic基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen等开源大模型的突破为Agent提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”。
据IDC预测,全球80%企业将在年内部署Agent。“大脑”与“四肢”的协同进化,正倒逼承载二者的“躯干”全面升级,Agent Infra成为技术攻坚的核心战场。

Agent企业应用面临五大痛点
利用AI能力实现工作流程自动化的产品早已有之。在生成式AI出现之前,RPA类产品就很流行。
但当时AI能力较弱,RPA只能将简单的单一工作流程自动化,不具备真正的智能,无法解决复合化的复杂问题。
直到生成式AI出现,各种真正具备智能的Agent应用诞生,人们才从AI自动化中获得显著的效率提升。
Agent本质是一个能调用各种工具的AI。比如Manus,它用提示词控制AI模型,并编排了精巧的工作流,让AI模型使用不同工具完成复杂任务。
不过,无论是以DeepResearch为代表的研究类Agent应用,还是Manus这样的通用Agent应用,都是通过网页或App向终端用户提供。
这种提供方式不适合专业的AI开发者、AI创业者和企业用户。他们需要让Agent使用专有的数据,无缝嵌入业务,为业务持续创造价值。
商业化使用Agent,首先会遇到终端性能问题。当功能强大的Agent在用户本地终端运行时,会出现各种状况。
首当其冲的是AI推理的算力限制。Agent由强大的AI模型和供其调用的工具链组成。运行强大的AI模型通常需要AI专用的算力,由GPU或AI专用芯片提供,消费级的PC或手机几乎无法部署高精度的大模型本体。因此,目前大量的Agent公司采用云端算力,将模型的训练和推理都放在云端完成。
其次是执行任务的算力问题。Agent任务具有高并发、高算力需求的特点。企业在本地部署Agent后,当业务量快速增长时,马上需要更多算力,本地部署速度跟不上;而业务闲置时,又会造成巨大的资源浪费。比如Manus初期用本地服务器的虚拟机做任务,用户大量涌入时,出现性能不足、服务不稳定的情况,影响了初期口碑。
再次是AI工具配置麻烦。Agent若不能调用工具,就难以解决复杂问题。例如搭建销售类Agent,需要调用CRM获取客户信息,调用内部知识库介绍产品,还需调用通讯工具触及客户。国内的智算中心虽能缓解算力限制问题,但只提供算力,不提供搭建Agent所需的工具链。企业要定制与业务紧密耦合的Agent,需自己搭建工具链,这不仅开发成本高,还会延缓业务发展速度。
解决算力限制和AI工具配置问题后,专业AI开发者和企业用户会遇到权限冲突问题。开发和部署Agent是为了嵌入业务,这不仅要调用各种工具,还需与业务中的软件紧密配合。以销售类Agent为例,调用CRM、内部知识库和通讯工具时,会占用本地计算资源,还会抢占人类员工的访问和操作权限,可能拉低团队整体工作效率。
对于企业用户,安全性差也是大问题。企业使用Agent需用公司内部数据,但Agent任务执行是个黑盒子,过程不透明,可能对本地电脑文件系统进行修改、删减等操作,轻则造成系统臃肿,重则导致文件丢失或数据泄露。而且Agent调用工具本身也存在安全隐患。据统计,超43%的MCP服务节点存在未经验证的Shell调用路径,超83%的部署存在MCP配置漏洞,88%的AI组件部署未启用防护机制。在未来Agent普及的时代,安全和信任比互联网时代更重要。
企业真正使用本地部署的Agent后,还会面临Agent缺乏长期记忆的问题。缺乏语义记忆和场景记忆,Agent只能完成一次性任务,严重影响其在企业业务中的使用范围。若能赋予Agent长期记忆,它不仅能完成多次任务,企业还可根据记忆迭代Agent,使其能力不断增强。

Agent Infra乘风而来
如今,云厂商纷纷推出新一代Agent Infra技术架构。
比如AWS推出AgentCore(预览版),基于Lambda FaaS基础设施深度定制和优化的全托管运行时,为Bedrock Agents解决了标准Lambda的关键限制,如长时执行、状态记录、会话隔离等。
Azure推出AI Foundry Agent Service,集成Functions FaaS事件驱动,使Agent Service能利用Serverless计算的优势,更轻松地构建和部署Agent。
Google Cloud推出Vertex AI Agent Builder,虽官方未明确,但普遍推断其高度依赖并优化了Cloud Run来支撑长时运行、并发和有状态的需求。
阿里云推出函数计算Function AI,基于FC FaaS的Serverless x AI运行时深度优化,推出模型服务、工具服务、Agent服务,开发者可自主选择模型、运行时、工具的一个或多个以组装式设计构建和部署Agent。
PPIO推出国内首个Agentic AI基础设施服务平台——AI智能体,该平台产品分为通用版和企业版。通用版以分布式GPU云底座为支撑,发布中国首款兼容E2B接口的Agent沙箱,以及更适用于Agent构建的模型服务。Agent沙箱是专为Agent执行任务设计的云端安全运行环境,支持动态调用各种工具,为Agent赋予安全可靠、高效敏捷的“手和脚”,目前已接入Camel AI、OpenManus、Dify等著名开源项目。

这些技术的目标一致,即为Agent提供更高弹性、更低延迟、更强安全、更长会话的“躯干”,支撑其从实验室走向千万级企业场景。当认知与行动形成闭环,Agent Infra的技术代差将决定企业AI创新和转型的落地速度与质量。
Agent开发范式的演进对底层基础设施提出了新要求。各大云厂商的新一代Agent Infra聚焦长时运行、会话亲和、会话隔离、企业级IAM和VPC及模型/框架开放等技术突破,以满足三类核心Agent形态的共性需求。
首先是LLM Agent连续调用工具的强诉求。LLM Agent需连续调用工具链完成复杂推理,可能耗时数分钟甚至数小时。传统Serverless的执行时长限制会强制中断任务,因此新一代Agent Infra必须突破该限制,支持长时运行。同时,为维持多轮对话的上下文一致性,需会话亲和确保同一请求路由到同一计算实例,避免状态丢失。
其次,Workflow Agent对状态管理的依赖。自动化工作流需持久化记录执行状态。传统Serverless的无状态特性无法保存中间结果,而新一代Agent Infra通过提供有状态会话保障工作流的原子性和可恢复性。会话隔离则确保多租户或高并发场景下任务互不干扰,满足企业级安全合规要求。
第三,Custom Agent的灵活性与生态整合。Custom Agent需集成异构工具,要求新一代Agent Infra支持模型/框架开放。封闭式架构会限制Agent能力扩展,云厂商通过解耦计算层与框架层,可提供插件化集成接口。
新一代Agent Infra保留了Serverless的核心优势,通过关键功能和技术突破,解决了LLM Agent、Workflow Agent和Custom Agent的核心需求。这标志着Agent开发正从“手动拼凑传统组件”转向“利用原生Infra实现高效、安全、可扩展的开发部署”的新路径。
随着Agent应用加速发展,Agent Infra成为模型公司、云厂商、初创公司积极拓展的领域。除云巨头外,创业公司也有机会。一是在已有Infra中寻找有AI - native需求的环节,如提高Sandbox的冷启动速度和隔离性,或增加与AI workflow结合的功能点。二是抓住Agent开发中的新痛点,开发易用性高且价格合理的Infra产品,推动Agent生态的构建。
当开发Agent变得像组装乐高积木一样简单,当Agent协作网络遍布社会各个角落,我们将不再争论“这是风口还是泡沫”,因为这是即将到来的新未来。
本文来自微信公众号“科技云报道”(ID:ITCloud - BD),作者:科技云报到,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




