2024 MWC上海 徐子阳,中兴通讯总裁:匠心筑基,开放共赢。

2024-06-29

6 月 26 日,2024 2008年上海世界移动通信大会开幕,中兴通信总裁徐子阳应邀出席当天举行的“人工智能先行”主题演讲。 5G-A × AI "为主题的 GTI 在人工智能浪潮下,国际工业大会(上海)分享了中兴通讯的数智实践和创新。


徐子阳在“人工智能先行”主题演讲中分享了“匠心筑基,开放共赢”的问题。他指出,目前世界已进入 AI 驱动科技革命,但除幻觉、安全与伦理等问题外,生成式 AI 发展也面临着计算率、能源消耗、数据、标准化和商业应用等挑战。对于 AI 高级,中兴秉承开放解耦、网络计算、训练推进的关键理念,以客户价值为核心,提供从计算率、网络、能力、智商到应用的全栈全场景智能计算解决方案,以硬实力打造基础,以软实力启迪智慧,灵活实现与客户能力的优势互补和强大合作,赋能千行百业的数字智能转型需求,为经济高质量发展注入持续动能。共筑 AI 美好的时代未来。


在 GTI 徐子阳参加了国际工业大会(上海) GTI-GSMA 5G-A × AI 合作签约仪式并围绕着合作 5G-A × AI 这个主题,以“算网进阶,智创未来”为题发表演讲。他结合当前的核心挑战、解决方案和实践案例,阐述了从传统工业化升级到新型工业化的途径。最重要的是:结合底层数字智能技术的核心突破、基础设施的效率和能力的提升、行业和行业的提升。 Know-How 深度融合,加快数字与物理世界的融合,提高生产交易效率,建立敏捷自适应的组织,使中行在不确定的未来稳定深远。中兴主张围绕数字化、网络化、智能化、低碳化四个纬度,突破现阶段的核心挑战或制约,继续前进,继续前进。中兴将始终坚持创新驱动、多元互补、开放利他的原则,以“开放解耦、以网强计算、以智升维、以绿为基础”为原则。 大力支持产业链健康可持续发展,繁荣数字经济。


下面是徐子阳主旨演讲《匠心筑基,开放共赢》全篇:


应势而变,赋能智能进阶


在过去的一年多时间里,大模型和生成模型 AI 帮助数智浪潮,技术高速迭代,商品层出不穷,新场景和新业态蓄势待发。尽管生成式 AI 仍处于发展初期,但是大家已经有了普遍的共识,那就是世界已经进入。 AI 驱动科技革命,AI 对生产生活的各个方面都会产生深远的影响和改变。人工智能将深刻重塑全球经济格局。行业咨询机构预测, 2030 年,AI 中国将得到显著推动 GDP 增长 26%,北美 GDP 增长 预计14.5%全球奉献。 10.7 经济增长1亿美元,占全球影响近70%。这一变化将为零售、金融服务和医疗卫生等领域带来前所未有的商机


生成式除幻觉、安全与伦理等问题外, AI 发展也面临着计算率、能源消耗、数据、标准化和商业应用等挑战。因此,有必要从多个方面实现高级发展。中兴提出了计算网络高级化、训练推广、开放解耦的关键理念。第一,突破技术瓶颈,加强架构、算法、算网、软硬件协同优化等研究,改进 AI 实践与推理效率; RAG、Agents 为了实现大模型的广泛应用和更高的价值,建立数据飞轮,兼顾技能提升和商业闭环,等多种解决方案保证了可靠性、可靠性和可解释性;最终,通过“开放解耦”加快标准化,构建繁荣的产业和商业生态。


高级计算网络,打造高效基础


首先是先进的计算网络,打造高效基础。在智能计算领域,高速数据连接不仅是不可或缺的,而且尤为重要,无论是芯片内的裸体。 Die 连接,芯片间,服务器间,DC 数据连接技术的不断创新与突破,将大大提高智算的性能和效率。


Die2Die 也就是芯片中的裸体 Die 间高速因特网,结合自主研发的并口 / 串口全系列 IP、完善的 2.5D/3D 先进封装,支持异构解构和集成,在一定程度上突破了摩尔定律失效和工艺制约,实现了包括异构计算和网络处理在内的各种芯片架构,提供了更高的性能和更好的性价比。


Chip2Chip 也就是说,跨芯片之间的因特网,可以通过芯片之间的分布式高速交换, PCIe5/6、56G/112G/224G SerDes 全系列高速接口结合解决方案,更好地解决当前问题 Mesh 互联网灵活性差,带宽利用率低,算率芯片进一步突破 TP8/16 互联网规模瓶颈,为用户提供差异化的竞争优势,更好地适应复杂大规模智算应用场景的需求。中兴还积极参与中移全向智能高速互联架构(OISA)的推进。另外,面向下一代 102.4T 网络交换机光电异构集成需求,LPO(Linear-drive Pluggable Optics,可插拔光模块的线性驱动)光电结合 CPO ( Co-packaged Optics,光电共封装 ) ,所有这些都可以大大提高互联密度,节能降耗,同时,布局光互连 I/O,它将在带宽密度、功率效率、延迟等方面实现革命性的提高。


Server 2 Server 也就是智算集群的互联场景,中兴正在全力配合中国移动,完善以太网调度。(GSE)工业生态,打造无堵塞、高带宽、超低延迟的新型智算中心网络,今年 2 当月,中兴积极参与中国移动组织。 GSE 基于千卡和万卡场景驱动的原型机数据共享检测,共智协力,加快突破,积极帮助链条成长和发展产业。就自身能力而言,中兴将继续推动关键芯片共享能力。 12.8T 向 51.2T 能力升级,通过提供单层 / 盒盒 / 盒子的多样化方案,更好地为全球智算训练场景提供服务。


DC 2 DC 属于广域连接场景,400G 在中国运营商的带领下,光传输产业蓬勃发展,为“光电贯物品,一网通九州”的算间智联奠定了坚实的基础。中兴正在大力支持全球最大规模的国内运营商。 400G OTN 商业网络部署,验证了整个场景 Real 400G 基于大容量连接能力,联合国国内运营商完成了基础 S C L 波段的单波 T 实时比特系统传输试验,并创造了传输能力的世界记录。随后,中兴也将继续发挥连接优势,以网强计算,打造计算网络高效全光底座。


训练与推动并举,赋能实体经济


除了常规的幻觉、安全和伦理问题,大型模型在各个行业的应用还需要处理一系列刚度场景的挑战,如专业性、准确性、鲁棒性和可追溯性。同时,在基于大型模型的基础上构建领域模型时,专业的数据治理、增量训练等项目经验和工具集也非常重要。以电信自智网络情景为例,大小模型组合,RAG(Retrieval Augmented Generation)、多智能体(Agents)协同,数字孪生,多模态 CoT(Chain-of-Thought)等等,技术创新,都已取得了成效。


在 AI 在应用商业化的征途上,训推并举是推动实体经济繁荣的关键。凭借丰富的应用领域和私域数据,中国可以为世界提供信息 AI 这个行业做出了巨大贡献。为充分发挥这一优势,在加强数据治理和数字孪生技术应用的同时,要注重精度、专业性和推理效率的提高。通过训练创造能力,通过推理和应用验证价值,构建数据飞轮,进一步促进双循环。 AI 能力迭代和商业实现,进而锻造核心优势。


在具体操作上,我们提倡引导高价值行业和天使客户。一般来说,天使客户是行业内最具影响力的企业,具有良好的数字化基础,同时积极拥抱技术变革,并能促进整个市场数字化进程。数智技术与天使客户合作, Know-How 结合优势互补,快速验证迭代技术规范,树立标杆。基于自主研发或开源基础大模型,利用丰富的行业数据和知识工程构建领域大模型,打造行业样板,实现从 0 到 1 突破。基于大型领域模型,结合不同场景实现。 1 到 N 应用扩展。


开放式解耦,构建繁荣生态


最终开放解耦,构建繁荣生态。AI 技术处于高速迭代期,但目前生态封闭仍普遍存在,缺乏行业标准,存在重复开发和资源浪费、技术独立和风险集中、选择有限和供应垄断等一系列问题,制约了重复开发和资源浪费 AI 快速良性发展。


中兴提倡构建全栈开放智算方案。软硬协同,最大限度地提高基础设施的资源效率。适应国内外主流硬件适应 GPU/CPU,支持 OSIA、RoCE/GSE 等待开放标准的高速无损互联,为客户提供多样化的选择;软件支持异构资源管理、培训作业调度、异构集合通信等。,并且正在加强多个制造商。 GPU 在支持模型运行的同时,提供高性能、高可靠的运行环境;通过计算率卸载和网络计算等技术,大幅度减少数据读写和传输时间,提高算率利用率。就能力平台而言,适应 PyTorch、TensorFlow 等待主流框架,自动对后端平台进行编译和优化,并提供数据处理、模型开发 / 训练 / 提升 / 评定 / 在支持全生命周期保障和管理的同时,还应支持计算率原生、混合池训练、高效推理、数据飞轮建设等工程工具集。就计算网络而言,加强计算网络协作,支持应用全域无感转移。


“一朵花不是春天,一朵花在春天盛开”,全栈开放的智能计算方案将有利于开放的技术生态和双赢的商业生态建设,是智能计算良性发展的关键。通过软硬解耦、训练解耦、模型解耦等方式,促进各种能力的组件化和共享赋能,加快 AI 技术创新、研发、应用和商业化进程,构建开放的技术生态;通过行业内的芯片制造商,ICT 生态定位与优势相辅相成,硬件厂商、应用开发商、集成商、运营商共同发展壮大,实现商业生态共赢。


筑基启智,共创美好未来。


中兴始终以客户价值为核心,提供全场景的智能计算解决方案,从计算率、网络、能力、智商到应用,形成了高速互联、网络计算、原生计算、无感转移、数据处理、算法优化等多项核心技术的积累。一方面,中兴聚焦高效、绿色、安全的计算能力网络,以硬实力为基础,以灵活、敏捷、智慧的能力应用,以软实力启迪智慧;另一方面,以数字星云组件交易的全开放R&D结构,可分可合,灵活实现与客户能力的优势互补和强有力的合作,赋能数字智能转型需求的千行百业。


在基础设施领域,提供计算、存储、网络、数据中心等一系列产品和方案,全面满足从中心到边缘的多元化智能计算中心建设需求。在计算率方面,芯片侧适应国内外多厂商 GPU/CPU,自研定海芯片支持 RDMA 标记卡,智能网卡,DPU 卡片等多种形式,提供高性能、多样化的计算核心和硬件加速;整机侧面,基于扣卡模块 /PCIe 插卡 AI 系列产品,如服务器、训推一体机等,灵活适应多样化场景;依托风液结合、弹性配电等节能技术,打造 PUE 低至 1.1、机柜的功率密度最高 60kW 一个新的智算中心。在网络层面,中兴通讯与产业合作伙伴共同建立了开放式。 GPU 互联标准 Olink(Openlink),还将全面融入中移 OSIA 结构,正在适应当前 RDMA 在实现机内机间统一互联技术的同时,协议重点推动机内通信从 Mesh 互联网转变为交换互联网支持单机更大规模 TP 减少连接复杂性的计算,提高集群规模和效率;自研 RoCE 网卡及盒式、框架式 RDMA 交换机,支持百卡建设 - 智算集的万卡规模;Real 400G 有助于构建计算网络高效全光底座。


能力领域,统一云管平台计算率 ZTE TECS 支持异构资源管理,培训作业调度,异构集合通信;ZTE AIS 培训平台,支持大模型数据处理和模型开发平台,提供大模型工程化全栈工具引擎。如果无感转移可以在实际应用场景中实现。 5 天可用,15 使用方便;高效推理实现千亿模型单卡布局;自动标记数据,节省时间 80% 等等。


就智商而言,中兴星云大模型集中在算法创新、数据工程和高效算力平台上。星云基本大模型包括 2.5B/16B/40B/100B/100B 各种规模,可覆盖各种布局场景,从手机、边缘到中心云。在练习阶段,选择多阶段预训练、中文词汇改进、优质语料精炼、生成数据训练等多项技术创新,减少计算能力需求。 50% 在保证模型训练效果的同时。就推理效率而言,在保证模型精度不受影响的情况下,使用权重。 INT4 量化和 KVCache FP8 量化算法,节约推理资源 3 倍。星云通信模型已完成千亿级(9*20B)MoE(混合专家)大模式练习,支持多模式输入和12万个有效前后窗口,为通信需求场景提供通信专家意见和指导。通过多模型合作技术,星云R&D大模型可以支持需求、设计、编程、测试等各个阶段的全过程。 30 多种场景,多种编程语言,如 Python、Java、C/C 、Go、Java script 能够实现代码生成的能力 GPT4 标准,而且单元测试的准确性和覆盖率都大大超过了单元测试的准确性。 GPT4-Turbo,功能测试(测试驱动开发)可根据需要直接生成。


在应用方面,中兴积极探索行业内大模型的实际应用,先后在R&D推出大模型应用,如效率提升、通信网络运维、城市治理、工业区等。在这些模型中,星云编程大模型 HumanEval 评分位列行业编码模型第一梯队,目前日常客户已超过 1.3 万,日请求数达到 11 万 ,日吞吐量达 3.3 亿 tokens,编码提效 总体R&D效率为30%。 10%。同时,基于端到端智能计算平台,为用户提供全流程大模型工具链,降低客户的进入门槛、开发和维护成本,帮助行业内大模型的普遍应用。


中兴始终坚持多元互补、开放利他的原则,坚定不移地支持和促进产业蓬勃发展;同时,加强内外双循环,不断引领创新发展。未来,中兴将继续加大投入,致力于在多个领域实现技术引领,进一步促进智能计算产业的发展和发展,为经济繁荣做出贡献。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com