千亿AI数据中心,电感器如何提高电源效率?

03-16 06:36

电子爱好者网报道(文章 / 得益于云计算,梁浩斌,AI 需求方面,近年来数据中心市场持续高速扩张。IDC 和浪潮信息在一起 2 月推出的《2025 2024年中国人工智能计算能力发展分析报告显示, 全球人工智能服务器年度市场规模 1251 亿美金,2025 年将增至 1587 亿美金,2028 年有望达到 2227 亿美金。在这些因素中,生成式人工智能服务器的比例将在 2025 年 29.6% 提升至 2028 年 37.7%。


随着数据中心规模的增长,能源问题正面临。现在大模型等等 AI 应用计算能力的需求,促进了计算能力的需求 AI 芯片计算率不断提高,同时也带来了相对较高的功耗。单个计算率芯片的功耗,从过去开始 300W 从上到下提升到现在 1000W,大功率 AI 芯片给数据中心带来了更高的电源要求。


另一方面,数据中心需要更高效的效率 PSU(供电模块),另一方面, GPU 同样需要更强的等算率卡供电设计。


所以为了改进 PSU 能效,许多情况下可选择使用。 SiC、GaN 在此之前,我们有很多关于宽禁带半导体功率器件的文章。 PSU 方案已经介绍过了。此外,实际上,电感也是提高电源效率、增加负载能力的关键设备。


感应器是一种被动元件,其主要功能是储存磁场能量,并通过电磁感应现象阻碍电路中的电流变化。


在结构上,电感是由绝缘线缠绕而成的线圈,由铁氧体、铁粉芯等磁性材料组成。形状可以是环形、柱形、片状等。目前,片式电感是服务器中的主流。


基于法拉第电磁感应定律和楞次定律,当电流通过电感线圈时,会产生磁场,此时电能转化为磁能储存;当电流发生变化时,磁场变化产生感应电动势,即反向电压,同时释放电能。因此,当电流发生突然变化时,电感可以调节和稳定电压。


举例来说,现在 GPU 在计算卡的供电电路中, 12V 转 1V 给 GPU 电源,由于电压低,功率高,电流可达数百安培。当 GPU 当计算卡启动时,电流需求急剧增加,这可能会导致电源的电压急剧下降。 GPU 通过释放存储能量,中可避免电源电流骤降,保证存储能量, GPU 稳定运行。同时在 GPU 在应用中,还规定电感在高频环境下保持低发热,避免因温升而导致性能下降。


除了在 GPU 其实,电感也广泛应用于数据中心的电源部分,比如在数据中心。 PSU 的 DC-DC 部分,电感通过储能和释能稳定电压,保证服务器,GPU 等待设备的稳定运行。


在光模块中,电感可以过滤掉高频电路中的干扰信号。(EMI),特别是在高速光模块上,提高数据传输质量更为重要。


伴随着数据中心的发展,目前电感有三大发展趋势。第一, AI 随着数据中心计算率硬件功率的不断提高,电感需要在服务器机架的有限空间内承载更大的功率,并在高温下提高耐高温能力,保持稳定。


第二,高频率和低损耗,数据中心 PSU 中国越来越多地使用它 GaN、SiC 等宽禁带半导体器件,这些高频器件还需要电感来支持更高的工作频率,同时减少磁芯消耗,提高整个系统的转换效率。


第三,微型化和集成化,AI 服务器、服务器、数据中心、AI 加速卡倾向于在有限的空间内整合更多的计算单元,对包括电感在内的部件有小型化的需求。目前,用于服务器的贴片电感尺寸已经缩小到毫米级。同时,电感体积缩小,功率密度增大,因此一体化成为一种趋势,例如, DrMOS 将电感、电容、MOSFET 等待整合到一个电源模块的封装中。


随着数据中心计算密度的不断上升,电感将进一步整合(嵌入基板)和功能整合(与 IC 协同设计)演变,成为支撑下一代高能电子产品的核心基石。


阅读更多热门文章


加关注 星标我们


把我们设为星标,不要错过每一次更新!


喜欢就奖励一个“在看”!


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com