AI GPU加速卡功耗失控!十年内超过15000W
快科技 6 月 16 日消息,近日,韩国高级科技院 ( KAIST ) 、TB 级别互联和封装实验室 ( TERA ) 共同展望未来十年 HBM 高带宽内存,AI GPU 加速卡片的发展,疯狂得有些难以置信。
HBM 目前技术已经落地最先进的是 HBM3E,NV B300 系列、AMD MI350 所有的系列都是最大的 288GB。
即将来临是 BHM4,NVIDIA Rubin 最大限度地预测系列 384GB,AMD MI400 这个系列更加准备冲击 432GB。
虽然后续标准还没有制定,但估计 HBM5 的容量可达 HBM6400-500GB 可以做到 1536-1920GB ( 1.5-1.9TB ) ,HBM7 更是可达 5120-6144GB,也就是大概 4.2-6TB!
NVIDIA Rubin 芯片面积预计明年推出。 728 平方毫米,芯片功耗 双芯集成封装800W,中介层面积接近 2200 平方毫米,组合 8 颗 带宽最高的HBM4 32TB/s,全卡功耗估计 2200W。
目前的 AMD MI350 系列风冷 1000W、水冷 1400W,NVIDIA B300 也做到了 1400W。
再次,编号 Feyman 的再下一代 NVIDIA AI GPU 预估 2029 年复一年,估计核心面积 750 平方毫米左右,芯片功耗就有了 900W 上、下、四芯集成封装,中介层面积约 4800 平方毫米,组合 8 颗 带宽HBM5 48TB/s,整卡功耗 4400W。
以后的号码都没有公布,下面的数据也是纯粹的想象:
Feyman 以后下一代 2032 每年都会推出,单芯片面积缩小到 700 平方毫米,但功耗突破 通过四芯集成封装,1000W,中介层超过 6000 平方毫米,组合高达 16 颗 带宽HBM6 256TB/s,整张卡片巩固得很近 6000W。
再往后的 2035 2008年,又是新一代,单芯片面积持续缩小至 600 平方毫米,但功耗达到 1200W,而且第一次八芯片集成封装,中介层超过 9000 平方毫米,组合 32 颗 带宽HBM7 1TB/s,功耗 15000W!
这样下去真的好吗?每一个数据中心旁边都要组合一个核电厂!
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




