计算存储:首款2nm定制SRAM来了!

06-22 06:25

电子发烧友网综合报道,Marvell 电子本地时间的快乐 17 日本宣布推出行业第一款 2nm 定制 SRAM,可为 AI xPU 计算设备提供至高无上 6Gb(即 高速片上缓存768MB。Marvell 自称是定制版 2nm SRAM 与标准片相比,设计 SRAM 可节约 15% 面积,减少约 2/3 待机功耗,同时可实现 3.75GHz 工作频率。


Marvell 高级副总裁兼定制云解决方案部总经理 Will Chu 表示:定制化是人工智能基础设施的未来。目前,超大型企业用于开发尖端定制 XPUs 方法论和技术将逐步渗透到更多的客户、更多的设备类别和更多的应用中。我们期待与合作伙伴和客户共同打造定制时代的领先技术组合。


早前,Marvell 为下一代展示它的用途 AI 第一款和云基础设施 2nm 硅片 IP。这种工作硅片选用台积电。 2nm 工艺生产,是的 Marvell 一部分平台用于开发定制 XPU、为了帮助云服务提供商提高全球运营的性能、效率和经济潜力,交换机和其他技术。


Marvell 表示,公司的平台战略是全面开发半导体的 IP 以产品组合为核心,包括电气和光学串行器 / 反串行器 ( SerDes ) 、2D 和 3D 从芯片到芯片互连,先进的封装技术,硅光子学,定制高带宽存储器 ( HBM ) 计算架构,片上静态随机存取存储器 ( SRAM ) 、片上系统 ( SoC ) 结构与运算结构接口(例如 PCIe Gen 7),它们可以作为开发定制 AI 加速器、CPU、光学 DSP、高性能交换机及其它技术基础。


以前,海外公司 Groq 推出的 LPU 推理加速方案超过英伟达的速度。 GPU 十倍,而且成本只有后者的十分之一。这个创新方案得益于它所采用的静态随机存储器。(SRAM),与这类存储器相比, GPU 所采用的 HBM 快达 20 倍。SRAM,能直接和直接作为储存芯片的重要支撑 CPU 进行数据交换,并且浏览速度极快。人工智能等领域追求低延迟和高速计算,SRAM 读写速度的优势越来越明显。随着 LPU 等基于 SRAM 推理加速了策略的出现,SRAM 应用范围不断创新,有望进一步提高人工智能算法的运算速度,帮助完成高效的计算任务。


Axelera 的 AIPU 该芯片采用创新的内存计算技术。基于 SRAM ( 静态随机访问存储器 ) 每一个存储单元与数字计算相结合,高效地成为一个计算单元。这样就从根本上增强了每台计算机的周期操作数 ( 每一个存储单元每一个周期的乘法和累积 ) ,并且不受噪音或低精度等问题的影响。该芯片也采用了开源芯片。 RISC-V 指令集架构(ISA)。RISC-V 它是一种低成本、高效、灵活的产品。 ISA,可根据特定的应用需求进行定制。它为 Axelera 在设计上提供了巨大的自由和创新空间。


阅读更多热门文章


加关注 星标我们


把我们设为星标,不要错过每一次更新!


喜欢就奖励一个“在看”!


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com