DeepSeek问世,寒武纪存储行业爆发了。
电子爱好者网报道(文章 / 黄晶晶)DeepSeek-R1 它是幻方量化的深层追求。(DeepSeek)企业开发的推理模式。DeepSeek-R1 于 2025 年 1 月 20 每天正式发布。该模型选择强化学习进行后训练,旨在提高推理能力,特别擅长数学、代码和自然语言推理等复杂任务。
DeepSeek-R1 头发后迅速引起高度关注,以高性能和低训练成本震惊了外界。DeepSeek 表示, DeepSeek-R1 性能堪比数学、代码、自然语言推理等任务。 OpenAI o1 正式版。
去年 12 月底发布的 DeepSeek-V3 模型,整个训练使用 2048 块英伟达 H800 GPU 仅花费约 557.6 一万美元,训练费用不到其它顶级模型的十分之一。H800 与其旗舰芯片相比,英伟达专门用于中国显卡。 H100 降低了部分性能。OpenAI 的 GPT-4o 模型训练使用数万个模型训练。 H100 GPU。DeepSeek-V3 性能与 GPT-4o 相近。而 DeepSeek-R1 与 OpenAI 的 o1 相比之下,它的成本只有 3%-5%。
也就是说,高性能 AI 模型开发不需要依靠昂贵的计算能力和大量的数据,而是可以实现海外顶级数据。 AI 大型模型的效果。DeepSeek 让大型推理应用更受欢迎、更受欢迎。对于存储行业来说,它不仅可以降低存储成本,还可以激发更多存储技术的创新,扩大存储应用,真正有利于存储行业的发展。
降低存储成本
DeepSeek 通过算法优化和模型压缩等技术大大减少 AI 模型训练费用。同时也让一些企业看到了软件与硬件的融合,比单纯堆叠硬件更能取得更好的效果。DeepSeek 不但降低了对高端的要求 GPU 对高性能计算的关键存储高带宽内存的需求,(HBM)需求也有可能放缓。这样就有些公司是对的 AI 对服务器的投入或将不再关注更高规格的设备,从而降低其购买成本。
不过,DeepSeek 自我训练和推理模型时,仍然离不开高性能的存储。从长远来看,AI 应用程序需要更高的数据存储容量和速度。
DeepSeek 大型训练需要处理大量的数据,例如 DeepSeek-V3 大规模的词库用于训练,总参数达到 6710 亿,这些数据的存储、读取和传输都需要大量的高性能存储芯片来支持。推理阶段,DeepSeek-R1 当应用于智能客服、图像识别、自然语言理解等多种场景时,会产生大量的中间数据和结果数据,需要存储芯片进行临时或长期存储。随着 AI 应用场景普遍落地,存储芯片的总需求有望增加。
促进存储创新
DeepSeek 为了更好地满足存储芯片制造商的需求,技术发展可以促进存储芯片制造商探索新的存储结构和解决方案 AI 需要应用程序。例如, AI 模型本地部署量增加,对低功耗、高能效的存储芯片,如 LPDDR 以及对高速内存的需求可能会增加。
最近 DeepSeek 运行在 AMD EPYC CPU 其实,组合高频内存多路内存可以有效地提高启动速度,无需显卡支持,token/ 秒值明显提高,而且功耗低,成本低。
DeepSeek 该算法可以适应存储内部的计算结构,降低数据运输能耗。例如,提高神经网络模型的匹配性 ReRAM(阻变存储器)的数值模拟特性。也可以与存储厂商合作提升。 AI 加速器与存储器的接口协议(例如 CXL),减少系统级延迟。
计算和存储能力的提高是 AI 硬件基础的不断进步和广泛应用。AI 在实践和推理过程中,需要经常阅读和处理海量数据。高性能计算芯片需要高性能的内存系统来匹配,才能更好地发挥其性能优势。因此,HBM 仍是满足高韧性数据处理不可缺少的内存。SK 海力士,三星电子,美光三大家。 HBM 内存竞赛也来了 HBM4 在这一阶段,随着技术研发的深入,高带宽将不断推出 HBM 内存进阶。
除 HBM 以外,AI 对于传统的高性能服务器 DIMM 相应地,DDR5对内存容量和读取性能的要求也有了显著提高。 在 RDIMM 该产品的渗透率急剧上升。同时,AI 与传统服务器的中间数据相比,服务器进行大模型训练时产生的数据具有很大的保存价值,因此存储频率大大增加。在此情况下 eSSD 高速、节能的优势决定了它能够大规模替代它。 HDD,世界各大云服务提供商都开始大规模采购 eSSD。江波龙表示 eSSD 与 RDIMM 产品已经在互联网、运营商等多个知名客户处完成了产品验证和批量出货。未来,公司将通过与大客户的深度长期合作,实现企业级业务的快速增长。
AI 推理普遍落地,存储需求增长
根据 IDC 数据显示,随着人工智能进入大规模应用的关键时期,云推理占计算能力的比例将逐步提高,“预计到了。 2026 2008年,推理占据 训练占62.2% "这种预测进一步强调了37.8%。" AI 在未来市场竞争中,推理的核心地位。
按机构计算,到达 2028 预计每年人工智能推理负荷的比例将达到 85%,考虑到云端和边缘侧的巨大推理需求,未来推理芯片的预期市场规模将是培训芯片。 4~6 倍。
边缘计算场景中,DeepSeek-R1 大型推理模型的应用 AIoT 设备,必将对低功耗、高耐久性储存提出要求,推动设备, NOR Flash、MRAM 等待目标市场的增长。
提到兆易创新 NOR Flash 在 AI 终端应用。AIPC 方面,随着 BIOS 程序量代码量的不断增加, NORFlash 即使提出了更大容量的需求, PC 总量保持不变,程序量的增加也会带动程序量的增加 NORFlash 容量提高。
AI 期待眼镜是一个新的品类, AI 眼镜能发展成和 TWS 与品类相比,新需求对 NORFlash 这将产生更明显的拉动作用。耳机方面,目前除了行业头部品牌之外, NORFlash 对容量的需求比较大,大部分都是低端的。 TWS 耳机,由于功能比较简单,所以对 NORFlash 容量要求很小。未来如果 AI 耳机可升级,对 NORFlash 容量驱动会更加明显。如未来客户要求耳机必须加入 AI 功能,所以随之而来 AI 耳机渗透率的提高, NOR Flash 对容量的需求也会增加,即使耳机的整体销量不会增加,只要单机容量增加,对市场规模也有促进作用。
写在最后
DeepSeek 算法创新减少了对最先进算力的依赖,最近国内大量出现。 CPU、GPU、AI 芯片制造商积极适应 DeepSeek,对国产芯片有好处 AI 提高推理市场的竞争力。DeepSeek 边缘计算设备和企业本土化的推理模型布局,也会刺激更多的推理芯片需求。储存芯片作为 AI 存力的构成部分,首先受益的莫过于 HBM,如今 DeepSeek 带来的 AI 推理应用爆发,将带动主流存储芯片品类真正的市场机遇。
阅读更多热门文章
加关注 星标我们
把我们设为星标,不要错过每一次更新!
喜欢就奖励一个“在看”!
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




