CFMS | MemoryS 2024 峰会专题报道

存储市场重回正轨,生成式AI能否带来新周期?

嘉宾专访 2024-03-27 11:26 雷峰网 包永刚

去年的中国闪存峰会CFMS 2023,与会者都关注存储行业何时能触底反弹。

“存储市场规模经历了两年的下滑后,2024年开始重新回到正轨。”深圳市闪存市场资讯有限公司总经理邰炜在MemoryS(CMFS的新品牌名)上表示,“我们预计今年市场规模相比去年将提升至少42%。”

存储是一个周期性行业,从2019年到2023年,存储行业经历了供过于求-疫情-缺货-库存-超跌,最后以原厂主动减产结束。

邰炜说,“展望2024-2026年,我们认为新技术和AI应用将激发存储的潜能,走出传统的价格周期,进入新周期,这也是我们今年峰会的主题,‘存储周期 激发潜能’。”

生成式AI是今年MemoryS最热门的话题,从云端到边缘再到终端,生成式AI对计算提出了新的要求的同时,也对存储提出了新的要求。

兼顾更大容量、更高带宽、更低延迟的同时,如何实现低功耗?

什么样的存储解决方案才能加速生成式AI的落地?

存储市场触底反弹

存储市场在去年底就迎来了全面反弹。从市场现货价格看,2023年第三季度原厂强势减产并强势拉涨价格。2023年第一季度,存储价格再次大涨。

邰炜预测,“今年后续三个季度的价格将保持平稳向上的趋势。但过高过快涨的涨幅将严重影响终端产品线的规划、打击容量扩充的积极性,也不利于产业整体健康稳定的发展。”

从原厂利润率的维度看,2023年第一季度触底后,2024年第四季度有非常可观的改善,个别公司已经开始恢复盈利。

邰炜预计2024年第一季度大部分公司的利润率都会有效扭转。

再看具体产品,预计2024年,NAND FLASH将超过8000亿GB单量,相比去年增长20%,DRAM将达到2370亿GB单量,预计增长达15%。

市场规模增长的同时,存储技术也在向前演进。

NAND FLASH,各大原厂都继续推出更高堆叠的产品,去年已经推出了200层以上的产品,今年朝着300层堆叠推进,这将带来更高的闪存容量。

“架构上看,键合技术逐步进入主流,这种架构产品随着堆叠层数的提升,将更具成本优势。并且这种架构可以将更多特性使用到NAND FLASH,这也是存储激发潜能的一种方式。”邰炜同时指出,随着更多产品对容量的要求越来越高,QLC的应用将加速,除了传统SSD产品,其它应用领域也将开始全面扩展。

DRAM方面,将全面进入EUV时代,下一代产品也将在最近1-2年内出现。

从产品和应用看,手机、PC和服务器依旧是存储最大的三个市场,汽车市场在快速增长。

在生成式AI的推动下,2023年AI服务器增长迅猛,带动了HBM、DDR5的需求。

“2024年,服务器市场是DDR5正式迈过50%的一年,今年下半年5600速率会进入主流,同时高容量模组128GB/256GB进入服务器主流市场的障碍扫清。”邰炜说,“CXL进入实用阶段,正式开始专利池的新时代,加上HBM3e进入量产,今年服务器内存的升级将非常的激进。”

根据原厂的规划,2024年HBM3e将正式量产。

AI服务器除了带动高容量HBM需求,对DDR5的容量需求是普通服务器的2-4倍。这将使得未来5年AI服务器将驱动DRAM需求大增。

服务器的SSD的需求也将在AI的带动下快速增长,2024年服务器PCIe5.0 SSD的渗透率将较2023年翻倍成长,容量将达到8TB/16TB及以上。

在手机市场,UFS的市场占有率进一步提升,更高性能的UFS4.0增长更为明显。同时,高端机型的存储容量基本进入了512GB以及TB时代。

“今年手机平均容量将超过200GB,内存也朝更高性能的LPDDR5演进,预计今年手机DRAM平均容量将超过7GB。”邰炜指出。

AI手机也将成为手机的新热点,16G的 DRAM将是AI手机的最低配置,将有力的推动手机存储的再次升级。

与AI手机对存储的带动一样,AI PC预计将在2024年爆发。可以支持本地话AI模型的AI PC,需要更快的数据传输速度、更大的存储容量和带宽。

企业级存储如何满足生成式AI的需求?

大普微电子研发副总裁陈祥在MemoryS上表示,未来10年,生成式的数据与人类创造的数据大概是1:3的关系。这给存储行业带来了一些机会,也带来一些挑战。

存储市场重回正轨,生成式AI能否带来新周期?

大普微电子研发副总裁陈祥

能耗是一个显著的挑战,因为在能源有限的当下,更多的能源会优先给CPU或者GPU,存储需要持续提高能效比。

“为了绿色环保,许多公司都要求PUE贴近1.0,无论是从产品层面提高能效比还是和服务器厂商优化液冷方案等,我们都在积极布局。”陈祥对雷峰网(公众号:雷峰网)表示。

面对能耗挑战的同时,生成式AI对大容量SSD的需求给企业级SSD提供商带来了机会。

AI训练过程,包括AI训练过程,包括训练,推理,预测、检查点(Checkpoint)等,生成式AI模型的参数动辄几百G,这对SSD盘片提出的要求是大容量、连续稳定读写,以及低时延、高带宽。

目前做大容量盘的厂商还不多,国内主流是4T、8T、16T,32T甚至64T的还比较少。

“做大容量盘面临很多挑战,要把多颗存储芯片封装在一起,对封装技术的要求更高。并且,更大的容量也需要新的映射算法和开发新的固件。”陈祥进一步表示,“更大的盘片对功耗的控制也更难,这给硬件设计带来了挑战。”

SSD的单盘容量更大之后,如果单盘出现问题,影响的数据就更多,稳定性面临下降的挑战,这对于数据中心等应用场景不太友好。

大容量的存储需要对应更大带宽,更高传输速度,特别是AI计算数据的搬运需要消耗更多能量,需要更高速率的传输。

过去几年,生成式AI对超高带宽和超高性能的需求,推动了PCIe的标准迅速从4.0演进到5.0以及6.0,最新的规范已经到了PCIe7.0。

“国内2024年会开始慢慢导入PCIe5.0,2025年开始上量,2026年提升占比。”陈祥说,“PCIe 5.0的SSD会首先应用到对带宽要求更高的AI服务器。”

这其中同样面临功耗挑战。三星电子执行副总裁兼解决方案产品工程师团队负责人吴和锡指出,“三星正在向PCIe 5.0转型,基于过往的经验,我们认为管理两个风险很重要。一个是信号完整性的保证,同时控制性能增加而产生额外的热。”

“整体来说,SSD单盘的大容量能够带来TCO的整体收益,但也带来了技术挑战,需要我们与客户共同配合解决。”陈祥说,“我们提供一站式解决方案的团队,从主控芯片到固件、到量产、硬件交付包括品牌。从成立到现在我们交付了从PCIe3.0、PCIe4.0到PCIe5.0的产品。各种颗粒,包括SLC、QLC等,我们都有对应的产品。” 

加速生成式AI在端侧普及,存储要做什么? 

端侧AI与云端AI一样,都需要有更大容量,更高速度的存储。三星目前正在开发一款UFS4.0的产品,将通道数量从2个增加到4个。

“我们预计在今年夏天交付第一个5通道UFS4.0样品,并计划在2025年大规模生产。”吴和锡说,“我们还积极参与有关UFS 5.0标准的讨论。”

速度之外,功耗也是端侧AI要普及需要解决的问题。

像是医疗设备、机械臂等,必须符合当时场景的算力和散热要求。

宜鼎国际中国区总经理游礼印说,我们不是直接给客户提供散热解决方案,而是基于我们的经验和能力,协助客户把整个系统和环境的因素考量到位,帮助客户解决散热问题。


宜鼎国际中国区总经理游礼印(左)宜鼎国际工控DRAM事业处总经理张伟民(右)

除了解决技术挑战,在端侧落地AI还需要做什么?

“我们了解行业语言,前期可以和客户做比较深入的交流。同时,无论是我们的DRAM还是FLASH产品品质都可以赢得客户的信赖。并且,我们还提供定制化服务。”游礼印对雷峰网表示。

宜鼎国际的定制化服务,包含了存储硬件和软件。

“与客户合作的过程中我们发现,软硬件整合有一定困难。”游礼印说,“我们的软件团队,会协助客户做一些工作,提供定制化的服务。因为我们服务到位,客户愿意与我们分享,我们在一起解决痛点,实现AI的落地。”

落地AI,还需要整体的解决方案降低开发成本。

一般来说,开发一个产品需要分站式采购,然后做整合。

“如果有器件存在品质问题,可能会导致系统出现问题,所以我们现在提供的是完整解决方案。”宜鼎国际工控DRAM事业处总经理张伟民说,“除了提供优质的闪存和内存外,我们还提供包含传感器等的软硬件一体的AI解决方案。”

宜鼎国际智能周边应用事业处处长吴志清进一步指出,“当AI设备或者物联网设备越来越多以前一个人管100台设备,未来可不可以1个人管1000台设备,设备的管理变得更加重要。我们可以提供远端管理,在模组、设备、系统都可以提供远程管理。还有非常重要的一点,所有的资料都是安全的,确保我的资料不会流失,不会被盗窃。”

过去几年,大部分AI都还在概念验证的阶段。AI在边缘市场也还在探索的阶段。

随着完整解决方案的推出,以及更高速度、更高带宽闪存和内存的推出,将加速AI从云端到边缘端的普及。