CFMS | MemoryS 2024 峰会专题报道

美光计算与存储:推动人工智能(AI)革命

峰会新闻 2024-03-27 11:13

毫无疑问,AI已经成为各大科技公司发力的重点方向,从今年CFMS | MemoryS 2024也可以明显感受到。美光企业副总裁暨存储事业部总经理Jeremy Werner在《Micron Memory & Storage: Advancing the AI Revolution》主题演讲中,风趣且专业的全方位展示了美光如何助力AI世界。

“AI颠覆性的技术正在改变产业和社会,我们身处于令人振奋的时代。当下,存储行业正处在智能时代的起点,如同之前技术爆炸式增长的工业革命与互联网时代,产业有机会去改变世界,让世界变得更加美好。”Jeremy Werner表示。

美光全系列产品线助力数据中心AI应用发展

当前,数据中心仍是AI的核心,数据中心最主要的资产是数据,海量数据分析对于计算、内存和存储配置的需求,将存储推向新的战略地位。那么,数据中心究竟是如何使用数据的呢?

Jeremy Werner介绍,“作为AI学习的核心器件,GPU需要源源不断的数据注入,这些数据则来自于HBM产品。”

随着人工智能(AI)技术的飞速发展和应用场景的不断拓展,大规模的AI模型对算力的需求也与日俱增。为了满足AI GPU对内存容量和传输带宽的高要求,HBM(High Bandwidth Memory)作为一种高带宽存储器应运而生,并成为当前AI赛道的新兴爆发风口。

美光已经量产了HBM3E产品,目前正在送样阶段。12层堆栈的HBM3E产品容量可达36GB,使得每个GPU可获得288GB的HBM容量。性能方面,美光HBM3E的引脚速度超过9.2 Gb/s,可提供超过1.2 TB/s的内存带宽,每瓦性能可以提升2.5倍。Jeremy Werner介绍,“客户反馈,美光HBM3E相较竞品功耗降低了30%,性能提升了10%。”

数据中心中HBM架构的下一层则是DDR5内存层,相较竞争对手通过TSV 3D堆叠实现的DDR5内存产品,美光DDR5采用1Beta制程工艺,存储密度提升45%,美光延迟降低17%,功耗降低24%。

对于大模型训练而言,DDR5内存的容量也许还是不够的,对此美光推出了CZ120 CXL内存扩展方案,最多可以扩展2TB内存容量,支持热插拔标准。Jeremy先生表示,添加可扩展内存后,Llama2 LLM的推理性能提升了22%,可以更加充分的释放GPU性能。

在服务器架构中,SSD在DDR内存的下一层。美光在232层NAND产品的研发和生产上是行业领先的,已经推出基于232层的7500 SSD。

Jeremy介绍,“大部分人认为SSD对AI服务器的训练性能没有影响,但是我们运行了一个经常运用与计算机视觉、化学研发和生物医药常用的图形神经网络引擎大模型,可以看到使用了美光9400 SSD的方案,与竞争对手相比,性能提升了36%,延迟降低了12%。”

PCIe Gen5规范的推出将使AI性能翻番。Jeremy介绍,“使用大型加速器内存(BaM)技术进行图神经网络(GNN)训练,这项技术使SSD与AI能力实现强相关,目前BaM还在实验室阶段,可以实现Gen 5 SSD与GPU和Gen 4 SSD与GPU进行比较时,发现性能可提升2倍。”

再往下则脱离了数据中心架构来到网络数据湖,针对这部分需求,Jeremy介绍,“美光拥有6500 SSD,这是一款基于美光最新232层TLC NAND 的30TB的SSD,相较竞品性能提升48%,摄取100TB的数据相较HDD快4天,与HDD相比存储密度提升5倍。”

端侧AI为手机、PC行业注入新灵魂,带动性能更强、容量更大的存储产品需求

当然,AI想要真正的普及,一定不能止步于数据中心,而是要走向端侧。当今时代,人们的学习、生活和工作已经离不开手机、PC和汽车。Jeremy介绍,“生成式AI已经走进PC,英特尔、高通已经推出了AI平台,已经可以实现超过100亿参数的离线应用。”

除了PC,AI手机时代的到来将会驱动手机和移动存储需求的增长。Jeremy介绍,“我们预计移动端DRAM和NAND需求量将会翻倍。数据显示,到2027年生成式AI智能手机销量将到5.22亿部。”

汽车领域,AI将助力无人驾驶的实现。美光拥有广泛的产品线阵列,获得相关认证,并且每年有超过7500万部汽车出售。而随着自动驾驶发展到L5等级,Jeremy表示,“DRAM bit需求量将增长30倍,NAND bit需求量将增长100倍。”

目前我们正处在AI时代的起点,AI将改变世界,让世界变得更加的美好。从端侧到云端,AI将无处不在,大量AI模型需要处理并生成海量数据,对存储的性能、容量将提出更多需求,美光作为存储行业领军企业,已经推出一系列产品助力AI普及。