AI存储大爆发!吃到AI大模型红利的,不只是算力供应商

来源:雷科技

3月12日,存储行业顶尖峰会“MemoryS 2025”在深圳召开,全球闪存巨头及相关企业高管陆续上台发言。然而这些高管提到最多的词汇可能不是NAND、LPDDR、UFS等闪存行业常用词,而是AI、大模型、DeepSeek。

本场存储峰会以「存储格局·价值重塑」为主题,嘉宾的演讲也主要围绕行业格局的变动。大会主办方CFM闪存市场总经理邰炜先生直言,如果今年这场大会一定要有一个口号,那应该是「谢谢大家,谢谢AI」。

(图源:雷科技摄制)

AI并非新事物,但DeepSeek-R1的横空出世,却改变了原有规则。过去AI给人的印象是需要庞大的算力规模,用于大模型的训练和推理任务。DeepSeek所采用的MoE架构和稀疏算力机制,对算力的要求大幅降低,再加上MIT开源协议,让AI真正进入了全民普惠时代。忆恒创源CEO张泰乐认为,2025年全民AI将得以实现。而在结束对大规模算力依赖的情况下,闪存成了AI普及的关键。

AI赋能万物,闪存与算力成大模型唯二基石

闪存的三大应用场景分别为服务器、PC、手机,智能化程度不断提升的汽车,正在向成为第四大应用场景狂奔,手机与PC行业日渐饱和,却成了阻碍闪存市场规模扩大的难题。AI时代的到来将打破手机与PC领域闪存市场饱和的局面,给予闪存行业新的发展推动力。

CFM闪存市场数据显示,2024年存储应用市场中,服务器的份额从2023年的16%提升至30%,与手机只差1个百分点,2025年很有机会超越手机。服务器行业对于闪存需求量大增,原因便在于AI。

(图源:《2024-2025年全球存储市场趋势白皮书》)

AI大模型的训练需要大量数据,这些数据对于企业的存力提出了极高要求,因而企业需要采购大量存储设备。之前一些企业的服务器会选择价格低廉的企业级机械硬盘存储数据,但AI大模型对于数据读写速度、带宽、功耗也提出了较高要求。

大普微电子董事长杨亚飞公布的测试数据显示,在数据收集、数据处理、模型训练、模型验证、模型恢复、模型推理等AI工作流程中,机械硬盘和固态硬盘差距至少为十几倍。机械硬盘已难以在AI时代承担数据存储、调用的重任,闪存技术是AI企业的必然选择。

(图源:雷科技摄制)

AI技术从云侧向端侧转移,也利好闪存行业。云侧AI大模型的问题在于数据需要上传至云端,注重数据安全的用户可能担心隐私信息暴露或丢失,DeepSeek则给出了不同参数量的版本,且不依赖GPU运算,极为适合本地部署到手机或PC。

IDC预测,2025年AI智能手机销量将同比增长73.1%,并推动LPDDR5X容量相较2024年旗舰机型增长50%-100%。Gartner则预测,2025年AI PC将占PC出货总量的43%,并且比当前普通PC高出80%以上DRAM容量。

汽车领域,造车新势力巨头小鹏汽车嵌入式平台高级总监、整车电子电气首席架构师段志飞上台发言,阐述了AI与汽车融合的情况,以及闪存的重要性,并表示AI汽车需要高带宽、低延迟、大容量的存储产品。

AI已然成为闪存行业的福星,在AI大模型超高需求量的加持下,2024年全球NAND市场规模已达700亿美元,容量达8330亿GB,DRAM市场规模达970亿美元,容量达2500亿Gb。

未来AI行业对于存储设备的需求量还会不断提高,闪存市场也将借助AI的东风迅猛发展。不过机遇总是与挑战并存,AI大模型的训练和推理对于闪存的读写速率、带宽、功耗,以及成本较为敏感,自然也对闪存企业提出了更高要求。全方位满足AI行业对于闪存产品要求的企业,方能争取到更多市场份额。

闪存行业内卷加速,机遇与挑战一样多

大会上,邰炜先生率先表示,因大容量存储的需求,QLC时代提前到来,2024年甚至出现了供不应求的情况,32TB大容量企业级SSD已经大规模量产,64TB和128TB容量的QLC企业级SSD需求量也在增加,预计2025年QLC SSD将有45%的产能应用在服务器上。

在机械硬盘无法满足AI大模型训练和推理任务的今天,企业级SSD已经成为AI公司的首选。相较于消费级市场常见的TLC颗粒,QLC颗粒成本更低。铠侠株式会社首席技术执行官 柳茂知称,QLC SSD是AI行业最好的选择,尽管从SLC到MLC,再到TLC,最终到QLC,SSD的性能一直在下降,但随着技术的演变,2025年QLC SSD的速度已经比2017年的TLC SSD快很多了。

(图源:雷科技摄制)

如今QLC SSD的顺序读写速度可达7000MB/s左右,性能十分强大,能够满足AI大模型数据存储和调用的要求。

为进一步降低成本,企业还在不断尝试更高堆叠层数,此前三星、SK海力士等企业,均公布了300+堆叠层数NAND产品。

预计2025年,NAND将全面进入300+层数时代。一些企业还爆出了400+层数的NAND,未来或将进一步提升QLC SSD的容量密度并降低成本,为AI行业的发展提供基础支持。

除了颗粒,闪存企业还在主控方面投入巨资研发技术。群联电子执行长潘健成透露,2024年群联投入了30亿元研发经费。 联芸科技董事长方小玲则表示,虽然每一代闪存都会降低功耗,但功耗的降低是在相同速率情况下,降低的功耗远远跟不上闪存提高的速率,联芸科技依靠Agile ECC+QLC算法,构建了高能效主控芯片开发平台,从而开发出了MAP1802和MAP1806两款具备高性能、大容量、低功耗特性的主控芯片。

(图源:雷科技摄制)

坚持技术自研的江波龙,也在本次技术峰会上介绍了嵌入式存储和移动存储自研主控。搭载江波龙自研主控的满血版UFS 4.1顺序写入速度可达4200MB/s,顺序读取速度可达4350MB/s,领先其他同类产品。

搭载江波龙自研WM6000主控的eMMC Ultra,突破了eMMC 5.1性能瓶颈,顺序读取速度为464MB/s,顺序写入速度为355MB/s,远超普通eMMC 5.1,随机读写速度甚至与UFS 2.2不相上下。eMMC Ultra虽不如UFS 4.1,但超低的成本能够为入门级智能手机、平板电脑,以及汽车等产品提供价格更低的存储选择。

(图源:雷科技摄制)

作为存储设备的核心,主控承担着大脑的作用。群联电子潘健成虽表示主控赚不到钱,但国内外企业并未松懈主控技术的研发工作。江波龙、联芸科技、慧荣科技等大多数参会企业,都强调了主控的重要性,未来也将持续投入资金研发主控技术和芯片,提高存储设备的读写速度、降低功耗。

AI行业造就的机遇,将带动闪存行业蓬勃发展,随之而来的挑战,则导致闪存企业不能「躺平」,仍要坚持技术研发,满足AI大模型对于闪存传输速率、功耗、成本等方面的要求。

一边降本一边提速,闪存行业拥抱AI巨浪

AI时代的到来,对存储行业的格局造成了不小影响,拥有价格优势却输在传输速率的机械硬盘,因无法适应AI时代的要求,或将慢慢被市场淘汰,兼顾成本与传输速率的QLC SSD顺利成为市场新宠儿。

闪存企业还在加速推动300+堆叠层数的NAND产品大规模量产,并研发更高堆叠层数的产品,降低闪存的成本与价格。主控技术的研发与升级,则将提高闪存芯片的能效和速率。

DeepSeek-R1模型采用MIT开源协议和不依赖GPU的特性,令手机、笔记本电脑、汽车都有了大规模部署端侧AI的可能。

固然存储应用市场中,服务器的份额有望在2025年超越手机,但手机和PC行业依然保有不少份额。因此,闪存企业不能只注重QLC SSD,LPDDR5X、UFS 4.1、eMMC 5.1等更适合移动端的存储选择,也有升级读写速率和能效的必要。

随着AI大模型能力的提升,训练更强模型所需的数据量也会不断提高,闪存将成为与GPU同样重要的AI行业发展基石。所幸,GPU行业仅有三大巨头,闪存行业国内外巨头众多,企业之间的竞争将加快闪存产品降本、提速的速度,成为AI行业最可靠的依仗。

(封面图:江波龙官网)

返回搜狐,查看更多

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
我来说两句
0人参与, 0条评论
登录并发表
安全提示
系统出于安全考虑,在点击“发送语音验证码”后,您将会收到一条来自950开头号码的语音验证码,请注意接听。
暂不发送发送语音验证码