中电网移动|移动中电网|高清图滚动区

AI算力竞赛下半场,LPDDR打出“性价比王牌”

当全球半导体行业聚焦于HBM(高带宽内存)在AI训练领域的激烈争夺时,一场更为深远、更具商业意义的“静默革命”正在悄然展开:微软、高通等科技巨头已开始将原本用于智能手机的LPDDR内存,大规模部署到AI数据中心的核心推理系统中。这一战略转向揭示了一个关键趋势:AI算力竞争的主战场,正从追求极致性能的“高峰”,转向强调能效与成本平衡的“平原”。

为何巨头纷纷押注LPDDR?

驱动变革的核心逻辑,是AI产业重心的迁移。随着大模型训练初步完成,行业焦点正加速向“推理即服务”转移。据OpenAI等机构预测,未来超过80%的AI算力支出将发生在推理环节。而推理场景高度碎片化、对成本极度敏感,且需长期稳定运行,这使得“每Token处理成本”成为衡量算力效率的新黄金标准。

在此背景下,LPDDR的优势凸显。首先,其低功耗特性至关重要。在大型数据中心,内存功耗可占整机30%以上。若采用LPDDR替代传统DDR,在百万级服务器规模下,年省电费可达数亿美元。其次,LPDDR支持先进封装技术,可与AI专用芯片实现“近存计算”,大幅缩短数据传输路径,提升能效比。这种高密度集成方案,让单台服务器化身“算力集装箱”,显著节省机房空间与冷却成本。更重要的是,LPDDR依托成熟的移动产业链,拥有巨大的出货规模和成本优势——在性能满足需求的前提下,“每GB成本”和“每焦耳带宽”成为规模化部署的关键胜负手。

推理即未来:万亿美元市场正在爆发

微软的行动最具风向标意义。其自研AI芯片选择LPDDR而非HBM或传统DDR,实质上是在为整个行业重新定义数据中心的价值标准:不再盲目追逐峰值算力,而是追求全生命周期的综合效率。高通则迅速跟进,在其AI200等推理加速器中集成大容量LPDDR5X,提供了一条区别于GPU的高效、低功耗推理路径,丰富了AI硬件生态。

而在这场效率革命的背后,国产存储厂商长鑫存储正扮演关键支撑角色。2025年底,长鑫正式推出高速DDR5(速率8000Mbps)与高性能LPDDR5X(速率10667Mbps)产品,不仅在参数上对标国际一线水平,更具备自主可控的供应链保障。其中,DDR5凭借容量、带宽与成本的均衡表现,将成为通用云端推理的主流选择;而LPDDR5X则以其超高能效和封装灵活性,精准匹配定制AI芯片与边缘智能设备的需求。

效率优先,正成为全球AI基建新共识

真正决定AI能否“飞入寻常企业”的,是推理端的普及能力。而推理市场体量远超训练市场,是一个潜在规模达万亿美元的“效率战场”。

DDR5与LPDDR5X正在构筑起支撑AI普惠化的“效率基座”。未来胜负,不再由谁跑得最快决定,而取决于谁能在保证足够性能的同时,以最低能耗、最优成本、最稳供应,持续支撑全球每一秒的AI服务请求。

微软、高通的选择,以及长鑫等本土供应商的技术跟进,共同勾勒出AI算力发展的下一阶段图景——从实验室走向千行百业,靠的不是炫目的峰值,而是扎实的“精算”能力。在这片更广阔、更务实的战场上,谁能打好“效率牌”,谁就将主导AI普及的未来。

猜你喜欢
中电网移动|移动中电网|频道导航区