AI浪潮席卷全球的今天,一场由内存技术驱动的静默革命正在发生。当业界将目光聚焦在高端AI训练芯片与HBM时,LPDDR5X——这颗曾专属于旗舰手机的“心脏”,正以其独特的“高性能、低功耗”双重优势,突破边界,迈向一个更为广阔的舞台。

技术破局:从跟跑到并跑的跨越

上个月,国内唯一实现通用型DRAM大规模量产的IDM企业长鑫存储,宣布量产LPDDR5X产品系列,产品阵容包括颗粒、芯片及模组等形态。其中,颗粒形态有12Gb和16Gb两个容量点,包括了12GB、16GB、24GB、32GB 容量的多种封装解决方案的产品。长鑫存储LPDDR5X产品速率覆盖了8533Mbps、9600Mbps、10667Mbps三种,其中10667Mbps为目前国际市场上目前最为领先的速率水平,同时兼容LPDDR5标准,为用户提供了更为灵活的升级选择和适配兼容方案。

从产品性能指标看,长鑫存储LPDDR5X已与三星、SK海力士、美光的高端产品站在同一梯队,满足端侧AI及数据中心推理应用对内存带宽的苛刻要求。长鑫存储正在研发的0.58mm厚度的LPDDR5X产品,指标超越了三星目前引以为傲的0.65mm厚度,这在系统集成度上将为客户提供更大优势。从产品矩阵上看,从12/16Gb颗粒,到12/16/24GB芯片,再到16/32GB的LPCAMM模组,长鑫存储LPDDR5X覆盖了从移动设备到高性能PC、到服务器的全场景需求。

这一技术突破,标志着长鑫存储进入“从无到有,再到优”的新阶段,研发实力有了质的飞跃,产品性能具备国际竞争力。

芯片破界:LPDDR5X开辟蓝海

近期,高通在其最新发布的AI200数据中心推理芯片中,大规模采用了LPDDR5X内存。这一选择揭示了LPDDR5X的下一片蓝海——AI推理市场。高通AI200通过堆叠单卡768GB的LPDDR5X容量,以更低的总体拥有成本(TCO)实现了大模型的单卡部署,简化了系统设计并降低了延迟。

与追求极致带宽但成本高昂的HBM不同,LPDDR5X的核心竞争力在于其无与伦比的“能效比”。对于AI推理任务,尤其是大语言模型推理,其对内存容量的敏感度远高于带宽。

在数据中心和边缘服务器中,LPDDR5X的低功耗特性直接转化为更低的运营成本、更少的散热需求和更小的碳足迹,完美契合了全球数据中心对“绿色计算”的迫切需求。

三星、SK海力士、美光以及长鑫存储等DRAM厂商已敏锐捕捉到这一趋势,开始强调LPDDR5X在云端推理场景中的应用。然而,随着人工智能的进步,运行大规模服务器的数据中心市场正在增长,能效正成为一个关键问题。与DDR相比,LPDDR在能效和高性能操作方面具有优势,因此使用LPDDR的需求日益增长。

长鑫存储推出了容量为16GB和32GB的LPCAMM2内存模组,基于LPDDR5X技术,为追求能效、密度和性能的边缘计算、云原生和专用工作负载提供了优化内存解决方案。

从赋能端侧AI的“移动心脏”,到破界数据中心成为“能效先锋”,LPDDR5X的技术价值正被全方位重估。它站在移动计算与AI计算的历史交汇点,凭借其平衡的性能、功耗与成本,成为驱动下一轮智能变革的关键要素。

长鑫存储LPDDR5X产品在性能上已直接对标国际三大厂商的顶尖水平,证明了其研发硬实力,而市场的天时地利则为其铺就了跑道。长鑫的入局,将增强全球供应链的韧性,有望在AI推理、汽车电子、PC等新兴应用领域与国际巨头同台竞技,重塑全球市场竞争格局。