在深入探讨移动HBM 之前,先来了解一下传统内存技术在移动设备中的局限性。以智能手机为例,随着 AI 摄影、AI 语音助手等功能的普及,手机需要在短时间内处理大量的数据。在拍摄一张 AI 优化的照片时,手机需要对图像进行实时分析和处理,这就要求内存能够快速地读取和存储图像数据。而传统的 LPDDR 内存,虽然在一定程度上能够满足日常应用的需求,但在面对这些高性能要求时,逐渐显得力不从心。在运行大型游戏、进行多任务处理时,传统内存的带宽和延迟问题也会导致设备出现卡顿、响应缓慢等情况。
LPW DRAM(Low Power Wide I/O DRAM)是移动 HBM 的一种技术形态。该技术是堆叠和连接LPDDR DRAM 来增加内存带宽,它与 HBM 类似,通过将常规 DRAM 堆叠 8 层或 12 层来提高数据吞吐量,并具有低功耗的优势。移动HBM 和 LPDDR 最大的区别在于是否是 “定制内存”。LPDDR 是通用型产品,一旦量产即可批量使用;而移动 HBM 是一个定制产品,反映了应用程序和客户的要求。由于移动HBM 与处理器连接的引脚位置不同,因此在批量生产之前需要针对每个客户的产品进行优化设计。
HBM 是在 DRAM 中钻微孔,并用电极连接上下层。移动 HBM 具有相同的堆叠概念,但正在推广一种将其堆叠在楼梯中,然后用垂直电线将其连接到基板的方法。三星和 SK 海力士均看中了移动 HBM 的潜力,但这两家公司采取的技术路线各不相同。
02存储巨头下场,搅动市场风云
AI的火热,令HBM也成了紧俏货。Yole 在其最新发布的市场与技术分析报告:《Status of the Memory Industry 2025》中表示,HBM 持续跑赢整个 DRAM 板块。2025年,HBM 的营收预计将接近翻倍,达到约340亿美元,主要受限产环境和来自AI及高性能计算(HPC)平台的战略性需求推动。Yole 预测,HBM 市场将在 2030 年前保持33% 的年复合增长率,届时其营收将超过 DRAM 市场总营收的50%。一方面,存储巨头对HBM技术持续升级并加大现有HBM产品的产量;另一方面,分出部分精力,关注另一种形式的HBM产品——移动HBM。
三星宣布将于2028 年推出搭载 LPW DRAM 内存的首款移动产品,该产品专为优化设备端AI 性能设计。
作为“移动高带宽存储器(HBM)”,LPW DRAM 以高性能、低功耗为核心特点,三星电子希望通过这款面向设备端人工智能的下一代产品,巩固其在移动内存市场的领先地位。
在2025 年国际半导体会议(ISSCC)上,三星电子半导体暨装置解决方案(DS)部门首席技术官、半导体研究所所长宋在赫在主题演讲中宣布:“首款针对设备端 AI 优化的 LPW DRAM 移动产品将于 2028 年发布。” 这是三星电子首次明确披露 LPW/LLW DRAM 的具体上市时间。
LPW DRAM 也被称为 LLW 或 “自定义内存”。由于其作为下一代存储器正处于兴起阶段,相关标准仍在制定中,因此业界对其有多种称谓。但无论名称如何,其核心目标一致:通过增加输入 / 输出通道数量、降低单个通道速度,实现功耗降低与性能提升。同时,该产品将应用垂直引线键合(VWB)封装技术,把电信号传输路径由曲线改为直线。
三星电子已提升LPW DRAM 的性能目标。相较于最新的移动内存 LPDDR5X,LPW DRAM 的输入输出速度预计快 166%,将超过每秒 200 千兆字节(GB);功耗则降低 54%,仅为每位 1.9 皮焦耳(pJ)。去年 9 月,三星电子在中国台湾 “Semicon Taiwan” 展会上曾宣布 LPW DRAM 性能较 LPDDR5X 高出 133%,而在不到半年的时间里,这一目标已得到提升。
硬件层面,虽然移动HBM 提升了内存带宽和性能,但要达到 “贾维斯” 实时处理海量复杂数据的水平,仅靠内存升级远远不够。还需要更强大的处理器、更高效的 AI 芯片协同工作。目前手机中的处理器和 AI 芯片,在算力和能效比上与理想中的 “贾维斯” 运行硬件平台仍有较大差距。以运行大型 AI 模型为例,现有的手机硬件在模型加载速度、运算速度上还无法满足快速响应、高效处理的需求。
软件和算法方面,“贾维斯” 拥有高度智能的算法,能够理解人类复杂的语言、情感,做出精准且人性化的回应。当前手机上的 AI 语音助手,虽然在不断进步,但在语义理解的深度、对复杂场景的应对能力上,与 “贾维斯” 相去甚远。开发出能够在手机端运行的超智能算法,且能适配移动HBM 等硬件,是实现目标的关键挑战之一。
数据层面,“贾维斯” 能调用海量数据进行分析决策。手机设备受限于存储容量、数据获取权限等,难以获取如此广泛的数据。如何在保障用户隐私的前提下,安全、有效地获取和利用数据,以提升 AI 的智能程度,也是需要攻克的难题。