随着2025年移动AI应用的快速普及,端侧设备的内存与存储技术正面临前所未有的性能考验。据Gartner预测,2025年支持生成式AI的端侧设备硬件支出将增长99.5%,达到39亿美元。在这一背景下,内存技术的演进成为支撑AI应用落地的关键因素。

【移动AI对内存技术的核心需求】

端侧AI推理在智能手机、PC等设备上的运行,对内存系统提出了特殊要求。内存瓶颈在模型训练和推理阶段表现明显,设备需要在保持高带宽的同时控制功耗水平。美光LPDDR5X内存专为旗舰智能手机中的AI应用设计,以业界超薄封装实现高速性能和显著节能。这种低功耗双倍数据率内存采用1γ制程节点,在带宽、容量和速度上相比前代产品均有提升。

移动设备上的AI应用涵盖多个场景,从数字助手到相机的夜间模式和照片编辑滤镜,AI技术在智能手机用户体验中变得无处不在。这些应用在处理过程中需要内存系统提供持续的数据吞吐能力,同时确保电池续航时间符合日常使用需求。

【1γ制程节点的技术特性】

美光在LPDDR5X中采用的1γ制程节点,将内存性能从1β的7.5Gbps提升至10.7Gbps。这一代际跃升在端侧AI加速场景中展现出实际价值,内存带宽的提升可支持更快的推理速度和更流畅的用户体验。该制程节点的产品基于业界前沿技术,在能效表现上具有优势特征。

在电源管理方面,美光LPDDR5X引入LVDD2H,这是VDD2H电源轨的低电压变体。LVDD2H技术有助于延长电池续航时间、提升散热性能,并支持响应式设备智能,可满足下一代移动AI体验对性能的要求。对于需要长时间运行AI工作负载的移动设备而言,电压调节技术的优化具有实际应用意义。

【端侧与云端的协同模式】

端侧AI推理可带来缩短网络延迟、加强隐私保护、减少对网络连接依赖、降低运营成本等特点。通过在本地处理数据,端侧设备避免了在设备和数据中心之间频繁传输大量数据集,在能源使用上表现出一定优势。不过,云仍然是AI生态系统的重要组成部分,融合端侧计算与云端计算的分布式模型正成为AI工作负载的常见解决方案。

在这种协同模式下,代理式AI系统可驻留在终端设备中,当遇到无法完全解答的问题时,会向云端或数据中心中更复杂的AI模型寻求答案,然后返回响应结果。高带宽内存HBM3E可有效缓解云端的瓶颈,而美光LPDDR5X则为端侧设备提供了高带宽与高能效的平衡配置。这些内存技术可确保AI工作负载能高效快速执行,无论它们位于端侧还是云端。

【存储技术的配套发展】

除内存技术外,存储方案在端侧AI应用中同样发挥作用。美光在旗舰智能手机领域推出基于G9 NAND技术的UFS 4.1移动存储产品,这类存储设备采用更小、更薄的外形设计,适应了下一代智能手机轻薄化和大电池空间需求的设计趋势。G9 NAND技术增强了UFS移动存储产品的性能表现,可为旗舰智能手机带来更流畅、更快速的使用体验。

随着AI模型日趋复杂,它们对内存和存储容量的需求持续增长。无论是端侧设备还是云端基础设施,都需要支持这些不断扩展的模型。美光的内存和存储解决方案专为满足这些需求而设计,可提供AI应用所需的容量与速度。从端侧AI到物联网设备,各行各业的客户依靠美光的技术积累,来应对这些数据处理方面的实际挑战。

内存与存储在端侧应用及设备中的作用不容忽视。无论是手机、PC和汽车领域的企业,还是工业与机器人行业的实践者,都需要考虑这些核心器件对AI工作负载运行效果的影响。美光的技术方案在存储数据的基础上,通过性能优化将数据转化为可用的智能信息,在AI应用场景中展现出实用价值。