中华网 china.com

军事

24小时热点

    专家观点

    • 中国禁止美光芯片?中方雷霆出击以其人之道还治其身,外媒炸锅了
    • 中俄好消息不断,一架俄罗斯专机抵达中国,7成俄民众对华有好感
    • 果然乱套了,英国大罢工将瘫痪80%的救护车,上万台手术被搁置
    • 局势正在失控,梅德韦杰夫再次警告:已扩大生产强大的杀 伤性武器

    英伟达暂停初代SOCAMM内存项目 重构AI服务器内存市场

    2025-10-09 13:26:20 来源:科技指南

    英伟达暂停初代SOCAMM内存项目 重构AI服务器内存市场!当HBM(高带宽内存)价格飙升至每GB 10美元,AI服务器厂商纷纷表示难以承受时,英伟达突然暂停了初代SOCAMM内存项目。该项目原计划年部署80万个模块,但经过两次搁置后,转而全力开发SOCAMM2。这不是技术失败,而是更深层次的策略:用14.3TB/s的带宽、比DDR5低三分之一的功耗,以及“非板载可更换”的灵活性,在HBM垄断的AI内存市场开辟一条“平民化”赛道。HBM负责“极限性能”,SOCAMM2负责“大规模普及”,英伟达正通过这两种内存方案重新平衡AI服务器的成本与性能。

    很多人误以为SOCAMM2是HBM的廉价替代品,实际上两者关系类似于显卡的“独立显存”与“系统内存”。HBM通过3D堆叠与GPU封装,解决AI训练时“万亿参数瞬间调用”的极致性能需求,如GB300 GPU的HBM带宽可达30TB/s;而SOCAMM2则通过LPDDR5X/LPDDR6与CAMM模组的组合,解决“内存灵活扩展”问题,单模块支持最高18TB容量,且可像插U盘一样独立更换,无需拆主板。这种分工直击AI服务器的核心矛盾:当前HBM产能被三星、SK海力士垄断,预计2025年全球HBM总产能仅1.2亿GB,不足以满足10万台高端AI服务器的需求;而DDR5虽便宜,但因带宽不足(单通道最高102GB/s),在大模型推理时频繁拖慢GPU。SOCAMM2的出现正好填补了这一缺口:带宽接近HBM,成本却只有HBM的五分之一,功耗也更低。英伟达文档显示,Vera Rubin平台的CPU将优先搭载SOCAMM2,让AI服务器既能用HBM跑训练,又能用SOCAMM2扩展“数据缓存池”,实现“性能不妥协,成本可承受”。

    技术前瞻性方面,SOCAMM2极可能首发支持LPDDR6,这种下一代内存采用24位双通道设计,单通道带宽比LPDDR5X提升40%,还能通过“子通道休眠”技术进一步降低功耗。一旦LPDDR6量产,SOCAMM2的带宽有望突破20TB/s,直接威胁HBM在中高端AI服务器的地位。尽管LPDDR6目前还在验证阶段,兼容性、量产良率都是未知数,但英伟达押注于此,赌的是“AI内存需求会从‘少数高端’爆发到‘多数中端’”。据TrendForce数据显示,2025年AI服务器市场规模将达2980亿美元,占整个服务器行业70%,其中80%都是对成本敏感的推理服务器。

    (责任编辑)
    关闭

    精选推荐

    下一页