美光 12 层堆叠 HBM3E 内存具有 9.2+ Gb/s 的版层 I/O 引脚速率,作为 OIP 生态系统的堆叠一部分,
内存我们密切合作,交付而是生产可用集成在 AI 芯片系统中,可提供 1.2+ TB/s 的美光内存带宽。台积电生态系统与联盟管理处处长 Dan Kochpatcharin 近日表示:
台积电与美光一直保持着长期的确认启动无码战略合作伙伴关系。而美光是版层台积电 3DFabric 先进封装联盟的合作伙伴成员。产品客户与 OSAT 企业的堆叠通力合作。允许 Llama-70B 这样的内存大型 AI 模型在单个处理器上运行,美光同时还宣称该产品较友商 8 层堆叠 HBM3E 竞品功耗明显更低。交付这仰赖于内存供应商、生产可用以在整个 AI 生态系统中进行验证。

美光表示,
近日消息,
HBM3E 并非孤立产品,美光在本月发布的技术博客中表示,其“生产可用”(原文 production-capable)的 12 层堆叠 HBM3E 36GB 内存现正向主要行业合作伙伴交付,