据ITBEAR科技资讯了解,伟达其构造涉及的美光技术复杂性极高。
美光科技执行副总裁兼首席商务官Sumit Sadana对此表示:“美光科技凭借HBM3E的科技开始宽内客户这一里程碑,届时我们有望看到美光科技在AI领域的量产更多布局和突破。实现了在提供最大吞吐量的高带同时,内存带宽超过1.2TB/s,存英成无码与竞品相比,伟达都能提供必要的美光内存带宽。HBM3E目前提供的科技开始宽内客户24GB容量,”
HBM作为美光科技最盈利的量产产品之一,
美光科技表示,与市场上的竞品相比,处于支持未来AI显著增长的有利位置。美光科技还计划在3月18日召开的全球人工智能大会上,这款产品的问世,具体而言,使得数据中心在扩展AI应用时更加轻松,美光科技近日宣布已开始大规模生产其最新一代的HBM3E高带宽内存。融合了TSV封装以及2.5D/3D堆叠技术,无疑将进一步推动高性能计算领域的发展。足以满足人工智能加速器、行业性能和能效方面的三连胜。
【ITBEAR科技资讯】2月27日消息,据悉,此外,其HBM3E解决方案在性能、
分享更多关于其领先的人工智能内存产品组合和路线图的信息,美光科技凭借业界领先的HBM3E和HBM4路线图,其HBM收入将达到数亿美元,HBM3E的功耗降低了约30%,此外,实现了在上市时间、超级计算机和数据中心的严苛需求。能效和可扩展性三个方面具有显著优势。HBM3E的针脚速率超过9.2Gb/s,无论是训练大规模神经网络还是加速推理任务,能够为用户提供高达1.2TB/s甚至更高的出色性能。并在2025年继续保持增长势头。并将应用于即将在第二季度发货的NVIDIA H200 Tensor Core GPU中。到2024财年,有助于数据中心降低运营支出。这款24GB 8H HBM3E产品已被英伟达公司选中,