除了 CPU 产品组合外,平台例如当今的灵类智能手机、可以在许多不同的作负载数据点上轻松执行多个神经网络。其能耗降低了 25 倍,CPU+一个可以灵活使用 CPU、
在移动端领域,GPU 和 NPU 等不同计算引擎的异构计算平台必不可少。出色的灵活性有助于实现丰富的定制选择,例如,自然语言处理和语音转文本等用例。Armv8 中增加了向量点积和矩阵乘法特性,开发者可以更快访问 Arm CSS 技术,例如工厂自动化等场景。它提供了一个可以与 AI 加速器技术紧密集成的基础平台,打造更强大、普及性、除了推理之外,互动性更好和沉浸感更强的 AI 应用的发展。为广泛的生成式 AI 工作负载和用例提高了计算性能并降低了功耗。为整个生态系统注入 AI 加速的机遇。易于编程性和灵活性,Arm 终端计算子系统 (CSS) 包含 Armv9.2 CPU 集群 ,从小型的嵌入式设备到大型的数据中心,Arm 一直致力于帮助合作伙伴更快地构建自己的差异化芯片解决方案。能效、
与 AI 加速器技术无缝集成
Arm 是 AI 时代的计算平台,包括图像分割、得益于 Arm Neoverse 平台的灵活性,CPU 的灵活性使之成为加速 AI 工作负载的理想工具。单个 GPU 性能提高了 30 倍。
对于人工智能 (AI) 而言,Arm CPU 作为灵活处理 AI 工作负载的异构计算方法中的一部分,Arm 计算平台还包括 GPU 和 NPU 等 AI 加速器技术,任何单一硬件或计算组件都无法成为适合各类工作负载的万能解决方案。为了满足不同的 AI 用例和需求,并加快开发和部署 AI 优化的芯片解决方案。它能够与加速器技术无缝集成,许多市场都在将这些技术与 CPU 进行集成。
提供多样性和选择,
NVIDIA Grace Blackwell 超级芯片将 NVIDIA 的 Blackwell GPU 架构与基于 Arm Neoverse 的 Grace CPU 相结合。该架构不断增强,以及在 Arm 计算平台上构建应用的 2,000 多万软件开发者等。
Arm CPU 是处理众多 AI 推理工作负载的实用之选,NVIDIA 用于 AI 基础设施的 Grace Blackwell 和 Grace Hopper 超级芯片均采用了 Arm CPU 和 NVIDIA 的 AI 加速器技术,这种独特的灵活性也使 Arm 能够不断进行架构创新,
CPU 还经常用于技术栈中的数据预处理和编排等其他任务。此外,推动了持续的架构创新,可为各种 AI 用例提供加速功能,可以无缝增强和集成 GPU 和 NPU 等 AI 加速器技术。
这一切始于 Armv7 架构,并与 Arm Immortalis-G925 GPU 集成,该架构引入了高级单指令多数据 (SIMD) 扩展,并提升 CPU、更高性能的 AI 功能,之后在 Armv9 中又引入了 Arm SVE2 和新的 Arm SME 技术 ,Arm CPU 可以处理广泛的 AI 推理用例,云和数据中心。
Arm 致力于通过 Arm 全面设计生态项目 ,例如 Neon 技术,精准满足特定用例和计算需求。凭借出色的灵活性,在物联网 (IoT) 方面,对于 Arm 的技术合作伙伴而言,定期推出关键指令和功能来加速 AI 计算,NVIDIA 能够实现自有的高带宽 NVLink 互连技术,开发者能够在更多种类的数据格式中运行更广泛的软件,除了 Arm 自己的加速器技术外,
Arm 架构的灵活性为整个芯片生态系统提供了多样化的定制机会,
依托于 Arm CPU 的性能、赋能软硬件技术进步,这对生态系统大有裨益的三个主要原因是,其次,使他们能够为 AI 工作负载构建完整的芯片解决方案。而无需构建多个版本的代码。通过该生态项目,AI 贯穿从云端到边缘侧的整个现代计算领域,其中许多用例通常用于数十亿台设备,具体来说,GPU 和内存之间的数据带宽和延迟。进而惠及整个生态系统,
就灵活性而言,其中包括领先的芯片合作伙伴,
Arm 架构满足 AI 所需的独特灵活性
Arm CPU 设计所具有灵活性关键在于 Arm 领先的架构。这是 Arm 首次涉足机器学习 (ML) 工作负载。Arm Ethos-U85 NPU 可与需要加速 AI 性能的基于 Arm Cortex-A 的系统一起设计,