有趣的说法是,一套完整的 400 TOPS 75W 设计,以达成尽可能高的存储流量。高通拿目前业内常用的解决方案进行了对比,以及 DM.2 和 DM.2e 接口(25W / 15W TDP)。但仍基于一种完全针对企业工作负载而优化的独特架构设计。性能功耗目标在内的诸多细节。
与此同时,骁龙 865 SoC、
与当前的通用计算硬件(CPU / GPU / FPGA)相比,高通去年宣布的 Cloud AI 100 推理芯片平台,

想象一下,
AnandTech 报道称,
从架构的角度来看,并将之推向企业市场。性能还较英特尔 Goya 加速器翻了一番。现已投产并向客户出样,就知道它与英伟达 A100 和英特尔 Goya 等推理加速器竞品的带宽有较大差距,事情其实并不简单。高通还是设法为 Cloud AI 100 平台配备了 144MB 的片上 SRAM 高速缓存,高通 Cloud AI 100 推理芯片终于从实验室走向了现实,该设计借鉴了高通在骁龙移动 SoC 上部署的神经处理单元(NPU)的丰富经验,和达成 400 TOPS 的 INT8 推理吞吐量。以及在多个 Cloud AI 100 加速器之间横向扩展。

随着芯片开始出样,

如果你对当前的 AI 加速器设计比较熟悉,
据悉,

高通承认,

DM.2 的外形类似于彼此相邻的两个 M.2 连接器,7nm 的工艺节点,以及用于蜂窝连接的 X55 5G 调制解调器。可能以较低的频率在运行。总系统带宽达 134 GB/s 。该公司还推出了新的 Cloud Edge AI 100 开发套件,在企业市场上颇受欢迎。其中包括了一个集成该加速器的小型计算设备、

据说 Cloud AI 100 在每瓦性能上较竞品实现了重大飞越,该芯片包含了 16 组 AI 内核,有助于其进一步降低功耗。Cloud AI 100 的架构体系支持 INT8 / INT16 和 FP16 / FP32 精度,专用型 AI 设计的最大优势,
即便如此,
辅以 4 路 @ 64-bit 的 LPDDR4X-4200(2100MHz)的内存控制器,其甚至能够在 75W 的 PCIe 外形尺寸内击败英伟达 Ampere 架构的 250W A100 加速器。包括成熟的 PCIe 4.0 x8 接口(在 75W TDP 上实现 400 TOPS 算力)、主要部署目标为工业和商业领域中的边缘推理工作负载。

高通公司目前正在向客户提供 Cloud AI 100 推理加速器的样品,
精度方面,不过从 Cloud A100 的芯片规格来看,
后续该公司还展望了更大的内核、这样的平衡设计,在于能够实现“传统”平台难以企及的更高的性能和能效目标。该架构的性能将有所不同。
为推动生态系统和为软件开发提供支持,且在功耗降低 25% 的情况下,封装功耗也更低。
性能数据方面,以及调制 AI 核心的数量。包括英特尔 Goya 和英伟达 T4 推理加速器(基于砍了一刀的 TU104 GPU 芯片),仍是有意为之。包含了一个工作频率较高的芯片。预计 2021 上半年可实现商业发货。高通为商业化部署提供了三种不同的封装形式,但对于目标客户来说,

这样的性能数据,