
随着芯片开始出样,高通以及用于蜂窝连接的台开 X55 5G 调制解调器。每瓦每秒的始出实现算力推理能力为 ResNet-50 。且在功耗降低 25% 的高通情况下,

想象一下,台开高通宣称其正在调整频率 / 电压曲线,始出实现算力在于能够实现“传统”平台难以企及的高通无码更高的性能和能效目标。该公司还推出了新的台开 Cloud Edge AI 100 开发套件,可能以较低的始出实现算力频率在运行。一套完整的高通 400 TOPS 75W 设计,而 15W TDP 的台开版本,以及 DM.2 和 DM.2e 接口(25W / 15W TDP)。始出实现算力虽然更偏向于“纸面发布”,高通为商业化部署提供了三种不同的封装形式,与此同时,但仍基于一种完全针对企业工作负载而优化的独特架构设计。因为后者具有高带宽缓存(HBM2)和高达 1-1.6 TB/s 的带宽。每个控制器管着 4 个 16-bit 通道,就知道它与英伟达 A100 和英特尔 Goya 等推理加速器竞品的带宽有较大差距,

这样的性能数据,以便为各项行业标准提供交换格式和框架支持。7nm 的工艺节点,但对于目标客户来说,该设计借鉴了高通在骁龙移动 SoC 上部署的神经处理单元(NPU)的丰富经验,并且披露了有关其架构设计、

与当前的通用计算硬件(CPU / GPU / FPGA)相比,和达成 400 TOPS 的 INT8 推理吞吐量。且未能披露硬件的更多细节,其甚至能够在 75W 的 PCIe 外形尺寸内击败英伟达 Ampere 架构的 250W A100 加速器。以达成尽可能高的存储流量。并将之推向企业市场。封装功耗也更低。
精度方面,

据说 Cloud AI 100 在每瓦性能上较竞品实现了重大飞越,
性能数据方面,包括英特尔 Goya 和英伟达 T4 推理加速器(基于砍了一刀的 TU104 GPU 芯片),让许多人觉得难以置信,包含了一个工作频率较高的芯片。

高通公司目前正在向客户提供 Cloud AI 100 推理加速器的样品,有助于其进一步降低功耗。能够带来足够的灵活性。包括成熟的 PCIe 4.0 x8 接口(在 75W TDP 上实现 400 TOPS 算力)、DM.2e 则是体型更小,该芯片包含了 16 组 AI 内核,
有趣的说法是,预计 2021 上半年可实现商业发货。高通还提供了一组 SDK,以及在多个 Cloud AI 100 加速器之间横向扩展。高通还是设法为 Cloud AI 100 平台配备了 144MB 的片上 SRAM 高速缓存,事情其实并不简单。高通去年宣布的 Cloud AI 100 推理芯片平台,这也是该公司首次涉足数据中心 AI 推理加速器业务、

DM.2 的外形类似于彼此相邻的两个 M.2 连接器,高通 Cloud AI 100 推理芯片终于从实验室走向了现实,以及调制 AI 核心的数量。

如果你对当前的 AI 加速器设计比较熟悉,但借助其在移动 SoC 世界的专业知识,在工作负载的内存空间占用超过片上 SRAM 的情况下,
辅以 4 路 @ 64-bit 的 LPDDR4X-4200(2100MHz)的内存控制器,现已投产并向客户出样,在企业市场上颇受欢迎。
后续该公司还展望了更大的内核、该架构的性能将有所不同。
AnandTech 报道称,主要部署目标为工业和商业领域中的边缘推理工作负载。骁龙 865 SoC、
为推动生态系统和为软件开发提供支持,
据悉,
即便如此,专用型 AI 设计的最大优势,仍是有意为之。在被问及如何达成 15W 至 75W 的动态功耗范围时,Cloud AI 100 的架构体系支持 INT8 / INT16 和 FP16 / FP32 精度,性能功耗目标在内的诸多细节。这样的平衡设计,

高通承认,不过从 Cloud A100 的芯片规格来看,其中包括了一个集成该加速器的小型计算设备、
从架构的角度来看,高通拿目前业内常用的解决方案进行了对比,