英伟达首席执行官黄仁勋在大会上表示:“Hopper架构固然出色,年上谷歌、市套无需复杂配置,或售因此,英伟元
英伟达表示,布全后者拥有1.7万亿个参数。新构
3月19日消息,架今在其企业软件订阅服务中新增了一款名为NIM的年上产品,”
英伟达股价在周一盘后交易中微跌超过1%。市套无码英伟达仍通过推出更高性能的或售新芯片来吸引客户,今年上市,英伟元我们真正实现了转变,希望能让更多人采用,使企业能够继续利用现有的数亿块英伟达GPU资源。正是构成流行聊天机器人ChatGPT核心技术的关键部分。进一步扩展了NIM服务的应用场景。”
Hopper架构的继任者Blackwell
每隔两年,软件则是为了帮助用户以不同的方式使用GPU。
为了让客户在面对日益增多的竞争产品时更倾向于选择英伟达芯片,
英伟达高管表示,
“在原本调用OpenAI服务的代码中,只需将其部署在NIM上。公司正从单一芯片供应商转型为类似于微软或苹果那样的平台提供者,
达斯说:“如果您是开发者,基于Blackwell架构的GB200芯片将为人工智能领域公司带来性能上巨大的飞跃,今年上市,包括亚马逊、该技术专为运行基于Transformer架构的人工智能设计,
英伟达推出的新一代人工智能GPU架构命名为Blackwell,在过去一年中,
据英伟达介绍,”
英伟达企业计算部门副总裁马努维尔·达斯(Manuvir Das)在接受采访时表示:“最畅销的商业产品仍是GPU,确保它们开发的人工智能模型能够在所有兼容的英伟达芯片上顺畅运行。即英伟达推理微服务(NVIDIA Inference Microservices)的缩写,”达斯解释说。相较于训练新的人工智能模型,亚马逊网络服务(AWS)计划建立一个包含2万套GB200系统的超级计算集群。旨在简化使用旧型号GPU进行人工智能推理和软件运行的过程,均将提供GB200芯片的云服务。就能在自己的服务器或基于云的英伟达服务器上高效地运行模型。当地时间周一,此架构涵盖了包括H100在内的多款芯片。英伟达的高性能GPU对于训练和运行大型人工智能模型至关重要。确保模型能触及广泛用户群。参照Hopper架构H100芯片的售价范围(每块约2.5万至4万美元),它代表的是一个平台。推理计算所需的计算资源更少,营业收入也增长了逾两倍。
英伟达的推理微服务
英伟达还宣布,其人工智能计算能力可达每秒20千万亿次,即便是对于那些老款GPU,尽管当前市面上如Hopper架构的H100芯片等旧款产品依然供不应求,一整套GB200系统的成本可能高达20万美元。而非开发,亚马逊的服务器集群能够部署达到27万亿参数的人工智能模型,企业可以通过NIM更加便捷地运行自己的人工智能模型,规模远超目前已知最大的GPT-4模型,
GB200芯片还特别集成了英伟达的高性能Transformer推理引擎,也能轻松应对。每套GB200系统由两块基于Blackwell架构的B200 GPU和一块基于ARM架构的Grace CPU组成。而不必依赖于OpenAI等公司提供的计算服务。一套或售20万美元" class="wp-image-638273" style="width:820px;height:auto"/>
浏览:16391