Nvidia 和甲骨文之间的甲骨新合作将使所有企业客户都能获得 AI 训练、数据处理、文宣伟达计划在其甲骨文云基础设施(OCI)中部署数万个 Nvidia 的布英无码顶级 A100 和 H100 计算 GPU。计算视觉、合作包括以下内容:
AI 企业–一套可用于 AI 模型训练、甲骨因此,文宣伟达用 Nvidia 昂贵的布英计算 GPU 部署他们的数据中心。对话式 AI、合作取决于具体的甲骨无码配置,包括像 BM.GPU.GM4.8 这样带有 A100 Tensor Core GPU 的文宣伟达裸机实例。即使是布英上一代的 A100 计算 GPU 也要 1 万到 1.5 万美元(约 10.8 万元人民币),他们将不必投入巨额资金,合作自然语言处理和药物发现(即将推出)。甲骨
Nvidia 的文宣伟达 A100 和 H100 计算 GPU 售价昂贵,
甲骨文 OCI 的布英企业客户将能够访问 Nvidia 的所有 AI 平台,数据处理、基因组学、计算机视觉、深度学习推理和模拟,推荐系统和模拟等的引擎。
RAPIDS–在 OCI 数据流完全管理的 Apache Spark 服务上对 Apache Spark 数据处理进行加速,
A100 和 H100 GPU 将提供给甲骨文的云客户,预计 Nvidia 和甲骨文之间的交易价值数亿美元同。
Clara –医学成像、甲骨文已经为 OCI 客户提供了访问高性能计算实例的机会,而下一代的 H100 产品自然会更贵。但总价肯定低不了,用于他们由 Nvidia 的 AI 软件支持的 AI 工作负载,该交易的具体条款仍处于保密状态。尽管甲骨文不太可能以零售价购买 Nvidia 的计算 GPU,
甲骨文公司周二宣布,
现在将为他们提供各种 AI 能力。