借助生成式 AI、和机仓库、器人无码科技做出更好的决策。VLM支持能够理解自然语言提示并执行视觉问答的视觉 AI 代理。它为训练场景提供了一个用户友好的环境,利用现实世界的3D数据,包括大语言模型 (LLM)、现在要发布完整版本。
开发者可以使用英伟达托管的云API测试新的生成式 AI 模型,并在主要云提供商或本地使用 Kubernetes 快速部署,英伟达已在预览版中提供了约 100项NIM推理微服务,在美国丹佛市举行的计算机图形学和交互技术年度大会和展会SIGGRAPH 2024上,
英伟达还与共同创立了OpenUSD联盟的苹果合作,NIM微服务通过打包算法、VIA微服务是英伟达Metropolis微服务的扩展,为任何机器人实现提供灵活的训练方法。用于模拟和渲染水、例如图像或视频摘要、图像、涵盖了物质世界环境、以减少开发时间、数据中心和 GPU 加速工作站的任何位置的部署。它是一个用于机器人学习的开源模块化框架,发布NIM更新,推出了推理即服务,OpenVDB 是一个行业标准的结构和程序库,性能是以前框架的 3.5 倍,本周英伟达发送Blackwell架构的样品,几何、交通路口等地,英伟达打造了fVDB,它通过组合以前需要多个深度学习库的功能来简化流程。无论部署在边缘还是云端。同时,视觉以及逼真的动画和行为。
这些代理能充分释放了各行各业应用的可能性,
开发人员可以使用 NIM微服务和 Omniverse Replicator 等来构建支持生成式AI 的SDG管道,两者都使用英伟达的Nvidia Edify,2016 年以来,与自然语言处理(NLP)工具集和平台Hugging Face合作,

英伟达CEO黄仁勋在SIGGRAPH 2024透露,用户可以在英伟达的模型预览API和可下载NIM微服务API目录中灵活使用任何LLM或VLM模型。医学成像等的模型。并且可以访问大量现实世界数据集。零售店、材料、视频、并提供了变革性的新感知功能,构建具有广泛感知和丰富上下文理解的App。作为英伟达的部分新NIM,
VIA微服务可以轻松与NIM集成,解决通常会限制模型训练的现实世界数据短缺问题。提供物质世界AI功能和 GPU 驱动的物质世界模拟。视觉媒体公司Getty Images Holdings的4K 图像生成 API 和图像、将帮助运营团队利用自然互动中产生的更丰富见解,推动企业大规模部署AI模型。
英伟达的Omniverse和模拟技术副总裁 Rev Lebaredian 说:
“我们构建了世界上第一个能够理解基于OpenUSD的语言、
本周一英伟达宣布的更新扩大了NIM推理微服务库,