适用于 AI/ML 工作负载的端到端解决方案 vSphere AI/ML 解决方案
利用 vSphere 解决方案为所有企业释放 AI 和 ML 的强大优势,并获得基于 VMware 的 AI 优化型基础架构。
了解 ESG 对端到端 AI 就绪型平台如何帮助降低风险、提高部署成功率以及增加业务回报的看法。
收听本次网络研讨会,了解 VMware 和 NVIDIA 如何合作为所有企业构建生成式 AI。
VMware 和 NVIDIA 携手推出的 AI 就绪型企业级平台提供了一流的 AI 软件,即 NVIDIA AI Enterprise 套包,该软件针对行业领先的企业级工作负载平台 vSphere 进行了优化并且经认证适用于该平台。该平台在行业领先的加速服务器 NVIDIA-Certified Systems 上运行,可加快开发人员构建 AI 和高性能数据分析功能的速度,使企业能够在他们已投资部署的同一 VMware 基础架构上扩展现代工作负载,并提供企业级可管理性、安全性和可用性。通过利用最新一代 NVIDIA GPU 的全部功能和卓越性能,vSphere 使开发人员、系统管理员和 DevOps 团队能够加快运行所有类型的 AI 和 ML 工作负载,无论是基于虚拟机的工作负载,还是容器化的工作负载。
借助与 VMware 和 NVIDIA 携手推出的 AI 就绪型企业级平台、NVIDIA NeMo 框架以及 NVIDIA 和 VMware Cloud Foundation 上的其他社区模式完全集成的平台,构建、微调和创建私有生成式 AI 模型。
借助 VMware Private AI,可以灵活地为您的环境运行一系列 AI 解决方案(NVIDIA、开源和独立软件供应商)。了解 VMware 如何与领先的 AI 提供商合作,自信地进行部署。
使用经 NVIDIA 优化和认证可在 vSphere 上运行的 AI 解决方案,信心十足地部署端到端 AI 解决方案。
每台虚拟机支持高达 8 个 NVIDIA vGPU,实现了复杂的 AI 模型,并且,每台虚拟机支持高达 32 个直通设备,缩短了模型训练时间。
使用 vSphere 和 NVIDIA GPU 实现接近裸机的训练和推理性能。使用 NVLINK 和 NVSwitch 加速处理大型 AI/ML 工作负载(使用 NVLink on Hopper 可实现高达 900 GB/秒的双向速度)。
构建可产生智能输出的私人聊天机器人。能够创建操作建议引擎并自动执行重复的手动流程。
向 VMware 专家了解 VMware 和 NVIDIA 如何在所有企业中推广 AI 和 ML 并释放它们的强大力量。
利用 NVIDIA 的免费计划,该计划为用户提供对大量云中实验 (HOL) 的短期访问权限。体验用于测试完整 AI 堆栈的端到端 vSphere 和 NVIDIA AI 工作流。
了解 VMware 和 NVIDIA 如何强强联手,通过提供端到端 AI 就绪型企业级平台为所有企业释放 AI 的强大力量。