AUTOMOBIL

Nvidia AI Enterprise fügt Produktionsunterstützung für virtualisierte Software-Container-Workloads hinzu

Nvidia Corp. aktualisieren Sie Ihre KI-Unternehmen Softwareplattform, Hinzufügen, Produktionsunterstützung für Container-KI-Lasten von VMware vSphere mit Tanzu.

heute aktualisieren bedeutet, dass Unternehmen Nvidia AI Enterprise 1.1 verwenden können, um beschleunigte KI-Workloads auf vSphere sowohl in Kubernetes-Containern als auch in virtuellen Maschinen auszuführen.

Die Plattform ist eine Reihe von Tools und Frameworks für künstliche Intelligenz, die eine schlüsselfertige Lösung für Unternehmen sein soll, die KI-Workloads in ihren eigenen Rechenzentren oder in der Cloud ausführen möchten. Letztes Jahr erschienenDamit können Unternehmen KI-Workloads virtualisieren und auf Nvidia-zertifizierten Serversystemen ausführen.

Der Vorteil besteht darin, dass diese Lasten über eine einzige Plattform verwaltet werden können. Unternehmen können eine KI-fähige Infrastruktur in der Nähe ihres Wohnortes mit Daten bereitstellen, was schnellere Lernzeiten bedeutet.

Nvidia sagte, dass eine der häufigsten Anfragen seiner Kunden die Produktionsunterstützung für VMware vSphere-KI-Workloads mit Tanzu ist, einem Dienst, der es ermöglicht, KI sowohl auf Containern als auch auf VMs innerhalb von vSphere bereitzustellen. Mit dem heutigen Update erhalten Kunden ein integriertes Komplettpaket aus Container-Software und -Hardware, das vollständig verwaltet und für KI optimiert ist, so Nvidia.

AI Enterprise kann lokal auf den eigenen Servern des Kunden oder alternativ als Bare-Metal-Infrastrukturdienst des Rechenzentrumsanbieters Equinix Inc. an neun Standorten weltweit ausgeführt werden.

Das Unternehmen sagte , Tanzu-fähige VMware vSphere wird in Kürze auf die Nvidia LaunchPad für AI Unternehmen hinzugefügt werden, die Mittel , um Kunden zu Test in der Lage sein werden , und neue KI Jobs kostenlos in kuratierte Labors veranstaltet von Equinix und für AI Praktiker Prototyp.. Nvidia sagte der Labore zu zeigen, zielt darauf ab, wie häufig AI-Workloads wie Chatbots und Befassung Motoren entwickelt und verwaltet werden können seine VMware vSphere-Plattform mit Tanzu verwenden.

Alternativ können Kunden direkt zum Geschäft übergehen und AI Enterprise einsetzen zertifizierte Server von verschiedenen Partnern, darunter Dell Technologies Inc., Hewlett Packard Enterprise Co., Inspur Inc., Lenovo Group Ltd., Gigabyte Technology Co. GmbH. und Super Micro Computer Inc.

Unternehmen werden auch mehrere neue Serveroptionen von Drittanbietern haben, wie Cisco Systems Inc. und Hitachi Vantara Ltd. nutzten auch die Gelegenheit, heute ihre ersten Nvidia-zertifizierten Systeme anzukündigen. Der Rack-Server UCS C240 ​​M6 von Cisco wird von betrieben Avid auf Nvidia Tensor Core-Grafikprozessoren wurden entwickelt, um eine Reihe von speicherintensiven und energieintensiven Anwendungen zu betreiben, darunter Big-Data-Analysen, Datenbanken, Virtualisierung und High-Performance-Computing. Der Advanced Server DS220 G2 von Hitachi mit Nvidia A100 Tensor Core GPUs ist eher ein Allzweck-Server, der für Leistung und Kapazität optimiert ist, um Computing und Speicher auszugleichen.

Schließlich fügt die Veröffentlichung von Nvidia AI Enterprise 1.1 auch Unterstützung für hinzu Domino Data Lab Inc..’s Enterprise MLOps-Plattform mit VMware vSphere mit Tanzu. Nvidia sagte, die Integration würde es Unternehmen ermöglichen, ihre Data-Science-Initiativen kostengünstig zu erweitern, indem sie die Forschung beschleunigen, Modelle entwickeln und schließlich Core-GPU-Server bereitstellen.

Der Analyst der International Data Corp. Gary Chen sagte, dass die meisten KI-Praktiker es vorziehen, Workloads in Anwendungscontainern bereitzustellen, wenn sie können. Das Problem ist, dass dies äußerst komplex ist und die Aktivierung mehrerer Schichten auf dem Stack erfordert, einschließlich des KI-Software-Frameworks, des Betriebssystems, der virtuellen Maschine und sogar der Hardware.

„Schlüsselfertige Stack-Lösungen für künstliche Intelligenz können die Bereitstellung erheblich vereinfachen und die KI innerhalb des Unternehmens zugänglicher machen“, sagte Chen.

Fotos: Nvidia

Zeigen Sie Ihre Unterstützung für unsere Mission, indem Sie unserer Experten-Community Cube Club und Cube Event beitreten. Treten Sie der Community bei, zu der Andy Jesse, CEO von Amazon Web Services und Amazon.com, Michael Dell, Gründer und CEO von Dell Technologies, Pat Gelsinger, CEO von Intel, und viele andere Koryphäen und Experten gehören.

Leave a Reply

Your email address will not be published.