Root NationNachrichtenIT-NeuigkeitenNVIDIA stellte den Supercomputer DGX GH200 für die KI-Entwicklung vor

NVIDIA stellte den Supercomputer DGX GH200 für die KI-Entwicklung vor

-

NVIDIA kündigte eine neue Klasse von Supercomputern mit großer Speicherkapazität an – den Supercomputer NVIDIA DGX basiert auf Superchips NVIDIA GH200 Grace Hopper und Schaltersysteme NVIDIA NVLink. Ziel ist die Entwicklung von Modellen der nächsten Generation für generative Anwendungen KI, Empfehlungssysteme und Datenanalyse-Workloads.

Riesiger Speicherplatz NVIDIA DGX GH200 nutzt die NVLink-Verbindungstechnologie mit dem NVLink Switch System, um 256 GH200-Superchips zu kombinieren, die dadurch als eine einzige GPU arbeiten. Dies bietet 1 Exaflop Leistung und 144 TB gemeinsamen Speicher, fast 500-mal mehr als die vorherige Generation NVIDIA DGX A100, das 2020 eingeführt wurde.

NVIDIA

"Generativ KI„Große Sprachmodelle und Empfehlungssysteme sind die digitalen Motoren der modernen Wirtschaft“, sagte der Gründer und CEO NVIDIA Jensen Huang. – DGX GH200 KI-Supercomputer integrieren modernste beschleunigte Rechen- und Netzwerktechnologien NVIDIAdie Grenzen der KI zu erweitern“.

Wie in einer Pressemitteilung auf der Website des Unternehmens berichtet, machen die GH200-Superchips eine herkömmliche CPU-GPU-PCIe-Verbindung überflüssig. Sie kombinieren den Prozessor NVIDIA Armbasierte Grace und GPU NVIDIA H100 Tensor Core in einem Gehäuse. Dadurch wird die Bandbreite zwischen GPU und CPU um das Siebenfache erhöht, der Stromverbrauch deutlich reduziert und 7 GB GPU-Hopper-Architektur für neue Supercomputer bereitgestellt. Die DGX GH600-Architektur bietet 200-mal mehr NVLink-Bandbreite als die Vorgängergeneration.

Google Cloud wird dies voraussichtlich tun Meta dass Microsoft wird zu den Ersten gehören, die Zugang zum DGX GH200 erhalten und seine Fähigkeiten bei der Generierung von KI-Workloads erkunden. Der Hersteller beabsichtigt außerdem, das Design des DGX GH200 als Muster Cloud-Dienstleistern zur Verfügung zu stellen, damit diese es an ihre Infrastruktur anpassen können.

NVIDIA

„Die Erstellung fortschrittlicher generativer Modelle erfordert innovative Ansätze für die Infrastruktur künstlicher Intelligenz“, sagte der Vizepräsident für Informatik bei Cumolocity Mark Lohmeyer. „NVLinks neue Waage und der Grace Hopper-Superchip-Speicher beseitigen wichtige Engpässe in der KI im großen Maßstab, und wir freuen uns darauf, ihr Potenzial für Google Cloud und unsere generativen KI-Initiativen zu erkunden.“

Corporate Vice President für Azure Infrastructure in Microsoft Girish Bablani wies auf das Potenzial des DGX GH200 für die Arbeit mit Terabyte-Datensätzen hin, was es Entwicklern ermöglichen wird, Forschung in größerem Maßstab und mit beschleunigter Geschwindigkeit durchzuführen.

Artificial Intelligence

Das Unternehmen entwickelt auch einen Supercomputer NVIDIA DGX GH200-basiertes Helios für seine Forscher und Entwicklungsteams. Es wird mit vier DGX GH200-Systemen ausgestattet sein und jedes wird durch ein Quantum-2 InfiniBand-Netzwerk miteinander verbunden sein, um den Datendurchsatz für das Training großer KI-Modelle zu erhöhen. Helios wird 1024 Grace Hopper-Superchips umfassen und voraussichtlich bis Ende des Jahres betriebsbereit sein.

Software NVIDIA Base Command bietet KI-Workflow-Management, Cluster-Management der Enterprise-Klasse, Bibliotheken, die die Rechen-, Speicher- und Netzwerkinfrastruktur beschleunigen, sowie für KI-Workloads optimierte Systemsoftware. Ebenfalls enthalten ist die AI Enterprise-Software, die über 100 Frameworks, vorab trainierte Modelle und Entwicklungstools bereitstellt, um die Entwicklung und Bereitstellung von Produktions-KI, einschließlich generativer KI, zu vereinfachen KI, Computer Vision, Sprach-KI und vieles mehr.

Supercomputer NVIDIA Der DGX GH200 wird Ende des Jahres erhältlich sein.

Lesen Sie auch:

Quellenvidia
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen
Andere Artikel
Abonnieren Sie Updates
Beliebt jetzt