Root NationNachrichtenIT-NeuigkeitenMicrosoft enthüllt Details über seine Singularity AI-Infrastruktur

Microsoft enthüllt Details über seine Singularity AI-Infrastruktur

-

Microsoft gab bekannt, dass es an einem neuen Planungssystem im „planetarischen Maßstab“ für Workloads mit künstlicher Intelligenz (KI) namens Singularity arbeitet.

Wie in einem von der Firma veröffentlichten Whitepaper erklärt, ist Singularity „ein neuer Workload-bewusster Scheduler, der Deep-Learning-Workloads transparent vorwegnehmen und elastisch skalieren kann, um eine hohe Auslastung sicherzustellen, ohne ihre Korrektheit oder Leistung auf globaler Ebene von KI-Beschleunigern zu beeinträchtigen.“

Nichttechnisch bedeutet dies, dass das System so konzipiert ist, dass es das globale Netzwerk der Serverhardware des Unternehmens optimal nutzt und dadurch die mit der Ausführung von KI-Workloads verbundenen Kosten reduziert. Der Kern des Leistungsversprechens von Singularity ist die Fähigkeit, Jobs mitten im Prozess zu skalieren und sie zwischen verschiedenen Infrastrukturen auf der ganzen Welt zu verschieben.

Microsoft

Wie das Dokument erklärt, kann ein laufender Job in einen anderen Cluster oder ein anderes Rechenzentrum verschoben und genau dort fortgesetzt werden, wo er aufgehört hat, wodurch die Kapazitätsauslastung optimiert wird. Es kann auch elastisch nach oben oder unten skaliert werden, indem verschiedene Arten und Anzahlen von KI-Beschleunigern verwendet werden. Die Schönheit dieses Systems, so die Worte Microsoft, da keine zusätzliche Arbeit seitens der Entwickler erforderlich ist, da keine Codeänderungen erforderlich sind, damit Singularity funktioniert.

Um dies jedoch zu ermöglichen, Microsoft musste einen Weg finden, Arbeitslasten von Hardwareressourcen zu trennen. Die neue Lösung verwendet ein sogenanntes „Proxy-Gerät“, das in seinem eigenen Adressraum arbeitet und eine Trennungsebene festlegt, die eine reibungslose Neuzuweisung von Ressourcen gewährleistet.

Während der Schwerpunkt des Papiers auf dem Planungsdienst liegt, sagen die Autoren, dass das System so konzipiert ist, dass es auf eine Flotte von Hunderttausenden von GPUs und anderen KI-Beschleunigern skaliert werden kann.

Lesen Sie auch:

QuelleTechradar
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen
Andere Artikel
Abonnieren Sie Updates
Beliebt jetzt