Supercomputer xAI Colossus nutzt 100.000 Nvidia-Grafikprozessoren

Transparenz
Highlights

  • Der Supercomputer Colossus von Musk-owned xAI ist kürzlich online gegangen.
  • Der aus 100.000 Nvidia-Grafikprozessoren bestehende Supercomputer wurde in nur vier Monaten in Betrieb genommen.
  • xAI will seine Rechenleistung in den nächsten Monaten verdoppeln, um das Lernen der Grok AI-Modelle zu beschleunigen.

Elon Musks xAI hat in seiner neuen Einrichtung in Memphis, Tennessee, einen neuen Supercomputer mit 100.000 Nvidia H100-Grafikprozessoren in Betrieb genommen.

Der Supercomputer ist für das Training von KI-Modellen bei xAI unter der Leitung von Elon Musk bestimmt. Entsprechend den ehrgeizigen Plänen des Start-ups, den Supercomputer bis Ende 2025 in Betrieb zu nehmen, wurde die erste Phase in nur vier Monaten abgeschlossen.

Der Supercomputer trägt den Namen „Colossus“, benannt nach einem Supercomputer aus dem Hollywood-Science-Fiction-Klassiker “Colossus: The Forbin Project” aus den 1970er Jahren. Er besteht aus einem Cluster von 100.000 Nvidia H100-Grafikprozessoren, wie Musk Anfang dieser Woche in einem Beitrag auf X ankündigte. Das Projekt befindet sich in Memphis, Tennessee, in einer Fabrik, die früher Electrolux gehörte. Dort plant Musk den Bau einer „Gigafactory of Compute“, wie The Information bereits berichtete.

Colossus soll über eine der größten Flotten von Grafikprozessoren in einem einzigen Cluster verfügen. Musk plant, den Cluster auf die doppelte Größe mit 200.000 GPUs zu erweitern, darunter 50.000 zusätzliche Nvidia H200, die neuer sind und mehr Rechenspeicher bieten. Der Tech-Mogul hatte sich zuvor dazu bekannt, 3 bis 4 Milliarden US-Dollar für den Kauf von GPUs auszugeben.

Kein Wunder, dass diese GPUs derzeit zu den begehrtesten Technologieprodukten gehören. Die steigende Nachfrage hat die Marktkapitalisierung von Nvidia in die Höhe getrieben und das Unternehmen Anfang des Jahres zum wertvollsten Unternehmen der Welt gemacht.

Die Beschaffung dieser GPUs kann jedoch eine Herausforderung darstellen, da die führenden Technologiegiganten, darunter Meta, Google, Amazon und Microsoft, alle um die Siliziumchips von Nvidia konkurrieren. xAI umging diese Herausforderung, indem es sich die erste Charge von GPUs sicherte, die ursprünglich an Tesla geliefert wurden.

Der unmittelbarste Anwendungsfall für den neuen Supercomputer von xAI ist das Training der nächsten Version von Grok, einem KI-Chatbot, der den Abonnenten des sozialen Netzwerks X, das Musk gehört, zur Verfügung steht.

Während xAI Grok-2 im August in einer Betaversion veröffentlichte, hat Musk bereits bestätigt, dass Grok 3 bis Ende 2024 verfügbar sein und mit 100.000 Nvidia-Grafikprozessoren trainiert werden wird. Diese Rechenanforderungen erfüllt Colossus.

Die Kombination von hunderttausenden GPUs soll das Lernen von Grok erheblich beschleunigen. Es gibt jedoch keine Garantie dafür, dass die Fähigkeiten von KI-Modellen anderer Unternehmen übertroffen werden, zumal Unternehmen wie Meta planen, ihr GPU-Portfolio erheblich auszubauen. Neben Grok wird der Supercomputer voraussichtlich auch die zugrundeliegenden KI-Modelle trainieren, die den Roboter Tesla Optimus antreiben werden.

Tushar Mehta
Tech Journalist
Tushar Mehta
Tech Journalist

Tushar ist ein freiberuflicher Journalist, der seit fast einem Jahrzehnt über Verbrauchertechnologie berichtet. Zusätzlich zu Techopedia schreibt er für Digital Trends und Forbes Vetted und hat bereits für XDA und Android Central geschrieben.