Das Hardware-Monster
In Memphis (USA) steht jetzt eine der stärksten Rechenanlagen der Welt. Die Zahlen sind gigantisch:
- 200.000 GPUs: Das sind Grafikchips, die speziell für KI gemacht sind.
- Modell H200: Das ist die neueste Version von Nvidia. Sie ist viel schneller und hat mehr Speicher als die Vorgänger.
Warum ist das wichtig?
KI-Modelle müssen "lernen". Dafür lesen sie riesige Mengen Text und Daten. Das dauert Monate und braucht extrem viel Rechenleistung.
Musk will mit Grok 5 ein Modell bauen, das 6 Billionen Parameter hat (sehr, sehr schlau ist). Ohne diesen neuen Supercomputer würde das Training Jahre dauern. Mit "Colossus 2" geht es in wenigen Monaten.
Der Energie-Hunger
Der einzige Haken: Die Anlage verbraucht so viel Strom wie eine Kleinstadt (ca. 150 Megawatt). xAI nutzt riesige Tesla-Batterien, um das Stromnetz zu stabilisieren.