Der Machthunger der KI

Das amerikanische Stromnetz ist nicht bereit, den wachsenden Strombedarf der KI zu decken
Der Machthunger der KI
Illustration: Illustration: Vicky Leta Images: Getty/Yevgen Romanenko (Andere)
Von
Für die Links auf dieser Seite können wir eine Provision verdienen.

Hallo, Quartz-Mitglieder!

Wir betreten eine KI-Welt – aber möglicherweise auch eine, der die nötige Power fehlt.

Nehmen wir den Fall von Nvidias neuestem KI-Chip, einer Beschleuniger-GPU namens Blackwell, eine vier Zoll große Ansammlung aus Silizium und Verkabelung mit 200 Milliarden Transistoren. Wenn es an ein Array mit Tausenden identischer Prozessoren angeschlossen wird, kann es die weltweit größten künstlichen Intelligenzaufgaben bewältigen. Nvidia sagt , dass Blackwell für die gleiche Datenverarbeitung 25 mal weniger Strom verbraucht als seine Vorgänger, wodurch es ermöglicht ist, schnell und effizient neue KI-Anwendungen zu entwickeln. Jeder Blackwell-Chip verbraucht jedoch auch 1.200 Watt Strom. Das ist gerade genug für Strom für ein durchschnittliches US-Haushaltshaus.

Künstliche Intelligenz-Anwendungen können mittlerweile alles, von der Entwicklung neuer Medikamente bis hin zum Autofahren und der Organisation des persönlichen Kalenders. Die Nachfrage nach KI steigt rasant. Neue KI-Chips versprechen schnellere und bessere Ergebnisse, und weltweit werden Rechenzentren geplant und gebaut, in denen die gesamte neue KI untergebracht werden soll. Doch die KI steht vor einer realen Energieknappheit. KI-Chips können 1 0-mal so viel Strom, um auf eine Anfrage wie bei einer algorithmischen Google-Suche zu antworten (2,9 Wattstunden gegenüber 0,3). Und das stellt eine existenzielle Bedrohung für die schnelle Einführung von KI dar. Tatsächlich wird erwartet, dass der Anteil des amerikanischen Stroms, der für Rechenzentren verwendet wird, in denen die meisten KI-Berechnungen stattfinden, von heute etwa 4 % des US-Stromverbrauchs auf 9,1 % bis 2030 steigen wird.

Das mag wie eine großartige Chance für Energieunternehmen und Versorgungsunternehmen aussehen, aber Elektrizität ist ein komplexes Geschäft. Und zwischen regulatorischen, Zuverlässigkeits- und finanziellen Problemen geht es nicht schnell voran. Die Wahrheit ist, dass das US-amerikanische Stromnetz (wie auch das anderer Länder) einfach nicht für die KI-Revolution bereit ist.

„Mit der KI kommt ein Güterzug“, sagte Jeff Jakubiak, ein auf Energieregulierung spezialisierter Anwalt der Anwaltskanzlei Vinson and Elkins. „Noch nie zuvor gab es ein solches Potenzial für ein Ungleichgewicht zwischen Angebot und Nachfrage im Stromnetz, wie es jetzt dank der KI der Fall ist.“

Branchenexperten sagen, es gibt rund 1.000 große Rechenzentren auf der Welt, die Hälfte davon in den USA, mit einer Leistung von 500 Megawatt bis 1 Gigawatt Strom. Amazon, Google und andere Cloud-Computing-Plattformen planen, in den nächsten fünf Jahren weitere 500 Hyperscale-Rechenzentren online zu bringen, hauptsächlich um die explosionsweise nachfrage nach KI-Anwendungen zu bewältigen.

Heutige Rechenzentren verbrauchen jährlich 460 Terawattstunden (TWh) Strom, so viel wie ganz Deutschland. Bis 2030 werden US-Rechenzentren so viel Strom verbrauchen wie 40 Millionen Haushalte.

Rene Haas, CEO des Chipherstellers Arm, schrieb kürzlich: Blogbeitrag dass KI-Modelle, je größer und intelligenter werden, auch mehr Strom verbrauchen – aber ohne Strom wir keine KI-Revolution erleben werden. „Mit anderen Worten“, wie Haas es ausdrückte: „ohne Strom keine KI.“


Hoch auf eigene Faust

Ein möglicher Ausweg ist der Aufbau einer eigenen Stromversorgung. Im Fachjargon der Elektroindustrie wird dies als „Stromerzeugung hinter dem Zähler“ bezeichnet. Rechenzentren, die ihren eigenen Strom erzeugen, können jedoch zu einer zu großen Insel werden. Wenn sie nicht an das Stromnetz angeschlossen sind, besteht ein erhebliches Risiko, dass sie bei einem Ausfall ihres Stromgenerators auf der Strecke bleiben.

Während die größten Cloud-Computing-Unternehmen noch keine eigenen Kraftwerke bauen – und es gibt noch keine Gerüchte, dass jedermanns beliebteste Shopping-Site für die Nacht Amazon Nuclear Power Inc. gründet –, unterstützen sie die Erschließung neuer Energiequellen mit einem sogenannten Power Purchase Agreement, einer mehrjährigen (oder jahrzehntelangen) Verpflichtung, Energie aus neuen Quellen zu kaufen. Amazon gab kürzlich seine Vereinbarung mit dem US-amerikanischen Energieversorger AES Corp. für ein langfristiges PPA für ein riesiges 150-MW-Solarfeld in der Mojave-Wüste bekannt.

Durch die Schaffung solcher Versorgungseinrichtungen, die an das nationale Stromnetz angeschlossen werden können, versucht Amazon, seine Serverfarmen vor der Abschaltung bei Stromausfällen zu schützen. Die Solarfarm dient noch einem weiteren Zweck: Es kann schwierig sein, Genehmigungen für neue Kraftwerke zu erhalten, insbesondere, wenn sie mit fossilen Brennstoffen betrieben werden. Für Solarfarmen hingegen ist es viel einfacher, Genehmigungen zu erhalten, und sie sind viel schneller online. Tatsächlich bezieht Amazon bereits mehr als 90 % seines Stroms aus erneuerbaren Quellen und strebt an, bis 2030 vollständig auf erneuerbare Energien umzusteigen.


Das Verbindungsrätsel

Die Erzeugung von ausreichend Energie zur Versorgung von Rechenzentren ist ein vielschichtiges Problem, sagt Marcus McCarthy, Senior Vice President von Siemens Grid Software, einer Geschäftseinheit des deutschen Maschinenbauriesen, der Software für den Betrieb von Stromnetzen entwickelt. Die Planung und der Bau eines effizienten Rechenzentrums dauern etwa zwei Jahre. Doch allein die Genehmigungen einzuholen, kann noch viel länger dauern, und auch der Aufbau von Stromerzeugungskapazitäten kann länger dauern. Hinzu kommt noch die Nachfrage nach Energie, die die Treibhausgasemissionen nicht erhöht, und die Herausforderung ist gewaltig.

„Diese an das Stromnetz anzuschließen, wird für die Energiewirtschaft eine Herausforderung sein. Ausreichend Energie zu erzeugen, ist eine Herausforderung, und sie auf nachhaltige Weise zu installieren, ist eine Herausforderung“, sagte McCarthy.

Die vielleicht größte Herausforderung ist der Anschluss. Stromnetze sind eine heikle Angelegenheit. Wenn sie mehr Strom erzeugen, als sie „abnehmen“ oder verbrauchen können, kann es zu einer Überhitzung und einem Kurzschluss kommen. Wenn die Nachfrage größer ist, als sie decken können, kann es ebenfalls zu einem Kurzschluss kommen oder es müssen rollierende Stromabschaltungen durchgesetzt werden.

Das bedeutet, dass die Versorger sehr sorgfältig die Auswirkungen der Zunahme von Lasten wie der durch ein KI-Rechenzentrum untersuchen müssen. Dies hat in den USA zu mehrjährigen Störungszeiten geführt, insbesondere an Orten wie Virginia, wo bereits fast ein Viertel der Stromversorgung an Rechenzentren geht.

Netzbetreiber erinnern sich an die Katastrophenjahre 2000 und 2001 in Kalifornien, als eine Kombination aus Deregulierung, schlechtem Wetter und einem schlecht verwalteten Netz in Kalifornien zu zeitweisen Stromausfällen führte.

„Das ist potenziell das, was hier passiert“, sagte Jakubiak, es sei denn, die Netzbetreiber verwalten die Verbindungen zu den Rechenzentren erfolgreich. „Wenn die Netzbetreiber dies vorausschauend angehen, werden sie es ablehnen, die Nachfrage an das Netz anzuschließen, sofern das Angebot nicht ausreicht.“

Etwa bis zum Jahr 2030, prognostiziert Jakubiak, werde der Strommangel „zu einer Verlangsamung des von den Menschen prognostizierten KI-Wachstums“ führen.


Vielen Dank fürs Lesen! Und zögern Sie nicht, erreichen mit Kommentaren, Fragen oder Themen, über Sie mehr wissen möchten.

Haben Sie ein intelligentes Wochenende!

— Peter Green, Autor des Weekend Brief

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung

Werbung