Beitrag teilen

Link in die Zwischenablage kopieren

Link kopieren
Suchfunktion schließen
Energie & Rohstoffe > Digitale Infrastruktur & Energie

Stromfresser KI: Wie Big Tech mit der Energiekrise kämpft

| The Economist

Künstliche Intelligenz treibt den Stromverbrauch in die Höhe – Tech-Konzerne suchen weltweit nach Lösungen für ihre energiehungrigen Rechenzentren.

Vision eines Big Tec Rechenzentrums - futuristisch
Moderne Rechenzentren verbrauchen heute bis zu zehnmal mehr Strom als noch vor wenigen Jahren – besonders für KI-Anwendungen. (Foto: shutterstock)

aus: The Economist

Amerikas Tech-Giganten beherrschen die digitale Welt. Doch während sie Milliarden in Künstliche Intelligenz (KI) investieren, stoßen ihre Ambitionen zunehmend an physische Grenzen. Engpässe bei Chips, Transformatoren und Schaltanlagen führen zu explodierenden Preisen und langen Lieferzeiten. Noch dringlicher ist jedoch der Zugang zu Strom: Die Energieversorger kommen mit dem wachsenden Bedarf aus dem Silicon Valley kaum hinterher. In einem am 24. Juli veröffentlichten „KI-Aktionsplan“ bezeichnete Präsident Donald Trump die stagnierende Energiekapazität der USA als Bedrohung für die „KI-Vorherrschaft“ des Landes. Wie reagiert Big Tech auf die sich verschärfende Energiekrise?

Wachsender Hunger – wachsender Bedarf

Der Energiebedarf steigt rasant – befeuert durch immer ambitioniertere KI-Vorhaben der sogenannten Hyperscaler: Alphabet, Amazon, Microsoft und Meta. Diese Unternehmen betreiben Rechenzentren im industriellen Maßstab, um ihre Dienste bereitzustellen. Alphabet, Mutterkonzern von Google, kündigte am 23. Juli an, die Investitionsausgaben für 2025 um 10 Milliarden Dollar auf 85 Milliarden zu erhöhen. Die vier Hyperscaler kommen damit dieses Jahr gemeinsam auf voraussichtlich 322 Milliarden Dollar – mehr als eine Verdreifachung im Vergleich zu 125 Milliarden vor vier Jahren. Mark Zuckerberg präsentierte kürzlich „Projekt Prometheus“: ein Rechenzentrumskomplex in Louisiana, fast so groß wie Manhattan.

Moderne Rechenzentren verschlingen Strom wie nie zuvor. Ein mit KI-Chips vollgepacktes Serverrack verbraucht zehnmal so viel Energie wie sein nicht-KI-basiertes Pendant noch vor wenigen Jahren. Laut dem Lawrence Berkeley National Laboratory verbrauchten Rechenzentren in den USA 2023 rund 176 Terawattstunden (TWh) Strom. Bis 2028 könnte dieser Wert auf 325 bis 580 TWh steigen – das wären 7 bis 12 Prozent des gesamten US-Verbrauchs. Die Hyperscaler wären für etwa die Hälfte verantwortlich.

Wo Rechenleistung gebraucht wird, fehlt der Platz

Hinzu kommt: Die Anforderungen der KI wandeln sich. Bisher floss der Großteil der Rechenleistung in das Training von Modellen. In Zukunft wird zunehmend Rechenleistung für die Anwendung („Inference“) benötigt – also dafür, dass die KI in Echtzeit auf Nutzeranfragen reagiert. Viele Fachleute fordern daher, dass Inference-Zentren näher an den Nutzerstandorten entstehen. Doch gerade dort sind freie Flächen und Stromanschlüsse knapp.

In ihrer Not weichen Tech-Konzerne in Regionen aus, die für andere Zwecke wenig attraktiv sind. Beliebte Standorte wie Nord-Virginia – mit günstigen Steuern und schneller Datenanbindung – sind bereits überlastet. „Man geht inzwischen an zweit- oder drittklassige Orte“, sagt ein ehemaliger Manager. Doch auch Alternativen wie Hillsboro (Oregon) oder Columbus (Ohio) stoßen an Kapazitätsgrenzen, erklärt Pat Lynch vom Immobilienkonzern CBRE. Neubauten mit Fertigstellung 2028 sind bereits heute ausgebucht.

Kooperation statt Konkurrenz

Eine weitere Strategie: Kooperation mit kleineren Anbietern. Im Juni kündigte Google an, Kapazitäten beim KI-Cloud-Spezialisten CoreWeave zu mieten – einem Unternehmen, das bereits einen ähnlichen Fünfjahresvertrag im Wert von 10 Milliarden Dollar mit Microsoft abgeschlossen hat. Teilweise stammen die genutzten Kapazitäten aus umgewidmeten Krypto-Mining-Anlagen.

Gleichzeitig fahnden die Konzerne nach neuen Energiequellen. Amazon Web Services wollte ein Rechenzentrum auf Basis von Atomstrom vom Energieversorger Talen Energy übernehmen. Die Aufsichtsbehörden untersagten den Deal – aus Sorge vor steigenden Strompreisen für Anwohner. Google wiederum schloss am 15. Juli einen Drei-Milliarden-Dollar-Deal für Wasserkraft aus einem Damm in Pennsylvania ab. Immer häufiger lassen Hyperscaler Stromprojekte direkt für sich bauen – entweder durch Partnerschaften mit Energieversorgern oder durch eigene Stromerzeugung vor Ort.

Rechenzentrum mit Eigenstromversorgung

Laut einer Umfrage des Energieunternehmens Bloom Energy erwarten Betreiber, dass bis 2030 rund 27 Prozent der Rechenzentren über eigene Stromquellen verfügen werden – gegenüber nur einem Prozent im Vorjahr. Google unterzeichnete im Dezember einen 20-Milliarden-Dollar-Vertrag mit dem Entwickler Intersect Power über ein Rechenzentrum mit Solarfarm und Batteriespeicher. Teile der Energie für Metas Prometheus-Projekt stammen aus Erdgas, das direkt vor Ort gefördert wird.

Die Energiekrise führt zu innovativen Ansätzen. Google kooperiert mit Kairos Power, einem Startup für Mini-Atomreaktoren (SMRs), das ab 2030 Strom liefern soll. Amazon investiert in X-Energy, ein weiteres SMR-Unternehmen. Google und Meta setzen auf Geothermie. Microsoft experimentiert mit Wasserstoff-Brennstoffzellen als Notstromlösung für Rechenzentren.

Flexible Netze, klügere Priorisierung

Ein anderer Hebel: das Stromnetz flexibler machen. Tyler Norris von der Duke University erklärt, Stromnetze seien auf Verbrauchsspitzen ausgelegt. Wenn Rechenzentren bereit sind, bei Spitzenlast auf eigene Speicher oder Generatoren umzuschalten, entlastet das das Netz – und schafft Platz für neue Anschlüsse.

Solche Betreiber könnten bevorzugten Zugang zu Netzstrom erhalten. Elon Musks xAI beteiligte sich mit seinem Rechenzentrum in Memphis an einem solchen Flexibilitätsprogramm – und erhielt laut dem Analysehaus SemiAnalysis dadurch schneller einen Netzanschluss. Zudem unterstützen Tech-Giganten den Netzausbau – etwa durch Googles Partnerschaft mit dem Kabelhersteller CTC Global.

Blick ins Ausland und Risiko Fehlentscheidung

Ein letzter Ausweg: Auslagerung. In den Golfstaaten entstehen derzeit riesige Rechenzentren – finanziert durch Staatsfonds. Spanien wird wegen seiner Solarpotenziale immer beliebter. In Asien galt Malaysia lange als Hotspot, doch eine seit 1. Juli geltende Sonderabgabe auf Rechenzentren könnte die Hyperscaler abschrecken.

Die Standortwahl wird zum strategischen Risiko. Das von OpenAI und SoftBank initiierte „Projekt Stargate“ geriet laut Berichten ins Stocken – wegen Streit über Stromanbieter und Standort. Peter Freed, Ex-Meta-Manager und heutiger Berater, warnt: Hochspezialisierte Rechenzentren „im Nirgendwo“ zu bauen, könne sich rächen. „Ich fürchte das Risiko von Fehlinvestitionen.“ Und da niemand weiß, wie sich die KI-Nachfrage in den nächsten zwei Jahren entwickelt, dürfte selbst das beste KI-Modell auf diese Frage keine endgültige Antwort finden.

 

Bleiben Sie auf dem Laufenden, abonnieren Sie unseren kostenlosen Newsletter und erhalten Sie immer die neuesten Nachrichten und Analysen direkt in Ihren Posteingang.

© 2025 The Economist Newspaper Limited. All rights reserved.

Aus The Economist, übersetzt von der Markt & Mittelstand Redaktion, veröffentlicht unter Lizenz. Der Originalartikel in englischer Sprache ist zu finden unter www.economist.com

Ähnliche Artikel