Kurzfassung
Der Energiehunger von Künstliche Intelligenz wächst dramatisch: Die Internationale Energieagentur prognostiziert, dass sich der Stromverbrauch von Rechenzentren bis 2030 verdoppeln könnte – auf knapp 3 Prozent des weltweiten Strombedarfs, so viel wie Japan heute benötigt. Eine durchschnittliche Chatbot-Anfrage verbraucht tatsächlich nur etwa 0,2–0,3 Wattstunden, nicht die vielfach zitierte Zehnfaches-Energie gegenüber Google-Suchen. Der wirkliche Skandal ist nicht die einzelne Anfrage, sondern das Rechenzentrumsrüsten im Gigawatt-Massstab und die damit verbundene Rückkehr zu fossilen Energieträgern und Atomkraft. In Deutschland entstehen derzeit Megaprojekte wie das 200-Megawatt-Zentrum in Lübbenau, während 12 Prozent der geplanten Gaskraftwerksleistungen der KI-Versorgung zugeordnet werden – ein klimapolitisches Desaster.
Personen
- Moritz Metz (KI-Infrastruktur-Specialist, Deutschlandfunk)
- Friederike Hildebrandt (Bits und Bäume-Netzwerk)
- Sam Altman (OpenAI-Chef, Project Stargate)
Themen
- Rechenzentren und KI-Infrastruktur
- Energieverbrauch und Klimawirkung
- Gaskraftwerke und fossile Rückkehr
- Nvidia-Monopol und Chipabhängigkeit
- Europäische Souveränität vs. US-Dominanz
Clarus Lead
Die Debatte über KI-Energieverbrauch wird durch widersprüchliche Zahlen geprägt: Während eine einzelne Chatbot-Anfrage mit 0,2–0,3 Wattstunden deutlich sparsamer ist als oft behauptet, explosiert der Gesamtverbrauch durch Rechenzentren im Gigawatt-Massstab. Das Kernproblem liegt nicht in der Effizienz einzelner Anfragen, sondern in einem globalen Wettrüsten um KI-Infrastruktur, das gigantische Mengen an Kapital, Rohstoffen und Energie bindet – und fossile Energieträger zurück ins Spiel bringt, obwohl die Energiewende dringender denn je ist.
Clarus Eigenleistung
Clarus-Recherche: Kartierung deutscher KI-Rechenzentren zeigt konzentrierte Megaprojekte (200 MW Lübbenau, 480 MW Nierstein, 1,2 GW Dummersdorf-Spekulation), die einen Stromverbrauch von 10 Prozent des Deutschen Stromnetzes bis 2037 bedeuten könnten – Steigerung von aktuell 4 Prozent auf geschätzte 9–10 Prozent.
Einordnung: Das Gap zwischen Gebäudekosten (3 Mrd. Euro 2025) und IT-Hardware (12 Mrd. Euro) offenbart ein kritisches Abhängigkeitsverhältnis: 70 Prozent aller Investitionen fliessen in US-Chips (primär Nvidia) zurück, während europäische Souveränität lediglich rhetorisch angestrebt wird. Die „unholy alliance" zwischen sterbender Gasindustrie und KI-Versprechen gefährdet Klimaziele auf 25–40 Jahre.
Konsequenz: Handlungsrelevant für Energiepolitik: Rechenzentren dürfen künftig nur mit zusätzlichen erneuerbaren Energiequellen gebaut werden (nicht bestehenden), Abwärmenutzung regional verankern (nicht verpuffend lassen), Nvidia-Abhängigkeit durch europäische Chipentwicklung reduzieren.
Detaillierte Zusammenfassung
Das Rechenzentrumsrüsten im globalen Kontext
Die USA dominieren mit 70 Prozent der globalen KI-Rechenleistung. Amazon investiert 118 Milliarden Dollar 2025 allein für Infrastruktur, Google 85 Milliarden, Microsoft 80 Milliarden. Massive Projekte entstehen: Amazons Colossus-2-Rechenzentrum in Memphis (Elon Musks XII) zieht so viel Energie wie Berlin; Metas Louisiana-Hyperion mit 2 Gigawatt (Berlin + München) wird von drei neuen Gaskraftwerken gestützt. OpenAIs Project Stargate plant 250 Gigawatt Rechenleistung in sieben Jahren – so viel wie Indiens gesamter Stromverbrauch, bei doppelten CO2-Emissionen von ExxonMobil.
Deutschland: Zwischen europäischer Ambition und US-Abhängigkeit
Deutschland ist Europas grösster Rechenzentrums-Markt, verbraucht aktuell 4 Prozent des Stroms für Rechenzentren. Die Bundesnetzagentur rechnet mit Anstieg auf 10 Prozent bis 2037. Geplante Gigaprojekte:
- Lübbenau (Spreewald): 200 MW, 11 Mrd. Euro, Schwarzgruppe/Lidl, 100.000 KI-Chips, Spatenstich Ende 2025, ab 2027 stufweise aktiv. Abwärme für 75.000 Haushalte, aber 90 Prozent lokal unabnehmbar (Infrastruktur-Mismatch).
- Nierstein (Rheinland-Pfalz): 480 MW, NTT Global, potenziell drittgrösstes Rechenzentrum Europas.
- Wustermarkt (westlich Berlin): 204 MW, Virtus, 4 Mrd. Euro.
- Brandenburg/Finsterwalde & Barutmark: Amazon doppelt, 200 + 100 MW, 7,8 Mrd. Euro.
- Dummersdorf (Mecklenburg-Vorpommern): 1,2 Gigawatt Spekulation, potenziell grösstes Europas, könnte allein Berlins Stromverbrauch entsprechen.
- Dietzenbach (Hessen): Google, 5,5 Mrd. Euro bis 2029, KI-spezialisiert.
- Bergheim & Bedburg (Rheinisches Revier): Microsoft, 3,2 Mrd. Euro, BUND protestiert gegen 5.000-Fussballfeld-Flächenversiegelung.
Investitionen 2025: 15 Milliarden Euro (3 Mrd. Gebäude, 12 Mrd. Hardware). Aber 70 Prozent des Chipgeldes fliesst zu Nvidia zurück in die USA – keine europäische Wertschöpfung.
Das Kernproblem: Fossile Gegenoffensive im KI-Gewand
Friederike Hildebrandt und Moritz Leiner (Bits und Bäume / Urgewald) belegen: 12 Prozent der aktuell geplanten Gaskraftwerksleistung in Deutschland steht mit Rechenzentrumsversorgung in Verbindung. Das bedeutet 25–40-jährige Betriebslaufzeiten für Gasinfrastruktur, obwohl Dekarbonisierung dringend ist. Meta in Louisiana baut drei Gaskraftwerke neben sein Hyperion-Zentrum (3 Mrd. Euro für Gas), obwohl Erdgas lokal unbegrenzt verfügbar ist. In den USA aktiviert Microsoft den stillgelegten Three-Mile-Island-Reaktor (vor 45 Jahren Amerikas schlimmster Atomunfall), Google investiert in alte Atomkraftwerke in Iowa und Pennsylvania. Diese Entwicklung zeigt: KI-Konzerne weichen ihrer selbstgesteckten Klimaziele aus und subventionieren indirekt fossile und nukleare Industrien.
Stromversorgungsengpass statt echter Knappheit
Deutschland hat nicht fundamentale Energieknappheit, sondern Infrastruktur-Versorgungsflaschenhals. Der Strom ist teuer und die Netzkapazität limitierend. Politische Lösung: Bundesdigitalministerium plant Lockerung von Genehmigungsregeln und Ausweitung des Industriestrompreises (Subvention) auf Rechenzentren – Lobbyerfolg für Betreiber. Neue Regeln (ab Sommer 2025): Neubauten müssen PUE-Effizienz von mind. 1,2 erreichen, 100 Prozent erneuerbarer Strom ab 2027, Abwärmenutzung verpflichtend. Aber diese Standards hinken dem Rüsten hinterher.
Die Mythen über Chatbot-Energie: Debunked
Virale Behauptung: „ChatGPT braucht 10x so viel wie Google-Suche" (3 Wattstunden vs. 0,3).
Ursprung & Probleme:
- John Hennessey (Alphabets Chairman, Feb. 2023) sprach von Kosten, nicht Stromverbrauch.
- Kosten ≠ Strom (Personal, Infrastruktur, Gewinn enthalten).
- Bezog sich auf Alphabet/Google, nicht ChatGPT (unterschiedliche Modelle, Infrastrukturen).
- Die Vergleichsstudie zitierte einen Blogpost von 2009 für Google-Verbrauchswert – 14 Jahre alt.
Aktuelle verlässliche Zahlen (Google, OpenAI, Sommer 2024):
- Eine Textanfrage (ChatGPT/Gemini): 0,2–0,3 Wattstunden
- Äquivalent: 9 Sekunden Fernsehen ODER 1 Sekunde Backofen-Heizbetrieb
- Oder: 7 Sekunden Fahrrad-Treten à 150 Watt (Fedi/Moritz-Massstab)
Kritik an diesen Angaben:
- Nur Medianwerte (verstecken Ausreisser)
- Videogenerierung deutlich höher (Grafik zeigt 10–100x mehr)
- Reasoning-Modelle (+30x Energie für Selbstreflektion, Web-Suche)
- Konzerne geben Textgeneration an, nicht Video/Bild/Reasoning
- Effizienzgewinne führen nicht zu Sparmassnahmen, sondern zu AI Slob (überall mehr KI-Features, keine absolute Reduktion)
Energieintensität nach KI-Typ
| Anwendung | Energieintensität | Beispiel |
|---|---|---|
| Text-Chatbot | Niedrig | 0,2–0,3 Wh |
| Bildgenerierung | Mittel-Hoch | Mehrfaches davon |
| Videogenerierung | Sehr Hoch | 10–100x Textanfrage |
| Reasoning/Agents | Sehr Hoch | Vielfaches, nicht transparent |
Die Entkoppelung: Wachstum ohne proportionale Nutzung
Klassisch: Rechenzentrum-Infrastruktur-Wachstum = Nutzerwachstum + Funktionserweiterung.
Mit generativer KI: Massive Energieinfrastruktur-Investitionen (Gigawatt-Rechenzentren, Billionen-Dollar), aber Nutzerzahlen steigen nicht proportional. Das ist das Symptom eines spekulativen Wettrüstens, nicht echten Bedarfs. Friederike Hildebrandt (Bits & Bäume): „Die Entkoppelung ist das zentrale Problem – wir bauen für künftigen Hype, nicht aktuelle Nachfrage."
Hardwarekosten & Nvidia-Monopol
Ein KI-Serverschrank (8 Grafikprozessoren):
- Wert: ~2 Millionen Euro
- Stromverbrauch: bis 140.000 Watt (900+ Pedis konstant, 50 volle Backöfen)
- Kühlungskosten: ~1/3 der Gesamtenergie (PUE-Faktor 1,5 standard, 1,2 ab 2025 Mindest)
- Lieferant: Nvidia (wertvollstes Unternehmen der Welt, 4,5 Billionen USD Börsenwert)
Das Kernproblem: Europäische Rechenzentren subventionieren Nvidias US-Gewinne. 70 Prozent der Hardware-Investitionen verlassen Deutschland/Europa, ohne Wertschöpfung zu hinterlassen. European Chipentwicklung ist unrealistisch in kurzfristig.
Wasserverbrauch & lokale Kollateralschäden
Lübbenau-Abwärme: 75.000 Haushalte könnten versorgt werden, aber 90 Prozent lokal unabnehmbar (Infrastruktur-Mismatch: Rechenzentren auf dem Land, Wärmeverbraucher in Städten weit entfernt).
Louisiana-Hyperion: Erhöht Stromverbrauch des Staates um 1/3. Lokale Luft- und Wasserkontamination nicht adressiert. Elon Musks Colossus-2 (Memphis): Illegale Luftverschmutzung durch doppelte Generator-Anzahl (vs. Genehmigung), lokal 4x erhöhtes Krebsrisiko. Betroffene Gemeinden: primär arm, Menschen of Color.
Kernaussagen
Die Chatbot-Energie-Mythen sind debunked: Eine TextGPT-Anfrage kostet 0,2–0,3 Wh, nicht das Zehnfache von Google. Der Ursprung dieser Behauptung ist ein verzerrtes 2023-Interview (über Kosten, nicht Strom) und ein 2009-Blogpost.
Das echte Problem ist das Gigawatt-Wettrüsten: 250 Gigawatt (Project Stargate), 1,2 Gigawatt (Dummersdorf), 2 Gigawatt (Meta Louisiana) sind nicht rational begründet durch Nutzer-Nachfrage, sondern durch Marktvorherrschafts-Spekulation.
Fossile Gegenoffensive im Klimagewand: 12 Prozent aller geplanten Gaskraftwerke in Deutschland dienen KI-Rechenzentren. Langfrist