500ml Wasser pro ChatGPT-Mail?
Dieser Artikel erschien zuerst in der ak[due]ll.
Im September 2024 sorgte ein Beitrag der Washington Post zusammen mit der University of California Riverside für Aufsehen: Einer Studie zufolge verbrauche das Generieren einer E-Mail mit GPT-4 519 ml Wasser. Und genau diese Studie hat unseren Diskurs maßgeblich geprägt, denn: KI-Guilt-Tripping scheint zum Volkssport zu avancieren. Die Studie scheint aus dem Kontext gerissen. Zum einen stammen die Zahlen aus einer Ende 2023 veröffentlichten Studie, die sich auf GPT-3 (einem Vorläufer von ChatGPT) konzentriert hat. Und zum anderen schätzt die Studie, dass ChatGPT diese „bottle of water” für ca. 10–50 mittellange Antworten verbraucht, abhängig von Standort und Uhrzeit der Anfrage. Wer schonmal eine E-Mail mit ChatGPT generieren lassen hat weiß: zwischen 10 und 50 Anfragen ist ein großer Unterschied.
Seit 2023 ist viel passiert, Schätzungen sind genauer geworden, die Studienlage besser und das entzerrt das Bild. Einer Berechnung von Google zufolge verbraucht ein Prompt (also eine Anfrage an ein KI-Modell) rund 0,26 ml Wasser. In dieser Angabe fehlt aber noch der Wasserverbrauch für die Stromerzeugung. Wenn man diesen addiert, landen Expert:innen bei rund 2 ml Wasser pro Anfrage. Der amerikanische Blogger und Physiklehrer Andy Masley hat sich mit diesen Zahlen beschäftigt und sie mit dem durchschnittlichen Wasserverbrauch von US-Bürger:innen in Kontext gesetzt.
Für ein Paar Doc-Martens (oder andere Lederschuhe) könnte man ca. vier Millionen Prompts schreiben. Für die Herstellung eines einzigen Blatt Papiers wird Schätzungen zufolge Wasser äquivalent zu 2.550 Prompts verbraucht. Und wer den geplanten USA-Trip cancelt? Der spart mit dem Flug Emissionen, die 10 Millionen ChatGPT-Prompts entsprechen. In Deutschland sehen die Zahlen wahrscheinlich ein bisschen anders aus. Der Wasserverbrauch deutscher Haushalte ist geringer als der von US-Haushalten und der Anteil an erneuerbaren Energien ist im deutschen Strommix höher. Aber: Trotzdem ist der Wasser- bzw. Energieverbrauch der individuellen Nutzung von KI-Modellen vernachlässigbar. Denn alles, was mit Technologie zu tun hat, verbraucht Strom und Wasser.
Bezogen auf den CO₂-Ausstoß sieht der individuelle Impact ähnlich aus: 35 Sekunden Videostreaming entsprechen ungefähr dem CO₂-Äquivalent eines ChatGPT-Prompts. Wer 9 Bilder auf Instagram postet, verbraucht ungefähr den gleichen Strom. Wer also argumentiert, man solle ChatGPT und Co. nicht aus hedonistischen Gründen (z. B. das Erstellen von witzigen Bildern von Freund:innen) verwenden, müsste folgerichtig auch Netflix-Streaming nur rein beruflich betreiben und den monatlichen Insta-Dump lieber bleiben lassen, ganz zu schweigen vom ganzen Doom-Scrolling.
Dieses ganze Zahlengeschubse zeigt vor allem eines: Der individuelle Einfluss auf den CO₂-Verbrauch ist geringer, als man uns gerne glauben lässt. Viel wichtiger sind strukturelle Faktoren wie etwa der Energiemix, mit dem Rechenzentren betrieben werden oder wie ressourceneffizient Modelle trainiert werden. Auch sollte man die Schätzungen nicht für uneingeschränkt zuverlässig halten: Berechnungen über den virtuellen Wasserverbrauch sind aufgrund der globalen Verteilung des Verbrauchs nur schwer zu bemessen und viele Zahlen beruhen auf Modellen mit großen Unsicherheitsbereichen.
Das mit dem KI-Wasser-Fußabdruck mag dem einen oder der anderen seltsam bekannt vorkommen. Das individuelle Klima-Schlechte-Gewissen, das gerade auf KI-Nutzung projiziert wird, erinnert stark an die BP-CO₂-Fußabdruck PR-Kampagne. 2004 veröffentlichte die Erdölfirma BP den ersten CO₂-Fußabdruck-Rechner für Privathaushalte. Heutzutage würde man das wohl als „Gaslighting” (pun intended) wie aus dem Lehrbuch bezeichnen. Auch bei der Frage nach dem individuellen Einfluss von KI muss man sich die Frage stellen, ob hier nicht KI-Firmen von ihrem eigenen ökologischen und sozialen Einfluss ablenken wollen.
Ein Beispiel hierfür liefert Elon Musks KI-Unternehmen xAI. Für ein Rechenzentrum in South Memphis, Tennessee, betrieb xAI nach Recherchen des Southern Environmental Law Center 35 Methangasturbinen – zunächst ohne jegliche Genehmigung, obwohl diese Turbinen gesundheitsschädliche Schadstoffe wie Formaldehyd und Ozonvorläufer emittieren. Während noch öffentliche Anhörungen über eine rückwirkende Genehmigung liefen, plante xAI laut internen Dokumenten bereits für ein zweites Rechenzentrum im selben Stadtteil zwischen 40 und 90 weitere Turbinen. South Memphis ist ein mehrheitlich schwarzes, ohnehin schon durch Industrieemissionen stark belastetes Viertel mit einem vierfach erhöhten Krebsrisiko gegenüber dem amerikanischen Durchschnitt.
Intransparenz und Standortfragen
Fast alle großen KI-Modelle wie GPT, Claude, Gemini und Co. werden in den USA trainiert. Transparenz über den Energieverbrauch des Trainings ist freiwillig und hier wird wohl oft einiges schöngeredet. Während Meta mit seinen Llama-Modellen detaillierte Energiedaten in sogenannten „Model Cards” veröffentlicht, behandeln OpenAI und Anthropic ihre Verbrauchsdaten als Geschäftsgeheimnis. Google legte zwar 2025 erstmals Inferenz-Zahlen (also was das Bereitstellen der Modelle kostet) für sein Gemini-Modell offen, doch Kritiker:innen bemängeln, dass der absolute Wasserverbrauch trotz sinkender Pro-Anfrage-Werte durch die schiere Skalierung gestiegen ist. Googles Treibhausgasemissionen lagen 2023 48 Prozent über dem Niveau von 2019 – womöglich ausgelöst durch den Ausbau der KI-Infrastruktur.
Vor allem der Standort der Rechenzentren macht einen großen Unterschied. Eine 2022 veröffentlichte Studie (Measuring the Carbon Intensity of AI in Cloud Instances) zeigt, dass allein die Wahl des Standorts die CO₂-Emissionen eines KI-Trainings um das 3- bis 4-fache verändern kann. KI-Trainings in Deutschland und den USA emittieren beispielsweise fast zweieinhalb Mal so viel CO₂ wie ein äquivalentes Training in Frankreich, dessen Stromnetz aufgrund von Atomkraft besonders kohlenstoffarm ist. Das bedeutet: Nicht nur wie viel Energie ein Modell verbraucht, sondern auch wo es trainiert wird, ist klimapolitisch entscheidend.
Fazit
Also: Wer sich Rezeptideen von Claude oder Grammatikhilfe von ChatGPT holt, muss sich kein schlechtes Gewissen machen. Die individuelle Nutzung von KI-Chatbots scheint klimapolitisch marginal und verirrt sich wahrscheinlich in der statistischen Streuung des täglichen Verbrauchs, irgendwo zwischen Wasserkocher und Insta-Scrolling. Das bedeutet aber nicht, dass KI und Klima kein Thema sind. Der wachsende Energiebedarf von Rechenzentren ist real: Die mangelnde Transparenz der großen Anbieter ist ein Problem und die Frage, wer die Kosten des KI-Booms trägt – ob steigende Strompreise für Haushalte oder Wasserressourcen in wasserarmen Regionen – ist berechtigt. Selbst in Wasserland Deutschland gibt es schon Wasserknappheit im Sommer. Die Antworten auf diese Fragen liegen aber in der Regulierung und Offenlegungspflichten, nicht im individuellen Verzicht auf den nächsten Prompt.
Und vielleicht sollte sich der Diskurs über KI ohnehin nicht nur auf Umweltfragen beschränken. Es gibt bereits Anzeichen, dass KI vor allem Berufseinsteiger:innen das Leben schwer macht (die ak[due]ll berichtete), und Studien zeigen, dass KI zwar die kurzfristige Performance von Schüler:innen erhöht, das aber nicht in Korrelation zu echten Lerneffekten steht. Dass ChatGPT oft der „Easy Way Out” ist, um weniger Paper lesen zu müssen oder das Hausarbeit-Wording einfacher zu gestalten, der Lerneffekt dabei aber gering ist – das wissen wir Studis wohl aus eigener Erfahrung.