TL;DR:
Generative KI hat einen Umwelteinfluss in Form von CO₂-Emissionen und Wasserverbrauch. Was wir tun können, um den Einfluss von Chatbots und Coding Assistants auf unseren ökologischen Fußabdruck zu verkleinern:
- gezielte Fragen stellen
- um kurze Antworten bitten
- Coding Assistants nicht stetig im Hintergrund laufen lassen
- Anweisungen mitgeben, dass ressourcenoptimierter Code produziert werden soll
Generative KIs wie ChatGPT und Gemini sind aus unserem Alltag kaum noch wegzudenken. Sie schreiben E-Mails, geben Reisetipps und helfen uns beim Programmieren. Doch mit jeder Anfrage an eine Generative KI wächst der Bedarf an Rechenleistung, Speicherplatz und Energie.
Selbst Google berichtet, dass die Emissionen trotz verbesserter Energieeffizienz ansteigen, was hauptsächlich auf die immense Rechenintensität von KI-Anwendungen zurückzuführen ist. Dieser Aspekt wird bei der Nutzung von KI leider oft vergessen oder nicht beachtet. In diesem Beitrag beleuchten wir die Umweltauswirkungen von Generativer KI und geben konkrete Tipps, wie sie – insbesondere als Coding Assistant – nachhaltiger eingesetzt werden kann.
Umweltauswirkungen von Generativer KI
Zu den Umwelteinflüssen von KI-Modellen zählen unter anderem der Wasserverbrauch und die CO₂-Emissionen, z. B. durch den Stromverbrauch in Rechenzentren. Ein durchschnittliches Rechenzentrum verbraucht täglich über 1 Million Liter Wasser zum Kühlen. Dies ist insbesondere dann problematisch, wenn es in Regionen steht, die bereits unter Wasserknappheit leiden. Der Ressourcenverbrauch fällt bei KI-Modellen sowohl im Training als auch in der Inferenz an. Während im Training einmalig hohe Mengen von Energie aufgewendet werden, ist der Verbrauch durch die tägliche Nutzung von Millionen von Anwendern deutlich höher. Schätzungen zufolge ist der Rechenaufwand von ChatGPT während eines Jahres in der Inferenz bis zu 25-mal so hoch wie im gesamten Training.
Über den genauen Ressourcenverbrauch herrscht jedoch bei den meisten großen Anbietern wenig Transparenz. Das französische Startup Mistral AI ist hier eine Ausnahme und liefert konkrete Zahlen: Eine Seite Text zu generieren, verbraucht 1,14 g CO₂ und 50 ml Wasser. Training und ein 18 Monate langer Betrieb ihres Modells Large 2 haben den Berechnungen zufolge 20.400 Tonnen CO₂ und 281.000 m³ Wasser verbraucht. Für ChatGPT wird geschätzt, dass 500 ml Wasser für 10-50 Anfragen verbraucht werden. Google gibt hingegen deutlich niedrigere Werte für den Wasserverbrauch von Gemini an. Das dürfte allerdings an einer anderen Berechnungsgrundlage liegen, da hier beispielsweise der Wasserverbrauch für die Stromerzeugung nicht eingerechnet wird.
Hinzu kommt der sogenannte Rebound-Effekt: Weil eine Aufgabe durch KI einfacher wird, führen wir sie häufiger aus. Statt mühsam einen Text selbst zu verfassen, lassen wir die KI vielleicht drei oder vier Versionen generieren.
Wir sollten uns also bewusst werden, dass wir als Nutzer einen großen Teil dazu beitragen können, den ökologischen Fußabdruck zu verkleinern: Indem wir Anfragen so konkret wie möglich formulieren, um mehrfache Nachfragen zu vermeiden. Außerdem hängt der Energieverbrauch stärker von der Länge der Antwort (Output-Tokens) als von der Länge der Frage ab. Eine lange Frage, die um eine kurze, präzise Antwort bittet, ist umweltschonender.
Nachhaltigkeit von Coding Assistants
Coding Assistants sind sehr hilfreich um Codeblöcke oder gar ganze Prototypen zu programmieren und können geschriebenen Code überprüfen oder verbessern. Doch wie nachhaltig ist das Programmieren mit Coding Assistants?
Studien zeigen, dass automatisch generierter Code nicht von sich aus energieeffizient ist. Eine Untersuchung hat jedoch gezeigt, dass ein LLM deutlich besseren und nachhaltigeren Code erzeugt, wenn es explizite Anweisungen zur Optimierung erhält (z. B. „Optimiere für geringe Laufzeit“ oder „Minimiere den Speicherverbrauch“). Auch einfache Anweisungen, wie das Einbinden existierender Libraries statt des Nachimplementierens von Funktionen oder das Vermeiden von while-Schleifen, können einen Unterschied machen. Diese Hinweise kann man beispielsweise bei Github Copilot in einer instructions-Datei speichern, oder bei Curser in Rules, damit sie permanent berücksichtigt werden.
Außerdem laufen viele Assistenten im Hintergrund und generieren ständig Vorschläge, von denen dem Nutzer teilweise nur 30 % überhaupt angezeigt wird. Deshalb ist es ratsam, den Coding Assistant gezielt zu aktivieren, wenn er wirklich gebraucht wird. In folgender Grafik ist das Ergebnis der Studie zu sehen, wobei deutlich wird, dass es nur ein Bruchteil der automatisiert erstellten Requests in den finalen Code schafft:

Seit Programmierer Code automatisch erstellen können, hat GitHub einen Anstieg von Copy-Paste-Blöcken und einen Rückgang von Code-Wiederverwendung festgestellt. Dies erschwert die Wartbarkeit und erhöht den Speicherbedarf zusätzlich. Deshalb ist das Refactoring bei automatisch generiertem Code genauso wichtig wie bei selbstgeschriebenem Code.
Fazit
Letztlich liegt es an uns, Generative KI – ob in Form von Chatbots oder Coding Assistants – mit gutem ökologischen Gewissen in unseren Alltag zu integrieren. Dies fängt damit an, KI bewusst einzusetzen, gezielte Fragen zu stellen und Coding Assistants nicht dauerhaft im Hintergrund laufen zu lassen. Darüber hinaus hilft es, kurze Antworten zu fordern, wenn weitläufige Erklärungen nicht notwendig sind. Und zu guter Letzt, können wir Coding Assistants dauerhafte Anweisungen mitgeben, nachhaltigen Code zu schreiben, und dürfen dennoch das Refactoring nicht vergessen.