Energiehunger und Klima: Der ökologische Fußabdruck großer Sprachmodelle

Training vs. Inference: Ein GPT‑4‑Scale‑Training kann Schätzungen zufolge mehr als 500 MWh verschlingen. Das entspricht dem Jahresverbrauch von Hunderten Haushalten. Doch unterschätzt wird oft der Inference‑Teil: Weltweit erzeugen milliardenfache Prompts einen Dauerstrombedarf.

Ressourcenverlagerung: Viele Anbieter kompensieren mit Zertifikaten oder versprechen grüne Rechenzentren. Tatsächlich werden jedoch nur Strom­märkte umverteilt; der Gesamt­verbrauch sinkt nicht. Carbon‑Aware Scheduling – das Ausführen energieintensiver Jobs bei grünen Überschuss­zeiten – kann eine Brücke sein.

Fazit: Ohne systemische Anreize für Effizienz wie Green AI Benchmarks droht generative KI zum Klima­risiko zu werden. Nur wenn Forschung, Regulierung und Markt zusammenwirken, lässt sich ein Netto‑Null‑Pfad erreichen.