Training vs. Inference: Ein GPT‑4‑Scale‑Training kann Schätzungen zufolge mehr als 500 MWh verschlingen. Das entspricht dem Jahresverbrauch von Hunderten Haushalten. Doch unterschätzt wird oft der Inference‑Teil: Weltweit erzeugen milliardenfache Prompts einen Dauerstrombedarf.
Ressourcenverlagerung: Viele Anbieter kompensieren mit Zertifikaten oder versprechen grüne Rechenzentren. Tatsächlich werden jedoch nur Strommärkte umverteilt; der Gesamtverbrauch sinkt nicht. Carbon‑Aware Scheduling – das Ausführen energieintensiver Jobs bei grünen Überschusszeiten – kann eine Brücke sein.
Fazit: Ohne systemische Anreize für Effizienz wie Green AI Benchmarks droht generative KI zum Klimarisiko zu werden. Nur wenn Forschung, Regulierung und Markt zusammenwirken, lässt sich ein Netto‑Null‑Pfad erreichen.