Green AI: Forschung für nachhaltige Modelle

Pruning & Quantisierung: Gewichte streichen oder Bit‑Breite reduzieren spart Rechenleistung, oft ohne Genauigkeits­verlust.

Distillation: Kleine Student‑Modelle lernen von großen Teacher‑Netzen. So wird Inference auf Edge‑Geräten machbar.

Politische Anreize: Cloud‑Provider könnten Steuer­vorteile für energie­effiziente Modelle erhalten.