KI-Energieverbrauch
KI und Nachhaltigkeit: Wo der Strom wirklich fliesst
Die Debatte um den Energieverbrauch von KI ist laut und oft von Halbwissen geprägt. Viele Nutzerinnen und Nutzer hegen Vorbehalte, doch wo liegen die wirklichen Herausforderungen für die Schweiz? Dieser Artikel trennt Mythen von Fakten, ordnet den Energieverbrauch einer einzelnen Anfrage ein und zeigt, wo die eigentlichen strategischen Aufgaben liegen: nicht bei der «Prompt-Scham» des Einzelnen, sondern bei der Infrastruktur und der nationalen Energiestrategie.
Was ein Prompt wirklich kostet
Die Sorge, mit jeder einzelnen Anfrage an ChatGPT & Co. eine kleine Umweltkatastrophe auszulösen, ist weit verbreitet. Doch die Analyse der Fakten zeichnet ein differenzierteres Bild und verlagert die Verantwortung dorthin, wo sie tatsächlich anfällt: auf die Systemebene.
Eine Entwarnung mit Vorbehalt
Die gute Nachricht zuerst: Eine einzelne Anfrage an ein grosses Sprachmodell (LLM) ist überraschend energiearm. Sam Altman, CEO von OpenAI , schätzte den Verbrauch auf etwa 0,3 bis 0,4 Wattstunden. Vergleichende Analysen, wie sie auch im Umfeld der EPFL geführt werden, bestätigen diese Grössenordnung. So kommt der Forscher Marcel Salathé in seinen Berechnungen auf einen ähnlichen, leicht tieferen Wert. Um dies einzuordnen: Eine einzige Google-Suche verbraucht laut früheren Schätzungen etwa 0,3 Wattstunden. Wir bewegen uns also in einem ähnlichen Bereich.
Warum die Verantwortung systemisch ist
Die Fokussierung auf den individuellen Prompt-Verbrauch ist eine klassische Fehlleitung der Debatte. Sie suggeriert eine persönliche Verantwortung, wo eigentlich eine systemische Herausforderung liegt. Anstatt dass sich Nutzende in «Prompt-Scham» üben, sollte der Diskurs die wahren Treiber des Energieverbrauchs adressieren: die Betreiber der Rechenzentren, die Entwickler der Modelle und die Politik, welche die energiepolitischen Rahmenbedingungen setzt. Die entscheidende Frage ist nicht, ob wir KI nutzen, sondern wie wir die dafür nötige Infrastruktur nachhaltig gestalten.
Die wahren Energiefresser: Vom Training zur Infrastruktur
Während die einzelne Anfrage marginal ins Gewicht fällt, sind zwei andere Bereiche für den Grossteil des Energiebedarfs verantwortlich. Das einmalige Training der Modelle und – weitaus bedeutender – der Dauerbetrieb der dafür notwendigen Infrastruktur.
Das Training: Ein gigantischer, einmaliger Energieaufwand
Das Trainieren eines modernen KI-Modells ist ein immens energieintensiver Prozess. Um die Dimensionen zu veranschaulichen, lohnt sich ein Blick auf die grossen Modelle von OpenAI: Das Training von GPT-3, einem Vorgänger der heutigen Systeme, verbrauchte schätzungsweise 1'287 Megawattstunden (MWh) – das entspricht dem Jahresstromverbrauch von über 120 US-Haushalten. Für das Nachfolgemodell GPT-4 wird ein noch weitaus höherer Energieaufwand vermutet.
Dieser Prozess ist zwar eine einmalige Investition, doch seine Klimawirkung hängt stark von der Wahl der Energiequelle ab. Als Kontrast dazu sei das Schweizer LLM-Projekt auf dem «Alps»-Supercomputer erwähnt: Hier wird zwar ebenfalls ein grosser Energieaufwand betrieben, jedoch explizit auf eine CO₂-neutrale Durchführung Wert gelegt.
Eine neue Perspektive liefert hier der europäische Entwickler Mistral AI. In seiner ersten Lebenszyklusanalyse (LCA) stellt das Unternehmen fest, dass das einmalige Training zwar energieintensiv ist, aber über die gesamte Lebensdauer eines Modells nur etwa 10-20 % der gesamten CO₂-Emissionen ausmacht. Der Löwenanteil von 80-90 % entfällt auf die millionenfache Nutzung (Inferenz). Dies rückt die Effizienz im Dauerbetrieb ins Zentrum der Nachhaltigkeitsdebatte.
Agentic AI: Wenn KI proaktiv handelt – eine Prognose für den Energiebedarf
Bisherige KI-Systeme sind reaktiv; sie antworten auf eine Anfrage. Agentic AI hingegen agiert proaktiv: Ein einziger Auftrag kann eine Kaskade von hunderten oder tausenden selbstständigen Aktionen auslösen – von Recherchen über Analysen bis hin zur Ausführung von Aufgaben. Jede dieser Aktionen verbraucht Energie. Dieser Paradigmenwechsel vom reinen «Denken» zum autonomen «Handeln» ist der Kern der prognostizierten Energie-Eskalation. So prognostiziert der Datenwissenschaftler Alex de Vries, dass der KI-Sektor bis 2027 jährlich zwischen 85 und 134 Terawattstunden Strom verbrauchen könnte – eine Energiemenge, die dem Jahresverbrauch ganzer Länder wie den Niederlanden, Argentinien oder Schweden entspricht.
Es ist absehbar, dass der Energiebedarf mit der Verbreitung solcher Agenten nicht linear, sondern exponentiell ansteigen wird. Diese Entwicklung, vor der auch Experten wie Marcel Salathé warnen, muss in jede langfristige Energieprognose einfliessen. Die Logik dahinter ist einfach: Ein Befehl an einen Agenten entspricht nicht mehr einer einzigen Inferenz, sondern potenziell Tausenden. Diese Sorge wird durch Analysen untermauert, die besagen, dass der Trend zu immer mehr Rechenleistung als Haupttreiber für KI-Fortschritte ungebrochen ist, wie es Rich Sutton in seiner einflussreichen These «The Bitter Lesson» beschreibt. Mehr Fähigkeit erfordert mehr Berechnung und damit mehr Energie.
Der Boom der Rechenzentren: Auch in der Schweiz
Der eigentliche, langfristige Energietreiber ist also der Betrieb der Rechenzentren. Die Schweiz erlebt derzeit einen regelrechten Boom; der Energiebedarf dieser Zentren könnte sich bis 2030 auf 15 % des nationalen Verbrauchs erhöhen. Diese Dauerlast für Serverbetrieb und vor allem Kühlung stellt eine erhebliche Herausforderung für die nationale Energiestrategie und die Stabilität der Stromnetze dar. Hier müssen nachhaltige Lösungen gefunden werden, von der Abwärmenutzung bis hin zur Standortwahl, um die Ziele der Energiestrategie 2050 nicht zu gefährden. Dies ist auch eine zentrale Aufgabe für die Gestaltung einer zukunftsfähigen digitalen Verwaltung in der Schweiz.
Strategische Weichenstellungen für die Schweiz
Die Debatte um den Energieverbrauch von KI darf nicht bei der individuellen Nutzung stehen bleiben. Für die Schweiz geht es um strategische Weichenstellungen: die Förderung von energieeffizienten KI-Modellen, den Ausbau einer nachhaltigen und souveränen Rechenzentrumsinfrastruktur und die intelligente Nutzung von KI zur Optimierung unseres eigenen Energiesystems. Statt individueller Zurückhaltung braucht es kollektiven Mut und eine klare, faktenbasierte Strategie.
🔴 GRC Transformation Expert | Compliance & Regulatory Strategy | Digital Transformation Leader | Switzerland | Mr. #DeedsCountMore
1 MonatPaul Meyrat. Danke für die Betrachtung des Themas. Viel zu viele Myhten bei diesem Thema. Erst war es die Blockchain, welche zu viel Energie verbraucht hat. Doch da sich mit Bitcoin, Etherium und Co. gutes Geld verdienen lässt ist alles OK. Wurde schon mal hinterfragt, wie viel Energie eine WhatsApp Nachricht (ver)braucht? Kannst du abschätzen oder weisst du, welche Massnahmen auf systemischer Ebene (z. B. durch Politik oder Unternehmen) ergriffen werden können, um den Energieverbrauch für Training der Modelle und den Betrieb von KI Rechenzentren nachhaltiger zu gestalten?
Leiter Sektion Energieeffizienter Verkehr bei Bundesamt für Energie
1 MonatZwei Bemerkungen zur den Vergleichszahlen: die 1287 MWh würden immerhin dem Stromverbrauch von 300 Haushalten in der Schweiz entsprechen, bei uns werden im Schnitt 4'000 kWh pro Haushalt und Jahr verbraucht. Zum Vergleich mit den 10 km Autofahrt: hier handelt es ich um einen Verbrenner, insofern ist der Vergleich mit dem Stromverbrauch des Chatbots in kWh Strom etwas schief. Die 7.6 kWh entsprechen dem Energieverbrauch eines Benzin-PKW mit einem Durchschnittsverbrauch von ca. 8.5 Liter/100 km. Ein Elektro-Auto würde für die gleiche Strecke rund 1.8 kWh/10 km benötigen.
💡 Großartige Insights
Zoho CRM/One & Tools – Effiziente Prozesse statt Zettelwirtschaft | Kunden gewinnen, Verkauf abschliessen, Projekte sauber abwickeln, Service sichern | Dein Zoho Experte für pragmatische KMU-Lösungen
1 MonatDanke für die differenzierte Einordnung. Gerade der Vergleich „1 Jahr ChatGPT = 10 km Autofahren“ ist wichtig – weil er deutlich macht, dass das echte Energieproblem nicht bei den Usern liegt, sondern beim massiven Training neuer Modelle, das aktuell wie ein globaler Reflex ausgelöst wird. Ich sehe das genauso: - Nicht jede Firma braucht ein eigenes LLM. - Was wir brauchen, sind smarte, verantwortungsvolle Integrationen – so wie z. B. Zoho es macht, mit GPT direkt in den Business-Apps. Ohne eigenes Training, ohne Datenausverkauf, ohne Stromwahnsinn. Technologie darf effizient sein. Aber sie muss nicht verschwenderisch sein. Bin gespannt, wie sich das Thema weiterentwickelt – und wie viele Unternehmen bald erkennen, dass „eigene KI“ nicht immer klüger ist.
Geschäftsführer Gemeinde-Support AG | Playful Experte | Trainer LEGO® SERIOUS PLAY® | Mastertrainer PLAYMOBIL®pro | Facilitator Brain2Business™ plus | Trainer 3D-Welten-Methode | Ideen-Ninja | Agiler Coach | KI-Trainer
1 MonatDanke für doe professionelle Aufklärung.