
Generative künstliche Intelligenz wie ChatGPT, CoPilot oder Gemini kann bei vielen Aufgaben erstaunliche Ergebnisse erzielen. Vom Erledigen der Hausaufgaben bis zur Programmierung von Steuerungen. Doch der kumulierte Energieverbrauch der Large Language Models ist enorm. (Bild: Stock.Adobe.com - Gizmo)
Gerade mal knapp zwei Jahre sind vergangen, seit OpenAI seinen textgenerierenden KI-Chatbot ChatGPT auf den Markt gebracht hat. Mit geschätzt 100 Millionen monatlichen Nutzern innerhalb von nur zwei Monaten ist es zur am schnellsten wachsende Internet-App der Geschichte geworden. Die Anwendungsfälle sowohl im privaten Bereich wie auch im beruflichen Kontext sind schier endlos.
Allerdings verbraucht ChatGPT dabei sehr viel Energie. Wie viel genau, das hat die Online-Wertpapierhandeslplattform BestBrokers in einer Studie versucht zu ermitteln. Die Ergebnisse lassen einen schaudern. Die Antwort in Kürze: ChatGPT verbraucht allein für die Beantwortung von einfachen Fragen im Durchschnitt 226,82 Millionen Kilowattstunden pro Jahr.
Bleiben Sie informiert
Diese Themen interessieren Sie? Mit unserem Newsletter sind Sie immer auf dem Laufenden. Gleich anmelden!
So wurde der Energieverbrauch von ChatGPT ermittelt

Bei einer Nutzerzahl von 100 Millionen (Stand November 2023) und einer geschätzten Zahl von durchschnittlich 15 Abfragen pro Nutzer und Woche kommt BestBrokers auf rund 1,5 Milliarden Nutzeranfragen an ChatGPT pro Woche.
Mit dem jährlichen Energieverbrauch von ChatGPT ließen sich:
- 21.600 US-Haushalte mit Strom versorgen.
- 3.133.371 Elektroautos vollständig laden.
- 47,9 Millionen iPhones für ein Jahr lang jeden Tag laden.
Training von LLMs verbraucht immer mehr Energie

Auch das Training von Large Language Models ist ein enorm energieintensiver Prozess. In dieser Phase "lernt" das KI-Modell, indem es große Mengen an Daten und Beispielen analysiert. Dies kann je nach Datenmenge und Komplexität des Modells zwischen einigen Minuten und mehreren Monaten dauern. So dauerte etwa Laut Bestbrokers das Training von OpenAIs GPT-3 mit seinen 175 Milliarden Parametern etwa 34 Tage und verbrauchte rund 1,3 Millionen Kilowattstunden Strom.
Aber je weiter sich die Modelle entwickeln und je komplexer sie werden, desto höher ist auch ihr Energiebedarf. Das Training des Modells GPT-4 mit mehr als 1000 Milliarden Parametern verbrauchte in 100 Tagen rund 62,3 Millionen Kilowattstunden Strom, 48 Mal mehr als GPT-3.
Bald mehr Verbrauch als beim Bitcoin-Mining?
Geht die Entwicklung weiter, dann könnte die generative KI bald das Mining von Kryptowährungen wie Bitcoin als größter Energiefresser ablösen. Dieser Bereich liegt mit einem geschätzten globalen Energieverbrauch von 125 Milliarden Kilowattstunden im Jahr aktuell noch deutlich vor den LLM.
Das Energieforschungsinstitut EPRI warnt aber bereits:
Während KI-Anwendungen heute schätzungsweise nur 10 bis 20 % des Stroms in Rechenzentren verbrauchen, wird dieser Prozentsatz rapide ansteigen."Warum KI soviel Energie verbraucht
- Der Strombedarf von Rechenzentren ist ein wichtiger Faktor, der zu den Umweltauswirkungen der generativen KI beiträgt, da Rechenzentren zum Trainieren und Ausführen der Deep-Learning-Modelle hinter beliebten Tools wie ChatGPT und DALL-E verwendet werden. "Das Besondere an der generativen KI ist die Leistungsdichte, die sie erfordert. Ein generativer KI-Trainingscluster kann sieben- oder achtmal mehr Energie verbrauchen als die typische Workload eines Servers", sagt Noman Bashir vom MIT Climate and Sustainability Consortium (MCSC).
- MIT-Wissenschaftler schätzen, dass sich der Strombedarf von Rechenzentren in Nordamerika von 2.688 Megawatt Ende 2022 auf 5.341 Megawatt Ende 2023 verdoppelt hat, was teilweise auf die Anforderungen der generativen KI zurückzuführen ist.
- Weltweit stieg der Stromverbrauch von Rechenzentren auf 460 Terawatt im Jahr 2022. Damit wären Rechenzentren laut der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung der elftgrößte Stromverbraucher der Welt, zwischen den Ländern Saudi-Arabien (371 Terawatt) und Frankreich (463 Terawatt). Bis 2026 wird erwartet, dass sich der Stromverbrauch von Rechenzentren auf 1.050 Terawatt belaufen wird (was Rechenzentren auf den fünften Platz auf der globalen Liste bringen würde, zwischen Japan und Russland).
- Während der Strombedarf von Rechenzentren die meiste Aufmerksamkeit erhält, hat auch deren Wasserverbrauch Auswirkungen auf die Umwelt. Man schätzt, dass für jede Kilowattstunde Energie, die ein Rechenzentrum verbraucht, zwei Liter Wasser zur Kühlung benötigt werden, sagt Bashir.
- Für generative KI-Arbeitslasten im Rechenzentrum werden überwiegend Grafikprozessoren (GPU) verwendet. Deren Herstellung benötigt mehr Energie als die Produktion herkömmlicher CPUS, da der Prozess komplexer ist, so das MIT. Das Marktforschungsunternehmen TechInsights schätzt, dass die drei großen Hersteller (NVIDIA, AMD und Intel) im Jahr 2023 3,85 Millionen Grafikprozessoren an Rechenzentren ausgeliefert haben, gegenüber etwa 2,67 Millionen im Jahr 2022. Es wird erwartet, dass diese Zahl im Jahr 2024 um einen noch größeren Prozentsatz steigen wird.