Künstliche Intelligenz und ChatGPT sind wahre Stromfresser

Der bisherige Höhepunkt des deutschen Stromverbrauchs war im Jahr 2007 mit 624 Terawattstunden (TWh) erreicht. Seither nahm der Verbrauch stetig ab und lag nach Angabe des Bundesumweltamtes in 2023 bei 525 TWh. Die auf die Elektrifizierung ausgerichtete Energiewende (E-Autos, Ausstieg aus der Kohle, Luft-Wärme-Pumpe, usw.) wird die Abnahme bremsen und umkehren.

„Der Fortschritt braucht Unmengen an Energie: Rechenzentren für die Entwicklung künstlicher Intelligenz werden bald zu den größten Stromfressern der Welt, die so viel Energie verbrauchen wie ganze Länder“, hieß es kürzlich im Capital [1].

Denn während eine einfache Google-Suche etwa 0,3 Wattstunden verbraucht, sind es bei einer typischen Anfrage an ChatGPT rund 2,9 Wattstunden – das Zehnfache. „Der Chipmangel mag womöglich hinter uns liegen“, warnte Tesla-Chef Elon Musk deshalb bereits im Frühjahr. „Der nächste Engpass wird Elektrizität. Ich denke nächstes Jahr wird man sehen, dass es einfach nicht genug Strom gibt, um all die Chips zu betreiben.“ Auch Blackstone-Chef Steve Schwarzman ist alarmiert: Es gäbe einen regelrechten Run auf freie Flächen für den Bau von KI-Rechenzentren. Die Investmentsummen seien „atemberaubend“: „Ich habe so was noch nie gesehen.“

Schon heute verbrauchen die Datencenter laut IEA rund 1,3 Prozent des gesamten Stroms weltweit, bis 2026 könnten es dann 3 Prozent sein. Zum Vergleich: Die Aluminiumherstellung verschlingt zurzeit etwa 4 Prozent der Stromerzeugung. Die Entwicklung künstlicher Intelligenz würde damit zu den energieintensivsten Branchen der Welt aufsteigen, vergleichbar mit der klassischen Schwerindustrie.

Der Energieverbrauch von ChatGPT summiert sich über ein Jahr auf etwa 226 Millionen Kilowattstunden, was Kosten von rund 29,7 Millionen Dollar bei den durchschnittlichen US-Strompreisen im Juni 2024 verursacht. Jede Anfrage kostet etwa 0,00038 Dollar. Mit zukünftigen Versionen und zusätzlichen Funktionen könnten diese Zahlen noch steigen, hieß es im Ingenieur [2]. Das Magazin stützt sich dabei auf eine Studie von BestBrokers [3].

Energie für 3.133.371 Elektroautos

Um das zu veranschaulichen, geben BestBrokers interessante Vergleiche an:

Ein durchschnittliches Elektroauto verbraucht etwa 0,191 Kilowattstunden pro Kilometer und kann mit einer vollen Ladung etwa 379 Kilometer fahren. Die Batterie eines solchen Autos speichert also rund 72,4 Kilowattstunden Energie. Wenn man den jährlichen Energieverbrauch von ChatGPT für die Beantwortung von Fragen mit der Kapazität einer durchschnittlichen EV-Batterie vergleicht, könnte ChatGPT 3.133.371 Elektroautos vollständig aufladen. Das entspricht fast 95 % der 3,3 Millionen Elektroautos in den USA Ende 2023.

Schaut man auf Haushalte, verbraucht ein durchschnittlicher US-Haushalt etwa 10.500 Kilowattstunden Strom pro Jahr. Die Energie, die ChatGPT jährlich benötigt, könnte also 21.602 Haushalte ein ganzes Jahr lang mit Strom versorgen. Das ist zwar nur etwa 0,02 % der 131 Millionen Haushalte in den USA, aber immer noch eine erhebliche Menge.

Täglich 47,9 Millionen iPhones für ein ganzes Jahr aufladen

Vergleicht man das mit Smartphones: Ein iPhone 15 benötigt für eine tägliche Aufladung über ein Jahr hinweg etwa 4,74 Kilowattstunden. ChatGPT könnte damit täglich 47,9 Millionen iPhones für ein ganzes Jahr aufladen. Außerdem würde es 137.728 Stunden Video-Streaming benötigen, um den Energieverbrauch von ChatGPT für eine Stunde zu erreichen.

Zusätzlich verbraucht ChatGPT jährlich mehr Energie als zwölf Länder und Territorien zusammen, wie Gibraltar und Grenada, die jeweils etwa 200 Millionen Kilowattstunden pro Jahr nutzen. Diese Energie könnte ganz Finnland oder Belgien einen Tag lang versorgen oder in Irland für mehr als zwei Tage ausreichen.

Wie wurde es ausgerechnet?

Um die Anzahl der Anfragen zu schätzen, die ChatGPT jede Woche bearbeitet, begann das Team von BestBrokers mit den 100 Millionen wöchentlichen Nutzern. Man nahm an, dass jeder Nutzer im Durchschnitt 15 Fragen pro Woche stellt. Dies ist eine grobe Schätzung, da einige Nutzer möglicherweise nicht täglich aktiv sind, während andere täglich Dutzende Fragen stellen könnten. Daher könnte die tatsächliche Anzahl der Anfragen deutlich höher sein.

Mit dieser Schätzung wurde der wöchentliche Stromverbrauch von ChatGPT berechnet, indem die Gesamtzahl der wöchentlichen Anfragen mit dem geschätzten Energieverbrauch pro Anfrage, der laut Electric Power Research Institute (EPRI) 0,0029 kWh beträgt, multipliziert wurde. Daraus extrapolierte man den Energieverbrauch auf Monats- und Jahresbasis. Um die damit verbundenen Kosten zu ermitteln, wandte man den durchschnittlichen US-Strompreis von 0,131 Dollar pro kWh im Juni 2024 an.

Anderen Schätzungen zufolge kann man sogar jetzt schon von deutlichen höheren Stromverbrauch sprechen. So hat z.B. die NZZ berichtet, dass ChatGPT bis zu 30 Mal mehr Strom für die Beantwortung von Fragen verbrauchen könnte als eine Google-Suche.

[1] https://www.capital.de/wirtschaft-politik/der-ki-boom-wird-zum-risiko-fuer-die-weltweite-stromversorgung-35030254.html?xing_share=news

[2] https://www.ingenieur.de/technik/fachbereiche/energie/chatgpt-als-energiefresser-wie-der-ki-bot-die-energie-von-31-millionen-elektroautos-verschlingt/?xing_share=news

[3] https://www.bestbrokers.com/