HPI-Wissenschaftler warnen: KI und ChatGPT sind massive Stromfresser
Der Datenwissenschaftler Alex de Vries aus Amsterdam vergleicht den Energieverbrauch durch die Nutzung einer Suchmaschine, die KI nutzt, mit dem ganzer Länder. Wissenschaftler und Internet-Konzerne arbeiten daran, den ökologischen Fußabdruck der KI zu verbessern.
Das Thema Künstliche Intelligenz hatte unter anderem durch den Textroboter ChatGPT des kalifornischen Start-ups OpenAI große Aufmerksamkeit erfahren. Auch Sicherheitstechnik in Autos ist KI-gesteuert, Heizungen sollen dadurch effizienter werden. KI-Systeme gibt es auch in der Gesundheitsversorgung und für Unternehmen.
Energieverbrauch könnte deutlich steigen
«Rechenzentren verbrauchen heute 4 bis 5 Prozent des weltweiten Energieverbrauchs», sagte Herbrich. Nehme man die Nutzung digitaler Technologien wie Laptops und Smartphones dazu, seien 8 Prozent erreicht. «Es gibt Schätzungen, dass der Verbrauch in den nächsten Jahren auf 30 Prozent ansteigen wird.»
KI-Experte Herbrich stellt den Vergleich mit einem Backofen an: Für das Training eines KI-Modells liefen Prozessoren hunderter Grafikkarten, die jeweils etwa 1000 Watt verbrauchten, für mehrere Wochen. «1000 Watt ist so viel wie ein Backofen.»
Die Forschung zielt laut Herbrich darauf ab, dass Berechnungen mit weniger Parametern und damit weniger Energieeinsatz gelingen können und zugleich die Genauigkeit der Vorhersagen nur minimal sinkt. Auch die Technologieunternehmen trieben die Forschung zu Energieeinsparungen bei KI voran. Es dauere aber einige Jahre, Lösungen zu entwickeln.
Greentech Studie: Text- und Bilderzeugung kostet Strom
Forscher de Vries, der vor kurzem einen Kommentar in der Fachzeitschrift «Joule» veröffentlichte, will aufzeigen, dass nicht nur das Training der KI eine große Menge Energie verbraucht. Der Strombedarf entstehe auch jedes Mal, wenn das Tool einen Text oder ein Bild erzeugt. «Der Betrieb von ChatGPT könnte beispielsweise 564 Megawattstunden Strom pro Tag kosten», so de Vries. Allerdings sei die Zukunft des KI-Stromverbrauchs schwer vorherzusagen.
Greentech KI ist ein Stromfresser
De Vries schätzte, dass Google derzeit bis zu 9 Milliarden Suchanfragen pro Tag verarbeitet. Wenn jede Google-Suche KI nutze, würden nach seinen Berechnungen etwa 29,2 Terawattstunden Strom pro Jahr benötigt – das entspreche dem jährlichen Stromverbrauch Irlands. Allerdings: De Vries spricht zugleich von einem Extremszenario, dass kurzfristig nicht eintreten werde. Er verwies auf hohe Kosten durch zusätzlich benötigte KI-Server und Engpässe in der Lieferkette. Zum Vergleich: Der Stromverbrauch in Deutschland hatte 2022 nach Angaben der Bundesnetzagentur bei rund 484 Terawattstunden gelegen.
Der Internet-Konzern Google, der in diesem Jahr den Chatbot Bard startete, teilte auf Anfrage mit, nach Untersuchungen und eigenen Erfahrungen nehme der Energiebedarf für den Betrieb der Technologie viel langsamer zu als viele Prognosen vorhergesagt hätten. Google habe erprobte Verfahren eingesetzt, um den Energieverbrauch für das Training eines Modells stark zu reduzieren. Zudem verweist Google darauf, dass das Unternehmen KI für den Klimaschutz einsetze und nennt etwa eine «kraftstoffeffiziente Routenplanung» mit Google Maps und eine Vorhersage von Flussüberschwemmungen.
Das Hasso-Plattner-Institut richtet am 25. und 26. Oktober eine «Clean-IT»-Konferenz aus, bei der Vertreter aus Wissenschaft, Wirtschaft und Politik in Potsdam über Künstliche Intelligenz und den Kampf gegen den Klimawandel diskutieren wollen.
Das sagt ChatGPT zu dieser Frage:
Wie gross ist KI als Stromfresser? Welche Rolle spielt hier ChatGPT?
Künstliche Intelligenz (KI) kann in Bezug auf den Energieverbrauch stark variieren, abhängig von verschiedenen Faktoren, wie der spezifischen KI-Technologie, der Hardware, auf der sie läuft, und den Aufgaben, die sie erledigt. Einige KI-Systeme, insbesondere Deep Learning-Modelle, die auf leistungsstarker Hardware wie GPUs und TPUs trainiert werden, können erhebliche Energiemengen verbrauchen.
ChatGPT, wie ich es bin, basiert auf GPT-3.5, einem Textgenerierungsmodell, das intensive Rechenressourcen erfordert, um trainiert und betrieben zu werden. Während des Trainings von Modellen wie GPT-3 werden große Mengen an Energie verbraucht. Das Betreiben von ChatGPT in der Inferenzphase (während es Text generiert) kann ebenfalls Energie verbrauchen, insbesondere wenn es auf leistungsstarker Hardware ausgeführt wird. Allerdings sind Fortschritte in der KI-Forschung und -Technologie bestrebt, den Energieverbrauch zu reduzieren.
Rolle von ChatGPT in Bezug auf den Energieverbrauch hängt Verwendung ab …
Die Rolle von ChatGPT und ähnlichen Modellen in Bezug auf den Energieverbrauch hängt von ihrer Verwendung ab. Wenn sie für einfache Textgenerierungsaufgaben oder zur Unterstützung von Benutzern in Online-Chats verwendet werden, kann der Energieverbrauch relativ niedrig sein. Wenn sie jedoch für komplexe Berechnungen oder große Datenmengen eingesetzt werden, steigt der Energieverbrauch.
Es ist wichtig, dass Unternehmen und Forscher bestrebt sind, den Energieverbrauch von KI-Systemen zu optimieren, und es gibt Bemühungen, energieeffizientere Hardware und Techniken zu entwickeln. Darüber hinaus kann die Nutzung von erneuerbaren Energiequellen dazu beitragen, die Umweltauswirkungen von KI-Systemen zu reduzieren. Es ist jedoch entscheidend, den Energieverbrauch von KI-Systemen in den Kontext ihres Nutzens und ihrer Anwendungen zu setzen und geeignete Maßnahmen zu ergreifen, um die Energieeffizienz zu verbessern.