Generative KI am Scheideweg: SchChatGPT wohl verbraucht weniger Strom als gedacht: Eine Analyse des Forschungsinstituts Epoch AI zeigt, dass ChatGPT weniger Strom verbraucht als bisher angenommen.
Während vielfach von einem Verbrauch von 3 Wattstunden pro Anfrage ausgegangen wurde, kommt Epoch AI auf einen Wert von nur 0,3 Wattstunden.
Die Berechnung basiert auf dem aktuellen Modell GPT-4o, das OpenAI standardmäßig für ChatGPT verwendet.
Laut Joshua You, Analyst bei Epoch AI, basierten ältere Schätzungen auf veralteten Hardware-Daten. Dennoch bleibt der Energiebedarf von KI-Systemen ein umstrittenes Thema.

Das Thema des Energieverbrauchs von ChatGPT und ähnlichen KI-Systemen ist umstritten. Es gibt mehrere Aspekte, die berücksichtigt werden müssen:
Rechenleistung und Serverbetrieb: ChatGPT basiert auf großen neuronalen Netzen, die sehr leistungsfähige Rechenressourcen benötigen, um zu funktionieren. Diese Ressourcen sind in der Regel in Rechenzentren konzentriert, die eine erhebliche Menge an Strom verbrauchen. Der Betrieb solcher Rechenzentren – einschließlich der Kühlung der Server – trägt zum Gesamtenergieverbrauch bei.
Training von Modellen: Das Trainieren eines KI-Modells wie ChatGPT ist besonders energieintensiv, da es Milliarden von Parametern umfasst und oft viele Wochen oder Monate dauert. Um das Modell auf die gewünschten Aufgaben zu trainieren, sind massive Mengen an Daten und Rechenleistung erforderlich. Dieser Prozess erfordert eine enorme Menge an Strom, da Tausende von GPUs oder TPUs parallel arbeiten.
via. techcrunch.com