c't 26/2023
S. 58
Forschung & KI
Energiebedarf von (generativer) KI
Bild: Nmedia, saran25, stock.adobe.com | Collage c‘t

Mücke oder Elefant?

Weshalb sich der KI-Stromverbrauch schlecht einschätzen lässt

Der Boom der generativen künstlichen Intelligenz (KI) beruht auf sehr leistungsstarken Servern, die viel Strom schlucken. Dadurch wiederum könnte der IT-Energiebedarf in Zukunft enorm steigen. Weil das aber sehr teuer würde, wollen Programmierer und Chiphersteller die Effizienz verbessern.

Von Christof Windeck

Derzeit tobt eine regelrechte Materialschlacht unter den großen Firmen, die generative KI-Modelle entwickeln, etwa große Sprachsysteme wie ChatGPT. Dieser KI-Hype lässt befürchten, dass der ohnehin schon hohe Stromverbrauch der internationalen Rechenzentren noch schneller anwächst.

Das sogenannte Training großer KI-Modelle frisst nämlich Rechenleistung in bisher beispielloser Menge. Davon profitiert vor allem die US-Firma Nvidia, die bis Ende 2024 mehr als 2 Millionen KI-Rechenbeschleuniger des jüngsten Typs H100 „Hopper“ verkaufen will. Wenn sie alle unter Volllast laufen, fressen sie mit über 1,6 Gigawatt mehr Strom, als einer der größten Atomreaktoren liefert. Und außer Nvidia werfen noch mehrere weitere Firmen KI-Beschleuniger auf den explodierenden Markt, zurzeit sind mehrere KI-Supercomputer zu Preisen über jeweils 1 Milliarde Euro im Bau. Allerdings gibt es auch belastbare Hinweise, dass sich die aktuelle Entwicklung nicht auf Dauer fortsetzen wird. Um das zu verstehen, müssen wir ein bisschen ausholen.

Kommentieren