August 2023: Das Kernmodul des chinesischen Linglong One, des weltweit ersten kommerziellen kleinen modularen Reaktors (SMR), wird eingesetzt. © Getty Images
Stromfresser: Steven Skiena, Direktor des KI-Instituts der Stony Brook University, steht im Juni 2024 im Serverraum des neuen Informatikgebäudes des Campus in New York. © Getty Images
Frankfurt – Es sieht ganz leicht aus: Sie stellen Chat-GPT eine Frage – und der Chatbot des US-Unternehmens OpenAI antwortet unverzüglich. Ebenso schnell ist die KI-Software Microsoft Pilot zu Diensten. Was sich hinter den Kulissen tut, sieht man aber nicht. Jeder Auftrag an die Künstliche Intelligenz verbraucht enorme Ressourcen: Strom, mit dem man ganze Länder versorgen könnte, gewaltige Mengen Wasser, Bodenschätze, viel Platz für große Rechenzentren und große Kapazitäten in den Stromnetzen. Und von alldem benötigt die Künstliche Intelligenz immer mehr.
Wissenschaftler haben herausgefunden, dass die Beantwortung einer ChatGPT-Anfrage fast zehnmal so viel Strom benötigt wie eine Google-Suche. Eine herkömmliche Suchmaschine durchsucht das Internet lediglich nach Inhalten, die in einem riesigen Register abgelegt sind. Aber die den KI-Diensten zugrunde liegenden Sprachmodelle (LLMs), die mit Milliarden Wörtern gefüttert sind – von den gesammelten Werken Goethes bis hin zu den jüngsten Vorhersagen der EZB –, funktionieren ganz anders: Diese Modelle prüfen Muster und Assoziationen, die ihnen helfen, menschliches Verhalten nachzuahmen. Auf diese Weise generieren ChatGPT & Co. neue Inhalte – daher die Bezeichnung generative KI.
2030 brauchen die Rechenzentren so viel Strom wie Indien
Während die Verbreitung der KI Unternehmen und Anlegern enorme Chancen eröffnet, birgt sie auch nicht zu unterschätzende Risiken – etwa für den Kampf gegen den Klimawandel oder für Länder, die nicht über die nötigen Rohstoffe verfügen und KI-Chips nicht selbst produzieren.
Künstliche Intelligenz lebt in erster Linie in Rechenzentren voller Hauptplatinen, Chips und Datenspeicher, deren Strombedarf heute schon die Stromkapazitäten von Ländern wie Island oder Kroatien übersteigen. Nach Berechnungen der Investmentbank Goldman Sachs werden diese Fabriken digitaler Ökonomie in den USA bis zum Jahr 2030 rund 8,0 Prozent des Stroms verbrauchen – damit würde sich ihr Anteil im Vergleich zu 2023 fast verdreifachen. Weltweit wird sich ihr Verbrauch im gleichen Zeitraum um knapp 1000 auf 1580 Terawattstunden erhöhen. Das entspricht dem Verbrauch Indiens, des bevölkerungsreichsten Landes der Erde.
Auch Deutschland wird dazu beitragen – entsprechend dem von Ex-Wirtschaftsminister Robert Habeck ausgegebenen Ziel, dass die Bundesrepublik KI-Europameister werden soll. Heute schon sind hierzulande rund 2000 größere Rechenzentren in Betrieb – vor allem im Raum Frankfurt. Nach Berechnungen der German Datacenter Association (GDA) sollen bis 2030 in der Bundesrepublik rund 24 Milliarden Euro in weitere Rechenzentren investiert werden, unter anderem von Microsoft und Amazon. Mit diesem Ausbau der Rechenkapazitäten wächst der Energiebedarf: laut Bitkom von derzeit knapp 20 Terawattstunden (TWh) auf mehr als 30 TWh. Zur Einordnung: Die Regierung geht davon aus, dass der gesamte deutsche Stromverbrauch bis 2030 auf 645 Terrawattstunden steigen wird. Das hieße: Auf die Rechenzentren würden dann schon etwa 4,7 Prozent des gesamten Stromverbrauchs entfallen – heute sind es nur 0,5 Prozent.
In Deutschland kommt erschwerend hinzu, dass gemäß dem Energieeffizienzgesetz (EnEfG) von 2027 an alle Rechenzentren in Deutschland ihren Strom zu 100 Prozent aus nachhaltigen Energiequellen beziehen sollen. Da die Datenzentren aber auch auf Hochtouren laufen müssen, wenn der Wind nicht weht und die Sonne nicht scheint, werden viel mehr Stromspeicher benötigt. Die Bundesregierung hat als Ziel ausgerufen, bis 2030 Batteriespeicher mit einer Leistung von insgesamt 100 Gigawatt ans Netz zu bringen. Derzeit sind es aber gerade mal vier Gigawatt.
Tech-Konzerne wollen Bedarf über Atomkraft absichern
Auch die großen Anbieter von Rechenkapazitäten hegen inzwischen Zweifel, ob sie in Zukunft genug Strom für ihre Server heranschaffen können. Bislang haben sie den Stromhunger ihrer Datencenter mit fossilen Energien wie Kohle und Gas gestillt. Doch das ist nicht mehr mit ihren ehrgeizigen Klimazielen zu vereinbaren. Google zum Beispiel will bis 2030 CO2-frei werden. Doch der Internet-Riese musste kürzlich eingestehen, dass seine Emissionen 2024 im Vergleich zu 2019 um 50 Prozent gestiegen seien. Als Grund gab er KI an – wie auch Microsoft, dessen CO2-Fußabdruck in dem Zeitraum um 30 Prozent gewachsen ist.
So haben die Tech-Konzerne die Kernenergie für sich entdeckt, die Deutschland aussortiert hat. Denn die Reaktoren sind als Grundlastkraftwerke darauf optimiert, dauerhaft Strom bereitzustellen. Damit passt ihr Erzeugerprofil mit hohen Volllaststunden perfekt zu Rechenzentren, die rund um die Uhr laufen.
Der Google-Konzern zum Beispiel hat sich mit Kairos Power verbündet, von dem er ab 2030 Atomstrom kaufen will. Diese Energie soll von sieben neuartigen kleinen Reaktoren kommen, sogenannten Small Modular Reactors (SMR). Microsoft hat eine Allianz mit dem Eigentümer des Kernkraftwerks Three Mile Island im US-Bundesstaat Pennsylvania. Dieser fährt einen Reaktor hoch, weil Microsoft zugesagt hat, den Atomstrom 20 Jahre lang abzunehmen. Ebenfalls in Pennsylvania hat Amazons Cloudsparte AWS ein Rechenzentrum gekauft, das mit der Energie eines danebenliegenden Kernkraftwerks beliefert wird. Facebook-Mutterkonzern Meta hat angekündigt, ab 2030 in den USA ein bis vier Gigawatt an neuen Kernkraftwerkskapazitäten zu errichten.
Übertragungs- und Verteilernetze geraten an ihr Limit
Der massive Ausbau der KI-Rechenzentren erhöht den Druck auf die Strom-Infrastruktur erheblich – nicht nur auf das Stromübertragungsnetz, in dem große Strommengen quer durchs Land transportiert werden. Auch das Verteilnetz auf regionaler und lokaler Ebene, das den Strom bis zu jedem Haus- und Unternehmensanschluss bringt, wird vor zusätzliche Herausforderungen gestellt. „Hier spielt die regenerative Energie eine besondere Rolle“, bestätigt Zahl Limbuwala, Executive Chairman des Advisory Boards von Maincubes, das Rechenzentren in Frankfurt, Berlin und Amsterdam betreibt. „Denn der große Unterschied zu früher ist, dass die Rechenzentren mit großen Spitzen in der Nachfrage nach Rechenleistung konfrontiert sind – besonders wenn ein neues Sprachmodell trainiert wird.“
Während eines solchen Trainings wird die Rechenleistung kurzzeitig maximiert. Die Server arbeiten dann auf Hochleistung und stoßen jede Menge Hitze aus. Diese dynamische Last und die immer größeren Auswirkungen auf das Stromnetz sind neu. Das bedeutet: Neue Stromtrassen wie der 600 Kilometer lange Rhein-Main-Link müssen her; Umspannwerke müssen erneuert und neue gebaut werden; alte 220-kV-Leitungen auf 380 kV erweitert und 380-kV-Leitungen mit Hochtemperaturleiterseilen umgerüstet werden.
In Frankfurt – Deutschlands Hauptstadt der Rechenzentren – wird es jetzt schon eng. Da sich in der Mainmetropole immer mehr Datenzentren ansiedeln, weil die Stadt über den weltgrößten Internetknoten De-Cix verfügt, sind ihre Stromkapazitäten bis ins Jahr 2030 bereits verteilt.
KI-Server schlucken jeden Tag eine Milliarde Liter Wasser
Jedes Watt Elektrizität, mit dem ein Server gefüttert wird, erzeugt Hitze. Und die intensiven Rechenprozesse, die für die generative KI benötigt werden, sorgen dafür, dass die Computer heißer werden als bei herkömmlichen Cloud-Computing-Prozessen. Steigt die Temperatur zu sehr, können aber Datenverarbeitungsanlagen zerstört werden. Die günstigste und zurzeit gängige Art der Kühlung basiert auf der Nutzung von Wasser.
Die auf Energie spezialisierte US-Beratungsgesellschaft Bluefield Research hat ermittelt, dass die Rechenzentren täglich mehr als eine Milliarde Liter Wasser schlucken – damit könnte man 3,3 Millionen Menschen versorgen. Eine ChatGPT-Unterhaltung aus 20 Fragen und Antworten verbraucht Studien zufolge einen halben Liter Wasser.
■ Chips, Chips und noch mehr Chips: Nachfrage übersteigt Angebot
Grafikprozessoren, kurz GPUs, sind die Eckpfeiler beim Training der KI-Modelle. Sie müssen tausende Aufgaben gleichzeitig erledigen können. Ein Datencenter benötigt tausende dieser Hochleistungschips. Die meisten stammen vom US-Hersteller Nvidia, der damit zu einem der wertvollsten Unternehmen der Welt geworden ist. Seine KI-Chips kosten so viel wie ein neuer Kleinwagen. Die Nachfrage ist so groß, dass der Konzern aus dem Silicon Valley in Kalifornien mit dem Nachschub kaum hinterherkommt. Große Abnehmer wie Microsoft und Google haben zuletzt Lieferengpässe beklagt.
Mitte Januar hat die US-Regierung deshalb den Export von KI-Chips eingeschränkt. Nur enge Verbündete der USA haben künftig noch unbegrenzten Zugang zu den fortschrittlichsten Halbleitern von Nvidia. Die USA wollen insbesondere China die Nutzung für KI und auch militärische Zwecke erschweren.