Wenn der KI-Boom an die Grenzen der Physik stößt

 Deutschlands digitaler Flaschenhals: Wenn der KI-Boom an die Grenzen der Physik stößt

Die politische Rhetorik in Deutschland klingt ambitioniert: Um in der Ära von Künstlicher Intelligenz und Cloud-Computing nicht den Anschluss zu verlieren, hat die Bundesregierung eine nationale Strategie vorgelegt, die eine Verdopplung der Rechenzentrumskapazitäten bis zum Jahr 2030 vorsieht. Doch während die Politik vom grenzenlosen digitalen Wachstum träumt, kollidiert die Realität auf bundesdeutschen Äckern und in städtischen Gewerbegebieten längst mit den harten Grenzen der Physik. Der deutsche Rechenzentrumsmarkt erlebt zwar ein historisches Wachstum, doch dieser Boom entlarvt zunehmend die chronischen Defizite in der nationalen Infrastrukturplanung und offenbart unangenehme ökologische wie ökonomische Wahrheiten.

Schon heute ist der digitale Hunger gewaltig. Mit einer installierten IT-Anschlussleistung von knapp 3.000 Megawatt verschlingen Rechenzentren hierzulande gut 21 Terawattstunden Strom pro Jahr. Das entspricht etwa vier Prozent des gesamten deutschen Bruttostromverbrauchs – Tendenz steil nach oben. Bis 2030 könnte dieser Bedarf auf weit über 30 Terawattstunden ansteigen. Zwar verweisen Betreiber gerne auf immer effizientere Server und optimierte Kühlkreisläufe, doch diese Effizienzgewinne verpuffen angesichts des exponentiellen Kapazitätszuwachses. Der Rebound-Effekt schlägt im KI-Zeitalter gnadenlos zu.

Nirgendwo wird dieser Konflikt sichtbarer als im Großraum Frankfurt am Main. Rund um den weltgrößten Internetknoten DE-CIX hat sich ein historisch gewachsener Cluster gebildet, der mittlerweile mehr als ein Drittel der nationalen Kapazität auf sich vereint. Doch das Herz der deutschen Digitalisierung leidet unter Rhythmusstörungen: Das Stromnetz ist am Limit. Wenn lokale Versorger den Betreibern gigantischer neuer Anlagen mitteilen müssen, dass Großanschlüsse teils erst wieder ab Mitte der 2030er Jahre realistisch seien, wird der politische Wunsch nach schneller Digitalisierung zur Farce. Die Folge ist eine rasante Ausweichbewegung. Betreiber weichen in das Umland, auf riesige Konversionsflächen wie in Hanau oder in andere Bundesländer aus. Das löst das grundsätzliche Infrastrukturproblem jedoch nicht, sondern verschiebt es lediglich in Regionen, die dem Druck auf Dauer ebenfalls kaum standhalten werden.

Die Antwort der Bundesregierung auf die ökologischen Begleiterscheinungen dieses Booms ist das Energieeffizienzgesetz (EnEfG), das strenge Vorgaben macht. Ab 2027 müssen Rechenzentren ihren Strombedarf bilanziell zu 100 Prozent aus Erneuerbaren Energien decken. Doch bei genauerem Hinsehen entpuppt sich dies als gefährlicher Papiertiger. Eine bilanzielle Deckung bedeutet in der Praxis oft nur den Kauf von Ökostromzertifikaten. Ein Rechenzentrum in Hessen, das bei Dunkelflaute den lokalen Netzstrom aus Kohle und Gas zieht, kann sich mit dem Zukauf norwegischer Wasserkraftzertifikate klimaneutral rechnen. Der globalen Emissionsbilanz mag das helfen, das reale Engpass- und Erzeugungsproblem im lokalen deutschen Stromnetz wird damit jedoch mit einem grünen Feigenblatt verdeckt.

Ähnlich verhält es sich mit der gesetzlich vorgeschriebenen Nutzung von Abwärme. Die Idee, Wohngebiete mit der Restwärme der Server zu heizen, ist in der Theorie bestechend. In der Praxis scheitert sie jedoch meist trivial an der Realität: Wo keine kommunalen Wärmenetze existieren, in die eingespeist werden kann, läuft auch das strengste Gesetz ins Leere. Die Regulierung ist der kommunalen Infrastruktur hier um Jahre vorausgeeilt.

Auch auf regionalwirtschaftlicher Ebene ist der Boom kritisch zu hinterfragen. Große Hyperscale- und Colocation-Rechenzentren verbrauchen gewaltige Flächen – teils dutzende Hektar pro Standort –, schaffen aber im Vergleich zur klassischen Industrie nur eine überschaubare Anzahl an direkten Arbeitsplätzen. Wenn gigantische Betonquader im Rheinischen Revier als Teil des „Strukturwandels“ gefeiert werden, wird oft verschwiegen, dass hochautomatisierte Serverfarmen kein Ersatz für zehntausende wegfallende Industriearbeitsplätze sind. Zudem wirft die Betreiberstruktur Fragen der digitalen Souveränität auf. Der Markt wird massiv von ausländischen Akteuren dominiert. Es sind primär US-amerikanische Hyperscaler wie Amazon, Microsoft und Google sowie globale Immobilienfonds, die den Takt angeben. Deutschland stellt den knappen Raum, das Wasser zur Kühlung und baut das strapazierte Stromnetz aus – die eigentliche Wertschöpfung aus den Daten und Cloud-Diensten fließt jedoch größtenteils ab.

Solange elementare Basisdaten fehlen – bis heute gibt es kein amtliches, flächendeckendes Register für Rechenzentren in Deutschland –, gleicht die politische Steuerung dieses Booms einem Blindflug. Es reicht nicht aus, das Ausrollen von Rechenzentren nach dem reinen Windhundprinzip den freien Marktkräften zu überlassen. Wenn der digitale Wandel nicht zur ökologischen und infrastrukturellen Belastungsprobe werden soll, muss die Ansiedlung von Serverfarmen an harte, systemdienliche Kriterien geknüpft werden. Sie dürfen nur dort entstehen, wo sie als Flexibilitätsreserve das Stromnetz stabilisieren können und wo Wärmenetze ihre Abwärme tatsächlich aufnehmen. Die Zeit der unkritischen Jubelmeldungen über jedes neue Megawatt an IT-Leistung muss enden – stattdessen braucht Deutschland eine Digitalpolitik, die die Grenzen der Physik anerkennt.

Beliebte Posts aus diesem Blog

Wenn der Mensch sich an Gottes Stelle setzt

Wandert niemand in unsere Sozialsysteme ein? Eine nüchterne Bestandsaufnahme

Trumps wirrer Alcatraz-Plan