Freitag, 10. April 2026 von Oliver Schwartz Bekommt Europas KI-Standortproblem nun ein Gesicht?
OpenAI stoppt vorläufig britisches Milliardenprojekt
Der vorläufige Stopp des britischen Infrastrukturprojekts „Stargate UK“ markiert weit mehr als eine Verzögerung eines einzelnen Datacenter-Vorhabens. Er trifft den politischen Kern der britischen KI-Strategie in einem Moment, in dem London den Anspruch formuliert hat, Europas führender Standort für künstliche Intelligenz zu werden. Dass ausgerechnet OpenAI, eines der sichtbarsten Unternehmen der globalen KI-Welle, seine zentrale britische Ausbauinitiative nun mit Verweis auf hohe Energiekosten und regulatorische Unsicherheit pausiert, wirft deshalb eine größere Frage auf: Scheitern britische Ambitionen – oder zeigt sich hier ein strukturelles europäisches Problem für große KI-Infrastrukturprojekte?
OpenAI hatte das Projekt im vergangenen September gemeinsam mit Nvidia und dem britischen Infrastrukturpartner Nscale vorgestellt. Unter dem Namen „Stargate UK“ sollte eine neue Generation nationaler Rechenkapazitäten entstehen – mit dem Ziel, Großbritannien beim Aufbau sogenannter „sovereign compute“-Kapazitäten voranzubringen. Gemeint ist die Fähigkeit eines Staates, leistungsfähige KI-Modelle auf eigener Infrastruktur betreiben zu können, statt dauerhaft von ausländischen Cloud-Anbietern abhängig zu bleiben. Die erste Ausbaustufe sah rund 8.000 Hochleistungs-GPUs vor, später war ein Ausbau auf etwa 31.000 Chips im Gespräch. Das gesamte Investitionsvolumen wurde politisch mit rund 31 Milliarden Pfund beziffert.
Nun erklärt OpenAI, dass das Projekt erst weiterverfolgt werde, wenn langfristig tragfähige Bedingungen für Infrastrukturinvestitionen vorlägen. Gemeint sind ausdrücklich zwei Faktoren: Energiepreise und Regulierung. Beide Punkte treffen einen Nerv der europäischen KI-Debatte, denn große Sprachmodelle benötigen nicht nur Rechenleistung, sondern dauerhaft verfügbare, planbare Strommengen in industriellem Maßstab. Schon heute gehören Stromkosten zu den wichtigsten Standortfaktoren für Datacenter-Projekte, weil Inferenz und Training großer Modelle kontinuierlich Strom im Gigawattmaßstab binden. Großbritannien zählt bei industriellen Strompreisen seit Jahren zu den teuersten Standorten Europas. Hinzu kommen Engpässe beim Netzanschluss, lange Genehmigungszeiten und regionale Unsicherheiten beim Zugang zu zusätzlicher Leistung.
Politischer Masterplan von UK gescheitert?
Dass das Projekt ausgerechnet jetzt stockt, ist politisch besonders heikel. Denn London hat in den vergangenen drei Jahren erhebliche politische Energie investiert, um sich als europäischer KI-Schlüsselstandort zu positionieren. Bereits unter der konservativen Vorgängerregierung war Großbritannien Gastgeber des ersten internationalen AI Safety Summit in Bletchley Park im November 2023. Die damalige Strategie kombinierte zwei Elemente: internationale Sichtbarkeit bei der Regulierung von Frontier-Modellen und gleichzeitig ein bewusst innovationsfreundlicher Regulierungsansatz im Inland. Statt eines eigenständigen KI-Gesetzes wie in der EU setzte London zunächst auf sektorale Regulierung durch bestehende Behörden.
Mit dem Regierungswechsel wurde dieser Kurs nicht aufgegeben, sondern wirtschaftspolitisch verschärft. Die Labour-Regierung unter Keir Starmer machte KI ausdrücklich zum Wachstumsinstrument. Im Januar 2025 legte die Regierung den „AI Opportunities Action Plan“ vor, einen 50-Punkte-Katalog, der den Ausbau von Rechenkapazität, Datenzugang, Talentförderung und beschleunigte Infrastrukturplanung vorsieht. Ein zentrales Instrument daraus sind sogenannte „AI Growth Zones“ – Regionen, in denen Datacenter schneller genehmigt, Netzanschlüsse priorisiert und Energiezugänge erleichtert werden sollen. Nach Regierungsangaben wurden inzwischen fünf solcher Zonen ausgewiesen; sie sollen zusammen private Investitionen in zweistelliger Milliardenhöhe anziehen. Gleichzeitig wurde die staatliche AI Research Resource ausgebaut, also öffentlich finanzierte Rechenkapazität für Forschung und Start-ups.
Auch institutionell versucht London seit Jahren, sich sichtbar von der EU abzugrenzen. Mit dem AI Safety Institute entstand früh eine staatliche Prüfstelle für Risiken leistungsfähiger Modelle. Anders als Brüssel verband London dies jedoch mit dem Versprechen, Regulierung nicht wachstumshemmend wirken zu lassen. Genau hier liegt nun die Ironie der aktuellen Entwicklung: OpenAI nennt gerade das regulatorische Umfeld als Unsicherheitsfaktor.
Ein Hintergrund ist die seit Monaten stockende britische Debatte um Urheberrecht und Trainingsdaten. Die Regierung hatte ursprünglich Reformen geprüft, die KI-Unternehmen einen breiteren Zugriff auf urheberrechtlich geschützte Inhalte für Modelltraining ermöglichen sollten. Nach Widerstand aus der Kreativwirtschaft wurden zentrale Elemente jedoch abgeschwächt oder vertagt. Für Infrastrukturinvestoren entsteht dadurch Unsicherheit, weil nicht nur Energiepreise, sondern auch Geschäftsmodelle langfristig kalkulierbar sein müssen.
Dabei ist OpenAI in Großbritannien keineswegs schwach vertreten. London war bereits 2023 der erste internationale Standort des Unternehmens außerhalb der USA. Seitdem wurde das dortige Forschungs- und Engineering-Team kontinuierlich ausgebaut. Nach Unternehmensangaben arbeiten inzwischen mehr als 100 Mitarbeiter in London, vor allem in Forschung, Engineering und kommerziellen Funktionen.
Die britische Regierung und OpenAI schlossen zudem im Sommer 2025 ein Memorandum of Understanding, das Zusammenarbeit bei öffentlicher Verwaltung, Infrastruktur und Sicherheitsforschung vorsieht. Noch im Juli vergangenen Jahres präsentierten beide Seiten diese Partnerschaft als Signal, dass Großbritannien zum bevorzugten europäischen Partner für Frontier-AI werden könne.
Gerade deshalb wirkt der aktuelle Baustopp wie ein politischer Rückschlag mit Symbolkraft. Zumal bereits vor der jetzigen Entscheidung Zweifel an der Realisierbarkeit des Projekts aufgekommen waren.
Recherchen britischer Medien zeigten, dass ein als Schlüsselstandort vorgesehenes Gelände in Essex noch weit vom angekündigten Zeitplan entfernt war. Zudem wurde diskutiert, ob Nscale als Partner über ausreichend operative Erfahrung beim Aufbau großskaliger Datacenter verfügt. Die Differenz zwischen politischer Ankündigung und industrieller Umsetzung trat dadurch früh offen zutage..
EU-Kommission versucht industriepolitische Bündelung
Für deutsche und europäische Leser ist entscheidend, dass Großbritannien mit diesem Problem nicht allein steht. Frankreich verfolgt seit dem Pariser AI Action Summit Anfang 2025 eine noch ambitioniertere Infrastrukturstrategie. Präsident Emmanuel Macron koppelt dort KI-Investitionen eng an den Vorteil relativ günstiger nuklearbasierter Stromversorgung. Frankreich versucht, diesen Faktor offensiv zu vermarkten: Rechenzentren sollen bevorzugt in Regionen mit stabilem Zugang zu Kernenergie entstehen. Parallel positioniert sich Paris mit Mistral AI als europäische Antwort auf OpenAI und setzt darauf, dass Modellanbieter und Infrastruktur im Land gemeinsam wachsen.
Auch Deutschland versucht, Anschluss zu halten, allerdings bislang stärker über europäische Programme als über nationale Großprojekte. In Berlin, Frankfurt und Teilen Nordrhein-Westfalens laufen Datacenter-Ausbauprogramme, insbesondere im Rhein-Main-Gebiet, das wegen seiner Netz- und Internetknoten traditionell als stärkster Rechenzentrumsstandort Kontinentaleuropas gilt. Gleichzeitig belasten dort hohe Strompreise und begrenzte Netzkapazitäten bereits heute neue Projekte. Gerade Frankfurt zeigt, dass Datacenter-Wachstum inzwischen an physische Grenzen stößt: Netzanschlüsse dauern länger, Flächen werden knapper, Genehmigungen komplexer.
Auf EU-Ebene versucht die Kommission deshalb, das Thema stärker industriepolitisch zu bündeln. Unter dem Programm der europäischen „AI Factories“ sollen Supercomputing-Standorte in mehreren Mitgliedstaaten für Start-ups und Modellanbieter geöffnet werden. Parallel diskutiert Brüssel über sogenannte KI-Gigafactories – Standorte mit mindestens 100.000 Hochleistungs-Chips, die langfristig Europas Abhängigkeit von US-Cloud-Infrastruktur reduzieren sollen.
Doch trotz dieser Programme bleibt Europas strukturelles Problem bestehen: Strom ist teuer, Genehmigungen dauern lange, Netzausbau hinkt hinterher, und regulatorische Debatten verlaufen oft langsamer als Investitionszyklen der Industrie. Während US-Anbieter innerhalb weniger Quartale Datacenter im Hyperscale-Format errichten, benötigen vergleichbare Projekte in Europa oft mehrere Jahre Vorlauf.
OpenAIs Entscheidung in Großbritannien wird deshalb in Brüssel, Paris und Berlin aufmerksam verfolgt. Denn sie liefert erstmals einen klar formulierten Hinweis eines Frontier-Anbieters darauf, dass Standortbedingungen in Europa unmittelbare Investitionsentscheidungen beeinflussen. Besonders relevant ist dies, weil OpenAI parallel weltweit massiv expandiert und in anderen Regionen mit Partnern wie Microsoft, Oracle und Nvidia neue Infrastruktur schneller aufbaut.
Dass London dennoch nicht aus dem Rennen ist, zeigt die Formulierung des Unternehmens selbst. OpenAI spricht ausdrücklich nicht von einem Rückzug, sondern von einer Pause. London bleibt der wichtigste europäische Forschungsstandort des Unternehmens. Zudem verfügt Großbritannien über Stärken, die weiterhin schwer kopierbar sind: DeepMind, ein dichtes Venture-Capital-Netzwerk, Spitzenuniversitäten wie Oxford, Cambridge und Imperial College sowie ein im europäischen Vergleich großer Talentpool für Foundation Models.
Der aktuelle Stopp legt jedoch offen, dass diese Standortvorteile allein nicht mehr reichen. Im Zeitalter großer Sprachmodelle entscheidet nicht nur Forschung, sondern zunehmend Infrastrukturpolitik: Strompreise, Umspannwerke, Netzkapazitäten, Genehmigungsdauer und regulatorische Berechenbarkeit.
Für Europa insgesamt könnte genau darin die eigentliche Nachricht liegen. Nicht nur Großbritannien muss beweisen, dass politische KI-Strategien in physische Infrastruktur übersetzt werden können. Der Kontinent insgesamt steht vor der Frage, ob er Frontier-AI künftig nur regulieren will oder ob Modelle auch tatsächlich vor Ort entstehen können. ■
