Dieses Interview ist Teil einer 7-teiligen Zusammenarbeit von cloud ahead und dem KI-Park e.V. zum Thema 'Souveräne KI-Infrastruktur'.
Jonathan Atkin ist Managing Partner von RBC Capital Markets und hat sich spezialisiert auf Forschung und Analyse zu Investitionen in Kommunikationsinfrastruktur.
Gregor: Wie viel KI-Infrastruktur wird Deutschland in Zukunft benötigen?
Jonathan: Der Bedarf an KI-Infrastruktur in Deutschland ist definitiv groß. Doch die zentrale Frage bleibt: Wird dieser Bedarf innerhalb Deutschlands gedeckt, oder wird er aus Regionen mit günstigeren Energiekosten bedient? Ein entscheidender Faktor sind die Engpässe im deutschen Stromnetz, die eine große Herausforderung darstellen. Während die Energieerzeugung selbst weniger problematisch ist, stellen die Übertragungskapazitäten und die Strompreise die größeren Hürden dar.
Schon jetzt werden KI-Workloads aus Deutschland – etwa maschinelles Lernen in der Automobilindustrie – zunehmend in den nordischen Ländern verarbeitet, wo Energie günstiger ist. Dabei zeigt sich eine Aufteilung: Latenzempfindliche und souveränitätskritische Workloads bleiben in Deutschland, während andere, wie die Modellierung von KI, außerhalb Deutschlands – insbesondere in Nordeuropa – bearbeitet werden.
"Latenzempfindliche und souveränitätskritische Workloads müssen in Deutschland bleiben"
Für inländische und souveräne Anwendungsfälle fehlt Deutschland jedoch die Kapazität. Frankfurt, das Hauptzentrum für Rechenzentren, ist bereits voll ausgelastet. Neue Umspannwerkskapazitäten für Frankfurt und die umliegenden Regionen wie Hanau sind zwar geplant, aber diese werden frühestens 2030–2032 verfügbar sein. Gebiete wie Sossenheim und Hattersheim, die bereits etablierte Verfügbarkeitszonen sind, sind ebenfalls ausgeschöpft. Neue Kapazitäten zu schaffen ist schwierig, da Projekte oft vorab vergeben werden und die Genehmigungsprozesse sehr langwierig sind.
Gregor: Wo könnten weitere Rechenzentren entstehen?
Jonathan: Chancen bestehen östlich von Hanau oder in Teilen Berlins, wo es noch verfügbare Energiekapazitäten gibt. Doch diese Projekte befinden sich in frühen Stadien und werden Jahre dauern, bis sie umgesetzt sind. Deutschlands Genehmigungssystem ist komplex und langsam, was die Zeitrahmen weiter verlängert. Zwar gibt es Kapital für den Bau von Rechenzentren, doch die Verstärkung des Stromnetzes erfordert die Beteiligung öffentlicher Institutionen, Genehmigungen und erhebliche Investitionen – alles Faktoren, die die Umsetzung verzögern.
Gregor: Wenn du von "Kapazität" sprichst, meinst du damit die verfügbare Energieversorgung?
Jonathan: Genau. Die grundlegende Idee ist, dass KI-Infrastruktur der Energieinfrastruktur folgt. Weltweit sehen wir, dass etwa drei Viertel solcher Entscheidungen durch Energieaspekte beeinflusst werden, der Rest durch Anforderungen an Daten-Souveränität und Sicherheit. In Regionen mit hohen Energiekosten sind lokale Infrastrukturen notwendig, wenn Latenz- oder Souveränitätsanforderungen bestehen. Ohne diese Anforderungen wandern KI-Workloads in Regionen mit günstigeren Energiekosten ab.
"KI-Infrastruktur folgt der Energieinfrastruktur"
Deutschland verfügt zwar über erneuerbare Energie aus dem Norden, doch die Übertragungsinfrastruktur, insbesondere Südlink, ist noch nicht ausreichend ausgebaut, um diese Energie in wichtige Regionen wie Frankfurt zu bringen. Ähnliche Herausforderungen gibt es in den USA und anderen Ländern. Die Verstärkung des Stromnetzes ist ein mehrjähriger Prozess, der erhebliche Anstrengungen und Investitionen erfordert, um den wachsenden Bedarf an Rechenzentren in Frankfurt und anderen Hubs zu decken.
Die Nachfrage nach Rechenkapazitäten übersteigt derzeit das Angebot, aber es ist erwähnenswert, dass die KI-Infrastruktur auch auf der Welle der überhöhten Erwartungen des Gartner-Hype-Zyklus reitet. Die derzeitige Begeisterung für generative KI ist auf ihrem Höhepunkt, was sowohl die Nachfrage als auch die Wahrnehmung des Infrastrukturbedarfs beeinflusst.
Gregor: Ist die Nachfrage nach KI-Rechenzentren möglicherweise eine Übertreibung?
Jonathan: Es ist manchmal schwierig, die Nachfrage nach KI von der allgemeinen Nachfrage nach Hyperscale-Rechenzentren zu trennen. Doch ich sehe enormes Wachstum. Diese Nachfrage lässt sich grob in zwei Kategorien einteilen: Erstens der massive Bedarf der großen Internetgiganten wie Oracle, Microsoft, Amazon, Meta und Google. Sie treiben den größten Teil des Wachstums voran. Zweitens, eine Größenordnung kleiner, aber dennoch bedeutend, ist der Bedarf großer Unternehmen. Zum Beispiel kaufen die zehn größten Unternehmen in Deutschland GPUs in Mengen, die traditionell als erheblich gelten würden, aber im Vergleich zu den Anforderungen der großen Internetgiganten verblassen.
Darüber hinaus wächst die Nachfrage von KI-Plattform-Startups. In Europa sticht Northern Data hervor. Obwohl sie in Frankfurt ansässig sind, befinden sich die meisten ihrer Rechenkapazitäten in Schweden, wobei ihr größter Rechenknoten in den nordischen Ländern liegt. Dies zeigt, wie KI-Startups zunehmend auf Kapazitäten außerhalb ihrer Heimatländer setzen. Ein weiteres Beispiel ist Nebius, das ebenfalls erhebliche Kapazitäten – oft um die 5 Megawatt – aufbaut. Während dies früher als groß galt, verlangen die Internetgiganten mittlerweile 20 bis 40 Megawatt pro Standort in Europa und dreistellige Megawattzahlen in den USA.
Gregor: Welche Standorte werden dies sein?
Jonathan: Die bestehende Infrastruktur, insbesondere in Frankfurt, wird weiterhin bestehen und ausgebaut werden. Hyperscaler erweitern ihre KI-Cluster meist dort, wo bereits Cloud-Compute-Cluster existieren. Das gibt ihnen die Flexibilität, diese Kapazitäten für andere Anwendungen wie Unternehmens-Clouds, soziale Plattformen, E-Commerce oder Gaming zu nutzen, falls die KI-Nachfrage stabilisiert oder sinkt. Diese strategische Positionierung spiegelt ihre Erwartung wider, dass die Nachfrage langfristig anhält.
"Hyperscaler bauen ihre KI-Cluster dorthin wo auch ihre Clouds stehen."
Obwohl einige behaupten, wir könnten uns auf dem Höhepunkt des KI-Hype-Zyklus befinden, zeigen die Investitionsmuster von Google, Amazon, Meta und Microsoft etwas anderes. Diese Unternehmen haben angekündigt, ihre Ausgaben für GPUs, Server und Rechenzentren weiter zu erhöhen, mit Prognosen, dass die Ausgaben 2026 die aktuellen Niveaus übertreffen werden. Das deutet darauf hin, dass die Nachfrage mindestens ein weiteres Jahr, wenn nicht länger, hoch bleiben wird.
Gregor: Glaubst du, dass diese Investitionsmuster nachhaltig sind?
Jonathan: Viele fragen sich, welchen Return on Investment (ROI) die bisherigen Investitionen in dreistelliger Milliardenhöhe in KI-Infrastruktur haben werden. Derzeit gibt es darauf keine klare Antwort. Es wird wahrscheinlich Jahre dauern, bis wir sehen, welche Anwendungsfälle diese Investitionen rechtfertigen – falls überhaupt. Werden die Erträge durch Kosteneinsparungen, Produktivitätssteigerungen oder völlig neue Einnahmequellen erzielt? Mögliche Anwendungen wie KI-gestützte Medikamentenentwicklung oder autonomes Fahren sind vielversprechend, aber konkrete Ergebnisse fehlen noch.
"Die Hyperscaler haben FOMO"
Diese Unsicherheit stellt Hyperscaler wie Oracle, Microsoft, Amazon, Meta und Google vor eine schwierige Lage. Sie müssen dennoch weiter investieren, da sie nicht das Risiko eingehen können, bei zukünftigen Innovationen abgehängt zu werden. Dies ist ein klassisches Beispiel für FOMO („fear of missing out“)-Investitionen. Hyperscaler erkennen, dass KI möglicherweise kein eigenständiger Umsatztreiber sein wird, sondern als eingebettete Komponente in bestehenden Anwendungen fungiert. Beispielsweise haben Empfehlungsalgorithmen von Netflix, YouTube und Meta durch KI erheblich an Effektivität gewonnen, was zu höherer Monetarisierung geführt hat.
Gregor: Klingt, als würden Hyperscaler sich wie Teenager verhalten – sie gehen auf Partys, die sie nicht mögen, und kaufen Dinge, die sie nicht brauchen …
Jonathan: Genau. Wir befinden uns noch in einer frühen Phase der KI-Entwicklung, und Hyperscaler haben keine andere Wahl, als massiv zu investieren. In den letzten 12–18 Monaten wurden Großaufträge für GPUs aufgegeben, die jetzt weltweit in Rechenzentren installiert werden. Diese GPUs haben jedoch eine begrenzte Lebensdauer von etwa drei Jahren, bevor sie ersetzt werden müssen. Das wirft eine wichtige Frage für die Zukunft auf: Wenn der Ersatzzyklus um 2027 oder 2028 beginnt, werden diese Unternehmen dann entscheiden, dass sich ihre Investitionen gelohnt haben, und auf noch fortschrittlichere GPUs von NVIDIA, AMD oder anderen upgraden? Oder werden sie ihre KI-Expansion pausieren und ihre bestehende Infrastruktur für andere Anwendungen wie Unternehmens-Clouds oder B2B-Dienste umwidmen?
Gregor: In welchen Regionen Deutschlands fließt dieses „FOMO“-Geld?
Jonathan: Microsoft plant beispielsweise große Anlagen westlich von Köln sowie in der Nähe von Frankfurt und möglicherweise Berlin. Auch andere Hyperscaler investieren in große Projekte und arbeiten häufig mit Drittentwicklern zusammen, um langfristige Mietverträge über 10 bis 15 Jahre abzuschließen. Diese langfristigen Verpflichtungen spiegeln ihren Glauben an die zukünftige Nachfrage wider. Gleichzeitig sind die Projekte strategisch so positioniert, dass sie in der Nähe bestehender Cloud-Cluster liegen. Dies gewährleistet Flexibilität – falls KI nicht die erwarteten Renditen bringt, kann die Infrastruktur für andere Cloud-Anwendungen genutzt werden.
Der Trend, KI-exklusive Rechenzentren in abgelegenen Regionen zu bauen, bleibt begrenzt. Während das Training von Modellen keine niedrige Latenz erfordert und theoretisch in Regionen wie Island oder den entlegenen Nordics durchgeführt werden könnte, bergen solche Projekte ein höheres Risiko. Falls die Nachfrage nach dem Training großer Sprachmodelle in den nächsten Jahren nachlässt, könnten solche Einrichtungen zu ungenutzten Investitionen werden, da sie sich weniger für latenzempfindliche Anwendungen eignen. Deshalb zögern Hyperscaler wie Oracle, Microsoft, Amazon und Meta, erhebliche Summen in diese abgelegenen Regionen zu investieren. Kleinere Projekte sind möglich, aber der Großteil der KI-Infrastruktur wird in der Nähe bestehender Cloud-Hubs bleiben, um Risiken zu minimieren und eine breite Nutzung zu ermöglichen.
Zusammenfassend lässt sich sagen, dass die nächsten Jahre für die Bewertung der Wirksamkeit dieser massiven KI-Investitionen entscheidend sein werden. Bis dahin gehen Hyperscaler kalkulierte Wetten ein, indem sie das Potenzial von transformativen KI-Anwendungen mit der Flexibilität kombinieren, ihre Infrastruktur für andere Zwecke zu nutzen.
Gregor: Vielen Dank für deine Zeit, Jonathan!