Thematischer Impuls
Tech-Giganten setzen alles auf eine Karte: Der KI-Investitionsboom
Die Investitionsausgaben der weltweit größten Technologieunternehmen zeigen, dass sie fest davon überzeugt sind, dass die Führungsrolle im Bereich Künstliche Intelligenz (KI) der Preis des Jahrhunderts ist – eine einmalige Gelegenheit, die die nächste Generation unternehmerischer Dominanz definieren wird. Microsoft, Alphabet, Meta, Amazon und ihre Wettbewerber betrachten KI nicht als Nebenprojekt, sondern als Fundament ihrer zukünftigen Geschäftsmodelle. Für sie bedeutet ein Scheitern in der Führungsrolle das Risiko der Bedeutungslosigkeit. Obwohl die Überzeugung absolut ist, bleibt unklar, wie diese Führungsrolle konkret aussieht, wann sie sich materialisiert und wie sie sich genau in finanzielle Erträge umsetzen lässt. Wir wissen, dass das Rennen existenziell ist, aber das Ziel ist noch nicht klar definiert.
Abbildung 1: Investitionsausgaben der führenden Technologieunternehmen im Zeitverlauf
Das Ausmaß der Ausgaben bringt auch Engpässe mit sich
Doch dieses Ausmaß an Investitionen bleibt nicht ohne Belastungen. Die Expansion der Künstlichen Intelligenz (KI) markiert einen entscheidenden Wendepunkt und trifft auf langjährige Herausforderungen in Bereichen wie Energie, Rohstoffe, Netz-Infrastruktur und Effizienz der Datenverarbeitung. Anders als frühere Boomphasen bei Glasfaser oder Solarenergie erzeugt dieser Aufschwung eine reale, unmittelbare Nachfrage. Die Lieferketten passen sich an, stehen aber weiterhin unter Druck.
Der sichtbarste Engpass zeigt sich auf der Silizium-Ebene: Es gibt schlichtweg nicht genug XPUs (fortschrittliche KI-Prozessoren), um die Nachfrage zu decken. Das limitiert die Anzahl hochleistungsfähiger Recheneinheiten, die den Bau von Rechenzentren ermöglichen. Nachgelagert erweist sich auch die Infrastruktur rund um diese Chips und Rechenzentren – elektrische Systeme, Kühlung und Hochgeschwindigkeitsnetzwerke – als Flaschenhals. Der Bau von Rechenzentren der nächsten Generation hängt zunehmend von spezialisierten Zulieferern für Transformatoren, Kabel, Schaltanlagen und Flüssigkeitskühlsysteme ab.
Und dann gibt es noch das zentrale Thema: Energie. Der KI-Boom treibt den Stromverbrauch auf ein nie dagewesenes Niveau. Goldman Sachs prognostiziert, dass der weltweite Strombedarf von Rechenzentren bis 2027 um etwa 50 % und bis 2030 um 165 % gegenüber 2023 steigen wird.5 In Regionen wie Virginia, Ohio und Teilen von Texas, wo sich Cluster von Hyperscalern befinden, geraten die lokalen Stromnetze unter Druck. In manchen Fällen sind neue Stromleitungen der limitierende Faktor für neue Rechenzentrumsprojekte. Das ist längst nicht mehr nur eine technologische Herausforderung, sondern wird zunehmend zu einer gesellschaftlichen. Lokale Gemeinschaften sehen sich mit steigenden Energiekosten, Konflikten um Wasserverbrauch und Belastungen der bestehenden Infrastruktur konfrontiert. Der ökologische und soziale Fußabdruck der KI-Infrastruktur entwickelt sich rasch zu einem politischen Thema.
Abbildung 2: Intelligenz fortschrittlicher Sprachmodelle im Zeitverlauf
Das Innovationstempo bleibt ungebrochen
Auch wenn diese Engpässe die Einführung verlangsamen könnten, bleibt das Innovationstempo ungebrochen. Die neuesten Generationen großer Sprachmodelle (LLMs) entwickeln sich über die reine Produktion flüssiger Texte hinaus – sie sind inzwischen in der Lage zu argumentieren, systematisch Optionen abzuwägen und Gedankengänge nachzuvollziehen, die menschlichem Denken ähneln. Parallel dazu werden leichtere und kosteneffizientere Modelle entwickelt, die den benötigten Rechenaufwand deutlich reduzieren. Das ist entscheidend für die „Demokratisierung der KI“: So können auch kleinere Unternehmen, Start-ups und Einzelpersonen generative KI nutzen, ohne die enormen Budgets der Tech-Giganten zu benötigen. Im Bereich der Bild- und Videogenerierung schreitet die Entwicklung sogar noch schneller voran: Fortschrittliche multimodale Modelle können inzwischen realistische Bilder, Videos in Kinoqualität und dynamische 3D-Umgebungen erzeugen – und damit Branchen wie Marketing, Unterhaltung und Produktdesign grundlegend verändern.
Gleichzeitig skalieren große Cloud-Anbieter („Hyperscaler“) ihre Trainingscluster weiter, um das Ziel der sogenannten „AGI“ (Artificial General Intelligence, allgemeine Künstliche Intelligenz) zu erreichen. Doch Innovation bedeutet mehr als nur den Einsatz zusätzlicher Grafikprozessoren (GPUs) oder das Erhöhen der reinen Rechenleistung. Gerade dort, wo Hardware-Beschränkungen bestehen – beispielsweise in China – sind Entwickler gezwungen, neue Wege auf der Softwareseite zu gehen: Sie steigern die Auslastung vorhandener Prozessoren (XPUs), optimieren die Architektur der Modelle, reduzieren die Anzahl der Parameter und verbessern die Effizienz beim Training.
Das Ergebnis: Mehrere aktuelle chinesische Modelle erreichen inzwischen die Leistung westlicher Modelle oder übertreffen sie sogar – und das mit weniger Ressourcen. Das zeigt, dass Intelligenz nicht linear mit der Rechenleistung skaliert.
Monetarisierung bleibt schwierig
Trotz aller technologischen Fortschritte bleibt die wirtschaftliche Seite unklar. Die zusätzlichen Erträge, die durch den bloßen Einsatz von mehr Rechenleistung beim Training von KI-Modellen erzielt werden, nehmen offenbar ab. Die Kosten für das Training von Spitzenmodellen – mittlerweile auf mehrere Millionen US-Dollar pro Durchlauf geschätzt – steigen schneller als die damit erzielten Leistungsverbesserungen.7 Hinzu kommt, dass die Hardware selbst rasch an Wert verliert: Grafikprozessoren (GPUs) und Netzwerktechnik haben meist nur eine Nutzungsdauer von drei bis fünf Jahren, da jede neue Generation die vorherige schnell überholt. Das bedeutet, dass etwa die Hälfte der Kosten eines modernen KI-Rechenzentrums – einschließlich Chips und Netzwerkausrüstung – alle paar Jahre erneuert werden muss. Analysten warnen bereits, dass Abschreibungen bald die Gewinne der Hyperscaler belasten könnten. Hinzu kommt, dass die Monetarisierung weiterhin schwierig und langsam verläuft, sodass eine wachsende Diskrepanz zwischen dem Umfang der Investitionen und der Klarheit der Erträge entsteht.
In letzter Zeit ist zudem eine neue Quelle für Skepsis aufgetaucht: die sogenannten „Zirkularitätsvereinbarungen“, die sich im KI-Sektor verbreiten. Dabei agieren Hyperscaler, Chip-Hersteller und Modellentwickler gleichzeitig als Lieferanten, Kunden und Investoren – und erzeugen so den Anschein einer boomenden Nachfrage innerhalb eines geschlossenen Kreislaufs. Ein prominentes Beispiel ist die Vereinbarung zwischen Nvidia und OpenAI, die im September 2025 unterzeichnet wurde: Nvidia investiert bis zu 100 Milliarden US-Dollar in OpenAI, während OpenAI gleichzeitig große Mengen von Nvidia-Chips und -Systemen kauft.8 Ähnliche Muster finden sich in der Beziehung zwischen Microsoft und OpenAI sowie in den Partnerschaften von Anthropic mit Amazon und Google. Auf dem Papier erzeugen diese Arrangements einen sich selbst verstärkenden Kreislauf: Kapazitäten werden monetarisiert, Modelle trainiert und Umsätze verbucht. In der Praxis werfen sie jedoch Fragen hinsichtlich Transparenz und Nachhaltigkeit der Investitionen auf.
Zweifellos sorgt KI für Aufsehen, indem sie eine neue Generation von Tools antreibt und nahtlos in bestehende Produkte integriert wird – von Copilot-Abonnements und KI-gestützten Suchassistenten bis hin zu intelligenterer Werbung und fortschrittlichen Produktivitätslösungen. Dennoch bleibt der tatsächliche Umsatzanstieg im Verhältnis zu den Investitionen bislang bescheiden. Selbst die kommerziell erfolgreichsten KI-Anwendungen wie KI-gestützte Werbung und Produktivitätswerkzeuge basieren weiterhin stark auf bestehenden Geschäftsmodellen. Der viel erwartete Durchbruch – die echte „KI-Dividende“, die ganze Branchen neu definieren und neue Wachstumsmöglichkeiten eröffnen könnte – steht noch aus. Bislang bleibt das Versprechen des transformativen wirtschaftlichen Einflusses der KI am Horizont, während Unternehmen weiter nach den bahnbrechenden Anwendungen suchen, die die Milliardeninvestitionen rechtfertigen. Das wirft eine grundlegende Frage auf: Erleben wir die ersten Kapitel einer der größten technologischen Revolutionen der Menschheitsgeschichte, die Produktivität, Wissenschaft und Alltag grundlegend verändern wird? Oder befinden wir uns bereits in den späten Phasen einer Investitionsblase, ähnlich dem Dotcom-Fieber oder dem Eisenbahnbau-Boom der 1880er Jahre in den USA? Für beide Sichtweisen gibt es Argumente. Das Innovationsmomentum und das langfristige Potenzial sind unbestreitbar. Doch die wirtschaftlichen Aspekte – Geschwindigkeit der Monetarisierung, Nachhaltigkeit der Erträge und der ökologische Fußabdruck – bleiben unsicher.
Deshalb werden wir in unseren kommenden Publikationen die neuen Monetarisierungspfade der KI-Technologie genauer beleuchten. Unser Fokus liegt darauf, das Ausmaß potenzieller Marktchancen sowohl im Konsumenten- als auch im Unternehmensbereich zu quantifizieren und aufzuzeigen, wie sich Kundenreisen, Geschäftsmodelle und operative Prozesse in einer KI-gestützten Wirtschaft entwickeln könnten.
1 IEEE ComSoc Technology Blog, AI Spending Boom Accelerates: Big Tech to Invest $400 Billion in 2025.
2UBS Research, Invest in transformational innovation.
3McKinsey, The Cost of Compute: A $7 Trillion Race to Scale Data Centers.
4Artificial Analysis – https://artificialanalysis.ai/.
5Goldman Sachs Research, Data Centres Set for 165% Electricity Spike.
6Artificial Analysis – https://artificialanalysis.ai/.
7EPOCH AI, How much does it cost to train frontier AI models?
8Nvidia Newsroom, OpenAI and NVIDIA Announce Strategic Partnership to Deploy 10 Gigawatts of NVIDIA Systems.