Meta plant 135 Milliarden USD Investitionen für 2026, Microsoft gibt 37,5 Milliarden pro Quartal aus – die KI-Capex-Welle erreicht industriegeschichtliche Dimensionen. Doch während Analysten nach dem ROI fragen und historische Vergleiche zu Eisenbahn und Elektrifizierung bemühen, bleiben die entscheidenden Fragen ungeklärt: Ist KI überhaupt Infrastruktur im klassischen Sinne? Oder erleben wir die Entstehung eines neuen Mediums im Sinne McLuhans? Und befinden wir uns, wie Carlota Perez‘ Theorie technologischer Revolutionen nahelegt, in einer spekulativen Installationsphase – kurz vor dem unvermeidlichen Crash? Ein Essay über die produktive Ambiguität einer Technologie, die sich kategorialer Einordnung entzieht, und über ein Europa, das auch diese Welle verschläft.


Die 135-Milliarden-Dollar-Frage

Wenn Meta ankündigt, im Jahr 2026 bis zu 135 Milliarden Dollar zu investieren – nahezu eine Verdopplung gegenüber dem Vorjahr –, dann sind das nicht mehr Zahlen, die sich mit normalen Investitionszyklen erklären lassen. Microsoft gibt 37,5 Milliarden pro Quartal aus, ein Anstieg von 65 Prozent gegenüber dem Vorjahr. Tesla plant 20 Milliarden für KI-Hardware und Robotik. Die Kapitalmärkte reagieren differenziert, fast schizophren: Meta wird belohnt, weil KI-Modelle das Werbegeschäft konkret stärken. Microsoft wird abgestraft, weil die enormen Ausgaben sich nicht proportional in skalierbaren Umsätzen niederschlagen.

Die gängige Deutung greift zu historischen Analogien: Dies sei ein neuer industrieller Investitionszyklus, vergleichbar mit dem Eisenbahnausbau im 19. Jahrhundert oder der Elektrifizierung im 20. Jahrhundert. Frühe Cloud-Investitionen um 2013 werden bemüht – riesige Capex-Wellen, die sich erst Jahre später in Cashflows verwandelten. Die implizite Botschaft: Geduld, die Rentabilität kommt schon noch.

Doch diese Analogie steht auf wackligeren Füßen, als es zunächst scheint. Bevor man 135 Milliarden Dollar mit dem Hinweis auf die Eisenbahn rechtfertigt, sollte man klären, ob KI in ihrer jetzigen Form tatsächlich die neue General Purpose Technology ist – oder ob wir gerade Zeuge einer gigantischen Fehlallokation werden.

Was Infrastruktur wirklich auszeichnet

Historische Infrastrukturen hatten gemeinsame Merkmale, die sie zu transformativen Kräften machten. Die Eisenbahn transportierte universell: Güter, Menschen, Information. Die Grenzkosten pro zusätzlichem Passagier oder Gut waren minimal, sobald die Schienen lagen. Elektrizität betrieb jede Maschine, jede Lampe, skalierte nahezu beliebig. Software hatte Grenzkosten der Vervielfältigung von praktisch Null. Das Internet machte Datentransmission fast kostenlos.

Bei KI in ihrer aktuellen Form ist das fundamental anders. Die Grenzkosten der Inferenz gehen nicht gegen Null – jeder Query kostet substantielle Rechenleistung. GPUs bleiben struktureller Engpass, Energiekosten steigen linear mit Nutzung. Ein Chat-Antwort mit GPT-4 kostet in der Größenordnung hundertmal mehr als eine Google-Suche. Microsoft musste ein Atomkraftwerk reaktivieren, um ein Rechenzentrum zu betreiben. Das ist nicht skalierbar wie Software. Es ist industriell – vergleichbar mit Stahlproduktion oder Chemie. Hohe Fixkosten, hohe variable Kosten, physische Limits.

Die Frage ist daher nicht rhetorisch: Baut man hier Infrastruktur oder eine teure Übergangstechnologie, die von etwas Effizienterem abgelöst wird?

Hinzu kommt das Problem der begrenzten Universalität. Eisenbahn löste ein universelles Problem: Transport über Distanz. Elektrifizierung löste Energieversorgung. Was löst LLM-basierte KI universal? Die aktuellen Anwendungsfälle konzentrieren sich auf Content-Generierung oft fragwürdiger Qualität, Code-Assistenz mit inkrementellem Nutzen, Chatbots für Customer Service und Zusammenfassungen. Das ist nützlich, teils sehr nützlich – aber wo ist der strukturell transformative, ultimative Anwendungsfall, der eine ganze Wirtschaftsordnung neu organisiert?

Elektrifizierung ermöglichte Fließbandproduktion und damit Massenkonsum. Computer ermöglichten globale Lieferketten und Just-in-Time-Fertigung. Was ermöglicht KI strukturell, das vorher unmöglich war? Diese Frage bleibt bisher ohne überzeugende Antwort.

Die Commoditization als Warnsignal

Ein weiteres strukturelles Problem: die rapide Commoditization der Modelle. Echte Infrastruktur zeichnet sich durch standardisierte Schnittstellen und langfristige Lock-ins aus. Eisenbahn standardisierte Spurweiten und schuf Netzwerkeffekte. Elektrizität etablierte 230 Volt und 50 Hertz, was Gerätekompatibilität garantierte. Software schuf APIs, Betriebssysteme und damit Ökosysteme.

Bei KI sehen wir das Gegenteil: Modelle werden zunehmend austauschbar. Open Source Llama, Mistral und andere fordern die proprietären Modelle heraus. APIs sind nicht standardisiert, Ökosysteme fragmentiert. Wenn aber die Kernkomponente – das Modell – commoditized wird, dann ist das Gegenteil von Infrastruktur. Es ist ein Übergangsphänomen.

Die 135 Milliarden Dollar könnten in fünf Jahren entweder aussehen wie weitsichtige Infrastruktur-Investition à la AWS zwischen 2006 und 2010. Oder wie die Überinvestition in Glasfasernetze 1999 bis 2001, wo massive Capex in eine…