KI-gestützter Stellenabbau gilt vielen Unternehmen als rationale Reaktion auf nachweisbare Produktivitätsgewinne. Die Gegenbewegung – Warnung vor dem Verlust impliziten Wissens – ist nicht falsch, aber in ihrer üblichen Form zu schwach. Implizites Wissen ist temporär, situativ und umweltgebunden. Es kann Bremsklotz sein. Das eigentliche Problem liegt woanders: Organisationen treffen unter tiefer Unsicherheit über die Richtung des Wandels Entscheidungen mit asymmetrischen Irreversibilitätskosten – und tun das mit Instrumenten, die diese Asymmetrie strukturell nicht sehen können.
I. Die epistemische Lage
Lange haben Ökonomen KI-bedingte Arbeitsmarktdisruptionen mit dem Verweis auf fehlende Makrodaten relativiert. Das ändert sich – und das Interessante ist nicht das Ergebnis, sondern der methodische Schritt dahinter. Eine von Ezra Karger koordinierte Ökonomen-Umfrage (Federal Reserve Bank of Chicago, April 2026) ergibt mehrheitlich moderate Erwartungen: kein radikaler Bruch mit historischen Mustern. Aber das extreme Szenario – schnelle, breite Jobdisruption mit steigender Ungleichheit – wird nicht länger als unplausibel behandelt. Ökonomen hören auf, auf Falsifikation zu warten, und wechseln in eine Analytik unter tiefer Unsicherheit. Erik Brynjolfsson (Stanford) formuliert es direkt: Er glaube nicht, dass es diesmal Jahrzehnte dauern werde. Molly Kinder (Brookings Institution) beschreibt keine Prognose, sondern ihre eigene Arbeitspraxis: Für einfache Rechercheaufgaben brauche sie keine Studenten mehr.
Diese epistemische Verschiebung ist der Ausgangspunkt. Sie beschreibt nicht eine neue Gewissheit über die Richtung des Wandels, sondern das Ende einer alten Gewissheit über seine Begrenztheit.
II. Was substituierbar ist – und warum
Bevor das Argument entwickelt werden kann, muss eine romantisierende Lesart explizit ausgeschlossen werden. KI-gestützte Substitution von Wissensarbeit ist in weiten Teilen rational und historisch nicht neu.
André Gorz hat für die Fabrikarbeit beschrieben, wie situatives Know-how und rasches Urteilsvermögen als Störgrößen aus dem Produktionsprozess herausrationalisiert wurden – durch Scientific Management und Prozessorganisation. Im Bürozeitalter wiederholte sich dieser Vorgang auf kognitiver Ebene: Webers Bürokratiemodell und Taylors Prinzipien haben kognitive Arbeit in weiten Teilen in regelkonformes Musterabarbeiten innerhalb definierter Parameter überführt. Was dabei entstand, ist genau das, was LLM-basierte Agentensysteme effizient verarbeiten können. Agentenbasierte Systeme substituieren nicht trotz der Prozessorganisation moderner Wissensarbeit – sondern wegen ihr. Die Rationalisierung hat die Vorarbeit geleistet.
Meta und Oracle handeln also nicht naiv. Wo Wissensarbeit über Jahrzehnte in kodierte Prozessschritte überführt wurde, ist ihre Substitution durch KI die logische Verlängerung einer Management-Rationalität, die zuvor schon die Handarbeit erfasst hatte. Das Twitter/X-Beispiel bestätigt das: Eine Plattformorganisation mit starken Netzwerkeffekten und hohem Kodierungsgrad der meisten Tätigkeiten absorbiert drastische Personalreduktionen, ohne operativ zu kollabieren – zumal wenn persönliche Urteilskraft an der Spitze als Substitut für institutionelles Wissen eingesetzt wird.
III. Der wahre Status impliziten Wissens
Hier liegt der Einwand, der das gängige Gegenargument trifft und präzisiert werden muss.
Schriftsetzer, Reisebürokaufleute, Darkroom-Techniker, Telefonisten – ganze Berufswelten mit jahrzehntelang akkumuliertem implizitem Wissen. Verschwunden, ohne dass Wirtschaft oder Gesellschaft kollabiert wären. Unzählige Unternehmen werden derzeit liquidiert, die über tiefes, domänenspezifisches Wissen verfügen. Ihr Wissen hat sie nicht gerettet. In vielen Fällen hat es sie aufgehalten.
Kodak hatte tiefes implizites Wissen über Filmchemie, Laborporzesse, Einzelhandelsbeziehungen. Dieses Wissen wurde nicht nur wertlos – es wurde aktiv zur Bremse, weil es Wahrnehmungsfilter erzeugte, die digitale Signale als Randphänomen einordneten. Dieselbe Struktur bei Blockbuster, bei großen Teilen der deutschen Tagespresse in den 1990ern, in der deutschen Automobilindustrie heute. Implizites Wissen in der falschen Domäne ist nicht neutral. Es ist Chandlers Pfadabhängigkeit in ihrer schärfsten Form: Die Kompetenz selbst produziert den blinden Fleck.
Der wahre Status impliziten Wissens ist also: temporär, situativ, an spezifische Umweltbedingungen gebunden. Es hat Wert unter den Stabilitätsbedingungen, die seine Entstehung ermöglicht haben. Sobald sich diese verschieben, kippt der Wert – weil implizites Wissen nicht nur nützliche Handlungsmuster enthält, sondern auch kognitive Routinen, die neue Muster aktiv blockieren. Wer das nicht benennt, betreibt Romantik.
IV. Die symmetrische Irreversibilität
Damit liegt das Argument an einem Punkt, der beide Seiten der Debatte unter Druck setzt.
Zu früh zu viel abbauen ist irreversibel: Institutionelles Gedächtnis, kontextuelles Urteilsvermögen, domänenspezifische Evaluierungskompetenz lassen sich nicht wie ein Cloud-Dienst wieder hochskalieren, wenn sich herausstellt, dass die Substitutionsannahme zu weit gegriffen war. Die Kosten des Verlusts erscheinen zeitverzögert und unter anderen Kausalzuschreibungen.
Aber: Zu lange festhalten ist ebenfalls irreversibel – im anderen Sinne. Wer Wissensträger und Strukturen erhält, die an eine auflösende Umwelt gebunden sind, akkumuliert Anpassungskosten, die sich ebenfalls schwer umkehren lassen: kulturelle Rigidität, institutioneller Konservatismus, die Unfähigkeit, neue Signale zu verarbeiten, weil das vorhandene Wissen sie systematisch filtert. Die deutsche Automobilindustrie ist kein Beispiel für zu wenig Wissenserhaltung – sie ist ein Beispiel für zu viel Festhalten an Wissen, das an eine auflösende Technologiegeneration gebunden war.
Unter tiefer Unsicherheit über die Richtung des Wandels sind beide Fehler möglich. Und beide sind teuer, in entgegengesetzten Richtungen.
V. Das strukturelle Versagen der Flächenschnitte
Hier liegt das eigentliche Argument – nicht als Plädoyer für Bestandsschutz, sondern als Diagnose eines Kalkulationsversagens.
Die aktuellen Entlassungswellen bei Meta, Oracle und anderen werden als Kostenschnitte nach Hierarchieebenen, Funktionsbereichen und Headcount-Zielen durchgeführt. Diese Logik ist intern konsistent: Sie maximiert kurzfristige Effizienzgewinne unter messbaren Parametern.
Was sie strukturell nicht leistet, ist eine epistemische Lagedifferenzierung: Welches Wissen in dieser Organisation ist an auflösende Bedingungen gebunden und damit tatsächlich Bremsklotz? Welches ist an zukünftig relevante Umweltbedingungen gebunden und damit strategisch wertvoll? Diese Unterscheidung ist nicht trivial – sie erfordert eine Einschätzung der Umweltentwicklung, die unter tiefer Unsicherheit nicht verfügbar ist. Flächenschnitte nach Kostenpositionen umgehen das Problem, indem sie es ignorieren. Sie treffen die Unterscheidung nicht, weil sie sie nicht treffen können.
Das ist kein Vorwurf der Irrationalität. Es ist die Beschreibung eines systematischen Kalkulationsdefizits: Irreversibilitätskosten in beide Richtungen – zu früh abgebaut, zu lange gehalten – werden nicht eingepreist, weil sie sich nicht in den Berichtsperioden zeigen, in denen die Entscheidungen fallen. Nassim Talebs Unterscheidung zwischen Risiko und tiefer Unsicherheit ist hier operativ: Risiko lässt sich kalkulieren, weil die Verteilung bekannt ist. Tiefe Unsicherheit nicht. Wer unter tiefer Unsicherheit mit Risikokalkülen operiert, handelt nicht rational – er handelt scheinrational.
VI. Die PR-Schere im Substitutions-Diskurs
Was das Kalkulationsdefizit verstärkt, ist seine diskursive Rahmung. Die Kommunikation – intern wie extern – operiert mit Gewissheitsformeln: Effizienzgewinne, Produktivitätssteigerung, KI-Readiness. Das ist die kommunikative Selbstbeschreibung einer Organisation, die Unsicherheit als aufgelöst darstellt.
Das ist eine klassische PR-Schere: Die operative Realität ist eine der tiefen Unsicherheit, die auch mainstreams Ökonomen inzwischen einräumen. Das Dispositiv der „KI-Transformation“ legitimiert irreversible Entscheidungen, indem es deren Bedingungen – tiefe Unsicherheit über Richtung und Geschwindigkeit des Wandels – kommunikativ ausblendet. Die Folgekosten erscheinen zeitverzögert und unter anderen Kausalzuschreibungen. Wenn eine Organisation in drei Jahren feststellt, dass sie entweder die falsche Kompetenz abgebaut oder die falsche Kompetenz behalten hat, wird das nicht als Konsequenz der heutigen Entlassungswelle gebucht.
VII. Fazit
Die KI-Layoff-Trap ist weder ein Plädoyer für implizites Wissen noch ein Argument gegen Substitution. Implizites Wissen ist temporär, situativ und kann Bremsklotz sein. Substitution ist in weiten Teilen rational und historisch nicht neu.
Die Trap liegt woanders: Organisationen treffen unter tiefer Unsicherheit über die Richtung des Wandels Entscheidungen mit symmetrischen Irreversibilitätskosten – und verwenden dabei Instrumente, die nur eine Seite dieser Symmetrie sehen. Zu früh zu viel abbauen ist irreversibel. Zu lange zu viel festhalten ebenfalls. Was rational wäre, ist eine differenzierte Kalkulation, die beide Richtungen einpreist und die Frage stellt: Welches Wissen ist an auflösende Bedingungen gebunden – und welches an zukünftig relevante?
Diese Frage ist unter tiefer Unsicherheit nicht mit Gewissheit zu beantworten. Das ist der Punkt. Wer sie durch Flächenschnitte nach Kostenpositionen ersetzt, hat sie nicht gelöst. Er hat sie ausgeblendet – und die Kosten auf einen späteren Zeitpunkt verschoben, an dem andere Kausalzuschreibungen gelten.
Ralf Keuper
Quellen und Bezugstexte
Eigene Vorarbeiten
- Die Augmentierungsformel und ihre Grenzen: KI-Agenten, Massenentlassungen und die Externalisierung von Anpassungskosten (EconLittera, April 2026): https://econlittera.bankstil.de/die-augmentierungsformel-und-ihre-grenzen-ki-agenten-massenentlassungen-und-die-externalisierung-von-anpassungskosten
- Wenn Ökonomen die Skepsis ablegen – KI und der Arbeitsmarkt (EconLittera, April 2026): https://econlittera.bankstil.de/wenn-oekonomen-die-skepsis-ablegen-ki-und-der-arbeitsmarkt
- Dienst nach Vorschrift – und was passiert, wenn die Vorschrift die KI übernimmt (EconLittera, Februar 2026): https://econlittera.bankstil.de/dienst-nach-vorschrift-und-was-passiert-wenn-die-vorschrift-die-ki-uebernimmt
Theoretische Grundlagen
- Nassim Nicholas Taleb: Antifragile. Things That Gain from Disorder. Random House, New York 2012
- André Gorz: Kritik der ökonomischen Vernunft. Rotbuch Verlag, Hamburg 1994
- Niklas Luhmann: Organisation und Entscheidung. Westdeutscher Verlag, Opladen 2000
- Alfred D. Chandler: Scale and Scope. The Dynamics of Industrial Capitalism. Harvard University Press, Cambridge 1990
Empirische Bezugspunkte
- Economists Once Dismissed the A.I. Job Threat, but Not Anymore – New York Times, April 2026: https://www.nytimes.com/2026/04/03/business/economists-once-dismissed-the-ai-job-threat-but-not-anymore.html
