KI, Weick und die deutsche Industrie

Ein amerikanischer Organisationstheoretiker schreibt 1979 ein Buch über lose Kopplung, Mehrdeutigkeit und die Konstruktion von Umwelten. Vierzig Jahre später erklärt es präziser als jede McKinsey-Studie, warum deutsche Industriekonsortien systematisch an der Plattformökonomie scheitern – und warum generative KI die kognitiven Grundlagen traditioneller Organisationen erschüttert.


Von Ralf Keuper

I.

Es gibt Bücher, die ihre Relevanz erst Jahrzehnte nach ihrer Entstehung entfalten. Karl Weicks „The Social Psychology of Organizing“, 1979 erschienen und später ins Deutsche übersetzt als „Der Prozess des Organisierens“, gehört dazu. Weick schrieb vor der digitalen Revolution, vor dem Internet, vor der Plattformökonomie. Und doch liefert er Kategorien, die das Gelingen und Scheitern in der digitalen Transformation präziser beschreiben als vieles, was heute unter dem Label „Digitalisierung“ firmiert.

Die zentrale Einsicht ist zunächst kontraintuitiv: Stabilität kann durch weniger Interdependenz, weniger Konsens und weniger gegenseitiges Verständnis erreicht werden, als gewöhnlich angenommen. Weick nennt das Prinzip „lose Kopplung“: Die meisten Dinge sind nur lose mit den meisten anderen verbunden. Systeme, die durch wenige oder schwache gemeinsame Variablen verbunden sind, sind robuster als eng integrierte Strukturen.

Das klingt abstrakt. Es wird konkret, wenn man es auf die erfolgreichsten digitalen Architekturen der Gegenwart anwendet.

II.

Amazon, Apple, Google haben Systeme gebaut, in denen die Teilnehmer – Entwickler, Händler, Content-Produzenten – lose gekoppelt sind. Sie teilen wenige Variablen: APIs, Standards, Abrechnungssysteme. Aber diese wenigen Variablen sind stark definiert. Störungen in einem Subsystem verzweigen sich nicht oder nur langsam in andere. Ein App-Entwickler kann scheitern, ohne das Ökosystem zu gefährden. Ein Händler kann Insolvenz anmelden, ohne die Plattform zu destabilisieren.

Das erklärt strukturell, warum deutsche Konsortialplattformen systematisch scheitern. ADAMOS, Gaia-X, Catena-X – sie alle versuchen, feste Kopplung zwischen Konkurrenten herzustellen. Gemeinsame Governance, geteilte Datensouveränität, ausgehandelte Standards. Das widerspricht dem Weickschen Prinzip fundamental.

Deutsche Ingenieure und Manager denken in Kategorien der Integration, der Durchgängigkeit, der Gesamtlösung. Sie können sich lose Kopplung nicht als Stärke vorstellen, sondern nur als Defizit, das es zu überwinden gilt. Wo Silicon Valley Schnittstellen definiert und den Rest dem Ökosystem überlässt, entwirft Deutschland Gesamtarchitekturen, in denen alles mit allem zusammenhängen soll.

Das Ergebnis sind Projekte, die unter ihrer eigenen Komplexität kollabieren, noch bevor sie Marktrelevanz entwickeln können.

III.

Weicks Analyse der Mehrdeutigkeit trifft einen zweiten Nerv der Gegenwart. Er unterscheidet zwischen Situationen, die eindeutig sind – hier greifen viele Regeln, wenige Verarbeitungszyklen –, und Situationen, die mehrdeutig sind. Letztere verlangen das Gegenteil: wenige Regeln, viele verschiedenartige Zyklen.

Generative KI ist im Weickschen Sinne ein System, das mehrdeutige Inputs mit wenigen Regeln und vielen verschiedenen Zyklen verarbeitet. Die Milliarden von Parametern eines Large Language Models entsprechen der „Mannigfaltigkeit innerhalb des Systems“, die es ermöglicht, mit äußerer Mannigfaltigkeit umzugehen. Je vager der Prompt, desto weniger deterministische Regeln greifen, desto mehr verschiedenartige Muster werden aktiviert.

Das Modell verhält sich genau so, wie Weick es für adaptive Organisationen beschreibt. Das Problem: Traditionelle Organisationen haben jahrzehntelang das Gegenteil trainiert.

Prozessoptimierung, Six Sigma, Lean Management – all das zielt auf Reduktion von Mehrdeutigkeit durch mehr und präzisere Regeln. Deutsche Ingenieurskunst besteht gerade darin, Varianz zu eliminieren, Toleranzen zu minimieren, Abweichungen auszuschließen. Weick würde sagen: Diese Organisationen haben sich „abgeschottet“ gegen die Registrierung von Mehrdeutigkeit – und damit gegen Anpassungsfähigkeit.

IV.

Ein weiteres Weicksches Konzept wirft Licht auf die Selbstreferentialität digitaler Ökosysteme: die „Gestaltung“ (Enactment). Organisationen beobachten nicht einfach ihre Umwelt – sie erschaffen sie mit. Wenn eine Organisation Dinge sehen will, bringt sie sich in eine Position, in der sie beim Sehen der Dinge selbst gesehen wird. Die Umwelt, die weiß, dass sie beobachtet wird, liefert andere Rohdaten.

Das beschreibt die Feedback-Schleifen der Plattformökonomie präziser als die meisten zeitgenössischen Analysen. Amazon beobachtet Händler, die wissen, dass sie beobachtet werden, und ihr Verhalten entsprechend anpassen. Google beobachtet Suchanfragen von Nutzern, die wissen oder ahnen, dass sie beobachtet werden. Die „Umwelt“ der Plattform ist zu einem erheblichen Teil von der Plattform selbst erzeugt.

Bei generativer KI wird diese Selbstreferentialität noch schärfer: Die Trainingsdaten enthalten zunehmend von KI generierte Inhalte. Das System beobachtet eine Umwelt…