Vivienne Ming, KI-Forscherin und Gründerin von Socos Labs, hat einen Befund in Umlauf gebracht, der seither durch die Wirtschaftspresse zirkuliert: KI spalte die Nutzer in zwei Gruppen – eine kleine Minderheit, die sie zum Schärfen des eigenen Denkens einsetzt, und eine viel größere Mehrheit, die sie nutzt, um weniger zu denken. Der überwältigende Trend, sagt Ming, sei Substitution: nicht Ergänzung, sondern Auslagerung.
Das klingt nach einem Appell an individuelle Disziplin. Es ist aber, bei genauerer Betrachtung, ein institutionelles Problem.
Denken ist unangenehm – und das ist keine Schwäche
Eine Metaanalyse von 170 Studien, durchgeführt von Erik Bijleveld und seinem Team an der Radboud Universität Nijmegen, hat etwas Unspektakuläres, aber Folgenreiches bestätigt: Menschen empfinden geistige Anstrengung als unangenehm – quer durch alle Berufsgruppen, Bildungsniveaus und Kulturen. Das gilt für Pflegekräfte, Soldaten, Studierende und Leistungssportler gleichermaßen. Wer Kreuzworträtsel löst oder Schach spielt, tut das trotz der Anstrengung, nicht wegen ihr – weil er gelernt hat, Denkleistung mit innerer Befriedigung zu verknüpfen.
Das ist kein Makel. Es ist Ökonomie des Gehirns. Wer Energie spart, wo es möglich ist, hat in den meisten Alltagssituationen einen Vorteil. Das Problem entsteht, wenn institutionelle Anreize diesen natürlichen Hang zur kognitiven Entlastung systematisch verstärken – und genau das tun viele Organisationen heute.
Der eigentliche Treiber: Anreizstrukturen, nicht Charakterschwäche
In gut geführten Organisationen, so lautet die gängige Managementweisheit, zählt das Ergebnis, nicht die Anstrengung. „Er hat sich stets bemüht“ ist im Zeugnisdeutsch eine vernichtende Formulierung. „Ergebnisorientiert“ ist ein Lob. Geschwindigkeit wird belohnt, Reflexion nicht.
In diesem Kontext ist die Delegation kognitiver Arbeit an KI-Werkzeuge kein Versagen – es ist eine rationale Reaktion auf ein System, das Denktiefe nicht honoriert. Wer eigenständig formuliert, analysiert und abwägt, statt KI-Output zu übernehmen, zahlt einen Zeitpreis ohne entsprechende Rendite. Individualpsychologisch ist das ein Trilemma: System 1 – das schnelle, assoziative Denken, das Daniel Kahneman beschreibt – liebt KI-Output, weil er glatt, formuliert und überzeugend klingt. Genau die Merkmale, die das Gehirn als Qualitätssignal wertet.
Was die MIT-Studie wirklich zeigt
Eine Studie des MIT Media Lab (Kosmyna et al., 2025, noch nicht peer-reviewed) hat Schreibprozesse unter drei Bedingungen verglichen: mit ChatGPT, mit einer Suchmaschine, ohne Hilfsmittel. Das Ergebnis ist bekannt und wurde medial stark vereinfacht: ChatGPT-Nutzer zeigten die schwächste neuronale Aktivität, konnten kurz nach Abgabe kaum aus ihren eigenen Texten zitieren und berichteten das geringste Gefühl von Eigenverantwortung für das Produkt.
Weniger beachtet wurde das andere Ergebnis: Personen mit klarer eigener kognitiver Struktur profitierten von KI-Unterstützung – ihre neuronale Aktivität stieg. Die Schlussfolgerung der Forscher lautet nicht: KI macht dumm. Sie lautet: Wer denkt, kann KI nutzen. Wer das Denken abgibt, wird verdrängt.
Das ist präziser – und ernster. Denn es bedeutet, dass kognitive Delegation nicht bei allen gleich wirkt. Sie vertieft eine bestehende Ungleichheit: zwischen denen, die ein ausreichendes mentales Modell mitbringen, um KI als Werkzeug zu führen, und denen, die keines haben und deshalb von ihr geführt werden.
Das Passungsproblem
Gerd Gigerenzer hat gegen die populäre Vorstellung, schnelles Denken sei per se fehlerhaft, stets eingewandt: Eine Heuristik ist nicht irrational – sie ist angepasst oder unangepasst an ihre Umgebung. „Fast and frugal“ funktioniert dort, wo die Entscheidungsumgebung stabil und bekannt ist. Es scheitert dort, wo sie das nicht ist.
Dasselbe gilt für KI-Werkzeuge. Ein Sprachmodell liefert statistische Wahrscheinlichkeiten, keine ökologisch validierten Urteile. Es kennt den Kontext nicht, in dem seine Ausgabe wirksam werden soll: die spezifischen Abhängigkeiten, die impliziten Regeln, die Vorgeschichte, die Machtverhältnisse. Es antwortet auf eine Anfrage, nicht auf eine Situation.
Wer das nicht korrigiert – weil er den Kontext selbst nicht mehr kennt oder nicht mehr kennen will – erhält Antworten, die lokal plausibel und situativ falsch sein können. Das ist kein technisches Problem. Es ist ein Urteilsproblem.
Komplexe Systeme und die Grenzen glatter Ausgaben
Dietrich Dörner hat in seiner Logik des Misslingens gezeigt, dass Scheitern in komplexen Systemen selten aus Inkompetenz entsteht. Es entsteht aus einem bestimmten Muster: Akteure handeln ohne ausreichendes Verständnis der Systemdynamik. Sie reagieren auf sichtbare Symptome, optimieren Teilprobleme und erzeugen dadurch an anderer Stelle neue Schäden. Sie verwechseln operativen Aktionismus mit Steuerung.
Komplexe Organisationen – ein Mittelständler in einem sich verschiebenden Markt, eine Genossenschaftsbank mit strukturellen Portfoliorisiken, eine Behörde unter Digitalisierungsdruck – sind genau das: nicht-transparente, dynamische, polyzentrale Systeme. In ihnen ist das mentale Modell der handelnden Personen eine kritische Ressource. Wer dieses Modell nicht aufbaut und pflegt, weil er stattdessen auf KI-Ausgaben zurückgreift, verliert nicht nur individuelle Urteilsfähigkeit – er verliert die Steuerungsfähigkeit der Organisation.
Glatte Ausgaben sind kein Ersatz für Lagebild-Verständnis.
Was das für Unternehmen bedeutet
Die Folgen sind noch kaum sichtbar, weil sie sich langsam akkumulieren. Texte werden grammatikalisch korrekt, aber inhaltlich leer. Analysen werden schneller, aber flacher. Entscheidungen werden getroffen, ohne dass die handelnden Personen sie als ihre eigenen begreifen – und damit ohne die Bereitschaft, für sie einzustehen und aus ihnen zu lernen.
Eine Studie der SBS Swiss Business School (Gerlich, 2025) mit 666 Teilnehmern dokumentiert eine signifikante negative Korrelation zwischen häufiger KI-Nutzung und kritischem Denkvermögen – wobei der Mechanismus kognitive Entlastung ist: Denkaufgaben werden ausgelagert, das entsprechende Vermögen wird nicht mehr trainiert. Was man nicht übt, verkümmert.
Das ist reversibel – aber nur, wenn Organisationen es als Problem erkennen und nicht als Feature behandeln.
Die eigentliche Frage
Vivienne Ming stellt die Frage als individuelle Entscheidung: Nutzt du KI zum Denken oder statt des Denkens? Das ist die falsche Einheit.
Die relevante Frage ist institutionell: Welche Denkprozesse will eine Organisation als konstitutiv für ihre Urteilsfähigkeit bewahren – und welche kann sie auslagern, ohne die Fähigkeit zu verlieren, ihre eigenen Entscheidungen zu verantworten?
Das ist keine Frage, die sich mit einem KI-Policy-Dokument beantworten lässt. Sie verlangt eine ehrliche Bestandsaufnahme dessen, welches Wissen, welches Kontextverstehen und welches Urteilsvermögen in einer Organisation tatsächlich noch vorhanden sind – und ob der Effizienzdruck, dem man nachgibt, nicht gerade das abbaut, was man in der nächsten Krise dringend brauchen wird.
Ralf Keuper
Quellenverzeichnis
Empirische Studien
Kosmyna, N. et al. (2025): Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task MIT Media Lab / arXiv preprint (noch nicht peer-reviewed)
- Projektseite: https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/
- arXiv: https://arxiv.org/abs/2506.08872
- Einordnung (The Conversation): https://theconversation.com/mit-researchers-say-using-chatgpt-can-rot-your-brain-the-truth-is-a-little-more-complicated-259450
David, L. / Vassena, E. / Bijleveld, E. (2024): The Unpleasantness of Thinking: A Meta-Analytic Review of the Association Between Mental Effort and Negative Affect Psychological Bulletin, 150(9), 1070–1093
- DOI: https://doi.org/10.1037/bul0000443
- PubMed: https://pubmed.ncbi.nlm.nih.gov/39101924/
- Pressemitteilung (EurekAlert): https://www.eurekalert.org/news-releases/1053318
Gerlich, M. (2025): AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical ThinkingSocieties, 15(1), 6. SBS Swiss Business School, Zürich
Ausgangsmaterial
Ming, Vivienne (2026): Interview, Business Insider / MSN „KI spaltet unser Denken: Warum nur eine kleine Elite klüger wird – und ihr vermutlich geistig abbaut“
- Business Insider DE: https://www.businessinsider.de/wissenschaft/ki-spaltet-unser-denken-warum-nur-eine-kleine-elite-klueger-wird/
- Yahoo Finance (Volltext): https://de.finance.yahoo.com/nachrichten/ki-spaltet-denken-nur-kleine-100724653.html
Business Insider DE (2026): KI schwächt das Denken – Experten warnen vor Verlust kognitiver Fähigkeiten (u.a. Josephine Hofmann, Fraunhofer IAO)
Theoretische Grundlagentexte (Bücher)
Kahneman, Daniel (2011): Thinking, Fast and Slow Farrar, Straus and Giroux, New York
Gigerenzer, Gerd / Todd, Peter M. (1999): Simple Heuristics That Make Us Smart Oxford University Press, New York (zur ökologischen Rationalität)
Dörner, Dietrich (1989): Die Logik des Misslingens. Strategisches Denken in komplexen Situationen Rowohlt, Reinbek bei Hamburg
