Peter Steinberger, Entwickler des Open-Source-KI-Agenten OpenClaw, hat die Wahrnehmungsfalle identifiziert, die jedes KI-Unternehmen bedroht: Modelle verschlechtern sich nicht – unsere Erwartungen passen sich nur schneller an, als Technologie sich verbessern kann. Was gestern noch magisch wirkte, empfinden wir heute als enttäuschend, weil wir uns daran gewöhnt haben. Doch der eigentliche Burggraben liegt nicht in besseren Algorithmen, sondern im Gedächtnis: im akkumulierten Gesprächsverlauf, in gespeicherten Vorlieben, in eingeübten Arbeitsmustern. Diese Bindung ist keine manipulative Strategie der Anbieter, sondern natürliche Konsequenz produktiver Routinenbildung. Die entscheidende Frage lautet nicht, wie man sie vermeidet, sondern wie man mit dieser kognitiven Pfadabhängigkeit so umgeht, dass Handlungsfähigkeit im Ernstfall gesichert bleibt. Ein Essay über die Ökonomie menschlicher Gewöhnung, Herbert Simons Architektur-Prinzipien und den Unterschied zwischen deutscher Industrieträgheit und strategischer Flexibilität.
Die Wahrnehmungsfalle: Wenn Magie zur Normalität wird
Peter Steinberger, Schöpfer von OpenClaw – dem derzeit am schnellsten wachsenden Open-Source-Projekt auf GitHub – hat ein Phänomen beschrieben, das jedes KI-Unternehmen vor ein unlösbares Problem stellt: „Ein neues Modell kommt raus, die Leute sind begeistert: Wow, das ist so gut! Und dann, einen Monat später, heißt es: Das ist schlechter geworden, das taugt nichts mehr.“[1]https://x.com/r0ck3t23/status/2022053074114629998
Das Erstaunliche dabei: Technisch hat sich nichts verschlechtert. Das Modell ist exakt dasselbe wie am ersten Tag. Was sich verändert hat, sind unsere Erwartungen. In der ersten Woche erleben wir einen beispiellosen Durchbruch. Nach fünf Wochen häufen sich Beschwerden über angeblichen Qualitätsverlust. Die Technologie ist gleichgeblieben – aber unser Maßstab hat sich verschoben. Was gestern noch unmöglich erschien, empfinden wir heute als enttäuschend.
Steinberger bringt die Konsequenz auf den Punkt: „In einem Jahr wird das alles Open Source sein. Und dann werden wir uns darüber beschweren, weil wir uns daran gewöhnt haben.“ KI-Modelle, die vor einem Jahr noch als Spitzenleistung galten, werden heute als unbrauchbar abgetan. Die führenden Unternehmen halten ihren Vorsprung nicht, weil ihre Technologie so geschätzt wird, sondern weil unsere Erwartungen schneller steigen, als sich Technologie verbessern lässt.
Das ist kein vorübergehendes Problem, kein Marketing-Versagen, keine Frage mangelnder Aufklärung. Es liegt in unserer Natur. Und es lässt sich nicht beheben. Was heute noch magisch wirkt, wird morgen selbstverständlich sein – nicht weil die Leistung nachlässt, sondern weil wir uns an sie gewöhnen. Das ist die Wahrnehmungsfalle, und sie trifft ausnahmslos jeden Anbieter, jedes Modell, jede Innovation.
Wo der echte Burggraben entsteht
Wenn aber Modellverbesserungen durch menschliche Gewöhnung entwertet werden – wo bauen KI-Unternehmen dann ihre wirkliche Verteidigungslinie? Steinberger hat die Antwort gefunden, und sie liegt nicht in besseren Algorithmen, sondern in etwas viel Subtilerem: im Gedächtnis. „Jedes Unternehmen hat sein eigenes Silo. Es gibt keine Möglichkeit, die Erinnerungen aus ChatGPT herauszuholen.“
Modelle werden nach vorhersehbarem Zeitplan zu austauschbaren Produkten. Kontext nicht. Dein Gesprächsverlauf, deine gespeicherten Vorlieben, deine Interaktionsmuster – das unsichtbare Gerüst, das KI vom einfachen Werkzeug zur Erweiterung deines Denkens macht. Du kannst jedes Modell von heute auf morgen verlassen. Deinen Kontext zu verlassen bedeutet Selbstverstümmelung.
Die erfolgreichen Unternehmen kämpfen nicht um die intelligenteste KI. Sie bauen Kontextfallen, aus denen du nicht entkommen kannst, ohne Teile von dir selbst zurückzulassen. Sobald deine Arbeit, dein Denken, dein operatives Gedächtnis in ihrem System kristallisiert ist, bedeutet ein Wechsel nicht, bessere Technologie zu finden. Es bedeutet eine Wahl zwischen ihrem Produkt und kognitiver Selbstamputation.
Die Diagnose ist brutal: Modelle sind vergänglich. Erinnerung ist für immer. Und wer deine Erinnerung besitzt, besitzt dich.
Doch diese Analyse – so präzise sie die Mechanik beschreibt – lässt eine entscheidende Frage offen: Ist dieser Lock-in tatsächlich eine Falle? Oder ist er die natürliche, produktive Konsequenz dessen, wie Menschen arbeiten?
Routinen als rationales Effizienzkapital
Menschen sind Gewohnheitstiere – nicht aus Trägheit, sondern aus ökonomischer Notwendigkeit. Wir externalisieren kognitive Prozesse, um stabile Workflows zu etablieren und Komplexität zu reduzieren. Jede Interaktion mit einem KI-System ist eine Investition in ein gemeinsames „Betriebssystem“: Man lernt, welche Prompts funktionieren, welche Abkürzungen möglich sind, wo die Stärken und Schwächen des Systems liegen. Das System lernt umgekehrt, wie man denkt, welche Präferenzen man hat, in welchen Kontexten man arbeitet. Es entsteht ein ko-evolviertes Protokoll, das mit jedem Wechsel verloren ginge.
In Niklas Luhmanns Terminologie bildet sich Erwartungssicherheit: ein eingespieltes System von Erwartung und Erwartungserwartung, das Anschlussfähigkeit sichert und Produktivität erst ermöglicht. Diese Routinen sind keine irrationale Sunk-Cost-Falle, sondern rationale Spezialisierung. Man investiert Zeit und Aufmerksamkeit, um Effizienzgewinne …
References
