Kernreaktoren, Tiefseebohrplattformen, Abschreckungsinfrastrukturen – all dies sind komplexe und gewaltige Technologien, die das Potenzial haben, katastrophal zu versagen. In seinem Buch Rational Accidents (Rationale Unfälle) skizziert John Downer eine neue Perspektive auf technologisches Versagen. Er argumentiert, dass selbst in den strengsten und “rationalsten” Bewertungen dieser Systeme aufgrund der inhärenten Grenzen technischer Tests und Modelle unerkennbare Fehler lauern können. Downer stellt fest, dass es aus erkenntnistheoretischer Sicht unmöglich sein dürfte, die nahezu perfekte Zuverlässigkeit zu erreichen, die wir von unseren sicherheitskritischsten Technologien verlangen. Es gibt jedoch eine solche Technologie, die nachweislich diese “unmögliche” Zuverlässigkeit erreicht: Düsenflugzeuge.

Downer befasst sich eingehend mit der zivilen Luftfahrt und damit, wie sie mit dem Problem des Versagens umgegangen ist. Er stellt fest, dass die Art und Weise, wie wir uns die Zuverlässigkeit von Verkehrsflugzeugen vorstellen, die tatsächlichen Praktiken verschleiert, mit denen sie erreicht wird. Und er zeigt uns, warum diese Praktiken viel weniger auf andere Technologiebereiche übertragbar sind, als man uns glauben machen will. Wenn wir verstehen, warum Verkehrsflugzeuge nicht abstürzen, so seine Schlussfolgerung, sollten wir an der Sicherheit anderer “ultrazuverlässiger” Technologien zweifeln.

Rational Accidents ist eine einzigartige und ernüchternde Untersuchung der technologischen Zuverlässigkeit aus einer STS-Perspektive und eine unverzichtbare Lektüre, um zu verstehen, warum unsere sicherheitskritischsten Technologien noch gefährlicher sind, als wir glauben.

Quelle: Rational Accidents. Reckoning with Catastrophic Technologies

Weitere Informationen:

“The technology is great when it works” Maritime Technology and Human Integration on the Ship’s Bridge

CHARACTERISTICS OF CRITICAL INCIDENTS IN DYNAMIC POSITIONING

Ratio­na­li­tät ist jedoch eine Con­di­tio sine qua non, mit der sich Unter­neh­men nach innen und außen dar­zu­stel­len ver­su­chen. Das impli­zi­te Mot­to von Orga­ni­sa­tio­nen scheint oft zu sein: Lie­ber eine eigent­lich patho­lo­gi­sche Fas­sa­de von Ratio­na­li­tät wah­ren, als gesun­de Irra­tio­na­li­tät ein­zu­ge­ste­hen[1]Niklas Luhmann in: Orga­ni­sa­ti­on und Entscheidung

 

Die Tech­nik hat kei­ne Gren­zen, sie ist eine Gren­ze; und sie mag letzt­lich nicht an der Natur, son­dern an sich sel­ber schei­tern. Das muss jedoch nicht unter­gangs­pes­si­mis­tisch ver­stan­den wer­den. Man könn­te genau­so­gut sagen: die Tech­nik kann sich nur sel­ber hel­fen, und die erkenn­ba­re Ten­denz lässt dafür mehr Risi­ken und Chan­cen erken­nen. … Der Ver­such, sich gegen Risi­ken der Tech­nik durch Tech­nik zu schüt­zen, stößt offen­bar an Schran­ken. …[2]Niklas Luhmann in: Soziologie des Risikos

References

References
1 Niklas Luhmann in: Orga­ni­sa­ti­on und Entscheidung
2 Niklas Luhmann in: Soziologie des Risikos