Heute vor 25 Jahren, am 28. Januar 1986: Die Raumfähre Challenger (Mission 51-L) explodiert beim Start, alle 7 Besatzungsmitglieder sterben. Es war der bis dahin schwerste Unfall in der Raumfahrtgeschichte der USA. Die Challenger-Katastrophe führte für 2 Jahre zur Einstellung des Shuttle-Programms der NASA.
Was genau passierte, ist in der NASA Missionsbeschreibung nachzulesen: 73 Sekunden nach dem Start von Cape Canaveral explodierte die Fähre. Vor der Explosion gab es einen Flammenaustritt an der Seite eines Boosters.
Eine Untersuchungskommission wurde damit beauftragt, die Ursachen für das Unglück zu ermitteln. Die Kommission konnte folgende Ursache sehr überzeugend belegen: Ein Dichtungsring der Feststoffraketen, ein sogenannter O-Ring, hat versagt. Das Material des Dichtungsrings (Kunstgummi) war aufgrund der Kälte beim Start (Nachtfrost) zu wenig elastisch. Soweit die technische Seite der Geschichte – ein Dichtungsring war zu wenig elastisch. Kleine Ursache – große Wirkung.
Das Challenger-Unglück ist ein interessantes Fallbeispiel für eine Katastrophe, für die letztlich nicht die Ursache in der Technik zu suchen ist, sondern in der Kommunikation. Wie konnte es also zu so einer Katastrophe kommen, und was hat das mit Kommunikation zu tun?
Das Mitglied der Untersuchungskommission Richard P. Feynman, (Physiker, Autor, Nobelpreisträger) berichtet in einem seiner Bücher aus seiner Sicht über die Tätigkeit und die Erkenntnisse der Kommission.
Vor dem Start gab es einige Diskussionen. Ingenieure des Herstellers der Raketen, Morton Thiokol Inc., hatten starke Befürchtungen wegen dem Versagen der Dichtungsringe, speziell bei Kälte, und brachten diese dem NASA-Management gegenüber zum Ausdruck. In einer Sitzung der Kommission meldet sich ein Ingenieur von Morton Thiokol zu Wort. „Seine Kollegen von Morton Thiokol und er seinen zum Schluß gelangt, … dass das Dichtungsproblem etwas mit niedrigen Temperaturen zu tun habe. Sie seien außerordentlich besorgt gewesen und hätten der NASA in der Nacht vor dem Start … dringend davon abgeraten … zu starten.“ Das NASA Management habe entsetzt reagiert. Das Beweismaterial sei „unvollständig“, man habe auch bei erfolgreichen Flügen Verschleisserscheinungen beobachtet, die Ingenieure sollten das Thema aus Management-Sicht betrachten usw. So wurde Druck aufgebaut, das Veto gegen den Start zurückzuziehen, und schließlich gaben die Leute von Thiokol nach (Feynman, „Kümmert Sie, was andere Leute denken?“, S. 137, S. 171).
Die Kommissionsmitglieder trauten Ihren Ohren kaum. Schockierend war damals und ist es auch heute noch: Es war durchaus bekannt, dass der Dichtungsring ein Risiko darstellt, und zwar insbesondere bei niedrigen Temperaturen. Der Start wurde dennoch freigegeben. Das ist wie russisches Roulette. Es kann gut gehen, aber auch nicht; und selbst wenn es gut geht, ist das keine Garantie dafür, dass es ein weiteres Mal gut geht.
Das ist auch ein Fall von Gruppendenken. Gruppendenken (Groupthink) bezeichnet das Phänomen, dass eine Gruppe von eigentlich kompetenten Personen schlechte oder realitätsferne Entscheidungen trifft, indem sich die Mitglieder der Gruppe einer allgemeinen Gruppenmeinung anpassen. Hinzu kamen eingeschliffene Verhaltensweisen in der NASA-Kultur, wie die „Normalisierung“ von Auffälligkeiten (Abweichungen, die eigentlich außerhalb der Toleranz lagen, wurden einfach für „normal“ erklärt).
„Risiko“ ist für Organisationen kein objektiver Tatbestand, sondern ein sozial ausgehandeltes Konstrukt (nebenbei: Ich denke da auch an die Ursachen der gegenwärtigen Finanz- und Wirtschaftskrise – bestehende Risiken wurden lange Zeit verdrängt).
Nur selten hat unangemessenes Kommunikationsverhalten derart dramatische Auswirkungen. Bei dem Challenger-Unglück haben wir glücklicherweise einen Fall, der intensiv untersucht wurde. Das ist bei den tagtäglichen unternehmerischen Entscheidungen natürlich nur sehr selten der Fall. Aber wir alle kennen Situationen, in denen Fakten geleugnet wurden, Druck ausgeübt wurde, nicht zugehört wurde und auch Situationen, in denen ein guter Standpunkt vorschnell aufgegeben wurde. Die Kosten schlechter Kommunikation und schlechter Entscheidungen sind schwer zu erfassen, sind aber zweifelsohne extrem hoch. Das sagen uns eigene Erfahrungen und der gesunde Menschenverstand. Umgekehrt gilt: Bessere Kommunikation spart Nerven und Kosten (und rettet manchmal Leben). Bessere Kommunikation macht die Welt zu einem besseren Ort. Ich möchte dazu anregen, in Zukunft ein klein wenig bewusster zu kommunizieren.
In Gedenken an die Besatzungsmitglieder Francis R. Scobee, Michael J. Smith, Judith A. Resnik, Ellison S. Onizuka, Ronald E. McNair, Gregory B. Jarvis, Sharon Christa McAuliffe.
Viele Katastrophen hätten verhindert werden können wenn man richtig zugehört hätte z.B. der 11. September. Aber auch das Gegeteil wie z.B. bei der Entwicklung von Penicilin
ist manchmal der Fall. Trial und Error kann man nie ausschließen, sondern nur aus seinen Fehlern lernen.
Die Fälle sind zu unterscheiden. Trial and Error? „Mal sehen, was passiert?“ Vielleicht in der Softwareentwicklung – da gibt es dann ein Update. Oder auch, wenn es keinerlei Fakten gibt – dann experimentiert man erstmal in kleinem Rahmen, um Erfahrungen zu sammeln. Aber bitte kein Trial and Error, wenn die Fakten/Risiken bekannt sind und etwas sehr Wichtiges auf dem Spiel steht (z.B. Menschenleben oder Milliardenwerte). Sehenden Auges eine Katastrophe herbeiführen: Das darf nicht passieren.
@Gerald Petersen, ich sehe das genau so. Das Fallbeispiel ist keinesfalls geleichzusetzen mit Try and Error. In diesem Fall gab es Fakten, die bewertet wurden und eine Entscheidung unter Unsicherheit musste gefällt werden.
Es ist ein sehr brutales aber gutes Beispiel, um viele typische Kommunikationsfehler aufzuzeigen. Vor allem zuhören und einen kühlen Kopf zu bewahren und eben nicht dem Gruppendruck oder, wie in diesem Fall wohl auch, dem öffentlichen Druck unter Nichtbeachtung von Risiken nachzugeben.
Also da muss ich mich Thorsten anschließen, das Beispiel ist super gewählt um zu zeigen, wo das Problem bei der Kommunikation eigentlich liegt. Ich denke aber, wenn das damals schon so bekannt gemacht worden wäre, dann hätte die NASA einiges mehr auszustehen gehabt, denn wissentlich haben sie die Besatzung in den Tod geschickt und das sollte es ja nun wirklich nicht sein.
Was muss das für ein Gefühl sein, wenn man zusehen muss wie der eigene Mann oder der Partner stirbt. Vor allem, wenn man weiß, dass er sich dafür ja auch entschieden hat. Ich weiß auch nicht, auch wenn es großartig ist, dass die Menschen solche Leistungen erbringen, finde ich es immer noch sehr schwierig und ich habe jedes Mal ein komisches Gefühl wenn wieder so ein Ding startet, denn es ist schon unglaublich, was wir da auf die Beine gestellt haben. Es tut mir echt leid um die Leute.
Wichtig ist sie natürlich schon, aber wer redet denn wirklich noch miteinander? Kann mir das mal jemand sagen? Ich sehe nur noch die Leute am Handy und SMS schreiben. Dann chatten sie noch aber reden tut von Angesicht zu Angesicht keiner mehr. Das ist aber genau das Problem. Ich glaube nämlich, wenn wir das tun würden wäre unsere Welt viel besser. Aber leider wird das Reden immer weniger. Leider. Ich hoffe aber, dass die Leute wieder dazu zurück finden.
Schöner Beitrag. Trauriges Thema.
Das Beispiel zeigt auf, dass mesnschliche Faktoren mehrheitlich die Ursache von Fehlern sind. Die NASA zeigt aber auch, dass man aus Fehlern lernen kann. Sie haben viel Forschung betrieben zum Thema Human Factor. Leider braucht es erst drastische Ereignisse, um das Sicherheitsdenken zu erhöhen. Das Gesundheitswesen ist in dieser Hinsicht der NASA, Luftfahrt und anderen HRO Jahrzehnte hinterher. Hier sternen 100 000e Patienten aufgrund vermeidbarer Fehler.