Alles im Griff? (Teil 2 von 4)

Risikomaße bieten den Nährboden für "unknown unknowns"


Risikomaße bieten den Nährboden für "unknown unknowns" News

Dass das Denkmuster der "hypothesengerechten Informationsauswahl" (vgl. Teil 1 dieser Serie) tatsächlich auch im Risikomanagement geschehen kann (und nicht nur bei einem amerikanischen Gelegenheitsbankräuber), zeigte sich im März dieses Jahres im japanischen Fukushima.

Ein Erdbeben, dem ein Tsunami nachfolgte, überschritt die Auslegungsgrenzen des Atomkraftwerks Fukushima I und führte zum Super-GAU. Bundesumweltminister Röttgen sagte dazu in der ARD, dass im betroffenen AKW nach dem Erdbeben etwas eingetreten sei, "von dem gesagt worden ist, dass es nicht eintreten kann". [Tagesschau.de, 2011]

Es stellt sich jetzt die Frage, ob die Kombination aus Erdbeben und Tsunami von den Planern wirklich nicht hätte vorhergesehen werden können. Schließlich werden Tsunamis von Erdbeben ausgelöst.

Seit der Inbetriebnahme der einzelnen Kraftwerksblöcke (Block 1: 1971 bis Block 6: 1979) wurden in Japan zwei Tsunamis mit einer Wellenhöhe von mehr als 10 Metern registriert [A3M Mobile Personal Protection GmbH 2011], man kann beim aktuellen Tsunami also wirklich nicht von einem Jahrhundert-Ereignis sprechen: Der Tsunami vom Mai 1983 erreichte eine Wellenhöhe von 14,5 Metern. Im Juli 1993 erreichte ein Tsunami im japanischen Meer gar eine maximale Höhe von 31,7 Metern.

In diesem Licht betrachtet, liest sich die Präsentation der japanischen Nuclear and Industrial Safety Agency (NISA) sowie der Japan Nuclear Energy Safety Organization (JNES) vom 4. April 2011 erschreckend [Nuclear and Industrial Safety Agency 2011]. Die Reaktor- und Turbinenräume von Fukushima I lagen zwar auf einer Betonplatte oberhalb des Meeresspiegels, allerdings befanden sich die Räume für die Dieselgeneratoren (die den Notstrom liefern sollten) auf der Seeseite, also im Wirkungsbereich eines Tsunamis. Auch Luhmann benennt als beitragende Ursachen:

"(i) Die dem Tsunami-Risiko nicht adäquate Anordnung der (zudem nicht gebunkerten) Dieselaggregate auf der Meerseite,
(ii) die nicht geschützte Anordnung der Not- und Nachkühlsysteme." [Luhmann 2011]

Man ging offensichtlich davon aus, dass die Planungen für die sicherheitstechnischen Anforderungen ausreichend seien. Informationen, die nicht den Hypothesen (den vermuteten Sicherheitsanforderungen) entsprachen, wurden nicht in die Planungen einbezogen.

Dass sie Opfer hypothesengerechter Informationsauswahl geworden waren, mussten im Jahr 2008 auch Privatanleger in Deutschland erkennen: "Die Deutschen müssen plötzlich sehen, dass auch vor der eigenen Haustür eine Großbank pleitegehen kann. [...] Findige Bankberater [...] hätten unwissenden Kunden Lehman-Brothers-Zertifikate angedreht. Die meisten Käufer hätten gar nicht begriffen, wessen Gläubiger sie da plötzlich waren – schließlich hatte die Hausbank vermittelt. Noch viel weniger bekannt war offenbar, dass im Fall einer Lehman-Pleite das Ersparte weg sein könnte – und dass die Anlage Zertifikat hieß." [Siemens 2008] Das bedeutete einen Paradigmenwechsel: Etwas, was bis dahin undenkbar schien, war eingetreten.

Dieser Mechanismus verdient eine genauere Betrachtung: Grundsätzlich kann man sich der Tatsache, dass man etwas nicht weiß, bewusst sein oder auch nicht.

Im ersten Fall handelt sich um ein "known unknown" – man weiß etwas nicht, ist sich aber wenigstens dieser Tatsache bewusst. Ein Polizist, der während eines Amoklaufs in ein Gebäude stürmt, kann sich der Tatsache bewusst sein, dass er nicht weiß, mit wie vielen Tätern er es zu tun hat und wie gefährlich sie sind. Das Wissen um die eigene Unsicherheit macht ihn paradoxerweise sicherer – denn er weiß um die Möglichkeit von negativen Überraschungen.

Gefährlicher ist es, wenn man etwas nicht weiß, sich dieser Tatsache aber überhaupt nicht bewusst ist. Dies führt zu einem "unknown unknown" [Sowell 2011], das den Nährboden für unerwartete Paradigmenwechsel bildet. Beispiel dafür wäre ein Polizist, der zu einer nicht sonderlich gravierend erscheinenden Ruhestörung gerufen wird, sich aber unerwartet in einem Familiendrama dem bewaffneten Ehemann gegenüber sieht, der ohne Vorwarnung auf ihn zustürmt.

"Unknown unknowns" zeigen: Es ist nicht nur wichtig, zu wissen, was man weiß – sondern auch ein Bewusstsein dafür zu entwickeln, wo die Grenzen des eigenen Wissens liegen. Dies bedeutet einen bewussten Umgang damit: Ein Management des eigenen Nichtwissens. Risikomaße bieten diesbezüglich eine trügerische Sicherheit: Sie gaukeln vor, ein Risiko relativ exakt fassen zu können und bieten den Nährboden für "unknown unknowns".

Die Konstruktion des Risikos

"Das Risiko ist kein Troll, der in den Büschen sitzt und darauf wartet, bis jemand vorbei kommt und seine Größe misst", so ein unbekannter Autor. Simpson [Simpson1996] weist darauf hin, dass die Wahrnehmung von Gefahr und Sicherheit nicht von der direkten Beobachtung der Umwelt herrühren – im Gegenteil: Sie sind Ergebnis einen "psychologischen Konstruktionsprozesses", bei dem aus Wahrnehmungsprozessen, vorhandenem Wissen,  Sozialisationserfahrungen, gemeinsamen Normen und nicht zuletzt auch Gefühlen und Motivationen eine Realität konstruiert wird.

Im Mittelalter empfanden die Menschen die Pest als eine Strafe Gottes. Diese Ursachenzuschreibung führte dazu, dass viele Menschen sich in ihr Schicksal ergaben und nicht versuchten, sich vor der Pest zu schützen. Stattdessen versuchten sie Gott durch Buße milde zu stimmen.

Der italienische Arzt Girolamo Fracastoro verfasste im 16. Jahrhundert eine Monographie, die den Übertragungsmechanismus der Pest beschrieb [Bernauer 2005].  In der Schrift "De contagionibus et contagiosis morbis et eorum curatione libri III" ging er bereits 1546 davon aus, dass Krankheitssamen ("Seminaria") durch unmittelbaren zwischenmenschlichen Kontakt, indirekten Kontakt (Gegenstände, Kleidung) oder über Distanzen durch die Luft übertragen werden konnten. Jedoch konnte sich diese Sichtweise noch nicht durchsetzen.

Europa stand erst kurz vor bzw. am Beginn der Aufklärung und man kann sich leicht vorstellen, dass eine Öffentlichkeit in dieser Zeit, (die überzeugt ist dem Zorn Gottes ausgesetzt zu sein) eine andere Erklärung nur sehr schwer in Erwägung ziehen wird.

Ebenso, wie das Weltbild von Galileo Galilei als Beleidigung empfunden wurde, dürfte es von den Menschen als Beleidigung empfunden worden sein, nicht von Gottes Zorn dezimiert zu werden. Dies entsprach nicht der allgemeinen Vorstellung der Machtverhältnisse: Nicht Gott, der Allmächtige, sollte die Völker dezimieren, sondern viel kleinere Bakterien, die durch Ihre Wirtstiere (Ratten) in Europa verbreitet wurden? Das war eine Hypothese, die nicht in Erwägung gezogen wurde. Nachdem in der heutigen Zeit Wissenschaftler und Öffentlichkeit das Risiko anders definiert haben (nun sind Bakterien als Überträger bekannt) wird nach der neuen Definition der Realität gehandelt.

Psychologische Aspekte beeinflussen die Definition eines Risikos

Tragisch an diesem Mechanismus ist, dass sich Menschen, die sich ein bestimmtes Risiko nicht vorstellen können oder wollen, unbewusst selbst daran hindern es zu erkennen. Es war im Mittelalter einfach nicht sozial akzeptiert als Ursache einer Epidemie etwas anderes zu vermuten als Gott. Dies zeigt, wie psychologische Aspekte an der Definition eines Risikos mitwirken. Dazu ein weiteres Beispiel aus der jüngeren Geschichte:

Nach den Explosionen im AKW Fukushima I wurden Rettungskräfte, unter anderem von der Feuerwehr Tokyo, auf das Gelände entsandt. Normalerweise gilt für Personen, die aus beruflichen Gründen Strahlung ausgesetzt sind, ein Grenzwert von 50 mSv pro Jahr [TEPCO 2011].

In von TEPCO als "gewöhnlich" bezeichneten nuklearen Notfallszenarien ("emergency cases - ordinary") existiert für diese Personen ein Grenzwert von 100 mSv. Beachtenswert ist hierbei die Kategorisierung eines nuklearen Notfalls als "gewöhnlich" – wo doch gerade der Begriff "Notfall" auf ein außergewöhnliches Geschehen verweist. Beim Unfall von Fukushima liegt darüber hinaus der erlaubte radiologische Grenzwert bei 250 mSv ("only Fukushima Daiichi case").

Die Gesundheitsrisiken bei einer Strahlenbelastung von 250 mSv waren für einen Menschen vor der Explosion von Fukushima I genauso hoch wie danach. Was sich aber in der Zwischenzeit geändert hatte, war die gesellschaftliche Definition des Risikos: Angesichts der Möglichkeit, dass die Ruine von Fukushima I die Region weiter kontaminieren könnte, war das primäre Risiko nicht mehr die Sicherheit der Arbeiter, sondern der Schutz der Region und Japans. Dies ist Beleg dafür, dass Risiken soziale und psychologische Konstruktionen sind und nicht so objektiv gemessen werden können, wie es statistische Wahrscheinlichkeitsdaten suggerieren.
 

Autor:

Dipl.-Psych. Johannes Wadle

 

Teil 1 "Psychologische Einflussfaktoren im Risiko- und Krisenmanagement"
Teil 3 "Von der Illusion der Risikokontrolle"
Teil 4: Psychologische "Stolpersteine" im Krisenmanagement

 

Quellenverzeichnis sowie weiterführende Literaturhinweise:

ARTE (2010): Amerikas Alptraum, gesendet bei ARTE, 2.5.2011, Sendezeit 19 Uhr.

A3M Mobile Personal Protection GmbH (Hrsg.):

www.tsunami-alarm-system.com/phaenomen-tsunami/vorkommen-pazifischer-ozean.html

, abgerufen am 6.5.2011.

Bernauer, M. et al. (Hrsg. / 2005): Wilhelm Heinse. Band III: Kommentar zu Band I, Carl Hanser Verlag, München 2005, S. 75.

Charles, M. T. (1989): The Last Flight of Space Shuttle Challenger, in: Rosenthal, U., Charles, M.T. & Hart P.T. "Coping with Crises: The Management of Disaster, Riots and Terrorism”, 1989, Charles C. Thomas (Hrsg.), Springfield, Illinois.

Dekker, S (2005): Why we need new accident models, Technical Report 2005-02, Lund University School of Aviation, Lyungbyhed, Sweden, 2005.

Dörner, D. (2002): Die Logik des Misslingens – Strategisches Denken in komplexen Situationen, Rohwohlt Verlag, 15. Auflage, Hamburg 2002.

Fuoco, M. (1996): Trial and error: They had larceny in their hearts, but little in their heads, Pittburgh Post-Gazette vom 21. März 1996.

Graw, A. (2011): Republikaner lassen Verhandlungsführer auflaufen, abgerufen am 30. Juli 2011 unter

www.welt.de/politik/ausland/article13514306/Republikaner-lassen-Verhandlungsfuehrer-auflaufen.html



Luhmann, H.-J. (2011): Fukushima-Ablauf in Kürze und die Frage nach dem (kernenergiespezifischen) Grund, Entwurffassung vom 5. 5. 2011.

Moorhead, G., Ference, R., Neck, C.P (1991): Group decision fiascoes continue: Space Shuttle Challenger and a revised groupthink framework, in:  Human Relations, Vol. 44, No. 6, 1991.

N.N. (2011): Es ist todernst – Wieder ein Patt im Schuldenstreit", abgerufen am 30. Juli 2011 unter

www.n-tv.de/wirtschaft/Wieder-ein-Patt-im-Schuldenstreit-article3938151.html



Nuclear and Industrial Safety Agency (2011): The 2011 the Pacific coast of Tohuku Pacific Earthquake and the seismic damage to the NPPs vom 4. April 2011, abgerufen am 6.5.2011 unter

www.nisa.meti.go.jp/english/files/en20110406-1-1.pdf



Rasmussen, J. (1997): Risk management in a dynamic society: a modelling problem, Safety Science Vol. 27, No 2 / 3, S. 183 – 213, Elsevier Science Ltd, 1997.

Schaub, H. (2006): Störungen und Fehler beim Denken und Problemlösen, abgerufen am 7.5.2011 unter

www.psychologie.uni-heidelberg.de/ae/allg/enzykl_denken/Enz_09_Schaub.pdf



Siemens, A. (2008): Finanzkrise 2008 - Eskalationsstufe 4: Tage der Angst, abgerufen am 30. Juli 2011 unter

www.focus.de/finanzen/boerse/finanzkrise/tid-12957/finanzkrise-2008-eskalationsstufe-4-tage-der-angst_aid_357720.html



Simpson, R. (1996): Neither clear nor present: The social construction of safety and danger, Sociological Forum Vol. 11, No. 3, 1996.

Sowell, T. (2011): Unknown unknowns, abgerufen am 30. Juli 2011 unter

townhall.com/columnists/thomassowell/2011/07/13/unknown_unknowns



Steinlein, C. (2009a): Flugunfälle: Alles eine Frage der Statistik, abgerufen am 10.6.2011 unter

www.focus.de/wissen/wissenschaft/aeronautik/tid-14453/flugunfaelle-alles-eine-frage-der-statistik_aid_405213.html



Steinlein, C. (2009b): Flugunfälle: Mit Statistik lügen, abgerufen am 10.6.2011 unter

www.focus.de/wissen/wissenschaft/aeronautik/tid-14453/flugunfaelle-mit-statistik-luegen_aid_405219.html



Tagesschau.de (2001):

www.tagesschau.de/inland/atomdebatte110.html

, abgerufen am 6.5.2011.

Tokyo Electric Power Company (TEPCO), 18. April 2011: "The Great East Japan Earthquake and current status of nuclear power stations", abgerufen am 6.5.2011 unter

www.tepco.co.jp/en/nu/fukushima-np/f1/images/f12np-gaiyou_e.pdf



Watzlawick, P (1995): Die erfundene Wirklichkeit – Wie wissen wir, was wir zu wissen glauben? Beiträge zum Konstruktivismus, 9. Auflage Piper Verlag, München 1995.

 

 

[Bildquelle: iStockPhoto]

Kommentare zu diesem Beitrag

Fred /10.08.2011 16:28
Sehr gelungener Text, der das Thema Risk Management mal aus einer anderen Perspektive betrachtet. Die meisten "Unknown unknowns" sind jedoch alles andere als unbekannte Unbekannte (auch das zitierte Beispiel passt da nicht so richtig). Viele Szenarien sind nicht unwahrscheinlich - wir blenden sie jedoch gerne aus, da möglichweise die Eintrittswahrscheinlichkeit sehr niedrig ist.
Axel /11.08.2011 12:24
Zitat zum Teil 1: "In Bezug auf die Verantwortung der USA für die Weltwirtschaft kritisierte der Präsident des Bundesverbands Großhandel, Außenhandel, Dienstleistungen (BGA), Anton Börner: "Dagegen verstoßen sie massiv. Man kann nicht aus wahltaktischen Spielchen heraus die ganze Weltwirtschaft, das ganze Finanzsystem so an den Abgrund heranführen. Da habe ich null Verständnis, da bin ich sprachlos. So kann man nicht mit der Weltgemeinschaft umspringen."

Treffer!! Mit fast dem gleichen Wortlaut hatte die Ratingagentur S&P die USA down-geratet.(siehe www.tagesschau.de)

Mit freundlichen Grüßen
A.K.
Jo /12.08.2011 09:06
Klasse Text ... Glückwunsch - passt sehr gut zu den aktuellen turbulenten Zeiten ;-(
Johannes /15.08.2011 16:57
@ Fred
@ Andreas

Hallo,

danke für die Komplimente (und auch Dank an alle anderen für das Feedback).

Ich stimme zu, dass der Verweis auf die unk-unks diffenzierter hätte werden können. Allerdings wäre dann leider auch aus dem vierteiligen Artikel ein zehnteiliger geworden – da ist eben immer die Frage, wo man anfängt und wo man aufhört. Ich fand die vier Teile schon recht gewagt und da ich vielleicht nochmal einen Artikel auf RiskNET schreiben möchte habe ich es vorgezogen, die Leser nicht zu Tode zu ärgern.

Nein, dass Sie Taleb vermissen ist kein Zufall. Das Ziel des Artikels war es, zu beleuchten, dass vermeintlich objektive Maße von subjektiven Einflüssen verzerrt werden, ohne dass man es merkt - weil man sich auf oberflächliche Kriterien verlässt. Da ich Taleb nicht besprechen könnte ohne den Artikel dann um mehrere Teile zu erweitern, habe ich darauf verzichtet. Es hätte mir ansonsten zu sehr den Anschein von Namedropping erweckt, und das hätte das Ziel des Artikels vollständig konterkariert und ad absurdum geführt.

Deshalb ist es natürlich auch kein Zufall, wenn Taleb in der Literaturliste fehlt, wenn ich mich im Text nicht auf ihn beziehe. Ich erkenne nicht, welchen Sinn das haben könnte.

Sie fragen, ob in der Artikelserie auch mein eigenes Nichtwissen Niederschlag findet?

Ja, ich gehe schwer davon aus.


Herzliche Grüße,

JW
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.