Zur psychologischen Dimension des Risikomanagements

Narren des Zufalls


Narren des Zufalls: Zur psychologischen Dimension des Risikomanagements News

Alles was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. Das Zitat stammt von dem französischen Philosophen, Mathematiker und Naturwissenschaftler René Descartes, dem Begründer des modernen frühneuzeitlichen Rationalismus. Allgemein verstehen wir unter der Wahrscheinlichkeit eine Einstufung von Aussagen und Urteilen nach dem Grad der Gewissheit (Sicherheit). Dieses Urteil über die Wahrscheinlichkeit ist ein Konstrukt, da die Realität permanent durch unsere höchst subjektiven Wahrnehmungen erschaffen wird. Unsere Risikowahrnehmung wiederum ist davon abhängig, was unsere Sinne zu einem Gesamtbild verdichten. Die Wirklichkeit und die Wahrheit über Risiken bleibt daher eine Illusion, da es in der Welt der Wahrnehmung kein "falsch" oder "richtig" geben kann.

Unser Wissen, unsere Emotionen, Moralvorstellungen, Moden, Urteile und Meinungen bestimmen das Risikokonstrukt. Was der eine als Risiko wahrnimmt, muss für den anderen noch lange kein Risiko sein. Des Weiteren basiert Risikowahrnehmung auf Hypothesen. Dadurch werden häufig für gleiche Risiken unterschiedliche Vermutungen und Theorien aufgestellt. Die Diskussion um die Risiken der Gentechnik ist ein Beispiel für die Subjektivität der (gesellschaftlichen) Risikowahrnehmung. Auf der einen Seite ist ein Widerstand als Protest gegen die Überwältigung durch Innovationsprozesse und basierend auf fundamental ethischen Einwänden zu beobachten. Auf der anderen Seite werden die Chancen in der Pflanzenzucht, Tierzucht, Lebensmittelindustrie und Medizin "wahrgenommen" [vgl. Romeike/Müller-Reichart 2008, S. 53 ff.]. Wahrnehmung wiederum wird durch einen Kontext, d. h. die Berücksichtigung der Raum- und Zeitperspektive, bestimmt. Es gibt keine Wahrnehmung ohne Zusammenhang. Die Wirklichkeit und die Wahrheit über Risiken muss daher eine Illusion bleiben. Denn in der Welt der Risikowahrnehmung gibt es kein "falsch" oder "richtig".

Vernachlässigung der Wahrscheinlichkeit führt zu Entscheidungsfehlern

Unser menschliches Gehirn ist unfähig mit Wahrscheinlichkeiten umzugehen – und trotzdem arbeiten wir in der Praxis des Risikomanagements mit Wahrscheinlichkeitsaussagen. Wir erstellen Risikolandkarten mit Aussagen zu Eintrittswahrscheinlichkeiten und fragen unsere Prozessverantwortlichen nach Wahrscheinlichkeiten für das Eintreten eines Risikos. Dabei sollten wir wissen, dass uns ein intuitives Verständnis für Wahrscheinlichkeiten fehlt. Beispielsweise treffen wir Anlageentscheidungen nicht selten nur an Hand der Renditeerwartungen. Und blenden dabei aus, dass Renditeerwartungen nur im Kontext der hiermit verbundenen Risiken zu beurteilen sind. In der Wissenschaft wird hierbei von "Neglect of Probability" (Vernachlässigung der Wahrscheinlichkeit) gesprochen [vgl. Rottenstreich/Hsee 2001, S. 185-190 sowie Kahneman 2011, S. 143 ff.]. Dies führt in der Praxis zu Entscheidungsfehlern und nicht selten auch zu mikro- oder makroökonomischen Krisen.

Die jüngste Finanz- und Währungskrise hat uns mehrfach den Beweis geliefert, dass Menschen kein natürliches Gefühl für Risiken haben – und daher diese lieber gleich komplett ausblenden. Unter anderem liefert die Ankerheuristik (engl. anchoring effect) aus der Kognitionspsychologie einen Grund [Vgl. Kahneman 2011, S. 119 ff.]. So haben vor allem Umgebungsinformationen selbst dann einen Einfluss auf die Einschätzung (von Risiken), wenn sie für die Entscheidung eigentlich irrelevant sind. Wir orientieren uns an einem willkürlichen "Anker": Risiko wird zu einem Konstrukt unserer Wahrnehmungen.

Milde und wilde Zufälligkeit

Risiken werden in der Unternehmenspraxis nicht selten falsch eingeschätzt. Neben der höchst subjektiven Wahrnehmung von Risiken sind auch methodische Schwächen im  Werkzeugkasten des Risikomanagements hierfür verantwortlich. So unterstellen nicht wenige Methoden eine "Normalverteilungshypothese" bzw. einen "Random-Walk" – was Benoît B. Bandelbrot [Vgl. Mandelbrot 2005] als Annahme einer "milden Zufälligkeit" im Gegensatz zur tatsächlichen "wilden Zufälligkeit" bezeichnet hat.  So konnte in Analysen nachgewiesen werden, dass nach dem Gauß’schen Modell ein Börsencrash – wie etwa im Oktober 1987 – nur einmal in 1087 Jahren eintreten dürfte [vgl. Romeike/Heinicke 2008]. Die empirische Beobachtung hat jedoch gezeigt, dass derartige Crashs etwa alle 38 Jahre passieren. Unternehmen, die sich auf die Normalverteilung und Modelle der geometrischen Brown‘schen Bewegung verlassen, blenden damit Risiken systematisch aus und werden irgendwann von der Realität überholt.

Noch immer berücksichtigen viele Risikomanagementsysteme zu wenig die empirischen Erkenntnisse, dass der Risikoumfang selbst volatil ist (GARCH-Prozess, generalized autoregressive conditional heteroscedasticity) und extreme Marktbewegungen wesentlich häufiger auftreten als dies der Standardansatz nahe legt. Die notwendigen Verfahren (beispielsweise aus der Extremwerttheorie bzw. aus dem Ansatz der pareto-stabilen Verteilungen) zur Beschreibung und Steuerung von Risiken haben bis heute in der Unternehmenspraxis nicht die notwendige Verbreitung gefunden. Entsprechend wurden die in letzter Zeit zu beobachtenden extremen Marktbewegungen von vielen Marktteilnehmern als so unwahrscheinlich eingeschätzt, dass diese keiner Beachtung wert wären.

Dieses Mal ist alles anders

Die Ökonomen Kenneth S. Rogoff und Carmen Reinhart haben das Phänomen der Unterschätzung von historischen Erfahrungen in ihrem Buch "This Time is Different: Eight Centuries of Financial Folly" [vgl. Rogoff/Reinhard 2009] empirisch untermauert. Der Kern des "Dieses Mal ist alles anders"-Syndroms ist einfach. Er besteht in der festen Überzeugung, dass Finanzkrisen nur anderen Menschen in anderen Ländern und zu anderen Zeiten passieren; jetzt, hier und bei uns kann es keine Krise geben. Wir machen alles besser, wir sind klüger, wir haben aus den Fehlern der Vergangenheit gelernt. Die alten Regeln der Bewertung haben ihre Gültigkeit verloren. Pure Selbstüberschätzung – wie uns eine Analyse der Ursachen und Verläufe der Finanzkrisen der vergangenen Jahrhunderte vor Augen führt. Rogoff und Reinhart haben in ihrem Buch Hunderte von Finanzkrisen der letzten acht Jahrhunderte in über 66 Ländern analysiert. Sie zeigen auf, dass sich allein in der Zeit seit 1800 rund 320 Staatsschuldenkrisen ereignet haben. Allein Frankreich kann zwischen 1558 und 1788 acht Staatsbankrotte verbuchen. Spanien kommt in dem Zeitfenster von 1557 bis 1647 auf sechs Staatspleiten. Damit widerlegen die Autoren die nicht selten anzutreffende These, dass Finanzkrisen vor allem ein Produkt der Gegenwart seien. Fazit der historischen und empirischen Untersuchung: Es gibt nichts Neues, außer dem, was vergessen wurde.

Die Subprime-Krise ist dafür ein Paradebeispiel. Langlaufende Asset Backed Securities (ABS) wurden an ein so genanntes "Conduit"  außerhalb der Bilanz verkauft, das sich über Commercial Papers (CPs) refinanzierte. Für den Fall, dass CPs aufgrund einer Marktstörung nicht mehr begeben werden könnten, stellte die Bank eine "Liquiditätslinie" – eine Eventualverbindlichkeit. Praktisch gingen alle Institute davon aus, dass dieser Fall sehr unwahrscheinlich war. Einige Banken aber hatten Liquiditätslinien in einer Größenordnung gestellt, die sie im Zweifel nicht bedienen konnten. Mathematisch ausgedrückt, sie hatten ihnen eine Eintrittswahrscheinlichkeit von 0 zugeordnet – unter Normalverteilungsannahme wahrscheinlich sogar vertretbar, in einer Realität mit extremen Marktbedingungen tödlich.

Ergänzend ist zu beachten, dass im Allgemeinen in den Risikomodellen unterstellt wird, dass "Gewissheit" besteht über die quantitative Beschreibung der Risiken (etwa die Parameter der Wahrscheinlichkeitsverteilung). Tatsächlich ist (etwa aufgrund der Begrenztheit historischer Daten) die Risikomodellierung selbst unsicher, es existieren Wahrscheinlichkeitsverteilungen zweiter Ordnung, beispielsweise weil für Modellparameter nur Bandbreiten und keine exakten Werte ermittelbar sind.

Unscharfe Trennung zwischen Können und Glück  

Zimmermann [Vgl. Zimmermann 2008] weist zu Recht darauf hin, dass eine scharfe Trennung zwischen Wissen und "Rauschen" (noise), oder Können und Glück, sich im Finanzbereich auf den gewohnten statistischen Konfidenzniveaus nicht vollziehen lässt.  Dabei wird der Selektionsprozess des Erfolgreichen (survivorship bias) übersehen, wonach in einem System, welches rein zufällig eine breite Verteilung von Erfolg und Misserfolg erzeugt, durch Selbstselektion stets nur der Erfolg überlebt und damit nur der Erfolg sichtbar ist.

Besonders kritisch mit der grundsätzlichen Aussagefähigkeit von Modellen in Sozialwissenschaften, speziell auch in der Volkswirtschaft und im Risikomanagement, befasst sich Taleb [vgl. Taleb 2008]. Er verweist auf die herausragende Bedeutung sehr seltener und nahezu unvorhersehbarer Einzelereignisse für die Entwicklung der Gesellschaft und insbesondere auch der Wissenschaft. Derartige außergewöhnliche Einzelereignisse, die er "Schwarzen Schwan" (Black Swan) nennt, sind "Ausreißer", die außerhalb des üblichen Bereichs der Erwartung liegt, da in der Vergangenheit nichts Vergleichbares geschehen ist.

Taleb behauptet, dass wir systematisch die schmerzhaften Folgen von Extremereignissen unterschätzen. Talebs Analyse ist einfach und schlicht: Wir denken in schlüssigen Geschichten, verknüpfen Fakten zu einem stimmigen Bild, nehmen die Vergangenheit als Modell für die Zukunft. So schaffen wir uns eine Welt, in der wir uns zurechtfinden. Aber die Wirklichkeit ist anders: chaotisch, überraschend, unberechenbar.

Taleb glaubt, dass die meisten Menschen "schwarze Schwäne" ignorieren, weil es für uns angenehmer ist, die Welt als geordnet und verständlich zu betrachten. Taleb nennt diese Blindheit "platonischer Fehlschluss" und legt dar, dass dies zu drei Verzerrungen führt [Vgl. Romeike 2009]:

  1. Erzählerische Täuschung (narrative fallacy): Das nachträgliche Schaffen einer Erzählung, um einem Ereignis einen erkennbaren Grund zu verleihen.
  2. Spieltäuschung (ludic fallacy): Der Glaube daran, dass der strukturierte Zufall, wie er in Spielen anzutreffen ist, dem unstrukturierten Zufall im Leben gleicht. Taleb beanstandet Modelle der modernen Wahrscheinlichkeitstheorie wie den Random Walk.
  3. Statistisch-regressive Täuschung (statistical regress fallacy): Der Glaube, dass sich das Wesen einer Zufallsverteilung aus einer Messreihe erschließen lässt.


Schiffbauer bauen ihre Schiffe für Stressszenarien

Diese Erkenntnis ist nicht neu: Bereits Benoît B. Mandelbrot kritisierte seit Jahrzehnten viele traditionelle Risikomodellierungsansätze, da sie die Realität nur sehr eingeschränkt abbilden würden. Basierend auf seinen Analysen sind die meisten Risikomodelle der Banken und Versicherungsunternehmen blind für Extremereignisse. Dies hänge vor allem damit zusammen, dass viele Modelle auf der Annahme der Normalverteilung basieren. Mandelbrot weist darauf hin, dass Risiken falsch gemessen werden [vgl. Mandelbrot 2004, S. 52]:

"Jahrhunderte hindurch haben Schiffbauer ihre Rümpfe und Segel mit Sorgfalt entworfen. Sie wissen, dass die See in den meisten Fällen gemäßigt ist. Doch sie wissen auch, dass Taifune aufkommen und Hurrikane toben. Sie konstruieren nicht nur für die 95 Prozent der Seefahrttage, an denen das Wetter gutmütig ist, sondern auch für die übrigen fünf Prozent, an denen Stürme toben und ihre Geschicklichkeit auf die Probe gestellt wird. Die Finanziers und Anleger der Welt sind derzeit wie Seeleute, die keine Wetterwarnungen beachten."

Extreme Ereignisse sind oft das Resultat (nicht skalierbarer) Verstärkungseffekte, wie sie sich gerade bei vielen ökonomischen Phänomenen zeigen. Das Phänomen der Schwarzen Schwäne ist außerdem eng verbunden mit dem grundlegenden (philosophischen) Problem der Induktion, also dem Schließen von (endlichen) Vergangenheitsdaten auf die Zukunft. Es besteht immer das Problem, dass möglicherweise sehr relevante Extreme (aber seltene) Ereignisse im betrachteten Vergangenheitszeitraum nie eingetreten sind.

Wären diese Ereignisse eingetreten, hätten sie auf Grund ihrer außerordentlichen Höhe jedoch erhebliche Auswirkungen beispielsweise auf die Schätzung der Erwartungswerte aber auch des Risikos (etwa der Standardabweichung) der betrachteten Größe. Ein wesentliches Problem bei statischen Daten der Vergangenheit ist die Zirku-larität der Statistik [Vgl. Taleb 2008, S. 369]. Die Hypothese über Wahrscheinlichkeitsverteilung wird getestet auf Grundlage von (endlichen) Daten. Notwendig ist es dabei zu wissen, wie viel Daten erforderlich sind, um ein Anpassungstest bezüglich einer bestimmten Wahrscheinlichkeitsverteilung vorzunehmen. Um allerdings die notwendige Menge an statistischen Daten beurteilen zu können, ist wiederum die Annahme einer bestimmten Wahrscheinlichkeitsverteilung (oft der Normalverteilung) erforderlich. Damit tritt eine Zirkularität auf.

Man erkennt hier die unmittelbare Nähe zum wissenschaftlichen Falsifikationismus-Prinzip in Poppers kritischen Rationalismus. Dem zu Folge sind auf Grund empirischer Daten abgeleitete Erkenntnisse immer als vorläufige (ggf. bewährte) Hypothesen aufzufassen. Der wissenschaftliche Fortschritt resultiert damit primär aus dem Versuch eine derartige Hypothese zu verwerfen (zu falsifizieren).  In der Praxis gehen Menschen jedoch meist umgekehrt vor und gerade die psychologische Forschung zeigt, dass Menschen insbesondere versuchen, eine vorhandene Meinung (ein Vorteil) durch zusätzliche Daten abzusichern bzw. sogar gezielt nur diejenigen Informationen zu Kenntnis zu nehmen, die ihre eigene bestehende Einschätzung unterstützen.

Neben der Sensibilisierung für die Bedeutung solcher seltenen Extremereignisse, die in der Statistik den "Fat Tails" von Wahrscheinlichkeitsverteilungen zugeordnet sind, möchte Taleb vor allem auf ein psychologisches Phänomen hinweisen: Alle Menschen neigen dazu, sich so zu verhalten, als würde es derartige seltene Extremereignisse nicht geben.  Dies gilt sowohl für das individuelle Verhalten als auch für Unternehmen, die beispielsweise im Rahmen ihrer Risikomanagementsysteme gerade die hier an sich besonders zu betrachtenden Extremereignisse schlicht ignorieren, beispielsweise durch die Verwendung der Hypothese normalverteilter Ergebnisse, die im direkten Widerspruch zur Existenz "Schwarzer Schwäne" steht. Taleb bezeichnet es sogar als "großen intellektuellen Betrug", dass die Menschen, aber auch die Wissenschaft und die Unternehmenspraxis, sich primär mit den typischen und normalen Entwicklungen befassen, die beispielsweise durch die Normalverteilung erfasst werden, aber die für die Entwicklung tatsächlich besonders maßgeblichen "Extremereignisse" systematisch vernachlässigt oder komplett ignoriert werden.  

Klarstellend ist hier zu erwähnen, dass auch Extremereignisse unter Umständen statistisch in gewissem Rahmen vorhersehbar sind – und damit keine Schwarzen Schwäne darstellen. Aber auch bei der Vorhersage solcher "grauen Schwäne", mit denen sich beispielsweise die statistische Extremwerttheorie [Vgl. Gumbel  1958] befasst, sind völlig andere Verfahren erforderlich, als die Statistik auf Basis der Normalverteilungshypothese. Eingesetzt werden hier beispielsweise Pareto-Verteilungen.

Neu ist die Kritik an Grenzen der Statistik nicht. Bereits im Jahr 1889 kritisierte der britische Naturforscher und Schriftsteller Francis Galton die Statistikerzunft mit der folgenden Aussage [Vgl. Galton 1889]: "It is difficult to understand why statisticians commonly limit their inquiries to Averages, and do not revel in more comprehensive views. Their souls seem as dull to the charm of variety as that of the native of one of our flat English counties, whose retrospect of Switzerland was that, if its mountains could be thrown into its lakes, two nuisances would be got rid of at once. An Average is but a solitary fact, whereas if a single other fact be added to it, an entire Normal Scheme, which nearly corresponds to the observed one, starts potentially into existence.”

Fazit und Ausblick

Viele Risikomanager konstruieren ihr Risikomanagement so, als gäbe es nur Sonnentage und keinerlei Schlechtwetterwarnungen. Das Risikomanagement muss sich zukünftig  stärker mit Extremszenarien beschäftigen. Als ergänzende Ansätze zur statistischen Fortschreibung von Vergangenheitsdaten bei der Quantifizierung von Risiken verweisen Heri und Zimmermann  [Vgl. Heri/Zimmermann 2000] insbesondere auf

  • "Risk Histories", also die Analyse historischer Szenarien mit spezifischen Abfolgen verbundener Risiken,
  • Soziotope, also die Identifikation spezifischer Rahmenbedingungen, die besondere Risiken und negative Ereignisse auslösen können,
  • Wissensmanagement, da Risiken häufig durch mangelndes Wissen und mangelnde Institutionalisierung von Systemen entstehen, ist es erforderlich, Wissen systematisch aufzubauen und "Verhaltensrisiken" zu berücksichtigen.  


Das Risikomanagement muss sich auf das konzentrieren, was für das Unternehmen wirklich zu Krisen führen kann. Und es muss vermieden werden, bei der Bildung von Risikomodellen den größten Teil des Risikos – nämlich die Möglichkeit der Modellfehler und Datenunsicherheiten – schon a priori wegzudefinieren. Kreditinstitute benötigen Risikomodelle und Risikobewältigungsstrategien, die auf extreme Krisenszenarien ausgerichtet sind und nicht solche, die nur dann gut funktionieren, wenn Risiken lediglich moderat sind.

Die Kritik an den existierenden Werkzeugen im Risikomanagement ist kein Argument gegen Risikomodelle, die unvermeidlich sind, sondern ein Argument für die Weiterentwicklungen – viele Schwächen der in der Praxis üblichen Modelle sind seit langem bekannt. So ist die Krise eine Chance auf einen ernsthaften Fortschritt im Risikomanagement.

Quellenverzeichnis sowie weiterführende Literaturhinweise:

Descartes, René [1637]: Discours de la méthode pour bien conduire sa raison et chercher la vérité dans les sciences (deutsch: Abhandlung über die Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Wahrheitsforschung), 1637.

Francis Galton, Francis [1889]: Natural Inheritance, Macmillan 1889.

Gleißner, Werner/Romeike, Frank [2008]: Analyse der Subprime-Krise: Risikoblindheit und Methodikschwächen, in: RISIKO MANAGER, 21/2008, S. 8-12.

Gumbel, Emil Julius [1958]: Statistics of extremes, Columbia University Press, New York 1958.

Heri, Erwin W./Zimmermann, Heinz [2000]: Grenzen statistischer Messkonzepte für die Risikosteuerung, in: Schierenbeck, H./Rolfes, B./Schüller, S. (Hrsg.): Handbuch Bank-Controlling, Gabler Verlag, Wiesbaden 2001, S. 995-1014.

Kahneman, Daniel  [2011]: Thinking Fast and Slow, Penguin Books, Allen Lane 2011.

Mandelbrot, Benoît B. [1963]: The Variation of Certain Speculative Prices. Journal of Business, 36, S. 394-419.

Mandelbrot, Benoît B. [2004]: Fraktale und Finanzen – Märkte zwischen Risiko, Rendite und Ruin, München, Piper Verlag.

Mandelbrot, Benoît B. [2005]: (Mis)behaviour of Markets: A Fractal View of Risk, Ruin and Reward, London.

Rogoff, Kenneth S./Reinhart, Carmen [2009]: This Time is Different: Eight Centuries of Financial Folly, Princeton University Press, Princeton 2009.

Romeike, Frank [2009]: Die 3 "M": Aktuelle Herausforderungen für das Risikomanagement von Versicherungsunternehmen, in: Mannheimer Vorträge zur Versicherungswissenschaft (Hrsg.: Institut für Versicherungswissenschaft der Universität Mannheim), Verlag Versicherungswirtschaft, Karlsruhe 2009.

Romeike, Frank [2010]: Bankenkrise - Ursachen und Folgen im Risikomanagement, Bank-Verlag Medien, Köln 2010.

Romeike, Frank/Heinicke, Frank [2008]: Schätzfehler von "modernen" Risikomodellen, in: FINANCE, Heft 2/2008.

Romeike, Frank/Müller-Reichart, Matthias [2008]: Risikomanagement in Versicherungsunternehmen - Grundlagen, Methoden, Checklisten und Implementierung, 2. Auflage, Wiley-VCH, Weinheim 2008.

Romeike, Frank/Hager, Peter [2013]: Erfolgsfaktor Risikomanagement 3.0: Lessons learned, Methoden, Checklisten und Implementierung, 3. Überarbeitete, Auflage, Springer Verlag, Wiesbaden 2013 [erscheint im ersten Quartal 2013].

Rottenstreich, Yuval/Hsee, Christopher K. [2001]: Money, kisses, and electric shocks: on the affective psychology of risk, in: Psychological Science, Vol. 12, No. 3, Mai 2001, S. 185-190.

Taleb, Nassim Nicholas [1997]: Dynamic Hedging: Managing Vanilla and Exotic Options, John Wiley & Sons, New York 1997.

Taleb, Nassim Nicholas [2007]: Black Swan and Domains of Statistics, in: The American Statistician, August 2007, Vol. 61, No. 3.

Taleb, Nassim Nicholas [2008]: Narren des Zufalls: Die verborgene Rolle des Glücks an den Finanzmärkten und im Rest des Lebens, Wiley-VCH, Weinheim 2008.

Taleb, Nassim Nicholas [2008]: Der schwarze Schwan: Die Macht höchst unwahrscheinlicher Ereignisse, Hanser Wirtschaft, München 2008.

Zimmermann, H. [2008]: Risiko und Repräsentation – Über Krisen des Finanzsystems, in: Strebel-Aerni, B. (Hrsg.): Standards für nachhaltige Finanzmärkte, Schulthess Juristische Medien AG, Zürich 2008.


Autor:

Frank Romeike, Geschäftsführender Gesellschafter RiskNET GmbH, Mitglied des FIRM-Beirats sowie verantwortlicher Chefredakteur der Zeitschrift RISIKO MANAGER.


[Der Artikel ist erschienen in: Jahrbuch 2013 des Instituts für Risikomanagement und Regulierung (FIRM), S. 137 bis 139; Bildquelle oben: © alphaspirit - Fotolia.com]

Kommentare zu diesem Beitrag

marcus /06.08.2013 15:07
Menschen haben für Risiko keine Sensorik ... und die Risikowahrnehmung ist ein Urteilsprozess, der zahlreichen Bewertungen und Verzerrungen unterliegt.
Sabine /06.08.2013 09:46
Sehr guter Beitrag ... diese kognitive Seite des Risikomanagements wird leider in der Praxis viel zu häufig ausgeblendet. Dabei sind Risiken doch nichts anderes als ein Konstrukt unserer Wahrnehmungen ...
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.