Von "Against the Gods" zu "Against the Odds"

Der Umgang mit Risiko im Wandel der Zeit


Der Umgang mit Risiko im Wandel der Zeit News

In den letzten Jahren scheint die Welt voller Risiken zu sein. Die Euro-Krise, die Staatsschuldenkrise, die Bankenkrise, aber auch Ereignisse wie der Atomunfall in Fukushima lassen die Zukunft bedrohlicher erscheinen als zuvor. Dabei stellt sich eine Reihe grundsätzlicher Fragen, von der Methodik der Risikomessung bis hin zu unserer Einstellung zu Risiken.

In seinem Buch "Against the Gods" beschreibt Peter Bernstein die Geschichte der Menschheit bei der Messung und im Umgang mit Risiken. Der Titel hebt darauf ab, dass die Menschen erst damit begannen, Risiken fundiert zu messen, als sie sich von der Vorstellung lösten, dass die Risiken von den Göttern gewollt oder zumindest dem Schicksal überlassen seien. Dies geschah zur Zeit der Aufklärung im 17. Jahrhundert in Europa. Versicherungen gegen Risiken wie Ernteausfall oder Schiffbruch gab es zwar schon zu Zeiten Hammurabis und auch durch die ganze Antike. So trat Kaiser Claudius persönlich ohne Begrenzung für Verluste durch Schiffbruch im Getreidehandel ein. Eine fundierte Bewertung der Risiken wurde aber nicht vorgenommen. Für das Schicksal waren eben die Götter verantwortlich – und der Kais.

Risikomessung und Aufklärung

Der erste große Schritt zu einem anderen Umgang mit Risiken war die Entwicklung der Wahrscheinlichkeitstheorie Mitte des 17. Jahrhunderts. Zunächst war dies getrieben vom Wunsch einiger Adeliger, den Ausgang von Glücksspielen zu kalkulieren, aus "Against the Gods" wurde so "Against the Odds". Die Franzosen Blaise Pascal und Pierre de Fermat berechneten erstmals die Gewinnwahrscheinlichkeiten in mehrperiodischen Spielen (mit dem "Pascalschen Dreieck"). Ihr Landsmann Antoine Arnauld wies darauf hin, dass die Furcht vor Schaden nicht nur von seiner Eintrittswahrscheinlichkeit abhängen, sondern auch proportional zum Ausmaß des Schadens sein solle – die erste Defi nition des "Value-at-Risk".

Der zweite große Schritt wurde dann Ende des 17. Jahrhunderts in England getan. John Graunt und Edmund Halley werteten offizielle Sterbeberichte aus und zogen daraus Schlüsse über die Zusammensetzung der lebenden Bevölkerung und über die Sterblichkeitsraten. Somit wurde die systematische Berechnung von Wahrscheinlichkeiten nicht mehr nur für Glücksspiele vorgenommen, sondern für größere Zusammenhänge in der Natur wie in der Wirtschaft. Bis dahin hatte man bei der Analyse von Entwicklungen des realen Lebens eher mit Heuristiken operiert.

Halley nutzte die Technik auch zur Prognose des Wiedererscheinens eines Kometen. Anwendung fanden die Ergebnisse von Graunt und Halley aber vor allem bei der Bewertung von Lebensversicherungspolicen. Ebenso war es nun auch möglich, die erwartete Rendite von Investitionen besser zu berechnen. Die industrielle Revolution und der Kapitalismus nahmen ihren Lauf.

Entwicklung statistischer Methoden

In den folgenden 150 Jahren wurden die eigentlichen Methoden zu einer fundierten Berechnung von Wahrscheinlichkeiten von Ereignissen aus Stichproben entwickelt, es entstand die Wissenschaft der Statistik. Jacob Bernoulli aus Genf beschrieb zu Beginn des 18. Jahrhunderts eine zentrale Bedingung für die Verlässlichkeit solcher Berechnungen, nämlich dass unter ähnlichen Bedingungen das Muster für das Auftreten eines Ereignisses in der Zukunft dasselbe sein muss wie das Muster seines Auftretens in der Vergangenheit. Unter dieser Annahme könnten Aussagen über das Auftreten von Ereignissen im realen Leben mit derselben Zuverlässigkeit gemacht werden wie über die Ergebnisse von Spielen.

Die Normalverteilung erobert die Welt

Anfang des 19. Jahrhunderts definierte Carl-Friedrich Gauss die Normalverteilung in einer Arbeit über Astronomie. Der Mathematiker und Politiker Pierre Laplace hatte zuvor den Satz vom zentralen Grenzwert bewiesen, der die Grundlage der theoretischen Bedeutung der Normalverteilung darstellt. Mitte des 19. Jahrhunderts stellte Gauss dann bei Landvermessungsarbeiten in Bayern fest, dass die Messfehler von Schätzungen dieser Normalverteilung folgten. Daraus entstand die Methodik zur Beurteilung der statistischen Zuverlässigkeit von Schätzungen, wobei die Unabhängigkeit der Beobachtungen eine weitere wichtige Vorbedingung war. Der Werkzeugkasten schien damit komplett.

Schon früh gab es allerdings auch Zweifel an der Allgemeingültigkeit dieser Methoden. Leibniz schrieb an Jacob Bernoulli, dass er bei Ereignissen in der Natur an die Existenz von Mustern glaube, auch zu einem größeren Teil, aber nicht immer. Beide benutzten daraufhin die Beschreibung "moralische Sicherheit" für eine hohe Mindestgenauigkeit der Schätzungen, der Begriff sollte wohl auch eine gewisse Zurückhaltung bei der Anwendung und Interpretation nahelegen. Laplace wiederum warnte vor der Neigung der Menschen, in Zufallsprozesse Muster hineinzuinterpretieren. Dennoch erfolgte im Verlauf des 19. Jahrhunderts eine immer breitere Anwendung statistischer Schätzungen.

Pro und Kontra im 20. Jahrhundert

Der Glaube an die Zuverlässigkeit beim Schätzen von Wahrscheinlichkeiten realer Ereignisse verminderte sich dann deutlich nach der Enttäuschung vieler Erwartungen durch den Ersten Weltkrieg. Frank Knight aus Chicago unterschied zwischen Risiken, die messbar sind und solchen, die nicht messbar sind, letztere bezeichnete er als "Unsicherheit". Er verneinte die Möglichkeit, auf Basis statistischer Analysen Prognosen machen zu können, da jedes Ereignis aufgrund der Beeinfl ussung durch eine Vielzahl von Menschen einzigartig sei.

Auch John Maynard Keynes verneinte die Anwendbarkeit der Wahrscheinlichkeitstheorie auf Prognosen von Ereignissen des realen Lebens und verwies dabei auf Leibniz. Anstelle von quantitativen Prognosen sprach er lieber von Überzeugungen in verschiedener Stärke, diese seien die Basis von Entscheidungen in einer unsicheren Welt. Dabei sei es die Aufgabe des Staates, durch Gesetzgebung oder andere Maßnahmen den Bereich der Unsicherheit zu verkleinern.

Im Aufschwung nach dem Zweiten Weltkrieg wurde diese Kritik vor allem in der Ökonomie und im Finanzmarkt verdrängt. Harry Markowitz entwickelte die Moderne Portfoliotheorie, Risiken am Finanzmarkt schienen messbar zu sein. Es folgten Modelle zur Bewertung von Unternehmen und auch von komplexen Risiken wie denen von Optionen durch Fischer Black und Myron Scholes. Und die moderne Informationstechnologie ermöglichte die Anwendung in der Praxis. Ökonomie und Finanzmärkte schienen vorhersehbar, alles folgte einer Normalverteilung, die Risikoprämien waren positiv und womöglich auch stabil.

Zurück zur "moralischen Sicherheit"?

Die Krisen der letzten Jahre haben diese Sicht nun wieder geändert. Extremereignisse treten deutlich häufiger auf als in Normalverteilungen, menschliche Entscheidungen und Verhaltensweisen sind stark abhängig voneinander und können nichtlineare Prozesse erzeugen. Dadurch werden statistische Schätzungen problematisch, Leibniz und Keynes hatten zumindest grundsätzlich recht.

Zwar sind die Methoden heute weiter entwickelt als zur Zeit von Keynes, dennoch ist die Sicherheit ihrer Aussagen über die Zukunft eben nicht von den Göttern der Mathematik vorgegeben. Bei Glücksspielen können wir die Verteilung der Ergebnisse und damit die Risiken vorhersagen. Die Ereignisse an Finanzmärkten werden aber laufend vom Handeln vieler Menschen beeinflusst, deshalb müssen wir die Genauigkeit und Stabilität der Messverfahren sehr kritisch betrachten. Vielleicht hilft deshalb der alte Begriff von der "moralischen Sicherheit" weiter, also eine weniger von Technik und Euphorie als von Zurückhaltung und Hinterfragen geprägte Auseinandersetzung mit Methoden und Ergebnissen.

Es ist aber nach wie vor anzustreben, den Bereich der Unsicherheit zugunsten dem der Messbarkeit zu verringern. Eine weitere Verbesserung der statistischen Verfahren ist deshalb heute wie vor 300 Jahren ein Ziel. Dies ist eine große Herausforderung; so ähneln die heute als große Innovation angesehenen Stresstests in der Art wie sie erstellt werden oft eher den Heuristiken, die eben vor der Entwicklung statistischer Verfahren eingesetzt wurden. Darum ist es jenseits von Wahrscheinlichkeitstheorie und Statistik auch notwendig, einen anderen Umgang mit den Risiken zu bewirken. Dies erfordert, wie schon von Keynes vorgeschlagen, mehr und bessere Regeln. Denn eine fundierte Bewertung der aus dem Handeln von Menschen entstehenden Risiken ist nur möglich, wenn diese sich an stabile Regeln halten – und sei es nur zum größeren Teil.

 
Über den Autor:

Dr. Peter König ist Geschäftsführer der DVFA – Deutsche Vereinigung für Finanzanalyse und Asset Management GmbHDr. Peter König ist Geschäftsführer der DVFA – Deutsche Vereinigung für Finanzanalyse und Asset Management GmbH, dem Berufsverband der Investment Professionals in Deutschland. Zuvor war er im Asset Management bei der Commerzbank und bei Morgan Stanley tätig.



 

 Download Jahrbuch 2013

Der Artikel ist im Jahrbuch 2013 von Frankfurt Main Finance erschienen. Das vollständige Jahrbuch können Sie hier herunterladen:

 

 

 

[Bildquelle oben: © fontriel - Fotolia.com]

Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.