Rezension

Regulatorische Anforderungen, Verfahren, Methoden und Prozesse

Modellrisiko und Validierung von Risikomodellen

Frank Romeike [Chefredakteur RiskNET]16.02.2017, 18:09

Über Modelle und die dahinter stehende Mathematik wurde in der Folge der jüngsten Finanz-, Banken- und Staatskrise viel mehr Unsinniges geschrieben und gesagt, als dass kenntnisreich über Sinn und Zweck diskutiert wurde. Der ehemalige französische Premierminister Michel Rocard nannte die Finanzmathematik ein "Verbrechen gegen die Menschheit". Nicht selten konnte man in den vergangenen Jahren – vor allem von Halb-, Nicht- und Besserwissenden – vernehmen, dass alle Modelle falsch seien und alle mathematischen Modelle komplett versagt hätten.

Hierbei stellt sich die Frage, ob Modelle die Krisen der vergangenen Jahrzehnte induziert haben. Richard M. Bookstaber, bei Salomon Brothers war er für das Risikomanagement zuständig und bei Morgan Stanley im Bereich quantitatives Research und Trading tätig, liefert in seinem Buch "A Demon of Our Own Design: Markets, Hedge Funds, and the Perils of Financial Innovation" eine mögliche Antwort: Nicht das Versagen der Mathematiker ist zu konstatieren. In der Finanzbranche legt die bedenkenlose und unsachgemäße Anwendung mathematischer Modelle den intellektuellen Nährboden für Krisen. Für Ökonomen werden nicht selten Veränderungen der Rahmenbedingungen durch nicht reproduzierbare wirtschaftliche Faktoren oder psychologische Momente (siehe Verhaltensrisiken) vernachlässigt, weil die Fiktion der Exaktheit von Kennzahlen (siehe bspw. die gar nicht so selten fehlerhafte Interpretation des Value at Risk) zur Sorglosigkeit durch Kontrollillusion führt.

Ein weiteres Argument für die wenig fundierte Kritik an Modellen liefern die beiden Ökonomen Kenneth Rogoff und Carmen Reinhart in ihrem Buch "This Time is Different: Eight Centuries of Financial Folly". Sie haben Hunderte von Finanzkrisen der letzten acht Jahrhunderte in über 66 Ländern analysiert. Sie zeigen auf, dass sich allein in der Zeit seit 1800 rund 320 Staatsschuldenkrisen ereignet haben. Allein Frankreich kann zwischen 1558 und 1788 acht Staatsbankrotte verbuchen. Spanien kommt in dem Zeitfenster von 1557 bis 1647 auf sechs Staatspleiten. Damit widerlegen die Autoren die nicht selten anzutreffenden Thesen, dass Finanzkrisen vor allem ein Produkt der Gegenwart seien und dass die Modelle schuld an der Krise wären. Übrigens: Das sich Rogoff und Reinhard bei der Berechnung der kritischen Staatsschuldenquote verrechnet haben, ist eher ein Argument gegen den bedenkenlosen Einsatz von Tabellenkalkulationen und die unkritische Übernahme einer Zahl durch die Politik. Die Kernaussage bleibt: Menschliches Verhalten und dabei insbesondere die ständige Selbstüberschätzung blieben über Jahrhunderte konstant und sind invariant gegenüber technischen Möglichkeiten und wissenschaftlichen Erkenntnissen.

Traurige Realität ist, dass nicht selten in der Praxis veraltete und längst widerlegte Werkzeuge verwendet werden. So sollte in der Zwischenzeit hinlänglich bekannt sein, dass die vom französischen Mathematiker Abraham de Moivre entdeckte Normalverteilung, alles andere als geeignet ist, Ereignisse auf den Finanzmärkten abzubilden. So kann in einem kleinen Rechenbeispiel bewiesen werden, dass nach einen GBM-Modell, wie es dem bekannten Black-Scholes-Modell zugrunde liegt, ein Börsencrash wie etwa im Oktober 1987 nur einmal in 1087 Jahren eintreten darf. Die empirische Beobachtung zeigt uns jedoch, dass derartige Crashs etwa alle 38 Jahre vorkommen. Aus einem 85-prozentigen Kapitalmarktcrash über einen Zeitraum von drei Jahren wird im GBM-Modell ein "1 in 100-Millionen-Jahre-Ereignis".

Leider wird in der – nicht selten dogmatischen und engstirnigen – Diskussion häufig ausgeblendet, dass mathematische Modelle nichts anderes sind als Werkzeuge, die ein mehr oder weniger eingeschränktes Abbild der Wirklichkeit bieten. Die Modellbildung abstrahiert bewusst mit dem Erstellen eines Modells von der Realität, weil diese in der Regel zu komplex ist, um sie exakt abzubilden. Ein Modell ist durch drei wesentliche Merkmale gekennzeichnet [vgl. Romeike/Spitzner: Von Szenarioanalyse bis Wargaming – Betriebswirtschaftliche Simulationen im Praxiseinsatz, Wiley Verlag, Weinheim 2013, S. 64]:

  • Ein Modell ist eine Abbildung. Es repräsentiert ein natürliches oder auch künstliches Original. Dabei kann das Modell sowohl Abbild, bspw. das Modellauto als Sammlerobjekt, als auch Vorbild, bspw. das Modell eines noch zu errichtenden Bauwerks, für dieses Original sein.
  • Ein Modell ist eine Verkürzung oder Abstraktion. Damit ist gemeint, dass im Modell nur die für den Zweck des Modells relevanten Eigenschaften des Originals erfasst sind. Es ist also im Vergleich zum Original vereinfacht. So ist bspw. eine Reanimationspuppe ein Modell eines Menschen, an dem Wiederbelebungsmaßnahmen trainiert werden. Es repräsentiert Atmung und Herztätigkeit, nicht jedoch weitere lebenswichtige Eigenschaften wie etwa die Körpertemperatur, die nicht im Fokus einer Erstversorgung steht.
  • Ein Modell ist durch Pragmatismus gekennzeichnet. Das bedeutet, dass Modelle in Hinblick auf einen Verwendungszweck zielorientiert erschaffen werden. Sie sind gewissermaßen ein Ersatz des Originals und können je nach Verwendungszweck unterschiedlich sein, selbst wenn sie das gleiche Original repräsentieren. So sind bspw. das Spielzeugflugzeug und der Flugsimulator zur Pilotenausbildung komplett verschieden, obwohl sie das gleiche Original repräsentieren.

Werden Modelle zur Entscheidungsunterstützung eingesetzt, kann als weiteres Merkmal – besser sogar als Bedingung – die Validität des Modells ergänzt werden. In diesem Fall dient das Modell dazu, die Konsequenzen von Entscheidungen im Vorfeld zu verstehen. Ist das Modell nicht valide, können die aus dem Modell gewonnenen Erkenntnisse dem Verwendungszweck (Pragmatismus) zuwider laufen, die Konsequenzen könnten dann fatal sein (man denke nur an die Pilotenausbildung am Flugsimulator).

Im Kontext betriebswirtschaftlicher Simulationen repräsentiert das Modell Zusammenhänge zwischen den Parametern (veränderlichen Ausgangsgrößen) und Zielgrößen der Simulation. Welche Zusammenhänge relevant sind und damit im Modell abgebildet werden müssen, und welche im Sinne der Verkürzung weggelassen werden, ist wiederum primär abhängig davon, welches Ziel mit der betriebswirtschaftlichen Simulation verfolgt wird. Aber auch Kenntnisse, Erfahrungen und Vorlieben des Modellerstellers, Anforderungen an die Genauigkeit, oder Zeit- und Budgetrestriktionen determinieren letztendlich das Modell.

Als Geburtsstunde der modernen Finanzmathematik und -modellierung gilt das Jahr 1900, da in diesem Jahr Louis Bachelier seine Dissertation "Théorie de la spéculation" veröffentlichte. In seiner Arbeit behauptete Bachelier, dass Aktienkurse rein zufällig verlaufen: Wie ein Betrunkener, dessen Schritte zufällig nach rechts oder nach links vom Weg abweichen, bewegen sich Aktienkurse in einem unvorhersehbaren Zick-Zack. Dieser sog. "Random Walk" der Aktienkurse schockierte zur damaligen Zeit die Welt der Ökonomen. Wie kann es sein, dass Aktienkurse, welche doch durch rationale Investitionsentscheidungen determiniert werden, rein zufällig sind? Viele weitere Modelle, etwa das Capital-Asset-Pricing-Model von William F. Sharpe, das Optionsbewertungsmodell von Black und Scholes oder die Moderne Portfoliotheorie von Harry M. Markowitz basieren auf den Ansätzen Bacheliers. Seine Lehren fanden an der Wall Street bereitwillig Schüler und wurden "zum Katechismus für das, was man heute als 'moderne' Finanztheorie bezeichnet", so der Mathematiker Benoît B. Mandelbrot.

Dass die Finanzmärkte den Modellen nicht gehorchen wollen und viele Finanzakteure die Modelle mit ihrer Unzahl von Algorithmen und einzuspeisenden Variablen nicht durchschauen, macht mathematisch brillante Verkürzungen der Realität zum Modellrisiko. Bacheliers wissenschaftliche Erben könnten mathematisch anspruchsvollere Methoden und Verfahren einsetzen, auch wenn diese mehr Rechenzeit und Neuronenaktivitäten erfordern. Für Praktiker dürfen Modelle, gleich welcher Art, nicht länger Black Boxes sein. Bei der Entwicklung und Validierung müssen wir berücksichtigen, dass Finanzakteure durch verschiedenste Risikoneigungen, Vorlieben und Ängste, die sich mehr oder weniger vorhersagbar ändern können, nicht den Sätzen der Thermodynamik folgen können.

Finanzakteure, die ihren Präferenzen folgen, verändern den Markt und der Markt das Handeln der Akteure – damit werden Risiken auch (oder gerade) durch Menschen und nicht nur durch die Natur bestimmt. Vor der naiven Anwendung warnt Dostojewskis Wort "Wenn die Formel für menschliches Verhalten entdeckt würde, würde dies die Menschen dazu bewegen von dieser Formel abzuweichen".

Auf der anderen Seite erzieht die Beschäftigung mit Modellen und mit der Mathematik zu strukturiertem Denken und bewirkt eine Präzision der Sprache. Modelle liefern potenzielle Szenarien für die Zukunft – nicht mehr und nicht weniger.

Fazit: Die Sammelpublikation von Marcus Martin, Peter Quell und Carsten Wehn wurde – nach dem Erfolg der ersten Auflage – nun in einer zweiten, überarbeiteten und erweiterten Auflage veröffentlicht. Auch die Zweitauflage befasst sich mit den grundlegenden Schwierigkeiten bei der Konzeption, dem Einsatz und der Interpretation von statistischen Risikomodellen sowie deren Validierung.

Das Buch setzt sich mit einem weiterhin hoch aktuellen Thema auseinander und liefert eine wertvolle Hilfestellung für Praktiker. Den Herausgebern ist es dabei gelungen, erfahrene Autoren aus den unterschiedlichsten Disziplinen zusammenzubringen und damit das komplexe Thema "Validierung von Risikomodellen" dem Leser näher zu bringen. Die Beiträge sind theoretisch fundiert, haben aber die unternehmerische Praxis immer im Blick. Das Buch dürfte Studierende und Wissenschaftler ebenso ansprechen wie auch "Modellierer" und Risikomanager in der Praxis. Der Sammelband ist in dieser Zweitauflage dem Ziel "Standardwerk" zur "Validierung von Risikomodellen" bereits wieder einen Schritt näher gekommen.



Kommentare zu diesem Beitrag

Keine Kommentare

Themenverwandte Artikel

Kolumne

Methoden im Risikomanagement

Komplex oder kompliziert – das ist die Frage

Frank Romeike | Herbert Saurugg06.10.2017, 11:02

Nachdem wir immer wieder auf die fälschliche Verwendung des Begriffs "Komplexität" stoßen, möchten wir mit diesem Beitrag eine einfach verständliche Erklärung liefern, was unter Komplexität...

Interview

Quo vadis Big Data?

Big Data und die Welt der Algorithmen und Analysen

Redaktion RiskNET22.09.2017, 12:52

Big Data ist en vogue. Vor allem die Wirtschaft trommelt seit Jahren für einen stärkeren Einsatz neuer Analysemethoden. Der Glaube: alles zu jeder Zeit im Blick haben und vorausschauend bestimmen zu...

Kolumne

Blickpunkt

Digital, digitaler, am digitalsten

Redaktion RiskNET06.09.2017, 10:09

Als im Jahr 1761 das französische Schiff "Utile" vor der Insel Tromelin im indischen Ozean sank, rettete sich eine Gruppe von Sklaven auf das Eiland. Die nur rund 1,7 Kilometer lange und...

Interview

IDW PS 981

Licht und Schatten im Risikomanagement

Redaktion RiskNET28.08.2017, 08:19

Die jüngst veröffentlichte "Risikomanagement Benchmarkstudie 2017" des Prüfungs- und Beratungsunternehmens Deloitte zeigt, dass viele...

Kolumne

Von Darknet bis Trojaner

Die Typologie der Cyberkriminalität

Jenna Eatough18.08.2017, 08:42

Das heutige digitale Informationszeitalter wird von den schier unendlichen Möglichkeiten des World Wide Webs geprägt – vom Online-Shopping über Social Networking, bis hin zur Finanzverwaltung. Der...