Interview mit Stefan Mittnik

Eine Zahl ist besser als keine ...


Interview mit Stefan Mittnik: Eine Zahl ist besser als keine … Interview

Die Annahmen von Gauß bilden seit mehr als einem Jahrhundert die Grundlage der Finanzwissenschaften. Die traditionellen Modelle und Analyseverfahren zur Portfolio-Optimierung basieren in der Regel auf der Annahme, dass die Erträge eines Vermögenswertes "normalverteilt" sind. Die bedeutet für die Praxis: In einem Aktienportfolio sind kleine prozentuale Tagesgewinne oder -verluste viel wahrscheinlicher als mittlere oder große Bewegungen nach oben oder unten. Zum ersten Mal wurde dieser Ansatz Mitte der 1960er Jahre von Benoît Mandelbrot in Frage gestellt. Die Normalverteilung ist kein gutes Abbild der Realität an den Finanzmärkten, so Benoît Mandelbrot, bekannt für seine Forschungen im Bereich der fraktalen Geometrie. Die Kursausschläge an den Börsen seien wesentlich extremer, als in den üblichen Modellen der Finanzmathematik unterstellt werde.

Warum hat es – trotz der empirischen Studien aus der Wissenschaft – so lange gedauert, bis in der Praxis der Finanzdienstleister verstanden wurde, dass die Wahrscheinlichkeit großer Verluste weitaus höher ist, als es die Gauß’sche Glockenkurve vorhersagt? Erst die schmerzvollen Erfahrungen der Finanzkrise haben dazu geführt, dass der Analyse von "fat tails" eine größere Aufmerksamkeit geschenkt wurde.

Stefan Mittnik: Das hat viele Gründe. Mandelbrot legte zwar vor einem halben Jahrhundert den Finger in die Wunde und bot mit den so genannten "stabilen Verteilungen", eine Verallgemeinerung der Gauß‘schen Normalverteilung, sogar einen Lösungsansatz an. Der war allerdings alles andere als praktisch umsetzbar. Selbst Nobelpreisträger Eugene Fama, der 1965 seine Dissertation zu diesem Thema schrieb, warf angesichts der analytischen Schwierigkeiten bald das Handtuch und wandte sich anderen Herausforderungen zu. Ende der 1980er hat eine kleine Wissenschafts-Community systematisch damit begonnen, die Standardergebnisse der Normalverteilung sukzessive auf fat-tailed Verteilungen zu übertragen.

Die praktische Umsetzung neuer wissenschaftlicher Lösungen geht allerdings stets mit einer erheblichen zeitlichen Verzögerung einher. In der Finanzwelt, wo starke monetäre Anreize bestehen, geht es dabei noch vergleichsweise schnell. Allerdings gilt auch in der Finanzbranche, dass regulatorische Vorgaben mit möglichst minimalen Kosten erfüllt werden sollen. Erst Ende der 1990er Jahre erkannte auch Alan Greenspan: "the biggest problem we now have […] is the fat-tail problem." Es waren unregulierte Hedgefonds, die als erste von den neuen wissenschaftlichen Ergebnissen Gebrauch machten.

Der Baseler Ausschuss hat am 3. Mai 2012 ein Konsultationspapier zur grundlegenden Überarbeitung der aufsichtsrechtlichen Behandlung des Marktrisikos im Handelsbuch veröffentlicht. So wird unter anderem die Berechnung der Kapitalanforderungen mittels Expected Shortfall (ES) als alternatives Risikomaß zum Value at Risk (VaR) vorgeschlagen, um Extremrisiken besser abzubilden. Ist das der richtige Weg?

Stefan Mittnik: Finanzrisiken, ob für einzelne Instrumente oder Institutionen oder für gesamte Finanzsysteme, sind das Produkt hoch komplexer Systeme und Prozesse, dem ein einzelnes Risikomaß nicht gerecht werden kann.

Natürlich ist ES ein wichtiger Schritt in die richtige Richtung, da ES das VaR-Maß subsumiert, einen höheren Informationsgehalt liefert und noch andere Vorteile hat. Aber, wie es immer der Fall in der empirischen Statistik ist, auch beim ES handelt es sich um eine Projektion oder Reduktion eines hoch komplexen Sachverhalts auf eine einzige Dimension. Die Vorstellung, dass wir die Risikosituation mit einer einzigen Zahl beschreiben können, ist leider nicht haltbar. Wobei eine Zahl besser ist als keine. Unabhängig vom gewählten Risikomaß besteht die Herausforderung in der sinnvollen Risikoaggregation, die sicherstellen muss, dass das sich ändernde Zusammenwirken von Risikofaktoren in Stressphasen systematisch berücksichtigt wird. Der Baseler Ausschuss schlägt hier eine Ad-hoc-Heuristik zur Bestimmung von Tail-Korrelationen vor, die aus wissenschaftlicher Sicht frei jeglicher Fundierung erscheint.

Charles Calomiris (Comlumbia University) und Hans Peter Grüner (Mannheim) halten ein zu starke staatliche Regulierung für verhängnisvoll und sehen darin eine der Ursachen der heutigen Krise. Staatliche Einlagensicherungsfonds hätten dazu geführt, dass sich Manager und Investoren zu sicher gefühlt hätten und daher übermäßig Risiken eingegangen seien (Stichwort "moral hazard"). Ihrer Meinung nach ist das Risiko von Krisen in einem Land umso größer, je stärker die Finanzinstitute durch ein staatliches Sicherheitsnetz geschützt sind. Im Umkehrschluss heißt das: Banken müssen dem Risiko des Scheiterns ausgesetzt sein.

Stefan Mittnik: Die "moral hazard"-Problematik ist natürlich wohl bekannt und auch zutreffend. Allerdings dürfte die Tatsache, dass Finanzinstitutionen übermäßig vor einem Untergang geschützt sind, besonders auf der Investorenseite zu Verwerfungen führen. Die Entscheidungsträger eines Finanzinstituts, also Vorstände, Aufsichtsräte und führendes Management, sind selbst im Fall der Rettung bei den Verlierern, da sie  ̶  in der Regel nicht zu Unrecht  ̶  den Hut nehmen müssen und einen hohen Reputationsschaden erleiden. Hohe, eventuell zu hohe Bonuszahlungen im Vorlauf haben aber vielleicht dafür gesorgt, dass dieser Schaden  verschmerzbar ist.

Ein wesentlich gravierenderes Problem mit den vorherrschenden Regulierungstendenzen besteht darin, dass zu ambitionierte Regulierung zu einer Synchronisierung von Entscheidungen führen kann. Basiert Regulierung auf "korrekten" Annahmen, dann mag dies weniger problematisch sein. Es ist aber nicht davon auszugehen, dass ausgerechnet schlecht bezahlte Regulierer verstehen, wie die komplexe und sich rapide ändernde Finanzwelt funktioniert, und ein entsprechend funktionierendes Regelwerk ableiten. In der Statistik heißt es: "Alle Modelle sind falsch". Es ist daher davon auszugehen, dass regulatorische Vorgaben auf falschen Modellen bzw. Annahmen basieren.

Müssen nun alle Marktteilnehmer nach diesen Modellen agieren, wird es unweigerlich zu Situationen kommen, in denen große Teile der Marktteilnehmer gleichzeitig falsch liegen. Mit anderen Worten: Es kann zu einer Synchronisierung von Fehlentscheidungen kommen, die dazu führt, dass selbst kleine Fehleinschätzungen systemweite Konsequenzen haben. Anstatt verstärkt auf Detailregulierung und Vereinheitlichung zu setzen, sollte Regulierung für ein genügendes Maß an Heterogenität sorgen, um Finanzsysteme robuster und stabiler zu machen.   

Im Zuge der jüngsten Finanzkrise rücken Bauchgefühl und "Expertenwissen" wieder stärker in das Blickfeld des Risikomanagements. So fordern etwa George Akerlof und Robert Shiller einen grundlegenden Kurswechsel, damit auch irrationale Verhaltensweisen, psychologische und emotionale Faktoren in den Methoden und Entscheidungsprozessen berücksichtigt werden. Schlägt das Pendel jetzt zu stark von der "Welt der Quants" zurück?

Stefan Mittnik: Am Ende des Tages muss Risiko sinnvoll quantifiziert werden, um Folgenabschätzungen vornehmen zu können und operational mit Risiken umgehen zu können. Letztlich kann man sagen: wenn ich ein Risikopotenzial nicht quantifizieren kann, dann habe ich es nicht verstanden. Wie in anderen Bereichen neigt Risikomanagement und Regulierung dazu, das Offensichtliche  ̶  also das, was einfach zu messen ist  ̶  mit hohem Aufwand und hoher Präzision zu messen, und das, was eher schwierig zu messen ist, grob abzuschätzen oder gar außen vorzulassen. Das ist in vielen Bereichen des Lebens und nicht nur im Risikomanagement ein Defizit. Es geht aber nicht darum, quantitatives Vorgehen über Bord zu werfen. Denn gerade der Versuch der Quantifizierung zwingt zur Problemstrukturierung und fördert die gedankliche Durchdringung komplexer Sachverhalte. Es geht mehr darum: Wie kann man die Einflüsse, die durch Emotionen und vermeintliche Irrationalitäten hervorgerufen werden, abschätzen und bei der Quantifizierung sinnvoll berücksichtigen? Es gibt vielversprechende Ansätze, Expertenwissen mittels sogenannter Elicitation-Verfahren in Kombination mit Bayes‘scher Techniken bei der Risikoquantifizierung systematisch einfließen zu lassen. In unserer eigenen Forschung im Bereich operationeller Risiken, wo Quantifizierung eine besondere Herausforderung ist, sind wir auf einem guten Weg, der auch auf andere Risikoarten übertragen werden kann.  

Welche Rolle wird das Thema Ausbildung – unter anderem auch im Risikomanagement – spielen, um derartige Krisen zukünftig zu verhindern oder zumindest abzumildern?

Stefan Mittnik: Hier gibt es auf allen Ebenen erheblichen Bedarf. Finanzwirtschaftliche Inhalte fehlen praktisch völlig in allgemein bildenden Schulen. Mit dem grundlegenden Thema "Rendite und Risiko" sind zu große Teile der Bevölkerung überfordert. Jedem Sparer und Anleger muss bewusst sein, dass hohe Renditen hohe Risiken erfordern. Verbesserte finanzwirtschaftliche Allgemeinbildung wird das Krisenpotenzial drastisch verringern.

Spezifische Bildungsangebote im Bereich Risikomanagement sind noch recht dürftig. Hier müssen auch Universitäten liefern und dabei eine holistische Perspektive sicherstellen, die auch die Grenzen der zum Einsatz kommenden Verfahren zum Gegenstand hat.

Welche Lehren hat die Wissenschaft aus der Finanzkrise gezogen und wie hat dies die Forschungsschwerpunkte des Lehrstuhls beeinflusst?

Stefan Mittnik: Die Krise hat in der Wissenschaftswelt durchaus etwas bewegt. Selbst in der theoretischen Finanzmathematik, die bisher stets dazu neigte, sich die "Wahrheit" nicht durch Fakten kaputt machen zu lassen, findet ein Umdenken statt. Traditionell war Eleganz wichtiger als Relevanz. Die Frage, inwieweit die Annahmen, die zu einer  ̶  möglichst geschlossenen  ̶   mathematischen Lösung getroffen werden müssen, in der Praxis zutreffen, wurde selten gestellt und Praktikern so gut wie nie vermittelt. Dass die Wissenschaft hier eine Bringschuld hat, wird zunehmend akzeptiert.

Mein Fachgebiet, also die Finanzökonometrie, die ja die Disziplinen Mathematik, Statistik und Finanztheorie verbindet, beruht gerade auf der Tatsache, dass die Standardwerkzeuge der Statistik und Ökonometrie, die unter anderem weitestgehend auf Normalverteilungsannahmen basieren, bei vielen Finanzdaten versagen. Wir gehören sozusagen zu den Krisengewinnlern. Mit jeder Krise erhöht sich die Nachfrage nach unserer Arbeit.

Welche Herausforderungen des Risikomanagements schätzen Sie aus wissenschaftlicher Sicht als dringend bzw. intellektuell herausfordernd ein?

Stefan Mittnik: Eine wesentliche Herausforderung ergibt sich aus der hohe Dimensionalität. Bei der  Modellierung von Einzelrisiken hat es gute Fortschritte gegeben. Die realistische Aggregation von Einzelrisiken ist immer noch schwierig und  ̶  abhängig von Risikotyp  ̶  oft nur für eine kleine Zahl von Faktoren praktikabel, und selbst da gibt es erhebliche Defizite. Wenn die Dimension allerdings in die Tausende geht, haben wir große Schwierigkeiten.

Eine weitere Herausforderung ist das Problem der Endogenität. Risikomodelle und Regulierungsvorgaben beruhen auf historischen Beobachtungen und Erfahrungen und werden auf dieser Basis "optimiert". Allein schon das Messen von Risiken, mehr noch aber Anpassungen in der Regulierung verändern das Verhalten der Akteure und somit das Risikoverhalten auf der Mikroebene also auch die systemischen Risikoeigenschaften. Es stellen sich immer zwei Fragen: Können wir die Reaktionen der individuellen Akteure aufgrund von Interventionen abschätzen? Und können wir darüber hinaus die Konsequenzen für nationale und globale Finanzsysteme ableiten? Diese Problematik besteht natürlich in allen Wirtschaftsbereichen. Sie ist aber aufgrund der starken Anreize und der vielfältigen Verflechtungen in der Finanzwirtschaft besonders ausgeprägt.   

Mit welchen Themen im Kontext Risk Management beschäftigt sich aktuell Ihr Lehrstuhl?

Stefan Mittnik: In der Finanzökonometrie befassen wir uns generell mit der Aufdeckung, Beschreibung und Quantifizierung von Zusammenhängen. Gerade durch Krisen werden Verständnisdefizite aufgedeckt. In unserer Gruppe arbeiten wir besonders an der Bestimmung von Abhängigkeiten zwischen Risikofaktoren  ̶  insbesondere auch die Frage der Dynamik in Abhängigkeitsstrukturen. Dies ist entscheidend für die Risikoprognose und die Entwicklung von Stressszenarien. Die Entwicklung praktikabler Verfahren zur Abhängigkeitsmessung, die zum Beispiel über die Standardansätze der Copula-Welt hinausgehen, bildet hier ein methodischer Schwerpunkt. Auf der empirisch angewandten Seite betrachten wir sowohl die mikroskopische Ebene, indem wir den Limit-Order-Fluss auf elektronischen Börsen im Nanosekundenbereich und Liquiditätsrisiken untersuchen, als auch die Makroebene, um Interaktionen zwischen Realwirtschaft und Finanzwirtschaft besser zu verstehen. Ziel der Makrostudien ist es, geld- und fiskalpolitische Instrumente und Strategien zu entwickeln, die bei der Krisenvermeidung oder -bewältigung helfen können.


Seit dem Jahr 2003 ist Prof. Stefan Mittnik Inhaber des Lehrstuhls für Finanzökonometrie an der Ludwig-Maximilians-Universität in München und leitet er dort das im Rahmen der Bundesdeutschen Exzellenzinitiative gegründete Center for Quantitative Risk Analysis (CEQURA), das sich mit der Messung, Quantifizierung, Modellierung und dem Management von Risiken befasst.Seit dem Jahr 2003 ist Prof. Stefan Mittnik Inhaber des Lehrstuhls für Finanzökonometrie an der Ludwig-Maximilians-Universität in München und leitet er dort das im Rahmen der Bundesdeutschen Exzellenzinitiative gegründete Center for Quantitative Risk Analysis (CEQURA), das sich mit der Messung, Quantifizierung, Modellierung und dem Management von Risiken befasst.

Er ist Mitglied des Vorstandes der Finanz- und Versicherungsökonometrischen Gesellschaft e.V. sowie des Aufsichtsrats der Union Investment Institutional GmbH, Fellow am Center for Financial Studies in Frankfurt und war Mitglied des Wissenschaftlichen Beirats der Deutschen Bundesbank sowie des Fachkollegiums "Wirtschaftswissenschaften" der Deutschen Forschungsgemeinschaft.

Nach Studium an der TU Berlin, der University of Sussex in England promovierte er unter Hyman Minsky, Edward Greenberg und Laurence H. Meyer an der Washington University in den USA und lehrte zunächst in New York (1987-1994) sowie in Kiel (1994-2003) und wurde mit der Fulbright (2004/05) und der Theodor-Heuss-Ehrenprofessur (2012) in den USA
ausgezeichnet.

Seine Forschungsschwerpunkte sind: methodische und empirische Finanzmarktforschung, Risiko- und Portfoliomanagement, Regulierung sowie die Interaktion zwischen Finanz- und Realwirtschaft.



[Die Fragen stellte Frank Romeike, Chefredakteur RiskNET sowie verantwortlicher Chefredakteur der Zeitschrift RISIKO MANAGER sowie Mitglied des Beirats beim Institut für Risikomanagement und Regulierung (FIRM); Das Interview ist erstmalig in Ausgabe 04/2014 der Zeitschrift RISIKO MANAGER im FIRM Special veröffentlicht worden.]

 


[Bildquelle: © majcot - Fotolia.com]


Kommentare zu diesem Beitrag

Judith /18.02.2014 10:02
@Thomas: Das wundert mich überhaupt nicht: In der Realwirtschaft investiert man in Risikomanagement, weil es Teil der Unternehmenssteuerung ist. Wenn man das Management von Risiken (und Chancen) unterlässt, wird man recht schnell vom Markt aussortiert.

In der regulierten Finanzwirtschaft investiert man einen Großteil der Ressourcen im Risikomanagement für die "Happyness" des Regulators. Es geht im Kern um regulatorische Pflichterfüllung. Und im Zweifel laufen alle Lemminge gemeinsam in den Abgrund - immerhin hatte man das Testat des Regulators. Wichtig im Risikomanagement ist eine Heterogenität der Methoden - und kein regulatorischer Einheitsbrei ;-((
Corporate RM /17.02.2014 20:28
Exzellentes Interview, was den Nagel auf den Kopf trifft. Ich verstehe bis heute nicht, warum Methoden, die in der Wissenschaft längst als überholt gelten, in der Praxis weiterhin zum Einsatz kommen. Und auch heute rechnen weiterhin viele "Experten" mit der Normalverteilungshypothese und wundern sich dann, wenn sie von der Realität eingeholt werden.
Thomas /17.02.2014 18:01
Eine wirklich schöne Formulierung: „Allerdings gilt auch in der Finanzbranche, dass regulatorische Vorgaben mit möglichst minimalen Kosten erfüllt werden sollen.“. Es müsste heißen, „…gerade in der Finanzbranche,…“. Nach meinem Branchenwechsel habe ich mich schon gewundert, wie viel die so genannte „Realwirtschaft“ dafür investiert – obwohl detaillierte regulatorische Vorschriften wie die MaRisk hier überhaupt nicht gelten.

Aber auch bei Einsatz eines „guten“ Risikomodells kann prozyklisches Handeln (ob nun regulatorisch getrieben oder modellgetrieben) zum (teilweisen) Zusammenbruch eines Marktes führen. Ob es hilft, hier Psychologie zu berücksichtigen? Ich habe Zweifel…

Bereits wesentliche Eingangsparameter der Risikoberechnung beruhen oft auf einer Expertenschätzung (auch Psychologie?), auf deren Basis dann mit modernsten Methoden weiter gerechnet wird.

Entscheidend wäre für mich, dass bei Eintritt der Risiken ein „Plan B“ bereit liegt, um schnell zu reagieren und Verluste auf den Anteil der eigenen Risikotragfähigkeit zu begrenzen, den man einzusetzen bereit war.
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.