Rezension

Methoden zur Messung, Analyse und Steuerung finanzieller Risiken

Finanzrisikomanagement

Dr. Roland Stamm19.10.2015, 08:17

Auch wenn von vielen Seiten behauptet wird, die Fixierung auf quantitative Methoden habe die Finanzkrise erst möglich gemacht: Wer Risiken messen will, um mit Risikokennzahlen sein Unternehmen zu steuern, der muss quantitative Methoden anwenden. Viele Probleme der Finanzkrise wurden in der Tat durch quantitative Modelle verursacht, aber vor allem deshalb, weil die Modelle zu einfach waren (beispielsweise zur CDO-Bewertung), weil keine Extremszenarien berücksichtigt wurden, oder weil aus den Modellresultaten keine beziehungsweise die falschen Schlüsse gezogen wurden ("Solange die Musik spielt, muss man mittanzen"). Die Lehre daraus muss sein, dass wir nicht weniger, sondern mehr Mathematik in den Modellen brauchen, aber dazu begleitend auch Stresstests, die sich mit extremen Situationen auseinandersetzen, sowie eine starke Governance, die aus allen verfügbaren Daten die richtigen Handlungen ableitet. Dies wird auch ganz konkret von der Aufsicht eingefordert. Es wird auch verlangt, dass man sich der Schwächen und Grenzen der eingesetzten Modelle bewusst ist und ihnen nicht blind vertraut.

Die Autoren des besprochenen Buches sind sich dieser Anforderungen bewusst. Sie bieten dem Leser eine große Menge an Material, um ein im Sinne der Aufsicht angemessenes, quantitatives Risikomanagement in einem Finanzinstitut durchführen zu können. Dazu sollte der Leser allerdings sehr gute mathematische Kenntnisse insbesondere aus Statistik und Wahrscheinlichkeitsrechnung mitbringen; das benötigte Wissen kann nicht, wie bei vielen Einführungstexten, "nebenbei" aufgenommen werden. Sowohl von der fachlichen Tiefe als auch vom Umfang her kann man das Buch mit "Quantitative Risk Management" von McNeil/Frey/Embrechts vergleichen, es stellt aber meines Wissens das erste deutschsprachige Buch mit diesem Anspruch dar.

Nach dem einleitenden ersten Kapitel, das die Zielsetzung und Schwerpunkte des Buches definiert, werden im zweiten Kapitel der zugrunde gelegte Risikobegriff sowie quantilbasierte Risikomaße wie Value at Risk (VaR) und Expected Shortfall vorgestellt. Schon hier wird mehr Mathematik benötigt als üblich, weil sich die Autoren nicht mit der vereinfachenden Annahme, dass die Verteilungsfunktion invertierbar ist, begnügen, sondern die verallgemeinerte Inverse verwenden, um das Quantil zu definieren. In diesem Kapitel auch ein Axiomensystem für Risikomaße vorgestellt, anhand dessen die Tauglichkeit der besprochenen Maße überprüft wird.

Im dritten Kapitel wird auf unterschiedliche Berechnungsmethoden – parametrische Schätzung, historische Simulation und Monte-Carlo-Simulation – sowie das wichtige Thema Backtesting eingegangen. Es wird auch die VaR-Skalierung besprochen, die immer dann nötig wird, wenn eine bestehende VaR-Zahl auf ein höheres Konfidenzniveau oder auf einen anderen Zeithorizont skaliert werden soll.

Die folgenden Kapitel befassen sich dann ausführlich mit der Messung der Risiken aus verschiedenen Risikoklassen, nämlich Markt-, Kredit-, Versicherungs- und operationellem Risiko. Ein Kapitel über Risikokapital und Kapitalallokation schließt den Hauptteil des Bandes ab.

Zu fast allen Kapiteln gibt es Anhänge, die mathematische Aspekte der Themen im jeweiligen Kapitel vertiefen. Außerdem gibt es noch zwei allgemeine Anhänge, die sich intensiv mit Wahrscheinlichkeitsverteilungen auseinandersetzen. Einige Aufgaben sollen wahrscheinlich das Selbststudium unterstützen, sind aber ohne Lösungen gegeben.

Der hohe mathematische Anspruch des Textes stellt für viele Leser wahrscheinlich eine hohe Hürde dar. Nichtsdestotrotz bietet das Buch eine Fülle von praktischen Beispielen und Methoden, so dass es auch als Nachschlagewerk verwendet werden kann. Es ist auf jeden Fall eine nützliche Quelle für jede Risikoabteilung.



Kommentare zu diesem Beitrag

Keine Kommentare

Themenverwandte Artikel

Kolumne

Methoden im Risikomanagement

Komplex oder kompliziert – das ist die Frage

Frank Romeike | Herbert Saurugg06.10.2017, 11:02

Nachdem wir immer wieder auf die fälschliche Verwendung des Begriffs "Komplexität" stoßen, möchten wir mit diesem Beitrag eine einfach verständliche Erklärung liefern, was unter Komplexität...

Interview

Quo vadis Big Data?

Big Data und die Welt der Algorithmen und Analysen

Redaktion RiskNET22.09.2017, 12:52

Big Data ist en vogue. Vor allem die Wirtschaft trommelt seit Jahren für einen stärkeren Einsatz neuer Analysemethoden. Der Glaube: alles zu jeder Zeit im Blick haben und vorausschauend bestimmen zu...

Interview

IDW PS 981

Licht und Schatten im Risikomanagement

Redaktion RiskNET28.08.2017, 08:19

Die jüngst veröffentlichte "Risikomanagement Benchmarkstudie 2017" des Prüfungs- und Beratungsunternehmens Deloitte zeigt, dass viele...

Kolumne

Struktur des Unternehmens-Risikomanagements

Synergien im Risikomanagement schaffen

Bruno Brühwiler01.08.2017, 07:30

Wenn mehrere Personen über den Inhalt von Risikomanagement in komplexeren Organisationen diskutieren, entsteht schnell ein Konsens über die Anwendung des Risikomanagement-Prozesses...

Interview

Wie wir Krisen erleben und bewältigen

Krisen sind das beste "Resilienztraining"

Redaktion RiskNET23.07.2017, 06:30

Ingenieure sprechen von einem resilienten System, wenn bei einem Teilausfall nicht alle technischen Systeme vollständig versagen. Ein Ökosystem gilt dann als resilient, wenn es nach einer Störung zum...