Kolumne

Machine Learning-basierte Klassifikation von Marktphasen

Krisen frühzeitig identifizieren

Dimitrios Geromichalos [RiskDataScience]23.05.2018, 12:30

Wie in der Vergangenheit immer wieder beobachtet werden konnte, verhalten sich Märkte oftmals irrational und zeichnen sich – neben dem "Normal-Zustand" – durch Phasen im Krisen- und Spekulations-Modus aus.

Die Regulatoren sehen dieses Verhalten als einen wesentlichen Faktor an und verlangen dementsprechend die Berücksichtigung adäquater Stress-Zeiträume. Dies setzt jedoch die objektive Identifizierung der Phasen voraus, die mit herkömmlichen Vorgehensweisen nur schwer zu bewerkstelligen ist.

Verfahren aus dem Bereich Machine Learning ermöglichen hingegen die objektive Identifizierung von Marktphasen auch bei komplexen Gegebenheiten. Zudem können – auch mittels Deep Learning Verfahren – die gegenwärtige Situation eingestuft und mögliche kommende Krisen antizipiert werden.

Im Folgenden soll anhand einfacher Parameter die Identifizierung und Klassifikation von Marktphasen schematisch dargestellt werden. Sämtliche Verfahren wurden in Python umgesetzt und sind ohne spezielle Anforderungen lauffähig.1

Krisen-Phasen und normale Marktphasen

Die herkömmlichen Theorien des effizienten Marktes (Informationseffizienz) bzw. der rationalen Erwartungen (Homo oeconomicus) haben sich als nicht immer zutreffend erwiesen. Stattdessen sind Märkte oftmals durch Übertreibungen ("Gier") und Panik ("Angst") sowie Herdenverhalten und selbsterfüllende Prophezeiungen gekennzeichnet. Jüngste Beispiele betreffen etwa die Dotcom-Blase, die Immobilienkrise oder auch Entwicklungen in Energie- und Rohstoffmärkten.

Insbesondere Krisen-Phasen unterscheiden sich in mehreren Punkten stark von "normalen" Phasen:

  • Korrelationen nehmen im Allgemeinen stark zu (beispielsweise Spreads während Euro-Krise)
  • Starker Anstieg der Volatilität (beispielsweise Zinsen während Finanzkrise)
  • Normalverteilung nicht mehr gegeben (beispielsweise Platzen der Dotcom-Blase)

In etwas geringerem Maße treffen die genannten Punkte auch für Spekulationsphasen zu (beispielsweise Dotcom-Blase).

Die Regulatoren haben die Problematik von Marktregimes erkannt und verlangen eine Berücksichtigung, etwa in Form von Stresstests, die auf realistischen und relevanten Szenarien basieren beziehungsweise eines "gestressten" Value at Risk (VaR), der anhand von Krisen-Perioden zu ermitteln ist.

Des weiteren ist die quantitative Ermittlung von Marktphasen auch aus Risikocontrolling-Gesichtspunkten unabdingbar. In der Praxis gestaltet sich die Ermittlung von Marktphasen jedoch als äußerst problematisch, da eine objektive und für alle Produkte konsistente Ermittlung von Marktphasen in der Regel nicht stattfindet und herkömmliche Risikomethoden Marktphasen in der Regel nicht abdecken.

Herkömmliche Methoden

Monte Carlo-Szenarien werden auf Basis von Modellen generiert, die in der Regel keine Marktphasen beinhalten. Dementsprechend findet keine Berücksichtigung von Marktregimes statt.

Historische Simulationen übernehmen vergangene Änderungen eines bestimmten Beobachtungszeitraums als Basis für mögliche künftige Szenarien. Mögliche Bubble- und Krisen-Phasen der betrachteten Zeiträume sind damit implizit in den ermittelten Szenarien enthalten. Allerdings werden die verschiedenen Phasen nicht explizit ermittelt. Die Identifizierung der Zeiträume, etwa für den Stressed VaR, muss nach wie vor "händisch" erfolgen.

Eine nicht objektivierbare Ermittlung gestresster Marktphasen für regulatorische Zwecke kann zu Anmerkungen seitens Wirtschaftsprüfer und Revisoren führen. Eventuelle sinnvolle Kapitalentlastungen bleiben oftmals verwehrt, da sich ein weniger konservatives Vorgehen nicht immer objektiv begründen lässt. Das Nicht-Erkennen möglicherweise gefährlicher aktueller Marktsituationen erhöht das Verlustrisiko durch Marktpreisschwankungen, da Bubbles  möglicherweise nicht rechtzeitig erkannt und Gesetzmäßigkeiten von Krisen, wie erhöhte Korrelationen, nicht hinreichend berücksichtigt werden.

Andererseits können durch ein zu vorsichtiges Vorgehen in günstigen Marktsituationen Chancen verpasst werden.

Data Science-Verfahren

Für die Analyse der relevanten Marktdaten können verschiedene Data Science / Machine Learning Algorithmen berücksichtigt und mit Tools wie Python, R, Weka oder RapidMiner implementiert werden. Hier lassen sich die folgenden Gruppen von Algorithmen unterscheiden:

Unsupervised Learning-Algorithmen: Diese Algorithmen können zur Bestimmung von "natürlichen" Clustern und zur Gruppierung von Marktdaten nach vordefinierten Ähnlichkeitskriterien verwendet werden. Dies erfordert geeignete Algorithmen wie kmeans oder DBSCAN sowie entsprechende Branchen-Expertise. Außerdem können Ausreißer-Algorithmen eingesetzt werden, um anomale Marktsituationen zu erkennen, die beispielsweise als Basis für Stresstestszenarien dienen können.

Supervised Learning-Algorithmen: Die Algorithmen (beispielsweise Naive Bayes) werden mit bekannten Datensätzen "trainiert", um Marktsituationen zu klassifizieren. Dann können den Marktphasen neue Daten – und insbesondere die aktuelle Situation – zugeordnet werden. Durch geeignetes "Verschieben" der Zeiträume der erklärenden und zu erklärenden Variablen können zudem Prognose-Modelle erstellt werden.

Beim Supervised Learning haben sich verschiedene Kennzahlen etabliert, wie beispielsweise die

  • Accuracy: Richtige Vorhersagen pro Gesamtzahl
  • Sensitivity: Anteil korrekt identifizierter "Positiv-Fälle"
  • Specifity: Anteil korrekt identifizierter "Negativ-Fälle"

Beim Supervised Learning muss stets beachtet werden, dass Validierungen stets anhand eines getrennten Testsets durchgeführt werden müssen, um ein "Overfitting" auszuschließen.

Für eine risikoorientierte Analyse müssen Marktdatendifferenzen (beispielsweise bei Zinsen) oder Renditen (beispielsweise bei Aktienkursen) aus den Marktdaten-Zeitreihen als Grundlage für die weitere Analyse berechnet werden. Weiterhin muss ein "Windowing" durchgeführt werden, das heißt die relevanten Werte der Vortage müssen als zusätzliche Variablen berücksichtigt werden.

Anwendungsbeispiel: Illustrative Analyse von Marktdaten

Verwendete Daten und Bereinigung

Die Analyse bezog sich auf ein Set von Marktdaten, das aus dem DAX 30, dem EURIBOR 3M sowie dem EURUSD bestand. Der betrachtete Zeitraum war Dez. 2000 – Jan. 2018. Die Analyse erfolgte durchwegs mit Schlusskursen auf Return- (für DAX und USD) sowie Differenzen-Basis (für EURIBOR 3M). Die Skizze unten zeigt die verwendeten Marktdaten:

Abb. 01: Illustrative Marktdaten 

Abb. 01: Illustrative Marktdaten

Eventuelle begründbare Sprünge wie Aktiensplits wurden bereinigt, fehlende Returnwerte durch "0" ersetzt und mittels Windowing erweitert (letzte 20 Tage).

Windowing

Das Windowing ist ein Verfahren, das – etwa bei Prognosen – angewandt wird um "Lags" zu berücksichtigen Vergangene Werte werden dabei als aktuelle Variablen betrachtet. Ein weiterer Vorteil ist die Robustheit gegenüber volatilitätsbedingten Schwankungen der Parameter.

Abb. 02: Vorgehen beim Windowing 

Abb. 02: Vorgehen beim Windowing

Hierbei muss jedoch beachtet werden, dass es durch die große Variablen-Anzahl zu einem Overfitting kommen kann.

Gruppierung der Markthasen

Auf dieser Datenmenge wurde der Clustering-Algorithmus DBSCAN angewendet. Die Ergebnisse sind in der Abbildung unten exemplarisch dargestellt.

Abb. 03: Identifizierte Marktphasen

Abb. 03: Identifizierte Marktphasen

Während die meisten Zeitpunkte einem großen "Normal-Cluster" zugeordnet werden können, gibt es Phasen, die zumeist in einen "Krisen-Cluster" fallen. Als Krisen-Phasen wurden die Zeit nach dem 11. September, das Platzen der Dotcom-Blase, die Immobilien- und die Euro-Krise automatisch ermittelt.

Klassifikation und Validierung

Für die Klassifikation wurden zunächst ein zufälliges Trainings- und ein Test-Set mit je 80 Prozent beziehungsweise 20 Prozent der Datensätze gebildet. Das Training erfolgte für die Modelle Naive Bayes, SVM, Decision Tree und Random Forest.

Generell ergaben sich hohe Trefferquoten mit Accuracies bis 93 Prozent (Naive Bayes). Das Naive Bayes-Verfahren schnitt dabei – auch anhand der Confusion Matrices – am besten ab.

Darüber hinaus wurde die Vorhersage durchgeführt inwiefern innerhalb der nächsten 30 Tage eine Krise vorliegen wird. Dafür wurden beim Training die Krisen-Flags entsprechend um 30 Tage in die Vergangenheit verschoben. Wie erwartet waren die Accuracies geringer und lagen. bei maximal 89 Prozent. Auch hier schnitten Naive Bayes und Random Forest am besten ab. Eine Vorhersage für die gegenwärtige Situation ergab zudem, dass demnächst keine Krise droht, wobei aber zu beachten ist, dass kein Präzedenzfall für das historisch niedrige Zinsniveau vorliegt.

Fazit

Durch die Analyse von Marktphasen mithilfe von Machine Learning-Verfahren lässt sich das Financial Risk Management in mehrfacher Hinsicht verbessern. So lassen sich zum einen mögliche Krisen und Spekulationsblasen frühzeitig identifizieren und gegebenenfalls prognostizieren. Zum anderen ist es auch möglich historische Stress-Phasen für eine Vielzahl von Produkten und Märkten effizient und objektiv ermitteln.

Hierfür sind jedoch – neben geeigneten Daten – ein fundiertes Verständnis der Stärken und Schwächen der verwendeten Algorithmen sowie ein striktes Vorgehen bei der Modellvalidierung unabdingbar.

Autor

Dr. Dimitrios Geromichalos, FRM, CEO / Founder RiskDataScience UG (haftungsbeschränkt)

Dr. Dimitrios Geromichalos, FRM, CEO / Founder RiskDataScience UG (haftungsbeschränkt) 

Hinweis:

1 Das verwendete Python-Programm kann gegen eine Schutzgebühr von 200 EUR beim Autor angefordert werden. E-Mail: riskdatascience@gmail.com

 

[ Bildquelle: Adobe Stock ]


Kommentare zu diesem Beitrag

Keine Kommentare

Themenverwandte Artikel

Interview

Errare humanum est

Risikosituationen trainieren!

Redaktion RiskNET13.10.2018, 17:45

Der Mensch nimmt, sofern er selbstbestimmt agiert (oder zumindest glaubt dies zu tun), sehr große Risiken in Kauf. Extremsportarten haben oft ein Risiko von über 10 Prozent (Beispiel: 40 Prozent...

Kolumne

Analyse

Der Euro als Welt-Reservewährung?

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.26.09.2018, 15:00

Der deutsche Außenminister hat vor kurzem einen interessanten Vorschlag zur Weiterentwicklung der Europäischen Union gemacht. Europa solle, so sagt er, "von den USA unabhängige Zahlungskanäle...

Kolumne

Der Wind dreht sich

Ende der Austerität?

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.21.09.2018, 07:45

Eine der erfreulichsten Entwicklungen der letzten Jahre war die Konsolidierung der Staatsfinanzen in vielen Industrieländern. Im Euroraum hat sich der Fehlbetrag in den öffentlichen Haushalten von...

Kolumne

BCM Kompass 2018

Herausforderungen im Business Continuity Management

Christof Born | Marc Daferner06.09.2018, 14:03

Der BCM Kompass 2018 stieß auch mit seiner 9. Auflage auf gewohnt breites Interesse bei den BCM Verantwortlichen aus 29 teilnehmenden Instituten. Das Teilnehmerfeld umfasst unter anderem sechs der...

Kolumne

Chancen- und Risikoanalyse

Das "neue Deutschland"

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.06.09.2018, 13:14

Normalerweise schätze ich die britische Wochenzeitung "Economist" für ihre klaren Analysen und für ihr gutes Gespür für Trends in Wirtschaft und Gesellschaft. Aber selbst gute Journalisten...