Comment

Machine Learning-basierte Klassifikation von Marktphasen

Krisen frühzeitig identifizieren

Dimitrios Geromichalos [RiskDataScience]23.05.2018, 12:30

Wie in der Vergangenheit immer wieder beobachtet werden konnte, verhalten sich Märkte oftmals irrational und zeichnen sich – neben dem "Normal-Zustand" – durch Phasen im Krisen- und Spekulations-Modus aus.

Die Regulatoren sehen dieses Verhalten als einen wesentlichen Faktor an und verlangen dementsprechend die Berücksichtigung adäquater Stress-Zeiträume. Dies setzt jedoch die objektive Identifizierung der Phasen voraus, die mit herkömmlichen Vorgehensweisen nur schwer zu bewerkstelligen ist.

Verfahren aus dem Bereich Machine Learning ermöglichen hingegen die objektive Identifizierung von Marktphasen auch bei komplexen Gegebenheiten. Zudem können – auch mittels Deep Learning Verfahren – die gegenwärtige Situation eingestuft und mögliche kommende Krisen antizipiert werden.

Im Folgenden soll anhand einfacher Parameter die Identifizierung und Klassifikation von Marktphasen schematisch dargestellt werden. Sämtliche Verfahren wurden in Python umgesetzt und sind ohne spezielle Anforderungen lauffähig.1

Krisen-Phasen und normale Marktphasen

Die herkömmlichen Theorien des effizienten Marktes (Informationseffizienz) bzw. der rationalen Erwartungen (Homo oeconomicus) haben sich als nicht immer zutreffend erwiesen. Stattdessen sind Märkte oftmals durch Übertreibungen ("Gier") und Panik ("Angst") sowie Herdenverhalten und selbsterfüllende Prophezeiungen gekennzeichnet. Jüngste Beispiele betreffen etwa die Dotcom-Blase, die Immobilienkrise oder auch Entwicklungen in Energie- und Rohstoffmärkten.

Insbesondere Krisen-Phasen unterscheiden sich in mehreren Punkten stark von "normalen" Phasen:

  • Korrelationen nehmen im Allgemeinen stark zu (beispielsweise Spreads während Euro-Krise)
  • Starker Anstieg der Volatilität (beispielsweise Zinsen während Finanzkrise)
  • Normalverteilung nicht mehr gegeben (beispielsweise Platzen der Dotcom-Blase)

In etwas geringerem Maße treffen die genannten Punkte auch für Spekulationsphasen zu (beispielsweise Dotcom-Blase).

Die Regulatoren haben die Problematik von Marktregimes erkannt und verlangen eine Berücksichtigung, etwa in Form von Stresstests, die auf realistischen und relevanten Szenarien basieren beziehungsweise eines "gestressten" Value at Risk (VaR), der anhand von Krisen-Perioden zu ermitteln ist.

Des weiteren ist die quantitative Ermittlung von Marktphasen auch aus Risikocontrolling-Gesichtspunkten unabdingbar. In der Praxis gestaltet sich die Ermittlung von Marktphasen jedoch als äußerst problematisch, da eine objektive und für alle Produkte konsistente Ermittlung von Marktphasen in der Regel nicht stattfindet und herkömmliche Risikomethoden Marktphasen in der Regel nicht abdecken.

Herkömmliche Methoden

Monte Carlo-Szenarien werden auf Basis von Modellen generiert, die in der Regel keine Marktphasen beinhalten. Dementsprechend findet keine Berücksichtigung von Marktregimes statt.

Historische Simulationen übernehmen vergangene Änderungen eines bestimmten Beobachtungszeitraums als Basis für mögliche künftige Szenarien. Mögliche Bubble- und Krisen-Phasen der betrachteten Zeiträume sind damit implizit in den ermittelten Szenarien enthalten. Allerdings werden die verschiedenen Phasen nicht explizit ermittelt. Die Identifizierung der Zeiträume, etwa für den Stressed VaR, muss nach wie vor "händisch" erfolgen.

Eine nicht objektivierbare Ermittlung gestresster Marktphasen für regulatorische Zwecke kann zu Anmerkungen seitens Wirtschaftsprüfer und Revisoren führen. Eventuelle sinnvolle Kapitalentlastungen bleiben oftmals verwehrt, da sich ein weniger konservatives Vorgehen nicht immer objektiv begründen lässt. Das Nicht-Erkennen möglicherweise gefährlicher aktueller Marktsituationen erhöht das Verlustrisiko durch Marktpreisschwankungen, da Bubbles  möglicherweise nicht rechtzeitig erkannt und Gesetzmäßigkeiten von Krisen, wie erhöhte Korrelationen, nicht hinreichend berücksichtigt werden.

Andererseits können durch ein zu vorsichtiges Vorgehen in günstigen Marktsituationen Chancen verpasst werden.

Data Science-Verfahren

Für die Analyse der relevanten Marktdaten können verschiedene Data Science / Machine Learning Algorithmen berücksichtigt und mit Tools wie Python, R, Weka oder RapidMiner implementiert werden. Hier lassen sich die folgenden Gruppen von Algorithmen unterscheiden:

Unsupervised Learning-Algorithmen: Diese Algorithmen können zur Bestimmung von "natürlichen" Clustern und zur Gruppierung von Marktdaten nach vordefinierten Ähnlichkeitskriterien verwendet werden. Dies erfordert geeignete Algorithmen wie kmeans oder DBSCAN sowie entsprechende Branchen-Expertise. Außerdem können Ausreißer-Algorithmen eingesetzt werden, um anomale Marktsituationen zu erkennen, die beispielsweise als Basis für Stresstestszenarien dienen können.

Supervised Learning-Algorithmen: Die Algorithmen (beispielsweise Naive Bayes) werden mit bekannten Datensätzen "trainiert", um Marktsituationen zu klassifizieren. Dann können den Marktphasen neue Daten – und insbesondere die aktuelle Situation – zugeordnet werden. Durch geeignetes "Verschieben" der Zeiträume der erklärenden und zu erklärenden Variablen können zudem Prognose-Modelle erstellt werden.

Beim Supervised Learning haben sich verschiedene Kennzahlen etabliert, wie beispielsweise die

  • Accuracy: Richtige Vorhersagen pro Gesamtzahl
  • Sensitivity: Anteil korrekt identifizierter "Positiv-Fälle"
  • Specifity: Anteil korrekt identifizierter "Negativ-Fälle"

Beim Supervised Learning muss stets beachtet werden, dass Validierungen stets anhand eines getrennten Testsets durchgeführt werden müssen, um ein "Overfitting" auszuschließen.

Für eine risikoorientierte Analyse müssen Marktdatendifferenzen (beispielsweise bei Zinsen) oder Renditen (beispielsweise bei Aktienkursen) aus den Marktdaten-Zeitreihen als Grundlage für die weitere Analyse berechnet werden. Weiterhin muss ein "Windowing" durchgeführt werden, das heißt die relevanten Werte der Vortage müssen als zusätzliche Variablen berücksichtigt werden.

Anwendungsbeispiel: Illustrative Analyse von Marktdaten

Verwendete Daten und Bereinigung

Die Analyse bezog sich auf ein Set von Marktdaten, das aus dem DAX 30, dem EURIBOR 3M sowie dem EURUSD bestand. Der betrachtete Zeitraum war Dez. 2000 – Jan. 2018. Die Analyse erfolgte durchwegs mit Schlusskursen auf Return- (für DAX und USD) sowie Differenzen-Basis (für EURIBOR 3M). Die Skizze unten zeigt die verwendeten Marktdaten:

Abb. 01: Illustrative Marktdaten 

Abb. 01: Illustrative Marktdaten

Eventuelle begründbare Sprünge wie Aktiensplits wurden bereinigt, fehlende Returnwerte durch "0" ersetzt und mittels Windowing erweitert (letzte 20 Tage).

Windowing

Das Windowing ist ein Verfahren, das – etwa bei Prognosen – angewandt wird um "Lags" zu berücksichtigen Vergangene Werte werden dabei als aktuelle Variablen betrachtet. Ein weiterer Vorteil ist die Robustheit gegenüber volatilitätsbedingten Schwankungen der Parameter.

Abb. 02: Vorgehen beim Windowing 

Abb. 02: Vorgehen beim Windowing

Hierbei muss jedoch beachtet werden, dass es durch die große Variablen-Anzahl zu einem Overfitting kommen kann.

Gruppierung der Markthasen

Auf dieser Datenmenge wurde der Clustering-Algorithmus DBSCAN angewendet. Die Ergebnisse sind in der Abbildung unten exemplarisch dargestellt.

Abb. 03: Identifizierte Marktphasen

Abb. 03: Identifizierte Marktphasen

Während die meisten Zeitpunkte einem großen "Normal-Cluster" zugeordnet werden können, gibt es Phasen, die zumeist in einen "Krisen-Cluster" fallen. Als Krisen-Phasen wurden die Zeit nach dem 11. September, das Platzen der Dotcom-Blase, die Immobilien- und die Euro-Krise automatisch ermittelt.

Klassifikation und Validierung

Für die Klassifikation wurden zunächst ein zufälliges Trainings- und ein Test-Set mit je 80 Prozent beziehungsweise 20 Prozent der Datensätze gebildet. Das Training erfolgte für die Modelle Naive Bayes, SVM, Decision Tree und Random Forest.

Generell ergaben sich hohe Trefferquoten mit Accuracies bis 93 Prozent (Naive Bayes). Das Naive Bayes-Verfahren schnitt dabei – auch anhand der Confusion Matrices – am besten ab.

Darüber hinaus wurde die Vorhersage durchgeführt inwiefern innerhalb der nächsten 30 Tage eine Krise vorliegen wird. Dafür wurden beim Training die Krisen-Flags entsprechend um 30 Tage in die Vergangenheit verschoben. Wie erwartet waren die Accuracies geringer und lagen. bei maximal 89 Prozent. Auch hier schnitten Naive Bayes und Random Forest am besten ab. Eine Vorhersage für die gegenwärtige Situation ergab zudem, dass demnächst keine Krise droht, wobei aber zu beachten ist, dass kein Präzedenzfall für das historisch niedrige Zinsniveau vorliegt.

Fazit

Durch die Analyse von Marktphasen mithilfe von Machine Learning-Verfahren lässt sich das Financial Risk Management in mehrfacher Hinsicht verbessern. So lassen sich zum einen mögliche Krisen und Spekulationsblasen frühzeitig identifizieren und gegebenenfalls prognostizieren. Zum anderen ist es auch möglich historische Stress-Phasen für eine Vielzahl von Produkten und Märkten effizient und objektiv ermitteln.

Hierfür sind jedoch – neben geeigneten Daten – ein fundiertes Verständnis der Stärken und Schwächen der verwendeten Algorithmen sowie ein striktes Vorgehen bei der Modellvalidierung unabdingbar.

Autor

Dr. Dimitrios Geromichalos, FRM, CEO / Founder RiskDataScience UG (haftungsbeschränkt)

Dr. Dimitrios Geromichalos, FRM, CEO / Founder RiskDataScience UG (haftungsbeschränkt) 

Hinweis:

1 Das verwendete Python-Programm kann gegen eine Schutzgebühr von 200 EUR beim Autor angefordert werden. E-Mail: riskdatascience@gmail.com

 

[ Source of images: Adobe Stock ]


Kommentare zu diesem Beitrag

related news

Study

Future Outlook and Emerging Risks

Artificial Intelligence will bring new benefits and risks

RiskNET [Editor-in-chief]07.06.2018, 10:47

Artificial Intelligence (AI) refers to the ability of a computer program to think and learn like a human and its snowballing impact on society is undeniable. AI applications already pervade many...

Study

Tensions and Turbulence Ahead

Political Risk Map 2018

RiskNET [Editor-in-chief]14.05.2018, 09:59

In 2017, the global political risk landscape was turbulent, and is likely to remain so over the next 12 months. The Political Risk Map 2018, published by Marsh and based on BMI Research findings,...

Interview

Decision making in risk management

Minimize risks with wargaming

RiskNET [Editor-in-chief]29.03.2018, 14:10

Our world is in a state of upheaval – whether due to war and terrorism, the increasing number of environmental disasters or because of cyber risks and economic distortions. The risk map is growing as...

Interview

Compliance index model

Compliance: A matter of culture

RiskNET [Editor-in-chief]23.03.2018, 13:54

Compliance measures result in costs but do they also have a benefit? It's difficult to assess the success of measures. It tends to arise – if at all – after a delay and the contribution made to...

News

Banking Industry

Thoughts on the Impact of Machine Learning

Farhad Khakzad15.02.2018, 13:57

In 1890, a company was founded in the USA that eventually developed into a leading brand. 80 years after its inception, the company had a market share of approximately 90% in its core field of...