Im Rahmen des Internal Ratings-Based (IRB)-Ansatzes zur Ermittlung von Kreditrisiken sind Banken verpflichtet, Unsicherheiten in der Schätzung von langfristigen Probabilities of Default (PD) zu berücksichtigen. Die Europäische Bankenaufsichtsbehörde (EBA) schreibt hierfür die Einbeziehung einer Margin of Conservatism (MoC) vor, insbesondere bei eingeschränkter Datenlage und bei systematisch korrelierten Ausfällen. Der vorliegende Beitrag von Dominik Scherer und Newton K. Lenkana analysiert drei gebräuchliche Methoden zur Quantifizierung statistischer Unsicherheit und vergleicht ihre Vor- und Nachteile unter verschiedenen Parametereinstellungen und regulatorischen Rahmenbedingungen.
Die Autoren identifizieren drei in der Praxis häufig verwendete Methoden:
- Typ I: Verteilungsbasierte Ansätze: Diese beruhen auf einer Annahme über die Verteilung der Ausfälle (z. B. binomial oder Vasicek-Modell). Sie sind rechnerisch effizient, erfordern jedoch Annahmen zur Korrelation, was sie modellabhängig macht.
- Typ II: Empirisch varianzbasierte Ansätze: Hier wird die Varianz historischer Default Rates verwendet. Der Ansatz ist modellunabhängig, reagiert jedoch empfindlich auf systematische Schocks und liefert bei kurzen Zeitreihen unzuverlässige Ergebnisse.
- Typ III: Bootstrapping-Verfahren: Aus beobachteten Ausfallraten werden durch Resampling neue Zeitreihen generiert. Dieses Verfahren erfordert keine Annahmen über die Ausfallverteilung, ist rechnerisch aufwändig und bietet keine Verbesserung der Genauigkeit bei begrenzten Daten.
Theoretischer Rahmen und Simulationsdesign
Die drei Ansätze werden mit Hilfe von Simulationen im Asymptotic Single Risk Factor (ASRF)-Modell evaluiert, welches auch die Grundlage der Basel-Regularien bildet. Variiert werden:
- PD-Level (p): 0,1 %, 1 %, 10 %
- Korrelation (ρ): 0 bis 0,2
- Länge der Zeitreihe (T): 10 bis 200 Beobachtungsperioden
- Portfolio-Größe: 5.000 Schuldner
Für jede Parameterkombination wurden 5.000 Simulationen durchgeführt, im Typ-III-Ansatz mit jeweils 1.000 Bootstraps.
Ergebnisse zur Margin of Conservatism (MoC)
Die Analyse zeigt, dass die MoC stark von der Korrelation der Schuldner und der Länge der Zeitreihe abhängt. Je höher die Korrelation und je kürzer die Zeitreihe, desto höher fällt die erforderliche MoC aus. Besonders deutlich wird dies bei sogenannten Low-Default-Portfolios (z. B. p = 0,1 %). In solchen Fällen wären – bei jährlichen Beobachtungen – unrealistisch lange Zeitreihen nötig, um belastbare Schätzwerte zu erhalten.
Im Vergleich der Ansätze liefert Typ I durchweg die konservativsten MoC-Werte, insbesondere in Szenarien mit hoher Korrelation und niedrigen PDs. Allerdings basiert dieser Ansatz auf Modellannahmen, insbesondere zur Korrelation, die in der Praxis nur schwer exakt zu bestimmen ist. Typ II liefert durchschnittlich geringere MoC-Werte, ist jedoch volatiler und bei Datenknappheit weniger zuverlässig. Typ III – das Bootstrapping-Verfahren – bringt keinen nennenswerten Genauigkeitsgewinn gegenüber Typ II, verursacht aber höheren Rechenaufwand. Ein Vorteil von Typ III besteht allerdings darin, dass die resultierenden Konfidenzintervalle stets positiv bleiben.
Zusammengefasst:
- Typ I: Höchste Stabilität und konservative Schätzwerte – aber modellabhängig.
- Typ II: Modellfrei und einfach – jedoch anfällig bei geringer Datenbasis und hoher Korrelation.
- Typ III: Modellfrei mit stets positiven Intervallen – aber keine verbesserte Genauigkeit und hohe Rechenkosten.
Bewertung der Konfidenzintervalle
Obwohl alle Ansätze auf ein 90 %-Konfidenzniveau abzielen, erreichen nur Typ-I-Verfahren dieses zuverlässig. Typ II und III unterschreiten die erwartete Abdeckungswahrscheinlichkeit bei hoher Korrelation und kurzen Zeitreihen deutlich. Die Simulationen zeigen, dass die Abweichung zwischen nominalem und tatsächlichem Konfidenzniveau in der Praxis relevant sein kann, insbesondere wenn regulatorische Anforderungen bestehen.
Regulatorische Einordnung
Die europäischen Aufsichtsbehörden (insbesondere EBA und EZB) geben derzeit keine explizite Präferenz für einen der Ansätze vor. In der Konsultation zum EZB-Leitfaden wurde jedoch die Bedeutung der Zeitreihenlänge und der statistischen Behandlung betont. Die Autoren sprechen sich daher für konservative, modellbasierte Verfahren aus – insbesondere in Fällen mit kurzer Datenhistorie oder hoher Korrelation, in denen empirische Verfahren versagen könnten.
| Ansatz | Vorteile | Nachteile |
|---|---|---|
| Typ I | Gute Genauigkeit, geringer Rechenaufwand, hohe MoC | Modellabhängig, Korrelation muss bekannt sein, CI kann negative Werte enthalten |
| Typ II | Modellunabhängig, einfache Umsetzung | Volatile und ggf. unzuverlässige CIs bei Datenmangel und Korrelation, CI kann negativ sein |
| Typ III | Modellunabhängig, positive CI-Grenzen garantiert | Höherer Rechenaufwand, keine Genauigkeitsverbesserung, instabile Ergebnisse bei Korrelation |
Abb. 01: Vergleich der Ansätze im Überblick
Fazit
Die Studie zeigt deutlich: Je höher die Korrelation und je kürzer die Zeitreihe, desto unsicherer wird die Schätzung der PD – und damit auch die MoC. Während Typ II und III unter idealen Bedingungen ähnliche Ergebnisse wie Typ I liefern, brechen sie bei korrelierten Ausfällen und geringen Datenmengen in ihrer Zuverlässigkeit ein. Distributional-basierte Verfahren (Typ I) bieten – bei konservativer Parameterwahl – die robusteste Grundlage zur Erfüllung regulatorischer Anforderungen. In regulierten Umfeldern, in denen der Beobachtungszeitraum durch Vorschriften fixiert ist, stellen sie aus Sicht der Autoren die bevorzugte Lösung dar.
Dominik Scherer | Newton K. Lenkana (2025): Anatomy of Estimation Approaches for the Statistical Uncertainty of a Long-Run Probability of Default
Download




