RiskNET eLibrary


Methoden


Die klassischen Methoden zum Kredit-Scoring sind großteils ausgereizt und deren Vor- und Nachteile den Anwendern in der Praxis sattsam bekannt. Neben derTatsache, dass die Punkte in den Scorekartenaum zu interpretieren sind, wird die klassische Statistik nicht damit fertig, dass die Scorepunkte bei kleinen Datenmengen große Schwankungen aufweisen und durch unterbestimmte Gleichungen die ganze Scorekarte instabil wird. Ausserdem ist es bei den klassischen Verfahren nur schwer möglich, das Wissen um die durchschnittliche Ausfallhäufigkeit einzubringen, und ein Re-Scoring von sich im Zeitablauf verändernden Beständen ist mit größerem Aufwand verbunden, als es nötig erscheint. Von den Methoden der Bayesianischen Statistik hingegen ist bekannt, dass sie abzubilden imstande sind, was intuitiv klar erscheint, und dabei auch für kleine Datenmengen stabile Schätzer liefern. Das wird durch Einbeziehen von Information erreicht, die bereits vor Analyse der Daten vorhanden ist (sogenannte a priori Information) – die Daten dienen dann zur „Anreicherung“ dieser Vorinformation. Dieses Setup hat zum einen den Vorteil, dass auch qualitative Informationen zwanglos eingebracht werden können und erleichtert zum anderen das Neu-Analysieren von Daten, weil die Bayesianischen Verfahren sich aufgrund ihrer Updating-Relation für einen (zeit-)dynamischen Betrieb anbieten.
[Quelle: Rieder, Markus J.: Bayesianisches Kredit-Scoring: Eine innovative Idee zur Messung des Ausfallrisikos, in: RISKNEWS 09/2003, S. 22-33.]
3039 Downloads 15.09.2009
Datei downloaden
In dem Beitrag "6 Ways Companies Mismanage Risk" (Harvard Business Review, March 2009] wird erklärt, was die Risikomanager in jüngerer Zeit falsch gemacht haben. Insgesamt werden sechs typische Fehler diskutiert. Dem Autor geht es aber eindeutig "nur" um praktische Umsetzungsfehler. Die implizite Annahme bei seiner Diskussion lautet: Im "Prinzip" ist die Grundstruktur der heutigen Risikomodelle richtig; es geht also lediglich um fehlerhafte Anwendungen. Im vorliegenden Beitrag wird diese Sichtweise bestritten. Wir behaupten: Das Grundmodell hat eine falsche Struktur. Wenn das Grundmodell falsch ist, warum ging es bis zum Sommer 2007 dann gut? Warum funktionierte das Grundmodell danach nicht mehr? Die Antwort ist einfach: Selbst eine Fehlkonstruktion kann funktionieren, wenn sie nicht extremen Belastungen ausgesetzt ist. Die extreme Belastung setzte im Jahr 2007 mit dem Zusammenbruch des Subprime-Marktes ein. Erst zu diesem Zeitpunkt wurden die konzeptionellen Fehler im Risikomanagement offensichtlich.
[Quelle: Bieta/Milde: Denkfehler im Risikomanagement, in: RISIKO MANAGER 16/2009]
Bieta 4326 Downloads 03.09.2009
Datei downloaden
In dem Beitrag "6 Ways Companies Mismanage Risk" (Harvard Business Review, March 2009] wird erklärt, was die Risikomanager in jüngerer Zeit falsch gemacht haben. Insgesamt werden sechs typische Fehler diskutiert. Dem Autor geht es aber eindeutig "nur" um praktische Umsetzungsfehler. Die implizite Annahme bei seiner Diskussion lautet: Im "Prinzip" ist die Grundstruktur der heutigen Risikomodelle richtig; es geht also lediglich um fehlerhafte Anwendungen. Im vorliegenden Beitrag wird diese Sichtweise bestritten. Wir behaupten: Das Grundmodell hat eine falsche Struktur. Wenn das Grundmodell falsch ist, warum ging es bis zum Sommer 2007 dann gut? Warum funktionierte das Grundmodell danach nicht mehr? Die Antwort ist einfach: Selbst eine Fehlkonstruktion kann funktionieren, wenn sie nicht extremen Belastungen ausgesetzt ist. Die extreme Belastung setzte im Jahr 2007 mit dem Zusammenbruch des Subprime-Marktes ein. Erst zu diesem Zeitpunkt wurden die konzeptionellen Fehler im Risikomanagement offensichtlich.
Bieta 388 Downloads 17.08.2009
Datei downloaden
In this thesis we investigate two market risk factors only, the FX rates USD vs. DEM and GBP vs. DEM, and use the Gumbel-Hougaard copula [4] to describe their dependence structure. We present algorithms to estimate the parameter of this copula and to generate pseudo random numbers due to a copula dependence. Based on about 2000 items of historical data, we compute the VaR using a copula-modified MC algorithm. To see the advantage of this method, we compare these results with VaR results obtained from traditional" MC simulations and from the variance-covariance method. On the basis of our backtesting results, we find that the copula method" is more reliable than the other two methods.
[Source: Rank, Jorn: Oxford University, 2000]
Rank 5668 Downloads 12.08.2009
Datei downloaden
Modern risk management calls for an understanding of stochastic dependence going beyond simple linear correlation. This paper deals with the static (non-time-dependent) case and emphasizes the copula representation of dependence for a random vector. Linear correlation is a natural dependence measure for multivariate normally and, more generally, elliptically distributed risks but other dependence concepts like comonotonicity and rank correlation should also be understood by the risk management practitioner. Using counterexamples the falsity of some commonly held views on correlation is demonstrated; in general, these fallacies arise from the naive assumption that dependence properties of the elliptical world also hold in the non-elliptical world. In particular, the problem of finding multivariate models which are consistent with prespecified marginal distributions and correlations is addressed. Pitfalls are highlighted and simulation algorithms avoiding these problems are constructed.
[Source: Embrechts, Paul/McNeil, Alexander/Straumann, Daniel, ETH Zurich, 1999]
Embrechts 1088 Downloads 11.08.2009
Datei downloaden
Kreditratings sind eines von mehreren Instrumenten, die Investoren bei ihrer Kaufentscheidung von Anleihen und anderen festverzinslichen Anlagen benutzen können. Dieser Leitfaden erläutert, was Ratings sind und was nicht, wer sie verwendet und warum sie für die Kapitalmärkte von Nutzen sein können. Der vorliegende Leitfaden bietet überdies einen Überblick über die verschiedenen Geschäftsmodelle und Methoden von Ratingagenturen. Er beschreibt außerdem ganz allgemein, wie Standard & Poor’s zu ihren Ratingmeinungen über Emittenten und Emissionen gelangt, wie die daraus resultierenden Ratings überwacht und angepasst werden, und wie sie Ratingänderungen im Zeitverlauf untersucht.
S&P 4647 Downloads 06.08.2009
Datei downloaden
Die adäquate und systematische Kommunikation über Risiken und die vorhandenen Fähigkeiten im Risikomanagement sind für Unternehmen entscheidend. Dies betonen verschiedene Analysen der jüngeren Vergangenheit. In diesem Beitrag werden mögliche Problemfelder beim Austausch relevanter Risikoinformationen innerhalb einer Organisation aufgezeigt und mögliche Ansatzpunkte zur Optimierung der Kommunikation zur Diskussion gestellt.
markus.aeschimann 6245 Downloads 14.07.2009
Datei downloaden
Rationale ökonomische Entscheidungen sind abhängig von erwarteten Erträgen (Renditen) und Risiken. Für diese Entscheidungen maßgeblich ist dabei grundsätzlich der aggregierte Gesamtumfang an Risiken, der sich aus den Einzelrisiken und ihren Wechselwirkungen (stochastischen Abhängigkeiten) ergibt. Die Berechnung des Gesamtumfangs der Unternehmensrisiken und des daraus resultierenden Bedarfs an Risikodeckungspotenzial (speziell Eigenkapital) erfordert den Einsatz von Simulationsverfahren (Monte Carlo Simulation), da analytische Lösungen nur für in der Praxis meist wenig realistische Spezialfälle (Normalverteilung) existieren bzw. berechenbar sind.
[Gleißner, W., Schrei, Th., Wolfrum, M.: Neue Ansätze im Risikomanagement der OMV, in: Controller Magazin, Mai/Juni 2009, S. 93-99]
Gleissner 1978 Downloads 08.07.2009
Datei downloaden
Mit dem Ziel, es Industrie- und speziell Pharmaunternehmen zu ermöglichen, ihre Risikolage besser zu verstehen und sowohl risikobasiert als auch wertorientiert steuern zu können, wird ein Konzept für einen integrierten unternehmensweiten Risikomanagementansatz vorgestellt. Er basiert auf der Erstellung eines stochastischen Unternehmensmodells und der Verwendung von Simulationstechniken zur Ergebnisanalyse und -darstellung.
C_Schiel 5691 Downloads 30.06.2009
Datei downloaden
Die vorliegende Analyse zeigt am Beispiel "Telenor", warum es einem individuellen Telekommunikationsanbieter trotz rezessiver Branchenkonjunktur gelingen kann, ein überdurchschnittlich gutes Konzernergebnis zu erzielen. Der Erfolg eines Unternehmens wird im Börsenkurs reflektiert und dieser von heutigen und zukünftigen Firmenergebnissen beeinflusst. Eine überdurchschnittlich gute Börsenkursentwicklung darf nicht nur ein oder zwei herausragende Perioden repräsentieren. Sie muss eine lange Zeitreihe aussergewöhnlich guter Börsenkurse vorweisen. Bei solch einer Beobachtungsreihe könnte man folgendermaßen argumentieren: Das Produkt oder der Service dieses Anbieters muss eine überdurchschnittlich gute Qualität haben; alle Nachfrager haben zu diesem Anbieter gewechselt. Dann ist das Börsenkursergebnis keine Überraschung. So einfach ist es in der Telekommunikationsbranche aber nicht, denn die Produkte/Services haben aus technischen Gründen eine sehr homogene Durchschnittsqualität bei allen Mitbewerbern. Ferner haben sie durch ihre Netzwerke eine regionale Bindung. Grosse positive oder negative "Qualitätsausreisser" sollte es daher nicht geben. Die zentrale Frage lautet also: Was ist das Erfolgsgeheimnis des Anbieters "Telenor"? Der vorliegende Beitrag wird die Antwort geben.
[Quelle: Stella I. A. Dombrowsky: Risikoorientierte Übernahmepolitik in der Telekommunikationsindustrie, in: RISIKO MANAGER 09/2009, S. 14-19.]
Dombrowsky 1314 Downloads 03.06.2009
Datei downloaden