Risikomanagement von Betriebsrisiken gewinnt weltweit aufgrund gestiegener Anforderungen von Gesetzgebern und Kapitalmärkten an Bedeutung. Gutes Risikomanagement erfüllt nicht nur die Pflicht, sondern trägt mit seinen unternehmensweit gesammelten Informationen zu einer verbesserten Unternehmensplanung bei. Dazu müssen diese einheitlich beschrieben, strukturiert und analysiert werden. In der vorliegenden Arbeit werden die Voraussetzungen und Methoden für eine unternehmensweite Risikoaggregation beschrieben. Es wird grundsätzlich ein „Bottom-Up“-Ansatz verfolgt, bei dem es darum geht, die Bewertung und Analyse des bestehenden Risikoinventars zu verbessern. Ziel dieser Arbeit ist es, Verbesserungsmöglichkeiten für die quantitative Beschreibung von Risiken und betroffenen Geschäftszielen sowie ihrer Zusammenhänge aufzuzeigen. Bei der Beschreibung der Methoden wird auf den derzeitigen Umsetzungsstand bei der SAP Bezug genommen.
[Quelle: Friedrich Köster: Diplomarbeit am Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB), Prof. Dr. D. Seese, Fakultät für Wirtschaftswissenschaften, Universität Karlsruhe (TH)]
Koester 9023 Downloads12.04.2007
Datei downloaden Die mathematische Statistik hat – nicht zuletzt durch Basel II, Solvency II und den Einsatz moderner Risikomanagement-Verfahren – ihren Platz in der Ecke der Geheimwissenschaften verlassen und drängt sich immer mehr in den Blickpunkt der Praxis. Allerdings müssen Praktiker häufig statistische Methoden anwenden, ohne mit den entsprechenden mathematischen Hintergründen vertraut zu sein. Statistik ist jedoch nicht nur eine Sammlung von Formeln und methodischen Instrumentarien, sondern vor allem eine Denkweise, die auch ohne mathematische Vorkenntnisse nachvollzogen werden kann.
[Quelle: Ralph Würthwein, Statistik für Muggles. Das Ende der Ökonometrie als Geheimwissenschaft, in: RISKNEWS, 1. Jahrgang, 06/2004, Wiley-VCH Verlag, Weinheim.]
Wuerthwein 10441 Downloads11.04.2007
Datei downloaden Ratings sollen bekanntlich in erster Linie darüber Auskunft geben, wie wahrscheinlich es ist, dass ein Kreditnehmer oder Emittent eines Wertpapiers seinen Zahlungsverpflichtungen nachkommt bzw. eben nicht nachkommt. Diese so genannte Ausfallwahrscheinlichkeit oder Probability of Default (PD) zu ermitteln, ist die zentrale Aufgabe einer Rating-Agentur. Ein Grundprinzip und Erfolgsrezept wissenschaftlicher Forschung ist es, zunächst zu untersuchen, wie über ein bestimmtes Phänomen nachgedacht werden soll, um einen gewissen Fortschritt, sei es im Hinblick auf das tiefere Verständnis oder die praktische Handhabung eines Phänomens, zu erzielen. Rating als Schätzproblem zu sehen, kann dazu beitragen, die Diskussionen über die Methodik und die Transparenz des Ratings zu versachlichen.
[Quelle: Ralph Würthwein, Rating als Schätzproblem, in: RATINGaktuell, 02/2004, Bank-Verlag, Köln.]
Wuerthwein 13750 Downloads11.04.2007
Datei downloaden Hedge Funds können sowohl aus theoretischer als auch aus praktischer Sicht als die "Königsdisziplin" der Kapitalanlage charakterisiert werden. Während auf der einen Seite Hedge Funds aufgrund günstiger Risiko-Ertrags-Verhältnisse und einer in der Regel negativen Korrelation mit der Marktentwicklung eine interessante Anlagekategorie offerieren und zur Effizienzsteigerung der Märkte beitragen, beinhalten Hedge Funds jedoch auf der anderen Seite auch ein nicht unerhebliches Destabilisierungspotenzial, insbesondere durch den Einsatz von Leverage und derivativer Finanzinstrumente. Die aktuelle öffentliche Diskussion zeigt aber vor allem, welche immensen Unkenntnisse über Hedge Funds existieren.
Der folgende Beitrag dient der Versachlichung der aktuellen Diskussion um die Regulierung von Hedge Funds und skizziert die Grundlagen und Rahmenbedingungen sowie die Bedeutung eines adäquaten Risikomanagements, um insbesondere die mit Hedge Funds verbundenen systemischen Risiken zu reduzieren.
[Mit freundlicher Genehmigung der Redaktion der Zeitschrift RISIKO MANAGER, Bank Verlag Medien GmbH]
Romeike 19896 Downloads06.04.2007
Datei downloaden Dieser Beitrag hat insbesondere zum Ziel, die zentrale Funktion von ALM als Prozess im Risikomanagement der Versicherer zu beleuchten und verstärkt ins Bewusstsein zu rücken. Ganz grundsätzlich bezeichnet Asset-Liability-Management Verfahren zur Steuerung des Unternehmens anhand der zukünftigen Entwicklung von Aktiva und Passiva. Dabei werden wir im Folgenden stets ALM auf Unternehmensebene betrachten (Makro-Sicht). Varianten davon existieren auch für die Analyse einzelner Produkte (Mikro-Sicht), wie z. B. bei der Aktienindexgebundenen Lebensversicherung, bei der Leistungsverpflichtungen und Kapitalanlagen unmittelbar aneinander gekoppelt sind. Der interessierte Leser sei hierzu an die entsprechende Literatur verwiesen. [Quelle: Hans-Joachim Zwiesler: Grundlagen des Asset-Liability-Managements, in: Versicherung im Umbruch (Hrsg. K.Spremann), Heidelberg, 2004, Springer, S. 117-131]
Zwiesler 9456 Downloads22.03.2007
Datei downloaden The Basel II Capital Accord of 2004 sets guidelines on operational risk capital requirements to be adopted by internationally active banks by around year-end 2007. Operational loss databases are subject to a minimum recording threshold of roughly $10,000 (internal) and $1 million (external) – an aspect often overlooked by practitioners. We provide theoretical and empirical evidence that ignoring these thresholds leads to underestimation of the VaR and CVaR figures within the Loss Distribution Approach. We emphasize that four crucial components of a reliable operational loss actuarial model are: (1) non-homogenous Poisson process for the loss arrival process, (2) flexible loss severity distributions, (3) accounting for the incomplete data, and (4) robustness analysis of the model. [Authors: Anna Chernobai, Christian Menn, Svetlozar T. Rachev, Stefan Trück]
Trueck 8985 Downloads17.03.2007
Datei downloaden A new approach to optimizing or hedging a portfolio of fnancial instruments to reduce risk is presented and tested on applications. It focuses on minimizing Conditional Value-at-Risk (CVaR) rather than minimizing Value-at-Risk (VaR), but portfolios with low CVaR necessarily have low VaR as well. CVaR, also called Mean Excess Loss, Mean Shortfall, or Tail VaR, is anyway considered to be a more consistent measure of risk than VaR. [Authors: R. Tyrrell Rockafellar and Stanislav Uryasev]
Rockafellar 8145 Downloads17.03.2007
Datei downloaden Value at Risk (VaR) has become the standard measure that financial analysts use to quantify market risk. VaR is defined as the maximum potential change in value of a portfolio of financial instruments with a given probability over a certain horizon. VaR measures can have many applications, such as in risk management, to evaluate the performance of risk takers and for regulatory requirements, and hence it is very important to develop methodologies that provide accurate estimates. The main objective of this paper is to survey and evaluate the performance of the most popular univariate VaR methodologies, paying particular attention to their underlying assumptions and to their logical flaws. In the process, we show that the Historical Simulation method and its variants can be considered as special cases of the CAViaR framework developed by Engle and Manganelli (1999). We also provide two original methodological contributions. The first one introduces the extreme value theory into the CAViaR model. The second one concerns the estimation of the expected shortfall (the expected loss, given that the return exceeded the VaR) using a simple regression technique. [Authors: Simone Manganelli, Robert F. Engle]
Manganelli 8263 Downloads17.03.2007
Datei downloaden Im letzten Jahrzehnt haben immer wieder einzelne Finanzinstitute spektakuläre Verluste erlitten. Die meisten dieser finanziellen Verluste hätten im Fall funktionierender interner Kontrollen und eines entsprechenden Risikomeßsystems vermieden werden können. Diese Ereignisse, die großes öffentliches Interesse erweckten, verstärkten die Notwendigkeit der Entwicklung eines sinnvollen Risikomaßes, das die Grundlage für die Risikokontrolle und Risikosteuerung von Finanzinstituten bilden sollte. Wünschenswert war die Entwicklung bzw. Anwendung von statischen Kennzahlen, die die Quantifizierung und den Vergleich des Risikos zwischen verschiedenen Organisationsbereichen (z. B. Handelstischen, Abteilungen usw.) ermöglichen. Aus Sicht der Regulatoren stand das Ziel der Stärkung der Finanzstabilität im Vordergrund.
Oenb 12896 Downloads17.03.2007
Datei downloaden Das Controlling unterstützt die Unternehmensführung bei einer zukunftsbezogenen und erfolgsorientierten Unternehmenssteuerung. Dies erfordert die Einschätzung der Konsequenzen alternativer Handlungsoptionen (d.h. Prognosen). Aufgrund der Unvorhersehbarkeit der Zukunft sind Abweichungen von diesen Prognosen möglich, die durch das Wirksamwerden von Risiken ausgelöst werden. Neben der Erstellung möglichst präziser (erwartungstreuer) Prognosen muss das Controlling den möglichen Umfang und die Ursachen solcher Planabweichungen einschätzen, um die Planungssicherheit zu quantifizieren und erforderlichenfalls geeignete Risikobewältigungsmaßnahmen zu initiieren. Das Controlling übernimmt wesentliche Risikomanagement-Aufgaben, die die Unternehmensführung in die Lage versetzen, bei wichtigen Entscheidungen die erwarteten Erträge (Rendite) und die damit verbundenen (aggregierten) Risiken gegeneinander abzuwägen. [Autoren: Dr. Werner Gleißner/Marco Wolfrum, Quelle: ZfV, Zeitschrift für Versicherungswesen, Nr. 5/2006]
Gleissner 11973 Downloads09.03.2007
Datei downloaden