Hohe Laufzeiten von Forderungen an Kunden gehören längst bereits zur Tagesordnung. Oftmals spielen die überlangen Zeiträume bis zur Begleichung einer offenen Forderung eine Hauptrolle bei den Ursachen, die Unternehmen in die Insolvenz treiben. Die Gründe, offene Forderung nicht zeitnah zu begleichen, sind vielfältig. Wie kann diesem Verhalten aus Sicht des Rechnungsstellers begegnet werden? Welche Werkzeuge existieren und wie lassen sich diese in den betrieblichen Arbeitsprozess integrieren um eine effiziente Sicherstellung des Debitorenmanagements zu erzielen? Der folgende Artikel zeigt, dass mit Einsatz der Werkzeuge aus dem Baukasten der modernen Prozessoptimierung das Forderungsmanagement eines Unternehmens durch Veränderung einiger wesentlicher wichtiger Faktoren deutlich verbessert werden kann.
TSchirmer 10118 Downloads09.01.2007
Datei downloaden Der in Basel geborene Mathematiker Jakob Bernoulli (*6. Januar 1655 in Basel; † 16. August 1705 in Basel; Hinweis: das Geburtsdatum bezieht sich auf den Gregorianischen Kalender) hat mit der Entwicklung der Wahrscheinlichkeitsrechnung wesentliche Werkzeuge für das Risikomanagement geliefert. Vor allem das von ihm entwickelten Gesetz der großen Zahlen liefert beispielsweise der Versicherungswirtschaft eine wahrscheinlichkeitstheoretische Vorhersage über den künftigen Schadenverlauf: Je größer die Zahl der im (Versicherungs-) Portfolio erfassten Personen oder Sachwerte, die von der gleichen Gefahr bedroht sind, desto geringer ist der Einfluss von Zufälligkeiten. Oder anders formuliert: Das Gesetz der großen Zahlen besagt, dass sich die relative Häufigkeit eines Zufallsergebnisses immer weiter an die theoretische Wahrscheinlichkeit für dieses Ergebnis annähert, je häufiger das Zufallsexperiment durchgeführt wird. Das Gesetz des großen Zahlen lässt sich sehr einfach an einem Würfel erklären: Welche Augenzahl im Einzelfall gewürfelt wird ist immer zufällig. So kann die Wahrscheinlichkeit, dass eine Sechs gewürfelt wird, als ein Sechstel angegeben werden. Auf Dauer fällt jedoch jede Zahl gleich häufig. Bernoulli sagt nicht anderes, als dass ich die Treffer auf Dauer gleichmäßig verteilen. In seinem Werk „Ars conjectandi“ beschreibt Bernoulli das „Gesetz der großen Zahlen“ auf eine sehr anschauliche Art. [Quelle: Jakob Bernoulli: Wahrscheinlichkeitsrechnung (Ars conjectandi), Dritter und vierter Theil. Übers. und hrsg. von R. Haussner (Ostwalds Klassiker der exakten Wissenschaften), Leipzig 1899.]
Bernoulli 8600 Downloads30.12.2006
Datei downloaden In Zeiten sich ändernder Refinanzierungskonditionen rücken typischerweise Liquiditätsspreads in den Blickpunkt der Banksteuerung von am Kapitalmarkt engagierten Instituten. Ihre Einbeziehung in die Einstandssatzkalkulation von Roll-over-Produkten stellt eine bemerkenswerte Erweitung der Marktzinsmethode um die qualtitative Komponente "Liquidität" dar. Nach der Änderung der Haftungsgrundlagen und anstehenden Änderungen der aufsichtsrechtlichen Behandlungen des Liquiditätsrisikos im Rahmen der Mindestanforderungen an das Risikomanagement (MaRisk)1 wächst in der Sparkassen-Finanzgruppe die Notwendigkeit zur Einführung entsprechender Steuerungssysteme für das Liquiditätsmanagement. Die folgenden Überlegungen zum Pricing von Liquiditätsspreads wurden in einem Projekt der NORD/LB entwickelt und in der Praxis umgesetzt. [Autoren: Michael Akmann / Andreas Beck / Rolf Herrmann / Ralf Stückler / Quelle: Betriebswirtschaftliche Blätter 10/2005]
Akmann 7229 Downloads18.12.2006
Datei downloaden Angesichts des stetig steigenden Profitabilitätsdrucks in der deutschen Finanzbranche ist es von zentraler Bedeutung die Ertragsund Risikopotenziale durch das Eingehen von Adressrisiken über alle Segmente (Kundengeschäft, Eigengeschäft) Ex-Ante möglichst gut abzuschätzen und Ex-Post die tatsächliche Performance (über die risikolose Anlage hinaus) durch das Halten von Adressrisiken zu quantifizieren. [Michael Lesko / Frank Schlottmann / Quelle: Genossenschaftsblatt 09/2005]
Lesko 12066 Downloads18.12.2006
Datei downloaden Der Schätzung und Validierung von Kreditumrechnungs-Faktoren (CCF) im Rahmen der Ermittlunge des Exposure at Default (EAD) wurde bislang zu geringe Aufmerksamkeit geschenkt. CCF haben im Risikomangement eine weit reichende Bedeutung, so auch im Kontext der IRB-Ansätze von Basel II und der Kreditrisikosteuerung auf Grund des umfangreichen Kontokorrentkredit-und Aval-Geschäfts in Deutschland. [Autoren: Christof Hofmann / Dr. Michael Lesko / Stephan Vorgrimler / Quelle: Die Bank 06/2005]
Lesko 17862 Downloads18.12.2006
Datei downloaden The Internal Rating Based Approach (IRBA) of the New Basel Capital Accord allows banks to use their own rating models for the estimation of probabilities of default (PD) as long as the systems meet specified minimum requirements. Statistical theory offers a variety of methods for building and estimation rating models. This chapter gives an overview of these methods. The overview is focused on statistical methods and includes parametric models like linear regression analysis, discriminant analysis, binary response analysis, time-discrete panel methods, hazard models and nonparametric models like neural networks and decision trees. We also highlight the benefits and the drawbacks of the various approaches. We conclude by interpreting the models in light of the minimum requirements of the IRBA. Probekapital aus: The Basel II Risk Parameters – Estimation, Validation, and Stress Testing [Bernd Engelmann, Robert Rauhmeier, Robert (Editors), 376 p., Springer Verlag, Berlin 2006.]
Hayden 10185 Downloads11.12.2006
Datei downloaden In dem Kapitel werden die verschiedenen prinzipiellen Möglichkeiten vorgestellt, Verlustverteilungen zu bestimmen. Um eine plausible Verlustverteilung für ein Portfolio zu erhalten, reicht es jedoch in der Regel nicht aus, ein Verteilungsmodell zu bestimmen und mit den richtigen Parameterwerten zu befüllen. Vielmehr sind hierzu komplexere Modelle nötig, bei deren Formulierung die zuvor besprochenen Verteilungsmodelle mit ihren Eigenschaften von besonderer Bedeutung sind. Modelle dieser Art besprechen wir in Kapitel 6. Selbst wenn wir ein Portfoliomodell formuliert haben, müssen wir noch die Verlustverteilung und deren (Risiko-) Kennzahlen berechnen. Hierzu steht uns ein umfangreiches Instrumentarium zur Verfügung, dessen wichtigste Werkzeuge wir in diesem Kapitel einführend beschreiben. Probekapitel aus: Kreditrisikomessung – Statistische Grundlagen, Methoden und Modellierung [Andreas Henking, Christian Bluhm, Ludwig Fahrmeir, 312 S., Springer Verlag, Berlin 2006.]
Henking 19691 Downloads11.12.2006
Datei downloaden The high computational complexity of many problems in financial decision-making has prevented the development of timeefficient deterministic solution algorithms so far. At least for some of these problems, e.g., constrained portfolio selection or non-linear time series prediction problems, the results from complexity theory indicate that there is no way to avoid this problem. Due to the practical importance of these problems, we require algorithms for finding optimal or near-optimal solutions within reasonable computing time. Hence, heuristic approaches are an interesting alternative to classical approximation algorithms for such problems. Over the last years many interesting ideas for heuristic approaches were developed and tested for financial decision-making. We present an overview of the relevant methodology, and some applications that show interesting results for selected problems in finance. [Autoren: Frank Schlottmann, Detlef Seese, Quelle: Rachev, S. (Ed.): Handbook of Computational and Numerical Methods in Finance]
Schlottmann 9467 Downloads08.12.2006
Datei downloaden We discuss four different approaches to the estimation of sector weights for the CreditRisk+ model from German real-world data. Using a sample loan portfolio, we compare these approaches in terms of the resulting unexpected loss risk figures. [Autoren: Michael Lesko, Frank Schlottmann, Stephan Vorgrimler, Quelle: Gundlach, M. / Lehrbass, F. (Eds.): CreditRisk+™ in the Banking Industry]
Lesko 9271 Downloads08.12.2006
Datei downloaden Im Jahre 1997 stellten Brace/Gatarek/Musiela1 das LIBOR-Marktmodell vor und leiteten damit eine neue Ära im Bereich der Zinsstrukturmodelle ein. Inzwischen stellt es den State-of-the-Art bei der Bewertung und beim Hedging von exotischen Zinsderivaten dar. Die Autoren erläutern zunächst die praktische Anwendung des Modells und übertragen es dann auf die Bewertung des Zinsänderungsrisikos. Abschließend erfolgt ein Vergleich mit einem weiteren verbreiteten Risikomessmodell. Das Ziel eines Zinsstrukturmodells besteht darin, die Dynamik der Zinsstruktur durch ein geeignetes mathematisches Modell möglichst treffend zu beschreiben. Dabei weisen die Verläufe der Zinskurve beispielsweise im Vergleich zu Aktienkursverläufen wesentliche Unterschiede auf, die eine Modellierung erschweren. Die verschiedenen Stützstellen der Kurve sind zueinander unterschiedlich stark korreliert und auch ihre Volatilität unterscheidet sich (Volatilitätsstruktur der Zinskurve). Im Zusammenhang mit der konsistenten Bewertung von Zinsderivaten stellt sich das Hauptproblem darin, einen arbitragefreien Prozess aus der zugrundegelegten Dynamik abzuleiten. Im Folgenden wird ein kurzer Abriss der Entwicklungen im Bereich der Zinsstrukturmodelle gegeben. [Autoren: Irene Biller, Andreas Mitschele, Frank Schlottmann, Detlef Seese, Stephan Vorgrimler, Quelle: Zeitschrift für das gesamte Kreditwesen 22/2004]
Biller 13794 Downloads08.12.2006
Datei downloaden