News

Transparenz in der Unternehmenssteuerung

Scheingenauigkeit als Scheinargument

Werner Gleißner11.04.2010, 22:44

Der Nutzen eines leistungsfähigen Risikomanagements in Unternehmen wird inzwischen wohl kaum mehr bestritten: Verbesserung von Planungssicherheit, Abwehr von Krisen, Reduzierung von Eigenkapitalbedarf und Kapitalkosten und bessere unternehmerische Entscheidungen durch Abwägen erwarteter Erträge und Risiken sind überzeugende Vorteile.

Um diese Nutzenpotenziale erschließen zu können, sind quantitative (oft aggregierte) Risikoinformationen erforderlich. Und genau hier wird ein Argument gegen den zügigen Ausbau der Risikoanalysefähigkeiten angeführt: Quantifizierte Risiken würden nur Scheingenauigkeiten bieten, beispielsweise wegen der Subjektivität der Risikobewertung und der begrenzten Verfügbarkeit statistisch auswertbarer Daten.

Dieses beliebte "Totschlagargument" ist ein reines Scheinargument, das auf einer völlig falschen Sichtweise der Idee einer risiko- und wertorientierten Unternehmensführung fußt. Durch Risikoquantifizierung sollen gerade Scheingenauigkeiten vermieden werden. Risikoanalysen sollen und können für den Grad an Wissen oder Nichtwissen über die Zukunft, über Planungsunsicherheiten, den Umfang möglicher Planabweichungen und Bandbreiten der Zukunftsentwicklung informieren. Anstelle eines unrealistischen "Punktschätzers" (einwertige Planung) tritt eine realistische Bandbreitenschätzung. Natürlich lassen sich bei derartigen Schätzungen subjektive Einflüsse nicht verhindern. Aber letztlich basieren alle Entscheidungen auf subjektiven Elementen und mit Hilfe quantitativer Risikoinformationen soll aus den verfügbaren Informationen die bestmögliche Schlussfolgerung abgeleitet werden. Im Risikomanagement und wertorientierten Management gilt der simple Grundsatz, dass aus den besten verfügbaren Informationen, fundiert und nachvollziehbar, die besten Schlussfolgerungen abzuleiten sind. Und bekanntlich gibt es viele Techniken, wie auch bei subjektiven Informationen deren Qualität verbessert werden kann.

Der Verdacht der Scheingenauigkeit entsteht durch (nicht selten zu sehende) methodische Fehler bei der Risikoquantifizierung. Was ist zu halten von Aussagen, dass z.B. die Eintrittswahrscheinlichkeit eines Haftpflichtschadens bei 17,4 Prozent läge? Oder der Erwartungswert der Rendite des Euro Stoxx-Index mit 9,4 Prozent zu quantifizieren sei? Diese Art der Risikoquantifizierung ist tatsächlich zu kritisieren, da hier implizit ein Wissen unterstellt wird, das schon aufgrund der begrenzten Verfügbarkeit historischer Daten und der Einzigartigkeit vieler Entscheidungssituationen gar nicht existieren kann. Aber solche Aussagen sollte ein modernes Risikomanagement auch nicht liefern. Risikomanagement möchte, dass niemand zu einer Präzision bei der Quantifizierung gezwungen wird, zu der er aufgrund seiner tatsächlichen Informationen nicht wirklich steht.

Was spricht dagegen anzugeben, dass die Wahrscheinlichkeit des Haftpflichtfalls zwischen 15 und 20 Prozent liegt? Oder wenn man noch weniger exakt diesen beispielhaften Fall einschätzen kann, zwischen 10 und 30 Prozent? Der Modellparameter, hier die Eintrittswahrscheinlichkeit, ist in der Realität selbst nicht sicher bekannt (es existiert ein "Metarisiko"). Es ist kein Problem, mit einem derartigen Metarisiko (beispielsweise bei einer Monte-Carlo-Simulation) zu rechnen und entsprechend ist es sinnvoll, derartige Unsicherheiten auch explizit zu erfassen, da sonst tatsächlich ein Teil des Risikos a priori ignoriert würde.

In der Praxis zeigt sich allerdings, dass viele Menschen selbst auf dieser Ebene nicht bereit sind, quantitative Risikoeinschätzungen vorzunehmen. Selbst eine Bandbreite der Eintrittswahrscheinlichkeit wird nicht (gerne) angegeben, obwohl diese (offensichtlich) irgendwo zwischen 0 und 100 Prozent liegen wird. Das Problem besteht also dann nicht darin, dass man durch die Festlegung auf eine bestimmte Zahl (eine Wahrscheinlichkeit) zu einer nicht sinnvollen "Scheingenauigkeit" gezwungen wird. Man kann ja den tatsächlichen Grad des Unwissens immer durch eine adäquate Bandbreite darstellen.

Das tatsächliche Problem für viele Menschen besteht darin, dass man überhaupt zu einer eindeutig nachvollziehbaren und damit auch diskutierbaren Aussage aufgefordert wird. Man muss über seine Annahmen Transparenz schaffen, und wird damit kritisierbar und im Nachhinein auch gegebenenfalls überprüfbar. Das tatsächliche Problem vieler Menschen in Unternehmen bei der Risikoquantifizierung besteht deshalb in erster Linie darin, dass Transparenz über Annahmen hergestellt wird.

Das Argument der Scheingenauigkeit ist damit lediglich ein Scheinargument. Der Kern des Problems besteht darin, dass gerade durch die Risikoanalyse Transparenz geschaffen wird, die sonst nicht existiert.

Fazit

Risikoanalyse und risikoorientierte Unternehmensführung möchte keine Scheingenauigkeiten erreichen. Stattdessen soll gerade Transparenz geschaffen werden über den tatsächlichen Umfang möglicher Planabweichungen und auch die Unsicherheit der Risikoeinschätzung selbst (beispielsweise der Eintrittswahrscheinlichkeit eines Schadens) lässt sich adäquat erfassen. Scheingenauigkeiten lassen sich so vermeiden. Mit einer quantitativen Risikoanalyse einher geht aber zwangsläufig Transparenz über die Annahmen, was zur kritischen Diskutierbarkeit und ex post Prüfbarkeit führt.

Und gerade diese Transparenz mögen viele Mitarbeiter – und nicht zuletzt auch die vielen Führungskräfte von Unternehmen – nicht. Transparenz über die zugrundeliegenden unsicheren Annahmen ist die Grundlage, Entscheidungen kritisch zu durchdenken, zu lernen und risikogerecht zu entscheiden. Transparenz ist damit im Interesse des Unternehmens (und seiner Eigentümer), aber nicht zwingend im persönlichen Interesse jedes Mitarbeiters. Es ist sicherlich viel einfacher zu argumentieren, dass der Ausbau des Risikomanagements wegen "Scheingenauigkeiten" nicht vorangetrieben wird, als offen zuzugeben, dass die damit geschaffene Transparenz stört.


Literaturverzeichnis:

Gleißner, W. (2008): Grundlagen des Risikomanagements im Unternehmen, Vahlen Verlag, München.

Gleißner, W./Romeike, F. (2008): Analyse Subprime-Krise: Risikoblindheit und Methodikschwächen, in: RISIKO MANAGER, Ausgabe 21/2008, S. 1, 6-9, Download in der RiskNET eLibrary.



Zum Autor:

Dr. Werner Gleißner, Leiter der Risiko-Forschung der Marsh GmbH, Vorstand der Future Value Group AG, Leinfelden-Echterdingen und Lehrbeauftragter an den Universitäten Dresden, Hohenheim und Stuttgart sowie an der European Business School.

Kontakt: kontakt@futurevalue.de







[Bildquelle oben: iStockPhoto, Bildquelle unten: Future Value Group AG]

 

 



Kommentare zu diesem Beitrag

Urban/12.04.2010 21:20
Dieses Scheinargument kenne ich als Corporate Risk Manager nur zu gut. Leider lehren viele Lehrbücher und insbesondere die Veröffentlichungen der Wirtschaftsprüfer immer noch die Weisheit, dass man Punktwerte für Schadensausmaß und Eintrittswahrscheinlichkeit ermitteln muss und die dann miteinander multipliziert. Dummerweise verschwinden damit auch alle "schwarzen Schwäne", da eine kleine EW multipliziert mit einem Extremereignis aus einem großen Elefanten eine kleine Maus macht ;-))
Bert/14.04.2010 13:21
Sehr guter Beitrag! Glückwusch! BM
Karl-Heinz/28.04.2010 09:46
Sehr guter Beitrag. In der Tat spricht nichts gegen die Angabe von realistisch schätzbaren Bandbreiten von Wahrscheinlichkeiten. Im Gegenteil, diese Angabe sollte normalerweise immer möglich sein. Die Scheingenauigkeit wird aber weniger durch eine möglichst hohe Spannbreite vermieden (dann könnte man in der Tat immer auf 0-100% gehen), sondern dadurch, dass neben der Bandbreite eine möglichst umfangreiche Angabe von Einflussfaktoren erfolgt. Soweit diese Einflussfaktoren intern bekannt sind sollten ihre Ausprägung möglichst (soweit hiergegen bei externer Berichterstattung nicht Geheimhaltungsgründe sprechen) offen gelegt werden. Soweit die Einlfussfaktoren nicht intern bekannt sind, oder nicht von intern steuerbar sind, sollten sie und ihre Auswirkungen möglichst umfangreich beschrieben werden. Hierduch erhält der Leser die Möglichkeit selbst Kenntnis über diese Einflussfaktoren (z.B. Entwicklung der Marktnachfrage für einen bestimmten Produkttyp) zu beschaffen und die angegebene Risikobandbreite zu beurteilen.

Themenverwandte Artikel

Kolumne

Investieren in Zeiten der Handelskriege

Welthandel im Sinkflug

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.23.06.2019, 20:43

Wie wird man in zehn Jahren einmal auf das Jahr 2019 zurückschauen? Ist es das Jahr, in dem der zehnjährige Aufschwung nach der großen Finanzkrise zu Ende kam? In dem sich vielleicht eine globale...

News

Risiko- und Sicherheitsmanagement

Veränderte Risikolandkarte der Seefahrt

Redaktion RiskNET07.06.2019, 07:34

In diesem Jahrhundert wurden noch nie so wenige Totalverluste von Schiffen verzeichnet wie in 2018. Wie aus der Safety And Shipping Review 2019 der Allianz Global Corporate & Specialty SE (AGCS)...

Kolumne

Machine Learning

Risikofrüherkennung von Gewerbe- und Firmenkundenkrediten

Denny Rommel | Alexander Christau29.05.2019, 16:00

Künstliche Intelligenz nimmt im Bankenumfeld eine zunehmend wichtige Rolle ein. Richtig eingesetzt, kann Kollege Computer als digitales Frühwarnsystem arbeiten und Alarmsignale erkennen, lange bevor...

Studie

Wirksamkeit formaler Compliance-Managementsysteme

Wie man Verhalten wirksam steuern kann

Sebastian Rick | Ralf Jasny | Timo Purkott26.05.2019, 22:17

Eine neue Befragung von mehr als 220 Chief Compliance Officer (CCO) zeigt, dass Unternehmen aller Branchen planen, ihre Fähigkeit zum Begrenzen und Verhindern von Fehlverhalten zu verbessern. Diese...

Interview

Risikoanalyse, Digitalisierung & Risikokultur

Nicht-finanzielle Risiken spielen eine zunehmend größere Rolle

Redaktion RiskNET20.05.2019, 07:45

Interview mit Dr. Ralf Hannemann, Direktor und Bereichsleiter Bankenaufsicht im Bundesverband Öffentlicher Banken Deutschlands, VÖB, über regulatorische Anforderungen im Risikomanagement, den...