News

Transparenz in der Unternehmenssteuerung

Scheingenauigkeit als Scheinargument

Werner Gleißner

Der Nutzen eines leistungsfähigen Risikomanagements in Unternehmen wird inzwischen wohl kaum mehr bestritten: Verbesserung von Planungssicherheit, Abwehr von Krisen, Reduzierung von Eigenkapitalbedarf und Kapitalkosten und bessere unternehmerische Entscheidungen durch Abwägen erwarteter Erträge und Risiken sind überzeugende Vorteile.

Um diese Nutzenpotenziale erschließen zu können, sind quantitative (oft aggregierte) Risikoinformationen erforderlich. Und genau hier wird ein Argument gegen den zügigen Ausbau der Risikoanalysefähigkeiten angeführt: Quantifizierte Risiken würden nur Scheingenauigkeiten bieten, beispielsweise wegen der Subjektivität der Risikobewertung und der begrenzten Verfügbarkeit statistisch auswertbarer Daten.

Dieses beliebte "Totschlagargument" ist ein reines Scheinargument, das auf einer völlig falschen Sichtweise der Idee einer risiko- und wertorientierten Unternehmensführung fußt. Durch Risikoquantifizierung sollen gerade Scheingenauigkeiten vermieden werden. Risikoanalysen sollen und können für den Grad an Wissen oder Nichtwissen über die Zukunft, über Planungsunsicherheiten, den Umfang möglicher Planabweichungen und Bandbreiten der Zukunftsentwicklung informieren. Anstelle eines unrealistischen "Punktschätzers" (einwertige Planung) tritt eine realistische Bandbreitenschätzung. Natürlich lassen sich bei derartigen Schätzungen subjektive Einflüsse nicht verhindern. Aber letztlich basieren alle Entscheidungen auf subjektiven Elementen und mit Hilfe quantitativer Risikoinformationen soll aus den verfügbaren Informationen die bestmögliche Schlussfolgerung abgeleitet werden. Im Risikomanagement und wertorientierten Management gilt der simple Grundsatz, dass aus den besten verfügbaren Informationen, fundiert und nachvollziehbar, die besten Schlussfolgerungen abzuleiten sind. Und bekanntlich gibt es viele Techniken, wie auch bei subjektiven Informationen deren Qualität verbessert werden kann.

Der Verdacht der Scheingenauigkeit entsteht durch (nicht selten zu sehende) methodische Fehler bei der Risikoquantifizierung. Was ist zu halten von Aussagen, dass z.B. die Eintrittswahrscheinlichkeit eines Haftpflichtschadens bei 17,4 Prozent läge? Oder der Erwartungswert der Rendite des Euro Stoxx-Index mit 9,4 Prozent zu quantifizieren sei? Diese Art der Risikoquantifizierung ist tatsächlich zu kritisieren, da hier implizit ein Wissen unterstellt wird, das schon aufgrund der begrenzten Verfügbarkeit historischer Daten und der Einzigartigkeit vieler Entscheidungssituationen gar nicht existieren kann. Aber solche Aussagen sollte ein modernes Risikomanagement auch nicht liefern. Risikomanagement möchte, dass niemand zu einer Präzision bei der Quantifizierung gezwungen wird, zu der er aufgrund seiner tatsächlichen Informationen nicht wirklich steht.

Was spricht dagegen anzugeben, dass die Wahrscheinlichkeit des Haftpflichtfalls zwischen 15 und 20 Prozent liegt? Oder wenn man noch weniger exakt diesen beispielhaften Fall einschätzen kann, zwischen 10 und 30 Prozent? Der Modellparameter, hier die Eintrittswahrscheinlichkeit, ist in der Realität selbst nicht sicher bekannt (es existiert ein "Metarisiko"). Es ist kein Problem, mit einem derartigen Metarisiko (beispielsweise bei einer Monte-Carlo-Simulation) zu rechnen und entsprechend ist es sinnvoll, derartige Unsicherheiten auch explizit zu erfassen, da sonst tatsächlich ein Teil des Risikos a priori ignoriert würde.

In der Praxis zeigt sich allerdings, dass viele Menschen selbst auf dieser Ebene nicht bereit sind, quantitative Risikoeinschätzungen vorzunehmen. Selbst eine Bandbreite der Eintrittswahrscheinlichkeit wird nicht (gerne) angegeben, obwohl diese (offensichtlich) irgendwo zwischen 0 und 100 Prozent liegen wird. Das Problem besteht also dann nicht darin, dass man durch die Festlegung auf eine bestimmte Zahl (eine Wahrscheinlichkeit) zu einer nicht sinnvollen "Scheingenauigkeit" gezwungen wird. Man kann ja den tatsächlichen Grad des Unwissens immer durch eine adäquate Bandbreite darstellen.

Das tatsächliche Problem für viele Menschen besteht darin, dass man überhaupt zu einer eindeutig nachvollziehbaren und damit auch diskutierbaren Aussage aufgefordert wird. Man muss über seine Annahmen Transparenz schaffen, und wird damit kritisierbar und im Nachhinein auch gegebenenfalls überprüfbar. Das tatsächliche Problem vieler Menschen in Unternehmen bei der Risikoquantifizierung besteht deshalb in erster Linie darin, dass Transparenz über Annahmen hergestellt wird.

Das Argument der Scheingenauigkeit ist damit lediglich ein Scheinargument. Der Kern des Problems besteht darin, dass gerade durch die Risikoanalyse Transparenz geschaffen wird, die sonst nicht existiert.

Fazit

Risikoanalyse und risikoorientierte Unternehmensführung möchte keine Scheingenauigkeiten erreichen. Stattdessen soll gerade Transparenz geschaffen werden über den tatsächlichen Umfang möglicher Planabweichungen und auch die Unsicherheit der Risikoeinschätzung selbst (beispielsweise der Eintrittswahrscheinlichkeit eines Schadens) lässt sich adäquat erfassen. Scheingenauigkeiten lassen sich so vermeiden. Mit einer quantitativen Risikoanalyse einher geht aber zwangsläufig Transparenz über die Annahmen, was zur kritischen Diskutierbarkeit und ex post Prüfbarkeit führt.

Und gerade diese Transparenz mögen viele Mitarbeiter – und nicht zuletzt auch die vielen Führungskräfte von Unternehmen – nicht. Transparenz über die zugrundeliegenden unsicheren Annahmen ist die Grundlage, Entscheidungen kritisch zu durchdenken, zu lernen und risikogerecht zu entscheiden. Transparenz ist damit im Interesse des Unternehmens (und seiner Eigentümer), aber nicht zwingend im persönlichen Interesse jedes Mitarbeiters. Es ist sicherlich viel einfacher zu argumentieren, dass der Ausbau des Risikomanagements wegen "Scheingenauigkeiten" nicht vorangetrieben wird, als offen zuzugeben, dass die damit geschaffene Transparenz stört.


Literaturverzeichnis:

Gleißner, W. (2008): Grundlagen des Risikomanagements im Unternehmen, Vahlen Verlag, München.

Gleißner, W./Romeike, F. (2008): Analyse Subprime-Krise: Risikoblindheit und Methodikschwächen, in: RISIKO MANAGER, Ausgabe 21/2008, S. 1, 6-9, Download in der RiskNET eLibrary.



Zum Autor:

Dr. Werner Gleißner, Leiter der Risiko-Forschung der Marsh GmbH, Vorstand der Future Value Group AG, Leinfelden-Echterdingen und Lehrbeauftragter an den Universitäten Dresden, Hohenheim und Stuttgart sowie an der European Business School.

Kontakt: kontakt@futurevalue.de







[Bildquelle oben: iStockPhoto, Bildquelle unten: Future Value Group AG]

 



Kommentare zu diesem Beitrag

Urban /12.04.2010 09:20
Dieses Scheinargument kenne ich als Corporate Risk Manager nur zu gut. Leider lehren viele Lehrbücher und insbesondere die Veröffentlichungen der Wirtschaftsprüfer immer noch die Weisheit, dass man Punktwerte für Schadensausmaß und Eintrittswahrscheinlichkeit ermitteln muss und die dann miteinander multipliziert. Dummerweise verschwinden damit auch alle "schwarzen Schwäne", da eine kleine EW multipliziert mit einem Extremereignis aus einem großen Elefanten eine kleine Maus macht ;-))
Bert /14.04.2010 01:21
Sehr guter Beitrag! Glückwusch! BM
Karl-Heinz /28.04.2010 09:46
Sehr guter Beitrag. In der Tat spricht nichts gegen die Angabe von realistisch schätzbaren Bandbreiten von Wahrscheinlichkeiten. Im Gegenteil, diese Angabe sollte normalerweise immer möglich sein. Die Scheingenauigkeit wird aber weniger durch eine möglichst hohe Spannbreite vermieden (dann könnte man in der Tat immer auf 0-100% gehen), sondern dadurch, dass neben der Bandbreite eine möglichst umfangreiche Angabe von Einflussfaktoren erfolgt. Soweit diese Einflussfaktoren intern bekannt sind sollten ihre Ausprägung möglichst (soweit hiergegen bei externer Berichterstattung nicht Geheimhaltungsgründe sprechen) offen gelegt werden. Soweit die Einlfussfaktoren nicht intern bekannt sind, oder nicht von intern steuerbar sind, sollten sie und ihre Auswirkungen möglichst umfangreich beschrieben werden. Hierduch erhält der Leser die Möglichkeit selbst Kenntnis über diese Einflussfaktoren (z.B. Entwicklung der Marktnachfrage für einen bestimmten Produkttyp) zu beschaffen und die angegebene Risikobandbreite zu beurteilen.

Themenverwandte Artikel

Studie

Bauprojekte

Qualitätsmängel treiben Schäden in die Höhe

Redaktion RiskNET

Ob Flughafen, Kraftwerk oder Autofabrik: Industrielle Bauprojekte werden zunehmend größer, komplexer, teurer – und verursachen dadurch deutlich höhere…

Studie

Entrepreneurship

Die Angst vor dem Risiko

Redaktion RiskNET

Der griechische Philosoph Demokrit wusste bereits, dass jeder neue Weg ein Wagnis darstellt. "Aber wenn wir den Mut haben loszugehen, dann ist jedes…

News

Zeit umzukehren

Die Sackgasse der EZB

Redaktion RiskNET

Der Präsident des Deutschen Sparkassen- und Giroverbands (DSGV), Helmut Schleweis, hat in einem offenen Brief scharfe Kritik an EZB-Chef Mario Draghi…

News

Globale Unsicherheiten

Rezessionsrisiko erneut gestiegen

Redaktion RiskNET

Es wird aus Sicht des Instituts für Makroökonomie und Konjunkturforschung (IMK) immer wahrscheinlicher, dass die deutsche Wirtschaft in eine Rezession…

Kolumne

Geldpolitik

EZB darf die Welt nicht zu Tode stabilisieren

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.

Jetzt tritt das ein, was wir schon seit langem befürchtet hatten. Über Jahre wurde diskutiert, was wohl passieren würde, wenn sich die Konjunktur…