90 Prozent aller Spreadsheet-Lösungen fehlerbehaftet

Risikofaktor Tabellenkalkulation


News

In der Folge der jüngsten Finanzkrise rückte vor allem die Bedeutung des Themas Risikomanagement in den Mittelpunkt der Diskussionen von Regulatoren und Bankmanager. Mit jeder neuen Umdrehung des Konsolidierungskarussells, mit verschärften Compliance-Vorgaben und wachsenden Renditeerwartungen ist das Thema Gesamtbanksteuerung auf der Agenda der Bankenmanager ganz nach oben gewandert. Eine zentrale Frage dabei: Mit welchen Steuerungsprozessen und -systemen können Banken die Erwartungen von Kunden und Kapitalgebern nachhaltig erfüllen?

Eines hat die Finanzkrise deutlich vor Augen geführt: Einfache Reporting- und und Analysewerkzeuge, wie sie viele Finanzinstitute heute immer noch einsetzen, reichen für die zukunftsorientierte Steuerung nicht mehr aus. Der Kapitän eines Airbus A 380 navigiert auch nicht mit den Bordinstrumenten einer Fokker F-27. Die Wechselwirkungen zwischen den einzelnen Prozessen einer Bank sind zu komplex und zu vielfältig, um die Folgen möglicher Entscheidungen zu überblicken: So fehlt es diesen Basisinstrumenten zum Beispiel oft an Funktionalitäten, mit denen sich die Ergebnisse verschiedener Handlungsalternativen simulieren lassen. Gerade bei strategisch weitreichenden Entscheidungen wie Übernahmen und Fusionen oder die Gründung von Auslandstöchtern sind zuverlässige, aussagekräftige Bilanz- und GuV-Simulationen die Voraussetzung, um hier die Weichen richtig zu stellen.

Tabellenkalkulation mit der komplexen Finanzwelt überfordert

Auch bei der Prognose etwa von Risikokennziffern oder Vertriebszahlen liefern diese Instrumente nur selten aussagekräftige Informationen, fehlt es ihnen doch an der nötigen "Analyse-Power". Zudem sind die Forecasts oft schon in dem Moment veraltet, in dem sie veröffentlicht werden, denn die Konsolidierung der zugrunde liegenden Basisdaten nimmt meist viel zu viel Zeit in Anspruch. Ebenso leidet die Planung unter den Defiziten der einfachen Reporting-Tools: Die Prozesse sind zu langwierig und ungenau. Die Daten werden häufig mit Tabellenkalkulationsprogrammen wie Excel & Co erfasst und konsolidiert, was oft zu Fehlern führt so ist bereits die Basis für die Steuerung sehr arbeitsaufwendig, fehlerhaft oder ungenau. Das übermäßige Verwenden von Tabellenkalkulationen kann als Schlüsselindikator für das operationelle Risiko eines Finanzinstituts gesehen werden.

Wie kaum ein anderes Softwarewerkzeug haben Tabellenkalkulationsprogramme ihren Weg in den Reportingalltag von Fachabteilungen gefunden. Dieses liegt zum einen sicher an dem günstigen Einstiegspreis und zum anderen auch an den schon vorhandenen Kenntnissen, die die meisten Mitarbeiter mitbringen. Der einfache Zugang und die vorhandenen Möglichkeiten lassen Tabellenkalkulationen darüber hinaus schnell zum Mittel der Wahl werden, wenn Mitarbeiter individuelle Berichtsanforderungen umsetzen wollen oder müssen. Besonders die Flexibilität wird geschätzt, mit der Daten manipuliert und eigene Berechnungen ausgeführt werden können. Dieses reicht bis zur komplexen Programmierung von Arbeitsblättern.

In der Zwischenzeit regt sich jedoch auf der Seite der Berichtsempfänger mannigfaltige Kritik. Um nur einige Punkte zu nennen:

  • Es ist kein Durchgriff auf Massendaten, keine Historisierung möglich.
  • Keine Versionierung, unterschiedliche Versionen enthalten unterschiedliche Ergebnisse.
  • Keine Dokumentation, das Know-how hängt am Arbeitsblattersteller.
  • Möglichkeit teilweise unverständlicher Makrobasteleien.
  • Die Revision bemängelt Datensicherheit und Nachvollziehbarkeit im manuell erstellten Berichtswesen.


Cockpit für die strategische Steuerung

Deutlich wird die Notwendigkeit einer übergreifenden Gesamtbanksteuerung besonders im Risikomanagement: Banken stehen vor der Aufgabe, ein neues System für die Risikosteuerung aufzubauen, das die vielfältigen Wechselwirkungen der einzelnen Risikofaktoren abbildet von den klassischen Markt- und Kreditrisiken bis hin zum operationellen Risiko. Dabei gilt es, die unterschiedlichen Teilbereiche des Unternehmens und hierbei insbesondere die Daten aus den verschiedenen operativen Systemen zu integrieren: Finanzkennzahlen, Produkt- und Kundendaten, Marktinformationen und operative Messgrößen müssen zusammengeführt werden. Dies ist weder mithilfe von Insellösungen oder Tabellenkalkulationen noch mit ERP-Lösungen möglich: Die Datenmengen sind zu groß und zu vielfältig, die zu leistende Datenanalyse zu anspruchsvoll, die Reportingaufgaben zu komplex. Damit genügen die Anwendungen nicht den Anforderungen des Managements und der Aufsichtsbehörde.

Die Bankmanager sind gefordert, auch die Liquiditätssteuerung in diesen Zusammenhang zu stellen. Die Margen werden heute oft von den Refinanzierungskosten aufgezehrt; Liquiditätsrisiken zu beherrschen, bedeutet also nicht weniger, als das Überleben einer Bank zu sichern. Zentrale Aufgabe der Liquiditätssteuerung ist es daher, alle Cashflows tagesaktuell zusammenzuführen. Da Liquiditätsrisiken als Folgen anderer Primärrisiken wie Markt-, Kredit-, Reputations- oder operationelle Risiken auftreten, muss die Liquiditätssteuerung in die unternehmensweite Bank- und Risikosteuerung eingebettet werden.

MaRisk-Anforderungen können mit Excel&Co nicht erfüllt werden

Die Bundesanstalt für Finanzdienstleistungsaufsicht hat in ihren "Mindestanforderungen für das Risikomanagement" (MaRisk) eindeutige Anforderungen an das Berichtswesen festgeschrieben: Korrekt und konsistent müssen die Reports unter anderem sein. Da in der Regel mehrere Analysten mit jeweils eigenen Dateien an Reports arbeiten, ist die Vorgabe mit Tabellenkalkulationsprogrammen nicht zu erfüllen: Unterschiedliche Datenselektionen, verschiedene Sichtweisen in der Berechnungslogik oder den fachlichen Prozessen und Programmierfehler führen immer wieder zu Inkonsistenzen und Fehlern. Der Einsatz von Tabellenkalkulation steht im direkten Widerspruch zu den Vorgaben der MaRisk und anderen regulatorischen Anforderungen.

Externe Beratungshäuser wie KPMG haben in einer unabhängigen Analyse sogar festgestellt, das 90 Prozent aller Spreadsheet-Lösungen fehlerbehaftet sind und laut Hackett Group 95 Prozent aller Unternehmen noch mit Excel oder Papier und Bleistift planen!

Erfahren Sie in einer Studie der Aberdeen Group mehr über die Risiken von Spreadsheets und den Nutzen von Business Analytics. Weiter


[Bildquelle: iStockPhoto]

Kommentare zu diesem Beitrag

Pleitegeier /15.03.2010 08:27
Es ist unumstritten dass sich aus der großen Flexibilität von Excel auch Fehlerquellen ergeben können (z.B. weil Anwender die Formeln selbst verändern dürfen). Umgekehrt ist aber ein rapide prototyping und die bestmögliche Anpassung an die individuellen Anforderungen möglich.

Die aktuelle Anti-Excel-Kampagne, auch durch dubiose Studien getrieben, erinnert ein wenig an die Marketing-Strategie der Pharmakonzerne zum Absatz von Impfstoffen gegen die Schweinegrippe!!!

Natürlich sichert der Absatz von 20.000 oder 200.000 EUR - Softwarelösungen für das Risikomanagement mehr Arbeitsplätze und Gewinne bei den Softwareherstellern als die Verwendung von Eigenlösungen in Excel. Die Historisierung ist einfacher als bei Excel und Formeln können besser geschützt werden. Einige Vorteile sind gar nicht von der Hand zu weisen.

Schmunzeln wird der Praktiker sicherlich bei der KPMG-Aussage (und gerade KPMG ist hier auf Grund der jüngeren Vergangenheit GANZ besonders prädestiniert): Reports müssen konsistent und fehlerfrei sein. Das sollte doch bei manchen Anwendern einen Lachanfall verursachen.

Und eine Frage an die Softwarehersteller wäre in dem Kontext: Wie können zwei vermeintlich zertifizierte und praxiserprobte Lösungen bei einer exakt identischen Fallstudie zu Abweichungen in wichtigen Kennzahlen von über 25 % führen??? Sind das die Reports, die geprüft und zertifiziert und falsch sind? Wurden solche Vergleiche auch mal angestellt? Die Veröffentlichung der Ergebnisse dürfte sicherlich vielen Juristen durch die Softwarehersteller beauftragt neue Einnahmen sichern.

Hinter dieser EXCEL-Kampagne steckt auch ein gutes Stück Lobbyarbeit der Softwarehersteller, die gerne die aktuelle MaRisk-Reform für Absatzsteigerungen nutzen möchten und leider geben sich ein paar fragwürdige Wissenschaftler mit ihrer bezahlten Studie dafür her... Das ist meine persönliche Meinung! Erinnert an Abba: Money, money, money...
SG /15.03.2010 09:05
Excel ist nicht das Problem, sondern wieder einmal der "Risikofaktor Mensch", der versucht Excel nicht nur für "rapid prototyping" einzusetzen, sondern für komplexe Lösungen, die eine höhere Professionalität und Standardierung erforderlich macht. Ehrlich gesagt habe ich die Erfahrung gemacht, dass Excel bei komplexen Aufgabenstellungen (etwa komplexen Simulationsverfahren) relativ schnell an Grenzen stößt, so dass Entwickler relativ schnell über professionelle Lösungen nachdenken müssen.
Chris /15.03.2010 09:13
die mehrzahl der insolvenzen sind nicht auf fehlerhafte excel-tools zurueckzufuehren, sondern auf a) falsche einschaetzung einer technologischen entwicklung, b) inadaequate investitionspolitik, c) qualitaetsprobleme, d) falsche produkte, e) falsche preispolitik, f) wachsender konkurrenzdruck, g) zu hohe personal- und anlagenkapazitaeten, h) falsche finanzierungswege und nicht selten inadaequate strategien, die nicht selten durch oberschlaue unternehmensberater a lá kpmg & co ins unternehmen gedrueckt werden.

was spricht eigentlich dagegen, dass 95 prozent der unternehmen noch mit bleistift und papier arbeiten? das hat doch den immensen vorteil, dass die entscheider ihren kopf anschalten muessen und sich nicht auf irgendwelche oberschlauen tools verlassen muessen ;-)
karin /15.03.2010 09:27
Bei uns ist die Sache ganz einfach gelöst: Wir setzen keine Tabellenkalkulation ein, um den oben beschriebenen Problemen aus dem Weg zu gehen. Ist quasi ein Teil des präventiven Risk Managements ;-)
galiani /15.03.2010 13:02
Da kommt mir eine Pressemeldung der Risk Management Association zum Thema in den Sinn:

Die Einstellungen gegenüber dem Risikomanagement wandeln sich: Während in der Vergangenheit ein Risikomanagementsystem häufig eingeführt wurde, um Wirtschaftsprüfern oder Aufsichtsräten zu genügen bzw. gesetzliche Mindestanforderungen zu erfüllen, geschieht dies heute zunehmend aus eigener Motivation sowie aus reinen Nutzenerwägungen. Als größte Herausforderungen gelten dabei Fragen der Risikokultur sowie die IT-technische Unterstützung der Prozesse.

BeOne, eine Gruppe von stark expandierenden Beratungsunternehmen für technische bzw. prozessorientierte Aufgabenstellungen, und die Risk Management Association RMA e.V. haben mit einer Studie gemeinsam den "Stand der Technik" im Risikomanagement und dessen Umsetzung in der Praxis untersucht. Erstmals wurde dabei auch eine umfassende kritische Bewertung einschlägiger Literatur vorgenommen.

Die Studienergebnisse fasst Dr. Roland Franz Erben, Vorstandsvorsitzender der Risk Management Association (RMA), München, so zusammen: "Obwohl in vielen Bereichen weiterhin Nachholbedarf besteht, ist das Risikomanagement erwachsener geworden. Das zeigt die Studie z.B. hinsichtlich der Gründe dessen Einsatz, der Intensität der Beschäftigung mit Risiken oder auch der zunehmenden Verwendung spezifischer Risikomanagement-Informations-Systeme als Ersatz bisheriger Excel-basierter Lösungen."

[...]
Neben der Risikokultur weist die Studie als weiteren Bereich mit überragender Bedeutung die IT-technische Unterstützung der Prozesse aus. Und auch hier vollziehen sich Veränderungen. Zwar nutzt noch mehr als ein Drittel der Befragten für das Risikomanagement Office-Produkte. Aber die lange Zeit herrschende Dominanz von Office-Produkten ist rückläufig, obwohl der Anteil kommerzieller Risikomanagement-Software nach wie vor noch gering ist; selbst Projektmanagement-Software wird erst selten genutzt. "Der erkennbare Trendwechsel mit der zunehmenden Abkehr vom alleinigen Einsatz vorhandener ‚Bordmittel‘ wie MS Excel reflektiert eine Professionalisierung des Themas", erklärt Erben. "Die Erkenntnis greift, dass professionelles Risikomanagement Funktionalität benötigt, die immer bessere Risk-Management-Informations-Systeme RMIS bieten"

Okay, nun dann ... leider hätten auch die "besseren" Risk-Management-Informations-Systeme die letzte Krise nicht verhindert ... oder denke ich da falsch?
André /15.03.2010 17:43
Spannender finde ich, dass Excel ab der 15. Ziffer Nullen einsetzt. Triviale Aufgabe: Gebe bei Excel ein: =29513736*92842033. Bei der Multiplikation sollte eigentlich 2740115251665288 herauskommen. Excel kommt aber auf 2740115251665290. Nun ja, bei einer einfach Muliplikation vielleicht nicht. Bei einer Simulation und komplexen Berechnungen kann sich so ein Fehler schnell aufschaukeln. Oder gebt in einer Excel-Zelle mal ein: =0,05+(-0,07)+0,02+0
Herauskommen sollte eigentlich Null, Excel kommt auf -3,46945E-18
;-)

Weitere Kuriositäten hier: http://www.spiegel.de/netzwelt/web/0,1518,563637,00.html
Michi.Pe /15.03.2010 20:30
Bei uns im Unternehmen werden Investitionen über 20 TEUR schon in Frage gestellt und auf die Dringlichkeit geprüft. Welche Alternative gäbe es dabei im Controlling/Reporting zu Access/Excel und dem gesunden Menschenverstand? Zahlen sind ja nicht nur Zahlen, man muss auch wissen wie man zu welchen Ergebnissen bekommen sind und welche Aussagen man daraus ableiten kann. Die Tabellenkalkulation (ob MS-Excel oder open office) bietet dafür meines erachtens das Hilfmittel mit dem besten Preis/Leistung Verhältnis.

Die Schlechtmacherei der Tabellenkalkualtion hört sich für mich nach sehr guter Lobbyarbeit einiger Beratungshäuser an, die dadurch mal wieder großen Reibach machen wollen.
Sabine /15.03.2010 20:40
@Michi.Pe und Pleitegeier: Ihr habt völlig Recht ... die Studien sind sicherlich nicht ohne Eigennutz und Lobbyinteressen veröffentlicht worden. Man müsste seriöserweise ja auch die Umkehrfrage stellen: Wie hoch ist die Fehlerquote bei Standardanwendungen?
Im Bereich "rapid prototyping" und bei unkritischen Anwendungen ist Excel hinsichtlch Effizienz und Preis-/Leistungsverhältnis unschlagbar. Wenn es um Massendatenverarbeitung und Performance geht, wird man eh zu anderen Werkzeugen greifen!
oekoek68 /15.03.2010 23:11
@all: In der Tat regt Excel zum selbständigen Denken an. Eine Tätigkeit, die heute im Controlling vom Aussterben bedroht ist. Die oben genannten Studien sind leider nicht unabhängig, weder von KPMG noch RMA, aber die Vor- und Nachteile beider Gruppen von Lösungen sind zuvor hinreichend diskutiert worden.

Die Zahl von zu 90% fehlerhaften Excellösungen finde ich künstlich dramatisiert (wahrscheinlich fallen darunter auch Farben und Formatierungen von Zellen). Aber die Message von KPMG und RMA an ihre Kunden ist klar: Sie halten ihre Kunden zu 90% für zu blöd um die einfachsten Grundrechenarten in Zellfunktionen zu übersetzen und betriebswirtschaftliche Probleme eigenständig zu lösen. Nein, diese 90% der DAU's (dümmsten anzunehmenden user) sind auf fremde Hilfe angewiesen und da stehen zufällig KPMG und RMA mit ihren Beraterhorden bereit.
Benjamin /16.03.2010 02:44
@André: Mal vom Informatikerstandpunkt gesehen hat jedes Datenformat eine endliche Genauigkeit.
Die allgemein in Excel verwendete Fließkommazahl (double) hat eine Größe von 64bit im IEEE-754-Format mit einem Exponent von 11bit und einer Mantisse von 52bit (+ 1 implizites Bit). Der relative Abstand zweier solcher Zahlen ist dann 2^-53 = ~1,11 * 10^-16. Das heißt also dass nur die 15. Stelle sicher dargestellt werden kann. Auch OpenOffice Calc benutzt das gleiche Format. Es ist also eine reine Definitionssache ;) Das ist aber immer noch besser als jeder handelsüblicher Taschenrechner.
Pleitegeier /16.03.2010 10:56
@Benjamin: Das ist mal ein wirklich qualifizierter Beitrag! Jetzt wäre es noch spannend die Genauigkeit von den vermeintlich allen überlegenen 20.000-EUR-Tools zu messen :-) ...
Benjamin /16.03.2010 11:32
Da bin ich natürlich überfragt, kann aber sagen dass "double" das Genaueste ist was man standardmäßig in den Programmiersprachen findet. Will man mehr Genauigkeit, muss man sich selbst einen neuen Datentyp kreieren und programmieren.
Das Runden ab der 15. Stelle ist übrigens reiner Service von Excel. Beim Rechnen der o.g. Aufgabe tritt ein Überlauf auf und würde in Excel-Sprache normalerweise das Ergebnis "#Wert" bedeuten. ;)
Acatenango /17.03.2010 15:56
Die Zeitschrift RISIKO MANAGER hat die Diskussion in diesem Forum jetzt aufgriffen und auf ihrer Hompepage http://www.risiko-manager.com eine Umfrage über den Mehrwert von Excel-Tools im Risikomanagement eingestellt. In der Regel werden die Umfrageergebnisse dann mit einer zeitlichen Verzögerung in der Printausgabe veröffentlicht. Mal sehen, zu welchen Ergebnissen dies führt ...
andi /17.03.2010 18:40
Bei RiskNET gab es auch vor einiger Zeit eine Umfrage zu dem Thema: http://www.risknet.de/Umfrage-Detailansicht.494.0.html?&tx_jkpoll_pi1[uid]=18
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.