Solvency II

Datenqualität ist in Zukunft das A&O


Solvency II: Datenqualität ist in Zukunft das A&O News

Für die Assekuranzunternehmen wird es nun wirklich ernst: Schon im Jahr 2014 beginnt die stufenweise Einführung von Solvency II, das so genannte Phasing-in. Teile der Meldevorschriften sollen ein Jahr später anlaufen und bis 2016 soll das komplette Regelwerk final in Kraft treten. Laut der Studie "Branchenkompass 2013 Versicherungen" des Beratungsunternehmens Steria Mummert Consulting., stehen deshalb bei neun von zehn Versicherungsunternehmen die Gestaltung der Solvency II-Meldungen und die Bereitstellung der Daten derzeit ganz oben auf der Compliance-Agenda.

Neue Anforderungen an die Qualität der Daten

Weiterhin wird deutlich, dass angesichts von Solvency II die Standardisierung der Daten zunehmend  in den Fokus rückt. Hierzu die Studie: "Nachvollziehbare und automatisierte Datenladeprozesse, die Datenqualität sowie der Blick zurück in die Datenhistorie müssen sichergestellt sein. Selbst relativ geringe Abweichungen in den Ausgangsdaten wirken sich deutlich auf die Risikobewertung aus." Laut einer Studie der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC haben in Deutschland aber erst einige wenige Versicherer die häufig langwierigen und aufwändigen Projekte zur Datenbereitstellung sowie zur Hebung und Sicherung der Datenqualität initiiert.

Denn die heterogenen IT-Landschaften, die über viele Jahre gewachsen sind und in deren Rahmen an unterschiedlichsten Stellen individuelle Lösungen für Detailprobleme implementiert wurden, sorgen nun für Probleme. Vieles ist doppelt und dreifach vorhanden, eine zentrale Datenhaltung und ein unternehmensweites Datenmodell fehlen meist. Unschärfen in der Detaillierung und Konsistenz der Daten in fachlicher und technischer Sicht sowie fehlende historische Daten sind die Folge.

Dubletten und fehlerhafte Kundendaten sind die Regel

Kundendatenbanken von Assekuranzunternehmen enthalten häufig Dubletten oder sind unvollständig und inkonsistent. Dies ist nicht weiter verwunderlich, denn alleine in Deutschland gibt es im Jahr rund vier Millionen Umzüge und etwa 30.000 Änderungen bei Straßen, Postleitzahlen und Orten. Dazu kommen mehrfach angelegte Kundendatensätze, Falscherfassungen und typische Buchstabendreher bei der telefonischen Aufnahme der Adressen oder fehlerhaft ausgefüllte Online-Formulare. Häufig werden die Daten bei der Neuanlage von Adressen nicht sorgfältig genug erfasst oder es wird nicht überprüft, ob der Kunde schon vorhanden ist.

Schätzungen besagen, dass selbst eine gut gepflegte Kundendatenbank zwischen zwei und zehn Prozent Dubletten enthält. Bei einer schlecht gepflegten steigen die Zahlen sogar auf 20 und 30 Prozent. Solche Fehler verursachen hohe Kosten – beispielsweise in Form von Streuverlusten, weil etwa ein potenzieller Kunde bei einem Mailing mehrere Zusendungen erhält, er aber allenfalls einmal einen Vertrag abschließt. Zwar ist es vergleichsweise einfach, die "aus dem Fenster geworfenen" Portokosten für Brief-Rückläufer in einer Mailing-Aktion zu erfassen, die wegen fehlerhafter Adressdaten in der Kundendatenbank entstanden sind.

Einheitliche Sicht auf den Kunden fällt meist schwer

Was das Ganze so kompliziert macht: Häufig hat ein Kunde mehrere Versicherungen bei einer Gesellschaft abgeschlossen, die dort aber von unterschiedlichen Sachbearbeitern (im Zweifelsfall mit verschiedenen IT-Systemen und Kundendatenbanken) betreut werden. Eine einheitliche Sicht auf die Kunden herzustellen, die von allen Mitarbeitern genutzt werden kann, ist also kein leichtes Unterfangen. Das Whitepaper "Kennen Sie Ihre Kunden?" von Human Inference betrachtet die verschiedenen Bereiche, in denen die Kundendatenqualität eine Rolle spielt – wie beispielsweise Marketing, Vertrieb, Controlling oder Geschäftsplanung. Aber auch Bereiche wir Kundenbeziehungsmanagement, Big-Data-Analysen oder Business Intelligence werden darin berücksichtigt.

Darin wird ein Ansatz vorgestellt, wie sich mit Hilfe von Datenqualitätsmaßnahmen und einer zentralen Lösung für das Stammdatenmanagement (Master Data Management) nicht nur die gesetzlichen Compliance-Anforderungen nach der Solvency-II-Richtlinie erfüllen lassen. Sondern es zeigt auch, wie damit eine einheitliche Kundensicht erreicht werden kann, die zur besseren Nutzung von Geschäftschancen führt und die Effizienz von Systemen für das Customer Relationship Management (CRM) oder eines Call Centers erhöht.

Mit Hilfe von CRM werthaltige Kunden erkennen und passende Angebote machen

Denn die Versicherungsbranche – so eine weitere Studie von Steria Mummert Consulting – stellt den Kunden zunehmend ins Zentrum ihrer Investitionen: Mehr als zwei Drittel der Assekuranzen in Deutschland bauen ihre Maßnahmen zur Kundenbindung und -gewinnung aus, 84 Prozent auch die Vertriebs- und Kommunikationswege. Durch neue CRM-Lösungen wollen sie ihre Kundendaten mit automatisierten Prozessen analysieren und so aufbereiten, dass sie für Zusatzverkäufe und den Absatz höherwertiger Produkte genutzt werden können. Dies – so die Studie – soll helfen, werthaltige Kunden zu erkennen und ihnen das passende Angebot zu machen.

Damit das jedoch funktioniert, muss auch in die Qualität der Kundendaten investiert werden. Denn viele Versicherer verwenden bisher für jeden Vertriebskanal – wie Online, Call-Center und persönliche Gespräche über Außendienst oder Agentur – eine eigene Software. Die Daten zu einzelnen Kunden sind dabei auf mehrere Datenbanken verteilt, die nicht ausreichend miteinander vernetzt sind. Häufig – so die Studie – ist nicht einmal klar, dass es sich bei verschiedenen Einträgen um ein und denselben Kunden handelt. Der Ratschlag des Beratungsunternehmens: Die Versicherer müssen ihre bisherigen Insellösungen aufgeben und die Daten in einer einheitlichen Anwendung zusammenfassen, bevor eine systematische Analyse möglich wird.

Fazit

Auch wenn sie nur ein Teilaspekt der gesamten Problematik sind, gelten die neuen Solvency II-Vorschriften auch für die Adressdaten von Kunden. Nachvollziehbare Datenladeprozesse, ein hohes Mindestmaß an Datenqualität sowie weitrechnende Datenhistorisierungen gilt es deshalb hier ebenfalls zu etablieren. Durch einen vorausschauenden und flexiblen Einsatz von Datenqualitätslösungen und eines zentralen Master Data Managements (MDM) gibt es eine Reihe von Vorteile, die von der Risikominimierung und mehr Transparenz, über eine erhöhte Flexibilität und schnellere Reaktionsfähigkeit des Unternehmens bis hin zu einer Verbesserung des Kundenservice und neuen Chancen für das Cross- und Upselling reichen.

Risikomanagement, Governance und Compliance-Vorschriften professionell und flexibel anzuwenden, bedeutet einen wesentlich höheren Mehrwert für ein Versicherungsunternehmen als das bloße Befolgen von Gesetzen.


Dr. Holger Wandt ist Principal Advisor bei Human InferenceAutor:

Dr. Holger Wandt ist Principal Advisor bei Human Inference

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[Bildquelle oben: © carloscastilla - Fotolia.com]

Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.