News

Data Mining: Die Kristallkugel für Underwriter

Redaktion RiskNET06.02.2007, 21:40

Charakteristisch für das Underwriting bei Versicherern ist die Abhängigkeit von künftigen, schwer vorhersehbaren Ereignissen. Tritt ein solches Ereignis ein, hat dies Konsequenzen nicht nur für die Rentabilität des jeweiligen Abschlusses, sondern für die Performance des Versicherers insgesamt. Mit dem komplexen Deloitte-Modell auf Basis von Data Mining lässt sich die Wahrscheinlichkeit möglicher zukünftiger Ereignisse jedoch sehr genau antizipieren und eingrenzen. So können Versicherer, ihre Underwriting-Risiken mithilfe dieser anspruchsvollen Analysemethode minimieren und ein optimal angepasstes Pricing realisieren. „Die Versicherungswirtschaft hat sich nach den Katastrophen der letzten Jahre zwar gerade erst halbwegs erholt und wieder einigermaßen befriedigende Renditen erzielt, doch die weltweite Konjunktur droht mit einem erneuten Abschwung“, erläutert Marc Böhlhoff, Director Insurance bei Deloitte. „Für die Branche könnte dies in einem Nullsummenspiel enden, das nur durch wirksame Methoden zur Risikoabschätzung beim Underwriting vermieden werden kann.“

Statistisch fundierte Methoden

„Gerade auf den Underwritern lastet ein enormer Druck, zudem sind ihre Entscheidungen oft auch von subjektiven Aspekten geprägt. Umso wichtiger ist hier eine verlässliche, abgesicherte Methode zur Beurteilung potenzieller Entwicklungen – und damit einhergehender Risiken“, ergänzt Marc Böhlhoff. Die Lösung liegt in der Kombination von fundiertem Data Mining und entsprechenden Risikokapitalmodellen. Schon heute fokussieren sich zahlreiche Versicherer auf die (Weiter-) Entwicklung solcher Modelle, die Fähigkeit dazu gehört für viele Marktteilnehmer bereits zu den Kernkompetenzen und verschafft ihnen einen entscheidenden Wettbewerbsvorteil.

Fünfstufiger Prozess

Ein adäquates Data Mining erfolgt unter Anwendung geeigneter statistischer Instrumente. Es bildet die Basis für die Entwicklung von Risikokapitalmodellen. Im Zentrum steht dabei die Identifizierung von Risikokenndaten, die ihrerseits als Konstante in die zu entwickelnden Modelle einfließen. Der Prozess der Modellentwicklung und -implementierung teilt sich in fünf Stufen auf: Entwicklung, Evaluation, Prozess-Redesign, Technologie-Implementierung sowie Training. Hierbei kommt es auf einen kontinuierlichen und konsistenten Prozessfluss an – einschließlich Change Management und der Einbeziehung regulatorischer Rahmenbedingungen. Ein solches Modell bietet seinem Anwender eine Reihe von Vorteilen. Einer davon ist die optimierte Segmentierung beim Underwriting. Diese bewirkt eine entscheidende Reduktion potenzieller Verluste, da der Versicherer eine größere Zahl an spezifischen Variablen zur Verfügung hat, die ihm die Identifikation potenziell verlustträchtiger Policen ermöglicht. Darüber hinaus ermöglichen Risikokapitalmodelle die Erschließung neuer Geschäftsoptionen einschließlich eines attraktiven Pricings. Ein weiterer Vorteil solcher Modelle ist die Möglichkeit, die technischen Prozesse zu optimieren. Dazu gehört die Erweiterung eines automatisierten Underwritings, im Rahmen dessen nur noch ausgesuchte Aspekte manuell überprüft werden müssen, dazu gehört aber auch die Selektion unterstützender – und kostenintensiver – Services, die nur noch ganz gezielt zum Einsatz kommen. „Diese Risikokapitalmodelle auf Basis von Data Mining eignen sich nicht nur für das Underwriting und die Schadenbearbeitung bei Schaden-/Unfallversicherern, sondern auch für Krankenversicherer“, betont Marc Böhlhoff.

Stärkere Segmentierung zur Reduktion von Verlustrisiken

Eine leistungsfähige Lösung auf Data-Mining- und Risikokapitalmodell-Basis bietet Versicherern entscheidende Vorteile sowohl in finanzwirtschaftlicher als auch in operationaler Hinsicht. Um diese nutzen zu können, brauchen sie jedoch eine klare Implementationsstrategie, die alle relevanten Aspekte beachtet. Erst dann können sie die Profitabilitätspotenziale in vollem Umfang ausschöpfen. „Immer mehr Versicherer werden Risikokapitalmodelle entwickeln und einsetzen – umso kritischer wird die Situation für jene, die sich gerade in Zeiten stagnierender und rückläufiger Märkte überkommener Methoden bedienen“, prognostiziert Marc Böhlhoff.

Einen ausführlichen Abstract dazu finden Sie hier zum Download.

 



Kommentare zu diesem Beitrag

Keine Kommentare

Themenverwandte Artikel

News

Wirksames Risikomanagement

Das Damoklesschwert des Scheiterns als Regulativ

Redaktion RiskNET16.05.2019, 14:39

Welche Rolle spielt das Risikomanagement in Zeiten der Informationsüberflutung und Digitalisierung? Dieser Frage gingen Experten bei einer Podiumsdiskussion beim Kongress Länderrisiken nach. Dass...

Kolumne

Risikoanalyse

Ölpreis auf USD 100 je Barrel?

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.08.05.2019, 10:31

Zu all den Risiken, die die Märkte derzeit belasten, ist ein neues dazugekommen: Der Ölpreis. Er ist, von den meisten unbemerkt, seit Ende letzten Jahres um fast 40 % (!) gestiegen. Die Verschärfung...

News

Finanzmarkt-Regulierung

Spagat zwischen Komplexität und Sicherheit

Redaktion RiskNET07.05.2019, 11:22

Das Bundesfinanzministerium sieht noch Schwachpunkte des nach der Finanzkrise geschaffenen Banken-Abwicklungsregimes und will die Europäische Kommission dazu drängen, diese in ihrer neuen Amtszeit...

Kolumne

Technischer Fortschritt versus Produktivität

Das Produktivitätsparadox

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.28.04.2019, 21:56

Eines der großen Rätsel der Ökonomie ist das Produktivitätsparadox. Es besagt, dass der technische Fortschritt immer schneller wird, dass die Produktivität der Volkswirtschaft dabei aber nicht...

Kolumne

Wechselkursrisiko

"Friedhofsruhe" an den Devisenmärkten?

Martin W. Hüfner, Chief Economist, Assenagon Asset Management S.A.10.04.2019, 12:11

In letzter Zeit habe ich mich häufiger gefragt, ob der Devisenmarkt noch richtig tickt. In der Vergangenheit waren die Wechselkurse stets eine Art Seismograf für die Stimmung und die Erwartungen der...