Referenzen /

SAS Deutschland
SAS Institute GmbH
In der Neckarhelle 162
D-69118 Heidelberg
www.sas.com/offices/europe/germany/success/

Referenzen

Printer-FriendlyPrinter-FriendlyPDF PDF

Referenzen

 

Die Zeit der Datensilos ist vorbei

„Eigentlich war alles gut." Thomas Koschlig, Geschäftsführer der dibera GmbH, der IT-Beratungsgesellschaft der Münsteraner LVM Versicherung, konnte mit der Aufstellung der Versicherung in Sachen Data Warehouse zufrieden sein. Eigentlich. Denn der Versicherungsmarkt an sich, die Kundenanforderungen und nicht zuletzt die Aufsichtsbehörden verlangen heute ein Maß an Transparenz und zeitnaher Auskunftsfähigkeit, die völlig neue Vorzeichen vor die Datenbewirtschaftung insbesondere von Erstversicherern stellt. Anforderungen, die nicht im Entferntesten abzusehen waren, als die LVM Versicherung vor 25 Jahren ihren ersten „Datenpool" einrichtete und damit zu den Vorreitern gehörte. Wie sich der westfälische Versicherer dieser Herausforderung stellte und warum er sich für den konsequenten Schritt hin zur spezialisierten Datenarchitektur des Business-Analytics-Spezialisten SAS entschied, demonstrierte das LVM-Forum Data Warehouse 2.0 Ende Juni 2011 in Münster. Auf solchen Foren wird die LVM in Zukunft regelmäßig den offenen Dialog zu Fachthemen mit Kollegen der Branche suchen. Zum Auftakt der Veranstaltungsreihe diskutierten rund 60 Experten aus Fachabteilungen und IT, welche Möglichkeiten die „360-Grad-Sicht" auf die Datenbasis eröffnet und wie ein effizienter Weg dahin aussehen kann. Damit auch in Zeiten von Solvency II mit der Datenhaltung „alles gut" ist.

Der Versicherungsmarkt hat die Finanzkrise der Jahre 2009 und 2010 zwar ohne gravierende Blessuren überstanden – trotzdem befindet er sich keinesfalls in einem ruhigen Fahrwasser, wie LVM-Vorstand Werner Schmidt zur Eröffnung der Veranstaltung deutlich machte. Spätestens seit der Deregulierung im Jahr 1995 mussten sich die Versicherer an ein deutlich verschärftes Wettbewerbsklima anpassen. „Wir haben die Marktmechanismen mit allen Höhen und Tiefen kennengelernt – von den Zeiten üppiger Margen bis hin zur Rabattschlacht", so Schmidt. Man bewege sich in Deutschland heute in einem gesättigten Markt: „Der Kuchen ist verteilt, es kann also nur noch um eine Umverteilung gehen." Als ein mittelgroßer Versicherer, der ausschließlich national operiert, muss die LVM für Bestandssicherung und Wachstum also auf optimierte Prozesse und Produkte setzen, um im Verdrängungsmarkt bestehen zu können. Wie dies gelingen kann, zeigte Schmidt anhand der Zusammenarbeit mit den Agenturen: „Wir arbeiten strikt nach dem Ausschließlichkeitsprinzip, es gibt also keine Überschneidungen." Eine technische Herausforderung, wie im Laufe der Veranstaltung noch deutlich werden sollte.

Welche Rolle die Datenhaltung für die LVM Versicherung spielt, erklärte Thomas Koschlig, Geschäftsführer der Forums-Gastgeberin dibera. Schon vor 25 Jahren reifte nämlich in Münster die Erkenntnis, dass eine zentrale Speicherung und Bereitstellung von Daten notwendig sei. 1986 ging die Versicherung mit einem „Datenpool" an den Start – bereits auf Basis der SAS Technologie. Damit gehörte die LVM – fast zehn Jahre vor der Deregulierung des Marktes – zu den Pionieren der Branche. Das Ziel: „Wir wollten die Datenflut eindämmen", so Koschlig. Was heute fast rührend anmutet – zu dieser Zeit gab es im Unternehmen rund 50 PCs. Über die Jahre wurden nach und nach alle relevanten operativen Daten in den Datenpool geladen, der heute natürlich längst Data Warehouse heißt. 1990 entstand die erste eigene Anwendung für das Vertriebscontrolling. Heute umfasst der „Datenpool" rund drei Terabyte, rund 150 Power User haben über 30.000 SAS Programme für das Data Warehouse erstellt, und rund 8.000 Anwender im Innen- und Außendienst nutzen das Data Warehouse.

„Im Hause LVM steht SAS heute für Analytik", betont Koschlig. Wobei die DV-Abteilung die Daten bereitstellt – die Analysen selbst finden in den Fachabteilungen statt. Dazu gehören etwa Anwendungen wie Bestands- und Schadensanalysen, Kostencontrolling, Vertriebsanalysen oder auch eine SAS Info für den Außendienst zur Selektion von Kundendaten für Kampagnen. „Die wesentlichen Analyseprobleme sind damit gelöst, die Versicherungssparten zufrieden, und die LVM Versicherung insgesamt hat sich so eine gute Reputation im Markt für ihre Aufstellung im Bereich Business Intelligence gesichert", so der dibera-Geschäftsführer. Also „alles gut"?

Versicherungsanalytik unter Zugzwang

Ja, aber nicht gut genug – das war auf dem LVM-Forum der Tenor aller Fachreferenten. Denn deutsche Versicherer würden aktuell von drei Seiten in die Zange genommen. Erstens: die Optimierung der Versicherungstechnik. Nur wer die immer komplexeren Versicherungsprodukte profitabel bereitstellen könne, würde im Verdrängungsmarkt bestehen können. „Die Combined Ratio muss stimmen. Dazu trägt ein optimales Schadenmanagement sehr viel bei. Und hier gibt es noch viel Potenzial", so Koschlig. Zweitens: Der Kunde verlangt optimale Services. Das gehe nicht ohne eine neue Form der Verzahnung von Innen- und Außendienst, und dafür brauche es gleichermaßen neue Technologie und eine besonders offene Firmenkultur, betonte Werner Schmidt. Und drittens: Die Aufsichtsbehörden fordern viel mehr Transparenz als je zuvor. Gerade Solvency II, ab 2013 gültig, verpflichte zu einer optimierten Finanzperspektive. „Hier geht es nicht nur um eine viel detailliertere und vor allem häufigere Bilanzierung, wie sie in der 3. Säule von Solvency II vorgeschrieben ist, oder um ein stringentes Risikomanagement samt Kapitalhinterlegung, hier geht es um die Optimierung der Steuerung des Unternehmens", erklärt Koschlig.

„All diese analytischen Aufgaben müssen wir lösen", betont er. „Bisher war das Data Warehouse eine ‚freiwillige Veranstaltung', die wir aus Effizienzgründen betrieben haben." Jetzt werde ein stringentes Datenmodell eine absolute Notwendigkeit – allein schon wegen der Auskunftsfähigkeit gegenüber den Behörden.

Ein klares Konzept – aber im Rahmen der komplexen Prozesse einer Versicherung eine fundamentale Herausforderung; hier ernteten die Referenten breite Zustimmung im Fachpublikum. Denn die Datenstrukturen sind bei Versicherern fast durchweg dezentral ausgeprägt und streng nach Sparten orientiert. Dieses Silodenken erschien – nicht nur der LVM – als endgültig überholt. „Die Sparten selbst sind mit ihren analytischen Möglichkeiten durchaus zufrieden. Übergreifende Fragestellungen lassen sich aber nur mit enormem Aufwand beantworten", so Koschlig.

Make or buy?

Die logische Folge: Es müssen neue Lösungen für zentrale Aufgaben (wie etwa besagte Vertriebsoptimierung) geschaffen werden. Noch wichtiger aber: Eine neue, normierte, konzernweite Datenbasis ist Pflicht – voll historisiert und auf Einzelsatzebene, also ohne vorgelagerte Aggregationen.

Im Fall der LVM Versicherung kam das einem Paradigmenwechsel gleich. Denn der erste Schritt auf diesem Weg war auch gleich der folgenreichste: Sollte sich der Münsteraner Versicherer ein eigenes Datenmodell schaffen? So wären die bestehenden Strukturen und Daten optimal abzubilden. Dieses Vorhaben erwies sich aber bei einer gründlichen Prüfung nicht als nachhaltig lösbar.

Die Alternative: die Insurance Intelligence Solution, kurz: IIS (heute: Insurance Analytics Architecture, IAA) des langjährigen Partners SAS. Ein neutrales, an die Anforderungen des GDV angelehntes Datenmodell speziell für die Versicherungswirtschaft, auf dem Lösungen etwa für das Kundenmanagement, das Controlling oder Risikobetrachtungen aufbauen. Rasch wurde den Verantwortlichen klar, dass die Vorteile dieses Ansatzes überwiegen, weil die komplette Logik im Datenmodell bereits enthalten ist.

In einem Prototyp-Projekt traten Stärken und Schwächen des „Buy"-Ansatzes klar zutage: Die Möglichkeiten der Vertriebsoptimierung durch SAS IIS schafften einen klaren Effizienzvorsprung. Zugleich wurde andererseits deutlich, dass Anpassungen des in seinen Grundzügen amerikanisch geprägten IIS-Datenmodells notwendig sein würden. „Hier zeigte sich SAS aber flexibel und passte seine Lösung auch dank der Erfahrungen aus dem Prototyp an die Anforderungen des deutschen Versicherungsrechts an", schildert Koschlig.

Das Ergebnis habe so überzeugen können, dass auch der Vorstand dafür zu gewinnen war. Es sei auch sehr wichtig, die Rückendeckung der Unternehmensführung zu bekommen: „Das war eine sehr weitgehende Lösung für ein Problem, vor dem viele Versicherungen stehen: Die LVM Versicherung hat sich einem externen Datenmodell angepasst – nicht umgekehrt. Damit so etwas gelingen kann, braucht es den Willen zu Transparenz, einen Sponsor im Vorstand und die Unterstützung der Fachbereiche."

Data Warehouse – neu gedacht

Diese Voraussetzungen hat die LVM unternehmensweit geschaffen – die Realisation lag aber zunächst bei den IT-Verantwortlichen. „Die Entscheidung für die SAS IIS hatte zwangsläufig auch weitreichende Folgen für die Architektur unseres Data Warehouse", schildert Andreas Steinberg, Referent Data Warehouse bei der LVM Versicherung. „Bis dahin hatten wir eine gut funktionierende Infrastruktur aus verschiedenen Datenpools und zwischengeschalteten Data Marts für Analysen – nur eben konsequent spartenorientiert." Die Folge: Spartenfremde finden Daten in anderen Systemen nicht ohne Weiteres. Außerdem waren die Daten nicht historisiert, lediglich eine Stichtagsbetrachtung war vorgesehen, und die Datenintegration war nicht unternehmensweit durchgängig. „Das machte eine zeitnahe Entscheidungsfindung auf Basis aktueller Entwicklungen schwierig – uneinheitliche Daten erhöhen ganz automatisch die Gefahr von Fehlinterpretationen", so Steinberg.

Die Vision der LVM Versicherung für eine neue Infrastruktur war deshalb nur folgerichtig: Tagesaktuell, vollständig historisiert, spartenübergreifend und komplett integriert sollten die Daten sein. „Ganz wichtig war uns außerdem eine maximale Transparenz in der Datenbewirtschaftung. Um revisionssicher agieren zu können und zuverlässige, strategische Kennzahlen zur Verfügung zu stellen, müssen wir wissen, woher Daten kommen und wohin sie gehen", stellt Steinberg heraus.

All diese Forderungen sah das Projektteam in der SAS Insurance Analytics Architecture abgebildet. Herzstück ist das besagte Datenmodell; die gesamte Lösungssuite ist aber konsequent auf die Anforderungen von Erstversicherern abgestimmt. Kern der Technologie ist der sogenannte Detail Data Store – das eigentliche neue Data Warehouse. Es ist nicht mehr spartenorientiert, sondern nach unternehmensweiten Sachthemen gegliedert, etwa Partner, Produkte oder Verträge.

Letzterer Bereich war das erste Teilprojekt, das Steinberg mit seinem Team und SAS realisierte. 130 Millionen Datensätze zu historischen Vertragsdaten galt es, dazu zu verarbeiten. Und hier erwies sich rasch, dass der Detail Data Store für die Anforderungen der LVM alleine nicht ausreicht. „Wir haben uns dafür entschieden, dass die Anwender nicht direkt auf das Kern-Data-Warehouse zugreifen sollen – hier sind die Datenbestände einfach zu groß. Deshalb haben wir fachspezifische Data Marts zwischengeschaltet. Zusätzlich sorgt eine Staging-Schicht für die konsequente Datenintegration", erklärt Steinberg. Damit soll dem Wildwuchs etwa von Schlüsseln Einhalt geboten werden.

„Auch die Performance muss stimmen"

Wie das konkret funktioniert, demonstrierte Steinberg am Beispiel der Finanzsteuerung. Die Fachabteilung arbeitet hier mit einer weiteren SAS Lösung namens SAS Financial Management. Diese Lösung bezieht ihre Daten aus einem spezifischen Data Mart, der wiederum aus dem speziellen Finanz-Data-Warehouse gespeist wird. Darunter folgt dann der Detail Data Store. Warum dieser Zwischenschritt? Ganz einfach: „Wir wollen Redundanzen von vornherein vermeiden. Eine Schadensquote zum Beispiel soll nur einmal zentral berechnet werden müssen. Das sichert die Konsistenz der Daten und sorgt dafür, dass das System nicht mit viele gleichartigen Analysen belastet wird." Denn letztlich müsse auch die Performance stimmen, um die Anwender zufriedenzustellen. Bei 1,3 Millionen Abfragen pro Jahr allein aus den Agenturen keine leichte Aufgabe für die IT.

Insgesamt sieht sich Steinberg mit dem Konzept auf dem richtigen Weg: „Wir wollen alle Anforderungen aus dem Data Warehouse mit beliebigen Sichtzeitpunkten versorgen können. Das Datenmodell von SAS hat sich dabei auch in der Praxis bewährt. Jetzt gilt es, sukzessive die Data Marts weiter auszubauen und alte Anwendungen und Verfahren abzulösen."

Gemeinsames Verständnis der Daten

Eine ganz konkrete Fachperspektive stellte in Münster Ralf Samson vor, Referent Zentrales Controlling bei der LVM Versicherung. Er hat ein klares Credo: „SAS und das Data Warehouse sollen dem Controller das Leben vereinfachen und ihm bessere Steuerungsinstrumente an die Hand geben." Schon zuvor standen bei der LVM verschiedene Instrumente für Finanzanalysen zur Verfügung, etwa in SAP oder Balanced Scorecards. „Die Realität sieht aber in der Branche ganz anders aus: Hier dominieren Unmengen von Excel-Dateien. Auch wir exceln uns zu Tode", scherzt Samson. Und nennt dann aber ganz ernsthaft die Nachteile dieser Praxis: schlechte Datenqualität, langsame Prozesse, überflüssige Redundanzen. Lange sei das einfach hingenommen worden. „Jetzt sieht die Sache aber anders aus: Ein Jahresabschluss reicht nicht mehr aus, dafür sorgt schon Solvency II. Das Reporting muss mindestens monatlich erfolgen können. Zusätzlich wünschen wir uns, jederzeit Szenarien mit aktuellen Daten durchspielen zu können. Das alles ist mit Excel nicht machbar."

Eine der Hauptforderungen lautet deshalb: Kostentransparenz. Dafür muss das Controlling die Kostenstrukturen aufschlüsseln. „Das ist unsere Hausaufgabe. Die war bislang schon anspruchsvoll, wenn sie einmal im Jahr anfiel. Auf monatlicher Basis wird es mit den alten Bordmitteln fast unmöglich", so Samson. Das gelte ganz besonders für die Gemeinkostentransparenz. Um hier die Anforderungen etwa von HGB und Solvency II erfüllen zu können, müssten die Daten unternehmensweit zentral und aktuell vorliegen und jederzeit flexibel aufgelöst werden können – ohne einen Data-Warehouse-Ansatz nicht denkbar.

Besonders wichtig und besonders komplex stellt sich für den Controller auch die Einbeziehung von Risiko- bzw. Kapitalkosten dar – ebenfalls eine der Forderungen von Solvency II und zugleich eine der Grundlagen für die wertorientierte Finanzsteuerung. Für Letztere ist eine Performanceberechnung unabdingbar, die wiederum durch das Data Warehouse abzubilden ist. „Das Data Warehouse muss im Idealfall enorm viel leisten: die Vollständigkeit der Daten bis hin zu Kapitalanlagen sichern, die Bewertung etwa auch von Performance und Rendite ermöglichen und die Verzahnung aller Steuerungsinstrumente gewährleisten", zählt Samson auf.

Er als Controller habe auf jeden Fall „Spaß am Data-Warehouse-Ansatz": „Wir bewirtschaften jetzt nicht mehr manuell unsichere Excel-Modelle, sondern nutzen automatische, tagesaktuelle Prozesse. Das spart enorm viel Zeit, erhöht die Sicherheit und eröffnet uns die Möglichkeit, viel konstruktiver unsere Beratungs- und Steuerungsfunktion wahrzunehmen." Schließlich sei es eine zentrale Aufgabe des Controllings, die Zusammenarbeit zwischen den Finanzbereichen und den Sparten zu gestalten. „Dafür brauchen wir ein gemeinsames Verständnis der Daten, und das haben wir mit dem Datenmodell von SAS geschaffen."

„Kümmerer" mit Wissensvorsprung

Was aber hat die Strategie „der Kunde im Mittelpunkt" mit dem Data-Warehouse-Ansatz und SAS IIS zu tun? Dr. Thomas Zabel, Referent Data Mining bei der LVM Versicherung, hatte dafür auf dem LVM-Forum eine klare Antwort: „Unser Ziel ist die Kundenzufriedenheit. Deshalb wollen wir nach dem Kümmerer-Prinzip arbeiten. Dazu müssen wir den Kunden aber sehr genau kennen und qualifiziert vorhersagen können, was er als Nächstes tut und braucht, unabhängig von unserem Spartendenken. Das geht nur, wenn wir alle Kundendaten unternehmensweit einheitlich erfassen, nutzen und analysieren." So könnten dem Kunden besser passende Angebote unterbreitet, aber auch der Kundenwert für die LVM besser eingeschätzt werden.

Dass dieses Ziel mit der SAS Architektur erreichbar sein würde, stellte Zabel für die LVM schon im allerersten Pilotprojekt sicher. Dazu wurde eine Vertriebskampagne für die Altersgruppe 55+ parallel mit herkömmlichen Mitteln und mit IIS durchgespielt. Die Herausforderung dabei: Der Versicherungsbedarf sollte analytisch aus vorhandenen Daten ermittelt werden. Drei Terabyte an Kundeninformationen standen dafür zur Verfügung, in 850 Variablen aufgegliedert.

„Wir sind mit Fragestellungen herangegangen, die wir bisher nur schwer beantworten konnten, etwa Cross-Sell-Potenziale, Stornowahrscheinlichkeiten und Schadensprognosen", so Zabel. „Das zeigt: Wir arbeiten hier auf Kundenebene und nicht mit aggregierten Gruppen." Das Prinzip: verborgene Muster im Kundenverhalten zu entdecken, daraus Regeln zu entwickeln und diese dann auf den gesamten Datenbestand anzuwenden.

Eine Spartenperspektive ist dabei kontraproduktiv, erklärt Zabel. Der Kundenwert erschließe sich erst, wenn der Versicherer einen 360-Grad-Blick auf den Kunden habe. „Eigentlich reichen 360 Grad noch nicht einmal aus, denn wir wollen den Kunden nicht nur ganzheitlich erfassen, sondern auch noch seine soziale Vernetzung mitberücksichtigen."

Der Erfolg bereits im Pilotprojekt bestätigte die Theorie dann auch voll und ganz: Die Senioren-Kampagne mit IIS war erheblich effektiver als bisher möglich. Den Anteil der Data-Warehouse-Architektur beschreibt der Spezialist für analytisches CRM so: „Wir können die Qualität der Daten nun unternehmensübergreifend in der Fachabteilung sicherstellen. Es gibt also nur noch eine Wahrheit in den Daten, nicht wie bislang verschiedene in verschiedenen Sparten. Zusätzlich erweitert der historisierte Datenbestand die analytischen Möglichkeiten erheblich."

Folgerichtig ist es nicht beim Pilotprojekt geblieben – heute arbeitet das Team von Zabel parallel an rund 30 analytischen Aufgaben. „Das macht die LVM Versicherung für den Kunden zu einem wertvolleren Partner – und die Kunden für uns wertvoller."

 

Copyright © SAS Institute Inc. All Rights Reserved.

LVM

Business Thema:

Versicherungsanalytik

Die Lösung:

SAS Insurance Analytics Architecture

Zitat:

Für mich sind valide Informationen etwa über Kunden, Bestände, Produkte oder Solvenz sehr wichtig, die ich zeitnah erhalten möchte. Um dieses von allen Nutzergruppen – vom Vertrieb bis zu den internen Stäben – wirtschaftlich effektiv aus einem Guss zu bekommen, ist das neue Data Warehouse der LVM Versicherung unverzichtbar.

Werner Schmidt

Mitglied der Vorstände, LVM Versicherung


Die LVM profitiert von einem Kauf eines Data Warehouse, das es ermöglicht, die Produkte, Kunden, Strukturen etc. qualitativ hochwertig und schnell abzubilden. Dies ist der einzig sinnvolle Weg, eine einheitliche Datenbasis für die Analysen der LVM Versicherung zu erstellen.

Thomas Koschlig

Geschäftsführer, dibera GmbH


Unser Data Warehouse 2.0 ist die Voraussetzung für eine flexible und transparente Sicht auf finanzspezifische Daten. Damit sind Analysen und Berichte in einem ganzheitlichen Ansatz sowohl im Sinne einer klassischen Berichterstattung als auch im Sinne von ökonomischen Bewertungen möglich.

Ralf Samson

Zentrales Controlling, LVM Versicherung


Der Einsatz eines übergreifenden Datenmodells ermöglicht eine genauere Modellierung von Prognosemodellen auf Basis von qualitätsgesicherten und historisierten Daten. Das Vorliegen des Modells erspart zudem einen bis dahin großen Aufwand der Datensammlung über viele operative Datentöpfe. So können freie Kapazitäten anderweitig genutzt werden.

Dr. Thomas Zabel

Außenorganisation, Marketing/Data Mining, LVM Versicherung


Durch das IIS-Modell und die BI-Werkzeuge von SAS sind wir in der Lage, den Informationsbedarf im Innen- und Außendienst mit den gleichen Basisdaten abzudecken. Dabei hilft der durchgängige Einsatz der SAS Software von der Datenextraktion bis zum Reporting den Anwendern, die Informationen schnell, flexibel und in der gewünschten Form liefern zu können.

Andreas Steinberg

DV-Organisation, Projektleiter SAS/Data Warehouse