Strategie       Predictive Analytics bei Vertriebs-       steuerung und -controlling       Status Quo und Perspektiven in ...
Da gibt es den vertragsorientierten Kundentyp, der                                                                        ...
Strategie                                                                        Eingesetzte Verfahren und Modelle        ...
Daten, wie zum Beispiel Markt- und Milieudaten benötigt  werden.•  nalyse der Datenqualität der zur Modellbildung heranzu-...
Strategie       Der Einsatz von echten Data Mining Suiten kann allerdings zu      Aktionsplanung – zur Anwendung, so gewin...
Nächste SlideShare
Wird geladen in …5
×

Predictive Analytics bei Vertriebssteuerung und -controlling

622 Aufrufe

Veröffentlicht am

[30.03.2012] Zurzeit kann man eine Renaissance der Data Mining-Idee beobachten. Nachdem Anfang der 2000er Jahre Business Intelligence als ein wesentlicher Baustein gesehen wurde, war es in den letzten Jahren zunehmend ruhig um dieses Thema geworden. Nun taucht das Konzept im Kontext von Business Analytics oder Predictive Analytics wieder auf. Gartner sieht in seinem aktuellen Hype Cycle das Thema Predictive Analytics kurz vor der Erreichung des Plateaus der Produktivität.

Veröffentlicht in: Business
0 Kommentare
0 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Keine Downloads
Aufrufe
Aufrufe insgesamt
622
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
9
Aktionen
Geteilt
0
Downloads
12
Kommentare
0
Gefällt mir
0
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie

Predictive Analytics bei Vertriebssteuerung und -controlling

  1. 1. Strategie Predictive Analytics bei Vertriebs- steuerung und -controlling Status Quo und Perspektiven in der Versicherung Zurzeit kann man eine Renaissance der Data Mining-Idee terentwicklung oder Erweiterung der klassischen Business beobachten. Nachdem Anfang der 2000er Jahre Business Intelligence bezeichnet wird. Gartner spricht hier treffend Intelligence als ein wesentlicher Baustein gesehen wurde, vom „Shift from measurement to analysis, forecasting and war es in den letzten Jahren zunehmend ruhig um dieses optimization“. Thema geworden. Nun taucht das Konzept im Kontext von Business Analytics oder Predictive Analytics wieder Entscheidungsträger werden aufgrund immer stärker wachsen- auf. Gartner sieht in seinem aktuellen Hype Cycle das der und zu verarbeitender Datenmengen gezwungen sein, auf Thema Predictive Analytics kurz vor der Erreichung des immer stärker prognoseorientierte Modelle zu setzen und diese Plateaus der Produktivität. auch in operativeren Entscheidungsprozessen systematisch zu nutzen, um künftige Entwicklungen am Markt zu antizipieren und rechtzeitig agieren zu können. Bereits seit knapp zwanzig In Zeiten der Finanzkrise und eines sich dramatisch wandeln- Jahren werden daher Predictive Analytics (PA) Werkzeuge den Marktes war und ist der Einsatz von zukunftsorientierten insbesondere in Branchen wie der Telekommunikation, des Prognosemodellen ein aktuelles Thema auch in der Versiche- Handels, des Bankings – aber auch in der Versicherungswirt- rungsbranche. Insbesondere BI Anbieter wie SAS und IBM schaft erfolgreich eingesetzt. (SPSS) setzten bei der Weiterentwicklung ihrer BI-Plattfor- men konsequent auf das Thema Predictive Analytics – und Der Versicherungsmarkt im Umbruch bieten analytische Modelle und Lösungen für Versicherungen. Welche Einsatzbereiche finden sich bereits heute im Spektrum Nicht erst seit dem Ausbruch der Finanzkrise im Jahr 2009 von Versicherungen für Predictive Analytics, welche Chancen vollzieht sich im Versicherungsmarkt ein dramatischer Wan- – und welche Restriktionen – sind diesem Konzept gesetzt? del. Einerseits trifft die Finanzkrise die Versicherungen hart, da sich aufgrund der deutlich erhöhten Volatilität der Marktbe- Prediction – oder das Vorhersehen des wertungen das Anlagerisiko stark erhöht hat bzw. die Anlage- künftig zu Erwartenden möglichkeiten für die eingenommenen Versicherungsbeiträge stark eingeschränkt sind. Spätestens seit der Griechenland- Unter dem Begriff „Predictive Analytics“ werden im allge- Krise sind Staatsanleihen – eine bisher als sicher geltende meinen Sprachgebrauch die zukunftsorientierte Datenana- Assetklasse und somit ein Hauptinstrument des Assetmanage- lyse sowie das Erstellen von Prognosemo- ments von Versicherungen – durchaus mit erheblichen Risiken dellen verstanden. Predictive Analytics belastet. Niedrige Zinsen führen zu ernsten Problemen, da wird dem Themenbereich „Busi- Versicherungen darauf angewiesen sind ihre Beitragseinnah- ness Analytics“ zugerechnet, men wirtschaftlich anzulegen, um künftige zu erwartende der häufig als die Wei- Risiken zu decken und Mindestverzinsungszusagen halten zu können. Anderseits verändert sich auch der Versicherungsmarkt selbst. Die Zeiten des stetigen Wachstums der Versicherungen sind – zumindest in den Industriestaaten – vorbei. In einem gesättigten Markt stagnie- ren die Beitragseinnahmen. Aufgrund der Globalisierung drängen im Kampf um mehr Marktanteile neue internationale Anbieter in den deutschen Markt. Zugleich stiegen die Kosten der Schadenregulierung in den letz- ten Jahren stetig an. Ein hoher Kostendruck und damit eine zunehmend geringere Marge Abbildung 1: Predictive Analysis im Spektrum der BI-Technologien (Quelle: TDWI) für die Versicherung ist die Folge.40 IT-Banken & Versicherungen 3 • 2011
  2. 2. Da gibt es den vertragsorientierten Kundentyp, der dem Best-of-Breed-Ansatz folgend, kostenorientiert seine Versicherungsrisiken beim jeweils attraktivsten Versicherer abdeckt. Ein Trend, der sich maßgeb- lich auf das Internet mit seinen Vergleichsportalen und die daraus resultierende Transparenz der Versi- cherungsangebote stützt. Für diese Kunden werden kostengünstige Standardprodukte angeboten – die ohne komplizierte Mechanik quasi industrialisiert erbracht werden können. Dem Gegenüber steht eine zweite Kundengruppe, für die nicht der Preis, sondern vielmehr die erbrach- te Leistung im Vordergrund steht. Dieser individu-Abbildung 2: Stagnierende Beitragseinnahmen ausgewählter Branchen alistische Kundentyp erwartet individuell auf seineder deutschen Sachversicherungen in Mio. EUR persönlichen Bedürfnisse zugeschnittene Versiche- (Quelle: GDV, 2009) rungsprodukte und vor allem Premium-Services.Der Wettbewerb um die Versicherungskunden wird härter und auch Für diese spürbaren Mehrwerte ist er bereit höheredie Kunden haben sich verändert! Der traditionelle Versicherungskun- Beiträge zu zahlen.de – langfristig konservativ orientiert, mit allen Produkten bei einemVersicherer versichert und einmal gewonnen, treu an seine Versiche- Um sich diesen Veränderungen und Entwicklungenrung gebunden – wird zunehmend von neuen Kundentypen verdrängt. stellen zu können, sind die Versicherer in viel stärke- rem Maße als in der Vergangenheit gezwungen, früh- zeitig die richtigen Entscheidungen zu treffen, die richtigen Produkte, zur richtigen Zeit, über den rich- tigen Vertriebskanal dem richtig ermittelten Kun- dentyp anzubieten und vor allem ihre Services noch stärker an den Kundenbedürfnissen auszurichten. Heutige Anwendungsgebiete von Predictive Analytics in der Versicherung Die Nutzung von mathematisch, statischen Ver- fahren für zukunftsorientierten Prognosemodelle ist kein neues Thema in der Assekuranz. Zumin- dest nicht bei den größeren Versicherern. In fast allen großen Versicherungen finden sich heute schlagkräftige Statistikabteilungen, die sich dedi- ziert auch mit Predictive Analytics beschäftigen. Wesentliche Prognose- und Analyse-Schwerpunkte liegen heute vor allem auf dem analytischen Custo- mer Relationship-Management bzw. der CustomerAbbildung 3: Neues Kundenverhalten in der Versicherung Intelligence sowie der damit eng verbundenen(Quelle: Benölken, Gerber, Skudlik, 2005) Vertriebssteuerung. IT-Banken Versicherungen 3 • 2011 41
  3. 3. Strategie Eingesetzte Verfahren und Modelle Zur Beantwortung der fachlichen Fragenstellungen werden unterschiedliche mathematisch-statistische Verfahren des (datengetriebenen) Data Mining und der hypothesenbasierten multivariaten Statistik genutzt. Der Einsatz von Data Mining dient hierbei der Entdeckung von komplexen Strukturen, Häufige Fragestellungen, die mit analytischen Modellen pro­ Zusammenhängen oder Besonderheiten in großen Datenmen- gnostiziert werden, sind z.B.: gen. Die daraus abgeleiteten Hypothesen / Modelle werden dann mit Hilfe von realen Daten und Algorithmen hinsichtlich Customer Lifetime Value / Kundenwert ihrer Prognosegüte überprüft. • n welchen Segmenten und wie entwickelt sich künftig der I Kundenstamm? • it welchen Strategien lässt sich das zukünftige Kundenver- M halten beeinflussen? • elche Entscheidungsmerkmale sprechen dafür, dass End- W kunden ein Produkt kaufen? • ber welche Kommunikationskanäle lassen sich die unter- Ü schiedlichen Kundensegmente am besten ansprechen? • ie lassen sich Kundensegmente langfristig loyalisieren und W nachhaltig entwickeln? • ie können Budget und Ressourcen bei kundenorientierten W Investitionsvorhaben am effektivsten eingesetzt und gesteu- ert werden? Churn Management / Attrition • elche Kunden werden wahrscheinlich in nächster Zeit kün- W digen bzw. sind stornogefährdet? • ie lassen sich unzufriedene Kunden erkennen bevor sie W eine Kündigungsabsicht äußern? • elche Maßnahmen zur Kündigungsverhinderung oder gar W Kündigerrückgewinnung sind unter Berücksichtigung öko- nomischer Kennzahlen, wie z.B. des Kundenwertes, in der Abbildung 4: Cross-Industry Standard Process for Data Mining jeweiligen Konstellation am erfolgversprechendsten? Dieser in der Praxis häufig auf dem „Cross-Industry Standard Lead Management / Aktionsmanagement Process for Data Mining“ (CRISP-DM) basierende Prozess • ie kann die Reichweite und Wirksamkeit von Marketing W wird im Kontext der Predictive Analytics als Scoring bezeich- Kampagnen erhöht werden? net. Das prinzipielle Vorgehen beim Scoring lässt sich verein- • p- und Cross-Selling: Welche Kunden haben eine hohe U facht durch folgende Schritte darstellen: Abschlussaffinität hinsichtlich weiterer ausgewählter Pro- dukte? Verständnis des fachlichen Kontextes • u welchem Anlass hat ein Vertreterbesuch die größte Wirk- Z • lärung der fachlichen Zielsetzung des Prognosemodells K samkeit? (Scorecard): Insbesondere der fachlichen Spezifikation des zu prognostizierenden Ereignisses sowie des avisierten Pro- Vertriebsplanung / Standortplanung gnosezeitraumes. • Wie entwickeln sich die Kunden regional? • estlegung des künftigen Einsatzszenarios: In welchen (ope- F • elche Vertriebswege sind für welche Produkte und Kun- W rativen) Prozessen soll die Scorecard eingesetzt werden? densegmente effektiv und effizient? • estlegung von Kriterien der Wirksamkeit der Scorecard: F • Welche Agenturstandorte werden wo regional benötigt? Was soll mit dem Scorecard-Einsatz erreicht werden und wie • elche Agenturen und Makler werden künftig welchen W lässt sich das Ergebnis bewerten? Umsatz mit welchem Produkt erwirtschaften? • elche Produkte müssen sich wie oft verkaufen, um künfti- W Datenbereitstellung und –aufbereitung gen Entwicklungen des Marktes zu begegnen? • lärung welche Daten aus fachlicher Hinsicht zu berücksich- K • ie entwickelt sich der Markt im Zeitraum X für bestimmte W tigen sind, in welchem Umfang diese überhaupt (technisch) Produkte? vorhanden sind und ob zusätzlich extern zu beschaffende42 IT-Banken Versicherungen 3 • 2011
  4. 4. Daten, wie zum Beispiel Markt- und Milieudaten benötigt werden.• nalyse der Datenqualität der zur Modellbildung heranzu- A ziehenden Daten.• Ggf. Umsetzung und Einhaltung möglicher Restriktionen des Datenschutzes.• Separierung der Daten in Trainingsdaten zur Modellierung und in von den Trainingsdaten unabhängige Testdaten zur Validierung. Kritische ErfolgsfaktorenScorecard-Modellierung Von zentraler Bedeutung für den Erfolg einer entwickelten• ufbau eines statistischen, kontextbezogenen Prognose- A Scorecard sind insbesondere: modells, das den Einfluss von Merkmalen auf ein Ereignis/ • die Klärung der fachlichen Zielsetzung, Gegenereignis (bei den meisten Einsatzgebieten von Score- • ie Auswahl des passenden mathematisch-statistischen d cards handelt es sich um die Vorhersage zweier Ausprägun- Modells, gen wie bspw. „Kunde kündigt“ und „Kunde kündigt nicht“) • die Qualität der zugrundeliegenden Datenbasis und auf Basis von vorhandenen Beobachtungen analysiert und • ie richtige Interpretation der erzielten Prognoseergebnisse d Wahrscheinlichkeiten aufgrund des Modells berechnet. und der daraus abgeleiteten Maßnahmen.• In der Praxis bilden Scorecards häufig ein multivariates Modell ab, in dem durch passende mathematische Verknüp- Das hört sich auf den ersten Blick trivial an, ist es aber in fung verschiedene Merkmale zu einem Modell zusammen- keiner Weise. In der Praxis zeigt sich darüber hinaus, dass die geführt werden. Prognosegüte – und damit der Nutzen – stark mit der versiche-• um Einsatz kommen unterschiedlichste Data-Mining-Ver- Z rungsfachlichen und mathematisch-statistischen Kompetenz fahren, wie zum Beispiel Neuronale Netze, Entscheidungs- der durchführenden Data Mining Spezialisten korrelieren. bäume und logistische Regressionen.• elches Verfahren für das jeweilige Prognosemodell am W Im Versicherungsumfeld kommen im Hinblick auf die benö- besten geeignet ist hängt sowohl von den zur Verfügung tigten Kunden- und Vertriebsdaten einige weitere branchen- stehenden Daten ab als auch von der Fachlichkeit des zu spezifische Besonderheiten hinzu. Im modernen Versiche- analysierenden Ereignisses. rungsvertrieb werden unterschiedlichste Vertriebswege, wie AO-Vertreter, Makler, Strukturvertriebe, Onlineplattformen,Scorecard-Evaluation Internet oder B2B-Partner, wie z.B. Autohäuser oder Automo-• ur kontinuierlichen Verbesserung des betrachteten Progno- Z bilhersteller, genutzt. Die Beschaffung (und Standardisierung) semodells werden systematisch die strukturellen Einflüsse der zur Modellentwicklung und –anwendung notwendigen der betrachteten Merkmale analysiert und nicht signifikante Vertriebsdaten stellt hierbei eine erhebliche Herausforderung Besonderheiten herausgefiltert. dar. Erschwerend wirkt hierbei auch die rechtliche Unabhän-• ewertung der Prognosegüte: Mittels der unabhängigen B gigkeit der Vertreterschaft, die als selbständige Handelsver- Validierungsmenge wird die Aussagekraft der Scorecard treter rechtlicher und wirtschaftlicher Eigentümer ihrer Daten gemessen und anhand von etablierten Kennzahlen die Prog- sind. Zusätzlich schränken die an die Versicherung gestellten nosegüte bewertet. datenschutzrechtlichen Anforderungen sowohl den Umfang als auch die Qualität der zur Analyse heranziehbaren DatenScorecard-Einsatz maßgeblich ein. Vor allem Mehrsparten-Versicherungen, in• nwendung der Scorecard in den definierten Einsatzszena­ A denen die einzelnen Sparten Sach-, Kranken- und Lebensver- rios, d.h. Einbettung in die operativen Geschäftsprozesse und sicherung in rechtlich selbständigen Unternehmen organisiert Durchführung der Prognose auf Basis aktueller (täglicher, sind, haben gerade im Blick auf personenbezogene Daten wöchentlicher oder monatlicher) Daten. strenge Regeln zu befolgen.• ontinuierliche Messung der Prognosegüte und Wartung des K statistischen Modells, das in regelmäßigen Abständen immer Der Prozess der Scorecard-Modellierung ist selbstverständ- weiter trainiert und validiert wird, um die Prognosegüte ste- lich toolgestützt und basiert auf dem Einsatz von statistischen tig zu verbessern. Werkzeugen. Eigenständige Data Mining Lösungen, wie bei- spielsweise des SAS Enterprise Miner 6.2 oder des IBM SPSSDieses Vorgehen lässt sich in vielen modernen Versicherungs- Modeler 14, sind zurzeit jedoch in den Versicherungen nochunternehmen finden und ist in diesen seit mehreren Jahren eta- gering vertreten, da mit Einsatz dieser Werkzeuge teilweisebliert. Obwohl ein etabliertes Standardvorgehen existiert, sind beträchtliche Investitionen verbunden sind. Daher kommendarüber hinaus eine Fülle von Einflussfaktoren zu managen, bei der Scorecard-Entwicklung in der Assekuranz häufig diedie über den erfolgreichen Einsatz von Predictive Analytics in bereits für andere Zwecke eingesetzten statistischen Werkzeu-der Versicherungsbranche entscheiden. ge, wie beispielsweise SAS| STAT zum Einsatz. IT-Banken Versicherungen 3 • 2011 43
  5. 5. Strategie Der Einsatz von echten Data Mining Suiten kann allerdings zu Aktionsplanung – zur Anwendung, so gewinnt künftig der einer Erhöhung der Scoring-Produktivität führen, stellt aber – systematische Einsatz in operativen Anwendungssystemen an zumindest zurzeit – aus Sicht vieler Versicherer noch keinen Bedeutung. Immer mehr Werkzeuganbieter bieten daher die echten kritischen Erfolgsfaktor dar, da auch mit den etablier- Möglichkeit über definierte Service-Schnittstellen die zugrun- ten statistischen Werkzeugen gleichwertige Ergebnisse erzielt deliegenden Statistikkomponenten in operativen Anwen- werden können. Der von einigen Data Mining-Anbietern dungssystemen, wie zum Beispiel Web-Anwendungen, zu verfolgte Ansatz, in ihren Suiten vorkonfigurierte versiche- integrieren. So werden beispielsweise bereits heute Scorecards rungsspezifische Prognosemodelle bereitzustellen, um die in Kundenportalen von Versicherungen eingesetzt, um den Einstiegshürden für kleinere Versicherungen zu senken, ist Kundendialog zu analysieren und zu steuern. Anhand bekann- allerdings angesichts des starken Einflusses der notwendigen ter Kundenmerkmale wird der jeweilige Portalbesucher unter Kombination von Fach- und Statistikwissen der Analysten Nutzung von Scorecards in Echtzeit analysiert und die für ihn sowie der jeweiligen Heterogenität der Versicherer hinsicht- wahrscheinlich interessantesten Produkte und Services pro­ lich Prognose-Inputdaten – zumindest zu hinterfragen. gnostiziert, die dann unmittelbar im Dialog angezeigt werden. Erste Erfahrungen zeigen, dass hierdurch signifikante Steige- Ein echter Fortschritt in der Toolunterstützung zeichnet sich rungen des Verkaufserfolges erzielt werden können. indessen an anderer Stelle ab: Durch den immer breiter werdenden Einsatz von Prognose- Fazit modellen, steigt auch die Komplexität und Vielzahl der in die Analysen einbezogenen Datenquellen – die Sicherstellung der Zunehmender Wettbewerbs- und Kostendruck sowie verän- Datenqualität gewinnt somit zunehmend an Gewicht. Eine dertes Kundenverhalten zwingen die Assekuranz künftig noch Entwicklung, der durch die Anbieter durch die Integration von in viel stärkerem Maße ihre begrenzten Ressourcen zielge- Data Quality Lösungen in ihre BI Suiten Rechnung getragen richteter einzusetzen. Dem Ausbau und Erhalt der eigenen wird. Kundenbasis kommt dabei eine überragende Bedeutung zu. Gerade in kundenfokussierten Prognosen, deren Ergebnis Bereits heute befindet sich in vielen großen Versicherungen häufig zu direkter Kommunikation oder einer (mit Kosten Predictive Analytics erfolgreich im Einsatz. Aufgrund der verbundenen) Interaktion mit dem Kunden führt, ist eine technologischen Weiterentwicklung wird das Einsatzspektrum qualitativ hochwertige – systematisch qualitätsgesicherte – von Prognosemodellen jedoch immer umfangreicher. Künftig Kundendatenbasis ein absolutes Muss. Wird hier zu wenig werden Scorecards nicht nur dispositiv, sondern auch direkt getan, wirkt schnell das GIGO-Prinzip – „Garbage In, Garbage eingebettet in die operativen Prozesse, an Bedeutung gewin- Out“. Die komplexesten und hochentwickeltsten Prognose- nen. Die größte Einstiegshürde zum Aufbau von Scorecards modelle nützen nur, wenn qualitativ hochwertige Daten die für kleinere und mittlere Versicherer bildet – neben der oft Grundlage der Analyse und Prognose sind. nicht unbeträchtlichen Investition in die analytischen Werk- zeuge – vor allem die Skillfrage. Häufig sind Spezialisten, die Die wichtigste Innovation stellt jedoch die immer stärkere Ver- sowohl exzellentes versicherungsspezifisches Know-how, als ankerung von Scorecards in die operativen Geschäftsprozesse auch eine hervorragende mathematisch-statistische Expertise dar. Kommen heute analytische Prognosemodelle hauptsäch- bieten, intern nicht verfügbar. lich im rein dispositiven Umfeld – wie z.B. der Vertriebs- und Eine Lösung für diese Herausforderung ist es, bei den ersten Schritten zum Aufbau von eigenen Scorecards nicht gleich zuviel zu wollen, sondern zusammen mit einem erfahrenen Autoren: Partner, der über hinreichende Branchen- und Mathematik- Axel Kummer kompetenz verfügt, sukzessive das Thema und eigene Mit- arbeiter zu entwickeln sowie die notwendigen Prozesse zu COO, metafinanz etablieren. Auch die Investitionen lassen sich – abhängig vom Informationssysteme GmbH einzusetzenden Statistikverfahren – durch die Nutzung von kostengünstigere Open Source-Werkzeugen für Data Mining und Statistik, wie zum Beispiel R (http://www.r-project.org/) oder dem RapidMiner (http://rapid-i.com/), begrenzen. Falk Lehmann Head of Business Intelligence, Ein erstes Projekt muss nicht gleich mehrere Mannjahre metafinanz Informationssysteme umfassen. Erste Ergebnisse lassen sich oft bereits nach kurzer GmbH Zeit erzielen und schrittweise ausbauen.44 IT-Banken Versicherungen 3 • 2011

×