tiv hochwertigen Daten für das Risikomanagement zur                   Sonderdruck aus                                     ...
Portal und Webservices mit zentralem                                    alogverfahren, das über Anzeige und Editierfunktio...
anzeigen an der Benutzerschnittstelle dar, wo sie der An-   dern weltweit rund um die Uhr zur Verfügung und              w...
Nächste SlideShare
Wird geladen in …5
×

Datenprüfung für Konzerncontrolling

332 Aufrufe

Veröffentlicht am

[11.12.2009] Data Governance-Prozesse gelten im Finanz- und Versicherungssektor als geschäftskritisch, weil bei ungenügender Qualität von Daten enorme finanzielle und nicht-monetäre Risiken drohen. Banken und Versicherungen implementieren daher engmaschige Prüfnetze mit Data Quality (DQ)-Routinen - doch Entwicklung und Wartung dieses Instrumentariums verschlingt oft enorme Ressourcen. In einem Kundenprojekt entwickelte man daher auf Grundlage einer serviceorientierten Architektur (SOA) zentrale DQ-Services, die sowohl in den weltweit verteilten heterogenen Anwendungssystemen als auch von den klassischen ETL-Batch-Routinen genutzt werden. Datenqualität wird an einem zentralen Punkt fokussiert – bündelt damit die Kompetenzen und verringert die IT-Aufwände.

Veröffentlicht in: Business
0 Kommentare
0 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Keine Downloads
Aufrufe
Aufrufe insgesamt
332
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
3
Aktionen
Geteilt
0
Downloads
1
Kommentare
0
Gefällt mir
0
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie

Datenprüfung für Konzerncontrolling

  1. 1. tiv hochwertigen Daten für das Risikomanagement zur Sonderdruck aus Folge. Insbesondere im Hinblick auf die dritte Säule von Solvency II – der Berichterstattungspflichten von Versi- BI-Spektrum 5/09 für cherungsunternehmen - benötigt man konsistente Infor- mationen für Öffentlichkeit und Aufsichtsbehörden, wo- bei im Rahmen der implementierten Data-Governance die Datenqualität für das interne und das externe Re- porting sichergestellt werden muss. Im Falle mangelhaf-Schwerpunkt ter Datenqualität steigt das Risiko, Reputationsschäden zu erleiden oder auch hohe Schadensersatzforderungen leisten zu müssen. Falk Lehmann ist Market Unit Manager of BI & Reporting bei metafinanz Informations- systeme GmbH, München Steigender Reporting-Aufwand In der Praxis ist das Streben nach hoher Datenqualität allerdings mit einigem Aufwand verbunden, wie das Pro- jekt eines Datenproviders für das konzernweite Asset- Datenqualitäts-Firewall Liability-Management eines großen Finanzdienstleisters zeigte. Für das Controlling der Asset- und Investment- Datenprüfung für management-Prozesse müssen tagtäglich eine große An- zahl von Reports und Analysen erstellt werden, die eine Konzerncontrolling essentielle Bedeutung für das Compliance- und Risiko- management des Konzerns haben. Die Daten für dieses Reporting werden von einer Vielzahl unterschiedlicher Data Governance-Prozesse gelten im Finanz- und Ver- Liefersysteme aus dem gesamten weltweiten Konzern- sicherungssektor als geschäftskritisch, weil bei unge- umfeld sowie externer Marktdatenprovider bereitgestellt. nügender Qualität von Daten enorme finanzielle und Üblicherweise werden die Daten als CSV-Dateien oder nicht-monetäre Risiken drohen. Banken und Versiche- proprietäre Datafeeds in das Datawarehouse geladen. Da rungen implementieren daher engmaschige Prüfnetze die fachlichen Inhalte der Dateien sich stark unterschei- mit Data Quality (DQ)-Routinen - doch Entwicklung den, muss für jedes Liefersystem eine eigene Datenquali- und Wartung dieses Instrumentariums verschlingt oft täts-Prüfroutine innerhalb des ETL-Prozesses entwickelt enorme Ressourcen. In einem Kundenprojekt entwickel- werden. te man daher auf Grundlage einer serviceorientierten Neben der technischen Komplexität ergeben sich auch Architektur (SOA) zentrale DQ-Services, die sowohl in fachlich diverse Herausforderungen: So bestehen bei- den weltweit verteilten heterogenen Anwendungssyste- spielsweise bei manchen Reports Abhängigkeiten zwi- men als auch von den klassischen ETL-Batch-Routinen schen unterschiedlichen Datenlieferungen - im Portfo- genutzt werden. Datenqualität wird an einem zentralen liomanagement betrifft das etwa die Composites. Bei Punkt fokussiert – bündelt damit die Kompetenzen und Composites handelt es sich um eine Bündelung mehre- verringert die IT-Aufwände. rer Investmentportfolios gleichen Gestaltungstyps. Als Datenlieferung kommen hier einerseits Marktdaten, wie Aktien- oder Terminkurse herein, die den Wert eines ge- Spätestens seit dem Zusammenbruch von Lehman Brot- samten Composites darstellen, gleichzeitig laufen auch hers und der weltweiten Finanzkrise rückt das Thema Daten jedes einzelnen inhärenten Investmentfonds von Data-Governance in das Blickfeld des Risikomanage- den Fondsgesellschaften ins zentrale Datawarehouse. ments der Banken- und Versicherungswirtschaft. Zwar Am Ende muss die AUM-Summe („Asset-under-Ma- sah sich der Bankensektor bereits mit Basel II einer nagement“: Wert der Aktie, des Fonds oder des Com- Vielzahl von regulatorischen Anforderungen ausgesetzt, posites) der Einzelwerte identisch sein mit dem Ge- doch werden die Bestimmungen auf breiter Front aus- samtwert des alle Investmentportfolios beinhaltenden geweitet. Nun kommen auch auf die Versicherungswirt- Composites. schaft unter dem Stichwort Solvency II neue Regeln für Um die Datenqualität sicherzustellen, kamen in der Ver- das Risikomanagement zu, die bis 2012 umgesetzt sein gangenheit verschiedene Datenqualitäts-Prüfungen zum müssen. Einsatz, die sich jedoch auf einzelne oder Gruppen von Für Finanzdienstleister hat dies vor allem in Konzern- Lieferungen bezogen. Durch diese Heterogenität entste- controlling und -bilanzierung signifikant höheren Auf- hen nicht nur zeitliche Verzögerungen beim Reporting, wand für das Bereitstellen und Aufbereiten von qualita- sondern auch unnötige Mehrkosten. BI-Spektrum 05-2009 18
  2. 2. Portal und Webservices mit zentralem alogverfahren, das über Anzeige und EditierfunktionenETL-Prozess verfügt. Zunächst findet im ersten Schritt eine Vorprü- fung der gelieferten Daten statt. Diese basiert auf überAufgrund der vielschichtigen Anforderungen entschied Metadaten konfigurierbaren generischen Checks, so dassman sich, die gesamten Qualitätsprüfungsprozesse zu für neue Liefersysteme keine Programmierung, sondernzentralisieren. Die Idee dabei war, auf der bestehenden In- lediglich eine Konfiguration erforderlich ist. Implemen-formatica Powercenter-Architektur mit ihren klassischen tiert sind diese generischen Checks mittels regulärerETL-Schnittstellen und den bereits implementierten DQ- Ausdrücke, welche durch die in Informatica vorhandene SchwerpunktChecks aufzusetzen, gleichzeitig aber diese DQ-Funktio- Perl-kompatible Regular-Expression-Engine ausgeführtnen durch Einsatz der Informatica Realtime-Option auch werden. Durch diese Metadaten-basierte Architektur istweiteren Applikationssystemen – wie JEE-Portalen (Java das System nicht auf ein bestimmtes CSV-DatenformatEnterprise Edition) oder Rich-Client-Applikationen als festgelegt, sondern kann flexibel je nach fachlichemzentrale DQ-Services für eine direkte Nutzung zur Verfü- Kontext konfiguriert werden.gung zu stellen - als singulären Punkt der Datenprüfung Die zu prüfenden Daten könnten beispielsweise nach fol-in einem mehrstufigen ETL-Prozess. gendem Muster aufgebaut sein: In der ersten Spalte derDie neue Architektur bietet in Richtung Anwender/Da- Lieferung steht das Lieferdatum, in der zweiten der Fonds-tenlieferant in der aktuellen Ausbaustufe zwei Schnitt- name, in der dritten die ISIN-Kennzahl (International Se-stellen: Zum einen entwickelte man für den allgemeinen curity Identification Number; die ISIN dient der eindeu-Zugang ein universelles User-Interface auf Basis eines tigen internationalen Identifikation von Wertpapieren), inJava-Web-Clients, die auf den Webservice zugreift. Der der vierten der Anlagetyp – zum Beispiel EQ für EquityKunde meldet sich dabei über eine SSL-gesicherte Ver- oder FI für Fixed Income – und so weiter. Per Feldprüfungbindung an, um seine Daten ins Datawarehouse zu laden. wird nun zunächst nach syntaktischen oder logischen Feh-Am Client startet nun eine zweistufige Datenprüfung, die lern gesucht. Tauchen in einer oder mehreren Feldprüfun-per Informatica-Webservice auf die ETL-Mechanismen gen Fehler auf, markiert das System die entsprechendenzugreift. Es handelt sich hierbei um ein interaktives Di- Zeilen und Datenfelder und stellt die Daten mit Status-Abb. 1: WSDL ist die XML-Beschreibung einer WebService-Schnittstelle. Die Grafik beschreibt, welche Daten(typen) in den Service hinein undhinaus gehen – als eine Art Kontrakt zwischen Datenlieferant und Informatica-Service. BI-Spektrum 05-2009 19
  3. 3. anzeigen an der Benutzerschnittstelle dar, wo sie der An- dern weltweit rund um die Uhr zur Verfügung und wender umgehend interaktiv ausbessern kann. Die korri- folgt damit der Self-Service-Philosophie. Gleichzeitig gierten Daten werden nun automatisch per Asynchronous kommt nun gewissermaßen das Verursacherprinzip Javascript and XML (AJAX) für eine erneute Prüfung zum Tragen: Datenfehler müssen dort korrigiert wer- an das Datawarehouse zurückgespielt und das Ergebnis den, wo sie entstehen, nämlich beim Lieferanten und in der erneuten Prüfung wird dem Anwender ohne Page- dessen Quellsystemen. Die Lieferanten wiederum ha- Refresh des User-Interfaces dargestellt. Sobald die Daten ben nun die Möglichkeit, Fehler bereits direkt während alle konfigurierten generischen Prüfungen erfüllen, kann der Datenladung in Echtzeit angezeigt zu bekommenSchwerpunkt in einem zweiten Schritt eine in Informatica hinterlegte und interaktiv zu beheben. Spezialprüfung durchgeführt werden. Hierbei ist es not- Auf der anderen Seite wird mit dieser Architektur auch wendig, eine der Fachlichkeit der Lieferung entsprechen- ein Single Point of Responsibility geschaffen. Hatte de ETL-Prüfroutine zu schreiben. Diese ETL-Prüfroutine man in der Vergangenheit verschiedene Datenprü- wird als klassisches Mapping implementiert. Denkbar fungs-Firewalls entwickelt und damit das Rad immer wäre beispielsweise die zu Beginn des Artikels skizzierte wieder neu erfunden, konzentriert sich diese Aufgabe fachliche Anforderung nach Gleichheit von AUM-Summe und das damit verbundene fachliche Knowhow jetzt des Composites und der AUM-Summen der im Composite direkt am Datawarehouse. Webentwickler an externen enthaltenen Einzelportfolios. Hierzu würde im Mapping Standorten müssen sich nun nicht mehr mit speziellen die AUM-Summe des Composites mit einer bereits früher fachlichen Fragen auseinandersetzen, sondern können erfolgten und deshalb bereits im Datawarehouse vorhan- die vorhandenen SOA-Komponenten direkt in ihre denen Lieferung der enthaltenen Fonds verglichen. Portale einbauen. Als zweiten Zugang zur ETL-Logik können die Webser- Schließlich spricht auch noch ein ständiger Aktualisie- vices über beliebige Programmiersprachen als Batch- rungsbedarf für eine konsequente Zentralisierung. So- Schnittstelle genutzt werden. Auf der Seite der dezen- bald etwa Gesetzesänderungen vorliegen, müssen diese tralen Liefersysteme eröffnet sich damit ein breites nur noch einmal im ETL-Tool umgesetzt werden, alle lie- Spektrum für Individuallösungen, die alle stets mit der fernden Systeme in den externen Organisationen bleiben zentralen Ladeinstanz von Informatica kommunizieren. davon zukünftig unberührt. Nützlich ist das etwa für Lieferanten mit hoher Frequenz: Statt die täglichen Fonds-Schlusskurse immer händisch über das Portal zu laden, ist es möglich einen Adapter schreiben, der die Zahlen automatisch liefert. BI-SPEKTRUM ist eine Fachpublikation des Verlags: SIGS DATACOM GmbH | Lindlaustraße 2c | 53842 Troisdorf Tel.: +49 (0) 22 41.2341-100 | Fax: +49 (0) 22 41.2341-199 Fazit: Self-Service und Zentralisierung E-mail: info@sigs-datacom.de der Kompetenzen www.bi-spektrum.de Mit dieser zentralisierten Lösung profitiert der Kunde in mehrfacher Hinsicht. Das Portal steht den Anwen- BI-Spektrum 05-2009 20

×