SlideShare ist ein Scribd-Unternehmen logo
1 von 3
Downloaden Sie, um offline zu lesen
tiv hochwertigen Daten für das Risikomanagement zur
                   Sonderdruck aus                                      Folge. Insbesondere im Hinblick auf die dritte Säule von
                                                                        Solvency II – der Berichterstattungspflichten von Versi-
                 BI-Spektrum 5/09 für                                   cherungsunternehmen - benötigt man konsistente Infor-
                                                                        mationen für Öffentlichkeit und Aufsichtsbehörden, wo-
                                                                        bei im Rahmen der implementierten Data-Governance
                                                                        die Datenqualität für das interne und das externe Re-
                                                                        porting sichergestellt werden muss. Im Falle mangelhaf-
Schwerpunkt



                                                                        ter Datenqualität steigt das Risiko, Reputationsschäden
                                                                        zu erleiden oder auch hohe Schadensersatzforderungen
                                                                        leisten zu müssen.
               Falk Lehmann ist Market Unit Manager
               of BI & Reporting bei metafinanz Informations-
               systeme GmbH, München                                    Steigender Reporting-Aufwand

                                                                        In der Praxis ist das Streben nach hoher Datenqualität
                                                                        allerdings mit einigem Aufwand verbunden, wie das Pro-
                                                                        jekt eines Datenproviders für das konzernweite Asset-
              Datenqualitäts-Firewall                                   Liability-Management eines großen Finanzdienstleisters
                                                                        zeigte. Für das Controlling der Asset- und Investment-
              Datenprüfung für                                          management-Prozesse müssen tagtäglich eine große An-
                                                                        zahl von Reports und Analysen erstellt werden, die eine
              Konzerncontrolling                                        essentielle Bedeutung für das Compliance- und Risiko-
                                                                        management des Konzerns haben. Die Daten für dieses
                                                                        Reporting werden von einer Vielzahl unterschiedlicher
              Data Governance-Prozesse gelten im Finanz- und Ver-       Liefersysteme aus dem gesamten weltweiten Konzern-
              sicherungssektor als geschäftskritisch, weil bei unge-    umfeld sowie externer Marktdatenprovider bereitgestellt.
              nügender Qualität von Daten enorme finanzielle und        Üblicherweise werden die Daten als CSV-Dateien oder
              nicht-monetäre Risiken drohen. Banken und Versiche-       proprietäre Datafeeds in das Datawarehouse geladen. Da
              rungen implementieren daher engmaschige Prüfnetze         die fachlichen Inhalte der Dateien sich stark unterschei-
              mit Data Quality (DQ)-Routinen - doch Entwicklung         den, muss für jedes Liefersystem eine eigene Datenquali-
              und Wartung dieses Instrumentariums verschlingt oft       täts-Prüfroutine innerhalb des ETL-Prozesses entwickelt
              enorme Ressourcen. In einem Kundenprojekt entwickel-      werden.
              te man daher auf Grundlage einer serviceorientierten      Neben der technischen Komplexität ergeben sich auch
              Architektur (SOA) zentrale DQ-Services, die sowohl in     fachlich diverse Herausforderungen: So bestehen bei-
              den weltweit verteilten heterogenen Anwendungssyste-      spielsweise bei manchen Reports Abhängigkeiten zwi-
              men als auch von den klassischen ETL-Batch-Routinen       schen unterschiedlichen Datenlieferungen - im Portfo-
              genutzt werden. Datenqualität wird an einem zentralen     liomanagement betrifft das etwa die Composites. Bei
              Punkt fokussiert – bündelt damit die Kompetenzen und      Composites handelt es sich um eine Bündelung mehre-
              verringert die IT-Aufwände.                               rer Investmentportfolios gleichen Gestaltungstyps. Als
                                                                        Datenlieferung kommen hier einerseits Marktdaten, wie
                                                                        Aktien- oder Terminkurse herein, die den Wert eines ge-
              Spätestens seit dem Zusammenbruch von Lehman Brot-        samten Composites darstellen, gleichzeitig laufen auch
              hers und der weltweiten Finanzkrise rückt das Thema       Daten jedes einzelnen inhärenten Investmentfonds von
              Data-Governance in das Blickfeld des Risikomanage-        den Fondsgesellschaften ins zentrale Datawarehouse.
              ments der Banken- und Versicherungswirtschaft. Zwar       Am Ende muss die AUM-Summe („Asset-under-Ma-
              sah sich der Bankensektor bereits mit Basel II einer      nagement“: Wert der Aktie, des Fonds oder des Com-
              Vielzahl von regulatorischen Anforderungen ausgesetzt,    posites) der Einzelwerte identisch sein mit dem Ge-
              doch werden die Bestimmungen auf breiter Front aus-       samtwert des alle Investmentportfolios beinhaltenden
              geweitet. Nun kommen auch auf die Versicherungswirt-      Composites.
              schaft unter dem Stichwort Solvency II neue Regeln für    Um die Datenqualität sicherzustellen, kamen in der Ver-
              das Risikomanagement zu, die bis 2012 umgesetzt sein      gangenheit verschiedene Datenqualitäts-Prüfungen zum
              müssen.                                                   Einsatz, die sich jedoch auf einzelne oder Gruppen von
              Für Finanzdienstleister hat dies vor allem in Konzern-    Lieferungen bezogen. Durch diese Heterogenität entste-
              controlling und -bilanzierung signifikant höheren Auf-    hen nicht nur zeitliche Verzögerungen beim Reporting,
              wand für das Bereitstellen und Aufbereiten von qualita-   sondern auch unnötige Mehrkosten.


                 BI-Spektrum 05-2009

         18
Portal und Webservices mit zentralem                                    alogverfahren, das über Anzeige und Editierfunktionen
ETL-Prozess                                                             verfügt. Zunächst findet im ersten Schritt eine Vorprü-
                                                                        fung der gelieferten Daten statt. Diese basiert auf über
Aufgrund der vielschichtigen Anforderungen entschied                    Metadaten konfigurierbaren generischen Checks, so dass
man sich, die gesamten Qualitätsprüfungsprozesse zu                     für neue Liefersysteme keine Programmierung, sondern
zentralisieren. Die Idee dabei war, auf der bestehenden In-             lediglich eine Konfiguration erforderlich ist. Implemen-
formatica Powercenter-Architektur mit ihren klassischen                 tiert sind diese generischen Checks mittels regulärer
ETL-Schnittstellen und den bereits implementierten DQ-                  Ausdrücke, welche durch die in Informatica vorhandene




                                                                                                                                              Schwerpunkt
Checks aufzusetzen, gleichzeitig aber diese DQ-Funktio-                 Perl-kompatible Regular-Expression-Engine ausgeführt
nen durch Einsatz der Informatica Realtime-Option auch                  werden. Durch diese Metadaten-basierte Architektur ist
weiteren Applikationssystemen – wie JEE-Portalen (Java                  das System nicht auf ein bestimmtes CSV-Datenformat
Enterprise Edition) oder Rich-Client-Applikationen als                  festgelegt, sondern kann flexibel je nach fachlichem
zentrale DQ-Services für eine direkte Nutzung zur Verfü-                Kontext konfiguriert werden.
gung zu stellen - als singulären Punkt der Datenprüfung                 Die zu prüfenden Daten könnten beispielsweise nach fol-
in einem mehrstufigen ETL-Prozess.                                      gendem Muster aufgebaut sein: In der ersten Spalte der
Die neue Architektur bietet in Richtung Anwender/Da-                    Lieferung steht das Lieferdatum, in der zweiten der Fonds-
tenlieferant in der aktuellen Ausbaustufe zwei Schnitt-                 name, in der dritten die ISIN-Kennzahl (International Se-
stellen: Zum einen entwickelte man für den allgemeinen                  curity Identification Number; die ISIN dient der eindeu-
Zugang ein universelles User-Interface auf Basis eines                  tigen internationalen Identifikation von Wertpapieren), in
Java-Web-Clients, die auf den Webservice zugreift. Der                  der vierten der Anlagetyp – zum Beispiel EQ für Equity
Kunde meldet sich dabei über eine SSL-gesicherte Ver-                   oder FI für Fixed Income – und so weiter. Per Feldprüfung
bindung an, um seine Daten ins Datawarehouse zu laden.                  wird nun zunächst nach syntaktischen oder logischen Feh-
Am Client startet nun eine zweistufige Datenprüfung, die                lern gesucht. Tauchen in einer oder mehreren Feldprüfun-
per Informatica-Webservice auf die ETL-Mechanismen                      gen Fehler auf, markiert das System die entsprechenden
zugreift. Es handelt sich hierbei um ein interaktives Di-               Zeilen und Datenfelder und stellt die Daten mit Status-




Abb. 1: WSDL ist die XML-Beschreibung einer WebService-Schnittstelle. Die Grafik beschreibt, welche Daten(typen) in den Service hinein und
hinaus gehen – als eine Art Kontrakt zwischen Datenlieferant und Informatica-Service.



                                                                                                                BI-Spektrum 05-2009

                                                                                                                                             19
anzeigen an der Benutzerschnittstelle dar, wo sie der An-   dern weltweit rund um die Uhr zur Verfügung und
              wender umgehend interaktiv ausbessern kann. Die korri-      folgt damit der Self-Service-Philosophie. Gleichzeitig
              gierten Daten werden nun automatisch per Asynchronous       kommt nun gewissermaßen das Verursacherprinzip
              Javascript and XML (AJAX) für eine erneute Prüfung          zum Tragen: Datenfehler müssen dort korrigiert wer-
              an das Datawarehouse zurückgespielt und das Ergebnis        den, wo sie entstehen, nämlich beim Lieferanten und in
              der erneuten Prüfung wird dem Anwender ohne Page-           dessen Quellsystemen. Die Lieferanten wiederum ha-
              Refresh des User-Interfaces dargestellt. Sobald die Daten   ben nun die Möglichkeit, Fehler bereits direkt während
              alle konfigurierten generischen Prüfungen erfüllen, kann    der Datenladung in Echtzeit angezeigt zu bekommen
Schwerpunkt



              in einem zweiten Schritt eine in Informatica hinterlegte    und interaktiv zu beheben.
              Spezialprüfung durchgeführt werden. Hierbei ist es not-     Auf der anderen Seite wird mit dieser Architektur auch
              wendig, eine der Fachlichkeit der Lieferung entsprechen-    ein Single Point of Responsibility geschaffen. Hatte
              de ETL-Prüfroutine zu schreiben. Diese ETL-Prüfroutine      man in der Vergangenheit verschiedene Datenprü-
              wird als klassisches Mapping implementiert. Denkbar         fungs-Firewalls entwickelt und damit das Rad immer
              wäre beispielsweise die zu Beginn des Artikels skizzierte   wieder neu erfunden, konzentriert sich diese Aufgabe
              fachliche Anforderung nach Gleichheit von AUM-Summe         und das damit verbundene fachliche Knowhow jetzt
              des Composites und der AUM-Summen der im Composite          direkt am Datawarehouse. Webentwickler an externen
              enthaltenen Einzelportfolios. Hierzu würde im Mapping       Standorten müssen sich nun nicht mehr mit speziellen
              die AUM-Summe des Composites mit einer bereits früher       fachlichen Fragen auseinandersetzen, sondern können
              erfolgten und deshalb bereits im Datawarehouse vorhan-      die vorhandenen SOA-Komponenten direkt in ihre
              denen Lieferung der enthaltenen Fonds verglichen.           Portale einbauen.
              Als zweiten Zugang zur ETL-Logik können die Webser-         Schließlich spricht auch noch ein ständiger Aktualisie-
              vices über beliebige Programmiersprachen als Batch-         rungsbedarf für eine konsequente Zentralisierung. So-
              Schnittstelle genutzt werden. Auf der Seite der dezen-      bald etwa Gesetzesänderungen vorliegen, müssen diese
              tralen Liefersysteme eröffnet sich damit ein breites        nur noch einmal im ETL-Tool umgesetzt werden, alle lie-
              Spektrum für Individuallösungen, die alle stets mit der     fernden Systeme in den externen Organisationen bleiben
              zentralen Ladeinstanz von Informatica kommunizieren.        davon zukünftig unberührt.
              Nützlich ist das etwa für Lieferanten mit hoher Frequenz:
              Statt die täglichen Fonds-Schlusskurse immer händisch
              über das Portal zu laden, ist es möglich einen Adapter
              schreiben, der die Zahlen automatisch liefert.
                                                                            BI-SPEKTRUM ist eine Fachpublikation des Verlags:
                                                                             SIGS DATACOM GmbH | Lindlaustraße 2c | 53842 Troisdorf
                                                                              Tel.: +49 (0) 22 41.2341-100 | Fax: +49 (0) 22 41.2341-199
              Fazit: Self-Service und Zentralisierung                                        E-mail: info@sigs-datacom.de
              der Kompetenzen                                                                     www.bi-spektrum.de


              Mit dieser zentralisierten Lösung profitiert der Kunde
              in mehrfacher Hinsicht. Das Portal steht den Anwen-




                 BI-Spektrum 05-2009

         20

Weitere ähnliche Inhalte

Andere mochten auch (12)

Новые стандарты технологического присоединения
Новые стандарты технологического присоединенияНовые стандарты технологического присоединения
Новые стандарты технологического присоединения
 
Повышение доступности энергетической инфраструктуры
Повышение доступности энергетической инфраструктурыПовышение доступности энергетической инфраструктуры
Повышение доступности энергетической инфраструктуры
 
Bio dna replication project
Bio dna replication projectBio dna replication project
Bio dna replication project
 
Email details
Email detailsEmail details
Email details
 
Description of telematches
Description of telematchesDescription of telematches
Description of telematches
 
Gp0000 saga iswara kelab
Gp0000 saga iswara kelabGp0000 saga iswara kelab
Gp0000 saga iswara kelab
 
Theorie und Praxis sozialer Bewegungen
Theorie und Praxis sozialer BewegungenTheorie und Praxis sozialer Bewegungen
Theorie und Praxis sozialer Bewegungen
 
Cardiopatia isquemica
Cardiopatia isquemicaCardiopatia isquemica
Cardiopatia isquemica
 
Slidecast
SlidecastSlidecast
Slidecast
 
Tecnological process
Tecnological processTecnological process
Tecnological process
 
Wo lohnt sich der Einkauf von Services?
Wo lohnt sich der Einkauf von Services?Wo lohnt sich der Einkauf von Services?
Wo lohnt sich der Einkauf von Services?
 
Melaka wonderland attraction
Melaka wonderland attractionMelaka wonderland attraction
Melaka wonderland attraction
 

Datenprüfung für Konzerncontrolling

  • 1. tiv hochwertigen Daten für das Risikomanagement zur Sonderdruck aus Folge. Insbesondere im Hinblick auf die dritte Säule von Solvency II – der Berichterstattungspflichten von Versi- BI-Spektrum 5/09 für cherungsunternehmen - benötigt man konsistente Infor- mationen für Öffentlichkeit und Aufsichtsbehörden, wo- bei im Rahmen der implementierten Data-Governance die Datenqualität für das interne und das externe Re- porting sichergestellt werden muss. Im Falle mangelhaf- Schwerpunkt ter Datenqualität steigt das Risiko, Reputationsschäden zu erleiden oder auch hohe Schadensersatzforderungen leisten zu müssen. Falk Lehmann ist Market Unit Manager of BI & Reporting bei metafinanz Informations- systeme GmbH, München Steigender Reporting-Aufwand In der Praxis ist das Streben nach hoher Datenqualität allerdings mit einigem Aufwand verbunden, wie das Pro- jekt eines Datenproviders für das konzernweite Asset- Datenqualitäts-Firewall Liability-Management eines großen Finanzdienstleisters zeigte. Für das Controlling der Asset- und Investment- Datenprüfung für management-Prozesse müssen tagtäglich eine große An- zahl von Reports und Analysen erstellt werden, die eine Konzerncontrolling essentielle Bedeutung für das Compliance- und Risiko- management des Konzerns haben. Die Daten für dieses Reporting werden von einer Vielzahl unterschiedlicher Data Governance-Prozesse gelten im Finanz- und Ver- Liefersysteme aus dem gesamten weltweiten Konzern- sicherungssektor als geschäftskritisch, weil bei unge- umfeld sowie externer Marktdatenprovider bereitgestellt. nügender Qualität von Daten enorme finanzielle und Üblicherweise werden die Daten als CSV-Dateien oder nicht-monetäre Risiken drohen. Banken und Versiche- proprietäre Datafeeds in das Datawarehouse geladen. Da rungen implementieren daher engmaschige Prüfnetze die fachlichen Inhalte der Dateien sich stark unterschei- mit Data Quality (DQ)-Routinen - doch Entwicklung den, muss für jedes Liefersystem eine eigene Datenquali- und Wartung dieses Instrumentariums verschlingt oft täts-Prüfroutine innerhalb des ETL-Prozesses entwickelt enorme Ressourcen. In einem Kundenprojekt entwickel- werden. te man daher auf Grundlage einer serviceorientierten Neben der technischen Komplexität ergeben sich auch Architektur (SOA) zentrale DQ-Services, die sowohl in fachlich diverse Herausforderungen: So bestehen bei- den weltweit verteilten heterogenen Anwendungssyste- spielsweise bei manchen Reports Abhängigkeiten zwi- men als auch von den klassischen ETL-Batch-Routinen schen unterschiedlichen Datenlieferungen - im Portfo- genutzt werden. Datenqualität wird an einem zentralen liomanagement betrifft das etwa die Composites. Bei Punkt fokussiert – bündelt damit die Kompetenzen und Composites handelt es sich um eine Bündelung mehre- verringert die IT-Aufwände. rer Investmentportfolios gleichen Gestaltungstyps. Als Datenlieferung kommen hier einerseits Marktdaten, wie Aktien- oder Terminkurse herein, die den Wert eines ge- Spätestens seit dem Zusammenbruch von Lehman Brot- samten Composites darstellen, gleichzeitig laufen auch hers und der weltweiten Finanzkrise rückt das Thema Daten jedes einzelnen inhärenten Investmentfonds von Data-Governance in das Blickfeld des Risikomanage- den Fondsgesellschaften ins zentrale Datawarehouse. ments der Banken- und Versicherungswirtschaft. Zwar Am Ende muss die AUM-Summe („Asset-under-Ma- sah sich der Bankensektor bereits mit Basel II einer nagement“: Wert der Aktie, des Fonds oder des Com- Vielzahl von regulatorischen Anforderungen ausgesetzt, posites) der Einzelwerte identisch sein mit dem Ge- doch werden die Bestimmungen auf breiter Front aus- samtwert des alle Investmentportfolios beinhaltenden geweitet. Nun kommen auch auf die Versicherungswirt- Composites. schaft unter dem Stichwort Solvency II neue Regeln für Um die Datenqualität sicherzustellen, kamen in der Ver- das Risikomanagement zu, die bis 2012 umgesetzt sein gangenheit verschiedene Datenqualitäts-Prüfungen zum müssen. Einsatz, die sich jedoch auf einzelne oder Gruppen von Für Finanzdienstleister hat dies vor allem in Konzern- Lieferungen bezogen. Durch diese Heterogenität entste- controlling und -bilanzierung signifikant höheren Auf- hen nicht nur zeitliche Verzögerungen beim Reporting, wand für das Bereitstellen und Aufbereiten von qualita- sondern auch unnötige Mehrkosten. BI-Spektrum 05-2009 18
  • 2. Portal und Webservices mit zentralem alogverfahren, das über Anzeige und Editierfunktionen ETL-Prozess verfügt. Zunächst findet im ersten Schritt eine Vorprü- fung der gelieferten Daten statt. Diese basiert auf über Aufgrund der vielschichtigen Anforderungen entschied Metadaten konfigurierbaren generischen Checks, so dass man sich, die gesamten Qualitätsprüfungsprozesse zu für neue Liefersysteme keine Programmierung, sondern zentralisieren. Die Idee dabei war, auf der bestehenden In- lediglich eine Konfiguration erforderlich ist. Implemen- formatica Powercenter-Architektur mit ihren klassischen tiert sind diese generischen Checks mittels regulärer ETL-Schnittstellen und den bereits implementierten DQ- Ausdrücke, welche durch die in Informatica vorhandene Schwerpunkt Checks aufzusetzen, gleichzeitig aber diese DQ-Funktio- Perl-kompatible Regular-Expression-Engine ausgeführt nen durch Einsatz der Informatica Realtime-Option auch werden. Durch diese Metadaten-basierte Architektur ist weiteren Applikationssystemen – wie JEE-Portalen (Java das System nicht auf ein bestimmtes CSV-Datenformat Enterprise Edition) oder Rich-Client-Applikationen als festgelegt, sondern kann flexibel je nach fachlichem zentrale DQ-Services für eine direkte Nutzung zur Verfü- Kontext konfiguriert werden. gung zu stellen - als singulären Punkt der Datenprüfung Die zu prüfenden Daten könnten beispielsweise nach fol- in einem mehrstufigen ETL-Prozess. gendem Muster aufgebaut sein: In der ersten Spalte der Die neue Architektur bietet in Richtung Anwender/Da- Lieferung steht das Lieferdatum, in der zweiten der Fonds- tenlieferant in der aktuellen Ausbaustufe zwei Schnitt- name, in der dritten die ISIN-Kennzahl (International Se- stellen: Zum einen entwickelte man für den allgemeinen curity Identification Number; die ISIN dient der eindeu- Zugang ein universelles User-Interface auf Basis eines tigen internationalen Identifikation von Wertpapieren), in Java-Web-Clients, die auf den Webservice zugreift. Der der vierten der Anlagetyp – zum Beispiel EQ für Equity Kunde meldet sich dabei über eine SSL-gesicherte Ver- oder FI für Fixed Income – und so weiter. Per Feldprüfung bindung an, um seine Daten ins Datawarehouse zu laden. wird nun zunächst nach syntaktischen oder logischen Feh- Am Client startet nun eine zweistufige Datenprüfung, die lern gesucht. Tauchen in einer oder mehreren Feldprüfun- per Informatica-Webservice auf die ETL-Mechanismen gen Fehler auf, markiert das System die entsprechenden zugreift. Es handelt sich hierbei um ein interaktives Di- Zeilen und Datenfelder und stellt die Daten mit Status- Abb. 1: WSDL ist die XML-Beschreibung einer WebService-Schnittstelle. Die Grafik beschreibt, welche Daten(typen) in den Service hinein und hinaus gehen – als eine Art Kontrakt zwischen Datenlieferant und Informatica-Service. BI-Spektrum 05-2009 19
  • 3. anzeigen an der Benutzerschnittstelle dar, wo sie der An- dern weltweit rund um die Uhr zur Verfügung und wender umgehend interaktiv ausbessern kann. Die korri- folgt damit der Self-Service-Philosophie. Gleichzeitig gierten Daten werden nun automatisch per Asynchronous kommt nun gewissermaßen das Verursacherprinzip Javascript and XML (AJAX) für eine erneute Prüfung zum Tragen: Datenfehler müssen dort korrigiert wer- an das Datawarehouse zurückgespielt und das Ergebnis den, wo sie entstehen, nämlich beim Lieferanten und in der erneuten Prüfung wird dem Anwender ohne Page- dessen Quellsystemen. Die Lieferanten wiederum ha- Refresh des User-Interfaces dargestellt. Sobald die Daten ben nun die Möglichkeit, Fehler bereits direkt während alle konfigurierten generischen Prüfungen erfüllen, kann der Datenladung in Echtzeit angezeigt zu bekommen Schwerpunkt in einem zweiten Schritt eine in Informatica hinterlegte und interaktiv zu beheben. Spezialprüfung durchgeführt werden. Hierbei ist es not- Auf der anderen Seite wird mit dieser Architektur auch wendig, eine der Fachlichkeit der Lieferung entsprechen- ein Single Point of Responsibility geschaffen. Hatte de ETL-Prüfroutine zu schreiben. Diese ETL-Prüfroutine man in der Vergangenheit verschiedene Datenprü- wird als klassisches Mapping implementiert. Denkbar fungs-Firewalls entwickelt und damit das Rad immer wäre beispielsweise die zu Beginn des Artikels skizzierte wieder neu erfunden, konzentriert sich diese Aufgabe fachliche Anforderung nach Gleichheit von AUM-Summe und das damit verbundene fachliche Knowhow jetzt des Composites und der AUM-Summen der im Composite direkt am Datawarehouse. Webentwickler an externen enthaltenen Einzelportfolios. Hierzu würde im Mapping Standorten müssen sich nun nicht mehr mit speziellen die AUM-Summe des Composites mit einer bereits früher fachlichen Fragen auseinandersetzen, sondern können erfolgten und deshalb bereits im Datawarehouse vorhan- die vorhandenen SOA-Komponenten direkt in ihre denen Lieferung der enthaltenen Fonds verglichen. Portale einbauen. Als zweiten Zugang zur ETL-Logik können die Webser- Schließlich spricht auch noch ein ständiger Aktualisie- vices über beliebige Programmiersprachen als Batch- rungsbedarf für eine konsequente Zentralisierung. So- Schnittstelle genutzt werden. Auf der Seite der dezen- bald etwa Gesetzesänderungen vorliegen, müssen diese tralen Liefersysteme eröffnet sich damit ein breites nur noch einmal im ETL-Tool umgesetzt werden, alle lie- Spektrum für Individuallösungen, die alle stets mit der fernden Systeme in den externen Organisationen bleiben zentralen Ladeinstanz von Informatica kommunizieren. davon zukünftig unberührt. Nützlich ist das etwa für Lieferanten mit hoher Frequenz: Statt die täglichen Fonds-Schlusskurse immer händisch über das Portal zu laden, ist es möglich einen Adapter schreiben, der die Zahlen automatisch liefert. BI-SPEKTRUM ist eine Fachpublikation des Verlags: SIGS DATACOM GmbH | Lindlaustraße 2c | 53842 Troisdorf Tel.: +49 (0) 22 41.2341-100 | Fax: +49 (0) 22 41.2341-199 Fazit: Self-Service und Zentralisierung E-mail: info@sigs-datacom.de der Kompetenzen www.bi-spektrum.de Mit dieser zentralisierten Lösung profitiert der Kunde in mehrfacher Hinsicht. Das Portal steht den Anwen- BI-Spektrum 05-2009 20