SlideShare ist ein Scribd-Unternehmen logo
1 von 17
Downloaden Sie, um offline zu lesen
159
11 Data Governance:
11 Problemfelder in der Umsetzung von
BI-Initiativen und Lessons Learned
Daniel Eiduzzis
In diesem Beitrag wird die Herausforderung von Business-Intelligence-
Projekten im Zusammenspiel mit Data Governance betrachtet und
bewertet.
Dabei werden u.a. technische Limitierungen, gewachsene Komplexitäten
in den Geschäftsprozessen sowie das Lifecycle Management mit Blick auf
die derzeit bestehenden Problemfelder genauer beleuchtet. Zudem wird
der Einfluss aktueller Trends und Projektinitiativen sowie neuer BI-Archi-
tekturen in die Betrachtung mit einbezogen.
Ein Blick in diese Problemfelder sowie eine Skizzierung möglicher
Lösungsansätze und Best Practices kann nur eine Momentaufnahme sein.
Trends und Entwicklungen im Markt haben in den vergangenen Jahren
ein rasantes Tempo erreicht, weshalb eine regelmäßige Rekalibrierung
unerlässlich scheint.
11.1 Ausgangssituation
11.1.1 Rückblick und Status quo
Wenn man sich die Historie und die Evolution von Projekten im Business-Intelli-
gence-(BI-)Umfeld anschaut, so lässt sich sicherlich zu Recht behaupten, dass die
Komplexität im Laufe der Jahre zugenommen hat. In der Vergangenheit waren
Projektengagements im BI-Kontext klar abgrenzbar und der einzusetzende Werk-
zeugkasten relativ überschaubar und beherrschbar.
Anforderungen seitens der Fachbereiche fußten nicht selten auf Daten aus
transaktionalen Systemen, die sich beispielsweise mit Fragestellungen aus dem
Finance & Controlling-Kontext oder auch Sales & Distribution befasst haben.
Klassisches Data Warehousing und Reporting
Zunächst galt es, die konkreten Anforderungen der beauftragenden Fachbereiche
eingehend zu analysieren und anschließend auf Basis eines abgestimmten Busi-
ness-Konzepts die Umsetzung vorzunehmen. Der Datenfluss in solchen Projekt-
Daniel Eiduzzis
160
initiativen war bisweilen schlicht und vorhersehbar. Stammdaten wurden fast
ausschließlich in den angeschlossenen Quellsystemen (zum Beispiel SAP ERP)
generiert und gepflegt. Gleiches galt auch für die korrespondierenden Bewe-
gungsdaten. Reporting-relevante Daten wurden ins Data Warehouse (z.B. SAP
BW) geladen.
Im Bedarfsfall fand dort eine weitere Verarbeitung dieser Daten statt. Diese
Weiterverarbeitung konnte zum Beispiel das Anreichern zusätzlicher Informatio-
nen beinhalten (u.a. Währungsumrechnung) oder auch die Verteilung nach vor-
definierten Schlüsseln.
Auf Basis im Projekt aufgebauter Datenmodelle wurden unterschiedliche
Berichte und Auswertungen im Data Warehouse angefertigt. Wenn es infolgedes-
sen im späteren Betrieb zu Schiefständen oder Lücken in der Datenbasis im Data
Warehouse kam, mussten diese in der Regel im angeschlossenen Quellsystem
identifiziert und bereinigt werden. So wurden ein lückenloser Datenfluss und ein
zukünftiger fehlerfreier Upload zwischen Quell- und Zielsystem sichergestellt.
Verschiedene Bordmittel des verwendeten BI-Systems leiteten den Verant-
wortlichen im Business-Intelligence-Umfeld auf besagte Fehler und Schiefstände
hin. Eine Bereinigung der Fehler und Lücken konnte in Teilen und durch Work-
flows unterstützt vorgenommen werden.
Herausforderungen in gewachsenen Systemen
Insbesondere in gewachsenen BI-Architekturen finden sich mit der Zeit mehr und
mehr Redundanzen und Schiefstände, die auf unterschiedliche Art und Weise ihren
Weg in die Reporting-Landschaft der Anwenderunternehmen gefunden haben.
Ältere Systemlandschaften haben die Herausforderung, dass der technische
Reifegrad in der Vergangenheit häufig nur bedingt ausgeprägt war. Dadurch sind
zum Teil mehr oder weniger komplexe Workarounds entstanden, die über die
Jahre einen entsprechend hohen Grad an Komplexität erreicht haben. Selbst klei-
nere Erweiterungen und Anpassungen bedurften großen Aufwands und langer
Projektdauer.
Ebenso verhielt es sich mit aufkommenden Fehlern und Problemen im Repor-
ting und der Datenaufbereitung. Eine Source-to-Target-Analyse und anschlie-
ßende Fehlerbehebung gestalteten sich in solch komplexen BI-Landschaften kom-
pliziert und aufwendig. Fachbereiche mussten im Zweifel lange auf die fehlenden
Daten warten oder mit Schiefständen im Reporting leben.
161
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
11.1.2 Neue Anforderungen und Projektinitiativen
Die Anforderungen an BI und Analytics haben heute ein anderes Niveau, als wie
es noch vor einigen Jahren der Fall war. Ein Blick in den Rückspiegel auf Basis
ausschließlich transaktionaler Daten reicht nicht mehr aus.
Vielmehr gilt es, auf der einen Seite einen umfassenden Blick auf die nähere
Vergangenheit zu werfen. Dabei sind Aspekte wie 360°-Sichten, Bewegungspro-
file und Customer Journey Must-haves. Auf der anderen Seite ist ein Blick in die
Zukunft entscheidend, um die betriebswirtschaftlichen Geschicke im positiven
Sinne zu beeinflussen. Predictive Analytics versetzt die Anwenderunternehmen
dabei in die Lage, belastbare Vorhersagen zu generieren, um beispielsweise Kun-
denabwanderungen entgegenzuwirken oder intelligente Wartungsintervalle in der
Produktion zu bestimmen.
Die veränderten Anforderungen begründen neue Projektinitiativen, die wie-
derum die IT und die Projektauftraggeber vor neue Herausforderungen stellen.
Innovation und technologisches Neuland
Aus betriebswirtschaftlicher und prozessualer Sicht werden Fragestellungen einer
Belastung ausgesetzt, wo es bisher intern wenig bis gar keine Referenzen gibt.
Umso wichtiger ist es, dass die zugrunde liegende Datenbasis qualitativ valide ist,
um den generierten Ergebnissen und Empfehlungen Vertrauen schenken zu kön-
nen. Lückenhafte und fehlerhafte Eingangswerte machen im Predictive-Kontext
automatisiert ermittelte Vorhersagen zunichte und lassen hier jedes Projekten-
gagement im Keim scheitern.
Technologisch betreten die IT-Verantwortlichen bei der Realisierung dieser
Anforderungen Neuland. Es gilt eine heterogene Quellsystemlandschaft zu orches-
trieren, neue und zum Teil unstrukturierte Datenformate zu verarbeiten und die
Analyse- und Visualisierungswünsche der Fachbereiche mit bisher unbekannten
Werkzeugen abzubilden.
Um sich ausschließlich auf diese Herausforderungen fokussieren zu können,
bedarf es auch in dieser Hinsicht verlässlicher Daten. Fehlende Plausibilitäten,
bestehende Redundanzen etc. bremsen nicht nur den Projektfortschritt aus, son-
dern entziehen am Ende auch den Projektverantwortlichen die Argumente gegen-
über den begutachtenden Steering Committees.
Daniel Eiduzzis
162
11.1.3 Aufbruch zu neuen Ufern: BI-Architekturen 2.0
Waren Projektinitiativen im BI-Umfeld in der Vergangenheit – wie zuvor be-
schrieben – einfach abgrenzbar, so gilt dies gleichermaßen für die zugrunde lie-
genden BI-Architekturen.
Der technologische Fortschritt in der jüngeren Vergangenheit versetzt die An-
wenderunternehmen in die Situation, neu gewonnene Flexibilität mit sinnstiften-
den Lösungen zu füllen. Technologische Konzepte, die vor einigen Jahren un-
denkbar waren oder sich nur mit erheblichem Aufwand abbilden ließen, sind
heute dank verprobter Referenzarchitekturen ernst zu nehmende Alternativen.
Data Lakes werden zum neuen Standard
So ist beispielsweise die Etablierung eines Data Lake bei vielen Redesign-Ansät-
zen gang und gäbe. Die Verwendung von (aus SAP-Sicht) Third-Party-Lösungen
im BI-Frontend bietet dem Anwender ganz neue Möglichkeiten, um zum Beispiel
geforderte Visualisierungen umzusetzen. Intelligente Datenmanagement- und
ETL-Plattformen sind in der Lage, Datenquellen unterschiedlicher Systemherstel-
ler zu verbinden und Datenflüsse zu orchestrieren.
Die Vielzahl neuer Möglichkeiten und Optionen hat aber auch den Bedarf an
Steuerung und Orientierung zur Folge. Nicht wenige Anwenderunternehmen tun
sich zu Recht ein Stückweit schwer, die Best-Fit-Architektur zu finden. Hier gilt
es, aktuelle und zukünftige Bedarfe nicht nur zu kennen, sondern auch zu wecken
und diese mit einer für das Unternehmen individuell abgestimmten State-of-the-
Art-Architektur zu bedienen.
Um sich für zukünftige Bedarfe im Planungs- und Predictive-Kontext zu prä-
parieren, müssen Unternehmen sich heute aktiv mit dem Aufbau eines Data Lake
auseinandersetzen. Die konkreten, fachlich motivierten Projektinitiativen liegen
vielleicht noch in ferner Zukunft – um dann aber über eine ausreichende Daten-
basis zu verfügen, muss heute mit dem Sammeln potenziell betrachtungsrelevan-
ter Informationen begonnen werden. Wird erst mit Beginn des ausformulierten
Bedarfs damit begonnen, Informationen zu sammeln, verfügt das Unternehmen
nicht über eine belastbare Datengrundlage, um beispielsweise Artificial-Intelli-
gence-(AI-)Modelle zu trainieren.
Nicht selten handelt es sich bei solchen Daten um neue und bisher unbe-
kannte Formate, die gleichzeitig sehr große Volumina begründen. Für die Ablage
derartiger Daten sind bisherige Zielsysteme im Data-Warehouse-Umfeld eher
ungeeignet. Data Lakes können hier eine sinnvolle Alternative sein und gleichzei-
tig die Offenheit für weitere zukünftige Projektinitiativen bieten. Zudem stellen
gängige Data-Lake-Konzepte, wie beispielsweise Apache Hadoop Ecosystem,
passende Werkzeuge zur Aufbereitung der Daten bereit.
Neue fachlich motivierte Projektinitiativen und erweiterte technische Mög-
lichkeiten stellen bisherige Data-Governance-Strukturen vor die Herausforderun-
163
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
gen, diesen Veränderungen Rechnung zu tragen. Zwar gibt es mittlerweile markt-
reife Instrumente zur Verarbeitung von Maschinen- und Sensordaten in der Pro-
duktion oder Informationen aus Social-Media-Quellen – gleichzeitig muss aber
auch die Governance der Anwenderunternehmen den Rahmen für den Umgang
mit diesen Daten ebnen.
Bisher in sich gekapselte Datensilos werden heute aufgebrochen, um Daten
aus unterschiedlichen Quellen in einen Kontext zu bringen oder neuen Nutzer-
kreisen zur Verfügung zu stellen. In der Analytics wird gerne der Begriff des soge-
nannten Storytellings verwendet, wenn es um neue Anforderungen an Auswer-
tung und Reporting geht. Dabei reicht eine singuläre Darstellung von
ausgewählten Kennzahlen nicht mehr aus. Vielmehr geht es darum, geführte Ana-
lysen, Berichtsbäume und Absprünge sowie unterschiedliche Visualisierungen zu
vereinen. Dies schließt auch den Bedarf weiter gehender Datenräume ein.
Eine zukunftsorientierte Data Governance muss daher in der Lage sein, den
Bogen zwischen unterschiedlichen betriebswirtschaftlichen und prozessualen
Fragestellungen zu spannen.
Neuer Trend: Data Sharing
Ein neuer Trend im Data-Governance-Umfeld ist das sogenannte Data Sharing.
Dabei sollte zunächst differenziert werden, ob es sich um ein öffentliches oder
unternehmensinternes Data Sharing handelt [Niederée 2019].
Grundsätzlich wird unter Data Sharing das Publizieren von Daten verstan-
den. Ursprünglich stammt dieser Trend aus der Forschung respektive Wissen-
schaft. Dabei werden u.a. Forschungsergebnisse der interessierten Öffentlichkeit
zur Verfügung gestellt. Das Prinzip dahinter ist relativ schlicht: Um selbst
wertstiftende Daten und Erkenntnisse Dritter zu nutzen, sollte ich meinerseits
bereit sein, Daten zur Verfügung zu stellen.
Mittlerweile hat sich dieser Trend auch über wissenschaftliche Nutzerkreise
hinaus ausgeweitet. Unternehmen stellen eigene Informationen und Ergebnisse
anderen Unternehmen (beispielsweise Zulieferern und Kunden) zur Verfügung.
Das bedeutet, dass die eigenen Daten in Zukunft so aufzubereiten sind, dass sie
mit anderen Unternehmen geteilt werden können. Weitreichende Analysen sind
nur dann möglich, wenn Daten sinnvoll miteinander in Beziehung stehen. Die
eigenen Informationen sind zukünftig nur noch der Auslöser oder Startpunkt für
unternehmenskritische Auswertungen oder Vorhersagen. Daten aus externen
Quellen bekommen zunehmend entscheidende Bedeutung, wenn es darum geht,
einen analytischen Use Case umzusetzen.
Data Sharing ist somit ein wichtiger Aspekt der Datenökonomie. Für Data
Governance stellt Data Sharing eine Herausforderung hinsichtlich Datenstan-
dards dar. Um Daten bereitzustellen und externe Informationen nutzen zu kön-
nen, müssen Formate und Strukturen kompatibel sein. Hier muss Data Gover-
nance den Weg bereiten.
Daniel Eiduzzis
164
11.2 Problemfelder
11.2.1 Permanente Herausforderungen
Datenqualität umfasst Kriterien wie etwa Richtigkeit, Vollständigkeit und Aktu-
alität; je nach Informationsbedarf kommen Aspekte der Weiterverarbeitung und
des Zugangs hinzu.
Im Spannungsfeld zwischen BI-Initiativen und dem Umgang mit den betrach-
tungsrelevanten Daten sind nicht selten wiederkehrende Problemmuster erkenn-
bar. Fehlerhafte Stammdaten und Attribute aus den angeschlossenen Quellsyste-
men resultieren aus bisweilen schlecht aufgesetzten Prüfmechanismen.
Garbage in, Garbage out
So lässt sich beispielsweise die Eingabe des Datums in der Regel recht simpel veri-
fizieren, indem das entsprechende Eingabefeld einen passenden Typ zugewiesen
bekommt. Anderenfalls kann es vorkommen, dass es bei Prüfroutinen in der
Datenübertragung zu Abbrüchen kommt, da zum Beispiel ein 30. Februar oder
31. November nicht existiert und somit auch nicht zugeordnet werden kann. Im
schlimmsten Fall wird dieser Fehler jedoch nicht in der Upload-Routine identifi-
ziert, sondern das Dataset wird 1:1 in die vorgesehenen Datenziele fortgeschrie-
ben. Dann treten Probleme erst in der späteren Nutzung der Daten bei der Daten-
analyse auf, was u.a. eine aufwendigere Nachverfolgung im Source-to-Target-
Sinne nach sich zieht.
Dieses Problem lässt sich leider auf weitere einfach vermeidbare Fehler über-
tragen: So gelangen immer wieder fehlerhafte Adressdaten ins Data Warehouse,
zwingend erforderliche Angaben zu Artikeln und Produkten werden nicht hinter-
legt oder Zahlungsinformationen nicht aktualisiert.
Die Probleme im späteren Umgang sind sehr unterschiedlich gelagert. Im
Marketing-Kontext werden vollständige Informationen zum Kunden, Unterneh-
men und deren Ansprechpartner benötigt, um geplante Kampagnen erfolgreich
durchführen zu können. Der Vertrieb hingegen hadert mit fehlenden bzw. fehler-
haften Angaben in der Verknüpfung zwischen Marketing, Vertrieb und Rech-
nungswesen, um die zeitnahe und korrekte Rechnungsstellung zu gewährleisten.
Diese Schiefstände zu identifizieren und zu beheben beansprucht Zeit und
Ressourcen – beides Güter, die in der Regel knapp bemessen sind. In jedem Fall
muss eine Korrektur im Quellsystem erfolgen, damit dieser Missstand nicht zu
einem späteren Zeitpunkt erneut seinen Weg ins Data Warehouse findet.
165
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
Mangelhafte Datenqualität und ihre Folgen
Die Auswirkungen sind zum Teil weitreichend. Nicht nur der zeitliche Aufwand
der Fehlerkorrektur ist mit wachsenden Systemen und Anforderungen an BI und
Analytics signifikant. Auch auf fachlicher Ebene gehen Akzeptanzprobleme und
Vertrauensverlust in die bereitgestellten Reporting-Lösungen einher. Fehler und
Schiefstände sind mitunter auch der Türöffner für Auf- und Ausbau von soge-
nannten »Schatten-Reporting«-Ansätzen. Wenn Anwender den Daten und Aus-
wertungen nicht trauen können, werden eigene Mittel und Wege identifiziert, um
die erforderlichen Analysen vorzunehmen – im Zweifel an der IT und den beste-
henden BI-Lösungen vorbei.
Ein Problem in Bezug auf Datenqualität ist auch das fehlende Wissen bzw.
das fehlende Bewusstsein über die Abhängigkeiten der getätigten Eingaben. Häu-
fig ist den Beteiligten im Prozess der Dateneingabe und -pflege sowie den Nutzern
nicht bewusst, welche Auswirkungen lückenhafte oder fehlerhafte Informationen
für die Weiterverarbeitung und Analyse haben.
Data Governance hat in der Vergangenheit häufig eine eher untergeordnete
Priorität bei den Anwenderunternehmen genossen, da bisweilen bei der Erfassung
und Pflege von Daten in den Quellsystemen nicht immer ein umfassendes Bild
von der späteren Verwendung und Abhängigkeit dieser Eingaben vorherrscht.
Mitunter hatte Data Governance einen ähnlich niedrig priorisierten Stellenwert
wie Dokumentation oder Change Management in Projekten. Hier besteht, losge-
löst von der fachlichen Anforderung und dem verwendeten technischen Rüst-
zeug, zwingender Nachholbedarf in der Sensibilisierung von Data-Governance-
Fragestellungen.
11.2.2 Fokussierung auf technische Limitierung
Auf die bestehenden Mängel in puncto Data Governance angesprochen, wird sei-
tens der Anwenderunternehmen gerne ein limitierter Werkzeugkasten in der tech-
nischen Umsetzung von Data Governance vorgeschoben.
Definitiv sind heute viele Unternehmen nicht mehr mit sogenannten State-of-
the-Art-Instrumenten ausgestattet, die es für eine zeitgemäße Data Governance
bedarf. Marktgängige Lösungen bieten zahlreiche Out-of-the-Box-Features wie
Indizierung und Suche, Workflow und Automatisierung oder Security an, um den
Anwender zu unterstützen und manuelle Aufwände zu minimieren. Dennoch
kann unzureichende technische Ausstattung nicht als Ausrede für mangelhafte
Data Governance herangezogen werden.
Wie auch in vielen anderen Unternehmensbereichen mit gewissem IT-Bezug
gilt auch für Data Governance: Ohne den nötigen Ordnungsrahmen, den es sys-
temunabhängig zu definieren gilt, kann das beste Werkzeug keine Abhilfe schaf-
fen. Sicherlich kann eine Data-Management-Software gewisse Aufgaben decken
und zum Teil gar automatisiert unterstützen – darüber hinaus zeigt eine solche
Daniel Eiduzzis
166
Plattform idealerweise auch auf, in welchen Teilbereichen die Unternehmung
heute noch keine Antwort auf prozessuale Fragestellungen in der Data Gover-
nance hat oder wo bisherige Vorgaben nicht mehr ausreichend sind.
Zudem wird auch nicht immer der bestehende Funktionsumfang der bereits
installierten Lösung ausreichend in Anspruch genommen. Will sagen: Anwender-
unternehmen haben Lösungen im Data Management zur Hand, deren Funktions-
breite und -tiefe nicht bekannt sind bzw. nicht genutzt werden. Damit bleiben
wertvolle technische Potenziale ungenutzt.
11.2.3 Information Lifecycle Management aus BI-Sicht
Neue Technologien schaffen gelegentlich auch neue Schwierigkeiten, die es vor
diesem Technologiesprung noch nicht gab. Im konkreten Fall nötigt beispiels-
weise die Einführung der HANA-Datenbank-Technologie die Anwenderunter-
nehmen dazu, sich Gedanken über den sogenannten Lifecycle ihrer Daten zu
machen.
Data Tiering
Der Betrieb der HANA-Technologie kann schnell eine hohe Preisintensität zur
Folge haben. Daher sind die anwendenden Unternehmen gut beraten, ein saube-
res Data Tiering aufzusetzen, das Vorgaben ableitet, welche Daten aufgrund ihrer
hohen Nutzungsfrequenz In-Memory vorzuhalten sind und welche Daten eher in
die Kategorie der sogenannten Warm und Cold Data gehören und somit ausgela-
gert werden können. Dieses Data Offloading gewährleistet zwar weiterhin eine
Verfügbarkeit in der Auswertung und Analyse, ermöglicht aber die Nutzung von
kostengünstigerem Secondary Storage. Somit reduziert sich die Verwendung der
teuren HANA-Technologie auf die stark frequentierten Hot Data. Weniger
betrachtungsrelevanten Warm- und Cold-Data-Auswertungen attestiert man eine
etwas schlechtere Performance in der Reporting-Antwortzeit, da hier entspre-
chende Preisvorteile gegenüberstehen.
Der Lifecycle der Stammdaten
Der Lifecycle von Stammdaten, wie Kunde, Lieferant, Produkt oder Vertrag, ist
in den angeschlossenen Quell- und Zielsystemen oftmals überholt und nicht mehr
up to date. Zum Teil werden Daten lediglich bei der initialen Stammdateneingabe
erfasst, da es sich um sogenannte Pflichtfelder bei der Erfassung handelt. Leider
werden weitere Ausprägungen zum ausgewählten Stammdatum nur sporadisch
bis gar nicht aktualisiert, weshalb eine spätere Verwendung dieser Datensätze mit
qualitativen Abstrichen versehen ist.
167
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
Aber so, wie sich im privaten Umfeld Angaben zur Adresse oder Kontover-
bindung ändern und beispielsweise bei Bestellvorgängen im Internet aktualisiert
werden müssen, gibt es auch auf der Ebene Business-to-Business regelmäßig
Anpassungsbedarf.
Es ändern sich Ansprechpartner im Einkauf, Verantwortliche auf Auftrag-
nehmerseite, Zahlungsbedingungen oder Kommunikationswege. Zudem können
sich Artikelbezeichnungen und ID ändern, weitere Ausprägungen zu Maßen oder
Variantenkonfiguration dazukommen. Oder die Einkaufs- und Allgemeine
Geschäftsbedingungen ändern sich und müssen berücksichtigt werden.
Leider finden diese neuen Angaben nur selten Einzug in die angeschlossenen
ERP-, CRM- und BI-Systeme, was in der Folge signifikante negative Auswirkun-
gen auf die betreffenden Geschäftsprozesse hat. Im schlimmsten Fall ist hier mit
finanziellen Einbußen zu rechnen, weil fehlende oder falsche Angaben in der
Kommunikation mit Lieferanten, Kunden und Kreditgebern verwendet werden.
11.2.4 Gewachsene Komplexität der Geschäftsprozesse
Nicht nur neue betriebswirtschaftliche Anforderungen stellen BI und Analytics
vor Herausforderungen. Auch die bestehenden Geschäftsprozesse unterliegen
erfahrungsgemäß einer permanenten Veränderung, der in der aufgesetzten BI &
Analytics-Architektur Rechnung getragen werden muss.
Sichten auf Materialien und deren Eigenschaften werden differenzierter und
kleinteiliger. Immer neue und weiter gehende Ausprägungen gilt es zu berücksich-
tigen. Eine Dezentralisierung der Stammdatenpflege stellt die Anwenderunter-
nehmen nicht nur prozessual vor Schwierigkeiten. Technologisch müssen Anwen-
der hier praktikable Lösungen identifizieren, um den veränderten Bedingungen
zu entsprechen. Tun sich weitere Optionen für den Eingriff in die Generierung
und Modifizierung von BI-relevanten Stammdaten auf, muss im gleichen Zuge
die Verifizierung und Konsistenzprüfung der Dateneingaben sichergestellt werden.
In die Jahre gekommenes Prozess- und Architektur-Wirrwarr
Oftmals besteht zunächst nur ein Wunsch, was aus fachlicher Sicht benötigt wird,
und lediglich eine grobe Vorstellung, wie eine Umsetzung erfolgen kann. Diese
Ideen in eine ganzheitliche Betrachtung und bestehende Konzepte zu überführen,
ist oft schon Herausforderung genug. Die technisch belastbare Umsetzung
kommt dabei noch erschwerend hinzu. Durch eine kleinteilige und iterative Vor-
gehensweise entstanden über die Jahre komplexe Gebilde, die sowohl fachlich
wie auch technologisch schwer modifizier- und wartbar geworden sind. Jede wei-
tere Veränderung an diesem über die Jahre gewachsenen Prozess- und Architek-
tur-Wirrwarr bedingt gerne ein Vielfaches an Projektaufwand.
Daniel Eiduzzis
168
Werden beispielsweise im Zuge von größeren Migrationsprojekten Fragezei-
chen hinter bestehende Architekturen gesetzt und einschneidende Redesigns
beabsichtigt, stellt sich auch die Sinnfrage bezüglich der abgebildeten Geschäfts-
prozesse. Will man »alten Wein in neuen Schläuchen« vermeiden, macht es Sinn,
gewachsene und ggf. veraltete Prozesse vor anstehenden IT-Projekten eingehend
zu hinterfragen. Unter Umständen können bisher umständlich abgebildete Pro-
zesse verschlankt und ausgewählte Vorgehensweisen sogar gänzlich ausgespart
werden. Neue prozessuale und betriebswirtschaftliche Anforderungen können
eingeflochten werden, um so eine Nutzungssicherheit zu gewährleisten.
Es spielt eine untergeordnete Rolle, ob es sich bei dem Anwenderbetrieb um
ein Unternehmen aus der Maschinenbau-, Retail- oder Versicherungs- und
Finanzbranche handelt. Die Anforderungen an BI und Analytics umfassen immer
weiter gehende Ausprägungen und Insights. Es gilt für ein vollumfassendes Bild
Informationen aus den unterschiedlichsten Quellen zusammenzufügen und zu
konsolidieren.
11.2.5 Datenschutzverordnung als Next-Level-Challenge
Die geänderten Anforderungen an das Vorhalten personenbezogener Informatio-
nen und die Etablierung neuer Datenschutzverordnungen stellen zahlreiche
Unternehmen vor bisher nicht dagewesene Prüfungen.
Insbesondere Unternehmen, deren Kerngeschäft kundenbezogene Daten aus-
machen, müssen hier eine Balance finden, wie weiterhin mit Kundendaten auf der
einen Seite umgegangen werden kann und auf der anderen Seite die Individualin-
formationen identifiziert und im Zweifel zeitnah gelöscht oder zumindest
demaskiert werden. Hierbei spielt die Datensouveränität eine bedeutende Rolle
und hat wesentlichen Einfluss auf die Architektur und die Governance in puncto
Data Management [Mooy 2017].
Nicht selten ist es schon eine erhebliche Herausforderung, die betreffenden
sensiblen Daten ausfindig zu machen. Sowohl die Identifizierung als auch die
Strukturierung der betreffenden Informationen ist eine neue Anforderung, die
zunächst auf inhaltlicher Ebene erfüllt werden muss. Unternehmen müssen zu
jedem Zeitpunkt in der Lage sein, gegenüber Kunden und behördlichen Instituti-
onen Auskunft über die jeweiligen Kundeninformationen zu leisten. Zudem sind
unter Umständen die bis dato vorliegenden technischen Begebenheiten nicht aus-
reichend, um die zuvor benannten Strukturen ausfindig zu machen, geschweige
denn, mit passenden Werkzeugen und vertretbarem Aufwand hier eine Anpas-
sung und Modifizierung vorzunehmen.
Diese neuen Anforderungen sind aus betriebswirtschaftlicher Sicht hochgra-
dig kritisch, da Verstöße mittlerweile erhebliche finanzielle Sanktionen zur Folge
haben – abgesehen vom Schaden der Reputation. Darüber hinaus sind diese Aspekte
konzeptionell in zukünftige IT-Projekte einzufassen und bedeuten womöglich
Mehraufwände bezüglich Kosten und Dauer.
169
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
Davor müssen bestehende Prozesse und Strukturen zur Datenverarbeitung
und Datenhaltung eingehend geprüft und ggf. unter Berücksichtigung der Anfor-
derung einer Datenschutz-Grundverordnung (DSGVO) angepasst werden. Pro-
jekte in diesem Zusammenhang müssen erfahrungsgemäß zeitlich hochpriori-
siert, während andere oder parallel verlaufende Engagements untergeordnet und
eingeplante Budgets und Ressourcen neu zugeschnitten werden.
11.3 Lösungsansätze und Lessons Learned
11.3.1 Etablierung Data Governance
Data Governance legt einen Ordnungsrahmen mit Regeln für das Informations-
management fest und stellt die Werkzeuge zur Überwachung und Steuerung von
Vorschriften, internen Regeln sowie gesetzlichen Vorgaben und Compliance-
Anforderungen bereit [Hinssen & Pürsing 2015].
Hierbei sind die relevanten Rollen, Verantwortlichkeiten und Prozesse zu
definieren. Beispielsweise sollte in den entsprechenden Policies festgelegt werden,
Q wer für bestimmte Daten und die Einhaltung von Qualitätsstandards verant-
wortlich ist;
Q welche Rollen die Mitarbeiter haben, die mit Daten hantieren, und wie diese
mit Daten umzugehen haben;
Q nach welchen Standards Daten erfasst werden; hier sollte definiert werden,
welche Mindestanforderungen an Daten einzuhalten sind;
Q welche Sicherheitsregeln zu beachten sind.
Demzufolge ist der Aufbau von einheitlichen Standards und Richtlinien eine
wichtige Aufgabe von Data Governance. Anwenderunternehmen müssen die
zuvor genannten Punkte für sich definieren und regelmäßig auf Aktualität über-
prüfen. Systemunabhängige Verbindlichkeiten sind ein Garant für ein optimales
Data Management.
11.3.2 Organisatorische Verankerung
Business Intelligence hat es vorgemacht: Bereits vor einigen Jahren gab es die ers-
ten Initiativen auf Anwenderseite, über sogenannte Business Intelligence Compe-
tence Center (BICC) technische und fachliche Kompetenzen und Verantwortlich-
keiten Schulter an Schulter organisatorisch zu verankern.
Ein BICC ist ein Team, das in seiner ausgeprägtesten Form für sämtliche
Aspekte der Business Intelligence in einer Organisation verantwortlich ist – von
der Strategie über die Projekte bis hin zu den BI-Systemen. Dabei gibt es abhängig
von Größe und Struktur des jeweiligen Unternehmens virtuelle, feste sowie hyb-
ride BICC-Formen.
Daniel Eiduzzis
170
Installation von Data Governance Offices
Analog zu diesem Ansatz entstehen inzwischen immer häufiger auch Competence
Center, die für das unternehmensweite Data Management verantwortlich zeichnen.
Das sogenannte Data Governance Office besteht aus Vertretern der relevanten
Geschäftsbereiche; dabei kann nach fachlichem Fokus (zentrale/dezentrale Ver-
triebsfunktionen, Finance, Human Resource, IT) oder geografischem Fokus (alle
Funktionen einer Landesvertretung) unterschieden werden [Winter & Mornar
2001].
Die Tätigkeit des Data Governance Office fokussiert sich vorrangig auf Fel-
der, die das Unternehmen bei der Erreichung von Geschäftszielen unterstützen:
Q Schaffung von Konsistenz über den Datenlebenszyklus hinweg;
Q Funktionsübergreifende Zusammenarbeit, um Best Practices auszutauschen
und Konflikte, Kannibalisierungseffekte oder Synergien zu identifizieren;
Q Begründung von Datenbetriebsbereitschaft und Vertrauen in Daten;
Q Konstituierung einer unternehmensweiten »Data Quality Culture«.
Einhergehend mit der Einführung von neuen Organisationseinheiten müssen
auch neue, zusätzliche Rollen im Data-Governance-Kontext etabliert werden.
Parallel zu den sogenannten Process Ownern, die in Einheiten wie Corporate Pro-
cess Management (CPM) organisiert sind und für die unternehmensweiten
Geschäftsprozesse wie beispielsweise Order-to-Cash (O2C) oder Purchase-to-Pay
(P2P) verantwortlich zeichnen, braucht es weitere Verbindlichkeiten.
Unter dem Dach des Data Governance Office müssen zukünftig Data Owner
definiert werden. Data Owner oder Data Steward sind Begriffe aus dem Informa-
tionsmanagement. Trägt der Process Owner Sorge für ausgewählte Geschäftspro-
zesse, ist der Data Owner für einen ausgewählten Teil der Unternehmensdaten
verantwortlich. Seine Rolle nebst Selbstverständnis, Rechten und Pflichten muss
in ein ganzheitliches Data-Governance-Konzept eingebettet werden. Data Owner
gewährleisten die Einhaltung von zuvor definierten Regeln und Standards, die in
einer Data-Governance-Strategie fixiert werden. Der Data Owner kann sowohl
aus dem Fachbereich als auch aus der IT rekrutiert werden, wobei der Fachbezug
zwingend gewährleistet sein muss.
In puncto Organisation muss der Stellenwert von Data Management und
Data Governance dem von Business Intelligence mindestens gleichgesetzt wer-
den. Will sagen: Sind in der Vergangenheit Initiativen und Projektengagements
mitunter gescheitert, da keine ausreichende Management-Attention generiert
wurde, finden sich heute allzu häufig Vorstandsmitglieder als sogenannte Sponso-
ren von BI-Projekten wieder. Diese gewährleisten die nötige Beachtung der unter-
schiedlichen Projekte auf Topmanagementebene und sichern Budgets und das
Bereitstellen der erforderlichen Ressourcen.
Gleiches muss in Zukunft mit Blick auf Fragestellungen von Data Manage-
ment und Data Governance passieren.
171
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
Data Governance muss Vorstandsthema werden
Die Unternehmen müssen sich der Bedeutung und Tragweite von Data Gover-
nance als eigenständiges Thema und gleichzeitig als Querschnittsaufgabe bewusst
werden. Nicht zuletzt aus Gründen des Datenschutzes, zugrunde liegender Ver-
ordnungen und etwaiger Sanktionen ist eine Sensibilisierung für Data Gover-
nance und deren Aufgaben geboten.
Analog zum C-Level-Alignment im BI und Analytics-Kontext öffnet ein ent-
sprechendes Vorstandsmandat die nötigen Budgets und Ressourcen für erforder-
liche Projektinitiativen. Zudem kann nur über diese Entscheiderebene eine nach-
haltige Anpassung im organisatorischen Sinne erfolgen. Die Etablierung von
Competence Center, wie beispielsweise einem Data Governance Office, berührt
in der Regel immer Headcounts verschiedener Verantwortlicher im Unterneh-
men, die eventuell anders geartete Interessen verfolgen oder den Zweck und die
Mehrwerte einer solchen Querschnittsorganisation nur eingeschränkt unterstüt-
zen. Hier muss im Zweifel eine Top-down-Entscheidung getroffen werden, die
die Unterstützung der Geschäftsführung voraussetzt.
11.3.3 Data Governance als Werttreiber
Eine funktionierende Data Governance ist ein signifikanter Treiber in der unter-
nehmensindividuellen Wertschöpfungskette. Dieser Wertbeitrag bemisst sich auf
unterschiedlichen Ebenen.
Prozessuale Optimierungen im Umgang mit Data Management verhindern
manuelle Mehraufwände, da Fehler und Schiefstände seltener korrigiert werden
müssen. Klare Richtlinien und Standards erhöhen gleichzeitig die Datenqualität
und die Verlässlichkeit in die genutzten Informationen. Dies kann unter Umstän-
den sogar Sanktionen und Regress verhindern, die beim Austausch und Handel
mit fehlerhaften Daten zum Tragen kommen. Die Einbeziehung und Nutzung
von externen Daten kann bisherige Analysen vertiefen, wertvolle Insights liefern
und so Wettbewerbsvorteile gegenüber Marktbegleitern schaffen. In ausgewähl-
ten Fällen können weitere Daten, ob aus internen oder externen Quellen, sogar
der Türöffner für neue Geschäftsmodelle sein.
Um Data Governance und ihren Wert greifbar zu machen, sollte auch das
Data Management in Projekten monetarisiert werden. Projekte im Prozessopti-
mierungskontext sprechen häufig von der Reduzierung manueller Aufwände.
Sowohl in der Projizierung als auch im späteren Review dieser Projekte stehen
den eingesparten manuellen Tätigkeiten kalkulierte Wertsätze gegenüber. In ver-
gleichbarer Form entsprechen die Daten und Informationen einem belastbaren
Wert für das Unternehmen und sind als eine solche Kennziffer einzuordnen. So
wird es für Unternehmen und ihre Stakeholder deutlich, welchen Benefit bei-
spielsweise die Integration externer Daten haben kann. Oder welcher Wert den
eigenen Daten beizumessen ist, wenn man diese mit beteiligten Dritten teilt (in
Form von Verkauf eigener Daten oder über das Data Sharing).
Daniel Eiduzzis
172
Lessons Learned und Projektreview
Viel zu selten findet retrospektiv in BI und anderen IT-Projektengagements ein
Review statt, ob die prognostizierten Ziele, Erwartungen und Einsparungen mit
der jeweiligen Initiative auch erreicht wurden. Dies erfordert zum einen, dass im
Zuge des Demand Management neben den kalkulierten Projektkosten auch der
spätere Output mit quantifizierbaren Kennzahlen ausweisbar ist. Zum anderen
bedarf es im Nachgang zum Projekt einer Gegenüberstellung eben dieser Indika-
toren und der vorherigen Prognosen.
So kann zum Beispiel ein Ziel sein, die Kundenabwanderung um einen defi-
nierten Prozentsatz zu senken. Dies soll durch genauere Analysen bisheriger Kun-
denabwanderungen und deren Beweggründe erfolgen. Dazu werden Kundenfeed-
backs in bestehende Analysen aufgenommen sowie weitere externe Marktdaten
und Indizes integriert, um ein umfassendes Bild anfertigen zu können. Neue tech-
nologische Mittel im Analytics- und Predictive-Kontext ermöglichen belastbare
Vorhersagen, welche Kundengruppen wann und unter welchen Umständen Ten-
denzen zur Abwanderung entwickeln. So kann in der Folge in enger Zusammen-
arbeit zwischen Controlling, Produktentwicklung und Marketing ein abgestimm-
tes Konzept für entsprechende Gegenmaßnahmen entworfen werden.
Ob und in welchem Maße die erhofften Verbesserungen erzielt wurden, sollte
im Nachgang unter Berücksichtigung der Einflussfaktoren kritisch analysiert
werden, um eine Closed Loop zu initiieren.
Dabei spielen nicht nur Faktoren im Sinne der technischen Umsetzung eine
Rolle. Erfahrungsgemäß sind zu gleichen Teilen auch die im Projektzugriff
befindlichen Daten für den Projekterfolg und -misserfolg ausschlaggebend. Auch
hier bedarf es eines besonderen Augenmerks, inwiefern die Qualität und Güte
dieser Daten den Erwartungen entsprechen konnten oder ob Daten fehlerhaft
waren, ausgewählte Informationen nicht zur Verfügung standen (um beispiels-
weise ein vollständiges Bild in der Analytics zu generieren) und woher diese Werte
im Bedarfsfall eingeholt und integriert werden können.
Erst wenn Unternehmen die Chancen wertschätzen, die Daten heute bedeu-
ten können, kann eine Data Governance den nötigen Stellenwert im Unterneh-
men einnehmen.
Incentivierung von Data Governance
Ein Steuerungsinstrument zur Etablierung und Verbesserung von Data Governance
kann beispielsweise auch eine gezielte Incentivierung sein. So wie heute oftmals
klassische Unternehmenskennzahlen, wie Umsatz, Ebit, Kundenzufriedenheit
oder Ausschussrate, als Benchmark für variable Vergütungen herangezogen wer-
den, können zusätzlich oder alternativ auch Data-Management-KPIs incentiv-
relevante Richtwerte sein. So schafft das Unternehmen auch einen monetären
Anreiz, einen individuellen Beitrag zur Einhaltung und Steigerung der Datenqua-
173
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
lität zu leisten und die unternehmensweite Data Quality Culture zu fördern.
Gleichzeitig wird durch diese Maßnahme auch das Thema Data Governance
unternehmensintern nochmals gewürdigt und in einen exponierten Blickpunkt
gehoben.
11.3.4 Technische Hilfsmittel installieren
Die Installation eines zentralen Stammdatenmanagement-Systems kann ein wert-
volles Hilfsmittel sein. Grundsätzlich kann eine solche Applikation nicht alle Pro-
blemfelder alleine lösen. Aber in ein schlüssiges Data-Management-Gesamtkon-
zept eingebettet, beseitigt es viele bekannte Herausforderungen und ebnet den
Weg für ein nachhaltiges Data Management.
Die sinnvolle Nutzung eines solchen Stammdatenmanagement-Systems setzt
eine abgestimmte Data Governance voraus. Eine solche Plattform stellt Werk-
zeuge und vorgefertigte Lösungen bereit, um beispielsweise Prozesse und Verant-
wortlichkeiten abzubilden. Eben diese Prozesse und Verantwortlichkeiten müssen
aber zuvor systemunabhängig definiert und vereinbart werden.
Zentrale Data-Management-Lösungen unterstützen bei der Stammdatenhar-
monisierung und -konsolidierung. Hier kann der sogenannte »Golden Record
Master« angelegt, gepflegt und in weitere angeschlossene Systeme verteilt wer-
den. Er fungiert in diesem Zusammenhang als sogenannte Clearing-Stelle. So
wird sichergestellt, dass es einen einheitlichen Stand beispielsweise in Sachen
Artikel- und Kundenstammdaten gibt und Subsysteme, wie ERP, CRM oder Data
Warehouse, dieselbe Datenbasis nutzen.
Zudem unterstützen marktgängige Stammdatenmanagement-Systeme auch
das Lifecycle Management der verwendeten Stammdaten. Sie bieten eine geeig-
nete Plattform und die passenden Werkzeuge, um die zuvor definierten Regeln
und Standards in die Praxis umzusetzen.
Weitere wichtige Instrumente im Zusammenhang mit dem Data Lifecycle
werden heute oftmals in den betreffenden Subsystemen standardmäßig mit aus-
geliefert. So verfügen beispielsweise Anwender eines aktuellen SAP Data
Warehouse (SAP BW/4HANA) standardmäßig über smarte Lösungen zum Iden-
tifizieren von sogenannten Hot, Warm und Cold Data. So kann mit einfachen
Mitteln und geringem Aufwand teils automatisiert dem Data Tiering Folge geleis-
tet werden.
Aufbau eines Kennzahlenglossars
Eine unterstützende, praktische Maßnahme unterhalb der Data Governance sind
abgestimmte Kennzahlenbäume.
Die Unternehmensführung gibt im Rahmen ihrer Unternehmensstrategie vor,
anhand welcher Key-Performance-Indikatoren (KPI) sich das Unternehmen mes-
sen lässt. Diese Steuerungsgrößen müssen zentral definiert und fixiert werden,
Daniel Eiduzzis
174
damit alle Stakeholder von denselben Kennzahlen sprechen. Der Aufbau eines
Glossars, in dem diese Werte eingetragen, gepflegt und von allen Beteiligten ein-
sehbar sind, kann hierbei eine einfache wie zweckmäßige Hilfe sein.
11.3.5 Agile Projektmethodik als hilfreiches Startmoment
Zahlreiche Unternehmen versuchen, sich durch agile Projektvorgehensweisen einen
direkteren Einfluss auf den Projektverlauf, eine höhere Flexibilität sowie effekti-
vere und schnellere Projektergebnisse zu sichern.
Diese für viele Unternehmen noch recht neue Projektmethodik kann Optio-
nen bieten, die ein oder andere Neuerung und Verbesserung im Data-Gover-
nance-Kontext zu verproben.
Der oben beschriebene organisatorische Eingriff, dauerhaft ein Data Gover-
nance Office zu etablieren, kann unter Umständen mit einigen internen Hürden
auch in Form von Skepsis und Vorbehalten verbunden sein. Agile Projektteams
zeichnen sich sehr häufig dadurch aus, dass IT- und Fachbereichsvertreter für eine
gemeinsame Projektinitiative eng zusammenarbeiten. Erfahrungsgemäß werden
Entsandte aus den betroffenen Fachbereichen sogar über diesen Zeitraum für die-
ses Engagement freigestellt. Somit repräsentieren solche Teams sehr gut das
zukünftige Setting eines solchen dauerhaft aufgesetzten Data Governance Office
für eben einen temporären Zeitraum.
Es können über diese Vorgehensweise erste Erfahrungen im Zusammenspiel
zwischen IT und Fachbereichen gesammelt werden. Gleichzeitig dient dieses Her-
angehen auch später als ideale interne Referenz, um eine dauerhafte Installation
eines entsprechenden Competence Center zu begründen.
Schnelle Rückmeldung bei neuen Features
Darüber hinaus offerieren agile Projekte eine ideale Struktur, um neue Lösungen,
sowohl prozessual als auch hinsichtlich neuer Applikationen, zu testen. Die pro-
totypisch orientierte Methodik bietet den Spielraum, neue Ansätze kurzfristig
aufzusetzen bzw. einzuführen und in enger Abstimmung mit den beteiligten
Anwendern schnell belastbare Rückmeldungen zu bekommen.
So können zuvor definierte Regeln und Standards, die zukünftig unter Nut-
zung eines neuen Stammdatenmanagement-Systems zu befolgen sind, auf ihre
Praxistauglichkeit hin überprüft werden. Im Bedarfsfall findet prozessual eine
Nachjustierung oder ein Feintuning in der genutzten Applikation statt. Dies
gewährleistet einen reibungsloseren Übergang in den nachfolgenden Dauerbe-
trieb und schafft so Akzeptanz bei allen Beteiligten.
175
11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned
11.4 Fazit und Ausblick
Data Governance ist kein Projekt, keine Einzelmaßnahme – und kein reines IT-
Thema. Die funktionsübergreifende Zusammenarbeit ist erfolgskritisch, um Silos
aufzubrechen und Gemeinsamkeiten oder gar Konflikte im Gebrauch mit Daten
aufzuzeigen.
Messbare Kriterien für »Erfolg« sind in erster Linie die erhöhte Qualität der
Dateninhalte sowie eine verbesserte Transparenz durch optimierte Prozesse – bei-
spielsweise in der Synchronisation von Daten oder der Aggregation von Informa-
tionen. Im Idealfall schafft die Kombination der beiden Punkte unternehmerische
Potenziale, erleichtert die Entscheidungsfindung, verbessert Kundenzufriedenheit
sowie operative Effizienz und reduziert Kosten und Risiken.
Unternehmen können eine dauerhaft hohe Datenqualität nur durch ein syste-
matisches, unternehmensweites Vorgehen erreichen. Die enge Zusammenarbeit
zwischen den Fachabteilungen und der IT ist dazu eine notwendige Voraussetzung.
Eine erfolgreiche Business Intelligence bedingt heute eine funktionierende
Data Governance. Technologisch lassen sich mittlerweile viele neue Wege bestrei-
ten, die Möglichkeiten bieten, die in der Vergangenheit nicht abbildbar waren.
Um aber zum Beispiel im BI-Umfeld Multi-Cloud-Architekturen zu etablieren,
hybride Data-Warehouse-Szenarien aufzusetzen oder sich Optionen der Virtuali-
sierung im Zugriff auf Daten unterschiedlicher Formate und Strukturen zunutze
zu machen, bedarf es einer dedizierten Data-Governance-Strategie.
Unternehmen dürfen sich nicht scheuen, schwierige Entscheidungen zu tref-
fen. Technologisch wie organisatorisch gilt es, neue Eckpfeiler zu setzen, um so
die notwendigen Voraussetzungen für eine nachhaltige Data Governance und
damit den zukünftigen Projekterfolg kommender BI-Initiativen zu schaffen.

Weitere ähnliche Inhalte

Was ist angesagt?

Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016Natasha Senn
 
2012 04-17 Die automatische Post- und Rechnungseingangsbearbeitung
2012 04-17 Die automatische Post- und Rechnungseingangsbearbeitung2012 04-17 Die automatische Post- und Rechnungseingangsbearbeitung
2012 04-17 Die automatische Post- und RechnungseingangsbearbeitungBARC GmbH
 
Schulug Grundlagen SAP BI / BW
Schulug Grundlagen SAP BI / BWSchulug Grundlagen SAP BI / BW
Schulug Grundlagen SAP BI / BWA. LE
 
BARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen KannBARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen KannDataValueTalk
 
Operational Intelligence - TDWI Europe 2008
Operational Intelligence - TDWI Europe 2008Operational Intelligence - TDWI Europe 2008
Operational Intelligence - TDWI Europe 2008Christian Schieder
 
Renato Stalder (Soreco Group)
Renato Stalder (Soreco Group)Renato Stalder (Soreco Group)
Renato Stalder (Soreco Group)Praxistage
 
Next generation sap bi 2012
Next generation sap bi 2012 Next generation sap bi 2012
Next generation sap bi 2012 Maria Willamowius
 
2016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver052016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver05Ulrich Schmidt
 
Projektbasierte ERP-Lösungen im Consulting klar im Vorteil
Projektbasierte ERP-Lösungen im Consulting klar im VorteilProjektbasierte ERP-Lösungen im Consulting klar im Vorteil
Projektbasierte ERP-Lösungen im Consulting klar im Vorteilbhoeck
 
EVU-spezifische Abrechnungskennzahlen auf einen Blick
EVU-spezifische Abrechnungskennzahlen auf einen BlickEVU-spezifische Abrechnungskennzahlen auf einen Blick
EVU-spezifische Abrechnungskennzahlen auf einen BlickCognizant
 
Data Governance Journey from UM to VF
Data Governance Journey from UM to VFData Governance Journey from UM to VF
Data Governance Journey from UM to VFMarco Geuer
 
Open Source Business Intelligence - TDWI 2007
Open Source Business Intelligence - TDWI 2007Open Source Business Intelligence - TDWI 2007
Open Source Business Intelligence - TDWI 2007Christian Schieder
 
Datenqualität in DWH-Projekten bei Versicherungen (für Informatica Fachtreffen)
Datenqualität in DWH-Projekten bei Versicherungen(für Informatica Fachtreffen)Datenqualität in DWH-Projekten bei Versicherungen(für Informatica Fachtreffen)
Datenqualität in DWH-Projekten bei Versicherungen (für Informatica Fachtreffen)CGI Germany
 
Tochtergesellschaften in die Konzern ERP-Welt integrieren
Tochtergesellschaften in die Konzern ERP-Welt integrierenTochtergesellschaften in die Konzern ERP-Welt integrieren
Tochtergesellschaften in die Konzern ERP-Welt integrierenall4cloud GmbH & Co. KG
 
TOC Netzwerktagung - "HiSpeed Data Analytics"
TOC Netzwerktagung - "HiSpeed Data Analytics"TOC Netzwerktagung - "HiSpeed Data Analytics"
TOC Netzwerktagung - "HiSpeed Data Analytics"Marco Geuer
 

Was ist angesagt? (20)

Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016
 
2012 04-17 Die automatische Post- und Rechnungseingangsbearbeitung
2012 04-17 Die automatische Post- und Rechnungseingangsbearbeitung2012 04-17 Die automatische Post- und Rechnungseingangsbearbeitung
2012 04-17 Die automatische Post- und Rechnungseingangsbearbeitung
 
Schulug Grundlagen SAP BI / BW
Schulug Grundlagen SAP BI / BWSchulug Grundlagen SAP BI / BW
Schulug Grundlagen SAP BI / BW
 
BARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen KannBARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen Kann
 
SAP Einführung_1
SAP Einführung_1SAP Einführung_1
SAP Einführung_1
 
2010 09 29 13-30 michael gniffke
2010 09 29 13-30 michael gniffke2010 09 29 13-30 michael gniffke
2010 09 29 13-30 michael gniffke
 
Operational Intelligence - TDWI Europe 2008
Operational Intelligence - TDWI Europe 2008Operational Intelligence - TDWI Europe 2008
Operational Intelligence - TDWI Europe 2008
 
SAP BusinessObjects Cloud
SAP BusinessObjects CloudSAP BusinessObjects Cloud
SAP BusinessObjects Cloud
 
Renato Stalder (Soreco Group)
Renato Stalder (Soreco Group)Renato Stalder (Soreco Group)
Renato Stalder (Soreco Group)
 
Next generation sap bi 2012
Next generation sap bi 2012 Next generation sap bi 2012
Next generation sap bi 2012
 
2016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver052016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver05
 
Projektbasierte ERP-Lösungen im Consulting klar im Vorteil
Projektbasierte ERP-Lösungen im Consulting klar im VorteilProjektbasierte ERP-Lösungen im Consulting klar im Vorteil
Projektbasierte ERP-Lösungen im Consulting klar im Vorteil
 
Bessere Dashboards
Bessere DashboardsBessere Dashboards
Bessere Dashboards
 
EVU-spezifische Abrechnungskennzahlen auf einen Blick
EVU-spezifische Abrechnungskennzahlen auf einen BlickEVU-spezifische Abrechnungskennzahlen auf einen Blick
EVU-spezifische Abrechnungskennzahlen auf einen Blick
 
Data Governance Journey from UM to VF
Data Governance Journey from UM to VFData Governance Journey from UM to VF
Data Governance Journey from UM to VF
 
Open Source Business Intelligence - TDWI 2007
Open Source Business Intelligence - TDWI 2007Open Source Business Intelligence - TDWI 2007
Open Source Business Intelligence - TDWI 2007
 
Datenqualität in DWH-Projekten bei Versicherungen (für Informatica Fachtreffen)
Datenqualität in DWH-Projekten bei Versicherungen(für Informatica Fachtreffen)Datenqualität in DWH-Projekten bei Versicherungen(für Informatica Fachtreffen)
Datenqualität in DWH-Projekten bei Versicherungen (für Informatica Fachtreffen)
 
Tochtergesellschaften in die Konzern ERP-Welt integrieren
Tochtergesellschaften in die Konzern ERP-Welt integrierenTochtergesellschaften in die Konzern ERP-Welt integrieren
Tochtergesellschaften in die Konzern ERP-Welt integrieren
 
SAP PPM - Projektportfolio im Blick
SAP PPM - Projektportfolio im BlickSAP PPM - Projektportfolio im Blick
SAP PPM - Projektportfolio im Blick
 
TOC Netzwerktagung - "HiSpeed Data Analytics"
TOC Netzwerktagung - "HiSpeed Data Analytics"TOC Netzwerktagung - "HiSpeed Data Analytics"
TOC Netzwerktagung - "HiSpeed Data Analytics"
 

Ähnlich wie Data Governance: Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned

DXC Technology - THRIVE Blog: Pay-Per-Use
DXC Technology - THRIVE Blog: Pay-Per-UseDXC Technology - THRIVE Blog: Pay-Per-Use
DXC Technology - THRIVE Blog: Pay-Per-UseDaniel Eiduzzis
 
Warum NoSQL Datenbanken auf dem Vormarsch sind
Warum NoSQL Datenbanken auf dem Vormarsch sindWarum NoSQL Datenbanken auf dem Vormarsch sind
Warum NoSQL Datenbanken auf dem Vormarsch sindRegina Holzapfel
 
Governance für wandlungsfähige BI-Architekturen
Governance für wandlungsfähige BI-ArchitekturenGovernance für wandlungsfähige BI-Architekturen
Governance für wandlungsfähige BI-ArchitekturenRalf Heim
 
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data ProjektenAgile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekteninovex GmbH
 
Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013
Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013
Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013Maria Willamowius
 
Das und mas business analyst an der bfh
Das und mas business analyst an der bfhDas und mas business analyst an der bfh
Das und mas business analyst an der bfhArno Schmidhauser
 
The Digital Tomorrow - Innovations on the Business Intelligence Market
The Digital Tomorrow - Innovations on the Business Intelligence MarketThe Digital Tomorrow - Innovations on the Business Intelligence Market
The Digital Tomorrow - Innovations on the Business Intelligence MarketRalf Heim
 
Software trends veranstaltungsprogramm_neu
Software trends veranstaltungsprogramm_neuSoftware trends veranstaltungsprogramm_neu
Software trends veranstaltungsprogramm_neuCON.ECT Eventmanagement
 
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTiggesDas modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTiggesOPITZ CONSULTING Deutschland
 
Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0
Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0
Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0Iodata GmbH
 
Business Intelligence (BI) Kompakt
Business Intelligence (BI) KompaktBusiness Intelligence (BI) Kompakt
Business Intelligence (BI) KompaktFilipe Felix
 
Webinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen Extraktion
Webinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen ExtraktionWebinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen Extraktion
Webinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen ExtraktionCONOGY GmbH
 
Business it-strategy ceo vs. cio 01.07
Business it-strategy ceo vs. cio 01.07Business it-strategy ceo vs. cio 01.07
Business it-strategy ceo vs. cio 01.07WYHWYH
 
Artikel ITReseller: BPO a la Sun Microsystems
Artikel ITReseller: BPO a la Sun MicrosystemsArtikel ITReseller: BPO a la Sun Microsystems
Artikel ITReseller: BPO a la Sun MicrosystemsPeter Affolter
 
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data ProjekteAgile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekteinovex GmbH
 
Geänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-LandschaftGeänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-LandschaftISR Information Products AG
 
Aktuelle Trends in der Visualisierung von Informationen
Aktuelle Trends in der Visualisierung von InformationenAktuelle Trends in der Visualisierung von Informationen
Aktuelle Trends in der Visualisierung von InformationenBARC GmbH
 
Twowayys agile sourcing 20200602 v linkedin
Twowayys agile sourcing 20200602 v linkedinTwowayys agile sourcing 20200602 v linkedin
Twowayys agile sourcing 20200602 v linkedinJonasKlumski
 

Ähnlich wie Data Governance: Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned (20)

DXC Technology - THRIVE Blog: Pay-Per-Use
DXC Technology - THRIVE Blog: Pay-Per-UseDXC Technology - THRIVE Blog: Pay-Per-Use
DXC Technology - THRIVE Blog: Pay-Per-Use
 
DE-E3-Jones
DE-E3-JonesDE-E3-Jones
DE-E3-Jones
 
Warum NoSQL Datenbanken auf dem Vormarsch sind
Warum NoSQL Datenbanken auf dem Vormarsch sindWarum NoSQL Datenbanken auf dem Vormarsch sind
Warum NoSQL Datenbanken auf dem Vormarsch sind
 
Big Data und Business Intelligence
Big Data und Business IntelligenceBig Data und Business Intelligence
Big Data und Business Intelligence
 
Governance für wandlungsfähige BI-Architekturen
Governance für wandlungsfähige BI-ArchitekturenGovernance für wandlungsfähige BI-Architekturen
Governance für wandlungsfähige BI-Architekturen
 
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data ProjektenAgile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
 
Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013
Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013
Interview - Data Migration AG - Peter R. Schönenberger - smart con SAP 2013
 
Das und mas business analyst an der bfh
Das und mas business analyst an der bfhDas und mas business analyst an der bfh
Das und mas business analyst an der bfh
 
The Digital Tomorrow - Innovations on the Business Intelligence Market
The Digital Tomorrow - Innovations on the Business Intelligence MarketThe Digital Tomorrow - Innovations on the Business Intelligence Market
The Digital Tomorrow - Innovations on the Business Intelligence Market
 
Software trends veranstaltungsprogramm_neu
Software trends veranstaltungsprogramm_neuSoftware trends veranstaltungsprogramm_neu
Software trends veranstaltungsprogramm_neu
 
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTiggesDas modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
 
Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0
Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0
Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0
 
Business Intelligence (BI) Kompakt
Business Intelligence (BI) KompaktBusiness Intelligence (BI) Kompakt
Business Intelligence (BI) Kompakt
 
Webinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen Extraktion
Webinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen ExtraktionWebinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen Extraktion
Webinar: S/4HANA Extraktion: Änderungen im Vergleich zur klassischen Extraktion
 
Business it-strategy ceo vs. cio 01.07
Business it-strategy ceo vs. cio 01.07Business it-strategy ceo vs. cio 01.07
Business it-strategy ceo vs. cio 01.07
 
Artikel ITReseller: BPO a la Sun Microsystems
Artikel ITReseller: BPO a la Sun MicrosystemsArtikel ITReseller: BPO a la Sun Microsystems
Artikel ITReseller: BPO a la Sun Microsystems
 
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data ProjekteAgile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekte
 
Geänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-LandschaftGeänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-Landschaft
 
Aktuelle Trends in der Visualisierung von Informationen
Aktuelle Trends in der Visualisierung von InformationenAktuelle Trends in der Visualisierung von Informationen
Aktuelle Trends in der Visualisierung von Informationen
 
Twowayys agile sourcing 20200602 v linkedin
Twowayys agile sourcing 20200602 v linkedinTwowayys agile sourcing 20200602 v linkedin
Twowayys agile sourcing 20200602 v linkedin
 

Data Governance: Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned

  • 1. 159 11 Data Governance: 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned Daniel Eiduzzis In diesem Beitrag wird die Herausforderung von Business-Intelligence- Projekten im Zusammenspiel mit Data Governance betrachtet und bewertet. Dabei werden u.a. technische Limitierungen, gewachsene Komplexitäten in den Geschäftsprozessen sowie das Lifecycle Management mit Blick auf die derzeit bestehenden Problemfelder genauer beleuchtet. Zudem wird der Einfluss aktueller Trends und Projektinitiativen sowie neuer BI-Archi- tekturen in die Betrachtung mit einbezogen. Ein Blick in diese Problemfelder sowie eine Skizzierung möglicher Lösungsansätze und Best Practices kann nur eine Momentaufnahme sein. Trends und Entwicklungen im Markt haben in den vergangenen Jahren ein rasantes Tempo erreicht, weshalb eine regelmäßige Rekalibrierung unerlässlich scheint. 11.1 Ausgangssituation 11.1.1 Rückblick und Status quo Wenn man sich die Historie und die Evolution von Projekten im Business-Intelli- gence-(BI-)Umfeld anschaut, so lässt sich sicherlich zu Recht behaupten, dass die Komplexität im Laufe der Jahre zugenommen hat. In der Vergangenheit waren Projektengagements im BI-Kontext klar abgrenzbar und der einzusetzende Werk- zeugkasten relativ überschaubar und beherrschbar. Anforderungen seitens der Fachbereiche fußten nicht selten auf Daten aus transaktionalen Systemen, die sich beispielsweise mit Fragestellungen aus dem Finance & Controlling-Kontext oder auch Sales & Distribution befasst haben. Klassisches Data Warehousing und Reporting Zunächst galt es, die konkreten Anforderungen der beauftragenden Fachbereiche eingehend zu analysieren und anschließend auf Basis eines abgestimmten Busi- ness-Konzepts die Umsetzung vorzunehmen. Der Datenfluss in solchen Projekt-
  • 2. Daniel Eiduzzis 160 initiativen war bisweilen schlicht und vorhersehbar. Stammdaten wurden fast ausschließlich in den angeschlossenen Quellsystemen (zum Beispiel SAP ERP) generiert und gepflegt. Gleiches galt auch für die korrespondierenden Bewe- gungsdaten. Reporting-relevante Daten wurden ins Data Warehouse (z.B. SAP BW) geladen. Im Bedarfsfall fand dort eine weitere Verarbeitung dieser Daten statt. Diese Weiterverarbeitung konnte zum Beispiel das Anreichern zusätzlicher Informatio- nen beinhalten (u.a. Währungsumrechnung) oder auch die Verteilung nach vor- definierten Schlüsseln. Auf Basis im Projekt aufgebauter Datenmodelle wurden unterschiedliche Berichte und Auswertungen im Data Warehouse angefertigt. Wenn es infolgedes- sen im späteren Betrieb zu Schiefständen oder Lücken in der Datenbasis im Data Warehouse kam, mussten diese in der Regel im angeschlossenen Quellsystem identifiziert und bereinigt werden. So wurden ein lückenloser Datenfluss und ein zukünftiger fehlerfreier Upload zwischen Quell- und Zielsystem sichergestellt. Verschiedene Bordmittel des verwendeten BI-Systems leiteten den Verant- wortlichen im Business-Intelligence-Umfeld auf besagte Fehler und Schiefstände hin. Eine Bereinigung der Fehler und Lücken konnte in Teilen und durch Work- flows unterstützt vorgenommen werden. Herausforderungen in gewachsenen Systemen Insbesondere in gewachsenen BI-Architekturen finden sich mit der Zeit mehr und mehr Redundanzen und Schiefstände, die auf unterschiedliche Art und Weise ihren Weg in die Reporting-Landschaft der Anwenderunternehmen gefunden haben. Ältere Systemlandschaften haben die Herausforderung, dass der technische Reifegrad in der Vergangenheit häufig nur bedingt ausgeprägt war. Dadurch sind zum Teil mehr oder weniger komplexe Workarounds entstanden, die über die Jahre einen entsprechend hohen Grad an Komplexität erreicht haben. Selbst klei- nere Erweiterungen und Anpassungen bedurften großen Aufwands und langer Projektdauer. Ebenso verhielt es sich mit aufkommenden Fehlern und Problemen im Repor- ting und der Datenaufbereitung. Eine Source-to-Target-Analyse und anschlie- ßende Fehlerbehebung gestalteten sich in solch komplexen BI-Landschaften kom- pliziert und aufwendig. Fachbereiche mussten im Zweifel lange auf die fehlenden Daten warten oder mit Schiefständen im Reporting leben.
  • 3. 161 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned 11.1.2 Neue Anforderungen und Projektinitiativen Die Anforderungen an BI und Analytics haben heute ein anderes Niveau, als wie es noch vor einigen Jahren der Fall war. Ein Blick in den Rückspiegel auf Basis ausschließlich transaktionaler Daten reicht nicht mehr aus. Vielmehr gilt es, auf der einen Seite einen umfassenden Blick auf die nähere Vergangenheit zu werfen. Dabei sind Aspekte wie 360°-Sichten, Bewegungspro- file und Customer Journey Must-haves. Auf der anderen Seite ist ein Blick in die Zukunft entscheidend, um die betriebswirtschaftlichen Geschicke im positiven Sinne zu beeinflussen. Predictive Analytics versetzt die Anwenderunternehmen dabei in die Lage, belastbare Vorhersagen zu generieren, um beispielsweise Kun- denabwanderungen entgegenzuwirken oder intelligente Wartungsintervalle in der Produktion zu bestimmen. Die veränderten Anforderungen begründen neue Projektinitiativen, die wie- derum die IT und die Projektauftraggeber vor neue Herausforderungen stellen. Innovation und technologisches Neuland Aus betriebswirtschaftlicher und prozessualer Sicht werden Fragestellungen einer Belastung ausgesetzt, wo es bisher intern wenig bis gar keine Referenzen gibt. Umso wichtiger ist es, dass die zugrunde liegende Datenbasis qualitativ valide ist, um den generierten Ergebnissen und Empfehlungen Vertrauen schenken zu kön- nen. Lückenhafte und fehlerhafte Eingangswerte machen im Predictive-Kontext automatisiert ermittelte Vorhersagen zunichte und lassen hier jedes Projekten- gagement im Keim scheitern. Technologisch betreten die IT-Verantwortlichen bei der Realisierung dieser Anforderungen Neuland. Es gilt eine heterogene Quellsystemlandschaft zu orches- trieren, neue und zum Teil unstrukturierte Datenformate zu verarbeiten und die Analyse- und Visualisierungswünsche der Fachbereiche mit bisher unbekannten Werkzeugen abzubilden. Um sich ausschließlich auf diese Herausforderungen fokussieren zu können, bedarf es auch in dieser Hinsicht verlässlicher Daten. Fehlende Plausibilitäten, bestehende Redundanzen etc. bremsen nicht nur den Projektfortschritt aus, son- dern entziehen am Ende auch den Projektverantwortlichen die Argumente gegen- über den begutachtenden Steering Committees.
  • 4. Daniel Eiduzzis 162 11.1.3 Aufbruch zu neuen Ufern: BI-Architekturen 2.0 Waren Projektinitiativen im BI-Umfeld in der Vergangenheit – wie zuvor be- schrieben – einfach abgrenzbar, so gilt dies gleichermaßen für die zugrunde lie- genden BI-Architekturen. Der technologische Fortschritt in der jüngeren Vergangenheit versetzt die An- wenderunternehmen in die Situation, neu gewonnene Flexibilität mit sinnstiften- den Lösungen zu füllen. Technologische Konzepte, die vor einigen Jahren un- denkbar waren oder sich nur mit erheblichem Aufwand abbilden ließen, sind heute dank verprobter Referenzarchitekturen ernst zu nehmende Alternativen. Data Lakes werden zum neuen Standard So ist beispielsweise die Etablierung eines Data Lake bei vielen Redesign-Ansät- zen gang und gäbe. Die Verwendung von (aus SAP-Sicht) Third-Party-Lösungen im BI-Frontend bietet dem Anwender ganz neue Möglichkeiten, um zum Beispiel geforderte Visualisierungen umzusetzen. Intelligente Datenmanagement- und ETL-Plattformen sind in der Lage, Datenquellen unterschiedlicher Systemherstel- ler zu verbinden und Datenflüsse zu orchestrieren. Die Vielzahl neuer Möglichkeiten und Optionen hat aber auch den Bedarf an Steuerung und Orientierung zur Folge. Nicht wenige Anwenderunternehmen tun sich zu Recht ein Stückweit schwer, die Best-Fit-Architektur zu finden. Hier gilt es, aktuelle und zukünftige Bedarfe nicht nur zu kennen, sondern auch zu wecken und diese mit einer für das Unternehmen individuell abgestimmten State-of-the- Art-Architektur zu bedienen. Um sich für zukünftige Bedarfe im Planungs- und Predictive-Kontext zu prä- parieren, müssen Unternehmen sich heute aktiv mit dem Aufbau eines Data Lake auseinandersetzen. Die konkreten, fachlich motivierten Projektinitiativen liegen vielleicht noch in ferner Zukunft – um dann aber über eine ausreichende Daten- basis zu verfügen, muss heute mit dem Sammeln potenziell betrachtungsrelevan- ter Informationen begonnen werden. Wird erst mit Beginn des ausformulierten Bedarfs damit begonnen, Informationen zu sammeln, verfügt das Unternehmen nicht über eine belastbare Datengrundlage, um beispielsweise Artificial-Intelli- gence-(AI-)Modelle zu trainieren. Nicht selten handelt es sich bei solchen Daten um neue und bisher unbe- kannte Formate, die gleichzeitig sehr große Volumina begründen. Für die Ablage derartiger Daten sind bisherige Zielsysteme im Data-Warehouse-Umfeld eher ungeeignet. Data Lakes können hier eine sinnvolle Alternative sein und gleichzei- tig die Offenheit für weitere zukünftige Projektinitiativen bieten. Zudem stellen gängige Data-Lake-Konzepte, wie beispielsweise Apache Hadoop Ecosystem, passende Werkzeuge zur Aufbereitung der Daten bereit. Neue fachlich motivierte Projektinitiativen und erweiterte technische Mög- lichkeiten stellen bisherige Data-Governance-Strukturen vor die Herausforderun-
  • 5. 163 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned gen, diesen Veränderungen Rechnung zu tragen. Zwar gibt es mittlerweile markt- reife Instrumente zur Verarbeitung von Maschinen- und Sensordaten in der Pro- duktion oder Informationen aus Social-Media-Quellen – gleichzeitig muss aber auch die Governance der Anwenderunternehmen den Rahmen für den Umgang mit diesen Daten ebnen. Bisher in sich gekapselte Datensilos werden heute aufgebrochen, um Daten aus unterschiedlichen Quellen in einen Kontext zu bringen oder neuen Nutzer- kreisen zur Verfügung zu stellen. In der Analytics wird gerne der Begriff des soge- nannten Storytellings verwendet, wenn es um neue Anforderungen an Auswer- tung und Reporting geht. Dabei reicht eine singuläre Darstellung von ausgewählten Kennzahlen nicht mehr aus. Vielmehr geht es darum, geführte Ana- lysen, Berichtsbäume und Absprünge sowie unterschiedliche Visualisierungen zu vereinen. Dies schließt auch den Bedarf weiter gehender Datenräume ein. Eine zukunftsorientierte Data Governance muss daher in der Lage sein, den Bogen zwischen unterschiedlichen betriebswirtschaftlichen und prozessualen Fragestellungen zu spannen. Neuer Trend: Data Sharing Ein neuer Trend im Data-Governance-Umfeld ist das sogenannte Data Sharing. Dabei sollte zunächst differenziert werden, ob es sich um ein öffentliches oder unternehmensinternes Data Sharing handelt [Niederée 2019]. Grundsätzlich wird unter Data Sharing das Publizieren von Daten verstan- den. Ursprünglich stammt dieser Trend aus der Forschung respektive Wissen- schaft. Dabei werden u.a. Forschungsergebnisse der interessierten Öffentlichkeit zur Verfügung gestellt. Das Prinzip dahinter ist relativ schlicht: Um selbst wertstiftende Daten und Erkenntnisse Dritter zu nutzen, sollte ich meinerseits bereit sein, Daten zur Verfügung zu stellen. Mittlerweile hat sich dieser Trend auch über wissenschaftliche Nutzerkreise hinaus ausgeweitet. Unternehmen stellen eigene Informationen und Ergebnisse anderen Unternehmen (beispielsweise Zulieferern und Kunden) zur Verfügung. Das bedeutet, dass die eigenen Daten in Zukunft so aufzubereiten sind, dass sie mit anderen Unternehmen geteilt werden können. Weitreichende Analysen sind nur dann möglich, wenn Daten sinnvoll miteinander in Beziehung stehen. Die eigenen Informationen sind zukünftig nur noch der Auslöser oder Startpunkt für unternehmenskritische Auswertungen oder Vorhersagen. Daten aus externen Quellen bekommen zunehmend entscheidende Bedeutung, wenn es darum geht, einen analytischen Use Case umzusetzen. Data Sharing ist somit ein wichtiger Aspekt der Datenökonomie. Für Data Governance stellt Data Sharing eine Herausforderung hinsichtlich Datenstan- dards dar. Um Daten bereitzustellen und externe Informationen nutzen zu kön- nen, müssen Formate und Strukturen kompatibel sein. Hier muss Data Gover- nance den Weg bereiten.
  • 6. Daniel Eiduzzis 164 11.2 Problemfelder 11.2.1 Permanente Herausforderungen Datenqualität umfasst Kriterien wie etwa Richtigkeit, Vollständigkeit und Aktu- alität; je nach Informationsbedarf kommen Aspekte der Weiterverarbeitung und des Zugangs hinzu. Im Spannungsfeld zwischen BI-Initiativen und dem Umgang mit den betrach- tungsrelevanten Daten sind nicht selten wiederkehrende Problemmuster erkenn- bar. Fehlerhafte Stammdaten und Attribute aus den angeschlossenen Quellsyste- men resultieren aus bisweilen schlecht aufgesetzten Prüfmechanismen. Garbage in, Garbage out So lässt sich beispielsweise die Eingabe des Datums in der Regel recht simpel veri- fizieren, indem das entsprechende Eingabefeld einen passenden Typ zugewiesen bekommt. Anderenfalls kann es vorkommen, dass es bei Prüfroutinen in der Datenübertragung zu Abbrüchen kommt, da zum Beispiel ein 30. Februar oder 31. November nicht existiert und somit auch nicht zugeordnet werden kann. Im schlimmsten Fall wird dieser Fehler jedoch nicht in der Upload-Routine identifi- ziert, sondern das Dataset wird 1:1 in die vorgesehenen Datenziele fortgeschrie- ben. Dann treten Probleme erst in der späteren Nutzung der Daten bei der Daten- analyse auf, was u.a. eine aufwendigere Nachverfolgung im Source-to-Target- Sinne nach sich zieht. Dieses Problem lässt sich leider auf weitere einfach vermeidbare Fehler über- tragen: So gelangen immer wieder fehlerhafte Adressdaten ins Data Warehouse, zwingend erforderliche Angaben zu Artikeln und Produkten werden nicht hinter- legt oder Zahlungsinformationen nicht aktualisiert. Die Probleme im späteren Umgang sind sehr unterschiedlich gelagert. Im Marketing-Kontext werden vollständige Informationen zum Kunden, Unterneh- men und deren Ansprechpartner benötigt, um geplante Kampagnen erfolgreich durchführen zu können. Der Vertrieb hingegen hadert mit fehlenden bzw. fehler- haften Angaben in der Verknüpfung zwischen Marketing, Vertrieb und Rech- nungswesen, um die zeitnahe und korrekte Rechnungsstellung zu gewährleisten. Diese Schiefstände zu identifizieren und zu beheben beansprucht Zeit und Ressourcen – beides Güter, die in der Regel knapp bemessen sind. In jedem Fall muss eine Korrektur im Quellsystem erfolgen, damit dieser Missstand nicht zu einem späteren Zeitpunkt erneut seinen Weg ins Data Warehouse findet.
  • 7. 165 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned Mangelhafte Datenqualität und ihre Folgen Die Auswirkungen sind zum Teil weitreichend. Nicht nur der zeitliche Aufwand der Fehlerkorrektur ist mit wachsenden Systemen und Anforderungen an BI und Analytics signifikant. Auch auf fachlicher Ebene gehen Akzeptanzprobleme und Vertrauensverlust in die bereitgestellten Reporting-Lösungen einher. Fehler und Schiefstände sind mitunter auch der Türöffner für Auf- und Ausbau von soge- nannten »Schatten-Reporting«-Ansätzen. Wenn Anwender den Daten und Aus- wertungen nicht trauen können, werden eigene Mittel und Wege identifiziert, um die erforderlichen Analysen vorzunehmen – im Zweifel an der IT und den beste- henden BI-Lösungen vorbei. Ein Problem in Bezug auf Datenqualität ist auch das fehlende Wissen bzw. das fehlende Bewusstsein über die Abhängigkeiten der getätigten Eingaben. Häu- fig ist den Beteiligten im Prozess der Dateneingabe und -pflege sowie den Nutzern nicht bewusst, welche Auswirkungen lückenhafte oder fehlerhafte Informationen für die Weiterverarbeitung und Analyse haben. Data Governance hat in der Vergangenheit häufig eine eher untergeordnete Priorität bei den Anwenderunternehmen genossen, da bisweilen bei der Erfassung und Pflege von Daten in den Quellsystemen nicht immer ein umfassendes Bild von der späteren Verwendung und Abhängigkeit dieser Eingaben vorherrscht. Mitunter hatte Data Governance einen ähnlich niedrig priorisierten Stellenwert wie Dokumentation oder Change Management in Projekten. Hier besteht, losge- löst von der fachlichen Anforderung und dem verwendeten technischen Rüst- zeug, zwingender Nachholbedarf in der Sensibilisierung von Data-Governance- Fragestellungen. 11.2.2 Fokussierung auf technische Limitierung Auf die bestehenden Mängel in puncto Data Governance angesprochen, wird sei- tens der Anwenderunternehmen gerne ein limitierter Werkzeugkasten in der tech- nischen Umsetzung von Data Governance vorgeschoben. Definitiv sind heute viele Unternehmen nicht mehr mit sogenannten State-of- the-Art-Instrumenten ausgestattet, die es für eine zeitgemäße Data Governance bedarf. Marktgängige Lösungen bieten zahlreiche Out-of-the-Box-Features wie Indizierung und Suche, Workflow und Automatisierung oder Security an, um den Anwender zu unterstützen und manuelle Aufwände zu minimieren. Dennoch kann unzureichende technische Ausstattung nicht als Ausrede für mangelhafte Data Governance herangezogen werden. Wie auch in vielen anderen Unternehmensbereichen mit gewissem IT-Bezug gilt auch für Data Governance: Ohne den nötigen Ordnungsrahmen, den es sys- temunabhängig zu definieren gilt, kann das beste Werkzeug keine Abhilfe schaf- fen. Sicherlich kann eine Data-Management-Software gewisse Aufgaben decken und zum Teil gar automatisiert unterstützen – darüber hinaus zeigt eine solche
  • 8. Daniel Eiduzzis 166 Plattform idealerweise auch auf, in welchen Teilbereichen die Unternehmung heute noch keine Antwort auf prozessuale Fragestellungen in der Data Gover- nance hat oder wo bisherige Vorgaben nicht mehr ausreichend sind. Zudem wird auch nicht immer der bestehende Funktionsumfang der bereits installierten Lösung ausreichend in Anspruch genommen. Will sagen: Anwender- unternehmen haben Lösungen im Data Management zur Hand, deren Funktions- breite und -tiefe nicht bekannt sind bzw. nicht genutzt werden. Damit bleiben wertvolle technische Potenziale ungenutzt. 11.2.3 Information Lifecycle Management aus BI-Sicht Neue Technologien schaffen gelegentlich auch neue Schwierigkeiten, die es vor diesem Technologiesprung noch nicht gab. Im konkreten Fall nötigt beispiels- weise die Einführung der HANA-Datenbank-Technologie die Anwenderunter- nehmen dazu, sich Gedanken über den sogenannten Lifecycle ihrer Daten zu machen. Data Tiering Der Betrieb der HANA-Technologie kann schnell eine hohe Preisintensität zur Folge haben. Daher sind die anwendenden Unternehmen gut beraten, ein saube- res Data Tiering aufzusetzen, das Vorgaben ableitet, welche Daten aufgrund ihrer hohen Nutzungsfrequenz In-Memory vorzuhalten sind und welche Daten eher in die Kategorie der sogenannten Warm und Cold Data gehören und somit ausgela- gert werden können. Dieses Data Offloading gewährleistet zwar weiterhin eine Verfügbarkeit in der Auswertung und Analyse, ermöglicht aber die Nutzung von kostengünstigerem Secondary Storage. Somit reduziert sich die Verwendung der teuren HANA-Technologie auf die stark frequentierten Hot Data. Weniger betrachtungsrelevanten Warm- und Cold-Data-Auswertungen attestiert man eine etwas schlechtere Performance in der Reporting-Antwortzeit, da hier entspre- chende Preisvorteile gegenüberstehen. Der Lifecycle der Stammdaten Der Lifecycle von Stammdaten, wie Kunde, Lieferant, Produkt oder Vertrag, ist in den angeschlossenen Quell- und Zielsystemen oftmals überholt und nicht mehr up to date. Zum Teil werden Daten lediglich bei der initialen Stammdateneingabe erfasst, da es sich um sogenannte Pflichtfelder bei der Erfassung handelt. Leider werden weitere Ausprägungen zum ausgewählten Stammdatum nur sporadisch bis gar nicht aktualisiert, weshalb eine spätere Verwendung dieser Datensätze mit qualitativen Abstrichen versehen ist.
  • 9. 167 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned Aber so, wie sich im privaten Umfeld Angaben zur Adresse oder Kontover- bindung ändern und beispielsweise bei Bestellvorgängen im Internet aktualisiert werden müssen, gibt es auch auf der Ebene Business-to-Business regelmäßig Anpassungsbedarf. Es ändern sich Ansprechpartner im Einkauf, Verantwortliche auf Auftrag- nehmerseite, Zahlungsbedingungen oder Kommunikationswege. Zudem können sich Artikelbezeichnungen und ID ändern, weitere Ausprägungen zu Maßen oder Variantenkonfiguration dazukommen. Oder die Einkaufs- und Allgemeine Geschäftsbedingungen ändern sich und müssen berücksichtigt werden. Leider finden diese neuen Angaben nur selten Einzug in die angeschlossenen ERP-, CRM- und BI-Systeme, was in der Folge signifikante negative Auswirkun- gen auf die betreffenden Geschäftsprozesse hat. Im schlimmsten Fall ist hier mit finanziellen Einbußen zu rechnen, weil fehlende oder falsche Angaben in der Kommunikation mit Lieferanten, Kunden und Kreditgebern verwendet werden. 11.2.4 Gewachsene Komplexität der Geschäftsprozesse Nicht nur neue betriebswirtschaftliche Anforderungen stellen BI und Analytics vor Herausforderungen. Auch die bestehenden Geschäftsprozesse unterliegen erfahrungsgemäß einer permanenten Veränderung, der in der aufgesetzten BI & Analytics-Architektur Rechnung getragen werden muss. Sichten auf Materialien und deren Eigenschaften werden differenzierter und kleinteiliger. Immer neue und weiter gehende Ausprägungen gilt es zu berücksich- tigen. Eine Dezentralisierung der Stammdatenpflege stellt die Anwenderunter- nehmen nicht nur prozessual vor Schwierigkeiten. Technologisch müssen Anwen- der hier praktikable Lösungen identifizieren, um den veränderten Bedingungen zu entsprechen. Tun sich weitere Optionen für den Eingriff in die Generierung und Modifizierung von BI-relevanten Stammdaten auf, muss im gleichen Zuge die Verifizierung und Konsistenzprüfung der Dateneingaben sichergestellt werden. In die Jahre gekommenes Prozess- und Architektur-Wirrwarr Oftmals besteht zunächst nur ein Wunsch, was aus fachlicher Sicht benötigt wird, und lediglich eine grobe Vorstellung, wie eine Umsetzung erfolgen kann. Diese Ideen in eine ganzheitliche Betrachtung und bestehende Konzepte zu überführen, ist oft schon Herausforderung genug. Die technisch belastbare Umsetzung kommt dabei noch erschwerend hinzu. Durch eine kleinteilige und iterative Vor- gehensweise entstanden über die Jahre komplexe Gebilde, die sowohl fachlich wie auch technologisch schwer modifizier- und wartbar geworden sind. Jede wei- tere Veränderung an diesem über die Jahre gewachsenen Prozess- und Architek- tur-Wirrwarr bedingt gerne ein Vielfaches an Projektaufwand.
  • 10. Daniel Eiduzzis 168 Werden beispielsweise im Zuge von größeren Migrationsprojekten Fragezei- chen hinter bestehende Architekturen gesetzt und einschneidende Redesigns beabsichtigt, stellt sich auch die Sinnfrage bezüglich der abgebildeten Geschäfts- prozesse. Will man »alten Wein in neuen Schläuchen« vermeiden, macht es Sinn, gewachsene und ggf. veraltete Prozesse vor anstehenden IT-Projekten eingehend zu hinterfragen. Unter Umständen können bisher umständlich abgebildete Pro- zesse verschlankt und ausgewählte Vorgehensweisen sogar gänzlich ausgespart werden. Neue prozessuale und betriebswirtschaftliche Anforderungen können eingeflochten werden, um so eine Nutzungssicherheit zu gewährleisten. Es spielt eine untergeordnete Rolle, ob es sich bei dem Anwenderbetrieb um ein Unternehmen aus der Maschinenbau-, Retail- oder Versicherungs- und Finanzbranche handelt. Die Anforderungen an BI und Analytics umfassen immer weiter gehende Ausprägungen und Insights. Es gilt für ein vollumfassendes Bild Informationen aus den unterschiedlichsten Quellen zusammenzufügen und zu konsolidieren. 11.2.5 Datenschutzverordnung als Next-Level-Challenge Die geänderten Anforderungen an das Vorhalten personenbezogener Informatio- nen und die Etablierung neuer Datenschutzverordnungen stellen zahlreiche Unternehmen vor bisher nicht dagewesene Prüfungen. Insbesondere Unternehmen, deren Kerngeschäft kundenbezogene Daten aus- machen, müssen hier eine Balance finden, wie weiterhin mit Kundendaten auf der einen Seite umgegangen werden kann und auf der anderen Seite die Individualin- formationen identifiziert und im Zweifel zeitnah gelöscht oder zumindest demaskiert werden. Hierbei spielt die Datensouveränität eine bedeutende Rolle und hat wesentlichen Einfluss auf die Architektur und die Governance in puncto Data Management [Mooy 2017]. Nicht selten ist es schon eine erhebliche Herausforderung, die betreffenden sensiblen Daten ausfindig zu machen. Sowohl die Identifizierung als auch die Strukturierung der betreffenden Informationen ist eine neue Anforderung, die zunächst auf inhaltlicher Ebene erfüllt werden muss. Unternehmen müssen zu jedem Zeitpunkt in der Lage sein, gegenüber Kunden und behördlichen Instituti- onen Auskunft über die jeweiligen Kundeninformationen zu leisten. Zudem sind unter Umständen die bis dato vorliegenden technischen Begebenheiten nicht aus- reichend, um die zuvor benannten Strukturen ausfindig zu machen, geschweige denn, mit passenden Werkzeugen und vertretbarem Aufwand hier eine Anpas- sung und Modifizierung vorzunehmen. Diese neuen Anforderungen sind aus betriebswirtschaftlicher Sicht hochgra- dig kritisch, da Verstöße mittlerweile erhebliche finanzielle Sanktionen zur Folge haben – abgesehen vom Schaden der Reputation. Darüber hinaus sind diese Aspekte konzeptionell in zukünftige IT-Projekte einzufassen und bedeuten womöglich Mehraufwände bezüglich Kosten und Dauer.
  • 11. 169 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned Davor müssen bestehende Prozesse und Strukturen zur Datenverarbeitung und Datenhaltung eingehend geprüft und ggf. unter Berücksichtigung der Anfor- derung einer Datenschutz-Grundverordnung (DSGVO) angepasst werden. Pro- jekte in diesem Zusammenhang müssen erfahrungsgemäß zeitlich hochpriori- siert, während andere oder parallel verlaufende Engagements untergeordnet und eingeplante Budgets und Ressourcen neu zugeschnitten werden. 11.3 Lösungsansätze und Lessons Learned 11.3.1 Etablierung Data Governance Data Governance legt einen Ordnungsrahmen mit Regeln für das Informations- management fest und stellt die Werkzeuge zur Überwachung und Steuerung von Vorschriften, internen Regeln sowie gesetzlichen Vorgaben und Compliance- Anforderungen bereit [Hinssen & Pürsing 2015]. Hierbei sind die relevanten Rollen, Verantwortlichkeiten und Prozesse zu definieren. Beispielsweise sollte in den entsprechenden Policies festgelegt werden, Q wer für bestimmte Daten und die Einhaltung von Qualitätsstandards verant- wortlich ist; Q welche Rollen die Mitarbeiter haben, die mit Daten hantieren, und wie diese mit Daten umzugehen haben; Q nach welchen Standards Daten erfasst werden; hier sollte definiert werden, welche Mindestanforderungen an Daten einzuhalten sind; Q welche Sicherheitsregeln zu beachten sind. Demzufolge ist der Aufbau von einheitlichen Standards und Richtlinien eine wichtige Aufgabe von Data Governance. Anwenderunternehmen müssen die zuvor genannten Punkte für sich definieren und regelmäßig auf Aktualität über- prüfen. Systemunabhängige Verbindlichkeiten sind ein Garant für ein optimales Data Management. 11.3.2 Organisatorische Verankerung Business Intelligence hat es vorgemacht: Bereits vor einigen Jahren gab es die ers- ten Initiativen auf Anwenderseite, über sogenannte Business Intelligence Compe- tence Center (BICC) technische und fachliche Kompetenzen und Verantwortlich- keiten Schulter an Schulter organisatorisch zu verankern. Ein BICC ist ein Team, das in seiner ausgeprägtesten Form für sämtliche Aspekte der Business Intelligence in einer Organisation verantwortlich ist – von der Strategie über die Projekte bis hin zu den BI-Systemen. Dabei gibt es abhängig von Größe und Struktur des jeweiligen Unternehmens virtuelle, feste sowie hyb- ride BICC-Formen.
  • 12. Daniel Eiduzzis 170 Installation von Data Governance Offices Analog zu diesem Ansatz entstehen inzwischen immer häufiger auch Competence Center, die für das unternehmensweite Data Management verantwortlich zeichnen. Das sogenannte Data Governance Office besteht aus Vertretern der relevanten Geschäftsbereiche; dabei kann nach fachlichem Fokus (zentrale/dezentrale Ver- triebsfunktionen, Finance, Human Resource, IT) oder geografischem Fokus (alle Funktionen einer Landesvertretung) unterschieden werden [Winter & Mornar 2001]. Die Tätigkeit des Data Governance Office fokussiert sich vorrangig auf Fel- der, die das Unternehmen bei der Erreichung von Geschäftszielen unterstützen: Q Schaffung von Konsistenz über den Datenlebenszyklus hinweg; Q Funktionsübergreifende Zusammenarbeit, um Best Practices auszutauschen und Konflikte, Kannibalisierungseffekte oder Synergien zu identifizieren; Q Begründung von Datenbetriebsbereitschaft und Vertrauen in Daten; Q Konstituierung einer unternehmensweiten »Data Quality Culture«. Einhergehend mit der Einführung von neuen Organisationseinheiten müssen auch neue, zusätzliche Rollen im Data-Governance-Kontext etabliert werden. Parallel zu den sogenannten Process Ownern, die in Einheiten wie Corporate Pro- cess Management (CPM) organisiert sind und für die unternehmensweiten Geschäftsprozesse wie beispielsweise Order-to-Cash (O2C) oder Purchase-to-Pay (P2P) verantwortlich zeichnen, braucht es weitere Verbindlichkeiten. Unter dem Dach des Data Governance Office müssen zukünftig Data Owner definiert werden. Data Owner oder Data Steward sind Begriffe aus dem Informa- tionsmanagement. Trägt der Process Owner Sorge für ausgewählte Geschäftspro- zesse, ist der Data Owner für einen ausgewählten Teil der Unternehmensdaten verantwortlich. Seine Rolle nebst Selbstverständnis, Rechten und Pflichten muss in ein ganzheitliches Data-Governance-Konzept eingebettet werden. Data Owner gewährleisten die Einhaltung von zuvor definierten Regeln und Standards, die in einer Data-Governance-Strategie fixiert werden. Der Data Owner kann sowohl aus dem Fachbereich als auch aus der IT rekrutiert werden, wobei der Fachbezug zwingend gewährleistet sein muss. In puncto Organisation muss der Stellenwert von Data Management und Data Governance dem von Business Intelligence mindestens gleichgesetzt wer- den. Will sagen: Sind in der Vergangenheit Initiativen und Projektengagements mitunter gescheitert, da keine ausreichende Management-Attention generiert wurde, finden sich heute allzu häufig Vorstandsmitglieder als sogenannte Sponso- ren von BI-Projekten wieder. Diese gewährleisten die nötige Beachtung der unter- schiedlichen Projekte auf Topmanagementebene und sichern Budgets und das Bereitstellen der erforderlichen Ressourcen. Gleiches muss in Zukunft mit Blick auf Fragestellungen von Data Manage- ment und Data Governance passieren.
  • 13. 171 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned Data Governance muss Vorstandsthema werden Die Unternehmen müssen sich der Bedeutung und Tragweite von Data Gover- nance als eigenständiges Thema und gleichzeitig als Querschnittsaufgabe bewusst werden. Nicht zuletzt aus Gründen des Datenschutzes, zugrunde liegender Ver- ordnungen und etwaiger Sanktionen ist eine Sensibilisierung für Data Gover- nance und deren Aufgaben geboten. Analog zum C-Level-Alignment im BI und Analytics-Kontext öffnet ein ent- sprechendes Vorstandsmandat die nötigen Budgets und Ressourcen für erforder- liche Projektinitiativen. Zudem kann nur über diese Entscheiderebene eine nach- haltige Anpassung im organisatorischen Sinne erfolgen. Die Etablierung von Competence Center, wie beispielsweise einem Data Governance Office, berührt in der Regel immer Headcounts verschiedener Verantwortlicher im Unterneh- men, die eventuell anders geartete Interessen verfolgen oder den Zweck und die Mehrwerte einer solchen Querschnittsorganisation nur eingeschränkt unterstüt- zen. Hier muss im Zweifel eine Top-down-Entscheidung getroffen werden, die die Unterstützung der Geschäftsführung voraussetzt. 11.3.3 Data Governance als Werttreiber Eine funktionierende Data Governance ist ein signifikanter Treiber in der unter- nehmensindividuellen Wertschöpfungskette. Dieser Wertbeitrag bemisst sich auf unterschiedlichen Ebenen. Prozessuale Optimierungen im Umgang mit Data Management verhindern manuelle Mehraufwände, da Fehler und Schiefstände seltener korrigiert werden müssen. Klare Richtlinien und Standards erhöhen gleichzeitig die Datenqualität und die Verlässlichkeit in die genutzten Informationen. Dies kann unter Umstän- den sogar Sanktionen und Regress verhindern, die beim Austausch und Handel mit fehlerhaften Daten zum Tragen kommen. Die Einbeziehung und Nutzung von externen Daten kann bisherige Analysen vertiefen, wertvolle Insights liefern und so Wettbewerbsvorteile gegenüber Marktbegleitern schaffen. In ausgewähl- ten Fällen können weitere Daten, ob aus internen oder externen Quellen, sogar der Türöffner für neue Geschäftsmodelle sein. Um Data Governance und ihren Wert greifbar zu machen, sollte auch das Data Management in Projekten monetarisiert werden. Projekte im Prozessopti- mierungskontext sprechen häufig von der Reduzierung manueller Aufwände. Sowohl in der Projizierung als auch im späteren Review dieser Projekte stehen den eingesparten manuellen Tätigkeiten kalkulierte Wertsätze gegenüber. In ver- gleichbarer Form entsprechen die Daten und Informationen einem belastbaren Wert für das Unternehmen und sind als eine solche Kennziffer einzuordnen. So wird es für Unternehmen und ihre Stakeholder deutlich, welchen Benefit bei- spielsweise die Integration externer Daten haben kann. Oder welcher Wert den eigenen Daten beizumessen ist, wenn man diese mit beteiligten Dritten teilt (in Form von Verkauf eigener Daten oder über das Data Sharing).
  • 14. Daniel Eiduzzis 172 Lessons Learned und Projektreview Viel zu selten findet retrospektiv in BI und anderen IT-Projektengagements ein Review statt, ob die prognostizierten Ziele, Erwartungen und Einsparungen mit der jeweiligen Initiative auch erreicht wurden. Dies erfordert zum einen, dass im Zuge des Demand Management neben den kalkulierten Projektkosten auch der spätere Output mit quantifizierbaren Kennzahlen ausweisbar ist. Zum anderen bedarf es im Nachgang zum Projekt einer Gegenüberstellung eben dieser Indika- toren und der vorherigen Prognosen. So kann zum Beispiel ein Ziel sein, die Kundenabwanderung um einen defi- nierten Prozentsatz zu senken. Dies soll durch genauere Analysen bisheriger Kun- denabwanderungen und deren Beweggründe erfolgen. Dazu werden Kundenfeed- backs in bestehende Analysen aufgenommen sowie weitere externe Marktdaten und Indizes integriert, um ein umfassendes Bild anfertigen zu können. Neue tech- nologische Mittel im Analytics- und Predictive-Kontext ermöglichen belastbare Vorhersagen, welche Kundengruppen wann und unter welchen Umständen Ten- denzen zur Abwanderung entwickeln. So kann in der Folge in enger Zusammen- arbeit zwischen Controlling, Produktentwicklung und Marketing ein abgestimm- tes Konzept für entsprechende Gegenmaßnahmen entworfen werden. Ob und in welchem Maße die erhofften Verbesserungen erzielt wurden, sollte im Nachgang unter Berücksichtigung der Einflussfaktoren kritisch analysiert werden, um eine Closed Loop zu initiieren. Dabei spielen nicht nur Faktoren im Sinne der technischen Umsetzung eine Rolle. Erfahrungsgemäß sind zu gleichen Teilen auch die im Projektzugriff befindlichen Daten für den Projekterfolg und -misserfolg ausschlaggebend. Auch hier bedarf es eines besonderen Augenmerks, inwiefern die Qualität und Güte dieser Daten den Erwartungen entsprechen konnten oder ob Daten fehlerhaft waren, ausgewählte Informationen nicht zur Verfügung standen (um beispiels- weise ein vollständiges Bild in der Analytics zu generieren) und woher diese Werte im Bedarfsfall eingeholt und integriert werden können. Erst wenn Unternehmen die Chancen wertschätzen, die Daten heute bedeu- ten können, kann eine Data Governance den nötigen Stellenwert im Unterneh- men einnehmen. Incentivierung von Data Governance Ein Steuerungsinstrument zur Etablierung und Verbesserung von Data Governance kann beispielsweise auch eine gezielte Incentivierung sein. So wie heute oftmals klassische Unternehmenskennzahlen, wie Umsatz, Ebit, Kundenzufriedenheit oder Ausschussrate, als Benchmark für variable Vergütungen herangezogen wer- den, können zusätzlich oder alternativ auch Data-Management-KPIs incentiv- relevante Richtwerte sein. So schafft das Unternehmen auch einen monetären Anreiz, einen individuellen Beitrag zur Einhaltung und Steigerung der Datenqua-
  • 15. 173 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned lität zu leisten und die unternehmensweite Data Quality Culture zu fördern. Gleichzeitig wird durch diese Maßnahme auch das Thema Data Governance unternehmensintern nochmals gewürdigt und in einen exponierten Blickpunkt gehoben. 11.3.4 Technische Hilfsmittel installieren Die Installation eines zentralen Stammdatenmanagement-Systems kann ein wert- volles Hilfsmittel sein. Grundsätzlich kann eine solche Applikation nicht alle Pro- blemfelder alleine lösen. Aber in ein schlüssiges Data-Management-Gesamtkon- zept eingebettet, beseitigt es viele bekannte Herausforderungen und ebnet den Weg für ein nachhaltiges Data Management. Die sinnvolle Nutzung eines solchen Stammdatenmanagement-Systems setzt eine abgestimmte Data Governance voraus. Eine solche Plattform stellt Werk- zeuge und vorgefertigte Lösungen bereit, um beispielsweise Prozesse und Verant- wortlichkeiten abzubilden. Eben diese Prozesse und Verantwortlichkeiten müssen aber zuvor systemunabhängig definiert und vereinbart werden. Zentrale Data-Management-Lösungen unterstützen bei der Stammdatenhar- monisierung und -konsolidierung. Hier kann der sogenannte »Golden Record Master« angelegt, gepflegt und in weitere angeschlossene Systeme verteilt wer- den. Er fungiert in diesem Zusammenhang als sogenannte Clearing-Stelle. So wird sichergestellt, dass es einen einheitlichen Stand beispielsweise in Sachen Artikel- und Kundenstammdaten gibt und Subsysteme, wie ERP, CRM oder Data Warehouse, dieselbe Datenbasis nutzen. Zudem unterstützen marktgängige Stammdatenmanagement-Systeme auch das Lifecycle Management der verwendeten Stammdaten. Sie bieten eine geeig- nete Plattform und die passenden Werkzeuge, um die zuvor definierten Regeln und Standards in die Praxis umzusetzen. Weitere wichtige Instrumente im Zusammenhang mit dem Data Lifecycle werden heute oftmals in den betreffenden Subsystemen standardmäßig mit aus- geliefert. So verfügen beispielsweise Anwender eines aktuellen SAP Data Warehouse (SAP BW/4HANA) standardmäßig über smarte Lösungen zum Iden- tifizieren von sogenannten Hot, Warm und Cold Data. So kann mit einfachen Mitteln und geringem Aufwand teils automatisiert dem Data Tiering Folge geleis- tet werden. Aufbau eines Kennzahlenglossars Eine unterstützende, praktische Maßnahme unterhalb der Data Governance sind abgestimmte Kennzahlenbäume. Die Unternehmensführung gibt im Rahmen ihrer Unternehmensstrategie vor, anhand welcher Key-Performance-Indikatoren (KPI) sich das Unternehmen mes- sen lässt. Diese Steuerungsgrößen müssen zentral definiert und fixiert werden,
  • 16. Daniel Eiduzzis 174 damit alle Stakeholder von denselben Kennzahlen sprechen. Der Aufbau eines Glossars, in dem diese Werte eingetragen, gepflegt und von allen Beteiligten ein- sehbar sind, kann hierbei eine einfache wie zweckmäßige Hilfe sein. 11.3.5 Agile Projektmethodik als hilfreiches Startmoment Zahlreiche Unternehmen versuchen, sich durch agile Projektvorgehensweisen einen direkteren Einfluss auf den Projektverlauf, eine höhere Flexibilität sowie effekti- vere und schnellere Projektergebnisse zu sichern. Diese für viele Unternehmen noch recht neue Projektmethodik kann Optio- nen bieten, die ein oder andere Neuerung und Verbesserung im Data-Gover- nance-Kontext zu verproben. Der oben beschriebene organisatorische Eingriff, dauerhaft ein Data Gover- nance Office zu etablieren, kann unter Umständen mit einigen internen Hürden auch in Form von Skepsis und Vorbehalten verbunden sein. Agile Projektteams zeichnen sich sehr häufig dadurch aus, dass IT- und Fachbereichsvertreter für eine gemeinsame Projektinitiative eng zusammenarbeiten. Erfahrungsgemäß werden Entsandte aus den betroffenen Fachbereichen sogar über diesen Zeitraum für die- ses Engagement freigestellt. Somit repräsentieren solche Teams sehr gut das zukünftige Setting eines solchen dauerhaft aufgesetzten Data Governance Office für eben einen temporären Zeitraum. Es können über diese Vorgehensweise erste Erfahrungen im Zusammenspiel zwischen IT und Fachbereichen gesammelt werden. Gleichzeitig dient dieses Her- angehen auch später als ideale interne Referenz, um eine dauerhafte Installation eines entsprechenden Competence Center zu begründen. Schnelle Rückmeldung bei neuen Features Darüber hinaus offerieren agile Projekte eine ideale Struktur, um neue Lösungen, sowohl prozessual als auch hinsichtlich neuer Applikationen, zu testen. Die pro- totypisch orientierte Methodik bietet den Spielraum, neue Ansätze kurzfristig aufzusetzen bzw. einzuführen und in enger Abstimmung mit den beteiligten Anwendern schnell belastbare Rückmeldungen zu bekommen. So können zuvor definierte Regeln und Standards, die zukünftig unter Nut- zung eines neuen Stammdatenmanagement-Systems zu befolgen sind, auf ihre Praxistauglichkeit hin überprüft werden. Im Bedarfsfall findet prozessual eine Nachjustierung oder ein Feintuning in der genutzten Applikation statt. Dies gewährleistet einen reibungsloseren Übergang in den nachfolgenden Dauerbe- trieb und schafft so Akzeptanz bei allen Beteiligten.
  • 17. 175 11 Problemfelder in der Umsetzung von BI-Initiativen und Lessons Learned 11.4 Fazit und Ausblick Data Governance ist kein Projekt, keine Einzelmaßnahme – und kein reines IT- Thema. Die funktionsübergreifende Zusammenarbeit ist erfolgskritisch, um Silos aufzubrechen und Gemeinsamkeiten oder gar Konflikte im Gebrauch mit Daten aufzuzeigen. Messbare Kriterien für »Erfolg« sind in erster Linie die erhöhte Qualität der Dateninhalte sowie eine verbesserte Transparenz durch optimierte Prozesse – bei- spielsweise in der Synchronisation von Daten oder der Aggregation von Informa- tionen. Im Idealfall schafft die Kombination der beiden Punkte unternehmerische Potenziale, erleichtert die Entscheidungsfindung, verbessert Kundenzufriedenheit sowie operative Effizienz und reduziert Kosten und Risiken. Unternehmen können eine dauerhaft hohe Datenqualität nur durch ein syste- matisches, unternehmensweites Vorgehen erreichen. Die enge Zusammenarbeit zwischen den Fachabteilungen und der IT ist dazu eine notwendige Voraussetzung. Eine erfolgreiche Business Intelligence bedingt heute eine funktionierende Data Governance. Technologisch lassen sich mittlerweile viele neue Wege bestrei- ten, die Möglichkeiten bieten, die in der Vergangenheit nicht abbildbar waren. Um aber zum Beispiel im BI-Umfeld Multi-Cloud-Architekturen zu etablieren, hybride Data-Warehouse-Szenarien aufzusetzen oder sich Optionen der Virtuali- sierung im Zugriff auf Daten unterschiedlicher Formate und Strukturen zunutze zu machen, bedarf es einer dedizierten Data-Governance-Strategie. Unternehmen dürfen sich nicht scheuen, schwierige Entscheidungen zu tref- fen. Technologisch wie organisatorisch gilt es, neue Eckpfeiler zu setzen, um so die notwendigen Voraussetzungen für eine nachhaltige Data Governance und damit den zukünftigen Projekterfolg kommender BI-Initiativen zu schaffen.