Competence Book Nr. 3
BI Kompakt
Business Intelligence für das datenbasierte Unternehmen
Competence Book - Business Intelligence
PARTNER - SPONSOREN DES COMPETENCE BOOKS
2
Partner des Competence Books BI
Competence Book - Business Intelligence
EDITORIAL
3
Quo Vadis Business Intelligence? Das war die Frage, die das Team der Com-
petence Site uns für das Competence Book BI KOMPAKT gestellt hat.
Consumerization, Agility, Big Data - neue Anforderungen und „disruptive“
Techniken stellen auf jeden Fall bisherige Business Intelligence-Strategien in
Frage. Sie versprechen im Gegenzug neue Einsichten in den Datenkosmos,
eine breitere Nutzung von Business Intelligence sowie neue Absatzchancen
für Anwenderunternehmen, denkt man nur an jenes Potenzial, das in der Ana-
lyse von Kundendaten in sozialen Netzwerken oder von Sensordaten steckt.
Das wirkt sich auch auf den Markt aus. Anbieter von Software und Ser-
vices für Business Intelligence profitieren vom großen Interesse und Inves-
titionsbedarf bei ihren Kunden. Entsprechend positiv entwickelt sich laut
der aktuellen BARC-Marktstudie der BI-Gesamtmarkt in Deutschland, den
mittlerweile über 250 Hersteller mit geschätzten 600 Produkten bedienen:
In den beiden Produktsegmenten „BI-Anwenderwerkzeuge“ und „Daten-
management-Software“ erhöhten sich in 2012 die Umsätze mit Lizenzen
und Wartung gegenüber dem Vorjahr um 13 Prozent auf 1,2 Milliarden
Euro. Und auch für die kommenden Jahre erwartet BARC ein durchschnitt-
lich zweistelliges Marktwachstum mit Übernahmen, aber auch neuen in-
novativen Anbietern und Produkten, die sich den großen fachlichen und
technischen Herausforderungen der kommenden Zeit stellen wollen.
Perspektivisch kann festgestellt werden: Daten haben sich zu einem ent-
scheidenden Wirtschaftsgut gewandelt, dessen Verfügbarkeit den künftigen
Unternehmenserfolg ganz wesentlich beeinflusst. Daten werden strate-
gisch! Voraussetzung ist aber eine austarierte BI-Strategie zwischen Be-
stehendem und Neuem, die eine flexible Nutzung von BI(-Prozessen) und
Daten erst ermöglicht und zugleich durch eine Data Governance absichert.
Hilfe verspricht der BARC BI Congress, der ganz im Zeichen dieser Ent-
wicklung steht und Unternehmen Orientierung, Best Practices und einen
direkten Draht zu Kollegen und Marktexperten bietet. An zwei Tagen er-
warten die Besucher Fachvorträge und exklusive Marktanalysen zu allen
wichtigen Trends in der Business Intelligence und im Datenmanagement,
ausführliche Produktvergleiche, spannende Anwendervorträge sowie der
„Best Practices Award“ für die innovativsten Unternehmen des Jahres.
Herausfordernde Zeiten also für IT, Fachbereiche und Management,
jetzt nicht den Anschluss im „data driven business“ zu verpas-
sen, gleichzeitig aber auch Zeiten des Aufbruchs. Wie sagte schon Ste-
ve Jobs: „Innovation unterscheidet den Vorreiter von den Verfolgern.“
Daher: Bleiben Sie innovativ!
Ihr Dr. Carsten Bange, CEO der BARC GmbH
Quo Vadis Business Intelligence?
Consumerization, Agility, Big Data
Zum Autor Dr. Carsten Bange:
Nach dem Erwerb der Allgemeinen Hochschul-
reife absolvierte Carsten Bange zunächst eine
Ausbildung zum Groß- und Außenhandelskauf-
mann in Münster.
Zwischen 1994 und 1998 studierte Herr Ban-
ge Betriebswirtschaftslehre an der Bayerischen
Julius-Maximilians-Universität Würzburg und
arbeitete zwischen 1999 und 2001 als For-
schungsassistent am Lehrstuhl für BWL und
Wirtschaftsinformatik der Universität Würzburg
von Prof. Dr. Thome.
Neben der Entwicklung des BARC zum führen-
den Beratungs- und Analystenhaus für neutrale
Softwarebeurteilung und -auswahl ist Dr. Ban-
ge Dozent im MBA-Studiengang „Business In-
tegration“ der Universität Würzburg.
Competence Book - Business Intelligence
Einleitung Grundlagen Anwendungen &
Lösungsbausteine
2	 Unser Kompetenz-Netzwerk
	 Partner des
	 Competence Books
3	 Editorial Dr. Carsten Bange
	 Quo Vadis BI?
	 Consumerization, Agility,
	 Big Data
6	 Grußwort Oracle
	 Daten effektiv nutzen
7	 Grußwort IDL
	 Gewissheit und Kontrolle 		
	 über „flüssige Mittel“
8	 Grußwort Microsoft
	 Schnellere Aha-Effekte aus 	
	 Big Data. Small Data.
	 All Data.
10	 Zahlen kompakt
	 Infografik BI
14	 Meinungen kompakt
	 Statements zu BI
20	 Delphi-Roundtable BI I
	 Business Intelligence 2020
26	 Delphi-RoundtableBI II		 	
	 Analytik und Perfomance 	
	 Management in einem intel-	
	 ligenten Unternehmen
38	 Self-Service I
	 Mit Self-Service erfolgreich 	
	 im Bereich Business
	Intelligence
40	 Self Service II
	 Self-Service BI im
	 Unternehmen managen
44	 Agile Business Intelligence I	
	 Agile BI erfolgreich umsetzen
48	 Agile Business Intelligence II	
	 Modelle als Basis für eine 	
	 agile BI
50	 Datenbasis
	 Datenbankmodelle und 		
	 -Design am Beispiel von
	 Innovator Architects
52	 Big Data
	 Big Data: Chancen und
	 Herausforderungen für die 	
	Unternehmenssteuerung		
55	 BI-Software
	 Softwareauswahl für
	Business-Intelligence-
	Werkzeuge
60	 Neue Technologien I
	 Cloud, SaaS, Mobile BI -
	 muss das alles sein?
62	 Neue Technologien II
	 Mobile Business Intelligence:
	 Mit Echtzeitdaten die
	 Weichen stellen
64	 Neue Technologien III
	 Im Fokus mobile Lösungen, 	
	 automatisierte Dienst-
	 leistungen und BI-Lösungen
66	 Reporting und Kennzahlen I
	 Reporting Design - Status quo 	
	 und neue Wege in der 		
	 Gestaltung des internen und 	
	 externen Berichtswesens
70	 Reporting und Kennzahlen II
	 Optimiertes Berichtswesen 	
	 mit SAP Business Planning & 	
	Consolidation
74	 Planung und Budgetierung I
	 Modern Budgeting:
	 Die Zukunft im Visier!
76	 Predicitive Analytics
	 Big Data Warehousing:
	 Anmerkungen zur Zukunft von 	
	 BI im Zeitalter von Big Data 	
	 und Predictive Analytics
79	 Performance Management
	 Balanced Scorecard mit 		
	 BI verbinden	
INHALT
4
Competence Book - Business Intelligence
Case Studies &
Produktinformationen
Branchenübersicht
86	 Immobilienhandel (Oracle)
	 Immonet optimiert Analytik
	 und Entscheidungsfindung 	
	 mit Engineered Systems
88	 Informationstechnologie (Microsoft)
	 Ein direkter Draht zum
	 Kunden dank Microsoft BI
90	 Metallwarenfertigung (IDL)
	 Wanzl harmonisiert 30
	Konzerngesellschaften
92	 Finanzbranche (pmOne)
	 Tagetik geleitet Erste Group 	
	 optimal durch IFRS und 		
	FinRep-Vorgaben
96	 eCommerce (EXASOL)
	 Zalando optimiert sein Data 	
	 Warehouse und BI-Funktionen
99	 Dienstleistungen (Microsoft)
	 Die Lizenz zum Kosten sparen
101	 Diverse Branchen
	 Weitere Case Studies und 	
	 Produktinformationen unse-	
	 rer Partner
104	 Literaturverzeichnis
107	 Unternehmensverzeichnis
113	 Expertenverzeichnis
124	 Veranstaltungsverzeichnis
		
127	 Glossar
Impressum
Verantwortlich für das Competence Book i.S. des
TDG:
	
Geschäftsadresse:
NetSkill AG
Salierring 43
50677 Köln
Tel.: 0221 / 716 144 0
E-Mail: info@netskill.de
Vorstand:
Dr. Winfried Felser	
Aufsichtsratsvorsitzender:
Michael Felser
Amtsgericht Köln
HRB 58503
Umsatzsteuer-Identifikationsnummer:
DE209010121 	
Projektleitung:
Filipe Felix, Dominic Leuchter
Quellenangabe Bilder Inhaltsverzeichnis:
istock: Ambientideas, ColdImages, Elenathewise
© Copyright 2014 NetSkill AG - alle Rechte
vorbehalten.
INHALT
5
Competence Book - Business Intelligence
GRUSSWORTE
6
U
nternehmen, die zur Steuerung ihrer Geschäfte über-
durchschnittlichstarkaufAnalysewerkzeugesetzten,sind
überdurchschnittlich erfolgreicher - diese Erkenntnis
von Tom Davenport in seinem Buch „Competing on Analytics“
aus dem Jahr 2007 ist heute wahrer denn je. Gemäß einer Gartner
Studie von 2012 hat Business Analytics bei den 2.300 befragten
CIOs weiterhin oberste Priorität.
Warum ist das so? Wir gehen heute davon aus, dass ca. 90% der
Daten weltweit in den letzten 2 Jahren entstanden sind, d.h.
das Datenvolumen wird sich bis 2020 verfünfzigfachen. Dabei
kommen fortwährend neue Informationen hinzu. Denken Sie nur
an Social Media Daten, das Nutzerverhalten auf Webseiten oder
auch ortsbezogene Dienste um Käuferverhalten zu analysieren
und zu optimieren. Aber auch rein technische Informationen wie
Sensordaten steigern die Wirtschaftlichkeit von Unternehmen,
indem Wartungszyklen von Maschinen verkürzt werden und
Ausfälle über intelligente Mustererkennungen vorhergesagt
werden können.
Die zunehmende Nutzung von mobilen Endgeräten auf
AnwenderseitesorgtfüreinvölligneuartigesNutzerverhaltenund
damit veränderte Ansprüche an analytische Systeme. Der
Anwender erwartet intelligente Inhalte ohne Wartezeit, die an
jedem Ort zu jeder Zeit zur Verfügung stehen.
Daten effektiv nutzen
Zur Autorin Christiane Toffolo-Haupt:
Christiane Toffolo-Haupt leitet als Senior Director Sales bei Oracle den Vertrieb für Bu-
siness Analytics Lösungen in Nord Europa.
Ihre Karriere bei Oracle begann sie im Jahre 2000 und hat seither mehrere Positionen
im nationalen und internationalen Vertriebsmanagement bekleidet. Nach den ersten 4
Jahren im Global Account Mangement, leitete Sie ab 2005 den Vertrieb für regionale
Großkunden in Süddeutschland und wechselte in 2009 in die Verantwortung des
Vertriebsdirektors Nordeuropa für Consulting Sales.
Im Jahre 2010 übernahm sie die Verantwortung für das Business Analytics Portfolio
zunächst für Deutschland und die Schweiz und seit Mitte 2012 für Nordeuropa.
Stand heute sind 60% der Unternehmen allerdings der
Auffassung, dass sie bereits jetzt schon über mehr Daten verfü-
gen als sie effektiv nutzen können – dies ist das Ergebnis einer
Umfrage, die Oracle 2012 unter mehr als 300 Entscheidungs-
trägern in USAund Kanadadurchführte.Vondiesenwarenwiede-
rum 93% der Auffassung, dass sie durch unzureichende Ausnut-
zung des Potenzials von analytischen Systemen Umsatz verlören.
Unternehmen, die sich im internationalen Wettbewerb behaup-
ten wollen, müssen Strategien entwickeln, um das Innovati-
onspotenzial von Technologietrends wie Big Data, In Memory,
Mobile und Social Media zu erschließen, wobei heute im Durch-
schnitt nur ca. 15% des IT Budgets für Innovationen allokiert
werden kann. 85% derverfügbaren Gelderwerden fürden Betrieb
und Weiterentwicklung bestehender Lösungen ausgegeben.
Oracle Business Analytics unterstützt Unternehmen dabei ihre
Prozesse zu optimieren, zu vereinfachen und damit techno-
logischen und finanziellen Spielraum für Innovationen zu schaf-
fen. Ich wünsche ich Ihnen spannende Lektüre mit diesem
Business Analytics e-book der Competence Site!
Herzliche Grüsse,
Ihre Christiane Toffolo-Haupt, Sr. Sales Director der Oracle
Deutschland B.V. & Co. KG
Competence Book - Business Intelligence
GRUSSWORTE
7
N
ur mit Bauchgefühl ein Unternehmen managen? Längst
reichen Instinkt und Erfahrung nicht mehr aus, um Fir-
men erfolgreich durch die sich immer schneller verän-
dernden Zeiten zu führen.
Zuverlässige Informationen sind im komplexen und volatilen
Umfeld mehr denn je die Grundvoraussetzung für sichere Ent-
scheidungen. Im Fokus stehen dabei schon immer verlässliche
Finanzkennzahlen. Aber woher kommen die Zahlen, sind sie
valide, sind Währungsschwankungen berücksichtigt, sind alle
Gesellschaften erfasst, wie wirken sich Absatzeinbrüche in
bestimmten Regionen aus, welchen Einfluss haben wechselnde
Rohstoff-Einkaufspreise auf die Gesamtbilanz? Was bedeutet ein
verändertes Zahlungsverhalten meiner Kunden und wie erfahre
ich davon?
Um hier jederzeit den ersehnten Überblick zu haben, ist ein
durchweg integriertes und reibungslos funktionierendes
Gewissheit und Kontrolle
über „flüssige Mittel“
Berichtswesen nötig. Dazu müssen alle Beteiligten zusammen-
arbeiten und Menschen, Systeme und Organisation unter einen
Hut bringen.
Dass Unternehmen mit zunehmender Marktdynamik sowohl
system- als auch organisationsseitig neue Wege und Lösungen
finden müssen, steht außer Frage. Eines ist dabei durchweg klar:
Der Blick über den Abteilungs-Tellerrand und die unterneh-
mensweite Kooperation sind unabdingbare Voraussetzungen,
um die Performance des gesamten Unternehmens transparent
und valide darzustellen und daraus jederzeit passende Strategien
abzuleiten.
Ich wünsche Ihnen eine interessante Lektüre – lassen Sie sich in-
spirieren!
Ihr Harald Frühwacht, Geschäftsführender Gesellschafter der
IDL GmbH Mitte
Zum Autor Harald Frühwacht:
Harald Frühwacht ist seit 2006 geschäftsführender Gesellschafter der IDL GmbH
Mitte. Bereits 1991 startete er hier seine Karriere als betriebswirtschaftlicher
Berater, er realisierte verschiedenste Konsolidierungsprojekte und leitete die
fachliche Ent- und Weiterentwicklung der Konsolidierungssoftware IDLKONSIS.
Der Diplom-Kaufmann veröffentlichte seither verschiedenste Schriften zum The-
ma Rechnungswesen und hatte mehrere Jahre einen Lehrauftrag an der Europe-
an Business School im Bereich Konzernrechnungswesen inne.
Ein weiterer Schwerpunkt seiner Tätigkeit liegt heute auf finanzwirtschaftlichen
Lösungen für den kommunalen Bereich.
Competence Book - Business Intelligence
GRUSSWORTE
8
D
ie oberste Priorität von Business Analytics besteht darin,
Zusammenhänge anhand von Daten einfacher zu verste-
hen. Vertraute Tools senken dabei die Akzeptanzhürden
für Führungskräfte, um Daten selbst zu analysieren. Sie unter-
stützen außerdem die Entscheidungsfindung im Team, indem
Daten zum Zeitpunkt und im Kontext der Entscheidungspro-
zesse bereitgestellt werden – egal auf welchem Endgerät. Nicht
umsonst sind Business Analytics-Software und BI-Tools heute
unverzichtbar, um schnell fundierte Geschäftsentscheidungen
zu treffen und den Unternehmenserfolg langfristig zu sichern.
Eine große Herausforderung stellen für Unternehmen die bisher
noch nie da gewesenen Datenmengen dar. Glaubt man den Augu-
ren, ist die Nutzung intelligenter Datenströme derentscheidende
Wettbewerbsvorteil der Zukunft.
Glaubt man den Herstellern, ist Big Data der nächste Boom nach
dem Internet. Glaubt man den Beratern, gibt es eine Unzahl von
Fallstricken, angefangen von ethischen und rechtlichen Themen
über Verantwortlichkeiten und Prozessen im Unternehmen bis
hin zu neuen Anforderungen an die Agilität und Belastbarkeit
der IT.
Big Data ist dabei kein Hypethema. Vielmehr ist der Bedarf, ob-
jektiv betrachtet, längst da. Denn immer mehr Prozesse werden
digital gesteuert. Eine Vielzahl von Applikationen erzeugen Da-
ten, die es nicht nur abzuspeichern, sondern auch auszuwerten
Schnellere Aha-Effekte aus
BigData.SmallData.AllData.
Zum Autor Daniel Weinmann:
Daniel Weinmann ist als Produktmarketing Manager für Data
Insights bei der Microsoft Deutschland GmbH beschäftigt.
Seine Themengebiete umfassen u.a. Business Intelligence,
Big Data sowie Mission Critical Applications auf Basis des
neuen SQL Servers 2014: Echtzeitanalyse und – transak-
tionen dank In-Memory Technologie, Power BI, HDInsight
(Hadoop für Windows Azure) und Always On.
gilt. Zugleich kommen Daten aus neuen Quellen hinzu, die bis-
her gar nicht in Erwägung gezogen wurden – wie beispielsweise
aus Social-Media-Kanälen. Denn wie gut Organisationen oder
Unternehmen ihre Kunden verstehen – und wie früh sie deren
Wünsche erkennen – wird immer mehr zum entscheidenden
Wettbewerbsvorteil.
Es stellen sich nun einige wichtige Fragen: Darf man den Trend
aussitzen? Und wenn nein, wo soll man anfangen?
Je nachdem, wo Sie derzeit im Bezug auf Big Data oder Business
Intelligence stehen, kann Sie Microsoft dabei unterstützen, prag-
matische Ansätze und Handlungsmöglichkeiten zu finden, um
IT und Prozesse auf neue Herausforderungen vorzubereiten. Im
einfachsten Falle geht es um einen noch einfacheren und schnel-
leren Einblick in vorhandene Daten, in der Ausbaustufe um die
Verlinkung von sozialen Netzen und anderen öffentlichen Daten,
und in der Königsklasse um die Echtzeitanalyse, mit kompro-
misslosen Anforderungen an Antwortzeiten und Flexibilität der
Systeme sowie Masse der Daten.
Ich wünsche Ihnen eine interessante Lektüre und viel Spaß beim
Lesen.
Beste Grüße
Daniel Weinmann, Product Marketing Manager der Microsoft
Deutschland GmbH
Competence Book - Business Intelligence
INFOGRAFIK
Top 5 Probleme
3
Top 5 Ziele
1
77%
76%
73%
71%
66%
Im Geschäft bleiben
Vertrauen in Zahlen sicherstellen
Wirtschaflicher Ressourceneinsatz
Erfolge nachvollziehen
Im Geschäft flexibel bleiben
Komplexität
Anforderungsdefinitionen
Personalressourcen
Beachtung Management / GL
Datenqualität
Top 5 Anwendungsbereiche
1
88%
Controlling
62%
Marketing / Vertrieb
42%
IT
26%
Logistik
26%
Einkauf
Top 5 Einsatzarten
2
Analyse von Daten
Berichterstellung und -verteilung
Planung und Budgetierung
Forecast und rollierende Planung
Management Dashboard
28,6%
24,9%
19,7%
18,4%
16,5%
Tools
2
82,6%
Dedizierte
BI-Software
8,7%
Operative Sys-
teme (ERP, CRM,
SCM etc.)
8,7%
Ausschließlich
Werkzeuge
zur
Tabellen-
kalkulation
97%
84%
58%
49%
47%
10
Infografik Business Intelligence
Competence Book - Business Intelligence
INFOGRAFIK
Marktentwicklung für BI Software in Deutschland
4
2006 2007 2008 2009 2010 2011
630
724
783
861
941
1046
in Millionen Euro
BI Trends
2
Unstrukturierte
Daten und BI
100%
55%
30%
19%
100%
81%
56%
18%
Mobile BI
100%
73%
48%
17%
Predictive
Analytics
100%
60%
29%
16%
Internet
und BI
100%
54%
39%
15%
Geodaten
und BI
100%
39%
15%
Cloud und
BI
im Einsatz nicht im Einsatz
aber binnen 12
Monaten geplant
nicht im Einsatz
aber langfristig
geplant
nicht im Einsatz
und nicht geplant
geplant
11
Competence Book - Business Intelligence
INFOGRAFIK
Google Trends: Mobile, Cloud, Big Data,
Predictive Analytics und Self Service BI
7
0
20
40
60
80
100
Self Service BI
Cloud BI
Predictive Analytics
Big Data
Mobile BI
Jan 14
Jan 13
Jan 12
Jan 11
Jan 10
Top 5 Vorteile
Predictive Analytics7
Top 5 Herausforderungen
Big Data7
Wettbewerbsvorteile
Neue Umsatzmöglichkeiten
Höhere Rentabilität
Mehr Kundenservice
Operative Effizienz
Personal
Schulungen
Datenverarbeitung in
Echtzeit
Lizenzkosten
Integration
68%
55%
52%
45%
44%
79%
77%
67%
64%
64%
12
Competence Book - Business Intelligence
INFOGRAFIK
Big Data Trendprognose für die Jahre 2012 bis 2017
5
(in Petabyte pro Monat)
Top 5 Aufgaben im
Daten-Management
5
Top 5 Nutzen von
Big Data
5
46%
43%
39%
34%
29%
Schutz der Informationen
Speicherung der Datenmengen
Kosten
Wachsende Komplexität der
Datenanalyse
Beschaffung aktueller Daten
35%
30%
28%
26%
24%
Controlling
Finanzplanung
Optimierung der IT-Infrastruktur
Vertriebsanalyse und -steuerung
Optimierung des
Kundenverhaltens
20000
40000
60000
80000
100000
Big Data
2017
2016
2015
2014
2013
2012
13
Quellen:
(1) „Business Intelligence und Advanced Analytics/ Data Mining“ - Institut für Business Intelligence der Steinbeis Hochschule Berlin
(2) „Business Intelligence im Mittelstand 2011/2012 “ - Unabhängige Anwenderbefragung des BARC-Institutes
(3) „Business-Intelligence-Studie 2010 “ - Studie der conunit GmbH in Kooperation mit der IBM Deutschland GmbH und der TU Chemnitz
(4) „Software für Business Intelligence“ - Artikel auf www.cfoworld.de
(5) http://bvmm.org/assets/components/gallery/connector.php?action=web/phpthumb&w=1024&zc=1&far=C&q=90&src=/assets/gallery/6/67.png
(6) Google Trends (2/2014)
(7) Ventana Research http://tonycosentino.ventanaresearch.com/tag/birt-analytics/
Competence Book - Business Intelligence
Potenziale
BI
Meines Erachtens sind bei weitem noch nicht alle Potenziale ausge-
schöpft, die der BI-Markt an Innovationen bietet. Ich denke da etwa
an maßgeschneiderte Lösungen für KMU und Kleinstunternehmer.
Auch benötigen wir in Zukunft mehr branchenspezifische Angebote
wie etwa Geo- Intelligence-Systeme für Logistikunternehmen oder
Analyse-Tools für Social Media.
Bis 2020 ist das In-
novationspotenzial
noch lange nicht er-
schöpft.
In der Anwendungspraxis muss sachlich festgestellt werden, dass
die Applikationswelt mit den geweckten Erwartungen (noch) nicht
mithalten kann. Weder Big Data noch In-Memory-Computing oder
Mobile BI und Social Intelligence sind bereits in der Breite etabliert.
Das gilt im Besonderen für den Mittelstand.
Daten haben sich zu einem entscheidenden Wirt-
schaftsgut gewandelt, dessen Verfügbarkeit den
künftigen Unternehmenserfolg ganz wesentlich be-
einflusst. Daten werden strategisch!
Anbieter von Software und Services für Business Intelli-
gence profitieren von diesem großen Interesse und Investi-
tionsbedarf bei ihren Kunden.
Statements zu BI
Was sagen die führenden Köpfe zur Zukunft?
Bedeutung
BI
STATEMENTS
BI-Lösungen werden schon in der nahen Zukunft für jeden kaufmännischen Angestellten und
Manager zum täglichen Handwerkszeug gehören.
14
Competence Book - Business Intelligence
Zukunft
BI
Consumerization, Agility, Big Data - neue
Anforderungen und „disruptive“ Techniken
stellen auf jeden Fall bisherige Business In-
telligence-Strategien in Frage.
Sie versprechen im Gegenzug neue Einsich-
ten in den Datenkosmos, eine breitere Nut-
zung von Business Intelligence sowie neue
Absatzchancen.
Wir stehen gerade am
Anfang, denn die ver-
meitlich klassischen
Themen wie  Big Data,
In-Memory-Compu-
ting, Mobile BI und
Social Intelligence sind
unweigerlich mit Busi-
ness Intelligence ver-
knüpft und damit mit
Business Analytics:
Denn aus all diesen
Quellen sprudeln Da-
ten hervor.
Heute gibt es zwei unterschiedliche Zweige von Business Intel-
ligence, die man zusammen als Nachfolger von Business Intelli-
gence verstehen kann: Analytik und Performance Management.
Das Ganze geht oft einher mit
der Problematik fehlenden
Branchen-Know-hows auf der
Anbieterseite.
Herausforderungen
BI
Das größte sich stellende Pro-
blem ist, dass die wenigsten
BI-Anbieter dazu bereit sind,
sich in die individuellen Prob-
lemstellungen ihrer Kunden hin-
einzuversetzen;
Tiefgreifende Änderun-
gen des Nutzungsver-
haltens wie etwa die
Verwendung eigener
Endgeräte („Bring Your
Own Device“) erfordern
ein Umdenken: Eine
weitere Herausforde-
rung besteht in der Kon-
solidierung der Daten
– auch in international
agierenden Unterneh-
men. Zudem ist darauf
zu achten, dass Fachan-
wender und IT frühzeitig
in BI-Projekte eingebun-
den sind.
Gut ausgebildete Mitarbeiter – darin liegt die wichtigste
Chance und Hürde zugleich. Denn wir brauchen Leute, die
das in den Daten liegende Potenzial abfragen und herausle-
sen können.
STATEMENTS
15
Competence Book - Business Intelligence
Self Service
BI
Predictive Analytics ist vom
Prinzip her nichts Neues.
Das neue daran ist die Tatsa-
che, dass dies weitestgehend
automatisiert durch Algorith-
men und mit Hilfe riesiger Da-
tenmengen unterschiedlicher
Formate und Quellen gesche-
hen soll.
Und so gibt es eine Vielzahl
von Anwendungsfällen für
Predictive Analytics, üb-
rigens alles Beispiele, bei
denen sich ein ROI berech-
nen lässt
Predictive Analytics wird
künftig ein wesentlicher
Bestandteil von Busi-
ness-Analytics-Lösungen,
aber die Zukunft vorherzu-
sagen bleibt nach wie vor
ein Traum.
Predictive
Analytics
Die Anforderung, schnell und unkompliziert auf aktuell benötigte Informationen zurückgreifen zu
können, ist in der sich immer weiter beschleunigenden Geschäftswelt essentiell.
Die Beweglichkeit im BI-Umfeld wird
jedoch oftmals durch das Unvermögen
traditioneller BI-Werkzeuge getrübt.
...der Fachbereiche darf jedoch nicht
in eine allumfassende BI Anarchie
münden: Auch hier muss es eine wirk-
same BI Governance geben.
Die Anforderung,
schnell und un-
kompliziert auf
aktuell benötig-
te Informationen
zurückgreifen
zu können, ist
in der sich im-
mer weiter be-
schleunigenden
Geschäftswelt
essentiell.
STATEMENTS
STATEMENTS
16
Competence Book - Business Intelligence
Daten-
visualisierung
In der heutigen von Sprache-Bild-Verknüpfungen geprägten Gesellschaft, dem so genannten
„Optischen Zeitalter“ wo Bilder nahezu alle Lebens- und Wissensbereiche bestimmen, betrachte
ich Datenvisualisierung als ausschlaggebend um die wachsenden Zahlenberge leichter zugäng-
lich zu machen.
Bestärkt wird die hohe Relevanz der Datenvisuali-
sierung vor allem durch die aus der Gestaltpsycho-
logie stammende Erkenntnis der Bildüberlegen-
heitswirkung
Manche Entwicklungen im Markt für Oberflächen
wie z.B. 3-D oder Gamification haben bei BI, wenn
die Daten für Geschäftsentscheidungen genutzt
werden sollen, meines Erachtens keinen Platz.
Stephen Few oder Dr. Rolf Hichert
kritisieren bereits seit einigen Jah-
ren die Auswüchse der Datenvisua-
lisierung und machen Vorschläge für
ein Information Design oder geben
ein Regelwerk vor.
Für die schnelle Aufnahme ist die grafische Visuali-
sierung mit Darstellung, aber wenn es darum geht,
Daten auf ihre Herkunft auf ihre Validität hin zu
überprüfen, ist der Blick in nichts zu ersetzen.
BIG DATA
vs. Datenschutz
Beruflich gesehen als langjähriger „BI Mann“ lautet meine Antwort: Mehr Daten eröffnen mehr
Chancen für Nutzen.
Hier treffen zwei Interes-
senswelten aufeinander: Die
der Kunden, die ihre Privat-
sphäre bestmöglich gewahrt
wissen wollen und die der
Unternehmen, die möglichst
viel über (potenzielle) Kun-
den und deren Gewohnhei-
ten / Vorlieben in Erfahrung
bringen möchten.
Als Privatmensch beob-
achte ich die Debatte -
wie vermutlich die meis-
ten von uns - mit einem
etwas mulmigen Gefühl.
Die Grenze beim Sammeln und Auswerten von Daten ist
immer da zu ziehen, wo dies nicht mehr mit ethischen,
moralischen und rechtlichen Grundsätzen vereinbar ist.
STATEMENTS
STATEMENTS
17
GRUNDLAGEN
Competence Book - Business Intelligence
Einleitung Grundlagen Anwendungen &
Lösungsbausteine
2	 Unser Kompetenz-Netzwerk
	 Partner des
	 Competence Books
3	 Editorial Dr. Carsten Bange
	 Quo Vadis BI?
	 Consumerization, Agility,
	 Big Data
6	 Grußwort Oracle
	 Daten effektiv nutzen
7	 Grußwort IDL
	 Gewissheit und Kontrolle 		
	 über „flüssige Mittel“
8	 Grußwort Microsoft
	 Schnellere Aha-Effekte aus 	
	 Big Data. Small Data.
	 All Data.
10	 Zahlen kompakt
	 Infografik BI
14	 Meinungen kompakt
	 Statements zu BI
20	 Delphi-Roundtable BI I
	 Business Intelligence 2020
26	 Delphi-RoundtableBI II		 	
	 Analytik und Perfomance 	
	 Management in einem intel-	
	 ligenten Unternehmen
38	 Self-Service I
	 Mit Self-Service erfolgreich 	
	 im Bereich Business
	Intelligence
40	 Self Service II
	 Self-Service BI im
	 Unternehmen managen
44	 Agile Business Intelligence I	
	 Agile BI erfolgreich umsetzen
48	 Agile Business Intelligence II	
	 Modelle als Basis für eine 	
	 agile BI
50	 Datenbasis
	 Datenbankmodelle und 		
	 -Design am Beispiel von
	 Innovator Architects
52	 Big Data
	 Big Data: Chancen und
	 Herausforderungen für die 	
	Unternehmenssteuerung		
55	 BI-Software
	 Softwareauswahl für
	Business-Intelligence-
	Werkzeuge
60	 Neue Technologien I
	 Cloud, SaaS, Mobile BI -
	 muss das alles sein?
62	 Neue Technologien II
	 Mobile Business Intelligence:
	 Mit Echtzeitdaten die
	 Weichen stellen
64	 Neue Technologien III
	 Im Fokus mobile Lösungen, 	
	 automatisierte Dienst-
	 leistungen und BI-Lösungen
66	 Reporting und Kennzahlen I
	 Reporting Design - Status quo 	
	 und neue Wege in der 		
	 Gestaltung des internen und 	
	 externen Berichtswesens
70	 Reporting und Kennzahlen II
	 Optimiertes Berichtswesen 	
	 mit SAP Business Planning & 	
	Consolidation
74	 Planung und Budgetierung I
	 Modern Budgeting:
	 Die Zukunft im Visier!
76	 Predicitive Analytics
	 Big Data Warehousing:
	 Anmerkungen zur Zukunft von 	
	 BI im Zeitalter von Big Data 	
	 und Predictive Analytics
79	 Performance Management
	 Balanced Scorecard mit 		
	 BI verbinden	
INHALT
19
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
20
Delphi-Roundtable BI 2020
Das Ende des Innovationspotenzials oder
der Start in ein neues BI-Zeitalter?
S
chon seit Jahrzehnten setzen Unternehmen erfolgreich Bu-
siness Intelligence-Lösungen ein. Auch wichtigen Trends
wie Big Data und In-Memory-Computing, Mobile BI oder
Social Intelligence wird dabei bereits häufig Rechnung getragen.
Ist damit das Innovations- und Marktpotenzial ausgeschöpft?
Was ist heute State-Of-the-Art? Wie sieht es beim Mittelstand
aus? Wo tun sich noch spannende Zukunftsperspektiven bis
2020 auf? Wo liegen mögliche Stolpersteine bei BI-Projekten?
Das Orakel von Delphi können wir dazu nicht befragen, aber füh-
rende Köpfe der Branche. Zum Start unserer Initiative „Business
Intelligence 2020“ laden wir daher Sie als Branchen-Experten ein,
am virtuellen Delphi-Roundtable teilzunehmen. Ihre Antworten
bilden die Basis für alle weiteren Maßnahmen wie z.B. zukünf-
tige Themen-Specials oder weitere Roundtables zur Vertiefung.
Status quo und Potenziale im Business
Intelligence-Markt?
Liest man Beiträge zu Business Intelligence, entsteht oft der
Eindruck, dass das Thema und auch die neuesten Innovati-
onen wie Big Data und In-Memory-Computing, Mobile BI
und Social Intelligence bereits in der Breite etabliert sind.
Was ist heute schon wirklich State-of-the-Art - auch im
Mittelstand? Haben wir das Innovations- und Marktpoten-
zial also weitgehend ausgeschöpft oder gibt es doch noch
weiße Flecken (Märkte, Innovationen, ...), die man bis 2020
erschließen kann?
Dr. Thomas Keil
Bis 2020 ist das Innovationspotenzial noch lange nicht erschöpft.
Wir stehen gerade am Anfang, denn die vermeidlich klassischen
Themen wie Big Data, In-Memory-Computing, Mobile BI und
Social Intelligence sind unweigerlich mit Business Intelligence
verknüpft und damit mit Business Analytics: Denn aus all diesen
Quellen sprudeln Daten hervor, die in echtes Wissen transfo-
miert werden wollen, eben mittels High Performance Analytics.
Denn mit In-Memory lassen sich nun Anwendungen bauen, die
aufgrund ihrer Performance endlich auch die Akzeptanz der
Anwender finden werden. Mit Big Data wächst der Bedarf an
schnellen Einsichten in große Datenmengen und damit eines der
Treiber für einen „geregelten Datenhaushalt“ in Organisationen
jeder Größe. Und mit der Verbreitung von geschäftsrelevanten
Informationen auch über mobile Endgeräte wächst die Zahl der
Anwender.
Sie sehen, eine munteres Feld für weitere Innovationen auch
in Richtung Veränderung von Geschäftsmodellen. Und damit
bin ich beim Mittelstand, denn ich möchte sagen, dass jede
High-End-Innovationen bei Großunternehmen dem Mittelstand
den Spiegel vorhält, in dem er sehen kann, was auch für ihn wirk-
lich „drin“ ist, wenn man sich nur konsequent mit Business In-
telligence und dann im nächsten Schritt auch um Business Ana-
lytics kümmert. Zu fairen Preisen – wohl gemerkt!
Dr. Wolfgang Martin
Die neuen Themen wie Big Data, In-Memory-Computing und
Social Intelligence sind aktuell keineswegs etabliert, schon gar
nicht im Mittelstand. Es gibt heute eine große Lücke zwischen
Auszug aus dem Delphi-Roundtable u.a. mit Dr. Thomas Keil (SAS Institute GmbH),
Wolfgang Seybold (Cubeware Group), Dr. Sebastian Klenk (EXASOL AG) und
Dr. Wolfgang Martin (Wolfgang Martin Team)
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Weder Big Data noch In-Memory-Computing oder Mobile BI und
Social Intelligence sind bereits in der Breite etabliert.“ - Wolfgang Seybold
21
dem Verständnis dieser Themen bei den
Anbietern und Markt-Experten einerseits
und der Realität in den Unternehmen an-
dererseits. Anbieter und Markt-Experten
haben es versäumt, die Kunden und Nut-
zer in diese Welt voll neuer Gelegenheiten
mitzunehmen und den Nutzen und das
Innovationspotenzial nachhaltig zu kom-
munizieren. Natürlich gibt es auch Aus-
nahmen wie die mittelständische Travian
Games in München, ein Mittelständler der
Online-Spiele anbietet. Bei Online-Spie-
len erzeugen die Clicks der Spieler Big
Data. Travian Games setzt zur Speiche-
rung Hadoop als Speicher in Kombina-
tion mit dem Data Warehouse ein (siehe
Wolfgang Martin Team Newsletter Nr. 88
vom Jan. 2013). Wenn eben das Geschäfts-
modell auf Information und Daten ba-
siert, dann ist man auch als Mittelständler
gefordert, neue Trends wie Big Data mög-
lichst schnell zu nutzen, um im Wettbe-
werb vorne zu bleiben. Anders sieht es
bei Mobile BI aus. Da im Privatbereich
Smartphones und Tablets bereits eine
gute Verbreitung erreicht haben, wächst
hier der Druck auch auf mittelständische
Unternehmen, Mobile BI einzusetzen. Bei
der Best in Cloud-Veranstaltung (Ende
Oktober 2013 in Frankfurt/M) gab es gute
Fallstudien, die diesen Fortschritt doku-
mentieren, beispielsweise Mobile BI aus
der Cloud bei Klaus Gross Straßenbau.
Wolfgang Seybold
In der Anwendungspraxis muss sachlich
festgestellt werden, dass die Applikati-
onswelt mit den geweckten Erwartungen
(noch) nicht mithalten kann: Weder Big
Data noch In-Memory-Computing oder
Mobile BI und Social Intelligence sind
bereits in der Breite etabliert. Das gilt im
Allgemeinen, aber im Besonderen auch
für den Mittelstand. Vielmehr handelt es
sich bei den vorgenannten Schlagworten
um reine Enabling-Technologien, die es
den Anwenderunternehmen ermöglichen
werden, ihre selbst gesetzten Aufgaben
und Ziele in den Kernbereichen Analyse,
Planung, Reporting und Dashboarding zu
erreichen. Zuvor jedoch müssen vor dem
Hintergrund überzeugender Kosten/Nut-
zen-Kalkulation sinnvolle Anwendungs-
beispiele gefunden und etabliert werden.
Denn erst wenn die sinnvollen Einsatz-
möglichkeiten nicht mehr den technolo-
gischen Möglichkeiten hinterherhinken,
lässt sich über das Erkennen der Poten-
ziale hinaus dieses auch gewinnbringend
ausschöpfen – das gilt natürlich für Groß-
unternehmen und den Mittelstand glei-
chermaßen.
Dr. Sebastian Klenk
Es sind bei weitem noch nicht alle Po-
tenziale des BI-Markts ausgeschöpft.
Es gibt noch einige innovative Ansätze,
zum Beispiel maßgeschneiderte Lösun-
gen für KMU und Kleinstunternehmer.
Auch benötigen wir in Zukunft mehr
branchenspezifische Angebote wie etwa
Geo-Intelligence-Systeme für Logistikun-
ternehmen oder Analyse-Tools für Social
Media. Mit den rasant wachsenden Daten-
mengen steigt der Bedarf an schnellen und
präzisen Analysen. Entsprechende BI-Lö-
sungen und analytische Datenbanken
werden so auch für kleinere Unternehmen
interessant. Weitere bisher nicht genutzte
Potenziale stecken in Cloud-gestützter BI.
Eine sich ändernde Mediennutzung lässt
vor allem Mobile Analytics ebenfalls an
Bedeutung gewinnen. Hierbei besteht die
größte Herausforderung darin, die Analy-
sen für einen Kunden über alle Kanäle und
Tools hinweg zu vereinheitlichen.
Zum Autor Wolfgang Seybold:
Wolfgang Seybold hat 30 Jahre Erfahrung in der High-Tech-Branche und als CEO. Seit
2012 ist er CEO der Cubeware Group. Vor seiner Zeit bei Cubeware war er als CEO
unter anderem bei Fox Technologies Inc., BlackPearl Inc. und Mindware Inc. tätig.
Seine Karriere startete 1983 mit der Entwicklung einer deutschsprachigen Soft-
ware für den damals eingeführten PC von IBM. Dies war der Auftakt einer Reihe
von erfolgreichen Unternehmensgründungen in unterschiedlichen IT-Sektoren.
Nach dem Verkauf dieser Unternehmen im Jahr 1992 wurde er CEO bei einer
Unternehmensgruppe, bestehend aus acht in Europa ansässigen Softwarean-
bietern. Darüber hinaus rief er im Jahr 2009 das weltweit erste gemeinnützige
99-Dollar-Laptop-Projekt „Cherrypal“ ins Leben, um Computer und den Zugang
zum Internet für jeden erschwinglich zu machen. 2010 spendete er die Marke
„Cherrypal“ der Non-Profit-Organisation Edwin Foundation.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Wenn das Ziel nicht klar formuliert wird, wird jedes
noch so ambitioniertes Business Intelligence Projekt
scheitern.“ - Dr. Thomas Keil
22
Status quo und Potenziale im
Business Intelligence-Markt?
Oft scheitert die Einführung von In-
novationen nicht an den Technologien
selbst, sondern an Rahmenbedingun-
gen wie den Prozessen oder der Ge-
setzgebung.
Auf welche Herausforderungen müs-
sen sich Unternehmen einstellen bzw.
welche Probleme müssen gegebenen-
falls gelöst werden, um innovative
Business-Intelligence erfolgreich zu
realisieren? Was hilft, ein Scheitern zu
verhindern? Was sind Ihrer Meinung
umgekehrt die wichtigsten Chancen,
die Business-Intelligence-Lösungen
bieten und die die Mühen der Innovati-
onsanstrengungen rechtfertigen? Was
können Sie BI-Anwendern also an Er-
folgspotenzialen versprechen?
Dr. Thomas Keil
Gut ausgebildete Mitarbeiter – darin liegt
die wichtigste Chance und Hürde zu-
gleich. Denn wir brauchen Leute, die das
in den Daten liegende Potenzial abfragen
und herauslesen können. Das Bewusst-
sein, dass faktenbasierte Entscheidungen
erfolgreicher sind als bloßes Bauchgefühl,
ist common sense. Nun gilt es, diese Ein-
sicht auch im Unternehmensalltag zu le-
ben. Welche Produkte werden wann ins
Regal gestellt? Welche Kampagnen wer-
den ausgebaut und welcheeingestellt? Das
lässt sich alles messen und das Handeln
konkret daran ausrichten.Wenn aber das
Ziel nicht in aller Klarheit formuliert wird,
wird jedes noch so ambitionierte Business
Intelligence-Projekt scheitern. Deshalb ist
der einfache Rat: Schauen Sie genau hin,
wenn es um die Definition des Projekts
geht. Würden die Zahlen und Analysen
das Potential haben, Entscheidungen zu
verändern? Wenn Sie diese Frage vernei-
nen, dann können Sie sich den Rest des
Aufwands sparen.
Dr. Sebastian Klenk
Ein großes Thema im Jahr 2013 war Bring
Your Own Device (BYOD). Solche tiefgrei-
fende Änderung des Nutzungsverhaltens
erfordert ein Umdenken: Unternehmen
müssen sich mit dem Thema Mobile BI
und den entsprechenden Sicherheits-
richtlinien auseinandersetzen und hier-
für sinnvoll in Hard- und Software sowie
Compliance-Lösungen investieren. Eine
weitere Herausforderung besteht in der
Konsolidierung der Daten – auch in in-
ternational agierenden Unternehmen.
Weiter ist es bei der Verwirklichung
von IT-Projekten äußerst wichtig, dass
Fachanwender und IT frühzeitig einge-
bunden werden. Erst so entfaltet sich der
Nutzen der BI-Investitionen in vollem
Umfang: Unternehmen profitieren von ei-
nem abteilungsübergreifenden Zugriff auf
sämtliche Daten sowie einem umfassen-
den Reporting über alle Ebenen.
Wolfgang Seybold
Das größte sich stellende Problem ist, dass
die wenigsten BI-Anbieter dazu bereit
sind, sich in die individuellen Problem-
stellungen ihrer Kunden hineinzuverset-
zen; stattdessen wird meist der eigene
Standard zum Alleslöser erklärt. Entspre-
chend erhalten im Ergebnis die Anwender
statt der erhofften und dringend benötig-
ten Lösungen bloße Tools, deren Einsatz
nicht selten zunächst einmal mehr neue
Probleme bereitet als bestehende löst. Das
Ganze geht oft einher mit der Problema-
tik fehlenden Branchen-Know-hows auf
der Anbieterseite. Etwas überspitzt for-
muliert: Wie sollte auch eine erfolgreiche
Beratung nachhaltig funktionieren, wenn
der Berater noch nicht einmal weiß, wen
er bei was berät?
Die Gefahr des Scheiterns von BI-Projek-
ten liegt regelmäßig aber auch dann vor,
wenn das Erstellen und Ausrollen einer
für viel zu viel Geld erworbenen Lösung
deutlich zu viel Zeit benötigt. Das hängt
eng mit dem Vorgehen zusammen, für
Zum Autor Dr. Thomas Keil:
Dr. Thomas Keil ist Spezialist für Big Data, Information Manage-
ment und Business Analytics. Neben seiner Tätigkeit als Marke-
tingmanager für Business Analytics bei SAS engagiert er sich
als Vorstandsmitglied im Arbeitskreis Big Data des BITKOM. Er
vertritt seine Themen sowohl im TDWI als auch im Rahmen der
KSFE.
Dr. Thomas Keil kam 2011 zu SAS. Davor war er acht Jahre für
den Softwarehersteller zetVisions tätig, zuletzt als Head of Mar-
keting sowie Head of Channel Sales.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Unternehmen müssen sich mit dem Thema Mobile BI
auseinandersetzen“ - Dr. Sebastian Klenk
23
jeden Kunden das Rad neu zu erfinden.
Cubeware hat die besondere Bedeutung
dieser Faktoren – Lösungsrelevanz, Bran-
chenkompetenz und Time-to-Deploy –
frühzeitig erkannt und sein langjähriges
Lösungs-Know-how in dem 2013 starten-
den BI Application Store BISTRO®© ge-
bündelt, um hierüber den Kunden einen
umfassenden Katalog an branchenspezi-
fischen BI-Lösungen anzubieten. Dabei
unterscheidet sich BISTRO® grundlegend
von den herkömmlichen Ansätzen zur Be-
reitstellung von BI-Software, wo Anbieter,
Partner und Kunden mit einer Reihe von
Software-Tools arbeiten, um Lösungen
zu entwickeln, die auf die individuellen
Anforderungen zugeschnitten sind. Im
Gegensatz dazu geht es um eine Kombi-
nation aus vordefinierten Anwendungen
mit branchen- und marktspezifischen
Funktionalitäten, die sich sehr schnell zu
einer maßgeschneiderten BI-Lösung zu-
sammenstellen lassen. Auf diesem Weg
verkürzt sie die fürs Customizing benötig-
te Zeit drastisch und die Kunden können
noch schneller von den Nutzenaspekten
ihrer BI-Lösung profitieren.
Dr. Wolfgang Martin
Zunächst einmal ist es völlig richtig, dass
Innovationen meist an den Rahmenbe-
dingungen scheitern. Um erfolgreich In-
novationen durchzuführen bedarf es einer
entsprechenden Kultur im Unternehmen.
Das beginnt im Vorstand. Ohne den Willen
des Vorstands gibt es keine Innovationen.
Kommen wir zu Innovationen durch Bu-
siness Intelligence und Analytik, so heißt
das, das es im Unternehmen einer analyti-
sche Kultur bedarf. Das bedeutet, dass alle
Mitarbeiter es gewohnt sind, mit Analytik
umzugehen und analytische Ergebnisse zu
begreifen und umsetzen zu können. Das
Unternehmen muss im Endeffekt „wollen“,
dass Entscheidungen und Maßnahmen auf
allen Ebenen auf Fakten basieren müssen.
Erfahrungswissen zählt jetzt nicht mehr so
viel wie noch vor fünf Jahren, denn die heu-
tigen globalen und zunehmend digitalisier-
ten Märkte stellen uns vor Situationen, die
wir nicht kennen und unser Erfahrungswis-
sen uns daher nicht mehr weiterhilft. Jetzt
greift eben die Analytik mit ihren Zahlen,
Fakten, Modellen und Simulationen. Da
Erfahrungswissen uns heute und morgen
immer weniger hilft, müssen wir lernen,
Analytik zu vertrauen. Nur Unternehmen
mit einer solchen Kultur werden durch
Analytik und BI Wettbewerbsvorteile errei-
chen. Daraus folgt auch, dass man Prozesse
innovativ aufbrechen und auch komplett
ändern muss, wenn dies die Lage erfordert.
Daraus folgt ebenfalls, dass man im Rah-
men von Lobby-Arbeit auf den Gesetzgeber
einwirken muss. Denn auch Gesetze müs-
sen sich an neue Bedingungen anpassen.
Zum Schluss möchte ich noch kurz auf
die Frage eingehen, auf welche Heraus-
forderungen sich Unternehmen einstellen
müssen bzw. welche Probleme müssen
gegebenenfalls gelöst werden, um innova-
tive Business-Intelligence erfolgreich zu
realisieren? Was hilft, ein Scheitern zu ver-
hindern? Meine Antwort dazu lautet: Ver-
trauen zwischen den verschiedenen Abtei-
lungen im Unternehmen zu schaffen. Das
untermauert eine kürzlich veröffentlichte
IBM-Studie (siehe InformationWeek). Ich
möchte aus dieser Studie nur einen Satz
von Kathy Reece zitieren, der die Situati-
on in den meisten Unternehmen treffend
darstellt: „It also comes down to peop-
le trusting each other to share their own
customer data from the different lines of
business. So if you have information about
a customer, and you want to hold it tight to
your chest and not share it with the other
lines of business, it‘s really hard for them to
get a 360-degree view of the customer.“ Ein
solches gegenseitiges Vertrauen im Unter-
nahmen ist natürlich auch Teil einer analy-
tischen Kultur.
Anbieter Business Intelligence
und eigene Differenzierung?
Der Markt für Business-Intelligence-
Lösungen hat sich seit Jahren stark
konsolidiert. Wer sind Ihrer Meinung
heute und auch in Zukunft noch wich-
tige Akteure auf dem BI-Markt und wo
sehen Sie wichtige Unterscheidungs-
merkmale der Key-Player? Wodurch
differenzieren Sie sich selbst als Anbie-
ter am Markt?
Dr. Sebastian Klenk
In Zukunft werden sich diejenigen Anbie-
ter am BI-Markt durchsetzen, die über das
differenzierteste Lösungsportfolio und
entsprechendes Branchen-Know-how ver-
fügen. Als In-Memory-Spezialist bieten
wir Leistungsmerkmale, die uns deutlich
von anderen analytischen Datenbanken
abheben.
Verglichen mit den großen Playern wie
SAP HANA überzeugt unsere Lösung
mit ihren klaren Einsatzmöglichkeiten.
EXASolution ist ein System für die analy-
tische Ebene und wir sind überzeugt, in
diesem Bereich die beste Lösung bereit-
zustellen. EXASolution ist der leistungs-
stärkste Motor für professionelle Analysen
und Business Intelligence.
Dr. Thomas Keil
In einem dynamischen Markt wie dem für
Business Intelligence-Lösungen ist immer
Platz für kleine, wendige und innovative
Anbieter. Das istgutso – das treibt Innova-
tionen bei den großen, etablierten Anbie-
tern voran. Die großen Komplettanbieter
im Bereich Software haben nun alle auch
einen Ableger im Bereich Business Intelli-
gence. Das ist dann ausreichend, wenn die
meisten Prozesse mit der Software dieser
ERP-, Datenbank- oder Infrastruktursoft-
wareanbieter abgewickelt werden. Sobald
aber immer neue Datenquellen dazu kom-
men und noch dazu der Grad der Analyse
immer mehr verfeinert wird, kommt die
Stunde der Spezialisten. Und wenn Sie
nach einem innovativen Spezialisten für
Business Intelligence suchen, der noch
dazu ein großer, etablierter und verläss-
licher Partner ist, fällt mir nur einer ein:
SAS. Unsere Unterscheidung ist ganz klar
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
24
die Kompetenz im Bereich Analytics. Wo
andere die Vergangenheit noch schneller
reporten können, gibt unsere Software die
Weichenstellungen für zukünftig noch
mehr Geschäft vor. Kombiniert mit hand-
habbaren Tools für die Verbesserung von
Datenqualität und Stammdaten bietet
SAS eine umfassende Basis für konkrete
Fachlösungen.
Dr. Wolfgang Martin
„Einen“ Markt für Business Intelligence
sehe ich nicht mehr, ich sehe mindestens
zwei Märkte, nämlich einen zu Perfor-
mance Management und einen zu Analy-
tik.
Der Markt zu Performance Management
(Berichtswesen und OLAP, Kennzahlen,
Cockpits, Dashboards und Scorecards,
Planung, Konsolidierung und ähnliche
Funktionalitäten) ist konsolidiert und
wird von den großen Anbietern wie IBM,
Microsoft, Oracle und SAP dominiert.
Eine gewisse Bewegung kommt jetzt in
diesen Markt durch SaaS-Angebote, also
Performance Management aus der Cloud,
und auch durch Mobile BI und Self-Ser-
vice BI. Hier sind kleine Anbieter einfach
wendiger und schneller und können so
Kunden insbesondere in den Fachabtei-
lungen begeistern. Die Verschiebung der
Einkaufskraft von IT-Leistungen weg von
der IT hin zu den Fachabteilungen unter-
stützt diesen Trend.
Der Markt zu Analytik (Data Discovery
und Visualisierung, prädiktive Analytik,
Data Mining, Text Mining, Textanalytik,
maschinelles Lernen und ähnliche) sieht
dagegen ganz anders aus: Er ist weitge-
hend diversifiziert. Hier haben Anbieter
wie QlikTech, Tableau Software und TIB-
CO Spotfire neue Maßstäbe gesetzt. Hier
kaufen sich neue Spieler ein wie Data-
watch durch die Übernahme von Panop-
tikum. Hier entsteht eine Vielfalt an inno-
vativen Startups im Umfeld von Hadoop
und NoSQL-Datenhaltungssystemen (sie-
he beispielsweise meine Klassifikation von
Anbietern bei den isis-specials). Dieser
Markt ist aktuell voll in Bewegung, eine
Konsolidierung wird es erst in einigen Jah-
ren geben. Natürlich versuchen auch die
großen, traditionellen BI-Anbieter sich
Stücke aus diesem Kuchen einzuverleiben,
so hat beispielsweise die SAP vor einigen
Wochen den Analytik-Spezialisten KXEN
übernommen, und und die IBM zählt hier
zu den regelmäßigen Einkäufern.
Wolfgang Seybold
Wie bereits dargelegt, sind die Cubeware
Produkte auf eine schnelle Implementie-
rung, die möglichst einfache Bedienung
und betont günstige Betriebskosten aus-
gelegt. Ich bin fest davon überzeugt, dass
unter unserem Mitbewerb jene BI-Anbie-
ter, die ein Application-Store-Konzept wie
BISTRO ablehnen oder nur halbherzig
verfolgen, früher oder später vom Markt
verschwinden werden.
Case Studies Business
Intelligence?
Am besten lassen sich Innovationen an
erfolgreichen Beispielen verdeutlichen.
Können Sie aus Ihrem eigenen Erfah-
rungsbereich besonders erfolgreiche
Beispiele für innovative Business-Intel-
ligence-Lösungen skizzieren? Welche
Ergebnisse wurden realisiert, welcher
Aufwand war notwendig (idealerwei-
se Investments, Amortisationsdauer,
ROI), welche wichtigen Partner und
Meilensteine trugen zum Erfolg bei?
Dr. Thomas Keil
Hier will ich gerne mit einem Zitat unseres
Kunden Galeria Kaufhof beginnen: „Gera-
de in Zeiten von Big Data ist schnell abruf-
bare analytische Tiefe extrem wichtig. Mit
SAS haben wir für diese anspruchsvollen
Herausforderungen einen guten Partner
gefunden.” (Die vollständige Referenz fin-
den Sie hier)
Ausgehend von den zahlreichen Auswer-
tungen, die mittels Business Intelligence
zur Verfügung stehen, ist es immer häu-
figer die Anforderungen, den zugrunde-
liegenden Prozess substantiell und auto-
matisiert zu verbessern. Im Fall Galeria
Kaufhof ging es um möglichst zielgenaue
Anschreiben, um die Kunden nicht zu ver-
ärgern, sondern im Gegenteil mit maßge-
schneiderten Angeboten zu überzeugen.
Entscheidend in diesem Projekt war die
Zum Autor Dr. Sebastian Klenk:
Dr. Sebastian Klenk ist seit Anfang 2013 als Product Manager bei der EXASOL
AG tätig. Für den Datenbankspezialisten wird Klenk insbesondere die Entwick-
lung neuer Produkte weiter vorantreiben.
Klenk studierte Informatik an der Universität Stuttgart. Während seiner Diplom-
arbeit und anschließend als wissenschaftlicher Mitarbeiter entwickelte der Data
Mining-Spezialist wegweisende Software für Ärzte und Medizinische Dokumen-
tare. Er promovierte am Institut für Visualisierung und Interaktive Systeme zum
Thema „Kompressionsbasierte Mustererkennung“ und war in seiner letzten be-
ruflichen Station als Software Engineer bei Sony Deutschland tätig.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
25
klare Zielorientierung und ein passgenau-
er Einsatz von Automatisierung – damit
die Anwender im Unternehmen sich auf
die eigentliche Wertschöpfung konzent-
rieren konnten.
Ein häufiges Thema ist die Zusammen-
arbeit zwischen IT und Fachbereich. Die
einen wollen vor allem die IT Governan-
ce-Richtlinien einhalten, die anderen
brauchen schnelle Lösungen für konkrete
Probleme. Mit dem Konzept des „Self-Ser-
vice-Business Intelligence“ hat SAS hier
alle nötigen Tools an Bord, um beide Sei-
ten optimal bedienen zu können – auf
allen Ebenen: von der Datenintegration
über Datenqualität bis hin zum Reporting.
Viele weitere Beispiele gelungener Projek-
te finden Sie hier.
Wolfgang Seybold
Wir haben in unserer mittlerweilesiebzehn-
jährigen Geschichte steter Weiterentwick-
lung Tausende von zufriedenen Kunden
und entsprechend nachweisliche Erfolge
zu verbuchen. Natürlich lässt sich bei ge-
nauem Hinsehen der ROI im Einzelfall nur
sehr schwierig beziffern, da in BI-Projekten
regelmäßig sowohl messbare als auch nicht
messbare Verbesserungen in der Entschei-
dungsfähigkeit von Unternehmen zusam-
menkommen. Insofern kann es sich per se
bei ROI-Werten nur um Schätzwerte han-
deln. Wir haben jedoch von vereinzelten
Kunden gehört, dass ihren Berechnungen
zufolge der ROI weit unter einem Jahr liegt.
Dr. Wolfgang Martin
Das ist richtig, und es gibt auch hinrei-
chend viele Beispiele. Neulich hat Gart-
ner-Analyst Doug Laney in einer seiner
Präsentationen 55 Fallstudien zu Big Da-
ta-Analytik präsentiert. Das konnte man
beispielsweise bei SearchCIO nachlesen.
Als Analyst lasse ich hier aber das Feld den
Anbietern, die auf ihren Webseiten ja ent-
sprechende Fallbeispiele vorhalten.
Maßnahmen für größeren
Markterfolg von BI?
Um den Erfolg von innovativen Busi-
ness-Intelligence-Lösungen im Markt
zu fördern, unterstützen wir im Rah-
men unserer Meta-Initiativen („2020“)
auch dieses Thema mit unseren Part-
nern. Mit BARC, TDWI und anderen
Organisationen, Veranstaltern und
Netzwerken ist die BI-Community
schon umfassend vernetzt.
Wo sehen Sie noch Bedarf, das Thema
über das heutige BI-Ecosystem hinaus
zu unterstützen? Wie könnte man an-
dere Netzwerke und Aktivitäten unter-
stützen und vernetzen? Welche Kom-
petenzen können und möchten Sie
einbringen, um die Community und
andere Unternehmen bei ihrem Wand-
lungsprozess zu unterstützen?
Dr. Thomas Keil
Business Intelligence und erst recht
„Big Data“ klingt nach viel Technik: das
schreckt ab und wird immer noch als
IT-Thema qualifiziert. Es muss den An-
bietern noch mehr, den konkreten Nutzen
ihrer Lösungen fürdie Herausforderungen
der Unternehmen aufzuzeigen. Im BIT-
KOM engagieren wir uns, und auch ich
persönlich, im Zusammenhang mit „Big
Data“. Dort konnte ein umfassender Leit-
faden für das Thema erarbeitet werden,
dervorallem Beispiele und Anwendungss-
zenarien versammelt sowie einen Konsens
im Bereich Definition und Begriffsbildung
versucht. Das kann der Sache nur helfen
– sonst operiert jeder Anbieter mit seiner
spezifischen Sicht auf das immer gleiche
Thema und verwirrt mehr, als damit er-
klärt werden kann. Wie können wir näher
an die Anwender heranrücken? Vielleicht
mit Business Intelligence-Arbeitsgruppen
in den Branchenverbänden von Automo-
bilindustrie über Pharma bis hin zum Ver-
band der Einzelhändler? Das würden wir
gerne unterstützen.
Wolfgang Seybold
BI-Lösungen werden schon in der nahen
Zukunft für jeden kaufmännischen Ange-
stellten und umso mehr jeden Manager
zum täglichen Handwerkszeug gehören.
Entsprechend müssen sich Berufsschulen,
Fachhochschulen und Universitäten auch
darauf einrichten und das BI-Thema in
ihren Lehrplänen bzw. Studienangeboten
auf breiterer Front als bislang berücksich-
tigen.
Dr. Sebastian Klenk
Bedarf sehen wir hinsichtlich einer ziel-
gruppenspezifischen und glaubwürdigen
Kommunikation des Anwendernutzens
von BI-Lösungen. Dies lässt sich beispiels-
weise anhand praktischer Fallstudien
erreichen. Zudem bieten wir praxisori-
entierte Workshops vor Ort an, um die
Vorteile für die Anwender noch deutlicher
hervorzu-heben. Fachlich bringt EXASOL
eine hohe Kompetenz in der In-Memo-
ry-Technologie ein und adaptiert dabei
flexibel die individuelle Herangehens-
weise und Umsetzung bei den Kunden.
Hierbei kommt uns die Hardware-Unab-
hängigkeit zugute, durch die sich EXASo-
lution passgenau in jede IT-Landschaft
integrieren lässt.
Zum Autor Dr. Wolfgang Martin:
Vor der Gründung des Wolfgang
MARTIN Teams war Dr. Martin 5
½ Jahre lang bei der META Group,
zuletzt als Senior Vice President
International Application Delivery
Strategies.
Darüber hinaus kennt man ihn aus
TV-Interviews, durch Fachartikel in
der Wirtschafts- und IT-Presse, als
Autor der Strategic Bulletins zu den
Themen BI/BPM, SOA und CRM
(www.it-research.net) und als Her-
ausgeber und Co-Autor,.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
26
Delphi-Roundtable
Analytik und Performance Management
in einem intelligenten Unternehmen
„In the Age of Analytics, as products and services become ‚lighter‘
(i.e., less physical and more digital), manufacturing and distributi-
on costs-while still important-will be augmented with new metrics
- the costs of know, the flow of know, and the costs of not knowing.“
- Thornton May1
, Futurist, Executive Director, and Dean of the IT
Leadership Academy
D
ie älteste bekannte Quelle, in der der Begriff Business
Intelligence (BI) verwendet wird, stammt aus dem Jahre
1958. Im Oktober-Heft des IBM-Journals schreibt Hans
Peter Luhn über „A Business Intelligence System“. 1989 greift
Howard Dresner, seinerzeit Analyst bei der Gartner Group, den
Begriff wieder auf, und es ist die Gartner Group, die in den 90er
Jahren diesen Begriff benutzt, verbreitet und bekannt macht. Der
Anspruch des Konzeptes Business Intelligence ist, Entscheidun-
gen auf Fakten zu stellen und bessere Entscheidungen zu treffen.
Heute gibt es zwei unterschiedliche Zweige von Business Intel-
ligence, die man zusammen als Nachfolger von Business Intelli-
gence verstehen kann: Analytik und Performance Management.
Analytik dient der Ableitung von Wissen aus internen und ex-
ternen Daten für Unternehmenssteuerung ganz im Allgemeinen.
Performance Management ist definiert als ein Geschäftsmodell,
das einem Unternehmen ermöglicht, Unternehmensziele und
Geschäftsprozesse kontinuierlich aufeinander abzustimmen und
konsistent zu halten. Analytik und Performance Management
sind so zur wesentlichen Grundlage von Steuerung im Unterneh-
men zur Umsetzung der Management-Prinzipien Industrialisie-
rung, Agilität und Compliance geworden.
Mit Hilfe von Analytik lässt sich auch Big Data erschließen und
wertvolles neues Wissen zur Steuerung im Unternehmen ablei-
ten. Mit Hilfe von Performance Management kann dieses Wissen
über eine Service- und Prozess-Orientierung von den Unterneh-
mensstrategien bis zum operativen Tagesgeschäft hin umgesetzt
und in allen Aktivitäten eines Unternehmens eingesetzt werden.
Man schafft ein intelligentes Unternehmen. Hierin liegt der Nut-
zen und Wert von Analytik und Performance Management.
Aber wie weit wird das in den heutigen Unternehmen verstanden
und gelebt? Dr. Wolfgang Martin fragt nach!
Viel Spaß beim Lesen wünscht Ihnen
Ihr Dr. Wolfgang Martin für das Team der Competence Site
Auszug aus dem Delphi-Roundtable, initiiert von Dr. Wolfgang Martin (Wolfgang
Martin Team) u.a. mit Stefan Sexl (pmOne AG), Bertram Geck (MID GmbH), Wolfgang
Seybold (Cubeware Group) und Dr. Ulrich Kampffmeyer (PROJECT CONSULT
Unternehmensberatung GmbH)
1
Thornton May: „The New Know“, Innovation Powered by Analytics, 2009
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
27
Self-Service BI, die Zukunft
von BI oder derWeg ins Chaos?
Traditionelle Business Intelligence
-Werkzeuge waren vielfach schwer zu
handhaben. Nur eine Handvoll Ex-
perten war in der Lage, aus den tra-
ditionellen Werkzeugen die richtige
Information herauszuziehen. Manage-
ment-Entscheidungen und Maßnah-
men wurden daher eher auf Grund von
Vermutungen getroffen, weniger auf
Grund von Fakten.
Heute soll „Selbst-Bedienungs-BI
(self-service BI)“ ermöglichen, dass
auch gelegentliche Nutzer von Ana-
lytik und Performance Management
die Fakten und die Information be-
kommen, die sie benötigen. Führt das
nicht in ein Reporting-Chaos und in
den Excel-Zustand inkonsistenter Un-
ternehmenszahlen?
Dr. Ulrich Kampffmeyer
Business Intelligence war bisher immer
ein Spezialisten-Job – und dies mit Grund.
Informationen aus verschiedensten Quel-
len mit unterschiedlicher Qualität und
inhaltlicher Bedeutung müssen für die
Auswertung in Beziehung gesetzt werden.
Hierzu sind Kenntnisse nicht nur über
Datenstrukturen und deren Inhalte son-
dern über deren Kontext wichtig. „Self-
Service-BI“ ist daher in der Gefahr im „wil-
den Zusammenklicken von irgendwelchen
Feldern zu enden“. Der gelegentliche Nut-
zer braucht Schulung über die Nutzung,
die Wirkungsweise und die Intepretation
der Ergebnisse. Eine Chance gibt es dann,
wenn sinnvoll vorgefertigte Schemas an-
geboten werden, die vom gelegentlichen
Nutzer gestartet und gegebenenfalls para-
metrisiert werden können. Sonst gibt der
Satz „A fool with a tool is still a fool“. Ohne
Ausbildung geht gar nichts.
Wolfgang Seybold
Zunächst ist es wichtig, festzuhalten, dass
der Begriff Self-service BI nicht eine Tech-
nologie beschreibt, sondern ein Informa-
tionskonzept. Die Anforderung schnell
und unkompliziert auf aktuell benötigte
Informationen zurückgreifen zu können,
ist in der sich immer weiter beschleuni-
genden Geschäftswelt essentiell. Der Um-
weg über die IT oder über einige wenige
Experten im Unternehmen dauert an die-
ser Stelle, besonders bei entscheidungs-
kritischen Informationen, häufig zu lan-
ge. Einfach zu bedienende grafische Tools,
die ohne Programmierkenntnisse aus-
kommen, sind an dieser Stelle ein erster
und wichtiger Schritt. Ebenso die Verwen-
dung von Gesten-gesteuerten Endgeräten
wie Tablets und Smartphones spielen hier
eine zunehmend größere Rolle aufgrund
ihrer Benutzerfreundlichkeit und großen
Durchdringung des Consumer-Marktes.
Doch das Konzept Self-service BI geht
weit über diese softwareergonomischen
Aspekte hinaus: Es geht zudem darum,
dem Anwender die Möglichkeit zu ge-
ben, sich nicht nur selbstständig in der
BI-Lösung zu bewegen, sondern gezielt
eigene Erkenntnisinteressen befriedigen
zu können und von den vorgegebenen Re-
porting- und Analyseangeboten abzuwei-
chen. Ad-hoc-Analysen sind hier ein gutes
Beispiel. Self-service BI rückt den Anwen-
der in den Fokus der Entwicklungen – zu-
recht, kommt ihm doch eine Schlüssel-
stellung in diesem System zu.
Doch Ihre Frage ist völlig berechtigt, denn
mit der Einführung von BI-Lösungen sind
Unternehmen nicht zuletzt daran interes-
siert, ein unternehmensweites und kon-
sistentes Reporting zu etablieren, das die
Entscheidungsgrundlage bilden und allen
Abteilungen den gleichen Zugriff auf kon-
sistente Kennzahlen sowie einheitliche
Metadaten ermöglichen soll – der soge-
nannte „single point of truth“. Die Aufwei-
chung dieser Informationsbasis durch die
„Selbst-Bedienungs-BI“ sehen viele als kri-
tisch und als einen Schritt Richtung Infor-
mationschaos und zurück in die Zeit vor
BI-Lösungen. Die Praxis hat aber gezeigt,
dass auch zu strikte BI-Vorgaben Insellö-
sungen in den Fachabteilungen befeuern,
da oftmals individuelle und notwendige
Bedürfnisse nicht mehr ausreichend be-
friedigt werden können. Zu wenig Analy-
sefreiheit ist „Gift“, zu viel auch. Was also
tun? Wir bei Cubeware vertreten den An-
satz der „Managed Self-service BI“: denn
die Projekterfahrung zeigt, die Mischung
aus nutzergruppenspezifischen Standar-
dreports als unternehmensweite Informa-
tionsbasis und sinnvoll rollengesteuerten,
Zum Autor Dr. Wolfgang Martin:
Vor der Gründung des Wolfgang MARTIN Teams war Dr.
Martin 5 ½ Jahre lang bei der META Group, zuletzt als Se-
nior Vice President International Application Delivery Stra-
tegies.
Darüberhinaus kennt man ihn aus TV-Interviews, durch
Fachartikel in der Wirtschafts- und IT-Presse, als Autor der
Strategic Bulletins zu den Themen BI/BPM, SOA und CRM
(www.it-research.net) und als Herausgeber und Co-Autor,
u.a. „Data-Warehousing - Data Mining - OLAP“, „CRM-Jah-
res-Gutachten“, und „CRM-Trendbook 2009“.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
28
Zum Autor Stefan Sexl:
Seinen Einstieg in den Business Intelligence Markt hatte Stefan Sexl in verschie-
denen Rollen (Support, Consulting) Anfang der 90er Jahre. Er ist Mitgründer der
EFS Informationstechnologie, eines österreichischen Beratungsunternehmens für
OLAP und BI und war dort Geschäftsführer für Vertrieb und Marketing von 1992-
1996.
Bei der MIS GmbH (später: MIS AG) war Sexl Leiter Produktmanagement für Bu-
siness Intelligence (1996-1999), danach dann Geschäftsführer Vertrieb/Marketing
der MIS Technologies, nach einem Jahr Pause als freier Berater und Autor kehrte
er dann zur MIS Gruppe zurück und wurde Vorstand Marketing & Produkte des
Unternehmens bis 2005.
Sexl ist Mitgründer und Vorstand der pmOne AG, München und Wien.
individualisierbaren Analysemöglichkei-
ten bringt die besten Ergebnisse bei effizi-
enten Informationsprozessen. So wird die
Gefahr der Entstehung eines „Spider Web“
verhindert. Self-service BI bedarf also so-
wohl auf technischer als auch fachlicher
Ebene eines durchdachten Informations-
konzepts. Fehlt dies, droht wirklich das
Chaos auszubrechen.
Stefan Sexl
Eine Gleichsetzung von Excel mit Inkon-
sistenzen ist angesichts von Meldungen
über Restatements von börsennotierten
Unternehmen wegen Formelfehlern in
Excel verständlich, greift aber zu kurz: Die
Probleme tauchen dann auf, wenn Excel
für die Datenhaltung verwendet wird. Die
Präsentations- und Gestaltungsebene von
Excel hingegen ist erstens unendlich flexi-
bel und zweitens ohnehin nicht zu verhin-
dern: Nach meiner Erfahrung greifen An-
wender auch in Unternehmen, die nicht
auf Excel für Business Intelligence setzen,
letzten Endes doch wieder auf Excel zu-
rück, was vor allem an seiner Flexibilität
liegen mag. Deswegen sollte mehr darauf
geachtet werden, dass Endanwender ihre
Lösungen in einer Umgebung aufbauen,
in der die IT nicht nur beobachten kann,
was passiert, sondern auch eine saubere
Datenschicht „darunter“ legen kann. Da-
mit IT-Verantwortliche also nachverfolgen
können, welche Daten exportiert wer-
den, oder welche User wann auf welche
Lösungen zugreifen. Wir nennen dieses
Konzept „Managed Self Service“. Unsere
Realisierung von Managed Self Service in
einer Business Intelligence Information
Architecture bei Heraeus wurde 2012 mit
dem renommierten, vom BARC-Institut
verliehenen „Best Practice Award Business
Intelligence“ ausgezeichnet.
Bertram Geck
Im heutigen dynamischen und durch
Komplexität determinierten Unterneh-
mensumfeld soll Business Intelligence
einen intelligenten, agilen Entschei-
dungsprozess gewährleisten und neue Po-
tenziale aufdecken. Die Beweglichkeit im
BI-Umfeld wird jedoch oftmals durch das
Unvermögen traditioneller BI-Werkzeu-
ge getrübt, die Nachfrage der Anwender
nach mehr Unabhängigkeit, Flexibilität
und Benutzerfreundlichkeit bei der Nut-
zung von Informationen und Analysen
vollständig zu befrieden. Dadurch wird
der Time-to-Value reduziert. Diesen Man-
gel zu beheben, ist Self-Serivce BI, durch
seinen Fokus auf die Anwenderintegra-
tion einerseits und die Entlastung der IT
andererseits, in der Lage. Ein Trend, wel-
cher den Weg für viele weitere Trends und
technische Entwicklungen wie Mobile BI,
BI in der Cloud, Social Media Analyse und
Big Data ebnet. Self-Service BI kann des-
halb, meiner Meinung nach, unter der Vo-
raussetzung einer adäquaten Anwendung
einen enormen Wertbeitrag herbeiführen.
Besonders im Bereich Time-to-Market bei
dynamischen und sich schnell ändernden
Geschäftsanforderungen ist das Konzept
des Selbst-Bedienungs-BI vielverspre-
chend. Worin offenbart sich allerdings
eine fachgemäße, korrekte Anwendung
von Self-Service BI? Meiner Ansicht nach,
müssen sich BI-Tools vor allem durch Nut-
zerfreundlichkeit und einen einfachen
Datenzugang auszeichnen um dem As-
pekt der „Selbst-Bedienung“ gerecht zu
werden.
Ein praktikables Self-Service BI Tool muss
Anwendern die Erstellung und Modifika-
tion von Berichten, Analysen und Dash-
boards – mit minimaler IT Intervention
– ermöglichen. Dazu bedarf es intuitiver,
benutzerfreundlicher Werkzeuge und vor-
definierter Berichts- und Dashboard-Ob-
jekte. Der Berichterstellungsprozess sollte
somitdurchfüreinen Fachbereichsanwen-
der verständliche Formen und Richtlinien
geprägt sein. Self-Service BI muss unter-
schiedliche Wege zur selbstständigen
Integration privater, lokaler Daten auf-
zeigen. Die Möglichkeiten der Datenin-
tegration sollten von der vollkommenen
Überführung in einen zentralen Daten-
speicher (z.B. Data Warehouse) über die
Kombination aus lokaler und zentraler
Verfügbarkeit in Form von semantischen
Layers bis hin zur Verknüpfung von Da-
ten über sogenannte „Schlüssel“ rangie-
ren. Die Verknüpfung von Datenmodel-
len und Prozessmodellen ist im Rahmen
einer Self-Service Philosophie essentiell
wichtig und muss sowohl für Anwender
mit wenigen Notations-Erfahrungen als
auch für Anwender mit vollständiger No-
tationserfahrung einfach realisierbar sein.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
29
Die Kunst der Self-Service BI Werkzeuge
besteht darin jeden Anwender zum Mo-
dellierer zu befähigen. Gesetzt des Falls,
dass diese Anforderungen erfüllt werden,
kann Self-Service BI einen erheblichen
Beitrag zu einer schnellen, fundierten
Entscheidungsfindung leisten. Die durch
Self-Service BI geschaffene, lokale Flexi-
bilität erschwert allerdings gleichzeitig
die Einhaltung unternehmensübergrei-
fender Standards. Deshalb ist eine zentral
verankerte, einheitlich akzeptierte Data
Governance – als Rahmenwerk zur Über-
wachung der Verwaltung und Änderung
von Daten - im Unternehmen unverzicht-
bar. Ist diese nicht definiert, kann es zu
mehrfach unterschiedlich aufbereiteten
Daten, Analysefehlern, sinkender Daten-
qualität, zur Entstehung von Datensilos
oder zum von Ihnen angesprochenen Re-
porting-Chaos und dem Excel-Zustand
inkonsistenter Unternehmenszahlen
führen. Der Datenaustausch muss somit
strukturiert gestaltet werden um ein Re-
porting-chaos zu vermeiden. Self-Service
BI wird dementsprechend in meinen Au-
gen nur dann zum adäquaten, zukunfts-
weisenden Konzept wenn einerseits der
individuelle Anwender mit Selbst-Be-
dienungs-Funktionen und -Werkzeugen
versorgt und andererseits unternehmens-
weit eine Architektur für eine akzeptierte
Governance etabliert wird. Nicht zuletzt
müssen einzelne BI Daten ins Gesamtbild
passen um Mehrwert zu liefern.
PredictiveAnalytics,kann man
die Zukunft vorhersagen?
In einer Kristallkugel soll man die
Zukunft sehen und erkennen können.
Wird Predictive Analytics jetzt zur
Kristallkugel im Unternehmen, mit der
man das Unternehmen steuern kann?
Wolfgang Seybold
Predictive Analytics ist vom Prinzip her
nichts Neues. Schon immer wurde in
Unternehmen auf Grundlage von per-
sönlichen Erfahrungen, gesammelten
Marktdaten, Erklärungsmodellen unter-
schiedlicher Natur sowie von Marktbeob-
achtungen und -befragungen und vielem
mehr versucht, Rückschlüsse auf das zu-
künftige Marktverhalten zu ziehen. Der
Erfolg dieser Vorhersagen variiert jedoch
stark in Abhängigkeit der Detailtiefe. Aus-
sagen für die Makro- gelingen häufig bes-
ser als für die Mikroebene. Predictive Ana-
lytics will nichts anderes: aus historischen
Daten sollen neue Datensätze, sprich
Vorhersagen, generiert werden. Das neue
daran ist die Tatsache, dass dies weitest-
gehend automatisiert durch Algorithmen
und mit Hilfe riesiger Datenmengen un-
terschiedlicher Formate und Quellen ge-
schehen soll. Je mehr Daten mit einbezo-
gen werden, so die Hoffnung, desto tiefer
kann auch in die Mikroebene eingetaucht
werden. Für spezifische Fragestellungen
und um bereits bekannte Zusammenhän-
ge mit weiteren Fakten zu unterfüttern, ist
dies durchaus sinnvoll – keine Frage. Ma-
nuelle Auswertungen stoßen hier zwangs-
läufig an ihre Grenzen. An Predictive
Analytics führt über kurz oder lang kein
Weg vorbei. Es jedoch als allein glückse-
lig machendes Heilmittel für die gesamte
Unternehmenssteuerung zu verkaufen, ist
überzogen. Mit Sicherheit kann Predictive
Analytics in Zusammenspiel mit Big-Da-
ta-Technologie und Data-Mining-Ansät-
zen auch helfen bisher verborgene Korre-
lationen zu identifizieren. Muster können
so beispielsweise zur näheren Betrach-
tung in den Fokus des Betrachters gerückt
werden. Diese Muster sollten aber dann
unbedingt von Menschenhand validiert
werden, denn wie die Historie der Wahr-
scheinlichkeitsrechnung und der Statistik
zeigt, sind Zufälligkeiten nicht zu unter-
schätzende Aspekte.
Predictive Analytics wird künftig ein we-
sentlicher Bestandteil von Business-Ana-
lytics-Lösungen, aber die Zukunft vorher-
zusagen bleibt nach wie vor ein Traum.
Die Annäherung daran wird aber defi-
nitiv erleichtert. Neben der Anwendung
von Predictive Analytics werden Busi-
ness-Analytics-Lösungen aber auch die
generierten Ergebnisse einer viel größeren
Anwendergruppe zugänglich machen, als
es bisher der Fall war.
Zum Autor Wolfgang Seybold:
Wolfgang Seybold hat 30 Jahre Erfahrung in der High-Tech-Branche und als CEO. Seit
2012 ist er CEO der Cubeware Group. Vor seiner Zeit bei Cubeware war er als CEO
unter anderem bei Fox Technologies Inc., BlackPearl Inc. und Mindware Inc. tätig.
Seine Karriere startete 1983 mit der Entwicklung einer deutschsprachigen Soft-
ware für den damals eingeführten PC von IBM. Dies war der Auftakt einer Reihe
von erfolgreichen Unternehmensgründungen in unterschiedlichen IT-Sektoren.
Nach dem Verkauf dieser Unternehmen im Jahr 1992 wurde er CEO bei einer
Unternehmensgruppe, bestehend aus acht in Europa ansässigen Softwarean-
bietern. Darüber hinaus rief er im Jahr 2009 das weltweit erste gemeinnützige
99-Dollar-Laptop-Projekt „Cherrypal“ ins Leben, um Computer und den Zugang
zum Internet für jeden erschwinglich zu machen. 2010 spendete er die Marke
„Cherrypal“ der Non-Profit-Organisation Edwin Foundation.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Eine komplette automatisierte Ableitung
für eine „Steuerung von Unternehmen“ ist
Zukunftsmusik“ - Dr. Ulrich Kampffmeyer
„Predictive Analysis Modelle reduzieren
Planungsrisiken, optimieren Ressourcen-
planung und verbessern das Kundenverständnis“
- Bertram Geck
30
Bertram Geck
Die Zukunft vorherzusagen, das wün-
schen sich sicherlich viele Unternehmen.
Gerade im Rahmen der milliardenschwe-
ren Wertverluste während der Finanzkri-
se, wäre die frühzeitige Vorhersehbarkeit
wirtschaftlicher Entwicklungen Gold
wert gewesen. Dass eine Kristallkugel, in
Ihrem traditionellen Sinne als Requisit
des Okkultismus, welches Verborgenes
sichtbar machen, Vermutungen aufstellen
und eine Grundlage für die Interpretation
von zukünftigen Ereignissen schaffen soll,
nicht notwendig ist, wird dabei oftmals
verkannt.
Als Substitut im Zeitaltervon Big Data und
Co kann die prädiktive Analyse betrachtet
werden, deren Wert nur sukzessive durch
Unternehmen erkannt wird. Auf Basis
von prognostizierenden Analysen sollen
komplexe wirtschaftliche Zusammenhän-
ge durch Unternehmen identifiziert, das
daraus ableitbare Wissen als fundierte
Entscheidungsgrundlage herangezogen
werden. Nicht nur eröffnet Big Data ein-
zelnen Unternehmen die Möglichkeit das
Wissen über Business, Wettbewerber und
Kunden zu vertiefen, Predictive Analytics
Modelle tragen auch zu einer Reduktion
von Planungsrisiken, einer optimierten
Ressourcenplanung und einem besseren
Kundenverständnis bei. Dies resultiert
nicht zuletzt in einer kundenspezifischen
Ausgestaltung von Produkt- und Ser-
viceportfolio.
Die Kristallkugel der Gegenwart heißt
Predictive Analytics, aber wie lassen sich
Veränderungen im Unternehmensumfeld
antizipieren? Durch die Analyse von Big
Data, können heterogene Datenquellen
auf allgemeingültige Schemata hin über-
prüft werden. Auf Basis vergangenheits-
bezogener Daten, lassen sich effiziente
Zukunftsprognosen ableiten. Beispiels-
weise können saisonal- oder produktbe-
dingte Verkaufspeaks in die künftige Un-
ternehmensplanung integriert werden,
wodurch sich Geschäftsziele schneller in
Opportunities umwandeln lassen und
ein komparativer Konkurrenzvorteil ent-
stehen kann. Risiken wie beispielsweise
das alljährlich absehbare Winterchaos
der deutschen Bahn werden so frühzeitig
berechenbar und ebenjenen kann durch
passende Problemlösungsansätze gezielt
entgegengewirkt werden.
Business Intelligence in Form von Kenn-
zahlen, Auswertungen und Soll-Ist-Ver-
gleichen trägt schon heute dazu bei, dass
Ist-Analysen eine präzise Entscheidungs-
grundlage bilden können. Allerdings ist
Business Intelligence in meinen Augen
nur dann wirklich sinnvoll, wenn es auch
zukunftsorientiert arbeitet, was durch
die Unterfütterung mit entsprechender
Big Data realisierbar ist. Nicht nur durch
die Identifikation von Mustern und Ana-
lyse-Algorithmen strukturierter sowie
unstrukturierter Datenmengen, auch auf
Basis statistischer Berechnungen, Simula-
tionen, Elementen der Spieltheorie sollen
künftig nicht nur Trends und damit ein-
hergehende Chancen sondern auch Be-
drohungen und damit zusammenhängen-
de Risiken kalkulier- und prognostizierbar
werden.
Stefan Sexl
Nach meinem Verständniswerden für Pre-
dictive Analytics verschiedene mathema-
tische und statistische Verfahren in einem
Datenbestand eingesetzt, um Prognosen
zu erstellen. Beispiel Wartungsintervall
von Maschinen: Aus vielen Messdaten, die
während eines Produktionsprozesses an-
fallen, lässt sich mit statistischen Verfah-
ren unter anderem prognostizieren, wann
Verschleißteile ausgewechselt werden
müssen. Und so gibt es eine Vielzahl von
Anwendungsfällen für Predictive Ana-
lytics, wie etwa die Personaleinsatzpla-
nung und die Befüllung von Frischethe-
ken in Abhängigkeit von Wetterdaten oder
die Ausfallwahrscheinlichkeit von Konsu-
mentenkrediten – übrigens alles Beispiele,
bei denen sich ein ROI berechnen lässt,
was in der Business Intelligence Branche
ansonsten ein schwieriges Thema ist.
Dr. Ulrich Kampffmeyer
„Predictive Analytics“ ist auch nichts Neu-
es.seit den Zeiten, wo man sich mit Exper-
tensystemen der wissensbasierten Syste-
men beschäftigt hat oder heute im Umfeld
von BI und BDA Big DataAnalytics, galtes,
aus den Daten Rückschlüsse auf zu erwar-
tende, zukünftige Zustände oder Entwick-
lungen zu ziehen. „Predictive Analytics“
ist das Berechnen von möglichen wahr-
scheinlichen Entwicklungen. Predictive
Analytics ist von der Art und der Qualität
der Daten und der Auswertungsalgorith-
men abhängig. Eine komplette automati-
sierte Ableitung für eine „Steuerung von
Unternehmen“ ist Zukunftsmusik, wenn
nicht sogar eine Gefahr. Allerdings in Be-
reichen der Produktion, der Lagerhaltung,
der Logistik, der Angebotssteuerung in
Medien sind solche Techniken bereits weit
verbreitet. Hierbei geht es aber eher um
saisonale Effekte oder Käuferverhalten,
aber auch um Abarbeitung von Prozessen
der eigenen Mitarbeiter im Unternehmen
an Hand von Daten fassbarer Prozesse - je-
doch nicht um die Steuerung des Gesamt-
unternehmens. Letztlich sind die Ergeb-
nisse, die „Predictive Analytics“ liefert zu
interpretieren und damit ein Hilfsmittel
für Entscheider im Unternehmen.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
31
Datenvisualisierung, ist das
Auge wirklich ein guter
Detektor oder ist alles nur ein
„Trompe l’œil“?
Datenvisualisierung gilt als state-of-
the-art in der Analytik: Das Auge ist
ein exzellenter Detektor für versteck-
te Strukturen, sagt man. Umgekehrt
wissen wir, dass man sehr wohl das
Auge leicht täuschen kann. Brauchen
wir wirklich all die bunten Bilder, um
Daten zu verstehen und zu interpre-
tieren, oder lassen wir uns hier etwas
vorgaukeln?
Dr. Ulrich Kampffmeyer
Die Visualisierung von komplexen Zusam-
menhängen ist sehr schwierig. Dies haben
wir schon bei der Konzeption von MIS
Management Information Systems in der
Vergangenheit gelernt, wo man mit Am-
peln, Karten und Graphen versucht hat,
Entscheidern Dateninhalte erkennbar
und sicher interpretierbar aufzubereiten.
Die Frage ist jedoch nicht „brauche ich
Visualisierung“ sondern wieviel Visuali-
sierung für welchen Zweck. Hier sind die
Möglichkeiten grafischer Userinterfaces
heute fast uner¬schöpflich. Es kommt
aber darauf an, wesentliche Inhalte oder
Veränderungen sofort erkennbar zu ma-
chen. Visualisierung muss zielgerichtet
und angemessen für den Benutzer sein.
Bunte Oberflächen allein helfen nicht.
Außerdem muss der Zugang zu den da-
hinterliegenden Daten und deren Verar-
beitungsprozess in jedem Fall zusätzlich
gegeben sein. Manche Entwicklungen im
Markt für Oberflächen wie z.B. 3-D oder
Gamification haben bei BI, wenn die Da-
ten für Geschäftsentscheidungen genutzt
werden sollen, meines Erachtens keinen
Platz.
Stefan Sexl
Stephen Few oder Dr. Rolf Hichert kri-
tisieren bereits seit einigen Jahren die
Auswüchse der Datenvisualisierung und
machen Vorschläge für ein Informati-
on Design oder geben ein Regelwerk vor.
Auch die pmOne AG befasst sich sehr
intensiv mit den Themen Information
Design und Reporting. In einer langfris-
tigen Forschungskooperation mit der
Fachhochschule Oberösterreich und der
KPMG Österreich untersuchen wir aktu-
ell, wie die Wirksamkeit unterschiedli-
cher Darstellungen empirisch geprüft und
verbessert werden kann. Dabei kommt
die Eye-Tracking-Technologie zum Ein-
satz, von deren Nutzen Prof. Dr. Heimo
Losbichler, der die Forschungen leitet,
jüngst in einem „Interview über Reporting
Design zur Verbesserung des Berichtswe-
sens“ ausführlich berichtet hat. Mit Eye
Tracking lässt sich genau erkennen, wo-
hin ein Berichtsempfänger schaut, wie
oft und wie lange und ob die daraus ge-
zogenen Schlüsse richtig oder falsch sind.
Eye Tracking gibt Aufschluss über Wahr-
nehmungsmuster der Berichtsempfänger
– und dadurch detaillierte Anleitungen,
wie Berichte optimiert werden können.
Bei der von der Fachhochschule Ober-
österreich entwickelten Methodik wird
unterschieden zwischen den objektiven
Kriterien der Effizienz, also wie schnell
Darstellungsformen erfasst werden, der
Effektivität, also wie weit die Informatio-
nen dann auch richtig aufgenommen wer-
den, sowie der subjektiven Zufriedenheit
der Berichtsempfänger. Damit machen
wir messbar, was funktioniert und wollen
einen Beitrag leisten zur Objektivierung
einer oft geschmacksorientierten Debatte.
Wolfgang Seybold
Advanced Visualization ist ein großes
Thema in der Business Intelligence im
Hinblick auf die immer größer werdenden
Datenmengen und der Benutzerfreund-
lichkeit. Tatsächlich gibt es medienpsy-
chologische Untersuchungen, die nahe-
legen, dass der Mensch Daten leichter
aufnehmen und Muster erkennen kann,
wenn er sie in einer grafischen Darstel-
lung vorfindet. Allerdings ist dies eine
zweischneidige Angelegenheit: Für die
schnelle Aufnahme ist die grafische Visua-
Zum Autor Dr. Ulrich Kampffmeyer:
Dr. Ulrich Kampffmeyer, Jahrgang 1952, ist Gründer und Ge-
schäftsführer der PROJECT CONSULT Unternehmensberatung
GmbH, Hamburg.
Vor seiner Tätigkeit als Geschäftsführer von PROJECT CONSULT
war Dr. Kampffmeyer an mehreren Universitäten, Forschungsin-
stituten sowie für DMS-Anbieter und Consulting-Unternehmen
tätig.
Dr. Kampffmeyer ist anerkannter Kongressleiter, Referent und Mo-
derator zu Themen wie elektronische Archivierung, Records-Ma-
nagement, Dokumentenmanagement, Workflow, Rechtsfragen,
Business Re-engineering, Wissensmanagement, Projektmanage-
ment und Changemanagement.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Der Blick auf ungeschönte Rohdaten ist
ungemein wichtig und durch nichts zu
ersetzen“ - Wolfgang Seybold
32
lisierung mit Sicherheit hilfreicher als der
Blick auf eine tabellarische Darstellung,
aber wenn es darum geht, Daten auf ihre
Herkunft hin zu untersuchen, Quellen
zu validieren und Korrelationen auf ihre
Validität hin zu überprüfen, ist der Blick
in die ungeschönten Rohdaten ungemein
wichtig und durch nichts zu ersetzen. Wie
so oft ist der Königsweg ein Mittelweg. Bei
Datensätzen und Zusammenhängen, die
einem vom Prinzip her bekannt sind und
nur einen aktualisierten Datenbestand
darstellen, ist die Visualisierung enorm
hilfreich. Gehtesaberdarum, neue Muster
auf ihre Stimmigkeit überprüfen zu wol-
len, sollte der Umweg über die „nackten“
Zahlen gegangen werden, will man nicht
Gefahr laufen, einer Zufälligkeit oder visu-
ellen Täuschung aufzusitzen.
Bertram Geck
In der heutigen von Sprache-Bild-Ver-
knüpfungen geprägten Gesellschaft, dem
so genannten „Optischen Zeitalter“ wo
Bilder nahezu alle Lebens- und Wissens-
bereiche bestimmen, betrachte ich Daten-
visualisierung als ausschlaggebend um die
wachsenden Zahlenberge leichter zugäng-
lich zu machen. Als ein plausibles Beispiel
für Datenvisualisierung erachte ich die
Geovisualisierung, also die Visualisierung
der Verteilung der Bevölkerungsdichte
in Deutschland, welche für jedermann
einfach und schnell verständlich ist und
versteckte Strukturen spielend leicht of-
fenbart. Bestärkt wird die hohe Relevanz
der Datenvisualisierung vor allem durch
die aus der Gestaltpsychologie stammen-
de Erkenntnis der Bildüberlegenheits-
wirkung, welche besagt, dass Graphiken
gegenüber Textinformationen Wahrneh-
mungsvorteile in Form einer höheren
Überzeugungs- und Aktivierungswirkung
und stärkeren Gedächtniswirkung haben
und somit zu einer schnelleren Informa-
tionsverarbeitung führen. Demnach kön-
nen relevante Zahlen, Daten und Fakten
– wenn visualisiert – durch die jeweiligen
Akteure schneller erfasst werden. In unse-
rer stark von Bildern geprägten Medienge-
sellschaft wird nicht nurdie Fähigkeit zum
„Bilderlesen“ zu einer kulturellen Schlüs-
selkompetenz, auch die „Bilderschaffung“
also die Transformation der Daten in Bil-
der gewinnt kontinuierlich an Bedeutung.
Ein sich aus der Informationsflut des 21.
Jahrhunderts ergebender neuer Trend in
Wirtschaft, Forschung und Medien ist
laut vieler Informatiker der der „Visual
analytics“ – Die Analyse und Nutzung
der sich anhäufenden Informationsber-
ge sowie die rasche Identifikation bislang
unbekannter Zusammenhänge durch ge-
schickte Visualisierung, welcher auch ich
eine enorme Bedeutung beimesse. Die
Generierung von Modellen spielt dabei
eine wichtige Rolle. Als Pionier dieses
Metiers gilt der Londoner Infografiker
David McCandless, welcher Anfang des
Jahres einen Visualisierungswettbewerb
startete, der das enorme Potenzial von
Infografiken durch das interaktive Spiel
mit Filmkennzahlen zeigen sollte. Durch
die visuelle Analyse mehrdimensiona-
ler Daten werden auch schwierige, durch
Data Mining kaum fassbare Datensätzen,
les- und interpretierbar. Hier profitiert
Visual Analytics davon, dass das Auge im
Erkennen von Schemata jeglicher Art bes-
tens trainiert ist. Demnach beurteile ich
das Auge als optimal geeigneten Detektor
versteckter Strukturen und bin deshalb
Befürworter der Verwendung von Formen
und Farben – wenn auch in Interaktion
mit Text - um dem Auge eine komfortable
Wahrnehmung zu ermöglichen. Beachtet
werden, muss an dieser Stelle jedoch, dass
die Visualisierung von Daten nur dann ef-
fektvoll ist wenn es sich um Mensch-Ma-
schine-interaktionen handelt, im Zuge
von „machine-to-machine“ Kommunika-
tionsprozessen ist die visuelle Inszenie-
rung von Daten irrelevant.
Zum Autor Bertram Geck:
Bertram Geck trägt seit 1. Januar 2013 als Sprecher der Geschäftsführung die
Gesamtverantwortung für die Weiterentwicklung der MID GmbH. Er leitet dabei
die Bereiche Marketing und Vertrieb.
Als Gründer, Geschäftsführer und Berater in der IT- und Software-Branche trug
Bertram Geck sowohl in Deutschland als auch weltweit Verantwortung, unter an-
derem in DAX-notierten Unternehmen.
Neben seinem unternehmerischen Engagement und seiner Expertise in der Un-
ternehmensentwicklung greift Bertram Geck auf mehr als 20 Jahre Erfahrung in
Produktentwicklung, Produktmanagement sowie im Marketing und Vertrieb von
IT-Lösungen zurück.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Mir persönlich ist der sensible Umgang mit Daten außer-
ordentlich wichtig und die Privatsphäre unserer Kunden steht
an erster Stelle“ - Bertram Geck
„Als „BI-Mann“ finde ich: Mehr Daten eröffnen
mehr Chancen - als Privatmensch beobachte ich die
Debatte jedoch mit einem etwas mulmigen Gefühl“
- Stefan Sexl
33
Analytik und Performance
Management versus Daten-
schutz: unüberbrückbare
Gegensätze?
Dank der Smartphones könnenAußen-
dienst-Mitarbeiter überwacht werden,
wo und wann sie ihre Zeit verbringen.
Im Big Data haben die Kundenspuren
deutlich zugenommen. Wer mal auf
Zalando war, dem geht beim nächsten
Lesen von Spiegel Online eine Zalan-
do-Anzeige mit den zuletzt besuch-
ten Produkten auf. Wo ist die Grenze
zu ziehen, beim Datensammeln, beim
Datennutzen, beim Kundennutzen?
Bertram Geck
Big Data – ein Begriff der rasant an Be-
deutung gewinnt – wird nicht nur in der
Wirtschaft eingesetzt um zur Performan-
cesteigerung von Unternehmen beizutra-
gen und den Kundennutzen erheblich zu
steigern. Auch in Politik und Forschung
werden Datenerhebung beispielsweise
zur Terrorismusbekämpfung, Volkszäh-
lung und medizinischer Weiterentwick-
lung verwendet. Gerade das Internet und
mobile Endgeräte eröffnen ein gewaltiges
Potenzial für staatliche und kommerzi-
elle Datensammler und erleichtern die
Jagd auf den Kunden, lassen die Grenze
zwischen Datensammlung und Daten-
schutz zunehmend verschwimmen. Der
gläserne Bürger ist schon seit einigen
Jahren im Diskurs, aktuell sorgen Über-
wachungsskandale für Furore seitens der
Datenschützer. Die Überwachung von Big
Data und der Schutz der Privatsphäre wer-
den aufgrund der Verwässerung von Län-
dergrenzen und der Entwicklung neuer
Technologien weiter erschwert. Natürlich
verstecken sich in den Datenfluten auch
enorme positive Möglichkeiten. Durch
die Analyse kundenspezifischer Daten,
können Unternehmen präzise Schlussfol-
gerungen überdas Kaufverhalten des Kon-
sumenten ableiten. Auf dieser Basis lassen
sich Produkte genau am Kundennutzen
ausrichten wodurch die Kundenbedürf-
nisse optimal befriedigt werden können.
Ist es nicht das, was der Kunde von heute
erwartet? Produkte, welche genau auf sei-
ne individuellen Bedürfnisse abgestimmt
sind?
Die zunehmende Jagd auf Daten geht al-
lerdings auch mit negativen Folgen einher
und kann zum persönlichen Nachteil wer-
den, keine Frage. Die Spuren eines jeden
Bürgers können nicht nur im Internet sehr
genau getrackt werden, google street view,
mobile data und internetfähige Geräte
wie „smart“ TVs und „smart meter“ tra-
gen dazu bei, dass individuelle Daten auf
Schritt und Tritt gesammelt werden kön-
nen. Durchaus würde ich den modernen
Bürger als sehrviel freizügiger im Hinblick
auf den Umgang mit seinen persönlichen
Daten einschätzen. Vor allem vor dem
Hintergrund der zunehmenden Offenba-
rungstendenzen in sozialen Netzwerken
wie Facebook, Xing und Co. Allerdings
überschreiten das Ausspähen von Pati-
entendaten, das unerlaubte Abhören von
Telefonleitungen und das Mitlesen von
E-Mails dann doch gewisse Grenzen – Ja
divergiert in meinen Augen mit einem der
wichtigsten Grundrechte, nämlich dem
Schutz der Privatsphäre. Abzuwägen, ob
es mehr Sinn macht Passagierdaten zu
übermitteln oder einen Terroranschlag in
Kauf zu nehmen ist an dieser Stelle nicht
zielführend. Fest steht jedoch, dass der
sensible Umgang mit Daten vor allem im
Zeitalter von Big Data sichergestellt wer-
den muss.
Eine generelle Grenze zu ziehen, an wel-
cher Stelle der Kundennutzen dem Daten-
schutz untergeordnet werden sollte, er-
achte ich als diffizil. Individuelle Grenzen
können jedoch sowohl durch den Konsu-
menten als auch durch Unternehmen ge-
schaffen werden - Der Kunde durch seine
Bereitschaft persönliche Informationen
zu offenbaren oder einzubehalten, das
Unternehmen durch seine Prämisse, den
Datenschutz des Einzelnen beim Umgang
mit Daten zu respektieren und zu realisie-
ren. Mir persönlich und der MID GmbH
ist der sensible Umgang mit Daten außer-
ordentlich wichtig und die Privatsphäre
unserer Kunden steht an erster Stelle. Na-
türlich setzen auch wir Analysewerkzeuge
ein um die Unternehmensperformance
messen zu können. Allerdings besteht mir
ein persönliches Anliegen darin, durch
Transparenz das Vertrauen unserer Kun-
den zu gewinnen und die offensichtlichen
Vorteile von neuen Technologien deutlich
herauszustellen.
Die Produkte der MID bieten immer die
Möglichkeit, neben der Public Cloud (Da-
tenverarbeitung im Internet) auch eine
Private Cloud (Datenverarbeitung nur im
unternehmensinternen Netz) zu nutzen.
Der Anwender muss entscheiden können,
welche Sicherheitsstufe er wählt. Beson-
ders im Umgang mit Unternehmensdaten
ist es wichtig, diese Flexibilität konse-
quent bereitzustellen. Das Erfolgsrezept
in diesem Zusammenhang ist meiner Mei-
nung nach Big Data mit Datenschutz und
Datenbewusstsein zu verknüpfen. Nur so
kann sowohl Performance als auch der
Schutz der Privatsphäre unserer Kunden
sichergestellt werden.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Die Problematik der personenbezogenen Aus-
wertung gibt es dabei nicht erst mit BI sondern
schon mit Workflow und BPM Business Process
Management.“ - Dr. Ulrich Kampffmeyer
„Ich sehe einen großen Nachholbedarf in der
internationalen Politik, denn um Persönlichkeits-
rechte adäquat zu schützen bedarf es einheitlicher
Datenschutzregelungen.“ - Wolfgang Seybold
34
Stefan Sexl
Beruflich gesehen als langjähriger „BI
Mann“ lautet meine Antwort: Mehr Daten
eröffnen mehr Chancen für Nutzen – üb-
rigens oft auch gesellschaftlich positiven
Nutzen, denken wir an Auswertungen in
der Medizin. Als Privatmensch beobachte
ich die Debatte – wie vermutlich die meis-
ten von uns – mit einem etwas mulmigen
Gefühl: Wenn – um ein zur Zeit viel zitier-
tes Beispiel aufzugreifen – ein Auswerte-
werkzeug eines großen Handelsunterneh-
men vor dem Schwiegervater von einer
Schwangerschaft „erfährt“, dann wirft das
trotz aller Begeisterung für die schlaue
Technologie dahinter viele Fragen auf. Ich
denke, die von Ihnen nachgefragte Grenze
bildet sich zur Zeit in einer äußerst span-
nenden gesellschaftlichen Diskussion, de-
ren Ausgang und Folgen wir alle zur Zeit
noch nicht abschätzen können.
Dr. Ulrich Kampffmeyer
Wir leben hier bereits in einer Welt der
Doppelmoral. Das Unternehmen möch-
te natürlich alle greifbaren Daten über
Lieferanten, Partner, Kunden, Öffent-
lichkeitsstellungnahmen usw. vollständig
sammeln, auswerten und nutzen. Nutzen
zum Beispiel um Lieferanten zu günsti-
geren Konditionen zu zwingen, nutzen
um Kunden zusätzliche Geschäfte vorzu-
schlagen, nutzen um Entwicklungen in
der Öffentlichkeit zu erkennen, die der
Reputation des Unternehmens gefährlich
werden können. Hier werden die Gren-
zen der rechtlich zulässigen Auswertung
und Daten-bevorratung (z.B. dauerhafte
Speicherung von Informationen über In-
teressenten, die jedoch nicht zum Kunden
geworden sind; Beziehungen zwischen
verschiedenen Kunden über Adressen,
benutzten Kreditkarten und Social-Me-
dia-Vernetzung; etc.) schnell einmal
überschritten. Im Unternehmen ist die
Situation noch etwas anders, weil hier
hausinterne Datenschützer und Betriebs-
räte schon eher auf die Einhaltung von
BDSG und Landesdatenschutzgesetzen
dringen. Dies zeigt sich zum Beispiel an
der Umsetzung der elektronischen Per-
sonalakte, die hohen Sicherheits- und
Vertraulichkeitsanforderungen unter-
liegt. Die Problematik der personenbe-
zogenen Auswertung gibt es dabei nicht
erst mit BI sondern schon mit Workflow
und BPM Business Process Management.
Audit-Trails erlauben das Nachvollziehen
aller Arbeitsschritte. Daher sind die Infor-
mationen aus Workflow- und BPM-Syste-
men im Unternehmen eine gern genutz-
te Quelle für die Auswertung mit BI. Die
Grenzen sind hier fließend, denn einer-
seits braucht das Unternehmen um Pro-
zesse technisch stabil, nachvollziebar und
compliant abzuwickeln, andererseits sind
der personenbezogenen Auswertung von
Daten Grenzen gesetzt. Ob diese heute in
der bestehenden Form noch sinnvoll und
praktikabel sind, ist fraglich. Denn es gibt
schon die Grauzone – als Mitarbeiter im
Unternehmen einigermaßen geschützt,
als Kunde des Unternehmens, in dem man
auch arbeitet, aber voll transparent und
ausgewertet.
Wolfgang Seybold
Die Grenze beim Sammeln und Auswerten
von Daten ist immer da zu ziehen, wo dies
nicht mehr mit ethischen, moralischen
und rechtlichen Grundsätzen vereinbar
ist. Darüber hinaus sollte jedes Unterneh-
men, welches sich um Daten von Personen
bemüht, eine offene Informationspolitik
betreiben. Sprich, deutlich darauf hinwei-
sen, wenn Daten abgegriffen werden und
welchen Zweck dieses verfolgt. Daten-
schutz ist wichtig und eine wesentliche
Grundlage des gegenseitigen Vertrauens
zwischen Unternehmen und Kunden –
diese Basis sollte unter keinen Umständen
zerstört werden. Natürlich sind Daten ein
wertvoller Produktionsfaktor geworden,
aber nur wenn diese auch wirklich einem
von beiden Seiten akzeptiertem Nutzen
dienen, ist der Einsatz auch gerechtfertigt.
Hier sehe ich aber auch einen großen
Nachholbedarf auf Seiten der internatio-
nalen Politik. Denn um die Wettbewerbs-
freiheit und die Persönlichkeitsrechte ad-
äquat zu schützen, bedarf es unbedingt
einheitlicher Datenschutzregelungen.
Brauchen wir eine analytische
Unternehmenskultur?
Analytik insbesondere soll Entschei-
dungen auf Fakten stellen. Sind aber
die Mitarbeiter und Manager darauf
vorbereitet, Zahlen und analytische
Ergebnisse zu verstehen, zu interpre-
tieren und in Entscheidungen und
Maßnahmen umzusetzen. Bisher hat
man in der Regel aufgrund von Erfah-
rungswissen entschieden. Müssen wir
hier nicht in unserem Unternehmen ei-
nen Wandel einleiten und eine Kultur
aufbauen, die Analytik leben kann?
Dr. Ulrich Kampffmeyer
Analytik von Informationen im Unter-
nehmen (Mitarbeiter, deren direkten Be-
zugs-personen), von Partnern (Kunden,
Lieferanten, Behörden etc.) außerhalb
des Unternehmens und von den Metada-
ten-Profilen über den eigentlichen Meta-
daten braucht Regeln und Vereinbarun-
gen. Intern braucht man auch eine „Kultur
des Vertrauens“, da nicht alles technisch
abgesichert werden kann (Datenschutz,
Datensicherheit). Diese „Kultur des Ver-
trauens“ beinhaltet selbstverständlich
auch das Thema „Analytics“, Analyse. Im
„Ersten Vertrauenskreis“ müssen für die
Entscheider und diejenigen, die Auswer-
tungen durchführen, entsprechende Re-
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„Die Schwierigkeit eine durchweg auf Analytik basierende
Kultur aufzubauen, ergibt sich vor allem aus der Hetero-
genität von Unternehmen.“ - Bertram Geck
„Die Ängste, die der NSA-Skandal im öffentli-
chen Bereich geweckt hat, schlagen sich auch
auf das Thema Analytics in und durch Unter-
nehmen wieder.“ - Dr. Ulrich Kampffmeyer
35
geln vereinbart werden. Hier geht es nicht
nur um die rechtlichen Grenzen, sondern
auch um das Thema Qualität, um Feh-
lentscheidungen auf Grund unglücklich
zusammengewürfelter Eingangsdaten zu
vermeiden. Im „Zweiten Vertrauenskreis“
geht es um alle Mitarbeiter im Unterneh-
men – auch die temporären und freien Ar-
beitskräfte, da sich die Arbeitskultur ver-
ändert. Es muss dokumentiert und aktiv
kommuniziert werden, was für welchen
Zweck ausgewertet wird, wie lange welche
Informationen gespeichert werden, wie
die Entpersonalisierung für statistische
Auswertungen vorgenommen wird, wel-
che Informationen in Audit-Trails landen.
Und natürlich, welche Möglichkeiten der
Mitarbeiter hat, Auskunft über die gespei-
cherten Informationen zu erhalten. Im
„Dritten Vertrauenskreis“ geht es um die
Partner wie Lieferanten, denen auch Klar-
heit überdie Nutzung ihrer Daten gegeben
werden muss um z.B. Überraschungen bei
Reklamationen und im Qualitätsmanage-
ment zu vermeiden. Im „Vierten Vertrau-
enskreis“ geht es um die für das Unterneh-
men wichtigste Ressource, den Kunden.
Hier gibt es gesetzliche Vorschriften, die
die Datenspeicherung und Auswertung
einschränken, aber im Zeitalter des „Ama-
zon-Vorschlagwesens“ quasi wirkungslos
geworden sind. Die Unternehmen sind
jedoch gehalten, auch diesem Kreis offen
zulegen, was wie gespeichert und verar-
beitet wird, wie man darüber Nachweise
erhält und was das Unternehmen tut, dass
diese Grundsätze auch eingehalten wer-
den. Der „Fünfte Vertrauenskreis“ ist die
Öffentlichkeit – Presse, Interessenten, Be-
hörden und „der Rest der Welt“. Eine ak-
tive und offene Kommunikation des Um-
gangs mit Daten und deren Auswertung
ist heute fast eine Selbstverständlichkeit.
Die Ängste, die der NSA-Skandal im öf-
fentlichen Bereich geweckt hat, schlagen
sich auch auf das Thema Analytics in und
durch Unternehmen nieder. Vertrauen
zu schaffen und ehrlich zu bleiben, sind
daher wichtige Faktoren für erfolgreiche
Unternehmen.
Eine solche „Kultur des Vertrauens“ ist
Voraussetzung für eine „Analytics-Kul-
tur“ und schließt diese unbedingt ein. Es
kann kein Vertrauen geben, wenn man
nicht weiß was analysiert und für welchen
Zweck verwendet wird.
Bertram Geck
Entscheidungen sind überall dort un-
verzichtbar, wo eine Wahl zwischen ver-
schiedenen Alternativen getroffen werden
muss. Somit sind Entscheidungen – ob
rational oder intuitiv - für Unternehmen
und das Management als primären Ent-
scheidungsträger alltäglich, die Art der
Entscheidungsfindung erfolgsbestim-
mend. Ob die Implementierung einer
rein analytischen Unternehmenskultur
zwingend notwendig ist und stringent re-
alisiert werden sollte um Performance zu
gewährleisten, ist in meinen Augen wiede-
rum fraglich. Denn oftmals sind es die auf
Wissen basierenden Bauchentscheidun-
gen, welche sich als richtig herausstellen.
Die Schwierigkeit eine durchweg auf Ana-
lytik basierende Kultur aufzubauen, ergibt
sich vor allem aus der Heterogenität von
Unternehmen. Werfen wir beispielswei-
se einen Blick auf die diversen Entschei-
dungsträger im Unternehmen, so wird of-
fensichtlichdass nebendem Management,
welches die grundlegenden Entscheidun-
gen übernimmt, jeder Fachbereich für
sich kleine, alltägliche Entscheidungen
trifft. Hier kann sicherlich das Klischee
herangeführt werden, dass ein Controller
oder ein Business Analyst eher analytisch,
durch den Kopf und ein Vertriebsmitar-
beiter mehr durch den Bauch entscheidet.
Dennoch, bei Heranziehen des Beispiels
Personalbereich, wird vor allem bei der
Akquise von neuen Mitarbeitern schnell
deutlich, dass neben Referenzen, Lebens-
lauf und Qualifikationen auch die Sympa-
thie – also das Bauchgefühl – bei der Per-
sonalwahl mitentscheidet.
Analytik wird jedoch – vor allem in der
heutigen volatilen Wirtschaft – an Bedeu-
tung gewinnen. Schließlich ermöglicht
uns Analytik durch das Durchspielen von
Szenarien und die Analyse interner und
externer Faktoren eine optimale Entschei-
dungsgrundlage nicht nur für die Gegen-
wart, sondern wie bereits im Rahmen der
predictive analytics erwähnt, auch für die
Zukunft zu treffen und so Risiken abzu-
wenden. Gerade deshalb werden vor allem
bei komplexen Zusammenhängen sämtli-
che Informationen gebündelt, multivari-
ante Optionen durchdacht, nicht zuletzt
um Entscheidungen im Nachhinein durch
Begründungen legitimieren zu können.
Die Rechtfertigung und Begründbar-
keit stellt nämlich eine entscheidende
Schwachstelle rein intuitiver Entschei-
dungen dar.
Competence Book - Business Intelligence
GRUNDLAGEN - VIRTUAL ROUNDTABLE
„In Zukunft wird es noch wichtiger, den Anwendern das Hinterfragen
und den Mehwert von datengetriebenen Analysen nahezubringen.“
- Wolfgang Seybold
„Auch außerhalb der Geschäftswelt stellt sich die Frage, was
ein „Mehr“ an Informationen nutzt, wenn diese nicht in die
Entscheidungsfindung einfließen.“ - Stefan Sexl
36
Jedoch muss an dieser Stelle auch berück-
sichtigt werden, dass das Bauchgefühl
sehr vielschichtig ist und neben dem Ge-
fühlsfaktor auch weitere Aspekte wie Er-
fahrung, sozialer Instinkt Kompetenz und
Wissen miteinbezieht. Nicht umsonst re-
det so mancher Wissenschaftler von dem
Bauch als „Second Brain“. Einleuchtend,
wenn man bedenkt, dass menschliche In-
telligenz nicht wie eine Rechenmaschine
funktioniert. Als Paradebeispiel für die
Macht der Intuition betrachte ich Sport-
ler. Wenn zum Beispiel ein Fußballspieler
während eines Spiels beginnt abschätzen
zu wollen, wo der Ball wohl landen könn-
te, dann hat er schon verloren. Es ist also
nicht immer sinnvoll, Entscheidungen ab-
zuwägen und analytisch zu untermauern.
Zweifellos bedarf es jedoch neben klugen
Köpfen, Kompetenz, Erfahrung und der
richtigen Intuition, auch Zahlen (in Form
von Wissen) im Unternehmen. Es geht
also meiner Meinung nach nicht (nur)
darum eine analytische Unternehmens-
kultur einzuführen, sondern vielmehr
darum eine einheitliche Wissensbasis für
das gesamte Unternehmen zu schaffen.
Modellen und Plattformen, die einen zie-
lorientierten, aktuellen Wissensaustausch
unterstützten messe ich dementspre-
chend einen immensen Wert bei. Schließ-
lich unterstützten diese jeden Mitarbeiter
im Unternehmen bei den unzähligen Ent-
scheidungen im Arbeitsalltag und stellen
immer eine größtmögliche Aktualität des
Wissens einzelner Mitarbeiter sicher. Ab-
schließend geht es also für mich darum,
ein bereichsübergreifendes Wissensma-
nagement in der Unternehmenskultur zu
verankern, welches ja die Basis für analy-
tische Entscheidungen darstellt. Wissen
und die Analytik helfen dabei, den Kopf
bei der Entscheidungsfindung stärker ein-
zubeziehen. Man darf aber nicht zu zah-
lengläubig sein. Für gute Entscheidungen
müssen Bauch und Kopf zusammenarbei-
ten.
Stefan Sexl
Es gibt Untersuchungen, die zeigen, dass
Unternehmen mit einer analytischen Un-
ternehmenskultur erfolgreicher sind. Ein
Beispiel ist die Studie „Business Intelligen-
ce und Advanced Analytics / Data Mining“
des Insitituts für Business Intelligence. In-
sofern ist die Frage unbedingt mit „Ja“ zu
beantworten. Auch zeigt eine Vielzahl von
Befragungen, dass Business-Intelligen-
ce-Lösungen – als Grundvoraussetzung
für eine analytische Unternehmenskultur
– in den Unternehmen hohe und höchste
Priorität haben. Unsere Produkte und Lö-
sungen jedenfalls sind darauf ausgerich-
tet, schnell und unkompliziert eine ana-
lytische Unternehmenskultur zu schaffen.
Das Thema lässt sich noch um einen ge-
sellschaftspolitischen Aspekt erweitern.
Denn auch außerhalb der Geschäftswelt
stellt sich die Frage, was ein „Mehr“ an
Informationen nutzt, wenn diese nicht
in die Entscheidungsfindung einfließen,
beipielsweise aus mangelndem Vertrauen
in Daten und Fakten. Generell wäre es be-
grüßenswert, wenn analytische Prinzipien
vermehrt gelebt würden. Dazu müssten
mehr Verständnis und Vertrauen in und
für rationales, faktenbasiertes und kri-
tisches Denken im Alltag verankert sein.
Und wer im täglichen Leben auf eine ana-
lytische Kultur baut, überträgt dies auto-
matisch auch auf das berufliche Umfeld.
Wolfgang Seybold
Wie bereits bei der Antwort zu Predictive
Analytics angeklungen ist, ist die Analytik
schon immer ein wesentlicher Bestand-
teil der Entscheidungsfindung gewesen.
Je mehr Technologien in den Entschei-
dungsprozess miteingebunden wurden,
desto datengetriebener wurden die Ana-
lysemethodiken. Das personenbezogene
Erfahrungswissen hat dabei aber nach
wie vor als Korrektiv gewirkt und das aus
gutem Grund. Kennen Sie das beliebte
Beispiel aus der Statistik im Bezug auf
die Storchenpopulation und die Gebur-
tenrate? Ohne große Probleme lässt sich
statistisch nachweisen, dass die Größe
der Storchenpopulationen mit der Höhe
der Geburtenrate in einer Verbindung
zueinander steht. Der Storch bringt also
doch die Kinder. Für rein datengetriebene
Analysen wäre dies eine durchaus gängige
Schlussfolgerung.
In Zukunft wird es noch wichtiger, den
Anwendern solcher Analyselösungen das
Hinterfragen, aber auch den Mehrwert
von datengetriebenen Analysen und den
adäquaten Umgang mit den Ergebnissen
nahezubringen. Dies muss auf jeden Fall
in die Unternehmenskultur integriert
werden und von oben nach unten und
umgekehrt gelebt werden.
Competence Book - Business Intelligence
GRUNDLAGEN - SELF-SERVICE BI
38
MitSelf-Serviceerfolgreich
im Bereich Business Intelligence
D
er Anspruch des Konzeptes Business Intelligence ist, Entscheidungen auf Fakten
zu stellen und bessere Entscheidungen zu treffen. In den Anfangszeiten von Busi-
ness Intelligence hat man dabei eine Frage vernachlässigt: Welche Fähigkeiten und
Unterstützung braucht man, um erfolgreich, effektiv und effizient mit Business Intelligen-
ce-Konzepten und Werkzeugen arbeiten zu können?
AUTOR: Dr. Wolfgang Martin (Wolfgang Martin Team)				 www.wolfgang-martin-team.net/BI-BPM-SOA
Hier setzt sich die Erkenntnis durch, dass man einen kombi-
nierten Ansatz aus organisatorischen Maßnahmen und tech-
nischen Möglichkeiten einsetzen muss, um mit Business Intel-
ligence erfolgreich zu sein. Man setzt von diesen beiden Seiten
aus an. Früher und zum Teil heute immer noch stand und steht
in vielen Unternehmen die Technologie ganz vorne. BI-Lösun-
gen wurden in der Regel von der IT ausgesucht. Nur die techno-
logischen Aspekte und Konzepte zählten. Der Mensch als Nut-
zer von BI-Technologie wurde typischerweise vernachlässigt.
Die Bedienbarkeit von Werkzeugen war ja – so glaubte man – in
Schulungen erlernbar. Das war aber ein Irrtum und stets auch
ein Grund, der viele BI-Projekte zum Scheitern brachte, denn
traditionelle Business Intelligence-Werkzeuge fanden trotz in-
tensiver Schulungen bei weitem nicht immer die notwendige
Akzeptanz. Besondere Business-Analysten oder Poweruser bil-
deten sich heraus, die BI-Aufgaben in den Abteilungen über-
nahmen. Information wurde zum Luxusgut, das nicht allen
Mitarbeitern zur Verfügung stand.
Um aus dieser Sackgasse herauszukommen, stellten konse-
quenterweise viele BI-Berater und Unternehmen jetzt den or-
ganisatorischen Ansatz ganz nach vorne und die Technologie
hintenan. Das aber ist auch nicht der Weisheit letzter Schluss:
Richtig ist, dass es ohne organisatorische Maßnahmen nicht
geht, aber umgekehrt greifen organisatorische Maßnahmen
nur dann, wenn die Mitarbeiter mitziehen. Dazu ist Akzeptanz
notwendig, aber eine Begeisterung der Mitarbeiter noch besser.
Zur Begeisterung der Mitarbeiter kann und sollte Technologie
beitragen. Daher ist auch die Technologie ein kritischer Er-
folgsfaktor von Business Intelligence, besonders auch um den
wahren Wert und Nutzen von Information zu erfahren. Orga-
nisatorische und technische Aspekte von Business Intelligence
müssen daher ausgewogen werden, auf beide kommt es an.
Zur Begeisterung der Mitarbeiter gehört eine technologisch
perfekte Unterstützung der organisatorischen Maßnahmen.
Im Zeitalter von sozialen Netzen, Smartphones und Tablet-
Rechnern muss die Bedienbarkeit aller Werkzeuge der Business
Intelligence einfach stimmen. Da die Informationsbedürfnis-
se im Rahmen der BI-Governance über die jeweilige Rolle der
Mitarbeiter bestimmt wird, müssen hier Organisation und
Technologie Hand in Hand gehen. Die Werkzeuge müssen also
nicht nur die notwendige Ergonomie bieten, sondern auch den
Rollen entsprechend eingerichtet werden können. So wird eine
BI-Governance nicht als einengendes Regelwerk empfunden,
sondern von allen Mitarbeitern auch gelebt. Mit einem einfa-
chen, intuitiven und visuellen Bedienen der Werkzeuge ent-
sprechend seiner Rolle schwinden Berührungsängste, werden
Barrieren abgebaut und die notwendige Begeisterung aufge-
baut. Das schafft Motivation: So erreicht man das Ziel von Go-
vernance, ein regelkonformes Management und Verhalten aller
Mitarbeiter in Business Intelligence.
Eine geeignete Technologie schafft neben guter Bedienbarkeit
und Automation von Arbeitsschritten auch eine Autonomie
von der IT: Man kann im Rahmen der Business Intelligen-
ce-Governance aufgrund der Ergonomie der Werkzeuge viele
Aufgaben in der Fachabteilung selbständig lösen. Hier spricht
man heute von Selbstbedienungs-BI (Self-Service BI), ein An-
satz, der Technologie mit Organisation zusammenbringt.
Gemäß Imhoff/White sollte Self-Service BI vier Zielsetzungen
verfolgen: leichter Zugang zu Daten zur Berichtserstellung
und Analyse, benutzerfreundliche BI- und Analyse-Werkzeu-
ge, einfache und anpassbare Oberflächen der Werkzeuge und
Data Warehouse-Technologien, die schnell bereitgestellt wer-
den können wie Appliances und Cloud-basierte Systeme.
Competence Book - Business Intelligence
GRUNDLAGEN - SELF-SERVICE BI
39
Aber Self-Service BI ist nicht unbedingt
ein Selbstläufer. Als erstes wird man
feststellen, dass man den Trainingsauf-
wand völlig unterschätzt hat, denn gute
Werkzeuge und leichter Zugang zu Da-
ten ist nicht alles: Self-Service BI beginnt
in den Köpfen der Mitarbeiter. Wenn das
nicht der Fall ist, dann landet man in
einem Berichts-Chaos, erreicht eine to-
tale Verwirrung unter den Nutzern und
hat dann möglicherweise einen höheren
Supportaufwand als in der traditionellen
BI, wenn die IT Berichte baut und Daten
analysiert.
Die Einführung von Self-Service BI soll-
te deshalb als ein Programm aufgesetzt
werden. Als erstes gilt es festzustellen,
was die unterschiedlichen Anforderun-
gen an Self-Service BI im Unternehmen
sind: Wer sind die Nutzer und welche Art
von Selbstbedienung wollen sie wirklich
haben? Beispielsweise werden Techno-
logie-affine Nutzer die Konzepte von
Self-Service BI schnell verstehen und
umsetzen können, während gelegentli-
che Nutzer schon zufrieden sind, wenn
sie per Selbstbedienung Parameter in ei-
nem Bericht ändern können, um alterna-
tive Sichten auf Daten zu erhalten.
Ein kritischer Erfolgsfaktor ist, wie schon
gesagt, die Governance, auch wenn die
IT teilweise die Kontrolle über die Daten-
analyseprozesse abgibt. Aber genau des-
halb erfordert Self-Service BI eine enge
Zusammenarbeit von Fachabteilungen
und IT. Die Daten-Definitionen für die
wichtigsten Performance Metriken müs-
sen kommuniziert werden, so dass Be-
richte und Analysen konsistent bleiben.
IT- und Fachabteilungs-Manager sollten
im Rahmen der Governance die Nutzung
von Self-Service Software kontinuierlich
aufzeichnen, um eventuelle Konflikte
mit Compliance zu entdecken und zu
korrigieren oder um Abfragen rechtzei-
tig zu stoppen, die das ganze BI-System
lahm legen könnten.
Ein weiterer kritischer Erfolgsfaktor sind
wiederverwendbare Bausteine in der
Self-Service-BI-Umgebung. So sollten
BI-Entwickler vordefinierte, nicht änder-
bare Performance-Metriken program-
mieren. BI-Manager sollten Start-Bi-
bliotheken mit Berichts-Mustern und
Standard-Analyseroutinen schaffen,
so dass die Self-Service BI-Nutzer nur
noch auswählen und kombinieren müs-
sen. Die IT sollte bei der Einführung von
Self-Service BI hier nicht zu wenig inves-
tieren: Das schafft die notwendige Stan-
dardisierung und macht alles erheblich
leichter.
Schließlich ist Kollaboration in den BI-
Teams ein weiterer kritischer Erfolgs-
faktor. Das sollte durch kollaborative
Werkzeuge in den Self-Service BI-Syste-
men unterstützt werden. Dazu gehören
die Möglichkeiten Annotationen und
Kommentare zu Berichten und Ana-
lyseergebnissen einzugeben, Berichte
und Dashboards zu bewerten, mittels
Chat-Funktionalität Berichte und andere
Ergebnisse anzupreisen, um mit Kolle-
gen gemeinsam zu nutzen und andere.
So kann Business Intelligence zu einer
Selbstverständlichkeit im Tagesgeschäft
werden. So steigt die Effizienz der Mit-
arbeiter. Sie können sich wieder voll auf
ihre fachlichen Tätigkeiten konzentrie-
ren, da die Technologie sie geeignet un-
terstützt und nicht mehr Selbstzweck
ist. Umgekehrt wird durch die höhere
Autonomie der Fachabteilung in Sachen
Business Intelligence auch die IT von
Routineaufgaben entlastet. Die Gover-
nance gibt hier eine bessere und klar de-
finierte Arbeitsteilung zwischen IT und
Fachabteilung vor, die sich aufgrund der
nutzerfreundlichen Eigenschaften der
Werkzeuge auch so umsetzen lassen. So
entspannt sich in vielen Fällen das Ver-
hältnis zwischen IT und Fachabteilun-
gen.
Mit den besten Grüßen aus Annecy /
Haute Savoie
Dr. Wolfgang Martin
Zum Autor Dr. Wolfgang Martin:
Vor der Gründung des Wolfgang MARTIN Teams war Dr.
Martin 5 ½ Jahre lang bei der META Group, zuletzt als
Senior Vice President International Application Delivery
Strategies.
Darüberhinaus kennt man ihn aus TV-Interviews, durch
Fachartikel in der Wirtschafts- und IT-Presse, als Autor
der Strategic Bulletins zu den Themen BI/BPM, SOA und
CRM (www.it-research.net) und als Herausgeber und
Co-Autor, u.a. „Data-Warehousing - Data Mining - OLAP“,
„CRM-Jahres-Gutachten“, und „CRM-Trendbook 2009“.
Competence Book - Business Intelligence
GRUNDLAGEN - SELF-SERVICE BI
40
SelfServiceBI
imUnternehmenmanagen
U
nternehmen sehen sich immer häufiger einer steigenden Dynamik ihres Geschäfts-
umfeldes gegenüber. Sie müssen zunehmend der Schnelllebigkeit der Wirtschaft ge-
recht werden. Dieser aktuelle Trend stellt hohe Anforderungen an die Unternehmen,
um möglichst schnell und flexibel auf Veränderungen reagieren zu können. Self Service BI
(SSBI) trägt dieser Forderung Rechnung und gewährleistet eine möglichst hohe Flexibilität
und Reaktionsgeschwindigkeit für Fachbereiche, um auch künftig die Wettbewerbsfähig-
keit zu erreichen und aufrecht zu erhalten.
AUTOR: Daniel Volknant (cundus AG)					
Geschäftsnutzen von SSBI?
Als Beispiel soll das Geschäftsmodell eines großen E-Com-
merce-Unternehmens dienen. Im Kern besteht das Geschäfts-
modell aus der Logistik von Waren. Hierfür hat das Unter-
nehmen eine ausgeprägte IT-Infrastruktur aufgebaut, die
mittlerweile zu den Kernkompetenzen der Geschäftstätigkeit
gehört. Bei der Planung der strategischen Entwicklung des Un-
ternehmens soll überprüft werden, ob diese Stärken anderwei-
tig genutzt werden können, z. B. um auch neue Geschäftspo-
tenziale zu erschließen.
Eine mögliche Variante wäre die Skalierung der IT-Infra-
struktur zur Erschließung eines neuen Geschäftsmodells als
Cloud-Dienstleister. Zeitnah soll die Idee einer derartigen
Business Transformation analysiert und bewertet werden.
Allerdings existieren für derartige Analysen weder entspre-
chende Kennzahlen, noch bildet das bestehende BI System
das neue Geschäftsmodell ab. So erwachsen im Hinblick auf
die durchzuführenden Analysen natürlich unbefriedigte In-
formationsbedarfe in unterschiedlichen Fachbereichen. Nicht
selten führen Anwender in dieser und anderen Situationen
zur Selbsthilfe, d.h. zur Befriedigung der spezifischen Infor-
mationsbedarfe, eigene Reportinglösungen ein. Solche Repor-
tinglösungen werden gerne auch „Schattensysteme“ genannt.
SSBI steht diesen Schattensystemen als nachhaltig effiziente
und stabile Lösung gegenüber.
UmdenEinsatzvonSSBIzumotivieren,werdendieBedarfsklas-
sen der Fachbereiche und IT im folgenden Abschnitt genauer
beleuchtet. Anschließend wird dargestellt, welche Risiken mit
Schattenlösungen zur Selbsthilfe verbunden sind und welche
Vorteile SSBI bringt. Der Beitrag endet mit der Vorstellung eines
Vorgehensmodells zur Einführung von SSBI im Unternehmen
Bedarfsklassen für SSBI
Insgesamt können drei Bedarfsklassen für den Einsatz von
SSBI identifiziert werden: Agilität und Flexibilität, Integration
sowie Verantwortung.
Agilität und Flexibilität: Die Herausforderung der steigen-
den Dynamik des Geschäftsumfeldes und des Wettbewerbs-
drucks führen dazu, dass den Fachbereichen unterschiedliche
Informationen immer schneller zur Verfügung stehen müssen,
um fundierte Entscheidungen treffen zu können. Bisherige
Entwicklungs- und Releasezyklen der IT können der Forde-
rung nach Schnelligkeit und Flexibilität häufig nicht gerecht
werden.
Integration: Nicht selten wird auch eine ad-hoc Integration
von Anwenderdaten gefordert, um z.B. Wettbewerbschancen
zu identifizieren, neue Geschäftsmöglichkeiten zu erschlie-
ßen oder Business Transformationen zu unterstützen. Business
Transformationen können von der Optimierung von Geschäfts-
prozessen bis zur Entwicklung neuer Geschäftsmodelle reichen.
Competence Book - Business Intelligence
GRUNDLAGEN - SELF-SERVICE BI
41
Die Kombination von unternehmensinternen Daten mit qua-
lifizierenden Texten, eigenen Analysedaten oder externen
Analysten- und Marktdaten, kann einen wertvollen Beitrag zu
diesen strategischen Entscheidungen leisten. Gleichwohl kann
die Kombination der Daten dabei unterstützen Opportunitäts-
kosten zu vermeiden bzw. Opportunitätserlöse zu realisieren.
Solche zeitkritischen Informationsbedarfe und Anforderungen
der Fachbereiche haben vielfach eine Latenzzeit, die die Dauer
einer standardisierten Datenquellenintegration der IT bei wei-
tem unterschreitet.
Verantwortung: Schließlich stellt sich die Frage, wer die Ver-
antwortung für den Betrieb sowie die Wartung und Pflege von
Eigenentwicklungen und deren Inhalte übernimmt, die zur
Selbsthilfe der Fachbereiche entwickelt worden sind. Die Über-
nahme der Verantwortung durch die IT übersteigt nicht selten
die ohnehin knapp bemessenen Ressourcen. Zudem entspre-
chen Schattenlösungen häufig nicht den IT-Entwicklungs- und
Betriebsrichtlinien zur Effizienzsicherung. Neben einem ver-
mehrten Aufwand kann ein solches Vorgehen zu Akzeptanz-
verlust seitens der IT führen.
Schattenlösungen sind teuer und ineffizient
Aus Sicht der Fachbereichsanwender und deren bislang unbe-
friedigten Informationsbedarfen ist die Einführung von Schat-
tensystemen gut nachvollziehbar. Allerdings wird dabei außer
Acht gelassen, dass Schattensysteme generell mit zusätzlichen
Aufwendungen verbunden sind.
Betrachtet man die Kostenseite, wird folgendes klar: Konser-
vativ geschätzt, dauert die Entwicklung einer Berichtsanwen-
dung ca. 100 Personentage bei einem internen IT-Verrech-
nungssatz von 800,- €. Die Entwicklung kostet damit alleine,
gemessen an internen Personentagen, 80.000,- €. Wartung und
Pflege werden mit weiteren zwei Personentagen pro Monat ge-
schätzt. So belaufen sich die Wartungs- und Pflegeaufwendun-
gen auf zusätzliche 19.200,- € pro Jahr. In einer Kapitalwertbe-
trachtung mit einem angenommen Marktzins von 5% kostet
eine solche Berichtsanwendung über ihre Lebenszeit hinweg
damit ca. 464.000,- €. Diese Kosten sind in jeder Kostenstelle
eines berichtenden Geschäftsbereichs versteckt, die ein Schat-
tenreporting neben dem eigentlichen BI betreibt. Bei zehn be-
richtenden Geschäftsbereichen neben einem koordinierten BI
beläuft sich die Summe der Barwerte auf 4.640.000,- €. Zusätz-
lich werden die Potenziale des koordinierten BI Einsatzes nicht
ausgeschöpft.
• Entwicklungs-, Wartungs-, Pflege- und Betriebsaufwen-
dungen unterschiedlicher Technologien erschweren die
Ausnutzung von Synergieeffekten.
• Der Kauf von Lizenzen unterschiedlicher Hersteller ver-
hindert die Umsetzung von Skaleneffekten im Vergleich
zum gemeinsamen Einkauf von Lizenzen eines Herstellers.
• Softwaretechnologien und -entwicklungen sind „Sunk
Costs“ (versunkene oder irreversible Fixkosten) der Fach-
bereiche und könnten durch einen zentralen Betrieb in va-
riable Kosten umgewandelt werden.
• Auch ein Optimum der Produktivität der Informations-
bereitstellung ist bei bestehenden Schattenlösungen nur
schwer realisierbar, da nur selten ein Grenzverhältnis zwi-
schen Inputaufwendungen und generierten Output-Infor-
mationen erreicht werden kann.
Neben einer vorwiegenden Kostenbetrachtung entstehen zu-
sätzlich vermehrte Inkonsistenzen zwischen dem koordinier-
ten BI Einsatz und Schattensystemen. Solche inkonsistenten
Werte können gravierende monetäre Effekte mit sich bringen.
Eine Bank müsste z. B. bei inkonsistenten Daten über gewährte
Kredite im schlimmsten Fall einen zu großen Anteil Eigenkapi-
tal hinterlegen. Dies kann negative Effekte auf die Rentabilität
zur Folge haben.
Zum Autor Daniel Volknant:
Herr Daniel Volknant arbeitet als Strategy Consultant im Geschäftsbereich BI Stra-
tegy and Management der cundus AG. Schwerpunkt seiner Tätigkeit ist die Entwick-
lung von BI-Strategien, Corporate Performance Measurement und BI Competency
Centern sowie die Durchführung von Informationsbedarfsanalysen und Coachings.
Er verfügt über mehrjährige Erfahrung im operativen BI und BI Projektgeschäft
zur Unterstützung des Controllings und Managements. Herr Volknant hat Thema-
tiken der nutzergerechten Informationsbereitstellung vertieft und Veranstaltungen
zu Datenbanksystemen, Data Warehousing und OLAP sowie zur Gründung von
Start-up-Unternehmen gehalten.
Competence Book - Business Intelligence
GRUNDLAGEN - SELF-SERVICE BI
42
Vorteile eines gemanagten SSBI
Anstelle von Schattensystemen ist die Einführung einer ge-
managten SSBI-Umgebung anzuraten. Die Vorteile liegen auf
der Hand. Ein wesentlicher Vorteil zeichnet sich dadurch aus,
dass Fachbereiche durch die Übernahme der Verantwortung
die notwendige Flexibilität zur Planung, Steuerung und Kon-
trolle von Geschäftsmodellen bei gleichzeitiger Sicherstellung
von Performanz, Stabilität und Effizienz seitens der IT erhal-
ten. Die Flexibilität und Agilität skaliert mit den verschie-
denen Ebenen einer BI-Architektur. In der entsprechenden
Darstellung (s. Abb. 1) wird zwischen den Ebenen Berichts-,
Applikations- und Data Warehouse Ebene unterschieden. Die
Fläche des blauen Dreiecks verdeutlicht, dass die Flexibilität
und Agilität mit zunehmenden Berechtigungen über die Ebe-
nen hinweg zunimmt. Während es auf der Berichtsebene um
die Generierung von Berichten oder Kennzahlen geht, können
Anwender auf der Data Warehouse Ebene sogar Datenmodelle
anpassen.
Erfahrungsgemäß sind diese Einführungen mit einem höheren
BI-Governance-Aufwand und einer umfassenderen Verschie-
bung der Verantwortungsbereiche verbunden. Neben architek-
tonischen Aspekten werden bei SSBI auch organisatorische As-
pekte explizit in die Betrachtung miteinbezogen. Ein wirklich
wichtiges Beispiel ist die Regelung der Verantwortlichkeiten
und auch Übernahme der Verantwortung. Mit der Einführung
von SSBI wird Fachbereichen, unter Berücksichtigung IT- und
organisationsspezifischer Regelungen, die Verantwortung für
eigene Entwicklungen und Ergebnisse übertragen. Diese Rege-
lungen werden im Rahmen dedizierter BI-Governance-Struk-
turen eingerichtet, die die Verantwortung zwischen Fachbe-
reich und IT aufteilen und über verbindliche Richtlinien regeln.
Die verbindlichen Richtlinien in Form von Governance-Struk-
turen bilden den Kern einer erfolgreichen SSBI-Einführung.
Im eingangs vorgestellten E-Commerce-Unternehmen benöti-
gen die Anwender zur Durchführung der gewünschten Analy-
sen die größtmögliche Flexibilität, um Daten des derzeitigen
Geschäftsmodells mit Daten ihrer Infrastruktur zu verknüpfen.
In den meisten Unternehmen werden die Daten zur Steuerung
und Überwachung der IT-Infrastruktur jedoch nicht im BI-Sys-
tem vorgehalten, da es nur zur Planung, Steuerung und Kont-
rolle des aktuellen Geschäftsmodells verwendet wird. Genau
diese beiden Datenhaltungen müssen nun aber zusammen ge-
führt werden, um die Machbarkeit oder wechselseitige Effekte
der Geschäftsmodelle E-Commerce und Cloud-Dienstleistung
zu untersuchen. Informationsbedarfe solcher geschäftlichen
Innovationen müssen i.d.R. schnell befriedigt werden und las-
sen sich nicht den Releasezyklen der IT unterwerfen.
Im Rahmen einer gemanagten SSBI-Umgebung kommt der
Vorteil zum Tragen, dass der Anwender über die Möglichkeit
verfügt entsprechend seiner Informationsbedarfe zeitnah An-
passungen und Verknüpfungen von Datenmodellen durchzu-
führen und neue Kennzahlen zu entwickeln. Eine solche Fle-
xibilität kann nur nachhaltig performant, stabil und effizient
gewährleistet werden, wenn die BI-Landschaft darauf ausgelegt
ist und eine Balance zwischen den Anforderungen der Fachbe-
reiche und der IT durch eine entsprechende strategische Pla-
nung des BI erzielt wird. Die Vorgehensweise der cundus AG
im Rahmen der strategischen Planung einer solchen BI-Land-
schaft wird im folgenden Abschnitt beschrieben.
Strategieberatung
Vorherige Ausführungen zeigen, dass die Einführung von SSBI
weit mehr umfasst als die reine Softwareauswahl. Die folgen-
den Absätze geben einen kurzen Einblick in ein phasenweises
Vorgehen einer ganzheitlichen Einführung von SSBI, um
•	 höhere Reaktionsgeschwindigkeit
	 auf Geschäftsereignisse (Time to
	 Market),
•	 schnellere und agilere Entwicklung
	 von Berichten,
•	 Gewinnung von Informationsvor-
	 sprüngen durch die Integration
	 eigener Daten,
•	 Erhöhung der Informationsqualität
	 durch Anreicherung von Daten,
•	 Verbesserung der Datenqualität
	 durch ein Data Stewardship,
•	 Übernahme von Reportingverant-
	 wortung durch den Anwender,
•	 Stabilität und Performance der BI
	Architektur,
•	 Konsistenz und Ordnungsmäßig-
	 keit der Berichte und
•	 verursachungsgerechte Verteilung
	 der Build-Kosten und Verantwort-
	 ung zu erreichen.
Abb. 1 Flexibilität und Agilität entlang der Ebenen einer BI- Architektur
Competence Book - Business Intelligence
GRUNDLAGEN - SELF-SERVICE BI
43
Einsatzpotenzialanalyse
Vor der Einführung von SSBI steht die Frage:
Welche Potenziale sind mit der Einführung
von SSBI in einem Unternehmen verbunden
und wo hat der Einsatz von SSBI die größte
Hebelwirkung? Ausgehend vom Geschäfts-
modell des Unternehmens sind zwei Heran-
gehensweisen denkbar: eine funktionale und
eine prozessuale Einsatzpotenzialanalyse.
Anforderungserhebung
Basierend auf den Erkenntnissen der Einsatz-
potenzialanalyse können die Anforderungen
an die Flexibilität und Agilität, Integration so-
wie Verantwortung künftiger SSBI Anwender
erhoben werden. Die Anforderungserhebung
erfolgt analog zum klassischen Anforderungs-
management, angepasst an die Spezifika von
SSBI, sodass die Anforderungen wie aus einem
Katalog ausgewählt werden können.
Machbarkeitsstudie
Vor dem Hintergrund der Performanz, Stabi-
lität und Effizienz wird die technische Archi-
tektur des Data Warehouse im Unternehmen
auf die Realisierbarkeit der Anforderungen
untersucht. Neben technischen Fragestellun-
gen sind je nach Anforderung auch Fragen
relevant, wie: Sind die ETL-Prozesse für den
Anwender nachvollziehbar? Welche Auswir-
kungen hat die SSBI Einführung auf Sicher-
heits- und Schutzkonzepte?
Architekturkonzept
Bestenfalls sind nach der Machbar-
keitsstudie keine architektonischen An-
passungen notwendig. Häufig sind je-
doch Änderungen durchzuführen. Die
untenstehende Abbildung (s. Abb. 2)
zeigt eine SSBI Data Warehouse Referenzar-
chitektur, die auf allen Ebenen um Elemente
des SSBI erweitert worden ist. Damit bietet
sie dem Anwender maximale Freiheitsgrade.
Je nach Anforderungsprofil und Ausgangsar-
chitektur des Unternehmens ist eine andere
Architektur abzuleiten.
Softwareauswahl
Entsprechend des Reifegrades des Unterneh-
mens mit Blick auf SSBI ist ein optionaler
Softwareauswahlprozess zu durchlaufen. Da
die architektonische Machbarkeit bereits un-
tersucht worden ist, wird der Reifegrad an-
hand technologischer und psychologischer
Eigenschaften untersucht. (Wechselwirkun-
gen z.B. zum Architekturkonzept sind aus Gründen der Übersichtlichkeit nicht
aufgeführt worden.) Zu prüfen ist hier z.B., ob die eingesetzte Software SSBI ge-
eignet ist und die SSBI Anwender befähigt sind, diese Software zu nutzen. Der
Auswahlprozess folgt dem bewährten Vorgehen der Softwareauswahl.
Governanceanpassung
Mit der Einführung von SSBI sind eine Vielzahl von Herausforderungen verbun-
den. Neben der Umsetzung der Anforderungen muss ein performanter, stabi-
ler und effizienter Betrieb sichergestellt werden. Die Anpassung der BI-Gover-
nance, um dedizierte Elemente des SSBI, trägt dieser Forderung Rechnung. Sie
grenzt gemanagte BI Umgebungen und SSBI Umgebungen voneinander ab und
beschreibt den Transfer von SSBI Entwicklungen in eine gemanagte Umgebung.
Zum Schutz vor einem Chaos obsoleter Elemente in einer SSBI Umgebung um-
fasst die BI-Governance Vorgaben und Prozesse der Bereinigung einer SSBI Um-
gebung. Richtlinien definieren die Berechtigungen über die Ebenen der BI Ar-
chitektur (s. Abb. 1) hinweg sowie die Verantwortung für SSBI Entwicklungen.
Roadmap
Alleine vorige Ausführungen zeigen, dass SSBI mehr ist als eine reine Tool-Aus-
wahl. Um ad-hoc wettbewerbsdifferenzierende Analysen entwickeln zu können
ist eine fundierte technische und organisatorische Basis zu schaffen. Nur so
können Analysen auch nachhaltig performant, stabil und effizient durchgeführt
werden. Daher sollten die einzelnen Teilprojekte strategisch geplant werden,
um ein schnelles und effizientes SSBI langfristig sicherzustellen.
Abb. 2 SSBI Data Warehouse Referenzarchitektur
Competence Book - Business Intelligence
GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE
44
AgileBIEntwicklung
erfolgreichumsetzen
Seit einiger Zeit ist auch in der Business Intelligence (BI) Community agiles Projektvorge-
hen in aller Munde. Obwohl agile Vorgehensmodelle, wie Scrum in der Softwareenwicklung,
bereits seit vielen Jahren fest etablierte Projektmethodiken sind, begegnete man ihnen in BI
Projekten bis jetzt eher selten. Erst in den letzten ein bis zwei Jahren tauchen sie, zumeist
auf den Vertriebsfolien der verschiedenen Beratungshäuser, vermehrt auf und versprechen
eine schnellere, kundenorientiertere und allgemein erfolgreichere Projektumsetzung. Aber
was muss man sich unter einem agilen Projektvorgehen wie Scrum konkret vorstellen und
ist es überhaupt sinnvoll, Alternativen zum vertrautem und alt bekannten Wasserfall-Modell
in Betracht zu ziehen?
AUTOR: Michael Bruns (cundus AG)
Agiles Projektvorgehen
Was ist Scrum?
Bei Scrum handelt es sich um ein team-
basiertes Vorgehensmodell aus der Soft-
waretechnik zur Entwicklung qualitativ
hochwertiger und komplexer Systeme und
Produkte. Scrum wird durch einen Satz
von Regeln, Rollen und Prozessen defi-
niert, die ein Team in die Lage versetzen
sollen, regelmäßige Produktinkremente
innerhalb so genannter Sprints zu liefern.
Ein Sprint ist eine feste Zeitspanne von 2-4
Wochen und hat das Ziel, am Ende dieser
Zeitspanne eine funktionsfähige Version
der zu erstellenden Lösung zu liefern.
Nach jedem Sprint ist es grundsätzlich
möglich diese auszuliefern, und so den
Anwendern bereits sehr früh im Projekt-
zyklus erste Funktionen der umzusetzen-
den Lösung für die produktive Nutzung
zugänglich zu machen.
Methodik
Aber warum benötigt man überhaupt ein
agilesVorgehensmodell für Business Intel-
ligence Projekte und bietet es überhaupt
potentielle Vorteile gegenüber dem altbe-
kannten Vorgehen im Wassserfallmodus?
Grundsätzlich ist die Entwicklung von
DWH/BI Systemen sehr vielschichtig und
esistkeinGeheimnis,dassvieleBI Projekte
scheitern. Die Ursachen für ein Scheitern
liegen oft in der fehlenden Akzeptanz und
Zufriedenheit der Benutzer begründet.
In klassischen BI Projekten vergehen da-
rüber hinaus oft sechs oder mehr Monate
bevor Anwender erstmalig Zugriff auf die
von Ihnen beauftragte Lösung erhalten.
Häufig stellt sich dann heraus, dass sich
Anforderungen geändert haben bzw. ur-
sprünglich formulierte Anforderungen bei
genauerer Betrachtung anders gemeint
waren. Auf der anderen Seite kommt es
vor, dass Entwickler die penible Umset-
zung einzelner Funktionen in einem zu
Projektbeginn erstellten und abgenom-
menen Fachkonzept als Vertrag auffassen,
dessen Einhaltung einer grundsätzlichen
Anwenderzufriedenheit vorzuziehen ist.
Klassische Vorgehensmodelle zeigen deut-
liche Schwächen, Projektgefahren dieser
Art rechtzeitig im Projektverlauf aufzude-
cken und ihnen entgegen zu wirken. Ein
agiles Projektvorgehen dagegen liefert be-
reits frühzeitig erste nutzbare Funktiona-
litäten, die es dem Kunden erlauben, diese
zeitnah gegen die Anforderungen zu tes-
ten. Feedback der Anwender kann direkt
in die Umsetzung der folgenden Relea-
ses einfließen und erlaubt außerdem ein
Competence Book - Business Intelligence
GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE
Zum Autor Michael Bruns:
Seit Anfang 2010 arbeitet Michael
Bruns als Managing Consultant
bei der cundus AG in Duisburg. Als
Leiter des Competence Centers
BI-Applications ist er mit der Kon-
zeption und Implementierung von
Business Intelligence Architekturen
betraut.
Er verfügt über mehr als 10-jährige,
branchenübergreifende Projekter-
fahrung bei der Umsetzung dieser
Konzepte mit Microsoft Technolo-
gien.
45
rechtzeitiges Gegensteuern bei erkennba-
ren Fehlentwicklungen.
Ablauf
Doch welche Herausforderungen erge-
ben sich in einem agilen BI Projekt an das
technische und methodische Entwick-
lungsvorgehen, um das durch die Pro-
jektmethodik vorgegebene Arbeitsmuster
auch tatsächlich praktisch umsetzen zu
können? Testaufwände und das Vorbe-
reiten des Transportes in die QA und
Produktionsumgebung können schnell
einen großen Teil des Sprints einnehmen
und so wenig Zeit für die Umsetzung der
eingeplaten Benutzerfunktionalitäten
lassen. Insbesondere auf die notwendige
technische Unterstützung eines aglien BI
Projektes soll im Folgenden eingegangen
werden. Mehr über Besonderheiten von
agilen Business Intelligence Projekten im
Allgemeinen finden sich im Artikel „Er-
folgfaktor agile BI Entwicklung“ der Aus-
gabe Mai 2013 der it-management.
Arbeitsmethoden
Damit ein Team von BI Experten in einem
Projekt tatsächlich agil, zum Beispiel nach
Scrum, arbeiten und dieses auch erfolg-
reich umsetzen kann, reicht es jedoch
nicht, die Anforderungen ab jetzt User
Stories zu nennen und seinen Arbeitsmo-
dus in zwei bis vierwöchige Iterationen zu
unterteilen. Das Arbeiten nach agilen Pro-
jektmethodiken erfordert einen gut struk-
turierten organisatorischen Rahmen und
viel Disziplin bei allen Beteiligten.
Die Übertragung dieser Prinzipien agiler
Softwareentwicklung auf Business Intelli-
gence Projekte bringt darüber hinaus eine
Reihe von weiteren Herausforderungen
mit sich. Vorgehensweisen und Tools, die
für die Anwendungsentwicklung z.B. mit
Java oder C# mittlerweile fast perfekt auf
die Anforderungen von agilen Entwick-
lungsteams abgestimmt sind, können
nicht ohne weiteres auf DWH/BI Systeme
mit ihren unterschiedlichsten Artefakten
wie ETL Paketen, Datenbankskripten und
Berichten übertragen werden. Um regel-
mäßig in zwei bis vier Wochen neue Funk-
tionen den Anwendern und Stakeholdern
übergeben zu können, ist ein hohes Maß
an Automatisierung auf allen Ebenen der
Entwicklung erforderlich. Darüber hinaus
existieren im BI Kontext eine Reihe weite-
rer Herausforderungen.
Projektumsetzung
Die meisten BI Werkzeuge der etablierten
Hersteller stellen nur zum Teil Funktio-
nen zur Verfügung, die BI Entwickler in
einer agilen Projektumsetzung ausrei-
chend unterstützen. Hierzu gehört neben
einem professionellen Build- und Deploy-
mentprozess auch die automatisierte Aus-
führung von Testfällen. Nur so ist es mög-
lich, dass sich das Entwicklungsteam auf
die gezielte Umsetzung der angeforderten
Funktionen und des damit verbundenen
Mehrwert konzentrieren kann und nicht
regelmäßig durch das manuelle Vorbe-
reiten einer „sauberen“ Entwicklungsum-
gebung oder das händische Ausführen
von Testfällen ausgebremst wird. Hinzu
kommt, dass die Entwicklung von DWH/
BI Systemen häufig mit Hilfe unterschied-
licher Tools erfolgt. So kommen häufig
spezielle Tools für die Entwicklung von
ETL Paketen, OLAP Würfeln und Be-
richten zum Einsatz. Eine Integration der
einzelnen Tools zu einem einheitlichen
Build-, Deployment- und Testprozess
muss entweder im Eigenbau erfolgen oder
wird von Dienstleistern mit Erfahrungen
in agilen Vorgehensmodellen im Rahmen
eines Projektes mit eingebracht. Aller-
dings verfügen nur wenige Dienstleister
über entsprechend ausgereifte BI Frame-
works.
Das Arbeiten mit in der Regel großen Da-
tenvolumina ist ein weiterer Unterschied
zur klassischen Softwareentwicklung
und muss bei der Umsetzung von agilen
BI Systemen besonders berücksichtigt
werden. Entwickler müssen in die Lage
versetzt werden insbesondere ETL Stre-
cken schnell und effizient zu testen. Dies
erfordert jedoch kleine und repräsentati-
ve Testdatensets, deren initiale Erstellung
durchaus mit einem gewissen Aufwand
verbunden sein kann, der sich jedoch
schon nach wenigen Test- und Entwick-
lungszyklen auszahlt. Gleichzeitig muss
sichergestellt werden, dass die entwi-
ckelten ETL Pakete auch mit großen Da-
tenmengen einwandfrei und performant
funktionieren.
Eine weitere Herausforderung ist das oft
sehr ungleichmäßige Aufwandsverhältnis
zwischen Backend- und Frontendent-
wicklung bei der Umsetzung von DWH/BI
Systemen. Insbesondere zu Beginn eines
Projektes müssen im Backend häufig um-
fangreiche Entwicklungen getätigt werden
um auf der Frontendseite selbst kleinere
Features zur Verfügung stellen zu können.
Dies erfordert für einen Feature-orientier-
ten Projektansatz wie Scrum innovative
Vorgehensweisen um zunächst schlanke,
einfach gehaltene Backendkomponenten
im weiteren Projektverlauf ausbauen und
skalieren zu können.
Herausforderungen
Die aufgeführten Problemstellungen
mögen zunächst als Einwand oder gar
K.O.-Kriterium für die Nutzung von agi-
len Projektmethodiken im BI Kontext
betrachtet werden. Beschäftigt man sich
jedoch intensiv mit den einzelnen Punk-
ten zeigt sich, dass bereits heute für jede
Competence Book - Business Intelligence
GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE
46
der genannten Herausforderungen Lösun-
gen und Konzepte bestehen um diese zu
bewältigen und auch BI Projekte erfolg-
reich mit Scrum umzusetzen. Essenti-
ell ist, dass für jede Schicht im DWH/BI
System und jeden Entwicklungsprozess
ein gemeinsames, integriertes und ein-
heitliches Vorgehen genutzt wird, wel-
ches iteratives, inkrementelles Vorgehen
bestmöglich unterstützt. Dies beginnt
bei der den Entwicklern zur Verfügung
stehenden Infrastruktur und endet bei
der automatisierten Bereitstellung neuer
BI Funktionen für Endanwender. So hel-
fen beispielsweise moderne Konzepte zur
Datenmodellierung, wie beispielsweise
Data Vault, die notwendige Flexibilität
zu gewährleisten um umfangreiche An-
passungen an ETL Prozessen bei Erweite-
rungen des Datenmodells zu vermeiden.
Darüber hinaus müssen dem Entwickler
standardisierte, verbindliche Pattern zur
Umsetzung wiederkehrender Aufgaben
wie beispielsweise Delta-Load-Mechanis-
men, Dimensionsbewirtschaftung oder
auch standardisierte Berichtselemente
zur Verfügung stehen. Diese Komponen-
ten sollten in Hinblick auf ihre Komplexi-
tät und Funktionsumfang zunächst leicht
implementierbar sein und je nach Reife-
grad der aktuellen Entwicklung ohne grö-
ßere Aufwände erweitert werden können.
Aber auch grundsätzlich neue Wege müs-
sen fortlaufend beobachtet und auf ihre
Eignung im agilen Projektvorgehen be-
wertet werden. So kann der Einsatz neuer
Technologien wie z.B. spalten-orientierte
In-Memory Datenbanken oder „Big Data
Technologien“ in bestimmten Fällen ein
agiles Vorgehen besser unterstützen, als
es die übliche Schichtenarchitektur eines
klassischen DWH/BI Systems vermag.
Entwicklung
Neben den grundsätzlichen handwerkli-
chen Vorgehensweisen ist auch eine auf
das agile Vorgehen ausgelegte Entwick-
lungsinfrastruktur wesentlich für eine
bestmögliche Nutzung der zur Verfügung
stehenden Entwicklungszeit. Für die Ent-
wicklung und den Betrieb klassischer BI
Systeme wird üblicherweise eine System-
landschaft bestehend aus Entwicklungs-,
QA- und Produktionsumgebung genutzt.
Entwickler arbeiten häufig auf einem ge-
meinsam genutzten Entwicklungssystem,
was einer kreativen Umsetzung neuer Ide-
en entgegenwirkt, da fortlaufend Rück-
sicht auf das restliche Entwicklungsteam
genommen werden muss, welches auf der-
selben Umgebung entwickelt. Auf der an-
deren Seite können Weiterentwicklungen
von Kollegen den eigenen Entwicklungs-
fortschritt behindern und die notwendi-
ge Koordination erfordert einen hohen
Zeitaufwand. Um den Anforderungen
einer agilen BI Entwicklung gerecht zu
werden und regelmäßig neue Funktionen
den Endanwendern zur Verfügung stellen
zu können, wird eine Entwicklungsinfra-
struktur benötigt, welche insbesondere
die Verwendung virtueller Systeme in Ver-
bindung mit der Möglichkeit Snapshots
unterschiedlicher Systemzustände schnell
wieder herstellen zu können unterstützt,
und so die die Entwicklungsgeschwin-
digkeit enorm erhöht. So lässt sich bei-
spielweise ein Test nach Behebung eines
Fehlers direkt auf einem genau definier-
ten Systemstand wiederholen, ohne dass
zunächst eine erneute Datenbewirtschaf-
tung oder anderweitige Systemvorberei-
tung erfolgen muss, um den Fehler repro-
duzieren zu können.
Die Umsetzung und Einführung eines
vollständigen Build- und Deploymentpro-
zesses erfordert aufgrund der mehrschich-
tigen Architektur in DWH/BI Systemen
deutlich mehr Aufwand als bei der Ent-
wicklung klassischer Software. Ziel eines
solchen Prozesses ist die automatische
Erzeugung eines den gesamten BI Stack
umfassenden Releasepaketes. Alle Än-
derungen und Anpassungen, welche im
Rahmen eines Release benötigt werden,
sind Bestandteil dieses Paketes. Aufgrund
der Vielschichtigkeit von BI Systemen um-
fasst ein Releasepaket eine Vielzahl unter-
schiedlicher Artefakte, welche zusätzlich
oft auch auf verschiedene Systeme verteilt
werden müssen. So müssen für eine neue
Funktion möglicherweise neue ETL Pakete
in das Repository des ETL Servers kopiert
werden, auf dem DWH System ist die Aus-
führung von SQL Skripten zur Anpassung
des Datenmodells erforderlich und in das
zentrale BI Portal erfolgt die Bereitstel-
lung der neuen Berichte. Das Ausführen
von Tests als auch ein mögliches Rollback
müssen natürlich ebenfalls berücksichtigt
werden. NebendermanuellenAusführung
der Installationspakete ist eine Automati-
sierung des Build- und Deploymentpro-
zesses die grundlegende Voraussetzung
für eine fortlaufende Bereitstellung neuer
Versionen auf einem konsolidierten Ent-
wicklungssystem. So kann beispielsweise
nach einer bestimmten Anzahl von Ände-
rungen ein Buildprozess gestartet und im
Anschluss automatisch ausgerollt werden.
Inkompabilitäten zwischen Funktionen,
die von unterschiedlichen Entwicklern
umgesetzt wurden, werden bei dieser Vor-
gehensweise direkt erkannt. Aufwendige
Go-Live-Vorbereitungen wie sie oft am En-
de der Entwicklungsphase in klassischen
Projekten notwendig werden, treten gar
nicht erst auf.
Testing
Wie eingangs erwähnt, stellt ein Konzept
zum automatisierten Testen der gesam-
ten DWH/BI Umgebung eine wesentliche
Voraussetzung für agile BI Projekte dar.
Klassische Projektenvorgehensmodelle
sehen umfangreiche Testphasen im An-
schluss an die Entwicklung der DWH/
BI Lösung vor. Diese Testphasen sind in
der Regel durch einen hohen manuellen
Testaufwand gekennzeichnet und üb-
licherweise sehr zeitintensiv. Vor dem
Hintergrund der regelmäßigen Lieferung
neuer Businessfunktionalitäten muss in
agilen Projekten ein komplett anderer
Ansatz des Testens gefunden werden. Ein
Aspekt hierbei ist die direkte Integration
des Testens in den Entwicklungsprozess,
sowie ein möglichst hoher Anteil auto-
matisierter Testfälle. Ob und zu welchem
Grad ein Test automatisierbar ist hängt im
Wesentlichen davon ab, welcher Kategorie
dieser zugeordnet werden kann. In Anleh-
nung an „The Craft of Software Testing“
existieren vier wesentliche Perspektiven,
nach denen eine Software bzw. ein System
getestet werden muss, um sowohl techni-
schen, als auch fachlichen Qualitätskrite-
rien gerecht zu werden.
•	 Die fachlichen Abnahmebedin-
gungen beinhalten Tests der beauf-
tragten Anwendung und erwarteten
Competence Book - Business Intelligence
GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE
47
Mehrwert des Systems im Hinblick
auf die Anforderungen der Endan-
wender.
•	 Im Rahmen Produktvalidierung
erfolgt eine Betrachtung einzelner
Funktionen im Hinblick auf korrekte
fachliche Ergebnisse.
•	 Die technischen Abnahmebedin-
gungen sind entwickler-orientiert
und beziehen sich auf die korrekte
Funktionsweise der technischen An-
wendungsanforderungen.
•	 Das Ziel der Systemvalidierung ist
ebenfalls entwickler-orientiert. Sie
fokussiert sich auf die Validierung
einzelner Codeblöcke und -module
und überprüft deren korrekte Funk-
tionsweise unter verschiedensten Be-
dingungen.
Auf Basis der genannten Testanforderun-
gen kann die nachstehende Matrix abge-
leitet werden. Die ersten beiden Perspek-
tiven sind primäranwender-orientiert und
stellen sicher, dass das „richtige“ Produkt
entwickelt wird. Die Perspektiven „tech-
nische Abnahmebedingungen“ und „Sys-
temvalidierung“ stellen hingegen sicher,
dass die Anwendung auch nach techni-
schen Kriterien korrekt entwickelt wird.
Testvorgehen
Aus diesen vier Perspektiven lassen sich
insgesamt vier unterschiedliche Testvor-
gehen ableiten, welche nachfolgend auf-
geführt sind.
•	 Unit Testing, als Schnittmenge der
Systemvalidierung und der tech-
nischen Abnahmebedingungen,
unterstützt den Entwickler bei der
technischen Validierung einzelner
Systemkomponenten. Dieses Vorge-
hen ist hochautomatisierbar und mit
einer Vielzahl, teilweise frei verfügba-
rer Tools, realisierbar. Hierzu zählen
beispielsweise SQLUnit, DbUnit oder
DbFit.
•	 Story Testing dient zur automatisier-
ten Validierung zusammenhängender
Funktionen, welche im Zusammen-
spieldieAnforderungeneinerUserSto-
ry darstellen. Beispiele für Tools, wel-
che die Abbildung solcherTeststrecken
ermöglichen sind Fit oder FitNesse.
•	 Im Gegensatz zum Story Testing be-
zieht das Functional Acceptance
Testing die Benutzeroberfläche in
die Testspezifikation mit ein. Tools
wie Selenium, Watir oder WebTest
eignen sich zur Abbildung von Be-
nutzerakzeptanztests.
•	 Trotz hohem Automatisierungsgrad
der vorgestellten Testkategorien sind
diese kein Ersatz für den manuellen
Test des Systems durch echte Anwen-
der. Im Rahmen des „Exploratory
Testing“ erfolgt, in der Regel zum
Ende einer Iteration, ein Test durch
die Endanwender. Bei einer guten
Umsetzung der erste drei Testvorge-
hen kann sich diese Testphase primär
auf neue Funktionalitäten der An-
wendung konzentrieren.
Natürlich existieren auch im Bereich des
automatisierten Testvorgehens viele Be-
sonderheiten und Herausforderungen,
welche im Rahmen von Business Intelli-
gence Projekten zusätzlich berücksichtigt
werden müssen. Insbesondere die Viel-
schichtigkeit eines DWH/BI Systems er-
fordert eine geschickte Integration der
verschiedenen Testanforderungen und
Systemebenen in ein ganzheitliches Test-
framework. Daneben existieren weitere
Punkte, welche bei der Umsetzung eines
solchen Frameworks beachtet werden
müssen. Hierzu gehören unter anderem:
•	 Im Gegensatz zu den meisten klas-
sischen Softwareprodukten arbeiten
DWH/BI Systeme mit sehr großen
Datenvolumina. Die Entwicklung
von Testfällen für Szenarien, in de-
nen mit mehreren Giga- oder gar
Terrabytes an Daten operiert werden
muss, gestaltet sich in der Regel deut-
lich aufwendiger als der Testfall für
eine einfache C# Funktion.
•	 Darüber hinaus entsteht bei der Ent-
wicklung von BI Systemen eine große
Anzahl an Artefakten, welche nicht
aus objektorientieren Codes be-
stehen. Während klassische Testsoft-
ware auf die Validierung objektori-
entierter Funktionen ausgelegt ist,
bestehen DWH/BI Systeme häufig
aus einer Kombination von SQL- und
MDXSkripten, ETL Paketen und ei-
ner Vielzahl weiterer, häufig proprie-
tärer Artefakte.
Fazit
Die wesentliche Herausforderung im Rah-
men automatisierter Tests im BI Kontext
ist die Integration der unterschiedlichen
Testvorgehen einzelner Artefakte in ein
ganzheitliches, leicht erweiterbares Test-
framework sowie die Erstellung repräsen-
tativer Testdatenbestände. Werden diese
Herausforderungen gemeistert und auch
in das bestehende Build- und Releasefra-
mework integriert, stehen dem BI Team
mächtige Instrumente zur Verfügung, die
ein agiles Vorgehen bestmöglich unter-
stützen.
Competence Book - Business Intelligence
GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE
48
Business Intelligence (BI)-Systeme sind sehr einfach. Zumindest
wenn sie nur ein Quellsystem haben und dieses Quellsystem ein
Standard-Datenmodell hat. In diesen Fällen sind die ersten Be-
richte meist in wenigen Tagen verfügbar. Alles ist vorkonfiguriert.
Ein BI-System gewinnt jedoch sehr schnell an Komplexität, wenn
mehr als ein Quellsystem eingebunden werden soll, oder das
BI-System alle unternehmensweiten Daten verarbeiten soll. Hier
stellen sich nun ganz neue Fragen zu Konsolidierung und Verar-
beitung. So kann beispielsweise der Umsatz aus der Fakturierung
etwas komplett anderes sein als der Umsatz aus dem Finanzsys-
tem.
Die Spezifikation entsteht …
In der fachlichen Konzeption werden die verfügbaren Daten
ermittelt und es wird genau beschrieben, wie welche Daten zur
Verfügung gestellt werden sollen. Diese Beschreibung übergibt
die Fachabteilung als Word- oder Excel-Datei an die IT. In der
IT entstehen daraus mehrere Datenbanken und diverse ETL-Pro-
zesse (Extract, Transform, Load), die diese Datenbanken laden.
Vor der Erstellung der Datenbanken werden Datenmodelle er-
stellt. Für ETLProzesse gibt es aber meist kein Prozessmodell.
Die ETL-Werkzeuge stellen eine Prozesssicht dar, die ein Pro-
zessmodell auf den ersten Blick unnötig erscheinen lassen. Viele
der Prozessschritte sind einfache Kopierarbeiten, etliche andere
hingegen sind sehr komplexe SQL-Statements, die sich dem Be-
trachter nicht auf den ersten Blick erschließen. Eine textuelle
Beschreibung des Prozesses erleichtert hier oft das Verständnis.
… und ändert sich sofort
Beim Verknüpfen zweier Systeme, deren Daten bisher nur ge-
trennt betrachtet wurden, stellen sich im Laufe der Datenauf-
bereitung viele Überraschungen ein. Ursprüngliche Annahmen
erweisen sich als falsch. Prozesse müssen laufend überarbeitet
werden. Kaum werden die ersten Ergebnisse geliefert, bringen
diese neue Erkenntnisse, die eine erneute Änderung der soeben
fertig gestellten Prozesse nötig machen.
ModellealsBasis
füreineagileBI
AUTOR: Michael Müller (MID GmbH)
Seit einiger Zeit ist auch in der Business Intelligence (BI) Community agiles Projekt-
vorgehen in aller Munde. Obwohl agile Vorgehensmodelle wie Scrum in der Software-
enwicklung bereits seit vielen Jahren fest etablierte Projektmethodiken sind, begegnete man
ihnen in BI Projekten bis jetzt eher selten. Erst in den letzten ein bis zwei Jahren tauchen
sie, zumeist auf den Vertriebsfolien der verschiedenen Beratungshäuser, vermehrt auf und
versprechen eine schnellere, kundenorientiertere und allgemein erfolgreichere Projekt-
umsetzung. Aber was muss man sich unter einem agilen Projektvorgehen wie Scrum konkret
vorstellen und ist es überhaupt sinnvoll, Alternativen zum vertrautem und alt bekannten
Wasserfall-Modell in Betracht zu ziehen?
Competence Book - Business Intelligence
GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE
49
Es hilft das 4-Augen-Prinzip mit Modellierer
und Entwickler …
Gerade in änderungsintensiven Phasen bewährt es sich, wenn
es einen Modellierer und einen Entwickler gibt. So entsteht aus
dem Fachkonzept zunächst ein Modell. Der Entwickler prüft dies
nun und setzt es gemäß der technischen Anforderungen um.
Dabei hat er Anmerkungen und Rückfragen, die wiederum ins
Modell eingehen. Durch die klare Trennung in technischen und
fachlichen Blickwinkel entsteht im Dialog eine bessere Lösung.
… und verbessert auch die Wartbarkeit
Bei einem solchen Vorgehen ist das Modell näher an der gewähl-
ten Implementierung. Und so lassen sich auch sehr komplexe
Prozesse nachträglich ändern, weil man die Inhalte besser doku-
mentiert hat und so das Verständnis im Nachhinein gewährleis-
tet ist. Die Situation, dass niemand so genau weiß was in einem
Prozessschritt passiert gibt es dann schlicht und ergreifend nicht.
Ebenso gehören unübersichtliche Prozessketten, die entstehen,
weil man sich nicht mehr traut einen komplexen Prozessschritt
zu erweitern oder zu restrukturieren, der Vergangenheit an.
Ist wirklich noch alles aktuell?
Bis nun zwei oder mehrere SystemezurZufriedenheitder Fachab-
teilung verknüpft und die Daten korrekt aufbereitet sind, haben
sich in der Regel relevante Teile des Fachkonzepts bereits wieder
geändert. Diese Änderungen sind meist nicht in die Fachkon-
zepte zurück geflossen. Die Ergebnisse und Lehren aus diesem
komplexen Unterfangen stehen der Fachabteilung nicht zur Ver-
fügung. Soll nun die Datengrundlage erweitert oder der Kreis der
Fachanwender vergrößert werden, muss die Fachabteilung von
vorne anfangen. Häufig wird dann bei der IT nachgefragt, was
denn genau bei der Datenaufbereitung passiert oder schlimmer
– es wird unterstellt, es sei nicht wie gewünscht geliefert worden.
Modelle senken Recherchekosten für Erweiterungen
Da Datenmodelle und die formale Form der Prozessbeschrei-
bungen für Fachanwender oft schwer verdaulich sind, empfiehlt
sich für den Fachbereich ein semi-formales Modell. Dieses macht
zum einen die komplexen Transformationen transparent, zum
anderen stellt es die verfügbaren Daten dar. Der Fachanwender
kann nun wirklich Daten ‚einkaufen‘ gehen. Wenn diese Daten
in einem DataMart enthalten sind, sind diese sofort verfügbar.
Wenn nicht, dann kann man in der Data Warehouse Schicht oder
in der Ladeschicht nachschauen und dann die entsprechenden
Daten- und Prozessmodelle erweitern, was die Recherchekosten
erheblich senkt. So wird das fachliche, semiformale Modell zu
einer Basis für neue Arbeitsaufträge.
Modelle bieten viele Vorteile …
Ein BI-System ändert sich ständig. Es gibt immer neue Konstella-
tionen auszuwerten, neue Ziele zu prüfen. Änderungen sind bei
BI-Systemen an der Tagesordnung. Gerade bei komplexen Sys-
temen mit zwei oder mehr inhomogenen Datenquellen helfen
Modelle, diesen Workload schneller zu bewältigen. Dokumenta-
tionen, die als Teil des Entwicklungsprozesses aus den Modellen
generiert werden, erleichtern neuen Mitarbeitern und Nutzern
die Einarbeitung in das BI-System. Die mit Modellierung und
verbesserter Dokumentation erhöhte Transparenz beschleunigt
Wartung und Weiterentwicklung. Zudem ermöglicht die höhere
Transparenz der Fachabteilung ein tieferes Verständnis für das
BI-System und reduziert ihre Aufwände bei der Datenrecherche.
… und sind – auch bei BI - eine ertragreiche Investition
Modelle lohnen sich bei Business Intelligence und Data
Warehouse, wenn Daten aus mehreren inhomogenen Daten-
quellen zusammengeführt werden müssen, gleichermaßen für
die Fachabteilung und die IT Abteilung.
Zum Autor Michael Müller:
Michael Müller, Dipl. Inf. (FH), ist Principal Consutant
bei der MID GmbH. Nach sieben Jahren als Soft-
wareentwickler im Bereich Adressmanagement und
Database Marketing kam er Ende 2001 zu MID. Sein
Schwerpunkt liegt im Bereich Business Intelligence
und Data Warehousing.
Competence Book - Business Intelligence
GRUNDLAGEN - DATENBASIS
50
S
ind im Rahmen eines agilen Business Intelligence-Vorge-
hens die fachlichen Anforderungen an den Anwender er-
fasst, gilt es möglichst effizient und effektiv die technischen
Modelle abzuleiten. In diesem Beitrag wird das Vorgehen mithil-
fe des Werkzeugs Innovator for Database Architecs vorgestellt.
Datenbanken modellieren mit konzeptionellen
Schemata
Das konzeptionelle Schema beschreibt die fachlichen Anforde-
rungen der Anwender unabhängig von der Implementierung.
Entitäts- und Beziehungstypen werden im Modell definiert und
grafisch dargestellt. Das konzeptionelle Schema wird üblicher-
weise auf ein konkretes Datenbanksystem abgebildet. Dabei
unterstützt Innovator alle gängigen relationalen Datenbanksys-
teme. Mit der IDEF1XNotation auch für Entity-Relationship-Dia-
gramme ist eine einheitliche Notation für konzeptionelle Daten-
modelle und für Datenbankschemata möglich. Darüber hinaus
lässt sich in Innovator die Unterstützung jeder beliebigen relati-
onalen Datenbank konfigurieren. Im Datenbankschema werden
Tabellen, Spalten, Views, Primär- und Fremdschlüssel, Indizes,
Trigger, Stored Procedures sowie Zugriffsberechtigungen un-
terstützt. Zusätzlich zu den direkten Datentypen aus den Ziel-
systemen stehen auch semantische Datentypen zur Typisierung
zur Verfügung. Funktionalitäten wie das Zusammenführen und
Aufteilen von Datenbanktabellen (Split-Columns, Split-Rows)
unterstützen die Modellierung im Datenbankschema zusätzlich.
Tabellenorientierte Editoren ermöglichen in beiden Schemata
schnelles Arbeiten. So lassen sich z. B. mehrere Attribute kom-
fortabel auf verschiedene Entitäten übertragen. Tabellenorien-
tierte Editoren existieren sowohl für Entitäten und konzeptio-
nelle Views als auch für DB-Tabellen und DB-Views. Visualisiert
werden die Schemata durch Diagramme. Im konzeptionellen
Schema hat sich die Entity-Relationship-Modellierung (ERM)
als Standard für semantische Datenmodelle etabliert. Innova-
tor for Database Architects bietet unterschiedliche Optionen für
die Notation der ER-Modelle: je nach Vertrautheit kann der Be-
nutzer die klassische Chen-Notation, die James- Martin- („Krä-
henfuß“), SERM-, DSA-Notation oder eine Notation basierend
auf UML-Klassendiagrammen verwenden. Diese Einstellung
kann jeder Benutzer individuell für seine Innovator-Anwendung
festlegen. Zur Visualisierung des Datenbankschemas wird der
ISO-Standard IDEF1X genutzt. Datenbanktabellen und Views
sind mit einstellbarer Größe und Abschnittsinhalten, z. B. für
Tabellenspalten und Fremdschlüssel, darstellbar. Die Abschnitt-
sinhalte sind ausblendbar und können automatisch gepflegt wer-
den.
Generierung und Reverse-Engineering von Datenbanken
mit dem Datebankmanager
Basierend auf dem Datenbankschema generiert Innovator
DDL-Skripten, wahlweise CreateTable-Skripten zur Neuanlage
oder AlterTable-Skripten zur Änderung existierender Datenban-
ken. Dabei können hersteller- oder projektspezifische Besonder-
heiten berücksichtigt werden. Existierende Datenbanken werden
durch Reverse-Engineering eingebunden. Dabei geht es meist
nicht nur um die Dokumentation der Datenbankschemata, son-
dern um die Einbindung dieser Datenbanken in neue Projekte.
Innovator erzeugt dabei entweder Modelle aus DDL-Skripten
oder liest per JDBC-Zugriff direkt aus der Datenbank. Für Da-
tenbank-Spezialisten eignet sich der Datenbankmanager mit
umfangreicher GUI-Unterstützung z.B. zum Abgleich des Da-
tenbankschemas mit der Live-Datenbank. Für eine schnelle
Übernahme von Datenbankschemata aus der Live-Datenbank
eignet sich der wizard-geführte Reverser.
Änderungen beim Datenbankdesign managen
Konzeptionelles Schema und Datenbankschema können in In-
novator for Database Architects getrennt entwickelt werden,
werden aber in der Regel miteinander integriert. Dabei werden
Änderungen im konzeptionellen Schema im Datenbankschema
über ein Mapping nachgezogen. Die prinzipielle Trennung der
beiden Ebenen und der Abgleich per Mapping werden durch eine
Datenbankmodelleund-Design
am Beispiel von Innovator for Database Architects
AUTOR: Bertram Geck (MID GmbH)
Competence Book - Business Intelligence
GRUNDLAGEN - DATENBASIS
51
Vorschau der Änderungen unterstützt.
Durch das Mapping können Sie die Abbil-
dung ins Datenbankschema zeitlich exakt
steuern und somit definierte Modellstän-
de leicht integrieren. Das Zusammenspiel
der Schemata ist eine Grundvorausset-
zung für reale IT-Projekte, da die manu-
elle Pflege der Datenmodelle aufwendig
und fehlerträchtig ist. Umgekehrt kön-
nen auch konzeptionelle Schemata aus
dem Datenbankschema erzeugt bzw. ab-
geglichen werden. Beispielsweise werden
konzeptionelle Modelle zur Einbindung
existierender undokumentierter Daten-
banken erstellt.
Datenbankmodelle mit Analysemodel-
len und Software-Design integrieren
Innovator erlaubt die Anbindung von Mo-
dellen aus Innovator for Business Analys-
ts oder Innovator for Software Architects
über ein Mapping. Das Mapping bildet ge-
schäftsprozessorientierte oder objektori-
entierte Modellierungskonzepte auf Kon-
zepte relationaler Datenbanken ab. Dies
funktioniert in beide Richtungen. Oft
werden objektorientierte Analysemodelle in UML als Startpunkt für ein konzeptionelles
Datenbankschema genommen. Beispielsweise wird ein UML-Modell mit dem Ergebnis
der Anforderungsanalyse aus Innovator for Business Analysts über das OO-ERMapping
in ein initiales konzeptionelles Schema verwandelt. Dabei werden Traceability-Links ge-
setzt, die es später erlauben, Änderungen im Analysemodell im konzeptionellen Sche-
ma nachzuziehen. In umgekehrter Richtung lassen sich Klassen aus Entitäten generie-
ren, um die Entwicklung gegen die entsprechende Datenbank zu erleichtern. Auch hier
helfen Trace-Links, die Konsistenz zwischen den Modellen sicherzustellen.
Zum Autor Bertram Geck:
Bertram Geck trägt seit 1. Januar 2013 als Sprecher der Geschäftsführung die
Gesamtverantwortung für die Weiterentwicklung der MID GmbH. Er leitet dabei
die Bereiche Marketing und Vertrieb.
Als Gründer, Geschäftsführer und Berater in der IT- und Software-Branche trug
Bertram Geck sowohl in Deutschland als auch weltweit Verantwortung, unter an-
derem in DAX-notierten Unternehmen.
Neben seinem unternehmerischen Engagement und seiner Expertise in der Un-
ternehmensentwicklung greift Bertram Geck auf mehr als 20 Jahre Erfahrung in
Produktentwicklung, Produktmanagement sowie im Marketing und Vertrieb von
IT-Lösungen zurück.
Competence Book - Business Intelligence
GRUNDLAGEN - BIG DATA
52
BigData:Chancenund
Herausforderungenfür
die Unternehmenssteuerung
AUTOR: Walid Mehanna (Horváth & Partners GmbH)
Technologie ist kein Engpass mehr für Big Data
Die aktuelle Diskussion um Big Data dreht sich vor
allem um Methoden und Technologien, um um-
fangreiche Datenmengen aus verschiedensten Quel-
len in Echtzeit zu verwalten. Die über viele Jahre
dominierenden relationalen Datenbanktechniken
waren und sind dafür nur eingeschränkt einsetzbar.
Technologiekonzepte und konkrete Software-
lösungen, die das Sortiment der Business-Intelli-
gence-Software in Richtung Massendaten kom-
plettieren, sind heute hingegen ebenso wie die
entsprechenden Infrastrukturen bereits vorhan-
den. Sie stellen somit keinen Engpass mehr für er-
folgreiche Anwendungsszenarien mit Big Data dar.
Wo in der Frühphase der Informationsverarbeitung
Gigabytes das Datenvolumen von ERP-Systemen
beschrieben, sind die Möglichkeiten heute um
10er-Potenzen gewachsen, so dass nunmehr z.B.
auch Massendaten von Sensoren in Echtzeit nutzbar
sind.
Chancen existieren in diversen
Anwendungsbereichen
Mit Überwindung dieses technologischen Engpas-
ses werden Anwendungen auf Basis von Big Data in
den verschiedensten Bereichen eine große Zukunft
vorausgesagt. So lassen sich riesige Datenmengen in
Forschung & Entwicklung analysieren und globale Börsen- und Wirtschafts-
daten können zeitnah zur Unternehmenssteuerung verfügbar gemacht
werden. Individuelle Kundenpräferenzen in Massenmärkten lassen sich in
Echtzeit identifizieren und durch die kontinuierliche Erfassung von Sensor-
daten wird die Wartung geschäftskritischer Maschinenparks optimiert und
die Ausfallzeiten minimiert. Big Data hat das Potenzial alle Bereiche der Un-
ternehmen zu durchdringen.
Um Big Data auch für die Unternehmenssteuerung nutzbar zu machen,
gilt es, einen weiteren Aspekt von Big Data zu entdecken: den Wert ständig
neuer Informationen für das Management von Unternehmen. Heute werden
für die Unternehmenssteuerung meist Key Performance Indikatoren (KPIs)
D
er Begriff “Big Data” ist in aller Munde. Generell werden darunter große Datenmen-
gen verstanden, die aufgrund ihrer strukturellen Vielfalt und massenhaften Verfüg-
barkeit für eine rasche Verarbeitung mit klassischen Business-Intelligence-Systemen
nicht geeignet sind. Ihr Potenzial für Unternehmen und deren Steuerung ist jedoch enorm.
Was fehlt, sind die konzeptionellen und organisatorischen Voraussetzungen für einen ziel-
gerichteten Einsatz. In diesem Beitrag werden die notwendigen Maßnahmen skizziert, um
die Chancen von Big Data erfolgreich nutzen zu können.
Das Potenzial ist groß, Voraussetzungen wurden aber vielfach noch nicht geschaffen
Abb. 1: Massendaten als Chance für neue Anwendungen / Quelle:
Seidel (2013), S.18
Competence Book - Business Intelligence
GRUNDLAGEN - BIG DATA
53
verwendet. In Werttreibermodellen ver-
netzt beschreiben sie die unternehmeri-
schen Zusammenhänge. Die Ausprägung
und Entwicklung der KPIs im Zeitverlauf
dienen als Grundlage für Entscheidun-
gen. Big Data kann Methoden und Werk-
zeuge liefern, um das Reporting (Was
ist passiert?) und Analyse (Warum ist es
passiert?) dynamisch zu erweitern. Hin-
zu kommen Funktionen wie Monitoring
(Was passiert jetzt gerade?), Predictive
(Was wird passieren?) und Prescriptive
(Was sollte geschehen?).
Notwendige organisatorische Voraus-
setzungen schaffen
Diese neuen Funktionen können in Kürze
in die Controllingprozesse integriert wer-
den und erleichtern das Erstellen kurz-
fristiger Forecasts und langfristiger Simu-
lationen und Szenarien. Entscheidungen
können so schneller getroffen werden.
Davor müssen die Controller aber noch
einige Voraussetzungen schaffen:
1. Starke Governance durch Controlling
Dezentrale und eventuell widersprüchli-
che Big-Data-Analysen bergen das Risi-
ko von Fehlentscheidungen mit folgen-
schweren Auswirkungen. Daher braucht
jedes Unternehmen übergreifende Vorga-
ben und eine klare Governance durch das
Controlling und eine Festlegung, wie mit
Risiken und Chancen umzugehen ist und
wie die einzelnen Teile zusammenpassen
müssen.
Die Governance umfasst dabei durchge-
hend den Datenfluss von den vielfältigen
Quellen (Mobile, Cloud, M2M, Social, ...)
bis hin zu den Adressaten (Management,
Marketing, HR, Produktion, ...). Passen-
de Integrationsmechanismen stellen die
Konsistenz der Daten sicher. Eine Or-
ganisation der Prozesse hinter Big Data
und den darauf aufsetzenden Analysen
muss nicht nur die Datensicherheit klä-
ren, sondern auch die Berechtigungen für
den Zugriff und Veränderung von Daten
durch die Adressaten (Datenschutz z.B.
im Personalbereich). Bei den Analysen
sind u.a. Regelungen bezüglich der Art
der Visualisierung und der gewünschten
Verknüpfung von Daten zu treffen. Kon-
sequente Regelungen in diesen Bereichen
verhindern eine Fehlnutzung wie auch
den Missbrauch.
2. Modelle der Unternehmenssteuerung
Für qualifizierte Entscheidungen müssen
die Werttreibermodelle quantifiziert, nu-
merisch aufeinander abgestimmt und dy-
namisiert werden. Der Finanzbereich der
Zukunft wird daher auch Spezialisten be-
schäftigen, um Unternehmensmodelle zu
definieren, die Ressourcensteuerung opti-
mal mit den Anforderungen des Marktes
zu verknüpfen, Chancen zu nutzen und
die Risiken zu beherrschen.
Wichtige Erfolgsfaktoren für nachhalti-
ge Werttreibermodelle sind daten- und
faktenbasierte Lessons-learned-Prozes-
se, um die Modellqualität kontinuierlich
zu verbessern sowie klare Regeln für die
Einbeziehung von und den Umgang mit
temporären Indikatoren.
3. Personalentwicklung und Change
Mitarbeiter in Controlling und Finanzen
müssen für die Erstellung und Pflege der
neuen Unternehmensmodelle qualifi-
ziert, Entscheider auf die Nutzung der
neuen Methoden vorbereitet werden. Der
Umfang und die Bedeutung der Qualifi-
zierung sind nicht zu unterschätzen:
•	 Die Manager in Controlling und Fi-
nanzen müssen Strukturen schaffen,
die es ermöglichen die Dynamik zu
beherrschen
•	 Der Finanzbereich benötigt Mitar-
beiter, die die Unternehmensmodel-
le aufbauen und weiterentwickeln.
Aufgrund der Dynamik und Kor-
relation werden diese Modelle eine
Komplexität besitzen, die nur mit
spezifischer Ausbildung in quantita-
tiven Methoden der „Data Sciences“
beherrschbar sind (Quants).
•	 Die Manager in den Fachfunktionen
können und müssen Entscheidungen
wesentlich schneller und – je nach
Aufgabengebiet – ggf. auch unter
deutlich stärkerer Regulatorik tref-
Abb. 2: Notwendige Voraussetzungen für den Erfolg von Big Data
Zum Autor Walid Mehanna:
Dipl.-Inform. Walid Mehanna berät
bei Horváth & Partners seit mehr als
zehn Jahren namhafte Unternehmen
und ist heute Principal Business Intel-
ligence im Competence Center Con-
trolling & Finanzen. Daneben hält er
Vorlesungen an der Universität Stutt-
gart.
Competence Book - Business Intelligence
GRUNDLAGEN - BIG DATA
54
fen.
•	 In den Fachbereichen werden Mitar-
beiter mit spezifischen Fähigkeiten
benötigt, dieentsprechende Erkennt-
nisse aus Daten suchen, auswerten
und nutzbarmachen. Die Data Scien-
tists müssen zum Teil auch dezentral
in der Organisation integriert sein.
Die erfolgreiche Nutzbarmachung von
Big Data beginnt beim Adressaten
Der Begriff Big Data lenkt die Aufmerk-
samkeit oft auf den Anfang des Gesamt-
prozesses, auf die Verfügbarkeit von Da-
tenquellen und die Verarbeitbarkeit der
Massendaten in Echtzeit. Noch wichtiger
ist allerdings der Fokus auf die Adressaten
und deren Entscheidungs- und Steue-
rungsbedarfe. Idealerweise ergänzen sich
im Gegenstrom-Verfahren die datenori-
entierte („Wie kann ich bestehende, ver-
fügbare Datenquellen nutzbar machen?“)
Abb. 3: Übersicht von Big-Data-basierten Lösungen und deren Governance Quelle: Grafiken tlw. Experton Group 2012
und die bedarfsorientierte Sicht („Welche
Anforderungen für Steuerungsinformati-
onen haben die Adressaten?“).
Für eine schnelle und zugleich nachhal-
tige Etablierung von Big-Data-basier-
ten Lösungen im Unternehmen sorgen
früh erfolgreiche Anwendungen, die als
Proof-of-Concept und Leuchttürme die
Chancen und den Nutzen des Big-Da-
ta-Ansatzes in die Breite der Organisation
transportieren können. Zugleich sichert
die adressatenorientierte Perspektive,
dass die Steuerungsrelevanz der Informa-
tionen im Vordergrund steht und Irrwege
übermäßiger Daten- und Technikzentrie-
rung vermieden werden.
Big Data als Enabler für ein neues Pa-
radigma der Unternehmenssteuerung
Big Data hat das Potenzial, zu einem
echten Paradigmenwechsel in der Unter-
nehmenssteuerung beizutragen. Die Un-
ternehmensteuerung kann in Zukunft in
allen relevanten Steuerungsdimensionen,
wie Kunde, Markt oder Ressourcen, von
den Mehrwerten durch Big Data und den
damit ermöglichten Anwendungen profi-
tieren.
Dafür müssen aber systematisch Voraus-
setzungen geschaffen werden. Insofern
sind die Herausforderungen von Big Data
heute weniger technischer Natur, im Sin-
ne der Verfügbarkeit, Qualität und Verar-
beitbarkeit von Daten. Die Nutzung und
Etablierung von Big Data ist vor allem ein
Gestaltungs- und Wandlungsprozess, der
eine klare Governance, neue Werttreiber-
modelle, eine strukturierte Personalent-
wicklung und eine konsequente Lösungs-
orientierung ausgehend vom Adressaten
umfasst.
„Werden alle notwendigen Voraussetzungen umgesetzt, hat
Big Data das Potenzial zu einem echten Paradigmenwechsel in der
Unternehmenssteuerung.“ - Walid Mehanna
Competence Book - Business Intelligence
GRUNDLAGEN - BI-SOFTWAREAUSWAHL
55
Auswahlprozess. Der Reichweite einer Softwareentscheidung
wird häufig durch einen sorgfältigen, wohlstrukturierten Soft-
wareauswahlprozess Rechnung getragen. Zur Objektivierung
der Entscheidung wird hierbei auf verschiedene Spielarten der
Nutzwertanalyse zurückgegriffen. Die Grundlage der Analyse
stellt ein Kriterienkatalog mit entscheidungsrelevanten Anforde-
rungen an ein BI-System dar, welche zunächst erarbeitet und in
Folge gewichtet wird. Die Bewertung der Kriterien erfolgt durch
verschiedene Quellen, entweder unternehmensintern, extern
durch Beratungshäuser oder in Frage kommende Softwareher-
steller selbst. Ein Nutzwert errechnet sich aus den summierten,
gewichteten Bewertungen. Dieses Vorgehen kann einerseits zur
Einschränkung des Anbieterfelds erfolgen und, andererseits,
erneut im Rahmen einer Demonstration der Software durch in
Frage kommende Hersteller (Showcase). Ein derart ermittelter
Nutzen wird den prognostizierten Kosten eines Implementie-
rungsszenarios gegenübergestellt, sodass die Grundlage für eine
Entscheidung gegeben ist.
Trotz dieses strukturierten Vorgehens existieren im dargestellten
Prozess kritische Punkte und Fallstricke, welche für eine erfolg-
reiche Auswahl berücksichtigt werden sollten.
Gemischte Teams zur Definition entscheidungsrelevanter
Kriterien. Die Definition und Gewichtung von Kriterien sollte
sowohl unter fachlichen als auch unter technischen Gesichts-
punkten erfolgen. Einseitig geprägte Entscheidungen bergen
die Gefahr der Überschätzung der betriebswirtschaftlichen oder
Ausgangssituation. Die Auswahl einer geeigneten BI-Software
ist fürviele Unternehmen eine konstitutive Entscheidung, welche
oftmals zu Beginn einer Reorganisation der Business Intelligence
(BI), bspw. in Form eines BI Competency Centers, getroffen wird.
Auslöser für derartige Neuausrichtungen sind häufig das Resul-
tat historischer Softwareauswahlprozesse: Eine Vielzahl nicht
abgestimmt eingesetzter Softwareprodukte („Tool-Zoo“) sowie
Unzufriedenheit der Nutzer sind hierbei oft genannte Gründe.
Neben der Sicherstellung der Akzeptanz der Benutzer führt die
Entscheidung für eine BI-Software zu weiteren erheblichen Auf-
wänden und Kosten, die über die Lizenzkosten hinausgehen.
Hardwarekosten, bspw. für In Memory-Technologien, Kosten für
Neueinstellungen und Weiterbildung des bestehenden Personals
sowie erhebliche Beratungskosten sind einige Beispiele hierfür.
Gleichzeitig steigen die Erwartungen an die Flexibilität im Rah-
men von BI-Projekten. Eine zuverlässige und stabile Softwareent-
scheidung, welchen diesen Anforderungen genügt, sorgt für die
notwendige technologische Kontinuität bei agilen Implementie-
rungsansätzen.
Die Entscheidungssituation wird durch die Situation auf dem
Markt für BI-Software weitererschwert. Trotz der Konsolidierung
der letzten Jahre, existieren selbst in einem eingeschränkten Be-
reich, wie BI-Anwendungen für Controlling, Rechnungswesen
und Planung, noch über hundert größere und kleinere Anbieter.
Es sind zwar durchaus Differenzierungsbemühungen festzustel-
len, jedoch bieten nahezu alle Anbieter eine gewisse Grundfunk-
tionalität in den benannten Bereichen.
Softwareauswahlfür
Business-Intelligence-Werkzeuge
AUTOR: Dr. Lars Burmester (Horváth & Partners GmbH)
Die Wahl des richtigen BI-Werkzeugs ist eine Entscheidung mit großer Reichweite. Eine
Vielzahl von Anbietern mit einem breit gestreuten Angebot erschwert diese Entscheidung.
Eine Konzentration auf individuelle Auswahlkriterien und eine Erhöhung der Trennschärfe
hilft die Komplexität der Auswahlentscheidung zu reduzieren.
Competence Book - Business Intelligence
GRUNDLAGEN - BI-SOFTWAREAUSWAHL
56
technischen Leistungsfähigkeit einer
Software. Hieraus resultieren Akzeptanz-
probleme und damit einhergehend inne-
rorganisatorische Friktionen, die einem
erfolgreichen Einsatz entgegenstehen.
Interdisziplinär besetzte Auswahlteams
reduzieren die aufgezeigten Risiken durch
hinreichende Qualifizierung betriebs-
wirtschaftlicher und technologischer
Rahmenbedingungen, Fragestellungen
und Ziele. Darüber hinaus eignet sich die-
se Form der Zusammenarbeit zum früh-
zeitigen Erwartungsmanagement für ein
späteres Implementierungsprojekt: Durch
die Erfahrungen des Auswahlprozess und
des Showcase, können sich die Erwar-
tungen hinsichtlich späterer Implemen-
tierungskosten, Umsetzungs- und Ver-
änderungsdauern und kosten auf einem
realistischen Niveau einstellen.
Erarbeitung eines unternehmens- und
situationsspezifischen Kriterienka-
talogs. Die durch interdisziplinäre Aus-
wahlteams erarbeiteten Kriterien sollten
die spezifische Situation des Unterneh-
mens oder der Fachabteilung widerspie-
geln. Oftmals werden am Markt verfügba-
re Standardkataloge herangezogen. Deren
unmodifizierter Einsatz spiegelt die gefor-
derte Individualität nicht wider, sodass die
Gefahr besteht, dass der Auswahlprozess
sich zu einem „abhaken“ technischer Kri-
terien entwickelt. Derartige Bewertungen
sind oftmals als Studien verfügbar und
können für eine grundsätzliche Einord-
nung erworben werden. Darüber hinaus
richten viele Softwarehersteller ihre De-
monstrationsumgebungen auf die Krite-
rien von Standardkatalogen aus, sodass
genau diesen Kriterien genüge getan wird.
Der Erkenntnisgewinn sowie die Herbei-
führung der notwendigen Trennschärfe
für eine Auswahlentscheidung sind ent-
sprechend gering.
Transparenter Umgang mit Kriterien-
gewichten und Bewertungsskalen. Die
aufgestellten Kriterien haben in der Regel
unterschiedliche Entscheidungsrelevanz,
was durch Gewichtungen abgebildet wird.
Hierbei ist darauf zu achten, dass die Ska-
lierung der Gewichte derart erfolgt, dass
zwischen den Kategorien noch sinnvoll
unterschieden werden kann. So kann bei-
spielsweise zwischen „Kritisch“, „Generell“
und „Nice to have“ unterschieden werden
und mit exponentieller numerischer Di-
stanz bewertet werden (bspw. 10 / 5 / 1).
Zudem sollte die Aufnahme von harten
KO-Kriterien wohldosiert erfolgen: nicht
Zum Autor Dr. Lars Burmester:
Dr. Lars Burmester studierte und promovierte an der Philipps-Universität Marburg
und arbeitete parallel in einem Projekt zum Controlling von Hochschulen.
Seit 2012 ist er bei Horvath & Partners im Kompetenzfeld Business Intelligence
aktiv, nachdem er zuvor drei Jahre als Senior Berater bei der cundus AG tätig war.
Herr Dr. Burmester berät Unternehmen - vom Mittelständler bis zum Großkonzern
- in allen Fragestellungen der Business Intelligence und des Data Warehousing.
selten verbleibt am Ende des Software-
auswahlprozess kein einziges Produkt
zur Auswahl. Analog sollte mit Bewer-
tungsskalen verfahren werden. Hierbei
kann bspw. zwischen „Standardfunktion“,
„Konfigurierbar“ und „Programmierbar“
unterschieden werden, mit einer die Prä-
ferenzen widerspiegelnden numerischen
Distanz. Komplexere Bewertungsmodelle
bergen die Gefahr, dass nicht intendierte
Sensitivitäten entstehen, sodass ein Be-
wertungsbild und letztendlich die Ent-
scheidung durch „statistische Effekte“ ver-
zerrt und beeinflusst werden.
Ergänzend ist zu beachten, dass die Krite-
riengewichtung sowie Festlegung der Be-
wertungsskala bereits vor dem Aussenden
des Anforderungskatalogs und Durchfüh-
rung des Showcase erfolgt. Einer Beein-
flussung der Gesamtentscheidung durch
Gewichtung nach Sympathie, aus politi-
schen Überlegungen oder einem guten
Letzteindruck aus dem Showcase kann
damit entgegengewirkt werden. Selbstre-
dend sollten die vereinbarten Gewichtun-
gen einem Softwarehersteller nicht vor der
Bewertung und dem Showcase zugänglich
gemacht werden, um nicht die Versu-
chung einer „strategischen“ Selbstbewer-
tung und -darstellung zu provozieren.
Competence Book - Business Intelligence
GRUNDLAGEN - BI-SOFTWAREAUSWAHL
57
Reduzierung der Komplexität durch
Einschränkung des Anbieterfelds.
Angesichts der Anbietervielzahl auf dem
Markt für BI-Werkzeuge sollte bereits der
erste Auswahlschritt nicht undifferenziert
erfolgen. Grundsätzlich kann über die
Klasse des BI-Werkzeugs eingeschränkt
werden, d.h. ob es sich bspw. um eine
Planungs-, Konsolidierungs- oder Be-
richtssoftware handelt oder ob mehrere
Anwendungszwecke verfolgt werden. Eine
erste Grobauswahl kann unter Hinzuzie-
hung von Hersteller- und Markstudien
sowie ggf. durch sach- und marktkundige,
herstellerunabhängige Beratungshäuser
erfolgen.
Eine Ersteinschränkung der in Frage
kommenden Hersteller wird maßgeblich
durch IT strategische Überlegungen be-
einflusst. So sind bspw. folgende Aspekte
bei der Einschränkung des Anbieterfelds
zu bedenken:
•	 Soll ein Plattformansatz („one size
fits all“) oder ein Spezialisierungsan-
satz („best of breed“) oder ein diffe-
renzierter Ansatz zwischen beiden
Extremen verfolgt werden? Oftmals
ist festzustellen, dass gerade kleinere,
spezialisierte BI-Anbieter die Anfor-
derungen besser erfüllen als größere
Plattformanbieter. Argumente des In-
vestitionsschutz sollten vor dem Hin-
tergrund real existierender Konzent-
rationstendenzen bewertet werden:
eine etablierte kleine Lösung hat eine
gute Chance langfristig unter einer
Dachmarke eines „Großen“ weiterge-
führt zu werden.
•	 Soll aus einem Portfolio im Unter-
nehmen bereits eingesetzter Software
(„brownfield approach“) oder eine
bislang nicht im Unternehmen ein-
gesetzte Software ausgewählt werden
(„greenfield approach“)? Auch das
Darüber hinaus sollten Bewertung nach
absteigender Priorität ausgewertet wer-
den. Kritisch eingestufte Anforderungen
und Kriterien sollten zuerst ausgewer-
tet werden. Dabei ergibt sich in diesem
Schritt häufig schon ein erstes eindeutiges
Bild. Sollte eine derartige Trennschärfe
nicht frühzeitig erreicht werden, so soll-
ten sukzessive generelle Anforderungen
nach absteigender Gewichtung ausgewer-
tet werden. Übererfüllungen nicht rele-
vanter Anforderungen oder „Dreingaben“
nicht angefragter Funktionalitäten sollte
kein Entscheidungsgewicht zugemessen
werden.
Showcase. Ein Showcase erscheint im
Rahmen eines Softwareauswahlprozess
unerlässlich, um die Bewertungen zu spie-
geln und einen Ersteindruck zu festigen.
Aufgrund der begrenzten Zeit, die für ei-
nen Showcase zur Verfügung steht, sollte
auch hier eine Konzentration auf wesent-
liche Anforderungen erfolgen. Hierzu ist
es notwendig, eine entsprechende Aufga-
benstellung zu formulieren, die von den
Softwareanbietern gelöst werden soll.
Mitunter stellt dies einen nicht zu unter-
schätzenden Aufwand dar, da die Balance
zwischen inhaltlicher Tiefe und kurzfristi-
ger Umsetzbarkeit gewahrt werden muss.
Eine zu ambitionierte Aufgabenstellung
birgt die Gefahr, dass der zu erwartende
Aufwand und das Risiko der nicht-Be-
rücksichtigung Hersteller von einem An-
gebot absehen lässt. Wenn eine spätere
Softwareeinführung nicht in Eigenregie
erfolgen soll, bietet ein Showcase zudem
die Möglichkeit einen Implementierungs-
partner näher kennenzulernen. So könn-
te die Vorbereitung des Showcase direkt
beim auswählenden Unternehmen erfol-
gen, sodass ein Einblick in die Arbeitswei-
se und Problemlösungskompetenz eines
späteren Partners erfolgen kann.
Benchmarking bereits im Unterneh-
men eingesetzter Software vor dem
Hintergrund neuer Angebote auf
dem Markt ist eine anzutreffende He-
rangehensweise.
•	 Welche strategische Rolle spielt ein
Produkt im Angebotsportfolio des
Herstellers und wie kann dessen Wei-
terentwicklung beurteilt werden?
Eine glaubwürdige Agenda, kommu-
nizierter Releaseplan sowie eine Rei-
he Referenzkunden sollten das Ver-
trauen in die Zukunftsfähigkeit eines
Softwareprodukts erhärten.
Reduzierung der Komplexität durch
Verringerung der Kriterienanzahl. Ein
zentraler Ansatzpunkt zur Komplexitäts-
reduktion ist die Verringerung der Anzahl
betrachteter Kriterien. In vielen Auswahl-
prozessen wird davon ausgegangen, dass
die Entscheidungsgüte mit zunehmender
Kriterienanzahl steigt. Jedoch kann fest-
gestellt werden, dass ein Nutzwert der
Anbieter sich bei zunehmender Kriteri-
enanzahl annähert, sodass eine deutliche
Unterscheidung kaum noch möglich er-
scheint - ein trennscharfes, die Entschei-
dung erleichterndes Profil kann schwer-
lich bei nicht-trennscharfen Kriterien
entstehen.
Ein erster Ansatz ist die Eliminierung
von Kriterien, die durch die Mehrzahl der
Softwarehersteller gleich bewertet wur-
den. Gerade bei der Verwendung nicht
differenzierter Standardkataloge tritt die-
ser Sachverhalt oft auf, sodass bei der Aus-
wertung ein Aufwand entsteht, welcher
aufgrund der fehlenden Differenzierung
keinen Nutzen nach sich zieht. Kriteri-
en und Anforderungen in denen sich die
Softwareanbieter nicht unterscheiden
und denen kein hohes Entscheidungsge-
wicht beigemessen wird, sollten daher vor
einem Showcase eliminiert werden.
„Ein zentraler Ansatzpunkt zur Komplexitätsreduktion ist die
Verringerung der Anzahl betrachteter Kriterien.“ - Dr. Lars Burmester
ANWENDUNGEN &
LÖSUNGSBAUSTEINE
Competence Book - Business Intelligence
Einleitung Grundlagen Anwendungen &
Lösungsbausteine
2	 Unser Kompetenz-Netzwerk
	 Partner des
	 Competence Books
3	 Editorial Dr. Carsten Bange
	 Quo Vadis BI?
	 Consumerization, Agility,
	 Big Data
6	 Grußwort Oracle
	 Daten effektiv nutzen
7	 Grußwort IDL
	 Gewissheit und Kontrolle 		
	 über „flüssige Mittel“
8	 Grußwort Microsoft
	 Schnellere Aha-Effekte aus 	
	 Big Data. Small Data.
	 All Data.
10	 Zahlen kompakt
	 Infografik BI
14	 Meinungen kompakt
	 Statements zu BI
20	 Delphi-Roundtable BI I
	 Business Intelligence 2020
26	 Delphi-RoundtableBI II		 	
	 Analytik und Perfomance 	
	 Management in einem intel-	
	 ligenten Unternehmen
38	 Self-Service I
	 Mit Self-Service erfolgreich 	
	 im Bereich Business
	Intelligence
40	 Self Service II
	 Self-Service BI im
	 Unternehmen managen
44	 Agile Business Intelligence I	
	 Agile BI erfolgreich umsetzen
48	 Agile Business Intelligence II	
	 Modelle als Basis für eine 	
	 agile BI
50	 Datenbasis
	 Datenbankmodelle und 		
	 -Design am Beispiel von
	 Innovator Architects
52	 Big Data
	 Big Data: Chancen und
	 Herausforderungen für die 	
	Unternehmenssteuerung		
55	 BI-Software
	 Softwareauswahl für
	Business-Intelligence-
	Werkzeuge
60	 Neue Technologien I
	 Cloud, SaaS, Mobile BI -
	 muss das alles sein?
62	 Neue Technologien II
	 Mobile Business Intelligence:
	 Mit Echtzeitdaten die
	 Weichen stellen
64	 Neue Technologien III
	 Im Fokus mobile Lösungen, 	
	 automatisierte Dienst-
	 leistungen und BI-Lösungen
66	 Reporting und Kennzahlen I
	 Reporting Design - Status 	
	 quo und neue Wege in der 	
	 Gestaltung des internen und 	
	 externen Berichtswesens
70	 Reporting und Kennzahlen II
	 Optimiertes Berichtswesen 	
	 mit SAP Business Planning & 	
	Consolidation
74	 Planung und Budgetierung I
	 Modern Budgeting:
	 Die Zukunft im Visier!
76	 Predicitive Analytics
	 Big Data Warehousing:
	 Anmerkungen zur Zukunft 	
	 von BI im Zeitalter von Big 	
	 Data und Predictive Analytics
79	 Performance Management
	 Balanced Scorecard mit 		
	 BI verbinden	
INHALT
59
Competence Book - Business Intelligence
ANWENDUNGEN - NEUE TECHNOLOGIEN
60
Cloud,SaaS,MobileBI:
Mussdasallessein?
AUTOR: Harald Frühwacht (IDL GmbH Mitte)	
Was bringt das Business Intelligence
der Zukunft?
Business Intelligence ist und bleibt
nach wie vor ein Wachstumsmarkt -
neue Technologien, neue Endgeräte
und größere Datenmengen erweitern
die Einsatzmöglichkeiten beständig:
Sie erlauben den Anwendern, Mas-
sen an Informationen aus verschie-
densten Unternehmensbereichen in
hoher Geschwindigkeit auszuwerten,
Szenarien zu erstellen und Kennzah-
len an jedem Ort mobil zugänglich zu
haben. Big Data und Predictive Ana-
lytics seien hier als zwei Stichpunkte
genannt, die den Umgang mit Daten
sowie die Möglichkeiten fürs Simulie-
ren und Vorhersagen auf eine nächs-
te Ebene heben werden. Aber auch
Cloud, SaaS und Mobile sind zwei
technische Innovationen, die sowohl
die Softwarebereitstellung als auch
Nutzung aktuell schon revolutionie-
ren.
Wie aber sieht das daily Business der
Anwenderunternehmen aus?
Mögen die aktuellen Hypes auch noch
so verheißungsvoll sein und viele in-
teressante Möglichkeiten für BI-Vi-
sionen und neue Business Modelle
in sich tragen – viele Unternehmen
befinden sich heute mit ihren Anfor-
derungen noch an einer ganz anderen
Stelle. Auf der Agenda stehen hier
nach wie vor die Zusammenführung
von Daten aus unterschiedlichsten
Systemen, deren prinzipielle analy-
sefähige Aufbereitung sowie die Ab-
bildung einer integrierten Planung,
von der operativen Fachabteilungs-
planung bis hin zur Finanzplanung
und Plankonsolidierung. Auch die
Zusammenführung des internen und
externen Rechnungswesens, die Ab-
bildung eines belastbaren Berichts-
wesens sowie schlicht und ergreifend
der Aufbau einer durchgängigen Lö-
sung, auch im Einklang beispielswei-
se mit Excel, bestimmen nach wie vor
den Arbeitsalltag vieler Finanzverant-
wortlicher und Controller. Die neu-
este Marktstichprobe des Analysten-
hauses Lünendonk untermauert dies
und listet nach wie vor Finanzwesen
und Unternehmenssteuerung als die
primären Einsatzgebiete von Business
Intelligence.
Trendthemen richtig nutzen! Wie
kommt man sicher in die Zukunft?
Nicht zuletzt wegen der dort angesie-
delten sensiblen Daten pflegt man im
Bereich Controlling und Konsolidie-
rung einen eher vorsichtigen Umgang
mit Hypes und wägt Chancen und Ri-
siken genau ab. Und das ist auch rich-
tig so. Der aktuelle Innovationszug je-
doch wird sich nicht aufhalten lassen.
Die neuen Technologien bergen große
fachliche, prozessuale und letztend-
lich auch monetäre Nutzenpotenzia-
le in sich. Diese gilt es zum richtigen
Zeitpunkt und im richtigen Maße zu
nutzen und bereits heute die Weichen
für morgen zu stellen. Gefordert sind
hier Lösungen und Partner, die wis-
sen, wie die ganz aktuellen Herausfor-
derungen gelöst werden können, aber
auch Strategien und Visionen aufzei-
gen, die es erlauben, in neue Welten
zu migrieren. Eine grüne Wiese gibt
es so gut wie nirgends - Erfahrung,
Kompetenz und das Wissen darum,
was heute notwendig ist und funk-
tioniert, und wie dies morgen weite-
ren Mehrwert bringt sind zentral, um
aus Analyse, Planung, Reporting und
Konsolidierung – kurz aus Business
Intelligence – das rauszuholen, was
drin steckt.
Zum Autor Harald Frühwacht:
Harald Frühwacht ist seit 2006 ge-
schäftsführender Gesellschafter der
IDL GmbH Mitte. Bereits 1991 starte-
te er hier seine Karriere als betriebs-
wirtschaftlicher Berater, er realisierte
verschiedenste Konsolidierungspro-
jekte und leitete die fachliche Ent-
und Weiterentwicklung der Konsoli-
dierungssoftware IDLKONSIS.
Hinter jedem Erfolg
steckt ein gutes System
Erleben Sie in der
IDL-Expertenloge effektive
Managementlösungen für
Konsolidierung, Steuerung,
Controlling und Planung
sowie ein Spiel der Fußball-
Bundesliga live.
EXPERTEN
LOGE
Werden Sie Gast!
Alle Themen und Begegnungen
sowie Anmeldung unter
www.idl.eu/expertenloge
Competence Book - Business Intelligence
ANWENDUNGEN - NEUE TECHNOLOGIEN
62
Mobile Business Intelligence:
Mit Echtzeitdaten die Weichen stellen
Wer auf Mobile Business Intelligence verzichtet, könnte im Vergleich zu Mobile-BI-Nutzern
bis zu dreimal länger für eine geschäftliche Entscheidung brauchen. Dieses Ergebnis der
Aberdeen-Group-Studie „Mobile BI: Actionable Intelligence for the Agile Enterprise“ liefert
eigentlich genug Gründe für den umgehenden Einstieg in die mobile Geschäftsanalytik.
Schließlich hat keiner Zeit zu verlieren. Die Möglichkeit eines mobilen Zugriffs auf aktuelle
Geschäftsdaten hat laut der Studie den nützlichen Nebeneffekt, dass sich Entscheider häu-
figer informieren. Dies spüren wohl auch die Kunden, denn selbst die Kundenzufriedenheit
steigt, sobald das Unternehmen auf Mobile BI setzt. Trotzdem sollten Sie jetzt nicht Hals
über Kopf ein Mobile-BI-Projekt starten.
AUTOR: Oliver Schonschek für Oracle
Wer braucht was wo und wann?
Ob sich eine Mobilvariante von Business Intelligence für
Ihr Unternehmen lohnt, hängt von mehreren Faktoren ab:
•	 Zuerst einmal sollten Sie überlegen, wer denn unter-
wegs aktuelle Unternehmensdaten benötigt. Braucht
z.B. Ihr Außendienst jederzeit einen Überblick über
die Preise der Wettbewerber? Das wäre sicherlich
nicht schlecht. Nur: Sind diese Daten denn in Ihren
Datenbanken im Unternehmen überhaupt vollständig
und aktuell vorhanden? Wenn nicht, kann auch eine
Mobile-BI-Lösung nichts Relevantes dazu aussagen.
•	 Wie sieht es mit Ihnen selbst aus? Welche Daten wür-
den Sie gerne zur Verfügung haben, wenn Sie auf Ge-
schäftsreise sind, z.B. Lieferantenanalysen, Kunden-
analysen oder Umsatz- und Vertriebsanalysen? Haben
Sie schon einmal einen Anruf mit der Bitte um sofor-
tige Entscheidung bekommen und Sie hätten gerne
noch einmal in die aktuellen Zahlen geschaut? Dann
könnte Mobile BI unter Umständen helfen.
•	 Mehr noch: Jeder in Ihrem Unternehmen, der schnell
fundiert entscheiden oder Auskunft geben können
muss, würde sicherlich von Mobile Business Intelli-
gence profitieren, vorausgesetzt, ein leistungsstarkes
Smartphone oder ein passendes Tablet stehen zur Ver-
fügung – und die erforderlichen Daten für die mobilen
Analysen ebenfalls.
Nichts für Stubenhocker
Wenn Sie dagegen gar keinen Außenvertrieb haben, son-
dern z.B. einen Online-Shop betreiben und die meisten
Mitarbeiterinnen und Mitarbeiter kaum jemals einen Kun-
dentermin wahrnehmen, dann wäre eine Mobile-BI-Lö-
sung sicherlich übertrieben. Selbst wenn Ihr Controller
häufiger im Home Office arbeitet, kann sie oder er dort
ohne weiteres über einen stationären Computer arbeiten.
Es ist zweifellos reizvoll, überall an die aktuellen Auswer-
tungen zu kommen, doch entscheidend sollte der tatsäch-
liche Bedarf sein.
Berichte oder aktive Analysen?
Es ist auch ein Unterschied, ob Sie nur laufend informiert
werden wollen – über aktuelle Umsatzzahlen, die Preise
der Wettbewerber und den Verkaufserfolg Ihres Vertriebs
– oder ob Sie tatsächlich selbst unterwegs Abfragen und
Analysen starten wollen.
Für die regelmäßigen Reportings brauchen Sie keine spe-
zielle Mobile-BI-Lösung. Dafür reichen zuverlässige Mit-
arbeiterinnen und Mitarbeiter, die Ihnen die Berichte ver-
schlüsselt per E-Mail aufs Smartphone senden, oder aber
eine stationäre BI-Lösung, die automatisch die aktuellen
Analysen oder vordefinierte Warnungen zur Geschäftsent-
wicklung an Sie verschickt.
Competence Book - Business Intelligence
ANWENDUNGEN - NEUE TECHNOLOGIEN
63
Überlegen Sie also, ob Sie oder andere mobile Mitarbeiter
wirklich aktiv analysieren wollen oder müssen. Nur dann
brauchen Sie eine Mobile-BI-Lösung. Andernfalls reichen
Berichte im PDF-Format, die man per Smartphone abho-
len kann.
Strategie und Schnittstellen
Wenn Sie Bedarf an mobilen, individuellen Abfragen zur
Geschäftsentwicklung haben, gibt es verschiedene Mög-
lichkeiten:
•	 Zum einen können Sie webbasiert auf Ihre stationäre
BI-Lösung zugreifen, sofern diese über Ihr Extranet er-
reichbar ist. Oder aber Sie nutzen Business Intelligen-
ce aus der Cloud, so dass ein mobiler Browser für die
Abfragen und Analysen ausreicht.
•	 Alternativ gibt es auch spezielle, mobile Apps für Bu-
siness Intelligence. Diese arbeiten wie eine mobile Cli-
ent-Lösung und rufen die erforderlichen Daten und
Analysen von Ihrem Server ab, auf dem die BI-Lösung
läuft.
Beide Lösungswege können Ihnen in nahezu Echtzeit Ge-
schäftsdaten und deren Auswertung liefern. Ob dies tech-
nisch für Ihr Unternehmen möglich ist, hängt von Ihrer
bestehenden BI-Lösung oder von den Datenbanken ab, auf
die die mobile BI-Lösung zugreifen soll. Hier sollten Sie
also auf die Schnittstellen der Mobile-BI-Lösung achten.
Außerdem sollten Sie die Eignung Ihrer mobilen Endgerä-
te prüfen: Nicht jedes Smartphone hat ein ausreichend gu-
tes und großes Display für grafische Analysen. Mit einem
Tablet sind Sie in der Regel besser beraten. Zudem gibt es
die mobilen BI-Apps auch nicht für jedes Betriebssystem.
Mobilvarianten auf dem Markt
Sie sollten sich die auf dem Markt verfügbare BI-Software
alsogenau ansehen, obdiesewirklich zu Ihren technischen
Voraussetzungen und Ihrem individuellen BI-Bedarf pas-
sen. Angebotenwerdenz.B. LösungenwieOracleBI Mobile
BIRT Mobile, Roambi, MicroStrategy Mobile, QlikView
on Mobile, Cognos 8 Go! Mobile und Jaspersoft Mobile BI.
Nutzen Sie die Möglichkeit, sich Demoversionen anzuse-
hen, und achten Sie genau auf die Systemvoraussetzungen!
Fazit: Für Sofortentscheider mit Lesebrille
Mobile Business Intelligence kann sich bezahlt machen,
wenn Ihr Geschäftsmodell von Ihnen bzw. Ihren Mitar-
beitern eine hohe Mobilität verlangt und Sie zeitnah auf
fundierter Basis entscheiden müssen oder wollen. Voraus-
setzung sind jedoch gepflegte, aktuelle Datenbestände,
auf die zugegriffen werden kann, leistungsstarke mobile
Endgeräte, die die grafischen Auswertungen und die Ab-
fragemasken vernünftig anzeigen.
Grundvoraussetzung ist eine entsprechend hohe Datensi-
cherheit für die Tablets oder Smartphones. Schließlich soll
es Ihnen überall möglich sein, Ihre geschäftlichen Daten
auszuwerten – und zwar nur Ihnen. Und nicht einem Un-
befugten, der über das gestohlene oder verlorene mobile
Endgerät Ihre Umsatzzahlen und Kundenlisten abgreift.
Zum Autor Oliver Schonschek:
Oliver Schonschek ist als Manager Advisor bei der Experton Group AG tätig.
Parallel zu seiner Advisor-Tätigkeit arbeitet er als Herausgeber, Fachautor und
Fachjournalist für verschiedene Fachverlage und Redaktionen.
Die Schwerpunkte seiner Analysen und Publikationen liegen bei der Informa-
tionssicherheit und dem Datenschutz. Dabei behandelt er insbesondere die
Schnittstellen zwischen IT, Business, Recht, Compliance, Datenschutz und
Datensicherheit. So interessieren ihn Themen wie zum Beispiel sich Daten
geschäftlich nutzen lassen, ohne den Datenschutz zu verletzen, und wie sich
beispielweise IT-Infrastrukturen schützen lassen, ohne die Privatsphäre der
Nutzer zu gefährden.
Competence Book - Business Intelligence
ANWENDUNGEN - NEUE TECHNOLOGIEN
64
ImFokusmobileLösungen,
automatisierte Dienstleistungen
und BI-Lösungen
AUTOR: Thomas Martens (Cubeware GmbH)
Laut der Studie Airport Business IT Trends Survey, die in Zusam-
menarbeit von SITA, einem Anbieter von Kommunikations- und
IT-Lösungen im Luftverkehr, dem Airports Council International
und Airline Business umgesetzt wurde, werden Flughafenbetrei-
ber im Jahr 2014 voraussichtlich viereinhalb Milliarden Euro in
IT-Systeme und -Lösungen investieren. Im Fokus stehen vor al-
lem mobile Lösungen, automatisierte Dienstleistungen und Bu-
siness-Intelligence-Lösungen. Ziel ist es, vor allem das Passagie-
rerlebnis und die internen Arbeitsprozesse zu verbessern. Dabei
steht der Service-Gedanke im Vordergrund. Trotz schwankender
Umsätze und steigender Passagierzahlen soll der Service quali-
tativ erhöht werden. Passende IT-Lösungen nehmen hier eine
Schlüsselrolle in den Überlegungen der Flughafen-Manager ein.
Circa vier von fünf Managern sprechen sich bei der Erreichung
dieser Zielvorgaben für den Einsatz von BI-Lösungen aus. Da-
bei sollen die Systeme vor allem klassische Aufgaben von BI, wie
etwa das Finanzcontrolling, wahrnehmen. Auch Bereiche wie der
Flughafenbetrieb, Analysen des Passagieraufkommens und das
Bestandsmanagement sollen durch BI-Anwendungen unterstützt
werden. Großer Nachholbedarf besteht laut den Studienergeb-
nissen aber noch bei der Implementierung von BI-Lösungen. So
gaben nuracht Prozent der befragten Manageran, dass die vorlie-
genden Daten die notwendigen Qualitätsanforderungen für die
Weiterverarbeitung erfüllen.
Thomas Martens, VP Product Marketing bei Cubeware, einer der
führenden Anbieter innovativer Business Intelligence (BI)-Soft-
ware, sieht deshalb vor allem in strategischer Hinsicht Erklä-
rungsbedarf:
„Die Studie macht deutlich, dass Business-Intelligence-Anwen-
dungen nach wie vor nicht zum Standardrepertoire vieler Unter-
nehmen gehören. Hier wird definitiv Steuerungs- und Optimie-
rungspotenzial liegengelassen. Auch die 92% der Befragten, die
von ihrer eigenen Datenqualität nicht überzeugt sind, sprechen
eine deutliche Sprache. In den momentan geführten Diskursen
zu BI geht es hauptsächlich um die schnelle, intuitive Analy-
se großer Datenmengen und unterschiedlicher Strukturtypen
durch Fachanwender. Das ist natürlich ein bedeutendes Thema
in unserer Branche, aber bei solchen Studien wird einem wieder
bewusst, dass das alleine Business Intelligence nicht auszeichnet.
Competence Book - Business Intelligence
ANWENDUNGEN - NEUE TECHNOLOGIEN
65
Themen wie die Datenintegration, -anreicherung und -manage-
ment fallen viel zu oft bei den Überlegungen unterden Tisch, sor-
genaber bei den Projektverantwortlichenauf Unternehmensseite
für das tatsächliche Kopfzerbrechen. Es ist wichtig, BI-Lösungen
in ihrer kompletten Gänze zu betrachten. Nachweislich spielen
hier die schmerzfreie Einbindung von unterschiedlichen Vor-
systemen und der kontrollierte Datenabzug eine wesentliche
Rolle, die von BI-Produkten unbedingt abgedeckt werden sollte.
Wichtig ist es beim Auswahlprozess, auf integrative, technisch
wie fachlich skalierbare und adaptive BI-Systeme zu setzen.
Sonst läuft man Gefahr, die Bildung von Informationsinseln im
eigenen Unternehmen zu befeuern. Erst wenn diese gemeinsa-
me und valide Datenbasis geschaffen wurde, schaffen Advan-
ced-Analytics-Ansätze und Self-service BI wirklichen Mehrwert
für die Fachanwender und das Unternehmen. Die Kombination
aus leistungsstarken ETL- und Organisationstools mit einem ap-
plikationsfähigen BI-Frontend ist hier entscheidend.
Von zentraler Bedeutung ist es zudem, dass Unternehmen gezielt
auf BI-Berater mit Branchenkenntnis setzen. Denn mittlerweile
finden BI-Lösungen weit über die klassischen Einsatzgebiete hin-
aus Anwendung. Neben der Auswertung von Finanzkennzahlen,
dem Controlling und der Finanzplanung bieten sich BI-Anwen-
dungen vor allem auch in operativen Bereichen an. So lassen sich
durch BI-Analysen etwa des Passagierflusses und der Beziehun-
gen zwischen verschiedenen Flugrouten Optimierungen bei der
Gate-Belegung erreichen. Dadurch sinken nachweislich die Tran-
sit-Zeiten für Passagiere. Auch im Bereich des Vorfeldes können
sich durch derartige Analysen schnellere Umladezeiten für Ge-
päck- und Frachtgut realisieren lassen. In Cubeware-Projekten,
beispielsweise am Flughafen München, konnten so große Erfolge
verbucht werden. Auch die diskriminierungsfreie Aufbereitung
der Datengrundlage für Flughafenentgelte lässt sich durch BI-Lö-
sungen sicherstellen, um hier möglichst transparent gegenüber
den zuständigen öffentlichen Stellen agieren zu können.
Wir bei Cubeware sehen in der Simulation unterschiedlicher
Szenarien im Hinblick auf schwankende Passagierzahlen, Aus-
lastung von Start- und Landebahnen und Terminalstrukturen ein
weiteres großes Anwendungsgebiet von BI-Lösungen. Die Ein-
satzgebiete von BI-Lösungen im Flughafenbetrieb sind enorm.
Zumal je leistungsstärker Algorithmen-getriebene Auswertun-
gen werden, desto interessanter werden auch analytische Syste-
me im Bereich von Predictive und Prescriptive Analytics. Aber
auch hier gilt: jede Auswertung ist nur so gut wie die zugrundlie-
gende Datenbasis. Dieser Aspekt von BI und Analytics kann nie
genug in den Vordergrund gestellt werden.“
Zum Autor Thomas Martens:
Thomas Martens blickt auf 17 Jahre Erfahrung im Business-Intelligence-/
Data-Warehouse-Umfeld zurück. Bei Cubeware verantwortet er den Bereich
Product Marketing.
Sein besonderes Interesse gilt dabei der Visualisierung von Daten, der Integ-
ration von analytischen Methoden in Business-Intelligence-Lösungen und der
Verarbeitung von großen Datenmengen.
Competence Book - Business Intelligence
ANWENDUNGEN - REPORTING UND KENNZAHLEN
66
Reporting Design – Status quo
und neue Wege in der Gestaltung des
internen und externen Berichtswesens
Wie sieht ein optimal gestalteter Finanzbericht aus? Es gibt nur wenige Unternehmen, die
sich in den vergangenen Jahren nicht diese Frage stellen mussten oder aktuell nicht vor der
Aufgabe stehen, ihr internes Reporting bzw. ihre Geschäftsberichte zu optimieren. Dies hat
einen einfachen, aber bedeutsamen Grund. Führungskräfte in Unternehmen und externe
Kapitalgeber haben heute eine herausragende gesellschaftliche Verantwortung. Mit ihren
Entscheidungen gestalten sie die weltweite wirtschaftliche und soziale Entwicklung. Die
Qualität ihrer Entscheidungen beruht maßgeblich auf den ihnen zur Verfügung stehenden
Informationen. In unserer datengeprägten Geschäftswelt wird die Informationsversorgung
dieser Personengruppen von umfangreichen, quantitativen Berichten dominiert. Unterneh-
mensintern in Form von Managementreports wie Monats- oder Quartalsberichten, nach au-
ßen vor allem durch die veröffentlichten Geschäftsberichte.
AUTOREN: Michael Büttner (Accenture), Christoph Eisl (FH Oberösterreich), Christian Engelbrechtsmüller (KMPG Advisory AG),
Heimo Losbichler (Fachhochschule Steyr), Andreas Schmidt-Pöstion (pmOne GmbH), Hannes Wambach (pmOne GmbH)
Neben inhaltlichen Aspekten spielt die In-
formationsaufbereitung bei der Berichts-
gestaltung eine zentrale Rolle, da 70 % der
menschlichen Sinnesrezeptoren für die
visuelle Wahrnehmung vorgesehen sind.
Während der Frage richtiger Kennzahlen
in Wissenschaft und Praxis seit jeher gro-
ßer Raum gegeben wurde, hat sich das Be-
wusstsein für die Bedeutung der visuellen
Aufbereitung erst in den letzten Jahren
entwickelt und in vielen Unternehmen zu
einem Umbruch in der Berichtsgestaltung
geführt.
Die Empfehlungen zur optimalen visuel-
len Aufbereitung von Tabellen und Dia-
grammen sind jedoch uneinheitlich. Es
fehlen wissenschaftlich fundierte, empi-
risch abgesicherte Gestaltungsgrundlagen
und in der Praxis akzeptierte Standards.
Tabellenanordnungen, Diagrammtypen,
Farben oder Achsenskalierungen werden
meist individuell und inkonsistent aufbe-
reitet. Als Folge sind viele Berichte schwer
lesbar und für eine rasche Informations-
wahrnehmung häufig ungeeignet. Im Ext-
remfall können sie sogar zu Fehlentschei-
dungen führen. Darüber hinaus ist der
Aufwand für die von Unsicherheit beglei-
tete Berichtserstellung beträchtlich.
Mit Hilfe einer neuen Eye-Tracking-Tech-
nologie können Blicke und Blickverläufe
der Berichtsleser aufgezeichnet und ana-
lysiert werden. Eye Tracking ist damit ein
Schlüssel für die empirische Überprüfung
der Wirksamkeit unterschiedlicher Dar-
stellungsformen.
Die vorliegende Studie ist Teil eines ge-
meinsamen Forschungsprojektes von
KPMG, pmOne und dem Studiengang
Controlling, Rechnungswesen und Fi-
nanzmanagement der FH OÖ in Steyr.
Ziel des Projektes ist die Entwicklung von
Gestaltungsrichtlinien, die Management-
und Geschäftsberichte nachweislich
schneller und besser lesbar machen. Die
vorliegende Studie ist empirischer Aus-
gangspunkt des Gesamtvorhabens und
gibt erstmals einen umfassenden Über-
blick über die heute gängige Praxis in der
internen Monatsberichtsgestaltung und
der externen Geschäftsberichterstattung
österreichischer Unternehmen.
Competence Book - Business Intelligence
ANWENDUNGEN - REPORTING UND KENNZAHLEN
67
1. Zusammenfassung Ergebnisse
Die Studie „Reporting Design – Status
quo und neue Wege in der Gestaltung des
internen und externen Berichtswesens“
wurde im Frühjahr und Sommer 2012
durchgeführt. Sie gibt Auskunft über die
aktuelle Praxis der internen und externen
Berichtsgestaltung. Die Ergebnisse zum
internen monatlichen Reporting beruhen
auf 326 Fragebögen von Berichtsempfän-
gern und Berichtserstellern österreichi-
scher Unternehmen. Die Ergebnisse zur
externen Berichterstattung beruhen auf
der Analyse der Geschäftsberichte der 40
Unternehmen des ATX Prime Market.
Wesentliche Ergebnisse zur
Geschäftsberichterstattung
Geschäftsberichte stellen ein wesentliches
Instrument der Kommunikation von Un-
ternehmen mit Investoren und der Öffent-
lichkeit dar. Die darin dargestellten Infor-
mationen beeinflussen maßgeblich deren
Vertrauen. Der angestrebte „true and fair
view“ wird dabei von Inhalt und Darstel-
lungsform gleichermaßen beeinflusst. Die
detaillierten Studienergebnisse bezüglich
Tabellen, Diagrammen und sonstigen gra-
fischen Elementen indizieren, dass in den
Unternehmen des ATX Prime Market in
Hinblick auf die Berichtsgestaltung Opti-
mierungspotenzial besteht. Die wesentli-
chen Studienergebnisse können wie folgt
zusammengefasst werden:
1. Durchschnittlich 165 Seiten
Der durchschnittliche Geschäftsbericht
2010 bzw 2010/11 im ATX Prime Market um-
fasst 165 Seiten (Median 149 Seiten). Der
Konzernabschluss beansprucht mit durch-
schnittlich 87 Seiten dabei mehr Raum als
der allgemeine Teil mit 78 Seiten. Die DO&-
CO Restaurants & Catering AG veröffent-
lichte mit 102 Seiten den Bericht mit der ge-
ringsten Seitenanzahl, der Geschäftsbericht
der Immofinanz AG war mit 286 Seiten der
seitenmäßig umfassendste Bericht.
2. 6.800 Tabellen, Diagramme und
sonstige grafische Elemente
In den Geschäftsberichten der Unterneh-
men des ATX Prime Market werden mehr
als 6.800 Tabellen, Diagramme und sons-
tige grafische Elemente zur Darstellung
von Informationen verwendet. Diese be-
anspruchen damit im Durchschnitt mehr
als ein Drittel (= 34,9 %) der in den Ge-
schäftsberichten verfügbaren Nettofläche.
Umgerechnet entspricht dies einer durch-
schnittlichen Seitenanzahl von 57,5 Seiten
pro Geschäftsbericht, die ausschließlich
Tabellen, Diagramme und sonstige gra-
fische Elemente beinhalten. Pro Bericht
werden im Schnitt 119 Tabellen, 21 Dia-
gramme und 39 sonstige grafische Ele-
mente verwendet. Damit wird deutlich,
dass der Gestaltung dieser Elemente große
Bedeutung beikommt.
3.Tabellen dominieren
Von diesen 57,5 Seiten sind wiederum 58,3
% Tabellen (= 33,5 Seiten), 6,1 % Diagramme
(= 3,5 Seiten) und 35,6 % sonstige grafische
Elemente(= 20,5 Seiten). Esistfestzustellen,
dass Tabellen insbesondere im Konzernab-
schluss mit 93,4 % der Flächegrafischer Ele-
mente sehr breiten Raum einnehmen.
4. Große Unterschiede zwischen den
Unternehmen
Der Vergleich der Geschäftsberichte zeigt
große Unterschiede zwischen den Unter-
nehmen bezüglich der Seitenanzahl und
der visuellen Gestaltung. Tabellen und
Diagramme werden für unterschiedlichs-
te Zwecke eingesetzt und unterschiedlich
gestaltet. Von einem etablierten Standard
kann keinesfalls gesprochen werden.
Wesentliche Ergebnisse zur Monats-
berichterstattung
Informationen sind die Grundlage
menschlicher Entscheidungs- und Wil-
lensbildung. Die Qualität betrieblicher
Entscheidungen hängt damit direkt mit
der Qualität der den Führungskräften zur
Verfügung stehenden Informationen zu-
sammen. Monatsberichte haben, als zen-
trales Instrument der regelmäßigen In-
formationsversorgung des Managements,
einen besonders hohen Einfluss auf die
Entscheidungsqualität in den Unterneh-
men. Diese Entscheidungsrelevanz wird
durch die Ergebnisse der Studiebestä-
tigt. Im Vergleich zu Geschäftsberichten
sind Unternehmen in der Gestaltung des
Managementreportings frei und können
interne Monatsberichte an die individu-
ellen Bedürfnisse anpassen. Die Studie
bestätigt die hohe Aktualität des The-
mas und Wunsch und Notwendigkeit
wahrnehmungsoptimierter Reports. Die
Kernergebnisse zum Status quo der Mo-
natsberichterstattung in österreichischen
Unternehmen sind:
1. Hoher Umfang und Erstellungsauf-
wand
Die durchschnittliche Seitenanzahl der
Monatsberichte beträgt 50 Seiten, wobei
der Durchschnitt von zwei Unternehmen
mit mehr als 1.000 Seiten Umfang verzerrt
ist. Der Median für die Seitenanzahl be-
trägt 20 Seiten. Bei KMU beträgt der Me-
dian lediglich 11 Seiten. Für die Erstellung
dieser Berichtsumfänge benötigen die
Unternehmen durchschnittlich 6,5 Per-
sonentage, wobei der Aufwand in Konzer-
nen mit 7,9 Tagen wesentlich höher ist als
in KMU mit 3 Personentagen.
2. Hohe Entscheidungsrelevanz
58,3 % der Manager und Controller emp-
finden den Einfluss der Monatsberichte
auf unternehmerische Entscheidungen
als hoch bzw. sehr hoch. Der hohe Erstel-
lungsaufwand für die Berichte erscheint
gerechtfertigt.
3. Monatsberichte müssen rasch zu le-
sen sein
Monatsberichte werden von den Berichts-
empfängern gelesen. Nur 0,4 % geben an,
die Berichte nicht zu lesen. Die Berichte
werden am häufigsten jedoch nur 15 bis 30
Minuten betrachtet. Mehr als die Hälfte
(57,5 %) der Berichtsleser liest die Berichte
nur punktuell bzw. kapitelweise.
4. Elektronik vor Papier. Tablets und
Smartphones werden wichtiger.
Während nahezu alle Befragten ihre Be-
richte am PC oder Notebook (94 %) be-
trachten, sind Papierberichte heute nur
mehr zu 70,1 % verbreitet. Tablets (7,5
%) und Smartphones (7,1 %) sind als Be-
trachtungsmedium derzeit noch eher die
Ausnahme. Sie weisen aber die höchsten
Wachstumsraten auf. Tablets sollen um
293,3 % auf 29,5 % wachsen, Smartphones
um 109,9 % auf 14,9 %. Den klassischen Pa-
pierbericht wollen in Zukunft nur mehr die
Hälfte (52,8 %) der Befragten einsetzen.
Competence Book - Business Intelligence
ANWENDUNGEN - REPORTING UND KENNZAHLEN
68
5. Verbesserungsbedarf in der Infor-
mationsgestaltung
Nur 60,4 % der Befragten sind mit der
Aufbereitung von Diagrammen zufrieden.
Während 71,5 % mit der Gestaltung von
Tabellen zufrieden sind, ist dies bei Tex-
tinformationen (zB Kommentaren) nur zu
44,8 % der Fall.
6. Wunsch nach mehr Visualisierung
Diagramme nehmen heute in vielen Mo-
natsberichten weniger als 20 % der Gesamt-
fläche ein. Gleichzeitig konzentrieren sich
die Berichtsleser bei Erhalt des Berichts pri-
mär auf Diagramme. 42,0 % der Befragten
wünschen sich in Zukunft mehr Diagram-
me in der Monatsberichterstattung. Damit
steht die erhöhte Visualisierung an zweiter
Stelle der Wünsche und wird nur durch den
Wunsch nach rascherer Information (46,9
%) übertroffen. Die Studienergebnisse zei-
gen aber, dass eine hohe Unsicherheit in der
Gestaltung von Diagrammen besteht.
7. Neue Darstellungsformen wie Small
Multiples und Sparklines sind noch
wenig verbreitet
Bei den alternativen grafischen Darstel-
lungsformen dominieren Ampeldarstel-
lungen. Diese werden von 49,1 % der Be-
fragten verwendet. Small Multiples und
Sparklines (siehe Kapitel Präsentation von
Geschäftszahlen) werden lediglich bei 26,1
% bzw. 12,3 % eingesetzt. Die Unterschie-
de zwischen KMU, Großbetrieben und
Konzernen sind dabei gering.
8. Hohe Aktualität und viele Projekte
in Planung
Die hohe Aktualität des Themas zeigt sich
durch die Tatsache, dass 62,9 % der Unter-
nehmen gerade ein Reportingprojekt kon-
kret planen, in der Umsetzung sind oder
ein solches vor kurzem durchgeführt ha-
ben. Die Änderungen werden dabei nicht
laufend umgesetzt, sondern gebündelt
und in einem gelegentlichen Rhythmus
durchgeführt.
Zum Autor Tim Erben:
Seit Oktober 2009 arbeitet Tim Erben als Senior Manager Corporate Marke-
ting für die pmOne AG, einem führenden Unternehmen im Markt für Business
Intelligence. Das Lösungsangebot für Kunden besteht aus drei Säulen: Data
Warehouse, Anwendungen für Performance Management sowie Reporting &
Information Design.
Zuvor war er mehrere Jahre als Marketing/Sales Manager für verschieden
Unternehmen im Bereich Business Intelligence, Performance Management
und Data Warehouse tätig. Die Basis hierfür entstand während seiner Studi-
enzeit und Ausbildung in Würzburg beim Lehrstuhl für BWL und Wirtschafts-
informatik von Prof. Dr. Thome, dem unabhängigen Beratungshaus BARC
GmbH sowie der Administration Intelligence AG.
Eye Tracking – Die Schlüsseltechnolo-
gie in der zukünftigen Berichtsgestal-
tung
Die Studienergebnisse zeigen sowohl im
Bereich der Geschäftsberichte als auch
im Bereich der Monatsberichtsgestaltung
starke Unterschiede in der Informations-
aufbereitung und das Fehlen etablierter
Standards. Gleichzeitig zeigen die Stu-
dienergebnisse den Wunsch nach besser
und schneller aufbereiteten Informatio-
nen auf Seite der Berichtsempfänger. Bei
den Berichtserstellern wird der Wunsch
nach verlässlichen Orientierungsgrundla-
gen und reduziertem Erstellungsaufwand
deutlich.
Die komplette Studie finden Sie unter die-
sem Link.
Competence Book - Business Intelligence 69
Competence Book - Business Intelligence
ANWENDUNGEN - REPORTING UND KENNZAHLEN
70
AUTOREN: Tilman Hagen (Braincourt GmbH)	
1. Einleitung
Das Berichtswesen – in Form von Standardberichten und um-
fangreichen Berichtspaketen für interne sowie externe Empfän-
ger – stellt für viele Unternehmen einen enormen zeitlichen und
finanziellen Aufwand dar.
So liegt die Frage nahe, ob dieser Aufwand nicht auf ein Mini-
mum reduziert werden kann, so dass mehr Zeit für die wesentli-
chen Aufgaben, wie Analyse und Kommentierung bleibt.
Diese Frage kann positiv beantwortet werden: Es ist möglich den
Aufwand für die Berichtserstellung zu minimieren. Eine praxis-
erprobte Herangehensweise wird in diesem Artikel beschrieben.
Dabei wird das warum, wie, was und womit beantwortet.
2. „Warum?“ – Herausforderungen des Berichtswesens
Die Komplexität der Prozesse des Berichtswesens ist durch un-
terschiedliche Anforderungen und Herausforderungen geprägt.
Unter anderem aufgrund der historischen Entwicklung des
Berichtswesens in Unternehmen, wird dieses oft durch unter-
schiedliche, organisatorisch und räumlich getrennte Fachbe-
reiche vorgenommen. Nur in wenigen Fällen existieren bereits
bereichs- oder gar unternehmensübergreifende Organisations-
einheiten mit der Verantwortung für die Berichterstattung. Aus
dieser Dezentralität resultieren u. a. Redundanz und Parallelität:
In den Inhalten der Berichterstattung, den IT-Systemen und in
den Arbeitsabläufen – allesamt direkte Kostenverursacher. Eine
weitere Herausforderung besteht in dem engen Zeitkorsett: Be-
richte sollen einerseits schnellstmöglich nach Verfügbarkeit der
Daten an die Empfänger versendet werden. Andererseits werden
die Intervalle zwischen den Berichtsperioden immer kürzer. So-
mit wird es erforderlich, Berichtsanpassungen während der ope-
rativen Berichtserstellung vorzunehmen. Für eine ausführliche
Qualitätssicherung bleibt nur wenig Zeit.
In der Praxis wirkt die Erstellung von hochformatierten Stan-
dardberichten im Controlling oder Rechnungswesen oftmals de-
platziert. Diese Arbeit ist mehr von der Beherrschung der IT-Sys-
teme und deren Datenmodellen sowie der visuellen Gestaltung
der Berichte, als von betriebswirtschaftlichen Aufgaben, geprägt.
Dass ein „Standard-Berichtswesen“ nicht zwangsläufig mit „Stan-
dard-Prozessen“ gleichgesetzt werden kann, zeigt das nachfol-
gende fiktive, aber durchaus reale, Beispiel:
Mitarbeiter Paul Personal aus der Abteilung Personal-Controlling
erstellt monatlich einen Management-Report, der neben reinen
Personalkennzahlen auch Finanzkennzahlen, wie beispielsweise
den „Umsatz“ beinhaltet. Paul hat sich für die gesamte Berichts-
erstellung eine umfangreiche Excel-Mappe vorbereitet, welche er
jeden Monat verwendet.
Alle erforderlichen Zahlen werden in Excel-Blättern per Query aus
dem HR-System (SAP BW) abgefragt. Da die endgültigen Perso-
nalinformationen teilweise sehr spät bereitgestellt werden, muss
Paul oftmals Anpassungen vornehmen oder Eingaben manuell im
Voraus durchführen. Dies geschieht in einem weiteren Excel-Blatt,
in dem die abgefragten Werte manuell verändert werden können.
Verschiedene „Ausgabe-Blätter“ in derselben Arbeitsmappe ver-
weisen auf dieses Anpassungs-Sheet. Die notwendigen Formatie-
rungen und Formeln hat Paul sich in mühseliger Kleinarbeit auf-
gebaut. Nachdem alle Blätter finalisiert sind, wird die Excel-Datei
als PDF ausgedruckt und auf einem Dokumentenmanagement-
system bereitgestellt.
Pauls Kollege Claus Controlling erstellt ebenfalls einen umfang-
reichen Monatsbericht für das Management. Dieser beinhaltet In-
formationen aus verschiedenen Bereichen (und Systemen), wie der
Produktion, dem Finanz- und auch dem Personalbereich. Die Per-
sonalkennzahlen entstammen demselben System, wie auch Pauls
Zahlen. Finanzkennzahlen (wie auch der Umsatz) werden jedoch
aus einem zentralen Controlling-System basierend auf Microsoft
Analysis Services gezogen. Aufgrund der vielfältigen Quellsysteme,
Optimiertes Berichtswesen
mit SAP Business Planning & Consolidation
Competence Book - Business Intelligence
ANWENDUNGEN - REPORTING UND KENNZAHLEN
71
verwendet Claus unterschiedliche Excel-Ar-
beitsmappen bzw. bekommt einzelne Infor-
mationen auch per E-Mail oder telefonisch
zugeliefert. Die meisten Informationen wer-
den einzeln kopiert und manuell in mehrere
„Ausgabe-Mappen“ eingefügt, nur wenige
Mappen sind automatisiert oder verfügen
über Verknüpfungen zu den Quell-Dateien.
Schließlich druckt Claus die verschiedenen
Ausgabe-Mappen separat als PDF aus und
fügt diese in Adobe Acrobat zu einer Datei
zusammen. Die fertige PDF-Datei wird per
E-Mail an die Berichtsempfänger versendet.
Dieses Beispiel wirktextrem, ist heuteaber
in vielen Unternehmen gelebte Praxis und
zeigt wiederkehrende Schwachstellen:
• Verschiedene Quellsysteme für
gleiche Informationen
Claus und Paul verwenden für die glei-
che Kennzahl „Umsatz“ unterschiedliche
Systeme. Ein „single point of truth“ exis-
tiert nicht.
• Individualisierte Erstellungsprozesse
Die Berichtserstellung hängt stark von
den individuellen Fähigkeiten der Be-
richtersteller ab. Während Claus über
sehr fortgeschrittene Excel-Kenntnisse
verfügt, hat Paul noch viele Möglichkei-
ten, sich zu verbessern. Somit unterschei-
den sich auch die Erstellungsprozesse.
Für Dritte, die u. U. eine Urlaubsvertre-
tung machen sollen, sind diese Prozesse
nur schwer nachvollziehbar.
• Wenig automatisierte Prozesse
Sowohl Claus‘ als auch Pauls Prozess
der Berichtserstellung ist stark durch
manuelle Eingriffe geprägt: Abfragen der
Informationen, Vornehmen manueller
Änderungen, Kopieren der Informatio-
nen, Drucken der PDF-Dateien, Zusam-
menfügen der PDF-Dateien.
• Keine zentralen Anpassungen
Da einige Kennzahlen sehr spät in ihrer
endgültigen Form in das HR-System ge-
laden werden, nimmt Paul Personal eini-
ge manuelle Eingaben vor. Werden diese
Kennzahlen auch in anderen Dokumen-
ten berichtet, kann dies zu Differenzen
führen bzw. macht einen umfangreichen
Abstimmungsprozess erforderlich.
• Mehrstufige Datenabfrage
Von der Datenabfrage bis zur Darstel-
lung im Bericht sind es mehrere Schritte.
Bei Änderungen (z. B. die Ergänzung ei-
ner Kennzahl) müssen die Anpassungen
an vielen Stellen und unter Umständen
sogar durch mehrere Personenkreise
nachgezogen werden (Ausgabe-Blatt,
Anpassungs-Blatt, Abfrage-Blatt, SAP-
BW-Query).
3. „Wie?“ – Standardisiertes Vorgehen
Eine weitsichtig ausgelegte Optimierung
des Berichtswesens macht ein eigenstän-
diges Projekt erforderlich. Nur so ist ge-
währleistet, dass die notwendigen Res-
sourcen bereitgestellt und die Bedeutung
für das Unternehmen hervorgehoben wer-
den. Ein solches Projekt muss sich sowohl
der fachlichen Prozesse als auch der vor-
handenen und erforderlichen Datenbasis
annehmen.
Ein standardisiertes Vorgehen ermöglicht
ein durchgehend strukturiertes und somit
zielorientiertes und effizientes Projekt.
In der Praxis hat sich dabei ein 5- stufiges
Modell bewährt:
• Ist- und Anforderungsanalyse
Zu Beginn des Projektes müssen die
bestehende Berichtslandschaft, die ver-
wendeten Quellsysteme und die Erstel-
lungsprozesse analysiert werden. Dabei
werden vorhandene und notwendige
Alleinstellungsmerkmale erkannt und
konkrete Anforderungen an die Lösung
detailliert beschrieben. Bereits in dieser
frühen Phase werden vielfach redun-
dante oder nicht mehr relevante Berich-
te identifiziert, welche ggf. zukünftig
nicht weiter erstellt werden müssen.
• Fachkonzept
Auf Basis der skizzierten Ist-Situation und
den definierten Anforderungen wird ein
Fachkonzept erstellt. Dieses beschreibt
aus fachlicher Sicht alle wesentlichen Be-
standteile der zukünftigen Lösung, wie
Prozesse, das Datenmodell oder Bericht-
sinhalte und -strukturen. Es ist entschei-
dend, dass die Lösung die bestehenden
inhaltlichen Anforderungen abdeckt, aber
auch für zukünftige Herausforderungen
und Veränderungen skalierbar ist.
• Notationskonzept (optional)
Im Rahmen der Berichtsoptimierung
empfiehlt es sich zusätzlich, ggf. paral-
lel zum Fachkonzept, ein sogenanntes
Notationskonzept zu erstellen (als Bei-
spiel für einen solchen Standard sei das
HICHERT®SUCCESS-Regelwerk von
Prof. Rolf Hichert genannt). Durch ei-
nen Notationsstandard lässt sich die
Berichtsqualität u. a. durch eine ver-
besserte Lesbarkeit, Interpretationsver-
bindlichkeit und eine höhere Informati-
onsdichte erheblich verbessern. Zudem
können im Rahmen der folgenden Re-
alisierungsphase Berichte auf Basis von
Vorlagen und Richtlinien effizient und
effektiv erstellt werden.
• Feinkonzept
Auf Basis der innerhalb des Fachkon-
zepts beschriebenen Anforderungen und
des ggf. vorhandenen Notationskonzepts
wird ein Feinkonzept entwickelt. In die-
sem werden einzelne fachliche Anfor-
derungen detailliert ausgearbeitet und
insbesondere die konkrete technische
Lösung auf Basis der genutzten BI-Tech-
nologie beschrieben.
• Realisierung/ Tests
In der Realisierungsphase werden alle
relevanten und im Feinkonzept be-
schriebenen Reporting-Komponenten
umgesetzt. Dies sind u. a. Datenplatt-
Abb. 1: Fiktives Beispiel von Prozes-
sen im Berichtswesen
Competence Book - Business Intelligence
ANWENDUNGEN - REPORTING UND KENNZAHLEN
„Standardisiertes Vorgehen in Form eines
dedizierten Projektes gewährleistet Erfolg.“
- Tilman Hagen
72
formen in Form von Data Warehouses
oder Data Marts, Berichtsvorlagen so-
wie Frontend-Lösungen, welche den
Endanwender bei der Erstellung von
Berichten und Berichtsmappen unter-
stützen.
• Anwenderschulungen/ Roll-Out
Das Reporting-Projekt ist beendet,
wenn sichergestellt ist, dass die Appli-
kation bei allen Anwendern läuft und
durch vorgelagerte Schulungsmaßnah-
men gewährleistet ist, dass die Applika-
tion von den Anwendern sicher bedient
werden kann.
4 „Was?“ – Fachliche Optimierung
Ein Optimierungsprojekt sollte die drei,
für das Berichtswesen relevanten, Hand-
lungsfelder Prozesse, Datenbasis und Be-
richte berücksichtigen.
Die Optimierung von Reporting-Prozessen
muss in vielen Fällen eine Neugestaltung
der IT-Systeme, z. B. in Form eines Data
Warehouse und der darin vorhandenen
Daten, nach sich ziehen. Es genügt nicht
ein Data Warehouse bereitzustellen und zu
erwarten, dass sich tradierte Prozesse ohne
weiteres wie gewünscht anpassen.
Darüber hinaus müssen die Berichte ggf.
oder Kommentierungsaufgaben wahrzu-
nehmen, bleibt somit keine Theorie. Im
Folgenden werden die einzelnen Schritte
des Reporting-Prozesses hinsichtlich ihrer
Optimierungspotentiale näher betrachtet:
• Bereitstellung von Daten
Die Bereitstellung derDaten istdie Grund-
voraussetzung für einen effektiven Repor-
ting-Prozess. Es muss gewährleistet sein,
dass die notwendigen Informationen zum
richtigen Zeitpunkt, sowie in der erfor-
derlichen Qualität und Form, innerhalb
des vom Reporting-Bereich genutzten
Systems (siehe 4.2 Zentrale Datenbasis)
vorliegen.
• Abfrage der Daten
Bei der Erstellung von umfangreichen Be-
richtsmappen müssen oftmals nachein-
ander gleiche Berichte parametrisiert und
daraufhin aktualisiert werden (beispiels-
weise eine Gewinn- und Verlustrechnung
für unterschiedliche Unternehmensberei-
che). Wird eine solche Mappe regelmäßig
erstellt sollte diese Parametrisierung und
Abfrage automatisiert erfolgen. Handelt
es sich um Einzelberichte, so kann der Er-
steller z. B. durch automatisch generierte
Vorschlagwerte für Selektionen unter-
stützt werden.
• Kommentierung
In vielen Fällen werden die quantitativen
Zahleninformationen durch qualitative
Bewertungen und Kommentierungen er-
gänzt. Der Prozess dieser Kommentarzu-
lieferung muss vereinheitlicht werden.
• ZusammenfügenderBerichtsmappen
Aus den separat aktualisierten Einzelbe-
richten wird eine Gesamtberichtsmappe
erzeugt. Diese wird ggf. mit einem In-
haltsverzeichnis, Kapiteln, Seitenzahlen
und Fußnoten versehen. Falls erforder-
lich wird schließlich eine druckfertige
PDF-Datei generiert.
• Versendung/ Veröffentlichung der
Berichtsmappen
Die erstellten Berichtsmappen werden da-
raufhin per E-Mail versendet oder auf ei-
nem zentralen System bereitgestellt. Die-
se Veröffentlichung erfolgt vielfach auch
in mehreren Varianten (z. B. „Draft“ und
„Finale Version“).
4.2 Zentrale Datenbasis
Im Rahmen der Neugestaltung von Repor-
ting-Prozessen muss geprüft werden, ob
die vorhandenen Reporting-Systeme den
aus dem Optimierungsprozess resultie-
renden Anforderungen gerecht werden. In
einem weitsichtigen Projekt spielen diese
Systeme eine zentrale Rolle.
Ziel sollte es sein, für das Reporting ein
oder mehrere zentral verfügbare Data
Marts zu schaffen. Diese müssen auf ei-
nem zentralen und als „single point of
truth“ dienenden Data Warehouse aufset-
zen sowie hinsichtlich Datenmodell und
Funktionalität explizit auf die Bedürfnis-
se des Berichtswesens ausgerichtet sein.
Ansonsten heißt die Alternative: durch
Endanwender individuell erschaffene In-
sellösungen und somit eine redundante
Datenhaltung und -auswertung sowie
eine inkonsistente Berichterstattung.
Datenmodell
Oftmals werden insbesondere durch
interdisziplinäre Reporting- und Cont-
rolling-Bereiche Systeme anderer Berei-
che oder Abteilungen genutzt. Diese sind
durch komplexe Datenmodelle, eine sehr
hohe Granularität und einen umfangrei-
chen Zeitbezug geprägt. Für einen Repor-
ting-Bereich können Informationen, wie
z. B. detaillierte Beleg-Informationen oder
das Erfassungsdatum eines Datensatzes,
überflüssig sein. Die entsprechenden Di-
mensionen können somit entfallen. Dem
gegenüber kann es aber erforderlich sein,
eine BI-Lösung um weitere Informati-
onen, wie manuelle Anpassungen oder
an neue Systeme und Reporting-Prozesse
angeglichen werden und bieten zusätzlich
umfangreiches Potential zur Effizienzstei-
gerung.
4.1 Prozesse
Das in Kapitel 2 beschriebene Beispiel
hat aufgezeigt, welche Ausprägungen und
Ausmaße ein Berichtsprozess in der Pra-
xis annehmen kann. In diesem Kapitel
wird dargelegt, welche Optimierungspo-
tentiale der Reporting-Prozess birgt. Vor-
gelagerte Prozesse, wie z. B. Währungs-
umrechnungen, Kennzahlenbildung oder
Konsolidierung, sollen in diesem Rahmen
nicht näher beleuchtet werden.
Durch standardisierte Prozesse sowie die
Erhöhung des Automatisierungsgrads
von Routinetätigkeiten sind erhebliche
Zeit- und Kostenersparnisse möglich. Ein
Reporting „auf Knopfdruck“, in welchem
den Berichterstellern zeitliche Freiräume
geschaffen werden, um wichtige Analyse-
Competence Book - Business Intelligence
ANWENDUNGEN - REPORTING UND KENNZAHLEN
73
Währungseffekte zu ergänzen.
Ein geeignetes Datenmodell kann neben
einer optimalen Unterstützung des Pro-
zesses auch weitere positive Seiteneffek-
te, wie eine hohe Benutzerfreundlichkeit
oder eine verbesserte Performance, mit
sich bringen. Die Nutzbarkeit wird insbe-
sondere durch Dimensionen, Strukturen
oder Hierarchien bedingt, welche sich z.
B. an der Darstellung in Berichten orien-
tieren sollten.
Funktionalitäten
Neben einem auf die Reporting-Anforde-
rungen optimierten Datenmodell kann
auch die systemtechnische Realisierung
von Funktionen die Arbeit des Fachbe-
reichs erheblich erleichtern. Beispielswei-
se müssen im Rahmen der Anforderungen
an die externe Berichtserstattung in Form
von Geschäfts- oder Zwischenberichten
Zahleninformationen auf die Einheiten
„in Tausend“ oder „in Millionen“ gerundet
dargestellt werden. Die daraus resultie-
renden Schwierigkeiten hinsichtlich ent-
stehender Differenzen in Summen sind
hinlänglich bekannt und können in einem
solchen System zentral gelöst werden.
Eine, von den operativen oder anderen
Bereichen verwendeten Systemen, sepa-
rierte Datenbasis bietet darüber hinaus
die Möglichkeit, Reporting-relevante In-
formationen zentral zu erfassen und diese
Informationen allen Nutzern zur Verfü-
gung zu stellen. Sollen die Berichte über
eine Kommentarkomponente verfügen, so
sollten diese in einer Datenbank und mit
den quantitativen Größen verknüpft abge-
legt werden.
Hier lesen Sie den vollständigen Beitrag,
der Ihnen beantwortet, was noch opti-
miert werden muss und welches IT-Tool
Sie dabei unterstützen kann.
Zum Autor Tilman Hagen:
Tilman Hagen ist Senior BI Consultant und Leiter des Competence Center
„Neue Technologien“ bei der Braincourt GmbH, einem herstellerneutralen Be-
ratungsunternehmen, sowie „Hichert Certified Consultant (HCC)“. Sein Studium
der Wirtschaftsinformatik absolvierte er an der Hochschule der Medien in Stutt-
gart. Seine Themenschwerpunkte sind Controlling und Reporting, die (Externe)
Berichterstattung, als auch die Unternehmensplanung. Technologischer Fokus
liegt dabei auf den Technologien SAP BW und SAP BPC.
Projekterfahrung (Auszug):
· Anforderungsanalyse, fachliche und technische Konzeption, Koordination
der Realisierung, sowie der Inbetriebnahme einer integrierten Lösung für die
Bereitstellung der relevanten Kennzahlen für den Bereich „Investor Relations“
auf Basis SAP BPC und Oracle Hyperion Essbase bei einem Unternehmen der
Telekommunikationsbranche.
· Anforderungsanalyse, fachliche Konzeption, Realisierung, sowie Inbetrieb-
nahme einer integrierten Lösung für externe Finanzberichterstattung bei einem
Unternehmen der Telekommunikationsbranche auf Basis SAP BPC.
Competence Book - Business Intelligence
ANWENDUNGEN - PLANUNG UND BUDGETIERUNG
74
Modern Budgeting:
DieZukunftimVisier
Einfach, flexibel und integriert: So postuliert der Internationale Controller Verein (ICV) die Kern-
prinzipien moderner Planungswelten, in denen das Budget stets im Einklang mit der Unterneh-
mensstrategie steht. Wie muss eine Software aussehen, mit der visionäre Konzepte dieser Art auch
tatsächlich in der Praxis funktionieren?
AUTOR: Christiane Wiegmann (IDL GmbH Mitte)
E
in Gremium aus Unternehmen, Beratungshäusern und
Universitäten hat ein Konzept mit Potenzial zu einem
Paradigmenwechsel in der Planungslandschaft entwi-
ckelt: Das „Modern Budgeting“ räumt mit starren Prozessen auf
und setzt den Rahmen für modernere Planungsformen, die sich
stärker an Unternehmensstrategie und Gesamtziel orientieren –
und die organisatorischen Gegebenheiten bis in die Geschäfts-
bereiche hinein abbilden.
Hinter der formulierten Forderung nach Einfachheit, Flexibilität
und Integration steht der Wunsch nach einer mit weniger Auf-
wand zu realisierenden variableren Planung, die einen höheren
Nutzwert erzielt. Daraus ergeben sich entsprechende Anforde-
rungen an die eingesetzte Planungssoftware.
Das Postulat der Einfachheit
Wer die Planung vereinfachen will, sollte deren Detaillierung re-
duzieren und sich auf steuerungsrelevante Inhalte beschränken.
Das bedeutet zunächst, nur die für das Unternehmen erfolgsre-
levanten Kostenarten und -stellen detailliert und alle anderen
auf einer höheren Aggregationsebene zu planen. Dabei sollten
die Ist-Werte weiter detailliert bereitgestellt werden.
Im Idealfall überlässt die Planungssoftware die Wahl, auf wel-
cher Ebene man planen möchte, sei es auf Konten-, Positions-
bzw. Verdichtungsebene: Bei der Planung auf Kontenebene
kann man aufgrund von hierarchischen Strukturen und unter
Berücksichtigung von Vorzeichen auf die nächst höheren Ebe-
nen aggregieren. Plant man hingegen auf Verdichtungsebene,
hat man die Wahl, ob die Planwerte auf die darunterliegende
Ebene verteilt oder Konten auf der Detailebene gegen Änderun-
gen durch übergeordnete Verteilungen gesperrt werden sollen.
Ein Plus an Einfachheit und Übersicht lässt sich ferner durch die
Wahlmöglichkeit einbringen, auf Basis von Kostenstellen oder
von Kostenstellenkonten zu planen.
Operativ planen, komfortabel gestalten
Mit dem im Planungstool angebotenen oder dem im Rahmen
der Systemkonfiguration erstellbaren Set an betriebswirtschaft-
lichen Instrumenten wie Deckungsbeitragsrechnung, GuV, Bi-
lanz und Finanzplan muss sich auf einfache Art und Weise eine
operative Planung erstellen lassen. Über Planungsformulare
sollten die Daten dabei unkompliziert erfassbar sein (auch im
Sinne einer Web-basierten Datenerfassung), z.B. durch Vorbe-
legungen, Validierungen oder eine ergonomische, vertraute Ein-
gabeoberfläche.
Automatisierung und Vereinfachung
Vereinfachung erzielt man auch über mathematische Korrelatio-
nen in den Prozessen. So können durch die Eingabe von Treiber-
größen wie Umsätzen und Personalbestand wesentliche Teile der
Planung wie beispielsweise der Materialaufwand (ermittelt sich
in Abhängigkeit vom Umsatz) oder auch Personalkosten (ermit-
teln sich in Abhängigkeit von der Anzahl der Mitarbeiter sowie
durchschnittlichen Lohn- und Gehaltsgrößen) automatisiert
vorbelegtwerden. Gleichesgilt fürwesentliche interne Leistungs-
beziehungen, die im Rahmen der Budgetierung berücksichtigt
werden sollten. In diesem Zusammenhang ist insbesondere da-
rauf zu achten, ob und wie die Sender-Empfänger-Abstimmung
effizient durchzuführen ist und auf welche Weise Validierungen
eingebaut bzw. Kommentierungen eingefügt werden können.
Competence Book - Business Intelligence
ANWENDUNGEN - PLANUNG UND BUDGETIERUNG
75
Auf Flexibilität achten
Angesichts zunehmend verzahnter Szena-
rien und kürzerer Reaktionszeiten stellt
das „Modern Budgeting“ hohe Ansprüche
an die Flexibilität der Systeme. Strukturell
müssen sich entsprechend die Planungs-
zeiträume dynamisch rollierend aufbauen
lassen und die Planungsoberfläche frei
gestaltbar sein. Können die Line-Item-
Details individuell ergänzt werden und
sind sowohl Top-down- als auch Bot-
tom-up-Szenarien frei wählbar? Auch
Struktursimulationen wie das Umhängen
von Kostenstellen müssen möglich und
nachträglich flexibel änderbar sein.
Wichtig ist zudem, ohne aufwändige
Abstimmungsprozesse flexible Einfluss-
faktoren, aus denen die verschiedensten
Umfeld-Entwicklungen entstehen, als
Basis für die Erstellung von Szenarien im
System heranziehen zu können, um sie
mit der Planung zu verknüpfen. Denn hie-
rüber lassen sich wertvolle Sensitivitäten
auf der Basis von erwarteten Szenarien fle-
xibel abbilden.
Forecasts optimieren und Fehlein-
schätzungen korrigieren
Gefordert sind flexible, rollierende Fo-
recasts, die in Verbindung mit Frühwarn-
systemen die Möglichkeit zu unterjähri-
gen Änderungen bieten. Dabei müssen
sich sowohl Year End als auch Rolling Fo-
recasts unterjährig mit beliebigem Zeitho-
rizont auf Basis der bisherigen Ist-Werte
und der ursprünglichen Planung erstellen
lassen. Grundsätzlich muss man zudem
befähigt sein, den Detailgrad der Planung
im Vergleich zur Ursprungsplanung (ge-
nerell oder mit fortschreitender Zeit) be-
liebig grober oder granularer zu gestalten.
Möglichst flexibel und nachvollziehbar
sollten ferner unterjährig auch Umschich-
tungen im Forecast zu realisieren sein
– von zunächst nur auf speziell dafür vor-
gesehenen Kostenstellen auf die im Laufe
des Jahres zugewiesenen Kostenstellen.
Strategische und operative Planung
verknüpfen
Die Forderung nach planerischer Integra-
tion schließlich verbindet strategische mit
operativer Sichtweise, die ihrerseits bis auf
die (stets anpassbare) Projektebene her-
untergebrochen wird. Zentrale Aufgabe ist
es dabei zunächst, die strategische von der
operativen Planung zu entkoppeln und
zeitlich vorgelagert durchzuführen. Nurso
nämlich können „strategische“ Ergebnisse
zu Beginn der operativen Planungsrunde
feststehen, ohne von operativen Gegeben-
heiten beeinflusst zu werden. Weiterhin
muss sichergestellt werden, dass die aus
der strategischen Planung resultierenden
Ziele, Rahmenbedingungen und abgelei-
teten Maßnahmen nachvollziehbar und
transparent in die operative Planung ein-
gehen. Das Planungssystem muss darüber
hinaus eine operative Soll-Ist-Rückkop-
pelung in Bezug auf die entsprechenden
Erfüllungsgrade dieser Horizonte für die
nächste strategische Planungsrunde un-
terstützen.
Maßnahmen- und Projektplanungen
integrieren
Nur wenn bis auf die einzelne Budgetpo-
sitionen herunter konkrete Maßnahmen
mit Zeitplänen, Verantwortlichkeiten und
Projektmeilensteinen definiert und auch
standardmäßig reportet werden können,
kann man überhauptvon Integrationspre-
chen. Wichtig kann zudem die Verbin-
dung des Planungs- mit dem Zielverein-
barungs-System sein, um die monetären
Auswirkungen durchgängig in Planung
und Forecast sichtbar zu machen. Eben-
so müssen bestehende Projektplanungen
inklusive qualitativer Daten wie Kommen-
tierungen, aber auch Nebenrechnungen
effizient mit den Planungsstrukturen ver-
bunden werden können.
Strategie-, Maßnahmen- und Projektpla-
nungen aus einer Hand
IDL bietet eine komplett integrierte Lö-
sung zur Unternehmensplanung gemäß
dieser Anforderungen, von der strategi-
schen Maßnahmenplanung des Konzerns
oder Unternehmens über die operative
Planung (auch auf Fachabteilungsebene)
bis zur Finanzplanung. In der operativen
Detailplanung gehtesdabei beispielsweise
um Themen wie Vertriebs-, Produktions-,
Personal- oder Gemeinkostenplanung
bis hin zur Deckungsbeitragsrechnung/
Erfolgsrechnung. Diese werden integrativ
in die finanzwirtschaftliche Sicht über-
führt, die eine GuV-, Bilanz- und Liqui-
ditätsplanung umfasst. Hinzu kommen
Intercompany-Verrechnungen und Kon-
solidierungen für Konzerne, aufbauende
Soll/Ist-Betrachtungen sowie das Simulie-
ren und Durchspielen von Szenarien. Die
Anwender arbeiten durchgängig mit ein
und derselben Produktfamilie auf einer
einheitlichen Datenbasis und mit durch-
gängiger Logik.
Zur Autorin Christiane Wiegmann:
Christiane Wiegmann ist seit 2007
als Prokuristin und zeichnet seit
2009 als Mitglied der Geschäftslei-
tung der IDL GmbH Mitte für das
Vertriebsgebiet Deutschland ver-
antwortlich.
Zudem betreut sie die fachliche
Weiterentwicklung der beiden Soft-
wareprodukte IDLFORECAST für
die Finanzplanung sowie IDLPUB-
LISHER für die Geschäftsberichts-
erstellung.
Competence Book - Business Intelligence
ANWENDUNGEN - PREDICTIVE ANALYTICS
76
Jeder, der am Wochenende Wii oder Playstation gespielt hat,
fragt sich am Montag, was die BI-Community in den letzten 20
Jahren getrieben hat: Stillstand allerorten! Würde man den Kin-
dern den eigenen Arbeitsplatz zeigen, es wäre peinlich.
Während Wii & Co. ein Musterbeispiel an UX/UI darstellen, ar-
beiten die meisten Knowledge-Worker noch mit Excel-Add-ins.
Verglichen mit der Echtzeit-Animation aktueller Games mutet
BI wie ein Textadventure an. Von echten Datenprodukten („Data
Products“) keine Spur (Details zu Datenprodukten finden sich im
Parallelartikel).
Hier liegen die größten Potentiale von „Big Data Warehousing“
(BDW):
1. Parallele Architekturen erlauben die Verarbeitung massiver Da-
tenmengen in Echtzeit.
2. Dies wiederum ermöglicht die Datenfusion („Data Fusion“) in
Echtzeit, die Datenprodukte erst möglich machen.
Im Einzelnen: Der Begriff der Datenfusion wurde durch Ernst
Dickmanns bekannt, der in den 80er Jahren die ersten selbstfah-
renden Autos konstruierte (die Älteren unter uns erinnern sich
an den weissen Mercedes-Benz T 2 aus den Nachrichten). Die An-
wendung der Technik stammt aus der Raumfahrt - Dickmanns,
selbst Raumfahrtingenieur, entwickelte sie Anfang der 70er u.a.
am NASA-Marshall Space Flight Center in Huntsville, Alabama.
Datenfusion ermöglicht es, zahlreiche Signale zu einer oder we-
nigen Steuergrößen zu vereinen (Beispiel: Stereosehen). Damals
wie heute besteht das größte Problem in der gewaltigen Daten-
menge, will man Entscheidungen in Echtzeit treffen. Ob es sich
um Raketentriebwerke oder Abverkäufe handelt, in beiden Fällen
muss der Normalbetrieb von der Ausnahmesituation („Outlier“)
unterschieden werden, um ggf. eingreifen zu können. Und das
trotz des allgegenwärtigen Hintergrundrauschens. Das Grund-
prinzip der Cybernetics, so wie es Norbert Wiener bereits in den
40er Jahren formuliert hat und auf das sich Unternehmenscont-
roller noch heute berufen.
Big DataWarehousing:
Anmerkungen zur Zukunft von BI im Zeit-
alter von Big Data und Predictive Analytics
AUTOR: Thorsten Lüdtke (BIPortal GmbH)
Competence Book - Business Intelligence
ANWENDUNGEN - PREDICTIVE ANALYTICS
77
Die Natur hat für komplexe Entschei-
dungsprobleme eine einfache Lösung
gefunden: Anstatt komplizierte Diffe-
rentialgleichungen zu lösen, benutzt ein
Fussballspieler eine einfache Heuristik,
um zum richtigen Zeitpunkt am Ball zu
sein: Er misst den Winkel zwischen sich
und der erwarteten Position des Balls zum
Zeitpunkt seines Eintreffens und begibt
sich auf diese Linie. Während seines Laufs
hält er permanent Blickkontakt zum Ball,
so dass er seinen Lauf anpassen kann für
den Fall, dass der Ball durch Bodenune-
benheiten verspringt. Gerd Gigrenzer,
Direktor für adaptives Verhalten und
Kognition am Max-Planck-Institut für
Bildungsforschung, hat diesen Entschei-
dungsprozess ausführlich untersucht. Ge-
nau dieses Konzept setzt die Datenfusion
um. Das MapReduce-Prinzip hat es also
schon immer gegeben!
Während Dickmanns vor allem mit Kal-
mann-Filtern zur Datenfusion arbeitete,
wurden in den vergangenen Jahrzehnten
zahlreiche alternative Entscheidungsal-
gorithmen entwickelt. Kalmann-Algorith-
men sind aber dennoch bis heute Grund-
lage zahlreicher Zeitreihenanalysen. Der
Vorteil dieser Algorithmen liegt in ihrer
Geschwindigkeit. Sie speichern den Zu-
stand der Historie in wenigen „latenten
Variablen“ und können somit Prognosen
zukünftiger Zustände sehr schnell durch-
führen. Dies ist die Grundlage für Pre-
dictive Analytics mit Massendaten wie
Abverkäufen, Aktienprognosen und Kun-
denklassifikationen.
Das auf Predictive Analytics basierende
Entscheidungsmodell ist selten mono-
lithisch aufgebaut, sondern verfügt über
eine ganze Reihe von Entscheidungspro-
zessen, die parallel arbeiten. Für Echtzeit-
entscheidungen ist daher eine In-Memory
-Datenbank unerlässlich, will man nicht
algorithmische Effizienz durch rotierende
Platten verlieren. Dies ist auch für SAP
HANA die Killer-Applikation: Komplexe
Entscheidungen können nur in-memory
durchgeführt werden: Geschwindigkeit
an sich ist noch kein Kaufargument, wohl
aber qualitativ hochwertige Entschei-
dungsgrundlagen in Echtzeit.
Gepaart wird dieses Entscheidungsmodell
mit einem riesigen Gedächtnis, beispiels-
weise durch eine verteilte Datenhaltung
Zum Autor Thorsten Lüdtke:
Thorsten Lüdtke begann 1997 mit der Entwicklung von Anwendungen für
Business Intelligence (als MicroStrategy-Angestellter) und präsentierte das
BI-Konzept bei zahlreichen Konferenzen zum Thema Decision Support Sys-
teme (DSS). 1999 konstruierte er die ersten RapidMarts® überhaupt, basie-
rend auf SAP BIW 1.2B, direkt bei Acta Technology im Silicon Valley (heute
SAP BusinessObjects, SBO).
Von 2002 bis 2005 arbeitete er als BI-Berater und BW-Trainer für SAP
Deutschland AG & Co. KG und SAP UK Ltd. an zahlreichen Projekten in
Deutschland und in Großbritannien.
2006 startete er ein Joint-Venture mit Bill Inmon als Beiratsmitglied und prä-
sentierte die Ergebnisse (BI Master Data Management) auf der SAPPHIRE
2007-Konferenz in Wien. Hieraus ging die Firma BIPortal hervor.
im Hadoop-Filesystem (HDFS) - Hadoops
Elefantenmaskottchen passt also nicht
nur in Bezug auf das gewaltige Datenvolu-
men, sondern auch auf die Unvergesslich-
keit des Systems. Für Predictive Analytics
wird sich GNU R als vollwertiger Ersatz
für die proprietäre SAS-Sprache etablie-
ren. Mittlerweile gibt es genügend Pake-
te für Big Data, insbesondere RHIPE (R
and Hadoop Integrated Programming),
RHadoop von Revolution Analytics und
R über Hadoop-Streaming. Zudem bietet
SAP HANA eine tiefgreifende Integration
mit GNU R.
In der Datawarehousing-Praxis haben
Archivierungssysteme einen schweren
Stand. Befragt man den Fachbereich, so
will er eigentlich immer die Möglichkeit
haben, auf historische Daten zugreifen
zu können. Und das möglichst sofort.
Damit kann die IT vereinbarte Service-Le-
vel-Agreements (SLAs) nicht einhalten,
muss sie Archivdaten erst aufwendig wie-
derherstellen. Zudem sind die meisten
DWH nur für die aktuellen Zahlen ausge-
legt, bekämen also bei der Wiederherstel-
lung ggf. Performanceprobleme.
Competence Book - Business Intelligence
ANWENDUNGEN - PREDICTIVE ANALYTICS
78
Genau hier liegt das Potential von HDFS: Es müs-
sen keinerlei Daten mehr gelöscht werden, da es
keinerlei Strukturen gibt, die „überlaufen“ könn-
ten. Zudem löst es das Schemaproblem relationa-
ler Datenbanksysteme: Entwickeln sie sich weiter,
sind die Archivdaten nicht mehr kompatibel. Wer-
den die Archivdaten jedoch erst zum Abfragezeit-
punkt neu interpretiert, bleiben sie stets „frisch“.
Parallele Architekturen stellen eine geringe La-
tenzzeit sicher. Jedoch sollten sie nur für gleichar-
tige Analysen grosser Datenbestände genutzt
werden, etwa zur Klassifikation von Kunden, die
über Monate stabil bleiben. Die Echtzeitanalysen
müssen In-Memory-Datenbanken leisten.
Damit löst HDFS auch das Datenintegrationspro-
blem aktueller DWH-Architekturen: Die Grund-
idee des DWH (Daten vorhalten für beliebige
zukünftige Verwendungen) konnte in der Praxis
selten durchgehalten werden, sobald das Daten-
volumen die „Datumsgrenze“ überschritt, d.h. die ETL-Prozesse über Nacht
nicht mehr abschliessen konnten und in den Tag hineinliefen. Inmons „Corpo-
rate Information Factory“ (CIF) funktioniert also nur bis zu einer gewissen Da-
tenmenge strukturierter Daten. Bei unstrukturierten Daten externer Quellen,
die mit hohen Durchsatzraten in Echtzeit verarbeitet werden müssen, versagt
es. Undenkbar, dass Googles selbstfahrendes Auto zunächst die Szenerie als
CSV-Strom in die operationalen Datastores einfliessen lässt, um dann einen Da-
tamart aufzubauen, dessen Analyseergebnis dann zur Entscheidung verwendet
wird, ob für einen kreuzenden Fussgänger gebremst wird oder nicht!
Auch Remodellierungswerkzeuge helfen in der DWH-Adminsitration wenig,
wenn das Datenvolumen zu gross ist, als dass man es „mal eben“ von der alten
in die neue Tabellenstruktur überführen könnte. Hier hilft die Entschlackung
der relationalen Tabellen um die historischen Daten, indem sie ins HDFS ver-
schoben werden. Das DWH wird dadurch wieder flexibel. Auch werden In-Me-
mory-Datenbanken dadurch erschwinglich: Wird etwa der aktuelle sowie der
Vorjahresmonat mit den jeweiligen kumulierten Kennzahlen in-memory vorge-
halten, kann der Rest aus dem HDFS-Archiv nach Bedarf gelesen werden, wenn
er beispielsweise nur 10% der Queries betrifft. Notwendig hierfür sind BI-Werk-
zeuge, die mit föderierten DWH-Architekturen arbeiten können. MicroStrategy
wurde als einziger BI-Hersteller für SAP HANA zertifiziert und zeigt gerade bei
Facebook, wie sich auch noch 200 PB auswerten lassen.
Big Data lebt von der Integration aller relevanten Daten. Die traditionellen
Transaktionsdaten machen hier den geringsten Teil aus. Umgekehrt kann BI mit
relationalen Strukturen die unstrukturierten Daten nur schwerverarbeiten. Was
bedeutet das für die Zukunft? Sobald das Datability-Problem gelöst ist bzw. die
Ignoranz/Bequemlichkeit siegt, spricht kaum noch etwas gegen BI in der Pu-
blic Cloud. Dort stehen mit Googles Big Query und Amazons Redshift bereits
SaaS-Lösungen bereit. Für unter $1000 pro Jahr und Terabyte.
Competence Book - Business Intelligence
ANWENDUNGEN - PERFORMANCE MANAGEMENT
79
Balanced Scorecard
mit BI verbinden
zeiten führen dazu, dass das Erstellen von Berichten sehr müh-
sam ist. So müssen bei spezifisch gewünschten Kennzahlen die
Berichte manuell erstellt werden. Das System unterstützt keine
Überwachung und Warnung bei einer signifikanten Abweichung
von Kennzahlen.
Um für das weitere Wachstum und die zunehmende Komplexi-
tät gewappnet zu sein, entschied sich die CSV-Abteilungsleitung,
eine BI-Lösung zu implementieren. Die Anforderung war, ein
Cockpit zu erstellen, um auf einen Blick eine Übersicht über den
aktuellen Stand und den Trend der Abteilung zu erhalten.
Zusätzlich sollten neue CSV-interne Kennzahlen auf Basis des
Balanced-Scorecard-Konzepts (BSC) entwickelt werden. Wegen
des starken Wachstums strukturierten die Verantwortlichen die
Abteilung um und unterteilten sie in fünf verschiedene Ser-
vices. Dabei waren noch keine Kennzahlen für diese Services
definiert worden. Bislang wurden sie durch gemeinsame Kenn-
zahlen für alle Abteilungen zentral gesteuert. Dadurch erhielt die
CSV-Abteilungsleitung einen groben Überblick über die gesamte
CSV-Abteilung; konkrete Stärken und Schwächen der einzelnen
Services waren jedoch nicht feststellbar. Die Rahmenbedin-
gungen des Projekts legten eine Zeitspanne von drei Monaten
sowie ein fünfstelliges Budget fest, eine studentische Kraft sowie
ein Betreuer waren für die komplette Planung, Entwicklung und
Umsetzung der End-to-End-Lösung zuständig.
In einer auf die Unternehmenssituation angepassten Vorgehens-
weise– im Unternehmen istkeineBI-Erfahrungvorhanden,esgibt
nur eine studentische Kraft für das Thema – wurden zunächst die
relevanten Kennzahlen für eine Balanced Scorecard identifiziert
und vom Management-Team gemeinsam verabschiedet. Nach der
systematischen Auswahl der optimalen BI-Plattform entwarfen
und implementierten die Verantwortlichen eine zukunftsfähige,
skalierbare Architektur nach dem bewährten Schichtenmodell.
Sie realisierten die Dashboards in einer ersten Version mit Hilfe
von Microsoft Excel; das soll in Zukunft über eine Cloud-basierte
Sharepoint-Lösung umgesetzt werden. Im Ergebnis entstand eine
kostengünstige End-to-End-Lösung, die den Performance-Ma-
nagement-Prozess komplett abbildet und auf das weitere Wachs-
tum des Unternehmens ausgerichtet ist.
Ausgangssituation
Die Arcondis AG bietet Dienstleistungen für IT-, Qualitäts- und
Informationsmanagement in der Life-Science-Branche an. Be-
sonders die Abteilung Computer-System-Validierung (CSV) zählt
zu den umsatzstärksten Beratungsdienstleistungen. Aufgrund
des starken Wachstums der letzten Jahre und der Aufgabe, die er-
höhte Komplexität zu überschauen, reichten die Anforderungen
an die unternehmensinterne, selbstentwickelte ERP-ähnliche
Datenbank nicht mehr aus. Kennzahlen werden zwar gemessen,
detaillierte und gezielte Analysen der Unternehmensdaten sind
aber nur indirekt möglich und sehr aufwendig. Lange Warte-
AUTOREN: Lukas Wiesner, Daniel Ebner (Valcoba AG) & Prof. Dr. Tobias Hagen (Hochschule Offenburg) aus BI-SPEKTRUM (03/2013)
In kleinen und mittleren Unternehmen gibt es immer noch großen Nachholbedarf beim
Einsatz von Business-Intelligence-Lösungen. Am Beispiel eines stark wachsenden mit-
telständischen IT-Consulting-Unternehmens werden verschiedene Aspekte einer BI-
Implementierung diskutiert und Lösungsansätze aufgezeigt. Im Artikel wird dargestellt, wie
man mit Hilfe einer schlanken, aber zukunftsfähigen BI-Lösung das Performance-Manage-
ment effizient umsetzen kann. Die Kennzahlen der Balanced Scorecard und auch der Weg zu
deren Identifikation werden im Detail vorgestellt.
Competence Book - Business Intelligence
ANWENDUNGEN - PERFORMANCE MANAGEMENT
80
Einführung der Balanced Scorecard
Die BSC ist ein von Robert S. Kaplan zu
Beginn der 1990er-Jahre entwickeltes Füh-
rungsinstrument zur strategischen Ausrich-
tung der Unternehmensorganisation an-
hand von Ursache-Wirkungs-Beziehungen.
Hierfürwerden strategische Ziele in den vier
verschiedenen Perspektiven Finanz, Kunde,
Prozess und Potenzial messbar gemacht.
Das ermöglicht es, geeignete Maßnahmen
zu identifizieren.
Im Vergleich zu produzierenden Industri-
eunternehmen ist es für Dienstleistungs-
unternehmen schwieriger, bereichsspe-
zifische Kennzahlen zum Beispiel für die
Produktivität oder Innovationsfähigkeit
anzugeben. Einzig bei finanziellen Kenn-
zahlen ergeben sich Parallelen. Somit sind
es auf Bereichsebene andere Kernkriterien
als jene, die für den Unternehmenserfolg
eines Dienstleistungsunternehmens als
Ganzes entscheidend sind. Dazu zählen
etwa Mitarbeitermotivation, Kundenzu-
friedenheit oder Kundenbeziehungen. Die
Balanced Scorecard hilft hier als Modell,
da sie auch nicht finanzielle Kennzahlen
zur Erfolgsmessung berücksichtigt. Mit der
Einführung der BI sollte nun die BSC als
Modell zur Erstellung von Kernkennzahlen
aufgegriffen und in der CSV-Abteilung im-
plementiert werden. Das BI-System sollte
neben den klassischen finanziellen Kenn-
zahlen auch nicht finanzielle Kennzahlen
abbilden können.
Obwohl im Falle der CSV bereits definierte
Unternehmenskennzahlen vorhanden wa-
ren, rät Probst [Pro07, S. 198] davon ab, diese
bei der Umsetzung der Balanced Scorecard
als Grundlage zu nehmen: „Es kann doch
eigentlich so einfach sein. Man hat ein aus-
geprägtes Kennzahlensystem, gießt dieses
in ein paar Perspektiven und fertig ist die
Balanced Scorecard. Nein! Erst die Strate-
gie, dann Ziele, dann erst Kennzahlen. Und
ob es dann noch die vorhandenen sind, ist
überhaupt die Frage.“
In der Literatur wie auch in der Praxis ist
man sich einig, wie eine Balanced Scorecard
erfolgversprechend umgesetztwerden sollte
[Pro07, S. 198]. Die Vorgehensweise umfasst
das Herunterbrechen von Vision und Stra-
tegie in konkretes Handeln, und zwar zum Handeln im operativen Umfeld und nicht
nur auf höchster Managementebene. Für dieses Projekt wurde eine von Probst vor-
geschlagene Einführungsmethode [Pro07, S. 176] als Grundlage verwendet und den
Anforderungen entsprechend modifiziert. Dies wird im folgenden Abschnitt genauer
beschrieben.
Einführungsmethodologie
In der Literatur [GGD08] sind einige Vorgehensmodelle für die Einführung von Bu-
siness Intelligence zu finden. Diese Vorgehensmodelle gehen jedoch oft davon aus,
dass die zu messenden Kennzahlen bereits bekannt sind und nicht erst komplett neu
definiert werden müssen. Diese Methoden konzentrieren sich nur auf die Ermittlung
von Kennzahlen, jedoch nicht auf deren Einführung – insbesondere nicht auf Basis
der Balanced Scorecard. Eine Fragestellung des Projekts lautete daher zusätzlich, wie
man erfolgreich Kennzahlen im Rahmen der Balanced Scorecard und der Business
Intelligence in einem Beratungs- beziehungsweise Dienstleistungsunternehmen für
eine Abteilung definiert.
Für die Entwicklung eines Vorgehensmodells, das beide Aspekte abdeckt, sowohl die
BSC wie auch die BI, müssen zwei erfolgreiche Methoden kombiniert werden – im
Falle dieses Projekts wurde die BI-Methodik um die BSC-Methodik ergänzt. Zur Im-
plementierung der BI-Lösung entschied sich das Unternehmen für die Lifecycle-Me-
thode nach Kimball. Abbildung 1 stellt Kimballs Vorgehensweise grafisch dar. Die Ent-
wicklung und Umsetzung gliederte sich in verschiedene Phasen:
Anforderungsaufnahme
Die Anforderungsaufnahme beinhaltete die Analyse der Ist- und der Soll-Situation für
BI, die Kennzahlenermittlung im Rahmen der Balanced Scorecard sowie die Definiti-
on der Datendimensionen. Für die Analyse der Ist- und Soll-Situation und zur Bestim-
mung der Datendimensionen wurde die Vorgehensweise von Kimball zugrunde gelegt.
Dabei wurden Interviews in Workshops durchgeführt und die Technik „Enterprise Da-
ta Warehouse Bus Matrix“ [Kim08, S. 3ff] angewendet. Die Kennzahlenermittlung im
Rahmen der Balanced Scorecard erfolgte mit der modifizierten Methode von Probst
[Pro07, S. 180]:
1.	 Analyseder Ist-Kennzahlen: Als Startpunktdienteeine Übersicht überalle Kenn-
zahlen, sowohl die des Unternehmens wie auch die der Abteilung, welche innerhalb
der CSV-Abteilung gemessen wurden.
Program/
Project
Planning
Business
Requirements
Definition
Technical
Architecture
Design
Product
Selection &
Installation
Dimensional
Modeling
Physical
Design
ETL
Design &
Development
BI
Application
Design
BI
Application
Development
Deployment
Growth
Maintenance
Program/Project Management
Abb. 1: Lifecycle-Methode von Kimball, Quelle: [Kim08] S. 3
Competence Book - Business Intelligence
ANWENDUNGEN - PERFORMANCE MANAGEMENT
81
2.	 Identifizierung strategischer Ziele: Im zweiten Schritt
analysiertendieVerantwortlichendieVision, die Strategie
und die kritischen Erfolgsfaktoren des Unternehmens.
3.	 Soll-Ist-Vergleich: Zum besseren Überblick setzten sie
die Unternehmens- und CSV-Kennzahlen in ein strate-
gisches Zielgerüst ein und wiesen sie den Perspektiven
der BSC zu. Hier verglichen sie, inwiefern die aktuellen
CSV-Kennzahlen die Kennzahlen, die aus der Unterneh-
mensstrategie hervorgehen, abdecken.
4.	 Identifizierung fehlender Kennzahlen: Die Mana-
ger und Experten diskutierten, ob wichtige Kennzahlen
fehlen.
5.	 Eingrenzung und Modellierung von Ursache-Wir-
kungs-Ketten: Der nächste Schritt bestand darin, die
wichtigsten Kennzahlen einzugrenzen. Aufgrund einer
Vorgabe der CSV-Leitung sollten für jede Perspektive
zwei Kennzahlen ausgewählt werden. Dafür analysier-
ten die Verantwortlichen die Ursache-Wirkungs-Bezie-
hungen der ausgewählten Kennzahlen. Dazu verwende-
ten sie die Technik des Papiercomputers, ein von Vester
[Hae98] entwickeltes Verfahren, bei dem alle Faktoren in
einer Einflussmatrix abgebildet und auf gegenseitige Be-
einflussung und Beeinflussbarkeit überprüft werden.
6.	 Bestimmung der CSV- Kennzahlen: Die Manager be-
werteten einzelne Faktoren und setzten sie innerhalb
einer Matrix zueinander in Bezug. Die jeweils zwei wich-
tigsten und kritischsten Kennzahlen pro Perspektive
wurden ausgewählt. Abbildung 2 zeigt das Ergebnis der
Kennzahlenbewertung innerhalb der Einflussmatrix.
7.	 Bestimmung von Messzahlen und Zielgrößen zur
Messung der Zielerreichung: Mittels Workshops wur-
den für die neuen CSV-Kennzahlen die Messarten (wie
wird gemessen) und die Zielgrößen bestimmt. Die Mess­
art und die Zielwerte wurden zumeist aus der Strategie
vorgegeben.
Die Ergebnisse dieser Ermittlung sind in Tabelle 1 dargestellt. Die-
ses Vorgehen zur Kennzahlenermittlung im Rahmen der Balanced
Scorecard zeigte sich in der Praxis als sehr effektiv und erfolgreich.
Architektur und Auswahl der BI-Tools
Für den Entwurf der BI-Architektur und die Auswahl der BI-Produkte
empfiehlt Kimball folgendes Vorgehen [Kim08, S. 181]:
1.	 Architekturdesign:
– 
Aufnahme der architektonischen Anforderungen und
Datenquellenanalyse
–  Entwurf eines Architekturmodells
–  Ableiten der architektonischen Auswirkungen
– 
Erstellen eines Anforderungskatalogs für die BI-Teil­
systeme
2.	 Auswahl und Installation der BI-Produkte:
–  Produktauswahl mittels einer Nutzwertanalyse
–  Installation der BI-Produkte
Die Experten benutzten bei der Erstellung einer Architektur das
High-Level-Architektur-Modell von Kimball. Dieses wurde einerseits
gewählt, um das Modell so grob wie möglich zu halten und sich nicht
in zu detaillierten Informationen zu verlieren. Andererseits deckt
Kimballs Modell alle notwendigen Funktionen und Datenbereiche ab
und erwies sich in der Praxis anhand einer Expertenbefragung als sehr
erfolgreich.
Kurz vor der Entwicklung des BI-Systems wurde eine unternehmen-
sweite Sharepoint-Umgebung eingerichtet. Aufgrund dessen war ur-
sprünglich beabsichtigt, Microsoft Sharepoint Online als BI-Frontend
einzusetzen. Bei Untersuchungen im Vorfeld wurde jedoch festge-
stellt, dass im Gegensatz zu SharePoint 2010 die Cloud-Version von
SharePoint (das ist auch heute noch der Fall) keine Unterstützung für
BI anbot [Mic11]. Das Management entschied daher, als Interimslö-
sung Microsoft Excel 2010 als vorläufiges BI-Frontend einzusetzen.
Um sicherzustellen, dass dieser Weg gangbar ist, wurden die ge-
sammelten Anforderungen mit den Funktionen von Excel verglichen.
Es stellte sich heraus, dass Microsoft Excel 2010 alle Anforderungen
erfüllte und als Frontend eingesetzt werden konnte. Sollte der Fall ein-
treten, dass viele und komplexe Daten analysiert werden müssen, ist
eine Erweiterung mit Microsoft PowerPivot sehr leicht umsetzbar.
Akquirierter
Umsatz
Key
Accountant
Management
Umsatz
Anzahl Skills
Kunden-
anfragen
Kunden-
zufriedenheit
Anzahl
Rahmen-
verträge
Mitarbeiter-
zufriedenheit
Headcount /
Mitarbeiter-
fluktuation
Durchschn.
Stundensatz
Rentabilität
Anzahl
interner
Projekte
Academy /
Weiterbildung
Auslastung
kritisch
passiv
aktiv
träge
hoch
hoch
niedrig
niedrig
Kumulierte Einflussstärke
Kumulierte
Beeinflussbarkeit
Abb. 2: Ergebnis der Kennzahlenbewertung mittels
Einflussmatrix
Kennzahl Definition Perspektive
Rentabilität Höhe der Rentabilität für den Bereich CSV in Prozent Finanzen
Akquirierter Umsatz Anzahl akquirierter Umsatz durch CSV-Mitarbeiter Finanzen
Headcount Anzahl der CSV-Mitarbeiter (Count) bzw. Mitarbeiterfluk-
tuation
Prozesse/Produkt
Skills Anzahl der Skills der CSV-Mitarbeiter ­
(Fähigkeiten/
Qualifikationen)
Prozesse/Produkt
Mitarbeiter­
zufriedenheit
Mittelwert gemäß Umfrage Mitarbeiter
Academy Prozentzahl der entwickelten Skills gemäß Vereinbarung in
Mitarbeitergespräch
Mitarbeiter
Kunden­zufriedenheit Mittelwert gemäß Umfrage Kunde
Auslastung Prozentzahl der Auslastung der CSV-Mitarbeiter Kunde
Tab. 1: Resultat der Kennzahlenermittlung
Competence Book - Business Intelligence
ANWENDUNGEN - PERFORMANCE MANAGEMENT
82
Zur Auswahl des Backend verglichen die Verantwortlichen ver-
schiedene Datenbankmanagementsysteme und evaluierten sie
mittels Nutzwertanalyse. Die Entscheidung fiel auf MS SQL
Server 2012. Eine detaillierte Analyse klärte ab, welche Edition
eingesetzt werden sollte. Die Editionen dieser Datenbankplatt-
form unterscheiden sich signifikant hinsichtlich BI-Funktionali-
tät und Lizenzkosten. Aufgrund des begrenzten Projektbudgets
kamen nur die Standard-, Web- und Express-Editionen in Frage.
Bei der Analyse stellte man fest, dass nurdie Standard-Edition die
sogenannten Analysis-Services unterstützt, die für das Erstellen
von Cubes unabdingbar sind. Somit fiel die Entscheidung auf die
Standard-Edition.
Data Warehouse, ETL und Cubes
Im nächsten Schritt wurden das Data Warehouse, die ETL-Pro-
zesse und die Cubes entwickelt. Dieser Teil des Projekts nahm
mit 40 Prozent anteilsmäßig die meiste Zeit in Anspruch. Da eine
Konstruktion plattform-, projekt-, software- und hardwareab-
hängig ist und diese Faktoren sich auch schnell verändern, gibt
Kimball in diesem Teil eher eine grobe Anleitung vor [Kim08,
S. 327].
Das Management teilte für dieses Projekt das Data Warehouse
klassisch in drei Bereiche auf: Stage, Store und Mart. Danach
wurden die verschiedenen Datenquellen detaillierter analysiert.
Damit die gewünschten Daten aus den Datenquellen im Data
Warehouse vereinigt werden konnten, entwickelten die Verant-
wortlichen verschiedene ETL-Prozesse mittels der sogenannten
SQL Server Integration Services (SSIS). Nachdem die gewünsch-
ten Daten erfolgreich in den Mart geladen wurden, war der letzte
Schritt dieser Phase die Erstellung der Cubes. Zuerst wählten sie
die Faktentabellen aus, danach die Messzahlen. Zum Schluss wa-
ren die gewünschten Dimensionen an der Reihe. Kimball schlägt
vor, stets mit der Zeitdimension zu beginnen, um rasch erste
Ergebnisse zu erhalten [Kim08, S. 305]. Insgesamt wurden drei
Cubes erstellt mit jeweils bis zu fünf Dimensionen.
Entwurf und Entwicklung des Business Intelligence
Frontend
Nach der erfolgreichen Erstellung des Backend entwarfen die
Experten das Frontend. Das Frontend spielt eine zentrale Rol-
le für die Akzeptanz des gesamten BI-Systems. Usability und
Performance stehen hier im Mittelpunkt. Microsoft Excel 2010
unterstützt eine Anbindung an die SQL Server Analysis Ser-
vices (SSAS) und eine detaillierte Auswertung kann über die Pi-
vot-Funktion durchgeführt werden. Zudem wurde Excel bereits
innerhalb des Unternehmens eingesetzt, was ein Vorteil für die
Akzeptanz als Frontend war. Eine der Anforderungen an das BI-
System lautete, ein Cockpit, also eine Übersicht über die Kenn-
zahlen zu erstellen, damit die CSV-Abteilungsleitung auf einen
Blick den momentanen Stand der Abteilung übersehen kann.
Das Cockpit beinhaltet alle vorgegebenen Kennzahlen, angeord-
net nach der Balanced Scorecard. Die Kennzahlen, die sich täg-
lich automatisch aktualisieren, werden in die Excel-Datei geladen
und die Ist-Werte in das Cockpit importiert. Zur besseren Iden-
tifikation des momentanen Status wurden Ampeln eingesetzt
(siehe Abbildung 3).
Des Weiteren erstellten die Verantwortlichen für jede Kennzahl
eine eigene Tabelle. Somit kann die CSV-Abteilungsleitung auf
Wunsch mittels Pivot-Funktion jede Kennzahl analysieren. Mit
diesen sehr performanten und individuellen Analysen (zum Bei-
spiel Drill-down) kommt hier ganz deutlich die Stärke von Bu-
siness Intelligence zur Geltung.
Implementierung, Wartung und Wachstum
In der Implementierungsphase präsentierten die Verantwort-
lichen Backend und Frontend den Projektsponsoren und dem
Lenkungsausschuss, der dem Projekt dann zustimmte. Zur Im-
Abb. 3: BI-Frontend (Cockpit)
Competence Book - Business Intelligence
ANWENDUNGEN - PERFORMANCE MANAGEMENT
83
plementierung gehörten das Bereitstellen der notwendigen Zu-
gangsberechtigungen für die BI-Anwender, die Systemimple-
mentierung, Dokumentationen und Trainings. Sowohl Backend
als auch Frontend benötigen Wartungsaktivitäten, die geplant
werden müssen. Dabei definierten die Experten im Rahmen des
Projekts neue BI-Prozesse, um die Kommunikation mit BI-An-
wendern und die Weiterentwicklung des BI-Systems zu gewähr-
leisten. Als Verantwortlicher wurde eine neue, interne Rolle ent-
wickelt, der „Business Intelligence Specialist“ (BIS). Der BIS dient
innerhalb von CSV als Anlaufstelle für alle Fragen rund um das
BI.
Ergebnis und Ausblick
Als Ergebnis des Projekts liegen der Arcondis AG nun Kenn-
zahlen und ein BI-System für die CSV-Abteilung vor, die alle
vorgegebenen Anforderungen erfüllen. Das System wird von der
Abteilungsleitung CSV bereits produktiv verwendet, und ein
neues Projektbudget für die Weiterentwicklung der BI wurde vor
kurzem von der Geschäftsleitung bewilligt.
Mittelfristig soll das BI-System nicht nur abteilungs-, sondern
unternehmensweit eingesetzt werden. Das Backend wurde kon-
zeptionell bewusst als Enterprise Data Warehouse mit mehreren
Layern aufgebaut (Stage, Store und Mart), sodass das Erstellen
neuer Data Marts in Zukunft keine komplexe Aufgabe darstellt.
Das Projekt zeigt, dass auch kleinere Unternehmen mit sehr be-
grenzten IT-Ressourcen eine leistungsfähige und zukunftssichere
BI-Infrastruktur aufbauen und betreiben können. Das Wichtigste
ist, das BI-System kontinuierlich weiterzuentwickeln, denn Ralph
Kimball sagt unmissverständlich: „A BI system is never really
finished.“
Projekt: Einführung einer Balanced Scorecard
Dauer 3 Monate
Aufwand 
Ressourcen
Student (300 Std.)
Betreuer (40 Std.)
Business (20 Std.)
IT (12 Std.)
Eingesetzte Tools Microsoft Excel 2010 (Frontend)
Microsoft SQL Server 2012 Standard (Backend)
Anwender 2 Anwender (aktuell)
12 Anwender (geplant)
Tab. 2: Projektdaten
[Pro07]  Probst, H.-J.: Balanced Scorecard leicht gemacht: Ziel-
größen entwickeln und Strategien erfolgreich umsetzen. 2. Aufl.,
Heidelberg 2007
[GGD08]  Gluchowski, P. / Gabriel, R. / Dittmar, C.: Mana­
ge­
-
ment Support Systeme und Business Intelligence – Computerge-
stützte Informationssysteme für Fach- und Führungskräfte. 2.
Aufl., Springer 2008
[Kim08]  Kimball, R. et al.: The Data Warehouse Lifecycle Tool-
kit. 2. Aufl., Indianapolis: Wiley 2008
[Hae98]  Haedrich, G. et al. (Hrsg.): Tourismus-Management, 3.
Aufl., de Gruyter 1998, S. 486
[Mic11]  Microsoft Office 365, 2011 [Internet]. http://community.
office365.com/en-us/f/154/p/8112/33521.aspx” l “33521”, http://
community.office365.com/en-us/f/154/p/8112/33521.aspx#33521,
abgerufen am 17.5.2012
Quelle: BI-SPEKTRUM Ausgabe 3 / 2013
BI-SPEKTRUM wendet sich an alle für Business Intel-
ligence (BI) und Data Warehousing (DW) in Unterneh-
men Verantwortlichen, Softwarehäuser und Berater,
die solche Systeme entwickeln und implementieren,
genauso wie Wissenschaftler, die in dieser Disziplin
forschen und entwickeln und damit die Basis für neue
Praxisanwendungen liefern. Es informiert seine Leser
über alle Trends in diesem Bereich, liefert Anwen-
dungsfälle aus der Praxis (Case Studies) und präsen-
tiert Meinungen zu aktuellen Themen, sowie Neuigkei-
ten für die BI-Community. 
Weitere Informationen unter: www.bi-spektrum.eu
CASE STUDIES 
PRODUKTINFORMATIONEN
Competence Book - Business Intelligence
Case Studies 
Produktinformationen
Branchenübersicht
86	 Immobilienhandel (Oracle)
	 Immonet optimiert Analytik 	
	 und Entscheidungsfindung 	
	 mit Engineered Systems
88	 Informationstechnologie
	(Microsoft)
	 Ein direkter Draht zum
	 Kunden dank Microsoft BI
90	 Metallwarenfertigung (IDL)
	 Wanzl harmonisiert 30
	Konzerngesellschaften
92	 Finanzbranche (pmOne)
	 Tagetik geleitet Erste
	 Group optimal durch
	 IFRS und
	FinRep-Vorgaben
96	 eCommerce (EXASOL)
	 Zalando optimiert sein Data 	
	 Warehouse und
	BI-Funktionen
99	 Dienstleistungen (Microsoft)
	 Die Lizenz zum Kosten 		
	sparen
101	 Diverse Branchen
	 Weitere Case Studies und 	
	Produktinformationen
	 unserer Partner
104	 Literaturverzeichnis
107	 Unternehmensverzeichnis
113	 Expertenverzeichnis
124	 Veranstaltungsverzeichnis
		
127	 Glossar
INHALT
85
Competence Book - Business Intelligence
CASE STUDIES - GESTEIGERTE UMSATZERLÖSE MIT ENGINEERED SYSTEMS VON ORACLE
86
Immonet optimiert Analytik
und Entscheidungsfindung
mit Engineered Systems und steigert Umsatzerlöse um 200 %
HERAUSGEBER: ORACLE Deutschland B.V.  Co. KG
I
mmonet, einesderführenden Immobilienportalein Deutsch-
land, bietet Privat- und Geschäftskunden aus einer einzigen
Quelle umfassendes, medienübergreifendes Immobilien-
marketing mit großer Reichweite - via Printmedien, Internet und
anderen digitalen Vermarktungskanälen. Auf das aktuelle On-
line-Angebot mit fast 1,5 Millionen privaten und gewerblichen
Objekten greifen jeden Monat mehr als 5,2 Millionen Besucher
zu (Quelle: Google Analytics, 8/2013). Die Immonet GmbH wur-
de im Jahr 2003 gegründet und gehört heute zu den Mediengrup-
pen Axel Springer und Madsack.
Challenges
•	 Immonet wollte durch die Akquise von zusätzlichen Immo-
bilienmaklern seinen Marktanteil auf dem stark umkämpf-
ten deutschen Immobilienmarkt ausbauen, auf dem nur
35.000 professionelle Immobilienmakler um Millionen von
Kunden werben.
•	 Die Zufriedenheit und Bindung der Immobilienmakler an
Immonet sollte durch eine verstärkte Generierung von Ver-
kaufskontakten für diejenigen Makler verbessert werden,
bei denen die Wahrscheinlichkeit am größten ist, dass sie
ihr Immonet-Abonnement kündigen.
•	 Das Nutzererlebnis sollte mit optimierten Angeboten ver-
bessert werden, da jeder Immobilienmakler aufgrund seines
Kundenpotenzials einen hohen Vermögenswert darstellt und
Immonet in ein entsprechendes Leistungsangebot investiert.
•	 Kaufmuster der Kunden wie beispielsweise die zunehmen-
de Nutzung mobiler Anwendungen oder das Verhalten von
Immobilienmaklern sollten analysiert werden, um das Im-
mobilienportfolio zu optimieren.
•	 Nur die wertvollsten Immobilienmakler sollten als Zielgrup-
pe angesprochen werden, z. B. Makler, die die meisten oder
alle Immobilien ihres Portfolios auf der Immonet-Website
anbieten würden und seit langem mit dem Unternehmen
zusammenarbeiten.
Solutions
•	 Die Immonet GmbH verwendete die leistungsstarke Re-
chenkapazität der Oracle Exalytics In-Memory Machine
X2-4 - die für die In-Memory-Analyse der Business-Intelli-
gence-Auslastung optimiert ist - um die Analyse der Markt-
trends, der Kaufmuster von Kunden und des Maklerverhal-
tens mit Hilfe von Oracle Business Intelligence Foundation
Suite 11g zu optimieren. Das Immobilienportfolio kann jetzt
kontinuierlich optimiert werden, um auf Trends zu reagieren.
•	 Die Dauer der Abfragen wurde mit der Oracle Exadata Da-
tabase Machine von Tagen bzw. Stunden auf Minuten oder
sogar Sekunden verkürzt. In einigen Bereichen des Finanz-
berichterstattung konnten Prozesse, die zuvor eine ganze
Woche gedauert hatten, binnen weniger Sekunden ausge-
führt werden.
Competence Book - Business Intelligence
CASE STUDIES - GESTEIGERTE UMSATZERLÖSE MIT ENGINEERED SYSTEMS VON ORACLE
„Dank des Einsatzes der Engineered Systems und
Anwendungen von Oracle haben wir unsere
Umsätze um 200 % gesteigert und Immonet damit
weit nach vorne gebracht.“
– Christian Maar, Vorsitzender der Geschäftsführung, Immonet GmbH
87
Makler mit der höchsten Kündigungswahrscheinlichkeit die
Abwanderungsquote dieser Makler um mehr als 50 % re-
duzieren – ein wichtiger Wettbewerbsvorteil auf dem deut-
schen Immobilienmarkt, der von nur 35.000 professionellen
Maklern bedient wird.
•	 Immonet integrierte die Landingpage der Google-Suche mit
der selbstlernenden, prädiktiven Modellierung von Oracle
Real-Time Decisions, um die Konversionsrate von neuen
Immobilienmaklern wesentlich zu verbessern.
•	 Immonet reduzierte die hohen Kosten für die Gewinnung
professioneller Immobilienmakler für seine Web-Plattform,
indem es mit Hilfe von Business-Intelligence-Daten erfolg-
reiche Akquisekampagnen entwickelte - z. B. Kampagnen,
die für bestimmte Regionen optimiert wurden.
•	 Alle Abteilungen des Unternehmens wurden in die Lage ver-
setzt, Business-Intelligence-Dashboards und Berichte wie z.
B. Bedarfsvorhersagen, Mitarbeiterbeurteilungen und Nut-
zung mobiler Anwendungen auf einfache Weise selbst zu
erstellen, um unternehmensweit den Informationseinblick
und die Entscheidungsfindung zu optimieren.
•	 Mit Hilfe von Oracle Business Intelligence Mobile werden
den häufig reisenden Führungskräften des Unternehmens
täglich um 3 Uhr morgens maßgeschneiderte Analysen auf
iPad zugestellt, z. B. die am Vortag getätigten und geschei-
terten Kundenabschlüsse.
•	 Mit der Oracle Business Intelligence Suite, Enterprise Editi-
on Plus On Demand erhält das Unternehmen direkten Zu-
griff auf Management-Ressourcen und Support-Expertise.
Auf diese Weise gewährleistet das Unternehmen die bran-
chenführende Verfügbarkeit, Zuverlässigkeit und Sicherheit
von Oracle Business Intelligence mit niedrigeren Gesamtbe-
triebskosten und verbesserter Anlagenrendite.
Die vollständige Case Study können Sie hier lesen.
•	 Immonet setzt die Oracle Business Intelligence Foundation
Suite 11g ein, um Einblicke in eine Vielzahl von Daten in ei-
ner Sortierung nach Regionen und Ortschaften zu erhalten
- wie beispielsweise den Typ der Immobilie, das Wohnviertel
und die Preisspanne. Dies ermöglichte dem Unternehmen,
mit verbesserter Suchmaschinenwerbung die Kundenanfra-
gen um 300 % und die Umsatzerlöse um 200 % zu steigern.
•	 Immonet segmentierte seine Kunden in Primärkunden,
Standardmakler und Privatkunden, um die wertvollsten
Kunden dieser Segmente gezielt ansprechen zu können. Die
interaktiven Berichte und Dashboards von Oracle Business
Intelligence und die überragende Performance von Oracle
Exalytics sorgen für die minutenschnelle Verarbeitung die-
ser Daten - eine Aufgabe, die zuvor Wochen in Anspruch
genommen hatte.
•	 Immonet konnte mithilfe automatisierter, individuell ange-
passter Echtzeit-Empfehlungen von Verkaufskontakten für
Über ORACLE:
Oracle entwickelt Hardware und Software, die für den
Einsatz in der Cloud und im Rechenzentrum optimal
aufeinander abgestimmt sind. 380.000 Kunden jeder
Größe und Branche setzen in 145 Ländern der Welt
Produkte und Lösungen von Oracle ein. Im Fiskaljahr
2013, das zum 31. Mai 2013 endete, erzielte Oracle
weltweit einen Umsatz von 37,2 Milliarden US-Dollar.
Oracle beschäftigt weltweit 108.000 Mitarbeiter, darun-
ter 32.000 Entwickler, 18.000 Support-Mitarbeiter und
17.000 Consulting-Experten.
Competence Book - Business Intelligence
CASE STUDIES - KUNDENBINDUNG DURCH MICROSOFT BI
88
EindirekterDrahtzum
KundendankMicrosoftBI
HERAUSGEBER: Microsoft Deutschland GmbH
D
as Internet ist für viele Unternehmen längst zu einem
wichtigen Punkt der Verkaufsstrategie geworden. Sei es
zur Generierung von Verkaufs-Chancen, zur Steigerung
des Umsatzes, zur Erschließung neuer Märkte oder zur Erhö-
hung des Bekanntheitsgrads.
New Elements GmbH hat sich darauf spezialisiert, innovative
Lösungen zu entwickeln, damit Unternehmen das Internet als
erfolgreichen und profitablen Vertriebskanal nutzen können.
Bisher konnte ein eigentlich hervorragender Ausgangspunkt für
den Vertrieb nicht genutzt werden: die Betreuung des Kunden
direkt auf der Webseite.
Der Internet-Kunde befindet sich bereits in der virtuellen Filiale
und interessiert sich für ein Produkt. Er konnte bislang jedoch
nicht direkt beraten werden - der Kauf wardem Zufall überlassen.
Eine ungenutzte Chance - denn zu welchem Zeitpunkt könnte
ein Unternehmen besser mit potenziellen Kunden ins Gespräch
kommen als bei einem direkten Besuch der Website?
Für Immowelt.de hat New Elements GmbH die Lösung Constel-
lation“ entwickelt, die eine virtuelle Kundenberatung in Echtzeit
ermöglicht. „Wenn ein Kunde eine Webseite betritt, hinterlässt er
verschiedenen Daten. Betrachten wir die Webseite als ein Kauf-
haus, welches der Kunde besucht. Sein Verhalten auf der Web-
seite lässt Rückschlüsse darauf zu, wer er ist und was ihn dar-
über hinaus interessiert. Diese von ihm hinterlassenen Spuren
können mittels unserer Lösung nun in Echtzeit ausgewertet und
in kürzester Zeit darauf reagiert werden“, erklärt Atasoy Altinci,
Geschäftsführer, New Elements GmbH.
Die New Elements Suite besteht aus drei Komponenten, die zu
einem einzigartigen Gesamtkonzept verbunden wurden. Die Sui-
te wird grundsätzlich als „Software as a Service (SaaS)“ vertrie-
ben. Bei Bedarf sind auch Inhouse-Lösungen mit individuellen
Anpassungen möglich. Das Datenmanagement erfolgt mittels
des SQL Servers 2012. Dies ermöglicht der Immowelt AG eine
umfangreiche Datenermittlung. Die von New Elements GmbH
entwickelte Lösung liegt in der Cloud und nutzt die Windows
Die Immowelt AG ist der führende IT-Komplettanbieter für die Immobilienwirtschaft und
beschäftigt derzeit mehr als 270 Mitarbeiter. Die Softwarelösungen der Immowelt AG sind
in der Branche weit verbreitet und genießen einen ausgezeichneten Ruf. Um in Echtzeit
und auf der Basis von unterschiedlichen Daten auf individuelle Kundenbedürfnisse einge-
hen zu können, suchte Immowelt AG eine intelligence Web Analytics-Lösung mit Business
Intelligence-Funktionalitäten, die gleichzeitig personalisierte Online-Beratung ermöglicht.
Competence Book - Business Intelligence
CASE STUDIES - KUNDENBINDUNG DURCH MICROSOFT BI
89
Möglichkeit, Kunden auf der Webseite direkt anzusprechen, ist
für uns also eine enorme Innovation. Sie wird langfristig für uns
der Weg sein, Kundenbeziehungen nachhaltig aufzubauen und
zu pflegen.“ „Außerdem setzen wir seit Jahren auf Microsoft Pro-
dukte“, fügt er hinzu. Immowelt sei mit dieser Partnerschaft sehr
zufrieden und habe nur gute Erfahrungen gemacht. „Die Lösung
ließ sich problemlos in die bestehende IT Infrastruktur integrie-
ren.“
Weitere Referenzen finden Sie hier.
Azure Plattform. „Wir sehen den Mehrwert einer Cloudlösung
eindeutig in ihrer Skalierbarkeit und Verfügbarkeit - und das bei
geringen Kosten“, betont Atasoy Altinci. „SiteAnalyst“ ist die Web
Analytics-Komponente und dient zur Erfolgsmessung von On-
line-Marketingmaßnahmen. Unternehmen können damit die Ef-
fektivität von Webauftritten und Online-Initiativen analysieren
und die Website im Hinblick einer Zielerreichung (z.B. Häufig-
keit von Besuchen, Bestellungen) optimieren. Die Komponente
zeigt alle aktuellen, in Echtzeit stattfindenden Aktivitäten auf der
Webseite an. Einzusehen sind Daten wie der „eingegebene Such-
begriff“, „Herkunft“ und „Klickverlauf“. Ausgestattet mit diesem
Wissen können ausgewählte Besucher gezielt angesprochen und
unkompliziert beraten werden. Die Kontaktaufnahme kann da-
bei zum Beispiel mittels eines dynamischen Live Chats erfolgen.
„Dynamic Chat“ ermöglicht die Online-Beratung von Inter-
netbesuchern auf Basis von Web Analytics-Daten. In Echtzeit
werden die Besucher visualisiert. Der Informationsanspruch
eines Web-Besuchers wird anhand seines eingegebenen Such-
begriffs (z.B. Städtereise) und der aufgerufenen Unterseiten
(Klick-Verlauf) ermittelt. Daten über seine Herkunft (Suchma-
schine, Werbebanner und geografische Hinweise) ergänzen das
Bild des Interessenten. Ausgestattet mit diesem Wissen können
ausgewählte Besucher gezielt mit Chat-Funktionalitäten ange-
sprochen, schnell und unkompliziert beraten werden, um letzte
Zweifel beim Buchungsvorgang aus den Weg zu räumen. Eine
Online-Beratung kann auch vom Besucher selbst gestartet wer-
den, durch Klick auf entsprechende Kontaktformulare auf der
Webseite. Die zielgenaue Besucheransprache im Web verstärkt
nachhaltig die Kundenbindung und steigert die Konversionsrate.
Neben der Online-Beratung erhöht die Bereitstellung passge-
nauer Informationen (Dynamic Content) auf der Webseite die
Verkaufschancen. Dies können Produktvorschläge, Sonderan-
gebote oder die Kontaktdaten des regionalen Ansprechpartners
sein. „Wir können Produktvorschläge, Sonderangebote und An-
sprechpartner gezielt kommunizieren. Der Besucher sieht eine
individuell auf ihn zugeschnittene Webseite“, betont Ulrich Gros,
CFO, Immowelt AG. Für ihn ist die neue Lösung von New Ele-
ments ein wichtiger Schritt, um eine persönlichere Beziehung
zum Kunden aufzubauen und kundenorientierte, passgenauere
Informationen auf der Website bereit zu halten. „Kundenbezie-
hungen stehen bei Immowelt strategisch im Fokus. Die neuartige
Über Microsoft:
Microsoft schöpft aus der eigenen Erfahrung als
Betreiber von Big-Data-Plattformen wie Skype,
Bing und Xbox. Die integrierte Plattform von SQL
Server und Office vereinfacht den Einsatz von
Business Intelligence und Big Data on-premise
und in der Hybrid Cloud und die intuitive Erstel-
lung fundierter Prognosen in Echtzeit.
„Die Möglichkeit, die aktuelle Situation auf unserer Website
einsehen zu können, bietet uns eine völlig neuartige Form der
Kundenbetreuung.“ - Ulrich Gros, CFO Immowelt AG
Competence Book - Business Intelligence
CASE STUDIES - INTEGRIERTE SOFTWARELÖSUNG VON IDL
90
Wanzlharmonisiert30
Konzerngesellschaften
Das traditionsreiche Unternehmen Wanzl hat sich in den letzten Jahrzehnten von der ur-
sprünglichen Metallwarenfabrik zum global agierenden Partner internationaler Handelsket-
ten entwickelt. Nach einer strategischen Umstrukturierung des Unternehmens stand das
Controlling vor der Aufgabe, das Berichtswesen konzernweit zu standardisieren.
HERAUSGEBER: IDL GmbH Mitte
W
anzl wollte Planung und Reporting seiner 30 inter-
nationalen Konzerngesellschaften in einheitlichen
Strukturen durchführen, und zwar durchgängig von
der operativen Vertriebsplanung bis zur Konsolidierung. Eine
moderne Berichtsplattform sollte Berichte auf Excel-Basis ablö-
sen und die dezentralen Berichtsprozesse unterstützen.
Vor der Software-Auswahl führte Wanzl eine umfangreiche Be-
darfs- und Marktanalyse durch. Da die meisten Konzerngesell-
schaften mit SAP arbeiten, war die Integrationsfähigkeit des
neuen Systems in SAP ein wichtiges Kriterium. Nach sorgfältiger
Evaluierung und der Installation von Prototypen entschied sich
das Projektteam für die Produktreihe von IDL, mit der Wunsch-
kombination der Abteilungen Rechnungswesen und Controlling:
IDLKONSIS für die Konsolidierung und eine BI-Lösung mit dem
IDLCOCKPIT für die operative Planung und das Reporting.
Paralleler Aufbau von Reporting und Konsolidierung
Die Umsetzung von Konsolidierung und Reporting hat Wanzl
parallel gestartet. Zusammen mit Beratern von IDL arbeiteten
Mitarbeiter aus den Abteilungen Beteiligungen und Controlling
an der Systemkonzeption und Implementierung. Vor der Syste-
meinführung wurden bereits gute Grundlagen geschaffen: Auf
Basis eines durchdachten betriebswirtschaftlichen Ansatzes und
eines ausgefeilten Pflichtenheftes konnte die Implementierung
zügig im praxisorientierten Prototyping-Verfahren umgesetzt
werden.
IDL übernahm dabei die Anbindung von SAP als Datenquelle.
Die Datenextraktion erfolgt zum Teil über die SAP-Standard-
schnittstelle des IDLIMPORTERS und zum Teil über individuell
programmierte Interfaces. Einige kleinere Gesellschaften, die
SAP nicht im Einsatz haben, liefern ihre Daten in Excel-Sheets
an.
System für Fachanwender
Die Quelldaten laufen in einem Data Warehouse auf Basis des
Microsoft SQL Servers zusammen und werden im leistungsfä-
higen OLAP Server IBM Cognos TM1 für Planung, Analyse und
Reporting bereitgestellt. Beim Aufbau des analysefähigen Da-
tenmodells war die Überführung der SAP-Kundenstrukturen in
die individuellen Kundenstrukturen von Wanzl ein besonderer
Schwerpunkt. Die Anpassung des Datenmodells ist auch im lau-
fenden Systembetrieb kein Problem: Die zuständigen Fachan-
wender können Basiselemente wie Kundenstrukturen eigenstän-
dig verwalten und diese, beispielsweise bei organisatorischen
Änderungen, einfach selbst aktualisieren. Als wesentliche Anfor-
derung an die neue Berichtsumgebung stand von Anfang an fest:
Der adressierte Nutzerkreis in allen operativen Einheiten sollte
weltweit über ein einziges Frontend auf Planung, Reporting und
Analyse zugreifen können. Dies hat Wanzl mit dem IDLCOCK-
PIT erreicht. Rund 150 Personen aus der Geschäftsführung und
den Bereichen Controlling, Finanzen und Vertrieb der 30 Gesell-
schaften rufen ihre Berichte mit dem einfach zu bedienenden
BI-Frontend ab, führen ihre Analysen damit durch und geben
ihre Plandaten in der einheitlichen Berichtsumgebung ein.
Competence Book - Business Intelligence
CASE STUDIES - INTEGRIERTE SOFTWARELÖSUNG VON IDL
91
teinsparung, sondern die verbesserte Qualität
von Planung, Reporting und Konsolidierung.
Bereits nach dem ersten Planungsdurchlauf
war klar: Das Ziel wird erreicht. Die weltweit
einheitliche, detaillierte Planung über den ge-
samten Konzern erhöht die Planungsqualität
und Planungssicherheit, und die unterneh-
mensweite Standardisierung von Planung und
Reporting sorgt für konsistente Kennzahlen,
über die im Konzern nicht mehr diskutiert
wird. Das integrierte System unterstützt den
Controlling-Regelkreis durchgängig von der
operativen Vertriebsplanung bis zur rechtssi-
cheren Konzernkonsolidierung. Das transpa-
rente Berichtswesen ist damit über alle Ebenen
nachvollziehbar und liefert zuverlässige Infor-
mationen für die Unternehmenssteuerung.
Skalierbar und zukunftssicher
Die Reporting-Plattform ist flexibel erweiterbar
und passt sich an neue Anforderungen im Kon-
zern an. Nächste Ausbaustufen stehen bereits
auf dem Plan. Wanzl will die Datenbasis um
statistische Kennzahlen erweitern und weitere
steuerungsrelevante KPIs einführen. Auch der
Ausbau der Finanz- und Liquiditätsplanung
sowie der strategischen Planung stehen an. Die
integrierte Berichtslösung wächst problemlos
mit dem Unternehmen mit und ist damit zu-
kunfts- und investitionssicher.
Die globale Anbindung der Anwender ist über VDI-Clients von VMware realisiert.
Die Abbildung als Virtual Desktop Infrastructure sorgt für die stabile und perfor-
mante Verfügbarkeit sowie die effiziente Wartung der weltweiten Anwendung.
Integrierte Lösung für Rechnungswesen und Controlling
Fachlich bildet die integrierte Lösung ein komplexes betriebswirtschaftliches
Modell ab. Kern der BI-Plattform ist die dezentrale operative Vertriebs- und
Gesamtkostenplanung, in die alle 30 Konzerngesellschaften einbezogen sind.
Die Zahlen der entstehenden Plan-GuV werden zur Plankonsolidierung an
IDLKONSIS übergeben, und die für Planung und Reporting benötigten Werte der
konsolidierten Plan-GuV dann wiederum aus dem Konsolidierungssystem in die
BI-Lösung zurückgespielt. Auf diese Weise sind durchgängige Zahlenströme mit
konsistenten Berichtsstrukturen und validen Kennzahlen in allen Berichtspha-
sen gewährleistet. Auch hinsichtlich verschiedener Berichtsperspektiven geht das
stimmige Konzept auf. Das gesamte Berichtswesen ist im dualen Wertansatz darge-
stellt: Legale Sicht und Konzernsicht sind parallel im System abgebildet und kön-
nen durch alle Aggregationsstufen nachvollzogen werden. Für die Herstellungs-
kosten gibt es beispielsweise zwei Bewertungsansichten, die ihren Wertbeitrag
zum Gesellschaftsergebnis aus Sicht der legalen Berichterstattung und zum Grup-
penergebnis aus Sicht der Konzernorganisation darstellen. Neben der GuV-Sicht
wird zudem eine vertrieblich orientierte Geschäftsbereichsergebnisrechnung für
die fünf Geschäftsbereiche von Wanzl geführt, die alle internen Werteflüsse bis hin
zur Produktion berücksichtigt.In der zeitlichen Perspektive sind Reporting und
Planung bis auf Monatsebene abgebildet. Wanzl erstellt neben der Jahresplanung
drei Forecasts pro Jahr. Geplant werden Außenumsätze bzw. Mengen, während die
Innenumsätze auf Basis von Referenzzahlen aus den Vorjahren im System automa-
tisch ermittelt werden.
Effektives Berichtswesen durch konzernweite
Standardisierung
Die Berichtsplattform automatisiert Routinen wie Datenübernahmen, was manu-
elle Tätigkeiten bei Berichtsprozessen einspart und Übertragungsfehler vermeidet.
Im Fokus der Implementierung standen jedoch nicht Beschleunigung oder Zei-
„Mit IDL haben wir die konzernweite
Standardisierung unseres Berichtswe-
sen realisiert, von Montreal bis Mel-
bourne und von der operativen Ver-
triebsplanung bis zur konsolidierten
Plan-GuV.“
- Erwin Ohnmacht, Leiter IT  Controlling bei Wanzl
Competence Book - Business Intelligence
CASE STUDY TAGETIK pmOne UND ERSTE GROUP
92
Tagetik geleitet Erste Group optimal
durch IFRS und FinRep-Vorgaben
AUTOR: pmOne AG
Die Lösung im Überblick
Abstimmung konzerninterner Verflechtungen möglichst rei-
bungslos in den Konsolidierungsprozess einzubinden.
Prozessunterstützung, klare Zuordnung von Verantwortlichkei-
ten und mehr Transparenz waren weitere wichtige Punkte für
Barbara Kainz, die Leiterin Group Consolidation und zugleich
fachliche Projektleiterin bei der Einführung der neuen Konso-
lidierungslösung. Bis es soweit war, fand ein Auswahlprozess
mit verschiedenen Anbietern statt. Dass sich Tagetik an dessen
Ende gegen den Hauptkonkurrenten SAP durchsetzen konnte,
lag nicht nur am besseren Preis-Leistungsverhältnis. Auch in
Sachen Beratungsleistung konnte das Team von pmOne/Tage-
tik mit seinem speziellen Fokus auf Financial Services punkten.
Barbara Kainz: „Bei pmOne/Tagetik fühlten wir uns nicht nur
fachlich, sondern auch als Finanzdienstleister verstanden, weil
die Berater ganz genau wussten, was FinRep und Basel III bedeu-
ten. Auf dieser Grundlage haben wir das Projekt partnerschaft-
lich und schnell realisiert.“ Für ihre Kollegen aus der benach-
barten Controlling-Abteilung stand hingegen im Vordergrund,
Segmentberichterstattung und Legalkonsolidierung in Einklang
zu bringen. Hier konnte Tagetik als einheitliche Anwendung
überzeugen, die zudem über spezielle Funktionen für die Segm-
entberichterstattung verfügt. Auch die IT-Abteilung sprach sich
für Tagetik aus, nachdem es bei einem technischen Bewährungs-
test darum gegangen war, die neue Software in die IT-Umgebung
der Erste Group einzugliedern.
Im Mai 2012 war das Projektteam aufgestellt und startbereit. Ne-
ben den beiden Fachabteilungen und den Beratern von pmOne/
Tagetik war auch die IT der Erste Group ein wichtiger Bestandteil
der Mannschaft. Deren Aufgabe bestand darin, die Gesellschaf-
ten und Netzwerkbanken an das System anzubinden und dafür
Sorge zu tragen, dass dabei die bankenspezifischen Sicherheits-
vorschriften eingehalten werden. Bis die neue Lösung internati-
onal ausgerollt und die Netzwerkbanken der Erste Group ange-
bunden waren, ist von der Konzeption über Implementierung,
Altdatenübernahme und Anwenderschulungen bis zum Go-Live
weniger als ein Jahr vergangen. Bereits der Jahresabschluss 2012
konnte parallel in Tagetik erstellt werden; im Januar 2013 ist die
Konsolidierung dann vollends auf die neue Software umgestellt
worden.
Erweiterung des Reporting um Segmentberichte und Risi-
koinformationen
Mit Tagetik wurde bei der Erste Group ein neues, konzernum-
fassendes System auf gesetzt, an das die Konzerngesellschaften
angebunden sind und über das sie ihre Daten-Packages an die
Competence Book - Business Intelligence
CASE STUDY TAGETIK pmOne UND ERSTE GROUP
93
Zentrale senden. Es lassen sich damit
schnell und flexibel Konzernabschlüsse
auf unterschiedlichen Ebenen erstellen.
Bei 700 Einzelgesellschaften hat es sich
zudem als zweckmäßig erwiesen, Daten-
abgleiche innerhalb der Gruppe in einem
frühen Stadium vorzunehmen und Un-
stimmigkeiten nicht erst am Ende des
Prozesses auf Konzernebene auszutragen.
Eine wichtige Komponente der neuen Lö-
sung ist des halb das IC-Matching-Cock-
pit, über das sich die konzerninternen
Verflechtungen bei der Konsolidierung
frühzeitig und direkt zwischen den be-
treffenden Einheiten abstimmen lassen.
Auch Subkonsolidierungen für verschie-
dene Geschäftsbereiche werden in Ta-
getik verwaltet, darunter sehr komplexe
Systeme wie das der für Immobilien- und
Infrastrukturfinanzierungen zuständi-
gen Erste Group Immorent AG oder der
tschechischen Tochtergesellschaft Česká
spořitelna. Insgesamt ist das fachliche
Spektrum, das Tagetik abdeckt, um Eini-
ges breiter als das des Vorgängersystems.
Wesentlich erweitert hat sich der Umfang
des Reportings. Neben der Segmentbe-
richterstattung werden mittlerweile auch
risiko- bzw. aufsichtsrechtlich relevante
Informationen abgefragt.
Doch mit der Einführung einer neuen
Konsolidierungslösungwares nichtgetan.
Vielmehr nutzte die Erste Group die Um-
stellung auf Tagetik zugleich, um struktu-
relle Änderungen im Konzern vorzuneh-
men, Prozesse neu aufzusetzen und den
Informationsfluss sauber aufzubauen. All
das waren notwendige Maßnahmen, um
vor dem Hintergrund ständig neuer An-
forderungen an die Banken möglichst ef-
fizient und schnell agieren und reagieren
zu können. Die Umstellung der Prozesse
sei angesichts der zahlreichen Beteiligten
ein großer Kraftakt gewesen, berichtet
Projektleiterin Kainz. Positiv überrascht
gewesen sei sie hingegen darüber, wie rei-
bungslos die eigentliche Einführung der
neuen Software verlaufen sei.
Mehr Eigenverantwortlichkeit für die
Tochtergesellschaften
Die Tochtergesellschaften hatten binnen
kurzer Zeit eine Reihe von Neuerungen
zu verkraften. Sie werden im Zuge der
Umstellung mehr in die Pflicht genom-
men als zuvor und zugleich in ihrer Ei-
genverantwortlichkeit gestärkt. Hatten
sie bislang mit der Anlieferung der Daten
auch ihre Verantwortung dafür abgege-
ben, sind sie heute in den Gesamtprozess
miteingebunden. Das bedeutet zum ei-
nen, dass sie für Datenbeschaffung und
-upload, Datenübermittlung und Inter-
company-Abstimmung zuständig sind
und sich zudem mit Validierungsregeln
auseinandersetzen müssen. Andererseits
eröffnet ihnen die Anbindung an das Sys-
tem neue Möglichkeiten, denn sie können
– ebenso wie die Zentrale – jederzeit den
Verlauf und Fortschritt des Konsolidie-
rungsprozesses verfolgen. Insbesondere
in der Umstellungsphase gab es einen
hohen Abstimmungsbedarf unter den
Gesellschaften, und die Zentrale hatte ei-
Über Tagetik
Gegründet 1986, ist Tagetik ein etablierter Anbieter von Performance Manage-
ment und Business Intelligence Software. Tagetik ist eines der weltweit am
schnellsten wachsenden Unternehmen im Markt für Performance Manage-
ment Software. Von Analysten oft als visionär, klar fokussiert und innovativ
charakterisiert, unterscheidet sich Tagetik von der Konkurrenz durch seine ein-
zigartige Fähigkeit, viele komplexe Geschäftsprozesse für große und kleine
Organisationen in einer einzigen Software-Lösung zu vereinfachen.
Mit über 20 Standorten und 550 zufriedenen Kunden weltweit ist Tagetik ein
wachsendes, globales Unternehmen, das immer noch stolz darauf ist, wie eine
„globale Boutique“ zu handeln: Service, Aufmerksamkeit und Innovation, die
Sie von einer Boutique erwarten, sind bei uns gepaart mit dem umfassenden
Wissen und der notwendigen Skalierbarkeit, um auch den Bedürfnissen der
weltweit größten Unternehmen gerecht zu werden.
„MitTagetik haben wir dieVoraussetzungen geschaf-
fen, um erstmals innerhalb der Gruppe klare Verant-
wortlichkeiten zuzuweisen.“
- Barbara Kainz, Leiterin Group Consolidations, Erste Group
Competence Book - Business Intelligence
CASE STUDY TAGETIK pmOne UND ERSTE GROUP
94
niges an Überzeugungsarbeit zu leisten, aber: „Mit Tagetik ha-
ben wir die Voraussetzungen geschaffen, um erstmals innerhalb
der Gruppe klare Verantwortlichkeiten zuzuweisen“, konstatiert
Barbara Kainz.
Gruppenweit einheitliche Konsolidierungsstandards
Auch wenn die Umstellung zunächst einmal mit Mehraufwand
für alle Beteiligten verbunden war, hat die Projektleitung insbe-
sondere aus den Teilkonzernen positives Feedback bekommen.
Statt sich wie bisher mit Excel zu behelfen, steht den Verant-
wortlichen dort mit Tagetik nun ein komfortables System zur
Verfügung, das sie beim Konzernabschluss unterstützt. Für das
zentrale Group Accounting indes zahlt sich die Mühe durch
mehr Transparenz aus. Jederzeit in Buchungen einblicken und
den Prozess, zum Beispiel bei der Konsolidierung von Teilkon-
zernen, verfolgen zu können, ist ein riesiger Fortschritt. Als Ge-
winn wertet es das zentrale Rechnungswesen ferner, dass nun
bei der Konsolidierung gruppenweit einheitliche Formate und
Vorgaben gelten, die zudem überprüfbar sind.
Die ersten Erfolge haben sich also eingestellt. Dennoch sieht
das Team um Barbara Kainz noch Potenzial, um die vielfältigen
Möglichkeiten, die sich mit Tagetik bieten, besser auszunutzen.
Zum Beispiel soll das interne Berichtswesen dahingehend aus-
gebaut werden, dass erstmals Teilkonzerne untereinander vergli-
chen werden – dank einheitlicher Strukturen und Definitionen
stellt dies systemtechnisch nun kein großes Problem mehr dar.
Auch das Thema Disclosure Management soll in naher Zukunft
angegangen werden. Ziel ist es hier, die in Tagetik vorhandenen
Informationen so aufzubereiten, dass sich daraus direkt der Ge-
schäftsbericht produzieren lässt. Nicht zuletzt steht die Erfas-
sung und Konsolidierung von Budget- und Forecast-Daten an.
Selbst wenn FinRep nun definitiv in 2013 nicht mehr zum Tragen
kommt, sieht sich die Erste Group mit der flexiblen Finanzsoft-
ware von Tagetik gut gerüstet. Externe Forderungen, die früher
zu Kopfzerbrechen geführt haben – wie zum Beispiel die Anlie-
ferung neuer Teilkonzern- oder Konzernabschlüsse – können
die Mitarbeiter des Group Accounting mittlerweile nicht mehr
so leicht aus der Ruhe bringen. Wie würde die Gruppe aussehen,
wenn wir fünf Gesellschaften weniger hätten? Auch internen
Anfragen wie dieser fühlt sich Barbara Kainz heute gewachsen:
„Das System ist sehr flexibel. Wo wir früher bei Ad-hoc-Anfragen
auf Schätzungen angewiesen waren oder die Beantwortung mit
großem manuellen Aufwand verbunden war, können wir heute
schnell liefern.“
Über die Erste Group:
Die Erste Group wurde 1819 als die „Erste österreichi-
sche Spar-Casse“ gegründet. Im Jahr 1997 ging sie mit
der Strategie, ihr Retailgeschäft in die Wachstumsmärk-
te Zentral- und Osteuropas (CEE) auszuweiten, an die
Wiener Börse. Seither hat die Erste Group mehr als zehn
Banken akquiriert und ihre Kundenanzahl von 600.000 auf
rund 16,6 Mio. erhöht. Mehr als 99 Prozent der Kunden le-
ben innerhalb der Grenzen der EU. Die EU-Mitgliedschaft
gibt den Ländern der Region einen stabilen rechtlichen
Rahmen, der ihre wirtschaftliche Entwicklung unterstützt.
Gegenwärtig ist die Erste Group einer der größten Finanz-
dienstleister in CEE. Zu den Kernaktivitäten der Erste
Group gehören neben der traditionellen Stärke im Privat-
kundengeschäft auch die Beratung und Unterstützung von
Firmenkunden bei Finanzierungs-, Veranlagungs- und Ab-
sicherungsfragen sowie beim Zugang zu den internationa-
len Kapitalmärkten, Finanzierung des öffentlichen Sektors
und Aktivitäten am Interbankenmarkt.
www.erstegroup.de
„Bei pmOne/Tagetik
fühlten wir uns nicht
nur fachlich, sondern
auch als Finanz-
dienstleister verstan-
den, weil die Berater
ganz genau wussten,
was FinRep und Ba-
sel III bedeuten.“
- Barbara Kainz, Leiterin Group Consoli-
dations, Erste Group
Competence Book - Business Intelligence
CASE STUDY TAGETIK pmOne UND ERSTE GROUP
„Das System ist sehr flexibel. Wo wir früher
bei Ad-hoc-Anfragen auf Schätzungen an-
gewiesen waren oder die Beantwortung mit
großemmanuellenAufwandverbundenwar,
können wir heute schnell liefern.“
- Barbara Kainz, Leiterin Group Consolidations, Erste Group
95
Über die pmOne AG:
Die 2007 gegründete pmOne AG ist ein Software- und
Beratungsunternehmen mit Lösungsangeboten zum
Thema Business Intelligence und Big Data. Dafür wer-
den die technologischen Plattformen von Microsoft
und SAP um die eigenentwickelte Software cMORE
ergänzt. cMORE hilft Anwendern unter anderem da-
bei, skalierbare Lösungen für Reporting und Analy-
se schnell aufzubauen, effizient zu betreiben und zu
erweitern. Mit Tagetik vertreibt und implementiert die
pmOne AG eine weltweit führende Softwarelösung
für Unternehmensplanung und Konsolidierung. Zur
pmOne-Gruppe gehört die MindBusiness GmbH, die
auf SharePoint-Lösungen und Dienstleistungen für Of-
fice-Rollouts spezialisiert ist. Die pmOne AG hat über
200 Mitarbeiter und ist an acht Standorten in Deutsch-
land, Österreich und der Schweiz vertreten.
Competence Book - Business Intelligence
CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN
96
Zalandooptimiertsein
Data Warehouse und BI-Funktionen
Steigende Kundenzahlen und Transaktionsvolumina forderten das Data Warehouse von
Zalando heraus. Mit einer In-Memory- Hochleistungsdatenbank „made in Germany“ be-
schleunigt der Online-Retailer nun seine Analysen und Reports.
HERAUSGEBER: EXASOL AG
V
om Online-Buchverkäufer zum elektronischen Wa-
renhaus – Amazon hat es vorgemacht. Trotz etlicher
Vorbehalte, denn Einkaufen, ohne die Ware vorher in
den Händen gehalten zu haben, wurde kritisch gesehen. Diese
Hemmschwelle galt lange Zeit auch bei Web-Shops für Kleidung
und Schuhe. Außerdem schien die drohende Rücksendewel-
le eine zu große Herausforderung. 2008 ging Zalando als erster
deutscher Online-Schuhhandel ins Rennen. Seit der Gründung
ist das Unternehmen sehr schnell gewachsen und gehört heute
zu den größten Web-Shops in Deutschland.
Herausforderung
Zalando arbeitet derzeit mit über 1.000 Markenherstellern zu-
sammen. Das Sortiment wurde sukzessive erweitert und umfasst
100.000 Produkte aus den Sparten Schuhe, Fashion, Beauty, Sport
und Wohnen. Darüber hinaus bietet der Online-Retailer seinen
Kunden attraktive Sonderaktionen und Zusatz-Services wie kos-
tenlose Lieferungen und einegarantierte Rückgabefristvon bis zu
100 Tagen für alle Waren. Dem Kunden soll jederzeit ein optimal
auf seine Vorlieben abgestimmtes Einkaufserlebnis geboten wer-
den. Der stetige Expansionskurs des Unternehmens spiegelt sich
in einem ebenso schnell ansteigenden Datenvolumen wider. Seit
Mitte 2010 ist das Data Warehouse von Zalando um den Faktor
fünf gewachsen. Dadurch entstehen immer komplexere Anforde-
rungen an die IT-Infrastruktur – insbesondere an die eingesetzte
Datenbank-Lösung. Alleine durch die Bestellinformationen ent-
stehen Unmengen an Daten, die sinnvoll verwaltet und schnell
ausgewertet werden müssen. Um sämtliche Transaktionen mit
Kunden, Lieferanten und Logistikdienstleistern reibungslos zu
gestalten, benötigt das Unternehmen durchgängige Prozesse
und standardisiert konsistente Daten zu Produkten, Beständen,
Aufträgen, Kunden und Lieferungen. Über interne Analysen und
Reportings generiert Zalando daher ununterbrochen Informati-
onen über Nutzerverhalten, verkaufte Artikel oder Rücksende-
quoten. Diese dienen als Grundlage für die zeitnahe Sortiments-
gestaltung und Anpassungen des Web-Shop-Designs. Aber auch
die dezentrale Lagerhaltung und die Lieferanten- und Kunden-
abwicklung werden auf Basis der Auswertungen fortlaufend opti-
miert. Die Data-Warehouse-Management-Lösung, die bisher im
Einsatz war, erbrachte nicht mehr die Leistung, die für Analysen
und das Reporting bei Zalando notwendig ist. Zum einen lief die
Datenbereitstellung nicht reibungslos, andererseits zeigte sich
gerade in den Lastspitzen, dass die Auswertungen insgesamt
zu viel Zeit in Anspruch nahmen. Dies wurde beispielsweise an
Montagen deutlich, wenn die Daten des gesamten Wochenendes
ausgewertet werden müssen. Hinzu kamen hohe Lizenz- und
Wartungskosten.
Suche und Auswahl
Die für den Bereich Business Intelligence (BI) Verantwortlichen
bei Zalando suchten eine Datenbank, die problemlos mit der
zu analysierenden Datenmenge mitwächst und sich einfach in
die bestehende IT-Infrastruktur integrieren lässt. Nach einem
intensiven dreiwöchigen Proof of Concept fiel ihre Wahl auf
EXASolution. Die Hochleistungsdatenbank wurde speziell für
zeitkritische komplexe Analysen entwickelt und bildet somit die
passende Basis für die Business-Intelligence-Infrastruktur des
Unternehmens. Bei der Entscheidung für die In-Memory-Lösung
der Nürnberger EXASOL AG waren vorallem die Ausbaufähigkeit
des Systems sowie die Möglichkeit, Rohdatenanalysen in Echt-
zeit – auch während Lastspitzen – durchführen zu können, aus-
schlaggebend. Weitere Gründe waren das sehr gute Preis-Leis-
tungsverhältnis sowie der geringe Administrationsaufwand.
Competence Book - Business Intelligence
CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN
97
Technik
Für die Leistungsfähigkeit der neuen Da-
tenbank ist die Kombination aus In-Me-
mory-Technologie, massiv paralleler und
spaltenbasierter Datenverarbeitung aus-
schlaggebend. Mit der In-Memory-Clus-
ter-Technologie in Kombination mit effi-
zienten Kompressions-Algorithmen kann
das System das große Datenvolumen von
Zalando hochperformant verarbeiten. Bei
lesenden Anfragen erfolgt die Verarbei-
tung weitestgehend im RAM, wodurch
der langsamere Zugriff auf Festplatten
minimiert wird. Schreibende Operationen
werden redundant auf Disks gespeichert.
So gehen auch bei Hardware-Ausfall kei-
ne Daten verloren. Anhand der Anfragen
bestimmt die Datenbank selbständig,
welche Daten im Hauptspeicher gehal-
ten werden. Selten genutzte Daten wer-
den bei Bedarf einfach nachgeladen bzw.
wieder verdrängt. Im Gegensatz zu reinen
Caching-Verfahren sind die zugrundelie-
genden Algorithmen auf den schnellen
Hauptspeicherzugriff optimiert, wodurch
dieser besser ausgenutzt werden kann. So
werden Performancegewinne bis zu Fak-
tor 1000 bei bestehenden Abfragen (POC)
erzielt und die Systemkosten zudem
nachhaltig gesenkt. Im Gegensatz zu her-
kömmlichen Datenbanksystemen orga-
nisiert EXASolution Informationen spal-
tenorientiert. Dadurch reduzieren sich
der Speicherverbrauch und die benötigte
Disk-Bandbreite, falls Daten nachgeladen
werden müssen. Dank der Uniformität der
Daten innerhalb einer Spalte verbessert
sich auch die Kompression, die Datenbank
wähltvollautomatisch für jeden Inhaltden
günstigsten Algorithmus aus. Ein weiterer
Unterschied zu konventionellen Systemen
ist, dass EXASolution die verteilte Daten-
speicherung bereits integriert hat. Somit
entfällt ein teures Storage Area Network
(SAN) als externe Speicherlösung. Da für
die EXASOL-Cluster Standard-Hardware
genutzt wird, fällt diese Variante zumeist
sehr günstig aus. EXASolution ist ein
tuningfreies, sprich selbstlernendes Sys-
tem, das sich an die Nutzungsgewohn-
heiten anpasst. Indizes werden automa-
tisch verwaltet. Daten komprimiert und
SQL-Anweisungen vom Query-Optimizer
getunt. Auf diese Weise bewältigt das Un-
ternehmen die steigenden analytischen
Anforderungen und gleichzeitig werden
Freiräume für Neuentwicklungen und
administrative Aufgaben geschaffen. Die
wichtigsten Ressourcen werden ständig
überwacht und Zusammenfassungen über
verschiedene Systemtabellen bereitge-
stellt. Für den Hauptspeicherausbau wird
die Empfehlung gegeben, wie das aktuelle
Nutzungsprofil optimal abgedeckt werden
könnte.
Implementierung
EXASolution ist seit Ende Dezember 2011
bei Zalando produktiv im Einsatz. Zalan-
do konnte die neue Technologie innerhalb
von knapp zwei Wochen komplett in die
bestehende Infrastruktur einbinden. Über
native Lade-Schnittstellen zu bestehen-
den Datenbanken konnte EXASolution
problemlos als Analyse-Layer integriert
werden, auf dem nun alle Auswertungen
über SAP Business Objects laufen. Die
In-Memory-Hochleistungsdatenbank
Competence Book - Business Intelligence
CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN
98
läuft auf Standard-Hardware von HP. Die-
se war zum Großteil bereits vorhanden
und wird in einem Rechenzentrum von
O2 betrieben. Das System besteht aus 2+1
einzelnen Servern, die zu einem Cluster
zusammen geschlossen werden, in dem
die Daten automatisch verteilt werden,
so dass sich bei Berechnungen sämtli-
che Hardware-Ressourcen optimal nut-
zen lassen. Einer der Rechner wird dabei
als Hot Standby verwendet. Etwa 1/3 des
RAM werden von der EXASolution ver-
wendet, der Rest steht für das Betriebs-
system und Erweiterungen zur Verfügung.
Das System bietet genug Spielraum für
zukünftiges Wachstum und kann jeder-
zeit beliebig um weitere Server vergrößert
werden. Als Frontend nutzt Zalando SAP
Business Objects. Dank der mitgelieferten
Standard-Treiber (ODBC, JDBC) verlief
die Integration in die vorhandene BI-In-
frastruktur und die Anbindung an beste-
hende ETL-Prozesse reibungslos. Da auch
das vorhandene Datenmodell beinahe 1:1
übernommen werden konnte, waren im
Frontend kaum Anpassungen nötig.
Lizenzmodell
Bei EXASolution bezahlt der Kunde nur
das, was er tatsächlich benötigt. Das Li-
zenzmodell beruht auf dem für die Da-
tenbank konfigurierten Hauptspeicher
– unabhängig davon, auf welcher Hard-
ware, mit wie vielen Benutzern auf wie
viele Rohdaten zugegriffen wird. Bei der
Kostenbetrachtung ist in der Regel die
TCO (Total Cost of Ownership) über 3
bzw. 5 Jahre entscheidend, bei der neben
den reinen Anschaffungskosten auch Be-
triebskosten wie Wartungsgebühr und
Administrationsaufwände mit einberech-
net werden.
Resultate
Zalando gewinnt durch die neue Daten-
banklösung mehr Flexibilität. Laut eige-
ner Angabe können seit der Einführung
der neuen Datenbankmanagementlö-
sung selbst komplexe Anfragen schneller
verarbeitet und noch präzisere Analysen
durchgeführt werden. Zudem wird die
Prozessentwicklung vereinfacht. Das Un-
ternehmen profitiert nicht nur von der
drastischen Verkürzung der Abfragezei-
ten sondern auch dadurch, dass einzelne
Fachbereiche wie die Controlling- und die
BI-Abteilung deutlich entlastet werden
und sich verstärkt strategischen Themen
widmen können. Dank der Ad-hoc-Ana-
lysen kann Zalando schneller auf das
Verhalten seiner Kunden reagieren und
dementsprechend zeitnah das Sortiment
und Marketing-Maßnahmen anpassen.
Umsatzströme können auf diese Weise
besser gesteuert und neue Umsatzpoten-
ziale frühzeitig erkannt werden.
Perspektive
Zalando wird weiter an der Konsolidie-
rung der IT-Infrastruktur arbeiten, um
sich für das anzunehmende Datenwachs-
tum zu rüsten. Ziel sind die Reduzierung
von Lizenzkosten sowie die weitere Opti-
mierung der internen Betriebsabläufe.
Competence Book - Business Intelligence
CASE STUDIES - KOSTENERSPARNIS DURCH MICROSOFT BI
99
HERAUSGEBER: Microsoft Deutschland GmbH
W
enn es um Prozessoptimierung bei größeren Organi-
sationen geht, ist Outsourcing fast immer ein Thema.
Viele Unternehmen werden früher oder später Kun-
den der arvato AG. Der Business Process Outsourcing-Dienstleis-
terder Bertelsmann AG verstehtsich darauf, komplexe Geschäfts-
prozesse zu übernehmen und zu optimieren. Ein erfolgreiches
Konzept: arvato beschäftigt weltweit 63.000 Mitarbeiter und
erzielte 2012 einen Umsatz von knapp 4,5 Milliarden Euro. Die
Sparte „arvato Entertainment“ ist auf Lösungen entlang der di-
gitalen Wertschöpfungskette spezialisiert. Das Spektrum reicht
dabei von Digital Copy über Replikation bis zu Fulfilment, As-
set Management und Distribution. Im Geschäftsbereich „Repli-
cation“ werden Tag für Tag mehr als sechs Millionen CDs oder
DVDs produziert, verpackt und verteilt. Ein komplexer Prozess,
der neben Fertigung und Logistik auch das Rechtemanagement
umfasst. Zu den wichtigsten Kunden zählen Software- und Spiel-
ehersteller.
Urheberrechte an Software werden in der Regel durch Echtheits-
zertifikate nachgewiesen. Meist ist das „Certificate of Authentici-
ty (CoA)“ als Etikett auf oder innerhalb der Produktverpackung
zu finden. Jede Lizenznummer kommt nur einmal vor und wird
innerhalb von 24 Stunden dem Softwarehersteller gemeldet. „Al-
lein bei Spielekonsolen reden wir von 20-30 Millionen Lizenzen
pro Jahr. Bei PC-Software ist das Volumen noch höher, aber we-
gen der zunehmenden Verbreitung von Downloads tendenziell
rückläufig“, erklärt Alexander Steinberg, Leiter Global IT Services
 Datenschutzbeauftragter bei arvato Entertainment.
Investieren und Kosten sparen
Lange Zeit nutzte arvato eine Oracle-Datenbank, um die Lizenz-
nummern zu verwalten und an die Produktion zu übermitteln.
Als Ende 2010 eine Modernisierung der in die Jahre gekommenen
Datenbanklösung anstand, nutzte man die Gelegenheit, um auf
Microsoft SQL Server zu wechseln. „Oracle-Datenbanken weisen
Die auf Business Process Outsourcing spezialisierte arvato AG ist Teil der Bertelsmann-
Gruppe. Im Geschäftsfeld arvato Entertainment sind rund 7.000 Mitarbeiter tätig. Der jähr-
liche Umsatz beträgt 300 Millionen Euro. Seit 1995 produziert und verteilt arvato CDs und
DVDs für Software- und Spiele-Hersteller. Lange Zeit wurden die Lizenznummern zu den
Echtheitszertifikaten (Certificate of Authenticity – CoA) mit einer Oracle-Datenbank ver-
waltet. Als für die veraltete Software ein aufwendiges Update anstand, nutzte arvato Enter-
tainment die Gelegenheit für einen Systemwechsel.
Die Lizenz zum
Kosten sparen
Competence Book - Business Intelligence
CASE STUDIES - KOSTENERSPARNIS DURCH MICROSOFT BI
100
Projektes konnte arvato allerdings mit eigenen Ressourcen be-
wältigen. Lediglich für Performance-Verbesserungen forderte das
Unternehmen Unterstützung von Microsoft an. „Die CoA-Da-
tenbank liefert nicht nur die Lizenznummern für den Druck. Im
Verlauf der Produktion werden die Barcodes erneut eingelesen,
um zu prüfen, ob Zertifikate defekt oder doppelt vergeben sind.
Microsoft SQL Server arbeitet also mehrere komplexe Vergleichs-
prozesse parallel ab. Dabei sind wir auf schnelle Antworten ange-
wiesen, um die Durchlaufzeiten kurz zu halten“, betont Alexan-
der Steinberg. Hinzu kommt, dass die CoADatenbanken an den
internationalen Produktionsstandorten permanent abgeglichen
werden müssen. Bei der Umstellung ging arvato Entertainment
auf Nummer sicher: Bevoran einem Standort der Hebel umgelegt
wurde, führte an einer Simulation inklusive Test-Produktion kein
Weg vorbei. Im August 2012 ging die letzte Produktionsstätte ans
Netz. Heute sind weltweit acht Microsoft SQL Server mit rund
150 Clients im Einsatz.
Schnell, sicher und einheitlich
Mit den Projektverlauf ist Alexander Steinberg vollauf zufrieden:
„Dank des sorgfältigen Tunings ist die Performance heute deut-
lich höher. Auf potenzielles Wachstum und Produktionsspitzen
sind wir damit bestens vorbereitet.“ Die Projektrendite wird vor
allem über Einsparungen bei den Betriebskosten erwirtschaftet.
So lässt sich Microsoft SQL Server beispielsweise problemlos in
kostengünstigen Clustern betreiben, was gleichzeitig die Verfüg-
barkeit erhöht. Zudem verbringen die IT-Mitarbeiter dank der
einheitlichen, auf Microsoft-Technologie basierenden Infrastruk-
tur weniger Zeit mit dem Update- und Sicherheitsmanagement.
Mit abnehmender Systemvielfalt ist auch der Schulungsaufwand
der Spezialisten gesunken, die sich jetzt um eine Technologie we-
niger kümmern müssen.
Weitere Referenzen finden Sie hier.
mit Blick auf Wartung, Pflege und Sicherung deutlich höhere Be-
triebskosten auf als Microsoft SQL Server. Wegen des Datenvolu-
mens, des komplexen Lizenzierungs-verfahrens und der hohen
Anforderungen an die Verfügbarkeit war die CoADatenbank der
letzte Monolith in einem von Microsoft-Technologien geprägten
Systemumfeld“, blickt Alexander Steinberg zurück. Mit dem Sys-
temwechsel gelang es, die gesamte IT-Infrastruktur harmonisie-
ren. Das brachte neben technischen Vorteilen – etwa in puncto
Hochverfügbarkeit – auch eine verbesserte Personalplanung:
Know-how und personelle Kapazitäten ließen sich jetzt voll auf
eine Technologie konzentrieren.
Hoher Performance-Bedarf
Der Startschuss für den Systemwechsel fiel im September 2011.
Im ersten Schritt stand die Datenmigration im Fokus: Da Oracle
und Microsoft SQL-Server mit unterschiedlichen Formaten ar-
beiten, waren manuelle Eingriffe unvermeidlich. 99 Prozent des
Über Microsoft:
Microsoft schöpft aus der eigenen Erfahrung als Betreiber
von Big-Data-Plattformen wie Skype, Bing und Xbox. Die
integrierte Plattform von SQL Server und Office vereinfacht
den Einsatz von Business Intelligence und Big Data on-pre-
mise und in der Hybrid Cloud und die intuitive Erstellung
fundierter Prognosen in Echtzeit.
„Mit Microsoft SQL Server haben wir spür-
bare Performance-Verbesserungen erreicht.
Auf potenzielles Wachstum sind
wir bestens vorbereitet.“
- Alexander Steinberg, Leiter Global IT Services  Datenschutzbeauftragter
Competence Book - Business Intelligence
HANSA-FLEX auf dem Weg zum weltweiten Marktführer
IDL GmbH Mitte
Nach der Umwandlung in eine AG wurde es im Rechnungswesen bei HANSA-FLEX spannend: Der
erste Konzernabschluss für 30 beteiligte Gesellschaften musste innerhalb weniger Monate »auf der
grünen Wiese« erstellt werden. Mit der Entscheidung, IDL ins Boot zu holen, lag HANSA-FLEX richtig:
Das ehrgeizige Projekt wurde mit vereinten Kräften termingerecht gestemmt, und Folgeabschlüsse
laufen jetzt mit minimalem Aufwand.
Zur Case-Study
Effektiver Vertrieb mit Mobile BI
Cubeware GmbH
CARLISLE CM Europe
Als Teil der weltweit agierenden CARLISLE Companies Inc. ist die CARLISLE ConstructionMaterials Eu-
rope Gruppe (CARLISLE CM Europe) der Allrounder im Bereich technisch hoch wertige Elastomerpro-
dukte für dauerhafte Dachabdichtungen, Bauwerksabdichtungen und Fassaden. Die Unternehmens-
gruppe hat sich im Jahr 2012 aus der ehemaligen PHOENIX Dichtungstechnik GmbH, der Hertalan
Rubber Products BV und der CARLISLE Hardcast BV gebildet. Im Verbund nutzen die Unternehmen
ihre jahrzehntelange Markterfahrung, um die Herstellung und den Vertrieb hochwertiger Produktlösun-
gen als größter Anbieter von Abdichtungen aus dem Werkstoff EPDM in Europa voranzutreiben.
Zur Case-Study
Centris nutzt Business Intelligence Tool für die detaillierte Service-Ticket-Kontrolle von IT Outsourcing-Lösungen
ORACLE Deutschland B.V.  Co. KG
Centris AG
Für ein Service-Ticket-System eines Drittanbieters, das von einfachen Kennwortzurücksetzungen bis
hin zu kompletten Systemausfällen mehr als 20.000 betriebs- und projektbezogene Service-Tickets
gleichzeitig handhabt, musste Centris eine umfassende Service-Ticket-Reportinglösung implemen-
tieren. Darüber hinaus benötigten die Produktmanager und die Projektleiter des Unternehmens vor-
konfigurierte, dezentralisierte Business-Intelligence-Berichte, die das manuelle Reporting mit Hilfe von
Microsoft Excel oder Access ersetzen sollten.
Zur Case-Study
CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN
101
WeitereCaseStudies
und Produktinformationen unserer Partner
BRANCHENÜBERSICHT
Competence Book - Business Intelligence
Case Studies 
Produktinformationen
Branchenübersicht
86	 Immobilienhandel (Oracle)
	 Immonet optimiert Analytik 	
	 und Entscheidungsfindung 	
	 mit Engineered Systems
88	 Informationstechnologie (Microsoft)
	 Ein direkter Draht zum
	 Kunden dank Microsoft BI
90	 Metallwarenfertigung (IDL)
	 Wanzl harmonisiert 30
	Konzerngesellschaften
92	 Finanzbranche (pmOne)
	 Tagetik geleitet Erste
	 Group optimal durch 		
	 IFRS und FinRep-Vorgaben
96	 eCommerce (EXASOL)
	 Zalando optimiert sein Data 	
	 Warehouse und
	BI-Funktionen
99	 Dienstleistungen (Microsoft)
	 Die Lizenz zum Kosten
	sparen
101	 Diverse Branchen
	 Weitere Case Studies und 	
	Produktinformationen
	 unserer Partner
104	 Literaturverzeichnis
107	 Unternehmensverzeichnis
113	 Expertenverzeichnis
124	 Veranstaltungsverzeichnis
		
127	 Glossar
INHALT
103
Competence Book - Business Intelligence
Big Data für IT-Entscheider: Riesige Datenmengen und moderne Technologien gewinnbringend nutzen
(Pavlo Baron- Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3446433397)
	
Die sehr schnell wachsende und zunehmend unübersichtliche Menge an Geschäftsdaten stellt Unternehmen vor eine Vielzahl von
Problemen hinsichtlich der Erzeugung, Verwaltung und des gewinnbringenden Einsatzes. In diesem Buch werden dazu verschiedene
Anwendungsbeispiele und Szenarien zu „Big Data“ beschrieben und außerdem ein wichtiger Überblick um die Technologien geschaffen
damit Sie einschätzen können, was Sie für ihr Unternehmen brauchen und in welchen Bereichen „Big Data“ zu ihrer Wettbewerbsfähigkeit
beiträgt.
Basiswissen Business Intelligence
(Christoph Engels - W3L - ISBN 978-3937137377)
	
Das Spektrum der Themen rund um Business Intelligence ist besonders vielfältig und reicht von Business Performance Management
über Data Mining und Warehouse über Big Data bis hin zu zur Information Supply Chain. Dieses Buch bietet anhand von zahlreichen
Fallbeispielen einen grundlegenden Einblick in die Themenfelder rund um BI.
BI-SPEKTRUM
(Prof. Dr. Peter Gluchowski (Hrsg.) - SIGS DATACOM GmbH)
	
BI-SPEKTRUM wendet sich an alle für Business Intelligence (BI) und Data Warehousing (DW) in Unternehmen
Verantwortlichen, Softwarehäuser und Berater, die solche Systeme entwickeln und implementieren, genauso wie
Wissenschaftler, die in dieser Disziplin forschen und entwickeln und damit die Basis für neue Praxisanwendungen
liefern. Es informiert seine Leser über alle Trends in diesem Bereich, liefert Anwendungsfälle aus der Praxis (Case
Studies) und präsentiert Meinungen zu aktuellen Themen, sowie Neuigkeiten für die BI-Community.
Ihr Kontakt: Susanne Herl (Susanne.Herl@sigs-datacom.de)
BRANCHENÜBERSICHT - INFORMATIONSQUELLEN
104
Literaturhinweise
Competence Book - Business Intelligence
Business-Szenarien in SharePoint
(Andreas Anschauer, Martin Groblschegg - Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3-446-43551-3)
	
„Microsoft SharePoint kann alles“. Vor dieser Aussage stehen die meisten IT-Entscheider, wenn sie sich nach dem Funktionsumfang
der Plattform erkundigen. Um aber einschätzen zu können, wie sinnvoll der Einsatz von SharePoint-Technologien im eigenen Unter-
nehmen ist, bedarf es einer objektiven Sicht auf die entscheidenden Faktoren, die vom Leistungsportfolio der Software über mögliche
Einsatzszenarien im Unternehmen bis zum Return on Investment reichen. Die dafür notwendigen Grundlagen liefert dieses Buch.
Data Warehousing mit Oracle
(Claus Jordan, Dani Schnider, Jaochim Wehner, Peter Welker - Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3-446-42562-0)
	
Um Business Intelligence erfolgreich betreiben zu können, muss eine solide Data-Warehouse-Architektur als Basis vorhanden sein.
Skalierbarkeit, Performance und Integration sind dabei die wichtigsten Erfolgsfaktoren - und hier hat Oracle einiges zu bieten. Dieses
Buch gibt einen Überblick über eine typische Data-Warehouse-Architektur und zeigt anhand von zahlreichen Beispielen auf, wie die
einzelnen Komponenten eines Data Warehouses mithilfe von Oracle-Technologie realisiert und betrieben werden können.
Business Intelligence mit Microsoft SQL Server 2008
(Holger Schrödl - Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3-446-41210-1)
	
Holger Schrödl liefert mit seinem Buch allgemeine Grundlagen für BI-Projekte, beschreibt die BI-Komponenten des MS SQL Server
2008, zeigt Szenarien der unterschiedlichen BI-Methodiken anhand realistischer Fallbeispiele und skizziert einen exemplarischen
Projektleitfaden, mit dem sich speziell BI-Projekte aufsetzen lassen.
Business Intelligence - Grundlagen und praktische Anwendungen: Eine Einführung in die IT-basierte Managementunterstützung
(Hans-Georg Kemper, Henning Baars, Walid Mehanna - Vieweg+Teubner Verlag - ISBN 978-3834807199)
	
Eine fundierte und praxisorientierte Einführung in die IT-basierte Managementunterstützung. Business Intelligence umfasst mehr als
den Bereich Data Warehousing. Ziel ist die Realisierung eines Gesamtkonzeptes. Charakteristika sind eine konsistente, harmonisierte
Datenhaltung, eine hohe Integrationsdichte der Analysesysteme und die Einbindung betriebswirtschaftlich anspruchsvoller Auswer-
tungskonzepte. In dem Buch werden eine Business-Intelligence-Architektur sowie ein Vorgehensmodell zur Entwicklung integrierter
BI-Anwendungssysteme entworfen und anhand von aussagekräftigen Praxisbeispielen ausführlich illustriert.
Business Intelligence
(Iron Werther - Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3-446-43580-3)
	
Am Beispiel eines Online-Shops mit Mode- und Bekleidungsartikeln zeigt Ihnen dieses Übungs- und Nachschlagewerk, wie Sie
komplexe T-SQL-Abfragen erstellen, um Daten analysieren und umfassende KPI-Reports sowie analytisches CRM aufbauen zu kön-
nen. Die Datenbank der Wahl ist hier der SQL-Server 2012. Auf Basis dieser Daten lernen Sie Schritt für Schritt und anhand vieler
Beispiele, wie Sie Kundendaten analysieren, einen Kundenmonitor erstellen, Retourenquoten ermitteln, Warenkorbdaten auswerten,
Zahlungsinformationen analysieren und schließlich eine Zielgruppe für den Newsletter-Versand selektieren.
BRANCHENÜBERSICHT - INFORMATIONSQUELLEN
105
Competence Book - Business Intelligence
Raus aus der BI-Falle: Wie Business Intelligence zum Erfolg wird
(Ronald Bachmann, Dr. Guido Kemper - mitp - ISBN 978-3826691065)
	
Anstatt Business Intelligence auf die reine Technik dahinter zu reduzieren, steht in diesem Werk der Mensch im Mittelpunkt, der bei
Prozessen bei seiner Entscheidungsfindung durch optimierte IT-Systeme unterstützt wird im Mittelpunkt. Dabei werden neben den
Schritten zur Umsetzung von BI auch strukturelle Risiken und Zielkonflikte auf Projektebene erörtert.
Von der Strategie zum Business Intelligence Competency Center (BICC): Konzeption - Betrieb - Praxis
(Tom Gansor, Andreas Totok, Steffen Stock - Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3446421332)
	
Business Intelligence ist die vollständige Versorgung mit relevanten Informationen an den richtigen Stellen im Unternehmen. Allerdings
gibt es in der Praxis immer noch Probleme, die richtige Strategie für die Umsetzung von BI im Unternehmen zu finden, oft mangelt es
an der richtigen Organisation. Tom Gansor, Dr. Andreas Totok und Dr. Steffen Stock beschreiben in diesem Buch verschiedene praxis-
bezogene Lösungsansätze zur Entwicklung einer BI-Strategie und Einführung eines Business Intelligence Competency Centers.
Management Support Systeme und Business Intelligence. Computergestützte Informationssysteme für Fach- und Führungskräfte
(Peter Gluchowksi, Roland Gabriel, Carsten Dittmar - Springer - ISBN 978-3540235439)
	
Seit mehr als dreissig Jahren werden Anstrengungen unternommen, um eine bessere Unterstützung betrieblicher Fach- und Führungs-
kräfte bei der Bewältigung ihrer dispositiven Arbeiten mit computergestützten Informationssystemen zu erreichen. Das Buch greift die
unterschiedlichen, in der betrieblichen Praxis bewährten System- und Konzeptkategorien auf und ordnet diese historisch, funktional
und architektonisch ein. Im Vordergrund stehen dabei die aktuellen technologischen Strömungen im Business Intelligence-Umfeld, wel-
che sich in Data Warehouse-Architekturkonzepten, On-Line Analytical Processing-Lösungen und Data Mining-Systemen manifestieren.
Open Source Business Intelligence
(Uwe Haneke, Stephan Trahasch, Tobias Hagen, Tobias Lauer - Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3-446-42396-1)
	
Dieses Buch liefert erstmals einen umfassenden Überblick über das gesamte Themenspektrum von Open Source Business Intelli-
gence. Es erläutert die wesentlichen Konzepte, behandelt Einführungsstrategien ebenso wie Kostenaspekte und wirft einen Blick auf
künftige Trends. Unterschiedlichen Geschäftsmodelle der Anbieter und die Abgrenzung zwischen Open Source und Commercial Open
Source werden aus Anwendersicht analysiert und verglichen. Die Autoren sind führende Experten aus Wissenschaft und Praxis im
Gebiet der Business Intelligence.
Datenqualität erfolgreich steuern
(Detlef Apel, Wolfgang Behme, Rüdiger Eberlein, Christian Merighi - Carl Hanser Verlag GmbH  Co. KG - ISBN 978-3-446-42501-9)
	
Dieses Buch zeigt anhand praktischer Beispiele, wie Sie die Qualität Ihrer Daten erfolgreich und zielgerichtet verbessern können. Analy-
sieren Sie die Ursachen und Auswirkungen schlechter Datenqualität und erfahren Sie, welche Investitionen sich lohnen. Die Grundlagen
des Datenqualitätsmanagements, die technische Umsetzung mit passgenauen Werkzeugen und die praktische Umsetzung in einem
kompletten Zyklus eines BI-Projekts bilden den umfassenden Leitfaden für Ihr erfolgreiches Datenqualitätsmanagement.
BRANCHENÜBERSICHT - INFORMATIONSQUELLEN
106
Competence Book - Business Intelligence
Unternehmen
BIPortal GmbH
www.bi-portal.com
Tel.: 040 - 507 1948 1
Ihr Kontakt: Thorsten Lüdtke
Luedtke@bi-portal.com
BIPortals Team besitzt tiefgreifende technische Kenntnisse der Archi-
tektur sowie des Einsatzes der gesamten SAP® NetWeaver-BI-Platt-
form. Ihre spezifische Kompetenz im Enterprise Data Warehousing
(EDW) erweitern sie seit 2012 um das ‚Big Data Warehousing‘
(BDW) in Bezug auf Entwurfsabwägungen für großformatige Da-
tawarehouse-Einsätze in den Bereichen BI, Analytik und prädiktive
Modellierung.
BARC GmbH
www.barc.de
Tel.: 0931 / 880 - 651 - 0
Ihr Kontakt: Patrick Keller
Pkeller@barc.de
Die BARC GmbH ist auf die Anforderungsanalyse, Strategiedefinition
sowie Technologie- und Produktauswahl in den Anwendungsgebie-
ten Business Intelligence, Datenmanagement, Enterprise Content
Management, CRM und ERP spezialisiert. Über 1500 große und
mittelständische Unternehmen wurden bislang betreut. Zudem bietet
BARC fundierte Markt- und Technologiestudien sowie Tagungen und
Seminare.
Blue Yonder GmbH
www.blue-yonder.de
Dunja Riehemann
Tel.: +49 (0)721 383 117 0
Dunja.Riehemann@blue-yonder.de
Ihr Unternehmen
www.ihrunternehmen.com
Tel.: +49 221 716144-20
Ihr Kontakt: Filipe Felix
f.felix@netskill.de
BRANCHENÜBERSICHT - UNTERNEHMEN
107
Competence Book - Business Intelligence
Braincourt
www.braincourt.com
Tel.: 0711/75858094-0
Ihr Kontakt: Günter Hauser
Guenter.Hauser@braincourt.com
Das Beratungsunternehmen Braincourt ist seit dem Jahr 2000 spe-
zialisiert auf die Konzeption und Umsetzung von Controllingsystemen
zur Unternehmenssteuerung sowie auf die Planung und Steuerung
von Projekten im Bereich IT und Organisationsentwicklung. Kun-
denorientierte Lösungen, individuelle Beratung und die erfolgreiche
Umsetzung nachhaltiger Lösungen gehören zu den Grundsätzen
von Braincourt. Durch unser fachliches und technisches Know-how
sind wir sowohl für Fach- als auch für IT-Abteilungen ein gefragter
Ansprechpartner. Die Kunden von Braincourt kommen aus den ver-
schiedensten Branchen, wie Automotive, Chemie, Dienstleistungen,
Energie, Holzverarbeitung, Fertigungsindustrie, Getränke, Maschinen-
bau, Pharma, Telekommunikation oder Finanzen.
Böcker Ziemen Management Consultants GmbH  Co
www.boecker-ziemen.de
Tel.: 0228 / 972799-15
Ihr Kontakt: Maren Hawerkamp
Hawerkamp@boecker-ziemen.de
Wir beraten Unternehmen, die von einer hohen Markt- und Techno-
logiedynamik gefordert sind. Hierbei konzentrieren wir uns auf die
Beratungsfelder Strategie, Innovation und Marketing.
Diese Fokussierung verbunden mit unserer Industriekompetenz und
Erfahrung setzen wir ein für mehr Kundennutzen.
COSMO CONSULT BI GmbH
www..cosmoconsult.com
Jürgen Klein
Tel.: +49 931 304 18 40 - 0
Juergen.Klein@cosmoconsult.
com
Comma Soft AG
www.comma-soft.de
Anja Hoffmann
Tel.: 0228 / 9770 - 159
info@comma-soft.com
BRANCHENÜBERSICHT - UNTERNEHMEN
108
Competence Book - Business Intelligence
EXASOL AG
www.exasol.com
Tel.: +49 911.23 99 1 260
Ihr Kontakt: Alexandra Bellanova
alexandra.bellanova@exasol.com
Die EXASOL AG ist führender Hersteller von analytischen Daten-
banksystemen. Ihre skalierbare Software „Made In Germany“ findet
Einsatz in den Bereichen Data Business, Customer Analytics, Ope-
rational BI, Advanced Analytics und Data Warehousing. Mit ihren
Appliance- und Cloud-Lösungen können die Kunden der EXASOL
AG optimale Entscheidungen treffen und einen maßgeblichen Wett-
bewerbsvorteil gewinnen. Das Unternehmen wurde im Jahr 2000 in
Nürnberg gegründet und besitzt drei Niederlassungen in Brasilien,
Israel und im Vereinigten Königreich. Kunden auf der ganzen Welt
setzen auf die Technologien der EXASOL AG. Dazu gehören Unter-
nehmen wie Cacau Show, King, XING, Sony Music, Olympus, media
control, Zalando, IMS Health und Webtrekk.
cundus AG
www.cundus.com
Tel.: 0203 3175 - 124
Ihr Kontakt: Michael Bertels
michael.bertels@cundus.de
cundus zählt zu den größten auf BI-spezialisierten Lösungsanbietern
im deutschen Markt. Wir bieten unseren Kunden bedarfsgerechte
Lösungen für Business Intelligence, Corporate Performance Manage-
ment, Reporting und XBRL. Als ganzheitlicher Lösungsanbieter berät
cundus entlang des gesamten BI Lifecycles – von der Strategie und
Konzeption über die Implementierung bis zum Betrieb.
Cubeware GmbH
de.cubeware.com
Tel.: 08031/406601207
Ihr Kontakt: Rabea Veutgen
Rabea.Veutgen@cubeware.com
Die Cubeware GmbH mit Sitz in Rosenheim und elf weiteren Nie-
derlassungen ist einer der führenden Anbieter von Business-Intel-
ligence-Software mit Fokus auf Lösungen für den Mittelstand und
Fachabteilungen großer Unternehmen. Cubeware bietet ein innovati-
ves, branchenunabhängiges Komplett-Portfolio für BI-Lösungen, be-
stehend aus dem Cubeware Cockpit V6pro (Frontend), dem Cube-
ware Importer (ETL und BI-Datenintegration), Cubeware Connectivity
for SAP® Solutions und dem Cubeware Teamserver (Organisation
und Kollaboration).
Cubeware arbeitet weltweit mit über 60 Partnern und zertifizierten
Beratern zusammen.
BRANCHENÜBERSICHT - UNTERNEHMEN
109
Competence Book - Business Intelligence
IDL-Unternehmensgruppe
www.idl.eu
Tel.: 06082/9214-0
Ihr Kontakt: Monika Düsterhöft
monika.duesterhoeft@idl.eu
IDL ist spezialisiert auf fachliche Beratung und Entwicklung von
Sowarelösungen für ganzheitliches Business Performance Manage-
ment. Die Stärken liegen in der fachlichen, betriebswirtschaftlichen,
methodischen und technischen Kompetenz. Kombiniert mit leis-
tungsstarker Software und erstklassigem Service entstehen flexible
Lösungen, die Kunden einen ganzheitlichen, zukunftsorientierten und
nachhaltigen Nutzen verschaffen.
o Konzern-Controlling	 o Management Reports
o operatives Controlling	 o Berichtswesen
o Finanzplanung		 o Mobile BI	
o Bereichsplanung		 o Konsolidierung		
o Integrierte Planung	 o E-Bilanz
o Liquiditätsmanagement	 o Kommunale Lösungen
Horváth  Partners GmbH
www.horvath-partners.com
Tel.: 0711 / 66919-0
Ihr Kontakt: Walid Mehanna
WMehanna@horvath-partners.com
Horváth  Partners ist eine international tätige, unabhängige Ma-
nagementberatung mit über 500 hochqualifizierten Mitarbeiterinnen
und Mitarbeitern. Unsere Mitgliedschaft im internationalen Bera-
tungsnetzwerk „Cordence Worldwide“ verstärkt unsere Fähigkeit,
Beratungsprojekte in wichtigen Wirtschaftsregionen der Welt mit
höchster fachlicher Expertise und genauer Kenntnis der lokalen Ge-
gebenheiten durchzuführen.
KUMAVISION AG
www.kumavision.com
Armin Schneider-Lenhof
Tel.: 0711 / 16069 - 42
Armin.schneider-lenhof@kumavision.de
BRANCHENÜBERSICHT - UNTERNEHMENSVERZEICHNIS
110
Competence Book - Business Intelligence
ORACLE Deutschland B.V.  Co. KG
www.oracle.com/de
Tel.: 040/89091302
Ihr Kontakt: Ute Braun
ute.braun@oracle.com
Oracle entwickelt Hardware und Software, die für den Einsatz in der
Cloud und im Rechenzentrum optimal aufeinander abgestimmt sind.
380.000 Kunden jeder Größe und Branche setzen in 145 Ländern
der Welt Produkte und Lösungen von Oracle ein. Im Fiskaljahr 2013,
das zum 31. Mai 2013 endete, erzielte Oracle weltweit einen Umsatz
von 37,2 Milliarden US-Dollar. Oracle beschäftigt weltweit 108.000
Mitarbeiter, darunter 32.000 Entwickler, 18.000 Support-Mitarbeiter
und 17.000 Consulting-Experten.
Die ORACLE Deutschland B.V.  Co. KG hat ihren Hauptsitz in Mün-
chen, Managing Director ist Jürgen Kunz.
MID GmbH
www.mid.de
Tel.: 0911/968360
Ihr Kontakt: Bertram Geck
info@mid.de
Als Ihr kompetenter Partner für die Modellierung von Geschäftspro-
zessen, Software und Datenbanken helfen wir Ihnen mit Werkzeuglö-
sungen und Beratung aus einer Hand, Ihre IT-Projekte schneller,
besser und effizienter durchzuführen.
Wir möchten Ihnen mit dem Innovator Werkzeuge an die Hand ge-
ben, mit denen Sie Zusammenhänge sichtbar machen können und
das Wissen der Prozessbeteiligten zusammentragen und übersicht-
lich gestalten können.
Microsoft Deutschland GmbH
www.microsoft.com/de-de/
Tel.: +49 89 3176-6018
Ihr Kontakt: Daniel Weinmann
Dweinm@microsoft.com
Microsoft schöpft aus der eigenen Erfahrung als Betreiber von
Big-Data-Plattformen wie Skype, Bing und Xbox. Die integrierte
Plattform von SQL Server und Office vereinfacht den Einsatz von
Business Intelligence und Big Data on-premise und in der Hybrid
Cloud und die intuitive Erstellung fundierter Prognosen in Echtzeit.
BRANCHENÜBERSICHT - UNTERNEHMENSVERZEICHNIS
111
Competence Book - Business Intelligence
pmOne AG
www.pmone.com
Tel.: 089 / 4161761 - 0
Ihr Kontakt: Tim Erben
Kontakt@pmone.com
Die 2007 gegründete pmOne AG ist ein Software- und Beratungs-
unternehmen mit Lösungsangeboten zum Thema Business Intelli-
gence und Big Data. Dafür werden die technologischen Plattformen
von Microsoft und SAP um die eigenentwickelte Software cMORE
ergänzt. cMORE hilft Anwendern unter anderem dabei, skalierbare
Lösungen für Reporting und Analyse schnell aufzubauen, effizient zu
betreiben und zu erweitern. Mit Tagetik vertreibt und implementiert
die pmOne AG eine weltweit führende Softwarelösung für Unterneh-
mensplanung und Konsolidierung. Zur pmOne-Gruppe gehört die
MindBusiness GmbH, die auf SharePoint-Lösungen und Dienstleis-
tungen für Office-Rollouts spezialisiert ist. Die pmOne AG hat über
200 Mitarbeiter und ist an acht Standorten in Deutschland, Öster-
reich und der Schweiz vertreten.
prisma informatik GmbH
www.prisma-informatik.de
Stephan Calota
Tel.: 0911 / 23980550
S.calota@prisma-informatik.de
TDWI Germany e.V.
www.tdwi.eu
Tel.: 02241 / 2341 - 212
Ihr Kontakt: Simone Kohlhaas
Simone.Kohlhaas@tdwi.eu
Der TDWI Verein hat sich in den vergangenen Jahren zur zentra-
len Plattform für BI und DWH entwickelt. Wir bieten praxisorientierte,
herstellerneutrale Konferenzen und Seminare an, Online-Foren und
eine Wissensdatenbank sowie die Fachzeitschrift BI-SPEKTRUM und
eine Fachbuchreihe. Unsere TDWI Roundtables bieten darüber hin-
aus Interessierten eine Plattform, in der Gedanken und Ideen im Data
Warehouse- und BI-Umfeld dargelegt und diskutiert werden können.
QlikTech GmbH
www.qlikview.com/de
Alexander Klaus
Tel.: 0211 / 58688 - 0
infode@qliktech.com
Tagetik Software Srl
www.tagetik.de
Tim Erben
Tel.: +49 89 41617610
kontakt@pmone.com
Ihr Unternehmen
www.ihrunternehmen.com
Tel.: +49 221 716144-20
Ihr Kontakt: Filipe Felix
f.felix@netskill.de
BRANCHENÜBERSICHT - UNTERNEHMENSVERZEICHNIS
112
Competence Book - Business Intelligence
Bange, Carsten (Dr.)
c.bange@competence-site.de
CEO
Business Application Research Center
BARC GmbH
Dr. Carsten Bange ist geschäftsführender Gesellschafter des Business
Application Research Centers (BARC). Er ist seit mehr als zehn Jahren
für nationale und internationale Unternehmen verschiedenster Branchen
und Größen im Rahmen der Strategie- und Architekturberatung, Werk-
zeugauswahl und Qualitätssicherung in Business-Intelligence- und Daten-
management-Projekten tätig.
Experten
Braun, Ute
Senior Account Manager BI Broad Market
ORACLE Deutschland BV  Co. KG
Ute Braun ist als Senior Account Manger im Broad Market für BI und
Analytics zuständig.
Ihre Karriere bei Oracle begann sie im Jahre 1999 und hat seither meh-
rere Positionen im Channel und im Direktvertrieb bekleidet. Sie wechselte
in 2002 in die Verantwortung des Regionalmanagers Nord. Danach baute
sie mehrere Partnercommunities für die Produktbereiche Collaboration
Suite, Fusion Middleware und dann Business Intelligence/Analytics auf.
Seit September 2012 ist sie für BI und Analytics für den Broad Market im
Norden verantwortlich
Bader, Birgit
Senior Account Manager
ORACLE Deutschland BV  Co. KG
Birgit Bader arbeitet seit 2010 als Senior Account Manager im Bereich Bu-
siness Analytics. Ihre Kunden sind Strategische Accounts in den Industrien
TravelTransportation und Retail.Zudem ist Birgit Bader LeadAccount Mana-
gerin für einen Key Account im Bereich Life Science.
Ihre Karriere bei Oracle begann sie im Jahre 1997 und hat seither meh-
rere Positionen im nationalen und internationalen Presales- sowie Ver-
triebsumfeld bekleidet.
BRANCHENÜBERSICHT - EXPERTEN
113
Competence Book - Business Intelligence
Michael Bruns
Managing Consultant
cundus AG
Burmester, Lars (Dr.)
Senior Project Manager
Horváth  Partners GmbH
Erben, Tim
Senior Manager Corporate Marketing
pmOne AG
Seit Oktober 2009 arbeitet Tim Erben als Senior Manager Corporate
Marketing für die pmOne AG, einem führenden Unternehmen im Markt
für Business Intelligence. Das Lösungsangebot für Kunden besteht aus
drei Säulen: Data Warehouse, Anwendungen für Performance Manage-
ment sowie Reporting  Information Design.
Ditze, Andreas
Geschäftsführer
MID GmbH
Andreas Ditze ist innerhalb der Geschäftsführung der MID für den Be-
reich Produktmanagement verantwortlich. Darüber hinaus gehört auch
die MID-Akademie zu seinem Verantwortungsbereich. Er studierte an der
Georg-Simon-Ohm-Fachhochschule Nürnberg und kam nach einer sie-
benjährigen Tätigkeit als Softwareentwickler und Projektleiter Ende 1997
zur MID.
Seit Anfang 2010 arbeitet Michael Bruns als Managing Consultant bei
der cundus AG in Duisburg. Als Leiter des Competence Centers BI-Ap-
plications ist er mit der Konzeption und Implementierung von Business
Intelligence Architekturen betraut.
Er verfügt über mehr als 10-jährige, branchenübergreifende Projekter-
fahrung bei der Umsetzung dieser Konzepte mit Microsoft Technologien.
Dr. Lars Burmester studierte und promovierte an der Philipps-Universi-
tät Marburg und arbeitete parallel in einem Projekt zum Controlling von
Hochschulen.
Seit 2012 ist er bei Horvath  Partners im Kompetenzfeld Business In-
telligence aktiv, nachdem er zuvor drei Jahre als Senior Berater bei der
cundus AG tätig war. Herr Dr. Burmester berät Unternehmen - vom Mit-
telständler bis zum Großkonzern - in allen Fragestellungen der Business
Intelligence und des Data Warehousing.
BRANCHENÜBERSICHT - EXPERTEN
114
Competence Book - Business Intelligence
Geck, Bertram
Geschäftsführer
MID GmbH
Bertram Geck trägt seit 1. Januar 2013 als Sprecher der Geschäftsfüh-
rung die Gesamtverantwortung für die Weiterentwicklung der MID GmbH.
Er leitet dabei die Bereiche Marketing und Vertrieb.
Als Gründer, Geschäftsführer und Berater in der IT- und Software-Branche
trug Bertram Geck sowohl in Deutschland als auch weltweit Verantwor-
tung, unter anderem in DAX-notierten Unternehmen.
Frühwacht, Harald
Geschäftsführender Gesellschafter
Mitglied der Geschäftsleitung
IDL GmbH Mitte
Harald Frühwacht ist seit 2006 geschäftsführender Gesellschafter der
IDL GmbH Mitte. Bereits 1991 startete er hier seine Karriere als
betriebswirtschaftlicher Berater, er realisierte verschiedenste Konsolidie-
rungsprojekte und leitete die fachliche Ent- und Weiterentwicklung der
Konsolidierungssoftware IDLKONSIS. Ein weiterer Schwerpunkt
seiner Tätigkeit liegt heute auf finanzwirtschaftlichen Lösungen für den
kommunlaen Bereich.
Felix, Filipe
Bereichsleiter IT  Finanzen
Projektleiter Competence Book BI
Netskill AG
Filipe Felix ist seit Juni 2011 bei der NetSkill AG / Competence Site
tätig und seit Januar 2012 Bereichsleiter für die Bereiche IT, Finanzen 
Versicherungen.
Ein weiterer Schwerpunkt seiner Tätigkeiten liegt in der Projektleitung
der Competence Books zu den Themen BPM, BI, ERP, ECM, Microsoft,
Oracle, SAP.
Felser, Winfried (Dr.)
CEO
Netskill AG
Dr. Winfried Felser ist seit 2000 Gründer und Vorstand der NetSkill AG
bzw. der Competence Site, einem Kompetenz-Netzwerk mitmehreren
Tausend Experten aus Wissenschaft und Praxis zu den Themenbereich
Management, IT und Technik. Er ist zudem Herausgeber des Competen-
ce Reports und der jährlich erscheinenden Competence Books zu aktu-
ellen Themen wie BPM, MES, CRM, Business Intelligence, Industrie 4.0,
Enterprise 2.0 und Intralogistik.
BRANCHENÜBERSICHT - EXPERTEN
115
Competence Book - Business Intelligence
Hagen, Tilman
Senior BI Consultant
Braincourt GmbH
Tilman Hagen ist Senior BI Consultant und Leiter des Competence Center
„Neue Technologien“ bei der Braincourt GmbH sowie „Hichert Certified
Consultant (HCC)“. Sein Studium der Wirtschaftsinformatik absolvierte er
an der Hochschule der Medien in Stuttgart.
Seine Themenschwerpunkte sind Controlling und Reporting, die (Exter-
ne) Berichterstattung, als auch die Unternehmensplanung. Technologi-
scher Fokus liegt dabei auf den Technologien SAP BW und SAP BPC.
Gluchowski, Peter (Prof. Dr.)
Vereinsvorsitzender
TDWI Germany e.V.
Prof. Dr. Peter Gluchowski leitet den Lehrstuhl für Wirtschaftsinformatik,
insb. Systementwicklung und Anwendungssysteme, an der Technischen
Universität in Chemnitz und konzentriert sich dort mit seinen Forschungs-
aktivitäten auf das Themengebiet Business Intelligence.
Er beschäftigt sich seit rund 20 Jahren mit Fragestellungen, die den
praktischen Aufbau dispositiver bzw. analytischer Systeme zur Entschei-
dungsunterstützung betreffen. Seine Erfahrungen aus unterschiedlichsten
Praxisprojekten sind in zahlreichen Veröffentlichungen zu diesem The-
menkreis dokumentiert.
Hartung, Michael
Leiter Business Development
pmOne AG
Michael Hartung arbeitet in seiner Tätigkeit als Leiter Business Develop-
ment der pmOne AG an der strategischen Schnittstelle zwischen den
Kunden und dem Lösungsangebot für Data Warehousing, Performance
Management und Information Design. Er orientiert sich am Leitmotiv: „Wir
entwickeln nur, was der Markt wirklich braucht.“
In führenden Positionen bei der MIS AG (heute Infor) und bei Bissantz 
Company hat er sich in den vergangenen Jahren einen Namen auf dem
Markt für Business-Intelligence-Lösungen gemacht.
Hein, Christoph
Product Marketing Manager
Cubeware GmbH
Christoph Hein studierte Geschichte, Politik und Betriebswirtschaft in
Marburg. Anschließend arbeitete er mehrere Jahre als IT-Berater für die
Cubeware GmbH. Derzeit ist er Product Marketing Manager und verant-
wortet unter anderem den Bereich Mobile BI bei Cubeware.
BRANCHENÜBERSICHT - EXPERTEN
116
Competence Book - Business Intelligence
Keil, Thomas (Dr.)
Program Marketing
Manager Business Analytics
SAS Institute GmbH
Dr. Thomas Keil ist Spezialist für Big Data, Information Management
und Business Analytics. Neben seiner Tätigkeit als Marketingmanager
für Business Analytics bei SAS engagiert er sich als Vorstandsmitglied
im Arbeitskreis Big Data des BITKOM. Er vertritt seine Themen sowohl
im TDWI als auch im Rahmen der KSFE.
Dr. Thomas Keil kam 2011 zu SAS. Davor war er acht Jahre für den
Softwarehersteller zetVisions tätig, zuletzt als Head of Marketing sowie
Head of Channel Sales.
Klar, Alexander
Senior Systemberater
ORACLE Deutschland B.V  Co. KG
Alexander Klar ist Senior Systemberater mit dem Schwerpunkt Business
Intelligence, Datenbanktechnologien und Datenintegration.
Bevor Alexander Klar 2010 zu Oracle kam, war er mehrere Jahre als
Berater  Entwickler im BI- und Data Warehouseumfeld tätig.
Kampffmeyer, Ulrich (Dr.)
Geschäftsführer
PROJECT CONSULT
Unternehmensberatung GmbH
Dr. Ulrich Kampffmeyer, Jahrgang 1952, ist Gründer und Geschäftsführer
der PROJECT CONSULT Unternehmensberatung GmbH, Hamburg.
Vor seiner Tätigkeit als Geschäftsführer von PROJECT CONSULT war Dr.
Kampffmeyer an mehreren Universitäten, Forschungsinstituten sowie für
DMS-Anbieter und Consulting-Unternehmen tätig.
Hombach, Ralf
Head of Business Unit BI Solutions
cundus AG
Herr Ralf Hombach verantwortet den Bereich der kundenindividuellen BI
Lösungen auf Basis der Microsoft BI Plattform.
Er verfügt über mehr als 20 Jahre Erfahrung in der Business Intelligence
und war über ein Jahrzehnt für die globale BI Strategie und die unterneh-
mensweite Integration in einem internationalen chemisch-pharmazeuti-
schen Konzern auf Basis SAP BI verantwortlich.
BRANCHENÜBERSICHT - EXPERTEN
117
Competence Book - Business Intelligence
Klenk, Sebastian (Dr.)
Product Manager
EXASOL AG
Dr. Sebastian Klenk ist seit Anfang 2013 als Product Manager bei der
EXASOL AG tätig. Für den Datenbankspezialisten wird Klenk insbeson-
dere die Entwicklung neuer Produkte weiter vorantreiben. Klenk studier-
te Informatik an der Universität Stuttgart. Während seiner Diplomarbeit
und anschließend als wissenschaftlicher Mitarbeiter entwickelte der Data
Mining-Spezialist wegweisende Software für Ärzte und Medizinische
Dokumentare. Er promovierte am Institut für Visualisierung und Interak-
tive Systeme zum Thema „Kompressionsbasierte Mustererkennung“ und
war in seiner letzten beruflichen Station als Software Engineer bei Sony
Deutschland tätig.
Lix, Barbara
Mitglied des Vorstands
cundus AG
Barbara Lix ist seit Januar 2008 Vorstand der cundus AG. Sie verantwor-
tet weltweit den Geschäftsbereich „Regulatory Reporting and Regulatory
Business Intelligence“ sowie die ausländischen Tochtergesellschaften (USA,
Kanada, UK, Schweiz) und das Ressort Marketing.
Bis Ende 2010 leitete sie den Vertrieb von cundus Deutschland und den
Entwicklungsbereich für Standard-Software, der im Dezember 2010 von
der SAP mit den Produkten „SAP Disclosure Management“ und „SAP
Notes Management“ übernommen wurde.
Martens, Thomas
Vice President Product Marketing
Cubeware GmbH
Thomas Martens blickt auf 17 Jahre Erfahrung im Business-Intelligen-
ce-/ Data-Warehouse-Umfeld zurück. Bei Cubeware verantwortet er den
Bereich Product Marketing.
Sein besonderes Interesse gilt dabei der Visualisierung von Daten, der In-
tegration von analytischen Methoden in Business-Intelligence-Lösungen
und der Verarbeitung von großen Datenmengen.
Lüdtke, Thorsten
SAP BI Architekt
BIPortal GmbH
Thorsten Lüdtke begann 1997 mit der Entwicklung von Anwendungen
für ‚Business Intelligence‘ und präsentierte das BI-Konzept bei zahlrei-
chen Konferenzen zum Thema ‚Decision Support Systeme‘ (DSS). 1999
konstruierte er die ersten RapidMarts® überhaupt (heute SAP Busines-
sObjects, SBO).
2006 startete er ein Joint-Venture mit Bill Inmon als Beiratsmitglied und
präsentierte die Ergebnisse (BI Master Data Management) auf der SAP-
PHIRE 2007-Konferenz in Wien. Hieraus ging die Firma BIPortal hervor.
BRANCHENÜBERSICHT - EXPERTEN
118
Competence Book - Business Intelligence
Müller, Michael
Principal Consultant
MID GmbH
Mehanna, Walid
Principal Business Intelligence
Horváth  Partners GmbH
Navrade, Frank (Dr.)
Head of Business Unit BI Strategy
cundus AG
Frank Navrade bewegt sich nach seinem Studium der Betriebswirtschaft
seit mehr als 10 Jahren in der BI Branche. Seine Promotion absolvierte
er zum Thema „Strategische Planung mit Data-Warehouse-Systemen“. Er
hat sich im Rahmen seiner Laufbahn auf die Beratung in den frühen Pha-
sen eines BI Vorhabens und auf die BI Bebauungsplanung spezialisiert.
Seit 2012 verantwortet er den Bereich „BI Strategie und Management,
nachdem er sechs Jahre in der BI Strategieberatung, im BI Projektma-
nagement und im BI Requirements Engineering tätig war.
Michael Müller, Dipl. Inf. (FH), ist Principal Consutant bei der MID GmbH.
Nach sieben Jahren als Softwareentwickler im Bereich Adressmanage-
ment und Database Marketing kam er Ende 2001 zu MID. Sein Schwer-
punkt liegt im Bereich Business Intelligence und Data Warehousing.
Dipl.-Inform. Walid Mehanna berät bei Horváth  Partners seit mehr als
zehn Jahren namhafte Unternehmen und ist heute Principal Business In-
telligence im Competence Center Controlling  Finanzen. Herr Mehanna
ist Autor zahlreicher Fachbeiträge in Büchern und Zeitschriften und regel-
mäßiger Referent an der Universität Stuttgart.
Martin, Wolfgang (Dr.)
Analyst
S.A.R.L. Martin - Wolfgang Martin Team
Vor der Gründung des Wolfgang MARTIN Teams war Dr. Martin 5 ½ Jahre
lang bei der META Group, zuletzt als Senior Vice President International
Application Delivery Strategies. Dr. Martin promovierte und habilitierte an
der Universität Bonn in angewandter Mathematik.
BRANCHENÜBERSICHT - EXPERTEN
119
Competence Book - Business Intelligence
Reichen, Nico
Head of Business Unit
BI-Consulting / Products of the SAP AG
cundus AG
Nico Reichen verantwortet Business Unit SAP Consulting bei der cun-
dus AG. Seine Karriere bei den Duisburger BI Spezialisten startete Herr
Reichen im Jahre 2002 und blickt inzwischen auf über 10 Jahre Erfah-
rung in der Konzeption und Implementierung von kundenindividuellen BI
Lösungen auf Basis von SAP Technologie in diversen Branchen zurück.
Neisius, Peter
Vorstandsvorsitzender
cundus AG
Als Chairman of Executive Board der cundus AG ist Peter Neisius unter
anderem verantwortlich für den Bereich Personal sowie für das Consulting
Business. Seinen beruflichen Werdegang begann Peter Neisius nach dem
Studium der Mathematik 1982 im technischen Bereich eines Chemieun-
ternehmens. Im Anschluss an seine Funktion als Werkleiter übernahm er
die Leitung des Bereiches Materialwirtschaft, Datenverarbeitung  Orga-
nisation bis zur Gründung von cundus.
Schonschek, Oliver
Manager Advisor
Experton Group AG
Oliver Schonschek ist als Manager Advisor bei der Experton Group AG
tätig. Parallel zu seiner Advisor-Tätigkeit arbeitet er als Herausgeber,
Fachautor und Fachjournalist für verschiedene Fachverlage und Redak-
tionen.
Die Schwerpunkte seiner Analysen und Publikationen liegen bei der
Informationssicherheit und dem Datenschutz. Dabei behandelt er ins-
besondere die Schnittstellen zwischen IT, Business, Recht, Compliance,
Datenschutz und Datensicherheit.
Hier könnte Ihr Name stehen
Kontaktperson:
Maximilian Herzogenrath
m.herzogenrath@netskill.de
Key Accouunt Manager
NetSkill AG
Sie würden auch gerne im Competence Book Industrie 4.0 oder in ei-
nem unserer anderen Competence Books vertreten sein? Dann melden
Sie sich ganz einfach direkt bei mir unter der E-Mail m.herzogenrath-
netskill.de oder unter +49 221 716 144 11.
BRANCHENÜBERSICHT - EXPERTEN
120
Competence Book - Business Intelligence
Sexl, Stefan
Vorstand
pmOne AG
Seinen Einstieg in den Business Intelligence Markt hatte Stefan Sexl in
verschiedenen Rollen (Support, Consulting) Anfang der 90er Jahre. Er
ist Mitgründer der EFS Informationstechnologie, eines österreichischen
Beratungsunternehmens für OLAP und BI. Bei der MIS GmbH (später:
MIS AG) war Sexl Leiter Produktmanagement für Business Intelligence
(1996-1999), nach einem Jahr Pause als freier Berater und Autor kehrte
er dann zur MIS Gruppe zurück und wurde Vorstand Marketing  Pro-
dukte des Unternehmens bis 2005. Sexl ist Mitgründer und Vorstand der
pmOne AG, München und Wien.
Szytinin, Jörg
Senior Account Manager BI
ORACLE Deutschland B.V.  Co. KG
Jörg Szytinin ist als Senior Account Manager bei Oracle verantwortlich
für Business Analytics Lösungen im den Industrien Telekommunikati-
on, Medien  Entertainment und Utilities in Deutschland. Seine Karriere
begann er im Jahre 1988 und hat seither in den von ihm betreuten
Industrien verschiedene Positionen in Vertrieb, Logistik, Marketing und
IT bekleidet. Nach 12 Jahren in Vertriebs- und Marketing- funktionen
innerhalb der Medienbranche folgten 7 Jahre Vertriebstätigkeit im Bu-
siness Analytics Umfeld. Ab 2012 wechselte er zu Oracle und betreut
seitdem Großkunden.
Seybold, Wolfgang
CEO
Cubeware Group
Wolfgang Seybold hat 30 Jahre Erfahrung in der High-Tech-Branche und
als CEO. Seit 2012 ist er CEO der Cubeware Group.Vor seiner Zeit bei Cu-
beware war er als CEO unter anderem bei Fox Technologies Inc., BlackPearl
Inc. und Mindware Inc. tätig. Seine Karriere startete 1983 mit der Entwick-
lung einer deutschsprachigen Software für den damals eingeführten PC von
IBM. Dies war der Auftakt einer Reihe von erfolgreichen Unternehmens-
gründungen in unterschiedlichen IT-Sektoren. Nach dem Verkauf dieser
Unternehmen im Jahr 1992 wurde er CEO bei einer Unternehmensgruppe,
bestehend aus acht in Europa ansässigen Softwareanbietern.
Seufert, Andreas (Prof. Dr.)
FH Ludwigshafen
Institut für Business Intelligence
Professor Andreas Seufert lehrt Betriebswirtschaftslehre und Informati-
onsmanagement im Fachbereich Management und Controlling an der FH
Ludwigshafen, und ist Direktor des Instituts für Business Intelligence an
der Steinbeis Hochschule Berlin sowie Leiter des Arbeitskreises „Business
Intelligence“ des Internationalen Controllervereins. Prof. Dr. Seufert verfügt
über eine langjährige Erfahrung im Bereich der akademischen Forschung
und Lehre, u.a. an der Universität St. Gallen sowie dem Massachusetts
Institute of Technology.
BRANCHENÜBERSICHT - EXPERTEN
121
Competence Book - Business Intelligence
Tischner, Gotthard
Mitglied des Vorstands
cundus AG
Gotthard Tischner verantwortet als Vorstand der cundus AG die Business
Unit BIS. Darüber hinaus ist er im Unternehmen zuständig für die Berei-
che Finanzen und Controlling, interne Dienste und Technologie. Als Mann
der ersten Stunde trat Gotthard Tischner nach dem Studium von Elekt-
rotechnik und Maschinenbau 1990 in ein Unternehmen für Planung und
Automation von Industrieprozessen ein. Er war dort als Gesellschafter und
späterer Geschäftsführer für die Projektabwicklung und den Ausbau der
Bereiche Applikationsentwicklung, Prozessleittechnik und Netzwerktech-
nik zuständig.
Toffolo-Haupt, Christiane
Senior Director Sales
ORACLE Deutschland B.V.  Co. KG
Christiane Toffolo-Haupt leitet als Senior Director Sales bei Oracle den
Vertrieb für Business Analytics Lösungen in Nord Europa.
Ihre Karriere bei Oracle begann sie im Jahre 2000 und hat seither
mehrere Positionen im nationalen und internationalen Vertriebsma-
nagement bekleidet. Im Jahre 2010 übernahm sie die Verantwortung
für das Business Analytics Portfolio zunächst für Deutschland und die
Schweiz und seit Mitte 2012 für Nordeuropa.
Volknant, Daniel
Consultant
cundus AG
Herr Daniel Volknant arbeitet als Strategy Consultant im Geschäftsbe-
reich BI Strategy and Management der cundus AG. Schwerpunkt seiner
Tätigkeit ist die Entwicklung von BI-Strategien, Corporate Performance
Measurement und BI Competency Centern sowie die Durchführung von
Informationsbedarfsanalysen und Coachings. Er verfügt über mehrjähri-
ge Erfahrung im operativen BI und BI Projektgeschäft zur Unterstützung
des Controllings und Managements.
Weinmann, Daniel
Product Marketing Manager - Data Insights
Microsoft Corporation
Daniel Weinmann ist als Produktmarketing Manager für Data Insights
bei der Microsoft Deutschland GmbH beschäftigt. Seine Themengebie-
te umfassen u.a. Business Intelligence, Big Data sowie Mission Critical
Applications auf Basis des neuen SQL Servers 2014: Echtzeitanalyse
und – transaktionen dank In-Memory Technologie, Power BI, HDInsight
(Hadoop für Windows Azure) und Always On.
BRANCHENÜBERSICHT - EXPERTEN
122
Competence Book - Business Intelligence
Zimmer, Manuel
Head of Business Unit IBM Cognos
cundus AG
Als Managing Consultant Business Intelligence ist Manuel Zimmer
vorwiegend in der Konzeption und Implementierung von Lösungen für
Planung, Analyse und Berichtswesen, sowie der Modellierung und dem
Architekturdesign eingesetzt.
Sein fachlicher Schwerpunkt ist die Versicherungsbranche. Manuel
Zimmer leitet die Business Unit IBM bei der cundus AG.
Wiegmann, Christiane
Mitglied der Geschäftsleitung
IDL GmbH Mitte
Christiane Wiegmann ist seit 2007 als Prokuristin und zeichnet seit 2009
als Mitglied der Geschäftsleitung der IDL GmbH Mitte für das Ver-
triebsgebiet Deutschland verantwortlich.
Zudem betreut sie die fachliche Weiterentwicklung derbei den Software-
produkte IDLFORECAST für die Finanzplanung sowie IDLPUB-
LISHER für die Geschäftsberichtserstellung.
BRANCHENÜBERSICHT - EXPERTEN
123
Competence Book - Business Intelligence
Veranstaltungen
BI  Breakfast
(Veranstalter: Microsoft  pmOne - Datum: 25.02.2014. - 26.03.2014 - Veranstaltungsort: Hamburg, Wiesbaden, ...)
Microsoft und pmOne laden Sie wieder ein zur Veranstaltungsreihe „BI  Breakfast“. Erstmals wird mit Power BI die
neue Lösung von Microsoft für Self-Service Business Intelligence präsentiert. Außerdem stellen unsere Experten die
neuen Features des SQL Server 2014 vor.
Sie sind in Business-Intelligence-Projekte involviert? Sie wollen wissen, wie Fachabteilungen, also Controlling,
Marketing oder Vertrieb, schnell und kostengünstig eine effektive Business-Intelligence-Lösung erhalten, die auch alle
Anforderungen der IT erfüllt? Sie wollen Power BI von Microsoft kennenlernen?
Dann lohnt sich ein Besuch der Veranstaltung „BI  Breakfast“. Wir freuen uns auf Sie und Ihre Kollegen.
BI und Big Data Forum
(Veranstalter: BARC GmbH - Datum: 10. - 14.03.2014 - Veranstaltungsort: Hannover)
Die Konzentration der CeBIT auf Fachbesucher und das Leitthema „Datability“ rücken Lösungen für die
Auswertung und das Management von Daten in den Mittelpunkt der Messe. Auf einer Fläche von rund
800 m² wird das BARC CeBIT Forum Business Intelligence und Big Data 2014 die Erfolgsgeschichte
der letzten beiden Jahre fortschreiben.
Die Teilnehmer-Zielgruppe für das BI und Big Data Forum erstreckt sich über alle Interessenten an Business Intelligence, Business Analytics und Big
Data. “Business User” von entscheidungsunterstützenden Informationssystemen in Unternehmen, vor allem Entscheider und Projekt-Mitarbeiter aus
den Fachabteilungen Controlling, Vertrieb, Marketing, Produktion, Logistik und Einkauf sind nur der Hauptteil der Besucherzielgruppe.
IDL-Experten-Loge
(Veranstalter: IDL GmbH Mitte - Datum: 16.03. 2014 - 20.04.2014 - Veranstaltungsort: Frankfurt am Main)
Nehmen Sie Platz in der ersten Reihe, sehen Sie effektive Management-Lösungen für Konsolidierung, Unternehmens-
steuerung, Controlling und Planung, profitieren Sie von Experten-Know-how und erleben Sie ein Fußball-Bundesli-
ga-Spiel live!
Wählen Sie Ihren Wunschtermin und Thema, senden Sie uns Ihre Anfrage und profitieren Sie vom Austausch mit unse-
ren Experten. Mit Sicherheit nehmen Sie viele Ideen, Impulse und nachhaltige Eindrücke mit.
Alle Themen und Begegnungen sowie Anmeldung unter www.idl.eu/expertenloge
BRANCHENÜBERSICHT - VERANSTALTUNGSVERZEICHNIS
124
Competence Book - Business Intelligence
CeBIT 2014
(Veranstalter: Deutsche Messe - Datum: 10. - 14.03.2014 - Veranstaltungsort: Hannover)
Die CeBIT ist das weltweit wichtigste Business-IT-Event. Jetzt haben wir das Ereignis für Sie als Fachanwender neu
ausgerichtet: Der Konferenzteil wächst massiv. Struktur und Termin ändern sich. Ab 2014 setzt die CeBIT komplett
auf Business.
BMF Bonner Management Forum
(Veranstalter: Böcker Ziemen Management Consultants GmbH  Co. KG - Nächster Termin: 22.05.2014 - Veranstaltungsort: Bonn)
		
Die Idee, ein Forum aus der Hochschule
Bonn-Rhein-Sieg ins Leben zu rufen, in
dem hochaktuelle betriebswirtschaftliche
Themen identifiziert und diskutiert werden, entstand im Jahre 2001. Bei vielen Managern und Wissenschaftlern ist die Veranstaltung mittlerweile fester
Bestandteil im Terminkalender. Im Fokus befinden sich Themen, die gegenwärtig für Unternehmen und die Wissenschaft im Brennpunkt stehen und
bei denen – aufgrund ihrer Aktualität – ein großer Klärungsbedarf besteht. Der Veranstalter legt dabei besonderen Wert darauf, dass die Themen von
branchenübergreifendem Interesse sind und somit den Know-how Austausch zwischen den Branchen forcieren. Zweimal im Jahr wird das Bonner
Management Forum seit einigen Jahren, stets in Bonn, im Wissenschaftszentrum ausgerichtet. Die Veranstaltung wird durch den erfahrenen Moderator
Prof. Dr. Jens Böcker geführt.
CPOs@BPMO
(Veranstalter: BPMO GmbH - Nächster Termin: 28.03.2014 - Veranstaltungsort: Köln)
		
Mit dieser Veranstaltungsreihe richten wir uns an Verantwortliche für die Umsetzung von Prozess-
management, Prozessverantwortliche und interne Berater aus Unternehmen. Der Erfolg unserer
Veranstaltung Ende März 2013 hat uns bestärkt diese zu wiederholen. Eine kurzen Nachbericht
finden Sie hier http://bit.ly/1cKWm1s
Wir möchten als Spezialisten für prozessorientierte Organisationsentwicklung unsere Erfahrungen
aus Weiterbildung und Beratung mit Ihnen teilen. Lassen Sie sich für unsere Art, Prozessmanagement zu entwickeln, begeistern: Maßgeschneiderte
und ganzheitliche Lösungen für ein schneller und effektiver steuerbares System aus Prozessen, Organisation, Menschen und IT.
TDWI 2014 München
(Veranstalter: SIGS DATACOM GmbH - Datum: 23. - 25.06.2014 - Veranstaltungsort: München)
		
Auch in diesem Jahr bündeln TDWI und BARC wieder ihre Kompetenzen für die größte, unabhängige Veranstal-
tung zu den Themenbereichen Business Intelligence, Data Warehousing und Data Management im deutsch-
sprachigen Raum. Auf der Konferenz erhalten die Teilnehmer tiefgehende Fachinformationen, können sich über
aktuelle Markttrends informieren, Kontakte knüpfen und ihr Wissen vertiefen.
Mehr Informationen finden Sie unter: www.tdwi.eu
BRANCHENÜBERSICHT - VERANSTALTUNGSVERZEICHNIS
125
Competence Book - Business Intelligence
DW2014
(Veranstalter: TDWI Germany e.V. - Datum: 17. - 18.11.2014 - Veranstaltungsort: Zürich)
		
Die DW2014, als 9. Auflage der erfolgreichen DW-Konferenzreihe, wird vom IWI-HSG zum dritten Mal in
Kooperation mit TDWI durchgeführt. Mit einer Mischung aus neuen Konzepten durch TDWI, einem Umzug in
die Metropole Zürich sowie der Fortführung der seit über 10 Jahren etablierten Programmarbeit des IWI-HSG
ist die DW die führende Konferenz zu den Themenbereichen BI, DWH und Data Management in der Schweiz
17. – 18. November 2014
DW2014, Zürich
IT  Business
(Veranstalter: Landesmesse Stuttgart GmbH - Datum: 08. - 10.10.2014 - Veranstaltungsort: Stuttgart)
		
Where IT works - die parallel stattfindenden IT  Business, Fachmesse für IT-Solutions,DMS EXPO, Leitmesse für
Enterprise Content Management, und CRM-expo, Leitmesse für Kundenbeziehungsmanagement, bilden zusammen
die komplette Unternehmens-IT ab. Das Angebot zu den Kernbereichen ERP, CRM, ECM und Output Management
richtet sich an IT-Verantwortliche und Entscheider. Auch das Thema MES/ Fertigungssteuerung wird im umfassenden
und hochkarätigen Ausstellungs- und Rahmenprogramm aufgegriffen. Die drei Fachmessen bieten die perfekte
Plattform für einen erfolgreichen Austausch zwischen Branchenführern und Fachpublikum.
29. IDL-Anwendertreffen 2014
(Veranstalter: IDL GmbH Mitte - Datum: 10. - 12.11.2014 - Veranstaltungsort: Frankfurt am Main)
Drei Tage volles Programm mit Experten, Fachwissen, spannenden Praxis-Beispielen, Tipps  Tricks und persönlichem
Austausch. Voranmeldungen für das 29. IDL-Anwendertreffen in Frankfurt am Main sind bereits möglich. Tipp: Lösen
Sie auch gleich Ihren Treue-Rabatt ein! Alle weiteren wichtigen Infos erhalten Sie dann automatisch und zeitgerecht von
unserem Event-Team.
cundus Webinar: BI zum Frühstück
(Veranstalter: cundus AG)
Verpassen Sie auch in diesem Jahr nicht unser umfangreiches Webinar-Angebot zu den aktuel-
len Business Intelligence Beratungsthemen.
Nutzen Sie die Erfahrungen unserer Experten und die zahlreichen Praxisbeispiele, um einen ganz
persönlichen Nutzen und Mehrwert für Ihr Unternehmen zu erzielen.
Steigen Sie im Anschluss direkt in die Diskussionsrunde ein und erhalten Sie von unseren Experten hilfreiche Antworten auf Ihre ganz persönlichen
Fragen. Gönnen Sie sich unsere BI-Webinare zum Frühstück. Melden Sie sich noch heute an und nehmen Sie bequem von Ihrem Arbeitsplatz teil -
kostenlos, kompakt und prägnant!
BRANCHENÜBERSICHT - VERANSTALTUNGSVERZEICHNIS
126
Competence Book - Business Intelligence
A
Ad-hoc Analyse
Analysen, die im Rahmen eines Business-In-
telligence-Prozesses sofort Antwort auf spe-
zielle Fragen geben. Meistens münden die
Auswertungen in einem statistischen Modell,
einem analytischen Bericht oder eines ande-
ren Art von Datenzusammenfassung.
Advanced Analytics
In die Zukunft gerichtete Erweiterung der
Business Intelligence, bei der Prognosen
der zukünftigen Entwicklung und ‚What-if-
Fragen‘ stärker im Vordergrund stehen als
die Analyse der Ist-Situation bzw. der Ver-
gangenheit.
B
Benchmark
Systematischer und kontinuierlicher Pro-
zess des Vergleichens von Produkten,
Dienstleistungen und Prozessen im eigenen
Unternehmen sowie mit denen in fremden
Unternehmen.
Big Data
Große Datenmengen, die mit Hilfe von
Standard-Datenbanken und Daten-Manage-
ment-Tools nicht oder nur unzureichend ver-
arbeitet werden können.
Blog
Ein Blog ist ein, meist öffentlich geführtes,
und damit einsehbares Tagebuch oder Jour-
nal im Internet. Mindestens eine Person, der
sogenannte „Blogger“ führt Aufzeichnungen,
protokolliert Sachverhalte oder schreibt Ge-
danken nieder zu einem bestimmten Thema.
Business Intelligence (BI)
Verfahren und Prozesse zur systematischen
Analyse (Sammlung, Auswertung und Dar-
stellung) von Daten in elektronischer Form.
Ziel ist die Gewinnung von Erkenntnissen,
die in Hinsicht auf die Unternehmensziele
bessere operative oder strategische Ent-
scheidungen ermöglichen.
BI aus der Cloud
Business-Intelligence-Dienste werden als
Service bezogen und nach Verbrauch ab-
gerechnet. Der BI-Dienstleister übernimmt
hierbei nicht nur den kompletten Aufbau der
Infrastruktur, sondern stellt den Anwendern
auch bereits vorgefertigte Berichte und Ana-
lysen zur Verfügung (Software as a Service).
C
Clickstream-Analyse
Der Pfad, den ein Nutzer auf einer Website
genommen hat, bis er zu einem bestimmten
Inhalt gelangt ist, wird als Clickstream be-
zeichnet. Durch eine Clickstream-Analyse
werden die optimalen Navigationspfade er-
mittelt, an deren Ende sich der Aufruf einer
speziellen Seite befindet.
Cloud Computing
Bezug von IT-Diensten nach Bedarf und die
Abrechnung nach Verbrauch (Software as a
Service).
Cluster
Zusammenfassung mehrerer Computersys-
teme zu einem Rechnerverbund.
D
Datenbankmanagement-System
Ein Informationsverwaltungssystem, das aus
Daten besteht sowie Programmen mit de-
nen die Daten verwaltet und verarbeitet wer-
den können. Es kann als eine Art Sammlung
für alle Daten verstanden werden und ist ver-
antwortlich für die Speicherung, Sicherheit,
Integrität, Wiederherstellung und den Zugriff
auf die Daten
Data Mart
Kleinere, funktions- oder abteilungsbezo-
gene Data Warehouses, die abhängig von
einem zentralen Data Warehouse oder auch
dezentral unabhängig aufgebaut werden. Im
Gegensatz zum Data Warehouse stehen bei
Data Marts die Auswertebedürfnisse der Be-
nutzer im Vordergrund.
BRANCHENÜBERSICHT - GLOSSAR
127
Glossar zum Thema BI
Competence Book - Business Intelligence
Data Mining
Die systematische Anwendung von statis-
tisch-mathematischen Methoden auf einem
meist sehr großem Datenbestand mit dem
Ziel, neue Muster zu erkennen und unter-
nehmensrelevante Informationen zu selek-
tieren.
Data Warehouse
Eine von den operativen DV-Systemen se-
parierte Datenbank, die unternehmensspe-
zifische, historische Daten vereinheitlicht.
Ziel ist die Verbesserung der unternehmens-
internen Informationsversorgung (Wissens-
management) und damit der Unterstützung
strategischer Entscheidungen.
E
Echtzeit-Analysen
Analysen, bei denen auf den Datenbestand
tages-, stunden-, oder sogar minutenaktu-
ell darauf zugegriffen werden kann. Echt-
zeit-Analysen dienen Unternehmen dazu,
ihre internen und externen Abläufe zu ver-
bessern.
ETL
Extract, Transform, Load ist ein Prozess,
bei dem Daten aus mehreren ggf. un-
terschiedlich strukturierten Datenquellen
in einer Zieldatenbank vereinigt werden.
Konkret werden Daten aus verschiedenen
Vorsystemen zuerst extrahiert und danach
in Form von “Datenpaketen” gesammelt.
Die Datenpakete werden mehrstufig weiter
verarbeitet (transformiert). Der letzte Schritt
ist das Laden der Daten in das relationale
Data Warehouse.
F
Frontend
Als Frontend werden spezielle Programme
bezeichnet, die eine Oberfläche für ver-
schiedene Dienste und andere Programme
zur Verfügung stellen. Es kann zum Beispiel
Frontends für Datenbanken geben, Fron-
tends für Software-Encoder und etliche
mehr. Bei Programmen, die auf mehreren
Computern laufen, wird das am Client lau-
fende Programm Frontend genannt, das am
Server laufende Programm Backend.
G
Geodaten
Geodaten sind digitale Informationen, de-
nen auf der Erdoberfläche eine bestimmte
räumliche Lage zugewiesen werden kann,
also raumbezogene Daten. Der Bezug der
Daten auf eine bestimmte räumliche Lage
kann direkt über eine Koordinate oder aber
indirekt z.B. durch Straße und Hausnummer,
Postleitzahl, usw. erfolgen.
I
In-Memory Computing
Ein Prozess, der Daten im sehr schnellen
Arbeitsspeicher (RAM) verarbeitet und hier-
durch viel performanter ist als die Verarbei-
tung der Daten auf der Festplatte.
H
Hadoop
Ein skalierbares, verteilt nutzbares Soft-
ware-Framework der Apache Software
Foundation. Hadoop basiert auf dem
MapReduce-Algorithmus und ermöglicht es,
intensive Rechenprozesse sehr großer Da-
tenmengen im Petabyte-Bereich auf Com-
puterclustern durchzuführen.
M
Map Reduce
Der MapReduce-Algorithmus ermöglicht die
Verarbeitung von sehr großen Dateien auf
verteilten Systemen. Input-Werte werden
per „Map“-Funktion zu Zwischenergebnis-
sen verarbeitet und anschließend per „Re-
duce“-Funktion komprimiert. Datenbestän-
de können somit in parallelen Prozessen
durchsucht und aufbereitet werden.
Mobile Business Intelligence
Die Nutzung mobiler BI-Lösungen auf
Smartphones oder Tablet-PC. Mit einer mo-
bil einsetzbaren BI-Lösung können Anwen-
der, unabhängig davon, ob sie online oder
offline sind, Informationen auf unterschiedli-
chen Endgeräten sichten, weiter analysieren
und Daten in die Quellsysteme zurückführen.
BRANCHENÜBERSICHT - GLOSSAR
128
Competence Book - Business Intelligence
N
Near Time Archivierung
Zeitnahe Speicherung und Bereitstellung
von relevanten Informationen und Daten
im Unternehmen. Oft sind es in Unterneh-
men qualitätsrelevante Kennzahlen wie z.B.
Mess- oder Prozessdaten, Materialbewe-
gungen, Lieferinformationen, die zwar archi-
viert werden, aber dennoch jederzeit online
abgerufen und verfügbar sein müssen.
P
Parallele Datenverarbeitung
Bei der parallelen Datenverarbeitung werden
im Gegensatz zur seriellen Datenverarbei-
tung mehrere Daten gleichzeitig (parallel)
verarbeitet und übertragen.
Pattern-Search-Verfahren
Anwender ziehen Informationen aus Daten
existierender und künftiger Quellen. Die
Auswirkungen ihrer Erkenntnisse lassen sie
in die Geschäftsprozesse einfließen und
richten optimalerweise ihre Organisation da-
nach aus.
Predictive Analytics
Analysen, die den Anwender unterstützen,
zukünftige Ereignisse vorherzusehen und
proaktiv, auf Basis dieser Einblicke, bessere
Geschäftsergebnisse zu erzielen.
Q
Query
Als Query wird eine einzelne Suchanfrage
bezeichnet
R
Real-Time OLAP
(Online Analytical Processing)
Eine Softwaretechnologie, die schnelle und
interaktive Zugriffe auf relevante Informa-
tionen ermöglicht. Vor allem bietet diese
Technologie meistens eine komplexe Analy-
sefunktionalität, die über die herkömmliche
Auswertung relationaler Datenbanken hin-
ausgeht.
Relationale Datenbank
Eine relationale Datenbank dient zur elekt-
ronischen Datenverwaltung in Computer-
systemen und beruht auf dem relationalen
Datenbankmodell.
Relationale Datenbanken sind vergleichswei-
se einfach und flexibel zu handhaben. Daten
werden in Form von Tabellen verwaltet. Die
Tabellen stehen meist in Beziehungen zuei-
nander, d. h. manche Einträge sind Verweise
auf andere Einträge in anderen Tabellen.
S
Self-Service Business Intelligence
(SSBI)
Ein Ansatz in der Datenanalyse, bei denen
die End-Anwender eigene Analysewerkzeu-
ge installieren, um selbständig, schneller
und unabhängig von der IT-Abteilung, Bu-
siness-Intelligence-Analysen durchführen
zu können. Idealerweise können sich die
Anwender über eine spezielle Plattform bei-
spielsweise in Diskussionsforen austauschen
und sich gegenseitig helfen, technische Pro-
bleme zu lösen.
Retargeting
Ein Verfolgungsverfahren im Online Mar-
keting, bei dem Besucher einer Website
markiert und anschließend auf anderen
Webseiten mit gezielter Werbung wieder an-
gesprochen werden. Ziel ist es, einen Nutzer,
der bereits Interesse für eine Webseite oder
ein Produkt gezeigt hat, erneut mit Werbung
für diese Webseite oder ein Produkt zu kon-
frontieren.
Shared-Nothing
Eine Architektur, bei der eine gewisse Anzahl
Server im Verbund arbeiten (Cluster), wobei
jeder Server auf eigenen Daten rechnet.
Jeder Server besitzt eigene Prozessoren,
Speicher und Festplatten. Es ist kein Mas-
ter-Server vorhanden. Dieser Architekturan-
satz führt zu einer optimalen Skalierung bei
einem Cluster aus vielen Servern.
Spaltenweise Speicherung
Datenbanken können Daten in Zeilen als
auch in Spalten speichern. Bei der spalten-
weisen Speicherung werden lediglich die
Daten, die für eine Abfrage benötigt werden,
in den Arbeitsspeicher geladen. In der An-
wendung führt dies, im Vergleich zu einer
zeilenweisen Datenablegung, zu einer dra-
matischen Reduzierung der ressourcen- und
zeitintensiven In-/Output (I/O) Leseprozesse.
Es können Laufzeitverbesserungen und bes-
sere Kompressionsraten erzielt werden.
BRANCHENÜBERSICHT - GLOSSAR
129
Competence Book - Business Intelligence
U
Unstrukturierte Daten
Daten, die vor allem aus Quellen im Web
stammen wie z.B. Portale, Beiträge aus so-
zialen Medien, Blog-Einträge, E-Mails und
vieles mehr.
W
Webanalytics
Webanalytics bezeichnet die Sammlung und
Auswertung des Verhaltens von Besuchern
auf Websites.
Die hier aufgeführten Begrifflichkeiten wurden uns mit freundlicher Unterstützung der EXASOL AG zur Verfügung
gestellt. Ein ausführliches Glossar finden Sie hier: www.exasol.com/glossar
BRANCHENÜBERSICHT - GLOSSAR
130
Competence Book Nr. 1
BPM Kompakt
Business Process Management für das prozessorientierte Unternehmen
Kostenfreie Wunsch-Ausgabe bestellen oder mitmachen unter www.competence-books.de.
Competence Book Nr. 15
Talent Management Kompakt
Talente finden, fördern, binden
Competence Book Nr. 16
Industrie 4.0 Kompakt
Industrie 4.0 für die kooperative Produktion von morgen
Competence Book Nr. 5
ECM / EIM Kompakt
Content / Informationen für die Wissens-Ökonomie
Competence Book Nr. 4
CRM Kompakt
Customer Relationship Management für das kundenorientierte Unternehmen
Competence Book - Business Intelligence
Competence Book Nr. 7
ERP Kompakt
Enterprise Ressource Planning für eine integrierte Ökonomie
131
WeitereCompetenceBooks
Wenn Ihnen dieses Competence Book gefallen hat, können Sie kostenlos weitere Competence Books online
herunterladen bzw. vorbestellen oder sogar als Experte und Partner dabei sein. Einige unserer Competence
Books finden Sie in dieser Aufstellung. Wir freuen uns über Ihr Mitarbeit!
WIR DANKEN UNSEREN PARTNERN
WWW.COMPETENCE-SITE.DE

Business Intelligence (BI) Kompakt

  • 1.
    Competence Book Nr.3 BI Kompakt Business Intelligence für das datenbasierte Unternehmen
  • 2.
    Competence Book -Business Intelligence PARTNER - SPONSOREN DES COMPETENCE BOOKS 2 Partner des Competence Books BI
  • 3.
    Competence Book -Business Intelligence EDITORIAL 3 Quo Vadis Business Intelligence? Das war die Frage, die das Team der Com- petence Site uns für das Competence Book BI KOMPAKT gestellt hat. Consumerization, Agility, Big Data - neue Anforderungen und „disruptive“ Techniken stellen auf jeden Fall bisherige Business Intelligence-Strategien in Frage. Sie versprechen im Gegenzug neue Einsichten in den Datenkosmos, eine breitere Nutzung von Business Intelligence sowie neue Absatzchancen für Anwenderunternehmen, denkt man nur an jenes Potenzial, das in der Ana- lyse von Kundendaten in sozialen Netzwerken oder von Sensordaten steckt. Das wirkt sich auch auf den Markt aus. Anbieter von Software und Ser- vices für Business Intelligence profitieren vom großen Interesse und Inves- titionsbedarf bei ihren Kunden. Entsprechend positiv entwickelt sich laut der aktuellen BARC-Marktstudie der BI-Gesamtmarkt in Deutschland, den mittlerweile über 250 Hersteller mit geschätzten 600 Produkten bedienen: In den beiden Produktsegmenten „BI-Anwenderwerkzeuge“ und „Daten- management-Software“ erhöhten sich in 2012 die Umsätze mit Lizenzen und Wartung gegenüber dem Vorjahr um 13 Prozent auf 1,2 Milliarden Euro. Und auch für die kommenden Jahre erwartet BARC ein durchschnitt- lich zweistelliges Marktwachstum mit Übernahmen, aber auch neuen in- novativen Anbietern und Produkten, die sich den großen fachlichen und technischen Herausforderungen der kommenden Zeit stellen wollen. Perspektivisch kann festgestellt werden: Daten haben sich zu einem ent- scheidenden Wirtschaftsgut gewandelt, dessen Verfügbarkeit den künftigen Unternehmenserfolg ganz wesentlich beeinflusst. Daten werden strate- gisch! Voraussetzung ist aber eine austarierte BI-Strategie zwischen Be- stehendem und Neuem, die eine flexible Nutzung von BI(-Prozessen) und Daten erst ermöglicht und zugleich durch eine Data Governance absichert. Hilfe verspricht der BARC BI Congress, der ganz im Zeichen dieser Ent- wicklung steht und Unternehmen Orientierung, Best Practices und einen direkten Draht zu Kollegen und Marktexperten bietet. An zwei Tagen er- warten die Besucher Fachvorträge und exklusive Marktanalysen zu allen wichtigen Trends in der Business Intelligence und im Datenmanagement, ausführliche Produktvergleiche, spannende Anwendervorträge sowie der „Best Practices Award“ für die innovativsten Unternehmen des Jahres. Herausfordernde Zeiten also für IT, Fachbereiche und Management, jetzt nicht den Anschluss im „data driven business“ zu verpas- sen, gleichzeitig aber auch Zeiten des Aufbruchs. Wie sagte schon Ste- ve Jobs: „Innovation unterscheidet den Vorreiter von den Verfolgern.“ Daher: Bleiben Sie innovativ! Ihr Dr. Carsten Bange, CEO der BARC GmbH Quo Vadis Business Intelligence? Consumerization, Agility, Big Data Zum Autor Dr. Carsten Bange: Nach dem Erwerb der Allgemeinen Hochschul- reife absolvierte Carsten Bange zunächst eine Ausbildung zum Groß- und Außenhandelskauf- mann in Münster. Zwischen 1994 und 1998 studierte Herr Ban- ge Betriebswirtschaftslehre an der Bayerischen Julius-Maximilians-Universität Würzburg und arbeitete zwischen 1999 und 2001 als For- schungsassistent am Lehrstuhl für BWL und Wirtschaftsinformatik der Universität Würzburg von Prof. Dr. Thome. Neben der Entwicklung des BARC zum führen- den Beratungs- und Analystenhaus für neutrale Softwarebeurteilung und -auswahl ist Dr. Ban- ge Dozent im MBA-Studiengang „Business In- tegration“ der Universität Würzburg.
  • 4.
    Competence Book -Business Intelligence Einleitung Grundlagen Anwendungen & Lösungsbausteine 2 Unser Kompetenz-Netzwerk Partner des Competence Books 3 Editorial Dr. Carsten Bange Quo Vadis BI? Consumerization, Agility, Big Data 6 Grußwort Oracle Daten effektiv nutzen 7 Grußwort IDL Gewissheit und Kontrolle über „flüssige Mittel“ 8 Grußwort Microsoft Schnellere Aha-Effekte aus Big Data. Small Data. All Data. 10 Zahlen kompakt Infografik BI 14 Meinungen kompakt Statements zu BI 20 Delphi-Roundtable BI I Business Intelligence 2020 26 Delphi-RoundtableBI II Analytik und Perfomance Management in einem intel- ligenten Unternehmen 38 Self-Service I Mit Self-Service erfolgreich im Bereich Business Intelligence 40 Self Service II Self-Service BI im Unternehmen managen 44 Agile Business Intelligence I Agile BI erfolgreich umsetzen 48 Agile Business Intelligence II Modelle als Basis für eine agile BI 50 Datenbasis Datenbankmodelle und -Design am Beispiel von Innovator Architects 52 Big Data Big Data: Chancen und Herausforderungen für die Unternehmenssteuerung 55 BI-Software Softwareauswahl für Business-Intelligence- Werkzeuge 60 Neue Technologien I Cloud, SaaS, Mobile BI - muss das alles sein? 62 Neue Technologien II Mobile Business Intelligence: Mit Echtzeitdaten die Weichen stellen 64 Neue Technologien III Im Fokus mobile Lösungen, automatisierte Dienst- leistungen und BI-Lösungen 66 Reporting und Kennzahlen I Reporting Design - Status quo und neue Wege in der Gestaltung des internen und externen Berichtswesens 70 Reporting und Kennzahlen II Optimiertes Berichtswesen mit SAP Business Planning & Consolidation 74 Planung und Budgetierung I Modern Budgeting: Die Zukunft im Visier! 76 Predicitive Analytics Big Data Warehousing: Anmerkungen zur Zukunft von BI im Zeitalter von Big Data und Predictive Analytics 79 Performance Management Balanced Scorecard mit BI verbinden INHALT 4
  • 5.
    Competence Book -Business Intelligence Case Studies & Produktinformationen Branchenübersicht 86 Immobilienhandel (Oracle) Immonet optimiert Analytik und Entscheidungsfindung mit Engineered Systems 88 Informationstechnologie (Microsoft) Ein direkter Draht zum Kunden dank Microsoft BI 90 Metallwarenfertigung (IDL) Wanzl harmonisiert 30 Konzerngesellschaften 92 Finanzbranche (pmOne) Tagetik geleitet Erste Group optimal durch IFRS und FinRep-Vorgaben 96 eCommerce (EXASOL) Zalando optimiert sein Data Warehouse und BI-Funktionen 99 Dienstleistungen (Microsoft) Die Lizenz zum Kosten sparen 101 Diverse Branchen Weitere Case Studies und Produktinformationen unse- rer Partner 104 Literaturverzeichnis 107 Unternehmensverzeichnis 113 Expertenverzeichnis 124 Veranstaltungsverzeichnis 127 Glossar Impressum Verantwortlich für das Competence Book i.S. des TDG: Geschäftsadresse: NetSkill AG Salierring 43 50677 Köln Tel.: 0221 / 716 144 0 E-Mail: info@netskill.de Vorstand: Dr. Winfried Felser Aufsichtsratsvorsitzender: Michael Felser Amtsgericht Köln HRB 58503 Umsatzsteuer-Identifikationsnummer: DE209010121 Projektleitung: Filipe Felix, Dominic Leuchter Quellenangabe Bilder Inhaltsverzeichnis: istock: Ambientideas, ColdImages, Elenathewise © Copyright 2014 NetSkill AG - alle Rechte vorbehalten. INHALT 5
  • 6.
    Competence Book -Business Intelligence GRUSSWORTE 6 U nternehmen, die zur Steuerung ihrer Geschäfte über- durchschnittlichstarkaufAnalysewerkzeugesetzten,sind überdurchschnittlich erfolgreicher - diese Erkenntnis von Tom Davenport in seinem Buch „Competing on Analytics“ aus dem Jahr 2007 ist heute wahrer denn je. Gemäß einer Gartner Studie von 2012 hat Business Analytics bei den 2.300 befragten CIOs weiterhin oberste Priorität. Warum ist das so? Wir gehen heute davon aus, dass ca. 90% der Daten weltweit in den letzten 2 Jahren entstanden sind, d.h. das Datenvolumen wird sich bis 2020 verfünfzigfachen. Dabei kommen fortwährend neue Informationen hinzu. Denken Sie nur an Social Media Daten, das Nutzerverhalten auf Webseiten oder auch ortsbezogene Dienste um Käuferverhalten zu analysieren und zu optimieren. Aber auch rein technische Informationen wie Sensordaten steigern die Wirtschaftlichkeit von Unternehmen, indem Wartungszyklen von Maschinen verkürzt werden und Ausfälle über intelligente Mustererkennungen vorhergesagt werden können. Die zunehmende Nutzung von mobilen Endgeräten auf AnwenderseitesorgtfüreinvölligneuartigesNutzerverhaltenund damit veränderte Ansprüche an analytische Systeme. Der Anwender erwartet intelligente Inhalte ohne Wartezeit, die an jedem Ort zu jeder Zeit zur Verfügung stehen. Daten effektiv nutzen Zur Autorin Christiane Toffolo-Haupt: Christiane Toffolo-Haupt leitet als Senior Director Sales bei Oracle den Vertrieb für Bu- siness Analytics Lösungen in Nord Europa. Ihre Karriere bei Oracle begann sie im Jahre 2000 und hat seither mehrere Positionen im nationalen und internationalen Vertriebsmanagement bekleidet. Nach den ersten 4 Jahren im Global Account Mangement, leitete Sie ab 2005 den Vertrieb für regionale Großkunden in Süddeutschland und wechselte in 2009 in die Verantwortung des Vertriebsdirektors Nordeuropa für Consulting Sales. Im Jahre 2010 übernahm sie die Verantwortung für das Business Analytics Portfolio zunächst für Deutschland und die Schweiz und seit Mitte 2012 für Nordeuropa. Stand heute sind 60% der Unternehmen allerdings der Auffassung, dass sie bereits jetzt schon über mehr Daten verfü- gen als sie effektiv nutzen können – dies ist das Ergebnis einer Umfrage, die Oracle 2012 unter mehr als 300 Entscheidungs- trägern in USAund Kanadadurchführte.Vondiesenwarenwiede- rum 93% der Auffassung, dass sie durch unzureichende Ausnut- zung des Potenzials von analytischen Systemen Umsatz verlören. Unternehmen, die sich im internationalen Wettbewerb behaup- ten wollen, müssen Strategien entwickeln, um das Innovati- onspotenzial von Technologietrends wie Big Data, In Memory, Mobile und Social Media zu erschließen, wobei heute im Durch- schnitt nur ca. 15% des IT Budgets für Innovationen allokiert werden kann. 85% derverfügbaren Gelderwerden fürden Betrieb und Weiterentwicklung bestehender Lösungen ausgegeben. Oracle Business Analytics unterstützt Unternehmen dabei ihre Prozesse zu optimieren, zu vereinfachen und damit techno- logischen und finanziellen Spielraum für Innovationen zu schaf- fen. Ich wünsche ich Ihnen spannende Lektüre mit diesem Business Analytics e-book der Competence Site! Herzliche Grüsse, Ihre Christiane Toffolo-Haupt, Sr. Sales Director der Oracle Deutschland B.V. & Co. KG
  • 7.
    Competence Book -Business Intelligence GRUSSWORTE 7 N ur mit Bauchgefühl ein Unternehmen managen? Längst reichen Instinkt und Erfahrung nicht mehr aus, um Fir- men erfolgreich durch die sich immer schneller verän- dernden Zeiten zu führen. Zuverlässige Informationen sind im komplexen und volatilen Umfeld mehr denn je die Grundvoraussetzung für sichere Ent- scheidungen. Im Fokus stehen dabei schon immer verlässliche Finanzkennzahlen. Aber woher kommen die Zahlen, sind sie valide, sind Währungsschwankungen berücksichtigt, sind alle Gesellschaften erfasst, wie wirken sich Absatzeinbrüche in bestimmten Regionen aus, welchen Einfluss haben wechselnde Rohstoff-Einkaufspreise auf die Gesamtbilanz? Was bedeutet ein verändertes Zahlungsverhalten meiner Kunden und wie erfahre ich davon? Um hier jederzeit den ersehnten Überblick zu haben, ist ein durchweg integriertes und reibungslos funktionierendes Gewissheit und Kontrolle über „flüssige Mittel“ Berichtswesen nötig. Dazu müssen alle Beteiligten zusammen- arbeiten und Menschen, Systeme und Organisation unter einen Hut bringen. Dass Unternehmen mit zunehmender Marktdynamik sowohl system- als auch organisationsseitig neue Wege und Lösungen finden müssen, steht außer Frage. Eines ist dabei durchweg klar: Der Blick über den Abteilungs-Tellerrand und die unterneh- mensweite Kooperation sind unabdingbare Voraussetzungen, um die Performance des gesamten Unternehmens transparent und valide darzustellen und daraus jederzeit passende Strategien abzuleiten. Ich wünsche Ihnen eine interessante Lektüre – lassen Sie sich in- spirieren! Ihr Harald Frühwacht, Geschäftsführender Gesellschafter der IDL GmbH Mitte Zum Autor Harald Frühwacht: Harald Frühwacht ist seit 2006 geschäftsführender Gesellschafter der IDL GmbH Mitte. Bereits 1991 startete er hier seine Karriere als betriebswirtschaftlicher Berater, er realisierte verschiedenste Konsolidierungsprojekte und leitete die fachliche Ent- und Weiterentwicklung der Konsolidierungssoftware IDLKONSIS. Der Diplom-Kaufmann veröffentlichte seither verschiedenste Schriften zum The- ma Rechnungswesen und hatte mehrere Jahre einen Lehrauftrag an der Europe- an Business School im Bereich Konzernrechnungswesen inne. Ein weiterer Schwerpunkt seiner Tätigkeit liegt heute auf finanzwirtschaftlichen Lösungen für den kommunalen Bereich.
  • 8.
    Competence Book -Business Intelligence GRUSSWORTE 8 D ie oberste Priorität von Business Analytics besteht darin, Zusammenhänge anhand von Daten einfacher zu verste- hen. Vertraute Tools senken dabei die Akzeptanzhürden für Führungskräfte, um Daten selbst zu analysieren. Sie unter- stützen außerdem die Entscheidungsfindung im Team, indem Daten zum Zeitpunkt und im Kontext der Entscheidungspro- zesse bereitgestellt werden – egal auf welchem Endgerät. Nicht umsonst sind Business Analytics-Software und BI-Tools heute unverzichtbar, um schnell fundierte Geschäftsentscheidungen zu treffen und den Unternehmenserfolg langfristig zu sichern. Eine große Herausforderung stellen für Unternehmen die bisher noch nie da gewesenen Datenmengen dar. Glaubt man den Augu- ren, ist die Nutzung intelligenter Datenströme derentscheidende Wettbewerbsvorteil der Zukunft. Glaubt man den Herstellern, ist Big Data der nächste Boom nach dem Internet. Glaubt man den Beratern, gibt es eine Unzahl von Fallstricken, angefangen von ethischen und rechtlichen Themen über Verantwortlichkeiten und Prozessen im Unternehmen bis hin zu neuen Anforderungen an die Agilität und Belastbarkeit der IT. Big Data ist dabei kein Hypethema. Vielmehr ist der Bedarf, ob- jektiv betrachtet, längst da. Denn immer mehr Prozesse werden digital gesteuert. Eine Vielzahl von Applikationen erzeugen Da- ten, die es nicht nur abzuspeichern, sondern auch auszuwerten Schnellere Aha-Effekte aus BigData.SmallData.AllData. Zum Autor Daniel Weinmann: Daniel Weinmann ist als Produktmarketing Manager für Data Insights bei der Microsoft Deutschland GmbH beschäftigt. Seine Themengebiete umfassen u.a. Business Intelligence, Big Data sowie Mission Critical Applications auf Basis des neuen SQL Servers 2014: Echtzeitanalyse und – transak- tionen dank In-Memory Technologie, Power BI, HDInsight (Hadoop für Windows Azure) und Always On. gilt. Zugleich kommen Daten aus neuen Quellen hinzu, die bis- her gar nicht in Erwägung gezogen wurden – wie beispielsweise aus Social-Media-Kanälen. Denn wie gut Organisationen oder Unternehmen ihre Kunden verstehen – und wie früh sie deren Wünsche erkennen – wird immer mehr zum entscheidenden Wettbewerbsvorteil. Es stellen sich nun einige wichtige Fragen: Darf man den Trend aussitzen? Und wenn nein, wo soll man anfangen? Je nachdem, wo Sie derzeit im Bezug auf Big Data oder Business Intelligence stehen, kann Sie Microsoft dabei unterstützen, prag- matische Ansätze und Handlungsmöglichkeiten zu finden, um IT und Prozesse auf neue Herausforderungen vorzubereiten. Im einfachsten Falle geht es um einen noch einfacheren und schnel- leren Einblick in vorhandene Daten, in der Ausbaustufe um die Verlinkung von sozialen Netzen und anderen öffentlichen Daten, und in der Königsklasse um die Echtzeitanalyse, mit kompro- misslosen Anforderungen an Antwortzeiten und Flexibilität der Systeme sowie Masse der Daten. Ich wünsche Ihnen eine interessante Lektüre und viel Spaß beim Lesen. Beste Grüße Daniel Weinmann, Product Marketing Manager der Microsoft Deutschland GmbH
  • 10.
    Competence Book -Business Intelligence INFOGRAFIK Top 5 Probleme 3 Top 5 Ziele 1 77% 76% 73% 71% 66% Im Geschäft bleiben Vertrauen in Zahlen sicherstellen Wirtschaflicher Ressourceneinsatz Erfolge nachvollziehen Im Geschäft flexibel bleiben Komplexität Anforderungsdefinitionen Personalressourcen Beachtung Management / GL Datenqualität Top 5 Anwendungsbereiche 1 88% Controlling 62% Marketing / Vertrieb 42% IT 26% Logistik 26% Einkauf Top 5 Einsatzarten 2 Analyse von Daten Berichterstellung und -verteilung Planung und Budgetierung Forecast und rollierende Planung Management Dashboard 28,6% 24,9% 19,7% 18,4% 16,5% Tools 2 82,6% Dedizierte BI-Software 8,7% Operative Sys- teme (ERP, CRM, SCM etc.) 8,7% Ausschließlich Werkzeuge zur Tabellen- kalkulation 97% 84% 58% 49% 47% 10 Infografik Business Intelligence
  • 11.
    Competence Book -Business Intelligence INFOGRAFIK Marktentwicklung für BI Software in Deutschland 4 2006 2007 2008 2009 2010 2011 630 724 783 861 941 1046 in Millionen Euro BI Trends 2 Unstrukturierte Daten und BI 100% 55% 30% 19% 100% 81% 56% 18% Mobile BI 100% 73% 48% 17% Predictive Analytics 100% 60% 29% 16% Internet und BI 100% 54% 39% 15% Geodaten und BI 100% 39% 15% Cloud und BI im Einsatz nicht im Einsatz aber binnen 12 Monaten geplant nicht im Einsatz aber langfristig geplant nicht im Einsatz und nicht geplant geplant 11
  • 12.
    Competence Book -Business Intelligence INFOGRAFIK Google Trends: Mobile, Cloud, Big Data, Predictive Analytics und Self Service BI 7 0 20 40 60 80 100 Self Service BI Cloud BI Predictive Analytics Big Data Mobile BI Jan 14 Jan 13 Jan 12 Jan 11 Jan 10 Top 5 Vorteile Predictive Analytics7 Top 5 Herausforderungen Big Data7 Wettbewerbsvorteile Neue Umsatzmöglichkeiten Höhere Rentabilität Mehr Kundenservice Operative Effizienz Personal Schulungen Datenverarbeitung in Echtzeit Lizenzkosten Integration 68% 55% 52% 45% 44% 79% 77% 67% 64% 64% 12
  • 13.
    Competence Book -Business Intelligence INFOGRAFIK Big Data Trendprognose für die Jahre 2012 bis 2017 5 (in Petabyte pro Monat) Top 5 Aufgaben im Daten-Management 5 Top 5 Nutzen von Big Data 5 46% 43% 39% 34% 29% Schutz der Informationen Speicherung der Datenmengen Kosten Wachsende Komplexität der Datenanalyse Beschaffung aktueller Daten 35% 30% 28% 26% 24% Controlling Finanzplanung Optimierung der IT-Infrastruktur Vertriebsanalyse und -steuerung Optimierung des Kundenverhaltens 20000 40000 60000 80000 100000 Big Data 2017 2016 2015 2014 2013 2012 13 Quellen: (1) „Business Intelligence und Advanced Analytics/ Data Mining“ - Institut für Business Intelligence der Steinbeis Hochschule Berlin (2) „Business Intelligence im Mittelstand 2011/2012 “ - Unabhängige Anwenderbefragung des BARC-Institutes (3) „Business-Intelligence-Studie 2010 “ - Studie der conunit GmbH in Kooperation mit der IBM Deutschland GmbH und der TU Chemnitz (4) „Software für Business Intelligence“ - Artikel auf www.cfoworld.de (5) http://bvmm.org/assets/components/gallery/connector.php?action=web/phpthumb&w=1024&zc=1&far=C&q=90&src=/assets/gallery/6/67.png (6) Google Trends (2/2014) (7) Ventana Research http://tonycosentino.ventanaresearch.com/tag/birt-analytics/
  • 14.
    Competence Book -Business Intelligence Potenziale BI Meines Erachtens sind bei weitem noch nicht alle Potenziale ausge- schöpft, die der BI-Markt an Innovationen bietet. Ich denke da etwa an maßgeschneiderte Lösungen für KMU und Kleinstunternehmer. Auch benötigen wir in Zukunft mehr branchenspezifische Angebote wie etwa Geo- Intelligence-Systeme für Logistikunternehmen oder Analyse-Tools für Social Media. Bis 2020 ist das In- novationspotenzial noch lange nicht er- schöpft. In der Anwendungspraxis muss sachlich festgestellt werden, dass die Applikationswelt mit den geweckten Erwartungen (noch) nicht mithalten kann. Weder Big Data noch In-Memory-Computing oder Mobile BI und Social Intelligence sind bereits in der Breite etabliert. Das gilt im Besonderen für den Mittelstand. Daten haben sich zu einem entscheidenden Wirt- schaftsgut gewandelt, dessen Verfügbarkeit den künftigen Unternehmenserfolg ganz wesentlich be- einflusst. Daten werden strategisch! Anbieter von Software und Services für Business Intelli- gence profitieren von diesem großen Interesse und Investi- tionsbedarf bei ihren Kunden. Statements zu BI Was sagen die führenden Köpfe zur Zukunft? Bedeutung BI STATEMENTS BI-Lösungen werden schon in der nahen Zukunft für jeden kaufmännischen Angestellten und Manager zum täglichen Handwerkszeug gehören. 14
  • 15.
    Competence Book -Business Intelligence Zukunft BI Consumerization, Agility, Big Data - neue Anforderungen und „disruptive“ Techniken stellen auf jeden Fall bisherige Business In- telligence-Strategien in Frage. Sie versprechen im Gegenzug neue Einsich- ten in den Datenkosmos, eine breitere Nut- zung von Business Intelligence sowie neue Absatzchancen. Wir stehen gerade am Anfang, denn die ver- meitlich klassischen Themen wie  Big Data, In-Memory-Compu- ting, Mobile BI und Social Intelligence sind unweigerlich mit Busi- ness Intelligence ver- knüpft und damit mit Business Analytics: Denn aus all diesen Quellen sprudeln Da- ten hervor. Heute gibt es zwei unterschiedliche Zweige von Business Intel- ligence, die man zusammen als Nachfolger von Business Intelli- gence verstehen kann: Analytik und Performance Management. Das Ganze geht oft einher mit der Problematik fehlenden Branchen-Know-hows auf der Anbieterseite. Herausforderungen BI Das größte sich stellende Pro- blem ist, dass die wenigsten BI-Anbieter dazu bereit sind, sich in die individuellen Prob- lemstellungen ihrer Kunden hin- einzuversetzen; Tiefgreifende Änderun- gen des Nutzungsver- haltens wie etwa die Verwendung eigener Endgeräte („Bring Your Own Device“) erfordern ein Umdenken: Eine weitere Herausforde- rung besteht in der Kon- solidierung der Daten – auch in international agierenden Unterneh- men. Zudem ist darauf zu achten, dass Fachan- wender und IT frühzeitig in BI-Projekte eingebun- den sind. Gut ausgebildete Mitarbeiter – darin liegt die wichtigste Chance und Hürde zugleich. Denn wir brauchen Leute, die das in den Daten liegende Potenzial abfragen und herausle- sen können. STATEMENTS 15
  • 16.
    Competence Book -Business Intelligence Self Service BI Predictive Analytics ist vom Prinzip her nichts Neues. Das neue daran ist die Tatsa- che, dass dies weitestgehend automatisiert durch Algorith- men und mit Hilfe riesiger Da- tenmengen unterschiedlicher Formate und Quellen gesche- hen soll. Und so gibt es eine Vielzahl von Anwendungsfällen für Predictive Analytics, üb- rigens alles Beispiele, bei denen sich ein ROI berech- nen lässt Predictive Analytics wird künftig ein wesentlicher Bestandteil von Busi- ness-Analytics-Lösungen, aber die Zukunft vorherzu- sagen bleibt nach wie vor ein Traum. Predictive Analytics Die Anforderung, schnell und unkompliziert auf aktuell benötigte Informationen zurückgreifen zu können, ist in der sich immer weiter beschleunigenden Geschäftswelt essentiell. Die Beweglichkeit im BI-Umfeld wird jedoch oftmals durch das Unvermögen traditioneller BI-Werkzeuge getrübt. ...der Fachbereiche darf jedoch nicht in eine allumfassende BI Anarchie münden: Auch hier muss es eine wirk- same BI Governance geben. Die Anforderung, schnell und un- kompliziert auf aktuell benötig- te Informationen zurückgreifen zu können, ist in der sich im- mer weiter be- schleunigenden Geschäftswelt essentiell. STATEMENTS STATEMENTS 16
  • 17.
    Competence Book -Business Intelligence Daten- visualisierung In der heutigen von Sprache-Bild-Verknüpfungen geprägten Gesellschaft, dem so genannten „Optischen Zeitalter“ wo Bilder nahezu alle Lebens- und Wissensbereiche bestimmen, betrachte ich Datenvisualisierung als ausschlaggebend um die wachsenden Zahlenberge leichter zugäng- lich zu machen. Bestärkt wird die hohe Relevanz der Datenvisuali- sierung vor allem durch die aus der Gestaltpsycho- logie stammende Erkenntnis der Bildüberlegen- heitswirkung Manche Entwicklungen im Markt für Oberflächen wie z.B. 3-D oder Gamification haben bei BI, wenn die Daten für Geschäftsentscheidungen genutzt werden sollen, meines Erachtens keinen Platz. Stephen Few oder Dr. Rolf Hichert kritisieren bereits seit einigen Jah- ren die Auswüchse der Datenvisua- lisierung und machen Vorschläge für ein Information Design oder geben ein Regelwerk vor. Für die schnelle Aufnahme ist die grafische Visuali- sierung mit Darstellung, aber wenn es darum geht, Daten auf ihre Herkunft auf ihre Validität hin zu überprüfen, ist der Blick in nichts zu ersetzen. BIG DATA vs. Datenschutz Beruflich gesehen als langjähriger „BI Mann“ lautet meine Antwort: Mehr Daten eröffnen mehr Chancen für Nutzen. Hier treffen zwei Interes- senswelten aufeinander: Die der Kunden, die ihre Privat- sphäre bestmöglich gewahrt wissen wollen und die der Unternehmen, die möglichst viel über (potenzielle) Kun- den und deren Gewohnhei- ten / Vorlieben in Erfahrung bringen möchten. Als Privatmensch beob- achte ich die Debatte - wie vermutlich die meis- ten von uns - mit einem etwas mulmigen Gefühl. Die Grenze beim Sammeln und Auswerten von Daten ist immer da zu ziehen, wo dies nicht mehr mit ethischen, moralischen und rechtlichen Grundsätzen vereinbar ist. STATEMENTS STATEMENTS 17
  • 18.
  • 19.
    Competence Book -Business Intelligence Einleitung Grundlagen Anwendungen & Lösungsbausteine 2 Unser Kompetenz-Netzwerk Partner des Competence Books 3 Editorial Dr. Carsten Bange Quo Vadis BI? Consumerization, Agility, Big Data 6 Grußwort Oracle Daten effektiv nutzen 7 Grußwort IDL Gewissheit und Kontrolle über „flüssige Mittel“ 8 Grußwort Microsoft Schnellere Aha-Effekte aus Big Data. Small Data. All Data. 10 Zahlen kompakt Infografik BI 14 Meinungen kompakt Statements zu BI 20 Delphi-Roundtable BI I Business Intelligence 2020 26 Delphi-RoundtableBI II Analytik und Perfomance Management in einem intel- ligenten Unternehmen 38 Self-Service I Mit Self-Service erfolgreich im Bereich Business Intelligence 40 Self Service II Self-Service BI im Unternehmen managen 44 Agile Business Intelligence I Agile BI erfolgreich umsetzen 48 Agile Business Intelligence II Modelle als Basis für eine agile BI 50 Datenbasis Datenbankmodelle und -Design am Beispiel von Innovator Architects 52 Big Data Big Data: Chancen und Herausforderungen für die Unternehmenssteuerung 55 BI-Software Softwareauswahl für Business-Intelligence- Werkzeuge 60 Neue Technologien I Cloud, SaaS, Mobile BI - muss das alles sein? 62 Neue Technologien II Mobile Business Intelligence: Mit Echtzeitdaten die Weichen stellen 64 Neue Technologien III Im Fokus mobile Lösungen, automatisierte Dienst- leistungen und BI-Lösungen 66 Reporting und Kennzahlen I Reporting Design - Status quo und neue Wege in der Gestaltung des internen und externen Berichtswesens 70 Reporting und Kennzahlen II Optimiertes Berichtswesen mit SAP Business Planning & Consolidation 74 Planung und Budgetierung I Modern Budgeting: Die Zukunft im Visier! 76 Predicitive Analytics Big Data Warehousing: Anmerkungen zur Zukunft von BI im Zeitalter von Big Data und Predictive Analytics 79 Performance Management Balanced Scorecard mit BI verbinden INHALT 19
  • 20.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 20 Delphi-Roundtable BI 2020 Das Ende des Innovationspotenzials oder der Start in ein neues BI-Zeitalter? S chon seit Jahrzehnten setzen Unternehmen erfolgreich Bu- siness Intelligence-Lösungen ein. Auch wichtigen Trends wie Big Data und In-Memory-Computing, Mobile BI oder Social Intelligence wird dabei bereits häufig Rechnung getragen. Ist damit das Innovations- und Marktpotenzial ausgeschöpft? Was ist heute State-Of-the-Art? Wie sieht es beim Mittelstand aus? Wo tun sich noch spannende Zukunftsperspektiven bis 2020 auf? Wo liegen mögliche Stolpersteine bei BI-Projekten? Das Orakel von Delphi können wir dazu nicht befragen, aber füh- rende Köpfe der Branche. Zum Start unserer Initiative „Business Intelligence 2020“ laden wir daher Sie als Branchen-Experten ein, am virtuellen Delphi-Roundtable teilzunehmen. Ihre Antworten bilden die Basis für alle weiteren Maßnahmen wie z.B. zukünf- tige Themen-Specials oder weitere Roundtables zur Vertiefung. Status quo und Potenziale im Business Intelligence-Markt? Liest man Beiträge zu Business Intelligence, entsteht oft der Eindruck, dass das Thema und auch die neuesten Innovati- onen wie Big Data und In-Memory-Computing, Mobile BI und Social Intelligence bereits in der Breite etabliert sind. Was ist heute schon wirklich State-of-the-Art - auch im Mittelstand? Haben wir das Innovations- und Marktpoten- zial also weitgehend ausgeschöpft oder gibt es doch noch weiße Flecken (Märkte, Innovationen, ...), die man bis 2020 erschließen kann? Dr. Thomas Keil Bis 2020 ist das Innovationspotenzial noch lange nicht erschöpft. Wir stehen gerade am Anfang, denn die vermeidlich klassischen Themen wie Big Data, In-Memory-Computing, Mobile BI und Social Intelligence sind unweigerlich mit Business Intelligence verknüpft und damit mit Business Analytics: Denn aus all diesen Quellen sprudeln Daten hervor, die in echtes Wissen transfo- miert werden wollen, eben mittels High Performance Analytics. Denn mit In-Memory lassen sich nun Anwendungen bauen, die aufgrund ihrer Performance endlich auch die Akzeptanz der Anwender finden werden. Mit Big Data wächst der Bedarf an schnellen Einsichten in große Datenmengen und damit eines der Treiber für einen „geregelten Datenhaushalt“ in Organisationen jeder Größe. Und mit der Verbreitung von geschäftsrelevanten Informationen auch über mobile Endgeräte wächst die Zahl der Anwender. Sie sehen, eine munteres Feld für weitere Innovationen auch in Richtung Veränderung von Geschäftsmodellen. Und damit bin ich beim Mittelstand, denn ich möchte sagen, dass jede High-End-Innovationen bei Großunternehmen dem Mittelstand den Spiegel vorhält, in dem er sehen kann, was auch für ihn wirk- lich „drin“ ist, wenn man sich nur konsequent mit Business In- telligence und dann im nächsten Schritt auch um Business Ana- lytics kümmert. Zu fairen Preisen – wohl gemerkt! Dr. Wolfgang Martin Die neuen Themen wie Big Data, In-Memory-Computing und Social Intelligence sind aktuell keineswegs etabliert, schon gar nicht im Mittelstand. Es gibt heute eine große Lücke zwischen Auszug aus dem Delphi-Roundtable u.a. mit Dr. Thomas Keil (SAS Institute GmbH), Wolfgang Seybold (Cubeware Group), Dr. Sebastian Klenk (EXASOL AG) und Dr. Wolfgang Martin (Wolfgang Martin Team)
  • 21.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Weder Big Data noch In-Memory-Computing oder Mobile BI und Social Intelligence sind bereits in der Breite etabliert.“ - Wolfgang Seybold 21 dem Verständnis dieser Themen bei den Anbietern und Markt-Experten einerseits und der Realität in den Unternehmen an- dererseits. Anbieter und Markt-Experten haben es versäumt, die Kunden und Nut- zer in diese Welt voll neuer Gelegenheiten mitzunehmen und den Nutzen und das Innovationspotenzial nachhaltig zu kom- munizieren. Natürlich gibt es auch Aus- nahmen wie die mittelständische Travian Games in München, ein Mittelständler der Online-Spiele anbietet. Bei Online-Spie- len erzeugen die Clicks der Spieler Big Data. Travian Games setzt zur Speiche- rung Hadoop als Speicher in Kombina- tion mit dem Data Warehouse ein (siehe Wolfgang Martin Team Newsletter Nr. 88 vom Jan. 2013). Wenn eben das Geschäfts- modell auf Information und Daten ba- siert, dann ist man auch als Mittelständler gefordert, neue Trends wie Big Data mög- lichst schnell zu nutzen, um im Wettbe- werb vorne zu bleiben. Anders sieht es bei Mobile BI aus. Da im Privatbereich Smartphones und Tablets bereits eine gute Verbreitung erreicht haben, wächst hier der Druck auch auf mittelständische Unternehmen, Mobile BI einzusetzen. Bei der Best in Cloud-Veranstaltung (Ende Oktober 2013 in Frankfurt/M) gab es gute Fallstudien, die diesen Fortschritt doku- mentieren, beispielsweise Mobile BI aus der Cloud bei Klaus Gross Straßenbau. Wolfgang Seybold In der Anwendungspraxis muss sachlich festgestellt werden, dass die Applikati- onswelt mit den geweckten Erwartungen (noch) nicht mithalten kann: Weder Big Data noch In-Memory-Computing oder Mobile BI und Social Intelligence sind bereits in der Breite etabliert. Das gilt im Allgemeinen, aber im Besonderen auch für den Mittelstand. Vielmehr handelt es sich bei den vorgenannten Schlagworten um reine Enabling-Technologien, die es den Anwenderunternehmen ermöglichen werden, ihre selbst gesetzten Aufgaben und Ziele in den Kernbereichen Analyse, Planung, Reporting und Dashboarding zu erreichen. Zuvor jedoch müssen vor dem Hintergrund überzeugender Kosten/Nut- zen-Kalkulation sinnvolle Anwendungs- beispiele gefunden und etabliert werden. Denn erst wenn die sinnvollen Einsatz- möglichkeiten nicht mehr den technolo- gischen Möglichkeiten hinterherhinken, lässt sich über das Erkennen der Poten- ziale hinaus dieses auch gewinnbringend ausschöpfen – das gilt natürlich für Groß- unternehmen und den Mittelstand glei- chermaßen. Dr. Sebastian Klenk Es sind bei weitem noch nicht alle Po- tenziale des BI-Markts ausgeschöpft. Es gibt noch einige innovative Ansätze, zum Beispiel maßgeschneiderte Lösun- gen für KMU und Kleinstunternehmer. Auch benötigen wir in Zukunft mehr branchenspezifische Angebote wie etwa Geo-Intelligence-Systeme für Logistikun- ternehmen oder Analyse-Tools für Social Media. Mit den rasant wachsenden Daten- mengen steigt der Bedarf an schnellen und präzisen Analysen. Entsprechende BI-Lö- sungen und analytische Datenbanken werden so auch für kleinere Unternehmen interessant. Weitere bisher nicht genutzte Potenziale stecken in Cloud-gestützter BI. Eine sich ändernde Mediennutzung lässt vor allem Mobile Analytics ebenfalls an Bedeutung gewinnen. Hierbei besteht die größte Herausforderung darin, die Analy- sen für einen Kunden über alle Kanäle und Tools hinweg zu vereinheitlichen. Zum Autor Wolfgang Seybold: Wolfgang Seybold hat 30 Jahre Erfahrung in der High-Tech-Branche und als CEO. Seit 2012 ist er CEO der Cubeware Group. Vor seiner Zeit bei Cubeware war er als CEO unter anderem bei Fox Technologies Inc., BlackPearl Inc. und Mindware Inc. tätig. Seine Karriere startete 1983 mit der Entwicklung einer deutschsprachigen Soft- ware für den damals eingeführten PC von IBM. Dies war der Auftakt einer Reihe von erfolgreichen Unternehmensgründungen in unterschiedlichen IT-Sektoren. Nach dem Verkauf dieser Unternehmen im Jahr 1992 wurde er CEO bei einer Unternehmensgruppe, bestehend aus acht in Europa ansässigen Softwarean- bietern. Darüber hinaus rief er im Jahr 2009 das weltweit erste gemeinnützige 99-Dollar-Laptop-Projekt „Cherrypal“ ins Leben, um Computer und den Zugang zum Internet für jeden erschwinglich zu machen. 2010 spendete er die Marke „Cherrypal“ der Non-Profit-Organisation Edwin Foundation.
  • 22.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Wenn das Ziel nicht klar formuliert wird, wird jedes noch so ambitioniertes Business Intelligence Projekt scheitern.“ - Dr. Thomas Keil 22 Status quo und Potenziale im Business Intelligence-Markt? Oft scheitert die Einführung von In- novationen nicht an den Technologien selbst, sondern an Rahmenbedingun- gen wie den Prozessen oder der Ge- setzgebung. Auf welche Herausforderungen müs- sen sich Unternehmen einstellen bzw. welche Probleme müssen gegebenen- falls gelöst werden, um innovative Business-Intelligence erfolgreich zu realisieren? Was hilft, ein Scheitern zu verhindern? Was sind Ihrer Meinung umgekehrt die wichtigsten Chancen, die Business-Intelligence-Lösungen bieten und die die Mühen der Innovati- onsanstrengungen rechtfertigen? Was können Sie BI-Anwendern also an Er- folgspotenzialen versprechen? Dr. Thomas Keil Gut ausgebildete Mitarbeiter – darin liegt die wichtigste Chance und Hürde zu- gleich. Denn wir brauchen Leute, die das in den Daten liegende Potenzial abfragen und herauslesen können. Das Bewusst- sein, dass faktenbasierte Entscheidungen erfolgreicher sind als bloßes Bauchgefühl, ist common sense. Nun gilt es, diese Ein- sicht auch im Unternehmensalltag zu le- ben. Welche Produkte werden wann ins Regal gestellt? Welche Kampagnen wer- den ausgebaut und welcheeingestellt? Das lässt sich alles messen und das Handeln konkret daran ausrichten.Wenn aber das Ziel nicht in aller Klarheit formuliert wird, wird jedes noch so ambitionierte Business Intelligence-Projekt scheitern. Deshalb ist der einfache Rat: Schauen Sie genau hin, wenn es um die Definition des Projekts geht. Würden die Zahlen und Analysen das Potential haben, Entscheidungen zu verändern? Wenn Sie diese Frage vernei- nen, dann können Sie sich den Rest des Aufwands sparen. Dr. Sebastian Klenk Ein großes Thema im Jahr 2013 war Bring Your Own Device (BYOD). Solche tiefgrei- fende Änderung des Nutzungsverhaltens erfordert ein Umdenken: Unternehmen müssen sich mit dem Thema Mobile BI und den entsprechenden Sicherheits- richtlinien auseinandersetzen und hier- für sinnvoll in Hard- und Software sowie Compliance-Lösungen investieren. Eine weitere Herausforderung besteht in der Konsolidierung der Daten – auch in in- ternational agierenden Unternehmen. Weiter ist es bei der Verwirklichung von IT-Projekten äußerst wichtig, dass Fachanwender und IT frühzeitig einge- bunden werden. Erst so entfaltet sich der Nutzen der BI-Investitionen in vollem Umfang: Unternehmen profitieren von ei- nem abteilungsübergreifenden Zugriff auf sämtliche Daten sowie einem umfassen- den Reporting über alle Ebenen. Wolfgang Seybold Das größte sich stellende Problem ist, dass die wenigsten BI-Anbieter dazu bereit sind, sich in die individuellen Problem- stellungen ihrer Kunden hineinzuverset- zen; stattdessen wird meist der eigene Standard zum Alleslöser erklärt. Entspre- chend erhalten im Ergebnis die Anwender statt der erhofften und dringend benötig- ten Lösungen bloße Tools, deren Einsatz nicht selten zunächst einmal mehr neue Probleme bereitet als bestehende löst. Das Ganze geht oft einher mit der Problema- tik fehlenden Branchen-Know-hows auf der Anbieterseite. Etwas überspitzt for- muliert: Wie sollte auch eine erfolgreiche Beratung nachhaltig funktionieren, wenn der Berater noch nicht einmal weiß, wen er bei was berät? Die Gefahr des Scheiterns von BI-Projek- ten liegt regelmäßig aber auch dann vor, wenn das Erstellen und Ausrollen einer für viel zu viel Geld erworbenen Lösung deutlich zu viel Zeit benötigt. Das hängt eng mit dem Vorgehen zusammen, für Zum Autor Dr. Thomas Keil: Dr. Thomas Keil ist Spezialist für Big Data, Information Manage- ment und Business Analytics. Neben seiner Tätigkeit als Marke- tingmanager für Business Analytics bei SAS engagiert er sich als Vorstandsmitglied im Arbeitskreis Big Data des BITKOM. Er vertritt seine Themen sowohl im TDWI als auch im Rahmen der KSFE. Dr. Thomas Keil kam 2011 zu SAS. Davor war er acht Jahre für den Softwarehersteller zetVisions tätig, zuletzt als Head of Mar- keting sowie Head of Channel Sales.
  • 23.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Unternehmen müssen sich mit dem Thema Mobile BI auseinandersetzen“ - Dr. Sebastian Klenk 23 jeden Kunden das Rad neu zu erfinden. Cubeware hat die besondere Bedeutung dieser Faktoren – Lösungsrelevanz, Bran- chenkompetenz und Time-to-Deploy – frühzeitig erkannt und sein langjähriges Lösungs-Know-how in dem 2013 starten- den BI Application Store BISTRO®© ge- bündelt, um hierüber den Kunden einen umfassenden Katalog an branchenspezi- fischen BI-Lösungen anzubieten. Dabei unterscheidet sich BISTRO® grundlegend von den herkömmlichen Ansätzen zur Be- reitstellung von BI-Software, wo Anbieter, Partner und Kunden mit einer Reihe von Software-Tools arbeiten, um Lösungen zu entwickeln, die auf die individuellen Anforderungen zugeschnitten sind. Im Gegensatz dazu geht es um eine Kombi- nation aus vordefinierten Anwendungen mit branchen- und marktspezifischen Funktionalitäten, die sich sehr schnell zu einer maßgeschneiderten BI-Lösung zu- sammenstellen lassen. Auf diesem Weg verkürzt sie die fürs Customizing benötig- te Zeit drastisch und die Kunden können noch schneller von den Nutzenaspekten ihrer BI-Lösung profitieren. Dr. Wolfgang Martin Zunächst einmal ist es völlig richtig, dass Innovationen meist an den Rahmenbe- dingungen scheitern. Um erfolgreich In- novationen durchzuführen bedarf es einer entsprechenden Kultur im Unternehmen. Das beginnt im Vorstand. Ohne den Willen des Vorstands gibt es keine Innovationen. Kommen wir zu Innovationen durch Bu- siness Intelligence und Analytik, so heißt das, das es im Unternehmen einer analyti- sche Kultur bedarf. Das bedeutet, dass alle Mitarbeiter es gewohnt sind, mit Analytik umzugehen und analytische Ergebnisse zu begreifen und umsetzen zu können. Das Unternehmen muss im Endeffekt „wollen“, dass Entscheidungen und Maßnahmen auf allen Ebenen auf Fakten basieren müssen. Erfahrungswissen zählt jetzt nicht mehr so viel wie noch vor fünf Jahren, denn die heu- tigen globalen und zunehmend digitalisier- ten Märkte stellen uns vor Situationen, die wir nicht kennen und unser Erfahrungswis- sen uns daher nicht mehr weiterhilft. Jetzt greift eben die Analytik mit ihren Zahlen, Fakten, Modellen und Simulationen. Da Erfahrungswissen uns heute und morgen immer weniger hilft, müssen wir lernen, Analytik zu vertrauen. Nur Unternehmen mit einer solchen Kultur werden durch Analytik und BI Wettbewerbsvorteile errei- chen. Daraus folgt auch, dass man Prozesse innovativ aufbrechen und auch komplett ändern muss, wenn dies die Lage erfordert. Daraus folgt ebenfalls, dass man im Rah- men von Lobby-Arbeit auf den Gesetzgeber einwirken muss. Denn auch Gesetze müs- sen sich an neue Bedingungen anpassen. Zum Schluss möchte ich noch kurz auf die Frage eingehen, auf welche Heraus- forderungen sich Unternehmen einstellen müssen bzw. welche Probleme müssen gegebenenfalls gelöst werden, um innova- tive Business-Intelligence erfolgreich zu realisieren? Was hilft, ein Scheitern zu ver- hindern? Meine Antwort dazu lautet: Ver- trauen zwischen den verschiedenen Abtei- lungen im Unternehmen zu schaffen. Das untermauert eine kürzlich veröffentlichte IBM-Studie (siehe InformationWeek). Ich möchte aus dieser Studie nur einen Satz von Kathy Reece zitieren, der die Situati- on in den meisten Unternehmen treffend darstellt: „It also comes down to peop- le trusting each other to share their own customer data from the different lines of business. So if you have information about a customer, and you want to hold it tight to your chest and not share it with the other lines of business, it‘s really hard for them to get a 360-degree view of the customer.“ Ein solches gegenseitiges Vertrauen im Unter- nahmen ist natürlich auch Teil einer analy- tischen Kultur. Anbieter Business Intelligence und eigene Differenzierung? Der Markt für Business-Intelligence- Lösungen hat sich seit Jahren stark konsolidiert. Wer sind Ihrer Meinung heute und auch in Zukunft noch wich- tige Akteure auf dem BI-Markt und wo sehen Sie wichtige Unterscheidungs- merkmale der Key-Player? Wodurch differenzieren Sie sich selbst als Anbie- ter am Markt? Dr. Sebastian Klenk In Zukunft werden sich diejenigen Anbie- ter am BI-Markt durchsetzen, die über das differenzierteste Lösungsportfolio und entsprechendes Branchen-Know-how ver- fügen. Als In-Memory-Spezialist bieten wir Leistungsmerkmale, die uns deutlich von anderen analytischen Datenbanken abheben. Verglichen mit den großen Playern wie SAP HANA überzeugt unsere Lösung mit ihren klaren Einsatzmöglichkeiten. EXASolution ist ein System für die analy- tische Ebene und wir sind überzeugt, in diesem Bereich die beste Lösung bereit- zustellen. EXASolution ist der leistungs- stärkste Motor für professionelle Analysen und Business Intelligence. Dr. Thomas Keil In einem dynamischen Markt wie dem für Business Intelligence-Lösungen ist immer Platz für kleine, wendige und innovative Anbieter. Das istgutso – das treibt Innova- tionen bei den großen, etablierten Anbie- tern voran. Die großen Komplettanbieter im Bereich Software haben nun alle auch einen Ableger im Bereich Business Intelli- gence. Das ist dann ausreichend, wenn die meisten Prozesse mit der Software dieser ERP-, Datenbank- oder Infrastruktursoft- wareanbieter abgewickelt werden. Sobald aber immer neue Datenquellen dazu kom- men und noch dazu der Grad der Analyse immer mehr verfeinert wird, kommt die Stunde der Spezialisten. Und wenn Sie nach einem innovativen Spezialisten für Business Intelligence suchen, der noch dazu ein großer, etablierter und verläss- licher Partner ist, fällt mir nur einer ein: SAS. Unsere Unterscheidung ist ganz klar
  • 24.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 24 die Kompetenz im Bereich Analytics. Wo andere die Vergangenheit noch schneller reporten können, gibt unsere Software die Weichenstellungen für zukünftig noch mehr Geschäft vor. Kombiniert mit hand- habbaren Tools für die Verbesserung von Datenqualität und Stammdaten bietet SAS eine umfassende Basis für konkrete Fachlösungen. Dr. Wolfgang Martin „Einen“ Markt für Business Intelligence sehe ich nicht mehr, ich sehe mindestens zwei Märkte, nämlich einen zu Perfor- mance Management und einen zu Analy- tik. Der Markt zu Performance Management (Berichtswesen und OLAP, Kennzahlen, Cockpits, Dashboards und Scorecards, Planung, Konsolidierung und ähnliche Funktionalitäten) ist konsolidiert und wird von den großen Anbietern wie IBM, Microsoft, Oracle und SAP dominiert. Eine gewisse Bewegung kommt jetzt in diesen Markt durch SaaS-Angebote, also Performance Management aus der Cloud, und auch durch Mobile BI und Self-Ser- vice BI. Hier sind kleine Anbieter einfach wendiger und schneller und können so Kunden insbesondere in den Fachabtei- lungen begeistern. Die Verschiebung der Einkaufskraft von IT-Leistungen weg von der IT hin zu den Fachabteilungen unter- stützt diesen Trend. Der Markt zu Analytik (Data Discovery und Visualisierung, prädiktive Analytik, Data Mining, Text Mining, Textanalytik, maschinelles Lernen und ähnliche) sieht dagegen ganz anders aus: Er ist weitge- hend diversifiziert. Hier haben Anbieter wie QlikTech, Tableau Software und TIB- CO Spotfire neue Maßstäbe gesetzt. Hier kaufen sich neue Spieler ein wie Data- watch durch die Übernahme von Panop- tikum. Hier entsteht eine Vielfalt an inno- vativen Startups im Umfeld von Hadoop und NoSQL-Datenhaltungssystemen (sie- he beispielsweise meine Klassifikation von Anbietern bei den isis-specials). Dieser Markt ist aktuell voll in Bewegung, eine Konsolidierung wird es erst in einigen Jah- ren geben. Natürlich versuchen auch die großen, traditionellen BI-Anbieter sich Stücke aus diesem Kuchen einzuverleiben, so hat beispielsweise die SAP vor einigen Wochen den Analytik-Spezialisten KXEN übernommen, und und die IBM zählt hier zu den regelmäßigen Einkäufern. Wolfgang Seybold Wie bereits dargelegt, sind die Cubeware Produkte auf eine schnelle Implementie- rung, die möglichst einfache Bedienung und betont günstige Betriebskosten aus- gelegt. Ich bin fest davon überzeugt, dass unter unserem Mitbewerb jene BI-Anbie- ter, die ein Application-Store-Konzept wie BISTRO ablehnen oder nur halbherzig verfolgen, früher oder später vom Markt verschwinden werden. Case Studies Business Intelligence? Am besten lassen sich Innovationen an erfolgreichen Beispielen verdeutlichen. Können Sie aus Ihrem eigenen Erfah- rungsbereich besonders erfolgreiche Beispiele für innovative Business-Intel- ligence-Lösungen skizzieren? Welche Ergebnisse wurden realisiert, welcher Aufwand war notwendig (idealerwei- se Investments, Amortisationsdauer, ROI), welche wichtigen Partner und Meilensteine trugen zum Erfolg bei? Dr. Thomas Keil Hier will ich gerne mit einem Zitat unseres Kunden Galeria Kaufhof beginnen: „Gera- de in Zeiten von Big Data ist schnell abruf- bare analytische Tiefe extrem wichtig. Mit SAS haben wir für diese anspruchsvollen Herausforderungen einen guten Partner gefunden.” (Die vollständige Referenz fin- den Sie hier) Ausgehend von den zahlreichen Auswer- tungen, die mittels Business Intelligence zur Verfügung stehen, ist es immer häu- figer die Anforderungen, den zugrunde- liegenden Prozess substantiell und auto- matisiert zu verbessern. Im Fall Galeria Kaufhof ging es um möglichst zielgenaue Anschreiben, um die Kunden nicht zu ver- ärgern, sondern im Gegenteil mit maßge- schneiderten Angeboten zu überzeugen. Entscheidend in diesem Projekt war die Zum Autor Dr. Sebastian Klenk: Dr. Sebastian Klenk ist seit Anfang 2013 als Product Manager bei der EXASOL AG tätig. Für den Datenbankspezialisten wird Klenk insbesondere die Entwick- lung neuer Produkte weiter vorantreiben. Klenk studierte Informatik an der Universität Stuttgart. Während seiner Diplom- arbeit und anschließend als wissenschaftlicher Mitarbeiter entwickelte der Data Mining-Spezialist wegweisende Software für Ärzte und Medizinische Dokumen- tare. Er promovierte am Institut für Visualisierung und Interaktive Systeme zum Thema „Kompressionsbasierte Mustererkennung“ und war in seiner letzten be- ruflichen Station als Software Engineer bei Sony Deutschland tätig.
  • 25.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 25 klare Zielorientierung und ein passgenau- er Einsatz von Automatisierung – damit die Anwender im Unternehmen sich auf die eigentliche Wertschöpfung konzent- rieren konnten. Ein häufiges Thema ist die Zusammen- arbeit zwischen IT und Fachbereich. Die einen wollen vor allem die IT Governan- ce-Richtlinien einhalten, die anderen brauchen schnelle Lösungen für konkrete Probleme. Mit dem Konzept des „Self-Ser- vice-Business Intelligence“ hat SAS hier alle nötigen Tools an Bord, um beide Sei- ten optimal bedienen zu können – auf allen Ebenen: von der Datenintegration über Datenqualität bis hin zum Reporting. Viele weitere Beispiele gelungener Projek- te finden Sie hier. Wolfgang Seybold Wir haben in unserer mittlerweilesiebzehn- jährigen Geschichte steter Weiterentwick- lung Tausende von zufriedenen Kunden und entsprechend nachweisliche Erfolge zu verbuchen. Natürlich lässt sich bei ge- nauem Hinsehen der ROI im Einzelfall nur sehr schwierig beziffern, da in BI-Projekten regelmäßig sowohl messbare als auch nicht messbare Verbesserungen in der Entschei- dungsfähigkeit von Unternehmen zusam- menkommen. Insofern kann es sich per se bei ROI-Werten nur um Schätzwerte han- deln. Wir haben jedoch von vereinzelten Kunden gehört, dass ihren Berechnungen zufolge der ROI weit unter einem Jahr liegt. Dr. Wolfgang Martin Das ist richtig, und es gibt auch hinrei- chend viele Beispiele. Neulich hat Gart- ner-Analyst Doug Laney in einer seiner Präsentationen 55 Fallstudien zu Big Da- ta-Analytik präsentiert. Das konnte man beispielsweise bei SearchCIO nachlesen. Als Analyst lasse ich hier aber das Feld den Anbietern, die auf ihren Webseiten ja ent- sprechende Fallbeispiele vorhalten. Maßnahmen für größeren Markterfolg von BI? Um den Erfolg von innovativen Busi- ness-Intelligence-Lösungen im Markt zu fördern, unterstützen wir im Rah- men unserer Meta-Initiativen („2020“) auch dieses Thema mit unseren Part- nern. Mit BARC, TDWI und anderen Organisationen, Veranstaltern und Netzwerken ist die BI-Community schon umfassend vernetzt. Wo sehen Sie noch Bedarf, das Thema über das heutige BI-Ecosystem hinaus zu unterstützen? Wie könnte man an- dere Netzwerke und Aktivitäten unter- stützen und vernetzen? Welche Kom- petenzen können und möchten Sie einbringen, um die Community und andere Unternehmen bei ihrem Wand- lungsprozess zu unterstützen? Dr. Thomas Keil Business Intelligence und erst recht „Big Data“ klingt nach viel Technik: das schreckt ab und wird immer noch als IT-Thema qualifiziert. Es muss den An- bietern noch mehr, den konkreten Nutzen ihrer Lösungen fürdie Herausforderungen der Unternehmen aufzuzeigen. Im BIT- KOM engagieren wir uns, und auch ich persönlich, im Zusammenhang mit „Big Data“. Dort konnte ein umfassender Leit- faden für das Thema erarbeitet werden, dervorallem Beispiele und Anwendungss- zenarien versammelt sowie einen Konsens im Bereich Definition und Begriffsbildung versucht. Das kann der Sache nur helfen – sonst operiert jeder Anbieter mit seiner spezifischen Sicht auf das immer gleiche Thema und verwirrt mehr, als damit er- klärt werden kann. Wie können wir näher an die Anwender heranrücken? Vielleicht mit Business Intelligence-Arbeitsgruppen in den Branchenverbänden von Automo- bilindustrie über Pharma bis hin zum Ver- band der Einzelhändler? Das würden wir gerne unterstützen. Wolfgang Seybold BI-Lösungen werden schon in der nahen Zukunft für jeden kaufmännischen Ange- stellten und umso mehr jeden Manager zum täglichen Handwerkszeug gehören. Entsprechend müssen sich Berufsschulen, Fachhochschulen und Universitäten auch darauf einrichten und das BI-Thema in ihren Lehrplänen bzw. Studienangeboten auf breiterer Front als bislang berücksich- tigen. Dr. Sebastian Klenk Bedarf sehen wir hinsichtlich einer ziel- gruppenspezifischen und glaubwürdigen Kommunikation des Anwendernutzens von BI-Lösungen. Dies lässt sich beispiels- weise anhand praktischer Fallstudien erreichen. Zudem bieten wir praxisori- entierte Workshops vor Ort an, um die Vorteile für die Anwender noch deutlicher hervorzu-heben. Fachlich bringt EXASOL eine hohe Kompetenz in der In-Memo- ry-Technologie ein und adaptiert dabei flexibel die individuelle Herangehens- weise und Umsetzung bei den Kunden. Hierbei kommt uns die Hardware-Unab- hängigkeit zugute, durch die sich EXASo- lution passgenau in jede IT-Landschaft integrieren lässt. Zum Autor Dr. Wolfgang Martin: Vor der Gründung des Wolfgang MARTIN Teams war Dr. Martin 5 ½ Jahre lang bei der META Group, zuletzt als Senior Vice President International Application Delivery Strategies. Darüber hinaus kennt man ihn aus TV-Interviews, durch Fachartikel in der Wirtschafts- und IT-Presse, als Autor der Strategic Bulletins zu den Themen BI/BPM, SOA und CRM (www.it-research.net) und als Her- ausgeber und Co-Autor,.
  • 26.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 26 Delphi-Roundtable Analytik und Performance Management in einem intelligenten Unternehmen „In the Age of Analytics, as products and services become ‚lighter‘ (i.e., less physical and more digital), manufacturing and distributi- on costs-while still important-will be augmented with new metrics - the costs of know, the flow of know, and the costs of not knowing.“ - Thornton May1 , Futurist, Executive Director, and Dean of the IT Leadership Academy D ie älteste bekannte Quelle, in der der Begriff Business Intelligence (BI) verwendet wird, stammt aus dem Jahre 1958. Im Oktober-Heft des IBM-Journals schreibt Hans Peter Luhn über „A Business Intelligence System“. 1989 greift Howard Dresner, seinerzeit Analyst bei der Gartner Group, den Begriff wieder auf, und es ist die Gartner Group, die in den 90er Jahren diesen Begriff benutzt, verbreitet und bekannt macht. Der Anspruch des Konzeptes Business Intelligence ist, Entscheidun- gen auf Fakten zu stellen und bessere Entscheidungen zu treffen. Heute gibt es zwei unterschiedliche Zweige von Business Intel- ligence, die man zusammen als Nachfolger von Business Intelli- gence verstehen kann: Analytik und Performance Management. Analytik dient der Ableitung von Wissen aus internen und ex- ternen Daten für Unternehmenssteuerung ganz im Allgemeinen. Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Analytik und Performance Management sind so zur wesentlichen Grundlage von Steuerung im Unterneh- men zur Umsetzung der Management-Prinzipien Industrialisie- rung, Agilität und Compliance geworden. Mit Hilfe von Analytik lässt sich auch Big Data erschließen und wertvolles neues Wissen zur Steuerung im Unternehmen ablei- ten. Mit Hilfe von Performance Management kann dieses Wissen über eine Service- und Prozess-Orientierung von den Unterneh- mensstrategien bis zum operativen Tagesgeschäft hin umgesetzt und in allen Aktivitäten eines Unternehmens eingesetzt werden. Man schafft ein intelligentes Unternehmen. Hierin liegt der Nut- zen und Wert von Analytik und Performance Management. Aber wie weit wird das in den heutigen Unternehmen verstanden und gelebt? Dr. Wolfgang Martin fragt nach! Viel Spaß beim Lesen wünscht Ihnen Ihr Dr. Wolfgang Martin für das Team der Competence Site Auszug aus dem Delphi-Roundtable, initiiert von Dr. Wolfgang Martin (Wolfgang Martin Team) u.a. mit Stefan Sexl (pmOne AG), Bertram Geck (MID GmbH), Wolfgang Seybold (Cubeware Group) und Dr. Ulrich Kampffmeyer (PROJECT CONSULT Unternehmensberatung GmbH) 1 Thornton May: „The New Know“, Innovation Powered by Analytics, 2009
  • 27.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 27 Self-Service BI, die Zukunft von BI oder derWeg ins Chaos? Traditionelle Business Intelligence -Werkzeuge waren vielfach schwer zu handhaben. Nur eine Handvoll Ex- perten war in der Lage, aus den tra- ditionellen Werkzeugen die richtige Information herauszuziehen. Manage- ment-Entscheidungen und Maßnah- men wurden daher eher auf Grund von Vermutungen getroffen, weniger auf Grund von Fakten. Heute soll „Selbst-Bedienungs-BI (self-service BI)“ ermöglichen, dass auch gelegentliche Nutzer von Ana- lytik und Performance Management die Fakten und die Information be- kommen, die sie benötigen. Führt das nicht in ein Reporting-Chaos und in den Excel-Zustand inkonsistenter Un- ternehmenszahlen? Dr. Ulrich Kampffmeyer Business Intelligence war bisher immer ein Spezialisten-Job – und dies mit Grund. Informationen aus verschiedensten Quel- len mit unterschiedlicher Qualität und inhaltlicher Bedeutung müssen für die Auswertung in Beziehung gesetzt werden. Hierzu sind Kenntnisse nicht nur über Datenstrukturen und deren Inhalte son- dern über deren Kontext wichtig. „Self- Service-BI“ ist daher in der Gefahr im „wil- den Zusammenklicken von irgendwelchen Feldern zu enden“. Der gelegentliche Nut- zer braucht Schulung über die Nutzung, die Wirkungsweise und die Intepretation der Ergebnisse. Eine Chance gibt es dann, wenn sinnvoll vorgefertigte Schemas an- geboten werden, die vom gelegentlichen Nutzer gestartet und gegebenenfalls para- metrisiert werden können. Sonst gibt der Satz „A fool with a tool is still a fool“. Ohne Ausbildung geht gar nichts. Wolfgang Seybold Zunächst ist es wichtig, festzuhalten, dass der Begriff Self-service BI nicht eine Tech- nologie beschreibt, sondern ein Informa- tionskonzept. Die Anforderung schnell und unkompliziert auf aktuell benötigte Informationen zurückgreifen zu können, ist in der sich immer weiter beschleuni- genden Geschäftswelt essentiell. Der Um- weg über die IT oder über einige wenige Experten im Unternehmen dauert an die- ser Stelle, besonders bei entscheidungs- kritischen Informationen, häufig zu lan- ge. Einfach zu bedienende grafische Tools, die ohne Programmierkenntnisse aus- kommen, sind an dieser Stelle ein erster und wichtiger Schritt. Ebenso die Verwen- dung von Gesten-gesteuerten Endgeräten wie Tablets und Smartphones spielen hier eine zunehmend größere Rolle aufgrund ihrer Benutzerfreundlichkeit und großen Durchdringung des Consumer-Marktes. Doch das Konzept Self-service BI geht weit über diese softwareergonomischen Aspekte hinaus: Es geht zudem darum, dem Anwender die Möglichkeit zu ge- ben, sich nicht nur selbstständig in der BI-Lösung zu bewegen, sondern gezielt eigene Erkenntnisinteressen befriedigen zu können und von den vorgegebenen Re- porting- und Analyseangeboten abzuwei- chen. Ad-hoc-Analysen sind hier ein gutes Beispiel. Self-service BI rückt den Anwen- der in den Fokus der Entwicklungen – zu- recht, kommt ihm doch eine Schlüssel- stellung in diesem System zu. Doch Ihre Frage ist völlig berechtigt, denn mit der Einführung von BI-Lösungen sind Unternehmen nicht zuletzt daran interes- siert, ein unternehmensweites und kon- sistentes Reporting zu etablieren, das die Entscheidungsgrundlage bilden und allen Abteilungen den gleichen Zugriff auf kon- sistente Kennzahlen sowie einheitliche Metadaten ermöglichen soll – der soge- nannte „single point of truth“. Die Aufwei- chung dieser Informationsbasis durch die „Selbst-Bedienungs-BI“ sehen viele als kri- tisch und als einen Schritt Richtung Infor- mationschaos und zurück in die Zeit vor BI-Lösungen. Die Praxis hat aber gezeigt, dass auch zu strikte BI-Vorgaben Insellö- sungen in den Fachabteilungen befeuern, da oftmals individuelle und notwendige Bedürfnisse nicht mehr ausreichend be- friedigt werden können. Zu wenig Analy- sefreiheit ist „Gift“, zu viel auch. Was also tun? Wir bei Cubeware vertreten den An- satz der „Managed Self-service BI“: denn die Projekterfahrung zeigt, die Mischung aus nutzergruppenspezifischen Standar- dreports als unternehmensweite Informa- tionsbasis und sinnvoll rollengesteuerten, Zum Autor Dr. Wolfgang Martin: Vor der Gründung des Wolfgang MARTIN Teams war Dr. Martin 5 ½ Jahre lang bei der META Group, zuletzt als Se- nior Vice President International Application Delivery Stra- tegies. Darüberhinaus kennt man ihn aus TV-Interviews, durch Fachartikel in der Wirtschafts- und IT-Presse, als Autor der Strategic Bulletins zu den Themen BI/BPM, SOA und CRM (www.it-research.net) und als Herausgeber und Co-Autor, u.a. „Data-Warehousing - Data Mining - OLAP“, „CRM-Jah- res-Gutachten“, und „CRM-Trendbook 2009“.
  • 28.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 28 Zum Autor Stefan Sexl: Seinen Einstieg in den Business Intelligence Markt hatte Stefan Sexl in verschie- denen Rollen (Support, Consulting) Anfang der 90er Jahre. Er ist Mitgründer der EFS Informationstechnologie, eines österreichischen Beratungsunternehmens für OLAP und BI und war dort Geschäftsführer für Vertrieb und Marketing von 1992- 1996. Bei der MIS GmbH (später: MIS AG) war Sexl Leiter Produktmanagement für Bu- siness Intelligence (1996-1999), danach dann Geschäftsführer Vertrieb/Marketing der MIS Technologies, nach einem Jahr Pause als freier Berater und Autor kehrte er dann zur MIS Gruppe zurück und wurde Vorstand Marketing & Produkte des Unternehmens bis 2005. Sexl ist Mitgründer und Vorstand der pmOne AG, München und Wien. individualisierbaren Analysemöglichkei- ten bringt die besten Ergebnisse bei effizi- enten Informationsprozessen. So wird die Gefahr der Entstehung eines „Spider Web“ verhindert. Self-service BI bedarf also so- wohl auf technischer als auch fachlicher Ebene eines durchdachten Informations- konzepts. Fehlt dies, droht wirklich das Chaos auszubrechen. Stefan Sexl Eine Gleichsetzung von Excel mit Inkon- sistenzen ist angesichts von Meldungen über Restatements von börsennotierten Unternehmen wegen Formelfehlern in Excel verständlich, greift aber zu kurz: Die Probleme tauchen dann auf, wenn Excel für die Datenhaltung verwendet wird. Die Präsentations- und Gestaltungsebene von Excel hingegen ist erstens unendlich flexi- bel und zweitens ohnehin nicht zu verhin- dern: Nach meiner Erfahrung greifen An- wender auch in Unternehmen, die nicht auf Excel für Business Intelligence setzen, letzten Endes doch wieder auf Excel zu- rück, was vor allem an seiner Flexibilität liegen mag. Deswegen sollte mehr darauf geachtet werden, dass Endanwender ihre Lösungen in einer Umgebung aufbauen, in der die IT nicht nur beobachten kann, was passiert, sondern auch eine saubere Datenschicht „darunter“ legen kann. Da- mit IT-Verantwortliche also nachverfolgen können, welche Daten exportiert wer- den, oder welche User wann auf welche Lösungen zugreifen. Wir nennen dieses Konzept „Managed Self Service“. Unsere Realisierung von Managed Self Service in einer Business Intelligence Information Architecture bei Heraeus wurde 2012 mit dem renommierten, vom BARC-Institut verliehenen „Best Practice Award Business Intelligence“ ausgezeichnet. Bertram Geck Im heutigen dynamischen und durch Komplexität determinierten Unterneh- mensumfeld soll Business Intelligence einen intelligenten, agilen Entschei- dungsprozess gewährleisten und neue Po- tenziale aufdecken. Die Beweglichkeit im BI-Umfeld wird jedoch oftmals durch das Unvermögen traditioneller BI-Werkzeu- ge getrübt, die Nachfrage der Anwender nach mehr Unabhängigkeit, Flexibilität und Benutzerfreundlichkeit bei der Nut- zung von Informationen und Analysen vollständig zu befrieden. Dadurch wird der Time-to-Value reduziert. Diesen Man- gel zu beheben, ist Self-Serivce BI, durch seinen Fokus auf die Anwenderintegra- tion einerseits und die Entlastung der IT andererseits, in der Lage. Ein Trend, wel- cher den Weg für viele weitere Trends und technische Entwicklungen wie Mobile BI, BI in der Cloud, Social Media Analyse und Big Data ebnet. Self-Service BI kann des- halb, meiner Meinung nach, unter der Vo- raussetzung einer adäquaten Anwendung einen enormen Wertbeitrag herbeiführen. Besonders im Bereich Time-to-Market bei dynamischen und sich schnell ändernden Geschäftsanforderungen ist das Konzept des Selbst-Bedienungs-BI vielverspre- chend. Worin offenbart sich allerdings eine fachgemäße, korrekte Anwendung von Self-Service BI? Meiner Ansicht nach, müssen sich BI-Tools vor allem durch Nut- zerfreundlichkeit und einen einfachen Datenzugang auszeichnen um dem As- pekt der „Selbst-Bedienung“ gerecht zu werden. Ein praktikables Self-Service BI Tool muss Anwendern die Erstellung und Modifika- tion von Berichten, Analysen und Dash- boards – mit minimaler IT Intervention – ermöglichen. Dazu bedarf es intuitiver, benutzerfreundlicher Werkzeuge und vor- definierter Berichts- und Dashboard-Ob- jekte. Der Berichterstellungsprozess sollte somitdurchfüreinen Fachbereichsanwen- der verständliche Formen und Richtlinien geprägt sein. Self-Service BI muss unter- schiedliche Wege zur selbstständigen Integration privater, lokaler Daten auf- zeigen. Die Möglichkeiten der Datenin- tegration sollten von der vollkommenen Überführung in einen zentralen Daten- speicher (z.B. Data Warehouse) über die Kombination aus lokaler und zentraler Verfügbarkeit in Form von semantischen Layers bis hin zur Verknüpfung von Da- ten über sogenannte „Schlüssel“ rangie- ren. Die Verknüpfung von Datenmodel- len und Prozessmodellen ist im Rahmen einer Self-Service Philosophie essentiell wichtig und muss sowohl für Anwender mit wenigen Notations-Erfahrungen als auch für Anwender mit vollständiger No- tationserfahrung einfach realisierbar sein.
  • 29.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 29 Die Kunst der Self-Service BI Werkzeuge besteht darin jeden Anwender zum Mo- dellierer zu befähigen. Gesetzt des Falls, dass diese Anforderungen erfüllt werden, kann Self-Service BI einen erheblichen Beitrag zu einer schnellen, fundierten Entscheidungsfindung leisten. Die durch Self-Service BI geschaffene, lokale Flexi- bilität erschwert allerdings gleichzeitig die Einhaltung unternehmensübergrei- fender Standards. Deshalb ist eine zentral verankerte, einheitlich akzeptierte Data Governance – als Rahmenwerk zur Über- wachung der Verwaltung und Änderung von Daten - im Unternehmen unverzicht- bar. Ist diese nicht definiert, kann es zu mehrfach unterschiedlich aufbereiteten Daten, Analysefehlern, sinkender Daten- qualität, zur Entstehung von Datensilos oder zum von Ihnen angesprochenen Re- porting-Chaos und dem Excel-Zustand inkonsistenter Unternehmenszahlen führen. Der Datenaustausch muss somit strukturiert gestaltet werden um ein Re- porting-chaos zu vermeiden. Self-Service BI wird dementsprechend in meinen Au- gen nur dann zum adäquaten, zukunfts- weisenden Konzept wenn einerseits der individuelle Anwender mit Selbst-Be- dienungs-Funktionen und -Werkzeugen versorgt und andererseits unternehmens- weit eine Architektur für eine akzeptierte Governance etabliert wird. Nicht zuletzt müssen einzelne BI Daten ins Gesamtbild passen um Mehrwert zu liefern. PredictiveAnalytics,kann man die Zukunft vorhersagen? In einer Kristallkugel soll man die Zukunft sehen und erkennen können. Wird Predictive Analytics jetzt zur Kristallkugel im Unternehmen, mit der man das Unternehmen steuern kann? Wolfgang Seybold Predictive Analytics ist vom Prinzip her nichts Neues. Schon immer wurde in Unternehmen auf Grundlage von per- sönlichen Erfahrungen, gesammelten Marktdaten, Erklärungsmodellen unter- schiedlicher Natur sowie von Marktbeob- achtungen und -befragungen und vielem mehr versucht, Rückschlüsse auf das zu- künftige Marktverhalten zu ziehen. Der Erfolg dieser Vorhersagen variiert jedoch stark in Abhängigkeit der Detailtiefe. Aus- sagen für die Makro- gelingen häufig bes- ser als für die Mikroebene. Predictive Ana- lytics will nichts anderes: aus historischen Daten sollen neue Datensätze, sprich Vorhersagen, generiert werden. Das neue daran ist die Tatsache, dass dies weitest- gehend automatisiert durch Algorithmen und mit Hilfe riesiger Datenmengen un- terschiedlicher Formate und Quellen ge- schehen soll. Je mehr Daten mit einbezo- gen werden, so die Hoffnung, desto tiefer kann auch in die Mikroebene eingetaucht werden. Für spezifische Fragestellungen und um bereits bekannte Zusammenhän- ge mit weiteren Fakten zu unterfüttern, ist dies durchaus sinnvoll – keine Frage. Ma- nuelle Auswertungen stoßen hier zwangs- läufig an ihre Grenzen. An Predictive Analytics führt über kurz oder lang kein Weg vorbei. Es jedoch als allein glückse- lig machendes Heilmittel für die gesamte Unternehmenssteuerung zu verkaufen, ist überzogen. Mit Sicherheit kann Predictive Analytics in Zusammenspiel mit Big-Da- ta-Technologie und Data-Mining-Ansät- zen auch helfen bisher verborgene Korre- lationen zu identifizieren. Muster können so beispielsweise zur näheren Betrach- tung in den Fokus des Betrachters gerückt werden. Diese Muster sollten aber dann unbedingt von Menschenhand validiert werden, denn wie die Historie der Wahr- scheinlichkeitsrechnung und der Statistik zeigt, sind Zufälligkeiten nicht zu unter- schätzende Aspekte. Predictive Analytics wird künftig ein we- sentlicher Bestandteil von Business-Ana- lytics-Lösungen, aber die Zukunft vorher- zusagen bleibt nach wie vor ein Traum. Die Annäherung daran wird aber defi- nitiv erleichtert. Neben der Anwendung von Predictive Analytics werden Busi- ness-Analytics-Lösungen aber auch die generierten Ergebnisse einer viel größeren Anwendergruppe zugänglich machen, als es bisher der Fall war. Zum Autor Wolfgang Seybold: Wolfgang Seybold hat 30 Jahre Erfahrung in der High-Tech-Branche und als CEO. Seit 2012 ist er CEO der Cubeware Group. Vor seiner Zeit bei Cubeware war er als CEO unter anderem bei Fox Technologies Inc., BlackPearl Inc. und Mindware Inc. tätig. Seine Karriere startete 1983 mit der Entwicklung einer deutschsprachigen Soft- ware für den damals eingeführten PC von IBM. Dies war der Auftakt einer Reihe von erfolgreichen Unternehmensgründungen in unterschiedlichen IT-Sektoren. Nach dem Verkauf dieser Unternehmen im Jahr 1992 wurde er CEO bei einer Unternehmensgruppe, bestehend aus acht in Europa ansässigen Softwarean- bietern. Darüber hinaus rief er im Jahr 2009 das weltweit erste gemeinnützige 99-Dollar-Laptop-Projekt „Cherrypal“ ins Leben, um Computer und den Zugang zum Internet für jeden erschwinglich zu machen. 2010 spendete er die Marke „Cherrypal“ der Non-Profit-Organisation Edwin Foundation.
  • 30.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Eine komplette automatisierte Ableitung für eine „Steuerung von Unternehmen“ ist Zukunftsmusik“ - Dr. Ulrich Kampffmeyer „Predictive Analysis Modelle reduzieren Planungsrisiken, optimieren Ressourcen- planung und verbessern das Kundenverständnis“ - Bertram Geck 30 Bertram Geck Die Zukunft vorherzusagen, das wün- schen sich sicherlich viele Unternehmen. Gerade im Rahmen der milliardenschwe- ren Wertverluste während der Finanzkri- se, wäre die frühzeitige Vorhersehbarkeit wirtschaftlicher Entwicklungen Gold wert gewesen. Dass eine Kristallkugel, in Ihrem traditionellen Sinne als Requisit des Okkultismus, welches Verborgenes sichtbar machen, Vermutungen aufstellen und eine Grundlage für die Interpretation von zukünftigen Ereignissen schaffen soll, nicht notwendig ist, wird dabei oftmals verkannt. Als Substitut im Zeitaltervon Big Data und Co kann die prädiktive Analyse betrachtet werden, deren Wert nur sukzessive durch Unternehmen erkannt wird. Auf Basis von prognostizierenden Analysen sollen komplexe wirtschaftliche Zusammenhän- ge durch Unternehmen identifiziert, das daraus ableitbare Wissen als fundierte Entscheidungsgrundlage herangezogen werden. Nicht nur eröffnet Big Data ein- zelnen Unternehmen die Möglichkeit das Wissen über Business, Wettbewerber und Kunden zu vertiefen, Predictive Analytics Modelle tragen auch zu einer Reduktion von Planungsrisiken, einer optimierten Ressourcenplanung und einem besseren Kundenverständnis bei. Dies resultiert nicht zuletzt in einer kundenspezifischen Ausgestaltung von Produkt- und Ser- viceportfolio. Die Kristallkugel der Gegenwart heißt Predictive Analytics, aber wie lassen sich Veränderungen im Unternehmensumfeld antizipieren? Durch die Analyse von Big Data, können heterogene Datenquellen auf allgemeingültige Schemata hin über- prüft werden. Auf Basis vergangenheits- bezogener Daten, lassen sich effiziente Zukunftsprognosen ableiten. Beispiels- weise können saisonal- oder produktbe- dingte Verkaufspeaks in die künftige Un- ternehmensplanung integriert werden, wodurch sich Geschäftsziele schneller in Opportunities umwandeln lassen und ein komparativer Konkurrenzvorteil ent- stehen kann. Risiken wie beispielsweise das alljährlich absehbare Winterchaos der deutschen Bahn werden so frühzeitig berechenbar und ebenjenen kann durch passende Problemlösungsansätze gezielt entgegengewirkt werden. Business Intelligence in Form von Kenn- zahlen, Auswertungen und Soll-Ist-Ver- gleichen trägt schon heute dazu bei, dass Ist-Analysen eine präzise Entscheidungs- grundlage bilden können. Allerdings ist Business Intelligence in meinen Augen nur dann wirklich sinnvoll, wenn es auch zukunftsorientiert arbeitet, was durch die Unterfütterung mit entsprechender Big Data realisierbar ist. Nicht nur durch die Identifikation von Mustern und Ana- lyse-Algorithmen strukturierter sowie unstrukturierter Datenmengen, auch auf Basis statistischer Berechnungen, Simula- tionen, Elementen der Spieltheorie sollen künftig nicht nur Trends und damit ein- hergehende Chancen sondern auch Be- drohungen und damit zusammenhängen- de Risiken kalkulier- und prognostizierbar werden. Stefan Sexl Nach meinem Verständniswerden für Pre- dictive Analytics verschiedene mathema- tische und statistische Verfahren in einem Datenbestand eingesetzt, um Prognosen zu erstellen. Beispiel Wartungsintervall von Maschinen: Aus vielen Messdaten, die während eines Produktionsprozesses an- fallen, lässt sich mit statistischen Verfah- ren unter anderem prognostizieren, wann Verschleißteile ausgewechselt werden müssen. Und so gibt es eine Vielzahl von Anwendungsfällen für Predictive Ana- lytics, wie etwa die Personaleinsatzpla- nung und die Befüllung von Frischethe- ken in Abhängigkeit von Wetterdaten oder die Ausfallwahrscheinlichkeit von Konsu- mentenkrediten – übrigens alles Beispiele, bei denen sich ein ROI berechnen lässt, was in der Business Intelligence Branche ansonsten ein schwieriges Thema ist. Dr. Ulrich Kampffmeyer „Predictive Analytics“ ist auch nichts Neu- es.seit den Zeiten, wo man sich mit Exper- tensystemen der wissensbasierten Syste- men beschäftigt hat oder heute im Umfeld von BI und BDA Big DataAnalytics, galtes, aus den Daten Rückschlüsse auf zu erwar- tende, zukünftige Zustände oder Entwick- lungen zu ziehen. „Predictive Analytics“ ist das Berechnen von möglichen wahr- scheinlichen Entwicklungen. Predictive Analytics ist von der Art und der Qualität der Daten und der Auswertungsalgorith- men abhängig. Eine komplette automati- sierte Ableitung für eine „Steuerung von Unternehmen“ ist Zukunftsmusik, wenn nicht sogar eine Gefahr. Allerdings in Be- reichen der Produktion, der Lagerhaltung, der Logistik, der Angebotssteuerung in Medien sind solche Techniken bereits weit verbreitet. Hierbei geht es aber eher um saisonale Effekte oder Käuferverhalten, aber auch um Abarbeitung von Prozessen der eigenen Mitarbeiter im Unternehmen an Hand von Daten fassbarer Prozesse - je- doch nicht um die Steuerung des Gesamt- unternehmens. Letztlich sind die Ergeb- nisse, die „Predictive Analytics“ liefert zu interpretieren und damit ein Hilfsmittel für Entscheider im Unternehmen.
  • 31.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE 31 Datenvisualisierung, ist das Auge wirklich ein guter Detektor oder ist alles nur ein „Trompe l’œil“? Datenvisualisierung gilt als state-of- the-art in der Analytik: Das Auge ist ein exzellenter Detektor für versteck- te Strukturen, sagt man. Umgekehrt wissen wir, dass man sehr wohl das Auge leicht täuschen kann. Brauchen wir wirklich all die bunten Bilder, um Daten zu verstehen und zu interpre- tieren, oder lassen wir uns hier etwas vorgaukeln? Dr. Ulrich Kampffmeyer Die Visualisierung von komplexen Zusam- menhängen ist sehr schwierig. Dies haben wir schon bei der Konzeption von MIS Management Information Systems in der Vergangenheit gelernt, wo man mit Am- peln, Karten und Graphen versucht hat, Entscheidern Dateninhalte erkennbar und sicher interpretierbar aufzubereiten. Die Frage ist jedoch nicht „brauche ich Visualisierung“ sondern wieviel Visuali- sierung für welchen Zweck. Hier sind die Möglichkeiten grafischer Userinterfaces heute fast uner¬schöpflich. Es kommt aber darauf an, wesentliche Inhalte oder Veränderungen sofort erkennbar zu ma- chen. Visualisierung muss zielgerichtet und angemessen für den Benutzer sein. Bunte Oberflächen allein helfen nicht. Außerdem muss der Zugang zu den da- hinterliegenden Daten und deren Verar- beitungsprozess in jedem Fall zusätzlich gegeben sein. Manche Entwicklungen im Markt für Oberflächen wie z.B. 3-D oder Gamification haben bei BI, wenn die Da- ten für Geschäftsentscheidungen genutzt werden sollen, meines Erachtens keinen Platz. Stefan Sexl Stephen Few oder Dr. Rolf Hichert kri- tisieren bereits seit einigen Jahren die Auswüchse der Datenvisualisierung und machen Vorschläge für ein Informati- on Design oder geben ein Regelwerk vor. Auch die pmOne AG befasst sich sehr intensiv mit den Themen Information Design und Reporting. In einer langfris- tigen Forschungskooperation mit der Fachhochschule Oberösterreich und der KPMG Österreich untersuchen wir aktu- ell, wie die Wirksamkeit unterschiedli- cher Darstellungen empirisch geprüft und verbessert werden kann. Dabei kommt die Eye-Tracking-Technologie zum Ein- satz, von deren Nutzen Prof. Dr. Heimo Losbichler, der die Forschungen leitet, jüngst in einem „Interview über Reporting Design zur Verbesserung des Berichtswe- sens“ ausführlich berichtet hat. Mit Eye Tracking lässt sich genau erkennen, wo- hin ein Berichtsempfänger schaut, wie oft und wie lange und ob die daraus ge- zogenen Schlüsse richtig oder falsch sind. Eye Tracking gibt Aufschluss über Wahr- nehmungsmuster der Berichtsempfänger – und dadurch detaillierte Anleitungen, wie Berichte optimiert werden können. Bei der von der Fachhochschule Ober- österreich entwickelten Methodik wird unterschieden zwischen den objektiven Kriterien der Effizienz, also wie schnell Darstellungsformen erfasst werden, der Effektivität, also wie weit die Informatio- nen dann auch richtig aufgenommen wer- den, sowie der subjektiven Zufriedenheit der Berichtsempfänger. Damit machen wir messbar, was funktioniert und wollen einen Beitrag leisten zur Objektivierung einer oft geschmacksorientierten Debatte. Wolfgang Seybold Advanced Visualization ist ein großes Thema in der Business Intelligence im Hinblick auf die immer größer werdenden Datenmengen und der Benutzerfreund- lichkeit. Tatsächlich gibt es medienpsy- chologische Untersuchungen, die nahe- legen, dass der Mensch Daten leichter aufnehmen und Muster erkennen kann, wenn er sie in einer grafischen Darstel- lung vorfindet. Allerdings ist dies eine zweischneidige Angelegenheit: Für die schnelle Aufnahme ist die grafische Visua- Zum Autor Dr. Ulrich Kampffmeyer: Dr. Ulrich Kampffmeyer, Jahrgang 1952, ist Gründer und Ge- schäftsführer der PROJECT CONSULT Unternehmensberatung GmbH, Hamburg. Vor seiner Tätigkeit als Geschäftsführer von PROJECT CONSULT war Dr. Kampffmeyer an mehreren Universitäten, Forschungsin- stituten sowie für DMS-Anbieter und Consulting-Unternehmen tätig. Dr. Kampffmeyer ist anerkannter Kongressleiter, Referent und Mo- derator zu Themen wie elektronische Archivierung, Records-Ma- nagement, Dokumentenmanagement, Workflow, Rechtsfragen, Business Re-engineering, Wissensmanagement, Projektmanage- ment und Changemanagement.
  • 32.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Der Blick auf ungeschönte Rohdaten ist ungemein wichtig und durch nichts zu ersetzen“ - Wolfgang Seybold 32 lisierung mit Sicherheit hilfreicher als der Blick auf eine tabellarische Darstellung, aber wenn es darum geht, Daten auf ihre Herkunft hin zu untersuchen, Quellen zu validieren und Korrelationen auf ihre Validität hin zu überprüfen, ist der Blick in die ungeschönten Rohdaten ungemein wichtig und durch nichts zu ersetzen. Wie so oft ist der Königsweg ein Mittelweg. Bei Datensätzen und Zusammenhängen, die einem vom Prinzip her bekannt sind und nur einen aktualisierten Datenbestand darstellen, ist die Visualisierung enorm hilfreich. Gehtesaberdarum, neue Muster auf ihre Stimmigkeit überprüfen zu wol- len, sollte der Umweg über die „nackten“ Zahlen gegangen werden, will man nicht Gefahr laufen, einer Zufälligkeit oder visu- ellen Täuschung aufzusitzen. Bertram Geck In der heutigen von Sprache-Bild-Ver- knüpfungen geprägten Gesellschaft, dem so genannten „Optischen Zeitalter“ wo Bilder nahezu alle Lebens- und Wissens- bereiche bestimmen, betrachte ich Daten- visualisierung als ausschlaggebend um die wachsenden Zahlenberge leichter zugäng- lich zu machen. Als ein plausibles Beispiel für Datenvisualisierung erachte ich die Geovisualisierung, also die Visualisierung der Verteilung der Bevölkerungsdichte in Deutschland, welche für jedermann einfach und schnell verständlich ist und versteckte Strukturen spielend leicht of- fenbart. Bestärkt wird die hohe Relevanz der Datenvisualisierung vor allem durch die aus der Gestaltpsychologie stammen- de Erkenntnis der Bildüberlegenheits- wirkung, welche besagt, dass Graphiken gegenüber Textinformationen Wahrneh- mungsvorteile in Form einer höheren Überzeugungs- und Aktivierungswirkung und stärkeren Gedächtniswirkung haben und somit zu einer schnelleren Informa- tionsverarbeitung führen. Demnach kön- nen relevante Zahlen, Daten und Fakten – wenn visualisiert – durch die jeweiligen Akteure schneller erfasst werden. In unse- rer stark von Bildern geprägten Medienge- sellschaft wird nicht nurdie Fähigkeit zum „Bilderlesen“ zu einer kulturellen Schlüs- selkompetenz, auch die „Bilderschaffung“ also die Transformation der Daten in Bil- der gewinnt kontinuierlich an Bedeutung. Ein sich aus der Informationsflut des 21. Jahrhunderts ergebender neuer Trend in Wirtschaft, Forschung und Medien ist laut vieler Informatiker der der „Visual analytics“ – Die Analyse und Nutzung der sich anhäufenden Informationsber- ge sowie die rasche Identifikation bislang unbekannter Zusammenhänge durch ge- schickte Visualisierung, welcher auch ich eine enorme Bedeutung beimesse. Die Generierung von Modellen spielt dabei eine wichtige Rolle. Als Pionier dieses Metiers gilt der Londoner Infografiker David McCandless, welcher Anfang des Jahres einen Visualisierungswettbewerb startete, der das enorme Potenzial von Infografiken durch das interaktive Spiel mit Filmkennzahlen zeigen sollte. Durch die visuelle Analyse mehrdimensiona- ler Daten werden auch schwierige, durch Data Mining kaum fassbare Datensätzen, les- und interpretierbar. Hier profitiert Visual Analytics davon, dass das Auge im Erkennen von Schemata jeglicher Art bes- tens trainiert ist. Demnach beurteile ich das Auge als optimal geeigneten Detektor versteckter Strukturen und bin deshalb Befürworter der Verwendung von Formen und Farben – wenn auch in Interaktion mit Text - um dem Auge eine komfortable Wahrnehmung zu ermöglichen. Beachtet werden, muss an dieser Stelle jedoch, dass die Visualisierung von Daten nur dann ef- fektvoll ist wenn es sich um Mensch-Ma- schine-interaktionen handelt, im Zuge von „machine-to-machine“ Kommunika- tionsprozessen ist die visuelle Inszenie- rung von Daten irrelevant. Zum Autor Bertram Geck: Bertram Geck trägt seit 1. Januar 2013 als Sprecher der Geschäftsführung die Gesamtverantwortung für die Weiterentwicklung der MID GmbH. Er leitet dabei die Bereiche Marketing und Vertrieb. Als Gründer, Geschäftsführer und Berater in der IT- und Software-Branche trug Bertram Geck sowohl in Deutschland als auch weltweit Verantwortung, unter an- derem in DAX-notierten Unternehmen. Neben seinem unternehmerischen Engagement und seiner Expertise in der Un- ternehmensentwicklung greift Bertram Geck auf mehr als 20 Jahre Erfahrung in Produktentwicklung, Produktmanagement sowie im Marketing und Vertrieb von IT-Lösungen zurück.
  • 33.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Mir persönlich ist der sensible Umgang mit Daten außer- ordentlich wichtig und die Privatsphäre unserer Kunden steht an erster Stelle“ - Bertram Geck „Als „BI-Mann“ finde ich: Mehr Daten eröffnen mehr Chancen - als Privatmensch beobachte ich die Debatte jedoch mit einem etwas mulmigen Gefühl“ - Stefan Sexl 33 Analytik und Performance Management versus Daten- schutz: unüberbrückbare Gegensätze? Dank der Smartphones könnenAußen- dienst-Mitarbeiter überwacht werden, wo und wann sie ihre Zeit verbringen. Im Big Data haben die Kundenspuren deutlich zugenommen. Wer mal auf Zalando war, dem geht beim nächsten Lesen von Spiegel Online eine Zalan- do-Anzeige mit den zuletzt besuch- ten Produkten auf. Wo ist die Grenze zu ziehen, beim Datensammeln, beim Datennutzen, beim Kundennutzen? Bertram Geck Big Data – ein Begriff der rasant an Be- deutung gewinnt – wird nicht nur in der Wirtschaft eingesetzt um zur Performan- cesteigerung von Unternehmen beizutra- gen und den Kundennutzen erheblich zu steigern. Auch in Politik und Forschung werden Datenerhebung beispielsweise zur Terrorismusbekämpfung, Volkszäh- lung und medizinischer Weiterentwick- lung verwendet. Gerade das Internet und mobile Endgeräte eröffnen ein gewaltiges Potenzial für staatliche und kommerzi- elle Datensammler und erleichtern die Jagd auf den Kunden, lassen die Grenze zwischen Datensammlung und Daten- schutz zunehmend verschwimmen. Der gläserne Bürger ist schon seit einigen Jahren im Diskurs, aktuell sorgen Über- wachungsskandale für Furore seitens der Datenschützer. Die Überwachung von Big Data und der Schutz der Privatsphäre wer- den aufgrund der Verwässerung von Län- dergrenzen und der Entwicklung neuer Technologien weiter erschwert. Natürlich verstecken sich in den Datenfluten auch enorme positive Möglichkeiten. Durch die Analyse kundenspezifischer Daten, können Unternehmen präzise Schlussfol- gerungen überdas Kaufverhalten des Kon- sumenten ableiten. Auf dieser Basis lassen sich Produkte genau am Kundennutzen ausrichten wodurch die Kundenbedürf- nisse optimal befriedigt werden können. Ist es nicht das, was der Kunde von heute erwartet? Produkte, welche genau auf sei- ne individuellen Bedürfnisse abgestimmt sind? Die zunehmende Jagd auf Daten geht al- lerdings auch mit negativen Folgen einher und kann zum persönlichen Nachteil wer- den, keine Frage. Die Spuren eines jeden Bürgers können nicht nur im Internet sehr genau getrackt werden, google street view, mobile data und internetfähige Geräte wie „smart“ TVs und „smart meter“ tra- gen dazu bei, dass individuelle Daten auf Schritt und Tritt gesammelt werden kön- nen. Durchaus würde ich den modernen Bürger als sehrviel freizügiger im Hinblick auf den Umgang mit seinen persönlichen Daten einschätzen. Vor allem vor dem Hintergrund der zunehmenden Offenba- rungstendenzen in sozialen Netzwerken wie Facebook, Xing und Co. Allerdings überschreiten das Ausspähen von Pati- entendaten, das unerlaubte Abhören von Telefonleitungen und das Mitlesen von E-Mails dann doch gewisse Grenzen – Ja divergiert in meinen Augen mit einem der wichtigsten Grundrechte, nämlich dem Schutz der Privatsphäre. Abzuwägen, ob es mehr Sinn macht Passagierdaten zu übermitteln oder einen Terroranschlag in Kauf zu nehmen ist an dieser Stelle nicht zielführend. Fest steht jedoch, dass der sensible Umgang mit Daten vor allem im Zeitalter von Big Data sichergestellt wer- den muss. Eine generelle Grenze zu ziehen, an wel- cher Stelle der Kundennutzen dem Daten- schutz untergeordnet werden sollte, er- achte ich als diffizil. Individuelle Grenzen können jedoch sowohl durch den Konsu- menten als auch durch Unternehmen ge- schaffen werden - Der Kunde durch seine Bereitschaft persönliche Informationen zu offenbaren oder einzubehalten, das Unternehmen durch seine Prämisse, den Datenschutz des Einzelnen beim Umgang mit Daten zu respektieren und zu realisie- ren. Mir persönlich und der MID GmbH ist der sensible Umgang mit Daten außer- ordentlich wichtig und die Privatsphäre unserer Kunden steht an erster Stelle. Na- türlich setzen auch wir Analysewerkzeuge ein um die Unternehmensperformance messen zu können. Allerdings besteht mir ein persönliches Anliegen darin, durch Transparenz das Vertrauen unserer Kun- den zu gewinnen und die offensichtlichen Vorteile von neuen Technologien deutlich herauszustellen. Die Produkte der MID bieten immer die Möglichkeit, neben der Public Cloud (Da- tenverarbeitung im Internet) auch eine Private Cloud (Datenverarbeitung nur im unternehmensinternen Netz) zu nutzen. Der Anwender muss entscheiden können, welche Sicherheitsstufe er wählt. Beson- ders im Umgang mit Unternehmensdaten ist es wichtig, diese Flexibilität konse- quent bereitzustellen. Das Erfolgsrezept in diesem Zusammenhang ist meiner Mei- nung nach Big Data mit Datenschutz und Datenbewusstsein zu verknüpfen. Nur so kann sowohl Performance als auch der Schutz der Privatsphäre unserer Kunden sichergestellt werden.
  • 34.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Die Problematik der personenbezogenen Aus- wertung gibt es dabei nicht erst mit BI sondern schon mit Workflow und BPM Business Process Management.“ - Dr. Ulrich Kampffmeyer „Ich sehe einen großen Nachholbedarf in der internationalen Politik, denn um Persönlichkeits- rechte adäquat zu schützen bedarf es einheitlicher Datenschutzregelungen.“ - Wolfgang Seybold 34 Stefan Sexl Beruflich gesehen als langjähriger „BI Mann“ lautet meine Antwort: Mehr Daten eröffnen mehr Chancen für Nutzen – üb- rigens oft auch gesellschaftlich positiven Nutzen, denken wir an Auswertungen in der Medizin. Als Privatmensch beobachte ich die Debatte – wie vermutlich die meis- ten von uns – mit einem etwas mulmigen Gefühl: Wenn – um ein zur Zeit viel zitier- tes Beispiel aufzugreifen – ein Auswerte- werkzeug eines großen Handelsunterneh- men vor dem Schwiegervater von einer Schwangerschaft „erfährt“, dann wirft das trotz aller Begeisterung für die schlaue Technologie dahinter viele Fragen auf. Ich denke, die von Ihnen nachgefragte Grenze bildet sich zur Zeit in einer äußerst span- nenden gesellschaftlichen Diskussion, de- ren Ausgang und Folgen wir alle zur Zeit noch nicht abschätzen können. Dr. Ulrich Kampffmeyer Wir leben hier bereits in einer Welt der Doppelmoral. Das Unternehmen möch- te natürlich alle greifbaren Daten über Lieferanten, Partner, Kunden, Öffent- lichkeitsstellungnahmen usw. vollständig sammeln, auswerten und nutzen. Nutzen zum Beispiel um Lieferanten zu günsti- geren Konditionen zu zwingen, nutzen um Kunden zusätzliche Geschäfte vorzu- schlagen, nutzen um Entwicklungen in der Öffentlichkeit zu erkennen, die der Reputation des Unternehmens gefährlich werden können. Hier werden die Gren- zen der rechtlich zulässigen Auswertung und Daten-bevorratung (z.B. dauerhafte Speicherung von Informationen über In- teressenten, die jedoch nicht zum Kunden geworden sind; Beziehungen zwischen verschiedenen Kunden über Adressen, benutzten Kreditkarten und Social-Me- dia-Vernetzung; etc.) schnell einmal überschritten. Im Unternehmen ist die Situation noch etwas anders, weil hier hausinterne Datenschützer und Betriebs- räte schon eher auf die Einhaltung von BDSG und Landesdatenschutzgesetzen dringen. Dies zeigt sich zum Beispiel an der Umsetzung der elektronischen Per- sonalakte, die hohen Sicherheits- und Vertraulichkeitsanforderungen unter- liegt. Die Problematik der personenbe- zogenen Auswertung gibt es dabei nicht erst mit BI sondern schon mit Workflow und BPM Business Process Management. Audit-Trails erlauben das Nachvollziehen aller Arbeitsschritte. Daher sind die Infor- mationen aus Workflow- und BPM-Syste- men im Unternehmen eine gern genutz- te Quelle für die Auswertung mit BI. Die Grenzen sind hier fließend, denn einer- seits braucht das Unternehmen um Pro- zesse technisch stabil, nachvollziebar und compliant abzuwickeln, andererseits sind der personenbezogenen Auswertung von Daten Grenzen gesetzt. Ob diese heute in der bestehenden Form noch sinnvoll und praktikabel sind, ist fraglich. Denn es gibt schon die Grauzone – als Mitarbeiter im Unternehmen einigermaßen geschützt, als Kunde des Unternehmens, in dem man auch arbeitet, aber voll transparent und ausgewertet. Wolfgang Seybold Die Grenze beim Sammeln und Auswerten von Daten ist immer da zu ziehen, wo dies nicht mehr mit ethischen, moralischen und rechtlichen Grundsätzen vereinbar ist. Darüber hinaus sollte jedes Unterneh- men, welches sich um Daten von Personen bemüht, eine offene Informationspolitik betreiben. Sprich, deutlich darauf hinwei- sen, wenn Daten abgegriffen werden und welchen Zweck dieses verfolgt. Daten- schutz ist wichtig und eine wesentliche Grundlage des gegenseitigen Vertrauens zwischen Unternehmen und Kunden – diese Basis sollte unter keinen Umständen zerstört werden. Natürlich sind Daten ein wertvoller Produktionsfaktor geworden, aber nur wenn diese auch wirklich einem von beiden Seiten akzeptiertem Nutzen dienen, ist der Einsatz auch gerechtfertigt. Hier sehe ich aber auch einen großen Nachholbedarf auf Seiten der internatio- nalen Politik. Denn um die Wettbewerbs- freiheit und die Persönlichkeitsrechte ad- äquat zu schützen, bedarf es unbedingt einheitlicher Datenschutzregelungen. Brauchen wir eine analytische Unternehmenskultur? Analytik insbesondere soll Entschei- dungen auf Fakten stellen. Sind aber die Mitarbeiter und Manager darauf vorbereitet, Zahlen und analytische Ergebnisse zu verstehen, zu interpre- tieren und in Entscheidungen und Maßnahmen umzusetzen. Bisher hat man in der Regel aufgrund von Erfah- rungswissen entschieden. Müssen wir hier nicht in unserem Unternehmen ei- nen Wandel einleiten und eine Kultur aufbauen, die Analytik leben kann? Dr. Ulrich Kampffmeyer Analytik von Informationen im Unter- nehmen (Mitarbeiter, deren direkten Be- zugs-personen), von Partnern (Kunden, Lieferanten, Behörden etc.) außerhalb des Unternehmens und von den Metada- ten-Profilen über den eigentlichen Meta- daten braucht Regeln und Vereinbarun- gen. Intern braucht man auch eine „Kultur des Vertrauens“, da nicht alles technisch abgesichert werden kann (Datenschutz, Datensicherheit). Diese „Kultur des Ver- trauens“ beinhaltet selbstverständlich auch das Thema „Analytics“, Analyse. Im „Ersten Vertrauenskreis“ müssen für die Entscheider und diejenigen, die Auswer- tungen durchführen, entsprechende Re-
  • 35.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „Die Schwierigkeit eine durchweg auf Analytik basierende Kultur aufzubauen, ergibt sich vor allem aus der Hetero- genität von Unternehmen.“ - Bertram Geck „Die Ängste, die der NSA-Skandal im öffentli- chen Bereich geweckt hat, schlagen sich auch auf das Thema Analytics in und durch Unter- nehmen wieder.“ - Dr. Ulrich Kampffmeyer 35 geln vereinbart werden. Hier geht es nicht nur um die rechtlichen Grenzen, sondern auch um das Thema Qualität, um Feh- lentscheidungen auf Grund unglücklich zusammengewürfelter Eingangsdaten zu vermeiden. Im „Zweiten Vertrauenskreis“ geht es um alle Mitarbeiter im Unterneh- men – auch die temporären und freien Ar- beitskräfte, da sich die Arbeitskultur ver- ändert. Es muss dokumentiert und aktiv kommuniziert werden, was für welchen Zweck ausgewertet wird, wie lange welche Informationen gespeichert werden, wie die Entpersonalisierung für statistische Auswertungen vorgenommen wird, wel- che Informationen in Audit-Trails landen. Und natürlich, welche Möglichkeiten der Mitarbeiter hat, Auskunft über die gespei- cherten Informationen zu erhalten. Im „Dritten Vertrauenskreis“ geht es um die Partner wie Lieferanten, denen auch Klar- heit überdie Nutzung ihrer Daten gegeben werden muss um z.B. Überraschungen bei Reklamationen und im Qualitätsmanage- ment zu vermeiden. Im „Vierten Vertrau- enskreis“ geht es um die für das Unterneh- men wichtigste Ressource, den Kunden. Hier gibt es gesetzliche Vorschriften, die die Datenspeicherung und Auswertung einschränken, aber im Zeitalter des „Ama- zon-Vorschlagwesens“ quasi wirkungslos geworden sind. Die Unternehmen sind jedoch gehalten, auch diesem Kreis offen zulegen, was wie gespeichert und verar- beitet wird, wie man darüber Nachweise erhält und was das Unternehmen tut, dass diese Grundsätze auch eingehalten wer- den. Der „Fünfte Vertrauenskreis“ ist die Öffentlichkeit – Presse, Interessenten, Be- hörden und „der Rest der Welt“. Eine ak- tive und offene Kommunikation des Um- gangs mit Daten und deren Auswertung ist heute fast eine Selbstverständlichkeit. Die Ängste, die der NSA-Skandal im öf- fentlichen Bereich geweckt hat, schlagen sich auch auf das Thema Analytics in und durch Unternehmen nieder. Vertrauen zu schaffen und ehrlich zu bleiben, sind daher wichtige Faktoren für erfolgreiche Unternehmen. Eine solche „Kultur des Vertrauens“ ist Voraussetzung für eine „Analytics-Kul- tur“ und schließt diese unbedingt ein. Es kann kein Vertrauen geben, wenn man nicht weiß was analysiert und für welchen Zweck verwendet wird. Bertram Geck Entscheidungen sind überall dort un- verzichtbar, wo eine Wahl zwischen ver- schiedenen Alternativen getroffen werden muss. Somit sind Entscheidungen – ob rational oder intuitiv - für Unternehmen und das Management als primären Ent- scheidungsträger alltäglich, die Art der Entscheidungsfindung erfolgsbestim- mend. Ob die Implementierung einer rein analytischen Unternehmenskultur zwingend notwendig ist und stringent re- alisiert werden sollte um Performance zu gewährleisten, ist in meinen Augen wiede- rum fraglich. Denn oftmals sind es die auf Wissen basierenden Bauchentscheidun- gen, welche sich als richtig herausstellen. Die Schwierigkeit eine durchweg auf Ana- lytik basierende Kultur aufzubauen, ergibt sich vor allem aus der Heterogenität von Unternehmen. Werfen wir beispielswei- se einen Blick auf die diversen Entschei- dungsträger im Unternehmen, so wird of- fensichtlichdass nebendem Management, welches die grundlegenden Entscheidun- gen übernimmt, jeder Fachbereich für sich kleine, alltägliche Entscheidungen trifft. Hier kann sicherlich das Klischee herangeführt werden, dass ein Controller oder ein Business Analyst eher analytisch, durch den Kopf und ein Vertriebsmitar- beiter mehr durch den Bauch entscheidet. Dennoch, bei Heranziehen des Beispiels Personalbereich, wird vor allem bei der Akquise von neuen Mitarbeitern schnell deutlich, dass neben Referenzen, Lebens- lauf und Qualifikationen auch die Sympa- thie – also das Bauchgefühl – bei der Per- sonalwahl mitentscheidet. Analytik wird jedoch – vor allem in der heutigen volatilen Wirtschaft – an Bedeu- tung gewinnen. Schließlich ermöglicht uns Analytik durch das Durchspielen von Szenarien und die Analyse interner und externer Faktoren eine optimale Entschei- dungsgrundlage nicht nur für die Gegen- wart, sondern wie bereits im Rahmen der predictive analytics erwähnt, auch für die Zukunft zu treffen und so Risiken abzu- wenden. Gerade deshalb werden vor allem bei komplexen Zusammenhängen sämtli- che Informationen gebündelt, multivari- ante Optionen durchdacht, nicht zuletzt um Entscheidungen im Nachhinein durch Begründungen legitimieren zu können. Die Rechtfertigung und Begründbar- keit stellt nämlich eine entscheidende Schwachstelle rein intuitiver Entschei- dungen dar.
  • 36.
    Competence Book -Business Intelligence GRUNDLAGEN - VIRTUAL ROUNDTABLE „In Zukunft wird es noch wichtiger, den Anwendern das Hinterfragen und den Mehwert von datengetriebenen Analysen nahezubringen.“ - Wolfgang Seybold „Auch außerhalb der Geschäftswelt stellt sich die Frage, was ein „Mehr“ an Informationen nutzt, wenn diese nicht in die Entscheidungsfindung einfließen.“ - Stefan Sexl 36 Jedoch muss an dieser Stelle auch berück- sichtigt werden, dass das Bauchgefühl sehr vielschichtig ist und neben dem Ge- fühlsfaktor auch weitere Aspekte wie Er- fahrung, sozialer Instinkt Kompetenz und Wissen miteinbezieht. Nicht umsonst re- det so mancher Wissenschaftler von dem Bauch als „Second Brain“. Einleuchtend, wenn man bedenkt, dass menschliche In- telligenz nicht wie eine Rechenmaschine funktioniert. Als Paradebeispiel für die Macht der Intuition betrachte ich Sport- ler. Wenn zum Beispiel ein Fußballspieler während eines Spiels beginnt abschätzen zu wollen, wo der Ball wohl landen könn- te, dann hat er schon verloren. Es ist also nicht immer sinnvoll, Entscheidungen ab- zuwägen und analytisch zu untermauern. Zweifellos bedarf es jedoch neben klugen Köpfen, Kompetenz, Erfahrung und der richtigen Intuition, auch Zahlen (in Form von Wissen) im Unternehmen. Es geht also meiner Meinung nach nicht (nur) darum eine analytische Unternehmens- kultur einzuführen, sondern vielmehr darum eine einheitliche Wissensbasis für das gesamte Unternehmen zu schaffen. Modellen und Plattformen, die einen zie- lorientierten, aktuellen Wissensaustausch unterstützten messe ich dementspre- chend einen immensen Wert bei. Schließ- lich unterstützten diese jeden Mitarbeiter im Unternehmen bei den unzähligen Ent- scheidungen im Arbeitsalltag und stellen immer eine größtmögliche Aktualität des Wissens einzelner Mitarbeiter sicher. Ab- schließend geht es also für mich darum, ein bereichsübergreifendes Wissensma- nagement in der Unternehmenskultur zu verankern, welches ja die Basis für analy- tische Entscheidungen darstellt. Wissen und die Analytik helfen dabei, den Kopf bei der Entscheidungsfindung stärker ein- zubeziehen. Man darf aber nicht zu zah- lengläubig sein. Für gute Entscheidungen müssen Bauch und Kopf zusammenarbei- ten. Stefan Sexl Es gibt Untersuchungen, die zeigen, dass Unternehmen mit einer analytischen Un- ternehmenskultur erfolgreicher sind. Ein Beispiel ist die Studie „Business Intelligen- ce und Advanced Analytics / Data Mining“ des Insitituts für Business Intelligence. In- sofern ist die Frage unbedingt mit „Ja“ zu beantworten. Auch zeigt eine Vielzahl von Befragungen, dass Business-Intelligen- ce-Lösungen – als Grundvoraussetzung für eine analytische Unternehmenskultur – in den Unternehmen hohe und höchste Priorität haben. Unsere Produkte und Lö- sungen jedenfalls sind darauf ausgerich- tet, schnell und unkompliziert eine ana- lytische Unternehmenskultur zu schaffen. Das Thema lässt sich noch um einen ge- sellschaftspolitischen Aspekt erweitern. Denn auch außerhalb der Geschäftswelt stellt sich die Frage, was ein „Mehr“ an Informationen nutzt, wenn diese nicht in die Entscheidungsfindung einfließen, beipielsweise aus mangelndem Vertrauen in Daten und Fakten. Generell wäre es be- grüßenswert, wenn analytische Prinzipien vermehrt gelebt würden. Dazu müssten mehr Verständnis und Vertrauen in und für rationales, faktenbasiertes und kri- tisches Denken im Alltag verankert sein. Und wer im täglichen Leben auf eine ana- lytische Kultur baut, überträgt dies auto- matisch auch auf das berufliche Umfeld. Wolfgang Seybold Wie bereits bei der Antwort zu Predictive Analytics angeklungen ist, ist die Analytik schon immer ein wesentlicher Bestand- teil der Entscheidungsfindung gewesen. Je mehr Technologien in den Entschei- dungsprozess miteingebunden wurden, desto datengetriebener wurden die Ana- lysemethodiken. Das personenbezogene Erfahrungswissen hat dabei aber nach wie vor als Korrektiv gewirkt und das aus gutem Grund. Kennen Sie das beliebte Beispiel aus der Statistik im Bezug auf die Storchenpopulation und die Gebur- tenrate? Ohne große Probleme lässt sich statistisch nachweisen, dass die Größe der Storchenpopulationen mit der Höhe der Geburtenrate in einer Verbindung zueinander steht. Der Storch bringt also doch die Kinder. Für rein datengetriebene Analysen wäre dies eine durchaus gängige Schlussfolgerung. In Zukunft wird es noch wichtiger, den Anwendern solcher Analyselösungen das Hinterfragen, aber auch den Mehrwert von datengetriebenen Analysen und den adäquaten Umgang mit den Ergebnissen nahezubringen. Dies muss auf jeden Fall in die Unternehmenskultur integriert werden und von oben nach unten und umgekehrt gelebt werden.
  • 38.
    Competence Book -Business Intelligence GRUNDLAGEN - SELF-SERVICE BI 38 MitSelf-Serviceerfolgreich im Bereich Business Intelligence D er Anspruch des Konzeptes Business Intelligence ist, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu treffen. In den Anfangszeiten von Busi- ness Intelligence hat man dabei eine Frage vernachlässigt: Welche Fähigkeiten und Unterstützung braucht man, um erfolgreich, effektiv und effizient mit Business Intelligen- ce-Konzepten und Werkzeugen arbeiten zu können? AUTOR: Dr. Wolfgang Martin (Wolfgang Martin Team) www.wolfgang-martin-team.net/BI-BPM-SOA Hier setzt sich die Erkenntnis durch, dass man einen kombi- nierten Ansatz aus organisatorischen Maßnahmen und tech- nischen Möglichkeiten einsetzen muss, um mit Business Intel- ligence erfolgreich zu sein. Man setzt von diesen beiden Seiten aus an. Früher und zum Teil heute immer noch stand und steht in vielen Unternehmen die Technologie ganz vorne. BI-Lösun- gen wurden in der Regel von der IT ausgesucht. Nur die techno- logischen Aspekte und Konzepte zählten. Der Mensch als Nut- zer von BI-Technologie wurde typischerweise vernachlässigt. Die Bedienbarkeit von Werkzeugen war ja – so glaubte man – in Schulungen erlernbar. Das war aber ein Irrtum und stets auch ein Grund, der viele BI-Projekte zum Scheitern brachte, denn traditionelle Business Intelligence-Werkzeuge fanden trotz in- tensiver Schulungen bei weitem nicht immer die notwendige Akzeptanz. Besondere Business-Analysten oder Poweruser bil- deten sich heraus, die BI-Aufgaben in den Abteilungen über- nahmen. Information wurde zum Luxusgut, das nicht allen Mitarbeitern zur Verfügung stand. Um aus dieser Sackgasse herauszukommen, stellten konse- quenterweise viele BI-Berater und Unternehmen jetzt den or- ganisatorischen Ansatz ganz nach vorne und die Technologie hintenan. Das aber ist auch nicht der Weisheit letzter Schluss: Richtig ist, dass es ohne organisatorische Maßnahmen nicht geht, aber umgekehrt greifen organisatorische Maßnahmen nur dann, wenn die Mitarbeiter mitziehen. Dazu ist Akzeptanz notwendig, aber eine Begeisterung der Mitarbeiter noch besser. Zur Begeisterung der Mitarbeiter kann und sollte Technologie beitragen. Daher ist auch die Technologie ein kritischer Er- folgsfaktor von Business Intelligence, besonders auch um den wahren Wert und Nutzen von Information zu erfahren. Orga- nisatorische und technische Aspekte von Business Intelligence müssen daher ausgewogen werden, auf beide kommt es an. Zur Begeisterung der Mitarbeiter gehört eine technologisch perfekte Unterstützung der organisatorischen Maßnahmen. Im Zeitalter von sozialen Netzen, Smartphones und Tablet- Rechnern muss die Bedienbarkeit aller Werkzeuge der Business Intelligence einfach stimmen. Da die Informationsbedürfnis- se im Rahmen der BI-Governance über die jeweilige Rolle der Mitarbeiter bestimmt wird, müssen hier Organisation und Technologie Hand in Hand gehen. Die Werkzeuge müssen also nicht nur die notwendige Ergonomie bieten, sondern auch den Rollen entsprechend eingerichtet werden können. So wird eine BI-Governance nicht als einengendes Regelwerk empfunden, sondern von allen Mitarbeitern auch gelebt. Mit einem einfa- chen, intuitiven und visuellen Bedienen der Werkzeuge ent- sprechend seiner Rolle schwinden Berührungsängste, werden Barrieren abgebaut und die notwendige Begeisterung aufge- baut. Das schafft Motivation: So erreicht man das Ziel von Go- vernance, ein regelkonformes Management und Verhalten aller Mitarbeiter in Business Intelligence. Eine geeignete Technologie schafft neben guter Bedienbarkeit und Automation von Arbeitsschritten auch eine Autonomie von der IT: Man kann im Rahmen der Business Intelligen- ce-Governance aufgrund der Ergonomie der Werkzeuge viele Aufgaben in der Fachabteilung selbständig lösen. Hier spricht man heute von Selbstbedienungs-BI (Self-Service BI), ein An- satz, der Technologie mit Organisation zusammenbringt. Gemäß Imhoff/White sollte Self-Service BI vier Zielsetzungen verfolgen: leichter Zugang zu Daten zur Berichtserstellung und Analyse, benutzerfreundliche BI- und Analyse-Werkzeu- ge, einfache und anpassbare Oberflächen der Werkzeuge und Data Warehouse-Technologien, die schnell bereitgestellt wer- den können wie Appliances und Cloud-basierte Systeme.
  • 39.
    Competence Book -Business Intelligence GRUNDLAGEN - SELF-SERVICE BI 39 Aber Self-Service BI ist nicht unbedingt ein Selbstläufer. Als erstes wird man feststellen, dass man den Trainingsauf- wand völlig unterschätzt hat, denn gute Werkzeuge und leichter Zugang zu Da- ten ist nicht alles: Self-Service BI beginnt in den Köpfen der Mitarbeiter. Wenn das nicht der Fall ist, dann landet man in einem Berichts-Chaos, erreicht eine to- tale Verwirrung unter den Nutzern und hat dann möglicherweise einen höheren Supportaufwand als in der traditionellen BI, wenn die IT Berichte baut und Daten analysiert. Die Einführung von Self-Service BI soll- te deshalb als ein Programm aufgesetzt werden. Als erstes gilt es festzustellen, was die unterschiedlichen Anforderun- gen an Self-Service BI im Unternehmen sind: Wer sind die Nutzer und welche Art von Selbstbedienung wollen sie wirklich haben? Beispielsweise werden Techno- logie-affine Nutzer die Konzepte von Self-Service BI schnell verstehen und umsetzen können, während gelegentli- che Nutzer schon zufrieden sind, wenn sie per Selbstbedienung Parameter in ei- nem Bericht ändern können, um alterna- tive Sichten auf Daten zu erhalten. Ein kritischer Erfolgsfaktor ist, wie schon gesagt, die Governance, auch wenn die IT teilweise die Kontrolle über die Daten- analyseprozesse abgibt. Aber genau des- halb erfordert Self-Service BI eine enge Zusammenarbeit von Fachabteilungen und IT. Die Daten-Definitionen für die wichtigsten Performance Metriken müs- sen kommuniziert werden, so dass Be- richte und Analysen konsistent bleiben. IT- und Fachabteilungs-Manager sollten im Rahmen der Governance die Nutzung von Self-Service Software kontinuierlich aufzeichnen, um eventuelle Konflikte mit Compliance zu entdecken und zu korrigieren oder um Abfragen rechtzei- tig zu stoppen, die das ganze BI-System lahm legen könnten. Ein weiterer kritischer Erfolgsfaktor sind wiederverwendbare Bausteine in der Self-Service-BI-Umgebung. So sollten BI-Entwickler vordefinierte, nicht änder- bare Performance-Metriken program- mieren. BI-Manager sollten Start-Bi- bliotheken mit Berichts-Mustern und Standard-Analyseroutinen schaffen, so dass die Self-Service BI-Nutzer nur noch auswählen und kombinieren müs- sen. Die IT sollte bei der Einführung von Self-Service BI hier nicht zu wenig inves- tieren: Das schafft die notwendige Stan- dardisierung und macht alles erheblich leichter. Schließlich ist Kollaboration in den BI- Teams ein weiterer kritischer Erfolgs- faktor. Das sollte durch kollaborative Werkzeuge in den Self-Service BI-Syste- men unterstützt werden. Dazu gehören die Möglichkeiten Annotationen und Kommentare zu Berichten und Ana- lyseergebnissen einzugeben, Berichte und Dashboards zu bewerten, mittels Chat-Funktionalität Berichte und andere Ergebnisse anzupreisen, um mit Kolle- gen gemeinsam zu nutzen und andere. So kann Business Intelligence zu einer Selbstverständlichkeit im Tagesgeschäft werden. So steigt die Effizienz der Mit- arbeiter. Sie können sich wieder voll auf ihre fachlichen Tätigkeiten konzentrie- ren, da die Technologie sie geeignet un- terstützt und nicht mehr Selbstzweck ist. Umgekehrt wird durch die höhere Autonomie der Fachabteilung in Sachen Business Intelligence auch die IT von Routineaufgaben entlastet. Die Gover- nance gibt hier eine bessere und klar de- finierte Arbeitsteilung zwischen IT und Fachabteilung vor, die sich aufgrund der nutzerfreundlichen Eigenschaften der Werkzeuge auch so umsetzen lassen. So entspannt sich in vielen Fällen das Ver- hältnis zwischen IT und Fachabteilun- gen. Mit den besten Grüßen aus Annecy / Haute Savoie Dr. Wolfgang Martin Zum Autor Dr. Wolfgang Martin: Vor der Gründung des Wolfgang MARTIN Teams war Dr. Martin 5 ½ Jahre lang bei der META Group, zuletzt als Senior Vice President International Application Delivery Strategies. Darüberhinaus kennt man ihn aus TV-Interviews, durch Fachartikel in der Wirtschafts- und IT-Presse, als Autor der Strategic Bulletins zu den Themen BI/BPM, SOA und CRM (www.it-research.net) und als Herausgeber und Co-Autor, u.a. „Data-Warehousing - Data Mining - OLAP“, „CRM-Jahres-Gutachten“, und „CRM-Trendbook 2009“.
  • 40.
    Competence Book -Business Intelligence GRUNDLAGEN - SELF-SERVICE BI 40 SelfServiceBI imUnternehmenmanagen U nternehmen sehen sich immer häufiger einer steigenden Dynamik ihres Geschäfts- umfeldes gegenüber. Sie müssen zunehmend der Schnelllebigkeit der Wirtschaft ge- recht werden. Dieser aktuelle Trend stellt hohe Anforderungen an die Unternehmen, um möglichst schnell und flexibel auf Veränderungen reagieren zu können. Self Service BI (SSBI) trägt dieser Forderung Rechnung und gewährleistet eine möglichst hohe Flexibilität und Reaktionsgeschwindigkeit für Fachbereiche, um auch künftig die Wettbewerbsfähig- keit zu erreichen und aufrecht zu erhalten. AUTOR: Daniel Volknant (cundus AG) Geschäftsnutzen von SSBI? Als Beispiel soll das Geschäftsmodell eines großen E-Com- merce-Unternehmens dienen. Im Kern besteht das Geschäfts- modell aus der Logistik von Waren. Hierfür hat das Unter- nehmen eine ausgeprägte IT-Infrastruktur aufgebaut, die mittlerweile zu den Kernkompetenzen der Geschäftstätigkeit gehört. Bei der Planung der strategischen Entwicklung des Un- ternehmens soll überprüft werden, ob diese Stärken anderwei- tig genutzt werden können, z. B. um auch neue Geschäftspo- tenziale zu erschließen. Eine mögliche Variante wäre die Skalierung der IT-Infra- struktur zur Erschließung eines neuen Geschäftsmodells als Cloud-Dienstleister. Zeitnah soll die Idee einer derartigen Business Transformation analysiert und bewertet werden. Allerdings existieren für derartige Analysen weder entspre- chende Kennzahlen, noch bildet das bestehende BI System das neue Geschäftsmodell ab. So erwachsen im Hinblick auf die durchzuführenden Analysen natürlich unbefriedigte In- formationsbedarfe in unterschiedlichen Fachbereichen. Nicht selten führen Anwender in dieser und anderen Situationen zur Selbsthilfe, d.h. zur Befriedigung der spezifischen Infor- mationsbedarfe, eigene Reportinglösungen ein. Solche Repor- tinglösungen werden gerne auch „Schattensysteme“ genannt. SSBI steht diesen Schattensystemen als nachhaltig effiziente und stabile Lösung gegenüber. UmdenEinsatzvonSSBIzumotivieren,werdendieBedarfsklas- sen der Fachbereiche und IT im folgenden Abschnitt genauer beleuchtet. Anschließend wird dargestellt, welche Risiken mit Schattenlösungen zur Selbsthilfe verbunden sind und welche Vorteile SSBI bringt. Der Beitrag endet mit der Vorstellung eines Vorgehensmodells zur Einführung von SSBI im Unternehmen Bedarfsklassen für SSBI Insgesamt können drei Bedarfsklassen für den Einsatz von SSBI identifiziert werden: Agilität und Flexibilität, Integration sowie Verantwortung. Agilität und Flexibilität: Die Herausforderung der steigen- den Dynamik des Geschäftsumfeldes und des Wettbewerbs- drucks führen dazu, dass den Fachbereichen unterschiedliche Informationen immer schneller zur Verfügung stehen müssen, um fundierte Entscheidungen treffen zu können. Bisherige Entwicklungs- und Releasezyklen der IT können der Forde- rung nach Schnelligkeit und Flexibilität häufig nicht gerecht werden. Integration: Nicht selten wird auch eine ad-hoc Integration von Anwenderdaten gefordert, um z.B. Wettbewerbschancen zu identifizieren, neue Geschäftsmöglichkeiten zu erschlie- ßen oder Business Transformationen zu unterstützen. Business Transformationen können von der Optimierung von Geschäfts- prozessen bis zur Entwicklung neuer Geschäftsmodelle reichen.
  • 41.
    Competence Book -Business Intelligence GRUNDLAGEN - SELF-SERVICE BI 41 Die Kombination von unternehmensinternen Daten mit qua- lifizierenden Texten, eigenen Analysedaten oder externen Analysten- und Marktdaten, kann einen wertvollen Beitrag zu diesen strategischen Entscheidungen leisten. Gleichwohl kann die Kombination der Daten dabei unterstützen Opportunitäts- kosten zu vermeiden bzw. Opportunitätserlöse zu realisieren. Solche zeitkritischen Informationsbedarfe und Anforderungen der Fachbereiche haben vielfach eine Latenzzeit, die die Dauer einer standardisierten Datenquellenintegration der IT bei wei- tem unterschreitet. Verantwortung: Schließlich stellt sich die Frage, wer die Ver- antwortung für den Betrieb sowie die Wartung und Pflege von Eigenentwicklungen und deren Inhalte übernimmt, die zur Selbsthilfe der Fachbereiche entwickelt worden sind. Die Über- nahme der Verantwortung durch die IT übersteigt nicht selten die ohnehin knapp bemessenen Ressourcen. Zudem entspre- chen Schattenlösungen häufig nicht den IT-Entwicklungs- und Betriebsrichtlinien zur Effizienzsicherung. Neben einem ver- mehrten Aufwand kann ein solches Vorgehen zu Akzeptanz- verlust seitens der IT führen. Schattenlösungen sind teuer und ineffizient Aus Sicht der Fachbereichsanwender und deren bislang unbe- friedigten Informationsbedarfen ist die Einführung von Schat- tensystemen gut nachvollziehbar. Allerdings wird dabei außer Acht gelassen, dass Schattensysteme generell mit zusätzlichen Aufwendungen verbunden sind. Betrachtet man die Kostenseite, wird folgendes klar: Konser- vativ geschätzt, dauert die Entwicklung einer Berichtsanwen- dung ca. 100 Personentage bei einem internen IT-Verrech- nungssatz von 800,- €. Die Entwicklung kostet damit alleine, gemessen an internen Personentagen, 80.000,- €. Wartung und Pflege werden mit weiteren zwei Personentagen pro Monat ge- schätzt. So belaufen sich die Wartungs- und Pflegeaufwendun- gen auf zusätzliche 19.200,- € pro Jahr. In einer Kapitalwertbe- trachtung mit einem angenommen Marktzins von 5% kostet eine solche Berichtsanwendung über ihre Lebenszeit hinweg damit ca. 464.000,- €. Diese Kosten sind in jeder Kostenstelle eines berichtenden Geschäftsbereichs versteckt, die ein Schat- tenreporting neben dem eigentlichen BI betreibt. Bei zehn be- richtenden Geschäftsbereichen neben einem koordinierten BI beläuft sich die Summe der Barwerte auf 4.640.000,- €. Zusätz- lich werden die Potenziale des koordinierten BI Einsatzes nicht ausgeschöpft. • Entwicklungs-, Wartungs-, Pflege- und Betriebsaufwen- dungen unterschiedlicher Technologien erschweren die Ausnutzung von Synergieeffekten. • Der Kauf von Lizenzen unterschiedlicher Hersteller ver- hindert die Umsetzung von Skaleneffekten im Vergleich zum gemeinsamen Einkauf von Lizenzen eines Herstellers. • Softwaretechnologien und -entwicklungen sind „Sunk Costs“ (versunkene oder irreversible Fixkosten) der Fach- bereiche und könnten durch einen zentralen Betrieb in va- riable Kosten umgewandelt werden. • Auch ein Optimum der Produktivität der Informations- bereitstellung ist bei bestehenden Schattenlösungen nur schwer realisierbar, da nur selten ein Grenzverhältnis zwi- schen Inputaufwendungen und generierten Output-Infor- mationen erreicht werden kann. Neben einer vorwiegenden Kostenbetrachtung entstehen zu- sätzlich vermehrte Inkonsistenzen zwischen dem koordinier- ten BI Einsatz und Schattensystemen. Solche inkonsistenten Werte können gravierende monetäre Effekte mit sich bringen. Eine Bank müsste z. B. bei inkonsistenten Daten über gewährte Kredite im schlimmsten Fall einen zu großen Anteil Eigenkapi- tal hinterlegen. Dies kann negative Effekte auf die Rentabilität zur Folge haben. Zum Autor Daniel Volknant: Herr Daniel Volknant arbeitet als Strategy Consultant im Geschäftsbereich BI Stra- tegy and Management der cundus AG. Schwerpunkt seiner Tätigkeit ist die Entwick- lung von BI-Strategien, Corporate Performance Measurement und BI Competency Centern sowie die Durchführung von Informationsbedarfsanalysen und Coachings. Er verfügt über mehrjährige Erfahrung im operativen BI und BI Projektgeschäft zur Unterstützung des Controllings und Managements. Herr Volknant hat Thema- tiken der nutzergerechten Informationsbereitstellung vertieft und Veranstaltungen zu Datenbanksystemen, Data Warehousing und OLAP sowie zur Gründung von Start-up-Unternehmen gehalten.
  • 42.
    Competence Book -Business Intelligence GRUNDLAGEN - SELF-SERVICE BI 42 Vorteile eines gemanagten SSBI Anstelle von Schattensystemen ist die Einführung einer ge- managten SSBI-Umgebung anzuraten. Die Vorteile liegen auf der Hand. Ein wesentlicher Vorteil zeichnet sich dadurch aus, dass Fachbereiche durch die Übernahme der Verantwortung die notwendige Flexibilität zur Planung, Steuerung und Kon- trolle von Geschäftsmodellen bei gleichzeitiger Sicherstellung von Performanz, Stabilität und Effizienz seitens der IT erhal- ten. Die Flexibilität und Agilität skaliert mit den verschie- denen Ebenen einer BI-Architektur. In der entsprechenden Darstellung (s. Abb. 1) wird zwischen den Ebenen Berichts-, Applikations- und Data Warehouse Ebene unterschieden. Die Fläche des blauen Dreiecks verdeutlicht, dass die Flexibilität und Agilität mit zunehmenden Berechtigungen über die Ebe- nen hinweg zunimmt. Während es auf der Berichtsebene um die Generierung von Berichten oder Kennzahlen geht, können Anwender auf der Data Warehouse Ebene sogar Datenmodelle anpassen. Erfahrungsgemäß sind diese Einführungen mit einem höheren BI-Governance-Aufwand und einer umfassenderen Verschie- bung der Verantwortungsbereiche verbunden. Neben architek- tonischen Aspekten werden bei SSBI auch organisatorische As- pekte explizit in die Betrachtung miteinbezogen. Ein wirklich wichtiges Beispiel ist die Regelung der Verantwortlichkeiten und auch Übernahme der Verantwortung. Mit der Einführung von SSBI wird Fachbereichen, unter Berücksichtigung IT- und organisationsspezifischer Regelungen, die Verantwortung für eigene Entwicklungen und Ergebnisse übertragen. Diese Rege- lungen werden im Rahmen dedizierter BI-Governance-Struk- turen eingerichtet, die die Verantwortung zwischen Fachbe- reich und IT aufteilen und über verbindliche Richtlinien regeln. Die verbindlichen Richtlinien in Form von Governance-Struk- turen bilden den Kern einer erfolgreichen SSBI-Einführung. Im eingangs vorgestellten E-Commerce-Unternehmen benöti- gen die Anwender zur Durchführung der gewünschten Analy- sen die größtmögliche Flexibilität, um Daten des derzeitigen Geschäftsmodells mit Daten ihrer Infrastruktur zu verknüpfen. In den meisten Unternehmen werden die Daten zur Steuerung und Überwachung der IT-Infrastruktur jedoch nicht im BI-Sys- tem vorgehalten, da es nur zur Planung, Steuerung und Kont- rolle des aktuellen Geschäftsmodells verwendet wird. Genau diese beiden Datenhaltungen müssen nun aber zusammen ge- führt werden, um die Machbarkeit oder wechselseitige Effekte der Geschäftsmodelle E-Commerce und Cloud-Dienstleistung zu untersuchen. Informationsbedarfe solcher geschäftlichen Innovationen müssen i.d.R. schnell befriedigt werden und las- sen sich nicht den Releasezyklen der IT unterwerfen. Im Rahmen einer gemanagten SSBI-Umgebung kommt der Vorteil zum Tragen, dass der Anwender über die Möglichkeit verfügt entsprechend seiner Informationsbedarfe zeitnah An- passungen und Verknüpfungen von Datenmodellen durchzu- führen und neue Kennzahlen zu entwickeln. Eine solche Fle- xibilität kann nur nachhaltig performant, stabil und effizient gewährleistet werden, wenn die BI-Landschaft darauf ausgelegt ist und eine Balance zwischen den Anforderungen der Fachbe- reiche und der IT durch eine entsprechende strategische Pla- nung des BI erzielt wird. Die Vorgehensweise der cundus AG im Rahmen der strategischen Planung einer solchen BI-Land- schaft wird im folgenden Abschnitt beschrieben. Strategieberatung Vorherige Ausführungen zeigen, dass die Einführung von SSBI weit mehr umfasst als die reine Softwareauswahl. Die folgen- den Absätze geben einen kurzen Einblick in ein phasenweises Vorgehen einer ganzheitlichen Einführung von SSBI, um • höhere Reaktionsgeschwindigkeit auf Geschäftsereignisse (Time to Market), • schnellere und agilere Entwicklung von Berichten, • Gewinnung von Informationsvor- sprüngen durch die Integration eigener Daten, • Erhöhung der Informationsqualität durch Anreicherung von Daten, • Verbesserung der Datenqualität durch ein Data Stewardship, • Übernahme von Reportingverant- wortung durch den Anwender, • Stabilität und Performance der BI Architektur, • Konsistenz und Ordnungsmäßig- keit der Berichte und • verursachungsgerechte Verteilung der Build-Kosten und Verantwort- ung zu erreichen. Abb. 1 Flexibilität und Agilität entlang der Ebenen einer BI- Architektur
  • 43.
    Competence Book -Business Intelligence GRUNDLAGEN - SELF-SERVICE BI 43 Einsatzpotenzialanalyse Vor der Einführung von SSBI steht die Frage: Welche Potenziale sind mit der Einführung von SSBI in einem Unternehmen verbunden und wo hat der Einsatz von SSBI die größte Hebelwirkung? Ausgehend vom Geschäfts- modell des Unternehmens sind zwei Heran- gehensweisen denkbar: eine funktionale und eine prozessuale Einsatzpotenzialanalyse. Anforderungserhebung Basierend auf den Erkenntnissen der Einsatz- potenzialanalyse können die Anforderungen an die Flexibilität und Agilität, Integration so- wie Verantwortung künftiger SSBI Anwender erhoben werden. Die Anforderungserhebung erfolgt analog zum klassischen Anforderungs- management, angepasst an die Spezifika von SSBI, sodass die Anforderungen wie aus einem Katalog ausgewählt werden können. Machbarkeitsstudie Vor dem Hintergrund der Performanz, Stabi- lität und Effizienz wird die technische Archi- tektur des Data Warehouse im Unternehmen auf die Realisierbarkeit der Anforderungen untersucht. Neben technischen Fragestellun- gen sind je nach Anforderung auch Fragen relevant, wie: Sind die ETL-Prozesse für den Anwender nachvollziehbar? Welche Auswir- kungen hat die SSBI Einführung auf Sicher- heits- und Schutzkonzepte? Architekturkonzept Bestenfalls sind nach der Machbar- keitsstudie keine architektonischen An- passungen notwendig. Häufig sind je- doch Änderungen durchzuführen. Die untenstehende Abbildung (s. Abb. 2) zeigt eine SSBI Data Warehouse Referenzar- chitektur, die auf allen Ebenen um Elemente des SSBI erweitert worden ist. Damit bietet sie dem Anwender maximale Freiheitsgrade. Je nach Anforderungsprofil und Ausgangsar- chitektur des Unternehmens ist eine andere Architektur abzuleiten. Softwareauswahl Entsprechend des Reifegrades des Unterneh- mens mit Blick auf SSBI ist ein optionaler Softwareauswahlprozess zu durchlaufen. Da die architektonische Machbarkeit bereits un- tersucht worden ist, wird der Reifegrad an- hand technologischer und psychologischer Eigenschaften untersucht. (Wechselwirkun- gen z.B. zum Architekturkonzept sind aus Gründen der Übersichtlichkeit nicht aufgeführt worden.) Zu prüfen ist hier z.B., ob die eingesetzte Software SSBI ge- eignet ist und die SSBI Anwender befähigt sind, diese Software zu nutzen. Der Auswahlprozess folgt dem bewährten Vorgehen der Softwareauswahl. Governanceanpassung Mit der Einführung von SSBI sind eine Vielzahl von Herausforderungen verbun- den. Neben der Umsetzung der Anforderungen muss ein performanter, stabi- ler und effizienter Betrieb sichergestellt werden. Die Anpassung der BI-Gover- nance, um dedizierte Elemente des SSBI, trägt dieser Forderung Rechnung. Sie grenzt gemanagte BI Umgebungen und SSBI Umgebungen voneinander ab und beschreibt den Transfer von SSBI Entwicklungen in eine gemanagte Umgebung. Zum Schutz vor einem Chaos obsoleter Elemente in einer SSBI Umgebung um- fasst die BI-Governance Vorgaben und Prozesse der Bereinigung einer SSBI Um- gebung. Richtlinien definieren die Berechtigungen über die Ebenen der BI Ar- chitektur (s. Abb. 1) hinweg sowie die Verantwortung für SSBI Entwicklungen. Roadmap Alleine vorige Ausführungen zeigen, dass SSBI mehr ist als eine reine Tool-Aus- wahl. Um ad-hoc wettbewerbsdifferenzierende Analysen entwickeln zu können ist eine fundierte technische und organisatorische Basis zu schaffen. Nur so können Analysen auch nachhaltig performant, stabil und effizient durchgeführt werden. Daher sollten die einzelnen Teilprojekte strategisch geplant werden, um ein schnelles und effizientes SSBI langfristig sicherzustellen. Abb. 2 SSBI Data Warehouse Referenzarchitektur
  • 44.
    Competence Book -Business Intelligence GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE 44 AgileBIEntwicklung erfolgreichumsetzen Seit einiger Zeit ist auch in der Business Intelligence (BI) Community agiles Projektvorge- hen in aller Munde. Obwohl agile Vorgehensmodelle, wie Scrum in der Softwareenwicklung, bereits seit vielen Jahren fest etablierte Projektmethodiken sind, begegnete man ihnen in BI Projekten bis jetzt eher selten. Erst in den letzten ein bis zwei Jahren tauchen sie, zumeist auf den Vertriebsfolien der verschiedenen Beratungshäuser, vermehrt auf und versprechen eine schnellere, kundenorientiertere und allgemein erfolgreichere Projektumsetzung. Aber was muss man sich unter einem agilen Projektvorgehen wie Scrum konkret vorstellen und ist es überhaupt sinnvoll, Alternativen zum vertrautem und alt bekannten Wasserfall-Modell in Betracht zu ziehen? AUTOR: Michael Bruns (cundus AG) Agiles Projektvorgehen Was ist Scrum? Bei Scrum handelt es sich um ein team- basiertes Vorgehensmodell aus der Soft- waretechnik zur Entwicklung qualitativ hochwertiger und komplexer Systeme und Produkte. Scrum wird durch einen Satz von Regeln, Rollen und Prozessen defi- niert, die ein Team in die Lage versetzen sollen, regelmäßige Produktinkremente innerhalb so genannter Sprints zu liefern. Ein Sprint ist eine feste Zeitspanne von 2-4 Wochen und hat das Ziel, am Ende dieser Zeitspanne eine funktionsfähige Version der zu erstellenden Lösung zu liefern. Nach jedem Sprint ist es grundsätzlich möglich diese auszuliefern, und so den Anwendern bereits sehr früh im Projekt- zyklus erste Funktionen der umzusetzen- den Lösung für die produktive Nutzung zugänglich zu machen. Methodik Aber warum benötigt man überhaupt ein agilesVorgehensmodell für Business Intel- ligence Projekte und bietet es überhaupt potentielle Vorteile gegenüber dem altbe- kannten Vorgehen im Wassserfallmodus? Grundsätzlich ist die Entwicklung von DWH/BI Systemen sehr vielschichtig und esistkeinGeheimnis,dassvieleBI Projekte scheitern. Die Ursachen für ein Scheitern liegen oft in der fehlenden Akzeptanz und Zufriedenheit der Benutzer begründet. In klassischen BI Projekten vergehen da- rüber hinaus oft sechs oder mehr Monate bevor Anwender erstmalig Zugriff auf die von Ihnen beauftragte Lösung erhalten. Häufig stellt sich dann heraus, dass sich Anforderungen geändert haben bzw. ur- sprünglich formulierte Anforderungen bei genauerer Betrachtung anders gemeint waren. Auf der anderen Seite kommt es vor, dass Entwickler die penible Umset- zung einzelner Funktionen in einem zu Projektbeginn erstellten und abgenom- menen Fachkonzept als Vertrag auffassen, dessen Einhaltung einer grundsätzlichen Anwenderzufriedenheit vorzuziehen ist. Klassische Vorgehensmodelle zeigen deut- liche Schwächen, Projektgefahren dieser Art rechtzeitig im Projektverlauf aufzude- cken und ihnen entgegen zu wirken. Ein agiles Projektvorgehen dagegen liefert be- reits frühzeitig erste nutzbare Funktiona- litäten, die es dem Kunden erlauben, diese zeitnah gegen die Anforderungen zu tes- ten. Feedback der Anwender kann direkt in die Umsetzung der folgenden Relea- ses einfließen und erlaubt außerdem ein
  • 45.
    Competence Book -Business Intelligence GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE Zum Autor Michael Bruns: Seit Anfang 2010 arbeitet Michael Bruns als Managing Consultant bei der cundus AG in Duisburg. Als Leiter des Competence Centers BI-Applications ist er mit der Kon- zeption und Implementierung von Business Intelligence Architekturen betraut. Er verfügt über mehr als 10-jährige, branchenübergreifende Projekter- fahrung bei der Umsetzung dieser Konzepte mit Microsoft Technolo- gien. 45 rechtzeitiges Gegensteuern bei erkennba- ren Fehlentwicklungen. Ablauf Doch welche Herausforderungen erge- ben sich in einem agilen BI Projekt an das technische und methodische Entwick- lungsvorgehen, um das durch die Pro- jektmethodik vorgegebene Arbeitsmuster auch tatsächlich praktisch umsetzen zu können? Testaufwände und das Vorbe- reiten des Transportes in die QA und Produktionsumgebung können schnell einen großen Teil des Sprints einnehmen und so wenig Zeit für die Umsetzung der eingeplaten Benutzerfunktionalitäten lassen. Insbesondere auf die notwendige technische Unterstützung eines aglien BI Projektes soll im Folgenden eingegangen werden. Mehr über Besonderheiten von agilen Business Intelligence Projekten im Allgemeinen finden sich im Artikel „Er- folgfaktor agile BI Entwicklung“ der Aus- gabe Mai 2013 der it-management. Arbeitsmethoden Damit ein Team von BI Experten in einem Projekt tatsächlich agil, zum Beispiel nach Scrum, arbeiten und dieses auch erfolg- reich umsetzen kann, reicht es jedoch nicht, die Anforderungen ab jetzt User Stories zu nennen und seinen Arbeitsmo- dus in zwei bis vierwöchige Iterationen zu unterteilen. Das Arbeiten nach agilen Pro- jektmethodiken erfordert einen gut struk- turierten organisatorischen Rahmen und viel Disziplin bei allen Beteiligten. Die Übertragung dieser Prinzipien agiler Softwareentwicklung auf Business Intelli- gence Projekte bringt darüber hinaus eine Reihe von weiteren Herausforderungen mit sich. Vorgehensweisen und Tools, die für die Anwendungsentwicklung z.B. mit Java oder C# mittlerweile fast perfekt auf die Anforderungen von agilen Entwick- lungsteams abgestimmt sind, können nicht ohne weiteres auf DWH/BI Systeme mit ihren unterschiedlichsten Artefakten wie ETL Paketen, Datenbankskripten und Berichten übertragen werden. Um regel- mäßig in zwei bis vier Wochen neue Funk- tionen den Anwendern und Stakeholdern übergeben zu können, ist ein hohes Maß an Automatisierung auf allen Ebenen der Entwicklung erforderlich. Darüber hinaus existieren im BI Kontext eine Reihe weite- rer Herausforderungen. Projektumsetzung Die meisten BI Werkzeuge der etablierten Hersteller stellen nur zum Teil Funktio- nen zur Verfügung, die BI Entwickler in einer agilen Projektumsetzung ausrei- chend unterstützen. Hierzu gehört neben einem professionellen Build- und Deploy- mentprozess auch die automatisierte Aus- führung von Testfällen. Nur so ist es mög- lich, dass sich das Entwicklungsteam auf die gezielte Umsetzung der angeforderten Funktionen und des damit verbundenen Mehrwert konzentrieren kann und nicht regelmäßig durch das manuelle Vorbe- reiten einer „sauberen“ Entwicklungsum- gebung oder das händische Ausführen von Testfällen ausgebremst wird. Hinzu kommt, dass die Entwicklung von DWH/ BI Systemen häufig mit Hilfe unterschied- licher Tools erfolgt. So kommen häufig spezielle Tools für die Entwicklung von ETL Paketen, OLAP Würfeln und Be- richten zum Einsatz. Eine Integration der einzelnen Tools zu einem einheitlichen Build-, Deployment- und Testprozess muss entweder im Eigenbau erfolgen oder wird von Dienstleistern mit Erfahrungen in agilen Vorgehensmodellen im Rahmen eines Projektes mit eingebracht. Aller- dings verfügen nur wenige Dienstleister über entsprechend ausgereifte BI Frame- works. Das Arbeiten mit in der Regel großen Da- tenvolumina ist ein weiterer Unterschied zur klassischen Softwareentwicklung und muss bei der Umsetzung von agilen BI Systemen besonders berücksichtigt werden. Entwickler müssen in die Lage versetzt werden insbesondere ETL Stre- cken schnell und effizient zu testen. Dies erfordert jedoch kleine und repräsentati- ve Testdatensets, deren initiale Erstellung durchaus mit einem gewissen Aufwand verbunden sein kann, der sich jedoch schon nach wenigen Test- und Entwick- lungszyklen auszahlt. Gleichzeitig muss sichergestellt werden, dass die entwi- ckelten ETL Pakete auch mit großen Da- tenmengen einwandfrei und performant funktionieren. Eine weitere Herausforderung ist das oft sehr ungleichmäßige Aufwandsverhältnis zwischen Backend- und Frontendent- wicklung bei der Umsetzung von DWH/BI Systemen. Insbesondere zu Beginn eines Projektes müssen im Backend häufig um- fangreiche Entwicklungen getätigt werden um auf der Frontendseite selbst kleinere Features zur Verfügung stellen zu können. Dies erfordert für einen Feature-orientier- ten Projektansatz wie Scrum innovative Vorgehensweisen um zunächst schlanke, einfach gehaltene Backendkomponenten im weiteren Projektverlauf ausbauen und skalieren zu können. Herausforderungen Die aufgeführten Problemstellungen mögen zunächst als Einwand oder gar K.O.-Kriterium für die Nutzung von agi- len Projektmethodiken im BI Kontext betrachtet werden. Beschäftigt man sich jedoch intensiv mit den einzelnen Punk- ten zeigt sich, dass bereits heute für jede
  • 46.
    Competence Book -Business Intelligence GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE 46 der genannten Herausforderungen Lösun- gen und Konzepte bestehen um diese zu bewältigen und auch BI Projekte erfolg- reich mit Scrum umzusetzen. Essenti- ell ist, dass für jede Schicht im DWH/BI System und jeden Entwicklungsprozess ein gemeinsames, integriertes und ein- heitliches Vorgehen genutzt wird, wel- ches iteratives, inkrementelles Vorgehen bestmöglich unterstützt. Dies beginnt bei der den Entwicklern zur Verfügung stehenden Infrastruktur und endet bei der automatisierten Bereitstellung neuer BI Funktionen für Endanwender. So hel- fen beispielsweise moderne Konzepte zur Datenmodellierung, wie beispielsweise Data Vault, die notwendige Flexibilität zu gewährleisten um umfangreiche An- passungen an ETL Prozessen bei Erweite- rungen des Datenmodells zu vermeiden. Darüber hinaus müssen dem Entwickler standardisierte, verbindliche Pattern zur Umsetzung wiederkehrender Aufgaben wie beispielsweise Delta-Load-Mechanis- men, Dimensionsbewirtschaftung oder auch standardisierte Berichtselemente zur Verfügung stehen. Diese Komponen- ten sollten in Hinblick auf ihre Komplexi- tät und Funktionsumfang zunächst leicht implementierbar sein und je nach Reife- grad der aktuellen Entwicklung ohne grö- ßere Aufwände erweitert werden können. Aber auch grundsätzlich neue Wege müs- sen fortlaufend beobachtet und auf ihre Eignung im agilen Projektvorgehen be- wertet werden. So kann der Einsatz neuer Technologien wie z.B. spalten-orientierte In-Memory Datenbanken oder „Big Data Technologien“ in bestimmten Fällen ein agiles Vorgehen besser unterstützen, als es die übliche Schichtenarchitektur eines klassischen DWH/BI Systems vermag. Entwicklung Neben den grundsätzlichen handwerkli- chen Vorgehensweisen ist auch eine auf das agile Vorgehen ausgelegte Entwick- lungsinfrastruktur wesentlich für eine bestmögliche Nutzung der zur Verfügung stehenden Entwicklungszeit. Für die Ent- wicklung und den Betrieb klassischer BI Systeme wird üblicherweise eine System- landschaft bestehend aus Entwicklungs-, QA- und Produktionsumgebung genutzt. Entwickler arbeiten häufig auf einem ge- meinsam genutzten Entwicklungssystem, was einer kreativen Umsetzung neuer Ide- en entgegenwirkt, da fortlaufend Rück- sicht auf das restliche Entwicklungsteam genommen werden muss, welches auf der- selben Umgebung entwickelt. Auf der an- deren Seite können Weiterentwicklungen von Kollegen den eigenen Entwicklungs- fortschritt behindern und die notwendi- ge Koordination erfordert einen hohen Zeitaufwand. Um den Anforderungen einer agilen BI Entwicklung gerecht zu werden und regelmäßig neue Funktionen den Endanwendern zur Verfügung stellen zu können, wird eine Entwicklungsinfra- struktur benötigt, welche insbesondere die Verwendung virtueller Systeme in Ver- bindung mit der Möglichkeit Snapshots unterschiedlicher Systemzustände schnell wieder herstellen zu können unterstützt, und so die die Entwicklungsgeschwin- digkeit enorm erhöht. So lässt sich bei- spielweise ein Test nach Behebung eines Fehlers direkt auf einem genau definier- ten Systemstand wiederholen, ohne dass zunächst eine erneute Datenbewirtschaf- tung oder anderweitige Systemvorberei- tung erfolgen muss, um den Fehler repro- duzieren zu können. Die Umsetzung und Einführung eines vollständigen Build- und Deploymentpro- zesses erfordert aufgrund der mehrschich- tigen Architektur in DWH/BI Systemen deutlich mehr Aufwand als bei der Ent- wicklung klassischer Software. Ziel eines solchen Prozesses ist die automatische Erzeugung eines den gesamten BI Stack umfassenden Releasepaketes. Alle Än- derungen und Anpassungen, welche im Rahmen eines Release benötigt werden, sind Bestandteil dieses Paketes. Aufgrund der Vielschichtigkeit von BI Systemen um- fasst ein Releasepaket eine Vielzahl unter- schiedlicher Artefakte, welche zusätzlich oft auch auf verschiedene Systeme verteilt werden müssen. So müssen für eine neue Funktion möglicherweise neue ETL Pakete in das Repository des ETL Servers kopiert werden, auf dem DWH System ist die Aus- führung von SQL Skripten zur Anpassung des Datenmodells erforderlich und in das zentrale BI Portal erfolgt die Bereitstel- lung der neuen Berichte. Das Ausführen von Tests als auch ein mögliches Rollback müssen natürlich ebenfalls berücksichtigt werden. NebendermanuellenAusführung der Installationspakete ist eine Automati- sierung des Build- und Deploymentpro- zesses die grundlegende Voraussetzung für eine fortlaufende Bereitstellung neuer Versionen auf einem konsolidierten Ent- wicklungssystem. So kann beispielsweise nach einer bestimmten Anzahl von Ände- rungen ein Buildprozess gestartet und im Anschluss automatisch ausgerollt werden. Inkompabilitäten zwischen Funktionen, die von unterschiedlichen Entwicklern umgesetzt wurden, werden bei dieser Vor- gehensweise direkt erkannt. Aufwendige Go-Live-Vorbereitungen wie sie oft am En- de der Entwicklungsphase in klassischen Projekten notwendig werden, treten gar nicht erst auf. Testing Wie eingangs erwähnt, stellt ein Konzept zum automatisierten Testen der gesam- ten DWH/BI Umgebung eine wesentliche Voraussetzung für agile BI Projekte dar. Klassische Projektenvorgehensmodelle sehen umfangreiche Testphasen im An- schluss an die Entwicklung der DWH/ BI Lösung vor. Diese Testphasen sind in der Regel durch einen hohen manuellen Testaufwand gekennzeichnet und üb- licherweise sehr zeitintensiv. Vor dem Hintergrund der regelmäßigen Lieferung neuer Businessfunktionalitäten muss in agilen Projekten ein komplett anderer Ansatz des Testens gefunden werden. Ein Aspekt hierbei ist die direkte Integration des Testens in den Entwicklungsprozess, sowie ein möglichst hoher Anteil auto- matisierter Testfälle. Ob und zu welchem Grad ein Test automatisierbar ist hängt im Wesentlichen davon ab, welcher Kategorie dieser zugeordnet werden kann. In Anleh- nung an „The Craft of Software Testing“ existieren vier wesentliche Perspektiven, nach denen eine Software bzw. ein System getestet werden muss, um sowohl techni- schen, als auch fachlichen Qualitätskrite- rien gerecht zu werden. • Die fachlichen Abnahmebedin- gungen beinhalten Tests der beauf- tragten Anwendung und erwarteten
  • 47.
    Competence Book -Business Intelligence GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE 47 Mehrwert des Systems im Hinblick auf die Anforderungen der Endan- wender. • Im Rahmen Produktvalidierung erfolgt eine Betrachtung einzelner Funktionen im Hinblick auf korrekte fachliche Ergebnisse. • Die technischen Abnahmebedin- gungen sind entwickler-orientiert und beziehen sich auf die korrekte Funktionsweise der technischen An- wendungsanforderungen. • Das Ziel der Systemvalidierung ist ebenfalls entwickler-orientiert. Sie fokussiert sich auf die Validierung einzelner Codeblöcke und -module und überprüft deren korrekte Funk- tionsweise unter verschiedensten Be- dingungen. Auf Basis der genannten Testanforderun- gen kann die nachstehende Matrix abge- leitet werden. Die ersten beiden Perspek- tiven sind primäranwender-orientiert und stellen sicher, dass das „richtige“ Produkt entwickelt wird. Die Perspektiven „tech- nische Abnahmebedingungen“ und „Sys- temvalidierung“ stellen hingegen sicher, dass die Anwendung auch nach techni- schen Kriterien korrekt entwickelt wird. Testvorgehen Aus diesen vier Perspektiven lassen sich insgesamt vier unterschiedliche Testvor- gehen ableiten, welche nachfolgend auf- geführt sind. • Unit Testing, als Schnittmenge der Systemvalidierung und der tech- nischen Abnahmebedingungen, unterstützt den Entwickler bei der technischen Validierung einzelner Systemkomponenten. Dieses Vorge- hen ist hochautomatisierbar und mit einer Vielzahl, teilweise frei verfügba- rer Tools, realisierbar. Hierzu zählen beispielsweise SQLUnit, DbUnit oder DbFit. • Story Testing dient zur automatisier- ten Validierung zusammenhängender Funktionen, welche im Zusammen- spieldieAnforderungeneinerUserSto- ry darstellen. Beispiele für Tools, wel- che die Abbildung solcherTeststrecken ermöglichen sind Fit oder FitNesse. • Im Gegensatz zum Story Testing be- zieht das Functional Acceptance Testing die Benutzeroberfläche in die Testspezifikation mit ein. Tools wie Selenium, Watir oder WebTest eignen sich zur Abbildung von Be- nutzerakzeptanztests. • Trotz hohem Automatisierungsgrad der vorgestellten Testkategorien sind diese kein Ersatz für den manuellen Test des Systems durch echte Anwen- der. Im Rahmen des „Exploratory Testing“ erfolgt, in der Regel zum Ende einer Iteration, ein Test durch die Endanwender. Bei einer guten Umsetzung der erste drei Testvorge- hen kann sich diese Testphase primär auf neue Funktionalitäten der An- wendung konzentrieren. Natürlich existieren auch im Bereich des automatisierten Testvorgehens viele Be- sonderheiten und Herausforderungen, welche im Rahmen von Business Intelli- gence Projekten zusätzlich berücksichtigt werden müssen. Insbesondere die Viel- schichtigkeit eines DWH/BI Systems er- fordert eine geschickte Integration der verschiedenen Testanforderungen und Systemebenen in ein ganzheitliches Test- framework. Daneben existieren weitere Punkte, welche bei der Umsetzung eines solchen Frameworks beachtet werden müssen. Hierzu gehören unter anderem: • Im Gegensatz zu den meisten klas- sischen Softwareprodukten arbeiten DWH/BI Systeme mit sehr großen Datenvolumina. Die Entwicklung von Testfällen für Szenarien, in de- nen mit mehreren Giga- oder gar Terrabytes an Daten operiert werden muss, gestaltet sich in der Regel deut- lich aufwendiger als der Testfall für eine einfache C# Funktion. • Darüber hinaus entsteht bei der Ent- wicklung von BI Systemen eine große Anzahl an Artefakten, welche nicht aus objektorientieren Codes be- stehen. Während klassische Testsoft- ware auf die Validierung objektori- entierter Funktionen ausgelegt ist, bestehen DWH/BI Systeme häufig aus einer Kombination von SQL- und MDXSkripten, ETL Paketen und ei- ner Vielzahl weiterer, häufig proprie- tärer Artefakte. Fazit Die wesentliche Herausforderung im Rah- men automatisierter Tests im BI Kontext ist die Integration der unterschiedlichen Testvorgehen einzelner Artefakte in ein ganzheitliches, leicht erweiterbares Test- framework sowie die Erstellung repräsen- tativer Testdatenbestände. Werden diese Herausforderungen gemeistert und auch in das bestehende Build- und Releasefra- mework integriert, stehen dem BI Team mächtige Instrumente zur Verfügung, die ein agiles Vorgehen bestmöglich unter- stützen.
  • 48.
    Competence Book -Business Intelligence GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE 48 Business Intelligence (BI)-Systeme sind sehr einfach. Zumindest wenn sie nur ein Quellsystem haben und dieses Quellsystem ein Standard-Datenmodell hat. In diesen Fällen sind die ersten Be- richte meist in wenigen Tagen verfügbar. Alles ist vorkonfiguriert. Ein BI-System gewinnt jedoch sehr schnell an Komplexität, wenn mehr als ein Quellsystem eingebunden werden soll, oder das BI-System alle unternehmensweiten Daten verarbeiten soll. Hier stellen sich nun ganz neue Fragen zu Konsolidierung und Verar- beitung. So kann beispielsweise der Umsatz aus der Fakturierung etwas komplett anderes sein als der Umsatz aus dem Finanzsys- tem. Die Spezifikation entsteht … In der fachlichen Konzeption werden die verfügbaren Daten ermittelt und es wird genau beschrieben, wie welche Daten zur Verfügung gestellt werden sollen. Diese Beschreibung übergibt die Fachabteilung als Word- oder Excel-Datei an die IT. In der IT entstehen daraus mehrere Datenbanken und diverse ETL-Pro- zesse (Extract, Transform, Load), die diese Datenbanken laden. Vor der Erstellung der Datenbanken werden Datenmodelle er- stellt. Für ETLProzesse gibt es aber meist kein Prozessmodell. Die ETL-Werkzeuge stellen eine Prozesssicht dar, die ein Pro- zessmodell auf den ersten Blick unnötig erscheinen lassen. Viele der Prozessschritte sind einfache Kopierarbeiten, etliche andere hingegen sind sehr komplexe SQL-Statements, die sich dem Be- trachter nicht auf den ersten Blick erschließen. Eine textuelle Beschreibung des Prozesses erleichtert hier oft das Verständnis. … und ändert sich sofort Beim Verknüpfen zweier Systeme, deren Daten bisher nur ge- trennt betrachtet wurden, stellen sich im Laufe der Datenauf- bereitung viele Überraschungen ein. Ursprüngliche Annahmen erweisen sich als falsch. Prozesse müssen laufend überarbeitet werden. Kaum werden die ersten Ergebnisse geliefert, bringen diese neue Erkenntnisse, die eine erneute Änderung der soeben fertig gestellten Prozesse nötig machen. ModellealsBasis füreineagileBI AUTOR: Michael Müller (MID GmbH) Seit einiger Zeit ist auch in der Business Intelligence (BI) Community agiles Projekt- vorgehen in aller Munde. Obwohl agile Vorgehensmodelle wie Scrum in der Software- enwicklung bereits seit vielen Jahren fest etablierte Projektmethodiken sind, begegnete man ihnen in BI Projekten bis jetzt eher selten. Erst in den letzten ein bis zwei Jahren tauchen sie, zumeist auf den Vertriebsfolien der verschiedenen Beratungshäuser, vermehrt auf und versprechen eine schnellere, kundenorientiertere und allgemein erfolgreichere Projekt- umsetzung. Aber was muss man sich unter einem agilen Projektvorgehen wie Scrum konkret vorstellen und ist es überhaupt sinnvoll, Alternativen zum vertrautem und alt bekannten Wasserfall-Modell in Betracht zu ziehen?
  • 49.
    Competence Book -Business Intelligence GRUNDLAGEN - AGILE BUSINESS INTELLIGENCE 49 Es hilft das 4-Augen-Prinzip mit Modellierer und Entwickler … Gerade in änderungsintensiven Phasen bewährt es sich, wenn es einen Modellierer und einen Entwickler gibt. So entsteht aus dem Fachkonzept zunächst ein Modell. Der Entwickler prüft dies nun und setzt es gemäß der technischen Anforderungen um. Dabei hat er Anmerkungen und Rückfragen, die wiederum ins Modell eingehen. Durch die klare Trennung in technischen und fachlichen Blickwinkel entsteht im Dialog eine bessere Lösung. … und verbessert auch die Wartbarkeit Bei einem solchen Vorgehen ist das Modell näher an der gewähl- ten Implementierung. Und so lassen sich auch sehr komplexe Prozesse nachträglich ändern, weil man die Inhalte besser doku- mentiert hat und so das Verständnis im Nachhinein gewährleis- tet ist. Die Situation, dass niemand so genau weiß was in einem Prozessschritt passiert gibt es dann schlicht und ergreifend nicht. Ebenso gehören unübersichtliche Prozessketten, die entstehen, weil man sich nicht mehr traut einen komplexen Prozessschritt zu erweitern oder zu restrukturieren, der Vergangenheit an. Ist wirklich noch alles aktuell? Bis nun zwei oder mehrere SystemezurZufriedenheitder Fachab- teilung verknüpft und die Daten korrekt aufbereitet sind, haben sich in der Regel relevante Teile des Fachkonzepts bereits wieder geändert. Diese Änderungen sind meist nicht in die Fachkon- zepte zurück geflossen. Die Ergebnisse und Lehren aus diesem komplexen Unterfangen stehen der Fachabteilung nicht zur Ver- fügung. Soll nun die Datengrundlage erweitert oder der Kreis der Fachanwender vergrößert werden, muss die Fachabteilung von vorne anfangen. Häufig wird dann bei der IT nachgefragt, was denn genau bei der Datenaufbereitung passiert oder schlimmer – es wird unterstellt, es sei nicht wie gewünscht geliefert worden. Modelle senken Recherchekosten für Erweiterungen Da Datenmodelle und die formale Form der Prozessbeschrei- bungen für Fachanwender oft schwer verdaulich sind, empfiehlt sich für den Fachbereich ein semi-formales Modell. Dieses macht zum einen die komplexen Transformationen transparent, zum anderen stellt es die verfügbaren Daten dar. Der Fachanwender kann nun wirklich Daten ‚einkaufen‘ gehen. Wenn diese Daten in einem DataMart enthalten sind, sind diese sofort verfügbar. Wenn nicht, dann kann man in der Data Warehouse Schicht oder in der Ladeschicht nachschauen und dann die entsprechenden Daten- und Prozessmodelle erweitern, was die Recherchekosten erheblich senkt. So wird das fachliche, semiformale Modell zu einer Basis für neue Arbeitsaufträge. Modelle bieten viele Vorteile … Ein BI-System ändert sich ständig. Es gibt immer neue Konstella- tionen auszuwerten, neue Ziele zu prüfen. Änderungen sind bei BI-Systemen an der Tagesordnung. Gerade bei komplexen Sys- temen mit zwei oder mehr inhomogenen Datenquellen helfen Modelle, diesen Workload schneller zu bewältigen. Dokumenta- tionen, die als Teil des Entwicklungsprozesses aus den Modellen generiert werden, erleichtern neuen Mitarbeitern und Nutzern die Einarbeitung in das BI-System. Die mit Modellierung und verbesserter Dokumentation erhöhte Transparenz beschleunigt Wartung und Weiterentwicklung. Zudem ermöglicht die höhere Transparenz der Fachabteilung ein tieferes Verständnis für das BI-System und reduziert ihre Aufwände bei der Datenrecherche. … und sind – auch bei BI - eine ertragreiche Investition Modelle lohnen sich bei Business Intelligence und Data Warehouse, wenn Daten aus mehreren inhomogenen Daten- quellen zusammengeführt werden müssen, gleichermaßen für die Fachabteilung und die IT Abteilung. Zum Autor Michael Müller: Michael Müller, Dipl. Inf. (FH), ist Principal Consutant bei der MID GmbH. Nach sieben Jahren als Soft- wareentwickler im Bereich Adressmanagement und Database Marketing kam er Ende 2001 zu MID. Sein Schwerpunkt liegt im Bereich Business Intelligence und Data Warehousing.
  • 50.
    Competence Book -Business Intelligence GRUNDLAGEN - DATENBASIS 50 S ind im Rahmen eines agilen Business Intelligence-Vorge- hens die fachlichen Anforderungen an den Anwender er- fasst, gilt es möglichst effizient und effektiv die technischen Modelle abzuleiten. In diesem Beitrag wird das Vorgehen mithil- fe des Werkzeugs Innovator for Database Architecs vorgestellt. Datenbanken modellieren mit konzeptionellen Schemata Das konzeptionelle Schema beschreibt die fachlichen Anforde- rungen der Anwender unabhängig von der Implementierung. Entitäts- und Beziehungstypen werden im Modell definiert und grafisch dargestellt. Das konzeptionelle Schema wird üblicher- weise auf ein konkretes Datenbanksystem abgebildet. Dabei unterstützt Innovator alle gängigen relationalen Datenbanksys- teme. Mit der IDEF1XNotation auch für Entity-Relationship-Dia- gramme ist eine einheitliche Notation für konzeptionelle Daten- modelle und für Datenbankschemata möglich. Darüber hinaus lässt sich in Innovator die Unterstützung jeder beliebigen relati- onalen Datenbank konfigurieren. Im Datenbankschema werden Tabellen, Spalten, Views, Primär- und Fremdschlüssel, Indizes, Trigger, Stored Procedures sowie Zugriffsberechtigungen un- terstützt. Zusätzlich zu den direkten Datentypen aus den Ziel- systemen stehen auch semantische Datentypen zur Typisierung zur Verfügung. Funktionalitäten wie das Zusammenführen und Aufteilen von Datenbanktabellen (Split-Columns, Split-Rows) unterstützen die Modellierung im Datenbankschema zusätzlich. Tabellenorientierte Editoren ermöglichen in beiden Schemata schnelles Arbeiten. So lassen sich z. B. mehrere Attribute kom- fortabel auf verschiedene Entitäten übertragen. Tabellenorien- tierte Editoren existieren sowohl für Entitäten und konzeptio- nelle Views als auch für DB-Tabellen und DB-Views. Visualisiert werden die Schemata durch Diagramme. Im konzeptionellen Schema hat sich die Entity-Relationship-Modellierung (ERM) als Standard für semantische Datenmodelle etabliert. Innova- tor for Database Architects bietet unterschiedliche Optionen für die Notation der ER-Modelle: je nach Vertrautheit kann der Be- nutzer die klassische Chen-Notation, die James- Martin- („Krä- henfuß“), SERM-, DSA-Notation oder eine Notation basierend auf UML-Klassendiagrammen verwenden. Diese Einstellung kann jeder Benutzer individuell für seine Innovator-Anwendung festlegen. Zur Visualisierung des Datenbankschemas wird der ISO-Standard IDEF1X genutzt. Datenbanktabellen und Views sind mit einstellbarer Größe und Abschnittsinhalten, z. B. für Tabellenspalten und Fremdschlüssel, darstellbar. Die Abschnitt- sinhalte sind ausblendbar und können automatisch gepflegt wer- den. Generierung und Reverse-Engineering von Datenbanken mit dem Datebankmanager Basierend auf dem Datenbankschema generiert Innovator DDL-Skripten, wahlweise CreateTable-Skripten zur Neuanlage oder AlterTable-Skripten zur Änderung existierender Datenban- ken. Dabei können hersteller- oder projektspezifische Besonder- heiten berücksichtigt werden. Existierende Datenbanken werden durch Reverse-Engineering eingebunden. Dabei geht es meist nicht nur um die Dokumentation der Datenbankschemata, son- dern um die Einbindung dieser Datenbanken in neue Projekte. Innovator erzeugt dabei entweder Modelle aus DDL-Skripten oder liest per JDBC-Zugriff direkt aus der Datenbank. Für Da- tenbank-Spezialisten eignet sich der Datenbankmanager mit umfangreicher GUI-Unterstützung z.B. zum Abgleich des Da- tenbankschemas mit der Live-Datenbank. Für eine schnelle Übernahme von Datenbankschemata aus der Live-Datenbank eignet sich der wizard-geführte Reverser. Änderungen beim Datenbankdesign managen Konzeptionelles Schema und Datenbankschema können in In- novator for Database Architects getrennt entwickelt werden, werden aber in der Regel miteinander integriert. Dabei werden Änderungen im konzeptionellen Schema im Datenbankschema über ein Mapping nachgezogen. Die prinzipielle Trennung der beiden Ebenen und der Abgleich per Mapping werden durch eine Datenbankmodelleund-Design am Beispiel von Innovator for Database Architects AUTOR: Bertram Geck (MID GmbH)
  • 51.
    Competence Book -Business Intelligence GRUNDLAGEN - DATENBASIS 51 Vorschau der Änderungen unterstützt. Durch das Mapping können Sie die Abbil- dung ins Datenbankschema zeitlich exakt steuern und somit definierte Modellstän- de leicht integrieren. Das Zusammenspiel der Schemata ist eine Grundvorausset- zung für reale IT-Projekte, da die manu- elle Pflege der Datenmodelle aufwendig und fehlerträchtig ist. Umgekehrt kön- nen auch konzeptionelle Schemata aus dem Datenbankschema erzeugt bzw. ab- geglichen werden. Beispielsweise werden konzeptionelle Modelle zur Einbindung existierender undokumentierter Daten- banken erstellt. Datenbankmodelle mit Analysemodel- len und Software-Design integrieren Innovator erlaubt die Anbindung von Mo- dellen aus Innovator for Business Analys- ts oder Innovator for Software Architects über ein Mapping. Das Mapping bildet ge- schäftsprozessorientierte oder objektori- entierte Modellierungskonzepte auf Kon- zepte relationaler Datenbanken ab. Dies funktioniert in beide Richtungen. Oft werden objektorientierte Analysemodelle in UML als Startpunkt für ein konzeptionelles Datenbankschema genommen. Beispielsweise wird ein UML-Modell mit dem Ergebnis der Anforderungsanalyse aus Innovator for Business Analysts über das OO-ERMapping in ein initiales konzeptionelles Schema verwandelt. Dabei werden Traceability-Links ge- setzt, die es später erlauben, Änderungen im Analysemodell im konzeptionellen Sche- ma nachzuziehen. In umgekehrter Richtung lassen sich Klassen aus Entitäten generie- ren, um die Entwicklung gegen die entsprechende Datenbank zu erleichtern. Auch hier helfen Trace-Links, die Konsistenz zwischen den Modellen sicherzustellen. Zum Autor Bertram Geck: Bertram Geck trägt seit 1. Januar 2013 als Sprecher der Geschäftsführung die Gesamtverantwortung für die Weiterentwicklung der MID GmbH. Er leitet dabei die Bereiche Marketing und Vertrieb. Als Gründer, Geschäftsführer und Berater in der IT- und Software-Branche trug Bertram Geck sowohl in Deutschland als auch weltweit Verantwortung, unter an- derem in DAX-notierten Unternehmen. Neben seinem unternehmerischen Engagement und seiner Expertise in der Un- ternehmensentwicklung greift Bertram Geck auf mehr als 20 Jahre Erfahrung in Produktentwicklung, Produktmanagement sowie im Marketing und Vertrieb von IT-Lösungen zurück.
  • 52.
    Competence Book -Business Intelligence GRUNDLAGEN - BIG DATA 52 BigData:Chancenund Herausforderungenfür die Unternehmenssteuerung AUTOR: Walid Mehanna (Horváth & Partners GmbH) Technologie ist kein Engpass mehr für Big Data Die aktuelle Diskussion um Big Data dreht sich vor allem um Methoden und Technologien, um um- fangreiche Datenmengen aus verschiedensten Quel- len in Echtzeit zu verwalten. Die über viele Jahre dominierenden relationalen Datenbanktechniken waren und sind dafür nur eingeschränkt einsetzbar. Technologiekonzepte und konkrete Software- lösungen, die das Sortiment der Business-Intelli- gence-Software in Richtung Massendaten kom- plettieren, sind heute hingegen ebenso wie die entsprechenden Infrastrukturen bereits vorhan- den. Sie stellen somit keinen Engpass mehr für er- folgreiche Anwendungsszenarien mit Big Data dar. Wo in der Frühphase der Informationsverarbeitung Gigabytes das Datenvolumen von ERP-Systemen beschrieben, sind die Möglichkeiten heute um 10er-Potenzen gewachsen, so dass nunmehr z.B. auch Massendaten von Sensoren in Echtzeit nutzbar sind. Chancen existieren in diversen Anwendungsbereichen Mit Überwindung dieses technologischen Engpas- ses werden Anwendungen auf Basis von Big Data in den verschiedensten Bereichen eine große Zukunft vorausgesagt. So lassen sich riesige Datenmengen in Forschung & Entwicklung analysieren und globale Börsen- und Wirtschafts- daten können zeitnah zur Unternehmenssteuerung verfügbar gemacht werden. Individuelle Kundenpräferenzen in Massenmärkten lassen sich in Echtzeit identifizieren und durch die kontinuierliche Erfassung von Sensor- daten wird die Wartung geschäftskritischer Maschinenparks optimiert und die Ausfallzeiten minimiert. Big Data hat das Potenzial alle Bereiche der Un- ternehmen zu durchdringen. Um Big Data auch für die Unternehmenssteuerung nutzbar zu machen, gilt es, einen weiteren Aspekt von Big Data zu entdecken: den Wert ständig neuer Informationen für das Management von Unternehmen. Heute werden für die Unternehmenssteuerung meist Key Performance Indikatoren (KPIs) D er Begriff “Big Data” ist in aller Munde. Generell werden darunter große Datenmen- gen verstanden, die aufgrund ihrer strukturellen Vielfalt und massenhaften Verfüg- barkeit für eine rasche Verarbeitung mit klassischen Business-Intelligence-Systemen nicht geeignet sind. Ihr Potenzial für Unternehmen und deren Steuerung ist jedoch enorm. Was fehlt, sind die konzeptionellen und organisatorischen Voraussetzungen für einen ziel- gerichteten Einsatz. In diesem Beitrag werden die notwendigen Maßnahmen skizziert, um die Chancen von Big Data erfolgreich nutzen zu können. Das Potenzial ist groß, Voraussetzungen wurden aber vielfach noch nicht geschaffen Abb. 1: Massendaten als Chance für neue Anwendungen / Quelle: Seidel (2013), S.18
  • 53.
    Competence Book -Business Intelligence GRUNDLAGEN - BIG DATA 53 verwendet. In Werttreibermodellen ver- netzt beschreiben sie die unternehmeri- schen Zusammenhänge. Die Ausprägung und Entwicklung der KPIs im Zeitverlauf dienen als Grundlage für Entscheidun- gen. Big Data kann Methoden und Werk- zeuge liefern, um das Reporting (Was ist passiert?) und Analyse (Warum ist es passiert?) dynamisch zu erweitern. Hin- zu kommen Funktionen wie Monitoring (Was passiert jetzt gerade?), Predictive (Was wird passieren?) und Prescriptive (Was sollte geschehen?). Notwendige organisatorische Voraus- setzungen schaffen Diese neuen Funktionen können in Kürze in die Controllingprozesse integriert wer- den und erleichtern das Erstellen kurz- fristiger Forecasts und langfristiger Simu- lationen und Szenarien. Entscheidungen können so schneller getroffen werden. Davor müssen die Controller aber noch einige Voraussetzungen schaffen: 1. Starke Governance durch Controlling Dezentrale und eventuell widersprüchli- che Big-Data-Analysen bergen das Risi- ko von Fehlentscheidungen mit folgen- schweren Auswirkungen. Daher braucht jedes Unternehmen übergreifende Vorga- ben und eine klare Governance durch das Controlling und eine Festlegung, wie mit Risiken und Chancen umzugehen ist und wie die einzelnen Teile zusammenpassen müssen. Die Governance umfasst dabei durchge- hend den Datenfluss von den vielfältigen Quellen (Mobile, Cloud, M2M, Social, ...) bis hin zu den Adressaten (Management, Marketing, HR, Produktion, ...). Passen- de Integrationsmechanismen stellen die Konsistenz der Daten sicher. Eine Or- ganisation der Prozesse hinter Big Data und den darauf aufsetzenden Analysen muss nicht nur die Datensicherheit klä- ren, sondern auch die Berechtigungen für den Zugriff und Veränderung von Daten durch die Adressaten (Datenschutz z.B. im Personalbereich). Bei den Analysen sind u.a. Regelungen bezüglich der Art der Visualisierung und der gewünschten Verknüpfung von Daten zu treffen. Kon- sequente Regelungen in diesen Bereichen verhindern eine Fehlnutzung wie auch den Missbrauch. 2. Modelle der Unternehmenssteuerung Für qualifizierte Entscheidungen müssen die Werttreibermodelle quantifiziert, nu- merisch aufeinander abgestimmt und dy- namisiert werden. Der Finanzbereich der Zukunft wird daher auch Spezialisten be- schäftigen, um Unternehmensmodelle zu definieren, die Ressourcensteuerung opti- mal mit den Anforderungen des Marktes zu verknüpfen, Chancen zu nutzen und die Risiken zu beherrschen. Wichtige Erfolgsfaktoren für nachhalti- ge Werttreibermodelle sind daten- und faktenbasierte Lessons-learned-Prozes- se, um die Modellqualität kontinuierlich zu verbessern sowie klare Regeln für die Einbeziehung von und den Umgang mit temporären Indikatoren. 3. Personalentwicklung und Change Mitarbeiter in Controlling und Finanzen müssen für die Erstellung und Pflege der neuen Unternehmensmodelle qualifi- ziert, Entscheider auf die Nutzung der neuen Methoden vorbereitet werden. Der Umfang und die Bedeutung der Qualifi- zierung sind nicht zu unterschätzen: • Die Manager in Controlling und Fi- nanzen müssen Strukturen schaffen, die es ermöglichen die Dynamik zu beherrschen • Der Finanzbereich benötigt Mitar- beiter, die die Unternehmensmodel- le aufbauen und weiterentwickeln. Aufgrund der Dynamik und Kor- relation werden diese Modelle eine Komplexität besitzen, die nur mit spezifischer Ausbildung in quantita- tiven Methoden der „Data Sciences“ beherrschbar sind (Quants). • Die Manager in den Fachfunktionen können und müssen Entscheidungen wesentlich schneller und – je nach Aufgabengebiet – ggf. auch unter deutlich stärkerer Regulatorik tref- Abb. 2: Notwendige Voraussetzungen für den Erfolg von Big Data Zum Autor Walid Mehanna: Dipl.-Inform. Walid Mehanna berät bei Horváth & Partners seit mehr als zehn Jahren namhafte Unternehmen und ist heute Principal Business Intel- ligence im Competence Center Con- trolling & Finanzen. Daneben hält er Vorlesungen an der Universität Stutt- gart.
  • 54.
    Competence Book -Business Intelligence GRUNDLAGEN - BIG DATA 54 fen. • In den Fachbereichen werden Mitar- beiter mit spezifischen Fähigkeiten benötigt, dieentsprechende Erkennt- nisse aus Daten suchen, auswerten und nutzbarmachen. Die Data Scien- tists müssen zum Teil auch dezentral in der Organisation integriert sein. Die erfolgreiche Nutzbarmachung von Big Data beginnt beim Adressaten Der Begriff Big Data lenkt die Aufmerk- samkeit oft auf den Anfang des Gesamt- prozesses, auf die Verfügbarkeit von Da- tenquellen und die Verarbeitbarkeit der Massendaten in Echtzeit. Noch wichtiger ist allerdings der Fokus auf die Adressaten und deren Entscheidungs- und Steue- rungsbedarfe. Idealerweise ergänzen sich im Gegenstrom-Verfahren die datenori- entierte („Wie kann ich bestehende, ver- fügbare Datenquellen nutzbar machen?“) Abb. 3: Übersicht von Big-Data-basierten Lösungen und deren Governance Quelle: Grafiken tlw. Experton Group 2012 und die bedarfsorientierte Sicht („Welche Anforderungen für Steuerungsinformati- onen haben die Adressaten?“). Für eine schnelle und zugleich nachhal- tige Etablierung von Big-Data-basier- ten Lösungen im Unternehmen sorgen früh erfolgreiche Anwendungen, die als Proof-of-Concept und Leuchttürme die Chancen und den Nutzen des Big-Da- ta-Ansatzes in die Breite der Organisation transportieren können. Zugleich sichert die adressatenorientierte Perspektive, dass die Steuerungsrelevanz der Informa- tionen im Vordergrund steht und Irrwege übermäßiger Daten- und Technikzentrie- rung vermieden werden. Big Data als Enabler für ein neues Pa- radigma der Unternehmenssteuerung Big Data hat das Potenzial, zu einem echten Paradigmenwechsel in der Unter- nehmenssteuerung beizutragen. Die Un- ternehmensteuerung kann in Zukunft in allen relevanten Steuerungsdimensionen, wie Kunde, Markt oder Ressourcen, von den Mehrwerten durch Big Data und den damit ermöglichten Anwendungen profi- tieren. Dafür müssen aber systematisch Voraus- setzungen geschaffen werden. Insofern sind die Herausforderungen von Big Data heute weniger technischer Natur, im Sin- ne der Verfügbarkeit, Qualität und Verar- beitbarkeit von Daten. Die Nutzung und Etablierung von Big Data ist vor allem ein Gestaltungs- und Wandlungsprozess, der eine klare Governance, neue Werttreiber- modelle, eine strukturierte Personalent- wicklung und eine konsequente Lösungs- orientierung ausgehend vom Adressaten umfasst. „Werden alle notwendigen Voraussetzungen umgesetzt, hat Big Data das Potenzial zu einem echten Paradigmenwechsel in der Unternehmenssteuerung.“ - Walid Mehanna
  • 55.
    Competence Book -Business Intelligence GRUNDLAGEN - BI-SOFTWAREAUSWAHL 55 Auswahlprozess. Der Reichweite einer Softwareentscheidung wird häufig durch einen sorgfältigen, wohlstrukturierten Soft- wareauswahlprozess Rechnung getragen. Zur Objektivierung der Entscheidung wird hierbei auf verschiedene Spielarten der Nutzwertanalyse zurückgegriffen. Die Grundlage der Analyse stellt ein Kriterienkatalog mit entscheidungsrelevanten Anforde- rungen an ein BI-System dar, welche zunächst erarbeitet und in Folge gewichtet wird. Die Bewertung der Kriterien erfolgt durch verschiedene Quellen, entweder unternehmensintern, extern durch Beratungshäuser oder in Frage kommende Softwareher- steller selbst. Ein Nutzwert errechnet sich aus den summierten, gewichteten Bewertungen. Dieses Vorgehen kann einerseits zur Einschränkung des Anbieterfelds erfolgen und, andererseits, erneut im Rahmen einer Demonstration der Software durch in Frage kommende Hersteller (Showcase). Ein derart ermittelter Nutzen wird den prognostizierten Kosten eines Implementie- rungsszenarios gegenübergestellt, sodass die Grundlage für eine Entscheidung gegeben ist. Trotz dieses strukturierten Vorgehens existieren im dargestellten Prozess kritische Punkte und Fallstricke, welche für eine erfolg- reiche Auswahl berücksichtigt werden sollten. Gemischte Teams zur Definition entscheidungsrelevanter Kriterien. Die Definition und Gewichtung von Kriterien sollte sowohl unter fachlichen als auch unter technischen Gesichts- punkten erfolgen. Einseitig geprägte Entscheidungen bergen die Gefahr der Überschätzung der betriebswirtschaftlichen oder Ausgangssituation. Die Auswahl einer geeigneten BI-Software ist fürviele Unternehmen eine konstitutive Entscheidung, welche oftmals zu Beginn einer Reorganisation der Business Intelligence (BI), bspw. in Form eines BI Competency Centers, getroffen wird. Auslöser für derartige Neuausrichtungen sind häufig das Resul- tat historischer Softwareauswahlprozesse: Eine Vielzahl nicht abgestimmt eingesetzter Softwareprodukte („Tool-Zoo“) sowie Unzufriedenheit der Nutzer sind hierbei oft genannte Gründe. Neben der Sicherstellung der Akzeptanz der Benutzer führt die Entscheidung für eine BI-Software zu weiteren erheblichen Auf- wänden und Kosten, die über die Lizenzkosten hinausgehen. Hardwarekosten, bspw. für In Memory-Technologien, Kosten für Neueinstellungen und Weiterbildung des bestehenden Personals sowie erhebliche Beratungskosten sind einige Beispiele hierfür. Gleichzeitig steigen die Erwartungen an die Flexibilität im Rah- men von BI-Projekten. Eine zuverlässige und stabile Softwareent- scheidung, welchen diesen Anforderungen genügt, sorgt für die notwendige technologische Kontinuität bei agilen Implementie- rungsansätzen. Die Entscheidungssituation wird durch die Situation auf dem Markt für BI-Software weitererschwert. Trotz der Konsolidierung der letzten Jahre, existieren selbst in einem eingeschränkten Be- reich, wie BI-Anwendungen für Controlling, Rechnungswesen und Planung, noch über hundert größere und kleinere Anbieter. Es sind zwar durchaus Differenzierungsbemühungen festzustel- len, jedoch bieten nahezu alle Anbieter eine gewisse Grundfunk- tionalität in den benannten Bereichen. Softwareauswahlfür Business-Intelligence-Werkzeuge AUTOR: Dr. Lars Burmester (Horváth & Partners GmbH) Die Wahl des richtigen BI-Werkzeugs ist eine Entscheidung mit großer Reichweite. Eine Vielzahl von Anbietern mit einem breit gestreuten Angebot erschwert diese Entscheidung. Eine Konzentration auf individuelle Auswahlkriterien und eine Erhöhung der Trennschärfe hilft die Komplexität der Auswahlentscheidung zu reduzieren.
  • 56.
    Competence Book -Business Intelligence GRUNDLAGEN - BI-SOFTWAREAUSWAHL 56 technischen Leistungsfähigkeit einer Software. Hieraus resultieren Akzeptanz- probleme und damit einhergehend inne- rorganisatorische Friktionen, die einem erfolgreichen Einsatz entgegenstehen. Interdisziplinär besetzte Auswahlteams reduzieren die aufgezeigten Risiken durch hinreichende Qualifizierung betriebs- wirtschaftlicher und technologischer Rahmenbedingungen, Fragestellungen und Ziele. Darüber hinaus eignet sich die- se Form der Zusammenarbeit zum früh- zeitigen Erwartungsmanagement für ein späteres Implementierungsprojekt: Durch die Erfahrungen des Auswahlprozess und des Showcase, können sich die Erwar- tungen hinsichtlich späterer Implemen- tierungskosten, Umsetzungs- und Ver- änderungsdauern und kosten auf einem realistischen Niveau einstellen. Erarbeitung eines unternehmens- und situationsspezifischen Kriterienka- talogs. Die durch interdisziplinäre Aus- wahlteams erarbeiteten Kriterien sollten die spezifische Situation des Unterneh- mens oder der Fachabteilung widerspie- geln. Oftmals werden am Markt verfügba- re Standardkataloge herangezogen. Deren unmodifizierter Einsatz spiegelt die gefor- derte Individualität nicht wider, sodass die Gefahr besteht, dass der Auswahlprozess sich zu einem „abhaken“ technischer Kri- terien entwickelt. Derartige Bewertungen sind oftmals als Studien verfügbar und können für eine grundsätzliche Einord- nung erworben werden. Darüber hinaus richten viele Softwarehersteller ihre De- monstrationsumgebungen auf die Krite- rien von Standardkatalogen aus, sodass genau diesen Kriterien genüge getan wird. Der Erkenntnisgewinn sowie die Herbei- führung der notwendigen Trennschärfe für eine Auswahlentscheidung sind ent- sprechend gering. Transparenter Umgang mit Kriterien- gewichten und Bewertungsskalen. Die aufgestellten Kriterien haben in der Regel unterschiedliche Entscheidungsrelevanz, was durch Gewichtungen abgebildet wird. Hierbei ist darauf zu achten, dass die Ska- lierung der Gewichte derart erfolgt, dass zwischen den Kategorien noch sinnvoll unterschieden werden kann. So kann bei- spielsweise zwischen „Kritisch“, „Generell“ und „Nice to have“ unterschieden werden und mit exponentieller numerischer Di- stanz bewertet werden (bspw. 10 / 5 / 1). Zudem sollte die Aufnahme von harten KO-Kriterien wohldosiert erfolgen: nicht Zum Autor Dr. Lars Burmester: Dr. Lars Burmester studierte und promovierte an der Philipps-Universität Marburg und arbeitete parallel in einem Projekt zum Controlling von Hochschulen. Seit 2012 ist er bei Horvath & Partners im Kompetenzfeld Business Intelligence aktiv, nachdem er zuvor drei Jahre als Senior Berater bei der cundus AG tätig war. Herr Dr. Burmester berät Unternehmen - vom Mittelständler bis zum Großkonzern - in allen Fragestellungen der Business Intelligence und des Data Warehousing. selten verbleibt am Ende des Software- auswahlprozess kein einziges Produkt zur Auswahl. Analog sollte mit Bewer- tungsskalen verfahren werden. Hierbei kann bspw. zwischen „Standardfunktion“, „Konfigurierbar“ und „Programmierbar“ unterschieden werden, mit einer die Prä- ferenzen widerspiegelnden numerischen Distanz. Komplexere Bewertungsmodelle bergen die Gefahr, dass nicht intendierte Sensitivitäten entstehen, sodass ein Be- wertungsbild und letztendlich die Ent- scheidung durch „statistische Effekte“ ver- zerrt und beeinflusst werden. Ergänzend ist zu beachten, dass die Krite- riengewichtung sowie Festlegung der Be- wertungsskala bereits vor dem Aussenden des Anforderungskatalogs und Durchfüh- rung des Showcase erfolgt. Einer Beein- flussung der Gesamtentscheidung durch Gewichtung nach Sympathie, aus politi- schen Überlegungen oder einem guten Letzteindruck aus dem Showcase kann damit entgegengewirkt werden. Selbstre- dend sollten die vereinbarten Gewichtun- gen einem Softwarehersteller nicht vor der Bewertung und dem Showcase zugänglich gemacht werden, um nicht die Versu- chung einer „strategischen“ Selbstbewer- tung und -darstellung zu provozieren.
  • 57.
    Competence Book -Business Intelligence GRUNDLAGEN - BI-SOFTWAREAUSWAHL 57 Reduzierung der Komplexität durch Einschränkung des Anbieterfelds. Angesichts der Anbietervielzahl auf dem Markt für BI-Werkzeuge sollte bereits der erste Auswahlschritt nicht undifferenziert erfolgen. Grundsätzlich kann über die Klasse des BI-Werkzeugs eingeschränkt werden, d.h. ob es sich bspw. um eine Planungs-, Konsolidierungs- oder Be- richtssoftware handelt oder ob mehrere Anwendungszwecke verfolgt werden. Eine erste Grobauswahl kann unter Hinzuzie- hung von Hersteller- und Markstudien sowie ggf. durch sach- und marktkundige, herstellerunabhängige Beratungshäuser erfolgen. Eine Ersteinschränkung der in Frage kommenden Hersteller wird maßgeblich durch IT strategische Überlegungen be- einflusst. So sind bspw. folgende Aspekte bei der Einschränkung des Anbieterfelds zu bedenken: • Soll ein Plattformansatz („one size fits all“) oder ein Spezialisierungsan- satz („best of breed“) oder ein diffe- renzierter Ansatz zwischen beiden Extremen verfolgt werden? Oftmals ist festzustellen, dass gerade kleinere, spezialisierte BI-Anbieter die Anfor- derungen besser erfüllen als größere Plattformanbieter. Argumente des In- vestitionsschutz sollten vor dem Hin- tergrund real existierender Konzent- rationstendenzen bewertet werden: eine etablierte kleine Lösung hat eine gute Chance langfristig unter einer Dachmarke eines „Großen“ weiterge- führt zu werden. • Soll aus einem Portfolio im Unter- nehmen bereits eingesetzter Software („brownfield approach“) oder eine bislang nicht im Unternehmen ein- gesetzte Software ausgewählt werden („greenfield approach“)? Auch das Darüber hinaus sollten Bewertung nach absteigender Priorität ausgewertet wer- den. Kritisch eingestufte Anforderungen und Kriterien sollten zuerst ausgewer- tet werden. Dabei ergibt sich in diesem Schritt häufig schon ein erstes eindeutiges Bild. Sollte eine derartige Trennschärfe nicht frühzeitig erreicht werden, so soll- ten sukzessive generelle Anforderungen nach absteigender Gewichtung ausgewer- tet werden. Übererfüllungen nicht rele- vanter Anforderungen oder „Dreingaben“ nicht angefragter Funktionalitäten sollte kein Entscheidungsgewicht zugemessen werden. Showcase. Ein Showcase erscheint im Rahmen eines Softwareauswahlprozess unerlässlich, um die Bewertungen zu spie- geln und einen Ersteindruck zu festigen. Aufgrund der begrenzten Zeit, die für ei- nen Showcase zur Verfügung steht, sollte auch hier eine Konzentration auf wesent- liche Anforderungen erfolgen. Hierzu ist es notwendig, eine entsprechende Aufga- benstellung zu formulieren, die von den Softwareanbietern gelöst werden soll. Mitunter stellt dies einen nicht zu unter- schätzenden Aufwand dar, da die Balance zwischen inhaltlicher Tiefe und kurzfristi- ger Umsetzbarkeit gewahrt werden muss. Eine zu ambitionierte Aufgabenstellung birgt die Gefahr, dass der zu erwartende Aufwand und das Risiko der nicht-Be- rücksichtigung Hersteller von einem An- gebot absehen lässt. Wenn eine spätere Softwareeinführung nicht in Eigenregie erfolgen soll, bietet ein Showcase zudem die Möglichkeit einen Implementierungs- partner näher kennenzulernen. So könn- te die Vorbereitung des Showcase direkt beim auswählenden Unternehmen erfol- gen, sodass ein Einblick in die Arbeitswei- se und Problemlösungskompetenz eines späteren Partners erfolgen kann. Benchmarking bereits im Unterneh- men eingesetzter Software vor dem Hintergrund neuer Angebote auf dem Markt ist eine anzutreffende He- rangehensweise. • Welche strategische Rolle spielt ein Produkt im Angebotsportfolio des Herstellers und wie kann dessen Wei- terentwicklung beurteilt werden? Eine glaubwürdige Agenda, kommu- nizierter Releaseplan sowie eine Rei- he Referenzkunden sollten das Ver- trauen in die Zukunftsfähigkeit eines Softwareprodukts erhärten. Reduzierung der Komplexität durch Verringerung der Kriterienanzahl. Ein zentraler Ansatzpunkt zur Komplexitäts- reduktion ist die Verringerung der Anzahl betrachteter Kriterien. In vielen Auswahl- prozessen wird davon ausgegangen, dass die Entscheidungsgüte mit zunehmender Kriterienanzahl steigt. Jedoch kann fest- gestellt werden, dass ein Nutzwert der Anbieter sich bei zunehmender Kriteri- enanzahl annähert, sodass eine deutliche Unterscheidung kaum noch möglich er- scheint - ein trennscharfes, die Entschei- dung erleichterndes Profil kann schwer- lich bei nicht-trennscharfen Kriterien entstehen. Ein erster Ansatz ist die Eliminierung von Kriterien, die durch die Mehrzahl der Softwarehersteller gleich bewertet wur- den. Gerade bei der Verwendung nicht differenzierter Standardkataloge tritt die- ser Sachverhalt oft auf, sodass bei der Aus- wertung ein Aufwand entsteht, welcher aufgrund der fehlenden Differenzierung keinen Nutzen nach sich zieht. Kriteri- en und Anforderungen in denen sich die Softwareanbieter nicht unterscheiden und denen kein hohes Entscheidungsge- wicht beigemessen wird, sollten daher vor einem Showcase eliminiert werden. „Ein zentraler Ansatzpunkt zur Komplexitätsreduktion ist die Verringerung der Anzahl betrachteter Kriterien.“ - Dr. Lars Burmester
  • 58.
  • 59.
    Competence Book -Business Intelligence Einleitung Grundlagen Anwendungen & Lösungsbausteine 2 Unser Kompetenz-Netzwerk Partner des Competence Books 3 Editorial Dr. Carsten Bange Quo Vadis BI? Consumerization, Agility, Big Data 6 Grußwort Oracle Daten effektiv nutzen 7 Grußwort IDL Gewissheit und Kontrolle über „flüssige Mittel“ 8 Grußwort Microsoft Schnellere Aha-Effekte aus Big Data. Small Data. All Data. 10 Zahlen kompakt Infografik BI 14 Meinungen kompakt Statements zu BI 20 Delphi-Roundtable BI I Business Intelligence 2020 26 Delphi-RoundtableBI II Analytik und Perfomance Management in einem intel- ligenten Unternehmen 38 Self-Service I Mit Self-Service erfolgreich im Bereich Business Intelligence 40 Self Service II Self-Service BI im Unternehmen managen 44 Agile Business Intelligence I Agile BI erfolgreich umsetzen 48 Agile Business Intelligence II Modelle als Basis für eine agile BI 50 Datenbasis Datenbankmodelle und -Design am Beispiel von Innovator Architects 52 Big Data Big Data: Chancen und Herausforderungen für die Unternehmenssteuerung 55 BI-Software Softwareauswahl für Business-Intelligence- Werkzeuge 60 Neue Technologien I Cloud, SaaS, Mobile BI - muss das alles sein? 62 Neue Technologien II Mobile Business Intelligence: Mit Echtzeitdaten die Weichen stellen 64 Neue Technologien III Im Fokus mobile Lösungen, automatisierte Dienst- leistungen und BI-Lösungen 66 Reporting und Kennzahlen I Reporting Design - Status quo und neue Wege in der Gestaltung des internen und externen Berichtswesens 70 Reporting und Kennzahlen II Optimiertes Berichtswesen mit SAP Business Planning & Consolidation 74 Planung und Budgetierung I Modern Budgeting: Die Zukunft im Visier! 76 Predicitive Analytics Big Data Warehousing: Anmerkungen zur Zukunft von BI im Zeitalter von Big Data und Predictive Analytics 79 Performance Management Balanced Scorecard mit BI verbinden INHALT 59
  • 60.
    Competence Book -Business Intelligence ANWENDUNGEN - NEUE TECHNOLOGIEN 60 Cloud,SaaS,MobileBI: Mussdasallessein? AUTOR: Harald Frühwacht (IDL GmbH Mitte) Was bringt das Business Intelligence der Zukunft? Business Intelligence ist und bleibt nach wie vor ein Wachstumsmarkt - neue Technologien, neue Endgeräte und größere Datenmengen erweitern die Einsatzmöglichkeiten beständig: Sie erlauben den Anwendern, Mas- sen an Informationen aus verschie- densten Unternehmensbereichen in hoher Geschwindigkeit auszuwerten, Szenarien zu erstellen und Kennzah- len an jedem Ort mobil zugänglich zu haben. Big Data und Predictive Ana- lytics seien hier als zwei Stichpunkte genannt, die den Umgang mit Daten sowie die Möglichkeiten fürs Simulie- ren und Vorhersagen auf eine nächs- te Ebene heben werden. Aber auch Cloud, SaaS und Mobile sind zwei technische Innovationen, die sowohl die Softwarebereitstellung als auch Nutzung aktuell schon revolutionie- ren. Wie aber sieht das daily Business der Anwenderunternehmen aus? Mögen die aktuellen Hypes auch noch so verheißungsvoll sein und viele in- teressante Möglichkeiten für BI-Vi- sionen und neue Business Modelle in sich tragen – viele Unternehmen befinden sich heute mit ihren Anfor- derungen noch an einer ganz anderen Stelle. Auf der Agenda stehen hier nach wie vor die Zusammenführung von Daten aus unterschiedlichsten Systemen, deren prinzipielle analy- sefähige Aufbereitung sowie die Ab- bildung einer integrierten Planung, von der operativen Fachabteilungs- planung bis hin zur Finanzplanung und Plankonsolidierung. Auch die Zusammenführung des internen und externen Rechnungswesens, die Ab- bildung eines belastbaren Berichts- wesens sowie schlicht und ergreifend der Aufbau einer durchgängigen Lö- sung, auch im Einklang beispielswei- se mit Excel, bestimmen nach wie vor den Arbeitsalltag vieler Finanzverant- wortlicher und Controller. Die neu- este Marktstichprobe des Analysten- hauses Lünendonk untermauert dies und listet nach wie vor Finanzwesen und Unternehmenssteuerung als die primären Einsatzgebiete von Business Intelligence. Trendthemen richtig nutzen! Wie kommt man sicher in die Zukunft? Nicht zuletzt wegen der dort angesie- delten sensiblen Daten pflegt man im Bereich Controlling und Konsolidie- rung einen eher vorsichtigen Umgang mit Hypes und wägt Chancen und Ri- siken genau ab. Und das ist auch rich- tig so. Der aktuelle Innovationszug je- doch wird sich nicht aufhalten lassen. Die neuen Technologien bergen große fachliche, prozessuale und letztend- lich auch monetäre Nutzenpotenzia- le in sich. Diese gilt es zum richtigen Zeitpunkt und im richtigen Maße zu nutzen und bereits heute die Weichen für morgen zu stellen. Gefordert sind hier Lösungen und Partner, die wis- sen, wie die ganz aktuellen Herausfor- derungen gelöst werden können, aber auch Strategien und Visionen aufzei- gen, die es erlauben, in neue Welten zu migrieren. Eine grüne Wiese gibt es so gut wie nirgends - Erfahrung, Kompetenz und das Wissen darum, was heute notwendig ist und funk- tioniert, und wie dies morgen weite- ren Mehrwert bringt sind zentral, um aus Analyse, Planung, Reporting und Konsolidierung – kurz aus Business Intelligence – das rauszuholen, was drin steckt. Zum Autor Harald Frühwacht: Harald Frühwacht ist seit 2006 ge- schäftsführender Gesellschafter der IDL GmbH Mitte. Bereits 1991 starte- te er hier seine Karriere als betriebs- wirtschaftlicher Berater, er realisierte verschiedenste Konsolidierungspro- jekte und leitete die fachliche Ent- und Weiterentwicklung der Konsoli- dierungssoftware IDLKONSIS.
  • 61.
    Hinter jedem Erfolg stecktein gutes System Erleben Sie in der IDL-Expertenloge effektive Managementlösungen für Konsolidierung, Steuerung, Controlling und Planung sowie ein Spiel der Fußball- Bundesliga live. EXPERTEN LOGE Werden Sie Gast! Alle Themen und Begegnungen sowie Anmeldung unter www.idl.eu/expertenloge
  • 62.
    Competence Book -Business Intelligence ANWENDUNGEN - NEUE TECHNOLOGIEN 62 Mobile Business Intelligence: Mit Echtzeitdaten die Weichen stellen Wer auf Mobile Business Intelligence verzichtet, könnte im Vergleich zu Mobile-BI-Nutzern bis zu dreimal länger für eine geschäftliche Entscheidung brauchen. Dieses Ergebnis der Aberdeen-Group-Studie „Mobile BI: Actionable Intelligence for the Agile Enterprise“ liefert eigentlich genug Gründe für den umgehenden Einstieg in die mobile Geschäftsanalytik. Schließlich hat keiner Zeit zu verlieren. Die Möglichkeit eines mobilen Zugriffs auf aktuelle Geschäftsdaten hat laut der Studie den nützlichen Nebeneffekt, dass sich Entscheider häu- figer informieren. Dies spüren wohl auch die Kunden, denn selbst die Kundenzufriedenheit steigt, sobald das Unternehmen auf Mobile BI setzt. Trotzdem sollten Sie jetzt nicht Hals über Kopf ein Mobile-BI-Projekt starten. AUTOR: Oliver Schonschek für Oracle Wer braucht was wo und wann? Ob sich eine Mobilvariante von Business Intelligence für Ihr Unternehmen lohnt, hängt von mehreren Faktoren ab: • Zuerst einmal sollten Sie überlegen, wer denn unter- wegs aktuelle Unternehmensdaten benötigt. Braucht z.B. Ihr Außendienst jederzeit einen Überblick über die Preise der Wettbewerber? Das wäre sicherlich nicht schlecht. Nur: Sind diese Daten denn in Ihren Datenbanken im Unternehmen überhaupt vollständig und aktuell vorhanden? Wenn nicht, kann auch eine Mobile-BI-Lösung nichts Relevantes dazu aussagen. • Wie sieht es mit Ihnen selbst aus? Welche Daten wür- den Sie gerne zur Verfügung haben, wenn Sie auf Ge- schäftsreise sind, z.B. Lieferantenanalysen, Kunden- analysen oder Umsatz- und Vertriebsanalysen? Haben Sie schon einmal einen Anruf mit der Bitte um sofor- tige Entscheidung bekommen und Sie hätten gerne noch einmal in die aktuellen Zahlen geschaut? Dann könnte Mobile BI unter Umständen helfen. • Mehr noch: Jeder in Ihrem Unternehmen, der schnell fundiert entscheiden oder Auskunft geben können muss, würde sicherlich von Mobile Business Intelli- gence profitieren, vorausgesetzt, ein leistungsstarkes Smartphone oder ein passendes Tablet stehen zur Ver- fügung – und die erforderlichen Daten für die mobilen Analysen ebenfalls. Nichts für Stubenhocker Wenn Sie dagegen gar keinen Außenvertrieb haben, son- dern z.B. einen Online-Shop betreiben und die meisten Mitarbeiterinnen und Mitarbeiter kaum jemals einen Kun- dentermin wahrnehmen, dann wäre eine Mobile-BI-Lö- sung sicherlich übertrieben. Selbst wenn Ihr Controller häufiger im Home Office arbeitet, kann sie oder er dort ohne weiteres über einen stationären Computer arbeiten. Es ist zweifellos reizvoll, überall an die aktuellen Auswer- tungen zu kommen, doch entscheidend sollte der tatsäch- liche Bedarf sein. Berichte oder aktive Analysen? Es ist auch ein Unterschied, ob Sie nur laufend informiert werden wollen – über aktuelle Umsatzzahlen, die Preise der Wettbewerber und den Verkaufserfolg Ihres Vertriebs – oder ob Sie tatsächlich selbst unterwegs Abfragen und Analysen starten wollen. Für die regelmäßigen Reportings brauchen Sie keine spe- zielle Mobile-BI-Lösung. Dafür reichen zuverlässige Mit- arbeiterinnen und Mitarbeiter, die Ihnen die Berichte ver- schlüsselt per E-Mail aufs Smartphone senden, oder aber eine stationäre BI-Lösung, die automatisch die aktuellen Analysen oder vordefinierte Warnungen zur Geschäftsent- wicklung an Sie verschickt.
  • 63.
    Competence Book -Business Intelligence ANWENDUNGEN - NEUE TECHNOLOGIEN 63 Überlegen Sie also, ob Sie oder andere mobile Mitarbeiter wirklich aktiv analysieren wollen oder müssen. Nur dann brauchen Sie eine Mobile-BI-Lösung. Andernfalls reichen Berichte im PDF-Format, die man per Smartphone abho- len kann. Strategie und Schnittstellen Wenn Sie Bedarf an mobilen, individuellen Abfragen zur Geschäftsentwicklung haben, gibt es verschiedene Mög- lichkeiten: • Zum einen können Sie webbasiert auf Ihre stationäre BI-Lösung zugreifen, sofern diese über Ihr Extranet er- reichbar ist. Oder aber Sie nutzen Business Intelligen- ce aus der Cloud, so dass ein mobiler Browser für die Abfragen und Analysen ausreicht. • Alternativ gibt es auch spezielle, mobile Apps für Bu- siness Intelligence. Diese arbeiten wie eine mobile Cli- ent-Lösung und rufen die erforderlichen Daten und Analysen von Ihrem Server ab, auf dem die BI-Lösung läuft. Beide Lösungswege können Ihnen in nahezu Echtzeit Ge- schäftsdaten und deren Auswertung liefern. Ob dies tech- nisch für Ihr Unternehmen möglich ist, hängt von Ihrer bestehenden BI-Lösung oder von den Datenbanken ab, auf die die mobile BI-Lösung zugreifen soll. Hier sollten Sie also auf die Schnittstellen der Mobile-BI-Lösung achten. Außerdem sollten Sie die Eignung Ihrer mobilen Endgerä- te prüfen: Nicht jedes Smartphone hat ein ausreichend gu- tes und großes Display für grafische Analysen. Mit einem Tablet sind Sie in der Regel besser beraten. Zudem gibt es die mobilen BI-Apps auch nicht für jedes Betriebssystem. Mobilvarianten auf dem Markt Sie sollten sich die auf dem Markt verfügbare BI-Software alsogenau ansehen, obdiesewirklich zu Ihren technischen Voraussetzungen und Ihrem individuellen BI-Bedarf pas- sen. Angebotenwerdenz.B. LösungenwieOracleBI Mobile BIRT Mobile, Roambi, MicroStrategy Mobile, QlikView on Mobile, Cognos 8 Go! Mobile und Jaspersoft Mobile BI. Nutzen Sie die Möglichkeit, sich Demoversionen anzuse- hen, und achten Sie genau auf die Systemvoraussetzungen! Fazit: Für Sofortentscheider mit Lesebrille Mobile Business Intelligence kann sich bezahlt machen, wenn Ihr Geschäftsmodell von Ihnen bzw. Ihren Mitar- beitern eine hohe Mobilität verlangt und Sie zeitnah auf fundierter Basis entscheiden müssen oder wollen. Voraus- setzung sind jedoch gepflegte, aktuelle Datenbestände, auf die zugegriffen werden kann, leistungsstarke mobile Endgeräte, die die grafischen Auswertungen und die Ab- fragemasken vernünftig anzeigen. Grundvoraussetzung ist eine entsprechend hohe Datensi- cherheit für die Tablets oder Smartphones. Schließlich soll es Ihnen überall möglich sein, Ihre geschäftlichen Daten auszuwerten – und zwar nur Ihnen. Und nicht einem Un- befugten, der über das gestohlene oder verlorene mobile Endgerät Ihre Umsatzzahlen und Kundenlisten abgreift. Zum Autor Oliver Schonschek: Oliver Schonschek ist als Manager Advisor bei der Experton Group AG tätig. Parallel zu seiner Advisor-Tätigkeit arbeitet er als Herausgeber, Fachautor und Fachjournalist für verschiedene Fachverlage und Redaktionen. Die Schwerpunkte seiner Analysen und Publikationen liegen bei der Informa- tionssicherheit und dem Datenschutz. Dabei behandelt er insbesondere die Schnittstellen zwischen IT, Business, Recht, Compliance, Datenschutz und Datensicherheit. So interessieren ihn Themen wie zum Beispiel sich Daten geschäftlich nutzen lassen, ohne den Datenschutz zu verletzen, und wie sich beispielweise IT-Infrastrukturen schützen lassen, ohne die Privatsphäre der Nutzer zu gefährden.
  • 64.
    Competence Book -Business Intelligence ANWENDUNGEN - NEUE TECHNOLOGIEN 64 ImFokusmobileLösungen, automatisierte Dienstleistungen und BI-Lösungen AUTOR: Thomas Martens (Cubeware GmbH) Laut der Studie Airport Business IT Trends Survey, die in Zusam- menarbeit von SITA, einem Anbieter von Kommunikations- und IT-Lösungen im Luftverkehr, dem Airports Council International und Airline Business umgesetzt wurde, werden Flughafenbetrei- ber im Jahr 2014 voraussichtlich viereinhalb Milliarden Euro in IT-Systeme und -Lösungen investieren. Im Fokus stehen vor al- lem mobile Lösungen, automatisierte Dienstleistungen und Bu- siness-Intelligence-Lösungen. Ziel ist es, vor allem das Passagie- rerlebnis und die internen Arbeitsprozesse zu verbessern. Dabei steht der Service-Gedanke im Vordergrund. Trotz schwankender Umsätze und steigender Passagierzahlen soll der Service quali- tativ erhöht werden. Passende IT-Lösungen nehmen hier eine Schlüsselrolle in den Überlegungen der Flughafen-Manager ein. Circa vier von fünf Managern sprechen sich bei der Erreichung dieser Zielvorgaben für den Einsatz von BI-Lösungen aus. Da- bei sollen die Systeme vor allem klassische Aufgaben von BI, wie etwa das Finanzcontrolling, wahrnehmen. Auch Bereiche wie der Flughafenbetrieb, Analysen des Passagieraufkommens und das Bestandsmanagement sollen durch BI-Anwendungen unterstützt werden. Großer Nachholbedarf besteht laut den Studienergeb- nissen aber noch bei der Implementierung von BI-Lösungen. So gaben nuracht Prozent der befragten Manageran, dass die vorlie- genden Daten die notwendigen Qualitätsanforderungen für die Weiterverarbeitung erfüllen. Thomas Martens, VP Product Marketing bei Cubeware, einer der führenden Anbieter innovativer Business Intelligence (BI)-Soft- ware, sieht deshalb vor allem in strategischer Hinsicht Erklä- rungsbedarf: „Die Studie macht deutlich, dass Business-Intelligence-Anwen- dungen nach wie vor nicht zum Standardrepertoire vieler Unter- nehmen gehören. Hier wird definitiv Steuerungs- und Optimie- rungspotenzial liegengelassen. Auch die 92% der Befragten, die von ihrer eigenen Datenqualität nicht überzeugt sind, sprechen eine deutliche Sprache. In den momentan geführten Diskursen zu BI geht es hauptsächlich um die schnelle, intuitive Analy- se großer Datenmengen und unterschiedlicher Strukturtypen durch Fachanwender. Das ist natürlich ein bedeutendes Thema in unserer Branche, aber bei solchen Studien wird einem wieder bewusst, dass das alleine Business Intelligence nicht auszeichnet.
  • 65.
    Competence Book -Business Intelligence ANWENDUNGEN - NEUE TECHNOLOGIEN 65 Themen wie die Datenintegration, -anreicherung und -manage- ment fallen viel zu oft bei den Überlegungen unterden Tisch, sor- genaber bei den Projektverantwortlichenauf Unternehmensseite für das tatsächliche Kopfzerbrechen. Es ist wichtig, BI-Lösungen in ihrer kompletten Gänze zu betrachten. Nachweislich spielen hier die schmerzfreie Einbindung von unterschiedlichen Vor- systemen und der kontrollierte Datenabzug eine wesentliche Rolle, die von BI-Produkten unbedingt abgedeckt werden sollte. Wichtig ist es beim Auswahlprozess, auf integrative, technisch wie fachlich skalierbare und adaptive BI-Systeme zu setzen. Sonst läuft man Gefahr, die Bildung von Informationsinseln im eigenen Unternehmen zu befeuern. Erst wenn diese gemeinsa- me und valide Datenbasis geschaffen wurde, schaffen Advan- ced-Analytics-Ansätze und Self-service BI wirklichen Mehrwert für die Fachanwender und das Unternehmen. Die Kombination aus leistungsstarken ETL- und Organisationstools mit einem ap- plikationsfähigen BI-Frontend ist hier entscheidend. Von zentraler Bedeutung ist es zudem, dass Unternehmen gezielt auf BI-Berater mit Branchenkenntnis setzen. Denn mittlerweile finden BI-Lösungen weit über die klassischen Einsatzgebiete hin- aus Anwendung. Neben der Auswertung von Finanzkennzahlen, dem Controlling und der Finanzplanung bieten sich BI-Anwen- dungen vor allem auch in operativen Bereichen an. So lassen sich durch BI-Analysen etwa des Passagierflusses und der Beziehun- gen zwischen verschiedenen Flugrouten Optimierungen bei der Gate-Belegung erreichen. Dadurch sinken nachweislich die Tran- sit-Zeiten für Passagiere. Auch im Bereich des Vorfeldes können sich durch derartige Analysen schnellere Umladezeiten für Ge- päck- und Frachtgut realisieren lassen. In Cubeware-Projekten, beispielsweise am Flughafen München, konnten so große Erfolge verbucht werden. Auch die diskriminierungsfreie Aufbereitung der Datengrundlage für Flughafenentgelte lässt sich durch BI-Lö- sungen sicherstellen, um hier möglichst transparent gegenüber den zuständigen öffentlichen Stellen agieren zu können. Wir bei Cubeware sehen in der Simulation unterschiedlicher Szenarien im Hinblick auf schwankende Passagierzahlen, Aus- lastung von Start- und Landebahnen und Terminalstrukturen ein weiteres großes Anwendungsgebiet von BI-Lösungen. Die Ein- satzgebiete von BI-Lösungen im Flughafenbetrieb sind enorm. Zumal je leistungsstärker Algorithmen-getriebene Auswertun- gen werden, desto interessanter werden auch analytische Syste- me im Bereich von Predictive und Prescriptive Analytics. Aber auch hier gilt: jede Auswertung ist nur so gut wie die zugrundlie- gende Datenbasis. Dieser Aspekt von BI und Analytics kann nie genug in den Vordergrund gestellt werden.“ Zum Autor Thomas Martens: Thomas Martens blickt auf 17 Jahre Erfahrung im Business-Intelligence-/ Data-Warehouse-Umfeld zurück. Bei Cubeware verantwortet er den Bereich Product Marketing. Sein besonderes Interesse gilt dabei der Visualisierung von Daten, der Integ- ration von analytischen Methoden in Business-Intelligence-Lösungen und der Verarbeitung von großen Datenmengen.
  • 66.
    Competence Book -Business Intelligence ANWENDUNGEN - REPORTING UND KENNZAHLEN 66 Reporting Design – Status quo und neue Wege in der Gestaltung des internen und externen Berichtswesens Wie sieht ein optimal gestalteter Finanzbericht aus? Es gibt nur wenige Unternehmen, die sich in den vergangenen Jahren nicht diese Frage stellen mussten oder aktuell nicht vor der Aufgabe stehen, ihr internes Reporting bzw. ihre Geschäftsberichte zu optimieren. Dies hat einen einfachen, aber bedeutsamen Grund. Führungskräfte in Unternehmen und externe Kapitalgeber haben heute eine herausragende gesellschaftliche Verantwortung. Mit ihren Entscheidungen gestalten sie die weltweite wirtschaftliche und soziale Entwicklung. Die Qualität ihrer Entscheidungen beruht maßgeblich auf den ihnen zur Verfügung stehenden Informationen. In unserer datengeprägten Geschäftswelt wird die Informationsversorgung dieser Personengruppen von umfangreichen, quantitativen Berichten dominiert. Unterneh- mensintern in Form von Managementreports wie Monats- oder Quartalsberichten, nach au- ßen vor allem durch die veröffentlichten Geschäftsberichte. AUTOREN: Michael Büttner (Accenture), Christoph Eisl (FH Oberösterreich), Christian Engelbrechtsmüller (KMPG Advisory AG), Heimo Losbichler (Fachhochschule Steyr), Andreas Schmidt-Pöstion (pmOne GmbH), Hannes Wambach (pmOne GmbH) Neben inhaltlichen Aspekten spielt die In- formationsaufbereitung bei der Berichts- gestaltung eine zentrale Rolle, da 70 % der menschlichen Sinnesrezeptoren für die visuelle Wahrnehmung vorgesehen sind. Während der Frage richtiger Kennzahlen in Wissenschaft und Praxis seit jeher gro- ßer Raum gegeben wurde, hat sich das Be- wusstsein für die Bedeutung der visuellen Aufbereitung erst in den letzten Jahren entwickelt und in vielen Unternehmen zu einem Umbruch in der Berichtsgestaltung geführt. Die Empfehlungen zur optimalen visuel- len Aufbereitung von Tabellen und Dia- grammen sind jedoch uneinheitlich. Es fehlen wissenschaftlich fundierte, empi- risch abgesicherte Gestaltungsgrundlagen und in der Praxis akzeptierte Standards. Tabellenanordnungen, Diagrammtypen, Farben oder Achsenskalierungen werden meist individuell und inkonsistent aufbe- reitet. Als Folge sind viele Berichte schwer lesbar und für eine rasche Informations- wahrnehmung häufig ungeeignet. Im Ext- remfall können sie sogar zu Fehlentschei- dungen führen. Darüber hinaus ist der Aufwand für die von Unsicherheit beglei- tete Berichtserstellung beträchtlich. Mit Hilfe einer neuen Eye-Tracking-Tech- nologie können Blicke und Blickverläufe der Berichtsleser aufgezeichnet und ana- lysiert werden. Eye Tracking ist damit ein Schlüssel für die empirische Überprüfung der Wirksamkeit unterschiedlicher Dar- stellungsformen. Die vorliegende Studie ist Teil eines ge- meinsamen Forschungsprojektes von KPMG, pmOne und dem Studiengang Controlling, Rechnungswesen und Fi- nanzmanagement der FH OÖ in Steyr. Ziel des Projektes ist die Entwicklung von Gestaltungsrichtlinien, die Management- und Geschäftsberichte nachweislich schneller und besser lesbar machen. Die vorliegende Studie ist empirischer Aus- gangspunkt des Gesamtvorhabens und gibt erstmals einen umfassenden Über- blick über die heute gängige Praxis in der internen Monatsberichtsgestaltung und der externen Geschäftsberichterstattung österreichischer Unternehmen.
  • 67.
    Competence Book -Business Intelligence ANWENDUNGEN - REPORTING UND KENNZAHLEN 67 1. Zusammenfassung Ergebnisse Die Studie „Reporting Design – Status quo und neue Wege in der Gestaltung des internen und externen Berichtswesens“ wurde im Frühjahr und Sommer 2012 durchgeführt. Sie gibt Auskunft über die aktuelle Praxis der internen und externen Berichtsgestaltung. Die Ergebnisse zum internen monatlichen Reporting beruhen auf 326 Fragebögen von Berichtsempfän- gern und Berichtserstellern österreichi- scher Unternehmen. Die Ergebnisse zur externen Berichterstattung beruhen auf der Analyse der Geschäftsberichte der 40 Unternehmen des ATX Prime Market. Wesentliche Ergebnisse zur Geschäftsberichterstattung Geschäftsberichte stellen ein wesentliches Instrument der Kommunikation von Un- ternehmen mit Investoren und der Öffent- lichkeit dar. Die darin dargestellten Infor- mationen beeinflussen maßgeblich deren Vertrauen. Der angestrebte „true and fair view“ wird dabei von Inhalt und Darstel- lungsform gleichermaßen beeinflusst. Die detaillierten Studienergebnisse bezüglich Tabellen, Diagrammen und sonstigen gra- fischen Elementen indizieren, dass in den Unternehmen des ATX Prime Market in Hinblick auf die Berichtsgestaltung Opti- mierungspotenzial besteht. Die wesentli- chen Studienergebnisse können wie folgt zusammengefasst werden: 1. Durchschnittlich 165 Seiten Der durchschnittliche Geschäftsbericht 2010 bzw 2010/11 im ATX Prime Market um- fasst 165 Seiten (Median 149 Seiten). Der Konzernabschluss beansprucht mit durch- schnittlich 87 Seiten dabei mehr Raum als der allgemeine Teil mit 78 Seiten. Die DO&- CO Restaurants & Catering AG veröffent- lichte mit 102 Seiten den Bericht mit der ge- ringsten Seitenanzahl, der Geschäftsbericht der Immofinanz AG war mit 286 Seiten der seitenmäßig umfassendste Bericht. 2. 6.800 Tabellen, Diagramme und sonstige grafische Elemente In den Geschäftsberichten der Unterneh- men des ATX Prime Market werden mehr als 6.800 Tabellen, Diagramme und sons- tige grafische Elemente zur Darstellung von Informationen verwendet. Diese be- anspruchen damit im Durchschnitt mehr als ein Drittel (= 34,9 %) der in den Ge- schäftsberichten verfügbaren Nettofläche. Umgerechnet entspricht dies einer durch- schnittlichen Seitenanzahl von 57,5 Seiten pro Geschäftsbericht, die ausschließlich Tabellen, Diagramme und sonstige gra- fische Elemente beinhalten. Pro Bericht werden im Schnitt 119 Tabellen, 21 Dia- gramme und 39 sonstige grafische Ele- mente verwendet. Damit wird deutlich, dass der Gestaltung dieser Elemente große Bedeutung beikommt. 3.Tabellen dominieren Von diesen 57,5 Seiten sind wiederum 58,3 % Tabellen (= 33,5 Seiten), 6,1 % Diagramme (= 3,5 Seiten) und 35,6 % sonstige grafische Elemente(= 20,5 Seiten). Esistfestzustellen, dass Tabellen insbesondere im Konzernab- schluss mit 93,4 % der Flächegrafischer Ele- mente sehr breiten Raum einnehmen. 4. Große Unterschiede zwischen den Unternehmen Der Vergleich der Geschäftsberichte zeigt große Unterschiede zwischen den Unter- nehmen bezüglich der Seitenanzahl und der visuellen Gestaltung. Tabellen und Diagramme werden für unterschiedlichs- te Zwecke eingesetzt und unterschiedlich gestaltet. Von einem etablierten Standard kann keinesfalls gesprochen werden. Wesentliche Ergebnisse zur Monats- berichterstattung Informationen sind die Grundlage menschlicher Entscheidungs- und Wil- lensbildung. Die Qualität betrieblicher Entscheidungen hängt damit direkt mit der Qualität der den Führungskräften zur Verfügung stehenden Informationen zu- sammen. Monatsberichte haben, als zen- trales Instrument der regelmäßigen In- formationsversorgung des Managements, einen besonders hohen Einfluss auf die Entscheidungsqualität in den Unterneh- men. Diese Entscheidungsrelevanz wird durch die Ergebnisse der Studiebestä- tigt. Im Vergleich zu Geschäftsberichten sind Unternehmen in der Gestaltung des Managementreportings frei und können interne Monatsberichte an die individu- ellen Bedürfnisse anpassen. Die Studie bestätigt die hohe Aktualität des The- mas und Wunsch und Notwendigkeit wahrnehmungsoptimierter Reports. Die Kernergebnisse zum Status quo der Mo- natsberichterstattung in österreichischen Unternehmen sind: 1. Hoher Umfang und Erstellungsauf- wand Die durchschnittliche Seitenanzahl der Monatsberichte beträgt 50 Seiten, wobei der Durchschnitt von zwei Unternehmen mit mehr als 1.000 Seiten Umfang verzerrt ist. Der Median für die Seitenanzahl be- trägt 20 Seiten. Bei KMU beträgt der Me- dian lediglich 11 Seiten. Für die Erstellung dieser Berichtsumfänge benötigen die Unternehmen durchschnittlich 6,5 Per- sonentage, wobei der Aufwand in Konzer- nen mit 7,9 Tagen wesentlich höher ist als in KMU mit 3 Personentagen. 2. Hohe Entscheidungsrelevanz 58,3 % der Manager und Controller emp- finden den Einfluss der Monatsberichte auf unternehmerische Entscheidungen als hoch bzw. sehr hoch. Der hohe Erstel- lungsaufwand für die Berichte erscheint gerechtfertigt. 3. Monatsberichte müssen rasch zu le- sen sein Monatsberichte werden von den Berichts- empfängern gelesen. Nur 0,4 % geben an, die Berichte nicht zu lesen. Die Berichte werden am häufigsten jedoch nur 15 bis 30 Minuten betrachtet. Mehr als die Hälfte (57,5 %) der Berichtsleser liest die Berichte nur punktuell bzw. kapitelweise. 4. Elektronik vor Papier. Tablets und Smartphones werden wichtiger. Während nahezu alle Befragten ihre Be- richte am PC oder Notebook (94 %) be- trachten, sind Papierberichte heute nur mehr zu 70,1 % verbreitet. Tablets (7,5 %) und Smartphones (7,1 %) sind als Be- trachtungsmedium derzeit noch eher die Ausnahme. Sie weisen aber die höchsten Wachstumsraten auf. Tablets sollen um 293,3 % auf 29,5 % wachsen, Smartphones um 109,9 % auf 14,9 %. Den klassischen Pa- pierbericht wollen in Zukunft nur mehr die Hälfte (52,8 %) der Befragten einsetzen.
  • 68.
    Competence Book -Business Intelligence ANWENDUNGEN - REPORTING UND KENNZAHLEN 68 5. Verbesserungsbedarf in der Infor- mationsgestaltung Nur 60,4 % der Befragten sind mit der Aufbereitung von Diagrammen zufrieden. Während 71,5 % mit der Gestaltung von Tabellen zufrieden sind, ist dies bei Tex- tinformationen (zB Kommentaren) nur zu 44,8 % der Fall. 6. Wunsch nach mehr Visualisierung Diagramme nehmen heute in vielen Mo- natsberichten weniger als 20 % der Gesamt- fläche ein. Gleichzeitig konzentrieren sich die Berichtsleser bei Erhalt des Berichts pri- mär auf Diagramme. 42,0 % der Befragten wünschen sich in Zukunft mehr Diagram- me in der Monatsberichterstattung. Damit steht die erhöhte Visualisierung an zweiter Stelle der Wünsche und wird nur durch den Wunsch nach rascherer Information (46,9 %) übertroffen. Die Studienergebnisse zei- gen aber, dass eine hohe Unsicherheit in der Gestaltung von Diagrammen besteht. 7. Neue Darstellungsformen wie Small Multiples und Sparklines sind noch wenig verbreitet Bei den alternativen grafischen Darstel- lungsformen dominieren Ampeldarstel- lungen. Diese werden von 49,1 % der Be- fragten verwendet. Small Multiples und Sparklines (siehe Kapitel Präsentation von Geschäftszahlen) werden lediglich bei 26,1 % bzw. 12,3 % eingesetzt. Die Unterschie- de zwischen KMU, Großbetrieben und Konzernen sind dabei gering. 8. Hohe Aktualität und viele Projekte in Planung Die hohe Aktualität des Themas zeigt sich durch die Tatsache, dass 62,9 % der Unter- nehmen gerade ein Reportingprojekt kon- kret planen, in der Umsetzung sind oder ein solches vor kurzem durchgeführt ha- ben. Die Änderungen werden dabei nicht laufend umgesetzt, sondern gebündelt und in einem gelegentlichen Rhythmus durchgeführt. Zum Autor Tim Erben: Seit Oktober 2009 arbeitet Tim Erben als Senior Manager Corporate Marke- ting für die pmOne AG, einem führenden Unternehmen im Markt für Business Intelligence. Das Lösungsangebot für Kunden besteht aus drei Säulen: Data Warehouse, Anwendungen für Performance Management sowie Reporting & Information Design. Zuvor war er mehrere Jahre als Marketing/Sales Manager für verschieden Unternehmen im Bereich Business Intelligence, Performance Management und Data Warehouse tätig. Die Basis hierfür entstand während seiner Studi- enzeit und Ausbildung in Würzburg beim Lehrstuhl für BWL und Wirtschafts- informatik von Prof. Dr. Thome, dem unabhängigen Beratungshaus BARC GmbH sowie der Administration Intelligence AG. Eye Tracking – Die Schlüsseltechnolo- gie in der zukünftigen Berichtsgestal- tung Die Studienergebnisse zeigen sowohl im Bereich der Geschäftsberichte als auch im Bereich der Monatsberichtsgestaltung starke Unterschiede in der Informations- aufbereitung und das Fehlen etablierter Standards. Gleichzeitig zeigen die Stu- dienergebnisse den Wunsch nach besser und schneller aufbereiteten Informatio- nen auf Seite der Berichtsempfänger. Bei den Berichtserstellern wird der Wunsch nach verlässlichen Orientierungsgrundla- gen und reduziertem Erstellungsaufwand deutlich. Die komplette Studie finden Sie unter die- sem Link.
  • 69.
    Competence Book -Business Intelligence 69
  • 70.
    Competence Book -Business Intelligence ANWENDUNGEN - REPORTING UND KENNZAHLEN 70 AUTOREN: Tilman Hagen (Braincourt GmbH) 1. Einleitung Das Berichtswesen – in Form von Standardberichten und um- fangreichen Berichtspaketen für interne sowie externe Empfän- ger – stellt für viele Unternehmen einen enormen zeitlichen und finanziellen Aufwand dar. So liegt die Frage nahe, ob dieser Aufwand nicht auf ein Mini- mum reduziert werden kann, so dass mehr Zeit für die wesentli- chen Aufgaben, wie Analyse und Kommentierung bleibt. Diese Frage kann positiv beantwortet werden: Es ist möglich den Aufwand für die Berichtserstellung zu minimieren. Eine praxis- erprobte Herangehensweise wird in diesem Artikel beschrieben. Dabei wird das warum, wie, was und womit beantwortet. 2. „Warum?“ – Herausforderungen des Berichtswesens Die Komplexität der Prozesse des Berichtswesens ist durch un- terschiedliche Anforderungen und Herausforderungen geprägt. Unter anderem aufgrund der historischen Entwicklung des Berichtswesens in Unternehmen, wird dieses oft durch unter- schiedliche, organisatorisch und räumlich getrennte Fachbe- reiche vorgenommen. Nur in wenigen Fällen existieren bereits bereichs- oder gar unternehmensübergreifende Organisations- einheiten mit der Verantwortung für die Berichterstattung. Aus dieser Dezentralität resultieren u. a. Redundanz und Parallelität: In den Inhalten der Berichterstattung, den IT-Systemen und in den Arbeitsabläufen – allesamt direkte Kostenverursacher. Eine weitere Herausforderung besteht in dem engen Zeitkorsett: Be- richte sollen einerseits schnellstmöglich nach Verfügbarkeit der Daten an die Empfänger versendet werden. Andererseits werden die Intervalle zwischen den Berichtsperioden immer kürzer. So- mit wird es erforderlich, Berichtsanpassungen während der ope- rativen Berichtserstellung vorzunehmen. Für eine ausführliche Qualitätssicherung bleibt nur wenig Zeit. In der Praxis wirkt die Erstellung von hochformatierten Stan- dardberichten im Controlling oder Rechnungswesen oftmals de- platziert. Diese Arbeit ist mehr von der Beherrschung der IT-Sys- teme und deren Datenmodellen sowie der visuellen Gestaltung der Berichte, als von betriebswirtschaftlichen Aufgaben, geprägt. Dass ein „Standard-Berichtswesen“ nicht zwangsläufig mit „Stan- dard-Prozessen“ gleichgesetzt werden kann, zeigt das nachfol- gende fiktive, aber durchaus reale, Beispiel: Mitarbeiter Paul Personal aus der Abteilung Personal-Controlling erstellt monatlich einen Management-Report, der neben reinen Personalkennzahlen auch Finanzkennzahlen, wie beispielsweise den „Umsatz“ beinhaltet. Paul hat sich für die gesamte Berichts- erstellung eine umfangreiche Excel-Mappe vorbereitet, welche er jeden Monat verwendet. Alle erforderlichen Zahlen werden in Excel-Blättern per Query aus dem HR-System (SAP BW) abgefragt. Da die endgültigen Perso- nalinformationen teilweise sehr spät bereitgestellt werden, muss Paul oftmals Anpassungen vornehmen oder Eingaben manuell im Voraus durchführen. Dies geschieht in einem weiteren Excel-Blatt, in dem die abgefragten Werte manuell verändert werden können. Verschiedene „Ausgabe-Blätter“ in derselben Arbeitsmappe ver- weisen auf dieses Anpassungs-Sheet. Die notwendigen Formatie- rungen und Formeln hat Paul sich in mühseliger Kleinarbeit auf- gebaut. Nachdem alle Blätter finalisiert sind, wird die Excel-Datei als PDF ausgedruckt und auf einem Dokumentenmanagement- system bereitgestellt. Pauls Kollege Claus Controlling erstellt ebenfalls einen umfang- reichen Monatsbericht für das Management. Dieser beinhaltet In- formationen aus verschiedenen Bereichen (und Systemen), wie der Produktion, dem Finanz- und auch dem Personalbereich. Die Per- sonalkennzahlen entstammen demselben System, wie auch Pauls Zahlen. Finanzkennzahlen (wie auch der Umsatz) werden jedoch aus einem zentralen Controlling-System basierend auf Microsoft Analysis Services gezogen. Aufgrund der vielfältigen Quellsysteme, Optimiertes Berichtswesen mit SAP Business Planning & Consolidation
  • 71.
    Competence Book -Business Intelligence ANWENDUNGEN - REPORTING UND KENNZAHLEN 71 verwendet Claus unterschiedliche Excel-Ar- beitsmappen bzw. bekommt einzelne Infor- mationen auch per E-Mail oder telefonisch zugeliefert. Die meisten Informationen wer- den einzeln kopiert und manuell in mehrere „Ausgabe-Mappen“ eingefügt, nur wenige Mappen sind automatisiert oder verfügen über Verknüpfungen zu den Quell-Dateien. Schließlich druckt Claus die verschiedenen Ausgabe-Mappen separat als PDF aus und fügt diese in Adobe Acrobat zu einer Datei zusammen. Die fertige PDF-Datei wird per E-Mail an die Berichtsempfänger versendet. Dieses Beispiel wirktextrem, ist heuteaber in vielen Unternehmen gelebte Praxis und zeigt wiederkehrende Schwachstellen: • Verschiedene Quellsysteme für gleiche Informationen Claus und Paul verwenden für die glei- che Kennzahl „Umsatz“ unterschiedliche Systeme. Ein „single point of truth“ exis- tiert nicht. • Individualisierte Erstellungsprozesse Die Berichtserstellung hängt stark von den individuellen Fähigkeiten der Be- richtersteller ab. Während Claus über sehr fortgeschrittene Excel-Kenntnisse verfügt, hat Paul noch viele Möglichkei- ten, sich zu verbessern. Somit unterschei- den sich auch die Erstellungsprozesse. Für Dritte, die u. U. eine Urlaubsvertre- tung machen sollen, sind diese Prozesse nur schwer nachvollziehbar. • Wenig automatisierte Prozesse Sowohl Claus‘ als auch Pauls Prozess der Berichtserstellung ist stark durch manuelle Eingriffe geprägt: Abfragen der Informationen, Vornehmen manueller Änderungen, Kopieren der Informatio- nen, Drucken der PDF-Dateien, Zusam- menfügen der PDF-Dateien. • Keine zentralen Anpassungen Da einige Kennzahlen sehr spät in ihrer endgültigen Form in das HR-System ge- laden werden, nimmt Paul Personal eini- ge manuelle Eingaben vor. Werden diese Kennzahlen auch in anderen Dokumen- ten berichtet, kann dies zu Differenzen führen bzw. macht einen umfangreichen Abstimmungsprozess erforderlich. • Mehrstufige Datenabfrage Von der Datenabfrage bis zur Darstel- lung im Bericht sind es mehrere Schritte. Bei Änderungen (z. B. die Ergänzung ei- ner Kennzahl) müssen die Anpassungen an vielen Stellen und unter Umständen sogar durch mehrere Personenkreise nachgezogen werden (Ausgabe-Blatt, Anpassungs-Blatt, Abfrage-Blatt, SAP- BW-Query). 3. „Wie?“ – Standardisiertes Vorgehen Eine weitsichtig ausgelegte Optimierung des Berichtswesens macht ein eigenstän- diges Projekt erforderlich. Nur so ist ge- währleistet, dass die notwendigen Res- sourcen bereitgestellt und die Bedeutung für das Unternehmen hervorgehoben wer- den. Ein solches Projekt muss sich sowohl der fachlichen Prozesse als auch der vor- handenen und erforderlichen Datenbasis annehmen. Ein standardisiertes Vorgehen ermöglicht ein durchgehend strukturiertes und somit zielorientiertes und effizientes Projekt. In der Praxis hat sich dabei ein 5- stufiges Modell bewährt: • Ist- und Anforderungsanalyse Zu Beginn des Projektes müssen die bestehende Berichtslandschaft, die ver- wendeten Quellsysteme und die Erstel- lungsprozesse analysiert werden. Dabei werden vorhandene und notwendige Alleinstellungsmerkmale erkannt und konkrete Anforderungen an die Lösung detailliert beschrieben. Bereits in dieser frühen Phase werden vielfach redun- dante oder nicht mehr relevante Berich- te identifiziert, welche ggf. zukünftig nicht weiter erstellt werden müssen. • Fachkonzept Auf Basis der skizzierten Ist-Situation und den definierten Anforderungen wird ein Fachkonzept erstellt. Dieses beschreibt aus fachlicher Sicht alle wesentlichen Be- standteile der zukünftigen Lösung, wie Prozesse, das Datenmodell oder Bericht- sinhalte und -strukturen. Es ist entschei- dend, dass die Lösung die bestehenden inhaltlichen Anforderungen abdeckt, aber auch für zukünftige Herausforderungen und Veränderungen skalierbar ist. • Notationskonzept (optional) Im Rahmen der Berichtsoptimierung empfiehlt es sich zusätzlich, ggf. paral- lel zum Fachkonzept, ein sogenanntes Notationskonzept zu erstellen (als Bei- spiel für einen solchen Standard sei das HICHERT®SUCCESS-Regelwerk von Prof. Rolf Hichert genannt). Durch ei- nen Notationsstandard lässt sich die Berichtsqualität u. a. durch eine ver- besserte Lesbarkeit, Interpretationsver- bindlichkeit und eine höhere Informati- onsdichte erheblich verbessern. Zudem können im Rahmen der folgenden Re- alisierungsphase Berichte auf Basis von Vorlagen und Richtlinien effizient und effektiv erstellt werden. • Feinkonzept Auf Basis der innerhalb des Fachkon- zepts beschriebenen Anforderungen und des ggf. vorhandenen Notationskonzepts wird ein Feinkonzept entwickelt. In die- sem werden einzelne fachliche Anfor- derungen detailliert ausgearbeitet und insbesondere die konkrete technische Lösung auf Basis der genutzten BI-Tech- nologie beschrieben. • Realisierung/ Tests In der Realisierungsphase werden alle relevanten und im Feinkonzept be- schriebenen Reporting-Komponenten umgesetzt. Dies sind u. a. Datenplatt- Abb. 1: Fiktives Beispiel von Prozes- sen im Berichtswesen
  • 72.
    Competence Book -Business Intelligence ANWENDUNGEN - REPORTING UND KENNZAHLEN „Standardisiertes Vorgehen in Form eines dedizierten Projektes gewährleistet Erfolg.“ - Tilman Hagen 72 formen in Form von Data Warehouses oder Data Marts, Berichtsvorlagen so- wie Frontend-Lösungen, welche den Endanwender bei der Erstellung von Berichten und Berichtsmappen unter- stützen. • Anwenderschulungen/ Roll-Out Das Reporting-Projekt ist beendet, wenn sichergestellt ist, dass die Appli- kation bei allen Anwendern läuft und durch vorgelagerte Schulungsmaßnah- men gewährleistet ist, dass die Applika- tion von den Anwendern sicher bedient werden kann. 4 „Was?“ – Fachliche Optimierung Ein Optimierungsprojekt sollte die drei, für das Berichtswesen relevanten, Hand- lungsfelder Prozesse, Datenbasis und Be- richte berücksichtigen. Die Optimierung von Reporting-Prozessen muss in vielen Fällen eine Neugestaltung der IT-Systeme, z. B. in Form eines Data Warehouse und der darin vorhandenen Daten, nach sich ziehen. Es genügt nicht ein Data Warehouse bereitzustellen und zu erwarten, dass sich tradierte Prozesse ohne weiteres wie gewünscht anpassen. Darüber hinaus müssen die Berichte ggf. oder Kommentierungsaufgaben wahrzu- nehmen, bleibt somit keine Theorie. Im Folgenden werden die einzelnen Schritte des Reporting-Prozesses hinsichtlich ihrer Optimierungspotentiale näher betrachtet: • Bereitstellung von Daten Die Bereitstellung derDaten istdie Grund- voraussetzung für einen effektiven Repor- ting-Prozess. Es muss gewährleistet sein, dass die notwendigen Informationen zum richtigen Zeitpunkt, sowie in der erfor- derlichen Qualität und Form, innerhalb des vom Reporting-Bereich genutzten Systems (siehe 4.2 Zentrale Datenbasis) vorliegen. • Abfrage der Daten Bei der Erstellung von umfangreichen Be- richtsmappen müssen oftmals nachein- ander gleiche Berichte parametrisiert und daraufhin aktualisiert werden (beispiels- weise eine Gewinn- und Verlustrechnung für unterschiedliche Unternehmensberei- che). Wird eine solche Mappe regelmäßig erstellt sollte diese Parametrisierung und Abfrage automatisiert erfolgen. Handelt es sich um Einzelberichte, so kann der Er- steller z. B. durch automatisch generierte Vorschlagwerte für Selektionen unter- stützt werden. • Kommentierung In vielen Fällen werden die quantitativen Zahleninformationen durch qualitative Bewertungen und Kommentierungen er- gänzt. Der Prozess dieser Kommentarzu- lieferung muss vereinheitlicht werden. • ZusammenfügenderBerichtsmappen Aus den separat aktualisierten Einzelbe- richten wird eine Gesamtberichtsmappe erzeugt. Diese wird ggf. mit einem In- haltsverzeichnis, Kapiteln, Seitenzahlen und Fußnoten versehen. Falls erforder- lich wird schließlich eine druckfertige PDF-Datei generiert. • Versendung/ Veröffentlichung der Berichtsmappen Die erstellten Berichtsmappen werden da- raufhin per E-Mail versendet oder auf ei- nem zentralen System bereitgestellt. Die- se Veröffentlichung erfolgt vielfach auch in mehreren Varianten (z. B. „Draft“ und „Finale Version“). 4.2 Zentrale Datenbasis Im Rahmen der Neugestaltung von Repor- ting-Prozessen muss geprüft werden, ob die vorhandenen Reporting-Systeme den aus dem Optimierungsprozess resultie- renden Anforderungen gerecht werden. In einem weitsichtigen Projekt spielen diese Systeme eine zentrale Rolle. Ziel sollte es sein, für das Reporting ein oder mehrere zentral verfügbare Data Marts zu schaffen. Diese müssen auf ei- nem zentralen und als „single point of truth“ dienenden Data Warehouse aufset- zen sowie hinsichtlich Datenmodell und Funktionalität explizit auf die Bedürfnis- se des Berichtswesens ausgerichtet sein. Ansonsten heißt die Alternative: durch Endanwender individuell erschaffene In- sellösungen und somit eine redundante Datenhaltung und -auswertung sowie eine inkonsistente Berichterstattung. Datenmodell Oftmals werden insbesondere durch interdisziplinäre Reporting- und Cont- rolling-Bereiche Systeme anderer Berei- che oder Abteilungen genutzt. Diese sind durch komplexe Datenmodelle, eine sehr hohe Granularität und einen umfangrei- chen Zeitbezug geprägt. Für einen Repor- ting-Bereich können Informationen, wie z. B. detaillierte Beleg-Informationen oder das Erfassungsdatum eines Datensatzes, überflüssig sein. Die entsprechenden Di- mensionen können somit entfallen. Dem gegenüber kann es aber erforderlich sein, eine BI-Lösung um weitere Informati- onen, wie manuelle Anpassungen oder an neue Systeme und Reporting-Prozesse angeglichen werden und bieten zusätzlich umfangreiches Potential zur Effizienzstei- gerung. 4.1 Prozesse Das in Kapitel 2 beschriebene Beispiel hat aufgezeigt, welche Ausprägungen und Ausmaße ein Berichtsprozess in der Pra- xis annehmen kann. In diesem Kapitel wird dargelegt, welche Optimierungspo- tentiale der Reporting-Prozess birgt. Vor- gelagerte Prozesse, wie z. B. Währungs- umrechnungen, Kennzahlenbildung oder Konsolidierung, sollen in diesem Rahmen nicht näher beleuchtet werden. Durch standardisierte Prozesse sowie die Erhöhung des Automatisierungsgrads von Routinetätigkeiten sind erhebliche Zeit- und Kostenersparnisse möglich. Ein Reporting „auf Knopfdruck“, in welchem den Berichterstellern zeitliche Freiräume geschaffen werden, um wichtige Analyse-
  • 73.
    Competence Book -Business Intelligence ANWENDUNGEN - REPORTING UND KENNZAHLEN 73 Währungseffekte zu ergänzen. Ein geeignetes Datenmodell kann neben einer optimalen Unterstützung des Pro- zesses auch weitere positive Seiteneffek- te, wie eine hohe Benutzerfreundlichkeit oder eine verbesserte Performance, mit sich bringen. Die Nutzbarkeit wird insbe- sondere durch Dimensionen, Strukturen oder Hierarchien bedingt, welche sich z. B. an der Darstellung in Berichten orien- tieren sollten. Funktionalitäten Neben einem auf die Reporting-Anforde- rungen optimierten Datenmodell kann auch die systemtechnische Realisierung von Funktionen die Arbeit des Fachbe- reichs erheblich erleichtern. Beispielswei- se müssen im Rahmen der Anforderungen an die externe Berichtserstattung in Form von Geschäfts- oder Zwischenberichten Zahleninformationen auf die Einheiten „in Tausend“ oder „in Millionen“ gerundet dargestellt werden. Die daraus resultie- renden Schwierigkeiten hinsichtlich ent- stehender Differenzen in Summen sind hinlänglich bekannt und können in einem solchen System zentral gelöst werden. Eine, von den operativen oder anderen Bereichen verwendeten Systemen, sepa- rierte Datenbasis bietet darüber hinaus die Möglichkeit, Reporting-relevante In- formationen zentral zu erfassen und diese Informationen allen Nutzern zur Verfü- gung zu stellen. Sollen die Berichte über eine Kommentarkomponente verfügen, so sollten diese in einer Datenbank und mit den quantitativen Größen verknüpft abge- legt werden. Hier lesen Sie den vollständigen Beitrag, der Ihnen beantwortet, was noch opti- miert werden muss und welches IT-Tool Sie dabei unterstützen kann. Zum Autor Tilman Hagen: Tilman Hagen ist Senior BI Consultant und Leiter des Competence Center „Neue Technologien“ bei der Braincourt GmbH, einem herstellerneutralen Be- ratungsunternehmen, sowie „Hichert Certified Consultant (HCC)“. Sein Studium der Wirtschaftsinformatik absolvierte er an der Hochschule der Medien in Stutt- gart. Seine Themenschwerpunkte sind Controlling und Reporting, die (Externe) Berichterstattung, als auch die Unternehmensplanung. Technologischer Fokus liegt dabei auf den Technologien SAP BW und SAP BPC. Projekterfahrung (Auszug): · Anforderungsanalyse, fachliche und technische Konzeption, Koordination der Realisierung, sowie der Inbetriebnahme einer integrierten Lösung für die Bereitstellung der relevanten Kennzahlen für den Bereich „Investor Relations“ auf Basis SAP BPC und Oracle Hyperion Essbase bei einem Unternehmen der Telekommunikationsbranche. · Anforderungsanalyse, fachliche Konzeption, Realisierung, sowie Inbetrieb- nahme einer integrierten Lösung für externe Finanzberichterstattung bei einem Unternehmen der Telekommunikationsbranche auf Basis SAP BPC.
  • 74.
    Competence Book -Business Intelligence ANWENDUNGEN - PLANUNG UND BUDGETIERUNG 74 Modern Budgeting: DieZukunftimVisier Einfach, flexibel und integriert: So postuliert der Internationale Controller Verein (ICV) die Kern- prinzipien moderner Planungswelten, in denen das Budget stets im Einklang mit der Unterneh- mensstrategie steht. Wie muss eine Software aussehen, mit der visionäre Konzepte dieser Art auch tatsächlich in der Praxis funktionieren? AUTOR: Christiane Wiegmann (IDL GmbH Mitte) E in Gremium aus Unternehmen, Beratungshäusern und Universitäten hat ein Konzept mit Potenzial zu einem Paradigmenwechsel in der Planungslandschaft entwi- ckelt: Das „Modern Budgeting“ räumt mit starren Prozessen auf und setzt den Rahmen für modernere Planungsformen, die sich stärker an Unternehmensstrategie und Gesamtziel orientieren – und die organisatorischen Gegebenheiten bis in die Geschäfts- bereiche hinein abbilden. Hinter der formulierten Forderung nach Einfachheit, Flexibilität und Integration steht der Wunsch nach einer mit weniger Auf- wand zu realisierenden variableren Planung, die einen höheren Nutzwert erzielt. Daraus ergeben sich entsprechende Anforde- rungen an die eingesetzte Planungssoftware. Das Postulat der Einfachheit Wer die Planung vereinfachen will, sollte deren Detaillierung re- duzieren und sich auf steuerungsrelevante Inhalte beschränken. Das bedeutet zunächst, nur die für das Unternehmen erfolgsre- levanten Kostenarten und -stellen detailliert und alle anderen auf einer höheren Aggregationsebene zu planen. Dabei sollten die Ist-Werte weiter detailliert bereitgestellt werden. Im Idealfall überlässt die Planungssoftware die Wahl, auf wel- cher Ebene man planen möchte, sei es auf Konten-, Positions- bzw. Verdichtungsebene: Bei der Planung auf Kontenebene kann man aufgrund von hierarchischen Strukturen und unter Berücksichtigung von Vorzeichen auf die nächst höheren Ebe- nen aggregieren. Plant man hingegen auf Verdichtungsebene, hat man die Wahl, ob die Planwerte auf die darunterliegende Ebene verteilt oder Konten auf der Detailebene gegen Änderun- gen durch übergeordnete Verteilungen gesperrt werden sollen. Ein Plus an Einfachheit und Übersicht lässt sich ferner durch die Wahlmöglichkeit einbringen, auf Basis von Kostenstellen oder von Kostenstellenkonten zu planen. Operativ planen, komfortabel gestalten Mit dem im Planungstool angebotenen oder dem im Rahmen der Systemkonfiguration erstellbaren Set an betriebswirtschaft- lichen Instrumenten wie Deckungsbeitragsrechnung, GuV, Bi- lanz und Finanzplan muss sich auf einfache Art und Weise eine operative Planung erstellen lassen. Über Planungsformulare sollten die Daten dabei unkompliziert erfassbar sein (auch im Sinne einer Web-basierten Datenerfassung), z.B. durch Vorbe- legungen, Validierungen oder eine ergonomische, vertraute Ein- gabeoberfläche. Automatisierung und Vereinfachung Vereinfachung erzielt man auch über mathematische Korrelatio- nen in den Prozessen. So können durch die Eingabe von Treiber- größen wie Umsätzen und Personalbestand wesentliche Teile der Planung wie beispielsweise der Materialaufwand (ermittelt sich in Abhängigkeit vom Umsatz) oder auch Personalkosten (ermit- teln sich in Abhängigkeit von der Anzahl der Mitarbeiter sowie durchschnittlichen Lohn- und Gehaltsgrößen) automatisiert vorbelegtwerden. Gleichesgilt fürwesentliche interne Leistungs- beziehungen, die im Rahmen der Budgetierung berücksichtigt werden sollten. In diesem Zusammenhang ist insbesondere da- rauf zu achten, ob und wie die Sender-Empfänger-Abstimmung effizient durchzuführen ist und auf welche Weise Validierungen eingebaut bzw. Kommentierungen eingefügt werden können.
  • 75.
    Competence Book -Business Intelligence ANWENDUNGEN - PLANUNG UND BUDGETIERUNG 75 Auf Flexibilität achten Angesichts zunehmend verzahnter Szena- rien und kürzerer Reaktionszeiten stellt das „Modern Budgeting“ hohe Ansprüche an die Flexibilität der Systeme. Strukturell müssen sich entsprechend die Planungs- zeiträume dynamisch rollierend aufbauen lassen und die Planungsoberfläche frei gestaltbar sein. Können die Line-Item- Details individuell ergänzt werden und sind sowohl Top-down- als auch Bot- tom-up-Szenarien frei wählbar? Auch Struktursimulationen wie das Umhängen von Kostenstellen müssen möglich und nachträglich flexibel änderbar sein. Wichtig ist zudem, ohne aufwändige Abstimmungsprozesse flexible Einfluss- faktoren, aus denen die verschiedensten Umfeld-Entwicklungen entstehen, als Basis für die Erstellung von Szenarien im System heranziehen zu können, um sie mit der Planung zu verknüpfen. Denn hie- rüber lassen sich wertvolle Sensitivitäten auf der Basis von erwarteten Szenarien fle- xibel abbilden. Forecasts optimieren und Fehlein- schätzungen korrigieren Gefordert sind flexible, rollierende Fo- recasts, die in Verbindung mit Frühwarn- systemen die Möglichkeit zu unterjähri- gen Änderungen bieten. Dabei müssen sich sowohl Year End als auch Rolling Fo- recasts unterjährig mit beliebigem Zeitho- rizont auf Basis der bisherigen Ist-Werte und der ursprünglichen Planung erstellen lassen. Grundsätzlich muss man zudem befähigt sein, den Detailgrad der Planung im Vergleich zur Ursprungsplanung (ge- nerell oder mit fortschreitender Zeit) be- liebig grober oder granularer zu gestalten. Möglichst flexibel und nachvollziehbar sollten ferner unterjährig auch Umschich- tungen im Forecast zu realisieren sein – von zunächst nur auf speziell dafür vor- gesehenen Kostenstellen auf die im Laufe des Jahres zugewiesenen Kostenstellen. Strategische und operative Planung verknüpfen Die Forderung nach planerischer Integra- tion schließlich verbindet strategische mit operativer Sichtweise, die ihrerseits bis auf die (stets anpassbare) Projektebene her- untergebrochen wird. Zentrale Aufgabe ist es dabei zunächst, die strategische von der operativen Planung zu entkoppeln und zeitlich vorgelagert durchzuführen. Nurso nämlich können „strategische“ Ergebnisse zu Beginn der operativen Planungsrunde feststehen, ohne von operativen Gegeben- heiten beeinflusst zu werden. Weiterhin muss sichergestellt werden, dass die aus der strategischen Planung resultierenden Ziele, Rahmenbedingungen und abgelei- teten Maßnahmen nachvollziehbar und transparent in die operative Planung ein- gehen. Das Planungssystem muss darüber hinaus eine operative Soll-Ist-Rückkop- pelung in Bezug auf die entsprechenden Erfüllungsgrade dieser Horizonte für die nächste strategische Planungsrunde un- terstützen. Maßnahmen- und Projektplanungen integrieren Nur wenn bis auf die einzelne Budgetpo- sitionen herunter konkrete Maßnahmen mit Zeitplänen, Verantwortlichkeiten und Projektmeilensteinen definiert und auch standardmäßig reportet werden können, kann man überhauptvon Integrationspre- chen. Wichtig kann zudem die Verbin- dung des Planungs- mit dem Zielverein- barungs-System sein, um die monetären Auswirkungen durchgängig in Planung und Forecast sichtbar zu machen. Eben- so müssen bestehende Projektplanungen inklusive qualitativer Daten wie Kommen- tierungen, aber auch Nebenrechnungen effizient mit den Planungsstrukturen ver- bunden werden können. Strategie-, Maßnahmen- und Projektpla- nungen aus einer Hand IDL bietet eine komplett integrierte Lö- sung zur Unternehmensplanung gemäß dieser Anforderungen, von der strategi- schen Maßnahmenplanung des Konzerns oder Unternehmens über die operative Planung (auch auf Fachabteilungsebene) bis zur Finanzplanung. In der operativen Detailplanung gehtesdabei beispielsweise um Themen wie Vertriebs-, Produktions-, Personal- oder Gemeinkostenplanung bis hin zur Deckungsbeitragsrechnung/ Erfolgsrechnung. Diese werden integrativ in die finanzwirtschaftliche Sicht über- führt, die eine GuV-, Bilanz- und Liqui- ditätsplanung umfasst. Hinzu kommen Intercompany-Verrechnungen und Kon- solidierungen für Konzerne, aufbauende Soll/Ist-Betrachtungen sowie das Simulie- ren und Durchspielen von Szenarien. Die Anwender arbeiten durchgängig mit ein und derselben Produktfamilie auf einer einheitlichen Datenbasis und mit durch- gängiger Logik. Zur Autorin Christiane Wiegmann: Christiane Wiegmann ist seit 2007 als Prokuristin und zeichnet seit 2009 als Mitglied der Geschäftslei- tung der IDL GmbH Mitte für das Vertriebsgebiet Deutschland ver- antwortlich. Zudem betreut sie die fachliche Weiterentwicklung der beiden Soft- wareprodukte IDLFORECAST für die Finanzplanung sowie IDLPUB- LISHER für die Geschäftsberichts- erstellung.
  • 76.
    Competence Book -Business Intelligence ANWENDUNGEN - PREDICTIVE ANALYTICS 76 Jeder, der am Wochenende Wii oder Playstation gespielt hat, fragt sich am Montag, was die BI-Community in den letzten 20 Jahren getrieben hat: Stillstand allerorten! Würde man den Kin- dern den eigenen Arbeitsplatz zeigen, es wäre peinlich. Während Wii & Co. ein Musterbeispiel an UX/UI darstellen, ar- beiten die meisten Knowledge-Worker noch mit Excel-Add-ins. Verglichen mit der Echtzeit-Animation aktueller Games mutet BI wie ein Textadventure an. Von echten Datenprodukten („Data Products“) keine Spur (Details zu Datenprodukten finden sich im Parallelartikel). Hier liegen die größten Potentiale von „Big Data Warehousing“ (BDW): 1. Parallele Architekturen erlauben die Verarbeitung massiver Da- tenmengen in Echtzeit. 2. Dies wiederum ermöglicht die Datenfusion („Data Fusion“) in Echtzeit, die Datenprodukte erst möglich machen. Im Einzelnen: Der Begriff der Datenfusion wurde durch Ernst Dickmanns bekannt, der in den 80er Jahren die ersten selbstfah- renden Autos konstruierte (die Älteren unter uns erinnern sich an den weissen Mercedes-Benz T 2 aus den Nachrichten). Die An- wendung der Technik stammt aus der Raumfahrt - Dickmanns, selbst Raumfahrtingenieur, entwickelte sie Anfang der 70er u.a. am NASA-Marshall Space Flight Center in Huntsville, Alabama. Datenfusion ermöglicht es, zahlreiche Signale zu einer oder we- nigen Steuergrößen zu vereinen (Beispiel: Stereosehen). Damals wie heute besteht das größte Problem in der gewaltigen Daten- menge, will man Entscheidungen in Echtzeit treffen. Ob es sich um Raketentriebwerke oder Abverkäufe handelt, in beiden Fällen muss der Normalbetrieb von der Ausnahmesituation („Outlier“) unterschieden werden, um ggf. eingreifen zu können. Und das trotz des allgegenwärtigen Hintergrundrauschens. Das Grund- prinzip der Cybernetics, so wie es Norbert Wiener bereits in den 40er Jahren formuliert hat und auf das sich Unternehmenscont- roller noch heute berufen. Big DataWarehousing: Anmerkungen zur Zukunft von BI im Zeit- alter von Big Data und Predictive Analytics AUTOR: Thorsten Lüdtke (BIPortal GmbH)
  • 77.
    Competence Book -Business Intelligence ANWENDUNGEN - PREDICTIVE ANALYTICS 77 Die Natur hat für komplexe Entschei- dungsprobleme eine einfache Lösung gefunden: Anstatt komplizierte Diffe- rentialgleichungen zu lösen, benutzt ein Fussballspieler eine einfache Heuristik, um zum richtigen Zeitpunkt am Ball zu sein: Er misst den Winkel zwischen sich und der erwarteten Position des Balls zum Zeitpunkt seines Eintreffens und begibt sich auf diese Linie. Während seines Laufs hält er permanent Blickkontakt zum Ball, so dass er seinen Lauf anpassen kann für den Fall, dass der Ball durch Bodenune- benheiten verspringt. Gerd Gigrenzer, Direktor für adaptives Verhalten und Kognition am Max-Planck-Institut für Bildungsforschung, hat diesen Entschei- dungsprozess ausführlich untersucht. Ge- nau dieses Konzept setzt die Datenfusion um. Das MapReduce-Prinzip hat es also schon immer gegeben! Während Dickmanns vor allem mit Kal- mann-Filtern zur Datenfusion arbeitete, wurden in den vergangenen Jahrzehnten zahlreiche alternative Entscheidungsal- gorithmen entwickelt. Kalmann-Algorith- men sind aber dennoch bis heute Grund- lage zahlreicher Zeitreihenanalysen. Der Vorteil dieser Algorithmen liegt in ihrer Geschwindigkeit. Sie speichern den Zu- stand der Historie in wenigen „latenten Variablen“ und können somit Prognosen zukünftiger Zustände sehr schnell durch- führen. Dies ist die Grundlage für Pre- dictive Analytics mit Massendaten wie Abverkäufen, Aktienprognosen und Kun- denklassifikationen. Das auf Predictive Analytics basierende Entscheidungsmodell ist selten mono- lithisch aufgebaut, sondern verfügt über eine ganze Reihe von Entscheidungspro- zessen, die parallel arbeiten. Für Echtzeit- entscheidungen ist daher eine In-Memory -Datenbank unerlässlich, will man nicht algorithmische Effizienz durch rotierende Platten verlieren. Dies ist auch für SAP HANA die Killer-Applikation: Komplexe Entscheidungen können nur in-memory durchgeführt werden: Geschwindigkeit an sich ist noch kein Kaufargument, wohl aber qualitativ hochwertige Entschei- dungsgrundlagen in Echtzeit. Gepaart wird dieses Entscheidungsmodell mit einem riesigen Gedächtnis, beispiels- weise durch eine verteilte Datenhaltung Zum Autor Thorsten Lüdtke: Thorsten Lüdtke begann 1997 mit der Entwicklung von Anwendungen für Business Intelligence (als MicroStrategy-Angestellter) und präsentierte das BI-Konzept bei zahlreichen Konferenzen zum Thema Decision Support Sys- teme (DSS). 1999 konstruierte er die ersten RapidMarts® überhaupt, basie- rend auf SAP BIW 1.2B, direkt bei Acta Technology im Silicon Valley (heute SAP BusinessObjects, SBO). Von 2002 bis 2005 arbeitete er als BI-Berater und BW-Trainer für SAP Deutschland AG & Co. KG und SAP UK Ltd. an zahlreichen Projekten in Deutschland und in Großbritannien. 2006 startete er ein Joint-Venture mit Bill Inmon als Beiratsmitglied und prä- sentierte die Ergebnisse (BI Master Data Management) auf der SAPPHIRE 2007-Konferenz in Wien. Hieraus ging die Firma BIPortal hervor. im Hadoop-Filesystem (HDFS) - Hadoops Elefantenmaskottchen passt also nicht nur in Bezug auf das gewaltige Datenvolu- men, sondern auch auf die Unvergesslich- keit des Systems. Für Predictive Analytics wird sich GNU R als vollwertiger Ersatz für die proprietäre SAS-Sprache etablie- ren. Mittlerweile gibt es genügend Pake- te für Big Data, insbesondere RHIPE (R and Hadoop Integrated Programming), RHadoop von Revolution Analytics und R über Hadoop-Streaming. Zudem bietet SAP HANA eine tiefgreifende Integration mit GNU R. In der Datawarehousing-Praxis haben Archivierungssysteme einen schweren Stand. Befragt man den Fachbereich, so will er eigentlich immer die Möglichkeit haben, auf historische Daten zugreifen zu können. Und das möglichst sofort. Damit kann die IT vereinbarte Service-Le- vel-Agreements (SLAs) nicht einhalten, muss sie Archivdaten erst aufwendig wie- derherstellen. Zudem sind die meisten DWH nur für die aktuellen Zahlen ausge- legt, bekämen also bei der Wiederherstel- lung ggf. Performanceprobleme.
  • 78.
    Competence Book -Business Intelligence ANWENDUNGEN - PREDICTIVE ANALYTICS 78 Genau hier liegt das Potential von HDFS: Es müs- sen keinerlei Daten mehr gelöscht werden, da es keinerlei Strukturen gibt, die „überlaufen“ könn- ten. Zudem löst es das Schemaproblem relationa- ler Datenbanksysteme: Entwickeln sie sich weiter, sind die Archivdaten nicht mehr kompatibel. Wer- den die Archivdaten jedoch erst zum Abfragezeit- punkt neu interpretiert, bleiben sie stets „frisch“. Parallele Architekturen stellen eine geringe La- tenzzeit sicher. Jedoch sollten sie nur für gleichar- tige Analysen grosser Datenbestände genutzt werden, etwa zur Klassifikation von Kunden, die über Monate stabil bleiben. Die Echtzeitanalysen müssen In-Memory-Datenbanken leisten. Damit löst HDFS auch das Datenintegrationspro- blem aktueller DWH-Architekturen: Die Grund- idee des DWH (Daten vorhalten für beliebige zukünftige Verwendungen) konnte in der Praxis selten durchgehalten werden, sobald das Daten- volumen die „Datumsgrenze“ überschritt, d.h. die ETL-Prozesse über Nacht nicht mehr abschliessen konnten und in den Tag hineinliefen. Inmons „Corpo- rate Information Factory“ (CIF) funktioniert also nur bis zu einer gewissen Da- tenmenge strukturierter Daten. Bei unstrukturierten Daten externer Quellen, die mit hohen Durchsatzraten in Echtzeit verarbeitet werden müssen, versagt es. Undenkbar, dass Googles selbstfahrendes Auto zunächst die Szenerie als CSV-Strom in die operationalen Datastores einfliessen lässt, um dann einen Da- tamart aufzubauen, dessen Analyseergebnis dann zur Entscheidung verwendet wird, ob für einen kreuzenden Fussgänger gebremst wird oder nicht! Auch Remodellierungswerkzeuge helfen in der DWH-Adminsitration wenig, wenn das Datenvolumen zu gross ist, als dass man es „mal eben“ von der alten in die neue Tabellenstruktur überführen könnte. Hier hilft die Entschlackung der relationalen Tabellen um die historischen Daten, indem sie ins HDFS ver- schoben werden. Das DWH wird dadurch wieder flexibel. Auch werden In-Me- mory-Datenbanken dadurch erschwinglich: Wird etwa der aktuelle sowie der Vorjahresmonat mit den jeweiligen kumulierten Kennzahlen in-memory vorge- halten, kann der Rest aus dem HDFS-Archiv nach Bedarf gelesen werden, wenn er beispielsweise nur 10% der Queries betrifft. Notwendig hierfür sind BI-Werk- zeuge, die mit föderierten DWH-Architekturen arbeiten können. MicroStrategy wurde als einziger BI-Hersteller für SAP HANA zertifiziert und zeigt gerade bei Facebook, wie sich auch noch 200 PB auswerten lassen. Big Data lebt von der Integration aller relevanten Daten. Die traditionellen Transaktionsdaten machen hier den geringsten Teil aus. Umgekehrt kann BI mit relationalen Strukturen die unstrukturierten Daten nur schwerverarbeiten. Was bedeutet das für die Zukunft? Sobald das Datability-Problem gelöst ist bzw. die Ignoranz/Bequemlichkeit siegt, spricht kaum noch etwas gegen BI in der Pu- blic Cloud. Dort stehen mit Googles Big Query und Amazons Redshift bereits SaaS-Lösungen bereit. Für unter $1000 pro Jahr und Terabyte.
  • 79.
    Competence Book -Business Intelligence ANWENDUNGEN - PERFORMANCE MANAGEMENT 79 Balanced Scorecard mit BI verbinden zeiten führen dazu, dass das Erstellen von Berichten sehr müh- sam ist. So müssen bei spezifisch gewünschten Kennzahlen die Berichte manuell erstellt werden. Das System unterstützt keine Überwachung und Warnung bei einer signifikanten Abweichung von Kennzahlen. Um für das weitere Wachstum und die zunehmende Komplexi- tät gewappnet zu sein, entschied sich die CSV-Abteilungsleitung, eine BI-Lösung zu implementieren. Die Anforderung war, ein Cockpit zu erstellen, um auf einen Blick eine Übersicht über den aktuellen Stand und den Trend der Abteilung zu erhalten. Zusätzlich sollten neue CSV-interne Kennzahlen auf Basis des Balanced-Scorecard-Konzepts (BSC) entwickelt werden. Wegen des starken Wachstums strukturierten die Verantwortlichen die Abteilung um und unterteilten sie in fünf verschiedene Ser- vices. Dabei waren noch keine Kennzahlen für diese Services definiert worden. Bislang wurden sie durch gemeinsame Kenn- zahlen für alle Abteilungen zentral gesteuert. Dadurch erhielt die CSV-Abteilungsleitung einen groben Überblick über die gesamte CSV-Abteilung; konkrete Stärken und Schwächen der einzelnen Services waren jedoch nicht feststellbar. Die Rahmenbedin- gungen des Projekts legten eine Zeitspanne von drei Monaten sowie ein fünfstelliges Budget fest, eine studentische Kraft sowie ein Betreuer waren für die komplette Planung, Entwicklung und Umsetzung der End-to-End-Lösung zuständig. In einer auf die Unternehmenssituation angepassten Vorgehens- weise– im Unternehmen istkeineBI-Erfahrungvorhanden,esgibt nur eine studentische Kraft für das Thema – wurden zunächst die relevanten Kennzahlen für eine Balanced Scorecard identifiziert und vom Management-Team gemeinsam verabschiedet. Nach der systematischen Auswahl der optimalen BI-Plattform entwarfen und implementierten die Verantwortlichen eine zukunftsfähige, skalierbare Architektur nach dem bewährten Schichtenmodell. Sie realisierten die Dashboards in einer ersten Version mit Hilfe von Microsoft Excel; das soll in Zukunft über eine Cloud-basierte Sharepoint-Lösung umgesetzt werden. Im Ergebnis entstand eine kostengünstige End-to-End-Lösung, die den Performance-Ma- nagement-Prozess komplett abbildet und auf das weitere Wachs- tum des Unternehmens ausgerichtet ist. Ausgangssituation Die Arcondis AG bietet Dienstleistungen für IT-, Qualitäts- und Informationsmanagement in der Life-Science-Branche an. Be- sonders die Abteilung Computer-System-Validierung (CSV) zählt zu den umsatzstärksten Beratungsdienstleistungen. Aufgrund des starken Wachstums der letzten Jahre und der Aufgabe, die er- höhte Komplexität zu überschauen, reichten die Anforderungen an die unternehmensinterne, selbstentwickelte ERP-ähnliche Datenbank nicht mehr aus. Kennzahlen werden zwar gemessen, detaillierte und gezielte Analysen der Unternehmensdaten sind aber nur indirekt möglich und sehr aufwendig. Lange Warte- AUTOREN: Lukas Wiesner, Daniel Ebner (Valcoba AG) & Prof. Dr. Tobias Hagen (Hochschule Offenburg) aus BI-SPEKTRUM (03/2013) In kleinen und mittleren Unternehmen gibt es immer noch großen Nachholbedarf beim Einsatz von Business-Intelligence-Lösungen. Am Beispiel eines stark wachsenden mit- telständischen IT-Consulting-Unternehmens werden verschiedene Aspekte einer BI- Implementierung diskutiert und Lösungsansätze aufgezeigt. Im Artikel wird dargestellt, wie man mit Hilfe einer schlanken, aber zukunftsfähigen BI-Lösung das Performance-Manage- ment effizient umsetzen kann. Die Kennzahlen der Balanced Scorecard und auch der Weg zu deren Identifikation werden im Detail vorgestellt.
  • 80.
    Competence Book -Business Intelligence ANWENDUNGEN - PERFORMANCE MANAGEMENT 80 Einführung der Balanced Scorecard Die BSC ist ein von Robert S. Kaplan zu Beginn der 1990er-Jahre entwickeltes Füh- rungsinstrument zur strategischen Ausrich- tung der Unternehmensorganisation an- hand von Ursache-Wirkungs-Beziehungen. Hierfürwerden strategische Ziele in den vier verschiedenen Perspektiven Finanz, Kunde, Prozess und Potenzial messbar gemacht. Das ermöglicht es, geeignete Maßnahmen zu identifizieren. Im Vergleich zu produzierenden Industri- eunternehmen ist es für Dienstleistungs- unternehmen schwieriger, bereichsspe- zifische Kennzahlen zum Beispiel für die Produktivität oder Innovationsfähigkeit anzugeben. Einzig bei finanziellen Kenn- zahlen ergeben sich Parallelen. Somit sind es auf Bereichsebene andere Kernkriterien als jene, die für den Unternehmenserfolg eines Dienstleistungsunternehmens als Ganzes entscheidend sind. Dazu zählen etwa Mitarbeitermotivation, Kundenzu- friedenheit oder Kundenbeziehungen. Die Balanced Scorecard hilft hier als Modell, da sie auch nicht finanzielle Kennzahlen zur Erfolgsmessung berücksichtigt. Mit der Einführung der BI sollte nun die BSC als Modell zur Erstellung von Kernkennzahlen aufgegriffen und in der CSV-Abteilung im- plementiert werden. Das BI-System sollte neben den klassischen finanziellen Kenn- zahlen auch nicht finanzielle Kennzahlen abbilden können. Obwohl im Falle der CSV bereits definierte Unternehmenskennzahlen vorhanden wa- ren, rät Probst [Pro07, S. 198] davon ab, diese bei der Umsetzung der Balanced Scorecard als Grundlage zu nehmen: „Es kann doch eigentlich so einfach sein. Man hat ein aus- geprägtes Kennzahlensystem, gießt dieses in ein paar Perspektiven und fertig ist die Balanced Scorecard. Nein! Erst die Strate- gie, dann Ziele, dann erst Kennzahlen. Und ob es dann noch die vorhandenen sind, ist überhaupt die Frage.“ In der Literatur wie auch in der Praxis ist man sich einig, wie eine Balanced Scorecard erfolgversprechend umgesetztwerden sollte [Pro07, S. 198]. Die Vorgehensweise umfasst das Herunterbrechen von Vision und Stra- tegie in konkretes Handeln, und zwar zum Handeln im operativen Umfeld und nicht nur auf höchster Managementebene. Für dieses Projekt wurde eine von Probst vor- geschlagene Einführungsmethode [Pro07, S. 176] als Grundlage verwendet und den Anforderungen entsprechend modifiziert. Dies wird im folgenden Abschnitt genauer beschrieben. Einführungsmethodologie In der Literatur [GGD08] sind einige Vorgehensmodelle für die Einführung von Bu- siness Intelligence zu finden. Diese Vorgehensmodelle gehen jedoch oft davon aus, dass die zu messenden Kennzahlen bereits bekannt sind und nicht erst komplett neu definiert werden müssen. Diese Methoden konzentrieren sich nur auf die Ermittlung von Kennzahlen, jedoch nicht auf deren Einführung – insbesondere nicht auf Basis der Balanced Scorecard. Eine Fragestellung des Projekts lautete daher zusätzlich, wie man erfolgreich Kennzahlen im Rahmen der Balanced Scorecard und der Business Intelligence in einem Beratungs- beziehungsweise Dienstleistungsunternehmen für eine Abteilung definiert. Für die Entwicklung eines Vorgehensmodells, das beide Aspekte abdeckt, sowohl die BSC wie auch die BI, müssen zwei erfolgreiche Methoden kombiniert werden – im Falle dieses Projekts wurde die BI-Methodik um die BSC-Methodik ergänzt. Zur Im- plementierung der BI-Lösung entschied sich das Unternehmen für die Lifecycle-Me- thode nach Kimball. Abbildung 1 stellt Kimballs Vorgehensweise grafisch dar. Die Ent- wicklung und Umsetzung gliederte sich in verschiedene Phasen: Anforderungsaufnahme Die Anforderungsaufnahme beinhaltete die Analyse der Ist- und der Soll-Situation für BI, die Kennzahlenermittlung im Rahmen der Balanced Scorecard sowie die Definiti- on der Datendimensionen. Für die Analyse der Ist- und Soll-Situation und zur Bestim- mung der Datendimensionen wurde die Vorgehensweise von Kimball zugrunde gelegt. Dabei wurden Interviews in Workshops durchgeführt und die Technik „Enterprise Da- ta Warehouse Bus Matrix“ [Kim08, S. 3ff] angewendet. Die Kennzahlenermittlung im Rahmen der Balanced Scorecard erfolgte mit der modifizierten Methode von Probst [Pro07, S. 180]: 1. Analyseder Ist-Kennzahlen: Als Startpunktdienteeine Übersicht überalle Kenn- zahlen, sowohl die des Unternehmens wie auch die der Abteilung, welche innerhalb der CSV-Abteilung gemessen wurden. Program/ Project Planning Business Requirements Definition Technical Architecture Design Product Selection & Installation Dimensional Modeling Physical Design ETL Design & Development BI Application Design BI Application Development Deployment Growth Maintenance Program/Project Management Abb. 1: Lifecycle-Methode von Kimball, Quelle: [Kim08] S. 3
  • 81.
    Competence Book -Business Intelligence ANWENDUNGEN - PERFORMANCE MANAGEMENT 81 2. Identifizierung strategischer Ziele: Im zweiten Schritt analysiertendieVerantwortlichendieVision, die Strategie und die kritischen Erfolgsfaktoren des Unternehmens. 3. Soll-Ist-Vergleich: Zum besseren Überblick setzten sie die Unternehmens- und CSV-Kennzahlen in ein strate- gisches Zielgerüst ein und wiesen sie den Perspektiven der BSC zu. Hier verglichen sie, inwiefern die aktuellen CSV-Kennzahlen die Kennzahlen, die aus der Unterneh- mensstrategie hervorgehen, abdecken. 4. Identifizierung fehlender Kennzahlen: Die Mana- ger und Experten diskutierten, ob wichtige Kennzahlen fehlen. 5. Eingrenzung und Modellierung von Ursache-Wir- kungs-Ketten: Der nächste Schritt bestand darin, die wichtigsten Kennzahlen einzugrenzen. Aufgrund einer Vorgabe der CSV-Leitung sollten für jede Perspektive zwei Kennzahlen ausgewählt werden. Dafür analysier- ten die Verantwortlichen die Ursache-Wirkungs-Bezie- hungen der ausgewählten Kennzahlen. Dazu verwende- ten sie die Technik des Papiercomputers, ein von Vester [Hae98] entwickeltes Verfahren, bei dem alle Faktoren in einer Einflussmatrix abgebildet und auf gegenseitige Be- einflussung und Beeinflussbarkeit überprüft werden. 6. Bestimmung der CSV- Kennzahlen: Die Manager be- werteten einzelne Faktoren und setzten sie innerhalb einer Matrix zueinander in Bezug. Die jeweils zwei wich- tigsten und kritischsten Kennzahlen pro Perspektive wurden ausgewählt. Abbildung 2 zeigt das Ergebnis der Kennzahlenbewertung innerhalb der Einflussmatrix. 7. Bestimmung von Messzahlen und Zielgrößen zur Messung der Zielerreichung: Mittels Workshops wur- den für die neuen CSV-Kennzahlen die Messarten (wie wird gemessen) und die Zielgrößen bestimmt. Die Mess­ art und die Zielwerte wurden zumeist aus der Strategie vorgegeben. Die Ergebnisse dieser Ermittlung sind in Tabelle 1 dargestellt. Die- ses Vorgehen zur Kennzahlenermittlung im Rahmen der Balanced Scorecard zeigte sich in der Praxis als sehr effektiv und erfolgreich. Architektur und Auswahl der BI-Tools Für den Entwurf der BI-Architektur und die Auswahl der BI-Produkte empfiehlt Kimball folgendes Vorgehen [Kim08, S. 181]: 1. Architekturdesign: –  Aufnahme der architektonischen Anforderungen und Datenquellenanalyse –  Entwurf eines Architekturmodells –  Ableiten der architektonischen Auswirkungen –  Erstellen eines Anforderungskatalogs für die BI-Teil­ systeme 2. Auswahl und Installation der BI-Produkte: –  Produktauswahl mittels einer Nutzwertanalyse –  Installation der BI-Produkte Die Experten benutzten bei der Erstellung einer Architektur das High-Level-Architektur-Modell von Kimball. Dieses wurde einerseits gewählt, um das Modell so grob wie möglich zu halten und sich nicht in zu detaillierten Informationen zu verlieren. Andererseits deckt Kimballs Modell alle notwendigen Funktionen und Datenbereiche ab und erwies sich in der Praxis anhand einer Expertenbefragung als sehr erfolgreich. Kurz vor der Entwicklung des BI-Systems wurde eine unternehmen- sweite Sharepoint-Umgebung eingerichtet. Aufgrund dessen war ur- sprünglich beabsichtigt, Microsoft Sharepoint Online als BI-Frontend einzusetzen. Bei Untersuchungen im Vorfeld wurde jedoch festge- stellt, dass im Gegensatz zu SharePoint 2010 die Cloud-Version von SharePoint (das ist auch heute noch der Fall) keine Unterstützung für BI anbot [Mic11]. Das Management entschied daher, als Interimslö- sung Microsoft Excel 2010 als vorläufiges BI-Frontend einzusetzen. Um sicherzustellen, dass dieser Weg gangbar ist, wurden die ge- sammelten Anforderungen mit den Funktionen von Excel verglichen. Es stellte sich heraus, dass Microsoft Excel 2010 alle Anforderungen erfüllte und als Frontend eingesetzt werden konnte. Sollte der Fall ein- treten, dass viele und komplexe Daten analysiert werden müssen, ist eine Erweiterung mit Microsoft PowerPivot sehr leicht umsetzbar. Akquirierter Umsatz Key Accountant Management Umsatz Anzahl Skills Kunden- anfragen Kunden- zufriedenheit Anzahl Rahmen- verträge Mitarbeiter- zufriedenheit Headcount / Mitarbeiter- fluktuation Durchschn. Stundensatz Rentabilität Anzahl interner Projekte Academy / Weiterbildung Auslastung kritisch passiv aktiv träge hoch hoch niedrig niedrig Kumulierte Einflussstärke Kumulierte Beeinflussbarkeit Abb. 2: Ergebnis der Kennzahlenbewertung mittels Einflussmatrix Kennzahl Definition Perspektive Rentabilität Höhe der Rentabilität für den Bereich CSV in Prozent Finanzen Akquirierter Umsatz Anzahl akquirierter Umsatz durch CSV-Mitarbeiter Finanzen Headcount Anzahl der CSV-Mitarbeiter (Count) bzw. Mitarbeiterfluk- tuation Prozesse/Produkt Skills Anzahl der Skills der CSV-Mitarbeiter ­ (Fähigkeiten/ Qualifikationen) Prozesse/Produkt Mitarbeiter­ zufriedenheit Mittelwert gemäß Umfrage Mitarbeiter Academy Prozentzahl der entwickelten Skills gemäß Vereinbarung in Mitarbeitergespräch Mitarbeiter Kunden­zufriedenheit Mittelwert gemäß Umfrage Kunde Auslastung Prozentzahl der Auslastung der CSV-Mitarbeiter Kunde Tab. 1: Resultat der Kennzahlenermittlung
  • 82.
    Competence Book -Business Intelligence ANWENDUNGEN - PERFORMANCE MANAGEMENT 82 Zur Auswahl des Backend verglichen die Verantwortlichen ver- schiedene Datenbankmanagementsysteme und evaluierten sie mittels Nutzwertanalyse. Die Entscheidung fiel auf MS SQL Server 2012. Eine detaillierte Analyse klärte ab, welche Edition eingesetzt werden sollte. Die Editionen dieser Datenbankplatt- form unterscheiden sich signifikant hinsichtlich BI-Funktionali- tät und Lizenzkosten. Aufgrund des begrenzten Projektbudgets kamen nur die Standard-, Web- und Express-Editionen in Frage. Bei der Analyse stellte man fest, dass nurdie Standard-Edition die sogenannten Analysis-Services unterstützt, die für das Erstellen von Cubes unabdingbar sind. Somit fiel die Entscheidung auf die Standard-Edition. Data Warehouse, ETL und Cubes Im nächsten Schritt wurden das Data Warehouse, die ETL-Pro- zesse und die Cubes entwickelt. Dieser Teil des Projekts nahm mit 40 Prozent anteilsmäßig die meiste Zeit in Anspruch. Da eine Konstruktion plattform-, projekt-, software- und hardwareab- hängig ist und diese Faktoren sich auch schnell verändern, gibt Kimball in diesem Teil eher eine grobe Anleitung vor [Kim08, S. 327]. Das Management teilte für dieses Projekt das Data Warehouse klassisch in drei Bereiche auf: Stage, Store und Mart. Danach wurden die verschiedenen Datenquellen detaillierter analysiert. Damit die gewünschten Daten aus den Datenquellen im Data Warehouse vereinigt werden konnten, entwickelten die Verant- wortlichen verschiedene ETL-Prozesse mittels der sogenannten SQL Server Integration Services (SSIS). Nachdem die gewünsch- ten Daten erfolgreich in den Mart geladen wurden, war der letzte Schritt dieser Phase die Erstellung der Cubes. Zuerst wählten sie die Faktentabellen aus, danach die Messzahlen. Zum Schluss wa- ren die gewünschten Dimensionen an der Reihe. Kimball schlägt vor, stets mit der Zeitdimension zu beginnen, um rasch erste Ergebnisse zu erhalten [Kim08, S. 305]. Insgesamt wurden drei Cubes erstellt mit jeweils bis zu fünf Dimensionen. Entwurf und Entwicklung des Business Intelligence Frontend Nach der erfolgreichen Erstellung des Backend entwarfen die Experten das Frontend. Das Frontend spielt eine zentrale Rol- le für die Akzeptanz des gesamten BI-Systems. Usability und Performance stehen hier im Mittelpunkt. Microsoft Excel 2010 unterstützt eine Anbindung an die SQL Server Analysis Ser- vices (SSAS) und eine detaillierte Auswertung kann über die Pi- vot-Funktion durchgeführt werden. Zudem wurde Excel bereits innerhalb des Unternehmens eingesetzt, was ein Vorteil für die Akzeptanz als Frontend war. Eine der Anforderungen an das BI- System lautete, ein Cockpit, also eine Übersicht über die Kenn- zahlen zu erstellen, damit die CSV-Abteilungsleitung auf einen Blick den momentanen Stand der Abteilung übersehen kann. Das Cockpit beinhaltet alle vorgegebenen Kennzahlen, angeord- net nach der Balanced Scorecard. Die Kennzahlen, die sich täg- lich automatisch aktualisieren, werden in die Excel-Datei geladen und die Ist-Werte in das Cockpit importiert. Zur besseren Iden- tifikation des momentanen Status wurden Ampeln eingesetzt (siehe Abbildung 3). Des Weiteren erstellten die Verantwortlichen für jede Kennzahl eine eigene Tabelle. Somit kann die CSV-Abteilungsleitung auf Wunsch mittels Pivot-Funktion jede Kennzahl analysieren. Mit diesen sehr performanten und individuellen Analysen (zum Bei- spiel Drill-down) kommt hier ganz deutlich die Stärke von Bu- siness Intelligence zur Geltung. Implementierung, Wartung und Wachstum In der Implementierungsphase präsentierten die Verantwort- lichen Backend und Frontend den Projektsponsoren und dem Lenkungsausschuss, der dem Projekt dann zustimmte. Zur Im- Abb. 3: BI-Frontend (Cockpit)
  • 83.
    Competence Book -Business Intelligence ANWENDUNGEN - PERFORMANCE MANAGEMENT 83 plementierung gehörten das Bereitstellen der notwendigen Zu- gangsberechtigungen für die BI-Anwender, die Systemimple- mentierung, Dokumentationen und Trainings. Sowohl Backend als auch Frontend benötigen Wartungsaktivitäten, die geplant werden müssen. Dabei definierten die Experten im Rahmen des Projekts neue BI-Prozesse, um die Kommunikation mit BI-An- wendern und die Weiterentwicklung des BI-Systems zu gewähr- leisten. Als Verantwortlicher wurde eine neue, interne Rolle ent- wickelt, der „Business Intelligence Specialist“ (BIS). Der BIS dient innerhalb von CSV als Anlaufstelle für alle Fragen rund um das BI. Ergebnis und Ausblick Als Ergebnis des Projekts liegen der Arcondis AG nun Kenn- zahlen und ein BI-System für die CSV-Abteilung vor, die alle vorgegebenen Anforderungen erfüllen. Das System wird von der Abteilungsleitung CSV bereits produktiv verwendet, und ein neues Projektbudget für die Weiterentwicklung der BI wurde vor kurzem von der Geschäftsleitung bewilligt. Mittelfristig soll das BI-System nicht nur abteilungs-, sondern unternehmensweit eingesetzt werden. Das Backend wurde kon- zeptionell bewusst als Enterprise Data Warehouse mit mehreren Layern aufgebaut (Stage, Store und Mart), sodass das Erstellen neuer Data Marts in Zukunft keine komplexe Aufgabe darstellt. Das Projekt zeigt, dass auch kleinere Unternehmen mit sehr be- grenzten IT-Ressourcen eine leistungsfähige und zukunftssichere BI-Infrastruktur aufbauen und betreiben können. Das Wichtigste ist, das BI-System kontinuierlich weiterzuentwickeln, denn Ralph Kimball sagt unmissverständlich: „A BI system is never really finished.“ Projekt: Einführung einer Balanced Scorecard Dauer 3 Monate Aufwand Ressourcen Student (300 Std.) Betreuer (40 Std.) Business (20 Std.) IT (12 Std.) Eingesetzte Tools Microsoft Excel 2010 (Frontend) Microsoft SQL Server 2012 Standard (Backend) Anwender 2 Anwender (aktuell) 12 Anwender (geplant) Tab. 2: Projektdaten [Pro07]  Probst, H.-J.: Balanced Scorecard leicht gemacht: Ziel- größen entwickeln und Strategien erfolgreich umsetzen. 2. Aufl., Heidelberg 2007 [GGD08]  Gluchowski, P. / Gabriel, R. / Dittmar, C.: Mana­ ge­ - ment Support Systeme und Business Intelligence – Computerge- stützte Informationssysteme für Fach- und Führungskräfte. 2. Aufl., Springer 2008 [Kim08]  Kimball, R. et al.: The Data Warehouse Lifecycle Tool- kit. 2. Aufl., Indianapolis: Wiley 2008 [Hae98]  Haedrich, G. et al. (Hrsg.): Tourismus-Management, 3. Aufl., de Gruyter 1998, S. 486 [Mic11]  Microsoft Office 365, 2011 [Internet]. http://community. office365.com/en-us/f/154/p/8112/33521.aspx” l “33521”, http:// community.office365.com/en-us/f/154/p/8112/33521.aspx#33521, abgerufen am 17.5.2012 Quelle: BI-SPEKTRUM Ausgabe 3 / 2013 BI-SPEKTRUM wendet sich an alle für Business Intel- ligence (BI) und Data Warehousing (DW) in Unterneh- men Verantwortlichen, Softwarehäuser und Berater, die solche Systeme entwickeln und implementieren, genauso wie Wissenschaftler, die in dieser Disziplin forschen und entwickeln und damit die Basis für neue Praxisanwendungen liefern. Es informiert seine Leser über alle Trends in diesem Bereich, liefert Anwen- dungsfälle aus der Praxis (Case Studies) und präsen- tiert Meinungen zu aktuellen Themen, sowie Neuigkei- ten für die BI-Community.  Weitere Informationen unter: www.bi-spektrum.eu
  • 84.
  • 85.
    Competence Book -Business Intelligence Case Studies Produktinformationen Branchenübersicht 86 Immobilienhandel (Oracle) Immonet optimiert Analytik und Entscheidungsfindung mit Engineered Systems 88 Informationstechnologie (Microsoft) Ein direkter Draht zum Kunden dank Microsoft BI 90 Metallwarenfertigung (IDL) Wanzl harmonisiert 30 Konzerngesellschaften 92 Finanzbranche (pmOne) Tagetik geleitet Erste Group optimal durch IFRS und FinRep-Vorgaben 96 eCommerce (EXASOL) Zalando optimiert sein Data Warehouse und BI-Funktionen 99 Dienstleistungen (Microsoft) Die Lizenz zum Kosten sparen 101 Diverse Branchen Weitere Case Studies und Produktinformationen unserer Partner 104 Literaturverzeichnis 107 Unternehmensverzeichnis 113 Expertenverzeichnis 124 Veranstaltungsverzeichnis 127 Glossar INHALT 85
  • 86.
    Competence Book -Business Intelligence CASE STUDIES - GESTEIGERTE UMSATZERLÖSE MIT ENGINEERED SYSTEMS VON ORACLE 86 Immonet optimiert Analytik und Entscheidungsfindung mit Engineered Systems und steigert Umsatzerlöse um 200 % HERAUSGEBER: ORACLE Deutschland B.V. Co. KG I mmonet, einesderführenden Immobilienportalein Deutsch- land, bietet Privat- und Geschäftskunden aus einer einzigen Quelle umfassendes, medienübergreifendes Immobilien- marketing mit großer Reichweite - via Printmedien, Internet und anderen digitalen Vermarktungskanälen. Auf das aktuelle On- line-Angebot mit fast 1,5 Millionen privaten und gewerblichen Objekten greifen jeden Monat mehr als 5,2 Millionen Besucher zu (Quelle: Google Analytics, 8/2013). Die Immonet GmbH wur- de im Jahr 2003 gegründet und gehört heute zu den Mediengrup- pen Axel Springer und Madsack. Challenges • Immonet wollte durch die Akquise von zusätzlichen Immo- bilienmaklern seinen Marktanteil auf dem stark umkämpf- ten deutschen Immobilienmarkt ausbauen, auf dem nur 35.000 professionelle Immobilienmakler um Millionen von Kunden werben. • Die Zufriedenheit und Bindung der Immobilienmakler an Immonet sollte durch eine verstärkte Generierung von Ver- kaufskontakten für diejenigen Makler verbessert werden, bei denen die Wahrscheinlichkeit am größten ist, dass sie ihr Immonet-Abonnement kündigen. • Das Nutzererlebnis sollte mit optimierten Angeboten ver- bessert werden, da jeder Immobilienmakler aufgrund seines Kundenpotenzials einen hohen Vermögenswert darstellt und Immonet in ein entsprechendes Leistungsangebot investiert. • Kaufmuster der Kunden wie beispielsweise die zunehmen- de Nutzung mobiler Anwendungen oder das Verhalten von Immobilienmaklern sollten analysiert werden, um das Im- mobilienportfolio zu optimieren. • Nur die wertvollsten Immobilienmakler sollten als Zielgrup- pe angesprochen werden, z. B. Makler, die die meisten oder alle Immobilien ihres Portfolios auf der Immonet-Website anbieten würden und seit langem mit dem Unternehmen zusammenarbeiten. Solutions • Die Immonet GmbH verwendete die leistungsstarke Re- chenkapazität der Oracle Exalytics In-Memory Machine X2-4 - die für die In-Memory-Analyse der Business-Intelli- gence-Auslastung optimiert ist - um die Analyse der Markt- trends, der Kaufmuster von Kunden und des Maklerverhal- tens mit Hilfe von Oracle Business Intelligence Foundation Suite 11g zu optimieren. Das Immobilienportfolio kann jetzt kontinuierlich optimiert werden, um auf Trends zu reagieren. • Die Dauer der Abfragen wurde mit der Oracle Exadata Da- tabase Machine von Tagen bzw. Stunden auf Minuten oder sogar Sekunden verkürzt. In einigen Bereichen des Finanz- berichterstattung konnten Prozesse, die zuvor eine ganze Woche gedauert hatten, binnen weniger Sekunden ausge- führt werden.
  • 87.
    Competence Book -Business Intelligence CASE STUDIES - GESTEIGERTE UMSATZERLÖSE MIT ENGINEERED SYSTEMS VON ORACLE „Dank des Einsatzes der Engineered Systems und Anwendungen von Oracle haben wir unsere Umsätze um 200 % gesteigert und Immonet damit weit nach vorne gebracht.“ – Christian Maar, Vorsitzender der Geschäftsführung, Immonet GmbH 87 Makler mit der höchsten Kündigungswahrscheinlichkeit die Abwanderungsquote dieser Makler um mehr als 50 % re- duzieren – ein wichtiger Wettbewerbsvorteil auf dem deut- schen Immobilienmarkt, der von nur 35.000 professionellen Maklern bedient wird. • Immonet integrierte die Landingpage der Google-Suche mit der selbstlernenden, prädiktiven Modellierung von Oracle Real-Time Decisions, um die Konversionsrate von neuen Immobilienmaklern wesentlich zu verbessern. • Immonet reduzierte die hohen Kosten für die Gewinnung professioneller Immobilienmakler für seine Web-Plattform, indem es mit Hilfe von Business-Intelligence-Daten erfolg- reiche Akquisekampagnen entwickelte - z. B. Kampagnen, die für bestimmte Regionen optimiert wurden. • Alle Abteilungen des Unternehmens wurden in die Lage ver- setzt, Business-Intelligence-Dashboards und Berichte wie z. B. Bedarfsvorhersagen, Mitarbeiterbeurteilungen und Nut- zung mobiler Anwendungen auf einfache Weise selbst zu erstellen, um unternehmensweit den Informationseinblick und die Entscheidungsfindung zu optimieren. • Mit Hilfe von Oracle Business Intelligence Mobile werden den häufig reisenden Führungskräften des Unternehmens täglich um 3 Uhr morgens maßgeschneiderte Analysen auf iPad zugestellt, z. B. die am Vortag getätigten und geschei- terten Kundenabschlüsse. • Mit der Oracle Business Intelligence Suite, Enterprise Editi- on Plus On Demand erhält das Unternehmen direkten Zu- griff auf Management-Ressourcen und Support-Expertise. Auf diese Weise gewährleistet das Unternehmen die bran- chenführende Verfügbarkeit, Zuverlässigkeit und Sicherheit von Oracle Business Intelligence mit niedrigeren Gesamtbe- triebskosten und verbesserter Anlagenrendite. Die vollständige Case Study können Sie hier lesen. • Immonet setzt die Oracle Business Intelligence Foundation Suite 11g ein, um Einblicke in eine Vielzahl von Daten in ei- ner Sortierung nach Regionen und Ortschaften zu erhalten - wie beispielsweise den Typ der Immobilie, das Wohnviertel und die Preisspanne. Dies ermöglichte dem Unternehmen, mit verbesserter Suchmaschinenwerbung die Kundenanfra- gen um 300 % und die Umsatzerlöse um 200 % zu steigern. • Immonet segmentierte seine Kunden in Primärkunden, Standardmakler und Privatkunden, um die wertvollsten Kunden dieser Segmente gezielt ansprechen zu können. Die interaktiven Berichte und Dashboards von Oracle Business Intelligence und die überragende Performance von Oracle Exalytics sorgen für die minutenschnelle Verarbeitung die- ser Daten - eine Aufgabe, die zuvor Wochen in Anspruch genommen hatte. • Immonet konnte mithilfe automatisierter, individuell ange- passter Echtzeit-Empfehlungen von Verkaufskontakten für Über ORACLE: Oracle entwickelt Hardware und Software, die für den Einsatz in der Cloud und im Rechenzentrum optimal aufeinander abgestimmt sind. 380.000 Kunden jeder Größe und Branche setzen in 145 Ländern der Welt Produkte und Lösungen von Oracle ein. Im Fiskaljahr 2013, das zum 31. Mai 2013 endete, erzielte Oracle weltweit einen Umsatz von 37,2 Milliarden US-Dollar. Oracle beschäftigt weltweit 108.000 Mitarbeiter, darun- ter 32.000 Entwickler, 18.000 Support-Mitarbeiter und 17.000 Consulting-Experten.
  • 88.
    Competence Book -Business Intelligence CASE STUDIES - KUNDENBINDUNG DURCH MICROSOFT BI 88 EindirekterDrahtzum KundendankMicrosoftBI HERAUSGEBER: Microsoft Deutschland GmbH D as Internet ist für viele Unternehmen längst zu einem wichtigen Punkt der Verkaufsstrategie geworden. Sei es zur Generierung von Verkaufs-Chancen, zur Steigerung des Umsatzes, zur Erschließung neuer Märkte oder zur Erhö- hung des Bekanntheitsgrads. New Elements GmbH hat sich darauf spezialisiert, innovative Lösungen zu entwickeln, damit Unternehmen das Internet als erfolgreichen und profitablen Vertriebskanal nutzen können. Bisher konnte ein eigentlich hervorragender Ausgangspunkt für den Vertrieb nicht genutzt werden: die Betreuung des Kunden direkt auf der Webseite. Der Internet-Kunde befindet sich bereits in der virtuellen Filiale und interessiert sich für ein Produkt. Er konnte bislang jedoch nicht direkt beraten werden - der Kauf wardem Zufall überlassen. Eine ungenutzte Chance - denn zu welchem Zeitpunkt könnte ein Unternehmen besser mit potenziellen Kunden ins Gespräch kommen als bei einem direkten Besuch der Website? Für Immowelt.de hat New Elements GmbH die Lösung Constel- lation“ entwickelt, die eine virtuelle Kundenberatung in Echtzeit ermöglicht. „Wenn ein Kunde eine Webseite betritt, hinterlässt er verschiedenen Daten. Betrachten wir die Webseite als ein Kauf- haus, welches der Kunde besucht. Sein Verhalten auf der Web- seite lässt Rückschlüsse darauf zu, wer er ist und was ihn dar- über hinaus interessiert. Diese von ihm hinterlassenen Spuren können mittels unserer Lösung nun in Echtzeit ausgewertet und in kürzester Zeit darauf reagiert werden“, erklärt Atasoy Altinci, Geschäftsführer, New Elements GmbH. Die New Elements Suite besteht aus drei Komponenten, die zu einem einzigartigen Gesamtkonzept verbunden wurden. Die Sui- te wird grundsätzlich als „Software as a Service (SaaS)“ vertrie- ben. Bei Bedarf sind auch Inhouse-Lösungen mit individuellen Anpassungen möglich. Das Datenmanagement erfolgt mittels des SQL Servers 2012. Dies ermöglicht der Immowelt AG eine umfangreiche Datenermittlung. Die von New Elements GmbH entwickelte Lösung liegt in der Cloud und nutzt die Windows Die Immowelt AG ist der führende IT-Komplettanbieter für die Immobilienwirtschaft und beschäftigt derzeit mehr als 270 Mitarbeiter. Die Softwarelösungen der Immowelt AG sind in der Branche weit verbreitet und genießen einen ausgezeichneten Ruf. Um in Echtzeit und auf der Basis von unterschiedlichen Daten auf individuelle Kundenbedürfnisse einge- hen zu können, suchte Immowelt AG eine intelligence Web Analytics-Lösung mit Business Intelligence-Funktionalitäten, die gleichzeitig personalisierte Online-Beratung ermöglicht.
  • 89.
    Competence Book -Business Intelligence CASE STUDIES - KUNDENBINDUNG DURCH MICROSOFT BI 89 Möglichkeit, Kunden auf der Webseite direkt anzusprechen, ist für uns also eine enorme Innovation. Sie wird langfristig für uns der Weg sein, Kundenbeziehungen nachhaltig aufzubauen und zu pflegen.“ „Außerdem setzen wir seit Jahren auf Microsoft Pro- dukte“, fügt er hinzu. Immowelt sei mit dieser Partnerschaft sehr zufrieden und habe nur gute Erfahrungen gemacht. „Die Lösung ließ sich problemlos in die bestehende IT Infrastruktur integrie- ren.“ Weitere Referenzen finden Sie hier. Azure Plattform. „Wir sehen den Mehrwert einer Cloudlösung eindeutig in ihrer Skalierbarkeit und Verfügbarkeit - und das bei geringen Kosten“, betont Atasoy Altinci. „SiteAnalyst“ ist die Web Analytics-Komponente und dient zur Erfolgsmessung von On- line-Marketingmaßnahmen. Unternehmen können damit die Ef- fektivität von Webauftritten und Online-Initiativen analysieren und die Website im Hinblick einer Zielerreichung (z.B. Häufig- keit von Besuchen, Bestellungen) optimieren. Die Komponente zeigt alle aktuellen, in Echtzeit stattfindenden Aktivitäten auf der Webseite an. Einzusehen sind Daten wie der „eingegebene Such- begriff“, „Herkunft“ und „Klickverlauf“. Ausgestattet mit diesem Wissen können ausgewählte Besucher gezielt angesprochen und unkompliziert beraten werden. Die Kontaktaufnahme kann da- bei zum Beispiel mittels eines dynamischen Live Chats erfolgen. „Dynamic Chat“ ermöglicht die Online-Beratung von Inter- netbesuchern auf Basis von Web Analytics-Daten. In Echtzeit werden die Besucher visualisiert. Der Informationsanspruch eines Web-Besuchers wird anhand seines eingegebenen Such- begriffs (z.B. Städtereise) und der aufgerufenen Unterseiten (Klick-Verlauf) ermittelt. Daten über seine Herkunft (Suchma- schine, Werbebanner und geografische Hinweise) ergänzen das Bild des Interessenten. Ausgestattet mit diesem Wissen können ausgewählte Besucher gezielt mit Chat-Funktionalitäten ange- sprochen, schnell und unkompliziert beraten werden, um letzte Zweifel beim Buchungsvorgang aus den Weg zu räumen. Eine Online-Beratung kann auch vom Besucher selbst gestartet wer- den, durch Klick auf entsprechende Kontaktformulare auf der Webseite. Die zielgenaue Besucheransprache im Web verstärkt nachhaltig die Kundenbindung und steigert die Konversionsrate. Neben der Online-Beratung erhöht die Bereitstellung passge- nauer Informationen (Dynamic Content) auf der Webseite die Verkaufschancen. Dies können Produktvorschläge, Sonderan- gebote oder die Kontaktdaten des regionalen Ansprechpartners sein. „Wir können Produktvorschläge, Sonderangebote und An- sprechpartner gezielt kommunizieren. Der Besucher sieht eine individuell auf ihn zugeschnittene Webseite“, betont Ulrich Gros, CFO, Immowelt AG. Für ihn ist die neue Lösung von New Ele- ments ein wichtiger Schritt, um eine persönlichere Beziehung zum Kunden aufzubauen und kundenorientierte, passgenauere Informationen auf der Website bereit zu halten. „Kundenbezie- hungen stehen bei Immowelt strategisch im Fokus. Die neuartige Über Microsoft: Microsoft schöpft aus der eigenen Erfahrung als Betreiber von Big-Data-Plattformen wie Skype, Bing und Xbox. Die integrierte Plattform von SQL Server und Office vereinfacht den Einsatz von Business Intelligence und Big Data on-premise und in der Hybrid Cloud und die intuitive Erstel- lung fundierter Prognosen in Echtzeit. „Die Möglichkeit, die aktuelle Situation auf unserer Website einsehen zu können, bietet uns eine völlig neuartige Form der Kundenbetreuung.“ - Ulrich Gros, CFO Immowelt AG
  • 90.
    Competence Book -Business Intelligence CASE STUDIES - INTEGRIERTE SOFTWARELÖSUNG VON IDL 90 Wanzlharmonisiert30 Konzerngesellschaften Das traditionsreiche Unternehmen Wanzl hat sich in den letzten Jahrzehnten von der ur- sprünglichen Metallwarenfabrik zum global agierenden Partner internationaler Handelsket- ten entwickelt. Nach einer strategischen Umstrukturierung des Unternehmens stand das Controlling vor der Aufgabe, das Berichtswesen konzernweit zu standardisieren. HERAUSGEBER: IDL GmbH Mitte W anzl wollte Planung und Reporting seiner 30 inter- nationalen Konzerngesellschaften in einheitlichen Strukturen durchführen, und zwar durchgängig von der operativen Vertriebsplanung bis zur Konsolidierung. Eine moderne Berichtsplattform sollte Berichte auf Excel-Basis ablö- sen und die dezentralen Berichtsprozesse unterstützen. Vor der Software-Auswahl führte Wanzl eine umfangreiche Be- darfs- und Marktanalyse durch. Da die meisten Konzerngesell- schaften mit SAP arbeiten, war die Integrationsfähigkeit des neuen Systems in SAP ein wichtiges Kriterium. Nach sorgfältiger Evaluierung und der Installation von Prototypen entschied sich das Projektteam für die Produktreihe von IDL, mit der Wunsch- kombination der Abteilungen Rechnungswesen und Controlling: IDLKONSIS für die Konsolidierung und eine BI-Lösung mit dem IDLCOCKPIT für die operative Planung und das Reporting. Paralleler Aufbau von Reporting und Konsolidierung Die Umsetzung von Konsolidierung und Reporting hat Wanzl parallel gestartet. Zusammen mit Beratern von IDL arbeiteten Mitarbeiter aus den Abteilungen Beteiligungen und Controlling an der Systemkonzeption und Implementierung. Vor der Syste- meinführung wurden bereits gute Grundlagen geschaffen: Auf Basis eines durchdachten betriebswirtschaftlichen Ansatzes und eines ausgefeilten Pflichtenheftes konnte die Implementierung zügig im praxisorientierten Prototyping-Verfahren umgesetzt werden. IDL übernahm dabei die Anbindung von SAP als Datenquelle. Die Datenextraktion erfolgt zum Teil über die SAP-Standard- schnittstelle des IDLIMPORTERS und zum Teil über individuell programmierte Interfaces. Einige kleinere Gesellschaften, die SAP nicht im Einsatz haben, liefern ihre Daten in Excel-Sheets an. System für Fachanwender Die Quelldaten laufen in einem Data Warehouse auf Basis des Microsoft SQL Servers zusammen und werden im leistungsfä- higen OLAP Server IBM Cognos TM1 für Planung, Analyse und Reporting bereitgestellt. Beim Aufbau des analysefähigen Da- tenmodells war die Überführung der SAP-Kundenstrukturen in die individuellen Kundenstrukturen von Wanzl ein besonderer Schwerpunkt. Die Anpassung des Datenmodells ist auch im lau- fenden Systembetrieb kein Problem: Die zuständigen Fachan- wender können Basiselemente wie Kundenstrukturen eigenstän- dig verwalten und diese, beispielsweise bei organisatorischen Änderungen, einfach selbst aktualisieren. Als wesentliche Anfor- derung an die neue Berichtsumgebung stand von Anfang an fest: Der adressierte Nutzerkreis in allen operativen Einheiten sollte weltweit über ein einziges Frontend auf Planung, Reporting und Analyse zugreifen können. Dies hat Wanzl mit dem IDLCOCK- PIT erreicht. Rund 150 Personen aus der Geschäftsführung und den Bereichen Controlling, Finanzen und Vertrieb der 30 Gesell- schaften rufen ihre Berichte mit dem einfach zu bedienenden BI-Frontend ab, führen ihre Analysen damit durch und geben ihre Plandaten in der einheitlichen Berichtsumgebung ein.
  • 91.
    Competence Book -Business Intelligence CASE STUDIES - INTEGRIERTE SOFTWARELÖSUNG VON IDL 91 teinsparung, sondern die verbesserte Qualität von Planung, Reporting und Konsolidierung. Bereits nach dem ersten Planungsdurchlauf war klar: Das Ziel wird erreicht. Die weltweit einheitliche, detaillierte Planung über den ge- samten Konzern erhöht die Planungsqualität und Planungssicherheit, und die unterneh- mensweite Standardisierung von Planung und Reporting sorgt für konsistente Kennzahlen, über die im Konzern nicht mehr diskutiert wird. Das integrierte System unterstützt den Controlling-Regelkreis durchgängig von der operativen Vertriebsplanung bis zur rechtssi- cheren Konzernkonsolidierung. Das transpa- rente Berichtswesen ist damit über alle Ebenen nachvollziehbar und liefert zuverlässige Infor- mationen für die Unternehmenssteuerung. Skalierbar und zukunftssicher Die Reporting-Plattform ist flexibel erweiterbar und passt sich an neue Anforderungen im Kon- zern an. Nächste Ausbaustufen stehen bereits auf dem Plan. Wanzl will die Datenbasis um statistische Kennzahlen erweitern und weitere steuerungsrelevante KPIs einführen. Auch der Ausbau der Finanz- und Liquiditätsplanung sowie der strategischen Planung stehen an. Die integrierte Berichtslösung wächst problemlos mit dem Unternehmen mit und ist damit zu- kunfts- und investitionssicher. Die globale Anbindung der Anwender ist über VDI-Clients von VMware realisiert. Die Abbildung als Virtual Desktop Infrastructure sorgt für die stabile und perfor- mante Verfügbarkeit sowie die effiziente Wartung der weltweiten Anwendung. Integrierte Lösung für Rechnungswesen und Controlling Fachlich bildet die integrierte Lösung ein komplexes betriebswirtschaftliches Modell ab. Kern der BI-Plattform ist die dezentrale operative Vertriebs- und Gesamtkostenplanung, in die alle 30 Konzerngesellschaften einbezogen sind. Die Zahlen der entstehenden Plan-GuV werden zur Plankonsolidierung an IDLKONSIS übergeben, und die für Planung und Reporting benötigten Werte der konsolidierten Plan-GuV dann wiederum aus dem Konsolidierungssystem in die BI-Lösung zurückgespielt. Auf diese Weise sind durchgängige Zahlenströme mit konsistenten Berichtsstrukturen und validen Kennzahlen in allen Berichtspha- sen gewährleistet. Auch hinsichtlich verschiedener Berichtsperspektiven geht das stimmige Konzept auf. Das gesamte Berichtswesen ist im dualen Wertansatz darge- stellt: Legale Sicht und Konzernsicht sind parallel im System abgebildet und kön- nen durch alle Aggregationsstufen nachvollzogen werden. Für die Herstellungs- kosten gibt es beispielsweise zwei Bewertungsansichten, die ihren Wertbeitrag zum Gesellschaftsergebnis aus Sicht der legalen Berichterstattung und zum Grup- penergebnis aus Sicht der Konzernorganisation darstellen. Neben der GuV-Sicht wird zudem eine vertrieblich orientierte Geschäftsbereichsergebnisrechnung für die fünf Geschäftsbereiche von Wanzl geführt, die alle internen Werteflüsse bis hin zur Produktion berücksichtigt.In der zeitlichen Perspektive sind Reporting und Planung bis auf Monatsebene abgebildet. Wanzl erstellt neben der Jahresplanung drei Forecasts pro Jahr. Geplant werden Außenumsätze bzw. Mengen, während die Innenumsätze auf Basis von Referenzzahlen aus den Vorjahren im System automa- tisch ermittelt werden. Effektives Berichtswesen durch konzernweite Standardisierung Die Berichtsplattform automatisiert Routinen wie Datenübernahmen, was manu- elle Tätigkeiten bei Berichtsprozessen einspart und Übertragungsfehler vermeidet. Im Fokus der Implementierung standen jedoch nicht Beschleunigung oder Zei- „Mit IDL haben wir die konzernweite Standardisierung unseres Berichtswe- sen realisiert, von Montreal bis Mel- bourne und von der operativen Ver- triebsplanung bis zur konsolidierten Plan-GuV.“ - Erwin Ohnmacht, Leiter IT Controlling bei Wanzl
  • 92.
    Competence Book -Business Intelligence CASE STUDY TAGETIK pmOne UND ERSTE GROUP 92 Tagetik geleitet Erste Group optimal durch IFRS und FinRep-Vorgaben AUTOR: pmOne AG Die Lösung im Überblick Abstimmung konzerninterner Verflechtungen möglichst rei- bungslos in den Konsolidierungsprozess einzubinden. Prozessunterstützung, klare Zuordnung von Verantwortlichkei- ten und mehr Transparenz waren weitere wichtige Punkte für Barbara Kainz, die Leiterin Group Consolidation und zugleich fachliche Projektleiterin bei der Einführung der neuen Konso- lidierungslösung. Bis es soweit war, fand ein Auswahlprozess mit verschiedenen Anbietern statt. Dass sich Tagetik an dessen Ende gegen den Hauptkonkurrenten SAP durchsetzen konnte, lag nicht nur am besseren Preis-Leistungsverhältnis. Auch in Sachen Beratungsleistung konnte das Team von pmOne/Tage- tik mit seinem speziellen Fokus auf Financial Services punkten. Barbara Kainz: „Bei pmOne/Tagetik fühlten wir uns nicht nur fachlich, sondern auch als Finanzdienstleister verstanden, weil die Berater ganz genau wussten, was FinRep und Basel III bedeu- ten. Auf dieser Grundlage haben wir das Projekt partnerschaft- lich und schnell realisiert.“ Für ihre Kollegen aus der benach- barten Controlling-Abteilung stand hingegen im Vordergrund, Segmentberichterstattung und Legalkonsolidierung in Einklang zu bringen. Hier konnte Tagetik als einheitliche Anwendung überzeugen, die zudem über spezielle Funktionen für die Segm- entberichterstattung verfügt. Auch die IT-Abteilung sprach sich für Tagetik aus, nachdem es bei einem technischen Bewährungs- test darum gegangen war, die neue Software in die IT-Umgebung der Erste Group einzugliedern. Im Mai 2012 war das Projektteam aufgestellt und startbereit. Ne- ben den beiden Fachabteilungen und den Beratern von pmOne/ Tagetik war auch die IT der Erste Group ein wichtiger Bestandteil der Mannschaft. Deren Aufgabe bestand darin, die Gesellschaf- ten und Netzwerkbanken an das System anzubinden und dafür Sorge zu tragen, dass dabei die bankenspezifischen Sicherheits- vorschriften eingehalten werden. Bis die neue Lösung internati- onal ausgerollt und die Netzwerkbanken der Erste Group ange- bunden waren, ist von der Konzeption über Implementierung, Altdatenübernahme und Anwenderschulungen bis zum Go-Live weniger als ein Jahr vergangen. Bereits der Jahresabschluss 2012 konnte parallel in Tagetik erstellt werden; im Januar 2013 ist die Konsolidierung dann vollends auf die neue Software umgestellt worden. Erweiterung des Reporting um Segmentberichte und Risi- koinformationen Mit Tagetik wurde bei der Erste Group ein neues, konzernum- fassendes System auf gesetzt, an das die Konzerngesellschaften angebunden sind und über das sie ihre Daten-Packages an die
  • 93.
    Competence Book -Business Intelligence CASE STUDY TAGETIK pmOne UND ERSTE GROUP 93 Zentrale senden. Es lassen sich damit schnell und flexibel Konzernabschlüsse auf unterschiedlichen Ebenen erstellen. Bei 700 Einzelgesellschaften hat es sich zudem als zweckmäßig erwiesen, Daten- abgleiche innerhalb der Gruppe in einem frühen Stadium vorzunehmen und Un- stimmigkeiten nicht erst am Ende des Prozesses auf Konzernebene auszutragen. Eine wichtige Komponente der neuen Lö- sung ist des halb das IC-Matching-Cock- pit, über das sich die konzerninternen Verflechtungen bei der Konsolidierung frühzeitig und direkt zwischen den be- treffenden Einheiten abstimmen lassen. Auch Subkonsolidierungen für verschie- dene Geschäftsbereiche werden in Ta- getik verwaltet, darunter sehr komplexe Systeme wie das der für Immobilien- und Infrastrukturfinanzierungen zuständi- gen Erste Group Immorent AG oder der tschechischen Tochtergesellschaft Česká spořitelna. Insgesamt ist das fachliche Spektrum, das Tagetik abdeckt, um Eini- ges breiter als das des Vorgängersystems. Wesentlich erweitert hat sich der Umfang des Reportings. Neben der Segmentbe- richterstattung werden mittlerweile auch risiko- bzw. aufsichtsrechtlich relevante Informationen abgefragt. Doch mit der Einführung einer neuen Konsolidierungslösungwares nichtgetan. Vielmehr nutzte die Erste Group die Um- stellung auf Tagetik zugleich, um struktu- relle Änderungen im Konzern vorzuneh- men, Prozesse neu aufzusetzen und den Informationsfluss sauber aufzubauen. All das waren notwendige Maßnahmen, um vor dem Hintergrund ständig neuer An- forderungen an die Banken möglichst ef- fizient und schnell agieren und reagieren zu können. Die Umstellung der Prozesse sei angesichts der zahlreichen Beteiligten ein großer Kraftakt gewesen, berichtet Projektleiterin Kainz. Positiv überrascht gewesen sei sie hingegen darüber, wie rei- bungslos die eigentliche Einführung der neuen Software verlaufen sei. Mehr Eigenverantwortlichkeit für die Tochtergesellschaften Die Tochtergesellschaften hatten binnen kurzer Zeit eine Reihe von Neuerungen zu verkraften. Sie werden im Zuge der Umstellung mehr in die Pflicht genom- men als zuvor und zugleich in ihrer Ei- genverantwortlichkeit gestärkt. Hatten sie bislang mit der Anlieferung der Daten auch ihre Verantwortung dafür abgege- ben, sind sie heute in den Gesamtprozess miteingebunden. Das bedeutet zum ei- nen, dass sie für Datenbeschaffung und -upload, Datenübermittlung und Inter- company-Abstimmung zuständig sind und sich zudem mit Validierungsregeln auseinandersetzen müssen. Andererseits eröffnet ihnen die Anbindung an das Sys- tem neue Möglichkeiten, denn sie können – ebenso wie die Zentrale – jederzeit den Verlauf und Fortschritt des Konsolidie- rungsprozesses verfolgen. Insbesondere in der Umstellungsphase gab es einen hohen Abstimmungsbedarf unter den Gesellschaften, und die Zentrale hatte ei- Über Tagetik Gegründet 1986, ist Tagetik ein etablierter Anbieter von Performance Manage- ment und Business Intelligence Software. Tagetik ist eines der weltweit am schnellsten wachsenden Unternehmen im Markt für Performance Manage- ment Software. Von Analysten oft als visionär, klar fokussiert und innovativ charakterisiert, unterscheidet sich Tagetik von der Konkurrenz durch seine ein- zigartige Fähigkeit, viele komplexe Geschäftsprozesse für große und kleine Organisationen in einer einzigen Software-Lösung zu vereinfachen. Mit über 20 Standorten und 550 zufriedenen Kunden weltweit ist Tagetik ein wachsendes, globales Unternehmen, das immer noch stolz darauf ist, wie eine „globale Boutique“ zu handeln: Service, Aufmerksamkeit und Innovation, die Sie von einer Boutique erwarten, sind bei uns gepaart mit dem umfassenden Wissen und der notwendigen Skalierbarkeit, um auch den Bedürfnissen der weltweit größten Unternehmen gerecht zu werden. „MitTagetik haben wir dieVoraussetzungen geschaf- fen, um erstmals innerhalb der Gruppe klare Verant- wortlichkeiten zuzuweisen.“ - Barbara Kainz, Leiterin Group Consolidations, Erste Group
  • 94.
    Competence Book -Business Intelligence CASE STUDY TAGETIK pmOne UND ERSTE GROUP 94 niges an Überzeugungsarbeit zu leisten, aber: „Mit Tagetik ha- ben wir die Voraussetzungen geschaffen, um erstmals innerhalb der Gruppe klare Verantwortlichkeiten zuzuweisen“, konstatiert Barbara Kainz. Gruppenweit einheitliche Konsolidierungsstandards Auch wenn die Umstellung zunächst einmal mit Mehraufwand für alle Beteiligten verbunden war, hat die Projektleitung insbe- sondere aus den Teilkonzernen positives Feedback bekommen. Statt sich wie bisher mit Excel zu behelfen, steht den Verant- wortlichen dort mit Tagetik nun ein komfortables System zur Verfügung, das sie beim Konzernabschluss unterstützt. Für das zentrale Group Accounting indes zahlt sich die Mühe durch mehr Transparenz aus. Jederzeit in Buchungen einblicken und den Prozess, zum Beispiel bei der Konsolidierung von Teilkon- zernen, verfolgen zu können, ist ein riesiger Fortschritt. Als Ge- winn wertet es das zentrale Rechnungswesen ferner, dass nun bei der Konsolidierung gruppenweit einheitliche Formate und Vorgaben gelten, die zudem überprüfbar sind. Die ersten Erfolge haben sich also eingestellt. Dennoch sieht das Team um Barbara Kainz noch Potenzial, um die vielfältigen Möglichkeiten, die sich mit Tagetik bieten, besser auszunutzen. Zum Beispiel soll das interne Berichtswesen dahingehend aus- gebaut werden, dass erstmals Teilkonzerne untereinander vergli- chen werden – dank einheitlicher Strukturen und Definitionen stellt dies systemtechnisch nun kein großes Problem mehr dar. Auch das Thema Disclosure Management soll in naher Zukunft angegangen werden. Ziel ist es hier, die in Tagetik vorhandenen Informationen so aufzubereiten, dass sich daraus direkt der Ge- schäftsbericht produzieren lässt. Nicht zuletzt steht die Erfas- sung und Konsolidierung von Budget- und Forecast-Daten an. Selbst wenn FinRep nun definitiv in 2013 nicht mehr zum Tragen kommt, sieht sich die Erste Group mit der flexiblen Finanzsoft- ware von Tagetik gut gerüstet. Externe Forderungen, die früher zu Kopfzerbrechen geführt haben – wie zum Beispiel die Anlie- ferung neuer Teilkonzern- oder Konzernabschlüsse – können die Mitarbeiter des Group Accounting mittlerweile nicht mehr so leicht aus der Ruhe bringen. Wie würde die Gruppe aussehen, wenn wir fünf Gesellschaften weniger hätten? Auch internen Anfragen wie dieser fühlt sich Barbara Kainz heute gewachsen: „Das System ist sehr flexibel. Wo wir früher bei Ad-hoc-Anfragen auf Schätzungen angewiesen waren oder die Beantwortung mit großem manuellen Aufwand verbunden war, können wir heute schnell liefern.“ Über die Erste Group: Die Erste Group wurde 1819 als die „Erste österreichi- sche Spar-Casse“ gegründet. Im Jahr 1997 ging sie mit der Strategie, ihr Retailgeschäft in die Wachstumsmärk- te Zentral- und Osteuropas (CEE) auszuweiten, an die Wiener Börse. Seither hat die Erste Group mehr als zehn Banken akquiriert und ihre Kundenanzahl von 600.000 auf rund 16,6 Mio. erhöht. Mehr als 99 Prozent der Kunden le- ben innerhalb der Grenzen der EU. Die EU-Mitgliedschaft gibt den Ländern der Region einen stabilen rechtlichen Rahmen, der ihre wirtschaftliche Entwicklung unterstützt. Gegenwärtig ist die Erste Group einer der größten Finanz- dienstleister in CEE. Zu den Kernaktivitäten der Erste Group gehören neben der traditionellen Stärke im Privat- kundengeschäft auch die Beratung und Unterstützung von Firmenkunden bei Finanzierungs-, Veranlagungs- und Ab- sicherungsfragen sowie beim Zugang zu den internationa- len Kapitalmärkten, Finanzierung des öffentlichen Sektors und Aktivitäten am Interbankenmarkt. www.erstegroup.de „Bei pmOne/Tagetik fühlten wir uns nicht nur fachlich, sondern auch als Finanz- dienstleister verstan- den, weil die Berater ganz genau wussten, was FinRep und Ba- sel III bedeuten.“ - Barbara Kainz, Leiterin Group Consoli- dations, Erste Group
  • 95.
    Competence Book -Business Intelligence CASE STUDY TAGETIK pmOne UND ERSTE GROUP „Das System ist sehr flexibel. Wo wir früher bei Ad-hoc-Anfragen auf Schätzungen an- gewiesen waren oder die Beantwortung mit großemmanuellenAufwandverbundenwar, können wir heute schnell liefern.“ - Barbara Kainz, Leiterin Group Consolidations, Erste Group 95 Über die pmOne AG: Die 2007 gegründete pmOne AG ist ein Software- und Beratungsunternehmen mit Lösungsangeboten zum Thema Business Intelligence und Big Data. Dafür wer- den die technologischen Plattformen von Microsoft und SAP um die eigenentwickelte Software cMORE ergänzt. cMORE hilft Anwendern unter anderem da- bei, skalierbare Lösungen für Reporting und Analy- se schnell aufzubauen, effizient zu betreiben und zu erweitern. Mit Tagetik vertreibt und implementiert die pmOne AG eine weltweit führende Softwarelösung für Unternehmensplanung und Konsolidierung. Zur pmOne-Gruppe gehört die MindBusiness GmbH, die auf SharePoint-Lösungen und Dienstleistungen für Of- fice-Rollouts spezialisiert ist. Die pmOne AG hat über 200 Mitarbeiter und ist an acht Standorten in Deutsch- land, Österreich und der Schweiz vertreten.
  • 96.
    Competence Book -Business Intelligence CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN 96 Zalandooptimiertsein Data Warehouse und BI-Funktionen Steigende Kundenzahlen und Transaktionsvolumina forderten das Data Warehouse von Zalando heraus. Mit einer In-Memory- Hochleistungsdatenbank „made in Germany“ be- schleunigt der Online-Retailer nun seine Analysen und Reports. HERAUSGEBER: EXASOL AG V om Online-Buchverkäufer zum elektronischen Wa- renhaus – Amazon hat es vorgemacht. Trotz etlicher Vorbehalte, denn Einkaufen, ohne die Ware vorher in den Händen gehalten zu haben, wurde kritisch gesehen. Diese Hemmschwelle galt lange Zeit auch bei Web-Shops für Kleidung und Schuhe. Außerdem schien die drohende Rücksendewel- le eine zu große Herausforderung. 2008 ging Zalando als erster deutscher Online-Schuhhandel ins Rennen. Seit der Gründung ist das Unternehmen sehr schnell gewachsen und gehört heute zu den größten Web-Shops in Deutschland. Herausforderung Zalando arbeitet derzeit mit über 1.000 Markenherstellern zu- sammen. Das Sortiment wurde sukzessive erweitert und umfasst 100.000 Produkte aus den Sparten Schuhe, Fashion, Beauty, Sport und Wohnen. Darüber hinaus bietet der Online-Retailer seinen Kunden attraktive Sonderaktionen und Zusatz-Services wie kos- tenlose Lieferungen und einegarantierte Rückgabefristvon bis zu 100 Tagen für alle Waren. Dem Kunden soll jederzeit ein optimal auf seine Vorlieben abgestimmtes Einkaufserlebnis geboten wer- den. Der stetige Expansionskurs des Unternehmens spiegelt sich in einem ebenso schnell ansteigenden Datenvolumen wider. Seit Mitte 2010 ist das Data Warehouse von Zalando um den Faktor fünf gewachsen. Dadurch entstehen immer komplexere Anforde- rungen an die IT-Infrastruktur – insbesondere an die eingesetzte Datenbank-Lösung. Alleine durch die Bestellinformationen ent- stehen Unmengen an Daten, die sinnvoll verwaltet und schnell ausgewertet werden müssen. Um sämtliche Transaktionen mit Kunden, Lieferanten und Logistikdienstleistern reibungslos zu gestalten, benötigt das Unternehmen durchgängige Prozesse und standardisiert konsistente Daten zu Produkten, Beständen, Aufträgen, Kunden und Lieferungen. Über interne Analysen und Reportings generiert Zalando daher ununterbrochen Informati- onen über Nutzerverhalten, verkaufte Artikel oder Rücksende- quoten. Diese dienen als Grundlage für die zeitnahe Sortiments- gestaltung und Anpassungen des Web-Shop-Designs. Aber auch die dezentrale Lagerhaltung und die Lieferanten- und Kunden- abwicklung werden auf Basis der Auswertungen fortlaufend opti- miert. Die Data-Warehouse-Management-Lösung, die bisher im Einsatz war, erbrachte nicht mehr die Leistung, die für Analysen und das Reporting bei Zalando notwendig ist. Zum einen lief die Datenbereitstellung nicht reibungslos, andererseits zeigte sich gerade in den Lastspitzen, dass die Auswertungen insgesamt zu viel Zeit in Anspruch nahmen. Dies wurde beispielsweise an Montagen deutlich, wenn die Daten des gesamten Wochenendes ausgewertet werden müssen. Hinzu kamen hohe Lizenz- und Wartungskosten. Suche und Auswahl Die für den Bereich Business Intelligence (BI) Verantwortlichen bei Zalando suchten eine Datenbank, die problemlos mit der zu analysierenden Datenmenge mitwächst und sich einfach in die bestehende IT-Infrastruktur integrieren lässt. Nach einem intensiven dreiwöchigen Proof of Concept fiel ihre Wahl auf EXASolution. Die Hochleistungsdatenbank wurde speziell für zeitkritische komplexe Analysen entwickelt und bildet somit die passende Basis für die Business-Intelligence-Infrastruktur des Unternehmens. Bei der Entscheidung für die In-Memory-Lösung der Nürnberger EXASOL AG waren vorallem die Ausbaufähigkeit des Systems sowie die Möglichkeit, Rohdatenanalysen in Echt- zeit – auch während Lastspitzen – durchführen zu können, aus- schlaggebend. Weitere Gründe waren das sehr gute Preis-Leis- tungsverhältnis sowie der geringe Administrationsaufwand.
  • 97.
    Competence Book -Business Intelligence CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN 97 Technik Für die Leistungsfähigkeit der neuen Da- tenbank ist die Kombination aus In-Me- mory-Technologie, massiv paralleler und spaltenbasierter Datenverarbeitung aus- schlaggebend. Mit der In-Memory-Clus- ter-Technologie in Kombination mit effi- zienten Kompressions-Algorithmen kann das System das große Datenvolumen von Zalando hochperformant verarbeiten. Bei lesenden Anfragen erfolgt die Verarbei- tung weitestgehend im RAM, wodurch der langsamere Zugriff auf Festplatten minimiert wird. Schreibende Operationen werden redundant auf Disks gespeichert. So gehen auch bei Hardware-Ausfall kei- ne Daten verloren. Anhand der Anfragen bestimmt die Datenbank selbständig, welche Daten im Hauptspeicher gehal- ten werden. Selten genutzte Daten wer- den bei Bedarf einfach nachgeladen bzw. wieder verdrängt. Im Gegensatz zu reinen Caching-Verfahren sind die zugrundelie- genden Algorithmen auf den schnellen Hauptspeicherzugriff optimiert, wodurch dieser besser ausgenutzt werden kann. So werden Performancegewinne bis zu Fak- tor 1000 bei bestehenden Abfragen (POC) erzielt und die Systemkosten zudem nachhaltig gesenkt. Im Gegensatz zu her- kömmlichen Datenbanksystemen orga- nisiert EXASolution Informationen spal- tenorientiert. Dadurch reduzieren sich der Speicherverbrauch und die benötigte Disk-Bandbreite, falls Daten nachgeladen werden müssen. Dank der Uniformität der Daten innerhalb einer Spalte verbessert sich auch die Kompression, die Datenbank wähltvollautomatisch für jeden Inhaltden günstigsten Algorithmus aus. Ein weiterer Unterschied zu konventionellen Systemen ist, dass EXASolution die verteilte Daten- speicherung bereits integriert hat. Somit entfällt ein teures Storage Area Network (SAN) als externe Speicherlösung. Da für die EXASOL-Cluster Standard-Hardware genutzt wird, fällt diese Variante zumeist sehr günstig aus. EXASolution ist ein tuningfreies, sprich selbstlernendes Sys- tem, das sich an die Nutzungsgewohn- heiten anpasst. Indizes werden automa- tisch verwaltet. Daten komprimiert und SQL-Anweisungen vom Query-Optimizer getunt. Auf diese Weise bewältigt das Un- ternehmen die steigenden analytischen Anforderungen und gleichzeitig werden Freiräume für Neuentwicklungen und administrative Aufgaben geschaffen. Die wichtigsten Ressourcen werden ständig überwacht und Zusammenfassungen über verschiedene Systemtabellen bereitge- stellt. Für den Hauptspeicherausbau wird die Empfehlung gegeben, wie das aktuelle Nutzungsprofil optimal abgedeckt werden könnte. Implementierung EXASolution ist seit Ende Dezember 2011 bei Zalando produktiv im Einsatz. Zalan- do konnte die neue Technologie innerhalb von knapp zwei Wochen komplett in die bestehende Infrastruktur einbinden. Über native Lade-Schnittstellen zu bestehen- den Datenbanken konnte EXASolution problemlos als Analyse-Layer integriert werden, auf dem nun alle Auswertungen über SAP Business Objects laufen. Die In-Memory-Hochleistungsdatenbank
  • 98.
    Competence Book -Business Intelligence CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN 98 läuft auf Standard-Hardware von HP. Die- se war zum Großteil bereits vorhanden und wird in einem Rechenzentrum von O2 betrieben. Das System besteht aus 2+1 einzelnen Servern, die zu einem Cluster zusammen geschlossen werden, in dem die Daten automatisch verteilt werden, so dass sich bei Berechnungen sämtli- che Hardware-Ressourcen optimal nut- zen lassen. Einer der Rechner wird dabei als Hot Standby verwendet. Etwa 1/3 des RAM werden von der EXASolution ver- wendet, der Rest steht für das Betriebs- system und Erweiterungen zur Verfügung. Das System bietet genug Spielraum für zukünftiges Wachstum und kann jeder- zeit beliebig um weitere Server vergrößert werden. Als Frontend nutzt Zalando SAP Business Objects. Dank der mitgelieferten Standard-Treiber (ODBC, JDBC) verlief die Integration in die vorhandene BI-In- frastruktur und die Anbindung an beste- hende ETL-Prozesse reibungslos. Da auch das vorhandene Datenmodell beinahe 1:1 übernommen werden konnte, waren im Frontend kaum Anpassungen nötig. Lizenzmodell Bei EXASolution bezahlt der Kunde nur das, was er tatsächlich benötigt. Das Li- zenzmodell beruht auf dem für die Da- tenbank konfigurierten Hauptspeicher – unabhängig davon, auf welcher Hard- ware, mit wie vielen Benutzern auf wie viele Rohdaten zugegriffen wird. Bei der Kostenbetrachtung ist in der Regel die TCO (Total Cost of Ownership) über 3 bzw. 5 Jahre entscheidend, bei der neben den reinen Anschaffungskosten auch Be- triebskosten wie Wartungsgebühr und Administrationsaufwände mit einberech- net werden. Resultate Zalando gewinnt durch die neue Daten- banklösung mehr Flexibilität. Laut eige- ner Angabe können seit der Einführung der neuen Datenbankmanagementlö- sung selbst komplexe Anfragen schneller verarbeitet und noch präzisere Analysen durchgeführt werden. Zudem wird die Prozessentwicklung vereinfacht. Das Un- ternehmen profitiert nicht nur von der drastischen Verkürzung der Abfragezei- ten sondern auch dadurch, dass einzelne Fachbereiche wie die Controlling- und die BI-Abteilung deutlich entlastet werden und sich verstärkt strategischen Themen widmen können. Dank der Ad-hoc-Ana- lysen kann Zalando schneller auf das Verhalten seiner Kunden reagieren und dementsprechend zeitnah das Sortiment und Marketing-Maßnahmen anpassen. Umsatzströme können auf diese Weise besser gesteuert und neue Umsatzpoten- ziale frühzeitig erkannt werden. Perspektive Zalando wird weiter an der Konsolidie- rung der IT-Infrastruktur arbeiten, um sich für das anzunehmende Datenwachs- tum zu rüsten. Ziel sind die Reduzierung von Lizenzkosten sowie die weitere Opti- mierung der internen Betriebsabläufe.
  • 99.
    Competence Book -Business Intelligence CASE STUDIES - KOSTENERSPARNIS DURCH MICROSOFT BI 99 HERAUSGEBER: Microsoft Deutschland GmbH W enn es um Prozessoptimierung bei größeren Organi- sationen geht, ist Outsourcing fast immer ein Thema. Viele Unternehmen werden früher oder später Kun- den der arvato AG. Der Business Process Outsourcing-Dienstleis- terder Bertelsmann AG verstehtsich darauf, komplexe Geschäfts- prozesse zu übernehmen und zu optimieren. Ein erfolgreiches Konzept: arvato beschäftigt weltweit 63.000 Mitarbeiter und erzielte 2012 einen Umsatz von knapp 4,5 Milliarden Euro. Die Sparte „arvato Entertainment“ ist auf Lösungen entlang der di- gitalen Wertschöpfungskette spezialisiert. Das Spektrum reicht dabei von Digital Copy über Replikation bis zu Fulfilment, As- set Management und Distribution. Im Geschäftsbereich „Repli- cation“ werden Tag für Tag mehr als sechs Millionen CDs oder DVDs produziert, verpackt und verteilt. Ein komplexer Prozess, der neben Fertigung und Logistik auch das Rechtemanagement umfasst. Zu den wichtigsten Kunden zählen Software- und Spiel- ehersteller. Urheberrechte an Software werden in der Regel durch Echtheits- zertifikate nachgewiesen. Meist ist das „Certificate of Authentici- ty (CoA)“ als Etikett auf oder innerhalb der Produktverpackung zu finden. Jede Lizenznummer kommt nur einmal vor und wird innerhalb von 24 Stunden dem Softwarehersteller gemeldet. „Al- lein bei Spielekonsolen reden wir von 20-30 Millionen Lizenzen pro Jahr. Bei PC-Software ist das Volumen noch höher, aber we- gen der zunehmenden Verbreitung von Downloads tendenziell rückläufig“, erklärt Alexander Steinberg, Leiter Global IT Services Datenschutzbeauftragter bei arvato Entertainment. Investieren und Kosten sparen Lange Zeit nutzte arvato eine Oracle-Datenbank, um die Lizenz- nummern zu verwalten und an die Produktion zu übermitteln. Als Ende 2010 eine Modernisierung der in die Jahre gekommenen Datenbanklösung anstand, nutzte man die Gelegenheit, um auf Microsoft SQL Server zu wechseln. „Oracle-Datenbanken weisen Die auf Business Process Outsourcing spezialisierte arvato AG ist Teil der Bertelsmann- Gruppe. Im Geschäftsfeld arvato Entertainment sind rund 7.000 Mitarbeiter tätig. Der jähr- liche Umsatz beträgt 300 Millionen Euro. Seit 1995 produziert und verteilt arvato CDs und DVDs für Software- und Spiele-Hersteller. Lange Zeit wurden die Lizenznummern zu den Echtheitszertifikaten (Certificate of Authenticity – CoA) mit einer Oracle-Datenbank ver- waltet. Als für die veraltete Software ein aufwendiges Update anstand, nutzte arvato Enter- tainment die Gelegenheit für einen Systemwechsel. Die Lizenz zum Kosten sparen
  • 100.
    Competence Book -Business Intelligence CASE STUDIES - KOSTENERSPARNIS DURCH MICROSOFT BI 100 Projektes konnte arvato allerdings mit eigenen Ressourcen be- wältigen. Lediglich für Performance-Verbesserungen forderte das Unternehmen Unterstützung von Microsoft an. „Die CoA-Da- tenbank liefert nicht nur die Lizenznummern für den Druck. Im Verlauf der Produktion werden die Barcodes erneut eingelesen, um zu prüfen, ob Zertifikate defekt oder doppelt vergeben sind. Microsoft SQL Server arbeitet also mehrere komplexe Vergleichs- prozesse parallel ab. Dabei sind wir auf schnelle Antworten ange- wiesen, um die Durchlaufzeiten kurz zu halten“, betont Alexan- der Steinberg. Hinzu kommt, dass die CoADatenbanken an den internationalen Produktionsstandorten permanent abgeglichen werden müssen. Bei der Umstellung ging arvato Entertainment auf Nummer sicher: Bevoran einem Standort der Hebel umgelegt wurde, führte an einer Simulation inklusive Test-Produktion kein Weg vorbei. Im August 2012 ging die letzte Produktionsstätte ans Netz. Heute sind weltweit acht Microsoft SQL Server mit rund 150 Clients im Einsatz. Schnell, sicher und einheitlich Mit den Projektverlauf ist Alexander Steinberg vollauf zufrieden: „Dank des sorgfältigen Tunings ist die Performance heute deut- lich höher. Auf potenzielles Wachstum und Produktionsspitzen sind wir damit bestens vorbereitet.“ Die Projektrendite wird vor allem über Einsparungen bei den Betriebskosten erwirtschaftet. So lässt sich Microsoft SQL Server beispielsweise problemlos in kostengünstigen Clustern betreiben, was gleichzeitig die Verfüg- barkeit erhöht. Zudem verbringen die IT-Mitarbeiter dank der einheitlichen, auf Microsoft-Technologie basierenden Infrastruk- tur weniger Zeit mit dem Update- und Sicherheitsmanagement. Mit abnehmender Systemvielfalt ist auch der Schulungsaufwand der Spezialisten gesunken, die sich jetzt um eine Technologie we- niger kümmern müssen. Weitere Referenzen finden Sie hier. mit Blick auf Wartung, Pflege und Sicherung deutlich höhere Be- triebskosten auf als Microsoft SQL Server. Wegen des Datenvolu- mens, des komplexen Lizenzierungs-verfahrens und der hohen Anforderungen an die Verfügbarkeit war die CoADatenbank der letzte Monolith in einem von Microsoft-Technologien geprägten Systemumfeld“, blickt Alexander Steinberg zurück. Mit dem Sys- temwechsel gelang es, die gesamte IT-Infrastruktur harmonisie- ren. Das brachte neben technischen Vorteilen – etwa in puncto Hochverfügbarkeit – auch eine verbesserte Personalplanung: Know-how und personelle Kapazitäten ließen sich jetzt voll auf eine Technologie konzentrieren. Hoher Performance-Bedarf Der Startschuss für den Systemwechsel fiel im September 2011. Im ersten Schritt stand die Datenmigration im Fokus: Da Oracle und Microsoft SQL-Server mit unterschiedlichen Formaten ar- beiten, waren manuelle Eingriffe unvermeidlich. 99 Prozent des Über Microsoft: Microsoft schöpft aus der eigenen Erfahrung als Betreiber von Big-Data-Plattformen wie Skype, Bing und Xbox. Die integrierte Plattform von SQL Server und Office vereinfacht den Einsatz von Business Intelligence und Big Data on-pre- mise und in der Hybrid Cloud und die intuitive Erstellung fundierter Prognosen in Echtzeit. „Mit Microsoft SQL Server haben wir spür- bare Performance-Verbesserungen erreicht. Auf potenzielles Wachstum sind wir bestens vorbereitet.“ - Alexander Steinberg, Leiter Global IT Services Datenschutzbeauftragter
  • 101.
    Competence Book -Business Intelligence HANSA-FLEX auf dem Weg zum weltweiten Marktführer IDL GmbH Mitte Nach der Umwandlung in eine AG wurde es im Rechnungswesen bei HANSA-FLEX spannend: Der erste Konzernabschluss für 30 beteiligte Gesellschaften musste innerhalb weniger Monate »auf der grünen Wiese« erstellt werden. Mit der Entscheidung, IDL ins Boot zu holen, lag HANSA-FLEX richtig: Das ehrgeizige Projekt wurde mit vereinten Kräften termingerecht gestemmt, und Folgeabschlüsse laufen jetzt mit minimalem Aufwand. Zur Case-Study Effektiver Vertrieb mit Mobile BI Cubeware GmbH CARLISLE CM Europe Als Teil der weltweit agierenden CARLISLE Companies Inc. ist die CARLISLE ConstructionMaterials Eu- rope Gruppe (CARLISLE CM Europe) der Allrounder im Bereich technisch hoch wertige Elastomerpro- dukte für dauerhafte Dachabdichtungen, Bauwerksabdichtungen und Fassaden. Die Unternehmens- gruppe hat sich im Jahr 2012 aus der ehemaligen PHOENIX Dichtungstechnik GmbH, der Hertalan Rubber Products BV und der CARLISLE Hardcast BV gebildet. Im Verbund nutzen die Unternehmen ihre jahrzehntelange Markterfahrung, um die Herstellung und den Vertrieb hochwertiger Produktlösun- gen als größter Anbieter von Abdichtungen aus dem Werkstoff EPDM in Europa voranzutreiben. Zur Case-Study Centris nutzt Business Intelligence Tool für die detaillierte Service-Ticket-Kontrolle von IT Outsourcing-Lösungen ORACLE Deutschland B.V. Co. KG Centris AG Für ein Service-Ticket-System eines Drittanbieters, das von einfachen Kennwortzurücksetzungen bis hin zu kompletten Systemausfällen mehr als 20.000 betriebs- und projektbezogene Service-Tickets gleichzeitig handhabt, musste Centris eine umfassende Service-Ticket-Reportinglösung implemen- tieren. Darüber hinaus benötigten die Produktmanager und die Projektleiter des Unternehmens vor- konfigurierte, dezentralisierte Business-Intelligence-Berichte, die das manuelle Reporting mit Hilfe von Microsoft Excel oder Access ersetzen sollten. Zur Case-Study CASE STUDIES - DATA WAREHOUSE UND BI-FUNKTIONEN 101 WeitereCaseStudies und Produktinformationen unserer Partner
  • 102.
  • 103.
    Competence Book -Business Intelligence Case Studies Produktinformationen Branchenübersicht 86 Immobilienhandel (Oracle) Immonet optimiert Analytik und Entscheidungsfindung mit Engineered Systems 88 Informationstechnologie (Microsoft) Ein direkter Draht zum Kunden dank Microsoft BI 90 Metallwarenfertigung (IDL) Wanzl harmonisiert 30 Konzerngesellschaften 92 Finanzbranche (pmOne) Tagetik geleitet Erste Group optimal durch IFRS und FinRep-Vorgaben 96 eCommerce (EXASOL) Zalando optimiert sein Data Warehouse und BI-Funktionen 99 Dienstleistungen (Microsoft) Die Lizenz zum Kosten sparen 101 Diverse Branchen Weitere Case Studies und Produktinformationen unserer Partner 104 Literaturverzeichnis 107 Unternehmensverzeichnis 113 Expertenverzeichnis 124 Veranstaltungsverzeichnis 127 Glossar INHALT 103
  • 104.
    Competence Book -Business Intelligence Big Data für IT-Entscheider: Riesige Datenmengen und moderne Technologien gewinnbringend nutzen (Pavlo Baron- Carl Hanser Verlag GmbH Co. KG - ISBN 978-3446433397) Die sehr schnell wachsende und zunehmend unübersichtliche Menge an Geschäftsdaten stellt Unternehmen vor eine Vielzahl von Problemen hinsichtlich der Erzeugung, Verwaltung und des gewinnbringenden Einsatzes. In diesem Buch werden dazu verschiedene Anwendungsbeispiele und Szenarien zu „Big Data“ beschrieben und außerdem ein wichtiger Überblick um die Technologien geschaffen damit Sie einschätzen können, was Sie für ihr Unternehmen brauchen und in welchen Bereichen „Big Data“ zu ihrer Wettbewerbsfähigkeit beiträgt. Basiswissen Business Intelligence (Christoph Engels - W3L - ISBN 978-3937137377) Das Spektrum der Themen rund um Business Intelligence ist besonders vielfältig und reicht von Business Performance Management über Data Mining und Warehouse über Big Data bis hin zu zur Information Supply Chain. Dieses Buch bietet anhand von zahlreichen Fallbeispielen einen grundlegenden Einblick in die Themenfelder rund um BI. BI-SPEKTRUM (Prof. Dr. Peter Gluchowski (Hrsg.) - SIGS DATACOM GmbH) BI-SPEKTRUM wendet sich an alle für Business Intelligence (BI) und Data Warehousing (DW) in Unternehmen Verantwortlichen, Softwarehäuser und Berater, die solche Systeme entwickeln und implementieren, genauso wie Wissenschaftler, die in dieser Disziplin forschen und entwickeln und damit die Basis für neue Praxisanwendungen liefern. Es informiert seine Leser über alle Trends in diesem Bereich, liefert Anwendungsfälle aus der Praxis (Case Studies) und präsentiert Meinungen zu aktuellen Themen, sowie Neuigkeiten für die BI-Community. Ihr Kontakt: Susanne Herl (Susanne.Herl@sigs-datacom.de) BRANCHENÜBERSICHT - INFORMATIONSQUELLEN 104 Literaturhinweise
  • 105.
    Competence Book -Business Intelligence Business-Szenarien in SharePoint (Andreas Anschauer, Martin Groblschegg - Carl Hanser Verlag GmbH Co. KG - ISBN 978-3-446-43551-3) „Microsoft SharePoint kann alles“. Vor dieser Aussage stehen die meisten IT-Entscheider, wenn sie sich nach dem Funktionsumfang der Plattform erkundigen. Um aber einschätzen zu können, wie sinnvoll der Einsatz von SharePoint-Technologien im eigenen Unter- nehmen ist, bedarf es einer objektiven Sicht auf die entscheidenden Faktoren, die vom Leistungsportfolio der Software über mögliche Einsatzszenarien im Unternehmen bis zum Return on Investment reichen. Die dafür notwendigen Grundlagen liefert dieses Buch. Data Warehousing mit Oracle (Claus Jordan, Dani Schnider, Jaochim Wehner, Peter Welker - Carl Hanser Verlag GmbH Co. KG - ISBN 978-3-446-42562-0) Um Business Intelligence erfolgreich betreiben zu können, muss eine solide Data-Warehouse-Architektur als Basis vorhanden sein. Skalierbarkeit, Performance und Integration sind dabei die wichtigsten Erfolgsfaktoren - und hier hat Oracle einiges zu bieten. Dieses Buch gibt einen Überblick über eine typische Data-Warehouse-Architektur und zeigt anhand von zahlreichen Beispielen auf, wie die einzelnen Komponenten eines Data Warehouses mithilfe von Oracle-Technologie realisiert und betrieben werden können. Business Intelligence mit Microsoft SQL Server 2008 (Holger Schrödl - Carl Hanser Verlag GmbH Co. KG - ISBN 978-3-446-41210-1) Holger Schrödl liefert mit seinem Buch allgemeine Grundlagen für BI-Projekte, beschreibt die BI-Komponenten des MS SQL Server 2008, zeigt Szenarien der unterschiedlichen BI-Methodiken anhand realistischer Fallbeispiele und skizziert einen exemplarischen Projektleitfaden, mit dem sich speziell BI-Projekte aufsetzen lassen. Business Intelligence - Grundlagen und praktische Anwendungen: Eine Einführung in die IT-basierte Managementunterstützung (Hans-Georg Kemper, Henning Baars, Walid Mehanna - Vieweg+Teubner Verlag - ISBN 978-3834807199) Eine fundierte und praxisorientierte Einführung in die IT-basierte Managementunterstützung. Business Intelligence umfasst mehr als den Bereich Data Warehousing. Ziel ist die Realisierung eines Gesamtkonzeptes. Charakteristika sind eine konsistente, harmonisierte Datenhaltung, eine hohe Integrationsdichte der Analysesysteme und die Einbindung betriebswirtschaftlich anspruchsvoller Auswer- tungskonzepte. In dem Buch werden eine Business-Intelligence-Architektur sowie ein Vorgehensmodell zur Entwicklung integrierter BI-Anwendungssysteme entworfen und anhand von aussagekräftigen Praxisbeispielen ausführlich illustriert. Business Intelligence (Iron Werther - Carl Hanser Verlag GmbH Co. KG - ISBN 978-3-446-43580-3) Am Beispiel eines Online-Shops mit Mode- und Bekleidungsartikeln zeigt Ihnen dieses Übungs- und Nachschlagewerk, wie Sie komplexe T-SQL-Abfragen erstellen, um Daten analysieren und umfassende KPI-Reports sowie analytisches CRM aufbauen zu kön- nen. Die Datenbank der Wahl ist hier der SQL-Server 2012. Auf Basis dieser Daten lernen Sie Schritt für Schritt und anhand vieler Beispiele, wie Sie Kundendaten analysieren, einen Kundenmonitor erstellen, Retourenquoten ermitteln, Warenkorbdaten auswerten, Zahlungsinformationen analysieren und schließlich eine Zielgruppe für den Newsletter-Versand selektieren. BRANCHENÜBERSICHT - INFORMATIONSQUELLEN 105
  • 106.
    Competence Book -Business Intelligence Raus aus der BI-Falle: Wie Business Intelligence zum Erfolg wird (Ronald Bachmann, Dr. Guido Kemper - mitp - ISBN 978-3826691065) Anstatt Business Intelligence auf die reine Technik dahinter zu reduzieren, steht in diesem Werk der Mensch im Mittelpunkt, der bei Prozessen bei seiner Entscheidungsfindung durch optimierte IT-Systeme unterstützt wird im Mittelpunkt. Dabei werden neben den Schritten zur Umsetzung von BI auch strukturelle Risiken und Zielkonflikte auf Projektebene erörtert. Von der Strategie zum Business Intelligence Competency Center (BICC): Konzeption - Betrieb - Praxis (Tom Gansor, Andreas Totok, Steffen Stock - Carl Hanser Verlag GmbH Co. KG - ISBN 978-3446421332) Business Intelligence ist die vollständige Versorgung mit relevanten Informationen an den richtigen Stellen im Unternehmen. Allerdings gibt es in der Praxis immer noch Probleme, die richtige Strategie für die Umsetzung von BI im Unternehmen zu finden, oft mangelt es an der richtigen Organisation. Tom Gansor, Dr. Andreas Totok und Dr. Steffen Stock beschreiben in diesem Buch verschiedene praxis- bezogene Lösungsansätze zur Entwicklung einer BI-Strategie und Einführung eines Business Intelligence Competency Centers. Management Support Systeme und Business Intelligence. Computergestützte Informationssysteme für Fach- und Führungskräfte (Peter Gluchowksi, Roland Gabriel, Carsten Dittmar - Springer - ISBN 978-3540235439) Seit mehr als dreissig Jahren werden Anstrengungen unternommen, um eine bessere Unterstützung betrieblicher Fach- und Führungs- kräfte bei der Bewältigung ihrer dispositiven Arbeiten mit computergestützten Informationssystemen zu erreichen. Das Buch greift die unterschiedlichen, in der betrieblichen Praxis bewährten System- und Konzeptkategorien auf und ordnet diese historisch, funktional und architektonisch ein. Im Vordergrund stehen dabei die aktuellen technologischen Strömungen im Business Intelligence-Umfeld, wel- che sich in Data Warehouse-Architekturkonzepten, On-Line Analytical Processing-Lösungen und Data Mining-Systemen manifestieren. Open Source Business Intelligence (Uwe Haneke, Stephan Trahasch, Tobias Hagen, Tobias Lauer - Carl Hanser Verlag GmbH Co. KG - ISBN 978-3-446-42396-1) Dieses Buch liefert erstmals einen umfassenden Überblick über das gesamte Themenspektrum von Open Source Business Intelli- gence. Es erläutert die wesentlichen Konzepte, behandelt Einführungsstrategien ebenso wie Kostenaspekte und wirft einen Blick auf künftige Trends. Unterschiedlichen Geschäftsmodelle der Anbieter und die Abgrenzung zwischen Open Source und Commercial Open Source werden aus Anwendersicht analysiert und verglichen. Die Autoren sind führende Experten aus Wissenschaft und Praxis im Gebiet der Business Intelligence. Datenqualität erfolgreich steuern (Detlef Apel, Wolfgang Behme, Rüdiger Eberlein, Christian Merighi - Carl Hanser Verlag GmbH Co. KG - ISBN 978-3-446-42501-9) Dieses Buch zeigt anhand praktischer Beispiele, wie Sie die Qualität Ihrer Daten erfolgreich und zielgerichtet verbessern können. Analy- sieren Sie die Ursachen und Auswirkungen schlechter Datenqualität und erfahren Sie, welche Investitionen sich lohnen. Die Grundlagen des Datenqualitätsmanagements, die technische Umsetzung mit passgenauen Werkzeugen und die praktische Umsetzung in einem kompletten Zyklus eines BI-Projekts bilden den umfassenden Leitfaden für Ihr erfolgreiches Datenqualitätsmanagement. BRANCHENÜBERSICHT - INFORMATIONSQUELLEN 106
  • 107.
    Competence Book -Business Intelligence Unternehmen BIPortal GmbH www.bi-portal.com Tel.: 040 - 507 1948 1 Ihr Kontakt: Thorsten Lüdtke Luedtke@bi-portal.com BIPortals Team besitzt tiefgreifende technische Kenntnisse der Archi- tektur sowie des Einsatzes der gesamten SAP® NetWeaver-BI-Platt- form. Ihre spezifische Kompetenz im Enterprise Data Warehousing (EDW) erweitern sie seit 2012 um das ‚Big Data Warehousing‘ (BDW) in Bezug auf Entwurfsabwägungen für großformatige Da- tawarehouse-Einsätze in den Bereichen BI, Analytik und prädiktive Modellierung. BARC GmbH www.barc.de Tel.: 0931 / 880 - 651 - 0 Ihr Kontakt: Patrick Keller Pkeller@barc.de Die BARC GmbH ist auf die Anforderungsanalyse, Strategiedefinition sowie Technologie- und Produktauswahl in den Anwendungsgebie- ten Business Intelligence, Datenmanagement, Enterprise Content Management, CRM und ERP spezialisiert. Über 1500 große und mittelständische Unternehmen wurden bislang betreut. Zudem bietet BARC fundierte Markt- und Technologiestudien sowie Tagungen und Seminare. Blue Yonder GmbH www.blue-yonder.de Dunja Riehemann Tel.: +49 (0)721 383 117 0 Dunja.Riehemann@blue-yonder.de Ihr Unternehmen www.ihrunternehmen.com Tel.: +49 221 716144-20 Ihr Kontakt: Filipe Felix f.felix@netskill.de BRANCHENÜBERSICHT - UNTERNEHMEN 107
  • 108.
    Competence Book -Business Intelligence Braincourt www.braincourt.com Tel.: 0711/75858094-0 Ihr Kontakt: Günter Hauser Guenter.Hauser@braincourt.com Das Beratungsunternehmen Braincourt ist seit dem Jahr 2000 spe- zialisiert auf die Konzeption und Umsetzung von Controllingsystemen zur Unternehmenssteuerung sowie auf die Planung und Steuerung von Projekten im Bereich IT und Organisationsentwicklung. Kun- denorientierte Lösungen, individuelle Beratung und die erfolgreiche Umsetzung nachhaltiger Lösungen gehören zu den Grundsätzen von Braincourt. Durch unser fachliches und technisches Know-how sind wir sowohl für Fach- als auch für IT-Abteilungen ein gefragter Ansprechpartner. Die Kunden von Braincourt kommen aus den ver- schiedensten Branchen, wie Automotive, Chemie, Dienstleistungen, Energie, Holzverarbeitung, Fertigungsindustrie, Getränke, Maschinen- bau, Pharma, Telekommunikation oder Finanzen. Böcker Ziemen Management Consultants GmbH Co www.boecker-ziemen.de Tel.: 0228 / 972799-15 Ihr Kontakt: Maren Hawerkamp Hawerkamp@boecker-ziemen.de Wir beraten Unternehmen, die von einer hohen Markt- und Techno- logiedynamik gefordert sind. Hierbei konzentrieren wir uns auf die Beratungsfelder Strategie, Innovation und Marketing. Diese Fokussierung verbunden mit unserer Industriekompetenz und Erfahrung setzen wir ein für mehr Kundennutzen. COSMO CONSULT BI GmbH www..cosmoconsult.com Jürgen Klein Tel.: +49 931 304 18 40 - 0 Juergen.Klein@cosmoconsult. com Comma Soft AG www.comma-soft.de Anja Hoffmann Tel.: 0228 / 9770 - 159 info@comma-soft.com BRANCHENÜBERSICHT - UNTERNEHMEN 108
  • 109.
    Competence Book -Business Intelligence EXASOL AG www.exasol.com Tel.: +49 911.23 99 1 260 Ihr Kontakt: Alexandra Bellanova alexandra.bellanova@exasol.com Die EXASOL AG ist führender Hersteller von analytischen Daten- banksystemen. Ihre skalierbare Software „Made In Germany“ findet Einsatz in den Bereichen Data Business, Customer Analytics, Ope- rational BI, Advanced Analytics und Data Warehousing. Mit ihren Appliance- und Cloud-Lösungen können die Kunden der EXASOL AG optimale Entscheidungen treffen und einen maßgeblichen Wett- bewerbsvorteil gewinnen. Das Unternehmen wurde im Jahr 2000 in Nürnberg gegründet und besitzt drei Niederlassungen in Brasilien, Israel und im Vereinigten Königreich. Kunden auf der ganzen Welt setzen auf die Technologien der EXASOL AG. Dazu gehören Unter- nehmen wie Cacau Show, King, XING, Sony Music, Olympus, media control, Zalando, IMS Health und Webtrekk. cundus AG www.cundus.com Tel.: 0203 3175 - 124 Ihr Kontakt: Michael Bertels michael.bertels@cundus.de cundus zählt zu den größten auf BI-spezialisierten Lösungsanbietern im deutschen Markt. Wir bieten unseren Kunden bedarfsgerechte Lösungen für Business Intelligence, Corporate Performance Manage- ment, Reporting und XBRL. Als ganzheitlicher Lösungsanbieter berät cundus entlang des gesamten BI Lifecycles – von der Strategie und Konzeption über die Implementierung bis zum Betrieb. Cubeware GmbH de.cubeware.com Tel.: 08031/406601207 Ihr Kontakt: Rabea Veutgen Rabea.Veutgen@cubeware.com Die Cubeware GmbH mit Sitz in Rosenheim und elf weiteren Nie- derlassungen ist einer der führenden Anbieter von Business-Intel- ligence-Software mit Fokus auf Lösungen für den Mittelstand und Fachabteilungen großer Unternehmen. Cubeware bietet ein innovati- ves, branchenunabhängiges Komplett-Portfolio für BI-Lösungen, be- stehend aus dem Cubeware Cockpit V6pro (Frontend), dem Cube- ware Importer (ETL und BI-Datenintegration), Cubeware Connectivity for SAP® Solutions und dem Cubeware Teamserver (Organisation und Kollaboration). Cubeware arbeitet weltweit mit über 60 Partnern und zertifizierten Beratern zusammen. BRANCHENÜBERSICHT - UNTERNEHMEN 109
  • 110.
    Competence Book -Business Intelligence IDL-Unternehmensgruppe www.idl.eu Tel.: 06082/9214-0 Ihr Kontakt: Monika Düsterhöft monika.duesterhoeft@idl.eu IDL ist spezialisiert auf fachliche Beratung und Entwicklung von Sowarelösungen für ganzheitliches Business Performance Manage- ment. Die Stärken liegen in der fachlichen, betriebswirtschaftlichen, methodischen und technischen Kompetenz. Kombiniert mit leis- tungsstarker Software und erstklassigem Service entstehen flexible Lösungen, die Kunden einen ganzheitlichen, zukunftsorientierten und nachhaltigen Nutzen verschaffen. o Konzern-Controlling o Management Reports o operatives Controlling o Berichtswesen o Finanzplanung o Mobile BI o Bereichsplanung o Konsolidierung o Integrierte Planung o E-Bilanz o Liquiditätsmanagement o Kommunale Lösungen Horváth Partners GmbH www.horvath-partners.com Tel.: 0711 / 66919-0 Ihr Kontakt: Walid Mehanna WMehanna@horvath-partners.com Horváth Partners ist eine international tätige, unabhängige Ma- nagementberatung mit über 500 hochqualifizierten Mitarbeiterinnen und Mitarbeitern. Unsere Mitgliedschaft im internationalen Bera- tungsnetzwerk „Cordence Worldwide“ verstärkt unsere Fähigkeit, Beratungsprojekte in wichtigen Wirtschaftsregionen der Welt mit höchster fachlicher Expertise und genauer Kenntnis der lokalen Ge- gebenheiten durchzuführen. KUMAVISION AG www.kumavision.com Armin Schneider-Lenhof Tel.: 0711 / 16069 - 42 Armin.schneider-lenhof@kumavision.de BRANCHENÜBERSICHT - UNTERNEHMENSVERZEICHNIS 110
  • 111.
    Competence Book -Business Intelligence ORACLE Deutschland B.V. Co. KG www.oracle.com/de Tel.: 040/89091302 Ihr Kontakt: Ute Braun ute.braun@oracle.com Oracle entwickelt Hardware und Software, die für den Einsatz in der Cloud und im Rechenzentrum optimal aufeinander abgestimmt sind. 380.000 Kunden jeder Größe und Branche setzen in 145 Ländern der Welt Produkte und Lösungen von Oracle ein. Im Fiskaljahr 2013, das zum 31. Mai 2013 endete, erzielte Oracle weltweit einen Umsatz von 37,2 Milliarden US-Dollar. Oracle beschäftigt weltweit 108.000 Mitarbeiter, darunter 32.000 Entwickler, 18.000 Support-Mitarbeiter und 17.000 Consulting-Experten. Die ORACLE Deutschland B.V. Co. KG hat ihren Hauptsitz in Mün- chen, Managing Director ist Jürgen Kunz. MID GmbH www.mid.de Tel.: 0911/968360 Ihr Kontakt: Bertram Geck info@mid.de Als Ihr kompetenter Partner für die Modellierung von Geschäftspro- zessen, Software und Datenbanken helfen wir Ihnen mit Werkzeuglö- sungen und Beratung aus einer Hand, Ihre IT-Projekte schneller, besser und effizienter durchzuführen. Wir möchten Ihnen mit dem Innovator Werkzeuge an die Hand ge- ben, mit denen Sie Zusammenhänge sichtbar machen können und das Wissen der Prozessbeteiligten zusammentragen und übersicht- lich gestalten können. Microsoft Deutschland GmbH www.microsoft.com/de-de/ Tel.: +49 89 3176-6018 Ihr Kontakt: Daniel Weinmann Dweinm@microsoft.com Microsoft schöpft aus der eigenen Erfahrung als Betreiber von Big-Data-Plattformen wie Skype, Bing und Xbox. Die integrierte Plattform von SQL Server und Office vereinfacht den Einsatz von Business Intelligence und Big Data on-premise und in der Hybrid Cloud und die intuitive Erstellung fundierter Prognosen in Echtzeit. BRANCHENÜBERSICHT - UNTERNEHMENSVERZEICHNIS 111
  • 112.
    Competence Book -Business Intelligence pmOne AG www.pmone.com Tel.: 089 / 4161761 - 0 Ihr Kontakt: Tim Erben Kontakt@pmone.com Die 2007 gegründete pmOne AG ist ein Software- und Beratungs- unternehmen mit Lösungsangeboten zum Thema Business Intelli- gence und Big Data. Dafür werden die technologischen Plattformen von Microsoft und SAP um die eigenentwickelte Software cMORE ergänzt. cMORE hilft Anwendern unter anderem dabei, skalierbare Lösungen für Reporting und Analyse schnell aufzubauen, effizient zu betreiben und zu erweitern. Mit Tagetik vertreibt und implementiert die pmOne AG eine weltweit führende Softwarelösung für Unterneh- mensplanung und Konsolidierung. Zur pmOne-Gruppe gehört die MindBusiness GmbH, die auf SharePoint-Lösungen und Dienstleis- tungen für Office-Rollouts spezialisiert ist. Die pmOne AG hat über 200 Mitarbeiter und ist an acht Standorten in Deutschland, Öster- reich und der Schweiz vertreten. prisma informatik GmbH www.prisma-informatik.de Stephan Calota Tel.: 0911 / 23980550 S.calota@prisma-informatik.de TDWI Germany e.V. www.tdwi.eu Tel.: 02241 / 2341 - 212 Ihr Kontakt: Simone Kohlhaas Simone.Kohlhaas@tdwi.eu Der TDWI Verein hat sich in den vergangenen Jahren zur zentra- len Plattform für BI und DWH entwickelt. Wir bieten praxisorientierte, herstellerneutrale Konferenzen und Seminare an, Online-Foren und eine Wissensdatenbank sowie die Fachzeitschrift BI-SPEKTRUM und eine Fachbuchreihe. Unsere TDWI Roundtables bieten darüber hin- aus Interessierten eine Plattform, in der Gedanken und Ideen im Data Warehouse- und BI-Umfeld dargelegt und diskutiert werden können. QlikTech GmbH www.qlikview.com/de Alexander Klaus Tel.: 0211 / 58688 - 0 infode@qliktech.com Tagetik Software Srl www.tagetik.de Tim Erben Tel.: +49 89 41617610 kontakt@pmone.com Ihr Unternehmen www.ihrunternehmen.com Tel.: +49 221 716144-20 Ihr Kontakt: Filipe Felix f.felix@netskill.de BRANCHENÜBERSICHT - UNTERNEHMENSVERZEICHNIS 112
  • 113.
    Competence Book -Business Intelligence Bange, Carsten (Dr.) c.bange@competence-site.de CEO Business Application Research Center BARC GmbH Dr. Carsten Bange ist geschäftsführender Gesellschafter des Business Application Research Centers (BARC). Er ist seit mehr als zehn Jahren für nationale und internationale Unternehmen verschiedenster Branchen und Größen im Rahmen der Strategie- und Architekturberatung, Werk- zeugauswahl und Qualitätssicherung in Business-Intelligence- und Daten- management-Projekten tätig. Experten Braun, Ute Senior Account Manager BI Broad Market ORACLE Deutschland BV Co. KG Ute Braun ist als Senior Account Manger im Broad Market für BI und Analytics zuständig. Ihre Karriere bei Oracle begann sie im Jahre 1999 und hat seither meh- rere Positionen im Channel und im Direktvertrieb bekleidet. Sie wechselte in 2002 in die Verantwortung des Regionalmanagers Nord. Danach baute sie mehrere Partnercommunities für die Produktbereiche Collaboration Suite, Fusion Middleware und dann Business Intelligence/Analytics auf. Seit September 2012 ist sie für BI und Analytics für den Broad Market im Norden verantwortlich Bader, Birgit Senior Account Manager ORACLE Deutschland BV Co. KG Birgit Bader arbeitet seit 2010 als Senior Account Manager im Bereich Bu- siness Analytics. Ihre Kunden sind Strategische Accounts in den Industrien TravelTransportation und Retail.Zudem ist Birgit Bader LeadAccount Mana- gerin für einen Key Account im Bereich Life Science. Ihre Karriere bei Oracle begann sie im Jahre 1997 und hat seither meh- rere Positionen im nationalen und internationalen Presales- sowie Ver- triebsumfeld bekleidet. BRANCHENÜBERSICHT - EXPERTEN 113
  • 114.
    Competence Book -Business Intelligence Michael Bruns Managing Consultant cundus AG Burmester, Lars (Dr.) Senior Project Manager Horváth Partners GmbH Erben, Tim Senior Manager Corporate Marketing pmOne AG Seit Oktober 2009 arbeitet Tim Erben als Senior Manager Corporate Marketing für die pmOne AG, einem führenden Unternehmen im Markt für Business Intelligence. Das Lösungsangebot für Kunden besteht aus drei Säulen: Data Warehouse, Anwendungen für Performance Manage- ment sowie Reporting Information Design. Ditze, Andreas Geschäftsführer MID GmbH Andreas Ditze ist innerhalb der Geschäftsführung der MID für den Be- reich Produktmanagement verantwortlich. Darüber hinaus gehört auch die MID-Akademie zu seinem Verantwortungsbereich. Er studierte an der Georg-Simon-Ohm-Fachhochschule Nürnberg und kam nach einer sie- benjährigen Tätigkeit als Softwareentwickler und Projektleiter Ende 1997 zur MID. Seit Anfang 2010 arbeitet Michael Bruns als Managing Consultant bei der cundus AG in Duisburg. Als Leiter des Competence Centers BI-Ap- plications ist er mit der Konzeption und Implementierung von Business Intelligence Architekturen betraut. Er verfügt über mehr als 10-jährige, branchenübergreifende Projekter- fahrung bei der Umsetzung dieser Konzepte mit Microsoft Technologien. Dr. Lars Burmester studierte und promovierte an der Philipps-Universi- tät Marburg und arbeitete parallel in einem Projekt zum Controlling von Hochschulen. Seit 2012 ist er bei Horvath Partners im Kompetenzfeld Business In- telligence aktiv, nachdem er zuvor drei Jahre als Senior Berater bei der cundus AG tätig war. Herr Dr. Burmester berät Unternehmen - vom Mit- telständler bis zum Großkonzern - in allen Fragestellungen der Business Intelligence und des Data Warehousing. BRANCHENÜBERSICHT - EXPERTEN 114
  • 115.
    Competence Book -Business Intelligence Geck, Bertram Geschäftsführer MID GmbH Bertram Geck trägt seit 1. Januar 2013 als Sprecher der Geschäftsfüh- rung die Gesamtverantwortung für die Weiterentwicklung der MID GmbH. Er leitet dabei die Bereiche Marketing und Vertrieb. Als Gründer, Geschäftsführer und Berater in der IT- und Software-Branche trug Bertram Geck sowohl in Deutschland als auch weltweit Verantwor- tung, unter anderem in DAX-notierten Unternehmen. Frühwacht, Harald Geschäftsführender Gesellschafter Mitglied der Geschäftsleitung IDL GmbH Mitte Harald Frühwacht ist seit 2006 geschäftsführender Gesellschafter der IDL GmbH Mitte. Bereits 1991 startete er hier seine Karriere als betriebswirtschaftlicher Berater, er realisierte verschiedenste Konsolidie- rungsprojekte und leitete die fachliche Ent- und Weiterentwicklung der Konsolidierungssoftware IDLKONSIS. Ein weiterer Schwerpunkt seiner Tätigkeit liegt heute auf finanzwirtschaftlichen Lösungen für den kommunlaen Bereich. Felix, Filipe Bereichsleiter IT Finanzen Projektleiter Competence Book BI Netskill AG Filipe Felix ist seit Juni 2011 bei der NetSkill AG / Competence Site tätig und seit Januar 2012 Bereichsleiter für die Bereiche IT, Finanzen Versicherungen. Ein weiterer Schwerpunkt seiner Tätigkeiten liegt in der Projektleitung der Competence Books zu den Themen BPM, BI, ERP, ECM, Microsoft, Oracle, SAP. Felser, Winfried (Dr.) CEO Netskill AG Dr. Winfried Felser ist seit 2000 Gründer und Vorstand der NetSkill AG bzw. der Competence Site, einem Kompetenz-Netzwerk mitmehreren Tausend Experten aus Wissenschaft und Praxis zu den Themenbereich Management, IT und Technik. Er ist zudem Herausgeber des Competen- ce Reports und der jährlich erscheinenden Competence Books zu aktu- ellen Themen wie BPM, MES, CRM, Business Intelligence, Industrie 4.0, Enterprise 2.0 und Intralogistik. BRANCHENÜBERSICHT - EXPERTEN 115
  • 116.
    Competence Book -Business Intelligence Hagen, Tilman Senior BI Consultant Braincourt GmbH Tilman Hagen ist Senior BI Consultant und Leiter des Competence Center „Neue Technologien“ bei der Braincourt GmbH sowie „Hichert Certified Consultant (HCC)“. Sein Studium der Wirtschaftsinformatik absolvierte er an der Hochschule der Medien in Stuttgart. Seine Themenschwerpunkte sind Controlling und Reporting, die (Exter- ne) Berichterstattung, als auch die Unternehmensplanung. Technologi- scher Fokus liegt dabei auf den Technologien SAP BW und SAP BPC. Gluchowski, Peter (Prof. Dr.) Vereinsvorsitzender TDWI Germany e.V. Prof. Dr. Peter Gluchowski leitet den Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung und Anwendungssysteme, an der Technischen Universität in Chemnitz und konzentriert sich dort mit seinen Forschungs- aktivitäten auf das Themengebiet Business Intelligence. Er beschäftigt sich seit rund 20 Jahren mit Fragestellungen, die den praktischen Aufbau dispositiver bzw. analytischer Systeme zur Entschei- dungsunterstützung betreffen. Seine Erfahrungen aus unterschiedlichsten Praxisprojekten sind in zahlreichen Veröffentlichungen zu diesem The- menkreis dokumentiert. Hartung, Michael Leiter Business Development pmOne AG Michael Hartung arbeitet in seiner Tätigkeit als Leiter Business Develop- ment der pmOne AG an der strategischen Schnittstelle zwischen den Kunden und dem Lösungsangebot für Data Warehousing, Performance Management und Information Design. Er orientiert sich am Leitmotiv: „Wir entwickeln nur, was der Markt wirklich braucht.“ In führenden Positionen bei der MIS AG (heute Infor) und bei Bissantz Company hat er sich in den vergangenen Jahren einen Namen auf dem Markt für Business-Intelligence-Lösungen gemacht. Hein, Christoph Product Marketing Manager Cubeware GmbH Christoph Hein studierte Geschichte, Politik und Betriebswirtschaft in Marburg. Anschließend arbeitete er mehrere Jahre als IT-Berater für die Cubeware GmbH. Derzeit ist er Product Marketing Manager und verant- wortet unter anderem den Bereich Mobile BI bei Cubeware. BRANCHENÜBERSICHT - EXPERTEN 116
  • 117.
    Competence Book -Business Intelligence Keil, Thomas (Dr.) Program Marketing Manager Business Analytics SAS Institute GmbH Dr. Thomas Keil ist Spezialist für Big Data, Information Management und Business Analytics. Neben seiner Tätigkeit als Marketingmanager für Business Analytics bei SAS engagiert er sich als Vorstandsmitglied im Arbeitskreis Big Data des BITKOM. Er vertritt seine Themen sowohl im TDWI als auch im Rahmen der KSFE. Dr. Thomas Keil kam 2011 zu SAS. Davor war er acht Jahre für den Softwarehersteller zetVisions tätig, zuletzt als Head of Marketing sowie Head of Channel Sales. Klar, Alexander Senior Systemberater ORACLE Deutschland B.V Co. KG Alexander Klar ist Senior Systemberater mit dem Schwerpunkt Business Intelligence, Datenbanktechnologien und Datenintegration. Bevor Alexander Klar 2010 zu Oracle kam, war er mehrere Jahre als Berater Entwickler im BI- und Data Warehouseumfeld tätig. Kampffmeyer, Ulrich (Dr.) Geschäftsführer PROJECT CONSULT Unternehmensberatung GmbH Dr. Ulrich Kampffmeyer, Jahrgang 1952, ist Gründer und Geschäftsführer der PROJECT CONSULT Unternehmensberatung GmbH, Hamburg. Vor seiner Tätigkeit als Geschäftsführer von PROJECT CONSULT war Dr. Kampffmeyer an mehreren Universitäten, Forschungsinstituten sowie für DMS-Anbieter und Consulting-Unternehmen tätig. Hombach, Ralf Head of Business Unit BI Solutions cundus AG Herr Ralf Hombach verantwortet den Bereich der kundenindividuellen BI Lösungen auf Basis der Microsoft BI Plattform. Er verfügt über mehr als 20 Jahre Erfahrung in der Business Intelligence und war über ein Jahrzehnt für die globale BI Strategie und die unterneh- mensweite Integration in einem internationalen chemisch-pharmazeuti- schen Konzern auf Basis SAP BI verantwortlich. BRANCHENÜBERSICHT - EXPERTEN 117
  • 118.
    Competence Book -Business Intelligence Klenk, Sebastian (Dr.) Product Manager EXASOL AG Dr. Sebastian Klenk ist seit Anfang 2013 als Product Manager bei der EXASOL AG tätig. Für den Datenbankspezialisten wird Klenk insbeson- dere die Entwicklung neuer Produkte weiter vorantreiben. Klenk studier- te Informatik an der Universität Stuttgart. Während seiner Diplomarbeit und anschließend als wissenschaftlicher Mitarbeiter entwickelte der Data Mining-Spezialist wegweisende Software für Ärzte und Medizinische Dokumentare. Er promovierte am Institut für Visualisierung und Interak- tive Systeme zum Thema „Kompressionsbasierte Mustererkennung“ und war in seiner letzten beruflichen Station als Software Engineer bei Sony Deutschland tätig. Lix, Barbara Mitglied des Vorstands cundus AG Barbara Lix ist seit Januar 2008 Vorstand der cundus AG. Sie verantwor- tet weltweit den Geschäftsbereich „Regulatory Reporting and Regulatory Business Intelligence“ sowie die ausländischen Tochtergesellschaften (USA, Kanada, UK, Schweiz) und das Ressort Marketing. Bis Ende 2010 leitete sie den Vertrieb von cundus Deutschland und den Entwicklungsbereich für Standard-Software, der im Dezember 2010 von der SAP mit den Produkten „SAP Disclosure Management“ und „SAP Notes Management“ übernommen wurde. Martens, Thomas Vice President Product Marketing Cubeware GmbH Thomas Martens blickt auf 17 Jahre Erfahrung im Business-Intelligen- ce-/ Data-Warehouse-Umfeld zurück. Bei Cubeware verantwortet er den Bereich Product Marketing. Sein besonderes Interesse gilt dabei der Visualisierung von Daten, der In- tegration von analytischen Methoden in Business-Intelligence-Lösungen und der Verarbeitung von großen Datenmengen. Lüdtke, Thorsten SAP BI Architekt BIPortal GmbH Thorsten Lüdtke begann 1997 mit der Entwicklung von Anwendungen für ‚Business Intelligence‘ und präsentierte das BI-Konzept bei zahlrei- chen Konferenzen zum Thema ‚Decision Support Systeme‘ (DSS). 1999 konstruierte er die ersten RapidMarts® überhaupt (heute SAP Busines- sObjects, SBO). 2006 startete er ein Joint-Venture mit Bill Inmon als Beiratsmitglied und präsentierte die Ergebnisse (BI Master Data Management) auf der SAP- PHIRE 2007-Konferenz in Wien. Hieraus ging die Firma BIPortal hervor. BRANCHENÜBERSICHT - EXPERTEN 118
  • 119.
    Competence Book -Business Intelligence Müller, Michael Principal Consultant MID GmbH Mehanna, Walid Principal Business Intelligence Horváth Partners GmbH Navrade, Frank (Dr.) Head of Business Unit BI Strategy cundus AG Frank Navrade bewegt sich nach seinem Studium der Betriebswirtschaft seit mehr als 10 Jahren in der BI Branche. Seine Promotion absolvierte er zum Thema „Strategische Planung mit Data-Warehouse-Systemen“. Er hat sich im Rahmen seiner Laufbahn auf die Beratung in den frühen Pha- sen eines BI Vorhabens und auf die BI Bebauungsplanung spezialisiert. Seit 2012 verantwortet er den Bereich „BI Strategie und Management, nachdem er sechs Jahre in der BI Strategieberatung, im BI Projektma- nagement und im BI Requirements Engineering tätig war. Michael Müller, Dipl. Inf. (FH), ist Principal Consutant bei der MID GmbH. Nach sieben Jahren als Softwareentwickler im Bereich Adressmanage- ment und Database Marketing kam er Ende 2001 zu MID. Sein Schwer- punkt liegt im Bereich Business Intelligence und Data Warehousing. Dipl.-Inform. Walid Mehanna berät bei Horváth Partners seit mehr als zehn Jahren namhafte Unternehmen und ist heute Principal Business In- telligence im Competence Center Controlling Finanzen. Herr Mehanna ist Autor zahlreicher Fachbeiträge in Büchern und Zeitschriften und regel- mäßiger Referent an der Universität Stuttgart. Martin, Wolfgang (Dr.) Analyst S.A.R.L. Martin - Wolfgang Martin Team Vor der Gründung des Wolfgang MARTIN Teams war Dr. Martin 5 ½ Jahre lang bei der META Group, zuletzt als Senior Vice President International Application Delivery Strategies. Dr. Martin promovierte und habilitierte an der Universität Bonn in angewandter Mathematik. BRANCHENÜBERSICHT - EXPERTEN 119
  • 120.
    Competence Book -Business Intelligence Reichen, Nico Head of Business Unit BI-Consulting / Products of the SAP AG cundus AG Nico Reichen verantwortet Business Unit SAP Consulting bei der cun- dus AG. Seine Karriere bei den Duisburger BI Spezialisten startete Herr Reichen im Jahre 2002 und blickt inzwischen auf über 10 Jahre Erfah- rung in der Konzeption und Implementierung von kundenindividuellen BI Lösungen auf Basis von SAP Technologie in diversen Branchen zurück. Neisius, Peter Vorstandsvorsitzender cundus AG Als Chairman of Executive Board der cundus AG ist Peter Neisius unter anderem verantwortlich für den Bereich Personal sowie für das Consulting Business. Seinen beruflichen Werdegang begann Peter Neisius nach dem Studium der Mathematik 1982 im technischen Bereich eines Chemieun- ternehmens. Im Anschluss an seine Funktion als Werkleiter übernahm er die Leitung des Bereiches Materialwirtschaft, Datenverarbeitung Orga- nisation bis zur Gründung von cundus. Schonschek, Oliver Manager Advisor Experton Group AG Oliver Schonschek ist als Manager Advisor bei der Experton Group AG tätig. Parallel zu seiner Advisor-Tätigkeit arbeitet er als Herausgeber, Fachautor und Fachjournalist für verschiedene Fachverlage und Redak- tionen. Die Schwerpunkte seiner Analysen und Publikationen liegen bei der Informationssicherheit und dem Datenschutz. Dabei behandelt er ins- besondere die Schnittstellen zwischen IT, Business, Recht, Compliance, Datenschutz und Datensicherheit. Hier könnte Ihr Name stehen Kontaktperson: Maximilian Herzogenrath m.herzogenrath@netskill.de Key Accouunt Manager NetSkill AG Sie würden auch gerne im Competence Book Industrie 4.0 oder in ei- nem unserer anderen Competence Books vertreten sein? Dann melden Sie sich ganz einfach direkt bei mir unter der E-Mail m.herzogenrath- netskill.de oder unter +49 221 716 144 11. BRANCHENÜBERSICHT - EXPERTEN 120
  • 121.
    Competence Book -Business Intelligence Sexl, Stefan Vorstand pmOne AG Seinen Einstieg in den Business Intelligence Markt hatte Stefan Sexl in verschiedenen Rollen (Support, Consulting) Anfang der 90er Jahre. Er ist Mitgründer der EFS Informationstechnologie, eines österreichischen Beratungsunternehmens für OLAP und BI. Bei der MIS GmbH (später: MIS AG) war Sexl Leiter Produktmanagement für Business Intelligence (1996-1999), nach einem Jahr Pause als freier Berater und Autor kehrte er dann zur MIS Gruppe zurück und wurde Vorstand Marketing Pro- dukte des Unternehmens bis 2005. Sexl ist Mitgründer und Vorstand der pmOne AG, München und Wien. Szytinin, Jörg Senior Account Manager BI ORACLE Deutschland B.V. Co. KG Jörg Szytinin ist als Senior Account Manager bei Oracle verantwortlich für Business Analytics Lösungen im den Industrien Telekommunikati- on, Medien Entertainment und Utilities in Deutschland. Seine Karriere begann er im Jahre 1988 und hat seither in den von ihm betreuten Industrien verschiedene Positionen in Vertrieb, Logistik, Marketing und IT bekleidet. Nach 12 Jahren in Vertriebs- und Marketing- funktionen innerhalb der Medienbranche folgten 7 Jahre Vertriebstätigkeit im Bu- siness Analytics Umfeld. Ab 2012 wechselte er zu Oracle und betreut seitdem Großkunden. Seybold, Wolfgang CEO Cubeware Group Wolfgang Seybold hat 30 Jahre Erfahrung in der High-Tech-Branche und als CEO. Seit 2012 ist er CEO der Cubeware Group.Vor seiner Zeit bei Cu- beware war er als CEO unter anderem bei Fox Technologies Inc., BlackPearl Inc. und Mindware Inc. tätig. Seine Karriere startete 1983 mit der Entwick- lung einer deutschsprachigen Software für den damals eingeführten PC von IBM. Dies war der Auftakt einer Reihe von erfolgreichen Unternehmens- gründungen in unterschiedlichen IT-Sektoren. Nach dem Verkauf dieser Unternehmen im Jahr 1992 wurde er CEO bei einer Unternehmensgruppe, bestehend aus acht in Europa ansässigen Softwareanbietern. Seufert, Andreas (Prof. Dr.) FH Ludwigshafen Institut für Business Intelligence Professor Andreas Seufert lehrt Betriebswirtschaftslehre und Informati- onsmanagement im Fachbereich Management und Controlling an der FH Ludwigshafen, und ist Direktor des Instituts für Business Intelligence an der Steinbeis Hochschule Berlin sowie Leiter des Arbeitskreises „Business Intelligence“ des Internationalen Controllervereins. Prof. Dr. Seufert verfügt über eine langjährige Erfahrung im Bereich der akademischen Forschung und Lehre, u.a. an der Universität St. Gallen sowie dem Massachusetts Institute of Technology. BRANCHENÜBERSICHT - EXPERTEN 121
  • 122.
    Competence Book -Business Intelligence Tischner, Gotthard Mitglied des Vorstands cundus AG Gotthard Tischner verantwortet als Vorstand der cundus AG die Business Unit BIS. Darüber hinaus ist er im Unternehmen zuständig für die Berei- che Finanzen und Controlling, interne Dienste und Technologie. Als Mann der ersten Stunde trat Gotthard Tischner nach dem Studium von Elekt- rotechnik und Maschinenbau 1990 in ein Unternehmen für Planung und Automation von Industrieprozessen ein. Er war dort als Gesellschafter und späterer Geschäftsführer für die Projektabwicklung und den Ausbau der Bereiche Applikationsentwicklung, Prozessleittechnik und Netzwerktech- nik zuständig. Toffolo-Haupt, Christiane Senior Director Sales ORACLE Deutschland B.V. Co. KG Christiane Toffolo-Haupt leitet als Senior Director Sales bei Oracle den Vertrieb für Business Analytics Lösungen in Nord Europa. Ihre Karriere bei Oracle begann sie im Jahre 2000 und hat seither mehrere Positionen im nationalen und internationalen Vertriebsma- nagement bekleidet. Im Jahre 2010 übernahm sie die Verantwortung für das Business Analytics Portfolio zunächst für Deutschland und die Schweiz und seit Mitte 2012 für Nordeuropa. Volknant, Daniel Consultant cundus AG Herr Daniel Volknant arbeitet als Strategy Consultant im Geschäftsbe- reich BI Strategy and Management der cundus AG. Schwerpunkt seiner Tätigkeit ist die Entwicklung von BI-Strategien, Corporate Performance Measurement und BI Competency Centern sowie die Durchführung von Informationsbedarfsanalysen und Coachings. Er verfügt über mehrjähri- ge Erfahrung im operativen BI und BI Projektgeschäft zur Unterstützung des Controllings und Managements. Weinmann, Daniel Product Marketing Manager - Data Insights Microsoft Corporation Daniel Weinmann ist als Produktmarketing Manager für Data Insights bei der Microsoft Deutschland GmbH beschäftigt. Seine Themengebie- te umfassen u.a. Business Intelligence, Big Data sowie Mission Critical Applications auf Basis des neuen SQL Servers 2014: Echtzeitanalyse und – transaktionen dank In-Memory Technologie, Power BI, HDInsight (Hadoop für Windows Azure) und Always On. BRANCHENÜBERSICHT - EXPERTEN 122
  • 123.
    Competence Book -Business Intelligence Zimmer, Manuel Head of Business Unit IBM Cognos cundus AG Als Managing Consultant Business Intelligence ist Manuel Zimmer vorwiegend in der Konzeption und Implementierung von Lösungen für Planung, Analyse und Berichtswesen, sowie der Modellierung und dem Architekturdesign eingesetzt. Sein fachlicher Schwerpunkt ist die Versicherungsbranche. Manuel Zimmer leitet die Business Unit IBM bei der cundus AG. Wiegmann, Christiane Mitglied der Geschäftsleitung IDL GmbH Mitte Christiane Wiegmann ist seit 2007 als Prokuristin und zeichnet seit 2009 als Mitglied der Geschäftsleitung der IDL GmbH Mitte für das Ver- triebsgebiet Deutschland verantwortlich. Zudem betreut sie die fachliche Weiterentwicklung derbei den Software- produkte IDLFORECAST für die Finanzplanung sowie IDLPUB- LISHER für die Geschäftsberichtserstellung. BRANCHENÜBERSICHT - EXPERTEN 123
  • 124.
    Competence Book -Business Intelligence Veranstaltungen BI Breakfast (Veranstalter: Microsoft pmOne - Datum: 25.02.2014. - 26.03.2014 - Veranstaltungsort: Hamburg, Wiesbaden, ...) Microsoft und pmOne laden Sie wieder ein zur Veranstaltungsreihe „BI Breakfast“. Erstmals wird mit Power BI die neue Lösung von Microsoft für Self-Service Business Intelligence präsentiert. Außerdem stellen unsere Experten die neuen Features des SQL Server 2014 vor. Sie sind in Business-Intelligence-Projekte involviert? Sie wollen wissen, wie Fachabteilungen, also Controlling, Marketing oder Vertrieb, schnell und kostengünstig eine effektive Business-Intelligence-Lösung erhalten, die auch alle Anforderungen der IT erfüllt? Sie wollen Power BI von Microsoft kennenlernen? Dann lohnt sich ein Besuch der Veranstaltung „BI Breakfast“. Wir freuen uns auf Sie und Ihre Kollegen. BI und Big Data Forum (Veranstalter: BARC GmbH - Datum: 10. - 14.03.2014 - Veranstaltungsort: Hannover) Die Konzentration der CeBIT auf Fachbesucher und das Leitthema „Datability“ rücken Lösungen für die Auswertung und das Management von Daten in den Mittelpunkt der Messe. Auf einer Fläche von rund 800 m² wird das BARC CeBIT Forum Business Intelligence und Big Data 2014 die Erfolgsgeschichte der letzten beiden Jahre fortschreiben. Die Teilnehmer-Zielgruppe für das BI und Big Data Forum erstreckt sich über alle Interessenten an Business Intelligence, Business Analytics und Big Data. “Business User” von entscheidungsunterstützenden Informationssystemen in Unternehmen, vor allem Entscheider und Projekt-Mitarbeiter aus den Fachabteilungen Controlling, Vertrieb, Marketing, Produktion, Logistik und Einkauf sind nur der Hauptteil der Besucherzielgruppe. IDL-Experten-Loge (Veranstalter: IDL GmbH Mitte - Datum: 16.03. 2014 - 20.04.2014 - Veranstaltungsort: Frankfurt am Main) Nehmen Sie Platz in der ersten Reihe, sehen Sie effektive Management-Lösungen für Konsolidierung, Unternehmens- steuerung, Controlling und Planung, profitieren Sie von Experten-Know-how und erleben Sie ein Fußball-Bundesli- ga-Spiel live! Wählen Sie Ihren Wunschtermin und Thema, senden Sie uns Ihre Anfrage und profitieren Sie vom Austausch mit unse- ren Experten. Mit Sicherheit nehmen Sie viele Ideen, Impulse und nachhaltige Eindrücke mit. Alle Themen und Begegnungen sowie Anmeldung unter www.idl.eu/expertenloge BRANCHENÜBERSICHT - VERANSTALTUNGSVERZEICHNIS 124
  • 125.
    Competence Book -Business Intelligence CeBIT 2014 (Veranstalter: Deutsche Messe - Datum: 10. - 14.03.2014 - Veranstaltungsort: Hannover) Die CeBIT ist das weltweit wichtigste Business-IT-Event. Jetzt haben wir das Ereignis für Sie als Fachanwender neu ausgerichtet: Der Konferenzteil wächst massiv. Struktur und Termin ändern sich. Ab 2014 setzt die CeBIT komplett auf Business. BMF Bonner Management Forum (Veranstalter: Böcker Ziemen Management Consultants GmbH Co. KG - Nächster Termin: 22.05.2014 - Veranstaltungsort: Bonn) Die Idee, ein Forum aus der Hochschule Bonn-Rhein-Sieg ins Leben zu rufen, in dem hochaktuelle betriebswirtschaftliche Themen identifiziert und diskutiert werden, entstand im Jahre 2001. Bei vielen Managern und Wissenschaftlern ist die Veranstaltung mittlerweile fester Bestandteil im Terminkalender. Im Fokus befinden sich Themen, die gegenwärtig für Unternehmen und die Wissenschaft im Brennpunkt stehen und bei denen – aufgrund ihrer Aktualität – ein großer Klärungsbedarf besteht. Der Veranstalter legt dabei besonderen Wert darauf, dass die Themen von branchenübergreifendem Interesse sind und somit den Know-how Austausch zwischen den Branchen forcieren. Zweimal im Jahr wird das Bonner Management Forum seit einigen Jahren, stets in Bonn, im Wissenschaftszentrum ausgerichtet. Die Veranstaltung wird durch den erfahrenen Moderator Prof. Dr. Jens Böcker geführt. CPOs@BPMO (Veranstalter: BPMO GmbH - Nächster Termin: 28.03.2014 - Veranstaltungsort: Köln) Mit dieser Veranstaltungsreihe richten wir uns an Verantwortliche für die Umsetzung von Prozess- management, Prozessverantwortliche und interne Berater aus Unternehmen. Der Erfolg unserer Veranstaltung Ende März 2013 hat uns bestärkt diese zu wiederholen. Eine kurzen Nachbericht finden Sie hier http://bit.ly/1cKWm1s Wir möchten als Spezialisten für prozessorientierte Organisationsentwicklung unsere Erfahrungen aus Weiterbildung und Beratung mit Ihnen teilen. Lassen Sie sich für unsere Art, Prozessmanagement zu entwickeln, begeistern: Maßgeschneiderte und ganzheitliche Lösungen für ein schneller und effektiver steuerbares System aus Prozessen, Organisation, Menschen und IT. TDWI 2014 München (Veranstalter: SIGS DATACOM GmbH - Datum: 23. - 25.06.2014 - Veranstaltungsort: München) Auch in diesem Jahr bündeln TDWI und BARC wieder ihre Kompetenzen für die größte, unabhängige Veranstal- tung zu den Themenbereichen Business Intelligence, Data Warehousing und Data Management im deutsch- sprachigen Raum. Auf der Konferenz erhalten die Teilnehmer tiefgehende Fachinformationen, können sich über aktuelle Markttrends informieren, Kontakte knüpfen und ihr Wissen vertiefen. Mehr Informationen finden Sie unter: www.tdwi.eu BRANCHENÜBERSICHT - VERANSTALTUNGSVERZEICHNIS 125
  • 126.
    Competence Book -Business Intelligence DW2014 (Veranstalter: TDWI Germany e.V. - Datum: 17. - 18.11.2014 - Veranstaltungsort: Zürich) Die DW2014, als 9. Auflage der erfolgreichen DW-Konferenzreihe, wird vom IWI-HSG zum dritten Mal in Kooperation mit TDWI durchgeführt. Mit einer Mischung aus neuen Konzepten durch TDWI, einem Umzug in die Metropole Zürich sowie der Fortführung der seit über 10 Jahren etablierten Programmarbeit des IWI-HSG ist die DW die führende Konferenz zu den Themenbereichen BI, DWH und Data Management in der Schweiz 17. – 18. November 2014 DW2014, Zürich IT Business (Veranstalter: Landesmesse Stuttgart GmbH - Datum: 08. - 10.10.2014 - Veranstaltungsort: Stuttgart) Where IT works - die parallel stattfindenden IT Business, Fachmesse für IT-Solutions,DMS EXPO, Leitmesse für Enterprise Content Management, und CRM-expo, Leitmesse für Kundenbeziehungsmanagement, bilden zusammen die komplette Unternehmens-IT ab. Das Angebot zu den Kernbereichen ERP, CRM, ECM und Output Management richtet sich an IT-Verantwortliche und Entscheider. Auch das Thema MES/ Fertigungssteuerung wird im umfassenden und hochkarätigen Ausstellungs- und Rahmenprogramm aufgegriffen. Die drei Fachmessen bieten die perfekte Plattform für einen erfolgreichen Austausch zwischen Branchenführern und Fachpublikum. 29. IDL-Anwendertreffen 2014 (Veranstalter: IDL GmbH Mitte - Datum: 10. - 12.11.2014 - Veranstaltungsort: Frankfurt am Main) Drei Tage volles Programm mit Experten, Fachwissen, spannenden Praxis-Beispielen, Tipps Tricks und persönlichem Austausch. Voranmeldungen für das 29. IDL-Anwendertreffen in Frankfurt am Main sind bereits möglich. Tipp: Lösen Sie auch gleich Ihren Treue-Rabatt ein! Alle weiteren wichtigen Infos erhalten Sie dann automatisch und zeitgerecht von unserem Event-Team. cundus Webinar: BI zum Frühstück (Veranstalter: cundus AG) Verpassen Sie auch in diesem Jahr nicht unser umfangreiches Webinar-Angebot zu den aktuel- len Business Intelligence Beratungsthemen. Nutzen Sie die Erfahrungen unserer Experten und die zahlreichen Praxisbeispiele, um einen ganz persönlichen Nutzen und Mehrwert für Ihr Unternehmen zu erzielen. Steigen Sie im Anschluss direkt in die Diskussionsrunde ein und erhalten Sie von unseren Experten hilfreiche Antworten auf Ihre ganz persönlichen Fragen. Gönnen Sie sich unsere BI-Webinare zum Frühstück. Melden Sie sich noch heute an und nehmen Sie bequem von Ihrem Arbeitsplatz teil - kostenlos, kompakt und prägnant! BRANCHENÜBERSICHT - VERANSTALTUNGSVERZEICHNIS 126
  • 127.
    Competence Book -Business Intelligence A Ad-hoc Analyse Analysen, die im Rahmen eines Business-In- telligence-Prozesses sofort Antwort auf spe- zielle Fragen geben. Meistens münden die Auswertungen in einem statistischen Modell, einem analytischen Bericht oder eines ande- ren Art von Datenzusammenfassung. Advanced Analytics In die Zukunft gerichtete Erweiterung der Business Intelligence, bei der Prognosen der zukünftigen Entwicklung und ‚What-if- Fragen‘ stärker im Vordergrund stehen als die Analyse der Ist-Situation bzw. der Ver- gangenheit. B Benchmark Systematischer und kontinuierlicher Pro- zess des Vergleichens von Produkten, Dienstleistungen und Prozessen im eigenen Unternehmen sowie mit denen in fremden Unternehmen. Big Data Große Datenmengen, die mit Hilfe von Standard-Datenbanken und Daten-Manage- ment-Tools nicht oder nur unzureichend ver- arbeitet werden können. Blog Ein Blog ist ein, meist öffentlich geführtes, und damit einsehbares Tagebuch oder Jour- nal im Internet. Mindestens eine Person, der sogenannte „Blogger“ führt Aufzeichnungen, protokolliert Sachverhalte oder schreibt Ge- danken nieder zu einem bestimmten Thema. Business Intelligence (BI) Verfahren und Prozesse zur systematischen Analyse (Sammlung, Auswertung und Dar- stellung) von Daten in elektronischer Form. Ziel ist die Gewinnung von Erkenntnissen, die in Hinsicht auf die Unternehmensziele bessere operative oder strategische Ent- scheidungen ermöglichen. BI aus der Cloud Business-Intelligence-Dienste werden als Service bezogen und nach Verbrauch ab- gerechnet. Der BI-Dienstleister übernimmt hierbei nicht nur den kompletten Aufbau der Infrastruktur, sondern stellt den Anwendern auch bereits vorgefertigte Berichte und Ana- lysen zur Verfügung (Software as a Service). C Clickstream-Analyse Der Pfad, den ein Nutzer auf einer Website genommen hat, bis er zu einem bestimmten Inhalt gelangt ist, wird als Clickstream be- zeichnet. Durch eine Clickstream-Analyse werden die optimalen Navigationspfade er- mittelt, an deren Ende sich der Aufruf einer speziellen Seite befindet. Cloud Computing Bezug von IT-Diensten nach Bedarf und die Abrechnung nach Verbrauch (Software as a Service). Cluster Zusammenfassung mehrerer Computersys- teme zu einem Rechnerverbund. D Datenbankmanagement-System Ein Informationsverwaltungssystem, das aus Daten besteht sowie Programmen mit de- nen die Daten verwaltet und verarbeitet wer- den können. Es kann als eine Art Sammlung für alle Daten verstanden werden und ist ver- antwortlich für die Speicherung, Sicherheit, Integrität, Wiederherstellung und den Zugriff auf die Daten Data Mart Kleinere, funktions- oder abteilungsbezo- gene Data Warehouses, die abhängig von einem zentralen Data Warehouse oder auch dezentral unabhängig aufgebaut werden. Im Gegensatz zum Data Warehouse stehen bei Data Marts die Auswertebedürfnisse der Be- nutzer im Vordergrund. BRANCHENÜBERSICHT - GLOSSAR 127 Glossar zum Thema BI
  • 128.
    Competence Book -Business Intelligence Data Mining Die systematische Anwendung von statis- tisch-mathematischen Methoden auf einem meist sehr großem Datenbestand mit dem Ziel, neue Muster zu erkennen und unter- nehmensrelevante Informationen zu selek- tieren. Data Warehouse Eine von den operativen DV-Systemen se- parierte Datenbank, die unternehmensspe- zifische, historische Daten vereinheitlicht. Ziel ist die Verbesserung der unternehmens- internen Informationsversorgung (Wissens- management) und damit der Unterstützung strategischer Entscheidungen. E Echtzeit-Analysen Analysen, bei denen auf den Datenbestand tages-, stunden-, oder sogar minutenaktu- ell darauf zugegriffen werden kann. Echt- zeit-Analysen dienen Unternehmen dazu, ihre internen und externen Abläufe zu ver- bessern. ETL Extract, Transform, Load ist ein Prozess, bei dem Daten aus mehreren ggf. un- terschiedlich strukturierten Datenquellen in einer Zieldatenbank vereinigt werden. Konkret werden Daten aus verschiedenen Vorsystemen zuerst extrahiert und danach in Form von “Datenpaketen” gesammelt. Die Datenpakete werden mehrstufig weiter verarbeitet (transformiert). Der letzte Schritt ist das Laden der Daten in das relationale Data Warehouse. F Frontend Als Frontend werden spezielle Programme bezeichnet, die eine Oberfläche für ver- schiedene Dienste und andere Programme zur Verfügung stellen. Es kann zum Beispiel Frontends für Datenbanken geben, Fron- tends für Software-Encoder und etliche mehr. Bei Programmen, die auf mehreren Computern laufen, wird das am Client lau- fende Programm Frontend genannt, das am Server laufende Programm Backend. G Geodaten Geodaten sind digitale Informationen, de- nen auf der Erdoberfläche eine bestimmte räumliche Lage zugewiesen werden kann, also raumbezogene Daten. Der Bezug der Daten auf eine bestimmte räumliche Lage kann direkt über eine Koordinate oder aber indirekt z.B. durch Straße und Hausnummer, Postleitzahl, usw. erfolgen. I In-Memory Computing Ein Prozess, der Daten im sehr schnellen Arbeitsspeicher (RAM) verarbeitet und hier- durch viel performanter ist als die Verarbei- tung der Daten auf der Festplatte. H Hadoop Ein skalierbares, verteilt nutzbares Soft- ware-Framework der Apache Software Foundation. Hadoop basiert auf dem MapReduce-Algorithmus und ermöglicht es, intensive Rechenprozesse sehr großer Da- tenmengen im Petabyte-Bereich auf Com- puterclustern durchzuführen. M Map Reduce Der MapReduce-Algorithmus ermöglicht die Verarbeitung von sehr großen Dateien auf verteilten Systemen. Input-Werte werden per „Map“-Funktion zu Zwischenergebnis- sen verarbeitet und anschließend per „Re- duce“-Funktion komprimiert. Datenbestän- de können somit in parallelen Prozessen durchsucht und aufbereitet werden. Mobile Business Intelligence Die Nutzung mobiler BI-Lösungen auf Smartphones oder Tablet-PC. Mit einer mo- bil einsetzbaren BI-Lösung können Anwen- der, unabhängig davon, ob sie online oder offline sind, Informationen auf unterschiedli- chen Endgeräten sichten, weiter analysieren und Daten in die Quellsysteme zurückführen. BRANCHENÜBERSICHT - GLOSSAR 128
  • 129.
    Competence Book -Business Intelligence N Near Time Archivierung Zeitnahe Speicherung und Bereitstellung von relevanten Informationen und Daten im Unternehmen. Oft sind es in Unterneh- men qualitätsrelevante Kennzahlen wie z.B. Mess- oder Prozessdaten, Materialbewe- gungen, Lieferinformationen, die zwar archi- viert werden, aber dennoch jederzeit online abgerufen und verfügbar sein müssen. P Parallele Datenverarbeitung Bei der parallelen Datenverarbeitung werden im Gegensatz zur seriellen Datenverarbei- tung mehrere Daten gleichzeitig (parallel) verarbeitet und übertragen. Pattern-Search-Verfahren Anwender ziehen Informationen aus Daten existierender und künftiger Quellen. Die Auswirkungen ihrer Erkenntnisse lassen sie in die Geschäftsprozesse einfließen und richten optimalerweise ihre Organisation da- nach aus. Predictive Analytics Analysen, die den Anwender unterstützen, zukünftige Ereignisse vorherzusehen und proaktiv, auf Basis dieser Einblicke, bessere Geschäftsergebnisse zu erzielen. Q Query Als Query wird eine einzelne Suchanfrage bezeichnet R Real-Time OLAP (Online Analytical Processing) Eine Softwaretechnologie, die schnelle und interaktive Zugriffe auf relevante Informa- tionen ermöglicht. Vor allem bietet diese Technologie meistens eine komplexe Analy- sefunktionalität, die über die herkömmliche Auswertung relationaler Datenbanken hin- ausgeht. Relationale Datenbank Eine relationale Datenbank dient zur elekt- ronischen Datenverwaltung in Computer- systemen und beruht auf dem relationalen Datenbankmodell. Relationale Datenbanken sind vergleichswei- se einfach und flexibel zu handhaben. Daten werden in Form von Tabellen verwaltet. Die Tabellen stehen meist in Beziehungen zuei- nander, d. h. manche Einträge sind Verweise auf andere Einträge in anderen Tabellen. S Self-Service Business Intelligence (SSBI) Ein Ansatz in der Datenanalyse, bei denen die End-Anwender eigene Analysewerkzeu- ge installieren, um selbständig, schneller und unabhängig von der IT-Abteilung, Bu- siness-Intelligence-Analysen durchführen zu können. Idealerweise können sich die Anwender über eine spezielle Plattform bei- spielsweise in Diskussionsforen austauschen und sich gegenseitig helfen, technische Pro- bleme zu lösen. Retargeting Ein Verfolgungsverfahren im Online Mar- keting, bei dem Besucher einer Website markiert und anschließend auf anderen Webseiten mit gezielter Werbung wieder an- gesprochen werden. Ziel ist es, einen Nutzer, der bereits Interesse für eine Webseite oder ein Produkt gezeigt hat, erneut mit Werbung für diese Webseite oder ein Produkt zu kon- frontieren. Shared-Nothing Eine Architektur, bei der eine gewisse Anzahl Server im Verbund arbeiten (Cluster), wobei jeder Server auf eigenen Daten rechnet. Jeder Server besitzt eigene Prozessoren, Speicher und Festplatten. Es ist kein Mas- ter-Server vorhanden. Dieser Architekturan- satz führt zu einer optimalen Skalierung bei einem Cluster aus vielen Servern. Spaltenweise Speicherung Datenbanken können Daten in Zeilen als auch in Spalten speichern. Bei der spalten- weisen Speicherung werden lediglich die Daten, die für eine Abfrage benötigt werden, in den Arbeitsspeicher geladen. In der An- wendung führt dies, im Vergleich zu einer zeilenweisen Datenablegung, zu einer dra- matischen Reduzierung der ressourcen- und zeitintensiven In-/Output (I/O) Leseprozesse. Es können Laufzeitverbesserungen und bes- sere Kompressionsraten erzielt werden. BRANCHENÜBERSICHT - GLOSSAR 129
  • 130.
    Competence Book -Business Intelligence U Unstrukturierte Daten Daten, die vor allem aus Quellen im Web stammen wie z.B. Portale, Beiträge aus so- zialen Medien, Blog-Einträge, E-Mails und vieles mehr. W Webanalytics Webanalytics bezeichnet die Sammlung und Auswertung des Verhaltens von Besuchern auf Websites. Die hier aufgeführten Begrifflichkeiten wurden uns mit freundlicher Unterstützung der EXASOL AG zur Verfügung gestellt. Ein ausführliches Glossar finden Sie hier: www.exasol.com/glossar BRANCHENÜBERSICHT - GLOSSAR 130
  • 131.
    Competence Book Nr.1 BPM Kompakt Business Process Management für das prozessorientierte Unternehmen Kostenfreie Wunsch-Ausgabe bestellen oder mitmachen unter www.competence-books.de. Competence Book Nr. 15 Talent Management Kompakt Talente finden, fördern, binden Competence Book Nr. 16 Industrie 4.0 Kompakt Industrie 4.0 für die kooperative Produktion von morgen Competence Book Nr. 5 ECM / EIM Kompakt Content / Informationen für die Wissens-Ökonomie Competence Book Nr. 4 CRM Kompakt Customer Relationship Management für das kundenorientierte Unternehmen Competence Book - Business Intelligence Competence Book Nr. 7 ERP Kompakt Enterprise Ressource Planning für eine integrierte Ökonomie 131 WeitereCompetenceBooks Wenn Ihnen dieses Competence Book gefallen hat, können Sie kostenlos weitere Competence Books online herunterladen bzw. vorbestellen oder sogar als Experte und Partner dabei sein. Einige unserer Competence Books finden Sie in dieser Aufstellung. Wir freuen uns über Ihr Mitarbeit!
  • 132.
    WIR DANKEN UNSERENPARTNERN WWW.COMPETENCE-SITE.DE