Erfahren Sie hier, welche Projektszenarien unsere Data
Management-Lösungen unterstützen und wie diese Ihre
Projekte beschleunigen, Geschäftsprozesse optimieren
und wichtige Entscheidungen auf ein verlässliches und
sicheres Fundament stellen.
Laut Gartner Group ist heute für die Mehrzahl der Hersteller die mangelhafte Integration von Fertigungssystemen in Unternehmensanwendungen die größte Herausforderung. Es fehlt die transparente, durchgängige Sicht auf die Fertigung, was die Möglichkeiten zur schnellen Reaktion auf Ereignisse und Prozesse stark einschränkt.
Erfahren Sie hier, welche Projektszenarien unsere Data
Management-Lösungen unterstützen und wie diese Ihre
Projekte beschleunigen, Geschäftsprozesse optimieren
und wichtige Entscheidungen auf ein verlässliches und
sicheres Fundament stellen.
Laut Gartner Group ist heute für die Mehrzahl der Hersteller die mangelhafte Integration von Fertigungssystemen in Unternehmensanwendungen die größte Herausforderung. Es fehlt die transparente, durchgängige Sicht auf die Fertigung, was die Möglichkeiten zur schnellen Reaktion auf Ereignisse und Prozesse stark einschränkt.
Datenqualität in DWH-Projekten bei Versicherungen(für Informatica Fachtreffen)CGI Germany
Data quality and data model quality are key for Solvency II compliance and risk management of insurance companies. The presentation shows how to manage it.
2012 04-17 Die automatische Post- und RechnungseingangsbearbeitungBARC GmbH
Systeme für das Input Management (IM) können viele Prozesse rund um die Posteingangs- und Rechnungsbearbeitung automatisieren und beschleunigen. Sie übernehmen die Klassifikation, Datenextraktion, Verteilung und Bearbeitung von entsprechenden Dokumenten im Unternehmen.
Gewinnen Sie einen Einblick in dieses Thema mithilfe des Vortrags unseres Enterprise-Content-Management-Analysten Michael Schiklang.
Sie haben von ITIL® bereits gehört, es ist Ihnen aber nicht klar, welcher Mehrwert durch dieses Regelwerk für die Geschäftsprozesse Ihres Unternehmens entstehen kann? Sie haben ITIL® bereits eingeführt und sind aufgeführt, die Mehrwerte und den Nutzen für Ihr Business gegenüber der Geschäftsleitung aufzuzeigen. Antworten auf diese Fragen/Herausforderungen finden Sie in diesem Vortrag.
Vorteile und Einsatzfelder integrierter Toolsets zur Modellierung von Manufac...Thomas Schulz
Im Jahre 1992 wurde die Manufacturing Execution Systems Association International (MESA) als Vereinigung von Entwicklern, Herstellern und Dienst leistenden Serviceunternehmen gegründet. Ziel ist es, das herkömmliche Modell eines Produktionsplanung und Steuerungssystem in Komponenten mit Blickrichtung auf eine unternehmensweite Integration aufzuteilen. Hauptsächliches Anwendungsgebiet ist die automatisierte Fertigung mit ihrer gesamten Breite und Vielfalt. Dabei werden sowohl technische, betrieblich-organisatorische als auch betriebswirtschaftlich-administrative Funktionen integriert
BI und ECM - Verbindung von strukturierten und unstrukturierten DatenBARC GmbH
Endlich einmal umfassend informiert sein – dazu müssen die strukturierten Daten (Fachsysteme, BI-Anwendungen) mit den unstrukturierten Daten (Dokumente) verbunden werden. Um einen echten Nutzen zu erreichen, müssen die Zusammenhänge erkannt und die Inhalte bedarfsgerecht in den Geschäftsprozessen bereitgestellt werden. Dabei ist zu beachten, dass sich die Informationswelt bspw. durch Social Media ändert. Eine umfassende Strategie und entsprechende Werkzeuge zu deren Umsetzung sind erforderlich.
Erfahren Sie mehr über die Zusammenhänge und die aktuellen Entwicklungen mithilfe des Vortrags unseres ECM-Analysten Martin Böhn (Head of Enterprise Content Management ), der im Rahmen des BI-Forums auf der diesjährigen CeBIT gehalten wurde.
Der Markt für Planungs- und Controlling-SystemeBARC GmbH
Insbesondere aus der Finanzkrise haben Unternehmen erkannt, wie wichtig Transparenz über das Geschehen im Unternehmen und seinem Umfeld sowie flexible Planungs- und Prognose-Möglichkeiten für die Zukunft zur eigenen Steuerung sind. Insbesondere die Planung hat aus diesem Grund durch die Finanzkrise nochmals immens an Bedeutung gewonnen. Am Markt für Planungs- und Controlling-Systeme werden im deutschsprachigen Raum ca. 40-50 Systeme angeboten, die im Gegensatz zu Excel eine umfassende Unterstützung des gesamten Planungs- und Controlling-Prozesses durch vordefinierte, integrierte Funktionen und Logiken bieten. Nichtsdestotrotz bleibt Excel weiterhin als alleiniges oder ergänzendes Software-Werkzeug für Planung die meistgenutzte Lösung.
Die vorliegende Ausarbeitung ist eine gute Grundlage für die Vorbereitung auf die ITIL (Edition 2011) Zertifizierung, Foundation Level, ohne Anspruch auf Vollständigkeit. Alle Inhalte basieren auf der offiziellen deutschen Übersetzung (Erstveröffentlichung 2013) der fünf englischen ITIL-Kernpublikationen des Cabinet Office (2011) und werden sinngemäß oder als Zitat wiedergegeben, welche jedoch ohne separat als solche kenntlich gemacht sind. Bei der vorliegenden Version handelt es sich um einen ersten unvollständigen Entwurf und einem Mix aus deutscher und englischer Sprache, welcher zu einem späteren Zeitpunkt vervollständigt / korrigiert / angepasst wird, sich derzeit jedoch bereits sehr gut als Workbook für die Prüfungsvorbereitung eignet.
Strategien für Corporate Data ManagementBoris Otto
Diese Präsentation erläutert die strategische Bedeutung von Stammdatenqualität und stellt ausgewählte Beispiele der strategischen Verankerung des Stammdatenmanagements im Unternehmen vor.
Die Präsentation wurde gehalten am IIR Stammdaten-Management Forum 2010 in Bad Homburg.
Erfolgreiche ITIL-Tool-Implementierung in der Praxis, am Beispiel o2Digicomp Academy AG
Im Rahmen der ITIL®-Schulungen werden immer auch die Prozess-unterstützenden Tools besprochen. Die Herausforderung bei der Einführung und Implementierung eines solchen Tools sollten nicht unterschätzt werden.
Referentin: Vera Eggersdorfer
Vortrag "Spend Quality Time with your Data" zum WELT POKAL 2011Vizlib Ltd.
Informationen sind eine wichtige Ressource im 21. Jahrhundert. Aber leider werden nur Bruchteile von Informationen für Entscheidungen genutzt.
Die Aussagekraft der Informationen ist teilweise unbekannt. Entscheidungen fallen daher oft unter großer Unsicherheit.
Datenqualität in DWH-Projekten bei Versicherungen(für Informatica Fachtreffen)CGI Germany
Data quality and data model quality are key for Solvency II compliance and risk management of insurance companies. The presentation shows how to manage it.
2012 04-17 Die automatische Post- und RechnungseingangsbearbeitungBARC GmbH
Systeme für das Input Management (IM) können viele Prozesse rund um die Posteingangs- und Rechnungsbearbeitung automatisieren und beschleunigen. Sie übernehmen die Klassifikation, Datenextraktion, Verteilung und Bearbeitung von entsprechenden Dokumenten im Unternehmen.
Gewinnen Sie einen Einblick in dieses Thema mithilfe des Vortrags unseres Enterprise-Content-Management-Analysten Michael Schiklang.
Sie haben von ITIL® bereits gehört, es ist Ihnen aber nicht klar, welcher Mehrwert durch dieses Regelwerk für die Geschäftsprozesse Ihres Unternehmens entstehen kann? Sie haben ITIL® bereits eingeführt und sind aufgeführt, die Mehrwerte und den Nutzen für Ihr Business gegenüber der Geschäftsleitung aufzuzeigen. Antworten auf diese Fragen/Herausforderungen finden Sie in diesem Vortrag.
Vorteile und Einsatzfelder integrierter Toolsets zur Modellierung von Manufac...Thomas Schulz
Im Jahre 1992 wurde die Manufacturing Execution Systems Association International (MESA) als Vereinigung von Entwicklern, Herstellern und Dienst leistenden Serviceunternehmen gegründet. Ziel ist es, das herkömmliche Modell eines Produktionsplanung und Steuerungssystem in Komponenten mit Blickrichtung auf eine unternehmensweite Integration aufzuteilen. Hauptsächliches Anwendungsgebiet ist die automatisierte Fertigung mit ihrer gesamten Breite und Vielfalt. Dabei werden sowohl technische, betrieblich-organisatorische als auch betriebswirtschaftlich-administrative Funktionen integriert
BI und ECM - Verbindung von strukturierten und unstrukturierten DatenBARC GmbH
Endlich einmal umfassend informiert sein – dazu müssen die strukturierten Daten (Fachsysteme, BI-Anwendungen) mit den unstrukturierten Daten (Dokumente) verbunden werden. Um einen echten Nutzen zu erreichen, müssen die Zusammenhänge erkannt und die Inhalte bedarfsgerecht in den Geschäftsprozessen bereitgestellt werden. Dabei ist zu beachten, dass sich die Informationswelt bspw. durch Social Media ändert. Eine umfassende Strategie und entsprechende Werkzeuge zu deren Umsetzung sind erforderlich.
Erfahren Sie mehr über die Zusammenhänge und die aktuellen Entwicklungen mithilfe des Vortrags unseres ECM-Analysten Martin Böhn (Head of Enterprise Content Management ), der im Rahmen des BI-Forums auf der diesjährigen CeBIT gehalten wurde.
Der Markt für Planungs- und Controlling-SystemeBARC GmbH
Insbesondere aus der Finanzkrise haben Unternehmen erkannt, wie wichtig Transparenz über das Geschehen im Unternehmen und seinem Umfeld sowie flexible Planungs- und Prognose-Möglichkeiten für die Zukunft zur eigenen Steuerung sind. Insbesondere die Planung hat aus diesem Grund durch die Finanzkrise nochmals immens an Bedeutung gewonnen. Am Markt für Planungs- und Controlling-Systeme werden im deutschsprachigen Raum ca. 40-50 Systeme angeboten, die im Gegensatz zu Excel eine umfassende Unterstützung des gesamten Planungs- und Controlling-Prozesses durch vordefinierte, integrierte Funktionen und Logiken bieten. Nichtsdestotrotz bleibt Excel weiterhin als alleiniges oder ergänzendes Software-Werkzeug für Planung die meistgenutzte Lösung.
Die vorliegende Ausarbeitung ist eine gute Grundlage für die Vorbereitung auf die ITIL (Edition 2011) Zertifizierung, Foundation Level, ohne Anspruch auf Vollständigkeit. Alle Inhalte basieren auf der offiziellen deutschen Übersetzung (Erstveröffentlichung 2013) der fünf englischen ITIL-Kernpublikationen des Cabinet Office (2011) und werden sinngemäß oder als Zitat wiedergegeben, welche jedoch ohne separat als solche kenntlich gemacht sind. Bei der vorliegenden Version handelt es sich um einen ersten unvollständigen Entwurf und einem Mix aus deutscher und englischer Sprache, welcher zu einem späteren Zeitpunkt vervollständigt / korrigiert / angepasst wird, sich derzeit jedoch bereits sehr gut als Workbook für die Prüfungsvorbereitung eignet.
Strategien für Corporate Data ManagementBoris Otto
Diese Präsentation erläutert die strategische Bedeutung von Stammdatenqualität und stellt ausgewählte Beispiele der strategischen Verankerung des Stammdatenmanagements im Unternehmen vor.
Die Präsentation wurde gehalten am IIR Stammdaten-Management Forum 2010 in Bad Homburg.
Erfolgreiche ITIL-Tool-Implementierung in der Praxis, am Beispiel o2Digicomp Academy AG
Im Rahmen der ITIL®-Schulungen werden immer auch die Prozess-unterstützenden Tools besprochen. Die Herausforderung bei der Einführung und Implementierung eines solchen Tools sollten nicht unterschätzt werden.
Referentin: Vera Eggersdorfer
Vortrag "Spend Quality Time with your Data" zum WELT POKAL 2011Vizlib Ltd.
Informationen sind eine wichtige Ressource im 21. Jahrhundert. Aber leider werden nur Bruchteile von Informationen für Entscheidungen genutzt.
Die Aussagekraft der Informationen ist teilweise unbekannt. Entscheidungen fallen daher oft unter großer Unsicherheit.
lokal-radar ist das regionale Onlineportal, in dem sich Unternehmen und Geschäfte einer Region präsentieren und vernetzen.
Als „Fußgängerzone im Internet“ lädt es zum stöbern ein und lockt User vom Bildschirm zurück in die Innenstadt.
Die wichtigsten Fragen und Antworten zum
Versenden von E-Mails und Newsletter:
E-Mailmarketing ist ein gern und oft eingesetztes Mittel, um Leads zu generieren und Kunden an das eigene Unternehmen zu binden. Beim Versenden der Mails ist rechtlich jedoch einiges zu beachten. Unerwünschte E-Mail-Werbung ist verboten. Dazu gehört auch das Versenden von Newslettern, denn jede einzelne Newsletter-Ausgabe ist als Werbemail einzustufen und reicht bereits für eine Abmahnung aus.
Werbe-E-Mails bergen aus Sicht des Gesetzgebers ein hohes Belästigungspotential, denn sie verursachen kaum Kosten und können daher massenweise verschickt werden. An die Versendung sind daher gesetzlich besonders hohe Anforderungen geknüpft, die wir in dem neuen Booklet vorstellen.
In dem Booklet wurden die wichtigsten FAQ auf insgesamt 28 Seiten für Unternehmen zusammen gestellt. In der kleinen informativen Broschüre geben wir kurz und knapp Antworten auf die wichtigsten Fragen. Themen sind u.a.:
Warum erfordert die Versendung von E-Mails das vorherige Einverständnis?
Was ist die Konsequenz, wenn ich mich nicht an das Gesetz halte?
Was “kostet” eine Abmahnung?
Wie holt man das Einverständnis korrekt ein?
Ist das Double Opt-In noch zulässig?
"I‘m a gamer": Technologienutzung von älteren Personen am Beispiel der Kommun...Nia Katranouschkova
Diese Präsentation wurde auf der Konferenz "Mensch und Compter 2014" in München vorgestellt.
Ziel der Studie ist das Untersuchen des Umgangs von Älteren im täglichen Umgang mit Technologie im Kontext der Pflege von sozialen Beziehungen.
Ältere Menschen stellen vor dem Hintergrund des demografischen Wandels eine wachsende Zielgruppe dar. Doch welche Rolle spielt Technologie im Alltag der Generation 60+? Nutzen sie Kommunikationstechnik für soziale Beziehungen? Viele Senioren fühlen sich wenig IT-affin. Studien zeigen, dass „außenstehende Skeptiker“ im Durchschnitt 63 Jahre alt sind (Initiative D21 e.V., TNS Infratest GmbH, 2013, S. 48).
Zur Untersuchung dieser Fragen haben die Autorinnen der Studie eine Contextual Inquiry durchgeführt und 9 Personen zuhause befragt und beobachtet. Die Auswertung zeigte, dass es in dieser Studie „die Alten“ so nicht gibt. Vielmehr ist eine differenzierte Betrachtung notwendig.
Vollständiger Text: http://www.germanupa.de/events/mensch-und-computer-2014/shortpaper/i-m-a-gamer.html
BARC Was Datenmanagement Messbar Dazu Beitragen KannDataValueTalk
Was ist damit gemeint: “Integrierte Kundensicht?” Wie überträgt man diesen Begriff in die Praxis? Welchen (Mehr-) Nutzen bringt eine integrierte Sicht auf den Kunden? Und wie erstellt man hierfür sinnvolle ROI-Kalkulationen? Wichtige Fragen mit noch wichtigeren Antworten…
Während dieser interaktiven Session wird Human Inference anhand von praxisorientierten Beispielen demonstrieren, welche Vorteile sich für Ihr gesamtes Unternehmen durch die integrierte Sicht auf den Kunden ergeben.
Der Vortrag beschreibt die Architektur eines serviceorientierten, modular erweiterbaren DWH-Modells und dem dazu gehörigen Berichtswesens. Er soll außerdem zeigen, wie ein solches Modell in ein bereits existierendes, stark heterogenes Umfeld eingebunden werden kann.
Die verschiedenen Schichten des DWH-Modells sowie die Einbindung in das Umfeld werden dabei detailliert beschrieben. Auf die Vor- und Nachteile der verschiedenen Modellierungsmöglichkeiten (3NF, Stern, Cube), sowie Aspekte der zukünftigen Erweiterung und Veränderung wird ebenfalls eingegangen. Eine kurze Übersicht über Tuning und Sicherheitsaspekte beendet den ersten Teil.
Der zweite Teil besteht aus einer Übersicht über die Einbindung des Berichtswesens in die Gesamtarchitektur. Verschiedene Ansatzmöglichkeiten für die Bedienung der Anforderungen verschiedener Nutzergruppen werden erarbeitet. Zuletzt werden Ideen zur Konsolidierung und Ablösung eines stark zerklüfteten, sich widersprechenden Berichtswesens gegeben.
Der Vortrag soll damit DWH-Architekten Möglichkeiten aufzeigen, wie man ein DWH zukunftssicher und flexibel modellieren und in ein heterogenes Umfeld einbetten kann. OPITZ CONSULTING Berater Arno Tigges hielt diesen Vortrag am 29.06.2010 bei der DOAG SIG BI/DWH in Köln.
Erschließen Sie neue Geschäftschancen durch optimierte, automatisierte und ...Wolfgang Schmidt
Als Spezialist für digitalisierte Prozesse und Entscheidungsunterstützung auf Basis etablierter Methodik, offener Standards und IBM Middleware lösen wir Ihre Schnittstellenprobleme, schaffen flexible, optimierte und automatisierte Prozessanwendungen und verbessern mittels mathematischer und kognitiver Verfahren Ihre Entscheidungsprozesse – On-Premises, in der Cloud oder in hybriden Szenarien.
Unsere Expertise in Digitalisierung und Entscheidungsunterstützung
Prozessintegrationen
-flexibel digitalisiert entlang Ihrer Wertschöpfungskette
-Zeitersparnis durch effizientes Ressourcenmanagement
Entscheidungsprozesse
-automatisiert, Datenanalyse – gestützt und mathematisch optimiert
-mit dem passenden Verfahren, ob cognitive, predictive oder prescriprive
Fachanwendungen
-flexible, optimierte und automatisierte Prozessanwendungen
-mehr Transparenz, mehr Kontrolle und geringere Kosten
Daten- und Anwendungsschnittstellen
-automatisiert, zuverlässig und stabil im Betrieb
-für B2B, M2M oder Industrie 4.0
Middleware-Platformen
-maximal verfügbar, flexibel und skalierbar
-ob Standardapplikation oder IoT, ob Microservices oder SOA
Lösungsarchitektur
-die optimale Lösung mittels Kombination passgenauer Komponenten und Methoden
-Die Mischung macht’s: Ob Open Source, Herstellersoftware oder Cloud-Services
Daten- und Informationsqualitätsmanagement als integraler Baustein von Manage...Marco Geuer
Die Notwendigkeit eines Daten- und Informationsqualitätsmanagements wächst rapide mit der stetigen Zunahme von digitalen Geschäftsmodellen. Hierbei hört man immer wieder die Begriffe wie BigData, Industrie 4.0, Internet of Things (IoT). Eines haben diese Begriffe gemeinsam, es geht um die verstärkte Nutzung von Daten und Informationen zur Wissensanreicherung mit dem Ziel dem Kunden bessere Produkten und Services anbieten zu können. Dies steht und fällt aber mit der Qualität der verwendeten Daten und Informationen.
In dem Vortrag wird die Bedeutung eines Daten- und Informationsqualitätsmanagement dargelegt und wie dieses sinnvollerweise in bestehende Management Systeme (z.B. nach DIN EN ISO 9001) integriert werden kann.
Iodata, Qlik Solution Provider in Projektkooperation zum Thema Industrie 4.0Iodata GmbH
Industrie 4.0- Predictive analytics- Predictive Maintanance- IoT
Der Maschinenpark kommuniziert im Herstellprozess selbständig miteinander und korrigiert bzw. optimiert Produktionsprozesse mit minimaler menschlicher Einwirkung.
Erste Schritte
- Predictive Analytics: um erfolgreich zu starten, müssen heterogene Datenbestände in ein homogenes Datenmodell konsolidiert werden.
- Smart Data: Homogene Datenbestände können nach der Datenvisualisierung Analyseverfahren effizienter gestaltet werden.
- Definierte Korrelationsvorgaben: Vorhandene Datenbestände zu Service-, Liefer-, Lagerkosten, Fachkräfteeinsatz und die Qualität in der Produktion werden mit den Daten aus Qualitätssicherung, Absatz, Kundenverhalten und Umfang von Gewährleistungen in Beziehung gesetzt.
"Erfolgreiche Strategien zur Migration veralteter Software" Präsentation vom ...Bernhard Schimunek
Erleben Sie live bei unserer Webinar-Reihe „Erfolgreiche Strategien zur Migration veralteter Softwareprodukte“, wie Unternehmen mit der passenden Migrationsstrategie bestehende Entwicklungsprobleme beheben, Kosten reduzieren, neue Umsätze generieren und damit ihren Ertrag erhöhen.
Unsere Auftaktveranstaltung vermittelt Ihnen neben der Übersicht gängiger Migrationsmethoden auch Erfolgskriterien zur Auswahl der passenden Strategie, sowie ein erstes Vorgehensmodell zur Realisierung der Entwicklungsumsetzung.
Ziele:
In unseren 45-minütigen Webinar liefern wir Antworten auf die folgenden Fragen:
• Was sind die typischen Gründe, über eine Migration nachzudenken?
• Welche Ziele werden von den Unternehmen angestrebt?
• Welche Herausforderungen sind zu bewältigen?
• Welche Migrationsmethoden gibt es?
• Was sind Erfolgskriterien zur Auswahl der passenden Strategie?
• Welche Prozesse haben sich bei der Umsetzung bewährt?
• Welcher Aufwand ist mit einer Migration verbunden?
• Wie sehen erfolgreiche Praxisbeispiele aus?
Der Referent
Jürgen Sedlaczek - SSI Senior Business Consultant und Analyst - berät Kunden, damit Unternehmen passend zu ihrem Geschäftsmodell mit dem richtigen Migrationsvorgehen nachhaltig und erfolgreich Produkte entwickeln, zeigt auf, welche Strategien hierfür am besten geeignet sind und unterstützt bei der Modernisierung und Entwicklung der Altsysteme.
http://www.opitz-consulting.com/go/3-2-1237
Stammdaten und deren Qualität spielen in der heutigen Zeit mit immer kürzeren Zyklen bei der Produkterstellung und deren Vermarktung eine wesentliche Rolle. Um eine konsistente Sicht auf die Stammdaten erfolgreich meistern zu können, hat sich ein vielfältiger Markt an Softwarelösungen entwickelt.
Um die unterschiedlichen Anforderungen einzelner Unternehmen und Branchen abbilden zu können, haben sich MDM-Systeme mit unterschiedlichen Schwerpunkten entwickelt. Es ist dabei kaum möglich, die Unterschiede der Anbieter und Möglichkeiten im schnelllebigen Markt des MDM zu evaluieren.
In ihrem vierstündigen Workshop bei der TDWI 2015 in München zeigten unser Chief Strategy Officer Rolf Scheuch und Georg Franzke von SAS Deutschland anhand einer Live Demo, wie ein MDM-System exemplarisch aufgebaut werden kann und wie andere Ansätze sich von der gezeigten unterschieden. Es wurde bewusst kein bestimmtes Produkt bewertet, sondern die typischen Probleme standen hierbei im Vordergrund.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
TIQStrategy - Strategieberatung für qualitätsorientiertes Datenmanagement
Datenqualitätsmanagement heute und morgen
1. Datenqualitätsmanagement
heute und morgen
10 „Hin und Weg“-Thesen und ihre Folgen
Prof. Dr.-Ing. Holger Hinrichs
hh@tiq-solutions.de
2. Ein paar Worte…
zu meiner Person:
– Diplom-Informatiker
– Promoviert über „Datenqualitätsmanagement in
Data Warehouse-Systemen“, 2002
– Seit 2004 an der Fachhochschule Lübeck
zur TIQ Solutions GmbH:
– 2004 gegründet
– Bietet kundenindividuelle Lösungen mit
ganzheitlichem Datenqualitätsmanagement
-2-
4. Motivation
Heute weitgehend Konsens: Datenqualität ist
kritischer Erfolgsfaktor
DQ-Werkzeuge entstammen meist dem Data
Warehousing/BI-Umfeld.
Diese Vergangenheit spiegelt sich noch heute in der
Architektur vieler DQ-Werkzeuge wider.
Ziel dieses Vortrags
– Defizite bisheriger DQM-Ansätze offenlegen
– Neue Wege aufzeigen
-4-
5. Ein typisches DQM-Szenario…
Daten- Strategisches
CRM … ...
auswertung Reporting
Fokus auf
Kundendaten
Daten-
Einbahnstraße
Data
bereitstellung
Warehouse
Symptombehandlung
Toolgläubigkeit
Monolithische
Datenintegration ETL / Pauschallösung
und -bereinigung Tool X DQM
Fokus auf
strukturierte Daten
(ERP etc.)
Operative Systeme ...
-5-
6. These 1
Weg von der ausschließlichen Symptombehandlung!
Weil
– organisatorische, technische und prozessinhärente
Mängel bestehen bleiben
– die DQ-Kosten folglich nicht – wie gewünscht –
kontinuierlich sinken können
– DQM nachhaltig sein muss
Hin zur Ursachenorientierung!
-6-
7. These 2
Weg von monolithischen, funktional überfrachteten
Pauschallösungen!
Weil
– sich erst nach einer individuellen Problemanalyse
sagen lässt, welche Gegenmaßnahmen einzuleiten
sind und welche Tools diese adäquat unterstützen
könnten
Hin zu individuellen, auf den konkreten Bedarf
zugeschnittenen Lösungen
-7-
8. These 3
Weg von „Add On“-Lösungen!
Weil
– „unter der Oberfläche“ weiter vieles schief läuft
– auf diese Weise ein ganzheitlicher Ansatz zum DQM a
priori verhindert wird
Hin zu „Built In“-Lösungen!
-8-
9. These 4
Weg vom Fokus auf DWS/BI!
Weil
– DQ-Probleme z. B. im EAI-Umfeld und im operativen
Tagesgeschäft genauso kritisch sein können
– die Ursachen für DQ-Probleme oft im OLTP-Bereich
liegen (Workflows, Software, Organisation)
Hin zu einer gleichberechtigten Betrachtung aller
datenverarbeitenden Prozesse im Unternehmen!
-9-
10. These 5
Weg vom Fokus auf (strukturierte) ERP-Daten!
Weil
– eMails, Textdokumente, Spreadsheets, Zeichnungen,
Webseiten etc. ebenso erfolgskritisch sind
– eine hohe Metadatenqualität Voraussetzung für deren
effektive Nutzung ist
Hin zur Einbeziehung semistrukturierter und
unstrukturierter Daten im Sinne eines
unternehmensweiten Informationsmanagements!
- 10 -
11. These 6
Weg vom Fokus auf eine kleine Teilmenge von DQ-
Merkmalen!
Weil
– DQ mehr ist als Konsistenz und Dublettenfreiheit
– zum Beispiel Aktualität und Genauigkeit ebenfalls
wichtige Merkmale sind (die sich allerdings
ausschließlich ursachenorientiert angehen lassen)
Hin zu einer gleichberechtigten Betrachtung aller DQ-
Merkmale!
- 11 -
12. These 7
Weg von rein domänenunabhängigen DQ-Metriken!
Weil
– diese in vielen Anwendungsbereichen einfach nicht
ausreichend sind
– anwendungsspezifisches Know How (des Kunden!) zur
DQ-Bewertung so unberücksichtigt bleibt
Hin zu domänenspezifischen DQ-Indikatoren!
- 12 -
13. These 8
Weg vom reaktiven DQM!
Weil
– das Kind dann schon in den Brunnen gefallen ist
– vorbeugende Maßnahmen langfristig kostengünstiger
sind
Hin zu einem proaktiven DQM, das den gesamten
„Lebenszyklus“ von Informationen abdeckt!
- 13 -
14. These 9
Weg vom ausschließlichen Fokus auf Kundendaten!
Weil
– Daten aus anderen Domänen (Produktionssteuerung,
Einkauf etc.) ebenfalls Qualitätsmängel aufweisen
können
– diese Mängel durchaus Kostentreiber sein können
Hin zu einer gleichberechtigten Betrachtung aller
Unternehmensdaten!
- 14 -
15. These 10
Weg von einer blinden Technik- bzw. Toolgläubigkeit!
Weil
– der Einkauf eines DQ-Werkzeugs an sich noch gar
nichts bringt
– es auf die Methode ankommt
Hin zu einem methodengetriebenen Werkzeugeinsatz!
- 15 -
16. Hin, aber wie?
Fazit
– Erforderlich ist ein bzgl. Werkzeugeinbindung und
Maßnahmenableitung offenes und flexibles
Steuerungssystem zum DQM.
Ideen
– TDQM als grundlegende Philosophie (Thesen 1, 6, 7, 8, 10)
• DQ-orientierte Unternehmenskultur
• „Informationsprodukte“
– Unternehmensweite Inhalteverwaltung (ECM) (These 5, 9)
– Dienstorientierung (SOA) (Thesen 2, 3, 4)
- 16 -
17. PDCA-Zyklus im (T)DQM
Festlegen von Qualitätsanforde-
rungen an Daten (alle DQ-
Merkmale, alle kritischen
DQ-Verbesserung, nicht
Unternehmensdaten)
nur symptombehandelnd,
sondern auch ursachen- Plan
orientiert:
Prozessoptimierung,
Werkzeugoptimierung,
Schulung, ...
Act Do
Operative
Datenverarbeitung
(in datenintensiven
Geschäftsprozessen)
Check
Messen der Datenqualität,
auch unter Verwendung [PDCA-Zyklus frei nach Deming]
domänenspezifischer
Metriken
- 17 -
18. Unternehmensweite Inhalteverwaltung
Enterprise Content Management (ECM)
Annotierung/ Speicherung/
Retrieval
Klassifizierung Archivierung
Metadatenmanagement inkl. (M)DQM
Text XML
Spreadsheets HTML
Audio Bilder
eMails
Video Zeichnungen
Papier
...
- 18 -
19. Flexibilität durch Dienstorientierung
Service Oriented Architecture (SOA)
– Funktionen, die bisher innerhalb von Softwareapplikationen
„gefangen“ waren, werden in Form von Diensten mit einer
wohldefinierten Schnittstelle nach außen bereit gestellt und
können über Standardprotokolle aufgerufen werden.
Vorteile
– Dienste sind plattform- und betriebssystemunabhängig
– Dienste sind wiederverwendbar
– Dienste sind lose gekoppelt und können flexibel miteinander
verknüpft („orchestriert“) werden
– Dadurch: schnelle und kosteneffiziente Anpassung der
Geschäftsprozesse an neue Gegebenheiten
- 19 -
23. Am Ziel: das DQMS der Zukunft?
Consumer
Service
Orches- Business
tration Processes
Business DQ
Service Service
Bus Bus
DQ DQ Data
ERP ECM
... Planning Measuring Cleansing
Provider
Services Services
Services Services Services
ERP ECM ... DQ Applications
- 23 -
24. Resümee
Wenn DQM nicht in eine Sackgasse führen soll, ist ein
Umdenken erforderlich – bei Unternehmen, Tool-
Herstellern und Beratungshäusern.
Die hier postulierten Thesen können als Richtschnur
dienen auf dem Weg zu einer unternehmensweiten
Datenqualitätskultur.
Allerdings:
– SOA und ECM sind derzeit Hype!
– Einführung von SOA und ECM ist aufwändig!
– Daher schrittweiser Umstieg erforderlich.
- 24 -