Unsere Präsentation auf der MID Insight 2014 bei der wir ein agiles Vorgehen für Data Mining Projekte gezeigt haben welches Data Vault 2.0 Konzepte verwendet hat. Mit Live-Demo in RapidMiner.
Präsentation auf der DOAG Konferenz
Metadaten sind ein häufig vernachlässigtes Thema, da Metadaten als langweilig betrachtet oder auch nicht bewusst wahr genommen werden. Auch die eher abstrakten Beschreibungen wie "Metadaten sind Daten über Daten" sind nicht gerade hilfreich.
In der Präsentation werden die verschiedenen Arten von Metadaten (fachlich, technisch, prozessual) besprochen. Es wird darauf eingegangen, wie diese in einem Data Vault Projekt genutzt wurden, um z.B. Vorgaben festzulegen oder Code zu generieren.
Präsentation auf der DOAG Konferenz
Metadaten sind ein häufig vernachlässigtes Thema, da Metadaten als langweilig betrachtet oder auch nicht bewusst wahr genommen werden. Auch die eher abstrakten Beschreibungen wie "Metadaten sind Daten über Daten" sind nicht gerade hilfreich.
In der Präsentation werden die verschiedenen Arten von Metadaten (fachlich, technisch, prozessual) besprochen. Es wird darauf eingegangen, wie diese in einem Data Vault Projekt genutzt wurden, um z.B. Vorgaben festzulegen oder Code zu generieren.
Azure Data Factory – Data Management für die Cloudinovex GmbH
Die Azure Plattform bietet inzwischen sehr viele unterschiedliche Möglichkeiten zur Datenverarbeitung– und Speicherung. Allerdings muss zur effizienten Nutzung der Ressourcen dieses Orchester an Diensten mit den passenden Daten auch dirigiert werden. In diese Rolle springt die Azure Data Factory, die neben Diensten wie HD-Insight oder dem Data Lake auch On-Premise-Datenquellen mitspielen lässt.
Der Vortrag liefert eine Einführung in die Data Factory sowie best practices für Ihre Real-World-Projekte.
SQL Server Konferenz, 24.02.2016
Speaker: Stefan Kirner, inovex GmbH
Weitere Vorträge unter: https://www.inovex.de/de/content-pool/vortraege/
Enabling AgileBI by managing the data warehouse software lifecycle with DataVault 2.0, generators, data virtualization and cotinuous integration using open source tools
DIe Aufzeichnung dieses Webinars steht hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Amazon Redshift ist ein schneller und mächtiger, voll verwalteter Data Warehouse Dienst in der Cloud. Redshift skaliert von Terabytes bis über ein Petabyte bei sehr günstigen Kosten. In diesem Webinar geben wir einen Überblick über den Dienst, zeigen das Aufsetzen eines Redshift-Clusters, die Verwaltung, den Datenimport und die Abfrage des Data Warehouse über SQL und über Partnerwerkzeuge.
"Hybrid Architectures, Data Lakes + Data Warehouse"
The big data discussion continues and the practice shows that Data Lakes do not replace but complement Data Warehouse. Which new scenarios are possible? What are the strengths of hybrid architectures, ie the combination of Data Lakes and Data Warehouses?
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?Guido Schmutz
Have you already asked yourself at the beginning of a SOA or Integration project about the technology you want to use? How and by which protocols do the systems to be integrated communicate? Is it a proprietary protocol or should a standard such as SOAP or RESTful web services be used? What are the disadvantages of one or the other? Is it feasible to implement the integration layer completely in Java or do modern integration platforms such as Oracle Service Bus or Oracle SOA Suite provide the important benefits to get closer to the often proposed IT flexibility and agility? Apart from answering other important questions we will also discuss service categorization and virtualization and present the advantages/disadvantages of a pure and programmatic Java-based approach compared to more declarative approach using languages such as BPEL and/or BPMN.
www.opitz-consulting.com
Inmitten von Digitalisierung und Industrie 4.0 haben sich die Anforderungen für die Speicherung und die anschließende Analyse an klassische, seit vielen Jahren etablierte DWH-Systeme maßgeblich geändert. Bleibt der klassische Ansatz das Mittel der Wahl oder sind Unternehmen gezwungen, die bestehende DWH-Architektur zu modernisieren oder langfristig sogar zu substituieren?
Bei dieser Entscheidung kann es hilfreich sein, sich die Möglichkeiten zur Modernisierung einmal genauer anzusehen. Wie zum Beispiel sollte eine Modernisierung aus technischer Sicht aufgebaut werden, damit die stetig steigenden Anforderungen weiterhin angemessen erfüllt werden können?
Wir möchten in diesem Vortrag einige Architekturszenarien aufzeigen und ihre Vor- und Nachteile einander gegenüberstellen.
Dabei wird deutlich, welche verschiedenen Möglichkeiten es bei der Modernisierung gibt und welche Rolle Data Lakes, Data Labs und die Data Governance dabei spielen. Welche Bedeutung haben diese Schlagwörter und wie sind sie miteinander verwoben? Warum sind viele Big-Data-Technologien unweigerlich mit ihnen verknüpft? Und in welcher Konstellation kann ein Data Lake zu Kosteneinsparungen in der bestehenden Infrastruktur führen?
Des Weiteren berichten wir von einem DWH Offloading Szenario anhand eines Praxisbeispiels und vergleichen hierbei den Einsatz von Oracle- vs. Open Source Technologien.
Diesen Vortrag präsentierte unser Experte Fabian Hardt auf der DOAG Konferenz 2017.
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...Markus Flechtner
Datenbank-Migrationen und -Upgrades scheitern oft nicht an Fehlern in der Datenbank-Software oder in den jeweiligen Prozeduren. Oft sind es (vemeintlich) kleinere Dinge wie veraltete Clients oder fehlende Netzwerk-Anpassungen, die eine Migration zum Scheitern bringen. Der Vortrag bringt Beispiele und Tipps zur Vermeidung.
In diesem Webinar geben wir Ihnen eine Einführung, präsentieren die Möglichkeiten und Fallstricke und beantworten Ihre Fragen rund um das Thema Big Data.
SCHNELLES BIG-DATA-DEYPLOMENT DURCH CONTAINER IN DER CLOUDinovex GmbH
Der Vortrag zeigt, wie komplexe und datenlastige Big-Data-Technolgien instantalliert und bedarfsorientiert deployt werden können. Dafür werden diese mit Docker containerisiert und mithilfe von Kubernetes und Helm in der Cloud oder auf On-Premises-Hardware ausgeführt. Dabei erfolgt der Bau der Containerimages sowie das Deployment automatisiert mittels GitLab CI. Auf diese Weise können aktuelle Releases risikofrei erprobt und das Zusammenspiel einzelner Komponenten in größeren Architekturen evaluiert werden.
Zur Demonstration werden wir ein solches Deployment für einen Zeppelin-Spark-Kafka-Stack in der Google Cloud zeigen und auf die Herausforderungen von Speicher- und Zustandshaltung eingehen.
Event: data2day 2017, 27.09.2017
Speaker: Hans-Peter Zorn, Nico Kreiling, inovex
Mehr Tech-Vorträge: https://www.inovex.de/de/content-pool/vortraege/
Tech-Blog: https://www.inovex.de/blog/
BATbern52 Mobiliar zu Skalierte Datenprodukte mit Data MeshBATbern
Die Gruppe Mobiliar hat sich das Ziel gesetzt, 'unter jedem Dach daheim' zu sein und dabei ein optimales Kundenerlebnis zu bieten. Um dieses Ziel zu erreichen, setzt sie unter anderem auf eine skalierte Datenwertschöpfung als strategische Unternehmensfähigkeit. Bruno Russiniello und Lukas Feuz geben in dieser Präsentation Einblicke in die genaue Bedeutung dieses Ansatzes. Erfahren Sie, wie die Mobiliar durch die Nutzung von Datenprodukten die Digitalisierung aktiv vorantreibt.
Azure Data Factory – Data Management für die Cloudinovex GmbH
Die Azure Plattform bietet inzwischen sehr viele unterschiedliche Möglichkeiten zur Datenverarbeitung– und Speicherung. Allerdings muss zur effizienten Nutzung der Ressourcen dieses Orchester an Diensten mit den passenden Daten auch dirigiert werden. In diese Rolle springt die Azure Data Factory, die neben Diensten wie HD-Insight oder dem Data Lake auch On-Premise-Datenquellen mitspielen lässt.
Der Vortrag liefert eine Einführung in die Data Factory sowie best practices für Ihre Real-World-Projekte.
SQL Server Konferenz, 24.02.2016
Speaker: Stefan Kirner, inovex GmbH
Weitere Vorträge unter: https://www.inovex.de/de/content-pool/vortraege/
Enabling AgileBI by managing the data warehouse software lifecycle with DataVault 2.0, generators, data virtualization and cotinuous integration using open source tools
DIe Aufzeichnung dieses Webinars steht hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Amazon Redshift ist ein schneller und mächtiger, voll verwalteter Data Warehouse Dienst in der Cloud. Redshift skaliert von Terabytes bis über ein Petabyte bei sehr günstigen Kosten. In diesem Webinar geben wir einen Überblick über den Dienst, zeigen das Aufsetzen eines Redshift-Clusters, die Verwaltung, den Datenimport und die Abfrage des Data Warehouse über SQL und über Partnerwerkzeuge.
"Hybrid Architectures, Data Lakes + Data Warehouse"
The big data discussion continues and the practice shows that Data Lakes do not replace but complement Data Warehouse. Which new scenarios are possible? What are the strengths of hybrid architectures, ie the combination of Data Lakes and Data Warehouses?
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?Guido Schmutz
Have you already asked yourself at the beginning of a SOA or Integration project about the technology you want to use? How and by which protocols do the systems to be integrated communicate? Is it a proprietary protocol or should a standard such as SOAP or RESTful web services be used? What are the disadvantages of one or the other? Is it feasible to implement the integration layer completely in Java or do modern integration platforms such as Oracle Service Bus or Oracle SOA Suite provide the important benefits to get closer to the often proposed IT flexibility and agility? Apart from answering other important questions we will also discuss service categorization and virtualization and present the advantages/disadvantages of a pure and programmatic Java-based approach compared to more declarative approach using languages such as BPEL and/or BPMN.
www.opitz-consulting.com
Inmitten von Digitalisierung und Industrie 4.0 haben sich die Anforderungen für die Speicherung und die anschließende Analyse an klassische, seit vielen Jahren etablierte DWH-Systeme maßgeblich geändert. Bleibt der klassische Ansatz das Mittel der Wahl oder sind Unternehmen gezwungen, die bestehende DWH-Architektur zu modernisieren oder langfristig sogar zu substituieren?
Bei dieser Entscheidung kann es hilfreich sein, sich die Möglichkeiten zur Modernisierung einmal genauer anzusehen. Wie zum Beispiel sollte eine Modernisierung aus technischer Sicht aufgebaut werden, damit die stetig steigenden Anforderungen weiterhin angemessen erfüllt werden können?
Wir möchten in diesem Vortrag einige Architekturszenarien aufzeigen und ihre Vor- und Nachteile einander gegenüberstellen.
Dabei wird deutlich, welche verschiedenen Möglichkeiten es bei der Modernisierung gibt und welche Rolle Data Lakes, Data Labs und die Data Governance dabei spielen. Welche Bedeutung haben diese Schlagwörter und wie sind sie miteinander verwoben? Warum sind viele Big-Data-Technologien unweigerlich mit ihnen verknüpft? Und in welcher Konstellation kann ein Data Lake zu Kosteneinsparungen in der bestehenden Infrastruktur führen?
Des Weiteren berichten wir von einem DWH Offloading Szenario anhand eines Praxisbeispiels und vergleichen hierbei den Einsatz von Oracle- vs. Open Source Technologien.
Diesen Vortrag präsentierte unser Experte Fabian Hardt auf der DOAG Konferenz 2017.
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...Markus Flechtner
Datenbank-Migrationen und -Upgrades scheitern oft nicht an Fehlern in der Datenbank-Software oder in den jeweiligen Prozeduren. Oft sind es (vemeintlich) kleinere Dinge wie veraltete Clients oder fehlende Netzwerk-Anpassungen, die eine Migration zum Scheitern bringen. Der Vortrag bringt Beispiele und Tipps zur Vermeidung.
In diesem Webinar geben wir Ihnen eine Einführung, präsentieren die Möglichkeiten und Fallstricke und beantworten Ihre Fragen rund um das Thema Big Data.
SCHNELLES BIG-DATA-DEYPLOMENT DURCH CONTAINER IN DER CLOUDinovex GmbH
Der Vortrag zeigt, wie komplexe und datenlastige Big-Data-Technolgien instantalliert und bedarfsorientiert deployt werden können. Dafür werden diese mit Docker containerisiert und mithilfe von Kubernetes und Helm in der Cloud oder auf On-Premises-Hardware ausgeführt. Dabei erfolgt der Bau der Containerimages sowie das Deployment automatisiert mittels GitLab CI. Auf diese Weise können aktuelle Releases risikofrei erprobt und das Zusammenspiel einzelner Komponenten in größeren Architekturen evaluiert werden.
Zur Demonstration werden wir ein solches Deployment für einen Zeppelin-Spark-Kafka-Stack in der Google Cloud zeigen und auf die Herausforderungen von Speicher- und Zustandshaltung eingehen.
Event: data2day 2017, 27.09.2017
Speaker: Hans-Peter Zorn, Nico Kreiling, inovex
Mehr Tech-Vorträge: https://www.inovex.de/de/content-pool/vortraege/
Tech-Blog: https://www.inovex.de/blog/
BATbern52 Mobiliar zu Skalierte Datenprodukte mit Data MeshBATbern
Die Gruppe Mobiliar hat sich das Ziel gesetzt, 'unter jedem Dach daheim' zu sein und dabei ein optimales Kundenerlebnis zu bieten. Um dieses Ziel zu erreichen, setzt sie unter anderem auf eine skalierte Datenwertschöpfung als strategische Unternehmensfähigkeit. Bruno Russiniello und Lukas Feuz geben in dieser Präsentation Einblicke in die genaue Bedeutung dieses Ansatzes. Erfahren Sie, wie die Mobiliar durch die Nutzung von Datenprodukten die Digitalisierung aktiv vorantreibt.
QUIBIQ Webcast: SAP on Azure - Erfolgsfaktor Integration für SAP-/MS-PartnerQUIBIQ Hamburg
Im Webcast, der sich im Allgemeinen an den IT-Channel und im Besonderen an SAP- und Microsoft-Partner richtet, geht es unter anderem um
• die Gestaltung von vertikalen, wertschöpfenden „as a Service“-Lösungen
• Value-Added-Service im Bereich Systemintegration
• Integrations-Services für Daten und Prozesse
• Applikations-Integration
und Mehrwertleistungen von QUIBIQ und Tech Data für Microsoft- und SAP-Partner.
http://www.opitz-consulting.com/go/3-6-11
Oracle Enterprise Manager 12c Cloud Control sammelt zahlreiche Daten auf fast allen Ebenen der IT-Infrastruktur. Gerade durch die Engineered Systems wird die Rolle des Cloud Control immer wichtiger. Somit fallen nicht nur Datenbank-Metriken an, sondern auch Middleware- und Infrastruktur-Daten, wie z. B. von Loadbalancern.
Oft steht in der Praxis der Einsatz des OEM als Monitoring-Werkzeug im Vordergrund: Die Rohdaten („Current Metrics") der überwachten Ziele werden zeitnah, innerhalb weniger Tage nach Sammlung aggregiert und verlieren durch diese Verdichtung für spätere Datenanalysen an Informationsgehalt. Detaillierte Analysen der Infrastrukturdaten über längere Zeiträume sind deshalb nicht möglich. Andererseits sprechen wirtschaftliche Gründe und die Performance gegen eine langfristige Speicherung von großen Datenmengen in der OEM Repository Datenbank oder in anderen, dedizierten RDBMS. In der Praxis beobachtet man zusätzliche Metrikdaten in der Größenordnung von 50-100 GB/ Monat, was eine Realtime-Auswertung schwer macht. Damit bleiben aufgrund von Budgetrestriktionen Potenziale in den historischen Daten ungenutzt oder die Abfragegeschwindigkeit von Auswertungen geht in den zweistelligen Minutenbereich.
Unser Datenbankspezialist Ingo Reisky stellte in einem Vortrag bei der DOAG Konferenz 2014 gemeinsam mit Matthias Fuchs von der Firma ISE Information Systems Engineering vor, wie Metrikdaten von z. B. Oracle Datenbanken und Oracle Fusion Middleware in einem Hadoop Cluster gespeichert und mit Standard-Mitteln aus der Hadoop-Welt analysiert und visualisiert werden können.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Erfolgsfaktoren einer datengetriebenen Customer-Care-Optimierunginovex GmbH
Der Net Promoter Score (Kundenzufriedenheit), der Churn (Kündigungen) und die Anzahl der Servicekontakte sind die zentralen KPIs im Bereich Customer Care. Die eindimensionale Betrachtung dieser Kennzahlen ist die Basis für Reportings sowie für die Steuerung des operativen Geschäftes. Durch den Big-Data-Ansatz werden diese KPIs zusammen mit vielen weiteren Datenquellen vereint und zu Informationen aufbereitet. Dadurch kann eine ganzheitliche Betrachtung der kundenseitigen Ursachen für Kontakte, Kündigungen und Zufriedenheitsratings erfolgen.
Der Vortrag gibt einen Einblick in den Entstehungs- und Entwicklungsprozess des Big Data Hubs bei der 1&1 Internet SE. Dabei liegt der Fokus, neben dem technischen Aufbau, auf den weichen Erfolgsfaktoren sowie der kontinuierlichen Ergebnis- und Erfolgskommunikation in Richtung der Stakeholder. Neben der Anwendung klassischer Data-Mining-Techniken wird im Weiteren auch auf die Evolution und einfache Bereitstellung der Ergebnisse für die Fachbereiche eingegangen.
Event: data2day, 27.09.2017
Speaker: Dr. Stefan Igel (inovex), Matthias Wurdig (1&1)
Mehr Tech-Vorträge: https://www.inovex.de/de/content-pool/vortraege/
Mehr Tech-Artikel: https://www.inovex.de/blog
ENGINEERING Cyber Security für Public, Energy, Health Feb. 2023.pdfHans Peter Knaust
Die Engineering ITS GmbH unterstützt Städte und Gemeinden bei der Entwicklung moderner, offener Smart City-Strategien in Deutschland. Zusammen entwickeln wir Konzepte wie sich IT-Infrastrukturen, Smart City-Anwendungen und Fachverfahren gegen Cyberangriffe optimal schützen lassen.
Inhalt:
Angesichts von rasant steigenden und sich stetig verändernden Anforderungen an Daten kommen zentralisierte Organisationsformen in der Datenarchitektur zunehmend an ihre Grenzen. Data Mesh verfolgt einen dezentralen, domänengesteuerten Ansatz im Daten-Management und überträgt die Verantwortung für die Daten und die Datenqualität den Fachbereichen (Domänen). Daten werden als Produkt behandelt, das die Fachbereiche unternehmensweit vermarkten. In unserem Expertengespräch diskutieren Datenspezialisten von IBsolution gemeinsam mit Gordon Witzel, SAP Customer Advisory Platform & Data Management Expert, die grundlegenden Prinzipien und die Vorteile von Data Mesh. Außerdem gehen sie darauf ein, wie Unternehmen Data Mesh umsetzen können und welche Voraussetzungen dafür erfüllt sein müssen.
Zielgruppe:
- IT-Leiter
- IT-Mitarbeiter
- Fachbereichsleiter
- Mitarbeiter aus den Fachbereichen
- CIO, CDO, CFO
Agenda:
- Warum ein dezentraler Ansatz in der Daten-Architektur?
- Auf welchen Prinzipien beruht Data Mesh?
- Daten als Produkt - was bedeutet das?
- Wie lässt sich Data Mesh im Unternehmen realisieren?
Mehr über uns:
Website: https://www.ibsolution.com/
Karriereportal: https://ibsolution.de/karriere/
Webinare: https://www.ibsolution.com/academy/webinare
YouTube: https://www.youtube.com/user/IBSolution
LinkedIn: https://de.linkedin.com/company/ibsolution-gmbh
Xing: https://www.xing.com/companies/ibsolutiongmbh
Facebook: https://de-de.facebook.com/IBsolutionGmbH/
Instagram: https://www.instagram.com/ibsolution/?hl=de
Das könnte Sie auch interessieren:
https://www.ibsolution.com/academy/webinar-aufzeichnungen/business-intelligence-der-weg-in-die-sap-data-warehouse-cloud
Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)Praxistage
"Faster way to better products" – Vernetzte Produktentwicklung in Zeiten der Digitalisierung. Gestaltung von Produktentwicklungsprozessen über die Unternehmensgrenzen hinweg auf Basis der neuen Cloud-Architekturen von SAP. Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)
Christoph Mertens_IDSA_Introduction to Data Spaces.pptxFIWARE
Das D-A-CH Meeting bringt deutschsprachige FIWARE-Enthusiasten zu hochkarätigen Vorträgen und wertvollen Networking-Möglichkeiten zusammen. Ein besonderer Fokus liegt auf dem FIWARE iHubs Programm, das Beratung und Peers-Diskussionen für diejenigen bietet, die an der Gründung eines FIWARE iHubs interessiert sind. Aber das ist noch nicht alles! Wir haben noch weitere Highlights auf Lager, darunter die faszinierende Ausstellung "SMART WORLD by FIWARE", die komplett aus Legosteinen gebaut ist.
Außerdem lassen wir viel Zeit zum Netzwerken und Business Talks bei Snacks und Getränken mit der Stadt Herne, NRW und ihren Spielern und mit Vertretern aus Österreich und der Stadt Wien im Speziellen. Aus DACH und darüber hinaus werden einige iHubs vertreten sein, auch das in Kürze entstehende iHub in Wien.
Denodo: Die Lösung für harmonisierte ESG-InformationsquellenIBsolution GmbH
Inhalt:
Entdecken Sie in unserem Webinar, wie Denodo Ihnen hilft, ESG-Reporting zu vereinfachen, indem es Daten aus verschiedenen Unternehmensbereichen nahtlos zusammenführt. Erleben Sie in einer Live-Demo, wie Denodo unterschiedliche Systeme durch seinen zentralen Zugriffslayer harmonisiert und diese Informationen einem ESG-Tool effizient bereitstellt. Auf diese Weise wird eine der größten Herausforderungen im Bereich des ESG-Reporting gelöst.
"Denodo ist der führende Anbieter für Datenvirtualisierung, welche den Datenzugriff, die Datenverwaltung und die Datenbereitstellung über eine breite Palette von Unternehmens-, Cloud-, Big Data- und unstrukturierten Datenquellen anbietet, ohne die Daten aus ihren ursprünglichen Speicherorten zu verschieben. Kunden von Denodo aus allen wichtigen Branchen zeichnen sich durch Agilität in Ihren Geschäften und einen hohen ROI aus." Weitere Infos finden Sie hier.
Zielgruppe:
- IT-Leiter
- CIO
- SAP-Systemverantwortliche
- Enterprise-Architekten
- SAP BI-Experten
Agenda:
1. Herausforderung der Datensammlung für ESG-Reporting
2. Denodo als Lösung: Funktionen und Vorteile
3. Live-Demo: Harmonisierung verschiedener Systeme mit Denodo
4. Zusammenfassung und Vorteile der Verwendung von Denodo im ESG-Reporting
5. Q&A
Mehr über uns:
Website: https://www.ibsolution.com/
Karriereportal: https://ibsolution.de/karriere/
Webinare: https://www.ibsolution.com/academy/webinare
SlideShare: https://de.slideshare.net/IBSolutionGmbH
LinkedIn: https://de.linkedin.com/company/ibsolution-gmbh
Xing: https://www.xing.com/companies/ibsolutiongmbh
Facebook: https://de-de.facebook.com/IBsolutionGmbH/
Instagram: https://www.instagram.com/ibsolution/?hl=de
Weitere Informationen: https://www.ibsolution.com/data-and-analytics/esg-reporting
Webinar - Sehr empfehlenswert: wie man aus Daten durch maschinelles Lernen We...Cloudera, Inc.
Unternehmen sind heutzutage in der Lage ihre Daten mit relativer Leichtigkeit aufzunehmen und zu verwalten. Die Herausforderung besteht nun darin, die verborgenen Muster in den Daten zu erkennen und diese zu verstehen, um einen Mehrwert zu generieren. Aufgrund der großen Datenmengen gelingt dies mit traditionelle Ansätzen zumeist nicht. Das Ergebnis: Organisationen kämpfen, um wirklich zu innovieren und sich zu differenzieren.
Die Public Cloud bietet Innovationen, die Unternehmen in den nächsten Jahren dringend brauchen. So hat Amazon Web Services allein im vergangenen Jahr über 700 neue, hilfreiche und produktive Dienste bereitgestellt.
Allerdings ist die Transformation vom eigenen Rechenzentrum hin zur Public Cloud nicht immer einfach. Neben der technischen Vorgehensweise stellen sich Fragen zu Sicherheit, Datenschutz, Monitoring, Reporting und Support.
Hilfe beim Einstieg in die Cloud-Angebote von AWS leisten Managed Public Cloud Provider (MPCP) wie Claranet. Erst mit ihnen lässt sich das volle Potenzial der Public Cloud ausschöpfen. Das Webinar zeigt Ihnen konkret, wie MPCP Sie auf dem Weg in die Cloud unterstützen.
Learning Objectives:
• Das kann die Public Cloud für Ihr Unternehme leisten.
• Das sind die Herausforderungen auf dem Weg in die Cloud.
• So helfen Managed Public Cloud Provider (MPCP), die Dienste von AWS zu nutzen.
• So haben andere Unternehmen ihre Projekte dank MPCP bereits erfolgreich in die Cloud gebracht.
Who Should Attend:
CTOs, CIOs, CISOs, IT-Leiter, IT Administrator, IT Architects and IT Security Engineers
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...Trivadis
Die Helsana (https://www.helsana.ch), die Nummer 2 der grössten Krankenversicherungen der Schweiz, verfolgt eine moderne Cloud-First Strategie. Um komplexe Marketingkampagnen mit einem hohen Grad an Automatisierung ausführen zu können, wurden von Helsana diverse Produkte evaluiert. Leider fand sich keines, welches allen Anforderungen genügte. In enger Zusammenarbeit mit Microsoft wurde die zu 100% Azure-basierte Anwendung CRM-Analytics (CRMa) erstellt, welche Leads und Aufgaben aus dem Dynamics CRM gemäss komplexen Verteilregelwerken an die Regionen, Niederlassungen und Kundenbetreuer verteilt. Die Resultate und Performance der Kampagnen können über eine Data Analytics Strecke analysiert und in PowerBI visualisiert werden. Manuelle Prozesse zur Zielgruppenselektion wurden automatisiert und die Zeit von der Idee bis zur Selektion der Zielgruppe konnte von 10(!) Tagen auf einige Minuten reduziert werden. Mit der Einführung von CRMa hat die Helsana einen massgebenden Schritt in die Digitalisierung und zu einem ganzheitlichen Kampagnenmanagement geschafft.
SAP Cloud Identity Access Governance vs. SAP GRC, Access Control - Ein techn...IBsolution GmbH
Inhalt:
SAP Cloud Identity Access Governance (IAG) ist der erste aus einer Reihe von Diensten der neuen Cloud-Lösungen für das Identity- und Access-Management. Er hilft Ihnen durch eine zentralisierte Auswertung aller Nutzeraktivitäten in Ihren Systemen, Zugriffsrechte zu verwalten und Prozesse zu optimieren. Anhand dieser Analysen können Sie Rollenkonflikte oder Zugriffsprobleme frühzeitig erkennen und beheben. SAP Access Control (SAP AC) hingegen ist die on-premise Lösung für die Auswertung, Verwaltung und Optimierung der Zugriffsrechte, inklusive der Funktionstrennungsprüfungen anhand der Segregation-of-Duty (SoD) Matrix.
Im ersten Teil haben wir die Funktionen von SAP Access Control und IAG miteinander verglichen und veranschaulichten in einer Live-Demo die SoD-Prüfungen (Segregation of Duties / Funktionstrennung) auf Rollen und Userebene.
Im zweiten Teil gehen wir nun auf die SoD-Matrix ein und stellen in einer Live-Demo die Erstellung und Pflege von Funktionen, Regeln und Risiken vor.
Zielgruppe:
- IT-Leiter
- SAP-Verantwortliche
- CISO
Agenda:
1. Überblick und Architektur
2. Live-Demo Rollen und Userprüfung
3. Pflege SoD-Matrix
Mehr über uns:
Website: https://www.ibsolution.com/
Karriereportal: https://ibsolution.de/karriere/
Webinare: https://www.ibsolution.com/academy/webinare
YouTube: https://www.youtube.com/user/IBSolution
LinkedIn: https://de.linkedin.com/company/ibsolution-gmbh
Xing: https://www.xing.com/companies/ibsolutiongmbh
Facebook: https://de-de.facebook.com/IBsolutionGmbH/
Twitter: https://twitter.com/ibsolutiongmbh?lang=de
Instagram: https://www.instagram.com/ibsolution/?hl=de
Weitere Informationen: https://www.ibsolution.com/sap-cyber-security
BATbern52 SBB zu Data Products und KnacknüsseBATbern
Mit den Data Products und dem Data Mesh weht ein neuer Wind durch die Data Analytics-Stuben. Konzepte, die im Bereich des Software Engineerings bereits etabliert sind, werden für neue Analytics-Vorhaben entsprechend adaptiert. Dies Nähe zur Software Entwicklung ist nicht erstaunlich, stammen doch die Prinzipien des Data Mesh aus dem Umfeld von Martin Fowler. Die Grundgedanken sind bestechend einfach: das Data Product als eine klar abgegrenzte Einheit mit klaren Regeln und Daten, die einen Mehrwert für den Datennutzer bieten. Diese Data Products können in einer Mesh-Architektur miteinander verknüpft und zu einem funktionierenden Ganzen zusammengefügt werden. Damit soll der «Ad-Hoc»-Charakter, der vielen Analytics-Lösungen innewohnt, überwunden werden. Bei der Adaption von Data Products in eine bestehende Analytics-Landschaft müssen technische und organisatorische Hürden genommen und viel Überzeugungsarbeit in der Analytics-Gemeinde geleistet werden. Wir nehmen Euch mit auf diese Reise, die noch nicht zu Ende ist.
Ähnlich wie Agiles Data Mining mit Data Vault 2.0 (20)
The document discusses using the Data Vault 2.0 methodology for agile data mining projects. It provides background on a customer segmentation project for a motor insurance company. The Data Vault 2.0 modeling approach is described as well as the CRISP-DM process model. An example is then shown applying several iterations of a decision tree model to a sample database, improving results with each iteration by adding additional attributes to the Data Vault 2.0 model and RapidMiner process. The conclusions state that Data Vault 2.0 provides a flexible data model that supports an agile approach to data mining projects by allowing incremental changes to the model and attributes.
This document provides an overview and introduction to Salesforce CRM. It discusses what Salesforce CRM is, how to log in and navigate the system, and some of the standard objects like Accounts, Contacts, Opportunities, and Leads. It also covers importing web traffic data, different types of reports in Salesforce like tabular, summary, and matrix reports, and using views to segment and sort data. The goal is to give attendees an understanding of the basic functionality and capabilities of the Salesforce CRM platform.
The document discusses reports in Google Analytics, including:
- An overview of Google Analytics features and reports for metrics like traffic sources, audience behavior, and conversions.
- How to understand the layout and structure of reports, customize dashboards, compare metrics, and explore key reports like audience, traffic sources, and content.
- Exercises for attendees to dig into sample report data and identify trends in metrics like visits, new visitors, and search traffic over time.
The document introduces Visual DataVault, a modeling language for visually expressing Data Vault models. It aims to generate DDL from models and support Microsoft Office. The language defines basic entities like hubs, links, satellites and reference tables. It also covers query assistant tables, computed structures, exploration links and business vault tables to enhance the raw data vault. Some remarks note it focuses on logical not physical modeling and more features are planned.
This document outlines an agenda for a Piwik exercise on web traffic and analytics tools. It introduces concepts like metrics, dimensions, and actions. It then demonstrates Piwik, a free open source web analytics tool, showing the dashboard, reports, graphs, and different metrics that can be tracked. Finally, it lists three exercises for attendees to complete involving analyzing bounce rate, exit rate, and conversion rate data in Piwik.
The document announces the Data Modeling Zone 2013 conference to be held in Hannover, Germany. It lists Steve Hoberman as the organizer and two speakers: Rick van der Lans who will discuss data modeling for NoSQL databases and big data, and Harm van der Lek who will speak about how Data Vault needs only two fundamental concepts, not three. It also provides the location of the event at the Courtyard by Marriott Hotel Maschsee in Hannover.
3. VORSTELLUNG
Agiles Data Mining mit Data Vault 2.0
Agiles 02.12.2014 Data Mining mit Data Vault 2.0 3
4. TIMO CIRKEL
BI-Consultant
Certified Data Vault 2.0 Practitioner
Analyse von Versicherungsnehmern
Spezialisiert auf CRM, Softwareentwicklung,
DWH Automatisierung
Branchen: Versicherungen, Versorger
B.Sc. Wirtschaftsinformatik
02.12.2014 Agiles Data Mining mit Data Vault 2.0 4
5. MICHAEL OLSCHIMKE
Senior BI-Consultant
Certified Data Vault 2.0 Practitioner
Offizieller Data Vault 2.0 Trainer in Europa
Lehrkraft Hochschule Hannover
Spezialisiert auf Data Vault 2.0, Data Mining,
CRM, Projektmanagement
Branchen: Versicherung, Automobil, Handel,
Öffentlicher Sektor, Non-Profits
02.12.2014 Agiles Data Mining mit Data Vault 2.0 5
6. • Mittelständisches
Beratungsunternehmen
• Offizieller Partner von Dan
Linstedt in Europa
• Beratung, Schulungen, Umsetzung
• Branchen:
• Versicherungen
• Automobil
• Banken
• Handel
• Pharma
• Telekommunikation
DÖRFFLER & PARTNER GMBH
02.12.2014 Agiles Data Mining mit Data Vault 2.0 6
7. HINTERGRUND
Agiles Data Mining mit Data Vault 2.0
Agiles 02.12.2014 Data Mining mit Data Vault 2.0 7
8. DATA MINING PROJEKT BEI DER VGH
KFZ-Versicherung
Kundensegmentierung
Ein erster Data Mining Pilot, daher:
Keine konkreten Vorgaben
Zielvorstellung entwickelt sich
Agiles Projektvorgehen
Enge Zusammenarbeit mit Fachbereich
02.12.2014 Agiles Data Mining mit Data Vault 2.0 8
9. • Extrahieren von
Informationen und
Mustern aus
vorhandenen Daten
• Vier (große)
Kategorien:
• Segmentierung
• Klassifikation
• Vorhersage
• Assoziation
• Vielzahl an
Algorithmen und
Verfahren verfügbar
DATA MINING PROJEKTE
„Der Begriff Data Mining […]
beschreibt die Extraktion implizit
vorhandenen, nicht trivialen und
nützlichen Wissens aus großen,
dynamischen, relativ komplex
strukturierten Datenbeständen.“
Datenbank
Anwendung
Anwender
Data-Mining-
Techniken
Aussagen, Regeln &
Informationen
Data Dictionary
Fachwissen
02.12.2014 Agiles Data Mining mit Data Vault 2.0 9
10. DATA VAULT 2.0 MODELLIERUNG
Surrogate
Key
Business
Keys
Foreign Keys
Descriptors
Eigene Darstellung in Anlehnung an Linstedt, 2014
02.12.2014 Agiles Data Mining mit Data Vault 2.0 10
11. DATA VAULT 2.0 VORGEHENSWEISE
Data Vault
2.0
Vorgehens-weise
Six
Sigma
TQM
Scrum CMMI
PMP
SDLC
02.12.2014 Agiles Data Mining mit Data Vault 2.0 11
12. DATA VAULT 2.0 VORGEHENSWEISE FÜR DATA MINING
Vorteile
• Agile Projektplanung für DWH Projekte
• Automatisierung und Generierung
• Schnelle Anpassung von Modelländerungen
• Inkrementielles Erweitern des Modells =
inkrementielles Kostenmanagement
• Zielgerichtete Auslieferung = zweiwöchige Sprints
• Vorhersagbare und messbare Ergebnisse
Nachteile
• Fokus auf Laden von Rohdaten und Produzieren
der Informationen
• Wenig Ansatzpunkte für Data Mining
• Viele Konzepte nicht notwendig für Data Mining
Projekte
• Schwierige Skalierbarkeit von Data Mining
Projekten bezüglichTeamgröße
02.12.2014 Agiles Data Mining mit Data Vault 2.0 12
13. CRISP-DM
Eigene Darstellung in Anlehnung an Chapman, et. al., 2000
02.12.2014 Agiles Data Mining mit Data Vault 2.0 13
14. PROZESSMODELL
Prozessmodell – VGH Kundensegmentierung
ivv KTC D & P
Daten in Data Vault
Modell speichern
Daten abziehen
Algorithmus
auswählen
Segmentierung
ausführen
Ergebnis erzielt?
Ja
Ergebnis
präsentieren
Ergebnis ok?
Ende
Ja
Start
Gütefunktion
erarbeiten
SQL-Query erstellen
Relevante VN-Attribute
ermitteln
Nein Formel ok?
Ja
Nein
Algorithmen
erforschen
Nein
Geeigneter
Algorithmus
gefunden?
Ja
Nein
02.12.2014 Agiles Data Mining mit Data Vault 2.0 14
16. BEISPIEL
Agiles Data Mining mit Data Vault 2.0
Agiles 02.12.2014 Data Mining mit Data Vault 2.0 16
17. BEISPIEL
AdventureWorks-Datenbank
Szenario:
Werbekampagne für ein neues Fahrrad
Identifikation der Zielgruppe
Lösungsmethode:
Entscheidungsbaumverfahren
Relevante Attribute in mehreren Iterationen
identifizieren
Lachev, 2005, S. 238ff
Einfaches
Beispiel
02.12.2014 Agiles Data Mining mit Data Vault 2.0 17
18. Agiles Data Mining mit Data Vault 2.0 18
10066 Datensätze
Attribute
Marital
Status
Gender
Yearly
Income
Total
Children
Education
Number Cars
Owned
Commute
Distance
Occupation
House Owner
Flag
Age
19. ITERATION 1: DATA VAULT 2.0 MODELL
English
Education
Numbers Cars
Owned
Gender
Marital Status
Sat
Customer
Hub
Customer
Customer Key
Commute
Distance
Age
House Owner
Flag
English
Occupation
Sat Category
Product
Category
02.12.2014 Agiles Data Mining mit Data Vault 2.0 19
20. ITERATION 1: RAPIDMINER PROZESS
Datenbeschaffung
Datenvorbereitung
Modellierung
02.12.2014 Agiles Data Mining mit Data Vault 2.0 20
23. ITERATION 2: DATA VAULT 2.0 MODELL
English
Education
Numbers Cars
Owned
Gender
Marital Status
Sat
Customer
Hub
Customer
Sat Customer
Income
Customer Key
Commute
Distance
Age
House Owner
Flag
English
Occupation
Sat Customer
Children
Sat Category
Total
Children
Yearly
Income
Product
Category
02.12.2014 Agiles Data Mining mit Data Vault 2.0 23
24. ITERATION 2: RAPIDMINER PROZESS
Datenbeschaffung
Aufbereitung Modellierung
02.12.2014 Agiles Data Mining mit Data Vault 2.0 24
26. ITERATION 3: DATA VAULT 2.0 MODELL
English
Education
Numbers Cars
Owned
Gender
Marital Status
Sat
Customer
Hub
Customer
Sat Customer
Income
Customer Key
Commute
Distance
Age
House Owner
Flag
English
Occupation
Sat Customer
Children
Sat Category
Total
Children
Yearly
Income
Product
Category
Commute
Distance Miles
CSat Customer
Distance
02.12.2014 Agiles Data Mining mit Data Vault 2.0 26
27. ITERATION 3: RAPIDMINER PROZESS
Datenbeschaffung
Aufbereitung Modellierung
02.12.2014 Agiles Data Mining mit Data Vault 2.0 27
29. FAZIT
Agiles Data Mining mit Data Vault 2.0
Agiles 02.12.2014 Data Mining mit Data Vault 2.0 29
30. FAZIT
Data Vault ist ein flexibles Datenmodell, mit sehr guter
Unterstützung für agiles Projektvorgehen
Data Vault Modellierung stellt keine weitere Hürde dar
Weitere Attribute können jederzeit hinzugefügt werden
Nachvollziehbarkeit der Änderungen
Keine Änderungen an bestehenden Objekten nötig
Prozesse können iterativ erweitert und umgebaut
werden
Vorhandene Prozesse weiterhin lauffähig und können
jederzeit wiederholt werden
Business Vault: transparente Datenaufbereitung
02.12.2014 Agiles Data Mining mit Data Vault 2.0 30
31. WEITERFÜHRENDE INFORMATIONEN
Erscheint
2015
verfügbar
www.doerffler.com www.datavault.de www.learndatavault.com
Erscheint
2015
02.12.2014 Agiles Data Mining mit Data Vault 2.0 31
32. Give us Feedback
Agiles Data Mining mit Data Vault 2.0 32
http://goo.gl/lGO4ZE
Source: vasilijonline.com
02.12.2014
Hinweis der Redaktion
In dieser slides nur die logos austauschen. Zum ausprobieren neuer designs /diskutieren haben wir keine zeit
Kurz auf das DM Projekt bei der VGH eingehen.
Auf den BI Spektrum Artikel hinweisen
Ziele des Projekts
Verwendete Tools. CRISP-DM verwendet. Etc.
Ggf. Weitere slides aufmachen
Namen der Versicherung nennen?
Keine konkreten Vorgaben
Attribute entwickeln sich über Zeit
Begriff „Kunde“ zunächst nicht genau definiert
Nur Privatkunden oder auch Firmen?
Versicherungsnehmer oder Fahrzeughalter?
Welche Vertragsarten?
Wie werden „gute“ Kunden bestimmt?
Hubs, Links, Satelliten Kurz erklärt mit VDV. Schau in den Ordner Sources, dort kannst du dich bedienen.
Wir können keine Daten und Erkenntnisse der VGH präsentieren
Daher Ausweichen auf AdventureWorks
Setup aus Buch übernommen
Kurz auf adenture works dw eingehen
Background informationen
Modell der relevanten Tabellen
25 attribute, 500k datensätze
Auf das erste DV Modell eingehen.
Demo in rapidminer
Auch auf measures eingehen (accuracy, oder precision/recall).
Am besten grafisch in RM darstellen.