In einem Satz ist Data Engineering das Management von Systemen, um Daten nutzbar zu machen.
---
Vollständiger Artikel auf meinem Blog:
https://cedricgaudissart.hashnode.dev/verstandnis-dafur-was-data-engineering-ist-ein-umfassender-leitfaden
BizDataX Transformiert und Synthetisiert neue Testdaten. Entweder wird die Produktionsdatenbank zu Maskierung von Daten benutz, oder die Testdaten werden Synthetisiert und in einer nicht-Produktionsdatenbank eingespeist. Dabei werden Datenmaskierungstechniken wie Unterteilung, Redaktion (Schwärzen), Randomisierung, Generalisierung und Mischen verwendet. Die Maskierung bewahrt sowohl das Format als auch den Kontext der realen Daten, um so neue Datensätze herstellen zu können, welche realitätsnah sowie geeignet für eine Vielzahl von nichtproduzierenden Geschäftsprozessen (zum Beispiel dem Softwareentwicklungsprozess) sind. Es können elementare Maskierungstechniken kombiniert werden, so dass sie einen komplexen Maskierungsalgorithmus bilden, welcher einen Schutz für die Sicherheit Ihrer vertraulichen Daten garantiert. BizDataXsnap-in ermöglicht den Administratoren den Datenmaskierungsprozess manuell zu starten oder dessen Ausführung terminiert zu automatisieren. Die Administratoren können laufende Prozesse beobachten, den Verlauf analysieren sowie Konfigurationsparameter und Benachrichtigungseinstellungen setzen. BizDataX zeigt Leistungsstarke Performance wenn es darum geht grosse Datenmengen zu Maskieren oder zu Synthetisieren. Beispiel: BizDataX verarbeitet ca. 500-600 Millionen Records in ca. 4 Stunden.
Kennen Sie das Potenzial Ihres Unternehmens, welches sich hinter Ihrer Datensammlung verbirgt?
Big Data, dieser Trendbegriff hat in den letzten Jahren an hoher Relevanz gewonnen und nicht ohne Grund! Doch was bedeutet es für Ihr Unternehmen? - Ganz einfach, Daten beinhalten wertvolle Informationen, die es auszuwerten gilt, damit Sie als Unternehmen langfristig erfolgreich agieren können.
Der Weg zum vernetzten Spital: Von Silos zum WorkflowNetcetera
Es stellt sich heute immer wieder die Frage, wie in verschiedenen Applikationen befindliche Daten für andere Anwendungszwecke zur Verfügung gestellt werden können. Wie die Lösung für Daten im Gesundheitssektor aussehen könnte, präsentierte Markus Dietrich, Head of Healthcare zusammen mit Peter Summermatter, CEO der i-engineers, kürzlich anlässlich des Forums Digitale Gesundheit. Sie stellten ein Konzept vor, das es erlaubt, mit den Daten aus den verschiedenen Quellsystemen systemunabhängige Workflows zu gestalten und diese Informationen auch der Aussenwelt zur Verfügung zu stellen.
Der Vortrag beschreibt die Architektur eines serviceorientierten, modular erweiterbaren DWH-Modells und dem dazu gehörigen Berichtswesens. Er soll außerdem zeigen, wie ein solches Modell in ein bereits existierendes, stark heterogenes Umfeld eingebunden werden kann.
Die verschiedenen Schichten des DWH-Modells sowie die Einbindung in das Umfeld werden dabei detailliert beschrieben. Auf die Vor- und Nachteile der verschiedenen Modellierungsmöglichkeiten (3NF, Stern, Cube), sowie Aspekte der zukünftigen Erweiterung und Veränderung wird ebenfalls eingegangen. Eine kurze Übersicht über Tuning und Sicherheitsaspekte beendet den ersten Teil.
Der zweite Teil besteht aus einer Übersicht über die Einbindung des Berichtswesens in die Gesamtarchitektur. Verschiedene Ansatzmöglichkeiten für die Bedienung der Anforderungen verschiedener Nutzergruppen werden erarbeitet. Zuletzt werden Ideen zur Konsolidierung und Ablösung eines stark zerklüfteten, sich widersprechenden Berichtswesens gegeben.
Der Vortrag soll damit DWH-Architekten Möglichkeiten aufzeigen, wie man ein DWH zukunftssicher und flexibel modellieren und in ein heterogenes Umfeld einbetten kann. OPITZ CONSULTING Berater Arno Tigges hielt diesen Vortrag am 29.06.2010 bei der DOAG SIG BI/DWH in Köln.
BizDataX Transformiert und Synthetisiert neue Testdaten. Entweder wird die Produktionsdatenbank zu Maskierung von Daten benutz, oder die Testdaten werden Synthetisiert und in einer nicht-Produktionsdatenbank eingespeist. Dabei werden Datenmaskierungstechniken wie Unterteilung, Redaktion (Schwärzen), Randomisierung, Generalisierung und Mischen verwendet. Die Maskierung bewahrt sowohl das Format als auch den Kontext der realen Daten, um so neue Datensätze herstellen zu können, welche realitätsnah sowie geeignet für eine Vielzahl von nichtproduzierenden Geschäftsprozessen (zum Beispiel dem Softwareentwicklungsprozess) sind. Es können elementare Maskierungstechniken kombiniert werden, so dass sie einen komplexen Maskierungsalgorithmus bilden, welcher einen Schutz für die Sicherheit Ihrer vertraulichen Daten garantiert. BizDataXsnap-in ermöglicht den Administratoren den Datenmaskierungsprozess manuell zu starten oder dessen Ausführung terminiert zu automatisieren. Die Administratoren können laufende Prozesse beobachten, den Verlauf analysieren sowie Konfigurationsparameter und Benachrichtigungseinstellungen setzen. BizDataX zeigt Leistungsstarke Performance wenn es darum geht grosse Datenmengen zu Maskieren oder zu Synthetisieren. Beispiel: BizDataX verarbeitet ca. 500-600 Millionen Records in ca. 4 Stunden.
Kennen Sie das Potenzial Ihres Unternehmens, welches sich hinter Ihrer Datensammlung verbirgt?
Big Data, dieser Trendbegriff hat in den letzten Jahren an hoher Relevanz gewonnen und nicht ohne Grund! Doch was bedeutet es für Ihr Unternehmen? - Ganz einfach, Daten beinhalten wertvolle Informationen, die es auszuwerten gilt, damit Sie als Unternehmen langfristig erfolgreich agieren können.
Der Weg zum vernetzten Spital: Von Silos zum WorkflowNetcetera
Es stellt sich heute immer wieder die Frage, wie in verschiedenen Applikationen befindliche Daten für andere Anwendungszwecke zur Verfügung gestellt werden können. Wie die Lösung für Daten im Gesundheitssektor aussehen könnte, präsentierte Markus Dietrich, Head of Healthcare zusammen mit Peter Summermatter, CEO der i-engineers, kürzlich anlässlich des Forums Digitale Gesundheit. Sie stellten ein Konzept vor, das es erlaubt, mit den Daten aus den verschiedenen Quellsystemen systemunabhängige Workflows zu gestalten und diese Informationen auch der Aussenwelt zur Verfügung zu stellen.
Der Vortrag beschreibt die Architektur eines serviceorientierten, modular erweiterbaren DWH-Modells und dem dazu gehörigen Berichtswesens. Er soll außerdem zeigen, wie ein solches Modell in ein bereits existierendes, stark heterogenes Umfeld eingebunden werden kann.
Die verschiedenen Schichten des DWH-Modells sowie die Einbindung in das Umfeld werden dabei detailliert beschrieben. Auf die Vor- und Nachteile der verschiedenen Modellierungsmöglichkeiten (3NF, Stern, Cube), sowie Aspekte der zukünftigen Erweiterung und Veränderung wird ebenfalls eingegangen. Eine kurze Übersicht über Tuning und Sicherheitsaspekte beendet den ersten Teil.
Der zweite Teil besteht aus einer Übersicht über die Einbindung des Berichtswesens in die Gesamtarchitektur. Verschiedene Ansatzmöglichkeiten für die Bedienung der Anforderungen verschiedener Nutzergruppen werden erarbeitet. Zuletzt werden Ideen zur Konsolidierung und Ablösung eines stark zerklüfteten, sich widersprechenden Berichtswesens gegeben.
Der Vortrag soll damit DWH-Architekten Möglichkeiten aufzeigen, wie man ein DWH zukunftssicher und flexibel modellieren und in ein heterogenes Umfeld einbetten kann. OPITZ CONSULTING Berater Arno Tigges hielt diesen Vortrag am 29.06.2010 bei der DOAG SIG BI/DWH in Köln.
Schritt-für-Schritt-Anleitung zur erfolgreichen SAP Systemstilllegung.docxAVENDATA
Erforschen Sie die Bedeutung der Decommissionierung von SAP-Systemen in der digitalen Ära. Dabei werden die Vorzüge und Schwierigkeiten der Abschaltung älterer Systeme unter Berücksichtigung der Datenintegrität und -konformität behandelt.
BATbern52 SBB zu Data Products und KnacknüsseBATbern
Mit den Data Products und dem Data Mesh weht ein neuer Wind durch die Data Analytics-Stuben. Konzepte, die im Bereich des Software Engineerings bereits etabliert sind, werden für neue Analytics-Vorhaben entsprechend adaptiert. Dies Nähe zur Software Entwicklung ist nicht erstaunlich, stammen doch die Prinzipien des Data Mesh aus dem Umfeld von Martin Fowler. Die Grundgedanken sind bestechend einfach: das Data Product als eine klar abgegrenzte Einheit mit klaren Regeln und Daten, die einen Mehrwert für den Datennutzer bieten. Diese Data Products können in einer Mesh-Architektur miteinander verknüpft und zu einem funktionierenden Ganzen zusammengefügt werden. Damit soll der «Ad-Hoc»-Charakter, der vielen Analytics-Lösungen innewohnt, überwunden werden. Bei der Adaption von Data Products in eine bestehende Analytics-Landschaft müssen technische und organisatorische Hürden genommen und viel Überzeugungsarbeit in der Analytics-Gemeinde geleistet werden. Wir nehmen Euch mit auf diese Reise, die noch nicht zu Ende ist.
Inhalt:
Befinden Sie sich mitten in der digitalen Transformation? Ist die Aufbereitung Ihrer Produktivdaten eine Herausforderungen? Sie sind damit nicht alleine. Datenmigrationsprojekte stellen Unternehmen oft vor große Herausforderungen, auch in Hinblick auf dem Weg zu SAP S/4HANA. Erfahren Sie in unserem Webinar, wie Sie Migrationsprojekte erfolgreich aufsetzen und durchführen können.
Zielgruppe:
- Projektleiter
- Stammdatenverantwortliche
Agenda:
- Herausforderungen einer Datenmigration
- Zeitlicher Ablauf
- Ressourcen
Mehr über uns:
Website: https://www.ibsolution.com/
Karriereportal: https://ibsolution.de/karriere/
Webinare: https://www.ibsolution.com/academy/webinare
YouTube: https://www.youtube.com/user/IBSolution
LinkedIn: https://de.linkedin.com/company/ibsolution-gmbh
Xing: https://www.xing.com/companies/ibsolutiongmbh
Facebook: https://de-de.facebook.com/IBsolutionGmbH/
Instagram: https://www.instagram.com/ibsolution/?hl=de
Das könnte Sie auch interessieren:
https://www.ibsolution.com/data-and-analytics/daten-migration-in-sap
Es handelt sich hier um die Slides aus der Präsentation auf der ShareConf am 10.06.2015 in Düsseldorf.
Die Gründe für eine Migration – wenn Daten eines Altsystems auf ein neues System überzusiedeln sind – können vielschichtig sein. Meistens verspricht man sich von einem neuen System zusätzliche Funktionalität. Aber auch die geringe Leistungsfähigkeit des Altsystems, oder die Tatsache, dass der Hersteller das Altsystem nicht mehr pflegt oder unterstützt, spielen eine Rolle.
Diese und weitere Überlegungen bewegen Unternehmen in der SharePoint-Welt, eine Migration ins Auge zu fassen. Da es sich bei SharePoint um eine der leistungsfähigsten und flexibelsten Plattformen handelt, wird meist eine Migration von fremdartigen Systemen, wie Fileshares, Livelink, oder Lotus Notes zu SharePoint durchgeführt. Soll dieser Wechsel gelingen, muss man sich früher oder später mit diesem Thema fachlich auseinandersetzen.
In diesem Vortrag erfahren Sie wie Migrationsprojekte geplant werden sollten und wo die typischen Stolperfallen lauern.
Applikationsmodernisierung: Der Weg von Legacy in die CloudAarno Aukia
Stell Dir vor: Du willst einen 6000er besteigen. Eine gute Vorbereitung, gutes Material und professionelles Wissen sind dabei unabdingbar.
Du schnappst Dir einen Berg-Guide, der Dich bei schwierigen Passagen unterstützt und Dir das passende Know-How weitergibt. Das schwere Material kannst Du auf ein Team aufteilen, das genau weiss, welche Pakete Du am sinnvollsten schnürst. Sie zeigen Dir zudem, welchen unnötigen Ballast Du abwerfen kannst.
Am Ende stehst Du am Ziel – Dich erwartet ein grossartiges Resultat und die Zufriedenheit des Vollbrachten.
Genau so fühlt sich die Reise Deiner Legacy Applikation an.
Im Webinar zeigen Dir die drei Partnerfirmen Object Engineering, Puzzle und VSHN, wie Du Deine Applikationen fit hältst. Dabei geben sie Dir einen Einblick, wie Experten die Applikationen analysieren, aufpeppen und den Betrieb sicherstellen können.
Erfahren Sie hier, welche Projektszenarien unsere Data
Management-Lösungen unterstützen und wie diese Ihre
Projekte beschleunigen, Geschäftsprozesse optimieren
und wichtige Entscheidungen auf ein verlässliches und
sicheres Fundament stellen.
Wie kann Digitalisierung in der Instandhaltung genutzt werden? Welche Vorgehensweisen und Überlegungen sind wichtig? Welchen Einfluss haben Digital Twin, Predictive Maintenance und vernetzte Sensorsysteme auf die Prozesse und Teams in der Instandhaltung?
Das Whitepaper „Die digitale Transformation der Instandhaltung“ skizziert ausgewählte Inhalte des Werkzeugkoffers für die digitale Transformation der Instandhaltung und bereitet sie für die Praxis auf.
Wie kann Digitalisierung in der Instandhaltung genutzt werden? Welche Vorgehensweisen und Überlegungen sind wichtig? Welchen Einfluss haben Digital Twin, Predictive Maintenance und vernetzte Sensorsysteme auf die Prozesse und Teams in der Instandhaltung?
Das Whitepaper „Die digitale Transformation der Instandhaltung“ skizziert ausgewählte Inhalte des Werkzeugkoffers für die digitale Transformation der Instandhaltung und bereitet sie für die Praxis auf.
Dieses Paper beschreibt den Einsatz von ITIL zur Optimierung von Arbeitsprozessen im Rechenzentrum der Hochschule Harz am Beispiel des Release Managements. Es wird dargestellt, wie die vorhandenen Prozesse als Teil des process life cycle im Ist-Zustand erfasst und anhand des ITIL-“Best Practice”-Framework in den Soll-Zustand überführt werden. Dabei wird ein Projektfazit gezogen und ein Ausblick auf den zukünftigen Einsatz von ITIL im Rechenzentrum der Hochschule Harz gegeben.
"Erfolgreiche Strategien zur Migration veralteter Software" Präsentation vom ...Bernhard Schimunek
Erleben Sie live bei unserer Webinar-Reihe „Erfolgreiche Strategien zur Migration veralteter Softwareprodukte“, wie Unternehmen mit der passenden Migrationsstrategie bestehende Entwicklungsprobleme beheben, Kosten reduzieren, neue Umsätze generieren und damit ihren Ertrag erhöhen.
Unsere Auftaktveranstaltung vermittelt Ihnen neben der Übersicht gängiger Migrationsmethoden auch Erfolgskriterien zur Auswahl der passenden Strategie, sowie ein erstes Vorgehensmodell zur Realisierung der Entwicklungsumsetzung.
Ziele:
In unseren 45-minütigen Webinar liefern wir Antworten auf die folgenden Fragen:
• Was sind die typischen Gründe, über eine Migration nachzudenken?
• Welche Ziele werden von den Unternehmen angestrebt?
• Welche Herausforderungen sind zu bewältigen?
• Welche Migrationsmethoden gibt es?
• Was sind Erfolgskriterien zur Auswahl der passenden Strategie?
• Welche Prozesse haben sich bei der Umsetzung bewährt?
• Welcher Aufwand ist mit einer Migration verbunden?
• Wie sehen erfolgreiche Praxisbeispiele aus?
Der Referent
Jürgen Sedlaczek - SSI Senior Business Consultant und Analyst - berät Kunden, damit Unternehmen passend zu ihrem Geschäftsmodell mit dem richtigen Migrationsvorgehen nachhaltig und erfolgreich Produkte entwickeln, zeigt auf, welche Strategien hierfür am besten geeignet sind und unterstützt bei der Modernisierung und Entwicklung der Altsysteme.
Kosten-Nutzen-Analyse der SAP Systemstilllegung Lohnt sich die Investition,.docxAVENDATA
Die SAP-Systemstilllegung ist eine entscheidende Entscheidung für Unternehmen, um ihre IT-Infrastruktur zu modernisieren und wettbewerbsfähig zu bleiben. Sie umfasst die systematische Stilllegung, die Migration von Daten auf neue Plattformen und die Archivierung nicht-kritischer Informationen. Zu den Vorteilen gehören reduzierte Betriebskosten, verbesserte Leistung, Compliance, Flexibilität und ein besseres Datenmanagement. Die Entscheidung sollte auf der spezifischen Situation und den strategischen Zielen des Unternehmens basieren.
http://www.opitz-consulting.com/go/3-6-11
Oracle Enterprise Manager 12c Cloud Control sammelt zahlreiche Daten auf fast allen Ebenen der IT-Infrastruktur. Gerade durch die Engineered Systems wird die Rolle des Cloud Control immer wichtiger. Somit fallen nicht nur Datenbank-Metriken an, sondern auch Middleware- und Infrastruktur-Daten, wie z. B. von Loadbalancern.
Oft steht in der Praxis der Einsatz des OEM als Monitoring-Werkzeug im Vordergrund: Die Rohdaten („Current Metrics") der überwachten Ziele werden zeitnah, innerhalb weniger Tage nach Sammlung aggregiert und verlieren durch diese Verdichtung für spätere Datenanalysen an Informationsgehalt. Detaillierte Analysen der Infrastrukturdaten über längere Zeiträume sind deshalb nicht möglich. Andererseits sprechen wirtschaftliche Gründe und die Performance gegen eine langfristige Speicherung von großen Datenmengen in der OEM Repository Datenbank oder in anderen, dedizierten RDBMS. In der Praxis beobachtet man zusätzliche Metrikdaten in der Größenordnung von 50-100 GB/ Monat, was eine Realtime-Auswertung schwer macht. Damit bleiben aufgrund von Budgetrestriktionen Potenziale in den historischen Daten ungenutzt oder die Abfragegeschwindigkeit von Auswertungen geht in den zweistelligen Minutenbereich.
Unser Datenbankspezialist Ingo Reisky stellte in einem Vortrag bei der DOAG Konferenz 2014 gemeinsam mit Matthias Fuchs von der Firma ISE Information Systems Engineering vor, wie Metrikdaten von z. B. Oracle Datenbanken und Oracle Fusion Middleware in einem Hadoop Cluster gespeichert und mit Standard-Mitteln aus der Hadoop-Welt analysiert und visualisiert werden können.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
In den letzten Jahren wurden in Firmen immer mehr Prozesse und Abläufe digitalisiert und durch IT-Systeme unterstützt. Vorrangiges Ziel dieser Massnahmen sind Standardisierung, Qualitäts- und Effizienzsteigerungenetc. IT-Firmen sind ganz besonders gut in dieser Disziplin. Ein Nebeneffekt dieses Trends ist es, dass Firmen immer mehrstrukturierte Daten über ihr Geschäft sammeln und speichern. Diese Daten sind eine wahre Goldgrube, welche aber von den meisten Firmen komplettignoriert wird.
In diesem Vortrag wollen wir aufzeigen, wie wertvoll diese Daten sein können und was man damit anstellen kann. Wir wollen motivieren, wiewichtig es ist, Daten aus verschiedenen Quellen zu integrieren, zuverknüpfen, über APIs verfügbar zu machen und in Reports und Dashboardszu integrieren.
Weitere ähnliche Inhalte
Ähnlich wie Verständnis dafür, was Daten-Engineering ist (in 5 Minuten)
Schritt-für-Schritt-Anleitung zur erfolgreichen SAP Systemstilllegung.docxAVENDATA
Erforschen Sie die Bedeutung der Decommissionierung von SAP-Systemen in der digitalen Ära. Dabei werden die Vorzüge und Schwierigkeiten der Abschaltung älterer Systeme unter Berücksichtigung der Datenintegrität und -konformität behandelt.
BATbern52 SBB zu Data Products und KnacknüsseBATbern
Mit den Data Products und dem Data Mesh weht ein neuer Wind durch die Data Analytics-Stuben. Konzepte, die im Bereich des Software Engineerings bereits etabliert sind, werden für neue Analytics-Vorhaben entsprechend adaptiert. Dies Nähe zur Software Entwicklung ist nicht erstaunlich, stammen doch die Prinzipien des Data Mesh aus dem Umfeld von Martin Fowler. Die Grundgedanken sind bestechend einfach: das Data Product als eine klar abgegrenzte Einheit mit klaren Regeln und Daten, die einen Mehrwert für den Datennutzer bieten. Diese Data Products können in einer Mesh-Architektur miteinander verknüpft und zu einem funktionierenden Ganzen zusammengefügt werden. Damit soll der «Ad-Hoc»-Charakter, der vielen Analytics-Lösungen innewohnt, überwunden werden. Bei der Adaption von Data Products in eine bestehende Analytics-Landschaft müssen technische und organisatorische Hürden genommen und viel Überzeugungsarbeit in der Analytics-Gemeinde geleistet werden. Wir nehmen Euch mit auf diese Reise, die noch nicht zu Ende ist.
Inhalt:
Befinden Sie sich mitten in der digitalen Transformation? Ist die Aufbereitung Ihrer Produktivdaten eine Herausforderungen? Sie sind damit nicht alleine. Datenmigrationsprojekte stellen Unternehmen oft vor große Herausforderungen, auch in Hinblick auf dem Weg zu SAP S/4HANA. Erfahren Sie in unserem Webinar, wie Sie Migrationsprojekte erfolgreich aufsetzen und durchführen können.
Zielgruppe:
- Projektleiter
- Stammdatenverantwortliche
Agenda:
- Herausforderungen einer Datenmigration
- Zeitlicher Ablauf
- Ressourcen
Mehr über uns:
Website: https://www.ibsolution.com/
Karriereportal: https://ibsolution.de/karriere/
Webinare: https://www.ibsolution.com/academy/webinare
YouTube: https://www.youtube.com/user/IBSolution
LinkedIn: https://de.linkedin.com/company/ibsolution-gmbh
Xing: https://www.xing.com/companies/ibsolutiongmbh
Facebook: https://de-de.facebook.com/IBsolutionGmbH/
Instagram: https://www.instagram.com/ibsolution/?hl=de
Das könnte Sie auch interessieren:
https://www.ibsolution.com/data-and-analytics/daten-migration-in-sap
Es handelt sich hier um die Slides aus der Präsentation auf der ShareConf am 10.06.2015 in Düsseldorf.
Die Gründe für eine Migration – wenn Daten eines Altsystems auf ein neues System überzusiedeln sind – können vielschichtig sein. Meistens verspricht man sich von einem neuen System zusätzliche Funktionalität. Aber auch die geringe Leistungsfähigkeit des Altsystems, oder die Tatsache, dass der Hersteller das Altsystem nicht mehr pflegt oder unterstützt, spielen eine Rolle.
Diese und weitere Überlegungen bewegen Unternehmen in der SharePoint-Welt, eine Migration ins Auge zu fassen. Da es sich bei SharePoint um eine der leistungsfähigsten und flexibelsten Plattformen handelt, wird meist eine Migration von fremdartigen Systemen, wie Fileshares, Livelink, oder Lotus Notes zu SharePoint durchgeführt. Soll dieser Wechsel gelingen, muss man sich früher oder später mit diesem Thema fachlich auseinandersetzen.
In diesem Vortrag erfahren Sie wie Migrationsprojekte geplant werden sollten und wo die typischen Stolperfallen lauern.
Applikationsmodernisierung: Der Weg von Legacy in die CloudAarno Aukia
Stell Dir vor: Du willst einen 6000er besteigen. Eine gute Vorbereitung, gutes Material und professionelles Wissen sind dabei unabdingbar.
Du schnappst Dir einen Berg-Guide, der Dich bei schwierigen Passagen unterstützt und Dir das passende Know-How weitergibt. Das schwere Material kannst Du auf ein Team aufteilen, das genau weiss, welche Pakete Du am sinnvollsten schnürst. Sie zeigen Dir zudem, welchen unnötigen Ballast Du abwerfen kannst.
Am Ende stehst Du am Ziel – Dich erwartet ein grossartiges Resultat und die Zufriedenheit des Vollbrachten.
Genau so fühlt sich die Reise Deiner Legacy Applikation an.
Im Webinar zeigen Dir die drei Partnerfirmen Object Engineering, Puzzle und VSHN, wie Du Deine Applikationen fit hältst. Dabei geben sie Dir einen Einblick, wie Experten die Applikationen analysieren, aufpeppen und den Betrieb sicherstellen können.
Erfahren Sie hier, welche Projektszenarien unsere Data
Management-Lösungen unterstützen und wie diese Ihre
Projekte beschleunigen, Geschäftsprozesse optimieren
und wichtige Entscheidungen auf ein verlässliches und
sicheres Fundament stellen.
Wie kann Digitalisierung in der Instandhaltung genutzt werden? Welche Vorgehensweisen und Überlegungen sind wichtig? Welchen Einfluss haben Digital Twin, Predictive Maintenance und vernetzte Sensorsysteme auf die Prozesse und Teams in der Instandhaltung?
Das Whitepaper „Die digitale Transformation der Instandhaltung“ skizziert ausgewählte Inhalte des Werkzeugkoffers für die digitale Transformation der Instandhaltung und bereitet sie für die Praxis auf.
Wie kann Digitalisierung in der Instandhaltung genutzt werden? Welche Vorgehensweisen und Überlegungen sind wichtig? Welchen Einfluss haben Digital Twin, Predictive Maintenance und vernetzte Sensorsysteme auf die Prozesse und Teams in der Instandhaltung?
Das Whitepaper „Die digitale Transformation der Instandhaltung“ skizziert ausgewählte Inhalte des Werkzeugkoffers für die digitale Transformation der Instandhaltung und bereitet sie für die Praxis auf.
Dieses Paper beschreibt den Einsatz von ITIL zur Optimierung von Arbeitsprozessen im Rechenzentrum der Hochschule Harz am Beispiel des Release Managements. Es wird dargestellt, wie die vorhandenen Prozesse als Teil des process life cycle im Ist-Zustand erfasst und anhand des ITIL-“Best Practice”-Framework in den Soll-Zustand überführt werden. Dabei wird ein Projektfazit gezogen und ein Ausblick auf den zukünftigen Einsatz von ITIL im Rechenzentrum der Hochschule Harz gegeben.
"Erfolgreiche Strategien zur Migration veralteter Software" Präsentation vom ...Bernhard Schimunek
Erleben Sie live bei unserer Webinar-Reihe „Erfolgreiche Strategien zur Migration veralteter Softwareprodukte“, wie Unternehmen mit der passenden Migrationsstrategie bestehende Entwicklungsprobleme beheben, Kosten reduzieren, neue Umsätze generieren und damit ihren Ertrag erhöhen.
Unsere Auftaktveranstaltung vermittelt Ihnen neben der Übersicht gängiger Migrationsmethoden auch Erfolgskriterien zur Auswahl der passenden Strategie, sowie ein erstes Vorgehensmodell zur Realisierung der Entwicklungsumsetzung.
Ziele:
In unseren 45-minütigen Webinar liefern wir Antworten auf die folgenden Fragen:
• Was sind die typischen Gründe, über eine Migration nachzudenken?
• Welche Ziele werden von den Unternehmen angestrebt?
• Welche Herausforderungen sind zu bewältigen?
• Welche Migrationsmethoden gibt es?
• Was sind Erfolgskriterien zur Auswahl der passenden Strategie?
• Welche Prozesse haben sich bei der Umsetzung bewährt?
• Welcher Aufwand ist mit einer Migration verbunden?
• Wie sehen erfolgreiche Praxisbeispiele aus?
Der Referent
Jürgen Sedlaczek - SSI Senior Business Consultant und Analyst - berät Kunden, damit Unternehmen passend zu ihrem Geschäftsmodell mit dem richtigen Migrationsvorgehen nachhaltig und erfolgreich Produkte entwickeln, zeigt auf, welche Strategien hierfür am besten geeignet sind und unterstützt bei der Modernisierung und Entwicklung der Altsysteme.
Kosten-Nutzen-Analyse der SAP Systemstilllegung Lohnt sich die Investition,.docxAVENDATA
Die SAP-Systemstilllegung ist eine entscheidende Entscheidung für Unternehmen, um ihre IT-Infrastruktur zu modernisieren und wettbewerbsfähig zu bleiben. Sie umfasst die systematische Stilllegung, die Migration von Daten auf neue Plattformen und die Archivierung nicht-kritischer Informationen. Zu den Vorteilen gehören reduzierte Betriebskosten, verbesserte Leistung, Compliance, Flexibilität und ein besseres Datenmanagement. Die Entscheidung sollte auf der spezifischen Situation und den strategischen Zielen des Unternehmens basieren.
http://www.opitz-consulting.com/go/3-6-11
Oracle Enterprise Manager 12c Cloud Control sammelt zahlreiche Daten auf fast allen Ebenen der IT-Infrastruktur. Gerade durch die Engineered Systems wird die Rolle des Cloud Control immer wichtiger. Somit fallen nicht nur Datenbank-Metriken an, sondern auch Middleware- und Infrastruktur-Daten, wie z. B. von Loadbalancern.
Oft steht in der Praxis der Einsatz des OEM als Monitoring-Werkzeug im Vordergrund: Die Rohdaten („Current Metrics") der überwachten Ziele werden zeitnah, innerhalb weniger Tage nach Sammlung aggregiert und verlieren durch diese Verdichtung für spätere Datenanalysen an Informationsgehalt. Detaillierte Analysen der Infrastrukturdaten über längere Zeiträume sind deshalb nicht möglich. Andererseits sprechen wirtschaftliche Gründe und die Performance gegen eine langfristige Speicherung von großen Datenmengen in der OEM Repository Datenbank oder in anderen, dedizierten RDBMS. In der Praxis beobachtet man zusätzliche Metrikdaten in der Größenordnung von 50-100 GB/ Monat, was eine Realtime-Auswertung schwer macht. Damit bleiben aufgrund von Budgetrestriktionen Potenziale in den historischen Daten ungenutzt oder die Abfragegeschwindigkeit von Auswertungen geht in den zweistelligen Minutenbereich.
Unser Datenbankspezialist Ingo Reisky stellte in einem Vortrag bei der DOAG Konferenz 2014 gemeinsam mit Matthias Fuchs von der Firma ISE Information Systems Engineering vor, wie Metrikdaten von z. B. Oracle Datenbanken und Oracle Fusion Middleware in einem Hadoop Cluster gespeichert und mit Standard-Mitteln aus der Hadoop-Welt analysiert und visualisiert werden können.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
In den letzten Jahren wurden in Firmen immer mehr Prozesse und Abläufe digitalisiert und durch IT-Systeme unterstützt. Vorrangiges Ziel dieser Massnahmen sind Standardisierung, Qualitäts- und Effizienzsteigerungenetc. IT-Firmen sind ganz besonders gut in dieser Disziplin. Ein Nebeneffekt dieses Trends ist es, dass Firmen immer mehrstrukturierte Daten über ihr Geschäft sammeln und speichern. Diese Daten sind eine wahre Goldgrube, welche aber von den meisten Firmen komplettignoriert wird.
In diesem Vortrag wollen wir aufzeigen, wie wertvoll diese Daten sein können und was man damit anstellen kann. Wir wollen motivieren, wiewichtig es ist, Daten aus verschiedenen Quellen zu integrieren, zuverknüpfen, über APIs verfügbar zu machen und in Reports und Dashboardszu integrieren.
Ähnlich wie Verständnis dafür, was Daten-Engineering ist (in 5 Minuten) (20)
Verständnis dafür, was Daten-Engineering ist (in 5 Minuten)
1. Was ist Data
Engineering?
von Cédric Gaudissart
In einem Satz ist Data Engineering das Management von
Systemen, um Daten nutzbar zu machen. Der Lebenszyklus
des Data Engineering umfasst eine Reihe von Phasen, die
darauf abzielen, Rohdaten in nutzbare Daten umzuwandeln.
2. Von der
Datensammlung zur
Verarbeitung
Datensammlung
Data Engineers sammeln Daten aus
verschiedenen Quellen, einschließlich interner
Datenbanken, IoT-Geräten und externen APIs.
Diese Phase ist wesentlich für die
Ansammlung der Rohmaterialien, die für
Analysen notwendig sind.
Datenaufnahme
Dies beinhaltet die Übertragung von Daten an
Systeme zur Verarbeitung und Speicherung, oft
automatisiert durch Data Engineers. Diese
Phase muss effizient sein, um das Volumen
und die Geschwindigkeit der eingehenden
Daten zu bewältigen.
Datenverarbeitung
Data Engineers validieren, bereinigen und
transformieren Daten, um Qualität und
Nutzbarkeit zu gewährleisten. Dies umfasst
das Entfernen von Duplikaten, das Korrigieren
von Fehlern und das Transformieren der Daten
in ein konsistentes Format.
3. Integration und Speicherung von Daten
Datenintegration
Data Engineers kombinieren
Daten aus verschiedenen
Quellen, bereichern und
kontextualisieren
Informationen, um eine
ganzheitliche Sicht zu bieten.
Datenspeicherung
Data Engineers organisieren
und speichern Daten auf eine
skalierbare, sichere Weise,
bereit für den Zugriff und die
Analyse. Datenbanken, Daten-
Seen und Datenlager sind
Schlüsselkomponenten.
Datenorchestrierung
Data Engineers optimieren die
Koordination zwischen
verschiedenen Stufen,
automatisieren den Datenfluss
durch Pipelines und stellen
sicher, dass die Daten nahtlos
von der Sammlung zur Analyse
übergehen.
4. Sicherstellung von Datenqualität und
Zuverlässigkeit
Datenqualitäts
kontrolle
Data Engineers erhalten die
Zuverlässigkeit und
Integrität der Daten durch
kontinuierliches Monitoring,
Validierung und
Korrekturprozesse. Dies
gewährleistet die
allgemeine Qualität der
Daten für fundierte
Entscheidungsfindungen.
Wartung der
Datenpipeline
Data Engineers
aktualisieren, optimieren
und sichern kontinuierlich
die Datenprozesse und -
technologien, um einen
effizienten und konformen
Datenfluss zu
gewährleisten.
Datenarchivierung
Data Engineers bieten ein
sicheres Repository für
historische Daten, das die
Einhaltung von Vorschriften
und zukünftige
Zugänglichkeit erleichtert
und gleichzeitig die
Leistung des aktuellen
Systems optimiert.
5. Datenmanagement
Im gesamten Lebenszyklus des Data Engineering
werden strenge Datenmanagementpraktiken
aufrechterhalten, um Datenqualität, Datenschutz und
Governance zu gewährleisten. Dies unterstreicht den
Lebenszyklus des Data Engineering als Eckpfeiler für
datengesteuerte Organisationen.