Aktives Datenschutzmanagement mit Datencockpit.atBernhard Krabina
Das Datencockpit ist eine Open-Source-Lösung für die Erfüllung der Dokumentationspflichten, die sich aus der DSGVO ergeben.
Vortrag bei der Jahrestagung betrieblicher Datenschutz der ARGE Daten 2018.
„Mit der EU-Datenschutzgrundverordnung wird das Ziel verfolgt, einheitliche Regelungen im europäischen Datenschutz zu schaffen, auch wenn das Gesetz an vielen Punkten nationale Abweichungen zulässt. Die Neuregelungen werden erhebliche Auswirkungen auf Unternehmen haben.“
Herausforderungen: Umsetzung der regulatorischen Anforderungen, Freiräume für Innovationen im Bereich BI und Analytics gehen verloren.
Die Idee – Azure Governed Data Lab: Automatisierter Aufbau eines Data Lake Storage in der Cloud, Sicherstellung der Datenschutzkonformität durch DWH Offloading, Potenzial für eine gleichzeitige DWH-Modernisierung
Update Information Management 2018 - 14. Runde seit 2005
Auszug aus dem Vortrag 1 Fast Forward von Dr. Ulrich Kampffmeyer „Sieben Mal Fast Forward: Einiges Bemerkenswertes aus 2017“
Auskopplung 4 „Archivierung, Records Managent & Blockchain“ #UpdateIM18, 23.01.2018, Hamburg
Faire Datenökonomie für Wirtschaft, Wissenschaft und Gesellschaft: Was brauch...Christoph Lange
In Wirtschaft und Wissenschaft entstehen zunehmend Infrastrukturen für Datenaustausch. Der Wirtschaft ist Vertrauen unter Geschäftspartnern wichtig und Souveränität darüber, was Andere mit meinen Daten machen – die Wissenschaft betont freie Zugänglichkeit und Nachnutzbarkeit. FAIR Data Spaces verbinden beides auf Grundlage gemeinsamer Prinzipien.
Was muss getan werden, damit Datenaustausch nicht mehr bedeutet, E-Mail-Anhänge zu verschicken oder Geheimnisse zentralen Plattformen feindlicher Mächte anzuvertrauen? Wirtschaft, Wissenschaft und öffentliche Verwaltung suchen zunehmend nach Lösungen, um den Datenaustausch sicher und effizient zu gestalten und damit neues Innovationspotenzial zu heben. Was gibt es schon, was ist geplant, und wie können vorhandene Initiativen zusammenwachsen, um Daten über die Grenzen dieser Welten hinaus gemeinsam zu nutzen?
Initiativen der Wirtschaft wie Gaia-X und International Data Spaces priorisieren den Aufbau von Vertrauen unter Geschäftspartner:innen ohne Papier-Verträge sowie die Souveränität darüber, was Andere mit den eigenen wertvollen Daten machen. In der Wissenschaft, zum Beispiel bei der Nationalen Forschungsdateninfrastruktur NFDI, geht es um freie Zugänglichkeit und Nachnutzbarkeit im Einklang mit ethischen Prinzipien. Der öffentlichen Hand ist neben dem freien Zugang etwa zu Open-Data-Portalen die digitale Daseinsvorsorge wichtig. Große Herausforderungen unserer Zeit erfordern Datenaustausch nicht nur innerhalb dieser Welten, sondern über ihre Grenzen hinaus:
zum Beispiel zwischen Forschungsinstituten und kleinen Technologie-Unternehmen, die nicht alle Daten selbst sammeln können,
oder zwischen großen Unternehmen mit reichen Datenschätzen und wirtschaftlichen Interessen und einer Nutzung dieser Daten für das Gemeinwohl.
Das Projekt FAIR Data Spaces schafft Bausteine für übergreifende Datenräume als Keimzellen einer fairen Datenökonomie nach gemeinsamen Prinzipien. Wir möchten diskutieren, wie weit die aus dem Forschungsdatenmanagement stammenden FAIR-Data-Prinzipien tragen, wonach Daten findable (auffindbar), accessible (zugänglich), interoperabel und reusable (nachnutzbar) sein sollen. Das Projekt verfolgt den Plan, vorhandene Initiativen organisatorisch, rechtlich, technisch und praktisch zu einer gemeinsamen Community zusammenzuführen, und lebt dabei von einer breiten Mitwirkung. Werdet mit dem Fraunhofer IUK-Verbund Teil dieser Community und bleibt dabei innovativ und kritisch!
www.opitz-consulting.com
Inmitten von Digitalisierung und Industrie 4.0 haben sich die Anforderungen für die Speicherung und die anschließende Analyse an klassische, seit vielen Jahren etablierte DWH-Systeme maßgeblich geändert. Bleibt der klassische Ansatz das Mittel der Wahl oder sind Unternehmen gezwungen, die bestehende DWH-Architektur zu modernisieren oder langfristig sogar zu substituieren?
Bei dieser Entscheidung kann es hilfreich sein, sich die Möglichkeiten zur Modernisierung einmal genauer anzusehen. Wie zum Beispiel sollte eine Modernisierung aus technischer Sicht aufgebaut werden, damit die stetig steigenden Anforderungen weiterhin angemessen erfüllt werden können?
Wir möchten in diesem Vortrag einige Architekturszenarien aufzeigen und ihre Vor- und Nachteile einander gegenüberstellen.
Dabei wird deutlich, welche verschiedenen Möglichkeiten es bei der Modernisierung gibt und welche Rolle Data Lakes, Data Labs und die Data Governance dabei spielen. Welche Bedeutung haben diese Schlagwörter und wie sind sie miteinander verwoben? Warum sind viele Big-Data-Technologien unweigerlich mit ihnen verknüpft? Und in welcher Konstellation kann ein Data Lake zu Kosteneinsparungen in der bestehenden Infrastruktur führen?
Des Weiteren berichten wir von einem DWH Offloading Szenario anhand eines Praxisbeispiels und vergleichen hierbei den Einsatz von Oracle- vs. Open Source Technologien.
Diesen Vortrag präsentierte unser Experte Fabian Hardt auf der DOAG Konferenz 2017.
http://www.opitz-consulting.com/go/3-6-11
Oracle Enterprise Manager 12c Cloud Control sammelt zahlreiche Daten auf fast allen Ebenen der IT-Infrastruktur. Gerade durch die Engineered Systems wird die Rolle des Cloud Control immer wichtiger. Somit fallen nicht nur Datenbank-Metriken an, sondern auch Middleware- und Infrastruktur-Daten, wie z. B. von Loadbalancern.
Oft steht in der Praxis der Einsatz des OEM als Monitoring-Werkzeug im Vordergrund: Die Rohdaten („Current Metrics") der überwachten Ziele werden zeitnah, innerhalb weniger Tage nach Sammlung aggregiert und verlieren durch diese Verdichtung für spätere Datenanalysen an Informationsgehalt. Detaillierte Analysen der Infrastrukturdaten über längere Zeiträume sind deshalb nicht möglich. Andererseits sprechen wirtschaftliche Gründe und die Performance gegen eine langfristige Speicherung von großen Datenmengen in der OEM Repository Datenbank oder in anderen, dedizierten RDBMS. In der Praxis beobachtet man zusätzliche Metrikdaten in der Größenordnung von 50-100 GB/ Monat, was eine Realtime-Auswertung schwer macht. Damit bleiben aufgrund von Budgetrestriktionen Potenziale in den historischen Daten ungenutzt oder die Abfragegeschwindigkeit von Auswertungen geht in den zweistelligen Minutenbereich.
Unser Datenbankspezialist Ingo Reisky stellte in einem Vortrag bei der DOAG Konferenz 2014 gemeinsam mit Matthias Fuchs von der Firma ISE Information Systems Engineering vor, wie Metrikdaten von z. B. Oracle Datenbanken und Oracle Fusion Middleware in einem Hadoop Cluster gespeichert und mit Standard-Mitteln aus der Hadoop-Welt analysiert und visualisiert werden können.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Ziel des Projektes Data Cube des Umweltbundesamt ist es, eine nachhaltige Lösung zu etablieren, mit der die „Daten zur Umwelt“ importiert, gespeichert und der Öffentlichkeit als interaktive Tabellen und Diagramme angeboten werden können. Zur Datenhaltung wird die Open Source Lösung .StatSuite genutzt, welches unter anderem auch von der OECD genutzt wird. Der heterogene Datenbestand der Daten zur Umwelt wird mithilfe der FME Technologie in den sogenannten SDMX Standard überführt, den die .StatSuite Lösung nutzt.
Aktives Datenschutzmanagement mit Datencockpit.atBernhard Krabina
Das Datencockpit ist eine Open-Source-Lösung für die Erfüllung der Dokumentationspflichten, die sich aus der DSGVO ergeben.
Vortrag bei der Jahrestagung betrieblicher Datenschutz der ARGE Daten 2018.
„Mit der EU-Datenschutzgrundverordnung wird das Ziel verfolgt, einheitliche Regelungen im europäischen Datenschutz zu schaffen, auch wenn das Gesetz an vielen Punkten nationale Abweichungen zulässt. Die Neuregelungen werden erhebliche Auswirkungen auf Unternehmen haben.“
Herausforderungen: Umsetzung der regulatorischen Anforderungen, Freiräume für Innovationen im Bereich BI und Analytics gehen verloren.
Die Idee – Azure Governed Data Lab: Automatisierter Aufbau eines Data Lake Storage in der Cloud, Sicherstellung der Datenschutzkonformität durch DWH Offloading, Potenzial für eine gleichzeitige DWH-Modernisierung
Update Information Management 2018 - 14. Runde seit 2005
Auszug aus dem Vortrag 1 Fast Forward von Dr. Ulrich Kampffmeyer „Sieben Mal Fast Forward: Einiges Bemerkenswertes aus 2017“
Auskopplung 4 „Archivierung, Records Managent & Blockchain“ #UpdateIM18, 23.01.2018, Hamburg
Faire Datenökonomie für Wirtschaft, Wissenschaft und Gesellschaft: Was brauch...Christoph Lange
In Wirtschaft und Wissenschaft entstehen zunehmend Infrastrukturen für Datenaustausch. Der Wirtschaft ist Vertrauen unter Geschäftspartnern wichtig und Souveränität darüber, was Andere mit meinen Daten machen – die Wissenschaft betont freie Zugänglichkeit und Nachnutzbarkeit. FAIR Data Spaces verbinden beides auf Grundlage gemeinsamer Prinzipien.
Was muss getan werden, damit Datenaustausch nicht mehr bedeutet, E-Mail-Anhänge zu verschicken oder Geheimnisse zentralen Plattformen feindlicher Mächte anzuvertrauen? Wirtschaft, Wissenschaft und öffentliche Verwaltung suchen zunehmend nach Lösungen, um den Datenaustausch sicher und effizient zu gestalten und damit neues Innovationspotenzial zu heben. Was gibt es schon, was ist geplant, und wie können vorhandene Initiativen zusammenwachsen, um Daten über die Grenzen dieser Welten hinaus gemeinsam zu nutzen?
Initiativen der Wirtschaft wie Gaia-X und International Data Spaces priorisieren den Aufbau von Vertrauen unter Geschäftspartner:innen ohne Papier-Verträge sowie die Souveränität darüber, was Andere mit den eigenen wertvollen Daten machen. In der Wissenschaft, zum Beispiel bei der Nationalen Forschungsdateninfrastruktur NFDI, geht es um freie Zugänglichkeit und Nachnutzbarkeit im Einklang mit ethischen Prinzipien. Der öffentlichen Hand ist neben dem freien Zugang etwa zu Open-Data-Portalen die digitale Daseinsvorsorge wichtig. Große Herausforderungen unserer Zeit erfordern Datenaustausch nicht nur innerhalb dieser Welten, sondern über ihre Grenzen hinaus:
zum Beispiel zwischen Forschungsinstituten und kleinen Technologie-Unternehmen, die nicht alle Daten selbst sammeln können,
oder zwischen großen Unternehmen mit reichen Datenschätzen und wirtschaftlichen Interessen und einer Nutzung dieser Daten für das Gemeinwohl.
Das Projekt FAIR Data Spaces schafft Bausteine für übergreifende Datenräume als Keimzellen einer fairen Datenökonomie nach gemeinsamen Prinzipien. Wir möchten diskutieren, wie weit die aus dem Forschungsdatenmanagement stammenden FAIR-Data-Prinzipien tragen, wonach Daten findable (auffindbar), accessible (zugänglich), interoperabel und reusable (nachnutzbar) sein sollen. Das Projekt verfolgt den Plan, vorhandene Initiativen organisatorisch, rechtlich, technisch und praktisch zu einer gemeinsamen Community zusammenzuführen, und lebt dabei von einer breiten Mitwirkung. Werdet mit dem Fraunhofer IUK-Verbund Teil dieser Community und bleibt dabei innovativ und kritisch!
www.opitz-consulting.com
Inmitten von Digitalisierung und Industrie 4.0 haben sich die Anforderungen für die Speicherung und die anschließende Analyse an klassische, seit vielen Jahren etablierte DWH-Systeme maßgeblich geändert. Bleibt der klassische Ansatz das Mittel der Wahl oder sind Unternehmen gezwungen, die bestehende DWH-Architektur zu modernisieren oder langfristig sogar zu substituieren?
Bei dieser Entscheidung kann es hilfreich sein, sich die Möglichkeiten zur Modernisierung einmal genauer anzusehen. Wie zum Beispiel sollte eine Modernisierung aus technischer Sicht aufgebaut werden, damit die stetig steigenden Anforderungen weiterhin angemessen erfüllt werden können?
Wir möchten in diesem Vortrag einige Architekturszenarien aufzeigen und ihre Vor- und Nachteile einander gegenüberstellen.
Dabei wird deutlich, welche verschiedenen Möglichkeiten es bei der Modernisierung gibt und welche Rolle Data Lakes, Data Labs und die Data Governance dabei spielen. Welche Bedeutung haben diese Schlagwörter und wie sind sie miteinander verwoben? Warum sind viele Big-Data-Technologien unweigerlich mit ihnen verknüpft? Und in welcher Konstellation kann ein Data Lake zu Kosteneinsparungen in der bestehenden Infrastruktur führen?
Des Weiteren berichten wir von einem DWH Offloading Szenario anhand eines Praxisbeispiels und vergleichen hierbei den Einsatz von Oracle- vs. Open Source Technologien.
Diesen Vortrag präsentierte unser Experte Fabian Hardt auf der DOAG Konferenz 2017.
http://www.opitz-consulting.com/go/3-6-11
Oracle Enterprise Manager 12c Cloud Control sammelt zahlreiche Daten auf fast allen Ebenen der IT-Infrastruktur. Gerade durch die Engineered Systems wird die Rolle des Cloud Control immer wichtiger. Somit fallen nicht nur Datenbank-Metriken an, sondern auch Middleware- und Infrastruktur-Daten, wie z. B. von Loadbalancern.
Oft steht in der Praxis der Einsatz des OEM als Monitoring-Werkzeug im Vordergrund: Die Rohdaten („Current Metrics") der überwachten Ziele werden zeitnah, innerhalb weniger Tage nach Sammlung aggregiert und verlieren durch diese Verdichtung für spätere Datenanalysen an Informationsgehalt. Detaillierte Analysen der Infrastrukturdaten über längere Zeiträume sind deshalb nicht möglich. Andererseits sprechen wirtschaftliche Gründe und die Performance gegen eine langfristige Speicherung von großen Datenmengen in der OEM Repository Datenbank oder in anderen, dedizierten RDBMS. In der Praxis beobachtet man zusätzliche Metrikdaten in der Größenordnung von 50-100 GB/ Monat, was eine Realtime-Auswertung schwer macht. Damit bleiben aufgrund von Budgetrestriktionen Potenziale in den historischen Daten ungenutzt oder die Abfragegeschwindigkeit von Auswertungen geht in den zweistelligen Minutenbereich.
Unser Datenbankspezialist Ingo Reisky stellte in einem Vortrag bei der DOAG Konferenz 2014 gemeinsam mit Matthias Fuchs von der Firma ISE Information Systems Engineering vor, wie Metrikdaten von z. B. Oracle Datenbanken und Oracle Fusion Middleware in einem Hadoop Cluster gespeichert und mit Standard-Mitteln aus der Hadoop-Welt analysiert und visualisiert werden können.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Ziel des Projektes Data Cube des Umweltbundesamt ist es, eine nachhaltige Lösung zu etablieren, mit der die „Daten zur Umwelt“ importiert, gespeichert und der Öffentlichkeit als interaktive Tabellen und Diagramme angeboten werden können. Zur Datenhaltung wird die Open Source Lösung .StatSuite genutzt, welches unter anderem auch von der OECD genutzt wird. Der heterogene Datenbestand der Daten zur Umwelt wird mithilfe der FME Technologie in den sogenannten SDMX Standard überführt, den die .StatSuite Lösung nutzt.
Modern Data Stack – Buzzword oder echter Game-Changer?Fabian Hardt
Was verbirgt sich hinter dem Trend 'Modern Data Stack' und wie gut eignet er sich für den Aufbau von Analytics-Plattformen? Wir berichten über erste Erfahrungen im Aufbau und der Nutzung des Modern Data Stacks, stellen eine Architektur mit allen Komponenten vor und demonstrieren sie praktisch. Wir gehen auf die Trennung von Ingestion (EL) und Transformation (T) ein, sowie weitere Ideen, wie 'Metrics Store' und 'Reverse ETL'. Abschließend berichten wir von Problemen und Einstiegshürden bei Deployment, Einsatz und der Integration der Komponenten.
Einführung Linked Open Data (LOD) - Introduction to Linked Open Data (LOD)Martin Kaltenböck
Präsentation von Martin Kaltenböck (SWC) bei den Wissenschaftstagen der Akademie der Wissenschaften am 3.12. 2014 zum Thema - Einführung, Basis und Benefits von Linked Open Data (LOD) inkl. Best Practise: Linked Open Data Pilot Österreich (LOD Pilot AT - http://linkeddata.gv.at).
DevOps im Konzern - Autonomie vs Betriebssicherheit (Continuous Lifecycle)Johannes Dienst
Aus Sicht eines DevOps-Teams ist für eine hohe angestrebte Geschwindigkeit hohe Autonomie bei allen Architektur- und Implementierungsentscheidungen notwendig. Aus Sicht der DB Systel, die den stabilen IT-Betrieb der Deutschen Bahn sicherstellen soll, ist die Forderung nach Autonomie jedoch ein Risiko.
Zur Lösung dieses Konfliktes findet man daher in der Industrie häufig Ansätze, bei der Betriebseinheiten zentral betreute CI/CD-Pipelines bereitstellen. Während die mit dieser Lösung verbundene Automatisierung eine gute Kontrolle von Betriebsaspekten mit sich bringt, stellt die damit auch verbundene notwendige Standardisierung von Architekturaspekten häufig eine zu starke Einschränkung der Autonomie von DevOps-Teams dar.
In diesem Talk möchten wir darauf eingehen, wie die DB Systel ihren DevOps-Teams durch Verortung der Betriebsverantwortung in den DevOps-Teams eine optimale Autonomie gewährt und gleichzeitig die Risiken für Stabilität, Datenschutz und Compliance kontrolliert.
Wir geben Ihnen auch einen Einblick in den Alltag eines DevOps-Teams in der DB Systel aus Sicht eines Betroffenen. Wir stellen dar, wie hohe Autonomie und umfängliche Verantwortung eine völlig neue Arbeitsweise erfordern.
Data Mesh und Domain Driven Design - rücken Analytics und SD nun doch näher z...Fabian Hardt
Lange Zeit wichen Architekturen von Analytics Systemen stark von modernen Software-Architekturen ab. Während die letzten Jahre oft von Domain Driven Design die Rede war und immer mehr Monolithen in Microservices zerschlagen wurden, blieben Analytics Plattformen wie Data Lake und Data Warehouse weiterhin schwerfällig. Doch nun ist auch hier die Rede von Data Mesh und Data Products. Doch inwiefern unterscheiden sich diese Konzepte nun eigentlich noch und was ist der Unterschied zwischen Microservice und Data Product? Werden hier nicht doch ähnliche Frameworks und Architekturpatterns benötigt? Diese Einordnung soll dieser Vortrag bieten und ein Beispiel bringen, wie eine noch engere Verzahnung im Unternehmen erfolgen kann und somit echte Mehrwerte für Ihre IT-Landschaften schaffen kann.
This presentation deals with to topic of Big Data Governance and how companies can establish a holistic Big Data Governance framework which is suited for the organizational day to day business.
Linked Open Data Pilotprojekt Österreich - LOD Pilot ATMartin Kaltenböck
Foliensatz im Rahmen des Open Data Support Trainings für die österr. Verwaltung am 15.9.2014, organisiert vom östterreichischen Bundeskanzleramt. Der LOD Pilot Österreich realisiert eine digitale Datenbasisinfrastruktur als Linked Open Data (vernetzten offenen Daten) für Österreich - auf Basis der offenen Daten von data.gv.at (Nationales Open Data Portal) und open.wien.gv.at (Datenportal der Stadt Wien). Hierbei werden 30-50 Basisdatensätze (Industriesektoren, Wirtschaftszweige oder Gemeindekennziffern etc) als Linked Open Data unter linked.data.gv.at publiziert und zur Wiederverwendung bereitgestellt. Das Projekt wurde von der Internetfoundation (netidee) Österreich finanziell unterstützt.
Längst werden Applikationen als Plattform oder Software as a Service angeboten und genutzt. Im Bereich Business Intelligence und Analytics ist die Zeit reif über eine Transformation in die Cloud nachzudenken, um somit Einsätze auch in größeren Szenarien zu ermöglichen.
Ein Szenario wird unter dem Begriff Analytics as a Service innerhalb dieses Webinars näher beleuchtet. Es wird betrachtet wie Kunden dabei unterstützt werden können, sich den bei einer Transformation entstehenden technischen, funktionalen und organisatorischen Herausforderungen zu stellen. Dabei wird demonstriert, wie der Aufbau einer grundlegenden Analytics Architektur in der Cloud auf Basis von Microsoft Azure gestaltet ist und innerhalb dieser Architektur ein umfassender, skalierbarer Service in den unterschiedlichen Disziplinen Datenakquisition, Datenintegration, Modellierung sowie Visualisierung geleistet werden kann.
Wie Big Data Geschäftsmodelle verändert
Zum Abschluss des Werbeplanung.at Summit SPEZIAL erzählte André Münger, Account Manager bei Pivotal in Zürich, wie Big Data Geschäftsmodelle verändert: Big Data bildet einen gewaltigen Möglichkeitsraum, über den sich Unternehmen am Markt deutlich vom Mitbewerb abheben können. Weiter kann Big Data als Basis für gänzlich neue Geschäftsmodelle dienen – Monetarisierungsstrategien der Daten von Telco-Anbietern, eigentliche Branchenwechsel von Firmen, neue, datenbasierte Kooperationen zwischen Firmen sind nur einige der Beispiele am Markt.
OSMC 2023 | Bring IoT auf ein neues Level mit ThingsBoard by Holger KochNETWAYS
Das Internet der Dinge erfreut sich immer größerer Beliebtheit. Dabei setzen aufgrund der Einfachheit, Skalierbarkeit und Funktionsvielfalt immer mehr Unternehmen auf die Open Source IoT Plattform ThingsBoard. Im ersten Drittel des Talk wird eine praktische Einführung in die Plattform gegeben. Anschließend werden wir uns zusammen eine skalierende Architektur anschauen, mit der hunderttausende Sensoren mit Millionen Metriken performant verarbeitet werden können. Im letzten Drittel werden wir uns die Möglichkeiten zur Visualisierung der gewonnenen Daten, die Anomalie-Erkennung und verschiedene Auswertungen auf der Basis von ThingsBoard Trendz anschauen. Somit erhält der Zuhörer einen kompletten Einstieg in die umfangreiche Funktionalität von ThingsBoard.
http://www.opitz-consulting.com/go/3-2-11
Auch die Logistik ist vom Trendthema „Big Data“ nicht ausgenommen. Der enorme Wachstum der Datenmengen durch Sensoren, Prozesse und weitere Quellen sowie die stetig steigende Anzahl von non-human Usern stellen die traditionellen Ansätze des Datenmanagements wie auch der etablierten Methoden zur Analyse in Frage. Ferner erfahren die Prozesse in der Logistik eine erhöhte Komplexität durch den steigenden Grad der Vernetzung innerhalb des Netzwerks der Logistikpartner.
In ihrem Vortrag bei der DOAG Logistik + IT Konferenz der Deutschen Oracle Anwendergruppe am 7. Mai 2014 beschrieb OPITZ CONSULTING Solution Managerin Nannette Biedermann grundlegende Fragestellungen und Architekturkonzepte zur Durchführung von Big Data Analysen sowie Lösungsansätze durch Nutzung von Oracle Produkten in Kombination mit verbreiteten Open-Source Big Data Frameworks.
Dabei ging sie auch auf die folgenden konkreten Herausforderungen der Logistik ein, welche durch die Skalierbarkeit und Auswertungsmöglichkeiten der Big Data Werkzeuge bewältigt werden können:
• Internet of Things mit Predictive Maintenance
• Routenoptimierung und Predicitive Delivery
• Value-at-Risk Echtzeitauswertungen
• Brand Monitoring
• Customer Intelligence im Sinne des Zulieferer- aber auch Käufer-Profilings
• Next-Best-Offer Analysen
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Technologie und SEO: Cloud, Big Data und Mobile First angeschautRalf Schwoebel
Im Rahmen der SEOkomm 2013 in Salzburg habe ich für meine Präsentation 3 Bereiche der Technik genauer angeschaut: Cloud - was brauche ich als deutscher SEO in der "Wolke", Big Data: Welche Daten sind "big" und wofür brauche ich das und schliesslich der aktivste Teil der Präsentation: "Mobile First" - was ist dran am Smartphone-Kunden?
BARC Studie Webinar: Ausgereifte Analysen mit Apache HadoopCloudera, Inc.
Sowohl die Technologie Hadoop als auch das Konzept Data Lake sind erst seit kurzer Zeit im Enterprise-Kontext im Einsatz. Entsprechend fällt es Unternehmen häufig schwer, zwischen medialer Überhöhung und tatsächlich realisierbaren Mehrwert zu unterscheiden. Ob es Unternehmen gelingt, sich die Vorteile zunutze zu machen, untersucht diese Studie zum Stand und zur zukünftigen Entwicklung von Big Data und dessen Anwendungsfälle in Unternehmen. Mit weltweit über 380 Teilnehmern bei einer breit gefächerten Branchenverteilung gehört die vorliegende Studie „Hadoop und Data Lakes“ zu den größten Untersuchungen, die sich speziell den Herausforderungen bei der Datenanalyse mit Hadoop widmen.
Vortrag im Rahmen der eco Akademie beim Experten Roundtable Datacenter. Vorgabe war ein Impulsstatement und 1-2 Thesen über den aktuellen Stand und die Zukunft der Datacenter.
In diesem Webcast bekommen Sie Tipps und Hilfen auf dem Weg zu einer aufgeräumten Java Landschaft, mit der Sie Kosten und Risiken minimieren. Unsere Lizenzierungs- und Java-Experten sprechen dafür u. a. über diese Fragen:
* Wann ist Java "frei"? Und wann nicht?
* Wie Sie Java Installationen entdecken: Scanning-Tools und Inventarisierungslösungen
* Was steckt hinter Java, JDK und JRE? ... Mal genau erklärt
* Welche Open JDKs gibt es? Vor- und Nachteile, Supportmöglichkeiten
* Was wird morgen? Lifecycle Management, Release-Cadence-Wechsel
* Welche Oracle Lizenz-Metriken werden wann angewandt? Prozessor Core Metrik und NUP richtig zählen, Preislisten
* Geht es auch "ohne"?
* Welche Applikationen basieren auf Java?
* Wem gehört mein Java? Spezialfragen im Umfeld von Virtualisierung und Cloud
* Wie lassen sich Kosten sparen? Kostenminimierungsansätze
Die Aufzeichnung finden Sie hier:
https://youtu.be/k1ZpxoES18I
Modern Data Stack – Buzzword oder echter Game-Changer?Fabian Hardt
Was verbirgt sich hinter dem Trend 'Modern Data Stack' und wie gut eignet er sich für den Aufbau von Analytics-Plattformen? Wir berichten über erste Erfahrungen im Aufbau und der Nutzung des Modern Data Stacks, stellen eine Architektur mit allen Komponenten vor und demonstrieren sie praktisch. Wir gehen auf die Trennung von Ingestion (EL) und Transformation (T) ein, sowie weitere Ideen, wie 'Metrics Store' und 'Reverse ETL'. Abschließend berichten wir von Problemen und Einstiegshürden bei Deployment, Einsatz und der Integration der Komponenten.
Einführung Linked Open Data (LOD) - Introduction to Linked Open Data (LOD)Martin Kaltenböck
Präsentation von Martin Kaltenböck (SWC) bei den Wissenschaftstagen der Akademie der Wissenschaften am 3.12. 2014 zum Thema - Einführung, Basis und Benefits von Linked Open Data (LOD) inkl. Best Practise: Linked Open Data Pilot Österreich (LOD Pilot AT - http://linkeddata.gv.at).
DevOps im Konzern - Autonomie vs Betriebssicherheit (Continuous Lifecycle)Johannes Dienst
Aus Sicht eines DevOps-Teams ist für eine hohe angestrebte Geschwindigkeit hohe Autonomie bei allen Architektur- und Implementierungsentscheidungen notwendig. Aus Sicht der DB Systel, die den stabilen IT-Betrieb der Deutschen Bahn sicherstellen soll, ist die Forderung nach Autonomie jedoch ein Risiko.
Zur Lösung dieses Konfliktes findet man daher in der Industrie häufig Ansätze, bei der Betriebseinheiten zentral betreute CI/CD-Pipelines bereitstellen. Während die mit dieser Lösung verbundene Automatisierung eine gute Kontrolle von Betriebsaspekten mit sich bringt, stellt die damit auch verbundene notwendige Standardisierung von Architekturaspekten häufig eine zu starke Einschränkung der Autonomie von DevOps-Teams dar.
In diesem Talk möchten wir darauf eingehen, wie die DB Systel ihren DevOps-Teams durch Verortung der Betriebsverantwortung in den DevOps-Teams eine optimale Autonomie gewährt und gleichzeitig die Risiken für Stabilität, Datenschutz und Compliance kontrolliert.
Wir geben Ihnen auch einen Einblick in den Alltag eines DevOps-Teams in der DB Systel aus Sicht eines Betroffenen. Wir stellen dar, wie hohe Autonomie und umfängliche Verantwortung eine völlig neue Arbeitsweise erfordern.
Data Mesh und Domain Driven Design - rücken Analytics und SD nun doch näher z...Fabian Hardt
Lange Zeit wichen Architekturen von Analytics Systemen stark von modernen Software-Architekturen ab. Während die letzten Jahre oft von Domain Driven Design die Rede war und immer mehr Monolithen in Microservices zerschlagen wurden, blieben Analytics Plattformen wie Data Lake und Data Warehouse weiterhin schwerfällig. Doch nun ist auch hier die Rede von Data Mesh und Data Products. Doch inwiefern unterscheiden sich diese Konzepte nun eigentlich noch und was ist der Unterschied zwischen Microservice und Data Product? Werden hier nicht doch ähnliche Frameworks und Architekturpatterns benötigt? Diese Einordnung soll dieser Vortrag bieten und ein Beispiel bringen, wie eine noch engere Verzahnung im Unternehmen erfolgen kann und somit echte Mehrwerte für Ihre IT-Landschaften schaffen kann.
This presentation deals with to topic of Big Data Governance and how companies can establish a holistic Big Data Governance framework which is suited for the organizational day to day business.
Linked Open Data Pilotprojekt Österreich - LOD Pilot ATMartin Kaltenböck
Foliensatz im Rahmen des Open Data Support Trainings für die österr. Verwaltung am 15.9.2014, organisiert vom östterreichischen Bundeskanzleramt. Der LOD Pilot Österreich realisiert eine digitale Datenbasisinfrastruktur als Linked Open Data (vernetzten offenen Daten) für Österreich - auf Basis der offenen Daten von data.gv.at (Nationales Open Data Portal) und open.wien.gv.at (Datenportal der Stadt Wien). Hierbei werden 30-50 Basisdatensätze (Industriesektoren, Wirtschaftszweige oder Gemeindekennziffern etc) als Linked Open Data unter linked.data.gv.at publiziert und zur Wiederverwendung bereitgestellt. Das Projekt wurde von der Internetfoundation (netidee) Österreich finanziell unterstützt.
Längst werden Applikationen als Plattform oder Software as a Service angeboten und genutzt. Im Bereich Business Intelligence und Analytics ist die Zeit reif über eine Transformation in die Cloud nachzudenken, um somit Einsätze auch in größeren Szenarien zu ermöglichen.
Ein Szenario wird unter dem Begriff Analytics as a Service innerhalb dieses Webinars näher beleuchtet. Es wird betrachtet wie Kunden dabei unterstützt werden können, sich den bei einer Transformation entstehenden technischen, funktionalen und organisatorischen Herausforderungen zu stellen. Dabei wird demonstriert, wie der Aufbau einer grundlegenden Analytics Architektur in der Cloud auf Basis von Microsoft Azure gestaltet ist und innerhalb dieser Architektur ein umfassender, skalierbarer Service in den unterschiedlichen Disziplinen Datenakquisition, Datenintegration, Modellierung sowie Visualisierung geleistet werden kann.
Wie Big Data Geschäftsmodelle verändert
Zum Abschluss des Werbeplanung.at Summit SPEZIAL erzählte André Münger, Account Manager bei Pivotal in Zürich, wie Big Data Geschäftsmodelle verändert: Big Data bildet einen gewaltigen Möglichkeitsraum, über den sich Unternehmen am Markt deutlich vom Mitbewerb abheben können. Weiter kann Big Data als Basis für gänzlich neue Geschäftsmodelle dienen – Monetarisierungsstrategien der Daten von Telco-Anbietern, eigentliche Branchenwechsel von Firmen, neue, datenbasierte Kooperationen zwischen Firmen sind nur einige der Beispiele am Markt.
OSMC 2023 | Bring IoT auf ein neues Level mit ThingsBoard by Holger KochNETWAYS
Das Internet der Dinge erfreut sich immer größerer Beliebtheit. Dabei setzen aufgrund der Einfachheit, Skalierbarkeit und Funktionsvielfalt immer mehr Unternehmen auf die Open Source IoT Plattform ThingsBoard. Im ersten Drittel des Talk wird eine praktische Einführung in die Plattform gegeben. Anschließend werden wir uns zusammen eine skalierende Architektur anschauen, mit der hunderttausende Sensoren mit Millionen Metriken performant verarbeitet werden können. Im letzten Drittel werden wir uns die Möglichkeiten zur Visualisierung der gewonnenen Daten, die Anomalie-Erkennung und verschiedene Auswertungen auf der Basis von ThingsBoard Trendz anschauen. Somit erhält der Zuhörer einen kompletten Einstieg in die umfangreiche Funktionalität von ThingsBoard.
http://www.opitz-consulting.com/go/3-2-11
Auch die Logistik ist vom Trendthema „Big Data“ nicht ausgenommen. Der enorme Wachstum der Datenmengen durch Sensoren, Prozesse und weitere Quellen sowie die stetig steigende Anzahl von non-human Usern stellen die traditionellen Ansätze des Datenmanagements wie auch der etablierten Methoden zur Analyse in Frage. Ferner erfahren die Prozesse in der Logistik eine erhöhte Komplexität durch den steigenden Grad der Vernetzung innerhalb des Netzwerks der Logistikpartner.
In ihrem Vortrag bei der DOAG Logistik + IT Konferenz der Deutschen Oracle Anwendergruppe am 7. Mai 2014 beschrieb OPITZ CONSULTING Solution Managerin Nannette Biedermann grundlegende Fragestellungen und Architekturkonzepte zur Durchführung von Big Data Analysen sowie Lösungsansätze durch Nutzung von Oracle Produkten in Kombination mit verbreiteten Open-Source Big Data Frameworks.
Dabei ging sie auch auf die folgenden konkreten Herausforderungen der Logistik ein, welche durch die Skalierbarkeit und Auswertungsmöglichkeiten der Big Data Werkzeuge bewältigt werden können:
• Internet of Things mit Predictive Maintenance
• Routenoptimierung und Predicitive Delivery
• Value-at-Risk Echtzeitauswertungen
• Brand Monitoring
• Customer Intelligence im Sinne des Zulieferer- aber auch Käufer-Profilings
• Next-Best-Offer Analysen
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Technologie und SEO: Cloud, Big Data und Mobile First angeschautRalf Schwoebel
Im Rahmen der SEOkomm 2013 in Salzburg habe ich für meine Präsentation 3 Bereiche der Technik genauer angeschaut: Cloud - was brauche ich als deutscher SEO in der "Wolke", Big Data: Welche Daten sind "big" und wofür brauche ich das und schliesslich der aktivste Teil der Präsentation: "Mobile First" - was ist dran am Smartphone-Kunden?
BARC Studie Webinar: Ausgereifte Analysen mit Apache HadoopCloudera, Inc.
Sowohl die Technologie Hadoop als auch das Konzept Data Lake sind erst seit kurzer Zeit im Enterprise-Kontext im Einsatz. Entsprechend fällt es Unternehmen häufig schwer, zwischen medialer Überhöhung und tatsächlich realisierbaren Mehrwert zu unterscheiden. Ob es Unternehmen gelingt, sich die Vorteile zunutze zu machen, untersucht diese Studie zum Stand und zur zukünftigen Entwicklung von Big Data und dessen Anwendungsfälle in Unternehmen. Mit weltweit über 380 Teilnehmern bei einer breit gefächerten Branchenverteilung gehört die vorliegende Studie „Hadoop und Data Lakes“ zu den größten Untersuchungen, die sich speziell den Herausforderungen bei der Datenanalyse mit Hadoop widmen.
Vortrag im Rahmen der eco Akademie beim Experten Roundtable Datacenter. Vorgabe war ein Impulsstatement und 1-2 Thesen über den aktuellen Stand und die Zukunft der Datacenter.
In diesem Webcast bekommen Sie Tipps und Hilfen auf dem Weg zu einer aufgeräumten Java Landschaft, mit der Sie Kosten und Risiken minimieren. Unsere Lizenzierungs- und Java-Experten sprechen dafür u. a. über diese Fragen:
* Wann ist Java "frei"? Und wann nicht?
* Wie Sie Java Installationen entdecken: Scanning-Tools und Inventarisierungslösungen
* Was steckt hinter Java, JDK und JRE? ... Mal genau erklärt
* Welche Open JDKs gibt es? Vor- und Nachteile, Supportmöglichkeiten
* Was wird morgen? Lifecycle Management, Release-Cadence-Wechsel
* Welche Oracle Lizenz-Metriken werden wann angewandt? Prozessor Core Metrik und NUP richtig zählen, Preislisten
* Geht es auch "ohne"?
* Welche Applikationen basieren auf Java?
* Wem gehört mein Java? Spezialfragen im Umfeld von Virtualisierung und Cloud
* Wie lassen sich Kosten sparen? Kostenminimierungsansätze
Die Aufzeichnung finden Sie hier:
https://youtu.be/k1ZpxoES18I
In diesem Webcast bekommen Sie Tipps und Hilfen auf dem Weg zu einer aufgeräumten Java Landschaft, mit der Sie Kosten und Risiken minimieren. Unsere Lizenzierungs- und Java-Experten sprechen dafür u. a. über diese Fragen:
* Wann ist Java "frei"? Und wann nicht?
* Wie Sie Java Installationen entdecken: Scanning-Tools und Inventarisierungslösungen
* Was steckt hinter Java, JDK und JRE? ... Mal genau erklärt
* Welche Open JDKs gibt es? Vor- und Nachteile, Supportmöglichkeiten
* Was wird morgen? Lifecycle Management, Release-Cadence-Wechsel
* Welche Oracle Lizenz-Metriken werden wann angewandt? Prozessor Core Metrik und NUP richtig zählen, Preislisten
* Geht es auch "ohne"?
* Welche Applikationen basieren auf Java?
* Wem gehört mein Java? Spezialfragen im Umfeld von Virtualisierung und Cloud
* Wie lassen sich Kosten sparen? Kostenminimierungsansätze
Die Aufzeichnung finden Sie hier: https://youtu.be/abVeIGmxYB0
Folien zum Webcast mit Fritz Wein Weinhappl (Oracle) und Uwe Küchler (OPITZ) am 27. April 2021.
Die Aufzeichnung finden Sie unter: https://youtu.be/un4gzCsmfwg
Im Bereich der professionellen Softwareentwicklung hat sich in den letzten 10 Jahren viel getan. In diesem Vortrag schauen wir uns an, was es eigentlich bedeutet, professionelle und nicht nur funktionierende Software zu entwickeln. Gerade auf der persönlichen und Teamebene unterscheidet sich die Disziplin der Softwareentwicklung in vielen Bereichen von den Anforderungen die noch vor einigen Jahren Gültigkeit besaßen.
Die Kernänderungen werden im Vortrag anhand von 10 Thesen verdeutlicht, erläutert und soll darüber zum Nachdenken über den Berufsethos eines Softwareentwicklers anregen. Neben Entwicklern richtet sich der Vortrag vor allem auch an Projektverantwortliche, da auch aufgezeigt wird, dass es weitere wichtige Aspekte neben den rein funktionalen Anforderungen zu beachten gilt.
Zum Referenten:
Richard Attermeyer arbeitet bei OPITZ CONSULTING als Senior Solution Architect im Bereich Technologiemanagement und Innovation. Dort leitet er unter anderem das Architecture Board. Er beschäftigt sich seit Jahren mit flexiblen Systemarchitekturen und deren Wechselwirkungen mit Entwicklungsprozessen und Unternehmens- und Managementkulturen. Hot Topics: CI/CD, Technologiemanagement, flexible Systemarchitekturen und DevOps.
Daten im Active Archive können ...
Mit Oracle SQL abgefragt und mit SQL + PL/SQL Security geschützt werden
Auslagerung von Daten aus dem DWH
Daten können noch abgefragt werden
Kostengünstigere Speicherung der Daten