Agilität, Cloud, Offenheit sind nur einige wichtige Anforderungen, die an moderne Data-Warehouse-Systeme gestellt werden. Lange Zeit stand SAP mit ihrer Lösung nicht für diese Art, ein Data Warehouse zu bauen. Aber gilt das noch?
Hier zeigen wir Ihnen, wie ein SQL Data Warehouse auf der HANA-Plattform aufgebaut wird, wie es im Kern funktioniert und welche Entwicklungswerkzeuge genutzt werden, um Ihre Anforderungen umzusetzen. Dabei lernen Sie die Stärken des SAP-Ansatzes anhand eines realen Kunden-Beispiels kennen.
Das Ergebnis agiler Softwareentwicklung begegnet uns täglich bei der Nutzung von Amazon, Spotify aber auch SAP Cloud-Lösungen wie der SAP Analytics Cloud. Die kurze Dauer bis neue Features verfügbar sind prägen die Erwartung von Anwendern auch an andere Softwarelösungen. Weniger stark verbreitet sind agile Methoden der Softwareentwicklung bei der Entwicklung von SAP Data-Warehouse-Lösungen. Es wird argumentiert, dass es im Data Management Bereich nicht möglich sei, kleine nutzbare Produktinkrements zu entwickeln, und agile Entwicklungsmethoden daher grundsätzlich nicht in Frage kommen. Wir möchten darlegen, warum Methoden der agilen Softwareentwicklung auch im Data Warehouse sinnvoll und möglich sind.
SAP BW/4HANA ist seit 2016 auf dem Markt. SAP BW/4HANA bringt viele Veränderungen und Vorteile in den Bereichen Architektur, Agilität, Performance und Modellierung. Sollen die Potentiale von SAP BW/4HANA ausgeschöpft werden, ist es wichtig eine moderne und flexible Architektur implementiert zu haben. Die Einführung von SAP BW/4HANA sollte sich nach unserer Einschätzung daher nicht auf die technische Migration bestehender historisch gewachsener SAP BW Systeme beschränken. Wir skizzieren unsere Idee einer modernen und flexiblen SAP-BW/4HANA-Architektur.
Lange wurden Data-Warehouse-Lösungen als Single-Point-of-Truth für das Berichtswesen zu den operativen Systemen eines Unternehmens gesehen. Oberstes Ziel war es, eine hohe Stabilität und Qualität sicherzustellen. Die strukturierten Daten aus den operativen ERP Systemen wurden schichtenweise aufbereitet und redundant gespeichert als Grundlage für die Konsumierung durch BI Frontend-Werkzeuge.
Enabling AgileBI by managing the data warehouse software lifecycle with DataVault 2.0, generators, data virtualization and cotinuous integration using open source tools
Agilität, Cloud, Offenheit sind nur einige wichtige Anforderungen, die an moderne Data-Warehouse-Systeme gestellt werden. Lange Zeit stand SAP mit ihrer Lösung nicht für diese Art, ein Data Warehouse zu bauen. Aber gilt das noch?
Hier zeigen wir Ihnen, wie ein SQL Data Warehouse auf der HANA-Plattform aufgebaut wird, wie es im Kern funktioniert und welche Entwicklungswerkzeuge genutzt werden, um Ihre Anforderungen umzusetzen. Dabei lernen Sie die Stärken des SAP-Ansatzes anhand eines realen Kunden-Beispiels kennen.
Das Ergebnis agiler Softwareentwicklung begegnet uns täglich bei der Nutzung von Amazon, Spotify aber auch SAP Cloud-Lösungen wie der SAP Analytics Cloud. Die kurze Dauer bis neue Features verfügbar sind prägen die Erwartung von Anwendern auch an andere Softwarelösungen. Weniger stark verbreitet sind agile Methoden der Softwareentwicklung bei der Entwicklung von SAP Data-Warehouse-Lösungen. Es wird argumentiert, dass es im Data Management Bereich nicht möglich sei, kleine nutzbare Produktinkrements zu entwickeln, und agile Entwicklungsmethoden daher grundsätzlich nicht in Frage kommen. Wir möchten darlegen, warum Methoden der agilen Softwareentwicklung auch im Data Warehouse sinnvoll und möglich sind.
SAP BW/4HANA ist seit 2016 auf dem Markt. SAP BW/4HANA bringt viele Veränderungen und Vorteile in den Bereichen Architektur, Agilität, Performance und Modellierung. Sollen die Potentiale von SAP BW/4HANA ausgeschöpft werden, ist es wichtig eine moderne und flexible Architektur implementiert zu haben. Die Einführung von SAP BW/4HANA sollte sich nach unserer Einschätzung daher nicht auf die technische Migration bestehender historisch gewachsener SAP BW Systeme beschränken. Wir skizzieren unsere Idee einer modernen und flexiblen SAP-BW/4HANA-Architektur.
Lange wurden Data-Warehouse-Lösungen als Single-Point-of-Truth für das Berichtswesen zu den operativen Systemen eines Unternehmens gesehen. Oberstes Ziel war es, eine hohe Stabilität und Qualität sicherzustellen. Die strukturierten Daten aus den operativen ERP Systemen wurden schichtenweise aufbereitet und redundant gespeichert als Grundlage für die Konsumierung durch BI Frontend-Werkzeuge.
Enabling AgileBI by managing the data warehouse software lifecycle with DataVault 2.0, generators, data virtualization and cotinuous integration using open source tools
Die Ausprägungen des digitalen Zwillings und deren NutzenTransaction-Network
Der digitale Zwilling, das digitale Abbild einer Maschine aus der realen in die digitale Welt, gewinnt im Industrie 4.0 Umfeld an entscheidender Bedeutung und bildet insbesondere im Maschinenbau die Basis für die Digitalisierung der Branche. In den folgenden Ausführungen der Präsentation zweige ich die Bedeutung und die verschiedenen Formen des digitalen Zwillings auf und welche Mehrwerte dieser geben kann.
Inhalt:
Angesichts von rasant steigenden und sich stetig verändernden Anforderungen an Daten kommen zentralisierte Organisationsformen in der Datenarchitektur zunehmend an ihre Grenzen. Data Mesh verfolgt einen dezentralen, domänengesteuerten Ansatz im Daten-Management und überträgt die Verantwortung für die Daten und die Datenqualität den Fachbereichen (Domänen). Daten werden als Produkt behandelt, das die Fachbereiche unternehmensweit vermarkten. In unserem Expertengespräch diskutieren Datenspezialisten von IBsolution gemeinsam mit Gordon Witzel, SAP Customer Advisory Platform & Data Management Expert, die grundlegenden Prinzipien und die Vorteile von Data Mesh. Außerdem gehen sie darauf ein, wie Unternehmen Data Mesh umsetzen können und welche Voraussetzungen dafür erfüllt sein müssen.
Zielgruppe:
- IT-Leiter
- IT-Mitarbeiter
- Fachbereichsleiter
- Mitarbeiter aus den Fachbereichen
- CIO, CDO, CFO
Agenda:
- Warum ein dezentraler Ansatz in der Daten-Architektur?
- Auf welchen Prinzipien beruht Data Mesh?
- Daten als Produkt - was bedeutet das?
- Wie lässt sich Data Mesh im Unternehmen realisieren?
Mehr über uns:
Website: https://www.ibsolution.com/
Karriereportal: https://ibsolution.de/karriere/
Webinare: https://www.ibsolution.com/academy/webinare
YouTube: https://www.youtube.com/user/IBSolution
LinkedIn: https://de.linkedin.com/company/ibsolution-gmbh
Xing: https://www.xing.com/companies/ibsolutiongmbh
Facebook: https://de-de.facebook.com/IBsolutionGmbH/
Instagram: https://www.instagram.com/ibsolution/?hl=de
Das könnte Sie auch interessieren:
https://www.ibsolution.com/academy/webinar-aufzeichnungen/business-intelligence-der-weg-in-die-sap-data-warehouse-cloud
«Schnittstellen sind kompliziert, darum kann ich die Digitalisierung nicht mi...Intelliact AG
Besuchen Sie die nächste PLM Open Hour! Mehr Informationen und Termine: https://intelliact.ch/events/plm-open-hours
****
«Schnittstellen sind kompliziert, darum kann ich die Digitalisierung nicht mitmachen!»
Dies ist eine typische Sichtweise auf Schnittstellen und die Digitalisierung. Intelliact zeigt Ihnen in dieser PLM Open Hour anhand von Praxisbeispielen auf, wo die eigentlichen Probleme liegen.
Lernen Sie Lösungsmöglichkeiten kennen und verstehen, wie einfach Schnittstellen heutzutage umgesetzt werden. Mit relativ wenig Code «holen» Sie Informationen, die weiterverarbeitet werden. Mit der richtigen Architektur gelangen Sie zu flexiblen und schnellen Schnittstellen.
«Make your data work together»
****
Besuchen Sie die nächste PLM Open Hour! Mehr Informationen und Termine: https://intelliact.ch/events/plm-open-hours
Tweets und Aktienkurse? Wertvolle Erkenntnisse durch Data Blending gewinnenit-novum
Stefan Müller/ Director Business Intelligence & Big Data erklärt in seinem Vortrag wie die Kombination von Datenquellen aus klassischen Big Data Analytics-Systemen mit real-time Informationen erfasst und von der Open Source Business Intelligence-Lösung von Pentaho dargestellt werden können. Der BI- und Big Data-Spezialist zeigt anhand eines Best Practice-Beispiels auf wie bei der Gegenüberstellung von Aktienkursanalysen und aktuellen Daten aus dem Nachrichtenkurzdienst Twitter entscheidungsrelevante Zusammenhänge ersichtlich werden.
SAP Trends 2014 - die Entscheider kennen solltenIT-Onlinemagazin
SAP Trends 2014: Das IT-Onlinemagazin hat in Kooperation mit dem „Forum für SAP“, mit fast 30.000 Mitgliedern die größte SAP Community in XING, sieben wichtige Trends ermittelt. Erfahren Sie, welche SAP Trends Entscheider 2014 unbedingt kennen sollten ...
Digital Mountaineering - Datenexpeditionen und Storage-Trends im digitalen Zeitalter.
Referent: Dr. Carlo Velten ist Vorstandsvorsitzender des IT-Research- und Beratungsunternehmens Crisp Research. Seit über 15 Jahren berät Carlo Velten als Analyst namhafte Unternehmen in Technologie- und Strategiefragen.
Top 10 der Business Intelligence-Trends für das Jahr 2014Tableau Software
Die Innovation in Sachen Daten und Analyse schreitet weiter voran, wodurch die biedere alte Business Intelligence-Branche zu einer neuen Wertschöpfungsquelle für das Unternehmen wird. Dies führte dazu, dass Daten in die Hände von mehr Personen gelangten und bessere Entscheidungen getroffen werden konnten. Und die Innovationswelle ist noch nicht vorbei.
Modernes DAM lässt Ihr Team effizienter arbeiten - mit KI und Machine LearningNuxeo
In diesem Webinar zeigen wir Ihnen, wie Sie Ihre kreative Wertschöpfungskette mit KI und Machine Learning revolutionieren. Lernen Sie die Vorteile einer modernen und hochflexiblen DAM-Lösung kennen, die sich nahtlos in Ihre Systeme integrieren lässt.
Agenda:
1. So optimieren Sie die Arbeit mit Ihren digitalen Assets:
2. Auffindbarkeit
3. Workflows
4. Verwaltungsprozesse
5. Überblick über die Nuxeo DAM-Lösung
6. it-novum: Ihr Partner im deutschsprachigen Raum
Lernen Sie, wie Sie die stetig wachsenden und sich ändernden Herausforderungen im DAM-Umfeld meistern können. Profitieren Sie von der Flexibilität moderner Technologien und revolutionieren Sie Ihre kreative Wertschöpfungskette!
25. 3D INFORMATION CENTER
WAS MACHT ES?
Geschützt
Multi DC fähig
Dynamisch
Virtualisiert
Flexibel
Mandantenfähig
SLA gesteuert
1. Selbst Service
2. Pay-per-use
3. Dynamic scale ↑↓
26. 3D INFORMATION CENTER
BAUSTEINE
Deployment
Deployment
– Private
– Hybrid
– Public
Delivery
Delivery
– Self Service
– Messen und Abrechnen
– Pay-per-use Verbrauchsmodell
– Flexibel - hoch und runter
Services
Services
– Remote managed services
– Managed storage utilityKonnektivität
Konnektivität
– Bestehende Applikationen & Protokolle
– REST API, MAPIInfrastruktur
Infrastruktur
– Block, File und Content Plattform
– Flexibele Compute Plattform
– Blueprints für Applikationen
27. 3D INFORMATION CENTER
DIE TRANSFORMATION
Konsolidieren
Nutzung aller Ressourcen
Virtualisieren
Einfaches Deployment und Administration
Automatisieren
SLA Steuerung
Self Service
Abrechnung und Überwachung
Pay per use
Infrastructure Cloud: building on our core technology we have today, we’re building the infrastructure plumbing for data centers. Key components are converged data center solutions which integrate storage, compute and network. And the ability to deliver dynamic provisioning.
Content Cloud: deliver intelligence to enable customers to manage the life cycle of their data. Access, tier, search and discover data. Eg. Hitachi Clinical Repository plays is a great example of content cloud.
Information Cloud: Re-purpose of content to enable business decision making. It’s the data warehousing for content.
Cloud computing is not a product. It’s a way to deliver IT services in an on demand, rapid, flexible and scalable fashion. Hitachi lets customers to choose the best possible delivery method, deployment model and underlying infrastructure to address your particular cloud needs, all at your own pace.
We start with our integrated infrastructure and cloud enabling technologies.
Then provide connectivity options for customers to move data into the cloud, whether it’s their existing applications or new applications that can talk directly to the cloud (via REST for example).
Next we layer in our service capabilities, which can be remote and utility based – allowing pay-per-use consumption of storage resources.
Then we provide the fundamental delivery mechanisms to enable a cloud service delivery model, such as billing/chargeback which can be segregated by tenant (i.e. business unit or even company for service providers), self-service on demand access to storage, pay per use consumption and the ability to scale up or down to meet the needs of the business.
The cloud architecture can be deployed in any of the following ways:
Private: Hosted within an organization’s firewall and managed internally or externally
Public: Hosted on the internet and managed by a provider
Hybrid: A combination of private and public