Agilität, Cloud, Offenheit sind nur einige wichtige Anforderungen, die an moderne Data-Warehouse-Systeme gestellt werden. Lange Zeit stand SAP mit ihrer Lösung nicht für diese Art, ein Data Warehouse zu bauen. Aber gilt das noch?
Hier zeigen wir Ihnen, wie ein SQL Data Warehouse auf der HANA-Plattform aufgebaut wird, wie es im Kern funktioniert und welche Entwicklungswerkzeuge genutzt werden, um Ihre Anforderungen umzusetzen. Dabei lernen Sie die Stärken des SAP-Ansatzes anhand eines realen Kunden-Beispiels kennen.
SAP BW/4HANA ist seit 2016 auf dem Markt. SAP BW/4HANA bringt viele Veränderungen und Vorteile in den Bereichen Architektur, Agilität, Performance und Modellierung. Sollen die Potentiale von SAP BW/4HANA ausgeschöpft werden, ist es wichtig eine moderne und flexible Architektur implementiert zu haben. Die Einführung von SAP BW/4HANA sollte sich nach unserer Einschätzung daher nicht auf die technische Migration bestehender historisch gewachsener SAP BW Systeme beschränken. Wir skizzieren unsere Idee einer modernen und flexiblen SAP-BW/4HANA-Architektur.
Lange wurden Data-Warehouse-Lösungen als Single-Point-of-Truth für das Berichtswesen zu den operativen Systemen eines Unternehmens gesehen. Oberstes Ziel war es, eine hohe Stabilität und Qualität sicherzustellen. Die strukturierten Daten aus den operativen ERP Systemen wurden schichtenweise aufbereitet und redundant gespeichert als Grundlage für die Konsumierung durch BI Frontend-Werkzeuge.
Das Ergebnis agiler Softwareentwicklung begegnet uns täglich bei der Nutzung von Amazon, Spotify aber auch SAP Cloud-Lösungen wie der SAP Analytics Cloud. Die kurze Dauer bis neue Features verfügbar sind prägen die Erwartung von Anwendern auch an andere Softwarelösungen. Weniger stark verbreitet sind agile Methoden der Softwareentwicklung bei der Entwicklung von SAP Data-Warehouse-Lösungen. Es wird argumentiert, dass es im Data Management Bereich nicht möglich sei, kleine nutzbare Produktinkrements zu entwickeln, und agile Entwicklungsmethoden daher grundsätzlich nicht in Frage kommen. Wir möchten darlegen, warum Methoden der agilen Softwareentwicklung auch im Data Warehouse sinnvoll und möglich sind.
DIe Aufzeichnung dieses Webinars steht hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Amazon Redshift ist ein schneller und mächtiger, voll verwalteter Data Warehouse Dienst in der Cloud. Redshift skaliert von Terabytes bis über ein Petabyte bei sehr günstigen Kosten. In diesem Webinar geben wir einen Überblick über den Dienst, zeigen das Aufsetzen eines Redshift-Clusters, die Verwaltung, den Datenimport und die Abfrage des Data Warehouse über SQL und über Partnerwerkzeuge.
Agilität, Cloud, Offenheit sind nur einige wichtige Anforderungen, die an moderne Data-Warehouse-Systeme gestellt werden. Lange Zeit stand SAP mit ihrer Lösung nicht für diese Art, ein Data Warehouse zu bauen. Aber gilt das noch?
Hier zeigen wir Ihnen, wie ein SQL Data Warehouse auf der HANA-Plattform aufgebaut wird, wie es im Kern funktioniert und welche Entwicklungswerkzeuge genutzt werden, um Ihre Anforderungen umzusetzen. Dabei lernen Sie die Stärken des SAP-Ansatzes anhand eines realen Kunden-Beispiels kennen.
SAP BW/4HANA ist seit 2016 auf dem Markt. SAP BW/4HANA bringt viele Veränderungen und Vorteile in den Bereichen Architektur, Agilität, Performance und Modellierung. Sollen die Potentiale von SAP BW/4HANA ausgeschöpft werden, ist es wichtig eine moderne und flexible Architektur implementiert zu haben. Die Einführung von SAP BW/4HANA sollte sich nach unserer Einschätzung daher nicht auf die technische Migration bestehender historisch gewachsener SAP BW Systeme beschränken. Wir skizzieren unsere Idee einer modernen und flexiblen SAP-BW/4HANA-Architektur.
Lange wurden Data-Warehouse-Lösungen als Single-Point-of-Truth für das Berichtswesen zu den operativen Systemen eines Unternehmens gesehen. Oberstes Ziel war es, eine hohe Stabilität und Qualität sicherzustellen. Die strukturierten Daten aus den operativen ERP Systemen wurden schichtenweise aufbereitet und redundant gespeichert als Grundlage für die Konsumierung durch BI Frontend-Werkzeuge.
Das Ergebnis agiler Softwareentwicklung begegnet uns täglich bei der Nutzung von Amazon, Spotify aber auch SAP Cloud-Lösungen wie der SAP Analytics Cloud. Die kurze Dauer bis neue Features verfügbar sind prägen die Erwartung von Anwendern auch an andere Softwarelösungen. Weniger stark verbreitet sind agile Methoden der Softwareentwicklung bei der Entwicklung von SAP Data-Warehouse-Lösungen. Es wird argumentiert, dass es im Data Management Bereich nicht möglich sei, kleine nutzbare Produktinkrements zu entwickeln, und agile Entwicklungsmethoden daher grundsätzlich nicht in Frage kommen. Wir möchten darlegen, warum Methoden der agilen Softwareentwicklung auch im Data Warehouse sinnvoll und möglich sind.
DIe Aufzeichnung dieses Webinars steht hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Amazon Redshift ist ein schneller und mächtiger, voll verwalteter Data Warehouse Dienst in der Cloud. Redshift skaliert von Terabytes bis über ein Petabyte bei sehr günstigen Kosten. In diesem Webinar geben wir einen Überblick über den Dienst, zeigen das Aufsetzen eines Redshift-Clusters, die Verwaltung, den Datenimport und die Abfrage des Data Warehouse über SQL und über Partnerwerkzeuge.
2016 07 26 Webinar pakadoo & Microsoft (forwerts)pakadoo Nachname
Mit der innovativen work-life-logistics von pakadoo können Arbeitnehmer ihre Privatpakete ganz offiziell im Unternehmen empfangen und retournieren. Das spart unnötige Wege, eine Menge Zeit und schont die Umwelt.
Erfahren Sie im Webinar, wie pakadoo mit Microsoft Azure sein innovatives Konzept entwickelt hat und warum sich die Cloud-Lösung durch ihre Skalierbarkeit ideal für Start-ups und deren Geschäftsideen anbietet.
Innovationen zur Mobilisierung von Geschäftsprozessen mit BlackBerry und LotusIBM Lotus
Axel Conrad, Global Alliances, Research In Motion
- Strategische Partnerschaft RIM / IBM
- Innovationen und Mobilität
- BlackBerry SuperApps - Merkmale erfolgreicher mobiler Applikationen
- Mobile Collaboration mit Lotus und BlackBerry
Der DB-Explorer bietet Fahrgästen die Möglichkeit, Sehenswürdig-keiten entlang der Strecke zu entdecken und mit anderen zu teilen
Wir haben als “Team One” einen prototypischen "DB-Explorer" ent-wickelt, der die Fahrgäste der Deutschen Bahn als Zielgruppe be-dient. Der DB-Explorer weist den Benutzer während der Fahrt auf Sehenswürdigkeiten oder andere interessante Orte entlang der Strecke hin und bietet die Möglichkeit das gesehene mit anderen Fahrgästen zu teilen. Dabei verwendet die Anwendung OpenStreetMap-Objekte, deren Sichtbarkeit auf einzelne Streckenabschnitte übertragen wird. Sobald sich das mobile Endgerät des Fahrgastes einem dieser Streckenabschnitt nähert oder sich in einem solchen Abschnitt befindeti, wird er mit einer Benachrichtigung durch die App darauf aufmerksam gemacht.
Diese erste Umsetzung eröffnet vielfältige Möglichkeiten zur Weiter-entwicklung der Anwendung und der Idee. Sie könnte zum Beispiel kulturell besonders wertvolle Bahnstrecken vorhalten und dabei mit Informationen aus vielen weiteren Quellen den Bahnreisenden eine Möglichkeit bieten, ihrer Reise einen echten kulturellen Wert zu geben. Wir hoffen für die Zukunft, das „Erlebnis Bahnfahrt“ mit dem DB-Explorer zu einem echten Abenteuer zu machen.
Cloud Ready? Migration von Anwendungen in die CloudQAware GmbH
Fachposter, 2016: Erstellt von QAware in Zusammenarbeit mit FZI Forschungszentrum Informatik und ObjektSpektrum (Verlag: SIGS DATACOM).
Bestellbar unter https://www.sigs-datacom.de/order/poster/Cloud-Migration-Poster-2016.php
(Dokument bitte herunterladen für bessere Lesbarkeit)
RISIKEN MINIMIEREN, CHANCEN MAXIMIEREN
Für mehr als ein Viertel aller Unternehmen wird das Thema Cloud künftig an Bedeutung gewinnen. Standard-Dienste und die Wertschöpfung unterstützende Anwendungen wie SalesForce CRM werden zunehmend zu Cloud-Anbietern verlagert. Andere Anwendungen laufen je nach Individualisierungsgrad in PaaS-Umgebungen oder IaaS-Umgebungen. Keine Frage: Cloud Computing bringt eine ganze Reihe von Vorteilen mit sich. Aber auch neue Herausforderungen. So gestaltet sich beispielsweise die Integration von Prozessen deutlich komplexer als bisher.
Daraus leiten wir von der SQL Projekt AG einen klaren Anspruch ab: Wenn Integrationsvorhaben komplexer werden, müssen die Integrationswerkzeuge einfacher werden. TRANSCONNECT® cloud ermöglicht eine ganze Reihe praxisbewährter Integrationsszenarien.
Einführung in AWS - Übersicht über die wichtigsten Services AWS Germany
Jetzt Webinar-Recording ansehen: http://amzn.to/1QXivOC
Cloud Computing bietet eine einfache Möglichkeit des Zugriffs auf Server, Speicher, Datenbanken und eine umfassende Palette von Anwendungsservices über das Internet. Millionen von Kunden nutzen Amazon Web Services jeden Monat, um anspruchsvolle, skalierbare und sichere Applikationen in der Cloud abzubilden.
In gleichnamigen Webinar stellen wir Ihnen die wichtigsten Services von AWS, Anwendungsgebiete und Kundenbeispiele vor. Unter anderem: EC2, ECS, Lambda, S3, RDS Aurora, Dynamo und Redshift.
Where are all transactions gone? Was in_der_cloud_alles_verboten_istRamon Anger
Mein Vortrag auf der OOP 2015
Where all the transactions gone?
Was in der Cloud alles verboten ist.
Gegenstand des Vortrags sind neun Dinge, die in der Cloud im Gegensatz zu inhouse-Anwendungen grundlegend anders sind. Darüber hinaus geht der Vortrag kurz auf DevOps für die Cloud und Organisation für die Cloud ein.
Ursprünglich hat mein Kollege Marc Bauer den Vorschlag eingereicht, hatte dann aber leider keine Möglichkeit, den Vortrag selbst zu halten.
Fachposter, 2018: Erstellt von QAware in Zusammenarbeit mit Prof. Dr. Kratzke, Fachhochschule Lübeck und ObjektSpektrum (Verlag: SIGS DATACOM).
Bestellbar unter http://software-poster.sigs-datacom.de/i/37rTk-hM56nmgYGGuwNK_yKFgfkHtbQjtpKeTmPZ6jw
(Dokument bitte herunterladen für bessere Lesbarkeit)
Mit TransConnect® einfach die Produktion vernetzen: mit wenigen Schritten zur...Stefan Ehrlich
Kern einer vernetzten und integrierten Fertigung ist die passende Software. I.d.R. kommen Integrationsserver oder Enterprise Service Busse zum Einsatz. Auf der Industriemesse inTEC 2017 haben wir live gezeigt, was mit TransConnect® in kurzer Zeit alles Möglich und warum die Wahl der richtigen Lösung für den Gesamterfolg wichtig ist.
Integration von OnSite- und Cloud-Systemen mit TransConnect® cloud Stefan Ehrlich
Hybrid Cloud Integration ist das Schlagwort. Dahinter verstecken sich viel Szenarien wie OnSite-Systeme mit Cloud-Anwendungen verknüpft werden können. Cloud Security spielt dabei eine wichtige Rolle. Wir zeigen, verschiedene Integrationsszenarien und wie auch kritische Daten verarbeitet werden können.
Eines der Kernziele von Cloud Computing ist die hochgradig flexible und extrem schnelle Bereitstellung von IT-Ressourcen - „auf Knopfdruck“, sozusagen. Dazu muss die Cloud-Plattform im höchsten Maße automatisiert werden, was besondere Anforderungen an die Architektur und die Implementierung der Plattform stellt. Der Vortrag erläutert zunächst die Grundlagen des Cloud Computing und grenzt das Konzept von der klassischen Virtualisierung ab. Im zweiten Teil wird das Zielbild für ein automatisiertes Data Center vorgestellt, bei dem die verschiedenen Evolutionsschichten - von einer virtuellen Infrastruktur bis hin zur Enterprise Cloud - systematisch aufeinander aufbauen.
Speaker: Pascal Petsch, inovex
Mehr Vorträge von uns: https://www.inovex.de/de/content-pool/vortraege/
Die Public Cloud bietet Innovationen, die Unternehmen in den nächsten Jahren dringend brauchen. So hat Amazon Web Services allein im vergangenen Jahr über 700 neue, hilfreiche und produktive Dienste bereitgestellt.
Allerdings ist die Transformation vom eigenen Rechenzentrum hin zur Public Cloud nicht immer einfach. Neben der technischen Vorgehensweise stellen sich Fragen zu Sicherheit, Datenschutz, Monitoring, Reporting und Support.
Hilfe beim Einstieg in die Cloud-Angebote von AWS leisten Managed Public Cloud Provider (MPCP) wie Claranet. Erst mit ihnen lässt sich das volle Potenzial der Public Cloud ausschöpfen. Das Webinar zeigt Ihnen konkret, wie MPCP Sie auf dem Weg in die Cloud unterstützen.
Learning Objectives:
• Das kann die Public Cloud für Ihr Unternehme leisten.
• Das sind die Herausforderungen auf dem Weg in die Cloud.
• So helfen Managed Public Cloud Provider (MPCP), die Dienste von AWS zu nutzen.
• So haben andere Unternehmen ihre Projekte dank MPCP bereits erfolgreich in die Cloud gebracht.
Who Should Attend:
CTOs, CIOs, CISOs, IT-Leiter, IT Administrator, IT Architects and IT Security Engineers
Fachposter, 2017: Erstellt von QAware in Zusammenarbeit mit Prof. Dr. Kratzke, Fachhochschule Lübeck und ObjektSpektrum (Verlag: SIGS DATACOM).
Bestellbar unter https://www.sigs-datacom.de/order/poster/Cloud-Native-Applikationen-Poster-2017.php
(Dokument bitte herunterladen für bessere Lesbarkeit)
Product Update: Infopark Cloud Express - Thomas WittJustRelate
Thomas Witt, Director Business & Product Development, stellt Neuigkeiten zum Infopark Cloud Express vor:
- Architektur: CMS, WebCRM, Elastic Web-Platform
- Skalierbarkeit, Datensicherheit, Content, Distribution Networks
- Migration zum Infopark Cloud Express
2. REAL DYNAMIC INFRASTRUCTURE
RDI – Real Dynamische Infrastruktur
Eine Rechenzentrums Philosophie, die die Menschen entlastet und
der Business Unit die Infrastruktur bereitstellt die sie benötigt
RDS – Real Dynamischer Speicher
Speicher und Managementprozesse die einfach,
zuverlässig und sicher die Daten verfügbar halten
RDD–RealDynamicDataManagement
DatenbeschützenundeinLebenlangbetreuen
RDC – Real Dynamic Content
Dateien und Objekte optimiert ablegen
und mit der richtigen Geschwindigkeit
bereitstellen
RDP – Real Dynamic Compute
Rechenressourcen die anpassbar, flexibel und skalierbar die
Rechenleistung bereitstellen, die die Anwendung benötigt
5. 0
2
4
6
8
10
12
Jan Feb Mar Apr Mai Jun Jul Aug Sep Okt Nov Dez
Series 1
Series 2
Series 3
• Hohe Ausgaben
CAPEX und OPEX
• Lange Bestellzeiten
• Gerine Flexibilität
6. WARUM EINE CLOUD?
• Hohe Ausgaben
CAPEX und OPEX
• Lange Bestellzeiten
• Gerine Flexibilität
• Schwierige Abrechnung
7. WARUM EINE CLOUD?
• Hohe Ausgaben
CAPEX und OPEX
• Lange Bestellzeiten
• Gerine Flexibilität
• Schwierige Abrechnung
• Zu wenig Ressourcen
8. WARUM EINE CLOUD?
• Hohe Ausgaben
CAPEX und OPEX
• Lange Bestellzeiten
• Gerine Flexibilität
• Schwierige Abrechnung
• Zu wenig Ressourcen
• Migrationen & Downtimes
16. CLOUD ALS NATÜRLICHER SCHRITT
Direct Attached (SCSI, SSA, SAS) Network Attached (SAN, NAS) Cloud
SOURCE: DATA
Ist es real?
Google speichert
mehr und günstiger
Amazon, Facebook
Benchmark für IT
17. WAS IST DIE CLOUD?
Protection
Location independence
Dynamic provisioning
Virtualization
Mobility
Multitenancy
Discoverability
1. Self-service
2. Pay-per-use
3. Dynamic scale ↑↓
22. HITACHI DATA SYSTEMS
CLOUD VISION
Einfache Infrastruktur
‒ Lösung im Rack
‒ Schnelles provisioning
und deployment
‒ SLA Monitoring und
Management
Data intelligence
– Data lifecycle
management
– Index und
Suche/Finden
Information analytics
– Daten unabhängig von
der Anwendung
– Daten
wiederverwenden und
in anderem Kontext
betrachten
Single Virtualization Platform
– Hitachi Storage and Servers –
Information
Cloud
Content
Cloud
Infrastructure
Cloud
Informations
Wiederverwendung
Intelligenz
23. WAS LIEFERN WIR FÜR DIE CLOUD?
Cloud Hardware
Hitachi Data Systems liefert
GESAMTE Hardware
Storage, Content , Compute
Cloud Concepts & Software
Monitoring, Chargeback,
Interfaces (S3), Virtualisierung
(Managment improvemts comming)
Financial Models
24. HOW HITACHI DATA SYSTEMS
LIEFERT HEUTE CLOUD SOLUTIONS
Deployment
Deployment
– Private
– Hybrid
– Public
Delivery
Delivery
– Billing and metering
– Self-service
– Pay-per-use consumption
– Flex up and down
Services
Services
– Remote managed services
– Managed storage utilityConnectivity
Connectivity
– Support existing applications
– REST API, MAPIInfrastructure
Infrastructure
– Integrated block, file and content
platforms and technologies
– Converged and compute solutions
25. Hitachi Cloud Strategy
HITACHI DATA SYSTEMS
CLOUD STRATEGY
Integrated content and
file portfolio
Enterprise and modular
Converged data center
solutions
Management software
Technology
Storage as a service
Infrastructure as a
service
Platform as a service
Application as a
service
Solution
Technology packaging
Hitachi managed
services
Delivery with partners
Financial models
Delivery
HITACHI CLOUD
STRATEGY
Infrastructure Cloud: building on our core technology we have today, we’re building the infrastructure plumbing for data centers. Key components are converged data center solutions which integrate storage, compute and network. And the ability to deliver dynamic provisioning.
Content Cloud: deliver intelligence to enable customers to manage the life cycle of their data. Access, tier, search and discover data. Eg. Hitachi Clinical Repository plays is a great example of content cloud.
Information Cloud: Re-purpose of content to enable business decision making. It’s the data warehousing for content.
Cloud computing is not a product. It’s a way to deliver IT services in an on demand, rapid, flexible and scalable fashion. Hitachi lets customers to choose the best possible delivery method, deployment model and underlying infrastructure to address your particular cloud needs, all at your own pace.
We start with our integrated infrastructure and cloud enabling technologies.
Then provide connectivity options for customers to move data into the cloud, whether it’s their existing applications or new applications that can talk directly to the cloud (via REST for example).
Next we layer in our service capabilities, which can be remote and utility based – allowing pay-per-use consumption of storage resources.
Then we provide the fundamental delivery mechanisms to enable a cloud service delivery model, such as billing/chargeback which can be segregated by tenant (i.e. business unit or even company for service providers), self-service on demand access to storage, pay per use consumption and the ability to scale up or down to meet the needs of the business.
The cloud architecture can be deployed in any of the following ways:
Private: Hosted within an organization’s firewall and managed internally or externally
Public: Hosted on the internet and managed by a provider
Hybrid: A combination of private and public