Cloud Computing transformiert die Informationstechnik. Die Konzepte zum Storage fallen bei den Anbietern von Infrastructure-as-a-Service und Platform-as-a-Service einstweilen noch recht unterschiedlich aus. Ein Überblick über Blob, Block, Queue und Table Storage stellt die Möglichkeiten vor. In Minutenschnelle zur relationalen Datenbank mit automatischem Backup- und Patch-Management? Auch dazu gibt es einen Einstieg. Die Erläuterungen des theoretischen Hintergrunds des CAP-Theorems und der praktischen Nutzung von Eventual Consistency machen Sie fit, sich mit Amazon Dynamo, Google Bigtable und Apache Cassandra zu beschäftigen.
JavaAktuell - Skalierbare Cluster-Topologien mit dem JBoss AS 7hwilming
Hohe Verfügbarkeit und hohe Skalierbarkeit sind für viele Anwendungen im Unternehmensumfeld eine unabdingbare Anforderung. Der Einsatz von Clustertechnologien verspricht hier Lösungen, gestaltet sich in der Praxis aber herausfordernder als angenommen. Neben der technischen Komplexität ist auch das Spannungsfeld zwischen Skalierbarkeit und Hochverfügbarkeit aufzulösen.
In der letzten Ausgabe der Java aktuell wurden die grundlegenden Clustering-Konzepte des JBoss Application Server in der Version 7 dargestellt. Dieser Artikel stellt unterschiedliche Cluster-Topologien vor, die auch den Anforderungen an die Skalierbarkeit und die Verfügbarkeit genügen und dabei die Restriktionen der Netzwerk-Infrastruktur und die Besonderheiten größerer Cluster-Umgebungen berücksichtigen.
Cloud Architecture + Cloud Architects / Jan 24th 2012Lothar Wieske
This document summarizes key concepts in cloud architecture. It discusses infrastructure as a service, platform as a service, and software as a service. Other topics covered include cost optimization, agility, availability, resiliency, stability, security, compute resources, storage, networking, platforms, information management, identity, enterprise applications, and social applications in the cloud. It also briefly discusses provisioning tools and deploying applications on cloud platforms.
Digital, disruptiv, Industrie 4.0 und IoT … eigentlich mag man es gar nicht mehr hören. Rauf und runter wetteifern die Medien mit immer neuen reißerischen Titeln: „Wir verschlafen die Entwicklung“, „Wir verspielen den Standort“. So oder so ähnlich klingen die Kassandrarufe. Vielleicht führt aber eher der Schwall an Bezeichnungen und die Unschärfe ihrer Verwendung zur Abstumpfung potenzieller Empfänger. Deswegen will
dieser Artikel das begriffliche Gerüst etwas ordnen.
Denn die Digitale Disruption ist da.
Sie wächst, dringt immer weiter vor und beschleunigt unser aller Leben.
Cloud Computing erobert längst die Herzen und Budgets von Managern und IT-Bereichen. Kommt da wirklich etwas Neues, oder etikettieren wir nur wieder einmal Produkte und Initiativen um? Ist Cloud Computing mehr als nur die Verlängerung der Innovationen rund um Virtualisierung, Standardisierung und Automatisierung? Wir lernen in diesem Artikel die Architekturklassen ACID und BASE zu unterscheiden, warum und wie uns das CAP-Theorem als Architekten eindeutige Entscheidungen abverlangt und schauen in die Wiege des Cloud Computings sowie hinter die Kulissen großer Websites wie Amazon und Google.
JavaAktuell - Skalierbare Cluster-Topologien mit dem JBoss AS 7hwilming
Hohe Verfügbarkeit und hohe Skalierbarkeit sind für viele Anwendungen im Unternehmensumfeld eine unabdingbare Anforderung. Der Einsatz von Clustertechnologien verspricht hier Lösungen, gestaltet sich in der Praxis aber herausfordernder als angenommen. Neben der technischen Komplexität ist auch das Spannungsfeld zwischen Skalierbarkeit und Hochverfügbarkeit aufzulösen.
In der letzten Ausgabe der Java aktuell wurden die grundlegenden Clustering-Konzepte des JBoss Application Server in der Version 7 dargestellt. Dieser Artikel stellt unterschiedliche Cluster-Topologien vor, die auch den Anforderungen an die Skalierbarkeit und die Verfügbarkeit genügen und dabei die Restriktionen der Netzwerk-Infrastruktur und die Besonderheiten größerer Cluster-Umgebungen berücksichtigen.
Cloud Architecture + Cloud Architects / Jan 24th 2012Lothar Wieske
This document summarizes key concepts in cloud architecture. It discusses infrastructure as a service, platform as a service, and software as a service. Other topics covered include cost optimization, agility, availability, resiliency, stability, security, compute resources, storage, networking, platforms, information management, identity, enterprise applications, and social applications in the cloud. It also briefly discusses provisioning tools and deploying applications on cloud platforms.
Digital, disruptiv, Industrie 4.0 und IoT … eigentlich mag man es gar nicht mehr hören. Rauf und runter wetteifern die Medien mit immer neuen reißerischen Titeln: „Wir verschlafen die Entwicklung“, „Wir verspielen den Standort“. So oder so ähnlich klingen die Kassandrarufe. Vielleicht führt aber eher der Schwall an Bezeichnungen und die Unschärfe ihrer Verwendung zur Abstumpfung potenzieller Empfänger. Deswegen will
dieser Artikel das begriffliche Gerüst etwas ordnen.
Denn die Digitale Disruption ist da.
Sie wächst, dringt immer weiter vor und beschleunigt unser aller Leben.
Cloud Computing erobert längst die Herzen und Budgets von Managern und IT-Bereichen. Kommt da wirklich etwas Neues, oder etikettieren wir nur wieder einmal Produkte und Initiativen um? Ist Cloud Computing mehr als nur die Verlängerung der Innovationen rund um Virtualisierung, Standardisierung und Automatisierung? Wir lernen in diesem Artikel die Architekturklassen ACID und BASE zu unterscheiden, warum und wie uns das CAP-Theorem als Architekten eindeutige Entscheidungen abverlangt und schauen in die Wiege des Cloud Computings sowie hinter die Kulissen großer Websites wie Amazon und Google.
Cloud Computing im Unternehmen / Jan 25th 2011Lothar Wieske
The document discusses the concept of cloud computing and how it represents an intelligent symbiosis between enterprise IT and internet IT. It explores the essential characteristics and service models of cloud computing, including infrastructure as a service, platform as a service, and software as a service. The document also examines challenges such as consistency, availability, and partitioning in cloud environments.
Cassandra – die NoSQL-Datenbank für große Mengen und schnelle ZugriffeLothar Wieske
Cloud Computing stellt höchste Anforderungen an Dateisysteme und Datenbanken. Mit Klassikern wie dem Google Bigtable und Amazon Dynamo haben die Pioniere neue Architekturkonzepte hervorgebracht. Apache Cassandra (Facebook) ist ein Beispiel für eine verteilte, skalierbare, performante und schemafreie Datenbank mit Eventual Consistency. Cassandra hebt ein Bigtable-Datenmodell auf eine DynamoPlattform, d. h. Cassandra bietet einen strukturierten Speicher für Schlüssel/Werte-Zuordnungen mit Eventual Consistency. Cassandra ist in Java implementiert und lädt zum Experimentieren ein.
Elastic Compute Cloud: Darf es noch ein Server mehr sein?Lothar Wieske
Die Elastic Compute Cloud (EC2) von Amazon erlaubt die Nutzung von Compute/Network/Storage ferngesteuert über Web Services. Wir werden vertiefen, wie die Steuerung von EC2 über Web Services und über die Kommandozeile funktioniert. In einer Application Tier werden wir Tomcat-Instanzen hinter einem Load Balancer anlegen und die Zahl der Instanzen automatisch an die Last anpassen (Auto Scaling und Elastic Load Balancing). Und als Database Tier werden wir eine Oracle-Datenbank und einen Relational Database Service (Automatisiertes Backup- und Patch-Management) aufsetzen.
Steps Towards Cloud Computing / Apr 9th 2013Lothar Wieske
This document outlines steps towards cloud computing. It discusses key technologies like big data, cloud computing, mobile computing and social computing. It also discusses how workloads are shifting from systems of record to systems of engagement. The document advocates for adopting an infrastructure as a service model using OpenStack for commodity cloud computing. It emphasizes the importance of having cross-functional skills, disruptive innovation, cloud governance and a DevOps culture. Finally, it discusses concepts like T-shaped people, complexity, antifragility and having the right people, processes and technologies.
Vom Utility Computing zum Cloud ComputingLothar Wieske
Virtualisierung, Standardisierung und Automation waren und sind die Treiber für Utility Computing; beim Cloud Computing kommen Simplification, Commoditization und Federation dazu. Wer Cloud Computing erfolgreich betreiben und benutzen will, muss sich viel stärker mit den Geschäftsmodellen und ihren technischen und wirtschaftlichen Zusammenhängen beschäftigen. Zunächst werden Beispiele für Amazon und Salesforce vorgestellt. Abschließend werden Ideen und Konzepte von Public Clouds und Private Clouds abgeglichen insbesondere mit Blick auf Commodity Clouds und Enterprise Clouds.
Organizational Patterns for Cloud Computing / Apr 7th 2014Lothar Wieske
This document discusses organizational patterns for cloud computing and the evolution of IT paradigms from mainframes to client-server systems to cloud computing. It explores how organizational structures influence system designs through Conway's Law and how software has become more important than hardware. The document also examines disruptive innovations, different types of cloud infrastructures, strategies for managing complexity and change, and principles for resilience, availability and customer-centric platforms.
This document provides an overview of various topics related to cloud computing technology. It discusses digital transformation and the role of developers, network virtualization, object storage, deployment automation, Linux containers like Docker and Rocket, stream processing with Apache Storm, PaaS with Cloud Foundry, and fullstack development. Brief descriptions and links to related images are provided for each topic. The document is authored by Lothar Wieske and focuses on emerging technologies for the cloud.
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
Amazon Web Services: Flaggschiff des Cloud ComputingsLothar Wieske
Die Public Cloud von Amazon segelt als Flaggschiff des Cloud Computings voran und nimmt immer mehr Passagiere an Bord. Infrastructure-as-a-Service mit Amazon Web Services – wie funktioniert das eigentlich und wie bediene ich die Elastic Compute Cloud, den Simple Storage Service und die CloudFront? Wir stellen die zugrunde liegenden Konzepte vor und veranschaulichen sie an Beispielen zum Nachmachen. Wir werden Server in EC2 starten, Objekte in S3 ablegen und eine Website mit CloudFront weltweit ausrollen – dafür benötigen wir einen Browser. Es kostet uns ungefähr eine Stunde Zeit und etwa einen Euro.
Webinar vom 14.08.2014
In Amazon S3 sind Billionen von Objekten in verschiedensten Formaten gespeichert, von Backups über Web Site Assets bis zu digitalen Medien. In diesem Webinar gehen wir auf Features von S3 wie das Hosten von statischen Websites, Verschlüsselung oder Lifecycle Policies ein. Wir schauen auf die vielen Möglichkeiten, die Amazon S3 bietet, sprechen über Anwendungsfälle und Best Practices.
Die Aufzeichnung ist hier: http://youtu.be/Qad5GNvTz-U
Jedem, der die Prüfungsunterlagen und Software zu Microsoft MCSA 070-740 www.it-pruefungen.de(TS:(deutsche Version und englische Version) Installation, Storage, and Compute with Windows Server 2016 ) von www.it-pruefungen.de nutzt und die IT Zertifizierungsprüfungen nicht beim ersten Mal erfolgreich besteht, versprechen wir, die Kosten für das Prüfungsmaterial 100% zu erstatten.
Dataservices - Data Processing mit MicroservicesQAware GmbH
IT-Tage 2018, Frankfurt: Vortrag von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware)
=== Dokument bitte herunterladen für bessere Lesbarkeit! ===
Abstract: Data Processing und Microservices sind ein perfektes Gespann. In dieser Kombination können Microservices dazu verwendet werden, ein flexibles, Event-getriebenes und skalierbares System von lose gekoppelten Datenverarbeitungsaufgaben aufzubauen. Diesen Ansatz nennen wir Dataservices.
In diesem Vortrag stellen wir zunächst die wesentlichen Konzepte und einige Schlüsseltechnologien vor, um Dataservice-Architekturen zu realisieren. Anschließend werden wir die einzelnen Bestandteile einer exemplarischen Datenverarbeitungs-Pipeline schrittweise komponieren und die Showcase-Pipeline in der Cloud zur Ausführung bringen und skalieren.
Exchange Server User Group Berlin | Meetup 2019-04-03Thomas Stensitzki
Folien zum Exchange User Group Berlin Meetup am 3. April 2019
- Exchange Server 2019 MetaCache Database und Big Funnel
- Migration zu Exchange Server 2019
Where are all transactions gone? Was in_der_cloud_alles_verboten_istRamon Anger
Mein Vortrag auf der OOP 2015
Where all the transactions gone?
Was in der Cloud alles verboten ist.
Gegenstand des Vortrags sind neun Dinge, die in der Cloud im Gegensatz zu inhouse-Anwendungen grundlegend anders sind. Darüber hinaus geht der Vortrag kurz auf DevOps für die Cloud und Organisation für die Cloud ein.
Ursprünglich hat mein Kollege Marc Bauer den Vorschlag eingereicht, hatte dann aber leider keine Möglichkeit, den Vortrag selbst zu halten.
Cloud Computing im Unternehmen / Jan 25th 2011Lothar Wieske
The document discusses the concept of cloud computing and how it represents an intelligent symbiosis between enterprise IT and internet IT. It explores the essential characteristics and service models of cloud computing, including infrastructure as a service, platform as a service, and software as a service. The document also examines challenges such as consistency, availability, and partitioning in cloud environments.
Cassandra – die NoSQL-Datenbank für große Mengen und schnelle ZugriffeLothar Wieske
Cloud Computing stellt höchste Anforderungen an Dateisysteme und Datenbanken. Mit Klassikern wie dem Google Bigtable und Amazon Dynamo haben die Pioniere neue Architekturkonzepte hervorgebracht. Apache Cassandra (Facebook) ist ein Beispiel für eine verteilte, skalierbare, performante und schemafreie Datenbank mit Eventual Consistency. Cassandra hebt ein Bigtable-Datenmodell auf eine DynamoPlattform, d. h. Cassandra bietet einen strukturierten Speicher für Schlüssel/Werte-Zuordnungen mit Eventual Consistency. Cassandra ist in Java implementiert und lädt zum Experimentieren ein.
Elastic Compute Cloud: Darf es noch ein Server mehr sein?Lothar Wieske
Die Elastic Compute Cloud (EC2) von Amazon erlaubt die Nutzung von Compute/Network/Storage ferngesteuert über Web Services. Wir werden vertiefen, wie die Steuerung von EC2 über Web Services und über die Kommandozeile funktioniert. In einer Application Tier werden wir Tomcat-Instanzen hinter einem Load Balancer anlegen und die Zahl der Instanzen automatisch an die Last anpassen (Auto Scaling und Elastic Load Balancing). Und als Database Tier werden wir eine Oracle-Datenbank und einen Relational Database Service (Automatisiertes Backup- und Patch-Management) aufsetzen.
Steps Towards Cloud Computing / Apr 9th 2013Lothar Wieske
This document outlines steps towards cloud computing. It discusses key technologies like big data, cloud computing, mobile computing and social computing. It also discusses how workloads are shifting from systems of record to systems of engagement. The document advocates for adopting an infrastructure as a service model using OpenStack for commodity cloud computing. It emphasizes the importance of having cross-functional skills, disruptive innovation, cloud governance and a DevOps culture. Finally, it discusses concepts like T-shaped people, complexity, antifragility and having the right people, processes and technologies.
Vom Utility Computing zum Cloud ComputingLothar Wieske
Virtualisierung, Standardisierung und Automation waren und sind die Treiber für Utility Computing; beim Cloud Computing kommen Simplification, Commoditization und Federation dazu. Wer Cloud Computing erfolgreich betreiben und benutzen will, muss sich viel stärker mit den Geschäftsmodellen und ihren technischen und wirtschaftlichen Zusammenhängen beschäftigen. Zunächst werden Beispiele für Amazon und Salesforce vorgestellt. Abschließend werden Ideen und Konzepte von Public Clouds und Private Clouds abgeglichen insbesondere mit Blick auf Commodity Clouds und Enterprise Clouds.
Organizational Patterns for Cloud Computing / Apr 7th 2014Lothar Wieske
This document discusses organizational patterns for cloud computing and the evolution of IT paradigms from mainframes to client-server systems to cloud computing. It explores how organizational structures influence system designs through Conway's Law and how software has become more important than hardware. The document also examines disruptive innovations, different types of cloud infrastructures, strategies for managing complexity and change, and principles for resilience, availability and customer-centric platforms.
This document provides an overview of various topics related to cloud computing technology. It discusses digital transformation and the role of developers, network virtualization, object storage, deployment automation, Linux containers like Docker and Rocket, stream processing with Apache Storm, PaaS with Cloud Foundry, and fullstack development. Brief descriptions and links to related images are provided for each topic. The document is authored by Lothar Wieske and focuses on emerging technologies for the cloud.
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
Amazon Web Services: Flaggschiff des Cloud ComputingsLothar Wieske
Die Public Cloud von Amazon segelt als Flaggschiff des Cloud Computings voran und nimmt immer mehr Passagiere an Bord. Infrastructure-as-a-Service mit Amazon Web Services – wie funktioniert das eigentlich und wie bediene ich die Elastic Compute Cloud, den Simple Storage Service und die CloudFront? Wir stellen die zugrunde liegenden Konzepte vor und veranschaulichen sie an Beispielen zum Nachmachen. Wir werden Server in EC2 starten, Objekte in S3 ablegen und eine Website mit CloudFront weltweit ausrollen – dafür benötigen wir einen Browser. Es kostet uns ungefähr eine Stunde Zeit und etwa einen Euro.
Webinar vom 14.08.2014
In Amazon S3 sind Billionen von Objekten in verschiedensten Formaten gespeichert, von Backups über Web Site Assets bis zu digitalen Medien. In diesem Webinar gehen wir auf Features von S3 wie das Hosten von statischen Websites, Verschlüsselung oder Lifecycle Policies ein. Wir schauen auf die vielen Möglichkeiten, die Amazon S3 bietet, sprechen über Anwendungsfälle und Best Practices.
Die Aufzeichnung ist hier: http://youtu.be/Qad5GNvTz-U
Jedem, der die Prüfungsunterlagen und Software zu Microsoft MCSA 070-740 www.it-pruefungen.de(TS:(deutsche Version und englische Version) Installation, Storage, and Compute with Windows Server 2016 ) von www.it-pruefungen.de nutzt und die IT Zertifizierungsprüfungen nicht beim ersten Mal erfolgreich besteht, versprechen wir, die Kosten für das Prüfungsmaterial 100% zu erstatten.
Dataservices - Data Processing mit MicroservicesQAware GmbH
IT-Tage 2018, Frankfurt: Vortrag von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware)
=== Dokument bitte herunterladen für bessere Lesbarkeit! ===
Abstract: Data Processing und Microservices sind ein perfektes Gespann. In dieser Kombination können Microservices dazu verwendet werden, ein flexibles, Event-getriebenes und skalierbares System von lose gekoppelten Datenverarbeitungsaufgaben aufzubauen. Diesen Ansatz nennen wir Dataservices.
In diesem Vortrag stellen wir zunächst die wesentlichen Konzepte und einige Schlüsseltechnologien vor, um Dataservice-Architekturen zu realisieren. Anschließend werden wir die einzelnen Bestandteile einer exemplarischen Datenverarbeitungs-Pipeline schrittweise komponieren und die Showcase-Pipeline in der Cloud zur Ausführung bringen und skalieren.
Exchange Server User Group Berlin | Meetup 2019-04-03Thomas Stensitzki
Folien zum Exchange User Group Berlin Meetup am 3. April 2019
- Exchange Server 2019 MetaCache Database und Big Funnel
- Migration zu Exchange Server 2019
Where are all transactions gone? Was in_der_cloud_alles_verboten_istRamon Anger
Mein Vortrag auf der OOP 2015
Where all the transactions gone?
Was in der Cloud alles verboten ist.
Gegenstand des Vortrags sind neun Dinge, die in der Cloud im Gegensatz zu inhouse-Anwendungen grundlegend anders sind. Darüber hinaus geht der Vortrag kurz auf DevOps für die Cloud und Organisation für die Cloud ein.
Ursprünglich hat mein Kollege Marc Bauer den Vorschlag eingereicht, hatte dann aber leider keine Möglichkeit, den Vortrag selbst zu halten.
Mit SuperSUSE liefert die Boston Server & Storage GmbH eine getestet und zertifizierte Kombination aus Supermicro-Hardware und SUSE Enterprise Storage. Die Lösung ist nahezu grenzenlos skalierbar, hochperformant, und lässt sich individuell auf die Anforderungen und Bedürfnisse des Kunden anpassen. Im Webinar stellt SUSE die grundsätzliche Funktionsweise ihres Software defined Enterprise Storage vor, und wir zeigen verschiedene Spielarten und Anwendungsfälle der zugehörigen Boston Petastor Appliances.
skilllocation erstellt PowerPoint zu Microsoft Themen. Die Folien können Sie bei uns hier erwerben oder einfach E-Mail an carola.pantenburg@skilllocation.com:
https://www.skilllocation.com/downloads/prs20180101-skilllocation-foliensatz-zu-microsoft-azure/
Ähnlich wie Dateisysteme und Datenbanken im Cloud Computing (20)
1. www.javaspektrum.de 31
IntegrationsSpektrum
chergerät (Band, Platte) das Speichern großer Datenmengen.
Konzepte wie Network Attached Storage (NAS, s. Abb. 2) und
Storage Area Network (SAN, s. Abb. 3) binden mehrere Server an
mehrere Speichergeräte an – über große Distanzen und bei ho-
hen Übertragungsgeschwindigkeiten.
Während der Server bei SAN auf Speicherblöcke zugreift
(blockbasierend), ruft der Server bei NAS direkt Dateien oder
deren Ausschnitte ab (dateibasierend). Ein NAS-Speicherge-
rät lässt sich einfach in das vorhandene TCP/IP-Netzwerk
einhängen und arbeitet mit den Protokollen Common Internet
File System (CIFS), Server Message Block (SMB) sowie Network
File System (NFS); die Dateizugriffe des Clients verwenden
TCP/IP-Protokolle. Im SAN werden die Geräte in eigenstän-
dige Speichernetze mit Fiber Channel (FC), Host Bus Adapter
(HBA) und Switched Fabric-Topologien eingebunden; die
Blockzugriffe der Clients verwenden dann auch FC-Proto-
Über den Wolken
Dateisysteme
und Datenbanken im
Cloud Computing
Lothar Wieske
Cloud Computing transformiert die Informationstechnik. Die Konzepte
zum Storage fallen bei den Anbietern von Infrastructure-as-a-Service
und Platform-as-a-Service einstweilen noch recht unterschiedlich aus.
Ein Überblick über Blob, Block, Queue und Table Storage stellt die
Möglichkeiten vor. In Minutenschnelle zur relationalen Datenbank mit
automatischem Backup- und Patch-Management? Auch dazu gibt es
einen Einstieg. Die Erläuterungen des theoretischen Hintergrunds des
CAP-Theorems und der praktischen Nutzung von Eventual Consistency
machen Sie fit, sich mit Amazon Dynamo, Google Bigtable und Apache
Cassandra zu beschäftigen.
Digitales Universum
E
Seit einigen Jahren beauftragen die Speicherspezialisten
von EMC jährlich die Analysten von IDC mit der Vermes-
sung des expandierenden digitalen Universums. Die aktuelle
Studie vom Mai 2010 prognostiziert für das Jahr 2020 ein An-
wachsen der digitalen Informationen auf ein unvorstellbares
Volumen von 35 Zettabytes (ZB) – das ist eine Eins mit 21 Nul-
len [EMCIDC]. Einen Trend haben die Sternengucker ebenfalls
ausgemacht: Während der Content – also die Masse im digita-
len Universum – um den Faktor 44 zunimmt, steigt die Zahl
der Container – also die stellaren Objekte wie Dateien, Nach-
richten, Signale – sogar um den Faktor 69.
Für das Jahr 2010 mit einem Gesamtzuwachs von 1,2 Zetta-
bytes steht
H einem Anteil von ca. 900 Exabytes an User Generated Content
H ein Anteil von ca. 260 Exabytes an Enterprise Generated Content
gegenüber. Übrigens, wer der stetigen Ausdehnung des digita-
len Universums zuschauen möchte, kann das mit dem „World-
wide Information Growth Ticker“ unter [EMCDU].
Ein größerer Teil dieses User Generated Content läuft früher
oder später über die technische Infrastruktur von Unternehmen
und damit müssen sich die Unternehmen darum kümmern.
Dieser sogenannte Enterprise Touch Content übersteigt mit ca.
960 Exabytes deutlich den Umfang des Enterprise Generated
Content und mit ca. 600 Exabytes entfällt ein Löwenanteil des
User Generated Content auf diesen Enterprise Touch Content.
Man kann also sagen: In Unternehmen entstehen ca. 20 % der
Inhalte des digitalen Universums. Unternehmen managen aber
ca. 80 % der Inhalte des digitalen Universums.
Im Jahr 2010 sollen von den 35 Zettabytes etwa 5 als Informa-
tionen in Public und Private Clouds liegen (ca. 15 %). Nimmt
man temporäre oder transiente Informationen in webbasierten
E-Mail-Systemen und Online-Festplatten hinzu, summiert sich
der Umfang immerhin auf etwa 12 Zettabyte an Cloud Touch
Content (ca. 33 %).
Speichertopologien
Direct Attached Storage (DAS, s. Abb. 1) erlaubt mit Punkt-zu-
Punkt-Verbindungen zwischen einem Server und einem Spei-
Abb. 1: Direct Attached Storage (DAS)
Abb. 2: Network Attached Storage (NAS)
Abb. 3: Storage Area Network (SAN)
2. JavaSPEKTRUM 5/201032
IntegrationsSpektrum
kolle. Neuere SAN-Protokolle wie FCoE oder iSCSI erlauben
auch blockbasierende Zugriffe über TCP/IP-Netzwerke. Und
InfiniBand als serielle Übertragungstechnologie für hohe Ge-
schwindigkeiten ist ebenfalls ein Kandidat im SAN und mi-
nimiert Latenzzeiten durch Auslagern des Protokoll-Stacks in
die Netzwerkhardware.
Nach diesem Schnelldurchlauf durch Technologie und To-
pologien zur Verbindung von Rechnern und Speichern stellt
sich natürlich die Frage: Wie funktioniert das denn beim Cloud
Computing und bei Infrastructure-as-a-Service? An den Bei-
spielen von Amazon, GoGrid und Rackspace wird klar, welche
Konzepte umgesetzt werden und wie vielfältig die Landschaft
sich derzeit darstellt.
Amazon – Elastic Compute Cloud
Die Elastic Compute Cloud (EC2) von Amazon bietet eine
virtuelle Rechnerumgebung, in der eigene Instanzen über
Webservices gestartet und verwaltet werden können. Das
Starten einer Instanz erfordert wenige Schritte und/oder
Operationen. Der Nutzer wählt aus einer Sammlung von
Vorlagen ein vorkonfiguriertes Image mit vorinstalliertem
Betriebssystem (Linux, Solaris, Windows) aus, entscheidet
sich für die Ausstattung seines Rechners (32bit/64bit, An-
zahl der Prozessorkerne, Hauptspeicher, Festplatte), nimmt
Sicherheits- und Netzwerkeinstellungen vor und bestimmt
ein Rechenzentrum für seine Instanz. Die Rechenzentren
von Amazon sind in Regions und Availability Zones geglie-
dert. Derzeit gibt es zwei Regions in Amerika und jeweils
eine Region in Asien und Europa; jede Region hat zwei bis
vier Availability Zones.
Es gibt zwei Ablageorte für die Images, aus denen eine Ins-
tanz entsteht: Simple Storage Service (S3) und Elastic Block Store
(EBS). Eine virtuelle Instanz aus S3 (Instance Store Image) erhält
in EC2 einen flüchtigen virtuellen Storage. Er wird mit dem
Starten der Instanz vergeben und belegt und mit dem Stoppen
der Instanz auch wieder freigegeben und entfernt. Eine vir-
tuelle Instanz aus EBS (Block Store Image) erhält in EBS einen
beständigen virtuellen Storage, der auch nach dem Stoppen
der Instanz erhalten bleibt. EBS Volumes werden gesondert in
Rechnung gestellt.
Mit EBS kann ein Boot Device in eine Instanz eingehängt
und/oder ein (weiteres) Block Device an eine Instanz an-
gehängt werden. EBS Volumes werden in einer und für eine
bestimmte Availability Zone erstellt und können eine Größe
zwischen 1 GB und 1 TB haben. Nach der Erstellung kann ein
Volume jeder Instanz in derselben Availability Zone zugewie-
sen werden. Anschließend wird das Volume wie eine Festplatte
bzw. eine Plattenpartition angezeigt und kann formatiert und
montiert werden.
Ein Volume kann jeweils nur einer einzigen Instanz zuge-
wiesen werden. Es ist jedoch möglich, einer einzigen Instanz
mehrere Volumes zuzuweisen.
Jedes Volume wird automatisch innerhalb seiner Availability
Zone repliziert. Dadurch werden Datenverluste verhindert, die
sich durch den Ausfall einzelner Hardwarekomponente erge-
ben könnten. Außerdem kann der Nutzer für ein Volume ein
Snapshot erstellen, das in S3 gespeichert wird. Diese Snapshots
werden automatisch in mehreren Availability Zones repliziert.
Bei Verwendung von EBS als Boot Device kann eine Instanz
zeitweise angehalten und erneut gestartet werden. So zahlt
der Nutzer während des Schönheitsschlafs nur für den Spei-
cher und nicht für den Rechner. Außerdem kann der Nutzer
beim Neustart eine veränderte Ausstattung beispielweise mit
weniger Kernen und größerem Hauptspeicher wählen und
damit in gewissen Grenzen skalieren. Für erhöhten Durch-
satz, verbesserte Absicherung oder zum Durchbrechen der
Beschränkung auf 1 TB können mehrere Volumes mit RAID
(Software) gekoppelt werden.
Im Ergebnis bildet EC2 mit seinen Instance Store Images ei-
nen DAS-Ansatz ab und in seinen Block Store Images kommt
ein SAN-Ansatz zum Tragen, der durch zusätzliche Volumes
seine eigentlich Stärke im praktischen Einsatz zeigt. Flexible
Nutzung mit einfacher Bedienung über Webservices und auto-
matischer Sicherung mit Replikation in und über Availability
Zones runden das Konzept ab.
GoGrid – Cloud Server und Cloud Storage
Auch GoGrid bietet mit seinen Cloud-Servern eine virtuali-
sierte Rechnerumgebung - für Windows und Linux (CentOS,
RHEL und demnächst Ubuntu). Die beiden GoGrid-Cloud-Re-
chenzentren befinden sich an der Ost- und Westküste Ameri-
kas. Cloud-Server gibt es in sechs Größen: 0,5 (virtuelle Ker-
ne)/0,5 GB (RAM)/30 GB (Storage), 1/1/60, 2/2/120, 4/4/240,
8/8/480 sowie 16/16/960. Rechnerleistung und Speicherver-
mögen wachsen also linear gekoppelt.
Der Cloud Storage von GoGrid bietet dem Nutzer einen
Service für das Sichern von Dateien auf seinen Cloud-Servern.
Jeder Nutzer bekommt eine eigene Subdomäne <<customer-
number>>.cloud.storage.gogrid.com zugewiesen und spricht
diese in einem abgesicherten Subnetz an. Als Übertragungs-
protokolle für die Dateiübertragung stehen rsync, ftp, samba
und scp zur Auswahl.
GoGrid setzt mit seinen Cloud-Servern also einen DAS-An-
satz mit RAID-Unterstützung um und der Cloud Storage baut
auf einen NAS-Ansatz.
Rackspace – Cloud Servers und Cloud Files
Rackspace baut seine virtualisierte Rechnerumgebung für
Cloud Servers auf eine Xen-Plattform und bedient Linux mit
CentOS/Fedora/Oracle EL/RHEL; Cloud Servers für Win-
dows befinden sich in der Erprobung. Rackspace bietet Cloud
Servers in drei seiner amerikanischen Rechenzentren (zwei in
Texas, eins in Illinois) an. Es gibt sie in sieben Größen: 256 MB
(RAM)/10 GB (Storage), 512/20, 1024/40, 2048/80, 4096/160,
8192/320 und 15872/620. Auch Rackspace koppelt die Di-
mensionierung der Speicherhierarchie. Die Wirtsysteme bei
Rackspace haben Dual-Quad-Core-Prozessoren. Jeder Cloud
Server als virtualisiertes Gastsystem bekommt vier virtuel-
le Kerne zugewiesen und die Zahl der CPU-Zyklen wird ent-
sprechend der Größe des Cloud Server gewichtet. Ein 4GB-
RAM-Server erhält also eine doppelte Gewichtung gegenüber
einem 2GB-RAM-Server.
Die Cloud Files bei Rackspace ermöglichen die Ablage von
Dateien über einen einfachen Webservice (REST, Representa-
tional State Transfer). Die Dateien liegen größenmäßig maxi-
mal bei 5 GB und werden in Containern organisiert, die aber
nicht hierarchisch geschachtelt werden (kein hierarchisches
Dateisystem). Bei privaten Containern wird der Datenverkehr
über SSL verschlüsselt. Bei öffentlichen Containern erhalten
die Dateien eine URL für den Zugriff im Limelight Content De-
livery Network.
Rackspace gibt seinen Cloud Servers ebenso einen DAS-An-
satz mit RAID-Unterstützung mit. Cloud Files sind ein eigen-
ständiger Webservice.
3. www.javaspektrum.de 33
IntegrationsSpektrum
Storage-Abstraktionen im Cloud Computing
Bei einschlägigen IaaS-Anbietern kommen die Ansätze DAS,
NAS und SAN in der Virtualisierung also in ganz unterschied-
licher Weise zum Tragen. Schaut man sich Storage im Cloud
Computing jenseits des Vergleichs mit bisherigen Konzepten
an, so haben die Clouds in der Kombination Infrastructure-
as-a-Service (IaaS) und Platform-as-a-Service (PaaS) vier Nut-
zungsformen für Storage hervorgebracht.
Block Storage
Für Infrastructure-as-a-Service ist Block Storage eine zentrale
Abstraktion. Bei Amazon zieht sich der Nutzer eine Compute
-Instanz über die Elastic Compute Cloud (EC2) und eine Sto-
rage-Instanz über Elastic Block Storage (EBS). Dann verknüpft
er beide und vergibt für die Verknüpfung einen Gerätena-
men („/dev/sdf"). Mit diesem Gerätenamen kann die Storage-
Instanz als Block Storage Device auf der Compute-Instanz
formatiert und eingebunden werden („mkfs ... /dev/sdf /
mount ... /dev/sdf").
Amazons EBS ist innerhalb von EC2 das typische Beispiel für
Block Storage.
Blob Storage
Blob Storage speichert Binärdaten (Audio, Video, Word, Ex-
cel, PowerPoint, ...). Aus Nutzersicht sind das eigentlich Bi-
närdateien. Aber Blob Storage bietet in der Regel kein Datei-
system, sondern nur ein oder mehrere Namensräume (Bu-
ckets, Container) mit einer einfachen und flachen Zuord-
nung von Schlüsseln zu Inhalten. Dieser Zuordnung wird
über Webservices verwaltet (REST) und die Daten bekom-
men je nach Zugriffsrechten und Einstellungen eine URL,
über die auch öffentlich auf die Daten zugegriffen werden
kann.
Amazon S3 und Rackspace Cloud Files gehören ebenso in
diese Kategorie wie auch Microsoft Windows Azure mit sei-
nem Blob Storage und Google mit seinem Blob Storage für die
Google App Engine.
Table Storage
Table Storage legt Entities in einer Tabelle ab, die im Unter-
schied zu einer relationalen Datenbank nicht über ein Schema
definiert wird. Unterschiedliche Entities in der gleichen Tabel-
le fügen unterschiedliche Attribute hinzu und lassen sie weg
oder verwenden sie mit unterschiedlichen Typen.
Bei Amazon heißt der Table Storage einfach SimpleDB, bei
Microsoft Windows Azure wieder Table Storage und bei der
Google App Engine trägt er die Bezeichnung Datastore.
Queue Storage
Queue Storage bietet einen Nachrichtenspeicher zur Unterstüt-
zung asynchroner Kommunikation, über den sich Sender und
Empfänger austauschen können.
Amazon nennt seinen Queue Storage SQS für Simple Queu-
ing Service, Microsoft Windows Azure hat Queue Storage im
Angebot und bei der Google App Engine bietet die Task Queue
eine vergleichbare Konstruktion.
Nutzung von Cloud Storage
Die Cloud-Services für Storage (Blob, Table, Queue) heißen al-
so bei unterschiedlichen Anbietern ganz unterschiedlich und
sind manchmal auch beschränkt auf den Zugriff innerhalb
eines PaaS-Angebots (Google App Engine). Letztlich bieten
sie eine Art Convenience Storage mit interessanten Leistungs-
merkmalen, einfacher Verwendung und hoher Verfügbarkeit.
In der Bereitstellung als eigenständiges IaaS-/PaaS-Angebot
sind sie meistens mit REST-/SOAP-Schnittstellen ausgestattet,
für die einfache Verwendung in Anwendungen wird gerne mit
sprachspezifischen Bibliotheken oder Frameworks gekapselt.
Datenbanken im Cloud Computing
Nun erinnert Table Storage zwar dem Namen nach an die
Tabellen relationaler Datenbanken - aber relationale Daten-
banken bieten mit ihren Verknüpfungsmöglichkeiten und
ihrer Transaktionsunterstützung mehr. Als PaaS-Angebote gibt
es solche Datenbanken mit Amazons Relational Database Ser-
vice und Microsoft SQL Azure und im IaaS-Bereich kommen
vorbereitete Images mit installierter Datenbankmanagement-
software zum Einsatz.
Amazon - Relational Database Service
Der Amazon Relational Database Service (RDS) gibt seinen
Nutzern Zugriff auf MySQL-Datenbanken als Managed Ser-
vice. Über einen Webservice werden diese Datenbanken er-
stellt, geändert, betrieben und gelöscht. RDS führt automatisch
Patches der Software durch und erstellt Backups der Daten-
bank. Eine flexible Wahl und Änderung der Rechnerressourcen
oder Speicherkapazitäten zwischen ein bis acht virtuellen Ker-
nen, 1,7 bis 68 GB Hauptspeicher und 5 bis 1 TB Datenbankgrö-
ße ist ebenfalls möglich.
Microsoft - SQL Azure
Was Amazon mit RDS für MySQL anbietet, stellt Microsoft mit
SQL Azure für den SQL-Server zur Verfügung. Es gibt zwei
Ausgaben von SQL Azure. Die Web-Edition ermöglicht Daten-
banken mit 1 oder 5 GB Speicherkapazität. Die Business-Editi-
on erlaubt Datenbanken von 10 bis 50 GB in Zehnerschritten.
Amazon - AMIs für IBM, Oracle und Microsoft
Weiter oben war schon von Vorlagen für die Instanzen in der
Elastic Compute Cloud von Amazon die Rede. Diese Vorlagen
tragen die Bezeichnung Amazon Machine Image (AMI). Die gro-
ßen Datenbankhersteller haben in Zusammenarbeit mit Ama-
zon solche AMIs für ihre Datenbanken erstellt. In ihnen ist be-
reits die vollständige Datenbanksoftware installiert und der
Nutzer kann nach dem Start der Instanz unmittelbar mit der
Dimensionierung und Initialisierung der Datenbankinstanz
loslegen. Neben der reinen Installation der Datenbanksoftware
sind natürlich auch Umgebungen und Einstellungen bereits
vorbereitet und werden herstellerseitig unterstützt (Kernel, Bi-
bliotheken).
Und Datenbanken im Cluster?
Bisher ging es um einzelne Datenbanken. Datenbanken im
Cluster sind eine eigene Betrachtung wert. Hier hat das Cloud
Computing neuartige Entwürfe hervorgebracht und leistungs-
fähige Lösungen gebaut. Interessanterweise haben Unterneh-
men wie Amazon, Facebook, Google, Twitter und Co über ih-
re Ansätze publiziert oder die eigenen Entwicklungen kurzer-
hand als Open Source freigegeben. Deswegen wird sich der
Folgeartikel mit Entwurfsmustern für hochverfügbare Daten-
banken im Allgemeinen und Apache Cassandra als produkti-
onsfähiger Implementierung im Besonderen beschäftigen.
Vorher soll diese praktische Begegnung mit der hochverteil-
ten und hochverfügbaren Datenbank von Facebook (Cassand-
ra) auf eine theoretische Grundlage gestellt werden.
4. JavaSPEKTRUM 5/201034
IntegrationsSpektrum
CAP-Theorem: Consistency, Availability und Partition Tolerance
Im Jahr 2000 sprach Eric Brewer die Vermutung aus, dass sich
die systemischen Merkmale Availability und Consistency bei
verteilten Systemen gegenseitig ins Gehege kommen [Brew00].
Insbesondere unterschied er die Anwendungsklassen
H ACID (Atomicity, Consistency, Isolation, Durability) und
H BASE (Basically Available, Soft State und Eventual Consis-
tency)
als widerstreitende Extreme in einem Kontinuum von Mög-
lichkeiten. Der Architekt muss den pH-Wert seines „Entwurfs“
in der Integration von ACID-Anteilen und BASE-Beiträgen
einpendeln.
Im Kern seines Vortrags stand die Brewersche Vermutung
(Brewer Conjecture) bezüglich Consistency, Availability und
Partition Tolerance: “You can have at most two of these properties
in any shared-data system.” Im Jahr 2002 haben Seth Gilbert und
Nancy Lynch vom MIT die Vermutung formal bewiesen und
sie damit zum Brewer-Theorem oder auch CAP-Theorem (An-
fangsbuchstaben der verknüpften Merkmale) erhoben [GiLy02].
Weil Partition Tolerance im Internetumfeld immer gefordert
ist, bleibt eigentlich nur die Abwägung zwischen Availability
und Consistency.
Im Sinne von Brewer, Gilbert und Lynch ist die Consistency
von BASE eine Atomic Consistency. Diese atomare Kon-
sistenz fordert eine totale Ordnung für alle Lese-/Schreib-
Operationen. Und bezogen auf diese totale Ordnung soll jede
Lese-Operation, die auf eine Schreib-Operation folgt, den Wert
entweder dieser Schreib-Operation oder einer noch späteren
Schreib-Operationen liefern. Also ist Atomic Consistency die
Eigenschaft einer einzelnen Operation. Im Gegensatz dazu
beziehen sich Database Atomicity und Database Consistency
auf Eigenschaften ganzer Folgen von Operationen. Obwohl
gleiche Begriffe verwendet werden, sind die dahinterliegenden
Ansprüche stark unterschiedlich.
Eventual Consistency
Weiter oben war von einem Kontinuum die Rede und dieses
Kontinuum möglicher Konsistenzgarantien ist stark verschach-
telt. Vielleicht erhellt Abbildung 4 die Möglichkeiten etwas.
Es gibt also mit Eventual Consistency ein übergreifendes und
fein abgestuftes Kontinuum mit Strong Consistency für einzel-
ne Entities und Transactions für mehrere Entities als kleinsten
Teilmengen.
Lothar Wieske ist Unternehmensarchitekt für
Innovationsmanagement bei der DB Systel GmbH
(ICT Tochter im Deutsche Bahn Konzern). Vorher hat
er u. a. im Consulting für IBM, Microsoft und Sun
Microsystems gearbeitet und schöpft aus Erfahrungen
in Finance, Health und Transport & Logistics.
Er beschäftigt sich schwerpunktmäßig mit Cloud
Computing und ist Autor eines Fachbuchs.
E-Mail: lothar.wieske@deutschebahn.com
Im Cloud Computing spielt Eventual Consistency eine wich-
tige Rolle [Vog08]. Mit Apache Dynamo legen die Kunden des
Internethändlers jederzeit Waren im Einkaufskorb ab. Das ver-
teile Google File System ist für die Internetsuche mit hohen Da-
tendurchsätzen optimiert. Und bei Facebook unterstützt Cas-
sandra in einem Cluster mit mehr als 600 Prozessorkernen und
einem Plattenumfang von mehr als 120 TB die Inbox Search.
Amazon Dynamo, Google File System und Apache Cassand-
ra sind Beispiele für verteilte Systeme mit Eventual Consistency.
Zusammenfassung
Ein Schnellüberblick über Topologien für Storage (DAS, NAS,
SAN) stellte deren Umsetzungen bei den IaaS-Angeboten von
Amazon, GoGrid und Rackspace gegenüber. Schlüsselfertige
Services für Blob, Queue und Table Storage können über ih-
re REST-Schnittstellen flexibel in Anwendungen eingebunden
werden und bieten verbrauchsbezogene Abrechnung bei ho-
her Verfügbarkeit.
Auch relationale Datenbanken mit automatisiertem Backup-
und Patch-Management sind im Angebot und vereinfachen die
Arbeit für Entwicklung und Betrieb. Das CAP-Theorem und
Eventual Consistency bilden die Grundlage für innovative
Konzepte für Dateisysteme und Datenbanken in den Clouds
von Amazon, Google und Facebook. In einem Folgeartikel wer-
den die Konzepte von Amazon Dynamo, Google File System,
Google Bigtable am Beispiel von Apache Cassandra veran-
schaulicht und praktisch untersucht.
Literatur
[Brew00] E. A. Brewer, Towards Robust Distributed Systems,
PODC Keynote, 19.7.2000,
http://www.cs.berkeley.edu/~brewer/cs262b-2004/PODC-keynote.pdf
[EMCIDC] IDC Go-toMarket Services,
http://www.emc.com/collateral/demos/microsites/idc-digital-universe/
iview.htm
[EMCDU] About EMC: Leadership and Innvoation: The Digital
Universe,
http://www.emc.com/leadership/digital-universe/expanding-digital-
universe.htm
[GiLy02] S. Gilbert, N. Lynch, Brewer’s Conjecture and the
Feasibility of Consistent, Available, Partition-Tolerant Web Servi-
ces, http://lpd.epfl.ch/sgilbert/pubs/BrewersConjecture-SigAct.pdf
[Vog08] W. Vogel, Eventually Consistent – Revisited,
http://www.allthingsdistributed.com/2008/12/eventually_consistent.html
Abb. 4: Eventual Consistency