Amazon Redshift
Data Warehouse als Cloud Service
Steffen Krause
Technology Evangelist
@AWS_Aktuell
skrause@amazon.de
Teilen Sie mir mit:
Was gut ist, was nicht
Was Sie bei unseren Veranstaltungen sehen
wollen
Was Sie sich von AWS wünschen
skrause@amazon.de
Ihr Feedback ist wichtig
Amazon DynamoDB
Schneller, vorhersagbarer, hoch skalierparer NoSQL Data Store
Amazon RDS
Verwalteter relationaler Datenbankdienst für
MySQL, Oracle und SQL Server
Amazon ElastiCache
In-Memory Caching Service
Amazon Redshift
Schneller, mächtiger, voll verwalteter, Petabyte skalierbarer
Data Warehouse Dienst
Compute Storage
AWS Global Infrastructure
Database
Application Services
Deployment & Administration
Networking
AWS Datenbankdienste
Skalierbare, hochperformante
Datenbanken in der Cloud
Amazon DynamoDB
Schneller, vorhersagbarer, hoch skalierparer NoSQL Data Store
Amazon RDS
Verwalteter relationaler Datenbankdienst für
MySQL, Oracle und SQL Server
Amazon ElastiCache
In-Memory Caching Service
Amazon Redshift
Schneller, mächtiger, voll verwalteter, Petabyte skalierbarer
Data Warehouse Dienst
Compute Storage
AWS Global Infrastructure
Database
Application Services
Deployment & Administration
Networking
AWS Datenbankdienste
Skalierbare, hochperformante
Datenbanken in der Cloud
Data Warehousing auf die AWS Art
• Keine
Investitionskosten, Bezahlung nach
Nutzung
• Sehr hohe Performance bei sehr niedrigem
Preis
• Offen und flexibel, von populären Tools unterstützt
• Leicht zu nutzen, massiv skalierbar
Was wir gebaut haben…
Ein schnelles, mächtiges Data Warehouse, das bis in die Petabytes skaliert
Viel schneller
Viel billiger
Viel einfacher
Als verwalteter Dienst
Amazon Redshift
Dramatische I/O Reduktion
ID Alter Ort
123 20 Berlin
345 25 Leipzig
678 40 Dresden
Zeilen-Speicherung Spalten-Speicherung
Scan-
Richtung
Amazon Redshift Architektur
• Leader Node
– SQL Endpoint
– Speichert Metadaten
– Koordiniert Abfrageausführung
• Compute Nodes
– Lokale spaltenbasierte Speicherung
– Parallele Abfrageausführung
– Load, Backup, Restore via Amazon S3
– Paralleles Laden aus Amazon
DynamoDB
• Einzel-Node-Version verfügbar
10 GigE
(HPC)
Laden
Backup
Restore
JDBC/ODBC
jdbc:postgresql://mycluster.c7lp0qs37f41.us-east-1.redshift.amazonaws.com:8192/mydb
Optimierte Hardware
HS1.8XL: 128 GB RAM, 16 Cores, 24 HDDs, 16 TB nutzbarer Platz, 2 GB/sec Scanrate
HS1.XL: 16 GB RAM, 2 Cores, 3 HDDs, 2 TB nutzbarer Platz
• Optimiert für I/O intensive Workloads
• Hohe Festplattendichte
• Läuft in HPC Netzwerk - schnell
• HS1.8XL verfügbar auf Amazon EC2
Klein anfangen, groß wachsen
Extra Large Node (HS1.XL)
3 HDDs, 2 TB, 16 GB RAM, 2 Cores
Single Node (2 TB)
Cluster 2-32 Nodes (4 TB – 64 TB)
Eight Extra Large Node (HS1.8XL)
24 HDDs, 16 TB, 128 GB RAM, 16 Cores, 10 GigE
Cluster 2-100 Nodes (32 TB – 1.6 PB)
Hinweis: Knoten nicht in selber Skala
Parallelisierung
Redshift parallelisiert und verteilt
alles
• Abfrage
• Laden
• Backup
• Restore
• Größenänderung
10 GigE
(HPC)
Laden
Backup
Restore
JDBC/ODBC
Günstige Preise
Pro Stunde für HS1.XL
Single Node
Effektiver Stundenpreis
pro TB
Effektiver Jahrespreis
pro TB
On-Demand $ 0,850 $ 0,425 $ 3.723
1 Year reserviert $ 0,500 $ 0,250 $ 2.190
3 Year reserviert $ 0,228 $ 0,114 $ 999
Einfache Preise
Anzahl Nodes x Kosten pro Stunde
Keine Kosten für Leader Node
Keine Investitionskosten
Pay as you go
Demo: Cluster erstellen
Amazon Redshift verwendet SQL
• Industriestandard SQL
• ODBC und JDBC Treiber für Datenzugriff
– verwendet Postgres 8.x Treiber
– Die meisten PostgreSQL Features werden unterstützt
– Siehe Dokumentation für Unterschiede
• INSERT/UPDATE/DELETE werden unterstützt
– Aber Daten laden aus S3 oder DynamoDB mit COPY-Befehl ist
deutlich schneller
– VACUUM-Befehl nach vielen DELETE oder UPDATE-Operationen
empfohlen
• Sort Key
– Mehrere Spalten möglich
– Definiert die Reihenfolge der Daten auf Platte
– Ermöglicht das Überspringen von Blöcken bei Abfrage
• wenn Sort Key in WHERE-Klausel
– Wenn neue Daten häufig abgefragt werden: timestamp-Spalte als Sort Key
• Distribution Key
– Eine Spalte
– Definiert Verteilung der Daten im Cluster
– Sollte für gleichmäßige Verteilung der Daten sorgen
• hohe, über die Zeit gleichmäßige Kardinalität
– Sollte in Abfragen nicht als „ist gleich“ Filter vorkommen
– Join-Key für häufige Joins ist guter Kandidat
– Wird keiner angegeben werden die Daten gleichmäßig per Row ID verteilt
Tabellendesign
Daten laden aus S3 oder DynamoDB
• Direktes Laden aus S3 oder DynamoDB unterstützt:
copy customer from 's3://mybucket/customer.txt’
credentials 'aws_access_key_id=<your-access-key-id>;
aws_secret_access_key=<your-secret-access-key>’
gzip delimiter '|’;
• Paralleles Laden von Daten
– Für paralleles Laden Daten in mehrere Dateien aufteilen
– Dateinamen mit gemeinsamem Präfix:
• customer.txt.1, customer.txt.2, …
– Große Dateien mit gzip komprimieren
• Nach Möglichkeit Daten in Sortierung des Sort Key laden
Daten-Komprimierung
• Komprimierung spart Platz und Disk I/O
• COPY analysiert die Daten automatisch und
wählt geeignete Komprimierung
– Ausschnitt der Daten für Auswahl der
Komprimierung verwendet
– Unterstützt: byte dictionary, delta, mostly n, run
length, text
• Kundenerfahrungen: 4-8-fache
Komprimierung mit Echtdaten
– 20x und mehr bei geeigneten Daten möglich
• ANALYZE COMPRESSION zur Anzeige des
gewählten Algorithmus
analyze compression listing;
Table | Column | Encoding
---------+----------------+---------
-
listing | listid | delta
listing | sellerid | delta32k
listing | eventid | delta32k
listing | dateid | bytedict
listing | numtickets | bytedict
listing | priceperticket | delta32k
listing | totalprice | mostly32
listing | listtime | raw
Einfach zu benutzen
• Provisionierung in Minuten
• Abfrageperformance überwachen
• Vergrößern und Verkleinern durch
Klick
• Eingebaute Sicherheit
• Automatische Backups
Größenänderung durch Klick
Cluster bleibt online (read only)
• Neuer Zielcluster im Hintergrund erstellt
• Bezahlung nur für Quellcluster
Cluster bleibt online
• Der Cluster bleibt bei Größenänderungen
online
• Komplett automatisch
– Daten automatisch neu verteilt
• Read Only Modus während
Größenänderung
• Paralleles Kopieren der Daten (Node to
Node)
• Automatische Endpoint-Wechsel per DNS
• Nur ein Cluster wird bezahlt
Demo: Verwaltung
Eingebaute Sicherheit
• SSL Verschlüsselung für Daten auf der
Leitung
• Optional Verschlüsselung für Daten auf
Festplatte
– AES-256, Hardware-beschleunigt
– Alle Blöcke auf Platte und in Amazon S3
verschlüsselt
• Kein direkter Zugriff auf Compute
Nodes
• Amazon VPC unterstützt
10 GigE
(HPC)
Laden
Backup
Restore
Kunden-VPC
Interner
VPC
JDBC/ODBC
Datensicherung und Verfügbarkeit
• Replikation innerhalb des Clusters und Backup nach S3 stellt mehrere Kopien der Daten zu jedem
Zeitpunkt sicher
• Backups nach Amazon S3 sind kontinuierlich, automatisch und inkrementell
– Entworfen für 11 Neunen Dauerhaftigkeit
• Kontinuierliche Überwachung und automatische Wiederherstellung im Fall von Festplatten- und
Node-Fehlern
• Wiederherstellung von Snapshots in beliebige Availability Zones innerhalb einer Region
Datenquellen
Amazon
DynamoDB
Amazon Elastic
MapReduce
Amazon Simple
Storage Service (S3)
Amazon Elastic
Compute Cloud (EC2)
AWS Storage
Gateway Service
Corporate
Data Center
Amazon Relational
Database Service (RDS)
Amazon
Redshift
Mehr bald…
Integration mit verschiedenen Datenquellen
Daten laden und entladen
• Upload nach Amazon S3
• AWS Import/Export
• AWS Direct Connect
• Partner
Data Integration Systems Integrators
Mehr bald…
Analysewerkzeuge
JDBC/ODBC
Amazon Redshift
Mehr bald…
Demo: Client Tools
Kundenbeispiel
Everyone Needs
Skilled People
At Home
At Work
In Life
Repeatedly
SkillPages
Data Architecture
Data Analyst
Raw Data
Get
Data
Join via Facebook
Add a Skill Page
Invite Friends
Web Servers Amazon S3
User Action Trace Events
EMR
Hive Scripts Process Content
• Process log files with regular
expressions to parse out the info
we need.
• Processes cookies into useful
searchable data such as
Session, UserId, API Security
token.
• Filters surplus info like internal
varnish logging.
Amazon S3
Aggregated Data
Raw Events
Internal Web
Excel Tableau
Amazon Redshift
Amazon Redshift ist
• Ein voll verwalteter Data Warehouse Service
• Schnell
• Kostengünstig
• Flexibel
• Abrechnung nach Nutzung
• Kompatibel mit bestehenden ETL und BI Tools
Zusammenfassung
Ressourcen
• Steffen Krause | skrause@amazon.de | @AWS_Aktuell
• http://aws.amazon.com/de/redshift
• Getting Started Guide: http://docs.aws.amazon.com/redshift/latest/gsg/welcome.html
• Setting Up SQL Workbench/J:
http://docs.aws.amazon.com/redshift/latest/mgmt/connecting-using-workbench.html
• SQL Reference: http://docs.aws.amazon.com/redshift/latest/dg/cm_chap_SQLCommandRef.html
• Client Tools:
• https://aws.amazon.com/marketplace/redshift/
• https://www.jaspersoft.com/webinar-AWS-Agile-Reporting-and-Analytics-in-the-Cloud
• http://aws.amazon.com/de
• Getting started with Free Tier:
http://aws.amazon.com/de/free/
• 25 US$ credits für neue Kunden:
http://aws.amazon.com/de/campaigns/account/
• Twitter: @AWS_Aktuell
• Facebook:
http://www.facebook.com/awsaktuell
• Webinare: http://aws.amazon.com/de/about-aws/events/
• Slides: http://de.slideshare.net/AWSAktuell
Ressourcen
1. Was ist Amazon Web Services und wofür kann ich AWS nutzen
2. Erste Schritte mit Amazon Web Services – von der Anmeldung bis
zur ersten Instanz
3. Amazon Web Services 1*1 – welche Dienste gibt es wofür?
4. Server in der Cloud – die AWS Compute-Dienste
5. Daten speichern in der Cloud – die AWS Storage-Dienste
6. Datenbanken in der Cloud – SQL und NoSQL
7. Amazon Web Services für eCommerce
Aufzeichnungen
http://aws.amazon.com/de/recorded-webinar/
Bisherige Webinare
• Big Data
– 15.07.2013, 16 Uhr
• Wie kann man ein Unternehmens-Rechenzentrum um Cloud-Ressourcen
erweitern? Netzwerke, Sicherheit, Ressource
– 23.07.2013, 16 Uhr
• Die erste Woche mit AWS
– 07.08.2013, 16 Uhr
• 8 Tipps für eine Cloud-Strategie – wie Unternehmen heute die Cloud
einsetzen
– 14.08.2013, 16 Uhr
• Optimieren Sie Ihre AWS Nutzung um Kosten zu sparen
– 21.08.2013, 16 Uhr
• http://aws.amazon.com/de/about-aws/events/
Kommende Webinare

Amazon Redshift

  • 1.
    Amazon Redshift Data Warehouseals Cloud Service Steffen Krause Technology Evangelist @AWS_Aktuell skrause@amazon.de
  • 2.
    Teilen Sie mirmit: Was gut ist, was nicht Was Sie bei unseren Veranstaltungen sehen wollen Was Sie sich von AWS wünschen skrause@amazon.de Ihr Feedback ist wichtig
  • 3.
    Amazon DynamoDB Schneller, vorhersagbarer,hoch skalierparer NoSQL Data Store Amazon RDS Verwalteter relationaler Datenbankdienst für MySQL, Oracle und SQL Server Amazon ElastiCache In-Memory Caching Service Amazon Redshift Schneller, mächtiger, voll verwalteter, Petabyte skalierbarer Data Warehouse Dienst Compute Storage AWS Global Infrastructure Database Application Services Deployment & Administration Networking AWS Datenbankdienste Skalierbare, hochperformante Datenbanken in der Cloud
  • 4.
    Amazon DynamoDB Schneller, vorhersagbarer,hoch skalierparer NoSQL Data Store Amazon RDS Verwalteter relationaler Datenbankdienst für MySQL, Oracle und SQL Server Amazon ElastiCache In-Memory Caching Service Amazon Redshift Schneller, mächtiger, voll verwalteter, Petabyte skalierbarer Data Warehouse Dienst Compute Storage AWS Global Infrastructure Database Application Services Deployment & Administration Networking AWS Datenbankdienste Skalierbare, hochperformante Datenbanken in der Cloud
  • 5.
    Data Warehousing aufdie AWS Art • Keine Investitionskosten, Bezahlung nach Nutzung • Sehr hohe Performance bei sehr niedrigem Preis • Offen und flexibel, von populären Tools unterstützt • Leicht zu nutzen, massiv skalierbar
  • 6.
    Was wir gebauthaben… Ein schnelles, mächtiges Data Warehouse, das bis in die Petabytes skaliert Viel schneller Viel billiger Viel einfacher Als verwalteter Dienst Amazon Redshift
  • 7.
    Dramatische I/O Reduktion IDAlter Ort 123 20 Berlin 345 25 Leipzig 678 40 Dresden Zeilen-Speicherung Spalten-Speicherung Scan- Richtung
  • 8.
    Amazon Redshift Architektur •Leader Node – SQL Endpoint – Speichert Metadaten – Koordiniert Abfrageausführung • Compute Nodes – Lokale spaltenbasierte Speicherung – Parallele Abfrageausführung – Load, Backup, Restore via Amazon S3 – Paralleles Laden aus Amazon DynamoDB • Einzel-Node-Version verfügbar 10 GigE (HPC) Laden Backup Restore JDBC/ODBC jdbc:postgresql://mycluster.c7lp0qs37f41.us-east-1.redshift.amazonaws.com:8192/mydb
  • 9.
    Optimierte Hardware HS1.8XL: 128GB RAM, 16 Cores, 24 HDDs, 16 TB nutzbarer Platz, 2 GB/sec Scanrate HS1.XL: 16 GB RAM, 2 Cores, 3 HDDs, 2 TB nutzbarer Platz • Optimiert für I/O intensive Workloads • Hohe Festplattendichte • Läuft in HPC Netzwerk - schnell • HS1.8XL verfügbar auf Amazon EC2
  • 10.
    Klein anfangen, großwachsen Extra Large Node (HS1.XL) 3 HDDs, 2 TB, 16 GB RAM, 2 Cores Single Node (2 TB) Cluster 2-32 Nodes (4 TB – 64 TB) Eight Extra Large Node (HS1.8XL) 24 HDDs, 16 TB, 128 GB RAM, 16 Cores, 10 GigE Cluster 2-100 Nodes (32 TB – 1.6 PB) Hinweis: Knoten nicht in selber Skala
  • 11.
    Parallelisierung Redshift parallelisiert undverteilt alles • Abfrage • Laden • Backup • Restore • Größenänderung 10 GigE (HPC) Laden Backup Restore JDBC/ODBC
  • 12.
    Günstige Preise Pro Stundefür HS1.XL Single Node Effektiver Stundenpreis pro TB Effektiver Jahrespreis pro TB On-Demand $ 0,850 $ 0,425 $ 3.723 1 Year reserviert $ 0,500 $ 0,250 $ 2.190 3 Year reserviert $ 0,228 $ 0,114 $ 999 Einfache Preise Anzahl Nodes x Kosten pro Stunde Keine Kosten für Leader Node Keine Investitionskosten Pay as you go
  • 13.
  • 14.
    Amazon Redshift verwendetSQL • Industriestandard SQL • ODBC und JDBC Treiber für Datenzugriff – verwendet Postgres 8.x Treiber – Die meisten PostgreSQL Features werden unterstützt – Siehe Dokumentation für Unterschiede • INSERT/UPDATE/DELETE werden unterstützt – Aber Daten laden aus S3 oder DynamoDB mit COPY-Befehl ist deutlich schneller – VACUUM-Befehl nach vielen DELETE oder UPDATE-Operationen empfohlen
  • 15.
    • Sort Key –Mehrere Spalten möglich – Definiert die Reihenfolge der Daten auf Platte – Ermöglicht das Überspringen von Blöcken bei Abfrage • wenn Sort Key in WHERE-Klausel – Wenn neue Daten häufig abgefragt werden: timestamp-Spalte als Sort Key • Distribution Key – Eine Spalte – Definiert Verteilung der Daten im Cluster – Sollte für gleichmäßige Verteilung der Daten sorgen • hohe, über die Zeit gleichmäßige Kardinalität – Sollte in Abfragen nicht als „ist gleich“ Filter vorkommen – Join-Key für häufige Joins ist guter Kandidat – Wird keiner angegeben werden die Daten gleichmäßig per Row ID verteilt Tabellendesign
  • 16.
    Daten laden ausS3 oder DynamoDB • Direktes Laden aus S3 oder DynamoDB unterstützt: copy customer from 's3://mybucket/customer.txt’ credentials 'aws_access_key_id=<your-access-key-id>; aws_secret_access_key=<your-secret-access-key>’ gzip delimiter '|’; • Paralleles Laden von Daten – Für paralleles Laden Daten in mehrere Dateien aufteilen – Dateinamen mit gemeinsamem Präfix: • customer.txt.1, customer.txt.2, … – Große Dateien mit gzip komprimieren • Nach Möglichkeit Daten in Sortierung des Sort Key laden
  • 17.
    Daten-Komprimierung • Komprimierung spartPlatz und Disk I/O • COPY analysiert die Daten automatisch und wählt geeignete Komprimierung – Ausschnitt der Daten für Auswahl der Komprimierung verwendet – Unterstützt: byte dictionary, delta, mostly n, run length, text • Kundenerfahrungen: 4-8-fache Komprimierung mit Echtdaten – 20x und mehr bei geeigneten Daten möglich • ANALYZE COMPRESSION zur Anzeige des gewählten Algorithmus analyze compression listing; Table | Column | Encoding ---------+----------------+--------- - listing | listid | delta listing | sellerid | delta32k listing | eventid | delta32k listing | dateid | bytedict listing | numtickets | bytedict listing | priceperticket | delta32k listing | totalprice | mostly32 listing | listtime | raw
  • 18.
    Einfach zu benutzen •Provisionierung in Minuten • Abfrageperformance überwachen • Vergrößern und Verkleinern durch Klick • Eingebaute Sicherheit • Automatische Backups
  • 19.
  • 20.
    Cluster bleibt online(read only) • Neuer Zielcluster im Hintergrund erstellt • Bezahlung nur für Quellcluster
  • 21.
    Cluster bleibt online •Der Cluster bleibt bei Größenänderungen online • Komplett automatisch – Daten automatisch neu verteilt • Read Only Modus während Größenänderung • Paralleles Kopieren der Daten (Node to Node) • Automatische Endpoint-Wechsel per DNS • Nur ein Cluster wird bezahlt
  • 22.
  • 23.
    Eingebaute Sicherheit • SSLVerschlüsselung für Daten auf der Leitung • Optional Verschlüsselung für Daten auf Festplatte – AES-256, Hardware-beschleunigt – Alle Blöcke auf Platte und in Amazon S3 verschlüsselt • Kein direkter Zugriff auf Compute Nodes • Amazon VPC unterstützt 10 GigE (HPC) Laden Backup Restore Kunden-VPC Interner VPC JDBC/ODBC
  • 24.
    Datensicherung und Verfügbarkeit •Replikation innerhalb des Clusters und Backup nach S3 stellt mehrere Kopien der Daten zu jedem Zeitpunkt sicher • Backups nach Amazon S3 sind kontinuierlich, automatisch und inkrementell – Entworfen für 11 Neunen Dauerhaftigkeit • Kontinuierliche Überwachung und automatische Wiederherstellung im Fall von Festplatten- und Node-Fehlern • Wiederherstellung von Snapshots in beliebige Availability Zones innerhalb einer Region
  • 25.
    Datenquellen Amazon DynamoDB Amazon Elastic MapReduce Amazon Simple StorageService (S3) Amazon Elastic Compute Cloud (EC2) AWS Storage Gateway Service Corporate Data Center Amazon Relational Database Service (RDS) Amazon Redshift Mehr bald… Integration mit verschiedenen Datenquellen
  • 26.
    Daten laden undentladen • Upload nach Amazon S3 • AWS Import/Export • AWS Direct Connect • Partner Data Integration Systems Integrators Mehr bald…
  • 27.
  • 29.
  • 30.
    Kundenbeispiel Everyone Needs Skilled People AtHome At Work In Life Repeatedly SkillPages
  • 32.
    Data Architecture Data Analyst RawData Get Data Join via Facebook Add a Skill Page Invite Friends Web Servers Amazon S3 User Action Trace Events EMR Hive Scripts Process Content • Process log files with regular expressions to parse out the info we need. • Processes cookies into useful searchable data such as Session, UserId, API Security token. • Filters surplus info like internal varnish logging. Amazon S3 Aggregated Data Raw Events Internal Web Excel Tableau Amazon Redshift
  • 33.
    Amazon Redshift ist •Ein voll verwalteter Data Warehouse Service • Schnell • Kostengünstig • Flexibel • Abrechnung nach Nutzung • Kompatibel mit bestehenden ETL und BI Tools Zusammenfassung
  • 34.
    Ressourcen • Steffen Krause| skrause@amazon.de | @AWS_Aktuell • http://aws.amazon.com/de/redshift • Getting Started Guide: http://docs.aws.amazon.com/redshift/latest/gsg/welcome.html • Setting Up SQL Workbench/J: http://docs.aws.amazon.com/redshift/latest/mgmt/connecting-using-workbench.html • SQL Reference: http://docs.aws.amazon.com/redshift/latest/dg/cm_chap_SQLCommandRef.html • Client Tools: • https://aws.amazon.com/marketplace/redshift/ • https://www.jaspersoft.com/webinar-AWS-Agile-Reporting-and-Analytics-in-the-Cloud
  • 35.
    • http://aws.amazon.com/de • Gettingstarted with Free Tier: http://aws.amazon.com/de/free/ • 25 US$ credits für neue Kunden: http://aws.amazon.com/de/campaigns/account/ • Twitter: @AWS_Aktuell • Facebook: http://www.facebook.com/awsaktuell • Webinare: http://aws.amazon.com/de/about-aws/events/ • Slides: http://de.slideshare.net/AWSAktuell Ressourcen
  • 36.
    1. Was istAmazon Web Services und wofür kann ich AWS nutzen 2. Erste Schritte mit Amazon Web Services – von der Anmeldung bis zur ersten Instanz 3. Amazon Web Services 1*1 – welche Dienste gibt es wofür? 4. Server in der Cloud – die AWS Compute-Dienste 5. Daten speichern in der Cloud – die AWS Storage-Dienste 6. Datenbanken in der Cloud – SQL und NoSQL 7. Amazon Web Services für eCommerce Aufzeichnungen http://aws.amazon.com/de/recorded-webinar/ Bisherige Webinare
  • 37.
    • Big Data –15.07.2013, 16 Uhr • Wie kann man ein Unternehmens-Rechenzentrum um Cloud-Ressourcen erweitern? Netzwerke, Sicherheit, Ressource – 23.07.2013, 16 Uhr • Die erste Woche mit AWS – 07.08.2013, 16 Uhr • 8 Tipps für eine Cloud-Strategie – wie Unternehmen heute die Cloud einsetzen – 14.08.2013, 16 Uhr • Optimieren Sie Ihre AWS Nutzung um Kosten zu sparen – 21.08.2013, 16 Uhr • http://aws.amazon.com/de/about-aws/events/ Kommende Webinare