© Zühlke 2013
Alexander Appel
Ein Realitätscheck
Chancen und Risiken
der Cloud
7. November 2013
Folie 1
© Zühlke 2013Chancen und Risiken der Cloud | Alexander Appel
Vorteile der betrieblichen Nutzung
von Cloud Computing
Untern...
© Zühlke 2013
Cloud Computing im Vergleich zu
klassischen Hosting Ansätzen
private infrastructure
shared operations
shared...
Daten dort verarbeiten
wo sie entstehen
http://news.netcraft.com/archives/2013/05/20/amazon-web-services-growth-unrelentin...
Vom Kleinen ins Große
… bzw. sehr große …
http://www.visitsequoia.com/img/Trees_looking_up.jpg
Darf ich meine Daten überhaupt
in der Cloud speichern?
© Zühlke 2013
Datenschutz – Unsere Einschätzung (1)
Chancen und Risiken der Cloud | Alexander Appel
• Deutsche Unternehmen...
© Zühlke 2013
Datenschutz – Unsere Einschätzung (2)
Chancen und Risiken der Cloud | Alexander Appel
• Allerdings stehen üb...
Kann ich meine Daten nicht
zusätzlich absichern?
© Zühlke 2013
Informationssicherheitsnormen und
kryptographische Verfahren
Chancen und Risiken der Cloud | Alexander Appel...
Unsere Vernetzte Zukunft
Quelle: Keynote, Amphion Forum 2012, San Francisco
Cloud in der Praxis:
Connected Vehicles Platform
© Zühlke 2013
• Mehrere Millionen Fahrzeuge
• Durchschnittlich 10.000 Übertragungen
pro Sekunde
• Durchschnittlich 1KB Dat...
© Zühlke 2013Chancen und Risiken der Cloud | Alexander Appel
Ausprägungen von Cloud Services
IaaS / PaaS / SaaS
Youmanage
...
© Zühlke 2013
• 10.000 Übertragungen pro Sekunde
• 10.000 * 1 KB = 10 MB pro Sekunde
Das sind pro Monat:
• 10MB * 2.629.74...
© Zühlke 2013
Prototyp A:
- Sammeln der Daten in Cloud Storage
- Auswertungen mit Hadoop OnDemand
Chancen und Risiken der ...
© Zühlke 2013
$-
$10,000.00
$20,000.00
$30,000.00
$40,000.00
$50,000.00
$60,000.00
Preisentwicklung Cloud Storage
Beispiel...
© Zühlke 2013
$-
$20,000.00
$40,000.00
$60,000.00
$80,000.00
$100,000.00
$120,000.00
$140,000.00
Preisentwicklung Cloud St...
© Zühlke 2013
Prototyp B:
- Sammeln der Daten in NoSQL Datenbank
- Auswertungen mit Hadoop OnDemand
Chancen und Risiken de...
© Zühlke 2013
$-
$5,000.00
$10,000.00
$15,000.00
$20,000.00
$25,000.00
Preisentwicklung NoSQL Datenbank
Beispiel Amazon Dy...
© Zühlke 2013
$-
$20,000.00
$40,000.00
$60,000.00
$80,000.00
$100,000.00
$120,000.00
$140,000.00
$160,000.00
$180,000.00
$...
Wie lassen sich Kosten sparen?
© Zühlke 2013
Kostenoptimierung durch geschickte
Datenlogistik
Chancen und Risiken der Cloud | Alexander Appel
Dynamo DB
T...
ACHTUNG: Cloud-Vendor-Lock-In !
Wechsel zu preisgünstigeren Konkurrenten
nur noch schwer möglich.
Fühlen Sie sich wirklich...
© Zühlke 2013
Prototyp C:
Einsatz geeigneter Open Source Produkte
auf reinen Infrastruktur Services
Chancen und Risiken de...
© Zühlke 2013
Prototyp C:
Einsatz geeigneter Open Source Produkte
auf reinen Infrastruktur Services
Chancen und Risiken de...
© Zühlke 2013
$-
$20,000.00
$40,000.00
$60,000.00
$80,000.00
$100,000.00
$120,000.00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15...
© Zühlke 2013
$-
$20,000.00
$40,000.00
$60,000.00
$80,000.00
$100,000.00
$120,000.00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15...
© Zühlke 2013
Überblick Preisentwicklung der
untersuchten Lösungsvarianten
Chancen und Risiken der Cloud | Alexander Appel...
© Zühlke 2013
DevOps und IaaS
‚Infrastructure-As-Code‘
• DevOps steht in erster Linie für die engere
Kooperation zwischen ...
© Zühlke 2013
High Performance Computing
Beispiel Amazon EC2 Instanztypen
Chancen und Risiken der Cloud | Alexander Appel
...
Standardisierungsbestrebungen in
Sachen Cloud Computing
© Zühlke 2013
Open Source Cloud Software und
Schnittstellenstandardisierung
• Open Source Software für den Betrieb
und das...
© Zühlke 2013Chancen und Risiken der Cloud | Alexander Appel
Cloud Computing hat Nutzenvorteile auch für
Connected Product...
Alexander Appel
aap@zuehlke.com
Chancen und Risiken der Cloud (BigData-Seminar)
Chancen und Risiken der Cloud (BigData-Seminar)
Chancen und Risiken der Cloud (BigData-Seminar)
Nächste SlideShare
Wird geladen in …5
×

Chancen und Risiken der Cloud (BigData-Seminar)

1.706 Aufrufe

Veröffentlicht am

Siehe auch mein Blogbeitrag: http://blog.zuehlke.com/big-data-der-geraete/
In diesem Vortrag untersuchen wir Cloud-Technologien und zeigen die Bandbreite von Möglichkeiten auf, die sich daraus für die vernetzte Zukunft ergeben. Beispiele und Erfahrungen aus praktischen Anwendungen zeigen Ihnen, wie Sie die Cloud für eine IT der vernetzten Geräte erfolgreich nutzen können.
Vortrag von Alexander Appel auf dem Seminar "Willkommen im Datenrausch: Produkte vernetzen - mit BigData und der Cloud neue Schätze heben."

Veröffentlicht in: Technologie
0 Kommentare
0 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Keine Downloads
Aufrufe
Aufrufe insgesamt
1.706
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
489
Aktionen
Geteilt
0
Downloads
14
Kommentare
0
Gefällt mir
0
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie
  • Einleitung:„Cloud – ist das diese nebelige, undurchsichtige Masse, die alle Ihre offenen Fragen beantwortet?“Cloud Computing im Zusammenhang mit Connected Products und daraus resultierenden Big Data Szenarien
  • Umfrage mittelständiger Unternehmen, die bisher noch kein Cloud Computing nutzen. 3 von 4 Unternehmen haben folgende Gründe angegeben, weshalb sie planen zukünftig Cloud Computing einzusetzen.(Markus Vehlow, Cordula Golkowsky, Price Waterhouse Coopers, Cloud Computing im Mittelstand, Mai 2011)
  • Was ist Cloud Computing überhaupt? Woher kommen die erwarteten Vorteile?Neue - voll virtualisierte Rechenzentren, On Demand Bereitstellung von Infrastruktur über eine (Web)-Interface- (Web)-API -> Diese Art der Interaktion ermöglicht hohen Prozess-Automatisierungsgrad- On Demand -> paywhatyouuse -> Kostenersparniss ohne hohe Fixkosten-- Keine hohen Anfangsinvestitionen, insbesondere für Firmen mit dynamischem Ressourcenbedarf interessantDazu kommt, dass große Rechenzentren deutlich effektiver betrieben werden können als kleine. Große Skaleneffekte!- Vergleich von 1000 zu 100.000 Servern: Unterschied (TCO) Gesamtkosten pro Recheneinheit - Einsparung von 80% (- Hauptkostenanteile: Hardware, Energie und Arbeitskosten- Ökologisch im Sinne von Green-IT: bessere Rechnerauslastung.)
  • LokalitätsprinzipWenn man große Datenmengen verarbeiten will, sollte man die Daten möglichst dort verarbeiten wo sie entstehen!Cloud Anbieter biete weltweit verteilte Infrastruktur durch die das gewährleistet werden kann.
  • Innovative Idee in Umfeld Connected ProductsAnforderungen an die Produkt IT- neues Produkt wird geboren- der Appetit kommt beim Essen!Was bedeutet das jetzt für unsere Connected Products und die angesprochene Product IT?- Erschließung neuer Geschäftsoptionen, Portfolioerweiterung- Time to Market -> Prototypingofnewinnovations !! Wachstumsfähigkeit:- direkter Einstieg und Wachstum ohne hohe Anfangsinvestition. (Fixkosten)
  • Wir werden es auch mit immer mehr Daten zu tun bekommenWichtiges Prinzip bei der Verarbeitung goßer Datenmengen - Lokalitätsprinzip
  • Neben den technischen Fragen kommen noch andere insbesondere rechtliche Fragestellungen auf.
  • Wir geben hierzu eine Einschätzung ab, das ist aber explizit nicht als Rechtsberatung zu verstehen!Dazu müssen Sie einen Anwalt konsultieren.Deutsche Firmen sind an das deutsche Datenschutzrecht gebunden …
  • Eine Aussage von Hr. Woolsey ehemaliger CIA Direktor …- wenn wir zufällig auf interessante Firmeninformationen stoßen, wäre es eine Verschwendung von Ressourcen diese nicht weiterzugeben.In besonders schweren Fällen (schweres Verbrechen, Verfassungsschutz, Terrorismus) kann das BKA auch Daten einsehen, ohne Eigentümer darüber informieren zu müssen.Inside Data / Outside Data-> welche daten werden wo gehalten und sind wie schutzbedürftig?-> verarbeitung öffentlicher daten (facebook, twitter, zensus) unproblematischFrage des Vertrauens -> Wenn man auf Nummer sicher gehen will schließt man die Daten besser weg!
  • Amazon - nie im Zusammenhang von Snowden Veröffentlichungen genannt, Statement von Werner Vogels: Keine Anfrage von oder Kooperation mit der NSA.- dedizierte Verträge zur Auftragsdatenverarbeitung- Andere rechtliche Dinge, Aufbau von Compliance Centern für KundenWie kann ich mein IT-System vor der NSA oder anderen Hackern absichern!?
  • Hohe Informationssicherheitsstandards bei Cloud Anbietern- vergleichbar mit selbst Auto fahren vs. Flugverkehr. Sicherheitsstandards in Flugverkehr höher!- Daten auf EBS Volumes können von anderen Kunden nicht wiederhergestellt/ausgelesen werden!AWS:- Auftragsdatenverarbeitungsvereinbarung- neues Compliance Center geplant- Unterstützt bei der Umsetzung von Verschlüsselungstechnologien / OpenSource ProdukteAber die Anbindung vernetzter Geräte ist noch wichtiger (nächste Folie!)- Best Practices für vernetzte Produkte zur Ende zu Ende Verschlüsselung- Nicht Teil des Vortrags aus Zeitmangel, wichtiger Teil von Connected Products, persönliches Gespräch- Fragen an die Zuhörer
  • Kommunikation mit Endgeräten essentiell:- Kommunikation muss sicher sein SSL- das reicht aber nicht, Integrität der der Ausgetauschten Daten muss gewährleistet sein (Signaturen)
  • Telematik Scenario:- Möglichkeiten mit aktuellen Cloud Diensten- Architekturtreiber Kosten!
  • SaaS Angebote für Telematik Anwendungen wie ConnectedVehicles noch nicht vorhanden. Automobilhersteller arbeiten daran, aber wohl eher an proprietären, herstellerspezifischen Lösungen. (vergleich Salesforce)PaaS Angebote nutzbar (Azure und Amazon)Reine Infrastruktur Services (Amazon und mittlerweile auch Azure)Mit welchen Servicen lässt sich das Szenario am Besten umsetzen?
  • Hadoop Cluster On Demand!Daten müssen immer von S3 gezogen werden. Verstoß gegen Datenlokalitätsprinzip!
  • X-Achse: Gigabyte, Wachstum über 24 MonateNahezu linearer anstieg, der KostenAnzahl Übertragungen noch nicht eingerechnet
  • 26297460000 PUT requests per month26 Milliarden Übertragungen im Monat!Hohe Anzahl an Übertragungen machen den Mamutanteil der Kosten aus. Wie lässt sich das optimieren?
  • Daten müssen immer noch ins Cluster gezogen werden bevor sie verarbeitet werden können!DafürHadoop Cluster On Demand
  • Das sind nur die reinen writeunits, ohne lesen aus der Datenbank.Haben wir da nicht etwas vergessen?
  • Der Speicher ist leider wesentlich teurer als bei S3.
  • Will ich wirklich Daten kontinuierlich ansammeln?- Ich muss nicht alle Daten behalten?-> das heißt ich brauche geeignete Archivierungskonzepte- Herausfiltern interessanter Informationen- Intelligentere Übertragungsmodelle (Bulk Transfer, Interaktion)
  • Cloud Anbieter bieten eine ganze Reihe von Services zur schrittweisen Datenverarbeitung!Hauptsächlich Batch orientierte Technologien!Orchestrierung:Data Pipeline: Workflow Engine zur Datenlogistik.Amazon Redshift: On Demand Data Warehouse (SQL).- PaaS Ressourcen werden nur erzeugt, wenn sie gebraucht werden. Aber viel Datentransfer nötig!- Services sind ausschließlich batchorientiert !! Kein Stream Processing.- Auf diese Weise Daten hin und her zu schaufeln kennen wir nur zu gut aus dem Enterprise Umfeld.- Generell wiederspricht das dem Big Data Paradigma die Daten an ihrem Aufenthaltsort direkt zu verarbeiten!- Außerdem sind viele dieser Services proprietäre PaaS Angebote -> Wir begeben uns in eine enge Abhängigkeit zum Cloud Anbieter!
  • Starke Abhängigkeit von einem Cloud Anbieter und seinen proprietären Services (meistens PaaS !!)Was wenn man Cloud Anbieter wechseln möchte?- bessere Preise eines Konkurrenten- neue rechtliche vorgaben- was wenn der Cloud Anbieter pleite geht?
  • Lässt sich in Ihre private Cloud übertragen!!! PrototypingHadoop Cluster wird dynamisch jeden Monat um 2 Worker-Knoten mit 30TB Speicher erweitert.- Neuste Hadoop Version kann eingesetzt werden (Hadoop 2.0, Yarn: Management von anderen Clustern kann integriert werden (z.B. Storm) )- SQL Unterstützung (Stinger: neue Engine für Hive, SQL Kompatibilität und 100x Performance Verbesserung werden angestrebt)- Amazon EMR unterstützt nativ bisher nur Version 1.0.3 und wird seit langem nicht mehr aktualisiert. - Stategischer Partner ist MapR (ähnlich wie Cloudera), proprietärer Anbieter von Hadoop-Distributionen.Weitere interessante Open Source Produkte für Datenlogistik und Stream-Processing:Twitter Storm (distributedand fault tollerantrealtimecomputation)Stream Processing! Keine vergleichbaren PaaS Services im Moment.ApacheKafka (high-throughput, distributed, publish-subscribemessaging)Entwickelt bei LinkedIn- persistentdistributedqueue , high thoughput, scalable- Bulk Transfer und Komprimierung!Kosten entstehen nur für Ressourcennutzung, Keine Kosten für internen Traffic!Anbindung anderer PaaS Services (z.B. zur Archivierung) weiterhin möglich
  • Äpfel mit Äpfeln vergleichen!- Zur Kostenberechnung Stream Processing nicht berücksichtigt Hier werden Daten direkt in Hadoop Cluster gespeichert, das heißt Verarbeitung wäre direkt ohne Mehrkosten möglich. Das war bei vorherigen Lösungen (S3 / DynamoDB) nicht der Fall. Für die Verarbeitung mit EMR wären zusätzliche Kosten entstanden (Transfer, Read Requests)!
  • X-Achse MonateOn Demand Instancesonly
  • Mit reservedinstances (3 years, heavy utilization)Im erste Jahr kein Unterschied, im 2. ca. $ 50.000 Trotzdem kann man sich die Frage stellen, ob sich dedizierte Hardware nicht eher lohnt.Langfristig, sicher der Fall. Es würde sich auch eine Hybride Lösung anbieten.Flexibilität ist gefragt, sich wollen ihre Lösung sowohl in der Cloud als auch auf dedizierter Hardware betreiben können!Vergleich zu Dell Hadoop Appliance!?- Jeder 2 Sockel-Node braucht eine Lizenz-ca. (5 x 8 Support) per Node pro Jahr 1.700 € + Server-Mindestanforderung (Master-Node, etc.): 85.000 € für 8 Nodes inkl. Infrastruktur, 2 Switches, 2, …-Data-Node Plattenplatz „Heavy Node“: 16 x 3 TB-64 GB Memory, 2 x 8 Core-Prozessoren-Replikationsfaktor: min. 3 (keine RAID)
  • Im ersten Jahr: 77% KostenreduktionIm zweiten Jahr: 53% Kostenreduktion
  • Möglichdurch Cloud API und Configuration Management Tools (Chef, Puppet)IaaSunterstütztdurch Web API die Umsetzung von Infrastruktur-As-Code ideal !!Prototyping !!!Aufwandfüraufsetzennicht so hoch, Unterschiedzu Appliances, keinededizierte, optimierte Hardware
  • Wenn ich rein auf Infrastruktur aufsetze stehen mir eine Reihe hochperformanterInstannzen zur Verfügung!Wenn Sie die Automatisierung ihrer Lösung selbst in die Hand nehmen, bieten Ihnen auch Cloud Anbieter die Möglichkeit hoch performante Systeme zu nutzen.Für speicherintensive Anwendungen (hs1.8xlarge), auch SSDs stehen zur Verfügung.Oder wenn Sie hochparallele Berechnungen auf GPUs nutzen wollen (cg1.4xlarge)Deutlicher Preisunterschied. Preise Faktor 10 höher! Es steht eine Vielzahl von Ressourcetypen zur Verfügung, die für hochperformante Lösungen genutzt werden können.- langfristig könnte sich aber die Investition in dedizierte Hardware lohnen- Virtualisierung hat natürlich auch einen PerformanceimpactCPU und Memory sind dediziert zugeordnet. 1 Compute Unit: 1.2 GHz 2007 Opteronor 2007 Xeon processor.I/O istsharedressourcecg1.4xlarge: 2xIntel Xeon E5-2670 quadcore with hyperthreading
  • Für betriebliche Cloud Nutzung sind offene Standards sehrwichtig.Technologisch- Investitionssicherung und AnbieterunabhängigkeitRechtlich-Vertrauen inCloud Computing stärken - Rechtssicherheit- (FrauenhoferCloud Studie Lösungsansätze (S. 29))
  • Kernmitglieder: AT&T, HP, IBM, Nebula, Rackspace, Red Hat, Inc., SUSE, Ubuntu- Der aktuelle de-facto Standardschnittstelleist AWS EC2. (Nebenopenstacknocheineanderen Open Source Implementierung (Eukalyptus))- NeuesGremiumgetriebeneSchnittstellenspezifikation: Open Cloud Computing Interface- Auchfür deutsche Cloud Anbieter relevant: Telekom setzt Open Stack ein!Markt in Deutschland ehergetrieben von Interessensgemeinschaften:- Trusted Cloud – Wettbewerb des Bundesministerium für Wirtschaft und Technologie - Euro Cloud – InteressensgemeinschaftEuropäischerSaaSAnbieter- Esgibt diverse Abstraktionslibraries, die versucheneineeinheitliche API fürverschiedene Cloud AnbieterbereitzustellenmitunterschiedlichemErfolg.(fog-ruby, jclouds, …)
  • Cloud Computing hat Nutzenvorteile – wenn man es richtig einsetzt.Auf jeden Fall sinnvoll für Prototyping und Entwicklung…
  • Chancen und Risiken der Cloud (BigData-Seminar)

    1. 1. © Zühlke 2013 Alexander Appel Ein Realitätscheck Chancen und Risiken der Cloud 7. November 2013 Folie 1
    2. 2. © Zühlke 2013Chancen und Risiken der Cloud | Alexander Appel Vorteile der betrieblichen Nutzung von Cloud Computing Unternehmens- vorteile Unternehmens- Agilität Flexibilitätsgewinn durch höhere Prozessautomatisierung Wachstums- fähigkeit Erschließung neuer Geschäftsoptionen Time to Market Portfolioerweiterungen Kosten- optimierung pay what you see (CAPEX to OPEX) use what you need (OPEX Optimierung) Quelle: Price Waterhouse Coopers, Cloud Computing im Mittelstand, Mai 2011
    3. 3. © Zühlke 2013 Cloud Computing im Vergleich zu klassischen Hosting Ansätzen private infrastructure shared operations shared infrastructure and operationshybrid cloud public cloud hybrid hosting Out- sourcing hybrid opera- tions private cloud hybrid archi- tecture legacy IT IT private infrastructure and operations private infrastructure and operations supplier control on-demand, virtual, automated customer control scheduled, physical, manual private infrastructure shared operations shared infrastructure and operations
    4. 4. Daten dort verarbeiten wo sie entstehen http://news.netcraft.com/archives/2013/05/20/amazon-web-services-growth-unrelenting.html
    5. 5. Vom Kleinen ins Große
    6. 6. … bzw. sehr große … http://www.visitsequoia.com/img/Trees_looking_up.jpg
    7. 7. Darf ich meine Daten überhaupt in der Cloud speichern?
    8. 8. © Zühlke 2013 Datenschutz – Unsere Einschätzung (1) Chancen und Risiken der Cloud | Alexander Appel • Deutsche Unternehmen sind an deutsches Datenschutzrecht gebunden, gleichgültig, ob sie Daten in einer Private Cloud verarbeiten oder Public Cloud-Dienste nutzen. • Beste Möglichkeit zur Nutzung von Cloud-Diensten entsprechend dem BDSG: Auftragsdatenverarbeitung („Verarbeitung von Daten im Auftrag und auf Weisung des Unternehmens“) innerhalb einer EU/EWR-Cloud. – Dienstleister ist dem internen Rechenzentrum des Unternehmens vergleichbar. – Auftragsdatenverarbeitung muss über umfangreiche Verträge mit spezifischen Regelungen zum Datenschutz abgesichert sein. – Auftragsdatenverarbeitung darf nur innerhalb der EU / dem EWR erfolgen, Cloud-Anbieter muss garantieren, dass die Daten den EWR nicht verlassen. • Bezüglich Datenspeicherung und -Verarbeitung außerhalb der EU bestehen erhebliche datenschutzrechtliche Anforderungen. Daten- speicherung und -Verarbeitung außerhalb der EU ist aber legal möglich in Ländern, die adäquate Datenschutzstandards haben (Japan, Schweiz). 7. November 2013 Folie 8
    9. 9. © Zühlke 2013 Datenschutz – Unsere Einschätzung (2) Chancen und Risiken der Cloud | Alexander Appel • Allerdings stehen über 90% der Cloud Computing-Infrastruktur in den USA, und US-Unternehmen sind gemäß Patriot Act dazu verpflichtet, Daten an US-Behörden weiterzugeben. Dies schließt auch Daten aus EU-Rechenzentren amerikanischer Anbieter mit ein! • Die Verarbeitung personenbezogener Daten durch Unternehmen, die am Safe Harbor-Programm des US-Handelsministeriums teilnehmen und die entsprechenden Grundsätze befolgen, ist legal. Allerdings darf keine Übermittlung „besonders schutzbedürftiger“ Daten erfolgen, z.B. von Gesundheitsdaten. • Allerdings bezieht sich der Schutz durch das Safe Harbor-Programm nicht auf andere Daten, die beispielsweise Geschäftsgeheimnisse des Unternehmens ausmachen, wie Forschungs- oder Finanzdaten… • Und nicht selten nutzen auch deutsche SaaS-Anbieter die IaaS-Dienste amerikanischer Provider… Pflicht zur persönlichen Überprüfung durch den Auftraggeber! James Woolsey, ehemaliger Direktor der CIA "Würde [...] man eine technologische Analyse von etwas aus einem befreundetem Land machen, was keine Bedeutung hat, außer von kommerziellem Nutzen zu sein, und das dann in der Schublade liegen lassen, weil es nicht an ein amerikanisches Unternehmen weitergegeben werden kann? Ich glaube, das wäre ein Missbrauch von Ressourcen der Nachrichtendienste. Ich denke nicht, dass man so verfahren würde.“ 7. November 2013 Folie 9
    10. 10. Kann ich meine Daten nicht zusätzlich absichern?
    11. 11. © Zühlke 2013 Informationssicherheitsnormen und kryptographische Verfahren Chancen und Risiken der Cloud | Alexander Appel ISO/IEC 27001 • Diese internationale Norm spezifiziert die Anforderungen für Herstellung, Einführung, Betrieb, Überwachung, Wartung und Verbesserung eines dokumentierten Informationssicherheits- Managementsystems unter Berücksichtigung der IT-Risiken innerhalb der gesamten Organisation. Kryptographische Verfahren • Anbieter empfehlen explizit die zusätzliche Verschlüsselung sensitiver Informationen in der Cloud! • Die Umsetzung geeigneter Mechanismen liegt dabei in der Hand des Kunden. 7. November 2013 Folie 11
    12. 12. Unsere Vernetzte Zukunft Quelle: Keynote, Amphion Forum 2012, San Francisco
    13. 13. Cloud in der Praxis: Connected Vehicles Platform
    14. 14. © Zühlke 2013 • Mehrere Millionen Fahrzeuge • Durchschnittlich 10.000 Übertragungen pro Sekunde • Durchschnittlich 1KB Daten pro Übertragung • Vorerst sollen die Daten nur gesammelt und offline ausgewertet werden • Es soll ein Prototyp in der Cloud erstellt werden, um erste Erfahrungen mit den Daten zu sammeln Connected Vehicles Platform (CVP) Telematik Kennzahlen Chancen und Risiken der Cloud | Alexander Appel 7. November 2013 Folie 14
    15. 15. © Zühlke 2013Chancen und Risiken der Cloud | Alexander Appel Ausprägungen von Cloud Services IaaS / PaaS / SaaS Youmanage Software (as a Service) Platform (as a Service) Infrastructure (as a Service) Packaged Software Youmanage Youmanage Managedbyvendor Managedbyvendor Managedbyvendor Applications Applications Applications Applications DataData Data Data Runtime Runtime Runtime Runtime Middleware Middleware Middleware Middleware O/S O/S O/S O/S Virtualization Virtualization Virtualization Virtualization Servers Servers Servers Servers Storage Storage Storage Storage Networking Networking Networking Networking
    16. 16. © Zühlke 2013 • 10.000 Übertragungen pro Sekunde • 10.000 * 1 KB = 10 MB pro Sekunde Das sind pro Monat: • 10MB * 2.629.746 S = 26,3 TB • 26,3 Milliarden Übertragungen Und pro Jahr: • 315,57 TB Daten • 315,57 Milliarden Übertragungen Connected Vehicles Platform (CVP) Telematik Mengengerüst Chancen und Risiken der Cloud | Alexander Appel 7. November 2013 Folie 16
    17. 17. © Zühlke 2013 Prototyp A: - Sammeln der Daten in Cloud Storage - Auswertungen mit Hadoop OnDemand Chancen und Risiken der Cloud | Alexander Appel Amazon S3 S3 Buckets Elastic MapReduce Hadoop On Demand Cluster 7. November 2013 Folie 17
    18. 18. © Zühlke 2013 $- $10,000.00 $20,000.00 $30,000.00 $40,000.00 $50,000.00 $60,000.00 Preisentwicklung Cloud Storage Beispiel Amazon S3 Chancen und Risiken der Cloud | Alexander Appel Im ersten Jahr $ 164.093 Im zweiten Jahr $ 463.090 7. November 2013 Folie 19
    19. 19. © Zühlke 2013 $- $20,000.00 $40,000.00 $60,000.00 $80,000.00 $100,000.00 $120,000.00 $140,000.00 Preisentwicklung Cloud Storage Beispiel Amazon S3 (mit PUT Requests) Chancen und Risiken der Cloud | Alexander Appel Im ersten Jahr $ 1.741.940 Im zweiten Jahr $ 2.040.937 7. November 2013 Folie 20
    20. 20. © Zühlke 2013 Prototyp B: - Sammeln der Daten in NoSQL Datenbank - Auswertungen mit Hadoop OnDemand Chancen und Risiken der Cloud | Alexander Appel Dynamo DB Table Elastic MapReduce Hadoop On Demand Cluster 7. November 2013 Folie 21
    21. 21. © Zühlke 2013 $- $5,000.00 $10,000.00 $15,000.00 $20,000.00 $25,000.00 Preisentwicklung NoSQL Datenbank Beispiel Amazon DynamoDB (10.000 Write Units reserviert für 3 Jahre) Chancen und Risiken der Cloud | Alexander Appel Im ersten Jahr $ 24.381 Im zweiten Jahr $ 4.041 7. November 2013 Folie 23
    22. 22. © Zühlke 2013 $- $20,000.00 $40,000.00 $60,000.00 $80,000.00 $100,000.00 $120,000.00 $140,000.00 $160,000.00 $180,000.00 $200,000.00 Preisentwicklung NoSQL Datenbank Beispiel Amazon DynamoDB (inklusive Storage-Kosten) Chancen und Risiken der Cloud | Alexander Appel Im ersten Jahr $ 604.861 Im zweiten Jahr $ 1.656.176 7. November 2013 Folie 24
    23. 23. Wie lassen sich Kosten sparen?
    24. 24. © Zühlke 2013 Kostenoptimierung durch geschickte Datenlogistik Chancen und Risiken der Cloud | Alexander Appel Dynamo DB Table Amazon Redshift Amazon GlacierAWS Data Pipeline EMR Cluster Amazon S3 MS SQL 7. November 2013 Folie 26 Widerspricht jedoch dem Datenlokalitätsprinzip!
    25. 25. ACHTUNG: Cloud-Vendor-Lock-In ! Wechsel zu preisgünstigeren Konkurrenten nur noch schwer möglich. Fühlen Sie sich wirklich wohl in einer solchen Abhängigkeit? Was wenn der Cloud Anbieter Pleite geht?
    26. 26. © Zühlke 2013 Prototyp C: Einsatz geeigneter Open Source Produkte auf reinen Infrastruktur Services Chancen und Risiken der Cloud | Alexander Appel Dispatcher Instances Apache Hadoop Cluster … … ElastiCache Amazon Glacier Amazon S3 MS SQLApache Kafka Messaging Twitter Storm Cluster Apache Zookeeper ELB 7. November 2013 Folie 28
    27. 27. © Zühlke 2013 Prototyp C: Einsatz geeigneter Open Source Produkte auf reinen Infrastruktur Services Chancen und Risiken der Cloud | Alexander Appel Dispatcher Instances Apache Hadoop Cluster … Apache Zookeeper ELB 7. November 2013 Folie 29
    28. 28. © Zühlke 2013 $- $20,000.00 $40,000.00 $60,000.00 $80,000.00 $100,000.00 $120,000.00 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Preisentwicklung Infrastruktur Beispiel Amazon EC2 Chancen und Risiken der Cloud | Alexander Appel Im ersten Jahr $ 394.735 Im zweiten Jahr $ 1.005.387 7. November 2013 Folie 31
    29. 29. © Zühlke 2013 $- $20,000.00 $40,000.00 $60,000.00 $80,000.00 $100,000.00 $120,000.00 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Preisentwicklung Infrastruktur Beispiel Amazon EC2 (mit reserved instances) Chancen und Risiken der Cloud | Alexander Appel Im ersten Jahr $ 394.186 Im zweiten Jahr $ 956.154 7. November 2013 Folie 32
    30. 30. © Zühlke 2013 Überblick Preisentwicklung der untersuchten Lösungsvarianten Chancen und Risiken der Cloud | Alexander Appel $- $500,000.00 $1,000,000.00 $1,500,000.00 $2,000,000.00 $2,500,000.00 1 2 S3 DynamoDB EC2 7. November 2013 Folie 33
    31. 31. © Zühlke 2013 DevOps und IaaS ‚Infrastructure-As-Code‘ • DevOps steht in erster Linie für die engere Kooperation zwischen Entwicklung und Betrieb in Software Projekten • Zentrales Konzept ist die komplette Automatisierung von Infrastruktur und Softwarekonfiguration • Tools wie Chef oder Puppet unterstützen Software Konfigurationsmanagement • Wir haben gute Erfahrungen in Entwicklungs- projekten gemacht, auch außerhalb der Cloud • Infrastruktur, die als Code vorliegt kann jeder Zeit wiederhergestellt werden Chancen und Risiken der Cloud | Alexander Appel  Das spart Kosten in der Cloud! 7. November 2013 Folie 34
    32. 32. © Zühlke 2013 High Performance Computing Beispiel Amazon EC2 Instanztypen Chancen und Risiken der Cloud | Alexander Appel • General Purpose (m1.large) 7.5 GB RAM 4 EC2 Compute Units (2 virtual cores) I/O Performance: Moderate $ 0,26 pro Stunde $ 4,90 pro Stunde • High Storage (hs1.8xlarge) 117 GB RAM 35 EC2 Compute Units (16 virtual cores) I/O Performance: Very High (10 Gigabit Ethernet) 24 x 2 TB dedicated hard drives $ 2,36 pro Stunde • Cluster GPU (cg1.4xlarge) 22.5 GB RAM 33.5 EC2 Compute Units (16 virtual cores) I/O Performance: Very High (10 Gigabit Ethernet) 2 x NVIDIA Tesla M2050 GPU 7. November 2013 Folie 35
    33. 33. Standardisierungsbestrebungen in Sachen Cloud Computing
    34. 34. © Zühlke 2013 Open Source Cloud Software und Schnittstellenstandardisierung • Open Source Software für den Betrieb und das Management von IaaS Diensten • Geeignet für den Betrieb von Public und Private Clouds • Bieten eine Amazon EC2 und S3 kompatible API an (AWS ist de-facto Standard) Chancen und Risiken der Cloud | Alexander Appel • Offener Cloud API Standard Open Cloud Computing Interface 7. November 2013 Folie 37
    35. 35. © Zühlke 2013Chancen und Risiken der Cloud | Alexander Appel Cloud Computing hat Nutzenvorteile auch für Connected Products und Big Data Szenarien. Geringe Anfangsinvestition und Skalierungsfähigkeit ideal für Prototyping und iteratives Vorgehen. PaaS Angebote sind leistungsfähig und ermöglichen ein schnelles Time-to-Market. Bei großen Datenmengen entstehen aber auch hohe Kosten und eine zunehmende Bindung zum jeweiligen Cloud-Anbieter (Vendor-Lock-In). Standardisierung bei IaaS am weitesten voran geschritten. Im Zusammenhang mit DevOps bietet IaaS die höchste Flexibilität in der Lösungsgestaltung und langfristigen Kostenoptimierung. 7. November 2013 Folie 38
    36. 36. Alexander Appel aap@zuehlke.com

    ×