Die Aufzeichnung dieses Webinars steht demnächst hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Big Data ist eines der großen Schlagworte der letzten Jahre. Aber was ist das? In vielen Unternehmen gibt es heute große Datenbestände, die nicht oder nicht ausreichend genutzt werden. Das können Logfiles eines Webservers, Bon-Daten eines Einzelhandelsunternehmens oder Sensordaten einer Produktionsstraße sein. In diesem Webinar geben wir einen Überblick über Big Data und die benutzten Technologien.
In diesem Webinar geben wir Ihnen eine Einführung, präsentieren die Möglichkeiten und Fallstricke und beantworten Ihre Fragen rund um das Thema Big Data.
Vortrag vor dem Markting Club Dortmund am 31.3.2014
Keine Streuverluste mehr dank zielgenauer, bedarfsgerechter Kundeninformation: Big Data scheint möglich zu machen, wovon Marketer träumen.
Ob das wirklich so ist, was die schnelle Analyse massenhafter Daten tatsächlich kann und welchen Stellenwert die Kreativität künftiger Kampagnen noch einnehmen wird, nimmt Meinert Jacobson unter die Lupe. Meinert Jacobson ist Geschäftsführer der Gesellschaft für Marketing, Analysen und Consulting (MarAnCon).
In diesem Webinar geben wir Ihnen eine Einführung, präsentieren die Möglichkeiten und Fallstricke und beantworten Ihre Fragen rund um das Thema Big Data.
Vortrag vor dem Markting Club Dortmund am 31.3.2014
Keine Streuverluste mehr dank zielgenauer, bedarfsgerechter Kundeninformation: Big Data scheint möglich zu machen, wovon Marketer träumen.
Ob das wirklich so ist, was die schnelle Analyse massenhafter Daten tatsächlich kann und welchen Stellenwert die Kreativität künftiger Kampagnen noch einnehmen wird, nimmt Meinert Jacobson unter die Lupe. Meinert Jacobson ist Geschäftsführer der Gesellschaft für Marketing, Analysen und Consulting (MarAnCon).
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...Precisely
Die digitale Transformation und der damit rasante Anstieg von Daten verändern Arbeitsweisen, Geschäftsbereiche und Unternehmen. Die riesigen Datenmengen aus diversen Quellen, müssen gesammelt, analysiert und letztlich ausgewertet werden. Traditionelle DWHs sind jedoch zunehmend von dem wachsenden Volumen überfordert. Moderne DWH und Analytics Lösungen für die Cloud verknüpfen den klassischen DWH-Gedanken mit den Vorteilen zeitgemäßer IT-Konzepte und Architekturen und erfüllen die Anforderungen an Flexibilität, Skalierbarkeit und Performance.
Sie lernen:
- Warum Datenintegrität im Zeitalter von Digitalisierung nicht vernachlässigt werden darf.
- Wie Unternehmen sicherstellen, dass ausschließlich vollständige, korrekte, aktuelle und kontextualisierte Daten die Grundlage für MDWH ist.
- Wie sich daraus analytische Erkenntnisse und unternehmerische Entscheidungen bilden.
Agile Datenanalsyse - der schnelle Weg zum MehrwertAlexander Hendorf
Vortrag ZEW, Zentrum für Europäische Wirtschaftsforschung, Mannheim
Fast alles und jeder – vom Menschen bis zur Maschine, vom Industriesensor bis zur Armbanduhr – erzeugt immer größere Mengen an Daten, Messergebnissen, Nachrichten und Informationen. Der Vortrag zeigt Wege auf, diese Datenflut zu ordnen und sinnvoll ohne große Erstinvestitionen in Big Data-Lösungen zu nut- zen. Es werden Lösungen präsentiert, wie man von Datentümpeln zu Data-La- kes und damit stabilen Prognosen, z.B. für die Warennachfrage, kommt.
"Hybrid Architectures, Data Lakes + Data Warehouse"
The big data discussion continues and the practice shows that Data Lakes do not replace but complement Data Warehouse. Which new scenarios are possible? What are the strengths of hybrid architectures, ie the combination of Data Lakes and Data Warehouses?
Digital Mountaineering - Datenexpeditionen und Storage-Trends im digitalen Zeitalter.
Referent: Dr. Carlo Velten ist Vorstandsvorsitzender des IT-Research- und Beratungsunternehmens Crisp Research. Seit über 15 Jahren berät Carlo Velten als Analyst namhafte Unternehmen in Technologie- und Strategiefragen.
BARC Studie Webinar: Ausgereifte Analysen mit Apache HadoopCloudera, Inc.
Sowohl die Technologie Hadoop als auch das Konzept Data Lake sind erst seit kurzer Zeit im Enterprise-Kontext im Einsatz. Entsprechend fällt es Unternehmen häufig schwer, zwischen medialer Überhöhung und tatsächlich realisierbaren Mehrwert zu unterscheiden. Ob es Unternehmen gelingt, sich die Vorteile zunutze zu machen, untersucht diese Studie zum Stand und zur zukünftigen Entwicklung von Big Data und dessen Anwendungsfälle in Unternehmen. Mit weltweit über 380 Teilnehmern bei einer breit gefächerten Branchenverteilung gehört die vorliegende Studie „Hadoop und Data Lakes“ zu den größten Untersuchungen, die sich speziell den Herausforderungen bei der Datenanalyse mit Hadoop widmen.
Neo4j Use Cases - Graphdatenbanken im EinsatzNeo4j
Wenn es an der Zeit ist eine Datenbank für Ihr Projekt auszuwählen, gibt es inzwischen eine verwirrende Anzahl von Auswahlmöglichkeiten. Woher wissen Sie, wann Ihr Projekt gut für eine relationale Datenbank ist, oder ob einer der vielen NoSQL-Optionen eine bessere Wahl darstellt?
In diesem Webinar betrachten wir wann Neo4j zum Einsatz kommen sollte und wo die Vorzüge darin liegen. Dies wird anhand von Kundenbeispielen mit konkreten Einsatzszenerien erläutert.
Jahrzehnt des Kontrollverlustes
Für Prof. Dr. Diego Kuonen ist klar: Das vergangene Jahrzehnt war die Dekade, in der wir die Kontrolle über die Daten, unsere Daten, verloren haben. Kriegen wir sie wieder zurück? Oder ist es schon zu spät? Ein Gespräch über das digitale Zeitalter, übers Haare schneiden und Raclette machen.
Der Artikel ist online verfügbar https://www.1815.ch/news/newsletter/wb/ein-robo-coiffeur-das-kriegt-man-mit-kuenstlicher-intelligenz-niemals-hin/
Perspektiven und Trends: + Wo prägt Big Data den digitalen Wandel? + Welche Technologien helfen?
Big Data Lab: + Wie gelingt der Schnellstart in die neue Informationsökonomie?
Praxiserfahrungen: + Welche Erfahrungen machen andere? + Wo steht Ihre Branche?
Webinar - Sehr empfehlenswert: wie man aus Daten durch maschinelles Lernen We...Cloudera, Inc.
Unternehmen sind heutzutage in der Lage ihre Daten mit relativer Leichtigkeit aufzunehmen und zu verwalten. Die Herausforderung besteht nun darin, die verborgenen Muster in den Daten zu erkennen und diese zu verstehen, um einen Mehrwert zu generieren. Aufgrund der großen Datenmengen gelingt dies mit traditionelle Ansätzen zumeist nicht. Das Ergebnis: Organisationen kämpfen, um wirklich zu innovieren und sich zu differenzieren.
Der Vortrag zeigt die Grenzen bisheriger Lösungen und gibt einen Überblick über neue Lösungen.
Er zeigt, wie Systemlandschaften weltweit tätiger (Internet-)Konzerne aussehen und leitet daraus herunterskalierte, praktikable Lösungen auch für kleinere Unternehmen mit weit weniger Datenvorkommen ab.
Der Vortrag zeigt die Grenzen bisheriger Lösungen und gibt einen Überblick über neue Lösungen.
Er zeigt, wie Systemlandschaften weltweit tätiger (Internet-)Konzerne aussehen und leitet daraus herunterskalierte, praktikable Lösungen auch für kleinere Unternehmen mit weit weniger Datenvorkommen ab.
Der Vortrag zeigt die Grenzen bisheriger Lösungen und gibt einen Überblick über neue Lösungen.
Er zeigt, wie Systemlandschaften weltweit tätiger (Internet-)Konzerne aussehen und leitet daraus herunterskalierte, praktikable Lösungen auch für kleinere Unternehmen mit weit weniger Datenvorkommen ab.
Bedarfsprognosen für optimale WarenverfügbarkeitMathias Golombek
Bedarfsprognosen für optimale Warenverfügbarkeit
Der klassische Handel und E-Commerce bewegen sich immer auf einem schmalen Grat zwischen einem erhöhten Out-of-Stock-Risiko und Nichtverkäufen aufgrund zu hoher Margen. Die optimale Lagermenge eines Artikels zu kennen, bedeutet aber nicht nur, dass die Regale immer in der richtigen Menge gefüllt sind. Es senkt auch Folgekosten für Lagerung oder Logistik. Um solch wichtige Vorhersagen treffen zu können, benötigen Händler verlässliche und genaue Analysen, damit Über- wie auch Unterbestände in Zukunft der Vergangenheit angehören. Blue Yonder bietet mit seinen Predictive Applications eine sichere Entscheidungsbasis. Dabei kombiniert das Unternehmen die Intelligenz ihrer Software mit der Analysestärke von EXASolution.
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...Precisely
Die digitale Transformation und der damit rasante Anstieg von Daten verändern Arbeitsweisen, Geschäftsbereiche und Unternehmen. Die riesigen Datenmengen aus diversen Quellen, müssen gesammelt, analysiert und letztlich ausgewertet werden. Traditionelle DWHs sind jedoch zunehmend von dem wachsenden Volumen überfordert. Moderne DWH und Analytics Lösungen für die Cloud verknüpfen den klassischen DWH-Gedanken mit den Vorteilen zeitgemäßer IT-Konzepte und Architekturen und erfüllen die Anforderungen an Flexibilität, Skalierbarkeit und Performance.
Sie lernen:
- Warum Datenintegrität im Zeitalter von Digitalisierung nicht vernachlässigt werden darf.
- Wie Unternehmen sicherstellen, dass ausschließlich vollständige, korrekte, aktuelle und kontextualisierte Daten die Grundlage für MDWH ist.
- Wie sich daraus analytische Erkenntnisse und unternehmerische Entscheidungen bilden.
Agile Datenanalsyse - der schnelle Weg zum MehrwertAlexander Hendorf
Vortrag ZEW, Zentrum für Europäische Wirtschaftsforschung, Mannheim
Fast alles und jeder – vom Menschen bis zur Maschine, vom Industriesensor bis zur Armbanduhr – erzeugt immer größere Mengen an Daten, Messergebnissen, Nachrichten und Informationen. Der Vortrag zeigt Wege auf, diese Datenflut zu ordnen und sinnvoll ohne große Erstinvestitionen in Big Data-Lösungen zu nut- zen. Es werden Lösungen präsentiert, wie man von Datentümpeln zu Data-La- kes und damit stabilen Prognosen, z.B. für die Warennachfrage, kommt.
"Hybrid Architectures, Data Lakes + Data Warehouse"
The big data discussion continues and the practice shows that Data Lakes do not replace but complement Data Warehouse. Which new scenarios are possible? What are the strengths of hybrid architectures, ie the combination of Data Lakes and Data Warehouses?
Digital Mountaineering - Datenexpeditionen und Storage-Trends im digitalen Zeitalter.
Referent: Dr. Carlo Velten ist Vorstandsvorsitzender des IT-Research- und Beratungsunternehmens Crisp Research. Seit über 15 Jahren berät Carlo Velten als Analyst namhafte Unternehmen in Technologie- und Strategiefragen.
BARC Studie Webinar: Ausgereifte Analysen mit Apache HadoopCloudera, Inc.
Sowohl die Technologie Hadoop als auch das Konzept Data Lake sind erst seit kurzer Zeit im Enterprise-Kontext im Einsatz. Entsprechend fällt es Unternehmen häufig schwer, zwischen medialer Überhöhung und tatsächlich realisierbaren Mehrwert zu unterscheiden. Ob es Unternehmen gelingt, sich die Vorteile zunutze zu machen, untersucht diese Studie zum Stand und zur zukünftigen Entwicklung von Big Data und dessen Anwendungsfälle in Unternehmen. Mit weltweit über 380 Teilnehmern bei einer breit gefächerten Branchenverteilung gehört die vorliegende Studie „Hadoop und Data Lakes“ zu den größten Untersuchungen, die sich speziell den Herausforderungen bei der Datenanalyse mit Hadoop widmen.
Neo4j Use Cases - Graphdatenbanken im EinsatzNeo4j
Wenn es an der Zeit ist eine Datenbank für Ihr Projekt auszuwählen, gibt es inzwischen eine verwirrende Anzahl von Auswahlmöglichkeiten. Woher wissen Sie, wann Ihr Projekt gut für eine relationale Datenbank ist, oder ob einer der vielen NoSQL-Optionen eine bessere Wahl darstellt?
In diesem Webinar betrachten wir wann Neo4j zum Einsatz kommen sollte und wo die Vorzüge darin liegen. Dies wird anhand von Kundenbeispielen mit konkreten Einsatzszenerien erläutert.
Jahrzehnt des Kontrollverlustes
Für Prof. Dr. Diego Kuonen ist klar: Das vergangene Jahrzehnt war die Dekade, in der wir die Kontrolle über die Daten, unsere Daten, verloren haben. Kriegen wir sie wieder zurück? Oder ist es schon zu spät? Ein Gespräch über das digitale Zeitalter, übers Haare schneiden und Raclette machen.
Der Artikel ist online verfügbar https://www.1815.ch/news/newsletter/wb/ein-robo-coiffeur-das-kriegt-man-mit-kuenstlicher-intelligenz-niemals-hin/
Perspektiven und Trends: + Wo prägt Big Data den digitalen Wandel? + Welche Technologien helfen?
Big Data Lab: + Wie gelingt der Schnellstart in die neue Informationsökonomie?
Praxiserfahrungen: + Welche Erfahrungen machen andere? + Wo steht Ihre Branche?
Webinar - Sehr empfehlenswert: wie man aus Daten durch maschinelles Lernen We...Cloudera, Inc.
Unternehmen sind heutzutage in der Lage ihre Daten mit relativer Leichtigkeit aufzunehmen und zu verwalten. Die Herausforderung besteht nun darin, die verborgenen Muster in den Daten zu erkennen und diese zu verstehen, um einen Mehrwert zu generieren. Aufgrund der großen Datenmengen gelingt dies mit traditionelle Ansätzen zumeist nicht. Das Ergebnis: Organisationen kämpfen, um wirklich zu innovieren und sich zu differenzieren.
Der Vortrag zeigt die Grenzen bisheriger Lösungen und gibt einen Überblick über neue Lösungen.
Er zeigt, wie Systemlandschaften weltweit tätiger (Internet-)Konzerne aussehen und leitet daraus herunterskalierte, praktikable Lösungen auch für kleinere Unternehmen mit weit weniger Datenvorkommen ab.
Der Vortrag zeigt die Grenzen bisheriger Lösungen und gibt einen Überblick über neue Lösungen.
Er zeigt, wie Systemlandschaften weltweit tätiger (Internet-)Konzerne aussehen und leitet daraus herunterskalierte, praktikable Lösungen auch für kleinere Unternehmen mit weit weniger Datenvorkommen ab.
Der Vortrag zeigt die Grenzen bisheriger Lösungen und gibt einen Überblick über neue Lösungen.
Er zeigt, wie Systemlandschaften weltweit tätiger (Internet-)Konzerne aussehen und leitet daraus herunterskalierte, praktikable Lösungen auch für kleinere Unternehmen mit weit weniger Datenvorkommen ab.
Bedarfsprognosen für optimale WarenverfügbarkeitMathias Golombek
Bedarfsprognosen für optimale Warenverfügbarkeit
Der klassische Handel und E-Commerce bewegen sich immer auf einem schmalen Grat zwischen einem erhöhten Out-of-Stock-Risiko und Nichtverkäufen aufgrund zu hoher Margen. Die optimale Lagermenge eines Artikels zu kennen, bedeutet aber nicht nur, dass die Regale immer in der richtigen Menge gefüllt sind. Es senkt auch Folgekosten für Lagerung oder Logistik. Um solch wichtige Vorhersagen treffen zu können, benötigen Händler verlässliche und genaue Analysen, damit Über- wie auch Unterbestände in Zukunft der Vergangenheit angehören. Blue Yonder bietet mit seinen Predictive Applications eine sichere Entscheidungsbasis. Dabei kombiniert das Unternehmen die Intelligenz ihrer Software mit der Analysestärke von EXASolution.
This presentation, by big data guru Bernard Marr, outlines in simple terms what Big Data is and how it is used today. It covers the 5 V's of Big Data as well as a number of high value use cases.
Learn what are the challenges to embrace big data and how AWS enables your organisation to resolve challenges and leverage Big Data for Digital Transformation and innovation.
Queremos presentarte a Tabimed. En este dossier comercial conocerás a qué se dedica Tabimed, sus valores y sus servicios.
¡Gracias por conocernos!
Más información en http://www.tabimed.es
Cloud Wars – what‘s the smartest data platform? Vergleich Microsoft Azure, Am...inovex GmbH
Die großen Public-Cloud-Anbieter locken inzwischen mit vielversprechenden Platform-as-a-Service-Angeboten um Daten jeglicher Art performant und kosteneffizient zu speichern und zu verarbeiten. Neben unterschiedlichen Datenbanken gibt es dazu Dienste für Batch- und Realtime-Processing. In diesem Vortrag werden einige der wichtigen Data Driven Services anhand eines typischen IoT-Szenarios aus der Praxis beleuchtet. Dazu gehen drei Schwergewichte des Cloud Business ins Rennen: Microsoft Azure vs. Amazon Web Services vs. Google Cloud Platform.
Event: inovex Meetup: "Let's talk about the Cloud!", 22.06.2016
Speaker: Thomas Neureuther, Stefan Kirner, inovex GmbH
Mehr Technologie-Vorträge: https://www.inovex.de/de/content-pool/vortraege/
Users leave thousands of traces per second on a successful ecommerce site. It’s very pragmatic to analyse and react on this trace event stream in realtime. This is called clickstream analysis. In the talk I’ll present a software architecture based on Apache Spark which is able to process thousands of clickstream events per second. A product based on this architecture is in production since mid 2015 and is still performing well. The building blocks of the architecture beside Spark are Kafka to handle the inbound event stream, Spark Streaming for initial stream processing and Parquet as serialization format. I argue why we’ve chosen these technologies and what experiences we had in developing, launching and operating the product.
Clickstream Analysis with Spark - Understanding Visitors in Real TimeQAware GmbH
Spark Summit East 2016, New York City: Talk by Josef Adersberger (@adersberger, CTO at QAware).
Abstract: Users leave thousands of traces per second on a successful ecommerce site. It’s very pragmatic to analyse and react on this trace event stream in realtime. This is called clickstream analysis. In the talk I’ll present a software architecture based on Apache Spark which is able to process thousands of clickstream events per second. A product based on this architecture is in production since mid 2015 and is still performing well. The building blocks of the architecture beside Spark are Kafka to handle the inbound event stream, Spark Streaming for initial stream processing and Parquet as serialization format. I argue why we’ve chosen these technologies and what experiences we had in developing, launching and operating the product.
DIe Aufzeichnung dieses Webinars steht hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Amazon Redshift ist ein schneller und mächtiger, voll verwalteter Data Warehouse Dienst in der Cloud. Redshift skaliert von Terabytes bis über ein Petabyte bei sehr günstigen Kosten. In diesem Webinar geben wir einen Überblick über den Dienst, zeigen das Aufsetzen eines Redshift-Clusters, die Verwaltung, den Datenimport und die Abfrage des Data Warehouse über SQL und über Partnerwerkzeuge.
Die Public Cloud bietet Innovationen, die Unternehmen in den nächsten Jahren dringend brauchen. So hat Amazon Web Services allein im vergangenen Jahr über 700 neue, hilfreiche und produktive Dienste bereitgestellt.
Allerdings ist die Transformation vom eigenen Rechenzentrum hin zur Public Cloud nicht immer einfach. Neben der technischen Vorgehensweise stellen sich Fragen zu Sicherheit, Datenschutz, Monitoring, Reporting und Support.
Hilfe beim Einstieg in die Cloud-Angebote von AWS leisten Managed Public Cloud Provider (MPCP) wie Claranet. Erst mit ihnen lässt sich das volle Potenzial der Public Cloud ausschöpfen. Das Webinar zeigt Ihnen konkret, wie MPCP Sie auf dem Weg in die Cloud unterstützen.
Learning Objectives:
• Das kann die Public Cloud für Ihr Unternehme leisten.
• Das sind die Herausforderungen auf dem Weg in die Cloud.
• So helfen Managed Public Cloud Provider (MPCP), die Dienste von AWS zu nutzen.
• So haben andere Unternehmen ihre Projekte dank MPCP bereits erfolgreich in die Cloud gebracht.
Who Should Attend:
CTOs, CIOs, CISOs, IT-Leiter, IT Administrator, IT Architects and IT Security Engineers
Einführung in AWS - Übersicht über die wichtigsten Services AWS Germany
Jetzt Webinar-Recording ansehen: http://amzn.to/1QXivOC
Cloud Computing bietet eine einfache Möglichkeit des Zugriffs auf Server, Speicher, Datenbanken und eine umfassende Palette von Anwendungsservices über das Internet. Millionen von Kunden nutzen Amazon Web Services jeden Monat, um anspruchsvolle, skalierbare und sichere Applikationen in der Cloud abzubilden.
In gleichnamigen Webinar stellen wir Ihnen die wichtigsten Services von AWS, Anwendungsgebiete und Kundenbeispiele vor. Unter anderem: EC2, ECS, Lambda, S3, RDS Aurora, Dynamo und Redshift.
Big Data in die Cloud auslagern? Warum und wenn ja, bei welchem Provider? Anhand von vier Beispielen können Sie eine geeignete Lösung finden. Verglichen werden AWS, Google Cloud, IBM Bluemix und Microsoft Azure
Auf gehts in die Cloud: „Das kann doch nicht so schwer sein!“OPEN KNOWLEDGE GmbH
„Cloud is the new Normal”, so Andrew R. Jassy (CIO AWS). Was also liegt näher, als genau jetzt den Schritt in die Cloud zu wagen? Denn schließlich wollen wir ja alle irgendwie ein klein wenig „normal“ sein. Aber ist dieser Schritt wirklich so einfach, wie uns die verschiedenen Cloudanbieter glauben machen? Lässt sich eine klassische Enterprise-Architektur einfach so in die Cloud überführen oder bedarf es neuer cloud-spezifischer Architekturmuster? Und was steckt eigentlich hinter Akronymen wie IaaS, PaaS, BaaS, SaaS und FaaS?
Im Rahmen der Session werden ich Schritt für Schritt eine bestehende Enterprise-Anwendung in die Cloud migrieren. Angefangen bei der Nutzung von Cloudinfrastruktur (IaaS) über die Anbindung von Cloudplattformkomponenten (PaaS) und Backend-Services (BaaS) bis hin zu Serverless Functions (FaaS) werden wir für die unterschiedlichen Anwendungsszenarien unserer Applikation passende Architekturansätze entwerfen und deren Vor- und Nachteile diskutieren. Natürlich sprechen wir dabei auch Themen wie Testing, Monitoring und automatisiertes Deployment an.
MongoDB Atlas – der beste Weg, MongoDB in der Cloud zu betreiben 2MongoDB
MongoDB Atlas ist ein Database-as-a-Service-Angebot, mit dem Sie mit wenigen Mausklicks eine MongoDB-Datenbank in der Cloud einrichten, betreiben und skalieren können.
* Schutz der Daten in MongoDB Atlas
* Erstellung eines privaten Netzwerks mit VPC-Peering
* Einfacher Import von MongoDB-Implementierungen in MongoDB Atlas mit Live-Import und Mongo Mirror
* Nutzung der Echtzeit-Leistungsanzeige zur Überwachung der Datenbank in Echtzeit
Auf geht‘s in die Cloud: „Das kann doch nicht so schwer sein!“OPEN KNOWLEDGE GmbH
„Cloud is the new Normal”, so Andrew R. Jassy (CIO AWS). Was also liegt näher, als genau jetzt den Schritt in die Cloud zu wagen? Denn schließlich wollen wir ja alle irgendwie ein klein wenig „normal“ sein. Aber ist dieser Schritt wirklich so einfach, wie uns die verschiedenen Cloudanbieter glauben machen? Lässt sich eine klassische Enterprise-Architektur einfach so in die Cloud überführen oder bedarf es neuer Cloud-spezifischer Architekturmuster? Wie kann uns das Cloud Maturity Model dabei helfen? Und was steckt eigentlich hinter Akronymen wie IaaS, PaaS, BaaS, SaaS und FaaS?
Im Rahmen des Worskhops werde ich eine klassische Enterprise Anwendung Schritt für Schritt in die Cloud migrieren und dabei die verschiedenen Stufen / Reifegrade des Cloud Maturity Models durchlaufen. Angefangen bei "Lift & Shift" bis hin zu "Cloud Native" und "Cloud Voodoo – aka Serverless".
Dotnet Cologne 2015: //Rebuild - Big Data Analysis End-to-EndOlivia Klose
Predictive Analytics oder Data Science sind in einer Zeit, in der die Menge an Daten stetig zunimmt, wertvolle Hilfsmittel. Die Einsatzbereiche sind vielfältig und reichen von der Vorhersage von Fußballergebnissen über persönliche Kaufempfehlungen in Online-Shops bis zum Ergreifen präventiver Wartungsmaßnahmen in der industriellen Produktion.
In diesem Vortrag werden verschiedene Dienste der Azure-Datenplattform vorgestellt, mit denen aus der Datenflut hilfreiche Erkenntnisse gewonnen werden können.
Cloud Computing und dessen zugrunde liegenden Konzepte sind in deutschen Unternehmen nicht nur bekannt, sondern haben schon fast einen festen Platz gefunden – so die allgemeine Analysten-Meinung. In der Überzeugung, dass sich mit Cloud Computing eine Revolution in der IT-Bereitstellung und -nutzung abzeichnet, will die Präsentation dazu beitragen, dass sich Unternehmen mit Cloud Computing auseinandersetzen und dessen Potenziale für ihr Business erkennen. Aber auch die Risiken werden diskutiert.
Analytics Web Day | From Theory to Practice: Big Data Stories from the FieldAWS Germany
Listen to this session to get some insights from two recent implementations of cloud-based Big Data clusters. The purpose of the first solution is DWH Offloading and Machine Learning in the telecommunications industry. The session will cover how we established the data transfer between on-premises server and cloud services. In addition, we will talk about Spark jobs on EMR-cluster, Hive with GlueCatalog to query data stored in S3, quick analytics with Athena, hosting and testing Exasol on EC2-Instances and the provisioning of the cloud infrastructure with CloudFormation. Looking at an earlier phase in the AWS adoption lifecycle, we will also talk about an insurance company finding their way into the AWS cloud. Their goal is to complement their existing enterprise DWH with more agile and data science oriented tools from the cloud, aiming at machine learning and artifical intelligence to complement their claims workflow. In this part we will cover topics like security setup in IAM, connectivity configuration in EC2 and EMR, all complemented with S3 for their storage needs.
Speakers: Roland Wammers, Matthias Diekstall, Manuel Marowski, Opitz Consulting Deutschland GmbH
Analytics Web Day | Query your Data in S3 with SQL and optimize for Cost and ...AWS Germany
The previous presentation showed how events can be ingested and analyzed continuously in real time. One of Big Data's principles is to store raw data as long as possible - to be able to answer future questions. If the data is permanently stored in Amazon Simple Storage Service (S3), it can be queried at any time with Amazon Athena without spinning up a database.
This session shows step by step how the data should be structured so that both costs and response times are reduced when using Athena. The details and effects of compression, partitions, and column storage formats are compared. Finally, AWS Glue is used as a fully managed service for Extract Transform Load (ETL) to derive optimized views from the raw data for frequently issued queries.
Speaker: Steffen Grunwald, Senior Solutions Architect, AWS
Modern Applications Web Day | Impress Your Friends with Your First Serverless...AWS Germany
"Build and run applications without thinking about servers". You want it? You get it! We will start this session with a motivation why serverless applications are a thing. Once we got there, we will actually start building one, of course with making use of a serverless CI/CD pipeline. After we will have looked into how we can still test it locally, we shall also dive into analyzing and debugging our app - of course in a serverless manner.
Speaker: Dirk Fröhner, Senior Solutions Architect, AWS
Modern Applications Web Day | Manage Your Infrastructure and Configuration on...AWS Germany
It's easy to say - "Hey I will use the cloud and be scalable and elastic!" - But it is not easy managing all that at scale, and keeping it flexible! Let's talk about Infrastructure as Code and Configuration as Code! This session will help you grasp the available toolset and best practices when it comes to managing your infrastructure and configuration on AWS. It will show you how can you make any changes to your workload with a single 'git push origin master'
Speaker: Darko Meszaros, Solutions Architect, AWS
Modern Applications Web Day | Container Workloads on AWSAWS Germany
Containers gained strong traction since day one for both enterprises and startups. Today AWS customers are launching hundreds of millions of new containers – each week. Join us as we cover the state of containerized application development and deployment trends. This session will dive deep on new container capabilities that help customers deploying and running container-based workloads for web services and batches.
Speaker: Steffen Grunwald, Senior Solutions Architect, AWS & Sascha Möllering, Senior Solutions Architect, AWS
Modern Applications Web Day | Continuous Delivery to Amazon EKS with SpinnakerAWS Germany
With more and more application workloads moving to Kubernetes, the interest in managed Kubernetes services in enterprises is increasing. While Amazon EKS will make operations easier, an efficient and transparent delivery pipeline becomes more important than ever. This will provide an increased application development velocity that will directly convert into a competitive advantage with fast paced digital services. While established tools such as Jenkins can be used quite efficiently for CI tasks, modern cloud-native tools like Spinnaker are gaining attention by focusing more in the continuous delivery process. We will show you how Spinnaker and its new Kubernetes v2 provider can be utilized together with Amazon EKS to streamline your application deployments.
Speaker: Jukka Forsgren, nordcloud
The most common way to start developing for Alexa is with custom skills while not too many of us except for device manufacturers get in touch with Smart Home skills on Alexa. This session introduces and demonstrates the power of Smart Home skills and it takes a look behind the technical scene of what happens in between an “Alexa, turn on the lights” and Alexa´s final “Ok” confirmation. Once you are familiar with the concept of Smart Home skills you will find out that it’s not just for implementing large-scale Smart Home solutions as the Smart Home API is also a great playground for your next Do it Yourself project. At the end of this session you’ve learned about the probably simplest way to build a Smart Home project with Raspberry Pi and AWS IoT – and you will be equipped with essential knowledge on how to build your own voice-controlled “thing”.
Hotel or Taxi? "Sorting hat" for travel expenses with AWS ML infrastructureAWS Germany
Automating the boring task of submitting travel expenses we developed ML model for classifying recipes. Using AWS EC2, Lambda, S3, SageMaker, Rekognition we evaluated different ways of training model and serving predictions as well as different model approaches (classical ML vs. Deep Learning).
Wild Rydes with Big Data/Kinesis focus: AWS Serverless WorkshopAWS Germany
This is a hands-on workshop where every participant will not only learn how to architect and implement a serverless application on Amazon Web Services using nothing but serverless resources for all layers in theory, but actually do it in practice, with all the necessary support from the speakers. Serverless computing allows you to build and run applications and services without thinking about servers. Serverless applications don't require you to provision, scale, and manage any servers. You can build them for nearly any type of application or backend service, and everything required to run and scale your application with high availability is handled for you. Building serverless applications means that developers can focus on their core product instead of worrying about managing and operating servers or runtimes. This reduced overhead lets developers reclaim time and energy that can be spent on developing great products which scale and that are reliable.
Nearly everything in IT - servers, applications, websites, connected devices, and other things - generate discrete, time-stamped records of events called logs. Processing and analyzing these logs to gain actionable insights is log analytics. We'll look at how to use centralized log analytics across multiple sources with Amazon Elasticsearch Service.
Deep Dive into Concepts and Tools for Analyzing Streaming Data on AWS AWS Germany
Querying streaming data with SQL to derive actionable insights at the point of impact in a timely and continuous fashion offers various benefits over querying data in a traditional database. However, although it is desirable for many use cases to transition to a stream based paradigm, stream processing systems and traditional databases are fundamentally different: in a database, the data is (more or less) fixed and the queries are executed in an ad-hoc manner, whereas in stream processing systems, the queries are fixed and the data flows through the system in real-time. This leads to different primitives that are required to model and query streaming data.
In this session, we will introduce basic stream processing concepts and discuss strategies that are commonly used to address the challenges that arise from querying of streaming data. We will discuss different time semantics, processing guarantees and elaborate how to deal with reordering and late arriving of events. Finally, we will compare how different streaming use cases can be implemented on AWS by leveraging Amazon Kinesis Data Analytics and Apache Flink.
Zehntausende gemeinnützige und nichtstaatliche Organisationen weltweit verwenden AWS, damit sie sich auf ihre eigentliche Mission konzentrieren können, statt ihre IT-Infrastruktur zu verwalten. Die Anwendungsgebiete von Nonprofits und NGOs sind dabei genauso vielfältig, wie bei Enterprise oder Start-up oder anderen AWS-Anwendern im öffentlichen Sektor. Gemeinnützige Organisationen und NGOs nutzen AWS z.B. um hochverfügbare und hochskalierbare Websites zu erstellen, um ihre Spendenaktionen und Öffentlichkeitsarbeit effizient zu verwalten, oder um Nutzen aus Big Data Anwendungen zu ziehen.
In dieser Sitzung werden wir einen Blick auf die verschiedenen AWS-Programme werfen, die gemeinnützigen Organisationen den Einstige in AWS und die Umsetzung ihrer IT-Projekte erleichtern. Insbesondere informieren wir auch über das Angebote mit Stifter-Helfen.de - dem deutschen TechSoup-Partner. Dieses Angebot stellt den begünstigten Organisationen pro Jahr $2.000 in AWS Credit Codes zu Verfügung.
Die Session richtet sich an alle, die sich für einen guten Zweck engagieren wollen und dabei nicht auf innovative Cloud-Services zur Umsetzung ihrer IT-Projekte verzichten wollen. Für die Teilnahme and der Session sind keine technischen Vorkenntnisse notwendig
Serverless vs. Developers – the real crashAWS Germany
With serverless things are getting really different. Commodity building blocks from our cloud providers, functional billing, serverless marketplaces etc. are going to hit the usual “Not invented here”3 syndrome in organizations.
Many beloved things have to be un- or re-learned by software developers. How can we prepare our organizations and people for unlearning old patterns and behaviours? Let’s have a look from a knowledge management perspective.
Objective of the talk:
Intro into systemic knowledge management
Query your data in S3 with SQL and optimize for cost and performanceAWS Germany
Streaming services allow you to ingest and analyze events continuously in real time. One of Big Data's principles is to store raw data as long as possible - to be able to answer future questions. If the data is permanently stored in Amazon Simple Storage Service (S3), it can be queried at any time with Amazon Athena without spinning up a database.
This session shows step by step how the data should be structured so that both costs and response times are reduced when using Athena. The details and effects of compression, partitions, and column storage formats are compared. Finally, AWS Glue is used as a fully managed service for Extract Transform Load (ETL) to derive optimized views from the raw data for frequently issued queries.
Secret Management with Hashicorp’s VaultAWS Germany
When running a Kubernetes Cluster in AWS there are secrets like AWS and Kubernetes credentials, access information for databases or integration with the company LDAP that need to be stored and managed.
HashiCorp’s Vault secures, stores, and controls access to tokens, passwords, certificates, API keys, and other secrets . It handles leasing, key revocation, key rolling, and auditing.
This talk will give an overview of secret management in general and Vault’s concepts. The talk will explain how to make use of Vault’s extensive feature set and show patterns that implement integration between Kubernetes applications and Vault.
Running more than one containerized application in production makes teams look for solutions to quickly deploy and orchestrate containers. One of the most popular options is the open-source project Kubernetes. With the release of the Amazon Elastic Container Service for Kubernetes (EKS), engineering teams now have access to a fully managed Kubernetes control plane and time to focus on building applications. This workshop will deliver hands-on labs to support you getting familiar with Amazon's EKS.
Our challenge is to provide a container cluster as part of the Cloud Platform at Scout24. Our goal is to support all the different applications with varying requirements the Scout24 dev teams can throw at us. Up until now, we have run all of them on the same ECS cluster with the same parameters. As we get further into our AWS migration, we have learned this does not scale. We combat this by introducing categories in one cluster with different configurations for the service. We will introduce how we tune each category differently, with different resource limits, different scaling approaches and more…
Containers gained strong traction since day one for both enterprises and startups. Today AWS customers are launching hundreds of millions of new containers – each week. Join us as we cover the state of containerized application development and deployment trends. This session will dive deep on new container capabilities that help customers deploying and running container-based workloads for web services and batches.
Deploying and Scaling Your First Cloud Application with Amazon LightsailAWS Germany
Are you looking to move to the cloud, but aren’t sure quite where to start? Are you already using AWS, and are looking for ways to simplify some of your workflows? If you answered “yes” (or even “maybe”) to either one of those questions, this session / hands-on workshop is for you. We’re going to take you through using Amazon Lightsail, an AWS service that provides the quickest way to get started in the cloud, to deploy and scale an application on AWS.
10. Wer ist Ihr Kunde wirklich?
Was mögen Kunden wirklich?
Was geschieht sozial mit Ihren
Produkten?
Wie verwenden Ihre Kunden Ihre
Produkte tatsächlich?
15. HPC Computing
Große Algorithmen & Modelle
Websites
Blogs/Reviews/Emails/Bilder
Soziale Graphen
Facebook, Linked In, Kontakte
Application Server Logs
Websites, Spiele...
Datensammlung und
-auswertung
Bioanalyse, Bergbau, Ingenieurwesen
Sensordaten
Wetter, Wasser, Smart Grids
Bilder/Videos
Verkehr, Überwachungskameras
Twitter
50m Tweets/Tag, 1400% Wachstum
pro Jahr
Warum jetzt?
ComputeStorage Big Data
16. HPC Computing
Große Algorithmen & Modelle
Websites
Blogs/Reviews/Emails/Bilder
Soziale Graphen
Facebook, Linked In, Kontakte
Application Server Logs
Websites, Spiele...
Datensammlung und -
auswertung
Bioanalyse, Bergbau, Ingenieurwesen
Sensordaten
Wetter, Wasser, Smart Grids
Bilder/Videos
Verkehr, Überwachungskameras
Twitter
50m Tweets/Tag, 1400% Wachstum
pro Jahr
Warum jetzt?
ComputeStorage Big Data
Mobil verbundene Welt
(Daten einfacher zu sammeln,
mehr Menschen generieren Daten)
17. HPC Computing
Große Algorithmen & Modelle
Websites
Blogs/Reviews/Emails/Bilder
Soziale Graphen
Facebook, Linked In, Kontakte
Application Server Logs
Websites, Spiele...
Datensammlung und -
auswertung
Bioanalyse, Bergbau, Ingenieurwesen
Sensordaten
Wetter, Wasser, Smart Grids
Bilder/Videos
Verkehr, Überwachungskameras
Twitter
50m Tweets/Tag, 1400% Wachstum
pro Jahr
Warum jetzt?
ComputeStorage Big Data
Mehr Aspekte der Daten
(Vielfalt, Tiefe, Ort, Häufigkeit)
18. HPC Computing
Große Algorithmen & Modelle
Websites
Blogs/Reviews/Emails/Bilder
Soziale Graphen
Facebook, Linked In, Kontakte
Application Server Logs
Websites, Spiele...
Datensammlung und -
auswertung
Bioanalyse, Bergbau, Ingenieurwesen
Sensordaten
Wetter, Wasser, Smart Grids
Bilder/Videos
Verkehr, Überwachungskameras
Twitter
50m Tweets/Tag, 1400% Wachstum
pro Jahr
Warum jetzt?
ComputeStorage Big Data
Reichhaltigkeit erhalten
(man muss nicht mitteln, aggregieren oder löschen)
19. ComputeStorage Big Data
100 GB 1,000 PB
Herausforderungen fangen bei relativ kleinen Datenmengen an
Big Data mit AWS
20. Wenn Datenmengen und Datenanalysen so weit skalieren müssen, dass
Sie innovativ sein müssen mit
Sammlung, Speicherung, Organisation, Analyse und Weitergabe der
Daten
ComputeStorage Big Data
Big Data mit AWS
25. Wohin packen Sie Ihren Anteil?
Sammlung - Laden
AWS Direct Connect
Dedizierte Leitung zwischen Ihrem
RZ und AWS
Queuing
Zuverlässiges Messaging für
verteilte Aufgaben
Amazon Storage Gateway
Gateway zwischen Ihrer
Storage und AWS Storage
AWS Import/Export
Datentransfer auf physischen
Medien von und nach AWS
ComputeStorage Big Data
26. ComputeStorage Big Data
Relational Database Service
Voll verwaltete Datenbank
(MySQL, Oracle, MSSQL)
DynamoDB
NoSQL, schemafreie
Datenbank mit
provisioniertem Durchsatz
Simple Storage Service (S3)
Objektspeicher mit bis zu 5TB
pro Objekt
99,999999999% Dauerhaftigkeit
Wohin packen Sie Ihren Anteil?
28. ComputeStorage Big Data
Glacier – Komplettes Lifecycle Management
Daten-Import
Physische Datenträger an
AWS zum Laden der Daten
z.B. 50TB Sensordaten in ein
EBS Volumes mit einem
Gluster Filesystem
Berechnung &
Visualisierung
HPC & EMR Cluster Jobs auf
vielen tausend Cores
z.B. 200TB
Visualisierungsdaten
generiert von der
Clusterverarbeitung
Langzeitarchiv
Nach Abschluss der Analyse
werden die Daten ins Glacier
Archiv statt auf Tapes
gespeichert
Kosteneffizient im Vergleich
mit Tape, Zugriffszeit 3-5
Stunden wenn Daten benötigt
werden
29. ComputeStorage Big Data
Scale Price
Performance
Wie schnell müssen Sie Daten lesen können?
Einstellige
Millisekunden
10 -100te
Millisekunden
<5 Stunden
DynamoDB
Skalierbare Anwendungen
Provisionierter Durchsatz
Flexible Konsistenzmodelle
S3
Jedes Objekt, jede App
99,999999999% Dauerhaftigkeit
Objekte bis 5TB Größe
Glacier
Media & Asset Archiv
Sehr geringe Kosten
Dauerhaftigkeit wie S3
31. ComputeStorage Big Data
Scale Price
Performance
Bezahlung nach Verbrauch
Provisioned
IOPS
Provisionierte
Lese/Schreibperformance pro
DynamoDB Tabelle/EBS Volume
Bezahlung für provisionierte
Kapazität, unabhängig von der
Nutzung
Genutzter
Speicherplatz
Bezahlung nach gespeichertem
Volumen &
Lese/Schreibvorgänge
Keine Kapazitätsplanung
erforderlich für unbegrenzten
Speicherplatz
32. ComputeStorage Big Data
„Big Data“ ändert die Dynamik von Berechnung und Datenweitergabe
Sammlung ZusammenarbeitBerechnung
Wie beschaffe ich die Daten?
Wohin packe ich sie?
Welche Rechenleistung
kann ich anwenden?
Wie arbeite ich mit
anderen zusammen?
33. ComputeStorage Big Data
Direct Connect
Import/Export
S3
DynamoDB
EC2
GPUs
Elastic Map Reduce
Cloud Formation
Simple Workflow
S3
„Big Data“ ändert die Dynamik von Berechnung und Datenweitergabe
Sammlung ZusammenarbeitBerechnung
Wie beschaffe ich die Daten?
Wohin packe ich sie?
Welche Rechenleistung
kann ich anwenden?
Wie arbeite ich mit
anderen zusammen?
45. ComputeStorage Big Data
Elastic MapReduce
Verwalteter, elastischer Hadoop Cluster
Integration mit S3 & DynamoDB
Nutzt Hive & Pig Analytics Scripts
Integration mit EC2 Optionen wie Spot
Instanzen
Hadoop-as-a-Service – Elastic MapReduce
46. Feature Details
Skalierbar Verwenden Sie so viele Hadoop Compute Instanzen
wie Sie wollen. Ändern Sie die Anzahl der Instanzen
während der Job Flow läuft
Integriert mit anderen
Diensten
Nahtlose Integration mit S3 als Quelle oder Ausgabe
Integration mit DynamoDB
Umfassend Unterstützt Hive und Pig für Definition der Analysen,
und komplexe Jobs in Cascading, Java, Ruby, Perl,
Python, PHP, R, oder C++
Kosteneffizient Unterstützt Spot Instanzen
Monitoring Überwachung der Job Flows aus der AWS Konsole
Elastic MapReduce
Verwalteter, elastischer Hadoop Cluster
Integration mit S3 & DynamoDB
Nutzt Hive & Pig Analytics Scripts
Integration mit EC2 Optionen wie Spot
Instanzen
68. Data Architecture
Data Analyst
Raw Data
Get
Data
Join via Facebook
Add a Skill Page
Invite Friends
Web Servers Amazon S3
User Action Trace Events
EMR
Hive Scripts Process Content
• Process log files with regular
expressions to parse out the info
we need.
• Processes cookies into useful
searchable data such as Session,
UserId, API Security token.
• Filters surplus info like internal
varnish logging.
Amazon S3
Aggregated Data
Raw Events
Internal Web
Excel Tableau
Amazon Redshift
69. Features, die Amazon Elastic
MapReduce nutzen:
Diese Geschäfte könnten dich auch interessieren...
Beitrags-Highlights
Automatische Ergänzung bei der Eingabe
Rechtschreib-Vorschläge
Top Suchen
Werbung
200 Elastic MapReduce Jobs pro Tag
verarbeiten 3TB Daten
70.
71.
72.
73.
74. Alles, was eine beschränkte
Ressource war
ist jetzt eine programmierbare
Ressource