für Maschinen und Geräte
Big Data im Überblick 
Big Data – Hype oder Game Changer? 
Big Data in traditionellen Industrien 
Daten als Rohstoff für d...
Datenbanken für die Cloud 
Ära der Relationalen Datenbanken 
Probleme in der Cloud 
Der Vormarsch von NoSQL 
50 
51 
52 
5...
Das eBook ist optimiert für eine 
digitale Nutzung und enthält etliche interaktive Elemente die durch das Hand-Icon als kl...
5 
Big Data und 
vernetzte Geräte 
verändern die Industrie 
Durch die Übermittlung und Verarbeitung der Nutzungs- und Sens...
Für Konsumgüter ergeben sich neue Formen der Interaktion mit dem Kunden und neue Geschäftsmodelle rund um das vernetzte Pr...
7 
Big Data in 
traditionellen 
Industrien 
Die Big-Data-Technologien eröffnen insbesondere für Industrie-Unternehmen extr...
Daten als 
Rohstoff: Big Data in der Industrie 
Gernot Trautmann 
6 Thesen als Weckruf 
• Daten für «Big-Data»- Analysen s...
9 
«Big Data»- ein Hauch von Gigantismus schwingt mit, 
vielleicht sogar Respekt oder schlichtweg eine völlige 
Unterschät...
Rohe Diamanten: Daten in der 
Industrie 
Nun gibt es in der Industrie, die auf Automatisierungs- 
technik setzt, natürlich...
11 
Daten als 
Rohstoff und 
deren Gewinnung 
Menschen, die auf Erdöl oder Kupfer stoßen, können erfolgreich werden, wenn ...
Sensoren, die mehr als ein Bit Informationsgehalt bieten, sind nun gefragt. 
12 
Nehmen wir ein Beispiel: 
Das Auto als mo...
13 
Über die 
Veredelung 
von Daten 
Die bisher oft eingesetzte Automatisierungspyramide wird hier versagen. Denn Sensorda...
Rohdaten erfassen 
Nützliche Daten rausfiltern 
- implizite Semantik durch 
Weglassen 
Quantifizieren 
- explizite Semanti...
Einige Sensoren decken bereits zu viele Schritte ab, als dass deren Daten einer 
Zweitverwertung zugeführt werden könnten....
16 
Lagern und 
veredeln: 
Big Data in der 
Industrie (2) 
Im vorhergehenden Artikel habe ich über die Erfassung und 
Spei...
17 
Natürlich sind viele weitere nützliche 
Eigenschaften wie Transaktionssicherheit etc. dazugekommen. 
Diese Datenbanksy...
18 
Man könnte natürlich auf die Idee kommen, diese Verbindungen nachträglich einzubauen. Was aber, wenn der Grund für den...
19 
Big Data - 
was tun mit 
den Bedenken? 
All die Potenziale und Chancen sind gut 
und schön. Aber worauf muss ich ach-t...
Der wohl größte Hebel zur Vermeidung von Übertragungsengpässen ist die Reduktion an der Datenquelle. Betrachtet man Datenq...
Vernetzte Produkte und Big-Data-Technologien 
wie Cloud und NoS-QL 
passen wunderbar zusammen. 
Der Vortrag verdeutlicht d...
Viele Begriffe - eine Idee: der Datenrausch zwischen Produkten 
Viele mittelständische Firmen haben noch keine konkrete Vo...
Quelle: Plattform Industrie 4.0 
Wofür steht 
Industrie 4.0? 
«Der Begriff Industrie 4.0 steht für die vierte industrielle...
24 
Auch hier geht es um die Vernetzung – diesmal nicht hin zum vom Kunden gekauften Produkt, sondern zur Produktion selbs...
25 
Dezentrale 
Produktions-steuerung 
Klassische Massenfertigung 
Durch die Ausstattung mit lokaler Intelligenz 
kann der...
26 
Will man dieses Ziel 
erreichen dann macht 
der Trend hin zur Dezentralisierung viel Sinn. 
Wie könnte so ein zukünfti...
Das Schaubild beschreibt unser Verständnis der Zusammenhänge und Prozesse in der Industrie 4.0 
27 
Unternehmens-IT trifft...
VDE Medtech zur mobil 
einsetzbaren Medizintechnik 
Connected Products – die 
Marktchancen nutzen 
Four Guidelines for dev...
Was steckt 
hinter dem 
Big-Data-Hype? 
Moritz Gomm 
Big Data und vernetzte Geräte passen gut zusammen. 
29 
Das Phänomen ...
30 
Was ist daran neu? 
NoSQL-Datenbanken verzichten auf das zwar generische jedoch auch einengende relationale Schema. 
S...
Wir sehen bei «Big Data» also aktuell 
einen «Technology-Push» im Mainstream,der durch den ursprünglichen «Market-Pull » d...
32 
Big-Data- 
Technologien für eine günstige IT der vernetzen Geräte 
Für die IT-Abteilung bietet sich durch die Cloud ei...
Cloud-gestützte 
Lösungsansätze 
Alexander Appel 
Nachdem wir den Einfluss von Big-Data-Technologien und Cloud Computing a...
34 
Anforderungen an das Back-End für vernetzte Geräte 
Echtzeitfähigkeit: Es gibt viele verschiedeneArten von Sensoren, d...
35 
Sicherer Rückkanal: Weiterhin ist es wichtig, die Geräte zu Hause fernsteuern zu können, im Idealfall über das gleiche...
Preisentwicklung Cloud Storage am Beispiel von Amazon S3 
36 
Was bedeutet «On-Demand»? 
Ein besonders Merkmal ist wie ang...
Hadoop steht aber neben der On-Demand-Variante auch in Form von Open-Source-Distributionen zur Verfügung. Diese sind im Ve...
38 
Cloud-unabhängige 
Software und IaaS 
Es gibt eine Reihe kommerzielle und Open-Source-Softwareprodukte, die sich sehr ...
39 
Diese Tools ermöglichen es, Software-Systeme weitgehend von der darunter liegenden Infrastruktur zu abstrahieren, was ...
40 
Datensicherheit 
in der Cloud 
Spätestens seit den letzten Enthüllungen von Edward Snowden darf 
dieses Thema nicht un...
41 
Die Chancen der Cloud nutzen 
Spezielle SaaS- oder PaaS-Angebote für vernetzte Geräte sind noch dünn gesät. 
Eine auf ...
Über die Möglichkeiten von Cloud-Technologien, 
die sich für die ver-netzte 
Zukunft ergeben. 
Beispiele aus der Praxis ve...
Die ideale Big-Data- 
Architektur 
Georg Molter 
Die Entscheidung für eine Big-Data-Architektur ist immer individuell. 
Ha...
44 
Ausgangspunkt für den Entwurf einer Big-Data-Architektur sollten die wesentlichen Business-Fragestellungen sein, die m...
45 
Wie sehen des weiteren die Vorgaben zur 
Datenspeicherung aus? 
Die Speicherung möglichst aller in Frage kommender Dat...
Die Lambda-Architektur – Auflösung des Trade-Offs zwischen Durchsatz und Verarbeitungslatenz 
46 
Von den 
Anforderungen z...
47 
Eine Architektur – viele Lösungen 
Die eigentliche Big-Data-Architektur für einen spezifischen Anwendungsfall ergibt s...
Die Vernetzung von Geräten und 
die Cloud führen zu neuen Anforde-rungen 
an die Architekturen und an 
die Architekten. 
W...
49 
Individuell 
kombinieren 
Insgesamt steht für Big-Data-Problemstellungen eine Vielzahl von Produkten und Lösungen bere...
Datenbanken 
für die Cloud 
Michael Lehmann 
Wenn es um die Cloud geht, stehen in der Regel als erstes die Daten und deren...
Relationale 
Datenbanken 
Bisher werden beinahe ausschließlich relationale Datenbanken, welche 1970 von Edgar F. Codd erst...
Probleme in der Cloud 
Engpass in relationalen Datenbank Clustern 
In der Cloud treffen wir ganz andere Voraussetzungen an...
NoSQL Datenbanken bilden Alternativen zu relationalen Datenbanken. Das erste Mal wurde der Begriff NoSQL von Carlo Strozzi...
Industrie 4.0 und Ihre 
Geschwister 
Philipp Harrschar 
Industrie 4.0 steht erst in den Startlöchern, schon wird von der n...
Ist das Thema 
«Vernetzung 
ermöglicht 
Mehrwert» neu? 
Nein. Mehrwert durch Vernetzung gibt 
es seit Jahrzehnten. 
Eine f...
Die 
Geschwister der Industrie 4.0 
Treten wir einen Schritt zurück und betrachten eine klassische Industrie-Wertschöpfung...
Was vereint die Familie Industrie 4.0 & Connected Products? 
Insofern kommen in vielen Fällen Menschen ins Spiel, die Conn...
58 
Sie erhalten Einblick in branchen-übergreifenden 
Erfahrungen – 
vom Felddatenmanagement, um 
die Produktentwicklung v...
After years of talking about ubiquitous computing, the Internet of Things is finally taking off. Miniaturization and the f...
1. Let your imagination run wild 
2. Verify the benefit 
After you have arrived at some great new idea like connected numb...
3. Design it for humans 
Humans are peculiar. They do not always follow logic. The have emotions. It is easy to get carrie...
Fachartikel in der Mobile Technology: 
Der Fachartikel, publiziert in der MobileTechnology 3/2012 beschreibt, wie CouchDB ...
Vortragsfolien 
NoSQL etabliert sich als ernstzu-nehmende 
Alternative zu relationa-len 
Datenbanken. Doch wo steht 
die T...
Praxisbeispiele 
Wie können wir den Zustand einer Baumaschine in Sibirien von der warmen Firmenzentrale aus überprüfen? Di...
Große Datenmengen sollen automatisiert gesammelt und ausgewertet 
werden. Die Gegenüberstellung der 
Lösungsansätze erfolg...
Autoren-Hinweise 
Stefan Grasmann 
Internet of Things 
Connected Products 
Cloud 
Mobile 
Design Thinking 
follow me 
abou...
Autoren-Hinweise 
Jörg Sitte 
Innovative Development Projects 
Software & Hardware 
Business & Visual Thinking 
Communicat...
Autoren-Hinweise 
Dr. Stephan Volmer 
Cloud Computing 
Enterprise Architecture 
Agile Methodologies 
Software Engineering ...
Nächste SlideShare
Wird geladen in …5
×

eBook: BigData fuer Maschinen und Geraete

1.168 Aufrufe

Veröffentlicht am

Veröffentlicht in: Technologie
0 Kommentare
2 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

Keine Downloads
Aufrufe
Aufrufe insgesamt
1.168
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
7
Aktionen
Geteilt
0
Downloads
26
Kommentare
0
Gefällt mir
2
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie

eBook: BigData fuer Maschinen und Geraete

  1. 1. für Maschinen und Geräte
  2. 2. Big Data im Überblick Big Data – Hype oder Game Changer? Big Data in traditionellen Industrien Daten als Rohstoff für die Industrie Über das Lagern und Veredeln von Daten 04 04 07 08 13 Cloud-gestützte Lösungsansätze Anforderungen an das Back-End für vernetzte Geräte Was bedeutet «On-Demand»? Cloud-unabhängige Software und laaS Datensicherheit in der Cloud 33 34 36 38 40 22 23 25 27 Connected Products und Industrie 4.0 Definition: Industrie 4.0 Dezentrale Produktionssteuerung durch smarte Produkte Unternehmens-IT trifft auf Produktions-IT 29 31 32 Was steckt hinter dem Big-Data-Hype? Anwendungsszenario: Vernetzte Geräte Big-Data-Technologien für eine günstige IT der vernetzen Geräte 43 44 47 49 Die Ideale Big-Data-Architektur Wie sehen meine Anforderungen genau aus? Eine Architektur - viele Lösungen Individuell kombinieren
  3. 3. Datenbanken für die Cloud Ära der Relationalen Datenbanken Probleme in der Cloud Der Vormarsch von NoSQL 50 51 52 53 54 55 56 57 Industrie 4.0 und ihre Geschwister Ist das Thema «Vernetzung ermöglicht Mehrwert» neu? Die Geschwister der Industrie 4.0 Was vereint die Familie Industrie 4.0 & Connected Products? 59 60 61 Developing Connected Products Let your imagination run wild Design it for humans
  4. 4. Das eBook ist optimiert für eine digitale Nutzung und enthält etliche interaktive Elemente die durch das Hand-Icon als klickbar gekennzeichnet sind. 4 Big Data – Hype oder Game Changer? Moritz Gomm Big Data ist ein verheißungsvolles Versprechen. Mit den gesammelten Daten können wir Kunden besser verstehen, Prozesse optimieren und den Wettbewerb mit innovativen Produkten und Geschäftsmodellen auf Abstand halten. Ein attraktives Szenario, das schon in vielen Branchen gewinnbringend umgesetzt wurde. Das vorliegende eBook beschreibt, was Big Data für die Industrie bedeutet und gliedert sich in folgende Teile: • Big Data im Überblick • Big Data im Kontext Industrie 4.0 • Big-Data-Technologien In diesem Dokument steckt gebündeltes Wissen unserer Kollegen aus unterschiedlichen Bereichen. Wir wünschen uns, dass Sie von der Lektüre profitieren. Wenn Sie das eBook gut finden, sagen Sie es bitte weiter.
  5. 5. 5 Big Data und vernetzte Geräte verändern die Industrie Durch die Übermittlung und Verarbeitung der Nutzungs- und Sensordaten von Geräten erhalten produzierende Unternehmen erstmalig Möglichkeiten, die bisher den Online-Unternehmen vorbehalten waren: sie erfahren, wie die Kunden da draußen die Produkte nutzen, wann, in welchem Kontext, wie häufig, etc. Dieses Wissen eröffnet ungeahnte Potenziale für die Produktentwicklung, das Marketing, den Vertrieb und die Entwicklung von Mehrwertdiensten. Die Big-Data-Technologien (Cloud, NoSQL-Datenbanken, InMemory- Verarbeitung etc.) sind in den letzten 10 Jahren durch große Internet-Unternehmen wie Facebook, Google & Co entstanden, da diese erstmalig große, unstrukturierte Datenmengen in nahezu Echtzeit verarbeiten mussten. Für Investitionsgüter werden Ferndiagnose und -wartung, Updates oder gar die Konfiguration und Anpassung des Gerätes während der Nutzung durch den Kunden möglich
  6. 6. Für Konsumgüter ergeben sich neue Formen der Interaktion mit dem Kunden und neue Geschäftsmodelle rund um das vernetzte Produkt. Was ist besonders an den Big-Data- Technologien? Heute beginnen Industrie-Unternehmen diese Technologien zu nutzen, um ihre Produkte zu vernetzen (z.B. über die Cloud), die Produktion von Morgen zu entwickeln («Industrie 4.0») und mobile Anwendungen für ihre Kunden und Mitarbeiter anzubieten. Big-Data-Technologien sind unglaublich skalierbar, schlank und günstig. Und dies sind genau die Anforderungen der Unternehmen, die sich in die vernetzte Zukunft bewegen. Denn hier geht es darum Ideen schnell und agil zu pilotieren, gemeinsam mit dem Kunden zu erkunden, was er heute braucht, um dann die Lösung rasch zu skalieren oder diese auch mit minimalen «sunk costs» zu beenden. ©nicola/flickr
  7. 7. 7 Big Data in traditionellen Industrien Die Big-Data-Technologien eröffnen insbesondere für Industrie-Unternehmen extrem spannende neue Möglichkeiten. Während die Daten-getriebenen Branchenwie der Einzel- und Versandhandel, Finanz-Dienstleister und Online-Unternehmen bereits seit Jahren das Potenzial von Data Analytics und Machine Learning nutzen, kommen produzierende Unternehmen erst jetzt in den Genuss, ihre Kunden durch Vernetzung und der dadurch gewonnenen Daten genau kennen und verstehen zu lernen. Produzierende Unternehmen erreichen durch die Vernetzung ihrer Produkte: • neue Geschäftsfelder, • eine kundenorientiertere Produktentwicklung, • effizientere Prozesse • und signifikante Kosteneinsparungen.
  8. 8. Daten als Rohstoff: Big Data in der Industrie Gernot Trautmann 6 Thesen als Weckruf • Daten für «Big-Data»- Analysen sollten möglichst roh erfasst und gespeichert werden. • Für die Industrie bedeutet das oft ein Umdenken in der Sensorik. • Die Speicherung der Daten muß in einer so unstrukturierten Form vorliegen, dass später Abfragen mittels Semantik statt über Relationen ermöglicht werden. Dafür sind oft neue Lösungen oder Produkte erforderlich. Services aus der Cloud könnten Engpässe versorgen. • Schutz der Datenspeicherung und Übertragung wird viel wichtiger (Security), denn es handelt sich bei den gewonnenen Daten um einen für Ihre Geschäftsmodelle sehr wertvollen Rohstoff. • Zweitverwertungsmodelle sollten berücksichtigt werden, jedoch nicht zu zeitig den Business Case stützen müssen. • Die ethische und moralische Verantwortung im Umgang mit den Daten steigt gewaltig und muss zentral bedacht werden. 8 Für IT-Unternehmen ist «Big Data» ein Begriff mit besetzten Assoziationen, der ohne Scheu für alle möglichen Szenarien verwendet wird. Doch was bedeutet das für Industrie- unternehmen? Gelten dort ähnliche Gesetzmäßigkeiten wie in der IT? Kondensiert ist hier meine Schluss- folgerung in sechs Punkten – beherzigen Sie bei der Diskussion um den Einsatz von Big-Data-Szenarien folgende Grundregeln:
  9. 9. 9 «Big Data»- ein Hauch von Gigantismus schwingt mit, vielleicht sogar Respekt oder schlichtweg eine völlige Unterschätzung der Auswirkungen dieses Phänomens. Denn Big Data ist keine Technologie, und Big Data ist auch kein Hype: Big Data ist ein Phänomen, das die Summe der Auswirkungen von massenhafter Informationserzeugung menschlichen Ursprungs beschreibt. Dazu kommt die Idee, Daten als Rohstoff zu behandeln. Auf das Sammeln muss zwangsweise eine Veredelung folgen, damit eine Wertschöpfung stattfindet. Denn ohne Idee, welche Informationen man aus der Datenflut gewinnen kann, scheint Datensammelei unwirtschaftlich. Nicht so bei digital erzeugbaren und speicherbaren Daten. Scheinbar wird jede Möglichkeit, Daten zu gewinnen, völlig unabhängig von der Nützlichkeit betrieben. Und zwar weil man es kann und eigentlich auch weil es fast sicher ist, dass Sie diese Daten tatsächlich irgendwann einmal benötigen. Staaten tun es bereits sehr lang (Stichwort «Vorratsdatenspeicherung »), Unternehmen, deren Kern-Geschäftsmodell auf Informationsgewinnung und -Verarbeitung beruht, tun dies seit mindestens 10 Jahren.
  10. 10. Rohe Diamanten: Daten in der Industrie Nun gibt es in der Industrie, die auf Automatisierungs- technik setzt, natürlich ein sehr ausgeprägtes Einsatzfeld für das Sammeln von Daten, nämlich fürs Überwachen von Anlagen (Leitstände, Produktionssysteme etc.). 10 Dafür gibt es auch absolut viele Möglichkeiten, sinnvolle Daten durch Sensorik einzufangen und dem Überwachungssystem zuzuführen. Aber klassischerweise endet dort das Leben der erfassten Daten sehr schnell, ohne das darin enthaltene Potenzial weiter zu nutzen. Oder speichern Sie heute die Energie- verbrauchswerte aller Aktoren aller Anlagen über deren Nutzungszeitraum? Die Temperatur jedes Raumes im Büro? Alle jemals in eine Maschine manuell eingegeben Daten? Die tatsächlichen Toleranzen aller gefertigten Bauteile? Wozu denn das, werden Sie fragen. Das kostet doch nur Geld. Falsch! Damit lässt sich Geld verdienen. Daten
  11. 11. 11 Daten als Rohstoff und deren Gewinnung Menschen, die auf Erdöl oder Kupfer stoßen, können erfolgreich werden, wenn sie die Lagerstätte gut ausbeuten. Aber natürlich müssen sie zu allererst erkennen, dass sie etwas Wertvolles gefunden haben. Sie müssen die Verarbeitungs-, Aufbereitungs- und Distributions- prozesse beherrschen und ausführen, um aus dem Rohöl oder dem Erz ein wertvolles Produkt zu erzeugen. Die Lagerung ist oft ein notwendiges Übel, da die Lagerstätten meist fernab der eigentlichen Abnehmer liegen. Analog dazu muß man sich die Gewinnung von Daten vorstellen. Es gehört eine Portion Fantasie dazu, den Wert von Daten für sich oder andere einzuschätzen. ©kanegen/flickr Oft entstehen die interessanten Daten tatsächlich nicht an den Orten, wo man diese vermutet hat. Der Transport und die Lagerung gehen heute sehr komfortabel von statten, dank technologischem Fortschritt. Internet, Breitband-Kommunikationsnetze und gigantische Speichermöglichkeiten im Peta-Byte-Bereich sind vorhanden oder können einfach gemietet werden (z.B. als Cloud Service). Hört sich ja einfach an. Nun, die Sache ist heute an anderen Stellen mit Komplexität beladen, als diese einfache Analogie erscheinen lässt. Die Datenquellen sind in der Regel im Besitz von Personen oder Unternehmen. Man muß also Allianzen oder Verträge schließen.
  12. 12. Sensoren, die mehr als ein Bit Informationsgehalt bieten, sind nun gefragt. 12 Nehmen wir ein Beispiel: Das Auto als mobiler Datengenerator. Ein modernes Auto hat Sensoren für Temperatur, Regen, Sonne, Standort, Höhe, Geschwindigkeit, Lenkwinkel und vieles mehr. Wenn man nun diese Daten in Echtzeit sammeln könnte, findet man sicherlich Abnehmer, die daraus Nutzen ziehen. Aber wem gehören die Daten? Dem Automobilhersteller, dem Halter des Fahrzeugs oder dem Fahrer? Eine weitere Unbekannte kommt bei den Sensoren selbst auf. In einem Industrieunternehmen sind heute ebenfalls Hunderte von Sensoren verbaut. Leider sind diese Sensoren sehr viel schwerer zugänglich für IT-Systeme, denn oft dienen sie der Steuerung und Überwachung, sind also sicherheits- relevant oder mindestens produktions- kritisch. Zudem sind diese Sensoren oftmals zu einfach konstruiert, um Daten von anderem Wert zu erzeugen. Da gibt es Lichtschranken, Positions-Sensoren, Endschalter, die alle «nur» zwei Zustände erkennen können. Das hat oft ausgereicht. Man hat die Maschine einfach soweit von ihrer Umwelt isoliert, dass beispielsweise Sonneneinstrahlung als Störfaktor ausgeschlossen werden konnte. Trotzdem kommt es zu Qualitätsschwankungen.
  13. 13. 13 Über die Veredelung von Daten Die bisher oft eingesetzte Automatisierungspyramide wird hier versagen. Denn Sensordaten von der untersten Feld- ebene werden von darüber liegenden Schichten gefiltert und mit einer Semantik versehen. Zur Erklärung hilft auch das Modell einer digitalen Fotokamera. Der Sensor liefert 14 Megabit Pixeldaten an den Prozessor in der Kamera. Dieser ist in der Lage, die Daten auf 2-3 Mbyte zu komprimieren und Metadaten wie Standort, Kameratyp, Blende etc. hinzuzufügen. Ein solches Bild ist auf dem PC aber nicht mehr sinnvoll bearbeitbar, da bereits Informationen verloren sind. Besser zum Nachbearbeiten ist das Raw-Format, also alle 14 Megabit Pixeldaten. Die Veredelung von großen Daten zu einer Menge von Informationen kann also sinnvoll nur an der Stelle erfolgen, wo der Nutzwert der zu erzeugenden Information klar ist. Die Fotokamera macht hier nichts falsch, denn meist ist der Nutzwert auch mit dem JPEG-Bild erreicht. Man kann die Datenmenge reduzieren, wenn man weiß, wo die relevanten Informationen gewonnen werden können. Allerdings verliert man damit die Möglichkeit für Auswertungen aus anderer Perspektive.
  14. 14. Rohdaten erfassen Nützliche Daten rausfiltern - implizite Semantik durch Weglassen Quantifizieren - explizite Semantik durch Veränderung Qualifizieren - starke Semantik durch Korrelation mit anderen Daten Präsentieren - fokussierte Semantik auf den Nutzer 14 Umgekehrt ein Beispiel aus der Fernwartung: Um die Transport-Menge von Daten klein zu halten, nutzt ein Hersteller von Produkten im Außeneinsatz einen Datenkonzentrator. Dieser hat eine fest eingebaute Vorverarbeitung, so dass die zu übertragenden Daten und damit auch die zu lagernde Menge in der Zentrale um Größenordnungen geringer werden. Das ist eine gute Lösung für einen fest definierten Einsatzzweck, da man vorab den Nutzwert der Daten eingrenzen konnte. Die nackten Daten liegen nun nicht in der Zentrale vor, sondern gefilterte Daten oder sogar schon Informationen, die eine Qualifikation mitbringen. Die Veredelungsstufen von Daten:
  15. 15. Einige Sensoren decken bereits zu viele Schritte ab, als dass deren Daten einer Zweitverwertung zugeführt werden könnten. Auch dazu ein Beispiel: Der Positionssensor an einer Laufkatze eines Kranes: Dieser Sensor ist meist so konstruiert, dass er aus dem Rohdatum bereits Störungen herausfiltert. Die mechanischen Ereignisse «Laufkatze fährt an Positionssensor heran, ist genau davor, fährt nach rechts vorbei» könnten zum Beispiel am Sensorausgang in die Semantik «Laufkatze hat Position 7 passiert» umgewandelt worden sein. Wo ist der Unterschied? Der Sensor kann nicht mehr dazu benutzt werden, um herauszufinden, von welcher Seite und mit welcher Geschwindigkeit sich die Laufkatze bewegt hat. Möglicherweise sind aber genau dass die Daten, die für präventive Wartung nötig wären. Die effiziente Speicherung von Daten hat schon Tausende von Forschern beschäftigt. Bei Daten denkt man heute an Datenbanken. Und für Big Data logischerweise an sehr große Datenbanken? ©smaedil/flickr
  16. 16. 16 Lagern und veredeln: Big Data in der Industrie (2) Im vorhergehenden Artikel habe ich über die Erfassung und Speicherung roher Daten geschrieben. Nun müssen die nützlichen Daten auch herausgefiltert werden. Wie veredelt man die gewonnen Daten und welche Rolle spielt dabei die Lagerung? Zwischen jedem Veredelungs-Schritt muss ein Transport der Daten und eine Lagerung erfolgen. Diese Lagerung ist gegebenenfalls nur temporär. Die effiziente Speicherung von Daten hat schon Tausende von Forschern beschäftigt. Bei Daten denkt man heute an Datenbanken. Und für Big Data logischerweise an sehr große Datenbanken? Zum Verständnis müssen wir kurz in die Technik abtauchen. Typische Datenbanken der letzten Jahre sind sogenannte SQL-Datenbanken. Diese haben im Wesentlichen die Eigenschaft, über eine strukturierte Abfragesprache (Englisch: Structured Query Language) Daten aus dem Speicher miteinander in Verbindung (Relation) zu bringen und die Ergebnisse zu präsentieren.
  17. 17. 17 Natürlich sind viele weitere nützliche Eigenschaften wie Transaktionssicherheit etc. dazugekommen. Diese Datenbanksysteme sind extrem auf die effiziente Speicherung und Verarbeitung großer Informationsmengen hin optimiert. Aber bleiben wir beim Abfragen. Immer wenn Sie etwas über Big Data lesen, werden Themen wie Datenanalyse interessant. Wenn ich so viele Daten gespeichert habe, wie bekomme ich dann die Information heraus, die drin steckt? Oder anders formuliert: Wie finde ich die für mich relevanten Informationen? Das Geheimnis liegt in der Kombination aus Art der Speicherung und den damit machbaren Analysetechniken. In tabellenartig strukturierten Datenbanken mit starren Verbindungen untereinander können semantisch fest miteinander verwobene Informationen schnell und absolut sicher extrahiert werden. Das ist auch der originäre Zweck dieserSQL- Datenbanken. Eine Rechnung an den Kunden Meier referenziert Rechnungspositionen auf gelieferte oder bestellte Ware. Ein Rechnungslauf muß also nur an diesen festgelegten Relationen entlang die Daten aggregieren. Möchte man aber analysieren, warum ein Produkt nicht mehr so oft bestellt wird, hat man keine festen Wege mehr, die man befahren kann. Denn der Auslöser könnte eine Preiserhöhung, eine Verlängerung der Lieferzeit oder aber auch die Qualität des Produktes sein. Diese Daten könnten nun durch Korrelation innerhalb der im Unternehmen vorhanden Daten aus Buchhaltung, Service und Produktionsdatenbanken erzeugt werden. Sie müssen also Dinge in Verbindung zueinander bringen, die in der Struktur der Daten in der Datenbank nicht vorgesehen waren.
  18. 18. 18 Man könnte natürlich auf die Idee kommen, diese Verbindungen nachträglich einzubauen. Was aber, wenn der Grund für den Verkaufsrückgang außerhalb des Unternehmens liegt, beispielsweise an gesunkener Kaufkraft oder Prioritätsverschiebungen in der Gesellschaft? Die Daten, die solche Informationen beherbergen, liegen typischerweise außerhalb des Unternehmens. Und bitte denken Sie an dieser Stelle nicht nur an Marktforscher. Das größte Potenzial an Markt-Informationen bieten Social-Media-Plattformen. Diese versuchen typischerweise sofort die Fremdverwertung der Daten als ihr primäres Geschäftsmodell zu etablieren. Unternehmen können schon heute Mehrwertdienste basierend auf crowd-sourced Data anbieten. Mit diesen Unternehmen lassen sich Zusammenarbeitsmodelle erarbeiten, um die wichtigen externen Daten von außerhalb ins eigene Data Warehouse einzuspeisen. Dies könnte die Kaufkraft des anvisierten Marktsegementes sein, aber viel besser auch rohe Daten, die man mit selbst gewonnen Informationen korrelieren kann. Interessant in der Just-in-time-Produktion sind Informationen über Einflüsse auf die Logistik-Kette oder zu den Qualitätsdaten des zugelieferten Materials. Stellen Sie sich vor, Sie sind ein Lieferant von Bauteilen, deren Toleranzen technologisch bedingt schwanken. Ihr Abnehmer könnte diese Toleranzen in seinem Verarbeitungsschritt möglicherweise ausgleichen, wenn er Ihre Produktionsdaten zusammen mit den gelieferten Bauteilen verarbeiten könnte. Und genau damit können Sie als Unternehmen auch Ihren Partnern Mehrwerte liefern!
  19. 19. 19 Big Data - was tun mit den Bedenken? All die Potenziale und Chancen sind gut und schön. Aber worauf muss ich ach-ten, wenn ich man aktiv gegen Big Data entscheiden möchte? Technische Gründe wie Übertra-gungsengpässe, betriebswirt-schaftliche Gründe wie Herstell-kosten oder Betriebs-kosten, aber auch gesetzli-chen Regluarien zur Erhebung und Nutzung von Daten kön-nen dazu führen, eine Strategie der aktiven Vermeidung zu verfolgen. Was ist dafür zu tun? «Nichts» drängt sich als einfache Antwort auf. Doch auch wenn man keine hochauflö-senden Roh-Daten-Sensoren einsetzt, keine Daten bewusst ablagert und mit festen Relationen in der Ana-lyse arbeitet, so gibt es doch einige Punkte die man zusätz-lich in Betracht ziehen muss. Wie so oft, liegen diese nicht immer innerhalb der eigenen Kontrolle. Rechnen Sie von jetzt ab stets damit, dass andere Personen oder Unternehmen Daten sam-meln, die den Zustand oder das Verhal-ten des eigenen Unternehmens wieder-geben können.
  20. 20. Der wohl größte Hebel zur Vermeidung von Übertragungsengpässen ist die Reduktion an der Datenquelle. Betrachtet man Datenquellen in Bezug auf die Erzeugung von Daten, darf man sich eine solche Einteilung vorstellen: 1. Quelle liefert beständig Rohdaten 2. Quelle liefert kontrollierbar Rohdaten 3. Quelle liefert konfigurierbar Rohdaten und oder qualifizierte Daten 4. Quelle liefert situationsabhängig Rohdaten oder qualifizierte Daten 20 Das betrifft zum Beispiel Informationen über die Nutzung von Transportwegen, das Verhalten von Mitarbeitern im Außeneinsatz, die Bewertung des Unternehmens durch die eigenen Mitarbeiter, Lage und Zustand von Gebäuden des Unternehmens und vieles mehr. Reduktion von Daten funktioniert also nur mit Sensoren, die sich steuern lassen. Ein SmartSensor hat das größte Potential zu einer Quelle der Stufe 4 aufgebaut zu werden. Im Zusammenhang mit der Datengewinnung ist auch der Zugang zur Datenquelle extrem wichtig geworden. Es geht einerseits um den Zugang zu den Daten selbst als auch um die Kontrollierbarkeit der Datenquelle. Darunter kann man sich die gesamte Palette von der mechanischen Positionierung über Steuerbarkeit bis hin zu Themen der Autorisierung vorstellen. Gerade wenn die vorgenannten Beispiele der Fremderhebung sollten Sie also auf die Zugänglichkeit Ihrer Datenquellen achtgeben. Das Aufgabenprofil des Chief Security Information Officers (CISO) sollte dieses Thema voll mit abdecken. Und hier meine abschließende Bitte: Werfen Sie nach dieser Lektüre wieder einen Blick zurück auf den Anfang meines vorherigen Beitrags (Daten als Rohstoff) und den darin zitierten 6 Weckrufen. Haben Sie meine Beiträge "aufgeweckt"?
  21. 21. Vernetzte Produkte und Big-Data-Technologien wie Cloud und NoS-QL passen wunderbar zusammen. Der Vortrag verdeutlicht die Be-deutung des Themas Big Data für vernetzte Produkte, um die volle Wertschöpfung zu entfalten. Aus verschiedenen Perspektiven betrachtet Jörg Sitte die Chancen und Herausforderungen in der deut-schen Industrie, die sich durch die Vernetzung von Produkten und des Produktionsprozesses ergeben. 21 Vortragsfolien
  22. 22. Viele Begriffe - eine Idee: der Datenrausch zwischen Produkten Viele mittelständische Firmen haben noch keine konkrete Vorstellung was Industrie 4.0 für sie bedeutet. Dies hat auch damit zu tun, dass es sich bei «Industrie 4.0» um kein fertiges Produkt handelt. Man kann es nicht als Standardsystem kaufen. Es geht vielmehr um eine Vision mit ei-nem Zeithorizont von 15 bis 20 Jahren, die man schrittweise umsetzen kann. Sehr schnell stellen wir fest, dass die grundlegenden Themen zwischen Connected Products – auch als Cyber Physical Systems bezeichnet – auf der einen Seite und Industrie 4.0 auf der anderen Seite viele Ähnlichkeiten aufweisen. 22 Connected Products und Industrie 4.0 Jörg Sitte
  23. 23. Quelle: Plattform Industrie 4.0 Wofür steht Industrie 4.0? «Der Begriff Industrie 4.0 steht für die vierte industrielle Revolution, einer neuen Stufe der Organisation und Steuerung der gesamten Wertschöpfungskette über den Lebenszyklus von Produkten.» Dieser Zyklus orientiert sich an den zunehmend individualisierten Kunden-wünschen und erstreckt sich von der Idee, dem Auftrag über die Entwicklung und Fertigung, die Auslieferung eines Produkts an den Endkunden bis hin zum Recycling, einschließlich der damit verbundenen Dienstleistungen. Basis ist die Verfügbarkeit aller rele-vanten Informationen in Echtzeit durch Vernetzung aller an der Wertschöpfung beteiligten Instanzen sowie die Fähigkeit aus den Daten den zu jedem Zeitpunkt optimalen Wertschöpfungsfluss abzuleiten. Durch die Verbindung von Menschen, Objekten und Systemen entstehen dynamische, echtzeitoptimierte und selbst organisie-rende, unternehmensübergreifende Wertschöpfungsnetzwerke, die sich nach unterschiedlichen Kriterien wie Kosten, Verfügbar-keit und Ressourcenverbrauch optimieren lassen.»
  24. 24. 24 Auch hier geht es um die Vernetzung – diesmal nicht hin zum vom Kunden gekauften Produkt, sondern zur Produktion selbst. Und wir finden wieder zwei relativ getrennte Welten vor: Die klassische Unternehmens-IT mit ERP- und individuellen Enterprise-Lösungen auf der einen Seite und Embedded Systems innerhalb der Produktion auf der anderen Seite. Embedded Systems finden wir sowohl bei den Produktionsmaschinen als auch bei den zu produzierenden Gütern. Produkte werden beginnend mit dem ersten Bauteil mit lokaler Intelligenz, beispielsweise über Microcontroller oder RFID Tags, ausgestattet und speichern Daten. Diese Daten können Baupläne, Prozessinformationen, Fertigstellungsgrad, nächsteFertigungsschritte, individuelle Konfigurationen, Auftraggeber oder Zielort enthalten. Sie werden zu smarten Produkten.
  25. 25. 25 Dezentrale Produktions-steuerung Klassische Massenfertigung Durch die Ausstattung mit lokaler Intelligenz kann der gesamte Produktions-prozess geändert werden – weg von einer zentralen Steuerung und hin zu einer dezentralen Steuerung, bei dem die Bauteile den Produktionsprozess selbst steuern. In der Vergangenheit war man gut bera-ten, hohe Stückzahlen gleicher Produkte in großen Losgrößen zu produzieren. Man erzielte so positive Skaleneffekte und konnte dadurch die Kosten pro Produkt senken. Seit einiger Zeit gibt es einen Kunden-trend, der mit diesen Verfahren nicht mehr optimal bedient werden kann: die Individualisierung der Produkte. Der Trend geht zu kleinen Stückzahlen –teilweise spricht man bereits von der «Losgröße 1» als ideales Ziel innerhalb der Produktion.
  26. 26. 26 Will man dieses Ziel erreichen dann macht der Trend hin zur Dezentralisierung viel Sinn. Wie könnte so ein zukünftiger Fertigungsprozess aussehen? 1. Intelligente Bauteile steuern den Produktionsprozess: «Ich verfüge über meinen Bauplan und selektiere den nächsten Fertigungsschritt (zum Beispiel: Fräsen)» 2. Bauteile kommunizieren mit intelligenten Produktionsmaschinen: «Ich muss gefräst werden, wo ist eine freie Fräsmaschine?» 3. Produktionsmaschinen kommunizieren mit Logistikprozess und Einkauf: «Rohmaterial geht aus. Bitte bestellen und zu mir liefern.» 4. Produktionsmaschine diagnostiziert eigenen Zustand: «Ich muss gewartet werden und bestelle Service- Techniker.» 5. Fertige Produkte kommunizieren mit der Versandlogistik: «Versandfertig machen und an Zieladresse versenden» 6. Fertige Produkte kommunizieren mit Kunden: «Bin fertig produziert und warte auf Versand» Aus technischer Sicht ist interessant, dass auch hier zwei ganz unter- schiedliche Unternehmensbereiche zusammen wachsen (müssen): • Die Unternehmens-IT, die die übergeordneten Prozesse kennt (u.a. Einkauf, Vertrieb, Logistik, Big Data Analytics). • Die Produktions-IT mit Embedded Systems bei Maschinen und Produkten mit den Disziplinen Elektronik und Embedded Software.
  27. 27. Das Schaubild beschreibt unser Verständnis der Zusammenhänge und Prozesse in der Industrie 4.0 27 Unternehmens-IT trifft auf Produktions-IT Gefordert sind also auch hier sehr umfangreiche Kompetenzen von der klassischen Unternehmens-IT in den Bereichen SAP, Java oder .NET-Entwicklung bis hin zu Elektronik und Embedded Software. Für die Visualisierung und den Kundenservice werden Apps auf Smartphones und Tablets benötigt. Systems Engineering sorgt für ein reibungsloses Zusammenspiel der verschiedenen Disziplinen und liefert die Basis für ein funktionierendes Gesamtsystem. Darüber hinaus fallen an allen Stellen sehr viele Daten an – bei den Bauteilen, den Produkten, den Maschinen und den übergeordneten Prozessen. Diese Daten werden gesammelt und an die zentrale IT übertragen. Allerdings werden diese Daten häufig nur gesammelt und nicht konsequent ausgewertet. Das ist ein großer Schatz, den man mit Big–Data-Technologien heben kann. Denn so werden Daten zu bedeutungsvollen Informationen verdichtet, liefern Kennzahlen zu Performance, Stückzahlen, Qualität und Trends und helfen so bei der Steuerung von Unternehmen. Industrie 4.0 bietet große Chancen – wir stehen hier noch ganz am Anfang. Die Erfahrungen und Kompetenzen, die wir bei der Entwicklung von Connected Products gewonnen haben, werden uns nachhaltig unterstützen, dieses Ziel zu erreichen.
  28. 28. VDE Medtech zur mobil einsetzbaren Medizintechnik Connected Products – die Marktchancen nutzen Four Guidelines for devloping connected Products Industrie 4.0 und ihre Geschwister 28 Ähnliche Beiträge
  29. 29. Was steckt hinter dem Big-Data-Hype? Moritz Gomm Big Data und vernetzte Geräte passen gut zusammen. 29 Das Phänomen «Big Data» kann als Synonym für die enormen Herausforderungen angesehen werden, denen sich rapide wachsende Web-Unternehmen wie Google, Facebook, Twitter oder Amazon gegenüber sahen. Diese Unternehmen waren bereits groß genug, um sich die Grundlagenforschung zu leisten, die ihre Datenprobleme löste. Dabei haben sie ganz neue Paradigmen entwickelt, die heute auch von Dritten genutzt werden. Mit den NoSQL- und Cloud-basierten Datenarchitekturen haben die Unternehmen tatsächlich die Herausforderungen hinsichtlich Datenhaltung und Skalierung gemeistert. Und dabei haben sie ganz neue Kategorien von Lösungen in die Welt gebracht. Google = Hadoop Facebook = Scribe Twitter = Storm Amazon = Cloud Services
  30. 30. 30 Was ist daran neu? NoSQL-Datenbanken verzichten auf das zwar generische jedoch auch einengende relationale Schema. Sie versuchen damit nicht mehr eine Lösung für alle Datenanforderungen zu sein, sondern schränken bewusst einen der Datenbankattribute wie Konsistenz, Verfügbarkeit oder Partitionstoleranz ein, um die übrigen umso besser zu unterstützen. Cloud-Computing ist hingegen eine abstrahierte IT-Infrastruktur, die bedarfsorientiert über Netzwerke genutzt werden kann und so technisch und wirtschaftlich flexibel skaliert. Bedeutet dies, dass diese «Big Data»-Technologien nur für Unternehmen mit riesigen Datenmengen interessant sind? Nein. Denn das ist, was tatsächlich hinter dem Hype steckt: eine Fülle neuer Technologien, Architekturen und Möglichkeiten, die auch für «Not-so-Big-Data-Szenarien» interessant sind. Daher lohnt es sich nun auch für viele andere Unternehmen, sich mit diesen Technologien zu beschäftigen. Als Vorteile der NoSQL/Cloud-Datenarchitekturen ergeben sich insbesondere: • kürzerer Time-to-Market • Kosteneinsparung • einfache Skalierung • Umgang mit unstrukturierten Daten • einfache Erweiterbarkeit
  31. 31. Wir sehen bei «Big Data» also aktuell einen «Technology-Push» im Mainstream,der durch den ursprünglichen «Market-Pull » der großen Web-Unternehmen erst möglich wurde. Diese Entwicklung lässt sich vergleichen mit der teuren Raketenforschung, die den im Volksmund bekannten Nebeneffekt hat, dass wir heute beim Spiegeleierbraten die Vorzüge einer Teflon-Pfanne genießen können. Anwendungs- szenario: Vernetzte Geräte Ein Trend, dem die Big-Data-Entwicklung sehr zu Gute kommt, ist die zunehmende Vernetzung von Geräten. Heizungshersteller sammeln Gerätedaten für F&E-Aktivitäten, Maschinenhersteller sammeln Sensordaten, um proaktive Wartungsdienste anbieten zu können und SmartHome-Devices senden Ihre Daten in die Cloud, damit der Anwender sein Heim auch im Urlaub über das Smartphone steuern kann. In den meisten Fällen müssen die Unternehmen für die vernetzten Geräte eine neue IT aufbauen, da die klassische Unternehmens- IT mit solchen Produktdatenströmen bisher keine Erfahrung hat. 31
  32. 32. 32 Big-Data- Technologien für eine günstige IT der vernetzen Geräte Für die IT-Abteilung bietet sich durch die Cloud ein Lösungsweg, der günstig aufzubauen ist, wenig Support-Aufwand verursacht und mit dem Erfolg der neuen, vernetzungsbasierten Geschäftsmodellen skaliert. Dies ist besonders wichtig, da es sehr ungewiss ist, wie gut die vernetzten Geräte vom Markt tatsächlich aufgenommen werden. Durch den Einsatz von NoSQL-Datenbanken lassen sich die vielen, häufig unstrukturierten Daten sammeln und auch erst zu einem späteren Zeitpunkt entscheiden, wie diese ausgewertet werden. Fazit: Schauen Sie sich Cloud, NoSQL und Co. genauer an. Diese «Schemalosigkeit» beschleunigt den Time-to-Market und unterstützt eine agile Vorgehensweise bei der Entwicklung und der Datenanalyse. Die Technologien, die rund um das Thema «Big Data» entstanden sind, bieten große Potenziale – auch für kleinere Datenmengen. Es lohnt sich für IT-Abteilungen und Entwickler, Cloud-Lösungen und NoSQL-Datenbanken genauer anzusehen, um den eigenen Werkzeugkasten um diese interessanten Alternativen für die eigenen Projekte zu erweitern. Tipp
  33. 33. Cloud-gestützte Lösungsansätze Alexander Appel Nachdem wir den Einfluss von Big-Data-Technologien und Cloud Computing auf die IT für vernetzte Produkte betrachtet haben, gehen wir hier näher auf konkrete Anforderungen aus diesem Bereich ein und erörtern inwiefern aktuelle Cloud-Dienste zum Aufbau einer geeigneten Lösung genutzt werden können. Dabei spielen neben Architektur- auch Kostenaspekte eine wichtige Rolle, die man berücksichtigen sollte.
  34. 34. 34 Anforderungen an das Back-End für vernetzte Geräte Echtzeitfähigkeit: Es gibt viele verschiedeneArten von Sensoren, die kontinuierlich Messwerte aufzeichnen und an ein Backend übermitteln. So können beispielsweise Temperatur oder Verbrauchsinformationen des Eigenheims überwacht und zeitnah in einem Webportal dargestellt werden. Für bestimmte Sensorinformationen, wie die von Rauchmeldern oder Bewegungsmeldern, ist dieser Echtzeitcharakter von besonderer Bedeutung; bei Rauchmeldern gibt es hier sogar ganz klare gesetzliche Vorgaben und Richtlinien. Aber auch der technologieaffine Eigenheimbesitzer ist sicher daran interSmart Home Devices sind ein oft genanntes und typisches Beispiel für vernetzte Geräte. Dieses Anwendungsszenario zeigt sehr gut die drei Hauptbereiche auf, die bei fast jeder Produktvernetzung eine Rolle spielen. essiert, zeitnah zu erfahren, dass der Bewegungsmelder im Wohnzimmer ausgelöst wurde, obwohl momentan niemand zuhause ist.
  35. 35. 35 Sicherer Rückkanal: Weiterhin ist es wichtig, die Geräte zu Hause fernsteuern zu können, im Idealfall über das gleiche Webportal, in dem die Sensorinformationen zusammen laufen. Das bedeutet, dass der Kommunikationsrückkanal zu den vernetzten Geräten zuverlässig und vor dem Zugriff Fremder geschützt realisiert werden muss. Skalierbarkeit: Für das Back-End besteht die Herausforderung, eine leistungsfähige Kommunikationsinfrastruktur zur Verfügung zu stellen, die mit einer steigenden Anzahl vernetzter Geräte skaliert. Doch das alleine ist nicht genug, denn den größten Geschäftsnutzen erhofft man sich oft durch die Auswertung der anfallenden Daten. Je diverser der Informationsgehalt und je größer die angesammelte Datenmenge ist, desto größer sind die Möglichkeiten, aus der angesammelten Datenbasis wertvolle Zusatzinformationen abzuleiten. Technologien und Methoden in diesen Bereich werden unter dem Begriff «Big Data» zusammen gefasst. Es gibt rege Diskussionen dazu, was nun genau «Big Data» ist und wie es sich von klassischen Datenanalysemethoden kleinerer Datenmengen unterscheidet. Bei vernetzten Geräten handelt es sich um einen besonderen Anwendungsfall von «Big Data». Dabei ist die Assoziation durch die in Zukunft steigende Anzahl vernetzter Geräte, der Diversität der gesammelten Informationen und dem Potential, das der Auswertung dieser Daten zugeschrieben wird, durchaus gerechtfertigt.
  36. 36. Preisentwicklung Cloud Storage am Beispiel von Amazon S3 36 Was bedeutet «On-Demand»? Ein besonders Merkmal ist wie angesprochen der On-Demand-Charakter dieser Services. Die Möglichkeit, ohne hohe Anfangsinvestition Rechenressourcen bedarfsgerecht einzusetzen, ist das Argument für die Kosteneffizienz von Public Cloud Computing. Für Datenverarbeitung im großen Stil bringt dieses Paradigma aber auch einige Nachteile mit sich. Ein Hadoop Cluster, das nur für nächtliche Batchverarbeitung aufgebaut wird, steht tagsüber zur Aufnahme von Daten nicht zur Verfügung. Stattdessen wird empfohlen die Daten in einem Storage Service oder einer NoSQL- Datenbank abzulegen. Wenn dann der Hadoop Cluster erzeugt wird, müssen alle für die Verarbeitung relevanten Daten über das Netzwerk in den Cluster kopiert werden. Bei großen Datenmengen ist das ein nicht unerheblicher Overhead. Deshalb ist das Hadoop File System (HDFS) und Map Reduce Framework auch eigentlich darauf optimiert, Datenhaltung und Verarbeitung möglichst nahe zusammen zu führen und Netzwerkzugriffe wenn möglich zu vermeiden. Eine Kostenersparnis durch die On- Demand-Nutzung bestimmter Dienste geht automatisch mit einer längeren Verarbeitungszeit einher.
  37. 37. Hadoop steht aber neben der On-Demand-Variante auch in Form von Open-Source-Distributionen zur Verfügung. Diese sind im Vergleich zu den Cloud-Diensten meistens auf einem neueren technischen Stand und bieten mehr Features. Andere Dienste, wie NoSQL Stores oder Data-Warehouse-Systeme sind sehr anbieterspezifisch und lassen sich in gleicher Form weder auf eigener Hardware noch bei einem anderen Cloud-Anbieter betreiben. Daher kann es durch die Nutzung dieser Services zu einem Vendor-Lock-In kommen. Man sollte sich also zumindest darüber im Klaren sein, in welche Abhängigkeiten man sich begibt. Die Nutzung eigener Hardware oder ein Wechsel des Cloud-Anbieters wird so unter Umständen unwirtschaftlich. Dem gegenüber stehen die einfache Nutzbarkeit und die Kostenstruktur von On-Demand-Services, die ideal zur schnellen Erstellung von Prototypen geeignet sind.
  38. 38. 38 Cloud-unabhängige Software und IaaS Es gibt eine Reihe kommerzielle und Open-Source-Softwareprodukte, die sich sehr gut dazu eignen eine leistungsfähige Lösung zur Vernetzung von Geräten aufzubauen - insbesondere, was Stream- oder Complex-Event-Processing angeht, kann man hier auf etablierte Produkte zurückgreifen. Durch die reine Nutzung von Infrastrukturdiensten lassen sich diese Produkte auch in der Cloud betreiben. Wenn es um die batchorientierte Verarbeitung großer Datenmengen geht, kann ein Hadoop Cluster oder eine NoSQL-Datenbank auch in Eigenregie in der Cloud aufbaut werden. Viele Open-Source-Projekte nutzen dies bereits für Tests ihrer Software, da sie nicht über die notwendige eigene Hardware verfügen. Der dafür erforderliche Automatisierungscode wird zum Teil der Community zur Verfügung gestellt. So ist es trotz des vordergründigen Mehraufwands der Automatisierung möglich, schnell eine Testumgebung in der Cloud aufzubauen. Für einen produktiven Betrieb ist das aber nicht ausreichend. Hierfür empfiehlt sich der Einsatz geeigneter Konfigurationsmanagementtools wie Chef oder Puppet in Zusammenhang mit Tools zur Steuerung virtueller Infrastruktur.
  39. 39. 39 Diese Tools ermöglichen es, Software-Systeme weitgehend von der darunter liegenden Infrastruktur zu abstrahieren, was wiederum mit der Flexibilität einhergeht eine auf diesem Weg erstellte Lösung entweder bei einem Infrastructure- as-a-Service-Anbieter (IaaS) oder im eigenen Rechenzentrum zu betreiben. Dies ist insbesondere dann interessant, wenn die Lösung über das Stadium eines Prototyps hinaus ist, sich der Business Case rechnet und man mittel- oder langfristig daran interessiert ist Betriebskosten zu optimieren. Bei extrem hohem Datenaufkommen und Rechenbedarf amortisieren sich die Investitionen in dedizierte Cloud- Infrastruktur oder dedizierte Hardware schnell. Private Cloud Computing Auch in Sachen Private Cloud Computing tut sich in letzter Zeit einiges. Zum einen gibt es ernst zu nehmende Standardisierungsbestrebungen von Infrastructure as a Service, wohingegen Platform oder Software-as-a-Service-Angebote naturgemäß eher proprietär geprägt sind. So gibt es mit dem Open Cloud Computing Interfac (OCCI), die ersten Spezifikationen für eine einheitliche API von IaaS-Diensten. Das Open-Source-Projekt OpenStack® implementiert unter anderen dieses Interface und stellt eine umfassende Plattform zum Aufbau von Private und Public-Cloud-Umgebungen zur Verfügung. Die Liste der Firmen, die das Projekt aktiv unterstützen und nutzen, spricht für sich. Wussten Sie schon worauf ein großer Teil der von der NSA eingesetzten Infrastruktur basiert? Eine Keynote vom OpenStack Summit im April 2013 gibt Aufschluss darüber: Was CERN und die NSA gemeinsam haben.
  40. 40. 40 Datensicherheit in der Cloud Spätestens seit den letzten Enthüllungen von Edward Snowden darf dieses Thema nicht unerwähnt bleiben. Leider beschränken sich die Spionageaktivitäten nicht nur auf Daten, die bei amerikanischen Cloud-Anbietern gespeichert sind, sondern auf die gesamte Internet- Infrastruktur (How spy agencies defeat internet privacy and security). Somit sind nicht nur Nutzer von Cloud-Diensten betroffen, sondern jeder sollte sich verstärkt Gedanken über Datensicherheit bei der Nutzung des Internets machen. Auf der anderen Seite ist eine wirtschaftliche Zukunft ohne Internet kaum vorstellbar. Der Stellenwert, den das Thema mittlerweile auf wirtschaftlicher und politischer Ebene einnimmt, unterstreicht zumindest die Tatsache, dass Daten tatsächlich das Öl des 21. Jahrhunderts zu sein scheinen.
  41. 41. 41 Die Chancen der Cloud nutzen Spezielle SaaS- oder PaaS-Angebote für vernetzte Geräte sind noch dünn gesät. Eine auf den Anwendungsfall spezialisierte Lösung lässt sich durch den Einsatz unabhängiger Softwareprodukte auf Basis von reinen Infrastrukturdiensten in der Public und/oder Private Cloud realisieren. Dabei ist zu erwarten, dass Cloud-Technologie auch in die Rechenzentren vieler Firmen Einzug halten wird und sich die Bereitstellung von Infrastruktur «per Knopfdruck» etabliert.
  42. 42. Über die Möglichkeiten von Cloud-Technologien, die sich für die ver-netzte Zukunft ergeben. Beispiele aus der Praxis verdeut-lichen, wie Sie die Cloud für eine IT der vernetzten Geräte erfolgreich nutzen können. Entsprechend prognostizieren Analysten, dass mehr und mehr Firmen dazu übergehen werden, Software in Form von Cloud Services zu nutzen, anstatt sie selbst zu betreiben. Was hält Sie da noch davon ab, Ihre Cloud-Lösung per Knopf-druck anderen zur Verfügung zu stellen? Ihre Lösung selbst als Cloud-Dienst anzubieten, ist eine interessante Möglichkeit zur Refinanzierung Ihres Cloud- Vorhabens.
  43. 43. Die ideale Big-Data- Architektur Georg Molter Die Entscheidung für eine Big-Data-Architektur ist immer individuell. Hadoop, In-Memory Analytics, Analytics Appliances – das Thema Big Data ist zumindest in Fachzeitschriften Mainstream geworden und findet mittlerweile sogar Eingang in die Tagespresse. Aber nicht alle Herausforderungen mit großen Datenmengen haben die Dimensionen, wie man sie bei den Googles, Amazons, Twitters und Ebays dieser Welt meistern muss. Schon Datenmengen mit einem Volumen von «nur» ‘wenigen’ Terabytes an neuen Daten im Monat können schwer beherrschbar sein. Herausforderungen sind auch: Variety – Aufgabenstellungen, bei denen die zu verarbeitenden Daten wenig strukturiert sind oder im Laufe der Zeit weitgehende Strukturänderungen zu erwarten sind. Velocity – Anwendungen, bei denen analytische Aussagen sehr schnell getroffen werden müssen.
  44. 44. 44 Ausgangspunkt für den Entwurf einer Big-Data-Architektur sollten die wesentlichen Business-Fragestellungen sein, die mit Big-Data-Mechanismen verfolgt werden sollen. Wie sehen meine Anforderungen genau aus? In einem zweiten Schritt werden die Anforderungen und Randbedingungen eingegrenzt. Zwar ist es wahrscheinlich, dass zu Beginn des Weges nicht alle Anforderungen bekannt sind und dass sie sich mit der Zeit ändern und anpassen. Zum einen entwickelt sich der Markt weiter und damit auch die relevanten Fragestellungen. Zum anderen sammelt man während der Entwicklung und Nutzung der Lösung weitere Erkenntnisse und kann sie dadurch weiterentwickeln. Außerdem kommt der Appetit bekanntlich mit dem Essen – erste wertvolle Ergebnisse führen rasch zu weiteren Fragestellungen und vermitteln tiefere Erkenntnisse über die Zusammenhänge zwischen den zur Verfügung stehenden Daten und die daraus abzuleitenden Schlussfolgerungen. Relevante Anforderungskategorien sind sicher die klassischen Größen Volume, Velocity und Variety, aber auch das Analyseszenario: befindet man sich im Stadium der explorativen Analyse, oder hat man bereits Analysemodelle erarbeitet, die nun möglichst effizient umgesetzt werden sollen?
  45. 45. 45 Wie sehen des weiteren die Vorgaben zur Datenspeicherung aus? Die Speicherung möglichst aller in Frage kommender Daten bietet die besten Möglichkeiten für spätere Analysen, verursacht aber auch Kosten und stellt für die Verarbeitung einen großen Ballast dar. Diese und weitere Anforderungen stehen nicht selten im Widerspruch zueinander. Sie müssen sich für die eine oder andere Ausrichtung entscheiden, passend zur aktuellen Fragestellung und mit der wahrscheinlichen Ausrichtung einer künftigen Weiterentwicklung im Hinterkopf.
  46. 46. Die Lambda-Architektur – Auflösung des Trade-Offs zwischen Durchsatz und Verarbeitungslatenz 46 Von den Anforderungen zur Architektur Für die Wahl einer geeigneten Architektur bietet sich die sogenannte Lambda-Architektur als Orientierungshilfe an. Ausgehend von der Anforderung, eine Beinahe-Echtzeit-Analyse auch für große Datenmengen zu ermöglichen, schlägt die Lambda-Architektur eine inkrementelle Berechnung der Analysefunktion vor. Dabei erfolgt im sogenannten Batch Layer eine tiefe und exakte Analyse, wobei ein gewisser Zeitversatz vom Eintreffen neuer Daten bis zu ihrer exakten Berücksichtigung im Auswertungsergebnis in Kauf genommen wird. Im sogenannten Speed Layer erfolgt dagegen eine zeitnahe Analyse neuer Daten mit speziell dafür geeigneten Mechanismen aber reduzierten Anforderungen hinsichtlich Genauigkeit oder Tiefe der Analyse. Diese Beinahe-Echtzeit-Ergebnisse werden direkt mit den Batch Layer- Ergebnissen kombiniert, bevor die zugrundeliegenden Daten schließlich auch in die Auswertung des Batch Layers einfließen («eventual accuracy»).
  47. 47. 47 Eine Architektur – viele Lösungen Die eigentliche Big-Data-Architektur für einen spezifischen Anwendungsfall ergibt sich nun durch die Kombination verschiedener, für den jeweiligen Bedarf geeigneter Lösungsbausteine. Dazu zählen klassische Data Warehouses als Plattform für OLAP-Verarbeitung aber auch Ansätze, die besonders für den Umgang mit alternativen Datenkategorien und -Quellen geeignet sind und die keine strukturierte Datenspeicherung oder eventuell sogar überhaupt keine Datenspeicherung erfordern: beispielsweise die Verarbeitung mit Map/Reduce-Implementierungen aus dem Hadoop-Ökosystem, die die explorative und automatisierte Analyse großer Datenmengen im Batch-Modus unterstützen. Einen weiteren Lösungsansatz stellen Stream Processing und Complex Event Processing (CEP) dar, die in einem Strom aus vielen Einzel-Ereignissen Mustererkennung und regelbasierte Verarbeitung sowie Filterung, Korrelation und Aggregation der Ereignisse unterstützen. Die Ergebnisse der Analyse mit Map/ Reduce oder CEP fließen häufig zur weiteren Verarbeitung in klassische operative Datenbanken oder dispositive Data Warehouses ein.
  48. 48. Die Vernetzung von Geräten und die Cloud führen zu neuen Anforde-rungen an die Architekturen und an die Architekten. Wie lassen sich die Trade-Offs am besten auflösen? Und wie geht man mit Betriebs-kosten und Datenschutzrecht bei Cloud-Architekturen richtig um? 48 Weitere Lösungsbausteine für Big-Data- Aufgabenstellungen sind: • In-Memory-Verarbeitung, die von den geringeren Zugriffs-Latenzen, der höhe-ren Bandbreite und der besseren Vorhersagbarkeit von Hauptspeicherbaustei-nen im Vergleich zu Festplatten profitiert. • Analytics Appliances, vorgefertigten Hardware-Software-Kombinationen, die ein schnelles Setup, hohe Skalierbarkeit und durch parallele Abfragebearbei-tung hohe Performance bieten, aber vergleichsweise teuer sind.
  49. 49. 49 Individuell kombinieren Insgesamt steht für Big-Data-Problemstellungen eine Vielzahl von Produkten und Lösungen bereit, und die Herausforderung des Big Data-Architekten besteht unter anderem darin, eine passende Kombination zusammenzustellen, die die jeweiligen Anforderungen effizient umsetzt. Dabei stellt die Unternehmensarchi- tektur eine wichtige Randbedingung dar, insbesondere die zu unterstützenden Businessprozesse sowie die Informationsarchitektur, die Aspekte wie Informationshoheit, Datencharakteristika wie Langlebigkeit, dispositiven vs. operativen Charakter sowie die Schutzcharakteristik der Daten abbildet. Für den iterativen Prozess mit Data Mining, Visualisierung und Automatisierung zeigt unsere Erfahrung, dass es sich auszahlt, eine auf interdisziplinärer Zusammenarbeit beruhende Vorgehensweise mit kurzen Feedbackzyklen zu etablieren, in einem Team mit Fachexperten, Analyse-Spezialisten, Visualisierungs-Spezialisten und Entwicklern. Auf diese Weise können die jeweiligen Skills am effizientesten zur Lösungsfindung kombiniert werden.
  50. 50. Datenbanken für die Cloud Michael Lehmann Wenn es um die Cloud geht, stehen in der Regel als erstes die Daten und deren Schutz mit den damit verbunden rechtlichen Konsequenzen im Vordergrund. Aber auch technisch bietet die Speicherung der Daten einige Herausforderungen, die in der Cloud-basierten Applikationsentwicklung gelöst werden müssen. 50
  51. 51. Relationale Datenbanken Bisher werden beinahe ausschließlich relationale Datenbanken, welche 1970 von Edgar F. Codd erstmals erwähnt wurden, für die Datenpersistierung verwendet. Warum haben sich relationale Datenbanken durchgesetzt und bis heute gehalten? Edgar F. Codd Wir Entwickler wollen eigentlich nur unsere objektorientierten, in-code Memorystrukturen speichern. Das relationale Datenmodell ist hierfür nicht optimal, man spricht hier vom sogenannten Impedance Mismatch.Obwohl seither immer wieder von objektorientierten Datenbanken die Rede war, haben sich diese nie etabliert. Die Abfragesprache SQL hat den Vorteil, dass sie leicht zu erlernen und plattform-unabhängig ist. Relationale Daten-banken im Enterprise Umfeld werden deshalb oft als «Integrations- datenbank» verwendet, über die mehrere Applikationen miteinander kommunizieren können. Hinzu kommt, dass später auch noch das Impedance-Mismatch-Problem entschärft wurde, kaum ein Projekt wird heute ohne O/R Mapper entwickelt. 51 source: wikipedia
  52. 52. Probleme in der Cloud Engpass in relationalen Datenbank Clustern In der Cloud treffen wir ganz andere Voraussetzungen an. Mit steigenden Nutzerzahlen reicht ein einzelner Rechner schnell nicht mehr aus. Durch das flexible Zuschalten von weiteren Rechnern zu einem Cluster kann die Last verteilt und die Verfügbarkeit des Services erhöht werden, wofür moderne Cloud-Plattformen ausgelegt sind. Wir nennen diese Technik horizontale Skalierung. Im Gegensatz dazu steht die vertikale Skalierung. Darunter verstehen wir einen einzelnen Rechner mit Hardware aufzurüsten, was zu hohen Kosten führen kann. Traditionelle Datenbanken sind dafür konzipiert, die Datenkonsistenz durch das relationale Schema und Transaktionen sicherzustellen. Um die Datenkonsistenz zu gewährleisten wird der Datenzugriff zentral koordiniert. Typischerweise sind die Datenbanken für den Einsatz auf einem Einzelrechner optimiert und skalieren vertikal sehr gut. Sie lassen sich zwar über mehrere Knoten horizontal verteilen, der gemeinsame Datenspeicher führt jedoch zu einem Engpass und ist ein Single Point of Failure. Relationale Datenbanken werden als Cloud-Services angeboten, sie sind jedoch nur beschränkt skalierbar, haben eine limitierte Speicherkapazität und sind verglichen mit alternativen Speicherlösungen teuer. 52
  53. 53. NoSQL Datenbanken bilden Alternativen zu relationalen Datenbanken. Das erste Mal wurde der Begriff NoSQL von Carlo Strozzi im Jahr 1998 für seine leichtgewichtige Open-Source Datenbank verwendet. Seine Datenbank ist trotzdem eine relationale Datenbank, die lediglich kein SQL Interface aufweist. Der Begriff NoSQL, wie wir ihn heute kennen, wurde von Johan Oskarsson für ein Gipfeltreffen über das Thema alternative Speichertechnologien eingeführt. [1] Source: wikipedia NoSQL-Datenbanken basieren nicht auf einer einzelnen Technologie. Sie entsprechen eher einer Bewegung respektive einer Gruppierung von Datenspeicher- Technologien und verzichten auf das relationale Datenmodell. Vielmehr verwenden sie verschiedene Konzepte, die sich teilweise so stark voneinander unterscheiden, dass man nicht die Technologien dieser Datenbanken vergleicht, sondern über ihre Der Vormarsch von NoSQLgemeinsamen Eigenschaften spricht, zum Beispiel Skalierbarkeit oder den Umgang mit der Datenkonsistenz. Eine der herausragenden Eigenschaften ist, dass die meisten NoSQL Daten- banken für die horizontale Skalierung optimiert sind. Genau diese Eigenschaft ist einer der Hauptgründe, weshalb NoSQL Datenbanken für die Verwendung in der Cloud besonders gut geeignet sind.
  54. 54. Industrie 4.0 und Ihre Geschwister Philipp Harrschar Industrie 4.0 steht erst in den Startlöchern, schon wird von der nächsten industriellen Revolution gesprochen. Nach Dampfmaschine, Strom und Informationstechnologie soll jetzt die Vernetzung von Produktions- anlagen, Produktionsgütern und Logistik zu einem Quantensprung in der Produktivität führen. Von Faktor zwei in der Produktivität wird gesprochen, und von der Halbierung des Materialeinsatzes. Ist das ein Hype oder ein Erfolgsfaktor für den Standort DACH? Die Bedeutung des Themas ist hoch, wie man aus verschiedenen Initiativen ableiten kann: BITKOM, VDMA und ZVEI haben im April 2013 eine Plattform Industrie 4.0 ins Leben gerufen und die Bundesregierung will die Zusammenarbeit von Hochschulen und Unternehmen mit dem Forschungscampus Arena 2036 fördern. Doch was steckt eigentlich dahinter? Es ist weder möglich noch zielführend, das Thema Industrie 4.0 auf eine ein- fache Formel zu reduzieren. Aber es gibt eine zentrale Voraussetzung: Vernetzung ermöglicht Mehrwert. Die Vernetzung von Produktionsanlagen, Produktionsgütern und Logistik soll dazu führen, dass die Produktion besser wird. Somit kommen Produkte schneller auf den Markt, es werden weniger Ressourcen benötigt und die Produkte können individueller gestaltet werden – um nur einige Ziele zu nennen. 54
  55. 55. Ist das Thema «Vernetzung ermöglicht Mehrwert» neu? Nein. Mehrwert durch Vernetzung gibt es seit Jahrzehnten. Eine frühe elektronische Ausprägung war das Arpanet, ein Vorläufer des Internets, welches in den 60er Jahren entwickelt wurde. Über dieses Netzwerk haben Wissenschaftler die Zusammen-arbeit verbessert und so dafür gesorgt, dass «bessere Entscheidungen getroffen werden können». Neu bei Industrie 4.0 ist, dass die Produktion und die Industrie in den Vordergrund rücken. Und dies sind zweifelsohne Schlüs-selthemen für den Wirtschaftsstandort DACH. Insofern ist die starke Bedeu-tung des Themas nachvollziehbar.
  56. 56. Die Geschwister der Industrie 4.0 Treten wir einen Schritt zurück und betrachten eine klassische Industrie-Wertschöpfung: Die Diskussionen um Industrie 4.0 ranken sich im Wesentlichen um die Produktion. Doch Mehrwert durch Vernetzung ist in den anderen Schritten der Wertschöpfung ebenfalls gegeben. Gerade in der Forschung & Entwicklung kann durch das Vernetzen von Maschinen, Anlagen, Fahrzeugen und Geräten erheblich Zeit eingespart und Qualität gewonnen werden. Dies zum Beispiel, wenn frühzeitig Daten im Feldversuch gesammelt und ausgewertet werden. Der Vertrieb wiederum kann sich vor einem Kundenbesuch einen genauen Überblick verschaffen. Welche «Connected Products» hat der Kunde im Einsatz, welche Produkte haben das Ende der Lebenszeit erreicht, und gibt es Produkte die schon heute an Leistungsgrenzen stoßen? Gute Informationen legen so die Grundlage für zukünftige Vertriebserfolge. Ebenso im Service & Betrieb, wenn Informationen zu Betrieb, Störungen oder Wartung für bessere Prozesse sorgen. Bei Forschung & Entwicklung, Vertrieb und Service & Betrieb sprechen wir heute weniger von Industrie 4.0 sondern von Connected Products. Das Potenzial für die Effektivitäts- und Effizienzsteigerung bei Connected Products ist ähnlich hoch wie bei Industrie 4.0. Insofern können beide getrost als «Geschwister» bezeichnet werden. 56
  57. 57. Was vereint die Familie Industrie 4.0 & Connected Products? Insofern kommen in vielen Fällen Menschen ins Spiel, die Connected Products und Industrie 4.0 bedienen. Für die Bedienung sind wiederum Smartphones, Tablets, Gestenerkennung und zukünftig auch Ansätze wie Datenbrillen (z.B. Google Glass) prädestiniert. Auch hier sollte man sich hüten, die Dinge auf eine einfache Formel zu reduzieren. Aber neben der Voraussetzung «Vernetzung ermöglicht Mehrwert» gibt es zwei zentrale Themen, die Connected Products und Industrie 4.0 verbinden: Durch die Vernetzung entstehen große Datenmengen und die Fragestellung, wie diese Datenmengen verarbeitet – sprich interpretiert – und gespeichert werden. Die Anforderungen sind immens, Big Data und Cloud Computing bieten Lösungsansätze. Eine Vollautomatisierung der Wertschöpfung wird es nicht in allen Teilen der Industrie geben, dazu sind die Prozesse zu komplex. 57
  58. 58. 58 Sie erhalten Einblick in branchen-übergreifenden Erfahrungen – vom Felddatenmanagement, um die Produktentwicklung von vernetzten Geräten zu unterstützen bis zur weltweiten Überwachung von Maschinen im Betrieb. Um aus großen Datenmengen die richtigen Erkenntnisse und Schlüsse zu ziehen, müssen diese geeignet aufbereitet und zugänglich gemacht werden. Hier werden die Facetten der Visualisierung beleuchtet, mit denen Sie Ihre Informationen übersichtlich vermitteln. Vortragsfolien
  59. 59. After years of talking about ubiquitous computing, the Internet of Things is finally taking off. Miniaturization and the falling prices for processors, memory, bandwidth, and sensors offer huge opportunities for manufacturers. For example, home automation devices are everywhere; medical devices and even street lamps are being connected. What does it take to develop successful connected products? My experience from Zühlke projects and observing the market shows that four simple guidelines can help: 1. Let your imagination run wild 2. Verify the benefit 3. Design it for humans 4. Collaborate across disciplines 59 Developing Connected Products Christoph Bröcker
  60. 60. 1. Let your imagination run wild 2. Verify the benefit After you have arrived at some great new idea like connected number plates, step back and check one essential feature: Does the product help your customers? There is more to this question than you might think. It includes verifying that your target customers have the necessary skills and that the solution is viable (for some amusement, read about the kitchen computer that Honeywell offered in the ‘60s). It also involves checking that other parts of the overall solution are in place (just think about the infamous Internet-connected fridge and its lasting inability to automatically scan its own content). First, place your feet firmly in the shoes of your customer and imagine that anything is possible. How would things work out in an ideal world? Observing your customers where they do their job, looking at examples from completely different domains (cross-industry innovation), and innovation techniques like NABC can help. For example, Würth Elektronik created an intelligent bin that watches the small parts it contains (e.g. screws and nuts) with an integrated camera. As it gets emptier, an order is automatically and wirelessly transmitted. 60
  61. 61. 3. Design it for humans Humans are peculiar. They do not always follow logic. The have emotions. It is easy to get carried away with technology when designing smart objects. The wizardry and machinery should stay inside, not on the surface. An excellent example of non-intrusiveness is the Mother Bear wallet that opens up with more resistance when your bank balance is low. User experience practices like paper prototyping will go a long way to get your product accepted by the market. This is not just about screen design, but about designing the whole interaction in a manner that fits with our needs as humans. Another example: DebMed saves lifes by improving hygiene in hospitals through a connected hand sanitizer. The secret for acceptance by mere humans: The data is collected and benchmarked at the team level, rather than individually. 4. Collaborate across disciplines Connected products require systems engineering. When Zühlke helped Liebherr to link their diggers and cranes to a monitoring portal on the Internet, the team consisted of domain specialists, project managers, management consultants, business analysts, user experience designers, software architects, web programmers, embedded software developers, electronics and mechanical engineers, among others. In the future, expect anthropologists, nanotechnology engineers, and data scientists to join the fray. Interdisciplinary collaboration is not just a question of selecting the right process template or the most capable project manager. It requires systems thinking and openness at each level. Success story Liebherr 61
  62. 62. Fachartikel in der Mobile Technology: Der Fachartikel, publiziert in der MobileTechnology 3/2012 beschreibt, wie CouchDB eingesetzt werden kann, um auf einfache Art und Weise eine asymmetrische Synchronisierung zwischen den Datenbeständeneiner mobilen Anwendung und einer zentralen Anwendung zu implementieren. 62
  63. 63. Vortragsfolien NoSQL etabliert sich als ernstzu-nehmende Alternative zu relationa-len Datenbanken. Doch wo steht die Technologie heute und wo geht die Reise hin? Die Folien beschreiben die ver-schiedenen Klassen von NoS-QL- Datenbanken und ihre Einsatz-möglichkeiten. 63
  64. 64. Praxisbeispiele Wie können wir den Zustand einer Baumaschine in Sibirien von der warmen Firmenzentrale aus überprüfen? Diese und andere Aufgaben löst Zühlke mit einer schlüsselfertigen Lösung aus Software, Funktechnologie und Elektronik. Success Story Liebherr Zühlke unterstützt AutoScout24 bei der Erstellung einer Plattform zur Vermittlung von Werkstatt-Dienstleistungen. Ziel ist die frühestmögliche Marktreife dieser neuartigen Idee. Success Story AutoScout24 HERE, ein Anbieter digitaler Karten und Location Based Services, plant die Migration der internen Entwicklungsinfrastruktur zu einem Public-Cloud-Anbieter. Zühlke erstellt ein Konzept für die Migration und setzt dieses mit um. Success Story HERE 64
  65. 65. Große Datenmengen sollen automatisiert gesammelt und ausgewertet werden. Die Gegenüberstellung der Lösungsansätze erfolgt anhand von Qualitätsattributen wie Skalierbarkeit, Kosten und Migrationsfähigkeit. Success Story Viessmann Ein führendes Internet-Unternehmen möchte künftig den Geocoding-Dienst von HERE nutzen. Dafür erarbeitet der Anbieter von digitalen Karten und Location Based Services ein Produkt, das Maßstäbe setzt. Success Story HERE Praxisbeispiele 65
  66. 66. Autoren-Hinweise Stefan Grasmann Internet of Things Connected Products Cloud Mobile Design Thinking follow me about me Dr. Moritz Gomm Big Data Industrie 4.0 Mobile Solutions Connected Products Founder of minipay.de follow me about me Peter Friese Software Engineer Public speaker Loves everything mobile & social Ex Zühlke Developer Advocate at Google follow me about me Dr. Christoph Bröcker Enterprise IT Economics Software Architecture Innovation Mountain runs follow me about me Alexander Appel Software Architecture Cloud Computing Big Data Integration Innovation follow me about me 66
  67. 67. Autoren-Hinweise Jörg Sitte Innovative Development Projects Software & Hardware Business & Visual Thinking Communication is Key Books, family & friends follow me about me Sebastian Schmitt Data Visualizer Software Craftsman Quality-fanatic User-friendly Backpack Traveller follow me about me Dr. Georg Molter Strategic Consulting Human Communication Big Data is a double-edged sword Attracted by the Internet of Things Tango aficionado follow me about me Michael Lehmann Software development Interested in new technologies Knowledge transfer Team player follow me about me Philipp Harrschar Innovation Methods Tailor-made Software New Product Development Strategic Business Development Wine Lover follow me about me 67
  68. 68. Autoren-Hinweise Dr. Stephan Volmer Cloud Computing Enterprise Architecture Agile Methodologies Software Engineering American Football Official follow me about me Gernot Trautmann Embedded software and systems development Systems Engineering Managing development services Agile mind set and precise analyzer follow me about me 68 Bitte leiten Sie das eBook weiter! Ansprechpartner für dieses eBook ist Moritz Gomm. © Zühlke Group http://zuehlke.com/big-data

×