Die besten Artikel der 7 IT-Insider-Portale auf 60 Seiten: Top-Infos für CIOs zum Thema Infrastruktur, Applikations-Entwicklung/Delivery und Digitalisierung – werbefrei.
Alle CIO-Briefings finden Sie hier: http://www.cloudcomputing-insider.de/cio
1. Technology-Update für IT-Manager
CIOBRIEFING
09/2017
+++ Proaktiver Webseitenschutz aus einer Hand +++ Die Zeit ist reif
für SDN +++ Standards für ethisches KI-Design in Arbeit +++ Das
Datensubjekt bekommt durch die DSGVO größere Rechte +++ Fach-
kräfte dringend gesucht: Wege zum Cloud-Profi +++ So organisieren
Sie ein verteiltes Team +++ Quanta Cloud Technology expandiert und
verdrängt die (Ex-)Auftraggeber +++ Drohnenabwehr mit Laser, Richt-
funk und Netz +++ Automatisierte Netzwerk-Virtualisierung mit VMware
NSX +++ So werden Daten bei Edge Analytics geschützt +++ Wer will
schon 60-prozentiges NVMe/f? +++ ERP-Pakete aus der Cloud müs-
sen performant, sicher und anpassbar sein +++ IDEs und Tools für
Dapps und Smart Contracts +++ Die Top 10 für Backup und Recovery
ISSN 2364-3188 www.ciobriefing.de
powered by
2. MANAGEMENT & STRATEGIE
Proaktiver Webseitenschutz aus einer Hand..............................................3
Die Zeit ist reif für SDN..............................................................................9
Standards für ethisches KI-Design in Arbeit............................................13
Das Datensubjekt bekommt durch die DSGVO größere Rechte............... 17
Fachkräfte dringend gesucht: Wege zum Cloud-Profi..............................21
So organisieren Sie ein verteiltes Team...................................................25
Quanta Cloud Technology expandiert und verdrängt
die (Ex-)Auftraggeber..............................................................................30
TECHNOLOGIE & ZUKUNFT
Drohnenabwehr mit Laser, Richtfunk und Netz.......................................35
Automatisierte Netzwerk-Virtualisierung mit VMware NSX........................39
So werden Daten bei Edge Analytics geschützt......................................43
Wer will schon 60-prozentiges NVMe/f?..................................................46
ERP-Pakete aus der Cloud müssen performant, sicher
und anpassbar sein................................................................................49
IDEs und Tools für Dapps und Smart Contracts......................................55
Die Top 10 für Backup und Recovery......................................................59
CIOBRIEFING
09/2017
IMPRESSUM:
Vogel IT-Medien GmbH
August-Wessels-Str. 27
86156 Augsburg
Tel.: +49(0)821-2177-0
Fax: +49(0)821-2177-150
Email: zentrale@vogel-it.de
Internet: www.vogel-it.de
Handelsregister Augsburg
HRB 1 19 43
Umsatzsteueridentifikationsnummer:
DE 127502716
Geschäftsführer: Werner Nieberle
Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV:
Nico Litzel, Florian Karlstetter, Ulrike Ostler, Stephan Augsten, Andreas Donner, Peter Schmitz, Rainer Graefen (Anschrift siehe Verlag)
Vogel IT-Medien
Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991
gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstech-
nologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an.
Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de,
DataCenter-Insider.de, Dev-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de.
Vogel Business Media
Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschrif-
ten und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen
vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.
4. CIOBRIEFING 09/2017
Seite 4
Budget und Leistung
„Über Geld spricht man nicht“, so ein bekanntes Sprichwort.
Aber man sollte zumindest genau hinschauen, was man für sein
Geld bekommt. Bei Net Wächter kann man drei verschiedene Ta-
rife buchen (oder eine individuelle Konfiguration) für den Schutz
der eigenen Webseite. Der günstigste Basic-Tarif ist bereits für
monatlich 14,99 Euro (plus MwSt.) zu erhalten und liefert einen
guten Basisschutz. Etwas mehr Sicherheit erhält man im Busi-
ness-Tarif (29,99 Euro plus MwSt.), der sicherlich für viele An-
wendungen bereits einen soliden Schutz bietet. Wem dies noch
nicht genügt, der wählt den Premium-Tarif für 149,99 Euro pro
Monat (zzgl. MwSt.), der alle Standard-Funktionen beinhaltet.
Im Business-Tarif ist u.a. einen Online-Monitoring, ein DDoS-
Schutz, eine AntiMalware-Prüfung und ein Blacklist-Monitoring
enthalten. Net Wächter entwickelt seine Schutzkomponenten be-
vorzugt selbst, nutzt aber auch die Produkte von Spezialisten,
wie z.B. Kaspersky Lab im Antivirus-Umfeld, innerhalb seiner
Lösung.
Net Wächter zielt darauf ab, proaktiv zu agieren, also Attacken
bereits dann abzufangen, bevor sie die Webseite durch Manipu-
lationen oder Defacements beeinträchtigen können. Dies wird er-
reicht, durch Vorschalten eines Name Servers der durch Net Wäch-
ter bereitgestellt wird und als proaktiver Filter, für unerwünschte
und gefährliche Zugriffe fungiert. Dort werden beispielsweise
alle Zugriffe eliminiert, die von einer IP-Adresse kommen, die
als Angreifer, Spammer oder DDoS-Quelle bekannt ist.
Ob es sich nun um Angreifer handelt, die per SQL-Injection, Vul-
nerability Scan oder per Hacking-Tool angreift, oder um einen
normalen Besucher der Webseite – Net Wächter prüft alle Zu-
griffe und eliminiert die unerwünschten. Im Wesentlichen sind
es drei Komponenten, die Net Wächter seinen Kunden offeriert:
● Schutz: Web Application Firewall (WAF) und AntiMalwa-
re-Schutz sowie Schutz vor den in OWASP 10 (OWASP Top
Ten Projekt) definierten Angriffe (Cross Site Request Forgery
(CSRF), Cross Site Scripting (XSS) u.a.)
● Beschleunigung: Content-Caching auf SSD-Platten mit einer
vorgegebenen Gültigkeitszeit (Lease Time). Optional auch ab-
schaltbar, falls es mit Affiliate-Marketing-Programmen etc. zu
Kollisionen kommen sollte.
● Überwachung: Verfügbarkeit der Webseite (Uptime), Lade-
zeit der Webseite und Kontrolle, ob die Website auf Blacklists
steht und als „gefährlich“ gemeldet wird (Reputationsverlust).
5. CIOBRIEFING 09/2017
Seite 5
Da Net Wächter ein noch junges Startup ist, darf man gespannt
sein, was die Macher noch an weiteren Schutz-Funktionalitäten
implementieren werden.
Technik
Um ein Webseiten-Monitoring zu implementieren gibt es traditi-
onell zwei unterschiedliche Wege. Entweder man agiert von au-
ßerhalb und meldet, wenn Angriffe erfolgen. Oder man arbeitet
als Webseiten-Komponente innerhalb und erkennt dort die An-
griffe, meldet diese und versucht zu verhindern, was machbar ist.
Net Wächter beschreitet hier einen innovativen Ansatz, indem
man zwar von außerhalb agiert, aber trotzdem als Komponen-
te des Webauftritts funktioniert – ohne jedoch zusätzliche API‘s
oder DLL’s zu integrieren. Dies wird erreicht, durch Vorschalten
bzw. umlenken des Name Servers. Ein von Net Wächter bereitge-
stellter Name Server ersetzt hier den Name Server des Web-Pro-
viders oder den eigenen des Unternehmens. Über diesen Name
Server werden die Security-Funktionen von Net Wächter akti-
viert und diese verifizieren alle Zugriffe auf die Webseite.
Ein cleveres Prinzip, welches üblicherweise auch durch Web-Pro-
vider unterstützt werden kann. Denn das ersetzen der Standard-
Einträge für eine Webseite auf dem Name Server des Providers
durch die Daten von Net Wächter ist eine Minutensache. Im Nor-
malfall kann man dies entweder per GUI bei seinem Web-Pro-
vider selbst erledigen oder mit einer entsprechend formulierten
Bitte bzw. einem Auftrag an den Web-Hoster per Support-Sys-
tem. Größere Firmen, die einen eigenen Name Server betreiben,
können dies selbst erledigen.
Net Wächter unterstützt hierbei http- und https-Webseiten, wo-
bei bei letzterem das SSL-Zertifikat bei Net Wächter hochgela-
den werden muss. Wenn man noch kein SSL-Zertifikat hat, aber
bereits plant diese Schutzfunktionalität zu implementieren, kann
man auch für den kostenlosen 14-Tage-Test via Net Wächter ein
Gratis-Trial-Zertifikat bei COMODO ordern und so erste Erfah-
rungen sammeln. Der 14-Tage-Test bei Net Wächter ist wie üblich
gratis abrufbar und vermittelt einen guten Eindruck, wie es um
die Sicherheit der eigenen Webseite steht und wie häufig diese
bereits attackiert wird!
Bonbon gefällig?
Ein besonderes Bonbon das Net Wächter seinen Kunden bietet,
soll hier nicht unerwähnt bleiben. Net Wächter bzw. die Mutter-
6. CIOBRIEFING 09/2017
Seite 6
firma GZIS GmbH ist einer der wenigen deutschsprachigen Part-
ner des bekannten Security-Unternehmens Acunetix. Im Rahmen
dieser Partnerschaft wird während des Testbetriebs auch ein ein-
maliger Gratis-Check der Webseite durch Acunetix durchgeführt.
Dabei wird das Sicherheitsniveau der Webseite selbst durch-
leuchtet – also, wie aktuell sind die eingesetzten Tools, können
bekannte Vulnerabilities ausgenutzt werden, wie steht es um die
Code-Sicherheit und vieles mehr. Dieser Report erlaubt es dem
Web-Admin, entdeckte Schwachstellen innerhalb seines Web-
Auftritts zu beseitigen, bevor andere diese ausnutzen.
Wer dieses Feature dauerhaft nutzen will, da der Webauftritt sehr
dynamisch ist oder aus einer Vielzahl von Komponenten besteht,
kann diesen Acunetix-Service auch über Net Wächter einkaufen.
Gesetzliche Anforderungen
Bei Net Wächter erhält man Sicherheit für den eigenen Websei-
tenauftritt, ohne dass man sich mit dieser im Detail auseinander-
setzen muss. Falls es aber doch mal erforderlich ist und bei der
Implantation oder einen erforderlichen Webseiten-Umgestaltung
aus Security-Gründen zu Schwierigkeiten kommt, bietet Net
Wächter auch Consulting-Leistungen. Denn das Motto ist: Pro-
aktiver Schutz, aus einer Hand!
Auch wenn es sich noch nicht überall herumgesprochen hat, dass
Telemediengesetz (TMG) fordert in seiner aktuellen Fassung im
Paragraph 13 Pflichten des Diensteanbieters, Absatz 7:
Diensteanbieter haben, soweit dies technisch möglich und wirt-
schaftlich zumutbar ist, im Rahmen ihrer jeweiligen Verantwort-
lichkeit für geschäftsmäßig angebotene Telemedien durch tech-
nische und organisatorische Vorkehrungen sicherzustellen, dass
1. kein unerlaubter Zugriff auf die für ihre Telemedienangebo-
te genutzten technischen Einrichtungen möglich ist und
2. diese
a) gegen Verletzungen des Schutzes personenbezogener Daten
und
b) gegen Störungen, auch soweit sie durch äußere Angriffe be-
dingt sind,
gesichert sind. Vorkehrungen nach Satz 1 müssen den Stand der
Technik berücksichtigen. Eine Maßnahme nach Satz 1 ist insbe-
sondere die Anwendung eines als sicher anerkannten Verschlüs-
selungsverfahrens.
7. CIOBRIEFING 09/2017
Seite 7
Was dies beispielsweise bei einem DDoS-Angriff in der Praxis
bedeutet,lässt sich direkt bei Net Wächter nachlesen. Net Wäch-
ter, als Security-Dienstleister, sorgt auch dafür, dass Anforderun-
gen der Kunden bezüglich Datenschutz und Revisionssicherheit
berücksichtigt werden. So sind alle Services bei Rechenzentren
in Deutschland gehostet die nach ISO27001 zertifiziert sind. Net
Wächter ist unter anderem Mitglied bei „IT Security Made in
Germany“ (ITSMIG), einem Zusammenschluss verschiedenen
Security-Unternehmen unter dem Dach von TeleTrusT (Arbeits-
gruppe „ITSMIG“).
Resümee
Bei Net Wächter hat man sich intensiv Gedanken um die Sicher-
heit gemacht und kann bereits zu diesem frühen Startup-Zeit-
punkt (Online seit April 2017) durch eine Vielzahl durchdachter
Features punkten.
Das Tool Net Wächter wird sicherlich seinen Weg machen und
den Markt für Webseiten-Monitoring und -Schutz aufmischen.
Denn die Kombination aus Standard-Leistungen und nützlichen
neuen Features wird den Endkunden ansprechen. Wer für seine
Webseiten einen All-In-One Security-Dienstleister sucht, muss
sich Net Wächter auf jeden Fall näher ansehen.
Net Wächter auf einen Blick
Name Net Wächter
Webseite https://netwaechter.de/
Geschäftsform GmbH
Standort Ostfildern – Stuttgart
Gründungszeitpunkt Oktober 2016
Geschäftsführer Swjatoslav Cicer, Yuliy Finkelstein
NET WÄCHTER
youtube
8. CIOBRIEFING 09/2017
Seite 8
Anzahl Mitarbeiter 12
Security-Sparte Web-Security-Suite für KMU und
Enterprise
Produkt NET WÄCHTER
Innovation Einfache Konfiguration ohne IT-Secu-
rity Know-how, Schutz, Beschleuni-
gung und Überwachung
Unternehmens-Blog https://netwaechter.de/blog/
Investitionen möglich Ja
Startfinanzierung /
Umsatz letztes Jahr –
■ Ralph Dombach
Mehr zum Thema Security finden Sie auf
www.security-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
9. CIOBRIEFING 09/2017
Seite 9
Software-Defined Networking und On-Demand
Services
Die Zeit ist reif für SDN
Dieses Jahr wird das Jahr, in dem Software-Defined Net-
working (SDN) endlich im Geschäftsalltag ankommt. Das
beschleunigt die digitale Transformation und verändert
die Art, wie Unternehmen mit ihrem Netzwerk interagie-
ren.
Bald wird es ein Ding der Unmöglichkeit sein, dem Internet der
Dinge (IoT) zu entkommen. Schon heute ist das Netz überall. Es
läuft in der Hosentasche auf dem Smartphone, im Wohnzimmer
auf Fernsehern und in Büros auf Rechnern. In Zukunft wird es
noch omnipräsenter.
Laut einer McKinsey-Studie wird sich der Umsatz der Informa-
tions- und Telekommunikationsbranche in Deutschland mit dem
IoT bis 2020 mehr als verdoppeln. Er wird auf bis zu 23 Mil-
liarden Euro pro Jahr ansteigen. Bis 2020 wird laut Studie der
Preis für ein grundlegendes IoT-Modul, das Hardware ans Inter-
net anschließt, von heute vier auf ein bis zwei Euro fallen. Das
verändert den Alltag von Unternehmen. Allein auf der Hannover
Messe 2017 wurden mehr als 500 Anwendungsbeispiele für „In-
dustrie 4.0“-Lösungen gezeigt.
Infrastruktur für IoT, 5G und die Cloud
Das Internet der Dinge wird jedoch nur so stark wachsen, wenn
auch die Infrastruktur im Hintergrund wächst. Netzwerke müs-
sen sich den ständig ändernden Gegebenheiten anpassen. Das gilt
für IoT, den 5G-Ausbau und die Cloud. In den vergangenen Jah-
ren ist der cloudbasierte Datenverkehr deutlich gewachsen. Bis
2020 wird er sich laut dem sechsten Cisco Global Cloud Index
fast vervierfachen und auf 14,1 Zetabyte ansteigen.
„SDN und On-Demand
Services verändern auch
die Art, wie Unterneh-
men in Zukunft für Netze
zahlen.“ (Süleyman
Karaman, Geschäfts
führer Colt Technology
Services GmbH in
Deutschland)
Bild:ColtTechnologyServices
10. CIOBRIEFING 09/2017
Seite 10
Gründe für die Beliebtheit der Cloud ist neben der Skalierbarkeit
die höhere Workload-Leistung. Das überzeugt auch die Deutsche
Bahn. Der Konzern hat vor kurzem angekündigt, dass er bis 2022
das eigene Rechenzentrum überflüssig machen will. Die Bahn
will stattdessen auf die Amazon-Cloud setzen. Während bei der
Deutschen Bahn der Umzug in die Cloud erst begonnen hat, sind
andere Unternehmen schon weiter.
Dedizierter Zugriff auf die Cloud
hhpberlin ist Marktführer im Brandschutz in Europa und hat mehr
als 180 Mitarbeiter. Die meisten davon sind hoch spezialisierte
Ingenieure. Das Unternehmen setzt auf die Microsoft-Cloud und
eine digitale Infrastruktur. Diese verbindet alle Mitarbeiter mit
dem Hauptstandort in Berlin, egal wo auf der Welt sie leben oder
arbeiten. Die Cloud hilft den Ingenieuren, komplexere Simulatio-
nen zu erstellen und dadurch bessere Entscheidungen zu treffen.
Der Zugriff auf die Cloud erfolgt aus Performance- und Sicher-
heitsgründen nicht über das öffentliche Internet, sondern über ei-
nen dedizierten Zugang. Für diese Art von Zugängen stehen bei
professionellen Anbietern eine Vielzahl von Konnektivitätsop-
tionen zur Verfügung: zum Beispiel Ethernet Punkt-zu-Punkt,
Ethernet Hub-and-Spoke, IP VPN oder Managed-Router-Lösun-
gen für Punkt-zu-Punkt-Verbindungen in die Cloud.
Das Brandschutzunternehmen entschied sich für eine Ethernet
Hub-and-Spoke-Lösung mit Managed Layer 3 CPE. Der Haupts-
tandort wurde mit einem vorhandenen Hub mit doppelter Hauszu-
führung ausgestattet. Zusätzlich wurden zwei dedizierte Zugriffe
mit je 200 Mbit/s Bandbreite zu Microsoft Azure in Amsterdam
geschaltet. Das Beispiel zeigt, wie wichtig neben der Wahl des
richtigen Cloud-Anbieters auch der Zugang in die Cloud ist. Was
nutzen Software as a Service, Plattform as a Service oder Infra-
structure as a Server, wenn ein langsames oder unflexibles Netz-
werk die Vorteile der Cloud ausbremst?
On-Demand und Software-Defined Networking
Bisher mussten Unternehmen Investitionen in ihre Netze lange im
Voraus planen. Wenn ein Unternehmen mehr Bandbreite benötig-
te, begann die Planung Wochen oder sogar Monate vor der Be-
reitstellung. Es dauerte, bis Anschlüsse und Leitungen verlegt und
geschaltet wurden. In Zukunft wird sich das ändern. Unternehmen
reagieren dann flexibel auf Leistungsspitzen im Geschäftsbetrieb.
11. CIOBRIEFING 09/2017
Seite 11
Beispiel Deutsche Bahn: Kunden fahren etwa zwischen fünf Uhr
morgens und 23 Uhr abends, nachts müssen die Server nicht mit
voller Leistung laufen, das gilt auch für das Netzwerk. Beispiel
Berlinale: Im Herbst steigt der Bandbreitenbedarf des Filmfesti-
vals rapide an. Dann treffen die ersten Beiträge in Berlin ein und
die Sichtungen beginnen. Während der Festivaltage im Februar
wird die Bandbreite je nach Verbindung auf 1 Gbit/s beziehungs-
weise bis zu 10 Gbit/s erhöht. Zwischen den Festivals, über den
Rest des Jahres, ist der Bandbreitenbedarf grundsätzlich geringer.
Mit intelligenten Netzwerken können Unternehmen ihre Band-
breiten flexibel an diese temporären Lastspitzen anpassen – und
zwar immer genau dann, wenn sie diese benötigen. Steigt in Zu-
kunft der Bedarf an Bandbreite, lassen sich SDN-basierte On-
Demand-Cloud-Verbindungen je nach Bedarf flexibel über ein
Online-Portal hoch und runter skalieren.
In diesen Portalen definiert der Nutzer zwei Endpunkte, reserviert
die dazugehörigen Ports und gibt diese frei. Neben dem Land, der
Stadt und dem Standort kann man auch die zugehörige Verka-
belung wählen. Um einen Cloud-Port anzulegen, reserviert man
einen Port und fügt ihn dem Konto hinzu. Sobald man zwei oder
mehr Ports bereitgestellt hat, kann man sie in Minutenschnelle
verbinden und dabei die VLAN-Konfiguration, die Bandbreite
und das Preismodell auswählen.
Damit umgehen Unternehmen die bisher auftretenden langwie-
rigen Bereitstellungsprozesse. SDN und On-Demand Services
verändern auch die Art, wie Unternehmen in Zukunft für Net-
ze zahlen. Sie müssen für eine 100-Gbit/s-Leitung, die sie nur
wenige Tage im Jahr benötigen, nicht mehr dauerhaft konstant
hohe Beträge zahlen. In Zukunft zahlen Unternehmen nur für die
Netzwerkdienste, die sie tatsächlich beanspruchen.
Gemeinsame SDN-Schnittstellen
Führende Netzwerkanbieter arbeiten zusammen mit dem Me-
tro Ethernet Forum (MEF) daran, Standards für gemeinsame
SDN-APIs zu definieren. ATT und Colt haben zum Beispiel
den ersten erfolgreichen Feldversuch für SDN-Interoperabili-
tät durchgeführt, der beweist, dass die SDN-Architekturen von
Netzwerk-Service-Providern sogar über Kontinente hinweg zu-
sammenarbeiten können. Die Einführung der ersten APIs ist für
Ende des Jahres geplant. Dies ist ein wichtiger Schritt zur Ein-
führung abgestimmter On-Demand Services über automatisierte
und verbundene Netzwerke.
12. CIOBRIEFING 09/2017
Seite 12
Service Provider werden die standardisierten Schnittstellen nut-
zen können, um mit den SDN-Architekturen der anderen nahezu
in Echtzeit zu arbeiten. Es ist geplant, acht API-Definitionen zu
standardisieren. Sie sollen auf den branchenweit abgestimmten
Open APIs basieren, die von den Mitgliedern des TM Forum
entwickelt wurden. Die ersten drei der unten aufgeführten APIs
werden in der ersten Phase des Projektes in diesem Jahr definiert:
1. Adress-Validierung
2. Service-Verfügbarkeit
3. Bestellung
4. Quotierung
5. Abrechnung
6. Performance
7. Tests
8. Ticketing
Diese APIs werden dazu beitragen, die Schwierigkeiten frag-
mentierter Netzwerke zu reduzieren. Dadurch können Unter-
nehmen skalierbare, flexible On-Demand Netzwerkservices über
Software-Plattformen wie ECOMP provisionieren. ECOMP ist
ein Open-Source-Projekt der Linux Foundation. Die verbunde-
nen Netzwerke werden Kosten sparen und agiler sein. Dadurch
können Unternehmen ihren Betrieb effizienter gestalten und auf
jedes neue Ding flexibel reagieren, egal ob es IoT oder 5G heißt
oder einen Namen trägt, den wir heute noch gar nicht kennen.
■ Süleyman Karaman
13. CIOBRIEFING 09/2017
Seite 13
Künstliche Intelligenz und Ethik
Standards für ethisches KI-De-
sign in Arbeit
Umfassende Personenprofile, Drohnen, Hacks auf Par-
lamente, politische Hetze in sozialen Medien … Anlässe,
über die Ethik der IT zu reden, gibt es genug. Genau zu
diesem Zweck traf sich Ende Juni in München das Welt-
forum für Geschäftsethik zur Münchner Konferenz „Ge-
staltung einer humanen vierten Industriellen Revolution.“
In den vergangenen Jahren hat die IT durch neue technologische
Entwicklungen endgültig ihre Unschuld verloren. Der Grund:
Informationstechnik ist nicht mehr auf eine mehr oder weniger
abgeschlossene Digitalsphäre beschränkt, sondern durchdringt
unser Leben unsichtbar allgegenwärtig. Sie wird inzwischen zur
unverzichtbaren Komponente der großen Systeme, die Gesell-
schaften am Leben halten: Strom- und Wasserversorgung, Fi-
nanzsystem, politischer Diskurs.
Auch banale Geräte und Alltagsdinge, zum Beispiel Kleidung,
werden zu Datenlieferanten, deren Output häufig auf wenig trans-
parente Weise genutzt wird. Und Maschinen können inzwischen
autonom darüber entscheiden, wen sie, beispielsweise auf dem
Schlachtfeld oder bei Polizeieinsätzen, töten. Künstliche Intelli-
genz (KI) werde schon bald den Menschen überflügeln, glauben
Singularitäts-Propagandisten wie Ray Kurzweil, der, um seinen
Tod bis zum Transfer seines Geistes in eine Maschine hinauszu-
zögern, angeblich täglich unzählige Nahrungsergänzungs-Tab-
letten schluckt.
Dr. Alex Walz, Senior
Research Fellow, MPI,
erklärt am Rednerpult
sein abgestuftes
Regulierungsmodell für
ethische Fragen in der
Informationstechnik.
Bild:Rüdiger
14. CIOBRIEFING 09/2017
Seite 14
Mit anderen Worten: Nachdenken über die Gestaltung der IT
und Regulierung der Akteure tut not. Im Deutschen Patent- und
Markenamt waren Fachleute aus aller Welt versammelt und bo-
ten einen Einblick darin, wie weit die Berücksichtigung ethischer
Maßstäbe bei der Gestaltung von IT- oder intelligenten Systemen
und Anwendungen schon gediehen ist.
Wohl am konkretesten in dieser Hinsicht sind die Bemühungen
der IEEE. Sie arbeitet derzeit an einem ganzen Satz von Standards.
„Wir wünschen uns, dass deren Einhaltung genauso selbstver-
ständlich wird wie die anderer IEEE-Standards“, sagt Kay-Firth
Butterfield, stellvertretende Vorsitzende der IEEE – Global Ini-
tiative for Ethical Considerations in the Design of Autonomous
Systems (Weltweite Initiative für Ethische Überlegungen bei der
Entwicklung autonomer Systeme. Auch am Max-Planck-Institut
für Innovation und Wettbewerb arbeitet man an diesen Fragen.
Seine bisherigen Ergebnisse referierte Dr. Axel Walz, der dort
Senior Research Fellow ist.
Abgestufte Herangehensweise
Walz beschäftigt sich damit, wie es möglich ist, Ethik in KI zu
implementieren. „Wir stehen am Scheideweg“, betonte er. „Unse-
re Entscheidungen beeinflussen maßgeblich, wie die zukünftige
Gesellschaft aussieht.“ Wie KI jeweils implementiert werden sol-
le, sei in Hinblick darauf zu entscheiden, welche ethischen Werte
jeweils geschätzt werden sollten. Es sei durchaus ein Unterschied,
ob eine Software lediglich individuelle persönliche Einstellungen
respektieren solle oder gegebenenfalls fundamentale ethische
Kernwerte beeinträchtige, etwa die Menschenrechte, Menschen-
würde oder das Leben: Gehe es um individuelle Einstellungen,
reiche, mit Zertifizierungen der betreffenden Systeme, vertrag-
lichen Vereinbarungen zwischen Anbieter und Nutzer und ähn-
lichen Mitteln zu arbeiten, um ethische Ergebnisse zu erreichen.
Gehe es dagegen um fundamentale Rechtsfragen die die Men-
schenrechte, die Menschenwürde und ähnlich hoch angesiedelte
Werte beträfen und diese schlimmstenfalls in Konflikt mit der
Privatautonomie brächten, sei ein breit angelegter, nötigenfalls
auch globaler demokratischer Diskurs und Prozess erforderlich,
um zu Entscheidungen zu kommen, die anschließend auch breit
akzeptiert werden.
Als Beispiel für die erstgenannte Gruppe nannte Walz etwa eine
Software, die Rezepte bereitstellt, die den Regeln einer Religion
entsprechen. Hier würde es reichen, wenn sich der Anbieter der
15. CIOBRIEFING 09/2017
Seite 15
Lösung entsprechend zertifizieren würde. Sollen Systeme dage-
gen über das Leben von Menschen autonom entscheiden, kann
der Diskurs gar nicht intensiv genug sein.
Weit weniger abstrakt verläuft derzeit der Standardisierungs-
prozess, der in die Standards der Gruppe IEEE P 7000 mündet
und unter dem Titel „Ethical Alligned Design“ läuft. An ihm be-
teiligen sich bisher rund 240 interdisziplinäre Experten. Da der
Prozess offen ist, forderte Butterfield ausdrücklich alle Experten,
die sich mit Themen rund um IT und Ethik beschäftigen, zur
Teilnahme an der Arbeit der Gruppe auf. Besonders junge Spezi-
alisten sollten sich melden, denn, so Butterfield: „Wir entwickeln
gerade die Welt, in der Sie einmal leben sollen.“ Derzeit gibt es
bereits zehn Arbeitsgruppen, die sich mit diversen Unterstan-
dards beschäftigen.
Ein neuer Satz Standards für digitale Ethik
Grundlegend ist der Standard P7000, („Model Profess for Addres-
sing Ethical Concerns During System Design”), der einen Prozess
beschreibt, mit dessen Hilfe ethische Erwägungen von Anfang
an ins Systemdesign einfließen. Am weitesten fortgeschritten ist
derzeit der Standard P7001, der sich mit der Transparenz autono-
mer Systeme befasst – gerade fürs autonome Fahren von höchs-
ter Bedeutung. Schließlich werden Verkehrsrichter eines Tages
darüber zu entscheiden haben, ob ein Todesopfer im Verkehr auf
das Versagen der Maschine oder eines menschlichen Verkehrs-
teilnehmers zurückgeführt werden muss.
P7002 (Data Privacy Process) beschäftigt sich mit Systemen und
Software, die persönliche Daten sammeln und auswerten. P7003
(Algorithmic Bias Considerations) beschreibt, wie man verhin-
dert, dass sich die – positiven oder negativen - Vorurteile von
Programmierern oder Auftraggebern in angeblich neutralen Al-
gorithmen wiederfinden. P7004 (Standard for Child and Student
Data Governance) entwickelt Richtlinien dafür, wie Bildungsin-
stitutionen mit den Daten von Schülern und Studenten umgehen
sollen, um diese zu schützen.
P7005 (Standard for Transparent Employer Data Governance) tut
dasselbe für Unternehmen beziehungsweise Mitarbeiterdaten,
soll aber gleichzeitig den Angestellten von Unternehmen ermög-
lichen, ihre Daten sicher und geschützt mit anderen Mitarbeitern
zu teilen. Vorbild war hier die Europäische Datenschutzverord-
nung, die im Mai kommenden Jahres in Kraft tritt. P7006 (Stan-
dard for Personal Data Artificial Intelligence Agent) befasst sich
16. CIOBRIEFING 09/2017
Seite 16
damit, wie Verwaltung und Unternehmen ethische Werte bei der
Gestaltung autonom entscheidender Algorithmen berücksichti-
gen können. Ziel ist, dass Einzelne im Detail bestimmen können,
wie und welche ihrer Daten verwendet werden, sodass sie ihr di-
gitales Profil kontrollieren können.
IEEE P7007 – bisher nur im Kongress, nicht auf der IEEE-Seite
im Web sichtbar – beschreibt ontologische Standards für ethisch
betriebene Roboter und Automatisierungssysteme, P7008 mit
dem resilienten Design autonomer und halbautonomer Systeme,
P7009 befasst sich mit ethischem „Nudging“ für Roboter, in-
telligente und autonome Systeme und P7010 mit der Schaffung
von „Tokku“-Gebieten – das sind Gebiete, in denen autonome
intelligente Systeme praktisch im echten Leben erprobt werden.
Außerdem gibt die Gruppe ein jährlich überarbeitetes Handbuch
„Ethically Alligned Design“ heraus, das kostenlos heruntergela-
den werden kann (Registrierung erforderlich). Es beschäftigt sich
mit dem derzeitigen Stand der Dinge auf diesem wahrscheinlich
diskursintensiven, um nicht zu sagen, umstrittenen Gebiet.
■ Ariane Rüdiger
Mehr zum Thema Big Data finden Sie auf
www.bigdata-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
17. CIOBRIEFING 09/2017
Seite 17
Die Datenschutz-Grundverordnung und die Rolle
von Objektspeichern
Das Datensubjekt bekommt
durch die DSGVO größere
Rechte
Die neue Datenschutz-Grundverordnung (DSGVO), die
am 25. Mai 2018 allgemein in Kraft treten wird, beruht
auf dem aktuellen Datenschutzgesetz und wird einige
Aspekte strenger regulieren. Von Abwarten, raten die
Experten ab.
Die neue DSGVO enthält einige Zusätze hinsichtlich der effek-
tiven Datenspeicherung, d. h., Daten müssen auf neue Art und
Weise langfristig gespeichert werden.
Klassische Offsite-Lösungen werden dann nicht mehr die neuen
Anforderungen erfüllen können. Die beliebte öffentliche Cloud
hat zwar neue Standards in Sachen Preis, Agilität und Verfügbar-
keit gesetzt, kann aber die Datensicherheit und -hoheit kompro-
mittieren.
Die Zusätze zu den bestehenden Bestimmungen sind:
● Meldung von Sicherheitsverletzungen und Angriffen innerhalb
von 72 Stunden, nachdem sie aufgetreten sind. Die Organisati-
onen müssen eine höhere Sichtbarkeit der Daten, der Zugriffs-
methoden und der Datenverwendung gewährleisten, damit sie
sensible persönliche Daten schneller wiederherstellen können.
● Höhere Strafe – bis zu 2 Millionen US-Dollar oder 4 Prozent
des weltweiten Umsatzes, je nachdem, welcher Wert höher ist
● Das Recht auf Löschung - Datensubjekte haben das Recht, die
Löschung ihrer persönlichen Daten anzufordern
Storage-Lösungen mit
Objektspeichern und
Software-definierter
Speichertechnologie
unterstützen die er
folgreiche Umsetzung
von Projekten zur Er
füllung der DSGVO.
Bild:Scality
18. CIOBRIEFING 09/2017
Seite 18
Technische Einschränkung oder Geschäftsgelegenheit?
Die relevanten Zusätze der Verordnung rufen nach einem lang-
fristigen Speicher, auf den man dennoch sofort zugreifen kann.
Solch ein Modell wäre aber finanziell und technisch absolut un-
tragbar, wenn dafür weiterhin die bestehenden Speicher-Applian-
ces eingesetzt werden würden.
Es ist sehr attraktiv, Daten online zu speichern, da sie dort viel
genauer analysiert werden können, was wiederum ein erheblicher
Geschäftsvorteil ist. Öffentliche Clouds für die Speicherung ma-
chen vor, wie preiswerte Onlinespeicherung funktioniert.
Durch die neuen Anforderungen an die Datenverfügbarkeit und
die Speicherorte kommen allerdings bald nur noch teure öffent-
liche Clouds infrage. Daher ist die Speicherung in einer priva-
ten Cloud die attraktivste Lösung, da solch ein Modell ebenso
preiswert wie die öffentliche Cloud sein kann und On-Premise-
Sicherheit, die Bandbreite von lokalen Netzwerken sowie die un-
schätzbare Möglichkeit bietet, vollständig auf personalisierbare
Geschäftsinformationen zuzugreifen.
Die schwindende Bedeutung des Magnetbands
Bisher waren Magnetbänder durch ihre geringen Kosten und ihre
Portabilität eines der wichtigsten Backup-Medien. Jedoch passen
genau diese Portabilität und die langen Wiederherstellungszeiten
nicht mehr zur neuen DSGVO, in der mehr Sichtbarkeit und ein
einfacherer Zugriff gefordert werden.
Magnetbänder sind nach wie vor eine preiswerte Option, jedoch
bestärken die Anforderung, mehrere redundante Kopien aufzu-
bewahren, hohe Handlingkosten und eine teure Technologie die
Ansicht, dass die langfristigen Gesamtbetriebskosten drei- bis
viermal so hoch wie die Infrastrukturkosten sind. Nicht zuletzt
aus diesem Grund wird die Cloud mittlerweile als sinnvolle Al-
ternative für dieses Langzeitspeichermedium angesehen.
Wichtige DSGVO-Anwendungsfälle der Objektspeicherung
Wie die folgenden Anwendungsfälle exemplarisch zeigen, helfen
verteilte, absolut sichere Objektspeicher gemeinsam mit ihrer er-
weiterbaren Kapazität, der besseren Performance und der Spei-
cherortkontrolle den Staaten und privaten Unternehmen dabei,
die Compliance ihrer immer strengeren Sicherheitsrichtlinien zu
erreichen.
19. CIOBRIEFING 09/2017
Seite 19
Als Backup- und Archiv-Ziel
Einige der größten Datensätze befinden sich in Offline-Backup-
und Archiv-Infrastrukturen, wo das Abrufen von Daten extrem
zeitaufwändig ist. Die Kosten von Objektspeichern nähern sich
denen des Magnetbands an (einschließlich des gesamten langfris-
tigen Handlings und der Migrationskosten), was es immer sinn-
voller werden lässt, Objektspeicher als Backup- und Archiv-Ziele
zu nutzen.
Durch die Scale-Out-Performance kann die Speicherplattform
mehrere parallele Backup- und Datenströme mit Kabelgeschwin-
digkeit handeln, wenn die Kapazität zunimmt. Zudem profitieren
die Unternehmen von einem Namespace, der sich über mehrere
Rechenzentren erstreckt, sodass eine Datei von mehreren Stand-
orten aus aufgerufen werden kann.
Compliance und Archivierung
Die Datenspeicherung in regulierten Branchen unterliegt stren-
gen Regelungen, die nur mit einer konformen Speichertechnolo-
gie erfüllt werden können. Die Benutzer sollten sich nach einer
Objektspeicherplattform mit einer iCAS-Schnittstelle (Internet
Content Addressable Storage) umsehen, die die nötigen Funkti-
onen für die Sicherung von Daten wie Verschlüsselung, Verrie-
gelung in Containern und Datenaufbewahrung/ablauf umfassen.
Diese Funktionen machen Objektspeicher zu einem ausgezeichne-
ten Ersatz von bestehenden Compliance-Plattformen. Außerdem
bieten sie die Verfügbarkeit, Agilität und Skalierbarkeit, die von
aktuellen und zukünftigen Speicherplattformen erwartet werden.
Logging as a Service
Mit der Aussicht auf noch mehr Vorgaben von den Regulierungs-
behörden entwickeln viele Institutionen gerade Systeme, die als
Self-Service-Portal funktionieren können. Die Daten aus unter-
schiedlichen Quellen wie Handelssystemen, Stimmaufnahmen,
Mitteilungen, E-Mails und mehr werden dann nach Kunde und
Datum gespeichert und ohne Zutun des IT-Teams auf einer Be-
nutzeroberfläche dargestellt.
Es braucht nicht viel, um zu verstehen, dass ein klassisches Datei-
system dafür nicht skalierbar genug ist und dass Objektspeicher
perfekt für so eine Anwendung sind. Zudem ist Scality RING der
einzige Objektspeicher, der sowohl große als auch kleine Dateien
und Objekte handeln kann.
20. CIOBRIEFING 09/2017
Seite 20
Objektspeicher hinsichtlich der DSGVO bewerten
Storage-Lösungen mit Objektspeichern und Software-definierter
Speichertechnologie, die mit Funktionen der Enterprise-Klasse
erweitert werden, können den Zugriff und die Verwaltung erheb-
lich verbessern und unterstützen die erfolgreiche Umsetzung von
Projekten zur Erfüllung der DSGVO. Sie sollten bei der Bewer-
tung von
Objektspeicherlösungen auf die folgenden Eigenschaften
achten:
Geringe Kosten: Die Bereitstellung einer softwaredefinierten
Storagelösung auf Standardservern sorgt für planbare niedrige
Kosten. Eine einzige Datenkopie in einem Objektspeicher hat die
gleiche Lebensdauer wie drei Kopien auf einer Festplatte oder
fünf Kopien auf einem Magnetband. Daher ist Forrester Research
zu dem Ergebnis gekommen, dass führende Objektspeicherplatt-
formen über einen Zeitraum von fünf Jahren bis zu 70 % weniger
Gesamtbetriebskosten als bestehende Dateispeicher haben.
Garantierte Verfügbarkeit: Die Unternehmen sollten nach Ob-
jektspeichern suchen, die für 100 % Verfügbarkeit ausgelegt sind
und die auch den Ausfall von mehreren Servern und Komponen-
ten einschließlich ganzer Rechenzentren überstehen.
Hohe Leistung: Daten vor Ort sind von Natur aus schneller
abzurufen. Dennoch sollten Sie wissen, dass es einige Objekt-
speicherplattformen gibt, die ausgezeichnetes Datenstreaming
bieten, was sie zu idealen Backup-Zielen macht und gleichzeitig
blitzschnelle Antworten auf Datenanfragen gewährleistet.
Enterprise-ready: Die Unternehmen sollten sich nach einer
Plattform mit einem umfassenden Satz an Sicherungs-, Verwal-
tungs- und Automatisierungsfunktionen umsehen, da diese so
auch für globale Unternehmen geeignet sind. Diese Funktionen
umfassen verschiedene Verbundauthentifizierungsstandards,
Verschlüsselung und Schlüsselmanagement.
Fazit
Die Objektspeicherung ist die ideale Speichertechnologie für
zahlreiche Projekte zur Erfüllung der DSGVO-Anforderungen.
Gleichzeitig steigert sie die allgemeine Performance, Effizienz
und Resilienz. Jetzt ist der richtige Zeitpunkt, um auf die lang-
fristige Speicherung und Sicherung von morgen umzusteigen.
■ Nigel Houghton
22. CIOBRIEFING 09/2017
Seite 22
Dennoch plagen sich viele deutsche Unternehmen nach wie vor
mit Sicherheitsbedenken, wobei diese bei den verschiedenen in-
nerbetrieblichen Interessensgruppen unterschiedlich ausgeprägt
sind. Während Fachfunktionen und Stakeholder aus den Busi-
ness-Prozessen vor allem beschleunigte Dynamiken für ihr Ge-
schäft sehen, stehen die Funktionen für IT-Sicherheit und Daten-
schutz dem Thema erfahrungsgemäß eher kritisch gegenüber:
Auch weil es in den Unternehmen an Qualifikationen bzw. Spezi-
alisten fehlt, die sich mit der Thematik wirklich auskennen. An-
gesichts des quasi leergefegten Fachkräfte-Markts werden sich
Unternehmen verstärkt selbst um den Fach-Nachwuchs kümmern
und interne Mitarbeiter zu Cloud-Spezialisten weiter qualifizie-
ren müssen. Eine Management-Aufgabe, die top-down gesteuert
werden muss, denn häufig ist damit nichts weniger als die Zu-
kunftsfähigkeit des Unternehmens verbunden.
Der Weg in die Datenwolke ist immer auch ein Change-Prozess,
denn die Cloud bedeutet loszulassen ohne die Hoheit und Kont-
rolle über die eigenen Assets abzugeben. Interne IT-Mitarbeiter
und Cloud-Spezialisten nehmen hier die unerlässliche Funktion
der Schaltzentrale ein, denn die Anforderungen an den Cloud-
Einsatz müssen fachlich richtig gesteuert werden.
Dazu bedarf es IT-Know-hows, möglicherweise sind auch neue
Prozesse, Kompetenzen und Schnittstellen zu definieren, zugleich
aber Technologie und Prozesse des Cloud Providers zu verstehen.
Doch was zeichnet Cloud-Spezialisten aus? Dr. Constantin Söld-
ner, Geschäftsführer der Söldner Consult GmbH und Spezialist
für Cloud-Trainings, hat es auf den Punkt gebracht: „Die Cloud
hebt das Silo-Denken auf, weg vom Spezialisten für Networking
oder Storage, hin zum Generalisten, der sich in vielen verschie-
denen Bereichen zurechtfindet. Cloud-Experten müssen daher
einen ganzheitlichen Blick auf die spezifischen Anforderungen
ihrer Anwendungen an die Cloud einnehmen.“
Security und Datenschutz
Angesichts der dynamischen Bedrohungslage und immer restrik-
tiverer regulatorischer Anforderungen ist Awareness für sensiti-
ve Themen wie Cyber Security und Datenschutz nach Meinung
des Experten für Cloud-Trainings von immer höherer Relevanz.
„Themen wie Docker und DevOps erfordern neue Herangehens-
weisen und mehr Querschnittsdenken. Gefragt sind auch Ent-
wicklerfähigkeiten, Skriptsprachen zu beherrschen gehört zu den
Mindestanforderungen“, weiß Dr. Söldner aus seiner langjähri-
gen Trainings- und Beratungspraxis.
23. CIOBRIEFING 09/2017
Seite 23
Weil Unternehmen im Rahmen der digitalen Transformation
zunehmend schneller und agiler reagieren müssen, müssen sich
Cloud-Spezialisten nicht nur mit Automatisierungstools ausken-
nen. Darüber hinaus sind sie Kosten-Controller: „Weil der Auf-
wand in der Cloud on-Demand abgerechnet wird, müssen sie die
laufenden Kosten im Blick behalten, also bestehende Architektu-
ren regelmäßig auf den Prüfstand stellen können“, so Dr. Söldner.
Eine weitere Aufgabe, die ihnen eine wichtige Rolle im Unter-
nehmen sichert und spannende wie dynamische Tätigkeiten in
einem zukunftsorientierten Umfeld verspricht.
Um Unternehmen wie IT-Professionals eine praxisnahe Qua-
lifizierung zu ermöglichen, hat TÜV Rheinland das hersteller-
neutrale Cloud-Kompetenzmodell entwickelt. Es deckt die drei
wichtigsten Schlüsselqualifikationen ab, die Unternehmen und
Märkte heute benötigen: den Cloud Administrator, den Cloud-
Entwickler und den Cloud-Architekt. Fortbildungen, bei denen
übrigens auch Führungskräfte das Know-how aufbauen können,
das ihnen für Entscheidungen beim Übergang von On Premises-
Infrastrukturen zur Cloud mehr Sicherheit verleiht.
Der Cloud-Administrator ist eine unverzichtbare Schlüsselkom-
petenz im Unternehmen, doch was genau macht er eigentlich?
Nach dem Kompetenzmodell, das TÜV Rheinland entwickelt
hat, liegt der Fokus hier mehr im administrativen Bereich der
Systeme. Cloud-Administratoren kennen die Möglichkeiten, die
Cloud-Strukturen Unternehmen bieten und sind Experten im
Umgang, Wartung und dem Patching in der Cloud.
Die primäre Rolle des Cloud-Administrators umfasst die Instal-
lation, Konfiguration und Administration von Hersteller-Techno-
logien, bestehend aus On-Premise-Infrastruktur, Private, Hybrid
und Public-Cloud-Lösungen. Fundamentales Grundwissen zur
Sicherheit und Userverwaltung gehört zu seinen Kernkompeten-
zen. Wesentliche administrative Aufgaben und Verantwortlich-
keiten betreffen die Administration des Active Directory, den
Hosted Exchange sowie die Drittanbieter-E-Mail-Archivierung.
Professionelle Cloud-Administratoren sollten sich mit den Da-
tenwolke-Angeboten der Cloud-Anbieter und Hersteller wie Mi-
crosoft, Oracle, VMware und Amazon AWS auskennen.
Kompetenzmodell der TÜV Rheinland Akademie
Im Rahmen des Kompetenzmodells der TÜV Rheinland Akade-
mie erlernen Cloud-Admins eine Cloud von Grund auf zu planen,
zeitlich optimal bereitzustellen, sie zu überwachen und alle Sys-
24. CIOBRIEFING 09/2017
Seite 24
teme sicher zu analysieren. Sie erfahren, wie man eine On-Pre-
mises-Infrastruktur installiert und Private-, Hybrid- und Public-
Cloud-Lösungen etabliert. Sie können schließlich eine Vielzahl
von Servern in der Cloud verwalten, kennen die Unterschiede
zwischen den Cloud-Technologien und wissen, was für welche
Bedarfe im Unternehmen geeignet ist. Darüber hinaus verste-
hen sie, wie die Cloud mit der bestehenden IT-Infrastruktur des
Unternehmens im eigenen Rechenzentrum interagiert. Sie kön-
nen Office 365 installieren und selbständig administrieren und
schließlich auch eine Private Cloud nicht nur betreiben und moni-
toren, sondern auch eigenständig konfigurieren und bereitstellen.
Am Ende der Qualifizierung, wie sie TÜV Rheinland anbietet,
sind Cloud-Admins in der Lage, mehrere Tausend Server in der
Cloud zu verwalten und kennen hilfreiche Strategien für den si-
cheren und effizienten Betrieb, darunter Incident Response Ma-
nagement oder die Verzahnung von Cloud-Strategien mit Identi-
ty-und-Access-Management.
Fazit: Der Cloud-Administrator ist der „Tempelwächter“ der
Unternehmens-Cloud-Architektur und zugleich der Business-
Enabler. Denn er weiß, was das Unternehmen businessseitig
an Ressourcen benötigt, andererseits kennt er die Angebote der
Cloud-Service-Provider und weiß, welche Services am besten ge-
eignet sind, den technologischen Bedarf des Unternehmens zu
decken. Die Qualifizierung zum Cloud-Administrator beinhaltet
Theorie und Anwendungsbeispiele und dauert je nach Vorkennt-
nissen und angestrebter Tiefe zwischen 10 und 25 Tage, sofern
herstellerspezifische Kompetenzen im Rahmen der Weiterbil-
dung mit aufgebaut werden sollen.
Sie verläuft dreistufig, wobei die Module aufeinander aufbauen.
Voraussetzung für die Zertifizierung zum Cloud Administrator
nach TÜV Rheinland sind Kenntnisse und Erfahrung in gängi-
gen IT-Infrastrukturen. Die Gehaltsperspektiven: je nach Qua-
lifikation, Einsatzort, Unternehmensgröße und Personalverant-
wortung zwischen 2600 bis 5400 Euro monatlich. Damit liegt er
unter dem eines Cloud-Entwicklers bzw. Cloud Developers.
Welche Aufgaben der Cloud Developer hat und wie er sich vom
Cloud-Admin unterscheidet, erfahren Sie in der 2. Folge: Was
macht eigentlich… der Cloud Developer? ■ Peter Holländer
25. CIOBRIEFING 09/2017
Seite 25
Strategien für verteilte Teams
So organisieren Sie ein
verteiltes Team
Die Softwareentwicklung in verteilten Teams ist nicht im-
mer einfach, weshalb es dringend nötig ist, diese sinn-
voll zu organisieren. Hierarchien, Vorgehensweisen und
Verantwortlichkeiten sollten klar definiert sein, um von
vornherein Probleme auszuschließen. Das beginnt schon
bei der Technik und der Auswahl der Team-Mitglieder.
Das Arbeiten in verteilten Teams ist immer mehr die Regel als
die Ausnahme bei der Software-Entwicklung. Kein Wunder: Bei
allen Vorteilen lokaler Teams wie kurzer Wege und spontaner
Meetings sind Remote-Teams im Zweifel kreativer, produktiver
und kostengünstiger.
Verteilte Teams wollen aber von Grund auf deutlich effektiver
organisiert sein, als es bei lokalen Teams der Fall wäre. Für Ver-
antwortliche ist das größte Problem dabei die fehlende persönli-
che Greifbarkeit einzelner Entwickler, die ja im Zweifel in einer
anderen Stadt oder gar einem anderen Land arbeiten.
Spontane Korrekturen werden dadurch schwieriger, das Risiko
redundanter Arbeit und fehlender Beiträge wächst. Vor diesem
Hintergrund ist es wichtig, die Organisation verteilter Teams von
vornherein effektiv zu gestalten.
Für Verantwortliche in
weltweit verteilten
Softwareprojekten ist
das größte Problem die
fehlende persönliche
Greifbarkeit einzelner
Entwickler.
Bild:geralt-Pixabay.com/CC0
26. CIOBRIEFING 09/2017
Seite 26
Kommunikation klären und für funktionierende Technik
sorgen
Das A und O eines jeden verteilten Teams ist natürlich, dass die
zugrundeliegende Technik funktioniert und die Kommunikati-
on stimmt. Das bedeutet konkret, dass neue Remote-Mitarbeiter
umgehend an das hauseigene System, an Groupware-Lösungen
wie Slack oder an Projektmanagement-Tools wie Trello angebun-
den werden müssen.
Gleichzeitig sollten auch zusätzliche Kommunikationskanäle
jenseits dieser Infrastruktur (etwa ein Messenger wie Skype oder
schlicht E-Mail) vereinbart werden. So lässt sich sicherstellen,
dass die Kommunikation auch dann funktioniert, wenn das „gro-
ße“ System ausfällt oder aus anderen Gründen nicht erreichbar
ist.
Hier sollte bei Entwicklern, die zum Beispiel von Standorten mit
unzuverlässiger Stromversorgung und damit Internetanbindung
arbeiten, eventuell auch ganz klassisch die Telefonleitung zum
Einsatz kommen. Auf diese Weise sind technische und kommu-
nikative Hürden, die Abläufe in verteilten Teams stören können,
von vornherein ausgeschlossen. Mögliche Sprachbarrieren kön-
nen mit der Wahl der englischen Sprache als Teamsprache um-
gangen werden.
Individuelle Situation der Mitarbeiter beachten
In vielen Fällen entstehen verteilte Teams, weil Mitarbeiter pro-
jektbasiert angeworben werden: Selbstständige Entwickler wer-
den für ein Softwareprojekt oder einen Teilbereich eingebunden
und nach Abschluss wieder „entlassen“.
Jedem Team-Manager sollte bei der Arbeit mit diesen Mitarbei-
tern klar sein, dass diese im Zweifel noch andere Projekte be-
treuen und gegebenenfalls tagtäglich an mehreren „Baustellen“
arbeiten. Gleichzeitig kann es bei weltweit verteilten Teams zu-
sätzlich noch zu Zeitzonen-Problemen kommen: Wenn in Ban-
galore die Sonne untergeht, geht sie im Silicon Valley gerade auf
und in Deutschland ist dann Mittagspause.
Daher ist es notwendig, Meetings möglichst frühzeitig zu planen
und basierend auf den individuellen Bedürfnissen der einzelnen
Remote-Mitarbeiter anzuberaumen. Die mangelnde Flexibilität
in dieser Hinsicht wird im Zweifel durch die große Diversität der
Mitarbeiter und die dadurch resultierende Flexibilität des Teams
ausgeglichen.
27. CIOBRIEFING 09/2017
Seite 27
Regeln lokaler Teams bei Recruitment anwenden
Doch ganz egal, ob die Team-Mitglieder später in Bangalore, der
Bay-Area oder Berlin sitzen: Bei der Auswahl der Mitarbeiter
sollten die gleichen Regeln zum Einsatz kommen, die auch bei
der Zusammenstellung lokaler Teams wichtig sind. Neben Hard-
Skills wie den technischen Grundkenntnissen, Sprachkenntnis-
sen und natürlich der Fähigkeit, in Remote-Teams zu arbeiten,
sollte auch Wert auf die Soft-Skills wie Zuverlässigkeit, methodi-
sche Kompetenz und Teamfähigkeit gelegt werden.
Gleichzeitig sollte der Mitarbeiter ins Team passen, so verstreut
es auch ist. Denn in der Praxis müssen sich die Entwickler na-
türlich auch in verteilten Teams untereinander austauschen und
direkt miteinander kommunizieren. Fällt hier einer aus dem Rah-
men, können die gleichen negativen Dynamiken auftreten, mit
denen Teamleiter auch bei lokalen Teams zu kämpfen haben.
Sofern die Möglichkeit der Auswahl besteht, sollten Teamleiter
bei Remote-Mitarbeitern also die gleichen Standards ansetzen,
als würden diese später am Nachbar-Schreibtisch sitzen. Die Mit-
arbeiter sollten natürlich auch dementsprechend behandelt wer-
den.
Obwohl in virtuellen Teams allein schon aufgrund der Entfer-
nung und möglicher kultureller Differenzen nach der Arbeit kein
Feierabendbier zusammen getrunken werden kann, gibt es na-
türlich andere Möglichkeiten, das Teambonding zu fördern: So
bietet sich das Aufsetzen eines Casual-Smalltalk-Chats an, der
das Mitarbeiter-Geplauder an der Kaffeemaschine ersetzt. Auch
Computerspielturniere via Internet sind hervorragend geeignet.
Gegebenenfalls sollten Sie auch eine interne Website für alle
Team-Mitglieder aufsetzen, auf der die einzelnen Mitarbeiter
persönlich vorgestellt werden.
Für klare Zuständigkeiten und Hierarchien sorgen
Der Hauptbestandteil der Arbeit in virtuellen Teams ist aber na-
türlich: die Arbeit. Und diese sollte von vornherein möglichst
klar organisiert werden. Abläufe, Zuständigkeiten und nicht zu-
letzt Ansprechpartner sollten möglichst klar geregelt sein. Dabei
kann es helfen, das virtuelle Entwicklerteam in kleinere Einhei-
ten zu unterteilen, die ihrerseits für bestimmte Teilbereiche der
Softwareentwicklung zuständig sind. Das erspart dem Teamleiter
unnötiges Mikro-Management, gleichzeitig sorgt es für klare Hi-
erarchien und Ansprechpartner.
28. CIOBRIEFING 09/2017
Seite 28
Die Hierarchien können natürlich, wie heutzutage üblich, durch-
aus flach gehalten werden. Wichtig ist nur, dass virtuelle und lo-
kale Mitarbeiter wissen, mit wem sie weswegen sprechen müssen,
und zwar vom größten bis ins kleinste Glied. Sollte eine Person
etwa durch Krankheit ausfallen, empfiehlt es sich, auch gleich
einen Stellvertreter zu benennen, der im Fall der Fälle einspringt
und sich mit den bearbeiteten Inhalten auskennt.
Dadurch behalten Teamleiter einfacher den Überblick und haben
jederzeit Ansprechpartner, wenn ein Problem oder eine Frage
auftritt. Im Grunde entspricht diese Vorgehensweise der, die auch
in lokalen Teams erfolgen sollte. Allerdings ist sie bei Remote-
Teams aufgrund der räumlichen Distanz absolut unverzichtbar.
Ziele und Milestones definieren
Aufgrund der Tatsache, dass Remote-Mitarbeiter im Zweifel nur
teilweise für ein Software-Projekt arbeiten und als Freelancer
hier und dort noch weitere Baustellen haben, ist es nicht selten
kontraproduktiv, Tagesziele zu setzen. Stattdessen sollte das gro-
ße Ganze im Auge behalten werden.
Feste Abgabetermine sind natürlich Pflicht, doch die genaue
Zeiteinteilung sollte – schon aufgrund der Zeitzonen-Problematik
– dem Mitarbeiter oder dem entfernten Team überlassen werden.
Allerdings ist die saubere Definition von Milestones sowie das
regelmäßige Übermitteln und Reviewing des Codes wichtig, um
Fortschritte zu dokumentieren und bei Fehlern oder Fehlentwick-
lungen schnell eingreifen zu können. Redundanzen werden auf
diese Weise ebenfalls vermieden.
Ein guter Team-Leiter sollte dabei immer die nötigen Schritte im
Blick haben und seine Kommunikation optimieren, um durch die
Entfernung, eventuelle Nebenprojekte des Mitarbeiters oder die
Zeitverschiebung auftretende Probleme mit Abgabefristen von
vornherein zu vermeiden. Dabei helfen, genau wie bei lokalen
Teams, regelmäßige feste Meetings, die mit einzelnen Mitarbei-
tern, Untergruppen oder dem ganzen virtuellen Team einberufen
werden.
Mit der richtigen Organisation effektiv arbeiten
Zu guter Letzt ist es bei der Organisation verteilter Teams natür-
lich wichtig, jederzeit offen und freundlich zu kommunizieren,
um persönliche Probleme zwischen Mitarbeitern oder zwischen
Team-Einheiten zu verhindern, Stichwort Wir-gegen-andere-
29. CIOBRIEFING 09/2017
Seite 29
Gefühl. Grundsätzlich gilt: In Remote-Teams gelten die gleichen
sozialen Regeln wie bei lokalen Teams. Es können zudem die
gleichen Probleme auftreten. Diese werden aber im Zweifel durch
die räumliche Entfernung und den fehlenden persönlichen Kon-
takt noch verschärft.
Um effektives Arbeiten zu gewährleisten, sind die oben genann-
ten Regeln zur Organisation eines virtuellen Teams also unum-
gänglich und sollten schon von dem eigentlichen Aufbau des
Teams vom Teamleiter genau überdacht werden. Werden diese
einfachen Regeln jedoch beachtet, ist ein virtuelles Team kaum
schwerer zu organisieren als eines, dessen Mitglieder nur durch
Cubicle-Wände voneinander getrennt sind. ■ Christian Rentrop
Mehr zum Thema Development finden Sie auf
www.dev-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
30. CIOBRIEFING 09/2017
Seite 30
QCT wächst mit Kundenorientierung, gutem
Design und viel technischem Sachverstand
Quanta Cloud Technology
expandiert und verdrängt die
(Ex-)Auftraggeber
Der 2012 gegründete taiwanesische ehemals reiner Auf-
tragsfertiger Quanta Cloud Technology (QCT) entstand
aus der ehemaligen Enterprise Solution Business Unit
von Quanta Computer Inc.. Doch der neben dem ODM-
erwuchs ziemlich schnell das Direktgeschäft und so
fertigt QCT nicht nur für Facebook und andere, sondern
ist ein bevorzugter Partner von Intel und produziert x86-
Enterprise- und -Cloud-Technik unter eigenem Label:
Storage, Switches, Server, Management. Nun expandiert
QCT in Europa. Die Etablierten sollten sich warm anzie-
hen.
Über Jahre gab es auf dem Server-Markt eigentlich nur zwei, drei
große Namen. Allen voran HP und Dell – heute HPE und Dell
EMC – sowie IBM, das seine Aktivitäten in dieser Richtung teil-
weise an Lenovo abgegeben hat. Doch nicht nur Lenovo reüss-
siert. Inspur legt kräfig zu, Huawei kommt, Asus zieht ins Re-
chenzentrum und nun gibt auch QTC im europäischen Markt
Gas. Die über viele Jahre praktizierte Auslagerung der Produkti-
on an günstige asiatische Auftragsfertiger trägt nun halt Früchte
– für die Auftragsfertiger.
Quanta Cloud Techno
logy baut Server, die
sich an den OCP-
Prinzipien orientieren:
Die Komponenten sollen
einfach ein- und ausbar
sein, der Stromver-
brauch gering und die
Lesitung hoch und zu-
verlässig.
Bild:ArianeRüdiger
31. CIOBRIEFING 09/2017
Seite 31
Die Quanta Computer Inc. wurde 1988 gegründet und fertigte
laut Wikipedia damals bereits beispielsweise mehr als 30 Prozent
aller verfügbaren Notebooks weltweit. llerdings trugen diese, un-
terschiedliche und oft sehr bekannte Markennamen. Heute fertigt
das Unternehmen, wie Vice President und General Manager Mike
Yang ausführt, unter anderem Kommunikations-, Netzwerk-und
Cloud-Computing-Technik. „Das ist einmalig, dass wir von Sto-
rage, und Networking, über Computer-Power bis zum Manage-
ment alles im eigenen Haus fabriziren“, sagt er. Quanta beschäf-
tigt mehr als 90.000 Mitarbeiter.
2012 wurde die Tochterfirma QCT (Quanta Cloud Technology)
gegründet, eine der inzwischen 16 Tochterfirmen im Quanta-
Konzern, die wiederum eine gleichnamige GmbH als Tochterfir-
ma hat. Deren Standort ist Düsseldorf, und sie soll das Geschäft
im Raum EMEA aufrollen. Aktuell arbeiten dort über 21 Mit-
arbeiter, die Mitarbeiterzahl soll aber noch in diesem Jahr auf
40 steigen. In Aachen befindet sich ein Technologiezentrum und
eine Fertigung für Rack-Systeme.
Was Quanta für die hierzulande etablierten Hardware-Lieferan-
ten gefährlich macht, ist erstens seine enge Verzahnung sowohl
mit Speerspitzen der IT-Forschung wie MIT oder Harvard. Zwei-
tens unterhält QCT mit Intel als wichtigstem Lieferanten von
Server-Prozessoren eine sehr enge Kooperation – so bekam QCT
laut Stephan Gillich, Direktor technisches Computing bei Intel,
sehr früh Exemplare der neuen Prozessorserie „Xeon Scalable
Platform“ zum Ausprobieren und Integrieren in seine aktuellen
Server-Produkte.
„Wir haben für diese Prozessorserie Tonnen möglicher Systement-
würfe im Schrank“, sagt James Jau, Vice President RD bei QCT.
Auch hierzulande fand eine Präsentation der zweiten Generati-
on der QCT-Server-Produkte statt, am 26. Juli in München. Die
Rechner tragen die Labels „Quanta Grid“ und „Qanta Plex“ statt.
Das ist ziemlich zügig wenn man bedenkt, dass Intel diese neue
Plattform offiziell erst am 12. Juli der Öffentlichkeit vorgestellt
hat. Früher waren nur Tyan und Advantech dran – Tyan kündigte
gar schon am 11. Juli an, man werde bald Server mit Prozessoren
der Scalable-Serie im Programm haben. Spätestens zur „Mobi-
le World 2018“ will QCT dort weitere Lösungen, unter anderem
fürs Edge, vorführen.
Schon heute arbeiteten mehr als 1.000 Entwicklungsingenieure
daran, die Möglichkeiten der neuen Architektur in individuali-
sierte Produkte für die Anforderungen spezifischer Anwendun-
32. CIOBRIEFING 09/2017
Seite 32
gen umzusetzen – handele es sich nun um Deep oder Machine
Learning, Hochleistungsrechnen oder schlicht höchste Skalier-
barkeit, wie sie schnell wachsende Cloud-Anbieter brauchen. Das
Entwicklungsteam soll zudem noch in diesem Jahr um weitere
500 Ingenieure wachsen.
Für den konservativen Markt in Deutschland müssen asiatsche
Firmen viele Vorurteile bezüglich Qualität und Sicherheit über-
winden. Da hillft es, dass es an Erfahrung und Referenzen bei-
leibe nicht mangelt. Quanta fertigt alles – Server, Netztechnik,
Storage und auch Racks – schon seit vielen Jahren, wenngleich
für andere und nun unter eigenem Label, mit eigenem Design.
„Kaum jemand kann diese Vielfalt aus eigener Fertigung und
Entwicklung vorweisen“, sagt QCT-Chef Yang.
Kundenorentierung statt Friss-oder-Stirb
Außerdem – und das ist vielleicht der wichtigste Punkt - wis-
se QCT aus seinen Jahren als reiner Auftragsfertiger besser als
viele andere Hersteller, was Kundenorientierung bedeute. Früher
konnten die Erfindungen der Entwicklungsingenieure ohne viel
Geplänkel mit den Anwendern in neue Produkte umgesetzt wer-
den, die man den Herstellern dann in der Regel höchstpreisig aus
den Händen riss.
Diese Zeiten seien längst vorüber, doch die alte Mentalität des La-
borforschers sei bei den klassischen IT-Playern noch präsent und
im Cloud-Zeitalter möglicherweise hinderlich. Denn im Moment
geben nicht mehr die genialen Entwicklungsdiven der Computer-
bauer den Takt vor, sondern die gnadenlosen Anforderungen der
Cloud-Provider, die sich notfalls ihre eigenen Server bauen oder
bauen lassen – ganz ohne die Phalanx der etablierten Hersteller.
So arbeitet QCT schon lange intensiv an dem von Facebook ins
Leben gerufenen Open Compute Project (OCP) mit und brachte
2013 mit „Rackgo X“ seine erste OCP-inspirierte Rack-Architek-
tur auf den Markt, der inzwischen weitere folgten. Man unterhält
auch enge Beziehungen zu anderen Cloud- Anbietern und -Re-
chenzentren.
In Deutschland ist man beispielsweise inzwischen im Geschäft
mit 11, dessen Hosting-Plattform partiell von QCT stammt.
„Unsere dedizierten Server lassen wir zwar nach wie vor von
einem deutschen Integrator nach eigenen Entwürfen fertigen, wir
sind aber von der Kooperation mit QCT positiv beeindruckt und
können uns durchaus vorstellen, sie auszubauen“, berichtete Rai-
33. CIOBRIEFING 09/2017
Seite 33
ner Sträter, Head of Global Platform Hosting bei der 11 Internet
SE anlässlich der Präsentation in München. Eines der Kaufargu-
mente: „Wir können Einfluss nehmen.“
Und dieser Einfluss kann weit reichen. So ist Intel wiederum am
Feedback nicht nur von QCT und anderen Hardwarebauern inte-
ressiert, sondern auch an dem ihrer Kunden.
Der Erfolg
Der Lohn der Mühen: Zumindest HPE und IBM verlieren zwei-
stellig Marktanteile im Server-Markt, der Anteil der sonstigen
Hersteller, hinter denen sich auch Quanta versteckt, ist nach Zah-
len von Marlktanalysten zum vierten Quartal 2016 auf rund 34
Prozent angestiegen; laut IDC sind es etwa 25 Prozent. Das ist
keine Marginalie.
Beim Design hat QCT sichtbar versucht, dringliche Probleme von
Providern zu berücksichtigen. Das drückt sich in scheinbar unwich-
tigen Kleinigkeiten aus, die aber im Alltag von Administratoren
mit Tausenden zu verwaltender Server erhebliches Gewicht haben.
So ist der Austausch von Komponenten wie Lüfter, Festplatten,
PCI-Karten oder DIMM-Modulen grundsätzlich ohne jedes Werk-
zeug möglich und so einfach und wenig kraftraubend, dass sie nur
noch Sekunden dauern, wie in München vorgeführt (und von den
Gästen der Veranstaltung selbst nachgemacht) wurde.
Außermdem bleibt die neue Systemgeneration im laufenden Be-
trieb kühler als die alte, trotz größerer Komponentendichte. Alan
Chang, Produktmanager QCT: „Wir haben das gesamte Layout
und die Kühltechniken überarbeitet. So montieren wir sechs
Doppelventilatoren mit kleineren Rotoren und daher größerer
Drehgeschwindigkeit statt der üblichen fünf, was mehr Kühlef-
fizienz bedeutet.“ Der Idle-Verbrauch wurde auf knapp über 40
Watt begrenzt. Cheng: „Viele Server arbeiten meistens nicht und
sollen dann möglichst wenig verbrauchen.“
Ein Beispiel für die konsequente Umsetzung von OCP-Prinzi-
pien, die größtmögliche Unabhängigkeit der Kompoenenten und
Flexibiltät fordern, ist der „QuantaPlex T22SF-1U“ für zwei Ser-
ver-Knoten: So nutzen die Knoten keine gemeinsamen Kompo-
nenten, arbeiten also vollkommen unabhängig voneinander.
Das Rack enthält für jeden Knoten redundante Stromversorgun-
gen und Lüfter (2 +1Ü). Gleichzeitig sind die Knoten-Blades so
gestaltet, dass sie sowohl in den rechten als auch in den linken
Einschub des Gehäuses passen. Das funktioniert, weil der Cage
34. CIOBRIEFING 09/2017
Seite 34
für die beiden vorgesehenen SSD-Festplatten am Ende des Kno-
tenmoduls auf einer Schiene montiert ist und sich daher je nach-
dem, ob das Modul rechts oder links im Gehäuse steckt, geführt
von einer Schiene, an die passende Position verschiebt.
Federn am Cage stabilisieren ihn nahe der Mittenposition, aus der
er nur so weit wie gerade nötig verschoben wird. „So muss man
für diesen Rechner jeweils nur ein Knotenmodul vor Ort in Re-
serve halten statt mindestens zwei“, erklärt ein QCT-Mitarbeiter.
Weitere Geräte:
Zu den neuen Geräten gehören drei hocheffiziente Compute-
Server für Aufgaben wie HPC, vier hochskalierbare Servermo-
delle für Anwendungen wie VDI, Hyperskalierung oder vSAN,
zwei Systeme für AI-Aufgaben mit bis zu acht GPUs und vier
Storage-Server, die mit Aufgaben wie Hadoop, Big Data oder hy-
perskalierbarer Storage am besten fertig werden. Zwei Modelle
aus der hochskalierbaren Serie „QuantaPlex T42“ und zwei der
HPC-Systeme unter dem Label Quanta Grid sind bereits global
verfügbar, der Rest der Server kommt im Herbst.
William Shih, Country Manager EMEA, will von Düsseldorf aus
den deutschen und europäischen Markt erschließen. Der Mana-
ger, der zuvor für Acer tätig war, wird sich zunächst um Provi-
der und auch Enterprises kümmern – der Mittelstand wird weiter
über Distis bedient. „Wir bieten Produkte, die etwa so viel kosten
wie die von HP. Unser derzeit hier noch recht kleiner Marktanteil
soll sich jedes Jahr verdoppeln bis verdreifachen.“
Das ist bei einem von Shih aktuell angenommenen Anteil eigener
Produkte am deutschen Serve-Markt von 0,5 Prozent sicher noch
keine Bedrohung, könnte sich aber schnell dazu auswachsen,
wenn die Wachstumswünsche des Unternehmens sich erfüllen
oder gar übertroffen werden. ■ Ariane Rüdiger
35. CIOBRIEFING 09/2017
Seite 35
Abwehr von unbemannten Fluggeräten
Drohnenabwehr mit Laser,
Richtfunk und Netz
Immer mehr Drohnen bewegen sich im deutschen Luft-
raum. Die Systeme können nicht nur den Flugverkehr
gefährden, sondern auch eine Bedrohung für Großver-
anstaltungen, Stadien, Forschungszentren oder auch
Rechenzentren darstellen. Es ist also wenig verwunder-
lich, dass verschiedene Akteure inzwischen Abwehrmaß-
nahmen entwickeln. Wir geben einen ein Überblick über
aktuell verfügbare Erkennungs- und Abwehrsysteme.
Nach Daten von Gartner sollen 2017 weltweit drei Millionen
Drohnen im Wert von 6 Milliarden Dollar über den Tresen gehen,
was einem Umsatzanstieg von 34 Prozent und einem Anstieg der
verkauften Geräte sogar um 39 Prozent gegenüber dem Vorjahr
entspricht. Im Jahr 2020 soll der Markt schon auf 11,2 Milliarden
Dollar weltweit angewachsen sein. Dabei liegen die Modelle für
die private Nutzung mit 2,8 Millionen Stück mengenmäßig vor,
in Hinblick auf den Umsatz aber mit 2,8 Milliarden Dollar hinter
den 174.000 kommerziellen Drohnen zurück, mit denen 3,7 Mil-
liarden umgesetzt wurden. In Deutschland wurden laut GFK im
Jahr 2016 rund 300.000 Kameradrohnen für die private Anwen-
dung verkauft, die Prognose fürs laufende Jahr liegt bei 500.000.
Millionen Drohnen
befinden sich heute
schon in privater Hand.
Deutsche Sicherheits
behörden halten sogar
Drohnenangriffe auf
Fußballstadien und
andere Massenveran-
staltungen für möglich.
(Bild:Pixabay/CC0
36. CIOBRIEFING 09/2017
Seite 36
Wie oft deutsche Rechenzentren mit der Absicht, diese auszu
spionieren oder anzugreifen, überflogen werden, weiß kei-
ner. „Uns ist bisher kein solcher Fall bekannt“, sagt Jan Peter
Schween, beim deutschen Drohnenabwehr-Spezialisten Dedrone
für den Vertrieb zuständig. Doch ist jede mit Kamera ausgestat-
tete Drohne theoretisch dazu in der Lage, ein Forschungszentrum
oder Data Center auszuspionieren – professionelle Drohnen kön-
nen neben normalen Videos Geräusche, Infrarotbilder etc. ein-
sammeln von Lasten, zum Beispiel explosives Material, auf ein
Ziel abwerfen.
Kein Wunder also, dass mittlerweile auch eine Drohnenabwehr-
industrie entsteht. In Deutschland am bekanntesten ist die Zu-
sammenarbeit der Deutschen Telekom mit Dedrone. Die Telekom
bastelt an einem „Drohnenschutzschild“ der über Magenta Se-
curity angeboten werden soll. Dedrones Produkt dient in erster
Linie dazu, Sender und Drohnen mit Hilfe intelligenter Software
und eines Multisensors, der Bilder, Geräusche und Funkwellen
im frequenzfreien Bereich aufzeichnet, zu finden, die Flugroute
der Drohne zu verfolgen und am Bildschirm darzustellen. Bei
der Klassifikation der Drohnen hilft eine Bilddatenbank, in die
laufend weltweit alle verfügbaren Bilder und die dazugehörigen
Daten wie der Drohnentyp eingespeist werden, um jedes unbe-
mannten Flugkörpers in der Nähe eines RZ so sicher wie möglich
zu klassifizieren. Auch privat gebaute Drohnenvarianten können
so erfasst werden.
Ein anderer Anbieter von Detektionslösungen ist Squarehead
Technology aus Norwegen. Das Unternehmen liefert die Hard-
und Software für das optoakustische Erkennungssystem von Nor-
sonic, das zusammen mit einem dritten Unternehmen, der auf die
Analyse optoakustischer Signale spezialisierte Orelia SAS, zu ei-
nem Drohnenerkennungs- und Abwehrsystem ausgebaut werden
soll. Dabei greift Squarehead auf superschnelles Array-Compu-
ting zurück, um das Gesehene und Gehörte mehr oder weniger in
Echtzeit auszuwerten.
Störfunk gegen Fluggeräte
Drone Labs findet mit dem Drone Detector Drohnen und Steuer-
geräte im Umkreis von mehr als einem Kilometer, selbst, wenn
sie noch nicht gestartet sind. Sie müssen nur eingeschaltet sein.
Dabei werden nicht nur fliegende, sondern auch fahrende oder
schwimmende Drohnen mit Hilfe von Radiofrequenzdetektion
und GPS-Analyse, Radar, Audio, Video oder Temperaturanalyse
37. CIOBRIEFING 09/2017
Seite 37
gefunden, und zwar auch dann, wenn sie sich nicht in Sichtlinie
mit dem Detektionsgerät befinden. Allerdings ist die Technologie
bisher hauptsächlich in den USA erhältlich.
Das System Anti-AUDS (Autonome UAV Defense System) des
britischen Unternehmens Blighter Surveillance kombiniert meh-
rere Elemente: Den A400-Radar für die professionelle Überwa-
chung des Luftraums, beispielsweise an Flughäfen, mit einer
Reichweite von bis zu zehn Kilometern, eine Kombination aus
Video- und Thermaldetektor, Chess Danamics Hawkeye Deplo-
yable System (DS) und EO Videotracker, um fliegende Drohnen
zu verfolgen und, zusammen mit der beim Radar gesammelten
Informationen, zu klassifizieren. Das ECS (Enterprise Control
System), ein zielgenaues Gerät mit intelligent gesteuerten Rich-
tungsantennen, stört dann selektiv die Kommunikationskanäle
der Drohne und hindert sie dadurch daran, ihre Mission zu erfül-
len, ohne den übrigen Flugverkehr zu beeinträchtigen. Diese Lö-
sung dürfte fürs durchschnittliche Rechenzentrum eher zu groß
sein.
Schon handlicher ist die Drone Gun der australischen Firma Dro-
ne Shield. Der gewehrähnliche Jammer hat eine Reichweite von
bis zu zwei Kilometern. Drone Shield erkennt Drohnen insbe-
sondere am Fluggeräusch, das für jeden Drohnentyp individuell
und speziell ist. Diese Geräusche speichert Drone Shield in einer
Datenbank, in die alle verfügbaren Drohnen-Fluggeräusche ein-
gespeist werden. Aktuelle Drohnengeräusche werden daran abge-
glichen. Allerdings ist diese Lösung bisher in Deutschland nicht
erhältlich.
Auf der CES im Januar 2017 präsentierte auch Airbus DS Elec-
tronics and Border Security (EBS) mit Xpeller ein System, das
Wärmebildkamera, Radar und einen Störsender kombiniert und
sich auch für andere Zwecke einsetzen lässt. Die inzwischen un-
ter dem Firmennamen Hensoldt vermarkteten Systeme gibt es in
mehreren Größenordnungen, auch tragbar im Rucksack.
Boeing hat mit dem Compact Laser Weapons System eine laser-
gestützte Lösung entwickelt, um Drohnen abzuschießen. Dabei
wird ein hochenergetischer Laserstrahl auf das Objekt gerichtet
und bringt es zum Absturz, indem es durch die Hitze des Lasers
innerhalb von 15 Sekunden in Brand gesetzt wird. Ein mobiles
Kleinsystem hat eine Leistung von 2 kW und besteht aus Küh-
leinheit, Batterien, einem Gerät, das den Strahl richtig ausrichtet,
und einen Farblaser. Eine Person kann das System betreiben. Der
geplante Anwendungsbereich ist vorwiegend militärisch.
38. CIOBRIEFING 09/2017
Seite 38
Drohnen fischen
Aber nicht immer reicht es den Anwendern, eine Drohne ledig-
lich zu detektieren und irgendwie vom Himmel zu bekommen.
Wer die Drohne physisch intakt einfängt, hat die Chance, ihre
Technologie und vor allem die geladene Software sowie eventuell
die bereits aufgezeichneten Daten des bisherigen Flugs zu ana-
lysieren. In diese Richtung zielt beispielsweise der Skywall 100,
eine Lösung des britischen Startups Openworks Engineering. Sie
wurde während des Besuches des ehemaligen US-Präsidenten
Obama in Berlin eingesetzt. Dabei schießt ein von einer Person
tragbarer Launcher mit Druckluft ein Netz mit Fallschirm direkt
auf die Drohne und fängt sie ein. Eine intelligente Optik gibt Si-
gnal, wenn der Launcher korrekt ausgerichtet ist. Der Fallschirm
sorgt dafür, dass das Fluggerät nicht auf dem Boden zerschellt.
Der Launcher hat Luft und Netze für mehrere Schuss und kann
deshalb kurz hintereinander mehrere Drohnen vom Himmel ho-
len.
Eine Gegendrohne setzt die französische MALOU Tech (Mission
Aérienne Légère à Organisation Unique) Systems mit dem MP200
ein. Dabei gibt es dieses System als reinen Detektor (MP200) und
als Abwehrdrohne (MPI200). Die Abwehrdrohne nähert sich der
angreifenden Drohne und fängt sie in einem Netz ein. Die De-
tektionsdrohne hat eine integrierte Kamera, SD-Speichermedien
und funkt auf 5,8 GHz in einer Reichweite von 0,6 Meilen. Sie
ist mit einem roten LED für Nachtflüge ausgerüstet. Die Abfang-
Drohne kann Drohnen bis 6 kg in ihrem Netz einsammeln und
sicher zum Boden bringen.
Und dann gibt es noch die „natürliche Methode“: Wie sich heraus-
gestellt hat, attackieren Raubvögel, z.B. Adler, recht erfolgreich
Drohnen. Diese Methode will beispielsweise die niederländische
Polizei einsetzen. Doch ob es für Rechenzentren sinnvoll ist, ne-
ben spezialisierten RZ-Dienstleistern auch noch einen Falkner zu
beauftragen, darf getrost bezweifelt werden. ■ Ariane Rüdiger
39. CIOBRIEFING 09/2017
Seite 39
Mit SDN auf dem Weg zum Software-Defined Data Center
Automatisierte Netzwerk-Virtua-
lisierung mit VMware NSX
LangehatsichamBetriebsmodellfürdasNetzwerknichts
verändert – wodurch die Bereitstellung neuer Applikati-
onen ausgebremst wurde. Die automatisierte Netzwerk-
Virtualisierung via VMware NSX ist der nächste Schritt
auf dem Weg zum Software Defined Data Center.
Aus Hardware wird Software. Mit dieser Vorgehensweise wer-
den IT-Services in Unternehmen agiler, flexibler und verfügba-
rer. Unternehmen bauen seitdem viele logische Serverinstanzen
auf einer Hardware auf. Die Virtualisierung der Serverumgebung
schafft logische Pools, die Ressourcen für Speicher und Compu-
ting bereitstellen – Hardware wird gewissermaßen zustandslos.
Der Trend zur Virtualisierung erreicht nun die Netzwerke.
VMware zielt mit NSX darauf ab, diesen nächsten logischen
Schritt im Rechenzentrum zu gehen. Unternehmen erhalten so
im Netzwerk ähnliche Mehrwerte wie bei der Servervirtua-
lisierung. Das verspricht der Hersteller vollkommen zu Recht,
denn die Netzwerkvirtualisierung befreit von physikalischen
Abhängigkeiten. VMware führt ein Overlay-Netzwerk ein, das
Hardware-unabhängig die Kommunikation von Applikationen
gewährleistet und erfüllt damit einen wichtigen Grundsatz: Res-
sourcen möglichst flexibel bereitstellen.
Die NSX-Plattform wird über bestehende Layer-3-Netzwerke ge-
spannt und transformiert das physikalische Netzwerk zum Trans-
portmedium. VMware NSX ist ein Hypervisor-basiertes Netz-
werk, das heißt: Hardware-typische Funktionen wie Switching,
Routing, Firewall und Load Balancing werden direkt im Hyper-
visor abgebildet.
Screenshot VMware
vSphere Web Client.
Bild:AxiansNetworksSolutions/VMware
40. CIOBRIEFING 09/2017
Seite 40
Die Motivation, sich mit der Virtualisierung von Netzwerken zu
beschäftigen, liefert der IT-Betrieb. Das Implementieren der Netz-
werkvirtualisierung ist jedoch eine Aufgabe für IT-Dienstleister
wie Axians Networks Solutions, die über das Know-how und
die Erfahrung für solche Projekte verfügen. Diese Spezialisten
bewegen sich technologisch auf dem neuesten Stand, sie passen
die NSX-Plattform an die Gegebenheiten der Anwenderfirma an.
Ineffizientes Betriebsmodell fürs Netzwerk
Mit der Virtualisierung erhält der IT-Betrieb technologisch die
Chance, das Netzwerk aus seinen alten Traditionen herauszurei-
ßen. Das Betriebsmodell für das Netzwerk hat sich in den vergan-
genen Jahrzehnten de facto nicht verändert. Es basiert auf einem
überwiegend manuellen Konfigurationsmodell und hängt von den
Leistungsmerkmalen der physischen Topologie ab. Im Vergleich
dazu hat sich der Alltag des Serveradministrators fundamental
gewandelt. Wenn die Fachabteilung eine neue Applikation benö-
tigt, dann konfiguriert er sich einfach im Self-Service eine virtu-
elle Maschine zusammen. Er muss dafür keinen Server bestellen
und nicht auf verschiedene Komponenten zugreifen, um etwas zu
provisionieren.
Jedoch kann ein Serveradministrator die angeforderte Applika-
tion nicht immer sofort in Betrieb nehmen. Das liegt an den Ab-
hängigkeiten, die das Netzwerk betreffen. Er braucht eben auch
noch die Netzwerkkonnektivität für den neuen Dienst. Unter
Umständen muss diese Applikation in einem eigenen Netz abge-
bildet werden, weil das Unternehmen verschiedene Fachbereiche
oder Kunden trennt. Die Netzwerkexperten treten an dieser Stelle
in Aktion und konfigurieren ein neues Netzwerk für die Appli-
kation.
Zunächst wird ein Layer-2-Netz bereitgestellt, um die Konnekti-
vität zu erreichen. Danach stehen das Vergeben von IP-Adressen,
das Konfigurieren von Switching und Routing sowie das Integ-
rieren logischer Teilnetze (VLAN) in den virtuellen Switch auf
der Aufgabenliste.
Der Nächste in der Prozesskette ist der Sicherheitsadministra-
tor. Er will für das neu gebaute virtuelle Netzwerk die Firewall-
Richtlinien bereitstellen. Dafür benötigt der Spezialist Angaben
vom Netzwerk- sowie Serveradministrator. Wenn der virtuelle
Webserver übertragen wurde, fehlt noch die Konfiguration des
Load Balancings, damit die Applikation hochverfügbar bereitge-
stellt wird.
41. CIOBRIEFING 09/2017
Seite 41
Die Bereitstellung einer App erfordert also einen längeren Pro-
zess, bevor die Fachabteilung diese produktiv nutzen kann. Das
veranschaulicht die Notwendigkeit, die automatisierte Virtua-
lisierung vom Server auf das Netzwerk zu übertragen. Daraus
resultiert der gewünschte Nutzen: ein beträchtlicher Gewinn an
Zeit, Agilität und Verfügbarkeit. Ein neues Netzwerk für eine
Anwendung bereitzustellen, kann einen Tag oder auch deutlich
länger dauern. Mit VMware NSX gelingt das bereits in wenigen
Sekunden. Für logisches Switching, Distributed Routing und Mi-
krosegmentierung ist die Plattform aktuell Vorreiter.
Die NSX-Technologie hat ihre Berechtigung auch aus der Si-
cherheitsperspektive, in der sie klassische Infrastrukturen klar
aussticht. Für den Sicherheitsgewinn, der so ins Rechenzent-
rum einzieht, sorgt die Mikrosegmentierung. Denn heutzutage
ist die Sicherung von einzelnen Applikationen von höchster Be-
deutung.
Die Mikrosegmentierung setzt direkt an der virtuellen Netzwerk-
karte einer virtuellen Maschine (VM) an. Das Regelwerk, das
die Administration zentral konfiguriert und bereitstellt, setzen
die VMs in ihrem virtuellen Netzwerk durch. Damit gewinnt der
Netzwerkbetrieb an Flexibilität, denn Netzgrenzen verlieren ihre
Bedeutung. Ein VMware-Administrator kann mehrere VMs in
einem Netz betreiben und diese voneinander isolieren und noch-
mal durch eine Firewall schützen.
Prädestinierte NSX-Einsatzfelder
VMware NSX eignet sich vor allem für Rechenzentren, in denen
mehr als 500 virtuelle Maschinen im Einsatz sind. Die NSX-Tech-
nologie automatisiert und beschleunigt das Bereitstellen virtueller
Netze. Außerdem vereinfacht sich das Integrieren virtueller und
physischer IT-Services wie Switches, Router, Firewalls, Lastaus-
gleichsfunktionen, VPNs und Sicherheitsfunktionen. Insgesamt
lassen sich VMs effizient vernetzen und die Sicherheitsrichtlinien
für VMs sind individuell konfigurierbar.
Ein weiteres Anwendungsfeld ergibt sich durch die Self-Service-
IT. Anwender können IT aus dem eigenen Rechenzentrum oder
der Private Cloud beziehen. Auch wer Entwicklungs-, Test- und
Produktionsumgebungen innerhalb derselben virtualisierten In-
frastruktur isoliert darstellen will, sollte VMware NSX nutzen.
Die Plattform erleichtert es, mandantenfähige Netzwerke einzu-
richten und eine Private-Cloud-Architektur aufzubauen.
42. CIOBRIEFING 09/2017
Seite 42
VMware NSX versetzt den Administrator in die Lage, sich einfa-
cher, physikalischer Ressourcen zu bedienen, die aus Netzwerk,
Speicher und Server bestehen. Die Verwaltung erfolgt weiterhin
über die Spezialisten mit dem entsprechenden Know-how.
Der Cloud-Schub
Die Netzwerkvirtualisierung mit VMware NSX ebnet den Weg
zum Cloud-fähigen Rechenzentrum, das eine dynamische Last-
und Ressourcenverteilung realisiert. Die Plattform von VMwa-
re kann für sichere Verbindungen zu Public Clouds wie AWS,
Azure oder vCloud Air, lokale Service Provider und On-Premise
Datacenter sorgen. Entscheidend ist, dass sich das Bereitstellen
virtueller Netze auf Minuten oder weniger verkürzt. VPN, Rou-
ting, Load Balancing und Firewall lassen sich virtualisiert und
direkt für den Workload betreiben und automatisiert bereitstellen
– völlig entkopplet von der Hardware. ■ Onur Öztürk
Mehr zum Thema Netzwerke finden Sie auf
www.ip-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
44. CIOBRIEFING 09/2017
Seite 44
Edge Analytics übernimmt kritische Bereiche der Big-Data-
Analysen
Big Data Analytics entwickelt sich dabei zur dezentralen Daten-
analyse, aufgeteilt in Analytics mit Edge Computing (zum Bei-
spiel auf dem Gerät selbst) und Analytics in der Cloud. Dabei
sind es gerade die kritischen Anteile von Big Data Analytics, die
zu Edge Analytics werden, wie es zum Beispiel die Studie „In-
dustrial Analytics 2016/2017“ von Digital Analytics Association
e. V. beschreibt.
Es steht deshalb außer Zweifel, dass die Sicherheit und der Da-
tenschutz bei Edge Analytics besonders gewährleistet werden
müssen. Sicheres Edge Analytics ist zentraler Teil eines sicheren
IoT-Szenarios, gerade auch im Industrial Internet of Things (IIoT,
Industrie 4.0). Doch wie kann die Sicherheit bei Edge Analytics
gewährleistet werden?
Sicheres Edge Analytics bedeutet mehr als Endpoint-Sicher-
heit
Der Ansatz für die Absicherung von Edge Analytics muss sein,
die Integrität, die Verfügbarkeit und in den meisten Fällen auch
die Vertraulichkeit der Daten sicherzustellen. Dazu gehört zum
einen die Device Security, also die Endgeräte-Sicherheit.
Durch die große Vielzahl an Gerätetypen, die bei Edge Ana-
lytics zum Einsatz kommen, reichen die üblichen Verfahren der
Endpoint Security aber nicht aus. So gelingt die Installation ei-
ner klassischen Anti-Malware-Lösung auf vielen IoT-Sensoren
schlichtweg nicht, um nur ein Beispiel zu nennen.
Integrierte Sicherheit bei Edge Analytics
Ein zentraler Punkt bei der Sicherheit von Edge Analytics ist des-
halb, dass die Edge-Analytics-Lösungen selbst zur Sicherheit bei-
tragen müssen, also integrierte Funktionen für den Datenschutz
(bei der Analyse personenbezogener Daten) und für die IT-Si-
cherheit haben. Beispiele dafür gibt es auf dem Markt bereits:
● HPE Vertica verfügt insbesondere über Funktionen im Bereich
Zugangskontrolle für Nutzer und Administratoren, Verschlüs-
selung und Sicherheitsrichtlinien (HPE SecureData).
● Die Predix-Plattform verfügt über eine Reihe von Security-
Funktionen wie Verschlüsselung und Key Management, Iden-
titätsmanagement, Schwachstellenmanagement, Datenklassifi-
zierung, um nur einige zu nennen.
45. CIOBRIEFING 09/2017
Seite 45
● Thingworx bietet unter anderem ein umfangreiches Berechti-
gungssystem und Monitoring-Funktionen.
● Bei dem Cisco Fog Director sorgen zusätzlich zum Logging
und Monitoring zum Beispiel Cisco Industrial Security Ap-
pliances und Cisco Firepower Firewall Appliances für die Da-
tensicherheit (Edge-to-Enterprise IoT Analytics, powered by
Cisco und SAS).
● MapR Edge sieht unter anderem eine Zugangskontrolle und
Verschlüsselung vor, auch für die Datenübertragung zwischen
Edge und Cloud.
Ganz gleich, welche Edge Analytics Lösung gewählt wird, die
integrierten Sicherheitsfunktionen sollten bei der Auswahl eine
entscheidende Rolle spielen, um der kritischen Bedeutung von
Edge Analytics gerecht zu werden. ■ Oliver Schonschek
Mehr zum Thema Big Data finden Sie auf
www.bigdata-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
46. CIOBRIEFING 09/2017
Seite 46
Abwarten bei NVMe – ein Produkt ist noch keine
Lösung
Wer will schon 60-prozentiges
NVMe/f?
Kaum eine andere Technik wird aktuell in der Storage-
Welt so forciert propagiert wie NVMe. Dementsprechend
reißt die Zahl der Produktankündigungen nicht ab. Al-
lerdings reagieren die Anwender recht zögerlich auf den
neuesten Geschwindigkeitsschub, fehlende Funktionali-
täten schrecken ab.
Der Rummel um NVMe ist groß. Marktbeobachter rechnen da-
mit, dass sich das Protokoll rasch durchsetzt. So sollen 2020 die
Hälfte aller Enterprise-Server und 60 Prozent der angebotenen
Speichergeräte mit NVMe-Einschüben ausgestattet sein.
Der Anteil an NVMe-basierten All-Flash-Arrays (NVMe-AFA)
wird zu diesem Zeitpunkt auf gut 40 Prozent geschätzt. Erste mit
NVMe-SSDs bestückte und die NVMeOF-Spezifikationen unter-
stützende All-Flash-Arrays (AFAs) sind schon heute erhältlich.
Allerdings verhält es sich bei den Lösungen ein wenig wie mit
Fernsehgeräten, die das „4K-Ready“-Gütesiegel trugen.
Diese waren zwar auf das hochauflösende Format ausgelegt, aber
ohne 4K-fähige Empfänger und Kabel, eine schnelle Breitband-
verbindung und natürlich passende Inhalte änderte sich am TV-
Bild erst einmal nichts.
Analog dazu müssen auch bei NVMe alle Komponenten angefan-
gen vom Client und den darauf betriebenen Anwendungen über
das Netzwerk bis hin zum Storage-Array die Technik beherr-
schen. Ansonsten bleibt der erhoffte Nutzen aus.
NVMe-Zukunftsmusik:
Nichtflüchtige „Post-
Flash“-Speicher sollen
die Latenzzeiten weiter
senken und NVMeoF-
Lösungen den Aufbau
hochskalierbarer
Shared-Storage-
Lösungen ermöglichen.
Bild:www.nvmexpress.org
47. CIOBRIEFING 09/2017
Seite 47
Das Design muss stimmen
Für Rechenzentren geeignete NVMe-AFAs müssen daher eine
Reihe an Voraussetzungen erfüllen. Hierzu zählt unter anderem,
dass
● das Betriebssystem des Arrays für die Parallelverarbeitung
optimiert ist,
● die Controller NVMe-fähig sind,
● das System NVMeoF für die Frontend-Anbindung von Hosts
unterstützt,
● Dual-Port NVMe-SSDs zum Einsatz kommen, um für Hoch-
verfügbarkeit zu sorgen,
● von klassischen Speichern vertraute Funktionen, darunter
Komprimierung, Replizierung, Provisioning, RAID, Ver-
schlüsselung, Snapshots und Cloning und vieles weitere mehr
bereitstehen.
Doch genau hier liegt der Hund begraben. Kaum ein Enterprise-
Storage-System erfüllt bislang alle geforderten Kriterien, darü-
ber hinaus mangelt es oft an der Integration von Anwendungen
und Datendiensten. Ohne diese wird es schwer fallen, Kunden zu
einem Wechsel zu bewegen. Denn wer möchte schon auf Vertrau-
tes verzichten.
Zudem steht NVMeoF noch am Anfang. Bislang unterstützen nur
einige wenige Produkte den Standard und an Treibern, Betriebs-
system-, Hypervisoren- sowie Adapter-Optimierungen wird noch
gearbeitet. Dadurch lässt sich das Leistungspotenzial von NVMe
heute noch nicht vollständig abrufen.
Performance ja, aber nicht um jeden Preis
Aus Sicht von Herstellern und Analysten soll sich dies jedoch
rasch ändern. Als Hoffnungsträger gelten nichtflüchtige Speicher
der nächsten Generation wie 3D XPoint, die den Grundstein für
den Vorstoß in neue Performance-Dimensionen legen sollen und
niedrigere Latenzzeiten verheißen. Doch diese sind zunächst ein-
mal eins, noch teuerer als Flash. Womit wir bei finanziellen As-
pekten angelangt wären und damit einer weiteren Hemmschwel-
le, die Kunden vom Wechsel auf NVMe-basierten Storage abhält.
Aus Hochverfügbarkeitsgründen ist der Einsatz von Dual-Port
NVMe-SSDs in AFAs wie bereits erwähnt unverzichtbar. Die-
se schneiden bei einem Preisvergleich auf Basis der Kosten pro
TByte deutlich schlechter ab, als SAS- oder SATA-SSDs. Hinzu
kommt, dass ein Austausch auf die um etwa zehnfach schnelle-
48. CIOBRIEFING 09/2017
Seite 48
ren Laufwerke noch lange nicht heißt, dass die Leistungswerte
urplötzlich in die Höhe schießen. Wenn sich der Leistungsschub
„nicht auf dei Straße bringen lässt“,,wird es schwierig, dem Kun-
den eine Umstellung auf die schnellere Technik schmackhaft zu
machen.
Mit Storage alleine ist es zudem, wie gesagt, nicht getan. Um den
Zugriff auf die Laufwerke über das Netz mit kleinstmöglichen
Antwortzeiten zu ermöglichen, bedarf es NVMeoF. Damit die
Kommunikation klappt, müssen eventuell Änderungen an den
Clients und dem Netz vorgenommen sowie neue Komponenten
zum Beispiel Host Bus Adapter oder Switches angeschafft wer-
den. Aus Infrastrukturperspektive kann sich dies zu einem kost-
spieligen Faktor entwickeln.
Wie immer bei neuen Schnittstellen - es wird genörgelt
Dennoch steht für viele - schon allein in Folge der breiten Her-
stellerunterstützung - außer Zweifel, dass sich NVMe über kurz
oder lang als De-Facto-Standard etabliert. Ob es sich wirklich
wie häufig progagiert, um eine „disruptive“ Technik handelt oder
eher um eine lang ausstehende Evolution, hängt von der Betrach-
tungsweise ab.
Gleichermaßen bleibt abzuwarten, wie es um die Vorteile in der
Praxis tatsächlich bestellt ist. Hier fehlen bislang die Erfahrungs-
werte. Ebenso wie es mit der real erzielbaren Performance aus-
sieht, denn bislang stützen sich die Leistungsvergleiche auf von
Anbietern durchgeführte Tests oder folgen dem Äpfel-Birnen-
Prinzip. Und natürlich, ob und wie schnell sich die Preise für
NVMe-SSDs den traditionellen Medien annähern und NVMe-
AFAs damit erschwinglicher machen.
Bis dahin wird der Einsatz von NVMe-Lösungen wohl weiterhin
auf spezielle Anwendungsfälle mit hohen Performanceanforde-
rungen beschränkt bleiben und denjenigen vorbehalten sein, die
bereit sind, für das Leistungsplus etwas tiefer in die Tasche zu
greifen. ■ Tina Billo
50. CIOBRIEFING 09/2017
Seite 50
Aber es gibt noch andere Optionen. „Das Hosting des ERP-Sys-
tems in der Cloud ist eine interessante Alternative für Unterneh-
men, die ihre IT verschlanken oder ihre ERP-Lösung nicht selbst
betreiben möchten“, argumentiert Bzdega. „Soll kurzfristig bei-
spielsweise eine neue Produktionsstätte im Ausland angebunden
werden, kann eine Mischform aus On-Premise und in der Cloud
betriebenem ERP das Modell der Wahl sein.“ Mit anderen Wor-
ten: die Hybrid-Cloud.
Customizing
Ein zentraler Aspekt bei der Auswahl ist die individuelle Anpass-
barkeit und Integrierbarkeit einer Cloud-ERP-Lösung. „Ein ERP-
System muss individualisierbar sein, auch wenn die Lösung aus
der Cloud bezogen wird“, fordert Bzdega. „Denn nur dann wer-
den die Geschäftsprozesse im Unternehmen adäquat abgebildet.“
Dies schließe mit ein, dass bereits vorhandene betriebsspezifi-
sche Erweiterungen am ERP-Standardsystem bei einem Umzug
problemlos mit in die Cloud übernommen werden könnten.
In der Regel kann jeder Hersteller und Betreiber die Erweiterung
einer Cloud-ERP-Lösung gewährleisten, aber das wirft ein Pro-
blem auf: Zuviel Customizing verringert das Maß an Standardi-
sierung und erhöht die Herausforderungen hinsichtlich Updates,
Upgrades und Migration auf ein größeres, etwa ein branchen-
spezifisches ERP-Paket. Rainer Zinow von SAP sieht aber auch
einen Bonus in der Cloud-Migration: „Das Rollout eines kom-
plett neuen ERPs bietet für mittelständische Unternehmen eine
Gelegenheit, bisherige Insellösungen, die nebeneinander existiert
haben, zu konsolidieren.“
Erweiterung und Integration
„Kleine Unternehmen, die aus ihren Bestandslösungen heraus-
wachsen, benötigen oft Funktionen, die dem Unternehmens-
wachstum folgen, beispielsweise in der Warenwirtschaft“, er-
läutert Thomas Kombrecht, Produkt Marketing Manager für die
Microsoft Dynamics-Produkte. „Hingegen erfordern bestimmte
Branchen auch spezifische Funktionen. MS Dynamics NAV (vor-
mals von Navision) ist einerseits von Beginn an so konzipiert,
dass es das Wachstum von Unternehmen nachhaltig unterstützt
und verfügt andererseits über ein Partnernetzwerk mit einem
breiten Portfolio an Speziallösungen für Branchen oder bran-
chenneutrale Workloads.“
51. CIOBRIEFING 09/2017
Seite 51
Es ist also von Vorteil, dass Partner ihre Erweiterung des ERP-
Pakets reibungslos in die Cloud bringen und mit dem Zentral-
paket koppeln können. Sowohl Generalisten wie SAP und Mi-
crosoft als auch Branchenspezialisten wie ProAlpha können ein
solches Ökosystem vorweisen. Rainer Zinow von SAP berichtet:
„SAP Cloud-Lösungen sind für eine Vielzahl von Schnittstellen
konzipiert. Damit ist es möglich, die besten Cloud-Lösungen mit
dem ERP zu verbinden, die Anzahl der Nutzer im System zu er-
weitern oder die Zusammenarbeit innerhalb der Wertschöpfungs-
kette zu verbessern.“ SAP hatte beispielsweise 2016 die Aufgabe,
seine Cloud-Lösungen von Ariba, Concur und Fieldglass mitein-
ander zu verbinden.
Kürzlich hat Microsoft seine ERP-Suite MS Dynamics 365
Deutschland mit MS Office 365 integriert und in der deutschen
Cloud bereitgestellt. „ Teilweise ist es nicht mehr erforderlich, den
gewohnten Office-365-Client zu verlassen, sondern die Vorgänge
können direkt in MS Outlook bearbeitet werden“, so Kombrecht.
Service Level, Performance und Bedienbarkeit
Dass die Antwortzeiten der Cloud-Lösung für die Akzeptanz
durch die Nutzer ausschlaggebend sind, wird manchmal bei der
Auswahl übersehen. Frustrierte Anwender nutzen keine Soft-
ware, die im Schneckentempo arbeitet. Wenn der Dienstleister
aber zu wenig Arbeitsspeicher bereitstellt, zu langsame Netz-
werke betreibt oder kaum Support leistet, muss der SLA-Vertrag
dringend nachgebessert werden.
Auch in der Auswertung ist Geschwindigkeit gefragt. Was nützt
einem ein Report mit veralteten Zahlen? „Wenn Daten aufberei-
tet in einem Report vorliegen, sind sie selten vollständig und oft
bereits veraltet“, weiß Rainer Zinow von SAP. „Dabei ist ein re-
elles Abbild der aktuellen Geschäftssituation kritisch für beinahe
alle Bereiche im Unternehmen, um damit jede Entscheidungsfin-
dung zu unterstützen. Dafür sollten die Daten einheitlich über das
ganze Unternehmen geführt und zugänglich sein, ohne Daten in
zweifacher Ausführung.“ Aber auch die Bedienbarkeit einer ERP-
Lösung ist ausschlaggebend für die Produktivität ihrer Anwen-
der. Sie sollte beispielsweise Responsive Design mit HTML5 oder
gleich entsprechend native Apps für Mobilgeräte unterstützen.
Datensicherheit und -schutz
„Viele mittelständische Unternehmen fühlen sich zunehmend
überfordert, wenn sie sich mit immer höherem Aufwand vor IT-