SlideShare ist ein Scribd-Unternehmen logo
1 von 64
Downloaden Sie, um offline zu lesen
Technology-Update für IT-Manager
CIOBRIEFING
09/2017
+++ Proaktiver Webseitenschutz aus einer Hand +++ Die Zeit ist reif
für SDN +++ Standards für ethisches KI-Design in Arbeit +++ Das
­Datensubjekt bekommt durch die DSGVO größere Rechte +++ Fach-
kräfte dringend gesucht: Wege zum Cloud-Profi +++ So organisieren
Sie ein ­verteiltes Team +++ Quanta Cloud Technology ­expandiert und
verdrängt die (Ex-)Auftraggeber +++ Drohnenabwehr mit Laser, Richt-
funk und Netz +++ Automatisierte Netzwerk-Virtualisierung mit VMware­
NSX +++ So werden Daten bei Edge Analytics geschützt +++ Wer will
schon 60-prozentiges NVMe/f? +++ ERP-Pakete aus der Cloud müs-
sen performant, sicher und anpassbar sein +++ IDEs und Tools für
Dapps und Smart Contracts +++ Die Top 10 für Backup und ­Recovery
ISSN 2364-3188 www.ciobriefing.de
powered by
MANAGEMENT & STRATEGIE
Proaktiver Webseitenschutz aus einer Hand..............................................3
Die Zeit ist reif für SDN..............................................................................9
Standards für ethisches KI-Design in Arbeit............................................13
Das Datensubjekt bekommt durch die DSGVO größere Rechte............... 17
Fachkräfte dringend gesucht: Wege zum Cloud-Profi..............................21
So organisieren Sie ein ­verteiltes Team...................................................25
Quanta Cloud Technology ­expandiert und verdrängt
die (Ex-)Auftraggeber..............................................................................30
TECHNOLOGIE & ZUKUNFT
Drohnenabwehr mit Laser, Richtfunk und Netz.......................................35
Automatisierte Netzwerk-Virtualisierung mit VMware NSX........................39
So werden Daten bei Edge Analytics geschützt......................................43
Wer will schon 60-prozentiges NVMe/f?..................................................46
ERP-Pakete aus der Cloud müssen performant, sicher
und anpassbar sein................................................................................49
IDEs und Tools für Dapps und Smart Contracts......................................55
Die Top 10 für Backup und ­Recovery......................................................59
CIOBRIEFING
09/2017
IMPRESSUM:
Vogel IT-Medien GmbH
August-Wessels-Str. 27
86156 Augsburg
Tel.: +49(0)821-2177-0
Fax: +49(0)821-2177-150
Email: zentrale@vogel-it.de
Internet: www.vogel-it.de
Handelsregister Augsburg
HRB 1 19 43
Umsatzsteueridentifikationsnummer:
DE 127502716
Geschäftsführer: Werner Nieberle
Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV:
Nico Litzel, Florian Karlstetter, Ulrike Ostler, Stephan Augsten, Andreas Donner, Peter Schmitz, Rainer Graefen (Anschrift siehe Verlag)
Vogel IT-Medien
Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991
gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstech-
nologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an.
Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de,
DataCenter-Insider.de, Dev-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de.
Vogel Business Media
Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschrif-
ten und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen
vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.
CIOBRIEFING 09/2017
Seite 3
Security-Startups im Blickpunkt: Net Wächter
Proaktiver Webseitenschutz
aus einer Hand
Webseiten sind das Aushängeschild jedes Unterneh-
mens und immer öfter auch das wirtschaftliche Zent-
rum. Cyberkriminelle nutzen das gerne aus um Geld zu
erpressen, Malware zu verteilen oder Rufschädigung zu
betreiben. Das Startup Net Wächter bietet Unternehmen
deshalb einen umfassenden Webseitenschutz an, der
nicht nur einen konkurrenzfähigen Preis hat, sondern zu-
sätzlich noch ein interessantes „Bonbon“ bietet.
Der Zugriff per Browser auf Daten und das Angebot von generel-
len aber auch individuellen Services, ist heutzutage eine Funkti-
on die ein Unternehmen einfach anbieten muss. Der Schutz der
Webseiten ist auch für KMU eine Aufgabe von zunehmender
Dringlichkeit die auch über den Unternehmenserfolg mitent-
scheidet. Dies haben auch die beiden Firmengründer Swjatoslav
Cicer und Yuliy Finkelstein erkannt, als sie im Jahr 2016 vergeb-
lich auf der Suche nach einem einfach zu handhabenden Tool
für ihre Kunden waren, welches einen anspruchsvollen, digitalen
Schutz erbringt.
Aus dieser unerfüllten Suche heraus entstand das Startup Net
Wächter mit Firmensitz im baden-württembergischen Ostfildern
(Nähe Stuttgart). Ein Unternehmen, das Security-Insider im Rah-
men seiner Vorstellungen von innovativen und kreativen Securi-
ty-Startups aus Deutschland, Österreich und der Schweiz heute
vorstellt. Vielleicht fühlten sich die Firmengründer von Bertolt
Brecht inspiriert, der sagte „Ändere die Welt; sie braucht es“, als
sie Net Wächter entwickelten? Denn ihr Ziel war es, mit Net
Wächter eine proaktive, leistungsstarke und bezahlbare Dienst-
leistung anzubieten, die Webseiten vor Cyberkriminellen schützt.
Net Wächter will für
KMU und Enterprise
passenden, proaktiven
Webseitenschutz und
-überwachung aus einer
Hand liefern.
Bild:©alphaspirit-Fotolia.com
CIOBRIEFING 09/2017
Seite 4
Budget und Leistung
„Über Geld spricht man nicht“, so ein bekanntes Sprichwort.
Aber man sollte zumindest genau hinschauen, was man für sein
Geld bekommt. Bei Net Wächter kann man drei verschiedene Ta-
rife buchen (oder eine individuelle Konfiguration) für den Schutz
der eigenen Webseite. Der günstigste Basic-Tarif ist bereits für
monatlich 14,99 Euro (plus MwSt.) zu erhalten und liefert einen
guten Basisschutz. Etwas mehr Sicherheit erhält man im Busi-
ness-Tarif (29,99 Euro plus MwSt.), der sicherlich für viele An-
wendungen bereits einen soliden Schutz bietet. Wem dies noch
nicht genügt, der wählt den Premium-Tarif für 149,99 Euro pro
Monat (zzgl. MwSt.), der alle Standard-Funktionen beinhaltet.
Im Business-Tarif ist u.a. einen Online-Monitoring, ein DDoS-
Schutz, eine AntiMalware-Prüfung und ein Blacklist-Monitoring
enthalten. Net Wächter entwickelt seine Schutzkomponenten be-
vorzugt selbst, nutzt aber auch die Produkte von Spezialisten,
wie z.B. Kaspersky Lab im Antivirus-Umfeld, innerhalb seiner
Lösung.
Net Wächter zielt darauf ab, proaktiv zu agieren, also Attacken
bereits dann abzufangen, bevor sie die Webseite durch Manipu-
lationen oder Defacements beeinträchtigen können. Dies wird er-
reicht, durch Vorschalten eines Name Servers der durch Net Wäch-
ter bereitgestellt wird und als proaktiver Filter, für unerwünschte
und gefährliche Zugriffe fungiert. Dort werden beispielsweise
alle Zugriffe eliminiert, die von einer IP-Adresse kommen, die
als Angreifer, Spammer oder DDoS-Quelle bekannt ist.
Ob es sich nun um Angreifer handelt, die per SQL-Injection, Vul-
nerability Scan oder per Hacking-Tool angreift, oder um einen
normalen Besucher der Webseite – Net Wächter prüft alle Zu-
griffe und eliminiert die unerwünschten. Im Wesentlichen sind
es drei Komponenten, die Net Wächter seinen Kunden offeriert:
●	 Schutz: Web Application Firewall (WAF) und AntiMalwa-
re-Schutz sowie Schutz vor den in OWASP 10 (OWASP Top
Ten Projekt) definierten Angriffe (Cross Site Request Forgery
(CSRF), Cross Site Scripting (XSS) u.a.)
●	 Beschleunigung: Content-Caching auf SSD-Platten mit einer
vorgegebenen Gültigkeitszeit (Lease Time). Optional auch ab-
schaltbar, falls es mit Affiliate-Marketing-Programmen etc. zu
Kollisionen kommen sollte.
●	 Überwachung: Verfügbarkeit der Webseite (Uptime), Lade-
zeit der Webseite und Kontrolle, ob die Website auf Blacklists
steht und als „gefährlich“ gemeldet wird (Reputationsverlust).
CIOBRIEFING 09/2017
Seite 5
Da Net Wächter ein noch junges Startup ist, darf man gespannt
sein, was die Macher noch an weiteren Schutz-Funktionalitäten
implementieren werden.
Technik
Um ein Webseiten-Monitoring zu implementieren gibt es traditi-
onell zwei unterschiedliche Wege. Entweder man agiert von au-
ßerhalb und meldet, wenn Angriffe erfolgen. Oder man arbeitet
als Webseiten-Komponente innerhalb und erkennt dort die An-
griffe, meldet diese und versucht zu verhindern, was machbar ist.
Net Wächter beschreitet hier einen innovativen Ansatz, indem
man zwar von außerhalb agiert, aber trotzdem als Komponen-
te des Webauftritts funktioniert – ohne jedoch zusätzliche API‘s
oder DLL’s zu integrieren. Dies wird erreicht, durch Vorschalten
bzw. umlenken des Name Servers. Ein von Net Wächter bereitge-
stellter Name Server ersetzt hier den Name Server des Web-Pro-
viders oder den eigenen des Unternehmens. Über diesen Name
Server werden die Security-Funktionen von Net Wächter akti-
viert und diese verifizieren alle Zugriffe auf die Webseite.
Ein cleveres Prinzip, welches üblicherweise auch durch Web-Pro-
vider unterstützt werden kann. Denn das ersetzen der Standard-
Einträge für eine Webseite auf dem Name Server des Providers
durch die Daten von Net Wächter ist eine Minutensache. Im Nor-
malfall kann man dies entweder per GUI bei seinem Web-Pro-
vider selbst erledigen oder mit einer entsprechend formulierten
Bitte bzw. einem Auftrag an den Web-Hoster per Support-Sys-
tem. Größere Firmen, die einen eigenen Name Server betreiben,
können dies selbst erledigen.
Net Wächter unterstützt hierbei http- und https-Webseiten, wo-
bei bei letzterem das SSL-Zertifikat bei Net Wächter hochgela-
den werden muss. Wenn man noch kein SSL-Zertifikat hat, aber
bereits plant diese Schutzfunktionalität zu implementieren, kann
man auch für den kostenlosen 14-Tage-Test via Net Wächter ein
Gratis-Trial-Zertifikat bei COMODO ordern und so erste Erfah-
rungen sammeln. Der 14-Tage-Test bei Net Wächter ist wie üblich
gratis abrufbar und vermittelt einen guten Eindruck, wie es um
die Sicherheit der eigenen Webseite steht und wie häufig diese
bereits attackiert wird!
Bonbon gefällig?
Ein besonderes Bonbon das Net Wächter seinen Kunden bietet,
soll hier nicht unerwähnt bleiben. Net Wächter bzw. die Mutter-
CIOBRIEFING 09/2017
Seite 6
firma GZIS GmbH ist einer der wenigen deutschsprachigen Part-
ner des bekannten Security-Unternehmens Acunetix. Im Rahmen
dieser Partnerschaft wird während des Testbetriebs auch ein ein-
maliger Gratis-Check der Webseite durch Acunetix durchgeführt.
Dabei wird das Sicherheitsniveau der Webseite selbst durch-
leuchtet – also, wie aktuell sind die eingesetzten Tools, können
bekannte Vulnerabilities ausgenutzt werden, wie steht es um die
Code-Sicherheit und vieles mehr. Dieser Report erlaubt es dem
Web-Admin, entdeckte Schwachstellen innerhalb seines Web-
Auftritts zu beseitigen, bevor andere diese ausnutzen.
Wer dieses Feature dauerhaft nutzen will, da der Webauftritt sehr
dynamisch ist oder aus einer Vielzahl von Komponenten besteht,
kann diesen Acunetix-Service auch über Net Wächter einkaufen.
Gesetzliche Anforderungen
Bei Net Wächter erhält man Sicherheit für den eigenen Websei-
tenauftritt, ohne dass man sich mit dieser im Detail auseinander-
setzen muss. Falls es aber doch mal erforderlich ist und bei der
Implantation oder einen erforderlichen Webseiten-Umgestaltung
aus Security-Gründen zu Schwierigkeiten kommt, bietet Net
Wächter auch Consulting-Leistungen. Denn das Motto ist: Pro-
aktiver Schutz, aus einer Hand!
Auch wenn es sich noch nicht überall herumgesprochen hat, dass
Telemediengesetz (TMG) fordert in seiner aktuellen Fassung im
Paragraph 13 Pflichten des Diensteanbieters, Absatz 7:
Diensteanbieter haben, soweit dies technisch möglich und wirt-
schaftlich zumutbar ist, im Rahmen ihrer jeweiligen Verantwort-
lichkeit für geschäftsmäßig angebotene Telemedien durch tech-
nische und organisatorische Vorkehrungen sicherzustellen, dass
	1. kein unerlaubter Zugriff auf die für ihre Telemedienangebo-
te genutzten technischen Einrichtungen möglich ist und
	2. diese
	a) gegen Verletzungen des Schutzes personenbezogener Daten
und
	b) gegen Störungen, auch soweit sie durch äußere Angriffe be-
dingt sind,
gesichert sind. Vorkehrungen nach Satz 1 müssen den Stand der
Technik berücksichtigen. Eine Maßnahme nach Satz 1 ist insbe-
sondere die Anwendung eines als sicher anerkannten Verschlüs-
selungsverfahrens.
CIOBRIEFING 09/2017
Seite 7
Was dies beispielsweise bei einem DDoS-Angriff in der Praxis
bedeutet,lässt sich direkt bei Net Wächter nachlesen. Net Wäch-
ter, als Security-Dienstleister, sorgt auch dafür, dass Anforderun-
gen der Kunden bezüglich Datenschutz und Revisionssicherheit
berücksichtigt werden. So sind alle Services bei Rechenzentren
in Deutschland gehostet die nach ISO27001 zertifiziert sind. Net
Wächter ist unter anderem Mitglied bei „IT Security Made in
Germany“ (ITSMIG), einem Zusammenschluss verschiedenen
Security-Unternehmen unter dem Dach von TeleTrusT (Arbeits-
gruppe „ITSMIG“).
Resümee
Bei Net Wächter hat man sich intensiv Gedanken um die Sicher-
heit gemacht und kann bereits zu diesem frühen Startup-Zeit-
punkt (Online seit April 2017) durch eine Vielzahl durchdachter
Features punkten.
Das Tool Net Wächter wird sicherlich seinen Weg machen und
den Markt für Webseiten-Monitoring und -Schutz aufmischen.
Denn die Kombination aus Standard-Leistungen und nützlichen
neuen Features wird den Endkunden ansprechen. Wer für seine
Webseiten einen All-In-One Security-Dienstleister sucht, muss
sich Net Wächter auf jeden Fall näher ansehen.
Net Wächter auf einen Blick
Name 	 Net Wächter
Webseite 	 https://netwaechter.de/
Geschäftsform 	 GmbH
Standort 	 Ostfildern – Stuttgart
Gründungszeitpunkt 	 Oktober 2016
Geschäftsführer 	 Swjatoslav Cicer, Yuliy Finkelstein
NET WÄCHTER
youtube
CIOBRIEFING 09/2017
Seite 8
Anzahl Mitarbeiter 	 12
Security-Sparte 	Web-Security-Suite für KMU und
Enterprise
Produkt 	 NET WÄCHTER
Innovation 	Einfache Konfiguration ohne IT-Secu-
rity Know-how, Schutz, Beschleuni-
gung und Überwachung
Unternehmens-Blog 	 https://netwaechter.de/blog/
Investitionen möglich 	 Ja
Startfinanzierung /
Umsatz letztes Jahr 	 –
 ■ Ralph Dombach
Mehr zum Thema Security finden Sie auf
www.security-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 09/2017
Seite 9
Software-Defined Networking und On-Demand
Services
Die Zeit ist reif für SDN
Dieses Jahr wird das Jahr, in dem Software-Defined Net-
working (SDN) endlich im Geschäftsalltag ankommt. Das
beschleunigt die digitale Transformation und verändert
die Art, wie Unternehmen mit ihrem Netzwerk interagie-
ren.
Bald wird es ein Ding der Unmöglichkeit sein, dem Internet der
Dinge (IoT) zu entkommen. Schon heute ist das Netz überall. Es
läuft in der Hosentasche auf dem Smartphone, im Wohnzimmer
auf Fernsehern und in Büros auf Rechnern. In Zukunft wird es
noch omnipräsenter.
Laut einer McKinsey-Studie wird sich der Umsatz der Informa-
tions- und Telekommunikationsbranche in Deutschland mit dem
IoT bis 2020 mehr als verdoppeln. Er wird auf bis zu 23 Mil-
liarden Euro pro Jahr ansteigen. Bis 2020 wird laut Studie der
Preis für ein grundlegendes IoT-Modul, das Hardware ans Inter-
net anschließt, von heute vier auf ein bis zwei Euro fallen. Das
verändert den Alltag von Unternehmen. Allein auf der Hannover
Messe 2017 wurden mehr als 500 Anwendungsbeispiele für „In-
dustrie 4.0“-Lösungen gezeigt.
Infrastruktur für IoT, 5G und die Cloud
Das Internet der Dinge wird jedoch nur so stark wachsen, wenn
auch die Infrastruktur im Hintergrund wächst. Netzwerke müs-
sen sich den ständig ändernden Gegebenheiten anpassen. Das gilt
für IoT, den 5G-Ausbau und die Cloud. In den vergangenen Jah-
ren ist der cloudbasierte Datenverkehr deutlich gewachsen. Bis
2020 wird er sich laut dem sechsten Cisco Global Cloud Index
fast vervierfachen und auf 14,1 Zetabyte ansteigen.
„SDN und On-Demand
Services verändern auch
die Art, wie Unterneh-
men in Zukunft für Netze
zahlen.“ (Süleyman
­Karaman, Geschäfts­
führer Colt Technology
Services GmbH in
Deutschland)
Bild:ColtTechnologyServices
CIOBRIEFING 09/2017
Seite 10
Gründe für die Beliebtheit der Cloud ist neben der Skalierbarkeit
die höhere Workload-Leistung. Das überzeugt auch die Deutsche
Bahn. Der Konzern hat vor kurzem angekündigt, dass er bis 2022
das eigene Rechenzentrum überflüssig machen will. Die Bahn
will stattdessen auf die Amazon-Cloud setzen. Während bei der
Deutschen Bahn der Umzug in die Cloud erst begonnen hat, sind
andere Unternehmen schon weiter.
Dedizierter Zugriff auf die Cloud
hhpberlin ist Marktführer im Brandschutz in Europa und hat mehr
als 180 Mitarbeiter. Die meisten davon sind hoch spezialisierte
Ingenieure. Das Unternehmen setzt auf die Microsoft-Cloud und
eine digitale Infrastruktur. Diese verbindet alle Mitarbeiter mit
dem Hauptstandort in Berlin, egal wo auf der Welt sie leben oder
arbeiten. Die Cloud hilft den Ingenieuren, komplexere Simulatio-
nen zu erstellen und dadurch bessere Entscheidungen zu treffen.
Der Zugriff auf die Cloud erfolgt aus Performance- und Sicher-
heitsgründen nicht über das öffentliche Internet, sondern über ei-
nen dedizierten Zugang. Für diese Art von Zugängen stehen bei
professionellen Anbietern eine Vielzahl von Konnektivitätsop-
tionen zur Verfügung: zum Beispiel Ethernet Punkt-zu-Punkt,
Ethernet Hub-and-Spoke, IP VPN oder Managed-Router-Lösun-
gen für Punkt-zu-Punkt-Verbindungen in die Cloud.
Das Brandschutzunternehmen entschied sich für eine Ethernet
Hub-and-Spoke-Lösung mit Managed Layer 3 CPE. Der Haupts-
tandort wurde mit einem vorhandenen Hub mit doppelter Hauszu-
führung ausgestattet. Zusätzlich wurden zwei dedizierte Zugriffe
mit je 200 Mbit/s Bandbreite zu Microsoft Azure in Amsterdam
geschaltet. Das Beispiel zeigt, wie wichtig neben der Wahl des
richtigen Cloud-Anbieters auch der Zugang in die Cloud ist. Was
nutzen Software as a Service, Plattform as a Service oder Infra-
structure as a Server, wenn ein langsames oder unflexibles Netz-
werk die Vorteile der Cloud ausbremst?
On-Demand und Software-Defined Networking
Bisher mussten Unternehmen Investitionen in ihre Netze lange im
Voraus planen. Wenn ein Unternehmen mehr Bandbreite benötig-
te, begann die Planung Wochen oder sogar Monate vor der Be-
reitstellung. Es dauerte, bis Anschlüsse und Leitungen verlegt und
geschaltet wurden. In Zukunft wird sich das ändern. Unternehmen
reagieren dann flexibel auf Leistungsspitzen im Geschäftsbetrieb.
CIOBRIEFING 09/2017
Seite 11
Beispiel Deutsche Bahn: Kunden fahren etwa zwischen fünf Uhr
morgens und 23 Uhr abends, nachts müssen die Server nicht mit
voller Leistung laufen, das gilt auch für das Netzwerk. Beispiel
Berlinale: Im Herbst steigt der Bandbreitenbedarf des Filmfesti-
vals rapide an. Dann treffen die ersten Beiträge in Berlin ein und
die Sichtungen beginnen. Während der Festivaltage im Februar
wird die Bandbreite je nach Verbindung auf 1 Gbit/s beziehungs-
weise bis zu 10 Gbit/s erhöht. Zwischen den Festivals, über den
Rest des Jahres, ist der Bandbreitenbedarf grundsätzlich geringer.
Mit intelligenten Netzwerken können Unternehmen ihre Band-
breiten flexibel an diese temporären Lastspitzen anpassen – und
zwar immer genau dann, wenn sie diese benötigen. Steigt in Zu-
kunft der Bedarf an Bandbreite, lassen sich SDN-basierte On-
Demand-Cloud-Verbindungen je nach Bedarf flexibel über ein
Online-Portal hoch und runter skalieren.
In diesen Portalen definiert der Nutzer zwei Endpunkte, reserviert
die dazugehörigen Ports und gibt diese frei. Neben dem Land, der
Stadt und dem Standort kann man auch die zugehörige Verka-
belung wählen. Um einen Cloud-Port anzulegen, reserviert man
einen Port und fügt ihn dem Konto hinzu. Sobald man zwei oder
mehr Ports bereitgestellt hat, kann man sie in Minutenschnelle
verbinden und dabei die VLAN-Konfiguration, die Bandbreite
und das Preismodell auswählen.
Damit umgehen Unternehmen die bisher auftretenden langwie-
rigen Bereitstellungsprozesse. SDN und On-Demand Services
verändern auch die Art, wie Unternehmen in Zukunft für Net-
ze zahlen. Sie müssen für eine 100-Gbit/s-Leitung, die sie nur
wenige Tage im Jahr benötigen, nicht mehr dauerhaft konstant
hohe Beträge zahlen. In Zukunft zahlen Unternehmen nur für die
Netzwerkdienste, die sie tatsächlich beanspruchen.
Gemeinsame SDN-Schnittstellen
Führende Netzwerkanbieter arbeiten zusammen mit dem Me-
tro Ethernet Forum (MEF) daran, Standards für gemeinsame
SDN-APIs zu definieren. ATT und Colt haben zum Beispiel
den ersten erfolgreichen Feldversuch für SDN-Interoperabili-
tät durchgeführt, der beweist, dass die SDN-Architekturen von
Netzwerk-Service-Providern sogar über Kontinente hinweg zu-
sammenarbeiten können. Die Einführung der ersten APIs ist für
Ende des Jahres geplant. Dies ist ein wichtiger Schritt zur Ein-
führung abgestimmter On-Demand Services über automatisierte
und verbundene Netzwerke.
CIOBRIEFING 09/2017
Seite 12
Service Provider werden die standardisierten Schnittstellen nut-
zen können, um mit den SDN-Architekturen der anderen nahezu
in Echtzeit zu arbeiten. Es ist geplant, acht API-Definitionen zu
standardisieren. Sie sollen auf den branchenweit abgestimmten
Open APIs basieren, die von den Mitgliedern des TM Forum
entwickelt wurden. Die ersten drei der unten aufgeführten APIs
werden in der ersten Phase des Projektes in diesem Jahr definiert:
	 1. Adress-Validierung
	 2. Service-Verfügbarkeit
	 3. Bestellung
	 4. Quotierung
	 5. Abrechnung
	 6. Performance
	 7. Tests
	 8. Ticketing
Diese APIs werden dazu beitragen, die Schwierigkeiten frag-
mentierter Netzwerke zu reduzieren. Dadurch können Unter-
nehmen skalierbare, flexible On-Demand Netzwerkservices über
Software-Plattformen wie ECOMP provisionieren. ECOMP ist
ein Open-Source-Projekt der Linux Foundation. Die verbunde-
nen Netzwerke werden Kosten sparen und agiler sein. Dadurch
können Unternehmen ihren Betrieb effizienter gestalten und auf
jedes neue Ding flexibel reagieren, egal ob es IoT oder 5G heißt
oder einen Namen trägt, den wir heute noch gar nicht kennen.
 ■ Süleyman Karaman
CIOBRIEFING 09/2017
Seite 13
Künstliche Intelligenz und Ethik
Standards für ethisches KI-De-
sign in Arbeit
Umfassende Personenprofile, Drohnen, Hacks auf Par-
lamente, politische Hetze in sozialen Medien … Anlässe,
über die Ethik der IT zu reden, gibt es genug. Genau zu
diesem Zweck traf sich Ende Juni in München das Welt-
forum für Geschäftsethik zur Münchner Konferenz „Ge-
staltung einer humanen vierten Industriellen Revolution.“
In den vergangenen Jahren hat die IT durch neue technologische
Entwicklungen endgültig ihre Unschuld verloren. Der Grund:
Informationstechnik ist nicht mehr auf eine mehr oder weniger
abgeschlossene Digitalsphäre beschränkt, sondern durchdringt
unser Leben unsichtbar allgegenwärtig. Sie wird inzwischen zur
unverzichtbaren Komponente der großen Systeme, die Gesell-
schaften am Leben halten: Strom- und Wasserversorgung, Fi-
nanzsystem, politischer Diskurs.
Auch banale Geräte und Alltagsdinge, zum Beispiel Kleidung,
werden zu Datenlieferanten, deren Output häufig auf wenig trans-
parente Weise genutzt wird. Und Maschinen können inzwischen
autonom darüber entscheiden, wen sie, beispielsweise auf dem
Schlachtfeld oder bei Polizeieinsätzen, töten. Künstliche Intelli-
genz (KI) werde schon bald den Menschen überflügeln, glauben
Singularitäts-Propagandisten wie Ray Kurzweil, der, um seinen
Tod bis zum Transfer seines Geistes in eine Maschine hinauszu-
zögern, angeblich täglich unzählige Nahrungsergänzungs-Tab-
letten schluckt.
Dr. Alex Walz, Senior
­Research Fellow, MPI,
erklärt am Rednerpult
sein abgestuftes
­Regulierungsmodell für
ethische Fragen in der
Informationstechnik.
Bild:Rüdiger
CIOBRIEFING 09/2017
Seite 14
Mit anderen Worten: Nachdenken über die Gestaltung der IT
und Regulierung der Akteure tut not. Im Deutschen Patent- und
Markenamt waren Fachleute aus aller Welt versammelt und bo-
ten einen Einblick darin, wie weit die Berücksichtigung ethischer
Maßstäbe bei der Gestaltung von IT- oder intelligenten Systemen
und Anwendungen schon gediehen ist.
Wohl am konkretesten in dieser Hinsicht sind die Bemühungen
der IEEE. Sie arbeitet derzeit an einem ganzen Satz von Standards.
„Wir wünschen uns, dass deren Einhaltung genauso selbstver-
ständlich wird wie die anderer IEEE-Standards“, sagt Kay-Firth
Butterfield, stellvertretende Vorsitzende der IEEE – Global Ini-
tiative for Ethical Considerations in the Design of Autonomous
Systems (Weltweite Initiative für Ethische Überlegungen bei der
Entwicklung autonomer Systeme. Auch am Max-Planck-Institut
für Innovation und Wettbewerb arbeitet man an diesen Fragen.
Seine bisherigen Ergebnisse referierte Dr. Axel Walz, der dort
Senior Research Fellow ist.
Abgestufte Herangehensweise
Walz beschäftigt sich damit, wie es möglich ist, Ethik in KI zu
implementieren. „Wir stehen am Scheideweg“, betonte er. „Unse-
re Entscheidungen beeinflussen maßgeblich, wie die zukünftige
Gesellschaft aussieht.“ Wie KI jeweils implementiert werden sol-
le, sei in Hinblick darauf zu entscheiden, welche ethischen Werte
jeweils geschätzt werden sollten. Es sei durchaus ein Unterschied,
ob eine Software lediglich individuelle persönliche Einstellungen
respektieren solle oder gegebenenfalls fundamentale ethische
Kernwerte beeinträchtige, etwa die Menschenrechte, Menschen-
würde oder das Leben: Gehe es um individuelle Einstellungen,
reiche, mit Zertifizierungen der betreffenden Systeme, vertrag-
lichen Vereinbarungen zwischen Anbieter und Nutzer und ähn-
lichen Mitteln zu arbeiten, um ethische Ergebnisse zu erreichen.
Gehe es dagegen um fundamentale Rechtsfragen die die Men-
schenrechte, die Menschenwürde und ähnlich hoch angesiedelte
Werte beträfen und diese schlimmstenfalls in Konflikt mit der
Privatautonomie brächten, sei ein breit angelegter, nötigenfalls
auch globaler demokratischer Diskurs und Prozess erforderlich,
um zu Entscheidungen zu kommen, die anschließend auch breit
akzeptiert werden.
Als Beispiel für die erstgenannte Gruppe nannte Walz etwa eine
Software, die Rezepte bereitstellt, die den Regeln einer Religion
entsprechen. Hier würde es reichen, wenn sich der Anbieter der
CIOBRIEFING 09/2017
Seite 15
Lösung entsprechend zertifizieren würde. Sollen Systeme dage-
gen über das Leben von Menschen autonom entscheiden, kann
der Diskurs gar nicht intensiv genug sein.
Weit weniger abstrakt verläuft derzeit der Standardisierungs-
prozess, der in die Standards der Gruppe IEEE P 7000 mündet
und unter dem Titel „Ethical Alligned Design“ läuft. An ihm be-
teiligen sich bisher rund 240 interdisziplinäre Experten. Da der
Prozess offen ist, forderte Butterfield ausdrücklich alle Experten,
die sich mit Themen rund um IT und Ethik beschäftigen, zur
Teilnahme an der Arbeit der Gruppe auf. Besonders junge Spezi-
alisten sollten sich melden, denn, so Butterfield: „Wir entwickeln
gerade die Welt, in der Sie einmal leben sollen.“ Derzeit gibt es
bereits zehn Arbeitsgruppen, die sich mit diversen Unterstan-
dards beschäftigen.
Ein neuer Satz Standards für digitale Ethik
Grundlegend ist der Standard P7000, („Model Profess for Addres-
sing Ethical Concerns During System Design”), der einen Prozess
beschreibt, mit dessen Hilfe ethische Erwägungen von Anfang
an ins Systemdesign einfließen. Am weitesten fortgeschritten ist
derzeit der Standard P7001, der sich mit der Transparenz autono-
mer Systeme befasst – gerade fürs autonome Fahren von höchs-
ter Bedeutung. Schließlich werden Verkehrsrichter eines Tages
darüber zu entscheiden haben, ob ein Todesopfer im Verkehr auf
das Versagen der Maschine oder eines menschlichen Verkehrs-
teilnehmers zurückgeführt werden muss.
P7002 (Data Privacy Process) beschäftigt sich mit Systemen und
Software, die persönliche Daten sammeln und auswerten. P7003
(Algorithmic Bias Considerations) beschreibt, wie man verhin-
dert, dass sich die – positiven oder negativen - Vorurteile von
Programmierern oder Auftraggebern in angeblich neutralen Al-
gorithmen wiederfinden. P7004 (Standard for Child and Student
Data Governance) entwickelt Richtlinien dafür, wie Bildungsin-
stitutionen mit den Daten von Schülern und Studenten umgehen
sollen, um diese zu schützen.
P7005 (Standard for Transparent Employer Data Governance) tut
dasselbe für Unternehmen beziehungsweise Mitarbeiterdaten,
soll aber gleichzeitig den Angestellten von Unternehmen ermög-
lichen, ihre Daten sicher und geschützt mit anderen Mitarbeitern
zu teilen. Vorbild war hier die Europäische Datenschutzverord-
nung, die im Mai kommenden Jahres in Kraft tritt. P7006 (Stan-
dard for Personal Data Artificial Intelligence Agent) befasst sich
CIOBRIEFING 09/2017
Seite 16
damit, wie Verwaltung und Unternehmen ethische Werte bei der
Gestaltung autonom entscheidender Algorithmen berücksichti-
gen können. Ziel ist, dass Einzelne im Detail bestimmen können,
wie und welche ihrer Daten verwendet werden, sodass sie ihr di-
gitales Profil kontrollieren können.
IEEE P7007 – bisher nur im Kongress, nicht auf der IEEE-Seite
im Web sichtbar – beschreibt ontologische Standards für ethisch
betriebene Roboter und Automatisierungssysteme, P7008 mit
dem resilienten Design autonomer und halbautonomer Systeme,
P7009 befasst sich mit ethischem „Nudging“ für Roboter, in-
telligente und autonome Systeme und P7010 mit der Schaffung
von „Tokku“-Gebieten – das sind Gebiete, in denen autonome
intelligente Systeme praktisch im echten Leben erprobt werden.
Außerdem gibt die Gruppe ein jährlich überarbeitetes Handbuch
„Ethically Alligned Design“ heraus, das kostenlos heruntergela-
den werden kann (Registrierung erforderlich). Es beschäftigt sich
mit dem derzeitigen Stand der Dinge auf diesem wahrscheinlich
diskursintensiven, um nicht zu sagen, umstrittenen Gebiet.
 ■ Ariane Rüdiger
Mehr zum Thema Big Data finden Sie auf
www.bigdata-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 09/2017
Seite 17
Die Datenschutz-Grundverordnung und die Rolle
von Objektspeichern
Das Datensubjekt bekommt
durch die DSGVO größere
Rechte
Die neue Datenschutz-Grundverordnung (DSGVO), die
am 25. Mai 2018 allgemein in Kraft treten wird, beruht
auf dem aktuellen Datenschutzgesetz und wird einige
Aspekte strenger regulieren. Von Abwarten, raten die
Experten ab.
Die neue DSGVO enthält einige Zusätze hinsichtlich der effek-
tiven Datenspeicherung, d. h., Daten müssen auf neue Art und
Weise langfristig gespeichert werden.
Klassische Offsite-Lösungen werden dann nicht mehr die neuen
Anforderungen erfüllen können. Die beliebte öffentliche Cloud
hat zwar neue Standards in Sachen Preis, Agilität und Verfügbar-
keit gesetzt, kann aber die Datensicherheit und -hoheit kompro-
mittieren.
Die Zusätze zu den bestehenden Bestimmungen sind:
●	 Meldung von Sicherheitsverletzungen und Angriffen innerhalb
von 72 Stunden, nachdem sie aufgetreten sind. Die Organisati-
onen müssen eine höhere Sichtbarkeit der Daten, der Zugriffs-
methoden und der Datenverwendung gewährleisten, damit sie
sensible persönliche Daten schneller wiederherstellen können.
●	 Höhere Strafe – bis zu 2 Millionen US-Dollar oder 4 Prozent
des weltweiten Umsatzes, je nachdem, welcher Wert höher ist
●	 Das Recht auf Löschung - Datensubjekte haben das Recht, die
Löschung ihrer persönlichen Daten anzufordern
Storage-Lösungen mit
Objektspeichern und
Software-definierter
Speichertechnologie
­unterstützen die er­
folgreiche Umsetzung
von Projekten zur Er­
füllung der DSGVO.
Bild:Scality
CIOBRIEFING 09/2017
Seite 18
Technische Einschränkung oder Geschäftsgelegenheit?
Die relevanten Zusätze der Verordnung rufen nach einem lang-
fristigen Speicher, auf den man dennoch sofort zugreifen kann.
Solch ein Modell wäre aber finanziell und technisch absolut un-
tragbar, wenn dafür weiterhin die bestehenden Speicher-Applian-
ces eingesetzt werden würden.
Es ist sehr attraktiv, Daten online zu speichern, da sie dort viel
genauer analysiert werden können, was wiederum ein erheblicher
Geschäftsvorteil ist. Öffentliche Clouds für die Speicherung ma-
chen vor, wie preiswerte Onlinespeicherung funktioniert.
Durch die neuen Anforderungen an die Datenverfügbarkeit und
die Speicherorte kommen allerdings bald nur noch teure öffent-
liche Clouds infrage. Daher ist die Speicherung in einer priva-
ten Cloud die attraktivste Lösung, da solch ein Modell ebenso
preiswert wie die öffentliche Cloud sein kann und On-Premise-
Sicherheit, die Bandbreite von lokalen Netzwerken sowie die un-
schätzbare Möglichkeit bietet, vollständig auf personalisierbare
Geschäftsinformationen zuzugreifen.
Die schwindende Bedeutung des Magnetbands
Bisher waren Magnetbänder durch ihre geringen Kosten und ihre
Portabilität eines der wichtigsten Backup-Medien. Jedoch passen
genau diese Portabilität und die langen Wiederherstellungszeiten
nicht mehr zur neuen DSGVO, in der mehr Sichtbarkeit und ein
einfacherer Zugriff gefordert werden.
Magnetbänder sind nach wie vor eine preiswerte Option, jedoch
bestärken die Anforderung, mehrere redundante Kopien aufzu-
bewahren, hohe Handlingkosten und eine teure Technologie die
Ansicht, dass die langfristigen Gesamtbetriebskosten drei- bis
viermal so hoch wie die Infrastrukturkosten sind. Nicht zuletzt
aus diesem Grund wird die Cloud mittlerweile als sinnvolle Al-
ternative für dieses Langzeitspeichermedium angesehen.
Wichtige DSGVO-Anwendungsfälle der Objektspeicherung
Wie die folgenden Anwendungsfälle exemplarisch zeigen, helfen
verteilte, absolut sichere Objektspeicher gemeinsam mit ihrer er-
weiterbaren Kapazität, der besseren Performance und der Spei-
cherortkontrolle den Staaten und privaten Unternehmen dabei,
die Compliance ihrer immer strengeren Sicherheitsrichtlinien zu
erreichen.
CIOBRIEFING 09/2017
Seite 19
Als Backup- und Archiv-Ziel
Einige der größten Datensätze befinden sich in Offline-Backup-
und Archiv-Infrastrukturen, wo das Abrufen von Daten extrem
zeitaufwändig ist. Die Kosten von Objektspeichern nähern sich
denen des Magnetbands an (einschließlich des gesamten langfris-
tigen Handlings und der Migrationskosten), was es immer sinn-
voller werden lässt, Objektspeicher als Backup- und Archiv-Ziele
zu nutzen.
Durch die Scale-Out-Performance kann die Speicherplattform
mehrere parallele Backup- und Datenströme mit Kabelgeschwin-
digkeit handeln, wenn die Kapazität zunimmt. Zudem profitieren
die Unternehmen von einem Namespace, der sich über mehrere
Rechenzentren erstreckt, sodass eine Datei von mehreren Stand-
orten aus aufgerufen werden kann.
Compliance und Archivierung
Die Datenspeicherung in regulierten Branchen unterliegt stren-
gen Regelungen, die nur mit einer konformen Speichertechnolo-
gie erfüllt werden können. Die Benutzer sollten sich nach einer
Objektspeicherplattform mit einer iCAS-Schnittstelle (Internet
Content Addressable Storage) umsehen, die die nötigen Funkti-
onen für die Sicherung von Daten wie Verschlüsselung, Verrie-
gelung in Containern und Datenaufbewahrung/ablauf umfassen.
Diese Funktionen machen Objektspeicher zu einem ausgezeichne-
ten Ersatz von bestehenden Compliance-Plattformen. Außerdem
bieten sie die Verfügbarkeit, Agilität und Skalierbarkeit, die von
aktuellen und zukünftigen Speicherplattformen erwartet werden.
Logging as a Service
Mit der Aussicht auf noch mehr Vorgaben von den Regulierungs-
behörden entwickeln viele Institutionen gerade Systeme, die als
Self-Service-Portal funktionieren können. Die Daten aus unter-
schiedlichen Quellen wie Handelssystemen, Stimmaufnahmen,
Mitteilungen, E-Mails und mehr werden dann nach Kunde und
Datum gespeichert und ohne Zutun des IT-Teams auf einer Be-
nutzeroberfläche dargestellt.
Es braucht nicht viel, um zu verstehen, dass ein klassisches Datei-
system dafür nicht skalierbar genug ist und dass Objektspeicher
perfekt für so eine Anwendung sind. Zudem ist Scality RING der
einzige Objektspeicher, der sowohl große als auch kleine Dateien
und Objekte handeln kann.
CIOBRIEFING 09/2017
Seite 20
Objektspeicher hinsichtlich der DSGVO bewerten
Storage-Lösungen mit Objektspeichern und Software-definierter
Speichertechnologie, die mit Funktionen der Enterprise-Klasse
erweitert werden, können den Zugriff und die Verwaltung erheb-
lich verbessern und unterstützen die erfolgreiche Umsetzung von
Projekten zur Erfüllung der DSGVO. Sie sollten bei der Bewer-
tung von
Objektspeicherlösungen auf die folgenden Eigenschaften
achten:
Geringe Kosten: Die Bereitstellung einer softwaredefinierten
Storagelösung auf Standardservern sorgt für planbare niedrige
Kosten. Eine einzige Datenkopie in einem Objektspeicher hat die
gleiche Lebensdauer wie drei Kopien auf einer Festplatte oder
fünf Kopien auf einem Magnetband. Daher ist Forrester Research
zu dem Ergebnis gekommen, dass führende Objektspeicherplatt-
formen über einen Zeitraum von fünf Jahren bis zu 70 % weniger
Gesamtbetriebskosten als bestehende Dateispeicher haben.
Garantierte Verfügbarkeit: Die Unternehmen sollten nach Ob-
jektspeichern suchen, die für 100 % Verfügbarkeit ausgelegt sind
und die auch den Ausfall von mehreren Servern und Komponen-
ten einschließlich ganzer Rechenzentren überstehen.
Hohe Leistung: Daten vor Ort sind von Natur aus schneller
abzurufen. Dennoch sollten Sie wissen, dass es einige Objekt-
speicherplattformen gibt, die ausgezeichnetes Datenstreaming
bieten, was sie zu idealen Backup-Zielen macht und gleichzeitig
blitzschnelle Antworten auf Datenanfragen gewährleistet.
Enterprise-ready: Die Unternehmen sollten sich nach einer
Plattform mit einem umfassenden Satz an Sicherungs-, Verwal-
tungs- und Automatisierungsfunktionen umsehen, da diese so
auch für globale Unternehmen geeignet sind. Diese Funktionen
umfassen verschiedene Verbundauthentifizierungsstandards,
Verschlüsselung und Schlüsselmanagement.
Fazit
Die Objektspeicherung ist die ideale Speichertechnologie für
zahlreiche Projekte zur Erfüllung der DSGVO-Anforderungen.
Gleichzeitig steigert sie die allgemeine Performance, Effizienz
und Resilienz. Jetzt ist der richtige Zeitpunkt, um auf die lang-
fristige Speicherung und Sicherung von morgen umzusteigen.
 ■ Nigel Houghton
CIOBRIEFING 09/2017
Seite 21
Qualifizierung für Cloud-Umgebungen – Der
Cloud-Administrator
Fachkräfte dringend gesucht:
Wege zum Cloud-Profi
IT-Entscheider und IT-Professionals müssen sich drin-
gender denn je mit der Frage auseinandersetzen: Wie
halten wir Schritt mit dem digitalen Wandel, wenn die
Fachkräfte fehlen? Dies gilt auch und vor allem für das
Thema Cloud. Um Wege zur praxisnahen Qualifizierung
zu erleichtern, hat der größte private Bildungsanbieter in
Deutschland, TÜV Rheinland, das erste herstellerunab-
hängige Cloud-Kompetenzmodell für IT-Entscheider und
IT-Professionals entwickelt.
In einer dreiteiligen Serie beschreiben Peter Holländer und Man-
dy Tiedemann von der TÜV Rheinland Akademie das Aufgaben-
Spektrum und die beruflichen Aussichten von Cloud-Spezialisten
wie Cloud Administrator, Cloud Developer und Cloud Architekt.
Teil 1: Was macht eigentlich… ein Cloud-Administrator?
Kostenvorteile, Ergebnisverbesserungen und Innovationspoten-
ziale: In der Cloud sieht das Top-Management viele Vorteile. Die
Fachbereiche versprechen sich davon Kostensenkung, Skalier-
barkeit, Hochverfügbarkeit, eine beschleunigte Produktentwick-
lung, Standardisierung oder Zentralisierung.
Was macht
eigentlich… ein
­Cloud-Administrator?
Wege zur Qualifizierung.
Bild:©Gorodenkoff/stock.adobe.com
CIOBRIEFING 09/2017
Seite 22
Dennoch plagen sich viele deutsche Unternehmen nach wie vor
mit Sicherheitsbedenken, wobei diese bei den verschiedenen in-
nerbetrieblichen Interessensgruppen unterschiedlich ausgeprägt
sind. Während Fachfunktionen und Stakeholder aus den Busi-
ness-Prozessen vor allem beschleunigte Dynamiken für ihr Ge-
schäft sehen, stehen die Funktionen für IT-Sicherheit und Daten-
schutz dem Thema erfahrungsgemäß eher kritisch gegenüber:
Auch weil es in den Unternehmen an Qualifikationen bzw. Spezi-
alisten fehlt, die sich mit der Thematik wirklich auskennen. An-
gesichts des quasi leergefegten Fachkräfte-Markts werden sich
Unternehmen verstärkt selbst um den Fach-Nachwuchs kümmern
und interne Mitarbeiter zu Cloud-Spezialisten weiter qualifizie-
ren müssen. Eine Management-Aufgabe, die top-down gesteuert
werden muss, denn häufig ist damit nichts weniger als die Zu-
kunftsfähigkeit des Unternehmens verbunden.
Der Weg in die Datenwolke ist immer auch ein Change-Prozess,
denn die Cloud bedeutet loszulassen ohne die Hoheit und Kont-
rolle über die eigenen Assets abzugeben. Interne IT-Mitarbeiter
und Cloud-Spezialisten nehmen hier die unerlässliche Funktion
der Schaltzentrale ein, denn die Anforderungen an den Cloud-
Einsatz müssen fachlich richtig gesteuert werden.
Dazu bedarf es IT-Know-hows, möglicherweise sind auch neue
Prozesse, Kompetenzen und Schnittstellen zu definieren, zugleich
aber Technologie und Prozesse des Cloud Providers zu verstehen.
Doch was zeichnet Cloud-Spezialisten aus? Dr. Constantin Söld-
ner, Geschäftsführer der Söldner Consult GmbH und Spezialist
für Cloud-Trainings, hat es auf den Punkt gebracht: „Die Cloud
hebt das Silo-Denken auf, weg vom Spezialisten für Networking
oder Storage, hin zum Generalisten, der sich in vielen verschie-
denen Bereichen zurechtfindet. Cloud-Experten müssen daher
einen ganzheitlichen Blick auf die spezifischen Anforderungen
ihrer Anwendungen an die Cloud einnehmen.“
Security und Datenschutz
Angesichts der dynamischen Bedrohungslage und immer restrik-
tiverer regulatorischer Anforderungen ist Awareness für sensiti-
ve Themen wie Cyber Security und Datenschutz nach Meinung
des Experten für Cloud-Trainings von immer höherer Relevanz.
„Themen wie Docker und DevOps erfordern neue Herangehens-
weisen und mehr Querschnittsdenken. Gefragt sind auch Ent-
wicklerfähigkeiten, Skriptsprachen zu beherrschen gehört zu den
Mindestanforderungen“, weiß Dr. Söldner aus seiner langjähri-
gen Trainings- und Beratungspraxis.
CIOBRIEFING 09/2017
Seite 23
Weil Unternehmen im Rahmen der digitalen Transformation
zunehmend schneller und agiler reagieren müssen, müssen sich
Cloud-Spezialisten nicht nur mit Automatisierungstools ausken-
nen. Darüber hinaus sind sie Kosten-Controller: „Weil der Auf-
wand in der Cloud on-Demand abgerechnet wird, müssen sie die
laufenden Kosten im Blick behalten, also bestehende Architektu-
ren regelmäßig auf den Prüfstand stellen können“, so Dr. Söldner.
Eine weitere Aufgabe, die ihnen eine wichtige Rolle im Unter-
nehmen sichert und spannende wie dynamische Tätigkeiten in
einem zukunftsorientierten Umfeld verspricht.
Um Unternehmen wie IT-Professionals eine praxisnahe Qua-
lifizierung zu ermöglichen, hat TÜV Rheinland das hersteller-
neutrale Cloud-Kompetenzmodell entwickelt. Es deckt die drei
wichtigsten Schlüsselqualifikationen ab, die Unternehmen und
Märkte heute benötigen: den Cloud Administrator, den Cloud-
Entwickler und den Cloud-Architekt. Fortbildungen, bei denen
übrigens auch Führungskräfte das Know-how aufbauen können,
das ihnen für Entscheidungen beim Übergang von On Premises-
Infrastrukturen zur Cloud mehr Sicherheit verleiht.
Der Cloud-Administrator ist eine unverzichtbare Schlüsselkom-
petenz im Unternehmen, doch was genau macht er eigentlich?
Nach dem Kompetenzmodell, das TÜV Rheinland entwickelt
hat, liegt der Fokus hier mehr im administrativen Bereich der
Systeme. Cloud-Administratoren kennen die Möglichkeiten, die
Cloud-Strukturen Unternehmen bieten und sind Experten im
Umgang, Wartung und dem Patching in der Cloud.
Die primäre Rolle des Cloud-Administrators umfasst die Instal-
lation, Konfiguration und Administration von Hersteller-Techno-
logien, bestehend aus On-Premise-Infrastruktur, Private, Hybrid
und Public-Cloud-Lösungen. Fundamentales Grundwissen zur
Sicherheit und Userverwaltung gehört zu seinen Kernkompeten-
zen. Wesentliche administrative Aufgaben und Verantwortlich-
keiten betreffen die Administration des Active Directory, den
Hosted Exchange sowie die Drittanbieter-E-Mail-Archivierung.
Professionelle Cloud-Administratoren sollten sich mit den Da-
tenwolke-Angeboten der Cloud-Anbieter und Hersteller wie Mi-
crosoft, Oracle, VMware und Amazon AWS auskennen.
Kompetenzmodell der TÜV Rheinland Akademie
Im Rahmen des Kompetenzmodells der TÜV Rheinland Akade-
mie erlernen Cloud-Admins eine Cloud von Grund auf zu planen,
zeitlich optimal bereitzustellen, sie zu überwachen und alle Sys-
CIOBRIEFING 09/2017
Seite 24
teme sicher zu analysieren. Sie erfahren, wie man eine On-Pre-
mises-Infrastruktur installiert und Private-, Hybrid- und Public-
Cloud-Lösungen etabliert. Sie können schließlich eine Vielzahl
von Servern in der Cloud verwalten, kennen die Unterschiede
zwischen den Cloud-Technologien und wissen, was für welche
Bedarfe im Unternehmen geeignet ist. Darüber hinaus verste-
hen sie, wie die Cloud mit der bestehenden IT-Infrastruktur des
Unternehmens im eigenen Rechenzentrum interagiert. Sie kön-
nen Office 365 installieren und selbständig administrieren und
schließlich auch eine Private Cloud nicht nur betreiben und moni-
toren, sondern auch eigenständig konfigurieren und bereitstellen.
Am Ende der Qualifizierung, wie sie TÜV Rheinland anbietet,
sind Cloud-Admins in der Lage, mehrere Tausend Server in der
Cloud zu verwalten und kennen hilfreiche Strategien für den si-
cheren und effizienten Betrieb, darunter Incident Response Ma-
nagement oder die Verzahnung von Cloud-Strategien mit Identi-
ty-und-Access-Management.
Fazit: Der Cloud-Administrator ist der „Tempelwächter“ der
Unternehmens-Cloud-Architektur und zugleich der Business-
Enabler. Denn er weiß, was das Unternehmen businessseitig
an Ressourcen benötigt, andererseits kennt er die Angebote der
Cloud-Service-Provider und weiß, welche Services am besten ge-
eignet sind, den technologischen Bedarf des Unternehmens zu
decken. Die Qualifizierung zum Cloud-Administrator beinhaltet
Theorie und Anwendungsbeispiele und dauert je nach Vorkennt-
nissen und angestrebter Tiefe zwischen 10 und 25 Tage, sofern
herstellerspezifische Kompetenzen im Rahmen der Weiterbil-
dung mit aufgebaut werden sollen.
Sie verläuft dreistufig, wobei die Module aufeinander aufbauen.
Voraussetzung für die Zertifizierung zum Cloud Administrator
nach TÜV Rheinland sind Kenntnisse und Erfahrung in gängi-
gen IT-Infrastrukturen. Die Gehaltsperspektiven: je nach Qua-
lifikation, Einsatzort, Unternehmensgröße und Personalverant-
wortung zwischen 2600 bis 5400 Euro monatlich. Damit liegt er
unter dem eines Cloud-Entwicklers bzw. Cloud Developers.
Welche Aufgaben der Cloud Developer hat und wie er sich vom
Cloud-Admin unterscheidet, erfahren Sie in der 2. Folge: Was
macht eigentlich… der Cloud Developer? ■ Peter Holländer
CIOBRIEFING 09/2017
Seite 25
Strategien für verteilte Teams
So organisieren Sie ein
­verteiltes Team
Die Softwareentwicklung in verteilten Teams ist nicht im-
mer einfach, weshalb es dringend nötig ist, diese sinn-
voll zu organisieren. Hierarchien, Vorgehensweisen und
Verantwortlichkeiten sollten klar definiert sein, um von
vornherein Probleme auszuschließen. Das beginnt schon
bei der Technik und der Auswahl der Team-Mitglieder.
Das Arbeiten in verteilten Teams ist immer mehr die Regel als
die Ausnahme bei der Software-Entwicklung. Kein Wunder: Bei
allen Vorteilen lokaler Teams wie kurzer Wege und spontaner
Meetings sind Remote-Teams im Zweifel kreativer, produktiver
und kostengünstiger.
Verteilte Teams wollen aber von Grund auf deutlich effektiver
organisiert sein, als es bei lokalen Teams der Fall wäre. Für Ver-
antwortliche ist das größte Problem dabei die fehlende persönli-
che Greifbarkeit einzelner Entwickler, die ja im Zweifel in einer
anderen Stadt oder gar einem anderen Land arbeiten.
Spontane Korrekturen werden dadurch schwieriger, das Risiko
redundanter Arbeit und fehlender Beiträge wächst. Vor diesem
Hintergrund ist es wichtig, die Organisation verteilter Teams von
vornherein effektiv zu gestalten.
Für Verantwortliche in
weltweit verteilten
­Softwareprojekten ist
das größte Problem die
fehlende persönliche
Greifbarkeit einzelner
Entwickler.
Bild:geralt-Pixabay.com/CC0
CIOBRIEFING 09/2017
Seite 26
Kommunikation klären und für funktionierende Technik
sorgen
Das A und O eines jeden verteilten Teams ist natürlich, dass die
zugrundeliegende Technik funktioniert und die Kommunikati-
on stimmt. Das bedeutet konkret, dass neue Remote-Mitarbeiter
umgehend an das hauseigene System, an Groupware-Lösungen
wie Slack oder an Projektmanagement-Tools wie Trello angebun-
den werden müssen.
Gleichzeitig sollten auch zusätzliche Kommunikationskanäle
jenseits dieser Infrastruktur (etwa ein Messenger wie Skype oder
schlicht E-Mail) vereinbart werden. So lässt sich sicherstellen,
dass die Kommunikation auch dann funktioniert, wenn das „gro-
ße“ System ausfällt oder aus anderen Gründen nicht erreichbar
ist.
Hier sollte bei Entwicklern, die zum Beispiel von Standorten mit
unzuverlässiger Stromversorgung und damit Internetanbindung
arbeiten, eventuell auch ganz klassisch die Telefonleitung zum
Einsatz kommen. Auf diese Weise sind technische und kommu-
nikative Hürden, die Abläufe in verteilten Teams stören können,
von vornherein ausgeschlossen. Mögliche Sprachbarrieren kön-
nen mit der Wahl der englischen Sprache als Teamsprache um-
gangen werden.
Individuelle Situation der Mitarbeiter beachten
In vielen Fällen entstehen verteilte Teams, weil Mitarbeiter pro-
jektbasiert angeworben werden: Selbstständige Entwickler wer-
den für ein Softwareprojekt oder einen Teilbereich eingebunden
und nach Abschluss wieder „entlassen“.
Jedem Team-Manager sollte bei der Arbeit mit diesen Mitarbei-
tern klar sein, dass diese im Zweifel noch andere Projekte be-
treuen und gegebenenfalls tagtäglich an mehreren „Baustellen“
arbeiten. Gleichzeitig kann es bei weltweit verteilten Teams zu-
sätzlich noch zu Zeitzonen-Problemen kommen: Wenn in Ban-
galore die Sonne untergeht, geht sie im Silicon Valley gerade auf
und in Deutschland ist dann Mittagspause.
Daher ist es notwendig, Meetings möglichst frühzeitig zu planen
und basierend auf den individuellen Bedürfnissen der einzelnen
Remote-Mitarbeiter anzuberaumen. Die mangelnde Flexibilität
in dieser Hinsicht wird im Zweifel durch die große Diversität der
Mitarbeiter und die dadurch resultierende Flexibilität des Teams
ausgeglichen.
CIOBRIEFING 09/2017
Seite 27
Regeln lokaler Teams bei Recruitment anwenden
Doch ganz egal, ob die Team-Mitglieder später in Bangalore, der
Bay-Area oder Berlin sitzen: Bei der Auswahl der Mitarbeiter
sollten die gleichen Regeln zum Einsatz kommen, die auch bei
der Zusammenstellung lokaler Teams wichtig sind. Neben Hard-
Skills wie den technischen Grundkenntnissen, Sprachkenntnis-
sen und natürlich der Fähigkeit, in Remote-Teams zu arbeiten,
sollte auch Wert auf die Soft-Skills wie Zuverlässigkeit, methodi-
sche Kompetenz und Teamfähigkeit gelegt werden.
Gleichzeitig sollte der Mitarbeiter ins Team passen, so verstreut
es auch ist. Denn in der Praxis müssen sich die Entwickler na-
türlich auch in verteilten Teams untereinander austauschen und
direkt miteinander kommunizieren. Fällt hier einer aus dem Rah-
men, können die gleichen negativen Dynamiken auftreten, mit
denen Teamleiter auch bei lokalen Teams zu kämpfen haben.
Sofern die Möglichkeit der Auswahl besteht, sollten Teamleiter
bei Remote-Mitarbeitern also die gleichen Standards ansetzen,
als würden diese später am Nachbar-Schreibtisch sitzen. Die Mit-
arbeiter sollten natürlich auch dementsprechend behandelt wer-
den.
Obwohl in virtuellen Teams allein schon aufgrund der Entfer-
nung und möglicher kultureller Differenzen nach der Arbeit kein
Feierabendbier zusammen getrunken werden kann, gibt es na-
türlich andere Möglichkeiten, das Teambonding zu fördern: So
bietet sich das Aufsetzen eines Casual-Smalltalk-Chats an, der
das Mitarbeiter-Geplauder an der Kaffeemaschine ersetzt. Auch
Computerspielturniere via Internet sind hervorragend geeignet.
Gegebenenfalls sollten Sie auch eine interne Website für alle
Team-Mitglieder aufsetzen, auf der die einzelnen Mitarbeiter
persönlich vorgestellt werden.
Für klare Zuständigkeiten und Hierarchien sorgen
Der Hauptbestandteil der Arbeit in virtuellen Teams ist aber na-
türlich: die Arbeit. Und diese sollte von vornherein möglichst
klar organisiert werden. Abläufe, Zuständigkeiten und nicht zu-
letzt Ansprechpartner sollten möglichst klar geregelt sein. Dabei
kann es helfen, das virtuelle Entwicklerteam in kleinere Einhei-
ten zu unterteilen, die ihrerseits für bestimmte Teilbereiche der
Softwareentwicklung zuständig sind. Das erspart dem Teamleiter
unnötiges Mikro-Management, gleichzeitig sorgt es für klare Hi-
erarchien und Ansprechpartner.
CIOBRIEFING 09/2017
Seite 28
Die Hierarchien können natürlich, wie heutzutage üblich, durch-
aus flach gehalten werden. Wichtig ist nur, dass virtuelle und lo-
kale Mitarbeiter wissen, mit wem sie weswegen sprechen müssen,
und zwar vom größten bis ins kleinste Glied. Sollte eine Person
etwa durch Krankheit ausfallen, empfiehlt es sich, auch gleich
einen Stellvertreter zu benennen, der im Fall der Fälle einspringt
und sich mit den bearbeiteten Inhalten auskennt.
Dadurch behalten Teamleiter einfacher den Überblick und haben
jederzeit Ansprechpartner, wenn ein Problem oder eine Frage
auftritt. Im Grunde entspricht diese Vorgehensweise der, die auch
in lokalen Teams erfolgen sollte. Allerdings ist sie bei Remote-
Teams aufgrund der räumlichen Distanz absolut unverzichtbar.
Ziele und Milestones definieren
Aufgrund der Tatsache, dass Remote-Mitarbeiter im Zweifel nur
teilweise für ein Software-Projekt arbeiten und als Freelancer
hier und dort noch weitere Baustellen haben, ist es nicht selten
kontraproduktiv, Tagesziele zu setzen. Stattdessen sollte das gro-
ße Ganze im Auge behalten werden.
Feste Abgabetermine sind natürlich Pflicht, doch die genaue
Zeiteinteilung sollte – schon aufgrund der Zeitzonen-Problematik
– dem Mitarbeiter oder dem entfernten Team überlassen werden.
Allerdings ist die saubere Definition von Milestones sowie das
regelmäßige Übermitteln und Reviewing des Codes wichtig, um
Fortschritte zu dokumentieren und bei Fehlern oder Fehlentwick-
lungen schnell eingreifen zu können. Redundanzen werden auf
diese Weise ebenfalls vermieden.
Ein guter Team-Leiter sollte dabei immer die nötigen Schritte im
Blick haben und seine Kommunikation optimieren, um durch die
Entfernung, eventuelle Nebenprojekte des Mitarbeiters oder die
Zeitverschiebung auftretende Probleme mit Abgabefristen von
vornherein zu vermeiden. Dabei helfen, genau wie bei lokalen
Teams, regelmäßige feste Meetings, die mit einzelnen Mitarbei-
tern, Untergruppen oder dem ganzen virtuellen Team einberufen
werden.
Mit der richtigen Organisation effektiv arbeiten
Zu guter Letzt ist es bei der Organisation verteilter Teams natür-
lich wichtig, jederzeit offen und freundlich zu kommunizieren,
um persönliche Probleme zwischen Mitarbeitern oder zwischen
Team-Einheiten zu verhindern, Stichwort Wir-gegen-andere-
CIOBRIEFING 09/2017
Seite 29
Gefühl. Grundsätzlich gilt: In Remote-Teams gelten die gleichen
sozialen Regeln wie bei lokalen Teams. Es können zudem die
gleichen Probleme auftreten. Diese werden aber im Zweifel durch
die räumliche Entfernung und den fehlenden persönlichen Kon-
takt noch verschärft.
Um effektives Arbeiten zu gewährleisten, sind die oben genann-
ten Regeln zur Organisation eines virtuellen Teams also unum-
gänglich und sollten schon von dem eigentlichen Aufbau des
Teams vom Teamleiter genau überdacht werden. Werden diese
einfachen Regeln jedoch beachtet, ist ein virtuelles Team kaum
schwerer zu organisieren als eines, dessen Mitglieder nur durch
Cubicle-Wände voneinander getrennt sind. ■ Christian Rentrop
Mehr zum Thema Development finden Sie auf
www.dev-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 09/2017
Seite 30
QCT wächst mit Kundenorientierung, gutem
­Design und viel technischem Sachverstand
Quanta Cloud Technology
­expandiert und verdrängt die
(Ex-)Auftraggeber
Der 2012 gegründete taiwanesische ehemals reiner Auf-
tragsfertiger Quanta Cloud Technology (QCT) entstand
aus der ehemaligen Enterprise Solution Business Unit
von Quanta Computer Inc.. Doch der neben dem ODM-
erwuchs ziemlich schnell das Direktgeschäft und so
fertigt QCT nicht nur für Facebook und andere, sondern
ist ein bevorzugter Partner von Intel und produziert x86-
Enterprise- und -Cloud-Technik unter eigenem Label:
Storage, Switches, Server, Management. Nun expandiert
QCT in Europa. Die Etablierten sollten sich warm anzie-
hen.
Über Jahre gab es auf dem Server-Markt eigentlich nur zwei, drei
große Namen. Allen voran HP und Dell – heute HPE und Dell
EMC – sowie IBM, das seine Aktivitäten in dieser Richtung teil-
weise an Lenovo abgegeben hat. Doch nicht nur Lenovo reüss-
siert. Inspur legt kräfig zu, Huawei kommt, Asus zieht ins Re-
chenzentrum und nun gibt auch QTC im europäischen Markt
Gas. Die über viele Jahre praktizierte Auslagerung der Produkti-
on an günstige asiatische Auftragsfertiger trägt nun halt Früchte
– für die Auftragsfertiger.
Quanta Cloud Techno­
logy baut Server, die
sich an den OCP-­
Prinzipien orientieren:
Die Komponenten sollen
einfach ein- und ausbar
sein, der Stromver-
brauch gering und die
Lesitung hoch und zu-
verlässig.
Bild:ArianeRüdiger
CIOBRIEFING 09/2017
Seite 31
Die Quanta Computer Inc. wurde 1988 gegründet und fertigte
laut Wikipedia damals bereits beispielsweise mehr als 30 Prozent
aller verfügbaren Notebooks weltweit. llerdings trugen diese, un-
terschiedliche und oft sehr bekannte Markennamen. Heute fertigt
das Unternehmen, wie Vice President und General Manager Mike
Yang ausführt, unter anderem Kommunikations-, Netzwerk-und
Cloud-Computing-Technik. „Das ist einmalig, dass wir von Sto-
rage, und Networking, über Computer-Power bis zum Manage-
ment alles im eigenen Haus fabriziren“, sagt er. Quanta beschäf-
tigt mehr als 90.000 Mitarbeiter.
2012 wurde die Tochterfirma QCT (Quanta Cloud Technology)
gegründet, eine der inzwischen 16 Tochterfirmen im Quanta-
Konzern, die wiederum eine gleichnamige GmbH als Tochterfir-
ma hat. Deren Standort ist Düsseldorf, und sie soll das Geschäft
im Raum EMEA aufrollen. Aktuell arbeiten dort über 21 Mit-
arbeiter, die Mitarbeiterzahl soll aber noch in diesem Jahr auf
40 steigen. In Aachen befindet sich ein Technologiezentrum und
eine Fertigung für Rack-Systeme.
Was Quanta für die hierzulande etablierten Hardware-Lieferan-
ten gefährlich macht, ist erstens seine enge Verzahnung sowohl
mit Speerspitzen der IT-Forschung wie MIT oder Harvard. Zwei-
tens unterhält QCT mit Intel als wichtigstem Lieferanten von
Server-Prozessoren eine sehr enge Kooperation – so bekam QCT
laut Stephan Gillich, Direktor technisches Computing bei Intel,
sehr früh Exemplare der neuen Prozessorserie „Xeon Scalable
Platform“ zum Ausprobieren und Integrieren in seine aktuellen
Server-Produkte.
„Wir haben für diese Prozessorserie Tonnen möglicher Systement-
würfe im Schrank“, sagt James Jau, Vice President RD bei QCT.
Auch hierzulande fand eine Präsentation der zweiten Generati-
on der QCT-Server-Produkte statt, am 26. Juli in München. Die
Rechner tragen die Labels „Quanta Grid“ und „Qanta Plex“ statt.
Das ist ziemlich zügig wenn man bedenkt, dass Intel diese neue
Plattform offiziell erst am 12. Juli der Öffentlichkeit vorgestellt
hat. Früher waren nur Tyan und Advantech dran – Tyan kündigte
gar schon am 11. Juli an, man werde bald Server mit Prozessoren
der Scalable-Serie im Programm haben. Spätestens zur „Mobi-
le World 2018“ will QCT dort weitere Lösungen, unter anderem
fürs Edge, vorführen.
Schon heute arbeiteten mehr als 1.000 Entwicklungsingenieure
daran, die Möglichkeiten der neuen Architektur in individuali-
sierte Produkte für die Anforderungen spezifischer Anwendun-
CIOBRIEFING 09/2017
Seite 32
gen umzusetzen – handele es sich nun um Deep oder Machine
Learning, Hochleistungsrechnen oder schlicht höchste Skalier-
barkeit, wie sie schnell wachsende Cloud-Anbieter brauchen. Das
Entwicklungsteam soll zudem noch in diesem Jahr um weitere
500 Ingenieure wachsen.
Für den konservativen Markt in Deutschland müssen asiatsche
Firmen viele Vorurteile bezüglich Qualität und Sicherheit über-
winden. Da hillft es, dass es an Erfahrung und Referenzen bei-
leibe nicht mangelt. Quanta fertigt alles – Server, Netztechnik,
Storage und auch Racks – schon seit vielen Jahren, wenngleich
für andere und nun unter eigenem Label, mit eigenem Design.
„Kaum jemand kann diese Vielfalt aus eigener Fertigung und
Entwicklung vorweisen“, sagt QCT-Chef Yang.
Kundenorentierung statt Friss-oder-Stirb
Außerdem – und das ist vielleicht der wichtigste Punkt - wis-
se QCT aus seinen Jahren als reiner Auftragsfertiger besser als
viele andere Hersteller, was Kundenorientierung bedeute. Früher
konnten die Erfindungen der Entwicklungsingenieure ohne viel
Geplänkel mit den Anwendern in neue Produkte umgesetzt wer-
den, die man den Herstellern dann in der Regel höchstpreisig aus
den Händen riss.
Diese Zeiten seien längst vorüber, doch die alte Mentalität des La-
borforschers sei bei den klassischen IT-Playern noch präsent und
im Cloud-Zeitalter möglicherweise hinderlich. Denn im Moment
geben nicht mehr die genialen Entwicklungsdiven der Computer-
bauer den Takt vor, sondern die gnadenlosen Anforderungen der
Cloud-Provider, die sich notfalls ihre eigenen Server bauen oder
bauen lassen – ganz ohne die Phalanx der etablierten Hersteller.
So arbeitet QCT schon lange intensiv an dem von Facebook ins
Leben gerufenen Open Compute Project (OCP) mit und brachte
2013 mit „Rackgo X“ seine erste OCP-inspirierte Rack-Architek-
tur auf den Markt, der inzwischen weitere folgten. Man unterhält
auch enge Beziehungen zu anderen Cloud- Anbietern und -Re-
chenzentren.
In Deutschland ist man beispielsweise inzwischen im Geschäft
mit 11, dessen Hosting-Plattform partiell von QCT stammt.
„Unsere dedizierten Server lassen wir zwar nach wie vor von
einem deutschen Integrator nach eigenen Entwürfen fertigen, wir
sind aber von der Kooperation mit QCT positiv beeindruckt und
können uns durchaus vorstellen, sie auszubauen“, berichtete Rai-
CIOBRIEFING 09/2017
Seite 33
ner Sträter, Head of Global Platform Hosting bei der 11 Internet
SE anlässlich der Präsentation in München. Eines der Kaufargu-
mente: „Wir können Einfluss nehmen.“
Und dieser Einfluss kann weit reichen. So ist Intel wiederum am
Feedback nicht nur von QCT und anderen Hardwarebauern inte-
ressiert, sondern auch an dem ihrer Kunden.
Der Erfolg
Der Lohn der Mühen: Zumindest HPE und IBM verlieren zwei-
stellig Marktanteile im Server-Markt, der Anteil der sonstigen
Hersteller, hinter denen sich auch Quanta versteckt, ist nach Zah-
len von Marlktanalysten zum vierten Quartal 2016 auf rund 34
Prozent angestiegen; laut IDC sind es etwa 25 Prozent. Das ist
keine Marginalie.
Beim Design hat QCT sichtbar versucht, dringliche Probleme von
Providern zu berücksichtigen. Das drückt sich in scheinbar unwich-
tigen Kleinigkeiten aus, die aber im Alltag von Administratoren
mit Tausenden zu verwaltender Server erhebliches Gewicht haben.
So ist der Austausch von Komponenten wie Lüfter, Festplatten,
PCI-Karten oder DIMM-Modulen grundsätzlich ohne jedes Werk-
zeug möglich und so einfach und wenig kraftraubend, dass sie nur
noch Sekunden dauern, wie in München vorgeführt (und von den
Gästen der Veranstaltung selbst nachgemacht) wurde.
Außermdem bleibt die neue Systemgeneration im laufenden Be-
trieb kühler als die alte, trotz größerer Komponentendichte. Alan
Chang, Produktmanager QCT: „Wir haben das gesamte Layout
und die Kühltechniken überarbeitet. So montieren wir sechs
Doppelventilatoren mit kleineren Rotoren und daher größerer
Drehgeschwindigkeit statt der üblichen fünf, was mehr Kühlef-
fizienz bedeutet.“ Der Idle-Verbrauch wurde auf knapp über 40
Watt begrenzt. Cheng: „Viele Server arbeiten meistens nicht und
sollen dann möglichst wenig verbrauchen.“
Ein Beispiel für die konsequente Umsetzung von OCP-Prinzi-
pien, die größtmögliche Unabhängigkeit der Kompoenenten und
Flexibiltät fordern, ist der „QuantaPlex T22SF-1U“ für zwei Ser-
ver-Knoten: So nutzen die Knoten keine gemeinsamen Kompo-
nenten, arbeiten also vollkommen unabhängig voneinander.
Das Rack enthält für jeden Knoten redundante Stromversorgun-
gen und Lüfter (2 +1Ü). Gleichzeitig sind die Knoten-Blades so
gestaltet, dass sie sowohl in den rechten als auch in den linken
Einschub des Gehäuses passen. Das funktioniert, weil der Cage
CIOBRIEFING 09/2017
Seite 34
für die beiden vorgesehenen SSD-Festplatten am Ende des Kno-
tenmoduls auf einer Schiene montiert ist und sich daher je nach-
dem, ob das Modul rechts oder links im Gehäuse steckt, geführt
von einer Schiene, an die passende Position verschiebt.
Federn am Cage stabilisieren ihn nahe der Mittenposition, aus der
er nur so weit wie gerade nötig verschoben wird. „So muss man
für diesen Rechner jeweils nur ein Knotenmodul vor Ort in Re-
serve halten statt mindestens zwei“, erklärt ein QCT-Mitarbeiter.
Weitere Geräte:
Zu den neuen Geräten gehören drei hocheffiziente Compute-
Server für Aufgaben wie HPC, vier hochskalierbare Servermo-
delle für Anwendungen wie VDI, Hyperskalierung oder vSAN,
zwei Systeme für AI-Aufgaben mit bis zu acht GPUs und vier
Storage-Server, die mit Aufgaben wie Hadoop, Big Data oder hy-
perskalierbarer Storage am besten fertig werden. Zwei Modelle
aus der hochskalierbaren Serie „QuantaPlex T42“ und zwei der
HPC-Systeme unter dem Label Quanta Grid sind bereits global
verfügbar, der Rest der Server kommt im Herbst.
William Shih, Country Manager EMEA, will von Düsseldorf aus
den deutschen und europäischen Markt erschließen. Der Mana-
ger, der zuvor für Acer tätig war, wird sich zunächst um Provi-
der und auch Enterprises kümmern – der Mittelstand wird weiter
über Distis bedient. „Wir bieten Produkte, die etwa so viel kosten
wie die von HP. Unser derzeit hier noch recht kleiner Marktanteil
soll sich jedes Jahr verdoppeln bis verdreifachen.“
Das ist bei einem von Shih aktuell angenommenen Anteil eigener
Produkte am deutschen Serve-Markt von 0,5 Prozent sicher noch
keine Bedrohung, könnte sich aber schnell dazu auswachsen,
wenn die Wachstumswünsche des Unternehmens sich erfüllen
oder gar übertroffen werden. ■ Ariane Rüdiger
CIOBRIEFING 09/2017
Seite 35
Abwehr von unbemannten Fluggeräten
Drohnenabwehr mit Laser,
Richtfunk und Netz
Immer mehr Drohnen bewegen sich im deutschen Luft-
raum. Die Systeme können nicht nur den Flugverkehr
gefährden, sondern auch eine Bedrohung für Großver-
anstaltungen, Stadien, Forschungszentren oder auch
Rechenzentren darstellen. Es ist also wenig verwunder-
lich, dass verschiedene Akteure inzwischen Abwehrmaß-
nahmen entwickeln. Wir geben einen ein Überblick über
aktuell verfügbare Erkennungs- und Abwehrsysteme.
Nach Daten von Gartner sollen 2017 weltweit drei Millionen
Drohnen im Wert von 6 Milliarden Dollar über den Tresen gehen,
was einem Umsatzanstieg von 34 Prozent und einem Anstieg der
verkauften Geräte sogar um 39 Prozent gegenüber dem Vorjahr
entspricht. Im Jahr 2020 soll der Markt schon auf 11,2 Milliarden
Dollar weltweit angewachsen sein. Dabei liegen die Modelle für
die private Nutzung mit 2,8 Millionen Stück mengenmäßig vor,
in Hinblick auf den Umsatz aber mit 2,8 Milliarden Dollar hinter
den 174.000 kommerziellen Drohnen zurück, mit denen 3,7 Mil-
liarden umgesetzt wurden. In Deutschland wurden laut GFK im
Jahr 2016 rund 300.000 Kameradrohnen für die private Anwen-
dung verkauft, die Prognose fürs laufende Jahr liegt bei 500.000.
Millionen Drohnen
­befinden sich heute
schon in privater Hand.
Deutsche Sicherheits­
behörden halten sogar
Drohnenangriffe auf
Fußballstadien und
­andere Massenveran-
staltungen für möglich.
(Bild:Pixabay/CC0
CIOBRIEFING 09/2017
Seite 36
Wie oft deutsche Rechenzentren mit der Absicht, diese auszu­
spionieren oder anzugreifen, überflogen werden, weiß kei-
ner. „Uns ist bisher kein solcher Fall bekannt“, sagt Jan Peter
Schween, beim deutschen Drohnenabwehr-Spezialisten Dedrone
für den Vertrieb zuständig. Doch ist jede mit Kamera ausgestat-
tete Drohne theoretisch dazu in der Lage, ein Forschungszentrum
oder Data Center auszuspionieren – professionelle Drohnen kön-
nen neben normalen Videos Geräusche, Infrarotbilder etc. ein-
sammeln von Lasten, zum Beispiel explosives Material, auf ein
Ziel abwerfen.
Kein Wunder also, dass mittlerweile auch eine Drohnenabwehr-
industrie entsteht. In Deutschland am bekanntesten ist die Zu-
sammenarbeit der Deutschen Telekom mit Dedrone. Die Telekom
bastelt an einem „Drohnenschutzschild“ der über Magenta Se-
curity angeboten werden soll. Dedrones Produkt dient in erster
Linie dazu, Sender und Drohnen mit Hilfe intelligenter Software
und eines Multisensors, der Bilder, Geräusche und Funkwellen
im frequenzfreien Bereich aufzeichnet, zu finden, die Flugroute
der Drohne zu verfolgen und am Bildschirm darzustellen. Bei
der Klassifikation der Drohnen hilft eine Bilddatenbank, in die
laufend weltweit alle verfügbaren Bilder und die dazugehörigen
Daten wie der Drohnentyp eingespeist werden, um jedes unbe-
mannten Flugkörpers in der Nähe eines RZ so sicher wie möglich
zu klassifizieren. Auch privat gebaute Drohnenvarianten können
so erfasst werden.
Ein anderer Anbieter von Detektionslösungen ist Squarehead
Technology aus Norwegen. Das Unternehmen liefert die Hard-
und Software für das optoakustische Erkennungssystem von Nor-
sonic, das zusammen mit einem dritten Unternehmen, der auf die
Analyse optoakustischer Signale spezialisierte Orelia SAS, zu ei-
nem Drohnenerkennungs- und Abwehrsystem ausgebaut werden
soll. Dabei greift Squarehead auf superschnelles Array-Compu-
ting zurück, um das Gesehene und Gehörte mehr oder weniger in
Echtzeit auszuwerten.
Störfunk gegen Fluggeräte
Drone Labs findet mit dem Drone Detector Drohnen und Steuer-
geräte im Umkreis von mehr als einem Kilometer, selbst, wenn
sie noch nicht gestartet sind. Sie müssen nur eingeschaltet sein.
Dabei werden nicht nur fliegende, sondern auch fahrende oder
schwimmende Drohnen mit Hilfe von Radiofrequenzdetektion
und GPS-Analyse, Radar, Audio, Video oder Temperaturanalyse
CIOBRIEFING 09/2017
Seite 37
gefunden, und zwar auch dann, wenn sie sich nicht in Sichtlinie
mit dem Detektionsgerät befinden. Allerdings ist die Technologie
bisher hauptsächlich in den USA erhältlich.
Das System Anti-AUDS (Autonome UAV Defense System) des
britischen Unternehmens Blighter Surveillance kombiniert meh-
rere Elemente: Den A400-Radar für die professionelle Überwa-
chung des Luftraums, beispielsweise an Flughäfen, mit einer
Reichweite von bis zu zehn Kilometern, eine Kombination aus
Video- und Thermaldetektor, Chess Danamics Hawkeye Deplo-
yable System (DS) und EO Videotracker, um fliegende Drohnen
zu verfolgen und, zusammen mit der beim Radar gesammelten
Informationen, zu klassifizieren. Das ECS (Enterprise Control
System), ein zielgenaues Gerät mit intelligent gesteuerten Rich-
tungsantennen, stört dann selektiv die Kommunikationskanäle
der Drohne und hindert sie dadurch daran, ihre Mission zu erfül-
len, ohne den übrigen Flugverkehr zu beeinträchtigen. Diese Lö-
sung dürfte fürs durchschnittliche Rechenzentrum eher zu groß
sein.
Schon handlicher ist die Drone Gun der australischen Firma Dro-
ne Shield. Der gewehrähnliche Jammer hat eine Reichweite von
bis zu zwei Kilometern. Drone Shield erkennt Drohnen insbe-
sondere am Fluggeräusch, das für jeden Drohnentyp individuell
und speziell ist. Diese Geräusche speichert Drone Shield in einer
Datenbank, in die alle verfügbaren Drohnen-Fluggeräusche ein-
gespeist werden. Aktuelle Drohnengeräusche werden daran abge-
glichen. Allerdings ist diese Lösung bisher in Deutschland nicht
erhältlich.
Auf der CES im Januar 2017 präsentierte auch Airbus DS Elec-
tronics and Border Security (EBS) mit Xpeller ein System, das
Wärmebildkamera, Radar und einen Störsender kombiniert und
sich auch für andere Zwecke einsetzen lässt. Die inzwischen un-
ter dem Firmennamen Hensoldt vermarkteten Systeme gibt es in
mehreren Größenordnungen, auch tragbar im Rucksack.
Boeing hat mit dem Compact Laser Weapons System eine laser-
gestützte Lösung entwickelt, um Drohnen abzuschießen. Dabei
wird ein hochenergetischer Laserstrahl auf das Objekt gerichtet
und bringt es zum Absturz, indem es durch die Hitze des Lasers
innerhalb von 15 Sekunden in Brand gesetzt wird. Ein mobiles
Kleinsystem hat eine Leistung von 2 kW und besteht aus Küh-
leinheit, Batterien, einem Gerät, das den Strahl richtig ausrichtet,
und einen Farblaser. Eine Person kann das System betreiben. Der
geplante Anwendungsbereich ist vorwiegend militärisch.
CIOBRIEFING 09/2017
Seite 38
Drohnen fischen
Aber nicht immer reicht es den Anwendern, eine Drohne ledig-
lich zu detektieren und irgendwie vom Himmel zu bekommen.
Wer die Drohne physisch intakt einfängt, hat die Chance, ihre
Technologie und vor allem die geladene Software sowie eventuell
die bereits aufgezeichneten Daten des bisherigen Flugs zu ana-
lysieren. In diese Richtung zielt beispielsweise der Skywall 100,
eine Lösung des britischen Startups Openworks Engineering. Sie
wurde während des Besuches des ehemaligen US-Präsidenten
Obama in Berlin eingesetzt. Dabei schießt ein von einer Person
tragbarer Launcher mit Druckluft ein Netz mit Fallschirm direkt
auf die Drohne und fängt sie ein. Eine intelligente Optik gibt Si-
gnal, wenn der Launcher korrekt ausgerichtet ist. Der Fallschirm
sorgt dafür, dass das Fluggerät nicht auf dem Boden zerschellt.
Der Launcher hat Luft und Netze für mehrere Schuss und kann
deshalb kurz hintereinander mehrere Drohnen vom Himmel ho-
len.
Eine Gegendrohne setzt die französische MALOU Tech (Mission
Aérienne Légère à Organisation Unique) Systems mit dem MP200
ein. Dabei gibt es dieses System als reinen Detektor (MP200) und
als Abwehrdrohne (MPI200). Die Abwehrdrohne nähert sich der
angreifenden Drohne und fängt sie in einem Netz ein. Die De-
tektionsdrohne hat eine integrierte Kamera, SD-Speichermedien
und funkt auf 5,8 GHz in einer Reichweite von 0,6 Meilen. Sie
ist mit einem roten LED für Nachtflüge ausgerüstet. Die Abfang-
Drohne kann Drohnen bis 6 kg in ihrem Netz einsammeln und
sicher zum Boden bringen.
Und dann gibt es noch die „natürliche Methode“: Wie sich heraus-
gestellt hat, attackieren Raubvögel, z.B. Adler, recht erfolgreich
Drohnen. Diese Methode will beispielsweise die niederländische
Polizei einsetzen. Doch ob es für Rechenzentren sinnvoll ist, ne-
ben spezialisierten RZ-Dienstleistern auch noch einen Falkner zu
beauftragen, darf getrost bezweifelt werden. ■ Ariane Rüdiger
CIOBRIEFING 09/2017
Seite 39
Mit SDN auf dem Weg zum Software-Defined Data Center
Automatisierte Netzwerk-Virtua-
lisierung mit VMware NSX
LangehatsichamBetriebsmodellfürdasNetzwerknichts
verändert – wodurch die Bereitstellung neuer Applikati-
onen ausgebremst wurde. Die automatisierte Netzwerk-
Virtualisierung via VMware NSX ist der nächste Schritt
auf dem Weg zum Software Defined Data Center.
Aus Hardware wird Software. Mit dieser Vorgehensweise wer-
den IT-Services in Unternehmen agiler, flexibler und verfügba-
rer. Unternehmen bauen seitdem viele logische Serverinstanzen
auf einer Hardware auf. Die Virtualisierung der Serverumgebung
schafft logische Pools, die Ressourcen für Speicher und Compu-
ting bereitstellen – Hardware wird gewissermaßen zustandslos.
Der Trend zur Virtualisierung erreicht nun die Netzwerke.
VMware zielt mit NSX darauf ab, diesen nächsten logischen
Schritt im Rechenzentrum zu gehen. Unternehmen erhalten so
im Netzwerk ähnliche Mehrwerte wie bei der Servervirtua-
lisierung. Das verspricht der Hersteller vollkommen zu Recht,
denn die Netzwerkvirtualisierung befreit von physikalischen
Abhängigkeiten. VMware führt ein Overlay-Netzwerk ein, das
Hardware-unabhängig die Kommunikation von Applikationen
gewährleistet und erfüllt damit einen wichtigen Grundsatz: Res-
sourcen möglichst flexibel bereitstellen.
Die NSX-Plattform wird über bestehende Layer-3-Netzwerke ge-
spannt und transformiert das physikalische Netzwerk zum Trans-
portmedium. VMware NSX ist ein Hypervisor-basiertes Netz-
werk, das heißt: Hardware-typische Funktionen wie Switching,
Routing, Firewall und Load Balancing werden direkt im Hyper-
visor abgebildet.
Screenshot VMware
­vSphere Web Client.
Bild:AxiansNetworksSolutions/VMware
CIOBRIEFING 09/2017
Seite 40
Die Motivation, sich mit der Virtualisierung von Netzwerken zu
beschäftigen, liefert der IT-Betrieb. Das Implementieren der Netz-
werkvirtualisierung ist jedoch eine Aufgabe für IT-Dienstleister
wie Axians Networks  Solutions, die über das Know-how und
die Erfahrung für solche Projekte verfügen. Diese Spezialisten
bewegen sich technologisch auf dem neuesten Stand, sie passen
die NSX-Plattform an die Gegebenheiten der Anwenderfirma an.
Ineffizientes Betriebsmodell fürs Netzwerk
Mit der Virtualisierung erhält der IT-Betrieb technologisch die
Chance, das Netzwerk aus seinen alten Traditionen herauszurei-
ßen. Das Betriebsmodell für das Netzwerk hat sich in den vergan-
genen Jahrzehnten de facto nicht verändert. Es basiert auf einem
überwiegend manuellen Konfigurationsmodell und hängt von den
Leistungsmerkmalen der physischen Topologie ab. Im Vergleich
dazu hat sich der Alltag des Serveradministrators fundamental
gewandelt. Wenn die Fachabteilung eine neue Applikation benö-
tigt, dann konfiguriert er sich einfach im Self-Service eine virtu-
elle Maschine zusammen. Er muss dafür keinen Server bestellen
und nicht auf verschiedene Komponenten zugreifen, um etwas zu
provisionieren.
Jedoch kann ein Serveradministrator die angeforderte Applika-
tion nicht immer sofort in Betrieb nehmen. Das liegt an den Ab-
hängigkeiten, die das Netzwerk betreffen. Er braucht eben auch
noch die Netzwerkkonnektivität für den neuen Dienst. Unter
Umständen muss diese Applikation in einem eigenen Netz abge-
bildet werden, weil das Unternehmen verschiedene Fachbereiche
oder Kunden trennt. Die Netzwerkexperten treten an dieser Stelle
in Aktion und konfigurieren ein neues Netzwerk für die Appli-
kation.
Zunächst wird ein Layer-2-Netz bereitgestellt, um die Konnekti-
vität zu erreichen. Danach stehen das Vergeben von IP-Adressen,
das Konfigurieren von Switching und Routing sowie das Integ-
rieren logischer Teilnetze (VLAN) in den virtuellen Switch auf
der Aufgabenliste.
Der Nächste in der Prozesskette ist der Sicherheitsadministra-
tor. Er will für das neu gebaute virtuelle Netzwerk die Firewall-
Richtlinien bereitstellen. Dafür benötigt der Spezialist Angaben
vom Netzwerk- sowie Serveradministrator. Wenn der virtuelle
Webserver übertragen wurde, fehlt noch die Konfiguration des
Load Balancings, damit die Applikation hochverfügbar bereitge-
stellt wird.
CIOBRIEFING 09/2017
Seite 41
Die Bereitstellung einer App erfordert also einen längeren Pro-
zess, bevor die Fachabteilung diese produktiv nutzen kann. Das
veranschaulicht die Notwendigkeit, die automatisierte Virtua-
lisierung vom Server auf das Netzwerk zu übertragen. Daraus
resultiert der gewünschte Nutzen: ein beträchtlicher Gewinn an
Zeit, Agilität und Verfügbarkeit. Ein neues Netzwerk für eine
Anwendung bereitzustellen, kann einen Tag oder auch deutlich
länger dauern. Mit VMware NSX gelingt das bereits in wenigen
Sekunden. Für logisches Switching, Distributed Routing und Mi-
krosegmentierung ist die Plattform aktuell Vorreiter.
Die NSX-Technologie hat ihre Berechtigung auch aus der Si-
cherheitsperspektive, in der sie klassische Infrastrukturen klar
aussticht. Für den Sicherheitsgewinn, der so ins Rechenzent-
rum einzieht, sorgt die Mikrosegmentierung. Denn heutzutage
ist die Sicherung von einzelnen Applikationen von höchster Be-
deutung.
Die Mikrosegmentierung setzt direkt an der virtuellen Netzwerk-
karte einer virtuellen Maschine (VM) an. Das Regelwerk, das
die Administration zentral konfiguriert und bereitstellt, setzen
die VMs in ihrem virtuellen Netzwerk durch. Damit gewinnt der
Netzwerkbetrieb an Flexibilität, denn Netzgrenzen verlieren ihre
Bedeutung. Ein VMware-Administrator kann mehrere VMs in
einem Netz betreiben und diese voneinander isolieren und noch-
mal durch eine Firewall schützen.
Prädestinierte NSX-Einsatzfelder
VMware NSX eignet sich vor allem für Rechenzentren, in denen
mehr als 500 virtuelle Maschinen im Einsatz sind. Die NSX-Tech-
nologie automatisiert und beschleunigt das Bereitstellen virtueller
Netze. Außerdem vereinfacht sich das Integrieren virtueller und
physischer IT-Services wie Switches, Router, Firewalls, Lastaus-
gleichsfunktionen, VPNs und Sicherheitsfunktionen. Insgesamt
lassen sich VMs effizient vernetzen und die Sicherheitsrichtlinien
für VMs sind individuell konfigurierbar.
Ein weiteres Anwendungsfeld ergibt sich durch die Self-Service-
IT. Anwender können IT aus dem eigenen Rechenzentrum oder
der Private Cloud beziehen. Auch wer Entwicklungs-, Test- und
Produktionsumgebungen innerhalb derselben virtualisierten In-
frastruktur isoliert darstellen will, sollte VMware NSX nutzen.
Die Plattform erleichtert es, mandantenfähige Netzwerke einzu-
richten und eine Private-Cloud-Architektur aufzubauen.
CIOBRIEFING 09/2017
Seite 42
VMware NSX versetzt den Administrator in die Lage, sich einfa-
cher, physikalischer Ressourcen zu bedienen, die aus Netzwerk,
Speicher und Server bestehen. Die Verwaltung erfolgt weiterhin
über die Spezialisten mit dem entsprechenden Know-how.
Der Cloud-Schub
Die Netzwerkvirtualisierung mit VMware NSX ebnet den Weg
zum Cloud-fähigen Rechenzentrum, das eine dynamische Last-
und Ressourcenverteilung realisiert. Die Plattform von VMwa-
re kann für sichere Verbindungen zu Public Clouds wie AWS,
Azure oder vCloud Air, lokale Service Provider und On-Premise
Datacenter sorgen. Entscheidend ist, dass sich das Bereitstellen
virtueller Netze auf Minuten oder weniger verkürzt. VPN, Rou-
ting, Load Balancing und Firewall lassen sich virtualisiert und
direkt für den Workload betreiben und automatisiert bereitstellen
– völlig entkopplet von der Hardware. ■ Onur Öztürk
Mehr zum Thema Netzwerke finden Sie auf
www.ip-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 09/2017
Seite 43
Edge Analytics und Big Data Security
So werden Daten bei Edge
Analytics geschützt
Edge Analytics als Big-Data-Analyse am „Rand des Netz-
werks“ gilt als ein Zukunftsmodell der Datenanalyse im
Internet of Things (IoT). Dabei sollte die Sicherheit der
Daten nicht vergessen werden. Verschiedene Lösungen
für Edge Analytics bieten dafür integrierte Funktionen.
Edge Computing und Edge Analytics spielen sich zwar technisch
gesehen „am Rand“ ab, sie sollte aber nicht nur am Rande gese-
hen werden. Der weltweite Markt für Edge Analytics wird ein
starkes Wachstum erfahren, von 1,94 Milliarden US-Dollar 2016
hin zu 7,96 Milliarden US-Dollar im Jahr 2021, so die Studie
Edge Analytics Market von Markets and Markets.
Für dieses Wachstum gibt es gute Gründe, denn Edge Analytics
ist sinnvoll: Datenanalysen bei IoT-Sensoren, Compliance-Ana-
lysen direkt am Geldautomaten und POS, lokale Analysen am
Energieverbraucher und Services rund um Connected Cars sind
nur einige Beispiele für die vielfältigen Anwendungsfälle. In vie-
len zeitkritischen Big-Data-Analysen sollen Clouds nicht zum
Engpass werden und Edge Analytics kommt zum Zuge.
Der weltweite Markt für
Edge Analytics boomt.
Doch gerade bei der de-
zentralen Datenanalyse
darf die Sicherheit nicht
außer Acht gelassen
werden.
Bild:©NicoElNino_stock.adobe.com
CIOBRIEFING 09/2017
Seite 44
Edge Analytics übernimmt kritische Bereiche der Big-Data-
Analysen
Big Data Analytics entwickelt sich dabei zur dezentralen Daten-
analyse, aufgeteilt in Analytics mit Edge Computing (zum Bei-
spiel auf dem Gerät selbst) und Analytics in der Cloud. Dabei
sind es gerade die kritischen Anteile von Big Data Analytics, die
zu Edge Analytics werden, wie es zum Beispiel die Studie „In-
dustrial Analytics 2016/2017“ von Digital Analytics Association
e. V. beschreibt.
Es steht deshalb außer Zweifel, dass die Sicherheit und der Da-
tenschutz bei Edge Analytics besonders gewährleistet werden
müssen. Sicheres Edge Analytics ist zentraler Teil eines sicheren
IoT-Szenarios, gerade auch im Industrial Internet of Things (IIoT,
Industrie 4.0). Doch wie kann die Sicherheit bei Edge Analytics
gewährleistet werden?
Sicheres Edge Analytics bedeutet mehr als Endpoint-Sicher-
heit
Der Ansatz für die Absicherung von Edge Analytics muss sein,
die Integrität, die Verfügbarkeit und in den meisten Fällen auch
die Vertraulichkeit der Daten sicherzustellen. Dazu gehört zum
einen die Device Security, also die Endgeräte-Sicherheit.
Durch die große Vielzahl an Gerätetypen, die bei Edge Ana-
lytics zum Einsatz kommen, reichen die üblichen Verfahren der
Endpoint Security aber nicht aus. So gelingt die Installation ei-
ner klassischen Anti-Malware-Lösung auf vielen IoT-Sensoren
schlichtweg nicht, um nur ein Beispiel zu nennen.
Integrierte Sicherheit bei Edge Analytics
Ein zentraler Punkt bei der Sicherheit von Edge Analytics ist des-
halb, dass die Edge-Analytics-Lösungen selbst zur Sicherheit bei-
tragen müssen, also integrierte Funktionen für den Datenschutz
(bei der Analyse personenbezogener Daten) und für die IT-Si-
cherheit haben. Beispiele dafür gibt es auf dem Markt bereits:
●	 HPE Vertica verfügt insbesondere über Funktionen im Bereich
Zugangskontrolle für Nutzer und Administratoren, Verschlüs-
selung und Sicherheitsrichtlinien (HPE SecureData).
●	 Die Predix-Plattform verfügt über eine Reihe von Security-
Funktionen wie Verschlüsselung und Key Management, Iden-
titätsmanagement, Schwachstellenmanagement, Datenklassifi-
zierung, um nur einige zu nennen.
CIOBRIEFING 09/2017
Seite 45
●	 Thingworx bietet unter anderem ein umfangreiches Berechti-
gungssystem und Monitoring-Funktionen.
●	 Bei dem Cisco Fog Director sorgen zusätzlich zum Logging
und Monitoring zum Beispiel Cisco Industrial Security Ap-
pliances und Cisco Firepower Firewall Appliances für die Da-
tensicherheit (Edge-to-Enterprise IoT Analytics, powered by
Cisco und SAS).
●	 MapR Edge sieht unter anderem eine Zugangskontrolle und
Verschlüsselung vor, auch für die Datenübertragung zwischen
Edge und Cloud.
Ganz gleich, welche Edge Analytics Lösung gewählt wird, die
integrierten Sicherheitsfunktionen sollten bei der Auswahl eine
entscheidende Rolle spielen, um der kritischen Bedeutung von
Edge Analytics gerecht zu werden. ■ Oliver Schonschek
Mehr zum Thema Big Data finden Sie auf
www.bigdata-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 09/2017
Seite 46
Abwarten bei NVMe – ein Produkt ist noch keine
Lösung
Wer will schon 60-prozentiges
NVMe/f?
Kaum eine andere Technik wird aktuell in der Storage-
Welt so forciert propagiert wie NVMe. Dementsprechend
reißt die Zahl der Produktankündigungen nicht ab. Al-
lerdings reagieren die Anwender recht zögerlich auf den
neuesten Geschwindigkeitsschub, fehlende Funktionali-
täten schrecken ab.
Der Rummel um NVMe ist groß. Marktbeobachter rechnen da-
mit, dass sich das Protokoll rasch durchsetzt. So sollen 2020 die
Hälfte aller Enterprise-Server und 60 Prozent der angebotenen
Speichergeräte mit NVMe-Einschüben ausgestattet sein.
Der Anteil an NVMe-basierten All-Flash-Arrays (NVMe-AFA)
wird zu diesem Zeitpunkt auf gut 40 Prozent geschätzt. Erste mit
NVMe-SSDs bestückte und die NVMeOF-Spezifikationen unter-
stützende All-Flash-Arrays (AFAs) sind schon heute erhältlich.
Allerdings verhält es sich bei den Lösungen ein wenig wie mit
Fernsehgeräten, die das „4K-Ready“-Gütesiegel trugen.
Diese waren zwar auf das hochauflösende Format ausgelegt, aber
ohne 4K-fähige Empfänger und Kabel, eine schnelle Breitband-
verbindung und natürlich passende Inhalte änderte sich am TV-
Bild erst einmal nichts.
Analog dazu müssen auch bei NVMe alle Komponenten angefan-
gen vom Client und den darauf betriebenen Anwendungen über
das Netzwerk bis hin zum Storage-Array die Technik beherr-
schen. Ansonsten bleibt der erhoffte Nutzen aus.
NVMe-Zukunftsmusik:
Nichtflüchtige „Post-
Flash“-Speicher sollen
die Latenzzeiten weiter
senken und NVMeoF-­
Lösungen den Aufbau
hochskalierbarer
Shared-Storage-­
Lösungen ermöglichen.
Bild:www.nvmexpress.org
CIOBRIEFING 09/2017
Seite 47
Das Design muss stimmen
Für Rechenzentren geeignete NVMe-AFAs müssen daher eine
Reihe an Voraussetzungen erfüllen. Hierzu zählt unter anderem,
dass
●	 das Betriebssystem des Arrays für die Parallelverarbeitung
optimiert ist,
●	 die Controller NVMe-fähig sind,
●	 das System NVMeoF für die Frontend-Anbindung von Hosts
unterstützt,
●	 Dual-Port NVMe-SSDs zum Einsatz kommen, um für Hoch-
verfügbarkeit zu sorgen,
●	 von klassischen Speichern vertraute Funktionen, darunter
Komprimierung, Replizierung, Provisioning, RAID, Ver-
schlüsselung, Snapshots und Cloning und vieles weitere mehr
bereitstehen.
Doch genau hier liegt der Hund begraben. Kaum ein Enterprise-
Storage-System erfüllt bislang alle geforderten Kriterien, darü-
ber hinaus mangelt es oft an der Integration von Anwendungen
und Datendiensten. Ohne diese wird es schwer fallen, Kunden zu
einem Wechsel zu bewegen. Denn wer möchte schon auf Vertrau-
tes verzichten.
Zudem steht NVMeoF noch am Anfang. Bislang unterstützen nur
einige wenige Produkte den Standard und an Treibern, Betriebs-
system-, Hypervisoren- sowie Adapter-Optimierungen wird noch
gearbeitet. Dadurch lässt sich das Leistungspotenzial von NVMe
heute noch nicht vollständig abrufen.
Performance ja, aber nicht um jeden Preis
Aus Sicht von Herstellern und Analysten soll sich dies jedoch
rasch ändern. Als Hoffnungsträger gelten nichtflüchtige Speicher
der nächsten Generation wie 3D XPoint, die den Grundstein für
den Vorstoß in neue Performance-Dimensionen legen sollen und
niedrigere Latenzzeiten verheißen. Doch diese sind zunächst ein-
mal eins, noch teuerer als Flash. Womit wir bei finanziellen As-
pekten angelangt wären und damit einer weiteren Hemmschwel-
le, die Kunden vom Wechsel auf NVMe-basierten Storage abhält.
Aus Hochverfügbarkeitsgründen ist der Einsatz von Dual-Port
NVMe-SSDs in AFAs wie bereits erwähnt unverzichtbar. Die-
se schneiden bei einem Preisvergleich auf Basis der Kosten pro
TByte deutlich schlechter ab, als SAS- oder SATA-SSDs. Hinzu
kommt, dass ein Austausch auf die um etwa zehnfach schnelle-
CIOBRIEFING 09/2017
Seite 48
ren Laufwerke noch lange nicht heißt, dass die Leistungswerte
urplötzlich in die Höhe schießen. Wenn sich der Leistungsschub
„nicht auf dei Straße bringen lässt“,,wird es schwierig, dem Kun-
den eine Umstellung auf die schnellere Technik schmackhaft zu
machen.
Mit Storage alleine ist es zudem, wie gesagt, nicht getan. Um den
Zugriff auf die Laufwerke über das Netz mit kleinstmöglichen
Antwortzeiten zu ermöglichen, bedarf es NVMeoF. Damit die
Kommunikation klappt, müssen eventuell Änderungen an den
Clients und dem Netz vorgenommen sowie neue Komponenten
zum Beispiel Host Bus Adapter oder Switches angeschafft wer-
den. Aus Infrastrukturperspektive kann sich dies zu einem kost-
spieligen Faktor entwickeln.
Wie immer bei neuen Schnittstellen - es wird genörgelt
Dennoch steht für viele - schon allein in Folge der breiten Her-
stellerunterstützung - außer Zweifel, dass sich NVMe über kurz
oder lang als De-Facto-Standard etabliert. Ob es sich wirklich
wie häufig progagiert, um eine „disruptive“ Technik handelt oder
eher um eine lang ausstehende Evolution, hängt von der Betrach-
tungsweise ab.
Gleichermaßen bleibt abzuwarten, wie es um die Vorteile in der
Praxis tatsächlich bestellt ist. Hier fehlen bislang die Erfahrungs-
werte. Ebenso wie es mit der real erzielbaren Performance aus-
sieht, denn bislang stützen sich die Leistungsvergleiche auf von
Anbietern durchgeführte Tests oder folgen dem Äpfel-Birnen-
Prinzip. Und natürlich, ob und wie schnell sich die Preise für
NVMe-SSDs den traditionellen Medien annähern und NVMe-
AFAs damit erschwinglicher machen.
Bis dahin wird der Einsatz von NVMe-Lösungen wohl weiterhin
auf spezielle Anwendungsfälle mit hohen Performanceanforde-
rungen beschränkt bleiben und denjenigen vorbehalten sein, die
bereit sind, für das Leistungsplus etwas tiefer in die Tasche zu
greifen. ■ Tina Billo
CIOBRIEFING 09/2017
Seite 49
ERP aus der Cloud – ein Stimmungsbild
ERP-Pakete aus der Cloud
müssen performant, sicher
und anpassbar sein
Die Nutzung von betriebswirtschaftlicher Standard-Soft-
ware (ERP) ist kein Vorrecht von Großunternehmen mehr.
Eine Umfrage des Bitkom stellte kürzlich fest: KMUs ha-
ben mächtig aufgeholt – und bereits jede dritte Public-
Cloud-Anwendung kommt aus dem Bereich ERP. Dar-
über, welche Anforderungen Cloud-ERP erfüllen sollte,
stimmen die Experten der Anbieter weitgehend überein.
Bevor sich ein Interessent für einen Anbieter von Cloud-ERP ent-
scheidet, muss er erst einmal klären, welches Bezugsmodell für
ihn das passende ist. Denn die Wahl des entsprechenden Dienst-
leisters entscheidet darüber, wie anpassbar, umfangreich, sicher
und performant das künftige Cloud-ERP-Paket sein darf bzw.
soll. Eine Größe, die für alle passt? Das gibt es im ERP-Bereich,
im Unterschied zu Produktivitätspaketen wie MS Office 365, nur
selten. Denn schließlich muss eine ERP-Lösung immer auch die
Prozesse des Unternehmens widerspiegeln, und die sind in aller
Regel sehr individuell.
„Unternehmen in einer Aufbau- oder Modernisierungsphase
greifen eher zu einem SaaS-Modell“, weiß Michael Bzdega, So-
lution Architect Business Cloud bei proAlpha Software. „Hier
bezieht das Unternehmen Software, IT-Services, Support und
Hosting aus einer Hand. Die Anwendung ist sehr schnell verfüg-
bar und bedingt keine hohen Anfangsinvestitionen in Softwareli-
zenzen und Hardware.“
ERP aus der Cloud –
ein aktuelles
­Stimmungsbild.
Bild:©putilov_denis-Fotolia.com
CIOBRIEFING 09/2017
Seite 50
Aber es gibt noch andere Optionen. „Das Hosting des ERP-Sys-
tems in der Cloud ist eine interessante Alternative für Unterneh-
men, die ihre IT verschlanken oder ihre ERP-Lösung nicht selbst
betreiben möchten“, argumentiert Bzdega. „Soll kurzfristig bei-
spielsweise eine neue Produktionsstätte im Ausland angebunden
werden, kann eine Mischform aus On-Premise und in der Cloud
betriebenem ERP das Modell der Wahl sein.“ Mit anderen Wor-
ten: die Hybrid-Cloud.
Customizing
Ein zentraler Aspekt bei der Auswahl ist die individuelle Anpass-
barkeit und Integrierbarkeit einer Cloud-ERP-Lösung. „Ein ERP-
System muss individualisierbar sein, auch wenn die Lösung aus
der Cloud bezogen wird“, fordert Bzdega. „Denn nur dann wer-
den die Geschäftsprozesse im Unternehmen adäquat abgebildet.“
Dies schließe mit ein, dass bereits vorhandene betriebsspezifi-
sche Erweiterungen am ERP-Standardsystem bei einem Umzug
problemlos mit in die Cloud übernommen werden könnten.
In der Regel kann jeder Hersteller und Betreiber die Erweiterung
einer Cloud-ERP-Lösung gewährleisten, aber das wirft ein Pro-
blem auf: Zuviel Customizing verringert das Maß an Standardi-
sierung und erhöht die Herausforderungen hinsichtlich Updates,
Upgrades und Migration auf ein größeres, etwa ein branchen-
spezifisches ERP-Paket. Rainer Zinow von SAP sieht aber auch
einen Bonus in der Cloud-Migration: „Das Rollout eines kom-
plett neuen ERPs bietet für mittelständische Unternehmen eine
Gelegenheit, bisherige Insellösungen, die nebeneinander existiert
haben, zu konsolidieren.“
Erweiterung und Integration
„Kleine Unternehmen, die aus ihren Bestandslösungen heraus-
wachsen, benötigen oft Funktionen, die dem Unternehmens-
wachstum folgen, beispielsweise in der Warenwirtschaft“, er-
läutert Thomas Kombrecht, Produkt Marketing Manager für die
Microsoft Dynamics-Produkte. „Hingegen erfordern bestimmte
Branchen auch spezifische Funktionen. MS Dynamics NAV (vor-
mals von Navision) ist einerseits von Beginn an so konzipiert,
dass es das Wachstum von Unternehmen nachhaltig unterstützt
und verfügt andererseits über ein Partnernetzwerk mit einem
breiten Portfolio an Speziallösungen für Branchen oder bran-
chenneutrale Workloads.“
CIOBRIEFING 09/2017
Seite 51
Es ist also von Vorteil, dass Partner ihre Erweiterung des ERP-
Pakets reibungslos in die Cloud bringen und mit dem Zentral-
paket koppeln können. Sowohl Generalisten wie SAP und Mi-
crosoft als auch Branchenspezialisten wie ProAlpha können ein
solches Ökosystem vorweisen. Rainer Zinow von SAP berichtet:
„SAP Cloud-Lösungen sind für eine Vielzahl von Schnittstellen
konzipiert. Damit ist es möglich, die besten Cloud-Lösungen mit
dem ERP zu verbinden, die Anzahl der Nutzer im System zu er-
weitern oder die Zusammenarbeit innerhalb der Wertschöpfungs-
kette zu verbessern.“ SAP hatte beispielsweise 2016 die Aufgabe,
seine Cloud-Lösungen von Ariba, Concur und Fieldglass mitein-
ander zu verbinden.
Kürzlich hat Microsoft seine ERP-Suite MS Dynamics 365
Deutschland mit MS Office 365 integriert und in der deutschen
Cloud bereitgestellt. „ Teilweise ist es nicht mehr erforderlich, den
gewohnten Office-365-Client zu verlassen, sondern die Vorgänge
können direkt in MS Outlook bearbeitet werden“, so Kombrecht.
Service Level, Performance und Bedienbarkeit
Dass die Antwortzeiten der Cloud-Lösung für die Akzeptanz
durch die Nutzer ausschlaggebend sind, wird manchmal bei der
Auswahl übersehen. Frustrierte Anwender nutzen keine Soft-
ware, die im Schneckentempo arbeitet. Wenn der Dienstleister
aber zu wenig Arbeitsspeicher bereitstellt, zu langsame Netz-
werke betreibt oder kaum Support leistet, muss der SLA-Vertrag
dringend nachgebessert werden.
Auch in der Auswertung ist Geschwindigkeit gefragt. Was nützt
einem ein Report mit veralteten Zahlen? „Wenn Daten aufberei-
tet in einem Report vorliegen, sind sie selten vollständig und oft
bereits veraltet“, weiß Rainer Zinow von SAP. „Dabei ist ein re-
elles Abbild der aktuellen Geschäftssituation kritisch für beinahe
alle Bereiche im Unternehmen, um damit jede Entscheidungsfin-
dung zu unterstützen. Dafür sollten die Daten einheitlich über das
ganze Unternehmen geführt und zugänglich sein, ohne Daten in
zweifacher Ausführung.“ Aber auch die Bedienbarkeit einer ERP-
Lösung ist ausschlaggebend für die Produktivität ihrer Anwen-
der. Sie sollte beispielsweise Responsive Design mit HTML5 oder
gleich entsprechend native Apps für Mobilgeräte unterstützen.
Datensicherheit und -schutz
„Viele mittelständische Unternehmen fühlen sich zunehmend
überfordert, wenn sie sich mit immer höherem Aufwand vor IT-
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017
CIO-Briefing 09-2017

Weitere ähnliche Inhalte

Ähnlich wie CIO-Briefing 09-2017

Artikel im Swiss IT Magazine: Marktuebersicht Web-Agenturen
Artikel im Swiss IT Magazine: Marktuebersicht Web-AgenturenArtikel im Swiss IT Magazine: Marktuebersicht Web-Agenturen
Artikel im Swiss IT Magazine: Marktuebersicht Web-Agenturenxeit AG
 
Webseiten-Pflege in der Cloud
Webseiten-Pflege in der CloudWebseiten-Pflege in der Cloud
Webseiten-Pflege in der Clouda3 systems GmbH
 
abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019
abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019
abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019bhoeck
 
Citrix Day 2014: Swisscom Dynamic Workplace Framework
Citrix Day 2014: Swisscom Dynamic Workplace FrameworkCitrix Day 2014: Swisscom Dynamic Workplace Framework
Citrix Day 2014: Swisscom Dynamic Workplace FrameworkDigicomp Academy AG
 
abtis veranstaltet 7. IT Symposium Mittelstand in Pforzheim
abtis veranstaltet 7. IT Symposium Mittelstand in Pforzheimabtis veranstaltet 7. IT Symposium Mittelstand in Pforzheim
abtis veranstaltet 7. IT Symposium Mittelstand in Pforzheimbhoeck
 
Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...
Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...
Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...Univention GmbH
 
Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017
Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017
Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017Namics – A Merkle Company
 
Mag. Hans Stögerer (Helvetia Versicherungen)
Mag. Hans Stögerer (Helvetia Versicherungen)Mag. Hans Stögerer (Helvetia Versicherungen)
Mag. Hans Stögerer (Helvetia Versicherungen)Praxistage
 
Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...
Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...
Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...jiricejka
 
Was Ist Identity Relationship Management (IRM) - Webinar auf Deutsch
Was Ist Identity Relationship Management (IRM) - Webinar auf DeutschWas Ist Identity Relationship Management (IRM) - Webinar auf Deutsch
Was Ist Identity Relationship Management (IRM) - Webinar auf DeutschForgeRock
 
cysmo by PPI Cyber
cysmo by PPI Cybercysmo by PPI Cyber
cysmo by PPI CyberPPI AG
 
Ibm sicherster cloud anbieter v13 080316 p24-04
Ibm sicherster cloud anbieter v13   080316 p24-04Ibm sicherster cloud anbieter v13   080316 p24-04
Ibm sicherster cloud anbieter v13 080316 p24-04SuErl
 
Sicherste Cloud Anbieter - IBM
Sicherste Cloud Anbieter - IBM Sicherste Cloud Anbieter - IBM
Sicherste Cloud Anbieter - IBM Sumaya Erol
 
NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...
NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...
NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...bhoeck
 
SAP Infotag: Security / Erlebe-Software 07-2014
SAP Infotag: Security / Erlebe-Software 07-2014SAP Infotag: Security / Erlebe-Software 07-2014
SAP Infotag: Security / Erlebe-Software 07-2014Erlebe Software
 
MAXXYS Firmenpräsentation
MAXXYS FirmenpräsentationMAXXYS Firmenpräsentation
MAXXYS FirmenpräsentationMAXXYS AG
 
Digitalisierungsoffensive Versicherungen: Schadensprozesse
Digitalisierungsoffensive Versicherungen: SchadensprozesseDigitalisierungsoffensive Versicherungen: Schadensprozesse
Digitalisierungsoffensive Versicherungen: SchadensprozesseSoftProject GmbH
 

Ähnlich wie CIO-Briefing 09-2017 (20)

Artikel im Swiss IT Magazine: Marktuebersicht Web-Agenturen
Artikel im Swiss IT Magazine: Marktuebersicht Web-AgenturenArtikel im Swiss IT Magazine: Marktuebersicht Web-Agenturen
Artikel im Swiss IT Magazine: Marktuebersicht Web-Agenturen
 
Webseiten-Pflege in der Cloud
Webseiten-Pflege in der CloudWebseiten-Pflege in der Cloud
Webseiten-Pflege in der Cloud
 
abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019
abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019
abtis mit Security-Lösungen für eine digitale Welt auf der it-sa 2019
 
Citrix Day 2014: Swisscom Dynamic Workplace Framework
Citrix Day 2014: Swisscom Dynamic Workplace FrameworkCitrix Day 2014: Swisscom Dynamic Workplace Framework
Citrix Day 2014: Swisscom Dynamic Workplace Framework
 
abtis veranstaltet 7. IT Symposium Mittelstand in Pforzheim
abtis veranstaltet 7. IT Symposium Mittelstand in Pforzheimabtis veranstaltet 7. IT Symposium Mittelstand in Pforzheim
abtis veranstaltet 7. IT Symposium Mittelstand in Pforzheim
 
Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...
Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...
Identity & Domain Management aus der Cloud - Replizierte Identitäts- und Stan...
 
Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017
Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017
Namics & Adobe Industrie-Workshop "Be smart" vom 23.05.2017
 
Mag. Hans Stögerer (Helvetia Versicherungen)
Mag. Hans Stögerer (Helvetia Versicherungen)Mag. Hans Stögerer (Helvetia Versicherungen)
Mag. Hans Stögerer (Helvetia Versicherungen)
 
Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...
Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...
Cyber Risk Management & Audit, ISACA Switzerland chapter, Newsletter 15. Juni...
 
Was Ist Identity Relationship Management (IRM) - Webinar auf Deutsch
Was Ist Identity Relationship Management (IRM) - Webinar auf DeutschWas Ist Identity Relationship Management (IRM) - Webinar auf Deutsch
Was Ist Identity Relationship Management (IRM) - Webinar auf Deutsch
 
cysmo by PPI Cyber
cysmo by PPI Cybercysmo by PPI Cyber
cysmo by PPI Cyber
 
Lean Collaboration
Lean CollaborationLean Collaboration
Lean Collaboration
 
Ibm sicherster cloud anbieter v13 080316 p24-04
Ibm sicherster cloud anbieter v13   080316 p24-04Ibm sicherster cloud anbieter v13   080316 p24-04
Ibm sicherster cloud anbieter v13 080316 p24-04
 
Sicherste Cloud Anbieter - IBM
Sicherste Cloud Anbieter - IBM Sicherste Cloud Anbieter - IBM
Sicherste Cloud Anbieter - IBM
 
NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...
NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...
NCP setzt bei E-Mail-Verschlüsselung und Anti-Spam auf Bechtle und NoSpamProx...
 
SAP Infotag: Security / Erlebe-Software 07-2014
SAP Infotag: Security / Erlebe-Software 07-2014SAP Infotag: Security / Erlebe-Software 07-2014
SAP Infotag: Security / Erlebe-Software 07-2014
 
Vernetzung 4.0
Vernetzung 4.0Vernetzung 4.0
Vernetzung 4.0
 
MAXXYS Firmenpräsentation
MAXXYS FirmenpräsentationMAXXYS Firmenpräsentation
MAXXYS Firmenpräsentation
 
IBM Elevator Pitch
IBM Elevator PitchIBM Elevator Pitch
IBM Elevator Pitch
 
Digitalisierungsoffensive Versicherungen: Schadensprozesse
Digitalisierungsoffensive Versicherungen: SchadensprozesseDigitalisierungsoffensive Versicherungen: Schadensprozesse
Digitalisierungsoffensive Versicherungen: Schadensprozesse
 

Mehr von Vogel IT-Medien

Akademie 2012 Jahresplaner
Akademie 2012 JahresplanerAkademie 2012 Jahresplaner
Akademie 2012 JahresplanerVogel IT-Medien
 
Internetkriminalität in Deutschland - Status und Trends
Internetkriminalität in Deutschland - Status und TrendsInternetkriminalität in Deutschland - Status und Trends
Internetkriminalität in Deutschland - Status und TrendsVogel IT-Medien
 
Automotive Com Wolfsburg 2011
Automotive Com Wolfsburg 2011Automotive Com Wolfsburg 2011
Automotive Com Wolfsburg 2011Vogel IT-Medien
 
Channel Marketing Award 2010
Channel Marketing Award 2010Channel Marketing Award 2010
Channel Marketing Award 2010Vogel IT-Medien
 
Channel Marketing Award 2009
Channel Marketing Award 2009Channel Marketing Award 2009
Channel Marketing Award 2009Vogel IT-Medien
 

Mehr von Vogel IT-Medien (6)

E government in Bayern
E government in BayernE government in Bayern
E government in Bayern
 
Akademie 2012 Jahresplaner
Akademie 2012 JahresplanerAkademie 2012 Jahresplaner
Akademie 2012 Jahresplaner
 
Internetkriminalität in Deutschland - Status und Trends
Internetkriminalität in Deutschland - Status und TrendsInternetkriminalität in Deutschland - Status und Trends
Internetkriminalität in Deutschland - Status und Trends
 
Automotive Com Wolfsburg 2011
Automotive Com Wolfsburg 2011Automotive Com Wolfsburg 2011
Automotive Com Wolfsburg 2011
 
Channel Marketing Award 2010
Channel Marketing Award 2010Channel Marketing Award 2010
Channel Marketing Award 2010
 
Channel Marketing Award 2009
Channel Marketing Award 2009Channel Marketing Award 2009
Channel Marketing Award 2009
 

CIO-Briefing 09-2017

  • 1. Technology-Update für IT-Manager CIOBRIEFING 09/2017 +++ Proaktiver Webseitenschutz aus einer Hand +++ Die Zeit ist reif für SDN +++ Standards für ethisches KI-Design in Arbeit +++ Das ­Datensubjekt bekommt durch die DSGVO größere Rechte +++ Fach- kräfte dringend gesucht: Wege zum Cloud-Profi +++ So organisieren Sie ein ­verteiltes Team +++ Quanta Cloud Technology ­expandiert und verdrängt die (Ex-)Auftraggeber +++ Drohnenabwehr mit Laser, Richt- funk und Netz +++ Automatisierte Netzwerk-Virtualisierung mit VMware­ NSX +++ So werden Daten bei Edge Analytics geschützt +++ Wer will schon 60-prozentiges NVMe/f? +++ ERP-Pakete aus der Cloud müs- sen performant, sicher und anpassbar sein +++ IDEs und Tools für Dapps und Smart Contracts +++ Die Top 10 für Backup und ­Recovery ISSN 2364-3188 www.ciobriefing.de powered by
  • 2. MANAGEMENT & STRATEGIE Proaktiver Webseitenschutz aus einer Hand..............................................3 Die Zeit ist reif für SDN..............................................................................9 Standards für ethisches KI-Design in Arbeit............................................13 Das Datensubjekt bekommt durch die DSGVO größere Rechte............... 17 Fachkräfte dringend gesucht: Wege zum Cloud-Profi..............................21 So organisieren Sie ein ­verteiltes Team...................................................25 Quanta Cloud Technology ­expandiert und verdrängt die (Ex-)Auftraggeber..............................................................................30 TECHNOLOGIE & ZUKUNFT Drohnenabwehr mit Laser, Richtfunk und Netz.......................................35 Automatisierte Netzwerk-Virtualisierung mit VMware NSX........................39 So werden Daten bei Edge Analytics geschützt......................................43 Wer will schon 60-prozentiges NVMe/f?..................................................46 ERP-Pakete aus der Cloud müssen performant, sicher und anpassbar sein................................................................................49 IDEs und Tools für Dapps und Smart Contracts......................................55 Die Top 10 für Backup und ­Recovery......................................................59 CIOBRIEFING 09/2017 IMPRESSUM: Vogel IT-Medien GmbH August-Wessels-Str. 27 86156 Augsburg Tel.: +49(0)821-2177-0 Fax: +49(0)821-2177-150 Email: zentrale@vogel-it.de Internet: www.vogel-it.de Handelsregister Augsburg HRB 1 19 43 Umsatzsteueridentifikationsnummer: DE 127502716 Geschäftsführer: Werner Nieberle Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV: Nico Litzel, Florian Karlstetter, Ulrike Ostler, Stephan Augsten, Andreas Donner, Peter Schmitz, Rainer Graefen (Anschrift siehe Verlag) Vogel IT-Medien Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991 gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstech- nologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an. Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de, DataCenter-Insider.de, Dev-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de. Vogel Business Media Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschrif- ten und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.
  • 3. CIOBRIEFING 09/2017 Seite 3 Security-Startups im Blickpunkt: Net Wächter Proaktiver Webseitenschutz aus einer Hand Webseiten sind das Aushängeschild jedes Unterneh- mens und immer öfter auch das wirtschaftliche Zent- rum. Cyberkriminelle nutzen das gerne aus um Geld zu erpressen, Malware zu verteilen oder Rufschädigung zu betreiben. Das Startup Net Wächter bietet Unternehmen deshalb einen umfassenden Webseitenschutz an, der nicht nur einen konkurrenzfähigen Preis hat, sondern zu- sätzlich noch ein interessantes „Bonbon“ bietet. Der Zugriff per Browser auf Daten und das Angebot von generel- len aber auch individuellen Services, ist heutzutage eine Funkti- on die ein Unternehmen einfach anbieten muss. Der Schutz der Webseiten ist auch für KMU eine Aufgabe von zunehmender Dringlichkeit die auch über den Unternehmenserfolg mitent- scheidet. Dies haben auch die beiden Firmengründer Swjatoslav Cicer und Yuliy Finkelstein erkannt, als sie im Jahr 2016 vergeb- lich auf der Suche nach einem einfach zu handhabenden Tool für ihre Kunden waren, welches einen anspruchsvollen, digitalen Schutz erbringt. Aus dieser unerfüllten Suche heraus entstand das Startup Net Wächter mit Firmensitz im baden-württembergischen Ostfildern (Nähe Stuttgart). Ein Unternehmen, das Security-Insider im Rah- men seiner Vorstellungen von innovativen und kreativen Securi- ty-Startups aus Deutschland, Österreich und der Schweiz heute vorstellt. Vielleicht fühlten sich die Firmengründer von Bertolt Brecht inspiriert, der sagte „Ändere die Welt; sie braucht es“, als sie Net Wächter entwickelten? Denn ihr Ziel war es, mit Net Wächter eine proaktive, leistungsstarke und bezahlbare Dienst- leistung anzubieten, die Webseiten vor Cyberkriminellen schützt. Net Wächter will für KMU und Enterprise passenden, proaktiven Webseitenschutz und -überwachung aus einer Hand liefern. Bild:©alphaspirit-Fotolia.com
  • 4. CIOBRIEFING 09/2017 Seite 4 Budget und Leistung „Über Geld spricht man nicht“, so ein bekanntes Sprichwort. Aber man sollte zumindest genau hinschauen, was man für sein Geld bekommt. Bei Net Wächter kann man drei verschiedene Ta- rife buchen (oder eine individuelle Konfiguration) für den Schutz der eigenen Webseite. Der günstigste Basic-Tarif ist bereits für monatlich 14,99 Euro (plus MwSt.) zu erhalten und liefert einen guten Basisschutz. Etwas mehr Sicherheit erhält man im Busi- ness-Tarif (29,99 Euro plus MwSt.), der sicherlich für viele An- wendungen bereits einen soliden Schutz bietet. Wem dies noch nicht genügt, der wählt den Premium-Tarif für 149,99 Euro pro Monat (zzgl. MwSt.), der alle Standard-Funktionen beinhaltet. Im Business-Tarif ist u.a. einen Online-Monitoring, ein DDoS- Schutz, eine AntiMalware-Prüfung und ein Blacklist-Monitoring enthalten. Net Wächter entwickelt seine Schutzkomponenten be- vorzugt selbst, nutzt aber auch die Produkte von Spezialisten, wie z.B. Kaspersky Lab im Antivirus-Umfeld, innerhalb seiner Lösung. Net Wächter zielt darauf ab, proaktiv zu agieren, also Attacken bereits dann abzufangen, bevor sie die Webseite durch Manipu- lationen oder Defacements beeinträchtigen können. Dies wird er- reicht, durch Vorschalten eines Name Servers der durch Net Wäch- ter bereitgestellt wird und als proaktiver Filter, für unerwünschte und gefährliche Zugriffe fungiert. Dort werden beispielsweise alle Zugriffe eliminiert, die von einer IP-Adresse kommen, die als Angreifer, Spammer oder DDoS-Quelle bekannt ist. Ob es sich nun um Angreifer handelt, die per SQL-Injection, Vul- nerability Scan oder per Hacking-Tool angreift, oder um einen normalen Besucher der Webseite – Net Wächter prüft alle Zu- griffe und eliminiert die unerwünschten. Im Wesentlichen sind es drei Komponenten, die Net Wächter seinen Kunden offeriert: ● Schutz: Web Application Firewall (WAF) und AntiMalwa- re-Schutz sowie Schutz vor den in OWASP 10 (OWASP Top Ten Projekt) definierten Angriffe (Cross Site Request Forgery (CSRF), Cross Site Scripting (XSS) u.a.) ● Beschleunigung: Content-Caching auf SSD-Platten mit einer vorgegebenen Gültigkeitszeit (Lease Time). Optional auch ab- schaltbar, falls es mit Affiliate-Marketing-Programmen etc. zu Kollisionen kommen sollte. ● Überwachung: Verfügbarkeit der Webseite (Uptime), Lade- zeit der Webseite und Kontrolle, ob die Website auf Blacklists steht und als „gefährlich“ gemeldet wird (Reputationsverlust).
  • 5. CIOBRIEFING 09/2017 Seite 5 Da Net Wächter ein noch junges Startup ist, darf man gespannt sein, was die Macher noch an weiteren Schutz-Funktionalitäten implementieren werden. Technik Um ein Webseiten-Monitoring zu implementieren gibt es traditi- onell zwei unterschiedliche Wege. Entweder man agiert von au- ßerhalb und meldet, wenn Angriffe erfolgen. Oder man arbeitet als Webseiten-Komponente innerhalb und erkennt dort die An- griffe, meldet diese und versucht zu verhindern, was machbar ist. Net Wächter beschreitet hier einen innovativen Ansatz, indem man zwar von außerhalb agiert, aber trotzdem als Komponen- te des Webauftritts funktioniert – ohne jedoch zusätzliche API‘s oder DLL’s zu integrieren. Dies wird erreicht, durch Vorschalten bzw. umlenken des Name Servers. Ein von Net Wächter bereitge- stellter Name Server ersetzt hier den Name Server des Web-Pro- viders oder den eigenen des Unternehmens. Über diesen Name Server werden die Security-Funktionen von Net Wächter akti- viert und diese verifizieren alle Zugriffe auf die Webseite. Ein cleveres Prinzip, welches üblicherweise auch durch Web-Pro- vider unterstützt werden kann. Denn das ersetzen der Standard- Einträge für eine Webseite auf dem Name Server des Providers durch die Daten von Net Wächter ist eine Minutensache. Im Nor- malfall kann man dies entweder per GUI bei seinem Web-Pro- vider selbst erledigen oder mit einer entsprechend formulierten Bitte bzw. einem Auftrag an den Web-Hoster per Support-Sys- tem. Größere Firmen, die einen eigenen Name Server betreiben, können dies selbst erledigen. Net Wächter unterstützt hierbei http- und https-Webseiten, wo- bei bei letzterem das SSL-Zertifikat bei Net Wächter hochgela- den werden muss. Wenn man noch kein SSL-Zertifikat hat, aber bereits plant diese Schutzfunktionalität zu implementieren, kann man auch für den kostenlosen 14-Tage-Test via Net Wächter ein Gratis-Trial-Zertifikat bei COMODO ordern und so erste Erfah- rungen sammeln. Der 14-Tage-Test bei Net Wächter ist wie üblich gratis abrufbar und vermittelt einen guten Eindruck, wie es um die Sicherheit der eigenen Webseite steht und wie häufig diese bereits attackiert wird! Bonbon gefällig? Ein besonderes Bonbon das Net Wächter seinen Kunden bietet, soll hier nicht unerwähnt bleiben. Net Wächter bzw. die Mutter-
  • 6. CIOBRIEFING 09/2017 Seite 6 firma GZIS GmbH ist einer der wenigen deutschsprachigen Part- ner des bekannten Security-Unternehmens Acunetix. Im Rahmen dieser Partnerschaft wird während des Testbetriebs auch ein ein- maliger Gratis-Check der Webseite durch Acunetix durchgeführt. Dabei wird das Sicherheitsniveau der Webseite selbst durch- leuchtet – also, wie aktuell sind die eingesetzten Tools, können bekannte Vulnerabilities ausgenutzt werden, wie steht es um die Code-Sicherheit und vieles mehr. Dieser Report erlaubt es dem Web-Admin, entdeckte Schwachstellen innerhalb seines Web- Auftritts zu beseitigen, bevor andere diese ausnutzen. Wer dieses Feature dauerhaft nutzen will, da der Webauftritt sehr dynamisch ist oder aus einer Vielzahl von Komponenten besteht, kann diesen Acunetix-Service auch über Net Wächter einkaufen. Gesetzliche Anforderungen Bei Net Wächter erhält man Sicherheit für den eigenen Websei- tenauftritt, ohne dass man sich mit dieser im Detail auseinander- setzen muss. Falls es aber doch mal erforderlich ist und bei der Implantation oder einen erforderlichen Webseiten-Umgestaltung aus Security-Gründen zu Schwierigkeiten kommt, bietet Net Wächter auch Consulting-Leistungen. Denn das Motto ist: Pro- aktiver Schutz, aus einer Hand! Auch wenn es sich noch nicht überall herumgesprochen hat, dass Telemediengesetz (TMG) fordert in seiner aktuellen Fassung im Paragraph 13 Pflichten des Diensteanbieters, Absatz 7: Diensteanbieter haben, soweit dies technisch möglich und wirt- schaftlich zumutbar ist, im Rahmen ihrer jeweiligen Verantwort- lichkeit für geschäftsmäßig angebotene Telemedien durch tech- nische und organisatorische Vorkehrungen sicherzustellen, dass 1. kein unerlaubter Zugriff auf die für ihre Telemedienangebo- te genutzten technischen Einrichtungen möglich ist und 2. diese a) gegen Verletzungen des Schutzes personenbezogener Daten und b) gegen Störungen, auch soweit sie durch äußere Angriffe be- dingt sind, gesichert sind. Vorkehrungen nach Satz 1 müssen den Stand der Technik berücksichtigen. Eine Maßnahme nach Satz 1 ist insbe- sondere die Anwendung eines als sicher anerkannten Verschlüs- selungsverfahrens.
  • 7. CIOBRIEFING 09/2017 Seite 7 Was dies beispielsweise bei einem DDoS-Angriff in der Praxis bedeutet,lässt sich direkt bei Net Wächter nachlesen. Net Wäch- ter, als Security-Dienstleister, sorgt auch dafür, dass Anforderun- gen der Kunden bezüglich Datenschutz und Revisionssicherheit berücksichtigt werden. So sind alle Services bei Rechenzentren in Deutschland gehostet die nach ISO27001 zertifiziert sind. Net Wächter ist unter anderem Mitglied bei „IT Security Made in Germany“ (ITSMIG), einem Zusammenschluss verschiedenen Security-Unternehmen unter dem Dach von TeleTrusT (Arbeits- gruppe „ITSMIG“). Resümee Bei Net Wächter hat man sich intensiv Gedanken um die Sicher- heit gemacht und kann bereits zu diesem frühen Startup-Zeit- punkt (Online seit April 2017) durch eine Vielzahl durchdachter Features punkten. Das Tool Net Wächter wird sicherlich seinen Weg machen und den Markt für Webseiten-Monitoring und -Schutz aufmischen. Denn die Kombination aus Standard-Leistungen und nützlichen neuen Features wird den Endkunden ansprechen. Wer für seine Webseiten einen All-In-One Security-Dienstleister sucht, muss sich Net Wächter auf jeden Fall näher ansehen. Net Wächter auf einen Blick Name Net Wächter Webseite https://netwaechter.de/ Geschäftsform GmbH Standort Ostfildern – Stuttgart Gründungszeitpunkt Oktober 2016 Geschäftsführer Swjatoslav Cicer, Yuliy Finkelstein NET WÄCHTER youtube
  • 8. CIOBRIEFING 09/2017 Seite 8 Anzahl Mitarbeiter 12 Security-Sparte Web-Security-Suite für KMU und Enterprise Produkt NET WÄCHTER Innovation Einfache Konfiguration ohne IT-Secu- rity Know-how, Schutz, Beschleuni- gung und Überwachung Unternehmens-Blog https://netwaechter.de/blog/ Investitionen möglich Ja Startfinanzierung / Umsatz letztes Jahr – ■ Ralph Dombach Mehr zum Thema Security finden Sie auf www.security-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 9. CIOBRIEFING 09/2017 Seite 9 Software-Defined Networking und On-Demand Services Die Zeit ist reif für SDN Dieses Jahr wird das Jahr, in dem Software-Defined Net- working (SDN) endlich im Geschäftsalltag ankommt. Das beschleunigt die digitale Transformation und verändert die Art, wie Unternehmen mit ihrem Netzwerk interagie- ren. Bald wird es ein Ding der Unmöglichkeit sein, dem Internet der Dinge (IoT) zu entkommen. Schon heute ist das Netz überall. Es läuft in der Hosentasche auf dem Smartphone, im Wohnzimmer auf Fernsehern und in Büros auf Rechnern. In Zukunft wird es noch omnipräsenter. Laut einer McKinsey-Studie wird sich der Umsatz der Informa- tions- und Telekommunikationsbranche in Deutschland mit dem IoT bis 2020 mehr als verdoppeln. Er wird auf bis zu 23 Mil- liarden Euro pro Jahr ansteigen. Bis 2020 wird laut Studie der Preis für ein grundlegendes IoT-Modul, das Hardware ans Inter- net anschließt, von heute vier auf ein bis zwei Euro fallen. Das verändert den Alltag von Unternehmen. Allein auf der Hannover Messe 2017 wurden mehr als 500 Anwendungsbeispiele für „In- dustrie 4.0“-Lösungen gezeigt. Infrastruktur für IoT, 5G und die Cloud Das Internet der Dinge wird jedoch nur so stark wachsen, wenn auch die Infrastruktur im Hintergrund wächst. Netzwerke müs- sen sich den ständig ändernden Gegebenheiten anpassen. Das gilt für IoT, den 5G-Ausbau und die Cloud. In den vergangenen Jah- ren ist der cloudbasierte Datenverkehr deutlich gewachsen. Bis 2020 wird er sich laut dem sechsten Cisco Global Cloud Index fast vervierfachen und auf 14,1 Zetabyte ansteigen. „SDN und On-Demand Services verändern auch die Art, wie Unterneh- men in Zukunft für Netze zahlen.“ (Süleyman ­Karaman, Geschäfts­ führer Colt Technology Services GmbH in Deutschland) Bild:ColtTechnologyServices
  • 10. CIOBRIEFING 09/2017 Seite 10 Gründe für die Beliebtheit der Cloud ist neben der Skalierbarkeit die höhere Workload-Leistung. Das überzeugt auch die Deutsche Bahn. Der Konzern hat vor kurzem angekündigt, dass er bis 2022 das eigene Rechenzentrum überflüssig machen will. Die Bahn will stattdessen auf die Amazon-Cloud setzen. Während bei der Deutschen Bahn der Umzug in die Cloud erst begonnen hat, sind andere Unternehmen schon weiter. Dedizierter Zugriff auf die Cloud hhpberlin ist Marktführer im Brandschutz in Europa und hat mehr als 180 Mitarbeiter. Die meisten davon sind hoch spezialisierte Ingenieure. Das Unternehmen setzt auf die Microsoft-Cloud und eine digitale Infrastruktur. Diese verbindet alle Mitarbeiter mit dem Hauptstandort in Berlin, egal wo auf der Welt sie leben oder arbeiten. Die Cloud hilft den Ingenieuren, komplexere Simulatio- nen zu erstellen und dadurch bessere Entscheidungen zu treffen. Der Zugriff auf die Cloud erfolgt aus Performance- und Sicher- heitsgründen nicht über das öffentliche Internet, sondern über ei- nen dedizierten Zugang. Für diese Art von Zugängen stehen bei professionellen Anbietern eine Vielzahl von Konnektivitätsop- tionen zur Verfügung: zum Beispiel Ethernet Punkt-zu-Punkt, Ethernet Hub-and-Spoke, IP VPN oder Managed-Router-Lösun- gen für Punkt-zu-Punkt-Verbindungen in die Cloud. Das Brandschutzunternehmen entschied sich für eine Ethernet Hub-and-Spoke-Lösung mit Managed Layer 3 CPE. Der Haupts- tandort wurde mit einem vorhandenen Hub mit doppelter Hauszu- führung ausgestattet. Zusätzlich wurden zwei dedizierte Zugriffe mit je 200 Mbit/s Bandbreite zu Microsoft Azure in Amsterdam geschaltet. Das Beispiel zeigt, wie wichtig neben der Wahl des richtigen Cloud-Anbieters auch der Zugang in die Cloud ist. Was nutzen Software as a Service, Plattform as a Service oder Infra- structure as a Server, wenn ein langsames oder unflexibles Netz- werk die Vorteile der Cloud ausbremst? On-Demand und Software-Defined Networking Bisher mussten Unternehmen Investitionen in ihre Netze lange im Voraus planen. Wenn ein Unternehmen mehr Bandbreite benötig- te, begann die Planung Wochen oder sogar Monate vor der Be- reitstellung. Es dauerte, bis Anschlüsse und Leitungen verlegt und geschaltet wurden. In Zukunft wird sich das ändern. Unternehmen reagieren dann flexibel auf Leistungsspitzen im Geschäftsbetrieb.
  • 11. CIOBRIEFING 09/2017 Seite 11 Beispiel Deutsche Bahn: Kunden fahren etwa zwischen fünf Uhr morgens und 23 Uhr abends, nachts müssen die Server nicht mit voller Leistung laufen, das gilt auch für das Netzwerk. Beispiel Berlinale: Im Herbst steigt der Bandbreitenbedarf des Filmfesti- vals rapide an. Dann treffen die ersten Beiträge in Berlin ein und die Sichtungen beginnen. Während der Festivaltage im Februar wird die Bandbreite je nach Verbindung auf 1 Gbit/s beziehungs- weise bis zu 10 Gbit/s erhöht. Zwischen den Festivals, über den Rest des Jahres, ist der Bandbreitenbedarf grundsätzlich geringer. Mit intelligenten Netzwerken können Unternehmen ihre Band- breiten flexibel an diese temporären Lastspitzen anpassen – und zwar immer genau dann, wenn sie diese benötigen. Steigt in Zu- kunft der Bedarf an Bandbreite, lassen sich SDN-basierte On- Demand-Cloud-Verbindungen je nach Bedarf flexibel über ein Online-Portal hoch und runter skalieren. In diesen Portalen definiert der Nutzer zwei Endpunkte, reserviert die dazugehörigen Ports und gibt diese frei. Neben dem Land, der Stadt und dem Standort kann man auch die zugehörige Verka- belung wählen. Um einen Cloud-Port anzulegen, reserviert man einen Port und fügt ihn dem Konto hinzu. Sobald man zwei oder mehr Ports bereitgestellt hat, kann man sie in Minutenschnelle verbinden und dabei die VLAN-Konfiguration, die Bandbreite und das Preismodell auswählen. Damit umgehen Unternehmen die bisher auftretenden langwie- rigen Bereitstellungsprozesse. SDN und On-Demand Services verändern auch die Art, wie Unternehmen in Zukunft für Net- ze zahlen. Sie müssen für eine 100-Gbit/s-Leitung, die sie nur wenige Tage im Jahr benötigen, nicht mehr dauerhaft konstant hohe Beträge zahlen. In Zukunft zahlen Unternehmen nur für die Netzwerkdienste, die sie tatsächlich beanspruchen. Gemeinsame SDN-Schnittstellen Führende Netzwerkanbieter arbeiten zusammen mit dem Me- tro Ethernet Forum (MEF) daran, Standards für gemeinsame SDN-APIs zu definieren. ATT und Colt haben zum Beispiel den ersten erfolgreichen Feldversuch für SDN-Interoperabili- tät durchgeführt, der beweist, dass die SDN-Architekturen von Netzwerk-Service-Providern sogar über Kontinente hinweg zu- sammenarbeiten können. Die Einführung der ersten APIs ist für Ende des Jahres geplant. Dies ist ein wichtiger Schritt zur Ein- führung abgestimmter On-Demand Services über automatisierte und verbundene Netzwerke.
  • 12. CIOBRIEFING 09/2017 Seite 12 Service Provider werden die standardisierten Schnittstellen nut- zen können, um mit den SDN-Architekturen der anderen nahezu in Echtzeit zu arbeiten. Es ist geplant, acht API-Definitionen zu standardisieren. Sie sollen auf den branchenweit abgestimmten Open APIs basieren, die von den Mitgliedern des TM Forum entwickelt wurden. Die ersten drei der unten aufgeführten APIs werden in der ersten Phase des Projektes in diesem Jahr definiert: 1. Adress-Validierung 2. Service-Verfügbarkeit 3. Bestellung 4. Quotierung 5. Abrechnung 6. Performance 7. Tests 8. Ticketing Diese APIs werden dazu beitragen, die Schwierigkeiten frag- mentierter Netzwerke zu reduzieren. Dadurch können Unter- nehmen skalierbare, flexible On-Demand Netzwerkservices über Software-Plattformen wie ECOMP provisionieren. ECOMP ist ein Open-Source-Projekt der Linux Foundation. Die verbunde- nen Netzwerke werden Kosten sparen und agiler sein. Dadurch können Unternehmen ihren Betrieb effizienter gestalten und auf jedes neue Ding flexibel reagieren, egal ob es IoT oder 5G heißt oder einen Namen trägt, den wir heute noch gar nicht kennen. ■ Süleyman Karaman
  • 13. CIOBRIEFING 09/2017 Seite 13 Künstliche Intelligenz und Ethik Standards für ethisches KI-De- sign in Arbeit Umfassende Personenprofile, Drohnen, Hacks auf Par- lamente, politische Hetze in sozialen Medien … Anlässe, über die Ethik der IT zu reden, gibt es genug. Genau zu diesem Zweck traf sich Ende Juni in München das Welt- forum für Geschäftsethik zur Münchner Konferenz „Ge- staltung einer humanen vierten Industriellen Revolution.“ In den vergangenen Jahren hat die IT durch neue technologische Entwicklungen endgültig ihre Unschuld verloren. Der Grund: Informationstechnik ist nicht mehr auf eine mehr oder weniger abgeschlossene Digitalsphäre beschränkt, sondern durchdringt unser Leben unsichtbar allgegenwärtig. Sie wird inzwischen zur unverzichtbaren Komponente der großen Systeme, die Gesell- schaften am Leben halten: Strom- und Wasserversorgung, Fi- nanzsystem, politischer Diskurs. Auch banale Geräte und Alltagsdinge, zum Beispiel Kleidung, werden zu Datenlieferanten, deren Output häufig auf wenig trans- parente Weise genutzt wird. Und Maschinen können inzwischen autonom darüber entscheiden, wen sie, beispielsweise auf dem Schlachtfeld oder bei Polizeieinsätzen, töten. Künstliche Intelli- genz (KI) werde schon bald den Menschen überflügeln, glauben Singularitäts-Propagandisten wie Ray Kurzweil, der, um seinen Tod bis zum Transfer seines Geistes in eine Maschine hinauszu- zögern, angeblich täglich unzählige Nahrungsergänzungs-Tab- letten schluckt. Dr. Alex Walz, Senior ­Research Fellow, MPI, erklärt am Rednerpult sein abgestuftes ­Regulierungsmodell für ethische Fragen in der Informationstechnik. Bild:Rüdiger
  • 14. CIOBRIEFING 09/2017 Seite 14 Mit anderen Worten: Nachdenken über die Gestaltung der IT und Regulierung der Akteure tut not. Im Deutschen Patent- und Markenamt waren Fachleute aus aller Welt versammelt und bo- ten einen Einblick darin, wie weit die Berücksichtigung ethischer Maßstäbe bei der Gestaltung von IT- oder intelligenten Systemen und Anwendungen schon gediehen ist. Wohl am konkretesten in dieser Hinsicht sind die Bemühungen der IEEE. Sie arbeitet derzeit an einem ganzen Satz von Standards. „Wir wünschen uns, dass deren Einhaltung genauso selbstver- ständlich wird wie die anderer IEEE-Standards“, sagt Kay-Firth Butterfield, stellvertretende Vorsitzende der IEEE – Global Ini- tiative for Ethical Considerations in the Design of Autonomous Systems (Weltweite Initiative für Ethische Überlegungen bei der Entwicklung autonomer Systeme. Auch am Max-Planck-Institut für Innovation und Wettbewerb arbeitet man an diesen Fragen. Seine bisherigen Ergebnisse referierte Dr. Axel Walz, der dort Senior Research Fellow ist. Abgestufte Herangehensweise Walz beschäftigt sich damit, wie es möglich ist, Ethik in KI zu implementieren. „Wir stehen am Scheideweg“, betonte er. „Unse- re Entscheidungen beeinflussen maßgeblich, wie die zukünftige Gesellschaft aussieht.“ Wie KI jeweils implementiert werden sol- le, sei in Hinblick darauf zu entscheiden, welche ethischen Werte jeweils geschätzt werden sollten. Es sei durchaus ein Unterschied, ob eine Software lediglich individuelle persönliche Einstellungen respektieren solle oder gegebenenfalls fundamentale ethische Kernwerte beeinträchtige, etwa die Menschenrechte, Menschen- würde oder das Leben: Gehe es um individuelle Einstellungen, reiche, mit Zertifizierungen der betreffenden Systeme, vertrag- lichen Vereinbarungen zwischen Anbieter und Nutzer und ähn- lichen Mitteln zu arbeiten, um ethische Ergebnisse zu erreichen. Gehe es dagegen um fundamentale Rechtsfragen die die Men- schenrechte, die Menschenwürde und ähnlich hoch angesiedelte Werte beträfen und diese schlimmstenfalls in Konflikt mit der Privatautonomie brächten, sei ein breit angelegter, nötigenfalls auch globaler demokratischer Diskurs und Prozess erforderlich, um zu Entscheidungen zu kommen, die anschließend auch breit akzeptiert werden. Als Beispiel für die erstgenannte Gruppe nannte Walz etwa eine Software, die Rezepte bereitstellt, die den Regeln einer Religion entsprechen. Hier würde es reichen, wenn sich der Anbieter der
  • 15. CIOBRIEFING 09/2017 Seite 15 Lösung entsprechend zertifizieren würde. Sollen Systeme dage- gen über das Leben von Menschen autonom entscheiden, kann der Diskurs gar nicht intensiv genug sein. Weit weniger abstrakt verläuft derzeit der Standardisierungs- prozess, der in die Standards der Gruppe IEEE P 7000 mündet und unter dem Titel „Ethical Alligned Design“ läuft. An ihm be- teiligen sich bisher rund 240 interdisziplinäre Experten. Da der Prozess offen ist, forderte Butterfield ausdrücklich alle Experten, die sich mit Themen rund um IT und Ethik beschäftigen, zur Teilnahme an der Arbeit der Gruppe auf. Besonders junge Spezi- alisten sollten sich melden, denn, so Butterfield: „Wir entwickeln gerade die Welt, in der Sie einmal leben sollen.“ Derzeit gibt es bereits zehn Arbeitsgruppen, die sich mit diversen Unterstan- dards beschäftigen. Ein neuer Satz Standards für digitale Ethik Grundlegend ist der Standard P7000, („Model Profess for Addres- sing Ethical Concerns During System Design”), der einen Prozess beschreibt, mit dessen Hilfe ethische Erwägungen von Anfang an ins Systemdesign einfließen. Am weitesten fortgeschritten ist derzeit der Standard P7001, der sich mit der Transparenz autono- mer Systeme befasst – gerade fürs autonome Fahren von höchs- ter Bedeutung. Schließlich werden Verkehrsrichter eines Tages darüber zu entscheiden haben, ob ein Todesopfer im Verkehr auf das Versagen der Maschine oder eines menschlichen Verkehrs- teilnehmers zurückgeführt werden muss. P7002 (Data Privacy Process) beschäftigt sich mit Systemen und Software, die persönliche Daten sammeln und auswerten. P7003 (Algorithmic Bias Considerations) beschreibt, wie man verhin- dert, dass sich die – positiven oder negativen - Vorurteile von Programmierern oder Auftraggebern in angeblich neutralen Al- gorithmen wiederfinden. P7004 (Standard for Child and Student Data Governance) entwickelt Richtlinien dafür, wie Bildungsin- stitutionen mit den Daten von Schülern und Studenten umgehen sollen, um diese zu schützen. P7005 (Standard for Transparent Employer Data Governance) tut dasselbe für Unternehmen beziehungsweise Mitarbeiterdaten, soll aber gleichzeitig den Angestellten von Unternehmen ermög- lichen, ihre Daten sicher und geschützt mit anderen Mitarbeitern zu teilen. Vorbild war hier die Europäische Datenschutzverord- nung, die im Mai kommenden Jahres in Kraft tritt. P7006 (Stan- dard for Personal Data Artificial Intelligence Agent) befasst sich
  • 16. CIOBRIEFING 09/2017 Seite 16 damit, wie Verwaltung und Unternehmen ethische Werte bei der Gestaltung autonom entscheidender Algorithmen berücksichti- gen können. Ziel ist, dass Einzelne im Detail bestimmen können, wie und welche ihrer Daten verwendet werden, sodass sie ihr di- gitales Profil kontrollieren können. IEEE P7007 – bisher nur im Kongress, nicht auf der IEEE-Seite im Web sichtbar – beschreibt ontologische Standards für ethisch betriebene Roboter und Automatisierungssysteme, P7008 mit dem resilienten Design autonomer und halbautonomer Systeme, P7009 befasst sich mit ethischem „Nudging“ für Roboter, in- telligente und autonome Systeme und P7010 mit der Schaffung von „Tokku“-Gebieten – das sind Gebiete, in denen autonome intelligente Systeme praktisch im echten Leben erprobt werden. Außerdem gibt die Gruppe ein jährlich überarbeitetes Handbuch „Ethically Alligned Design“ heraus, das kostenlos heruntergela- den werden kann (Registrierung erforderlich). Es beschäftigt sich mit dem derzeitigen Stand der Dinge auf diesem wahrscheinlich diskursintensiven, um nicht zu sagen, umstrittenen Gebiet. ■ Ariane Rüdiger Mehr zum Thema Big Data finden Sie auf www.bigdata-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 17. CIOBRIEFING 09/2017 Seite 17 Die Datenschutz-Grundverordnung und die Rolle von Objektspeichern Das Datensubjekt bekommt durch die DSGVO größere Rechte Die neue Datenschutz-Grundverordnung (DSGVO), die am 25. Mai 2018 allgemein in Kraft treten wird, beruht auf dem aktuellen Datenschutzgesetz und wird einige Aspekte strenger regulieren. Von Abwarten, raten die Experten ab. Die neue DSGVO enthält einige Zusätze hinsichtlich der effek- tiven Datenspeicherung, d. h., Daten müssen auf neue Art und Weise langfristig gespeichert werden. Klassische Offsite-Lösungen werden dann nicht mehr die neuen Anforderungen erfüllen können. Die beliebte öffentliche Cloud hat zwar neue Standards in Sachen Preis, Agilität und Verfügbar- keit gesetzt, kann aber die Datensicherheit und -hoheit kompro- mittieren. Die Zusätze zu den bestehenden Bestimmungen sind: ● Meldung von Sicherheitsverletzungen und Angriffen innerhalb von 72 Stunden, nachdem sie aufgetreten sind. Die Organisati- onen müssen eine höhere Sichtbarkeit der Daten, der Zugriffs- methoden und der Datenverwendung gewährleisten, damit sie sensible persönliche Daten schneller wiederherstellen können. ● Höhere Strafe – bis zu 2 Millionen US-Dollar oder 4 Prozent des weltweiten Umsatzes, je nachdem, welcher Wert höher ist ● Das Recht auf Löschung - Datensubjekte haben das Recht, die Löschung ihrer persönlichen Daten anzufordern Storage-Lösungen mit Objektspeichern und Software-definierter Speichertechnologie ­unterstützen die er­ folgreiche Umsetzung von Projekten zur Er­ füllung der DSGVO. Bild:Scality
  • 18. CIOBRIEFING 09/2017 Seite 18 Technische Einschränkung oder Geschäftsgelegenheit? Die relevanten Zusätze der Verordnung rufen nach einem lang- fristigen Speicher, auf den man dennoch sofort zugreifen kann. Solch ein Modell wäre aber finanziell und technisch absolut un- tragbar, wenn dafür weiterhin die bestehenden Speicher-Applian- ces eingesetzt werden würden. Es ist sehr attraktiv, Daten online zu speichern, da sie dort viel genauer analysiert werden können, was wiederum ein erheblicher Geschäftsvorteil ist. Öffentliche Clouds für die Speicherung ma- chen vor, wie preiswerte Onlinespeicherung funktioniert. Durch die neuen Anforderungen an die Datenverfügbarkeit und die Speicherorte kommen allerdings bald nur noch teure öffent- liche Clouds infrage. Daher ist die Speicherung in einer priva- ten Cloud die attraktivste Lösung, da solch ein Modell ebenso preiswert wie die öffentliche Cloud sein kann und On-Premise- Sicherheit, die Bandbreite von lokalen Netzwerken sowie die un- schätzbare Möglichkeit bietet, vollständig auf personalisierbare Geschäftsinformationen zuzugreifen. Die schwindende Bedeutung des Magnetbands Bisher waren Magnetbänder durch ihre geringen Kosten und ihre Portabilität eines der wichtigsten Backup-Medien. Jedoch passen genau diese Portabilität und die langen Wiederherstellungszeiten nicht mehr zur neuen DSGVO, in der mehr Sichtbarkeit und ein einfacherer Zugriff gefordert werden. Magnetbänder sind nach wie vor eine preiswerte Option, jedoch bestärken die Anforderung, mehrere redundante Kopien aufzu- bewahren, hohe Handlingkosten und eine teure Technologie die Ansicht, dass die langfristigen Gesamtbetriebskosten drei- bis viermal so hoch wie die Infrastrukturkosten sind. Nicht zuletzt aus diesem Grund wird die Cloud mittlerweile als sinnvolle Al- ternative für dieses Langzeitspeichermedium angesehen. Wichtige DSGVO-Anwendungsfälle der Objektspeicherung Wie die folgenden Anwendungsfälle exemplarisch zeigen, helfen verteilte, absolut sichere Objektspeicher gemeinsam mit ihrer er- weiterbaren Kapazität, der besseren Performance und der Spei- cherortkontrolle den Staaten und privaten Unternehmen dabei, die Compliance ihrer immer strengeren Sicherheitsrichtlinien zu erreichen.
  • 19. CIOBRIEFING 09/2017 Seite 19 Als Backup- und Archiv-Ziel Einige der größten Datensätze befinden sich in Offline-Backup- und Archiv-Infrastrukturen, wo das Abrufen von Daten extrem zeitaufwändig ist. Die Kosten von Objektspeichern nähern sich denen des Magnetbands an (einschließlich des gesamten langfris- tigen Handlings und der Migrationskosten), was es immer sinn- voller werden lässt, Objektspeicher als Backup- und Archiv-Ziele zu nutzen. Durch die Scale-Out-Performance kann die Speicherplattform mehrere parallele Backup- und Datenströme mit Kabelgeschwin- digkeit handeln, wenn die Kapazität zunimmt. Zudem profitieren die Unternehmen von einem Namespace, der sich über mehrere Rechenzentren erstreckt, sodass eine Datei von mehreren Stand- orten aus aufgerufen werden kann. Compliance und Archivierung Die Datenspeicherung in regulierten Branchen unterliegt stren- gen Regelungen, die nur mit einer konformen Speichertechnolo- gie erfüllt werden können. Die Benutzer sollten sich nach einer Objektspeicherplattform mit einer iCAS-Schnittstelle (Internet Content Addressable Storage) umsehen, die die nötigen Funkti- onen für die Sicherung von Daten wie Verschlüsselung, Verrie- gelung in Containern und Datenaufbewahrung/ablauf umfassen. Diese Funktionen machen Objektspeicher zu einem ausgezeichne- ten Ersatz von bestehenden Compliance-Plattformen. Außerdem bieten sie die Verfügbarkeit, Agilität und Skalierbarkeit, die von aktuellen und zukünftigen Speicherplattformen erwartet werden. Logging as a Service Mit der Aussicht auf noch mehr Vorgaben von den Regulierungs- behörden entwickeln viele Institutionen gerade Systeme, die als Self-Service-Portal funktionieren können. Die Daten aus unter- schiedlichen Quellen wie Handelssystemen, Stimmaufnahmen, Mitteilungen, E-Mails und mehr werden dann nach Kunde und Datum gespeichert und ohne Zutun des IT-Teams auf einer Be- nutzeroberfläche dargestellt. Es braucht nicht viel, um zu verstehen, dass ein klassisches Datei- system dafür nicht skalierbar genug ist und dass Objektspeicher perfekt für so eine Anwendung sind. Zudem ist Scality RING der einzige Objektspeicher, der sowohl große als auch kleine Dateien und Objekte handeln kann.
  • 20. CIOBRIEFING 09/2017 Seite 20 Objektspeicher hinsichtlich der DSGVO bewerten Storage-Lösungen mit Objektspeichern und Software-definierter Speichertechnologie, die mit Funktionen der Enterprise-Klasse erweitert werden, können den Zugriff und die Verwaltung erheb- lich verbessern und unterstützen die erfolgreiche Umsetzung von Projekten zur Erfüllung der DSGVO. Sie sollten bei der Bewer- tung von Objektspeicherlösungen auf die folgenden Eigenschaften achten: Geringe Kosten: Die Bereitstellung einer softwaredefinierten Storagelösung auf Standardservern sorgt für planbare niedrige Kosten. Eine einzige Datenkopie in einem Objektspeicher hat die gleiche Lebensdauer wie drei Kopien auf einer Festplatte oder fünf Kopien auf einem Magnetband. Daher ist Forrester Research zu dem Ergebnis gekommen, dass führende Objektspeicherplatt- formen über einen Zeitraum von fünf Jahren bis zu 70 % weniger Gesamtbetriebskosten als bestehende Dateispeicher haben. Garantierte Verfügbarkeit: Die Unternehmen sollten nach Ob- jektspeichern suchen, die für 100 % Verfügbarkeit ausgelegt sind und die auch den Ausfall von mehreren Servern und Komponen- ten einschließlich ganzer Rechenzentren überstehen. Hohe Leistung: Daten vor Ort sind von Natur aus schneller abzurufen. Dennoch sollten Sie wissen, dass es einige Objekt- speicherplattformen gibt, die ausgezeichnetes Datenstreaming bieten, was sie zu idealen Backup-Zielen macht und gleichzeitig blitzschnelle Antworten auf Datenanfragen gewährleistet. Enterprise-ready: Die Unternehmen sollten sich nach einer Plattform mit einem umfassenden Satz an Sicherungs-, Verwal- tungs- und Automatisierungsfunktionen umsehen, da diese so auch für globale Unternehmen geeignet sind. Diese Funktionen umfassen verschiedene Verbundauthentifizierungsstandards, Verschlüsselung und Schlüsselmanagement. Fazit Die Objektspeicherung ist die ideale Speichertechnologie für zahlreiche Projekte zur Erfüllung der DSGVO-Anforderungen. Gleichzeitig steigert sie die allgemeine Performance, Effizienz und Resilienz. Jetzt ist der richtige Zeitpunkt, um auf die lang- fristige Speicherung und Sicherung von morgen umzusteigen. ■ Nigel Houghton
  • 21. CIOBRIEFING 09/2017 Seite 21 Qualifizierung für Cloud-Umgebungen – Der Cloud-Administrator Fachkräfte dringend gesucht: Wege zum Cloud-Profi IT-Entscheider und IT-Professionals müssen sich drin- gender denn je mit der Frage auseinandersetzen: Wie halten wir Schritt mit dem digitalen Wandel, wenn die Fachkräfte fehlen? Dies gilt auch und vor allem für das Thema Cloud. Um Wege zur praxisnahen Qualifizierung zu erleichtern, hat der größte private Bildungsanbieter in Deutschland, TÜV Rheinland, das erste herstellerunab- hängige Cloud-Kompetenzmodell für IT-Entscheider und IT-Professionals entwickelt. In einer dreiteiligen Serie beschreiben Peter Holländer und Man- dy Tiedemann von der TÜV Rheinland Akademie das Aufgaben- Spektrum und die beruflichen Aussichten von Cloud-Spezialisten wie Cloud Administrator, Cloud Developer und Cloud Architekt. Teil 1: Was macht eigentlich… ein Cloud-Administrator? Kostenvorteile, Ergebnisverbesserungen und Innovationspoten- ziale: In der Cloud sieht das Top-Management viele Vorteile. Die Fachbereiche versprechen sich davon Kostensenkung, Skalier- barkeit, Hochverfügbarkeit, eine beschleunigte Produktentwick- lung, Standardisierung oder Zentralisierung. Was macht eigentlich… ein ­Cloud-Administrator? Wege zur Qualifizierung. Bild:©Gorodenkoff/stock.adobe.com
  • 22. CIOBRIEFING 09/2017 Seite 22 Dennoch plagen sich viele deutsche Unternehmen nach wie vor mit Sicherheitsbedenken, wobei diese bei den verschiedenen in- nerbetrieblichen Interessensgruppen unterschiedlich ausgeprägt sind. Während Fachfunktionen und Stakeholder aus den Busi- ness-Prozessen vor allem beschleunigte Dynamiken für ihr Ge- schäft sehen, stehen die Funktionen für IT-Sicherheit und Daten- schutz dem Thema erfahrungsgemäß eher kritisch gegenüber: Auch weil es in den Unternehmen an Qualifikationen bzw. Spezi- alisten fehlt, die sich mit der Thematik wirklich auskennen. An- gesichts des quasi leergefegten Fachkräfte-Markts werden sich Unternehmen verstärkt selbst um den Fach-Nachwuchs kümmern und interne Mitarbeiter zu Cloud-Spezialisten weiter qualifizie- ren müssen. Eine Management-Aufgabe, die top-down gesteuert werden muss, denn häufig ist damit nichts weniger als die Zu- kunftsfähigkeit des Unternehmens verbunden. Der Weg in die Datenwolke ist immer auch ein Change-Prozess, denn die Cloud bedeutet loszulassen ohne die Hoheit und Kont- rolle über die eigenen Assets abzugeben. Interne IT-Mitarbeiter und Cloud-Spezialisten nehmen hier die unerlässliche Funktion der Schaltzentrale ein, denn die Anforderungen an den Cloud- Einsatz müssen fachlich richtig gesteuert werden. Dazu bedarf es IT-Know-hows, möglicherweise sind auch neue Prozesse, Kompetenzen und Schnittstellen zu definieren, zugleich aber Technologie und Prozesse des Cloud Providers zu verstehen. Doch was zeichnet Cloud-Spezialisten aus? Dr. Constantin Söld- ner, Geschäftsführer der Söldner Consult GmbH und Spezialist für Cloud-Trainings, hat es auf den Punkt gebracht: „Die Cloud hebt das Silo-Denken auf, weg vom Spezialisten für Networking oder Storage, hin zum Generalisten, der sich in vielen verschie- denen Bereichen zurechtfindet. Cloud-Experten müssen daher einen ganzheitlichen Blick auf die spezifischen Anforderungen ihrer Anwendungen an die Cloud einnehmen.“ Security und Datenschutz Angesichts der dynamischen Bedrohungslage und immer restrik- tiverer regulatorischer Anforderungen ist Awareness für sensiti- ve Themen wie Cyber Security und Datenschutz nach Meinung des Experten für Cloud-Trainings von immer höherer Relevanz. „Themen wie Docker und DevOps erfordern neue Herangehens- weisen und mehr Querschnittsdenken. Gefragt sind auch Ent- wicklerfähigkeiten, Skriptsprachen zu beherrschen gehört zu den Mindestanforderungen“, weiß Dr. Söldner aus seiner langjähri- gen Trainings- und Beratungspraxis.
  • 23. CIOBRIEFING 09/2017 Seite 23 Weil Unternehmen im Rahmen der digitalen Transformation zunehmend schneller und agiler reagieren müssen, müssen sich Cloud-Spezialisten nicht nur mit Automatisierungstools ausken- nen. Darüber hinaus sind sie Kosten-Controller: „Weil der Auf- wand in der Cloud on-Demand abgerechnet wird, müssen sie die laufenden Kosten im Blick behalten, also bestehende Architektu- ren regelmäßig auf den Prüfstand stellen können“, so Dr. Söldner. Eine weitere Aufgabe, die ihnen eine wichtige Rolle im Unter- nehmen sichert und spannende wie dynamische Tätigkeiten in einem zukunftsorientierten Umfeld verspricht. Um Unternehmen wie IT-Professionals eine praxisnahe Qua- lifizierung zu ermöglichen, hat TÜV Rheinland das hersteller- neutrale Cloud-Kompetenzmodell entwickelt. Es deckt die drei wichtigsten Schlüsselqualifikationen ab, die Unternehmen und Märkte heute benötigen: den Cloud Administrator, den Cloud- Entwickler und den Cloud-Architekt. Fortbildungen, bei denen übrigens auch Führungskräfte das Know-how aufbauen können, das ihnen für Entscheidungen beim Übergang von On Premises- Infrastrukturen zur Cloud mehr Sicherheit verleiht. Der Cloud-Administrator ist eine unverzichtbare Schlüsselkom- petenz im Unternehmen, doch was genau macht er eigentlich? Nach dem Kompetenzmodell, das TÜV Rheinland entwickelt hat, liegt der Fokus hier mehr im administrativen Bereich der Systeme. Cloud-Administratoren kennen die Möglichkeiten, die Cloud-Strukturen Unternehmen bieten und sind Experten im Umgang, Wartung und dem Patching in der Cloud. Die primäre Rolle des Cloud-Administrators umfasst die Instal- lation, Konfiguration und Administration von Hersteller-Techno- logien, bestehend aus On-Premise-Infrastruktur, Private, Hybrid und Public-Cloud-Lösungen. Fundamentales Grundwissen zur Sicherheit und Userverwaltung gehört zu seinen Kernkompeten- zen. Wesentliche administrative Aufgaben und Verantwortlich- keiten betreffen die Administration des Active Directory, den Hosted Exchange sowie die Drittanbieter-E-Mail-Archivierung. Professionelle Cloud-Administratoren sollten sich mit den Da- tenwolke-Angeboten der Cloud-Anbieter und Hersteller wie Mi- crosoft, Oracle, VMware und Amazon AWS auskennen. Kompetenzmodell der TÜV Rheinland Akademie Im Rahmen des Kompetenzmodells der TÜV Rheinland Akade- mie erlernen Cloud-Admins eine Cloud von Grund auf zu planen, zeitlich optimal bereitzustellen, sie zu überwachen und alle Sys-
  • 24. CIOBRIEFING 09/2017 Seite 24 teme sicher zu analysieren. Sie erfahren, wie man eine On-Pre- mises-Infrastruktur installiert und Private-, Hybrid- und Public- Cloud-Lösungen etabliert. Sie können schließlich eine Vielzahl von Servern in der Cloud verwalten, kennen die Unterschiede zwischen den Cloud-Technologien und wissen, was für welche Bedarfe im Unternehmen geeignet ist. Darüber hinaus verste- hen sie, wie die Cloud mit der bestehenden IT-Infrastruktur des Unternehmens im eigenen Rechenzentrum interagiert. Sie kön- nen Office 365 installieren und selbständig administrieren und schließlich auch eine Private Cloud nicht nur betreiben und moni- toren, sondern auch eigenständig konfigurieren und bereitstellen. Am Ende der Qualifizierung, wie sie TÜV Rheinland anbietet, sind Cloud-Admins in der Lage, mehrere Tausend Server in der Cloud zu verwalten und kennen hilfreiche Strategien für den si- cheren und effizienten Betrieb, darunter Incident Response Ma- nagement oder die Verzahnung von Cloud-Strategien mit Identi- ty-und-Access-Management. Fazit: Der Cloud-Administrator ist der „Tempelwächter“ der Unternehmens-Cloud-Architektur und zugleich der Business- Enabler. Denn er weiß, was das Unternehmen businessseitig an Ressourcen benötigt, andererseits kennt er die Angebote der Cloud-Service-Provider und weiß, welche Services am besten ge- eignet sind, den technologischen Bedarf des Unternehmens zu decken. Die Qualifizierung zum Cloud-Administrator beinhaltet Theorie und Anwendungsbeispiele und dauert je nach Vorkennt- nissen und angestrebter Tiefe zwischen 10 und 25 Tage, sofern herstellerspezifische Kompetenzen im Rahmen der Weiterbil- dung mit aufgebaut werden sollen. Sie verläuft dreistufig, wobei die Module aufeinander aufbauen. Voraussetzung für die Zertifizierung zum Cloud Administrator nach TÜV Rheinland sind Kenntnisse und Erfahrung in gängi- gen IT-Infrastrukturen. Die Gehaltsperspektiven: je nach Qua- lifikation, Einsatzort, Unternehmensgröße und Personalverant- wortung zwischen 2600 bis 5400 Euro monatlich. Damit liegt er unter dem eines Cloud-Entwicklers bzw. Cloud Developers. Welche Aufgaben der Cloud Developer hat und wie er sich vom Cloud-Admin unterscheidet, erfahren Sie in der 2. Folge: Was macht eigentlich… der Cloud Developer? ■ Peter Holländer
  • 25. CIOBRIEFING 09/2017 Seite 25 Strategien für verteilte Teams So organisieren Sie ein ­verteiltes Team Die Softwareentwicklung in verteilten Teams ist nicht im- mer einfach, weshalb es dringend nötig ist, diese sinn- voll zu organisieren. Hierarchien, Vorgehensweisen und Verantwortlichkeiten sollten klar definiert sein, um von vornherein Probleme auszuschließen. Das beginnt schon bei der Technik und der Auswahl der Team-Mitglieder. Das Arbeiten in verteilten Teams ist immer mehr die Regel als die Ausnahme bei der Software-Entwicklung. Kein Wunder: Bei allen Vorteilen lokaler Teams wie kurzer Wege und spontaner Meetings sind Remote-Teams im Zweifel kreativer, produktiver und kostengünstiger. Verteilte Teams wollen aber von Grund auf deutlich effektiver organisiert sein, als es bei lokalen Teams der Fall wäre. Für Ver- antwortliche ist das größte Problem dabei die fehlende persönli- che Greifbarkeit einzelner Entwickler, die ja im Zweifel in einer anderen Stadt oder gar einem anderen Land arbeiten. Spontane Korrekturen werden dadurch schwieriger, das Risiko redundanter Arbeit und fehlender Beiträge wächst. Vor diesem Hintergrund ist es wichtig, die Organisation verteilter Teams von vornherein effektiv zu gestalten. Für Verantwortliche in weltweit verteilten ­Softwareprojekten ist das größte Problem die fehlende persönliche Greifbarkeit einzelner Entwickler. Bild:geralt-Pixabay.com/CC0
  • 26. CIOBRIEFING 09/2017 Seite 26 Kommunikation klären und für funktionierende Technik sorgen Das A und O eines jeden verteilten Teams ist natürlich, dass die zugrundeliegende Technik funktioniert und die Kommunikati- on stimmt. Das bedeutet konkret, dass neue Remote-Mitarbeiter umgehend an das hauseigene System, an Groupware-Lösungen wie Slack oder an Projektmanagement-Tools wie Trello angebun- den werden müssen. Gleichzeitig sollten auch zusätzliche Kommunikationskanäle jenseits dieser Infrastruktur (etwa ein Messenger wie Skype oder schlicht E-Mail) vereinbart werden. So lässt sich sicherstellen, dass die Kommunikation auch dann funktioniert, wenn das „gro- ße“ System ausfällt oder aus anderen Gründen nicht erreichbar ist. Hier sollte bei Entwicklern, die zum Beispiel von Standorten mit unzuverlässiger Stromversorgung und damit Internetanbindung arbeiten, eventuell auch ganz klassisch die Telefonleitung zum Einsatz kommen. Auf diese Weise sind technische und kommu- nikative Hürden, die Abläufe in verteilten Teams stören können, von vornherein ausgeschlossen. Mögliche Sprachbarrieren kön- nen mit der Wahl der englischen Sprache als Teamsprache um- gangen werden. Individuelle Situation der Mitarbeiter beachten In vielen Fällen entstehen verteilte Teams, weil Mitarbeiter pro- jektbasiert angeworben werden: Selbstständige Entwickler wer- den für ein Softwareprojekt oder einen Teilbereich eingebunden und nach Abschluss wieder „entlassen“. Jedem Team-Manager sollte bei der Arbeit mit diesen Mitarbei- tern klar sein, dass diese im Zweifel noch andere Projekte be- treuen und gegebenenfalls tagtäglich an mehreren „Baustellen“ arbeiten. Gleichzeitig kann es bei weltweit verteilten Teams zu- sätzlich noch zu Zeitzonen-Problemen kommen: Wenn in Ban- galore die Sonne untergeht, geht sie im Silicon Valley gerade auf und in Deutschland ist dann Mittagspause. Daher ist es notwendig, Meetings möglichst frühzeitig zu planen und basierend auf den individuellen Bedürfnissen der einzelnen Remote-Mitarbeiter anzuberaumen. Die mangelnde Flexibilität in dieser Hinsicht wird im Zweifel durch die große Diversität der Mitarbeiter und die dadurch resultierende Flexibilität des Teams ausgeglichen.
  • 27. CIOBRIEFING 09/2017 Seite 27 Regeln lokaler Teams bei Recruitment anwenden Doch ganz egal, ob die Team-Mitglieder später in Bangalore, der Bay-Area oder Berlin sitzen: Bei der Auswahl der Mitarbeiter sollten die gleichen Regeln zum Einsatz kommen, die auch bei der Zusammenstellung lokaler Teams wichtig sind. Neben Hard- Skills wie den technischen Grundkenntnissen, Sprachkenntnis- sen und natürlich der Fähigkeit, in Remote-Teams zu arbeiten, sollte auch Wert auf die Soft-Skills wie Zuverlässigkeit, methodi- sche Kompetenz und Teamfähigkeit gelegt werden. Gleichzeitig sollte der Mitarbeiter ins Team passen, so verstreut es auch ist. Denn in der Praxis müssen sich die Entwickler na- türlich auch in verteilten Teams untereinander austauschen und direkt miteinander kommunizieren. Fällt hier einer aus dem Rah- men, können die gleichen negativen Dynamiken auftreten, mit denen Teamleiter auch bei lokalen Teams zu kämpfen haben. Sofern die Möglichkeit der Auswahl besteht, sollten Teamleiter bei Remote-Mitarbeitern also die gleichen Standards ansetzen, als würden diese später am Nachbar-Schreibtisch sitzen. Die Mit- arbeiter sollten natürlich auch dementsprechend behandelt wer- den. Obwohl in virtuellen Teams allein schon aufgrund der Entfer- nung und möglicher kultureller Differenzen nach der Arbeit kein Feierabendbier zusammen getrunken werden kann, gibt es na- türlich andere Möglichkeiten, das Teambonding zu fördern: So bietet sich das Aufsetzen eines Casual-Smalltalk-Chats an, der das Mitarbeiter-Geplauder an der Kaffeemaschine ersetzt. Auch Computerspielturniere via Internet sind hervorragend geeignet. Gegebenenfalls sollten Sie auch eine interne Website für alle Team-Mitglieder aufsetzen, auf der die einzelnen Mitarbeiter persönlich vorgestellt werden. Für klare Zuständigkeiten und Hierarchien sorgen Der Hauptbestandteil der Arbeit in virtuellen Teams ist aber na- türlich: die Arbeit. Und diese sollte von vornherein möglichst klar organisiert werden. Abläufe, Zuständigkeiten und nicht zu- letzt Ansprechpartner sollten möglichst klar geregelt sein. Dabei kann es helfen, das virtuelle Entwicklerteam in kleinere Einhei- ten zu unterteilen, die ihrerseits für bestimmte Teilbereiche der Softwareentwicklung zuständig sind. Das erspart dem Teamleiter unnötiges Mikro-Management, gleichzeitig sorgt es für klare Hi- erarchien und Ansprechpartner.
  • 28. CIOBRIEFING 09/2017 Seite 28 Die Hierarchien können natürlich, wie heutzutage üblich, durch- aus flach gehalten werden. Wichtig ist nur, dass virtuelle und lo- kale Mitarbeiter wissen, mit wem sie weswegen sprechen müssen, und zwar vom größten bis ins kleinste Glied. Sollte eine Person etwa durch Krankheit ausfallen, empfiehlt es sich, auch gleich einen Stellvertreter zu benennen, der im Fall der Fälle einspringt und sich mit den bearbeiteten Inhalten auskennt. Dadurch behalten Teamleiter einfacher den Überblick und haben jederzeit Ansprechpartner, wenn ein Problem oder eine Frage auftritt. Im Grunde entspricht diese Vorgehensweise der, die auch in lokalen Teams erfolgen sollte. Allerdings ist sie bei Remote- Teams aufgrund der räumlichen Distanz absolut unverzichtbar. Ziele und Milestones definieren Aufgrund der Tatsache, dass Remote-Mitarbeiter im Zweifel nur teilweise für ein Software-Projekt arbeiten und als Freelancer hier und dort noch weitere Baustellen haben, ist es nicht selten kontraproduktiv, Tagesziele zu setzen. Stattdessen sollte das gro- ße Ganze im Auge behalten werden. Feste Abgabetermine sind natürlich Pflicht, doch die genaue Zeiteinteilung sollte – schon aufgrund der Zeitzonen-Problematik – dem Mitarbeiter oder dem entfernten Team überlassen werden. Allerdings ist die saubere Definition von Milestones sowie das regelmäßige Übermitteln und Reviewing des Codes wichtig, um Fortschritte zu dokumentieren und bei Fehlern oder Fehlentwick- lungen schnell eingreifen zu können. Redundanzen werden auf diese Weise ebenfalls vermieden. Ein guter Team-Leiter sollte dabei immer die nötigen Schritte im Blick haben und seine Kommunikation optimieren, um durch die Entfernung, eventuelle Nebenprojekte des Mitarbeiters oder die Zeitverschiebung auftretende Probleme mit Abgabefristen von vornherein zu vermeiden. Dabei helfen, genau wie bei lokalen Teams, regelmäßige feste Meetings, die mit einzelnen Mitarbei- tern, Untergruppen oder dem ganzen virtuellen Team einberufen werden. Mit der richtigen Organisation effektiv arbeiten Zu guter Letzt ist es bei der Organisation verteilter Teams natür- lich wichtig, jederzeit offen und freundlich zu kommunizieren, um persönliche Probleme zwischen Mitarbeitern oder zwischen Team-Einheiten zu verhindern, Stichwort Wir-gegen-andere-
  • 29. CIOBRIEFING 09/2017 Seite 29 Gefühl. Grundsätzlich gilt: In Remote-Teams gelten die gleichen sozialen Regeln wie bei lokalen Teams. Es können zudem die gleichen Probleme auftreten. Diese werden aber im Zweifel durch die räumliche Entfernung und den fehlenden persönlichen Kon- takt noch verschärft. Um effektives Arbeiten zu gewährleisten, sind die oben genann- ten Regeln zur Organisation eines virtuellen Teams also unum- gänglich und sollten schon von dem eigentlichen Aufbau des Teams vom Teamleiter genau überdacht werden. Werden diese einfachen Regeln jedoch beachtet, ist ein virtuelles Team kaum schwerer zu organisieren als eines, dessen Mitglieder nur durch Cubicle-Wände voneinander getrennt sind. ■ Christian Rentrop Mehr zum Thema Development finden Sie auf www.dev-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 30. CIOBRIEFING 09/2017 Seite 30 QCT wächst mit Kundenorientierung, gutem ­Design und viel technischem Sachverstand Quanta Cloud Technology ­expandiert und verdrängt die (Ex-)Auftraggeber Der 2012 gegründete taiwanesische ehemals reiner Auf- tragsfertiger Quanta Cloud Technology (QCT) entstand aus der ehemaligen Enterprise Solution Business Unit von Quanta Computer Inc.. Doch der neben dem ODM- erwuchs ziemlich schnell das Direktgeschäft und so fertigt QCT nicht nur für Facebook und andere, sondern ist ein bevorzugter Partner von Intel und produziert x86- Enterprise- und -Cloud-Technik unter eigenem Label: Storage, Switches, Server, Management. Nun expandiert QCT in Europa. Die Etablierten sollten sich warm anzie- hen. Über Jahre gab es auf dem Server-Markt eigentlich nur zwei, drei große Namen. Allen voran HP und Dell – heute HPE und Dell EMC – sowie IBM, das seine Aktivitäten in dieser Richtung teil- weise an Lenovo abgegeben hat. Doch nicht nur Lenovo reüss- siert. Inspur legt kräfig zu, Huawei kommt, Asus zieht ins Re- chenzentrum und nun gibt auch QTC im europäischen Markt Gas. Die über viele Jahre praktizierte Auslagerung der Produkti- on an günstige asiatische Auftragsfertiger trägt nun halt Früchte – für die Auftragsfertiger. Quanta Cloud Techno­ logy baut Server, die sich an den OCP-­ Prinzipien orientieren: Die Komponenten sollen einfach ein- und ausbar sein, der Stromver- brauch gering und die Lesitung hoch und zu- verlässig. Bild:ArianeRüdiger
  • 31. CIOBRIEFING 09/2017 Seite 31 Die Quanta Computer Inc. wurde 1988 gegründet und fertigte laut Wikipedia damals bereits beispielsweise mehr als 30 Prozent aller verfügbaren Notebooks weltweit. llerdings trugen diese, un- terschiedliche und oft sehr bekannte Markennamen. Heute fertigt das Unternehmen, wie Vice President und General Manager Mike Yang ausführt, unter anderem Kommunikations-, Netzwerk-und Cloud-Computing-Technik. „Das ist einmalig, dass wir von Sto- rage, und Networking, über Computer-Power bis zum Manage- ment alles im eigenen Haus fabriziren“, sagt er. Quanta beschäf- tigt mehr als 90.000 Mitarbeiter. 2012 wurde die Tochterfirma QCT (Quanta Cloud Technology) gegründet, eine der inzwischen 16 Tochterfirmen im Quanta- Konzern, die wiederum eine gleichnamige GmbH als Tochterfir- ma hat. Deren Standort ist Düsseldorf, und sie soll das Geschäft im Raum EMEA aufrollen. Aktuell arbeiten dort über 21 Mit- arbeiter, die Mitarbeiterzahl soll aber noch in diesem Jahr auf 40 steigen. In Aachen befindet sich ein Technologiezentrum und eine Fertigung für Rack-Systeme. Was Quanta für die hierzulande etablierten Hardware-Lieferan- ten gefährlich macht, ist erstens seine enge Verzahnung sowohl mit Speerspitzen der IT-Forschung wie MIT oder Harvard. Zwei- tens unterhält QCT mit Intel als wichtigstem Lieferanten von Server-Prozessoren eine sehr enge Kooperation – so bekam QCT laut Stephan Gillich, Direktor technisches Computing bei Intel, sehr früh Exemplare der neuen Prozessorserie „Xeon Scalable Platform“ zum Ausprobieren und Integrieren in seine aktuellen Server-Produkte. „Wir haben für diese Prozessorserie Tonnen möglicher Systement- würfe im Schrank“, sagt James Jau, Vice President RD bei QCT. Auch hierzulande fand eine Präsentation der zweiten Generati- on der QCT-Server-Produkte statt, am 26. Juli in München. Die Rechner tragen die Labels „Quanta Grid“ und „Qanta Plex“ statt. Das ist ziemlich zügig wenn man bedenkt, dass Intel diese neue Plattform offiziell erst am 12. Juli der Öffentlichkeit vorgestellt hat. Früher waren nur Tyan und Advantech dran – Tyan kündigte gar schon am 11. Juli an, man werde bald Server mit Prozessoren der Scalable-Serie im Programm haben. Spätestens zur „Mobi- le World 2018“ will QCT dort weitere Lösungen, unter anderem fürs Edge, vorführen. Schon heute arbeiteten mehr als 1.000 Entwicklungsingenieure daran, die Möglichkeiten der neuen Architektur in individuali- sierte Produkte für die Anforderungen spezifischer Anwendun-
  • 32. CIOBRIEFING 09/2017 Seite 32 gen umzusetzen – handele es sich nun um Deep oder Machine Learning, Hochleistungsrechnen oder schlicht höchste Skalier- barkeit, wie sie schnell wachsende Cloud-Anbieter brauchen. Das Entwicklungsteam soll zudem noch in diesem Jahr um weitere 500 Ingenieure wachsen. Für den konservativen Markt in Deutschland müssen asiatsche Firmen viele Vorurteile bezüglich Qualität und Sicherheit über- winden. Da hillft es, dass es an Erfahrung und Referenzen bei- leibe nicht mangelt. Quanta fertigt alles – Server, Netztechnik, Storage und auch Racks – schon seit vielen Jahren, wenngleich für andere und nun unter eigenem Label, mit eigenem Design. „Kaum jemand kann diese Vielfalt aus eigener Fertigung und Entwicklung vorweisen“, sagt QCT-Chef Yang. Kundenorentierung statt Friss-oder-Stirb Außerdem – und das ist vielleicht der wichtigste Punkt - wis- se QCT aus seinen Jahren als reiner Auftragsfertiger besser als viele andere Hersteller, was Kundenorientierung bedeute. Früher konnten die Erfindungen der Entwicklungsingenieure ohne viel Geplänkel mit den Anwendern in neue Produkte umgesetzt wer- den, die man den Herstellern dann in der Regel höchstpreisig aus den Händen riss. Diese Zeiten seien längst vorüber, doch die alte Mentalität des La- borforschers sei bei den klassischen IT-Playern noch präsent und im Cloud-Zeitalter möglicherweise hinderlich. Denn im Moment geben nicht mehr die genialen Entwicklungsdiven der Computer- bauer den Takt vor, sondern die gnadenlosen Anforderungen der Cloud-Provider, die sich notfalls ihre eigenen Server bauen oder bauen lassen – ganz ohne die Phalanx der etablierten Hersteller. So arbeitet QCT schon lange intensiv an dem von Facebook ins Leben gerufenen Open Compute Project (OCP) mit und brachte 2013 mit „Rackgo X“ seine erste OCP-inspirierte Rack-Architek- tur auf den Markt, der inzwischen weitere folgten. Man unterhält auch enge Beziehungen zu anderen Cloud- Anbietern und -Re- chenzentren. In Deutschland ist man beispielsweise inzwischen im Geschäft mit 11, dessen Hosting-Plattform partiell von QCT stammt. „Unsere dedizierten Server lassen wir zwar nach wie vor von einem deutschen Integrator nach eigenen Entwürfen fertigen, wir sind aber von der Kooperation mit QCT positiv beeindruckt und können uns durchaus vorstellen, sie auszubauen“, berichtete Rai-
  • 33. CIOBRIEFING 09/2017 Seite 33 ner Sträter, Head of Global Platform Hosting bei der 11 Internet SE anlässlich der Präsentation in München. Eines der Kaufargu- mente: „Wir können Einfluss nehmen.“ Und dieser Einfluss kann weit reichen. So ist Intel wiederum am Feedback nicht nur von QCT und anderen Hardwarebauern inte- ressiert, sondern auch an dem ihrer Kunden. Der Erfolg Der Lohn der Mühen: Zumindest HPE und IBM verlieren zwei- stellig Marktanteile im Server-Markt, der Anteil der sonstigen Hersteller, hinter denen sich auch Quanta versteckt, ist nach Zah- len von Marlktanalysten zum vierten Quartal 2016 auf rund 34 Prozent angestiegen; laut IDC sind es etwa 25 Prozent. Das ist keine Marginalie. Beim Design hat QCT sichtbar versucht, dringliche Probleme von Providern zu berücksichtigen. Das drückt sich in scheinbar unwich- tigen Kleinigkeiten aus, die aber im Alltag von Administratoren mit Tausenden zu verwaltender Server erhebliches Gewicht haben. So ist der Austausch von Komponenten wie Lüfter, Festplatten, PCI-Karten oder DIMM-Modulen grundsätzlich ohne jedes Werk- zeug möglich und so einfach und wenig kraftraubend, dass sie nur noch Sekunden dauern, wie in München vorgeführt (und von den Gästen der Veranstaltung selbst nachgemacht) wurde. Außermdem bleibt die neue Systemgeneration im laufenden Be- trieb kühler als die alte, trotz größerer Komponentendichte. Alan Chang, Produktmanager QCT: „Wir haben das gesamte Layout und die Kühltechniken überarbeitet. So montieren wir sechs Doppelventilatoren mit kleineren Rotoren und daher größerer Drehgeschwindigkeit statt der üblichen fünf, was mehr Kühlef- fizienz bedeutet.“ Der Idle-Verbrauch wurde auf knapp über 40 Watt begrenzt. Cheng: „Viele Server arbeiten meistens nicht und sollen dann möglichst wenig verbrauchen.“ Ein Beispiel für die konsequente Umsetzung von OCP-Prinzi- pien, die größtmögliche Unabhängigkeit der Kompoenenten und Flexibiltät fordern, ist der „QuantaPlex T22SF-1U“ für zwei Ser- ver-Knoten: So nutzen die Knoten keine gemeinsamen Kompo- nenten, arbeiten also vollkommen unabhängig voneinander. Das Rack enthält für jeden Knoten redundante Stromversorgun- gen und Lüfter (2 +1Ü). Gleichzeitig sind die Knoten-Blades so gestaltet, dass sie sowohl in den rechten als auch in den linken Einschub des Gehäuses passen. Das funktioniert, weil der Cage
  • 34. CIOBRIEFING 09/2017 Seite 34 für die beiden vorgesehenen SSD-Festplatten am Ende des Kno- tenmoduls auf einer Schiene montiert ist und sich daher je nach- dem, ob das Modul rechts oder links im Gehäuse steckt, geführt von einer Schiene, an die passende Position verschiebt. Federn am Cage stabilisieren ihn nahe der Mittenposition, aus der er nur so weit wie gerade nötig verschoben wird. „So muss man für diesen Rechner jeweils nur ein Knotenmodul vor Ort in Re- serve halten statt mindestens zwei“, erklärt ein QCT-Mitarbeiter. Weitere Geräte: Zu den neuen Geräten gehören drei hocheffiziente Compute- Server für Aufgaben wie HPC, vier hochskalierbare Servermo- delle für Anwendungen wie VDI, Hyperskalierung oder vSAN, zwei Systeme für AI-Aufgaben mit bis zu acht GPUs und vier Storage-Server, die mit Aufgaben wie Hadoop, Big Data oder hy- perskalierbarer Storage am besten fertig werden. Zwei Modelle aus der hochskalierbaren Serie „QuantaPlex T42“ und zwei der HPC-Systeme unter dem Label Quanta Grid sind bereits global verfügbar, der Rest der Server kommt im Herbst. William Shih, Country Manager EMEA, will von Düsseldorf aus den deutschen und europäischen Markt erschließen. Der Mana- ger, der zuvor für Acer tätig war, wird sich zunächst um Provi- der und auch Enterprises kümmern – der Mittelstand wird weiter über Distis bedient. „Wir bieten Produkte, die etwa so viel kosten wie die von HP. Unser derzeit hier noch recht kleiner Marktanteil soll sich jedes Jahr verdoppeln bis verdreifachen.“ Das ist bei einem von Shih aktuell angenommenen Anteil eigener Produkte am deutschen Serve-Markt von 0,5 Prozent sicher noch keine Bedrohung, könnte sich aber schnell dazu auswachsen, wenn die Wachstumswünsche des Unternehmens sich erfüllen oder gar übertroffen werden. ■ Ariane Rüdiger
  • 35. CIOBRIEFING 09/2017 Seite 35 Abwehr von unbemannten Fluggeräten Drohnenabwehr mit Laser, Richtfunk und Netz Immer mehr Drohnen bewegen sich im deutschen Luft- raum. Die Systeme können nicht nur den Flugverkehr gefährden, sondern auch eine Bedrohung für Großver- anstaltungen, Stadien, Forschungszentren oder auch Rechenzentren darstellen. Es ist also wenig verwunder- lich, dass verschiedene Akteure inzwischen Abwehrmaß- nahmen entwickeln. Wir geben einen ein Überblick über aktuell verfügbare Erkennungs- und Abwehrsysteme. Nach Daten von Gartner sollen 2017 weltweit drei Millionen Drohnen im Wert von 6 Milliarden Dollar über den Tresen gehen, was einem Umsatzanstieg von 34 Prozent und einem Anstieg der verkauften Geräte sogar um 39 Prozent gegenüber dem Vorjahr entspricht. Im Jahr 2020 soll der Markt schon auf 11,2 Milliarden Dollar weltweit angewachsen sein. Dabei liegen die Modelle für die private Nutzung mit 2,8 Millionen Stück mengenmäßig vor, in Hinblick auf den Umsatz aber mit 2,8 Milliarden Dollar hinter den 174.000 kommerziellen Drohnen zurück, mit denen 3,7 Mil- liarden umgesetzt wurden. In Deutschland wurden laut GFK im Jahr 2016 rund 300.000 Kameradrohnen für die private Anwen- dung verkauft, die Prognose fürs laufende Jahr liegt bei 500.000. Millionen Drohnen ­befinden sich heute schon in privater Hand. Deutsche Sicherheits­ behörden halten sogar Drohnenangriffe auf Fußballstadien und ­andere Massenveran- staltungen für möglich. (Bild:Pixabay/CC0
  • 36. CIOBRIEFING 09/2017 Seite 36 Wie oft deutsche Rechenzentren mit der Absicht, diese auszu­ spionieren oder anzugreifen, überflogen werden, weiß kei- ner. „Uns ist bisher kein solcher Fall bekannt“, sagt Jan Peter Schween, beim deutschen Drohnenabwehr-Spezialisten Dedrone für den Vertrieb zuständig. Doch ist jede mit Kamera ausgestat- tete Drohne theoretisch dazu in der Lage, ein Forschungszentrum oder Data Center auszuspionieren – professionelle Drohnen kön- nen neben normalen Videos Geräusche, Infrarotbilder etc. ein- sammeln von Lasten, zum Beispiel explosives Material, auf ein Ziel abwerfen. Kein Wunder also, dass mittlerweile auch eine Drohnenabwehr- industrie entsteht. In Deutschland am bekanntesten ist die Zu- sammenarbeit der Deutschen Telekom mit Dedrone. Die Telekom bastelt an einem „Drohnenschutzschild“ der über Magenta Se- curity angeboten werden soll. Dedrones Produkt dient in erster Linie dazu, Sender und Drohnen mit Hilfe intelligenter Software und eines Multisensors, der Bilder, Geräusche und Funkwellen im frequenzfreien Bereich aufzeichnet, zu finden, die Flugroute der Drohne zu verfolgen und am Bildschirm darzustellen. Bei der Klassifikation der Drohnen hilft eine Bilddatenbank, in die laufend weltweit alle verfügbaren Bilder und die dazugehörigen Daten wie der Drohnentyp eingespeist werden, um jedes unbe- mannten Flugkörpers in der Nähe eines RZ so sicher wie möglich zu klassifizieren. Auch privat gebaute Drohnenvarianten können so erfasst werden. Ein anderer Anbieter von Detektionslösungen ist Squarehead Technology aus Norwegen. Das Unternehmen liefert die Hard- und Software für das optoakustische Erkennungssystem von Nor- sonic, das zusammen mit einem dritten Unternehmen, der auf die Analyse optoakustischer Signale spezialisierte Orelia SAS, zu ei- nem Drohnenerkennungs- und Abwehrsystem ausgebaut werden soll. Dabei greift Squarehead auf superschnelles Array-Compu- ting zurück, um das Gesehene und Gehörte mehr oder weniger in Echtzeit auszuwerten. Störfunk gegen Fluggeräte Drone Labs findet mit dem Drone Detector Drohnen und Steuer- geräte im Umkreis von mehr als einem Kilometer, selbst, wenn sie noch nicht gestartet sind. Sie müssen nur eingeschaltet sein. Dabei werden nicht nur fliegende, sondern auch fahrende oder schwimmende Drohnen mit Hilfe von Radiofrequenzdetektion und GPS-Analyse, Radar, Audio, Video oder Temperaturanalyse
  • 37. CIOBRIEFING 09/2017 Seite 37 gefunden, und zwar auch dann, wenn sie sich nicht in Sichtlinie mit dem Detektionsgerät befinden. Allerdings ist die Technologie bisher hauptsächlich in den USA erhältlich. Das System Anti-AUDS (Autonome UAV Defense System) des britischen Unternehmens Blighter Surveillance kombiniert meh- rere Elemente: Den A400-Radar für die professionelle Überwa- chung des Luftraums, beispielsweise an Flughäfen, mit einer Reichweite von bis zu zehn Kilometern, eine Kombination aus Video- und Thermaldetektor, Chess Danamics Hawkeye Deplo- yable System (DS) und EO Videotracker, um fliegende Drohnen zu verfolgen und, zusammen mit der beim Radar gesammelten Informationen, zu klassifizieren. Das ECS (Enterprise Control System), ein zielgenaues Gerät mit intelligent gesteuerten Rich- tungsantennen, stört dann selektiv die Kommunikationskanäle der Drohne und hindert sie dadurch daran, ihre Mission zu erfül- len, ohne den übrigen Flugverkehr zu beeinträchtigen. Diese Lö- sung dürfte fürs durchschnittliche Rechenzentrum eher zu groß sein. Schon handlicher ist die Drone Gun der australischen Firma Dro- ne Shield. Der gewehrähnliche Jammer hat eine Reichweite von bis zu zwei Kilometern. Drone Shield erkennt Drohnen insbe- sondere am Fluggeräusch, das für jeden Drohnentyp individuell und speziell ist. Diese Geräusche speichert Drone Shield in einer Datenbank, in die alle verfügbaren Drohnen-Fluggeräusche ein- gespeist werden. Aktuelle Drohnengeräusche werden daran abge- glichen. Allerdings ist diese Lösung bisher in Deutschland nicht erhältlich. Auf der CES im Januar 2017 präsentierte auch Airbus DS Elec- tronics and Border Security (EBS) mit Xpeller ein System, das Wärmebildkamera, Radar und einen Störsender kombiniert und sich auch für andere Zwecke einsetzen lässt. Die inzwischen un- ter dem Firmennamen Hensoldt vermarkteten Systeme gibt es in mehreren Größenordnungen, auch tragbar im Rucksack. Boeing hat mit dem Compact Laser Weapons System eine laser- gestützte Lösung entwickelt, um Drohnen abzuschießen. Dabei wird ein hochenergetischer Laserstrahl auf das Objekt gerichtet und bringt es zum Absturz, indem es durch die Hitze des Lasers innerhalb von 15 Sekunden in Brand gesetzt wird. Ein mobiles Kleinsystem hat eine Leistung von 2 kW und besteht aus Küh- leinheit, Batterien, einem Gerät, das den Strahl richtig ausrichtet, und einen Farblaser. Eine Person kann das System betreiben. Der geplante Anwendungsbereich ist vorwiegend militärisch.
  • 38. CIOBRIEFING 09/2017 Seite 38 Drohnen fischen Aber nicht immer reicht es den Anwendern, eine Drohne ledig- lich zu detektieren und irgendwie vom Himmel zu bekommen. Wer die Drohne physisch intakt einfängt, hat die Chance, ihre Technologie und vor allem die geladene Software sowie eventuell die bereits aufgezeichneten Daten des bisherigen Flugs zu ana- lysieren. In diese Richtung zielt beispielsweise der Skywall 100, eine Lösung des britischen Startups Openworks Engineering. Sie wurde während des Besuches des ehemaligen US-Präsidenten Obama in Berlin eingesetzt. Dabei schießt ein von einer Person tragbarer Launcher mit Druckluft ein Netz mit Fallschirm direkt auf die Drohne und fängt sie ein. Eine intelligente Optik gibt Si- gnal, wenn der Launcher korrekt ausgerichtet ist. Der Fallschirm sorgt dafür, dass das Fluggerät nicht auf dem Boden zerschellt. Der Launcher hat Luft und Netze für mehrere Schuss und kann deshalb kurz hintereinander mehrere Drohnen vom Himmel ho- len. Eine Gegendrohne setzt die französische MALOU Tech (Mission Aérienne Légère à Organisation Unique) Systems mit dem MP200 ein. Dabei gibt es dieses System als reinen Detektor (MP200) und als Abwehrdrohne (MPI200). Die Abwehrdrohne nähert sich der angreifenden Drohne und fängt sie in einem Netz ein. Die De- tektionsdrohne hat eine integrierte Kamera, SD-Speichermedien und funkt auf 5,8 GHz in einer Reichweite von 0,6 Meilen. Sie ist mit einem roten LED für Nachtflüge ausgerüstet. Die Abfang- Drohne kann Drohnen bis 6 kg in ihrem Netz einsammeln und sicher zum Boden bringen. Und dann gibt es noch die „natürliche Methode“: Wie sich heraus- gestellt hat, attackieren Raubvögel, z.B. Adler, recht erfolgreich Drohnen. Diese Methode will beispielsweise die niederländische Polizei einsetzen. Doch ob es für Rechenzentren sinnvoll ist, ne- ben spezialisierten RZ-Dienstleistern auch noch einen Falkner zu beauftragen, darf getrost bezweifelt werden. ■ Ariane Rüdiger
  • 39. CIOBRIEFING 09/2017 Seite 39 Mit SDN auf dem Weg zum Software-Defined Data Center Automatisierte Netzwerk-Virtua- lisierung mit VMware NSX LangehatsichamBetriebsmodellfürdasNetzwerknichts verändert – wodurch die Bereitstellung neuer Applikati- onen ausgebremst wurde. Die automatisierte Netzwerk- Virtualisierung via VMware NSX ist der nächste Schritt auf dem Weg zum Software Defined Data Center. Aus Hardware wird Software. Mit dieser Vorgehensweise wer- den IT-Services in Unternehmen agiler, flexibler und verfügba- rer. Unternehmen bauen seitdem viele logische Serverinstanzen auf einer Hardware auf. Die Virtualisierung der Serverumgebung schafft logische Pools, die Ressourcen für Speicher und Compu- ting bereitstellen – Hardware wird gewissermaßen zustandslos. Der Trend zur Virtualisierung erreicht nun die Netzwerke. VMware zielt mit NSX darauf ab, diesen nächsten logischen Schritt im Rechenzentrum zu gehen. Unternehmen erhalten so im Netzwerk ähnliche Mehrwerte wie bei der Servervirtua- lisierung. Das verspricht der Hersteller vollkommen zu Recht, denn die Netzwerkvirtualisierung befreit von physikalischen Abhängigkeiten. VMware führt ein Overlay-Netzwerk ein, das Hardware-unabhängig die Kommunikation von Applikationen gewährleistet und erfüllt damit einen wichtigen Grundsatz: Res- sourcen möglichst flexibel bereitstellen. Die NSX-Plattform wird über bestehende Layer-3-Netzwerke ge- spannt und transformiert das physikalische Netzwerk zum Trans- portmedium. VMware NSX ist ein Hypervisor-basiertes Netz- werk, das heißt: Hardware-typische Funktionen wie Switching, Routing, Firewall und Load Balancing werden direkt im Hyper- visor abgebildet. Screenshot VMware ­vSphere Web Client. Bild:AxiansNetworksSolutions/VMware
  • 40. CIOBRIEFING 09/2017 Seite 40 Die Motivation, sich mit der Virtualisierung von Netzwerken zu beschäftigen, liefert der IT-Betrieb. Das Implementieren der Netz- werkvirtualisierung ist jedoch eine Aufgabe für IT-Dienstleister wie Axians Networks Solutions, die über das Know-how und die Erfahrung für solche Projekte verfügen. Diese Spezialisten bewegen sich technologisch auf dem neuesten Stand, sie passen die NSX-Plattform an die Gegebenheiten der Anwenderfirma an. Ineffizientes Betriebsmodell fürs Netzwerk Mit der Virtualisierung erhält der IT-Betrieb technologisch die Chance, das Netzwerk aus seinen alten Traditionen herauszurei- ßen. Das Betriebsmodell für das Netzwerk hat sich in den vergan- genen Jahrzehnten de facto nicht verändert. Es basiert auf einem überwiegend manuellen Konfigurationsmodell und hängt von den Leistungsmerkmalen der physischen Topologie ab. Im Vergleich dazu hat sich der Alltag des Serveradministrators fundamental gewandelt. Wenn die Fachabteilung eine neue Applikation benö- tigt, dann konfiguriert er sich einfach im Self-Service eine virtu- elle Maschine zusammen. Er muss dafür keinen Server bestellen und nicht auf verschiedene Komponenten zugreifen, um etwas zu provisionieren. Jedoch kann ein Serveradministrator die angeforderte Applika- tion nicht immer sofort in Betrieb nehmen. Das liegt an den Ab- hängigkeiten, die das Netzwerk betreffen. Er braucht eben auch noch die Netzwerkkonnektivität für den neuen Dienst. Unter Umständen muss diese Applikation in einem eigenen Netz abge- bildet werden, weil das Unternehmen verschiedene Fachbereiche oder Kunden trennt. Die Netzwerkexperten treten an dieser Stelle in Aktion und konfigurieren ein neues Netzwerk für die Appli- kation. Zunächst wird ein Layer-2-Netz bereitgestellt, um die Konnekti- vität zu erreichen. Danach stehen das Vergeben von IP-Adressen, das Konfigurieren von Switching und Routing sowie das Integ- rieren logischer Teilnetze (VLAN) in den virtuellen Switch auf der Aufgabenliste. Der Nächste in der Prozesskette ist der Sicherheitsadministra- tor. Er will für das neu gebaute virtuelle Netzwerk die Firewall- Richtlinien bereitstellen. Dafür benötigt der Spezialist Angaben vom Netzwerk- sowie Serveradministrator. Wenn der virtuelle Webserver übertragen wurde, fehlt noch die Konfiguration des Load Balancings, damit die Applikation hochverfügbar bereitge- stellt wird.
  • 41. CIOBRIEFING 09/2017 Seite 41 Die Bereitstellung einer App erfordert also einen längeren Pro- zess, bevor die Fachabteilung diese produktiv nutzen kann. Das veranschaulicht die Notwendigkeit, die automatisierte Virtua- lisierung vom Server auf das Netzwerk zu übertragen. Daraus resultiert der gewünschte Nutzen: ein beträchtlicher Gewinn an Zeit, Agilität und Verfügbarkeit. Ein neues Netzwerk für eine Anwendung bereitzustellen, kann einen Tag oder auch deutlich länger dauern. Mit VMware NSX gelingt das bereits in wenigen Sekunden. Für logisches Switching, Distributed Routing und Mi- krosegmentierung ist die Plattform aktuell Vorreiter. Die NSX-Technologie hat ihre Berechtigung auch aus der Si- cherheitsperspektive, in der sie klassische Infrastrukturen klar aussticht. Für den Sicherheitsgewinn, der so ins Rechenzent- rum einzieht, sorgt die Mikrosegmentierung. Denn heutzutage ist die Sicherung von einzelnen Applikationen von höchster Be- deutung. Die Mikrosegmentierung setzt direkt an der virtuellen Netzwerk- karte einer virtuellen Maschine (VM) an. Das Regelwerk, das die Administration zentral konfiguriert und bereitstellt, setzen die VMs in ihrem virtuellen Netzwerk durch. Damit gewinnt der Netzwerkbetrieb an Flexibilität, denn Netzgrenzen verlieren ihre Bedeutung. Ein VMware-Administrator kann mehrere VMs in einem Netz betreiben und diese voneinander isolieren und noch- mal durch eine Firewall schützen. Prädestinierte NSX-Einsatzfelder VMware NSX eignet sich vor allem für Rechenzentren, in denen mehr als 500 virtuelle Maschinen im Einsatz sind. Die NSX-Tech- nologie automatisiert und beschleunigt das Bereitstellen virtueller Netze. Außerdem vereinfacht sich das Integrieren virtueller und physischer IT-Services wie Switches, Router, Firewalls, Lastaus- gleichsfunktionen, VPNs und Sicherheitsfunktionen. Insgesamt lassen sich VMs effizient vernetzen und die Sicherheitsrichtlinien für VMs sind individuell konfigurierbar. Ein weiteres Anwendungsfeld ergibt sich durch die Self-Service- IT. Anwender können IT aus dem eigenen Rechenzentrum oder der Private Cloud beziehen. Auch wer Entwicklungs-, Test- und Produktionsumgebungen innerhalb derselben virtualisierten In- frastruktur isoliert darstellen will, sollte VMware NSX nutzen. Die Plattform erleichtert es, mandantenfähige Netzwerke einzu- richten und eine Private-Cloud-Architektur aufzubauen.
  • 42. CIOBRIEFING 09/2017 Seite 42 VMware NSX versetzt den Administrator in die Lage, sich einfa- cher, physikalischer Ressourcen zu bedienen, die aus Netzwerk, Speicher und Server bestehen. Die Verwaltung erfolgt weiterhin über die Spezialisten mit dem entsprechenden Know-how. Der Cloud-Schub Die Netzwerkvirtualisierung mit VMware NSX ebnet den Weg zum Cloud-fähigen Rechenzentrum, das eine dynamische Last- und Ressourcenverteilung realisiert. Die Plattform von VMwa- re kann für sichere Verbindungen zu Public Clouds wie AWS, Azure oder vCloud Air, lokale Service Provider und On-Premise Datacenter sorgen. Entscheidend ist, dass sich das Bereitstellen virtueller Netze auf Minuten oder weniger verkürzt. VPN, Rou- ting, Load Balancing und Firewall lassen sich virtualisiert und direkt für den Workload betreiben und automatisiert bereitstellen – völlig entkopplet von der Hardware. ■ Onur Öztürk Mehr zum Thema Netzwerke finden Sie auf www.ip-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 43. CIOBRIEFING 09/2017 Seite 43 Edge Analytics und Big Data Security So werden Daten bei Edge Analytics geschützt Edge Analytics als Big-Data-Analyse am „Rand des Netz- werks“ gilt als ein Zukunftsmodell der Datenanalyse im Internet of Things (IoT). Dabei sollte die Sicherheit der Daten nicht vergessen werden. Verschiedene Lösungen für Edge Analytics bieten dafür integrierte Funktionen. Edge Computing und Edge Analytics spielen sich zwar technisch gesehen „am Rand“ ab, sie sollte aber nicht nur am Rande gese- hen werden. Der weltweite Markt für Edge Analytics wird ein starkes Wachstum erfahren, von 1,94 Milliarden US-Dollar 2016 hin zu 7,96 Milliarden US-Dollar im Jahr 2021, so die Studie Edge Analytics Market von Markets and Markets. Für dieses Wachstum gibt es gute Gründe, denn Edge Analytics ist sinnvoll: Datenanalysen bei IoT-Sensoren, Compliance-Ana- lysen direkt am Geldautomaten und POS, lokale Analysen am Energieverbraucher und Services rund um Connected Cars sind nur einige Beispiele für die vielfältigen Anwendungsfälle. In vie- len zeitkritischen Big-Data-Analysen sollen Clouds nicht zum Engpass werden und Edge Analytics kommt zum Zuge. Der weltweite Markt für Edge Analytics boomt. Doch gerade bei der de- zentralen Datenanalyse darf die Sicherheit nicht außer Acht gelassen werden. Bild:©NicoElNino_stock.adobe.com
  • 44. CIOBRIEFING 09/2017 Seite 44 Edge Analytics übernimmt kritische Bereiche der Big-Data- Analysen Big Data Analytics entwickelt sich dabei zur dezentralen Daten- analyse, aufgeteilt in Analytics mit Edge Computing (zum Bei- spiel auf dem Gerät selbst) und Analytics in der Cloud. Dabei sind es gerade die kritischen Anteile von Big Data Analytics, die zu Edge Analytics werden, wie es zum Beispiel die Studie „In- dustrial Analytics 2016/2017“ von Digital Analytics Association e. V. beschreibt. Es steht deshalb außer Zweifel, dass die Sicherheit und der Da- tenschutz bei Edge Analytics besonders gewährleistet werden müssen. Sicheres Edge Analytics ist zentraler Teil eines sicheren IoT-Szenarios, gerade auch im Industrial Internet of Things (IIoT, Industrie 4.0). Doch wie kann die Sicherheit bei Edge Analytics gewährleistet werden? Sicheres Edge Analytics bedeutet mehr als Endpoint-Sicher- heit Der Ansatz für die Absicherung von Edge Analytics muss sein, die Integrität, die Verfügbarkeit und in den meisten Fällen auch die Vertraulichkeit der Daten sicherzustellen. Dazu gehört zum einen die Device Security, also die Endgeräte-Sicherheit. Durch die große Vielzahl an Gerätetypen, die bei Edge Ana- lytics zum Einsatz kommen, reichen die üblichen Verfahren der Endpoint Security aber nicht aus. So gelingt die Installation ei- ner klassischen Anti-Malware-Lösung auf vielen IoT-Sensoren schlichtweg nicht, um nur ein Beispiel zu nennen. Integrierte Sicherheit bei Edge Analytics Ein zentraler Punkt bei der Sicherheit von Edge Analytics ist des- halb, dass die Edge-Analytics-Lösungen selbst zur Sicherheit bei- tragen müssen, also integrierte Funktionen für den Datenschutz (bei der Analyse personenbezogener Daten) und für die IT-Si- cherheit haben. Beispiele dafür gibt es auf dem Markt bereits: ● HPE Vertica verfügt insbesondere über Funktionen im Bereich Zugangskontrolle für Nutzer und Administratoren, Verschlüs- selung und Sicherheitsrichtlinien (HPE SecureData). ● Die Predix-Plattform verfügt über eine Reihe von Security- Funktionen wie Verschlüsselung und Key Management, Iden- titätsmanagement, Schwachstellenmanagement, Datenklassifi- zierung, um nur einige zu nennen.
  • 45. CIOBRIEFING 09/2017 Seite 45 ● Thingworx bietet unter anderem ein umfangreiches Berechti- gungssystem und Monitoring-Funktionen. ● Bei dem Cisco Fog Director sorgen zusätzlich zum Logging und Monitoring zum Beispiel Cisco Industrial Security Ap- pliances und Cisco Firepower Firewall Appliances für die Da- tensicherheit (Edge-to-Enterprise IoT Analytics, powered by Cisco und SAS). ● MapR Edge sieht unter anderem eine Zugangskontrolle und Verschlüsselung vor, auch für die Datenübertragung zwischen Edge und Cloud. Ganz gleich, welche Edge Analytics Lösung gewählt wird, die integrierten Sicherheitsfunktionen sollten bei der Auswahl eine entscheidende Rolle spielen, um der kritischen Bedeutung von Edge Analytics gerecht zu werden. ■ Oliver Schonschek Mehr zum Thema Big Data finden Sie auf www.bigdata-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 46. CIOBRIEFING 09/2017 Seite 46 Abwarten bei NVMe – ein Produkt ist noch keine Lösung Wer will schon 60-prozentiges NVMe/f? Kaum eine andere Technik wird aktuell in der Storage- Welt so forciert propagiert wie NVMe. Dementsprechend reißt die Zahl der Produktankündigungen nicht ab. Al- lerdings reagieren die Anwender recht zögerlich auf den neuesten Geschwindigkeitsschub, fehlende Funktionali- täten schrecken ab. Der Rummel um NVMe ist groß. Marktbeobachter rechnen da- mit, dass sich das Protokoll rasch durchsetzt. So sollen 2020 die Hälfte aller Enterprise-Server und 60 Prozent der angebotenen Speichergeräte mit NVMe-Einschüben ausgestattet sein. Der Anteil an NVMe-basierten All-Flash-Arrays (NVMe-AFA) wird zu diesem Zeitpunkt auf gut 40 Prozent geschätzt. Erste mit NVMe-SSDs bestückte und die NVMeOF-Spezifikationen unter- stützende All-Flash-Arrays (AFAs) sind schon heute erhältlich. Allerdings verhält es sich bei den Lösungen ein wenig wie mit Fernsehgeräten, die das „4K-Ready“-Gütesiegel trugen. Diese waren zwar auf das hochauflösende Format ausgelegt, aber ohne 4K-fähige Empfänger und Kabel, eine schnelle Breitband- verbindung und natürlich passende Inhalte änderte sich am TV- Bild erst einmal nichts. Analog dazu müssen auch bei NVMe alle Komponenten angefan- gen vom Client und den darauf betriebenen Anwendungen über das Netzwerk bis hin zum Storage-Array die Technik beherr- schen. Ansonsten bleibt der erhoffte Nutzen aus. NVMe-Zukunftsmusik: Nichtflüchtige „Post- Flash“-Speicher sollen die Latenzzeiten weiter senken und NVMeoF-­ Lösungen den Aufbau hochskalierbarer Shared-Storage-­ Lösungen ermöglichen. Bild:www.nvmexpress.org
  • 47. CIOBRIEFING 09/2017 Seite 47 Das Design muss stimmen Für Rechenzentren geeignete NVMe-AFAs müssen daher eine Reihe an Voraussetzungen erfüllen. Hierzu zählt unter anderem, dass ● das Betriebssystem des Arrays für die Parallelverarbeitung optimiert ist, ● die Controller NVMe-fähig sind, ● das System NVMeoF für die Frontend-Anbindung von Hosts unterstützt, ● Dual-Port NVMe-SSDs zum Einsatz kommen, um für Hoch- verfügbarkeit zu sorgen, ● von klassischen Speichern vertraute Funktionen, darunter Komprimierung, Replizierung, Provisioning, RAID, Ver- schlüsselung, Snapshots und Cloning und vieles weitere mehr bereitstehen. Doch genau hier liegt der Hund begraben. Kaum ein Enterprise- Storage-System erfüllt bislang alle geforderten Kriterien, darü- ber hinaus mangelt es oft an der Integration von Anwendungen und Datendiensten. Ohne diese wird es schwer fallen, Kunden zu einem Wechsel zu bewegen. Denn wer möchte schon auf Vertrau- tes verzichten. Zudem steht NVMeoF noch am Anfang. Bislang unterstützen nur einige wenige Produkte den Standard und an Treibern, Betriebs- system-, Hypervisoren- sowie Adapter-Optimierungen wird noch gearbeitet. Dadurch lässt sich das Leistungspotenzial von NVMe heute noch nicht vollständig abrufen. Performance ja, aber nicht um jeden Preis Aus Sicht von Herstellern und Analysten soll sich dies jedoch rasch ändern. Als Hoffnungsträger gelten nichtflüchtige Speicher der nächsten Generation wie 3D XPoint, die den Grundstein für den Vorstoß in neue Performance-Dimensionen legen sollen und niedrigere Latenzzeiten verheißen. Doch diese sind zunächst ein- mal eins, noch teuerer als Flash. Womit wir bei finanziellen As- pekten angelangt wären und damit einer weiteren Hemmschwel- le, die Kunden vom Wechsel auf NVMe-basierten Storage abhält. Aus Hochverfügbarkeitsgründen ist der Einsatz von Dual-Port NVMe-SSDs in AFAs wie bereits erwähnt unverzichtbar. Die- se schneiden bei einem Preisvergleich auf Basis der Kosten pro TByte deutlich schlechter ab, als SAS- oder SATA-SSDs. Hinzu kommt, dass ein Austausch auf die um etwa zehnfach schnelle-
  • 48. CIOBRIEFING 09/2017 Seite 48 ren Laufwerke noch lange nicht heißt, dass die Leistungswerte urplötzlich in die Höhe schießen. Wenn sich der Leistungsschub „nicht auf dei Straße bringen lässt“,,wird es schwierig, dem Kun- den eine Umstellung auf die schnellere Technik schmackhaft zu machen. Mit Storage alleine ist es zudem, wie gesagt, nicht getan. Um den Zugriff auf die Laufwerke über das Netz mit kleinstmöglichen Antwortzeiten zu ermöglichen, bedarf es NVMeoF. Damit die Kommunikation klappt, müssen eventuell Änderungen an den Clients und dem Netz vorgenommen sowie neue Komponenten zum Beispiel Host Bus Adapter oder Switches angeschafft wer- den. Aus Infrastrukturperspektive kann sich dies zu einem kost- spieligen Faktor entwickeln. Wie immer bei neuen Schnittstellen - es wird genörgelt Dennoch steht für viele - schon allein in Folge der breiten Her- stellerunterstützung - außer Zweifel, dass sich NVMe über kurz oder lang als De-Facto-Standard etabliert. Ob es sich wirklich wie häufig progagiert, um eine „disruptive“ Technik handelt oder eher um eine lang ausstehende Evolution, hängt von der Betrach- tungsweise ab. Gleichermaßen bleibt abzuwarten, wie es um die Vorteile in der Praxis tatsächlich bestellt ist. Hier fehlen bislang die Erfahrungs- werte. Ebenso wie es mit der real erzielbaren Performance aus- sieht, denn bislang stützen sich die Leistungsvergleiche auf von Anbietern durchgeführte Tests oder folgen dem Äpfel-Birnen- Prinzip. Und natürlich, ob und wie schnell sich die Preise für NVMe-SSDs den traditionellen Medien annähern und NVMe- AFAs damit erschwinglicher machen. Bis dahin wird der Einsatz von NVMe-Lösungen wohl weiterhin auf spezielle Anwendungsfälle mit hohen Performanceanforde- rungen beschränkt bleiben und denjenigen vorbehalten sein, die bereit sind, für das Leistungsplus etwas tiefer in die Tasche zu greifen. ■ Tina Billo
  • 49. CIOBRIEFING 09/2017 Seite 49 ERP aus der Cloud – ein Stimmungsbild ERP-Pakete aus der Cloud müssen performant, sicher und anpassbar sein Die Nutzung von betriebswirtschaftlicher Standard-Soft- ware (ERP) ist kein Vorrecht von Großunternehmen mehr. Eine Umfrage des Bitkom stellte kürzlich fest: KMUs ha- ben mächtig aufgeholt – und bereits jede dritte Public- Cloud-Anwendung kommt aus dem Bereich ERP. Dar- über, welche Anforderungen Cloud-ERP erfüllen sollte, stimmen die Experten der Anbieter weitgehend überein. Bevor sich ein Interessent für einen Anbieter von Cloud-ERP ent- scheidet, muss er erst einmal klären, welches Bezugsmodell für ihn das passende ist. Denn die Wahl des entsprechenden Dienst- leisters entscheidet darüber, wie anpassbar, umfangreich, sicher und performant das künftige Cloud-ERP-Paket sein darf bzw. soll. Eine Größe, die für alle passt? Das gibt es im ERP-Bereich, im Unterschied zu Produktivitätspaketen wie MS Office 365, nur selten. Denn schließlich muss eine ERP-Lösung immer auch die Prozesse des Unternehmens widerspiegeln, und die sind in aller Regel sehr individuell. „Unternehmen in einer Aufbau- oder Modernisierungsphase greifen eher zu einem SaaS-Modell“, weiß Michael Bzdega, So- lution Architect Business Cloud bei proAlpha Software. „Hier bezieht das Unternehmen Software, IT-Services, Support und Hosting aus einer Hand. Die Anwendung ist sehr schnell verfüg- bar und bedingt keine hohen Anfangsinvestitionen in Softwareli- zenzen und Hardware.“ ERP aus der Cloud – ein aktuelles ­Stimmungsbild. Bild:©putilov_denis-Fotolia.com
  • 50. CIOBRIEFING 09/2017 Seite 50 Aber es gibt noch andere Optionen. „Das Hosting des ERP-Sys- tems in der Cloud ist eine interessante Alternative für Unterneh- men, die ihre IT verschlanken oder ihre ERP-Lösung nicht selbst betreiben möchten“, argumentiert Bzdega. „Soll kurzfristig bei- spielsweise eine neue Produktionsstätte im Ausland angebunden werden, kann eine Mischform aus On-Premise und in der Cloud betriebenem ERP das Modell der Wahl sein.“ Mit anderen Wor- ten: die Hybrid-Cloud. Customizing Ein zentraler Aspekt bei der Auswahl ist die individuelle Anpass- barkeit und Integrierbarkeit einer Cloud-ERP-Lösung. „Ein ERP- System muss individualisierbar sein, auch wenn die Lösung aus der Cloud bezogen wird“, fordert Bzdega. „Denn nur dann wer- den die Geschäftsprozesse im Unternehmen adäquat abgebildet.“ Dies schließe mit ein, dass bereits vorhandene betriebsspezifi- sche Erweiterungen am ERP-Standardsystem bei einem Umzug problemlos mit in die Cloud übernommen werden könnten. In der Regel kann jeder Hersteller und Betreiber die Erweiterung einer Cloud-ERP-Lösung gewährleisten, aber das wirft ein Pro- blem auf: Zuviel Customizing verringert das Maß an Standardi- sierung und erhöht die Herausforderungen hinsichtlich Updates, Upgrades und Migration auf ein größeres, etwa ein branchen- spezifisches ERP-Paket. Rainer Zinow von SAP sieht aber auch einen Bonus in der Cloud-Migration: „Das Rollout eines kom- plett neuen ERPs bietet für mittelständische Unternehmen eine Gelegenheit, bisherige Insellösungen, die nebeneinander existiert haben, zu konsolidieren.“ Erweiterung und Integration „Kleine Unternehmen, die aus ihren Bestandslösungen heraus- wachsen, benötigen oft Funktionen, die dem Unternehmens- wachstum folgen, beispielsweise in der Warenwirtschaft“, er- läutert Thomas Kombrecht, Produkt Marketing Manager für die Microsoft Dynamics-Produkte. „Hingegen erfordern bestimmte Branchen auch spezifische Funktionen. MS Dynamics NAV (vor- mals von Navision) ist einerseits von Beginn an so konzipiert, dass es das Wachstum von Unternehmen nachhaltig unterstützt und verfügt andererseits über ein Partnernetzwerk mit einem breiten Portfolio an Speziallösungen für Branchen oder bran- chenneutrale Workloads.“
  • 51. CIOBRIEFING 09/2017 Seite 51 Es ist also von Vorteil, dass Partner ihre Erweiterung des ERP- Pakets reibungslos in die Cloud bringen und mit dem Zentral- paket koppeln können. Sowohl Generalisten wie SAP und Mi- crosoft als auch Branchenspezialisten wie ProAlpha können ein solches Ökosystem vorweisen. Rainer Zinow von SAP berichtet: „SAP Cloud-Lösungen sind für eine Vielzahl von Schnittstellen konzipiert. Damit ist es möglich, die besten Cloud-Lösungen mit dem ERP zu verbinden, die Anzahl der Nutzer im System zu er- weitern oder die Zusammenarbeit innerhalb der Wertschöpfungs- kette zu verbessern.“ SAP hatte beispielsweise 2016 die Aufgabe, seine Cloud-Lösungen von Ariba, Concur und Fieldglass mitein- ander zu verbinden. Kürzlich hat Microsoft seine ERP-Suite MS Dynamics 365 Deutschland mit MS Office 365 integriert und in der deutschen Cloud bereitgestellt. „ Teilweise ist es nicht mehr erforderlich, den gewohnten Office-365-Client zu verlassen, sondern die Vorgänge können direkt in MS Outlook bearbeitet werden“, so Kombrecht. Service Level, Performance und Bedienbarkeit Dass die Antwortzeiten der Cloud-Lösung für die Akzeptanz durch die Nutzer ausschlaggebend sind, wird manchmal bei der Auswahl übersehen. Frustrierte Anwender nutzen keine Soft- ware, die im Schneckentempo arbeitet. Wenn der Dienstleister aber zu wenig Arbeitsspeicher bereitstellt, zu langsame Netz- werke betreibt oder kaum Support leistet, muss der SLA-Vertrag dringend nachgebessert werden. Auch in der Auswertung ist Geschwindigkeit gefragt. Was nützt einem ein Report mit veralteten Zahlen? „Wenn Daten aufberei- tet in einem Report vorliegen, sind sie selten vollständig und oft bereits veraltet“, weiß Rainer Zinow von SAP. „Dabei ist ein re- elles Abbild der aktuellen Geschäftssituation kritisch für beinahe alle Bereiche im Unternehmen, um damit jede Entscheidungsfin- dung zu unterstützen. Dafür sollten die Daten einheitlich über das ganze Unternehmen geführt und zugänglich sein, ohne Daten in zweifacher Ausführung.“ Aber auch die Bedienbarkeit einer ERP- Lösung ist ausschlaggebend für die Produktivität ihrer Anwen- der. Sie sollte beispielsweise Responsive Design mit HTML5 oder gleich entsprechend native Apps für Mobilgeräte unterstützen. Datensicherheit und -schutz „Viele mittelständische Unternehmen fühlen sich zunehmend überfordert, wenn sie sich mit immer höherem Aufwand vor IT-