SlideShare ist ein Scribd-Unternehmen logo
Technology-Update für IT-Manager
powered by
CIOBRIEFING
08/2015
+++ Offloadingstrategien für ­Mobilfunk +++ Sechs Tipps für
die erfolgreiche Migration von Datenbanken +++ Big Data
­Protection statt Big Data Loss +++ IT-Compliance ist mehr als
­Datenschutz +++ Das DARZ als Hyperscale-­Multi-Cloud-Broker
+++ Vermietete Spektren und neue ­Modulationen sollen 5G
antreiben +++ Die Hybrid Cloud ist zum ­Normalfall geworden
+++ So setzen Sie Graphen in ­Big-Data-Umgebungen ein +++
Lässt sich IT-Sicherheit per ­Gesetz vorschreiben? +++ Von
CoreOS kommt das ­Betriebssystem für ­Cloud-Rechenzentren
+++ Dateiserver von Windows nach Linux migrieren +++
ISSN 2364-3188 www.ciobriefing.de
MANAGEMENT & STRATEGIE
Offloadingstrategien für ­Mobilfunk.............................................................3
Sechs Tipps für die erfolgreiche Migration von Datenbanken.....................7
Big Data Protection statt Big Data Loss.................................................. 11
IT-Compliance ist mehr als ­Datenschutz.................................................14
Das DARZ als Hyperscale-­Multi-Cloud-Broker........................................18
TECHNOLOGIE & ZUKUNFT
Vermietete Spektren und neue Modulationen sollen 5G antreiben...........24
Die Hybrid Cloud ist zum ­Normalfall geworden........................................28
So setzen Sie Graphen in ­Big-Data-Umgebungen ein.............................31
Lässt sich IT-Sicherheit per ­Gesetz vorschreiben?...................................35
Von CoreOS kommt das ­Betriebssystem für ­Cloud-Rechenzentren.........39
Dateiserver von Windows nach Linux migrieren.......................................44
CIOBRIEFING
08/2015
IMPRESSUM:
Vogel IT-Medien GmbH
August-Wessels-Str. 27
86156 Augsburg
Tel.: +49(0)821-2177-0
Fax: +49(0)821-2177-150
Email: zentrale@vogel-it.de
Internet: www.vogel-it.de
Handelsregister Augsburg
HRB 1 19 43
Umsatzsteueridentifikationsnummer:
DE 127502716
Geschäftsführer: Werner Nieberle
Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV:
Nico Litzel, Florian Karlstetter, Ulrike Ostler, Andreas Donner, Peter Schmitz, Rainer Graefen (Anschrift siehe Verlag)
Vogel IT-Medien
Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991
gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstech-
nologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an.
Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de,
DataCenter-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de.
Vogel Business Media
Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschrif-
ten und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen
vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.
CIOBRIEFING 08/2015
Seite 3
Wie WLAN, UMTS und LTE
immer weiter zusammenrücken
Offloadingstrategien für
­Mobilfunk
Trotz Digitaler Dividende wird es für Mobilfunkprovider
eng im Äther. IP-Insider zeigt, welche Strategien und
Techniken die rasant steigenden Breitbandanforderun-
gen der mobilen Gesellschaft zu verträglichen Kosten
meistern sollen.
Nicht mehr als den sprichwörtlichen Tropfen auf heißem Stein
dürfte WLAN-Ausrüster Ruckus Wireless (Ruckus) in der ak-
tuellen Versteigerung freier Frequenzen durch die Bundesnetz-
agentur sehen. Vom Anbieter zitierte Zahlen der Signals Research
Group prognostizieren nämlich ein wachsendes „Capacity Gap“;
das heißt: die Nachfrage nach mobilen Datendiensten wächst
mindestens doppelt so schnell wie neue Basisstationen, Spektren
oder Funkstandards diesen Bedarf zu decken vermögen.
Zudem ist der Betrieb von Mobilfunknetzen vergleichsweise teu-
er. Das bezieht sich nicht nur auf öffentlichkeitswirksame Fre-
quenzversteigerungen – die bei der Bundesnetzagentur eingegan-
genen Höchstgebote für „Mobiles Breitband – Projekt 2016“
summierten sich schließlich auf 5,1 Milliarden Euro. Hinzu kom-
men beträchtliche Ausgaben für Errichtung und Betrieb entspre-
chender Infrastrukturen. Nachfolgend sollen verschiedene An-
sätze skizziert werden, die sich eben dieser Problematiken
annehmen.
Die Nachfrage an
­Datendiensten steigt
schneller als Makro­
zellen skalieren.
­Offloading-Strategien
könnten das „Capacity
Gap“ verkleinern.
Bild:Ruckus
CIOBRIEFING 08/2015
Seite 4
Wenig neu, aber für bestimmte Szenarien noch immer aktuell
sind Femtozellen – also Mobilfunkbasen mit vergleichsweise
wenig Sendeleistung und Reichweite. Die direkt beim Kunden
installierten Basisstationen ergänzen Macro-Cell-Funktürme
und sollen so die Versorgung mobiler Endgeräte innerhalb von
Gebäuden sicherstellen. Die kurze Reichweite der Femtozellen
kann dabei als Vorteil gelten, weil damit auch das Störpotenzial
sinkt. Somit können knappe Frequenzen also effizient genutzt
werden.
WLAN und Mobilfunk nebeneinander...
Mittlerweile gibt es derlei Funkzellen sogar mit eingebauten
WLAN-Access-Points. Ein Beispiel hierfür ist der „Nokia Flexi
Zone Indoor Pico with Ruckus“. Die Lösung ist jedoch als zwei
Geräte in einem Gehäuse zu verstehen und nicht mit dem unter
„Hotspot 2.0“ bekannten Roaming zwischen WLAN und Mobil-
funk zu verwechseln.
...und miteinander
„Hotspot 2.0“ soll Mobilfunkinfrastrukturen derweil per naht-
losem Offloading entlasten. Die auch als „Passport“ bekannte
Technik nutzt dabei den Standard 802.11u und erleichtert Mobil-
funkkunden die Einwahl in WLANs. Nutzer können sich dabei
nicht nur über Name und Passwort oder X.509-Zertifikate au-
thentifizieren. Zusätzlich sieht das Verfahren eine nahtlose, SIM-
basierende Authentifizierung vor.
Die per Hotspot 2.0 bereitgestellte Infrastruktur muss nicht vom
Provider des Endkunden selbst betrieben werden. Mit entspre-
chenden Roaming-Abkommen können Mobilfunkanbieter also
auf bestehende WLANs anderer Anbieter zurückgreifen und
auch Sprachdienste über entsprechende Dienstgüten absichern
(QoS Mapping von Differentiated Services Codepoints auf Lay-
er-2-Luftschnittstelle). Das spart im Idealfall nicht nur Kosten,
sondern verhindert auch redundante und sich womöglich gegen-
seitig störende Netze an einem Ort.
Sinnvoll ist eine solche Vorgehensweise an Plätzen mit hoher
Personendichte. Ruckus hat zur Fußball-WM 2014 beispielsweise
ein Konsortium vier brasilianischer Netzbetreiber mit WiFi-Sys-
temen beliefert, die in Turnierstadien installiert wurden. An den
Veranstaltungsorten wurde schließlich dreimal mehr Traffic per
WLAN abgewickelt als per 3G/4G.
CIOBRIEFING 08/2015
Seite 5
Flexible Datenkanäle für verschiedene Tarife
Softwareanbieter Amdocs bestätigt: 80 Prozent der mobilen Da-
tennutzung findet dann statt, wenn Nutzer wenig mobil sind. Mit
seinen „Smart Net“-Lösungen hilft der Hersteller Anbietern da-
bei, diese Erkenntnisse in passende Geschäftsmodelle umzuset-
zen. Auf Smartphones der Endkunden läuft hierfür ein „Smart Net
Agent“, der abhängig von Tarif und Netzauslastung die passende
Netzanbindung realisiert – also dynamisch zwischen Mobilfunk
und in der Umgebung vorhandenen Access Points umschaltet.
WLAN als Femto-Ersatz
Auf angepasste Clients setzt auch der britische Provider EE. Der
hatte Anfang April ein WiFi-Calling genanntes Angebot gestar-
tet. Ein entsprechend angepasstes Smartphone vorausgesetzt,
können Anwender damit auch über WLANs telefonieren. Im
Gegensatz zu klassischen Over-The-Top-Diensten (OTT) dürfen
Anwender dabei die reguläre Telefonieschnittstelle ihres Handys
nutzen – müssen also keinen zusätzlichen Messenger starten, wie
das bei WhatsApp oder Skype der Fall wäre.
Ein von EE vorgeschlagenes Einsatzgebiet ähnelt dabei dem einer
Femto-Zelle: In ländlichen Regionen soll WiFi-Calling für zuver-
lässige Telefonate per Handy sorgen. Das dürfte freilich nur bei
einem entsprechend eng ausgebauten Breitbandnetz funktionieren.
Interessanter ist derweil das per Imagefilm dokumentierte Szena-
rio per WLAN telefonierender Menschen in der Londoner U-
Bahn. Warum EE hier allerdings nicht auf zuverlässige Mobil-
funkfrequenzen setzt, wollte uns der Anbieter auf Nachfrage
nicht verraten. Schließlich könnte man annehmen, dass die offe-
nen WLAN-Frequenzen deutlich störanfälliger sind als exklusiv
zugewiesene Mobilfunkbänder. Zudem sollte die Reichweite des
5-GHz-Spektrums kürzer ausfallen als die der niedrigeren Mo-
bilfunkfrequenzen. Branchenkenner gehen allerdings davon aus,
dass eine WLAN-Infrastruktur deutlich kostengünstiger einzu-
führen ist als „echte“ Mobilfunktechnik.
EE launches the UK’s
first WiFi Calling service
YouTube
CIOBRIEFING 08/2015
Seite 6
Protokolle gehen fremd
Statt zwischen WiFi und Mobilfunk zu vermitteln, soll LTE-U
direkt auf die bislang von WLAN genutzten Frequenzen zugrei-
fen. Der aktuell vom 3rd Generation Partnership Project (3GPP)
und verschiedenen Herstellern diskutierte Ansatz ist dabei nicht
ohne Probleme, denn mit zunehmender Verbreitung von 5-GHz-
WLANs dürfte auch das gegenseitige Störpotential ansteigen.
Trotz allem hatte Huawei bereits im Vorjahr eine U-LTE genannte
Lösung präsentiert, die (kostenpflichtig und exklusiv) lizenzierte
Mobilfunkfrequenzen und frei nutzbare Bänder zusammenfasst,
um die Nutzererfahrung zu verbessern.
Ob und wann LTE-U tatsächlich auf den Markt kommt, ist aber
noch nicht abzusehen. Bislang ist sogar noch unklar, ob inwie-
weit klassische Terminals für das Verfahren taugen. Amdocs
geht davon aus, dass sich zumindest einige der derzeit erhältli-
chen Smartphones per Software-Update nachrüsten lassen; laut
Ruckus brauche es hierfür eine neue Hardware. Die Chipherstel-
ler Intel und Broadcom wollten uns auf Nachfrage nichts über
ihre Pläne zu möglichen LTE-U-Chipsets verraten; Qualcomm
ignorierte unsere diesbezügliche Anfrage ohne jegliche Reakti-
on. ■ Dirk Srocke
Mehr zum Thema Netzwerke finden Sie auf
www.ip-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 08/2015
Seite 7
Ab in die Cloud, aber mit ­Bodenhaftung!
Sechs Tipps für die erfolgreiche
Migration von Datenbanken
Heutzutage scheint jedes Unternehmen zu prüfen, was
es in die Cloud verlagern kann – oder muss. Dabei ist
die Cloud gar nicht für alle Anwendungen geeignet: Wie
bei jeder anderen Technologie müssen auch hier die Vor-
und Nachteile jeweils sorgfältig abgewogen werden.
IT-Profis müssen also erst einmal herausfinden, in welchen Fällen
die Cloud auf welche Weise für ihre Anwendungen vorteilhaft
ist. Datenbanken stellen bei der Bewertung der Cloud-Eignung
und der Migrationsplanung in der Regel das am schwersten ein-
zuschätzende Element dar. Jeder Anwendung liegen aber nun
einmal Daten zugrunde. Daher muss unbedingt sichergestellt
werden, dass Datenbanken sich gut in die Cloud integrieren.
Nachfolgend stellen wir einige Konzepte und Empfehlungen vor,
die bei der Migration von Datenbanken in die Cloud beachtet
werden sollten.
1. Leistung – eine Sorge weniger
Es sind hauptsächlich Leistungsbedenken, die IT-Profis davon ab-
halten, Datenbanken in virtuelle Umgebungen oder die Cloud zu
verlagern. Allerdings sind sie oft unbegründet, da die Leistungs-
anforderungen vieler Anwendungen von vielen Cloud-Architek-
turen mehr als erfüllt werden. In den vergangenen drei Jahren
Mit entsprechender
­Vorbereitung ist der
Sprung – sprich die
­Migration – ganzer
­Datenbanken in die
Cloud kein gefährliches
Wagnis.
Bild:GregEpperson,Fotolia
CIOBRIEFING 08/2015
Seite 8
hat die Cloud-Technologie große Fortschritte gemacht und unter-
stützt jetzt mehrere teils hochleistungsfähige Bereitstellungsop-
tionen für Datenbanken.
2. Transparenz – besser entscheiden
Leistungsprobleme werden häufig auf dem einfachsten Weg ge-
löst, nämlich indem die Hardware aufgestockt wird. Doch ist diese
Vorgehensweise nicht der Weisheit letzter Schluss – insbesondere
nicht aus Kostenperspektive. Sinnvoller ist eher ein umfassendes
Monitoring. Mithilfe eines Tools für die Datenbanküberwachung
werden die tatsächlichen Datenbank- und Ressourcenanforderun-
gen einer Anwendung erfasst. Dazu zählen: CPU, Storage, Ar-
beitsspeicher, Latenz und Storage-Durchsatz (IOPS ist eine mit-
unter trügerische Messgröße); das geplante Storage-Wachstum
und Backup-Anforderungen; Ressourcenfluktuation auf Grund-
lage der Anwendungsauslastung in Spitzenzeiten oder bei Batch-
Prozessen; und nicht zuletzt Datenverbindungsabhängigkeiten
– denn neben den Verbindungen zu den eigentlichen Anwendun-
gen können noch weitere Anforderungen hinsichtlich Datenaus-
tausch, Backups und eingehender Daten bestehen.
Zu den Vorteilen der Cloud gehört die Möglichkeit, Ressourcen
bei Mehr- und Minderbedarf dynamisch zu skalieren. Eine Cloud-
Bereitstellung muss also nicht nur keine Leistungsbedenken aus-
lösen, sondern kann im Gegenteil die Anwendungsverantwortli-
chen mit der Tatsache beruhigen, dass sich jeder Anwendung die
den Leistungsanforderungen entsprechende Ressourcenkapazität
zuweisen lässt. Voraussetzung hierfür ist allerdings, dass diese
Anforderungen bekannt sind.
3. Testen – nicht vergessen!
Weitere Vorteile der Cloud – und zwei der offensichtlichsten –
sind die geringen Kosten und die vielfältigen Zugriffsmöglich-
keiten, die mit ihr einhergehen. Selbst wenn ein Unternehmen
noch nicht an einem Migrationsplan arbeitet, sollte es sich bereits
mit Cloud-Datenbanken vertraut machen. Hier hilft experimen-
tieren – und die gesammelten Eindrücke für die Migrationsiniti-
ative zu nutzen. Es dauert nur etwa eine Stunde, eine Datenbank
in der Cloud einzurichten. Daher sollten interessierte Unterneh-
men das also einfach einmal ausprobieren, testen und anschlie-
ßend löschen. Die Kosten sind minimal. Mit etwas mehr Zeit und
Geld können sie auch die Kopie einer Produktionsdatenbank in
CIOBRIEFING 08/2015
Seite 9
die Cloud verschieben, um dort die Bereitstellungsoptionen zu
testen und herauszufinden, wie sich speziell ihre Anwendung und
Datenbank in der Cloud verhalten werden.
4. Bereitstellung – das Modell sorgfältig planen
Die Bereitstellung kann in der Cloud auf verschiedene Weise er-
folgen. Daher müssen Verantwortliche alle diesbezüglichen Opti-
onen prüfen. So bietet DBaaS („Database as a Service“) als Ma-
naged Service eine einfache Bereitstellung und Automatisierung.
IaaS („Infrastructure as a Service“) dagegen bietet für Admi-
nistratoren mehr Steuerungsoptionen beim Ausführen von Da-
tenbankinstanzen auf Cloud-Servern. Gleichzeitig bleibt auch die
Oberfläche und Funktionsweise des herkömmlichen On-Premise-
Deployments erhalten. Darüber hinaus gibt es mehrere Storage-
Optionen, zum Beispiel Block-Storage, SSDs, garantierte IOPS-
Werte, dedizierte Verbindungen und für Datenbanken optimierte
Instanzen. Da Unternehmen sich Cloud-Ressourcen meist mit
anderen Nutzern teilen, ist es außerdem notwendig, neben der
theoretischen Spitzenleistung auch die Konsistenz und Variabili-
tät der Leistung zu testen.
5. Migration – den Sprung wagen
Kein Migrationsplan kann alle Anwendungsfälle abdecken. Es
empfiehlt sich daher, dem Cloud-Anbieter einfach die Unterneh-
mensumgebung zu erklären und ihn um seinen Rat zu bitten, an-
statt sich anhand einer Standardstrategie in die Cloud zu wagen.
Am besten duplizieren die Verantwortlichen die eigentliche Um-
gebung in der Cloud, um die Ausführung zu testen. Erst wenn
alles reibungslos läuft, sollten Sie auf die Produktionsanwendung
umstellen. Zudem ist es ratsam, über die Maßnahmen zur Erfül-
lung der Datenwiederherstellungs- und Backup-Anforderungen
hinaus darauf zu achten, dass sich Replikations- oder Standby-
Server nicht in derselben Region wie die primären Server befin-
den.
6. Überwachen und optimieren
Ebenso wie On-Premise-Deployments müssen auch Cloud-Um-
gebungen im Betrieb überwacht und optimiert werden. Tools
für die Datenbankoptimierung analysieren die Wartezeit und
beschleunigen Datenbankvorgänge durch Ressourcenkorrelati-
on erheblich. Außerdem melden sie Fehler, ehe diese zu Proble-
men werden, steigern die Anwendungsleistung und überwachen
CIOBRIEFING 08/2015
Seite 10
Ressourcen zur Unterstützung der Planung. Ebenfalls hilfreich
ist ein Tool für die Leistungsanalyse: Es erlaubt Datenbankad-
ministratoren, Entwicklern und dem IT-Betriebsteam, sauber zu
programmieren und die Ursache bei Leistungsproblemen einer
Datenbank zu identifizieren (z. B. Abfragen, Storage-Ereignisse,
Serverressourcen).
Der neue Weg
Die Cloud entwickelt sich schnell weiter. Sie wird ständig attrak-
tiver, zuverlässiger und flexibler. Noch vor fünf Jahren konnten
sich die meisten IT-Spezialisten nicht vorstellen, welche Verän-
derungen die Cloud bewirken würde. Und es ist anzunehmen,
dass sie sich in derselben Geschwindigkeit auch über die nächs-
ten fünf Jahre weiterentwickeln wird. Dies ist also nur ein wei-
terer Grund, sich so bald wie möglich mit der Cloud vertraut zu
machen. Auf dem Weg in die Cloud werden Verantwortliche alte
Maximen und Konzepte über Bord werfen müssen, doch am Ende
erwarten sie und ihre Anwendungen signifikante Vorteile.
 ■ Gerardo Dada
Mehr zum Thema Cloud Computing finden Sie auf
www.cloudcomputing-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 08/2015
Seite 11
Datenverfügbarkeit bei Big Data
Big Data Protection
statt Big Data Loss
Neben der Verschlüsselung und der Integritätskontrolle
ist es die Gewährleistung der Verfügbarkeit, die die Da-
tensicherheit bei Big Data ausmacht. Spezielle Backup-
Lösungen helfen dabei, große Datenverluste zu vermei-
den.
Nicht nur die Datenberge in Unternehmen wachsen beständig,
auch die Datenverluste werden immer größer. So ist die Daten-
verlustrate seit 2012 um 400 Prozent gestiegen. In nur einem Jahr
haben Unternehmen in Deutschland durch Datenverluste ganze
33,6 Milliarden Euro verloren, so der EMC Data Protection In-
dex. Rund Dreiviertel der befragten Unternehmen können nicht
zuverlässig sagen, ob sie Daten nach einem Ausfall wiederher-
stellen könnten.
Die Probleme mit Backup und Recovery werden durch Big Data
nicht kleiner, im Gegenteil: 43 Prozent der befragten Unterneh-
men in Deutschland haben noch keinen Disaster-Recovery-Plan
für Big Data. 53 Prozent halten den Datenschutz und die Daten-
sicherung bei Big Data für schwierig. Bei der Bedeutung, die Big
Data für viele geschäftliche Bereiche erlangt, muss die Lücke bei
der Verfügbarkeit von Big Data dringend geschlossen werden,
sonst drohen noch massivere Datenverluste als bisher.
Der Mittelstand hat besonders Probleme bei Backups
Wie eine Umfrage von NetApp ergab, ist sich nur ein Drittel der
mittelständischen Unternehmen sicher, dass sie ihre Daten wie-
Zu den Hauptfragen,
die sich Unternehmen
bei Big Data stellen,
­gehört die Frage nach
Backup und Recovery
in aller Regel dazu.
Bild:Asigra
CIOBRIEFING 08/2015
Seite 12
derherstellen können. Zwei Drittel führen keine Tests im Bereich
Recovery durch, bei zehn Prozent fehlen sogar grundlegende
Backup-Prozesse. Gleichzeitig sehen 95 Prozent eine starke Ab-
hängigkeit von der Verfügbarkeit ihrer Daten, 51 Prozent fürch-
ten einen Stillstand ihrer Systeme bei Datenverlust. 47 Prozent
der befragten Mittelständler machen (lediglich) täglich eine Voll-
sicherung. Durch die Entwicklung hin zu immer größeren Daten-
mengen und die hohe Dynamik in der Datenverarbeitung könnte
dieses Zeitfenster bald jedoch unzureichend sein.
Big Data stellt hohe Anforderungen an Backup und Recovery
Welche Herausforderungen bei Backup und Recovery von Big
Data bestehen, ergibt sich aus den Besonderheiten von Big-Da-
ta-Verfahren: Bei Big Data werden große Mengen unterschied-
licher Datenarten verarbeitet, wobei die Ergebnisse sehr schnell
vorliegen sollen (Echtzeit-Anwendungen). Für eine Backup- und
Recovery-Lösung bedeutet dies, dass sie sich durch hohe Flexi-
bilität, hohe Speicherkapazität, hohe Skalierbarkeit und eine sehr
schnelle Reaktionszeit auszeichnen muss. Die Frequenz der Da-
tensicherungen muss deutlich höher liegen können als bei her-
kömmlichen Backup-Szenarien.
Deshalb muss zum Beispiel der RTO-Wert (Recovery Time Ob-
jective), also die Zeitspanne vom Schaden bis zur völligen Wie-
derherstellung, deutlich besser sein als bei einer herkömmlichen
Recovery-Lösung. Andernfalls sind die negativen Auswirkungen
bei den Echtzeit-Anwendungen zu hoch. Der RPO-Wert (Reco-
very Point Objective), also die Zeitspanne zwischen der letzten
Datensicherung und dem Systemausfall, muss bei Big Data sehr
klein sein, um die möglichen, großen Datenverluste vermeiden
zu können.
Backup-Lösungsanbieter haben auf Big Data reagiert
Ein Blick auf den Markt für Backup- und Recovery-Lösungen
zeigt, dass es bereits eine Reihe von Angeboten speziell für die
Sicherung und Wiederherstellung großer Datenmengen gibt. HP
StoreOnce Backup zum Beispiel bietet eine schnelle Sicherung
und Wiederherstellung, eine flexible Erweiterbarkeit, eine zent-
rale Administration auch für verteilte Daten sowie eine spezielle
Ausfallsicherheit. Die Symantec NetBackup Platform nimmt sich
ebenfalls der Besonderheiten von Big Data an, ist also laut An-
bieter schnell, skalierbar und flexibel einsetzbar.
CIOBRIEFING 08/2015
Seite 13
Die Lösung von Sepaton (mittlerweile von Hitachi Data Systems
übernommen) hat ebenso Big-Data-Umgebungen im Fokus und
berücksichtigt das stetige Datenwachstum bei gleichzeitig immer
kürzeren Backup-Zyklen. Laut Anbieter liegt die Backup-Perfor-
mance bei bis zu 80 Terabyte pro Stunde. Die Wiederherstellung
des letzten Backups soll in Minutenschnelle erfolgen.
Commvault Simpana
Simpana OnePass bietet Funktionen für Archivierung, Backup
und Berichterstattung, eine zentrale Administration, verkürzt
die Backup-Zeiten und unterstützt bei der Erfüllung von Com-
pliance-Vorgaben. Der Simpana ContentStore bildet eine zentrale
Stelle für die Sicherung und fristgerechte Löschung der Daten.
Die EMC-Isilon-Archivierungslösung für Big Data ist Teil des
EMC-Isilon-Scale-out-Speichers und skaliert auf bis zu 20 Peta-
byte für Datensicherungen auf Vier-Terabyte-Laufwerken. Neben
der Skalierbarkeit ist es das einfache Speichermanagement und
die Unterstützung von Compliance-Vorgaben, die diese Lösung
zur Big-Data-Lösung machen. Für die Funktionen im Bereich
Backup und Disaster Recovery steht die EMC Isilon SnapshotIQ-
und SyncIQ-Software zur Verfügung.
Ein weiteres Beispiel ist die Cloudian Object Storage Software
for Enterprise Backup. Die Lösung verspricht schnelle Backups,
eine hohe Skalierbarkeit in den Bereich von mehreren Hundert
Petabyte und eine automatische Behandlung von Hardware- und
Netzwerkfehlern.
Fazit
Backup und Recovery für Big-Data-Umgebungen sind anspruchs-
voll, aber durchaus technisch realisierbar. Der große Datenverlust
kann nicht nur vermieden werden, er muss es auch.
 ■ Oliver Schonschek
CIOBRIEFING 08/2015
Seite 14
Haftungsrisiken
IT-Compliance ist mehr als
­Datenschutz
So wichtig das Thema Datenschutz auch ist: Es gibt weit-
aus mehr gesetzliche Compliance-Vorgaben und Bran-
chenstandards, die die Informationssicherheit betreffen.
Angesichts der Haftungsrisiken sollten sich Führungs-
kräfte dessen stets bewusst sein.
Die Zeiten, in denen der Datenschutz ein Schattendasein fristete,
sind lange vorbei. Inzwischen sind die Schlagzeilen ebenso ge-
füllt mit Themen rund um den Datenschutz wie die politischen
Diskussionen und die IT-Sicherheitskonferenzen.
Laut dem aktuellem eco Report „IT Sicherheit 2015“ sehen 88
Prozent der befragten Sicherheitsexperten den „Datenschutz“ als
das wichtigste Sicherheitsthema für 2015 an. Es besteht kein
Zweifel, dass noch zahlreiche Aufgaben zu bewältigen sind, da-
mit die Mehrzahl der Unternehmen die Vorgaben des Datenschut-
zes tatsächlich umgesetzt hat.
Es kommt nicht von ungefähr, dass die Tätigkeitsberichte der
Aufsichtsbehörden für den Datenschutz regelmäßig Mängelbe-
richte über den Datenschutz in Unternehmen enthalten. Aller-
dings wäre es auch verfehlt, wenn sich die Geschäftsleitung eines
Unternehmens ganz auf die Fragen des Datenschutzes konzent-
riert, wenn es um die rechtlichen und vertraglichen Forderungen
zur IT-Sicherheit geht.
IT-Sicherheit muss vielen Forderungen gerecht werden
Oftmals ist sich das Management der Vielfalt der IT-Sicherheits-
anforderungen und der damit verbundenen Risiken nicht bewusst
In Deutschland rücken
Cyberrisiken unter die
Top 10 Unternehmens­
risiken, wie das Allianz
Risk Barometer 2015
zeigt.
Bild:AllianzGlobalCorporateSpecialty
CIOBRIEFING 08/2015
Seite 15
genug. Einer der Gründe dafür ist die mangelnde Kommunika-
tion zwischen den IT-Sicherheitsverantwortlichen und den Ver-
tretern der Geschäftsleitung, wie eine Ponemon-Studie deutlich
gemacht hat.
Weitere Probleme bereitet die Komplexität der rechtlichen Vorga-
ben für die IT-Sicherheit. Ein ganzes Bündel an Gesetzen, Ver-
ordnungen, Richtlinien und vertraglichen Vereinbarungen kann
zur sogenannten IT-Compliance gezählt werden, die erreicht wer-
den muss. Fehlt ein Prozess zur Erreichung der IT-Compliance,
ist der Prozess und der Status nicht ausreichend dokumentiert
oder wird die IT-Compliance insgesamt nicht erreicht, kann dies
spürbare Folgen haben.
Dies gilt insbesondere für die Geschäftsleitung, die sowohl beim
Datenschutz als auch bei den anderen Compliance-Vorgaben als
die verantwortliche Stelle betrachtet wird. Compliance-Verstöße
können je nach rechtlichem Bereich zu Vertragsstrafen, Bußgel-
dern und sogar zur persönlichen Haftung der Unternehmenslei-
tung führen.
Compliance-Verstöße und Haftungsrisiken vermeiden
Jedes Unternehmen sollte für sich prüfen, welche rechtlichen An-
forderungen hinsichtlich IT-Compliance für die eigene Branche
und das eigene Unternehmen bestehen. Dabei sollte man auch
die einzelvertraglichen Pflichten nicht vergessen, denn in Kun-
denverträgen können ebenfalls konkrete Forderungen an die IT-
Sicherheit zu finden sein.
Im Fall einer Auftragsdatenverarbeitung ist dies sogar Pflichtbe-
standteil der Verträge. Zusätzliche Verpflichtungen ergeben sich
aus internen IT-Sicherheitsrichtlinien und einzuhaltenden SLAs
(Service Level Agreements).
Die Geschäftsleitung muss die IT-Compliance sehr ernst nehmen,
um (teilweise persönliche) Konsequenzen zu vermeiden. Die Be-
nennung eines Compliance-Beauftragten oder zum Beispiel ei-
nes Datenschutzbeauftragten (DSB) entbindet das Management
nicht von der eigenen Verantwortung.
Trotzdem ist die Beauftragung einer speziell zuständigen Person
sehr sinnvoll, teilweise auch rechtlich gefordert. Hinzu kommt,
dass die IT selbst ihren Beitrag leisten kann, um den Prozess und
die Einhaltung der IT-Compliance besser in den Griff zu bekom-
men.
CIOBRIEFING 08/2015
Seite 16
Compliance-Tools helfen bei der Übersicht und Dokumenta-
tion
Eine Reihe von Speziallösungen können Unternehmen dabei un-
terstützen, die jeweiligen IT-Risiken zu identifizieren und zu be-
werten, Gegenmaßnahmen zu definieren und zu dokumentieren
und den Umsetzungsstand mit verschiedenen Compliance-Vorga-
ben abzugleichen.
Beispiele für solche Lösungen sind die IT-Sicherheitsdatenbank
SAVe der INFODAS GmbH, DocSetMinder der GRC Partner
GmbH, die Agiliance RiskVision Platform, die MetricStream
Compliance Management Solution, verinice und die RSA Archer
GRC Suite. Je nach Lösung sind bereits umfangreiche Compli-
ance-Kataloge integriert, in aller Regel können auch eigene An-
forderungen definiert oder importiert werden.
Ganz gleich, mit welcher Lösung oder Methode ein Unternehmen
den Überblick zur IT-Compliance behält: das Risiko einer Haf-
tung oder von Vertragsstrafen sollte keiner unbeantwortet lassen,
weder im Datenschutz noch in einem anderen Bereich der IT-
Compliance.
Ergänzendes zum Thema
Sicherheitsrelevante Compliance-Vorgaben
Die folgenden Beispiele für Compliance-Vorgaben mit Bezug zur
IT-Sicherheit sind teilweise branchenabhängig und/oder Gegen-
stand vertraglicher Vereinbarungen.
●	Bundesdatenschutzgesetz (BDSG)
●	Empfehlungen zur ärztlichen Schweigepflicht, Datenschutz
und Datenverarbeitung in der Arztpraxis
●	EU-Datenschutzgrundverordnung (Entwurf)
●	Grundsätze zur ordnungsmäßigen Führung und Aufbewah-
rung von Büchern, Aufzeichnungen und Unterlagen in elekt-
ronischer Form sowie zum Datenzugriff (GoBD)
●	HIPAA
●	Interne IT-Sicherheitsrichtlinien (individuell)
●	ISO/IEC 27001:2013
●	IT-Grundschutz-Kataloge
●	IT-Grundschutz-Standards
●	IT-Sicherheitsgesetz (Kabinettsentwurf)
CIOBRIEFING 08/2015
Seite 17
●	Landesdatenschutzgesetze
●	Mindestanforderungen an das Risikomanagement – MaRisk
●	Payment Card Industry Data Security Standard
●	Richtlinie für Netzwerk- und Informationssicherheit (NIS)
(Entwurf)
●	Sarbanes-Oxley Act
●	Service Level Agreements (SLA, individuell)
●	Telekommunikationsgesetz (TKG)
●	Telemediengesetz (TMG)
 ■ Oliver Schonschek
Mehr zum Thema Security finden Sie auf
www.security-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 08/2015
Seite 18
Die erste echte Hybrid-Cloud, jubeln die Partner
Das DARZ als Hyperscale-­
Multi-Cloud-Broker
Das Darmstädter Rechenzentrum, kurz DARZ, Netapp
und Helpium sind die Partner, die für Kunden ein Com-
pute-Sourcing in multiple Hyperscale-Clouds ermögli-
chen. Die eigene IT, mit privater Cloud und den Dimensi-
onen von AWS, Azure und Softlayer verheiraten, soll nun
möglich sein – mit „Netapp Private Storage as a Service“
beim DARZ als Grundlage. Helpium ist der erste Kunde.
Nein, eigentlich ist Helpium kein Netapp-Kunde. Das Startup,
das im November 2014 online ging, ist ein Cloud-Native und will
keine IT im Haus. Und eigentlich ist die Storage-Infrastruktur
egal. Das Unternehmen vermittelt Privat-Kunden und kleinen
Unternehmen, die ohne IT-Service-Verträge auskommen wollen,
Support für ihre Alltagsprobleme.
Dafür vermittelt Helpium unabhängige Experten, die sich auf der
von dem Unternehmen entwickelten Internet-Plattform registrie-
ren, mit Hilfesuchenden. Falls ein Problem den Zugriff auf den
Computer des Anwenders erfordert, lassen sich die Computer des
Experten und des Hilfesuchenden mithilfe einer eigens von Hel-
pium entwickelten Software verbinden.
Klar, dass sobald sich die Spezialisten über die Plattform auf die
Computer ihrer Kunden einloggen, hochsensible Kundendaten
übertragen und gespeichert werden. Helpium zeichnet etwa die
Sreenshots auf, um nachvollziehen zu können, dass tatsächlich Hil-
fe geleistet und kein Unfug betrieben wurde. Für die Vermittlung
kassiert das Unternehmen 20 Prozent der erfolgten Dienstleistung.
Hier soll die erste
­richtige Hybrid Cloud
wohnen – im DARZ.
Bild:DARZ
CIOBRIEFING 08/2015
Seite 19
Die Anforderungen des Kunden an eine hybride Infra­
struktur
Ein Public-Cloud-Angebot kommt für Holger Kärcher, den Grün-
der und Geschäftsführer von Helpium, nicht in Frage. Er braucht
den Schutz und die Sicherheit einer Private Cloud, beziehungs-
weise das Hosting seiner Server auf dedizierten Kapazitäten in
einem deutschen Rechenzentrum. Denn selbst wenn etwa US-
Unternehmen hierzulande eigene Rechenzentrumsinfrastruktu-
ren aufbauten oder mieteten, unterlägen sie dem Patriot Act, der
sie gegebenenfalls zur Weitergabe von Kundeninformationen an
die US-Behörden verpflichte, macht Sebastian Zilch aufmerk-
sam, Initiator von „Freunde der Cloud“ und zwischen 2012-2015
als Head of Business Development maßgeblich für die Konzepti-
on und Entwicklung des Marktplatzes der Deutsche Börse Cloud
Exchange zuständig.
Das DARZ wiederum liefert Shared und Dedicated Hybrid-
Cloud-Services und war unter anderem mit Netapp Teilnehmer
des internationalen Early Adopter Programm dieses Marktplat-
zes, für das Zilch verantwortlich war. Er berät derzeit das DARZ
bei der Konzeption und Umsetzung von Netapp Private Storage
as a Service. Das „Feature-Set“ dieses Angebots, wie Helpium-
Chef Kärcher es nennt, sei für ihn ausschlaggebend gewesen, um
das DARZ als Geschäftspartner zu wählen.
Netapp Private Storage as a Service erlaubt Kunden eine hybride-
Storage-Architektur und damit eine simultane Nutzung von siche-
rem (Private) Enterprise Storage und Public-Cloud-Ressourcen.
Dank einheitlicher Schnittstellen können versierte Anwender
das Netapp-Management-Tool nutzen, um übergreifend on- und
off-premise ein Storage-Tiering zur betreiben, um beispielsweise
verschiedene Sicherheitsstufen einzuziehen oder für bestimmte
Bereiche All-Flash-Umgebungen zu nutzen. DARZ bietet seinen
Kunden aber auch einen Vollservice an, der sie von der Einarbei-
tung ins Netapp-Tuning entbindet.
Das DARZ und Netapp
Zu den DARZ-Angeboten gehört somit ein Self Managed Service
mit Netapp Private Storage as a Service: Das Unternehmen stellt
dafür in seinem Rechenzentrum Racks für das unternehmensei-
gene Storage-System zur Verfügung. Außerdem kümmert sich
der Datacenter-Betreiber um die Anbindung an alle Cloud-Provi-
der, die der Kunde wünscht.
CIOBRIEFING 08/2015
Seite 20
Lars Göbel, Leiter Vertrieb und IT
Services bei der DARZ GmbH,
erläutert: „Bisher war es ein Qua-
litätskriterium für Co-Locator,
wenn sie Carrier-neutral waren,
also viele Anbindungen an ver-
schiedene Kommunikations- be-
ziehungsweise Internet-Provider
bieten konnten. Wir bieten neut-
ral den Zugang zu verschiedenen
Cloud-Providern.“
Beim Self Managed Service
übernehmen die Kunden selbst
den Betrieb und die Verwaltung
sämtlicher Ressourcen sowie der Storage-Systeme.
Daneben gibt es die Möglichkeit zum Managed Netapp Private
Storage as a Service. Je nach Wunsch beziehen die Kunden von
DARZ ein dediziertes oder shared Storage-System. Während der
Dienstleister dabei die Anbindung an alle am Standort Frankfurt
verfügbaren Hyperscaler übernimmt, kümmern sie sich um Kon-
figuration und Betrieb des Storage-Systems und den Bezug der
Ressourcen bei den Hyperscalern.
Unendliche Skalierbarkeit
Die dritte Möglichkeit ist ein Full Service. Hierbei erhalten die
Kunden den kompletten Service aus einer Hand. Auf Wunsch
kümmern sich DARZ-Mitarbeiter um die Bereitstellung der benö-
tigten Ressourcen von den Hyperscalern. Dies schließt auch den
Abrechnungsprozess der Drittanbieter ein, so dass der Dienst-
leister als alleiniger Lieferant des Services agiert, als einziger
Kontaktpunkt in allen Belangen der Hybrid-Cloud.
Darüber hinaus lässt sich Netapp Private Storage as a Service
auch in bestehende Co-Location- und Private- sowie Shared-
Cloud-Lösungen integrieren. Zudem ist die Migration auf ein de-
diziertes oder Shared Netapp Storage-System möglich. Für Back-
up-Szenarien bietet DARZ beispielsweise die Unterbringung der
Storage-Systeme in einem anderen Brandabschnitt oder Partner-
rechenzentrum in Frankfurt an, etwa bei euNetworks, Global
Switch und Equinix. Frankfurt ist etwa 30 Kilometer entfernt
und DARZ besitzt eine eigene Glasfaserleitung zu dem dortigen
Hochgeschwindigkeitsring.
Lars Göbel, Leiter Ver­
trieb und IT-Services
beim DARZ, befasst sich
seit mehr als einem Jahr­
zehnt mit IT-­Services und
Cloud. Der Wirtschaftsin­
formatiker begann seine
­berufliche Laufbahn bei
einem IT-Dienstleister
aus dem Bankenumfeld,
bevor er als IT-Projekt-
Manager  ­Consultant die
erste ­VMware basierte
Public-Cloud-Infrastruktur
Deutschlands aufbaute,
weiterentwickelte und ver­
marktete.
Bild:DARZ
CIOBRIEFING 08/2015
Seite 21
Doch zu einer „echten Hybrid Cloud“ wird das DARZ–Spekt-
rum erst durch die Direct-Connect-Partnerschaften mit den so
genannten Hyperscalern, wie AWS, Softlayer und VMware. So
können Kunden beispielsweise für eine Datenverteilung über
mehrere Standorte auf die Schnittstellen-Anbindung S3 as a Ser-
vice zugreifen. Das gilt auch dann, wenn die Lösung global sein
soll.
Die Public-Cloud-Geißel
DARZ-Vertriebsleiter Göbel er-
läutert: „Wie sprechen mit den
Kunden darüber, welchen Hyper-
scaler sie bevorzugen. Denn tat-
sächlich unterscheiden sich die
Angebote von AWS, Azure, Soft-
layer … stark voneinander. Die
Vergleichbarkeit aber Restriktio-
nen und die tatsächlichen Kosten
sind für die Kunden oftmals völ-
lig intransparent.“ Zudem seien
in den Angeboten Computing-
Power und Storage nicht vonein-
ander getrennt, so dass nur kom-
plette Pakete eingekauft werden
könnten.
Berater Zilch bezeichnet die
Kunden von Hyperscalern gar
als „gegeißelt“; wenn einmal
die eigene IT und die Daten mit
einem der Angebote verknüpft
seien, bekämen die Kunden ihre
Daten aus der jeweiligen Cloud
einfach nicht mehr hinaus. Peter
Wüst, Director Cloud  Allian-
ces CEMA bei Netapp, erläutert
das wie folgt: „Die Partnerschaft
mit DARZ ist ein echter Gewinn
für unsere Kunden. Diese be-
ziehen nun alle Leistungen zum
Aufbau und Betrieb einer hyb-
riden Cloud-Infrastruktur aus einer Hand. Gleichzeitig behalten
unsere Kunden weiterhin die volle Kontrolle über ihre Daten,
Peter Wüst ist Director
Cloud  Alliances CEMA
bei Netapp für die Regionen
Deutschland, Österreich,
Schweiz, Osteuropa, Russ­
land und die GUS sowie den
Mittleren Osten und Afrika:
„Aus unserer Sicht entwi­
ckelt sich die hybride Cloud
zum führenden Ansatz für
die IT-Leistungserbringung.
Wer unternehmenskritische
Daten außerhalb der Fir­
mengrenzen nutzt, benötigt
jedoch eine angepasste
Strategie für das Daten-
Management.“
Bild:Netapp
Anfang 2001 gründe­
te ­Sebastian Zilch sein
­eigenes Start-up, erwarb
2004 in Frankfurt am Main
den Abschluss zum Dipl.
­Informatik-Betriebswirt
(VWA) und arbeite­
te ­anschließend unter
­anderem bei McKinsey 
Company und Siemens
­Global Procurement
­Services.
Bild:Zilch
CIOBRIEFING 08/2015
Seite 22
können diese also beliebig zwischen den Cloud-Plattformen und
ihrer On-Premise-Umgebung hin- und herschieben.“
Die Partner räumen jedoch auch ein, dass es noch zu den abso-
luten Ausnahmen gehört, die Hyperscale-Anbieter schneller als
die Unterwäsche zu wechseln. Im Prinzip wäre das mit einem
Angebotsmodell a la DARZ möglich; Kunden könnten etwa Ta-
gespreise ausnutzen oder für einzelne Aufgaben andere Ressour-
cen dazu schalten. Zilch sagt: „ Heute gehört das noch nicht zum
Tagesgeschäft eines IT-Einkäufers. Doch die Aufgaben und die
Position der Einkäufer wird sich schon in den kommenden drei
Jahren ändern.“
Schutz und Kontrolle trotz Flexibilität
Dem Anwender Helpium ist zu diesem Zeitpunkt wichtig, dass
der Vertragspartner DARZ die Anforderungen an Sicherheit, Fle-
xibilität und Skalierbarkeit erfüllt, die der Umgang mit sensiblen
Daten erfordert, bestätigt Helium-Chef Kärcher, und das trotz ei-
nes Shared-Hybrid-Cloud-Modells, allerdings mit den Qualitäts-
klassen eines dedizierten Enterprise-Storage-Systems und ska-
lierbarer Rechenleistung.
Das DARZ wurde im August des vergangenen Jahres eröffnet,
Baukosten rund 35 Millionen Euro. Das Rechenzentrum befindet
sich im ehemaligen Tresorgebäude der Hessischen Landeszentral-
bank und kann damit vermutlich als das sicherstes Datacenter in
Deutschland gelten – „mit Panzerglas, Auffahrschutzrampe und
allem Pi-Pa-Po“, so Göbel. Das Rechenzentrum in Darmstadt hat
die höchste Sicherheitsstufe, die derzeit nur vergleichbar ist mit
Hochsicherheitsrechenzentren wie in der Schweiz.
Derzeit befinden sich 150 Racks auf 2.400 Quadratmetern IT-
Fläche, die etwa 1.000 Server-Schränke fassen würde. „Bei ei-
nem Füllstand von 75 Prozent“, so DARZ-Vertriebsmann Göbel,
„würden wir ein zweites Rechenzentrum bauen.“
Neben dem Angebot einer Hybrid-Storage-Architektur, das eine
simultane Nutzung von Private Enterprise Storage und Public-
Cloud-Ressourcen erlaubt, offeriert das DARZ auch Co-Location
und bietet dem Marktplatz Deutsche Börse Cloud Exchange eine
Heimat. Während hier die Public-Cloud-Infrastruktur aus einem
Fujitsu-Paket aus Hardware („Eternus CD10000“) und Software
besteht, das sich mithilfe der Open-Source-Software „Ceph“ zen-
tral managen lässt (siehe auch Kasten in Artikel „Stickstoff im
Tresor,Maßgeschneiderter Brandschutz für Hochsicherheits-Re-
CIOBRIEFING 08/2015
Seite 23
chenzentrum“ , ist die Grundlage für das Hybrid-Modell Netapp
Private Storage as a Service. Realisiert wurde das Projekt in gut
fünf Monaten.
Cloud-Brokerage
Nutzen Kunden dieses DARZ-Angebot, wird der Dienstleister
quasi zum Cloud-Broker. Die Kunden können anders als bislang
gleichzeitig an verschiedene Anbieter angebunden sein. Denn
bisherige Lösungen bestehen nur aus verschiedenen Private- und
Public-Cloud-Angeboten, die einem die Nutzung der einen oder
anderen Welt ermöglicht, aber nicht simultan. Darüber hinaus be-
rücksichtigen aktuelle Markt-Angebote nicht den möglichen Co-
Location-Anteil eines Unternehmens.
Trotzdem sind die Services schnell, manchmal schneller als di-
rekt beim Hyperscaler. „Unser Storage-System“, erläutert FARZ-
Mann Göbel, antwortet unter 0,1 Millisekunden. Bei AWS direkt
ist keine Antwort unter 0,2 Millisekunden möglich. Die Round-
Trip-Zeit beläuft sich auf 0,4 Millisekunden. Die Abrechnung er-
folgt nutzungs- und leistungsabhängig.
Trotz der Verknüpfung mit verschiedenen Public-Cloud-Anbie-
tern befinden sich alle Daten in einem ausschließlich vom Kun-
den kontrollierten Bereich. Außerdem unterliegt das DARZ dem
deutschen Datenschutz. Im Unterschied zu Anbietern mit Haupt-
sitz in den USA greift für das DARZ daher auch kein Patriot Act.
 ■ Ulrike Ostler
CIOBRIEFING 08/2015
Seite 24
QoSMOS-Partner forschen weiter
an Zukunft des Mobilfunks
Vermietete Spektren und
neue Modulationen sollen
5G antreiben
Naturgemäß soll der kommende Mobilfunkstandard 5G
deutlich leistungsfähiger werden als der Vorgänger LTE.
Ermöglichen könnten das kurzfristig vermietete Spekt-
ren und neue Modulationsverfahren.
Etwas verspätet wirkte es schon, als die Europäische Union Ende
Mai eine Mitteilung zum bereits 2013 abgeschlossenen Projekt
QoSMOS herausgab. Dabei haben die Akteure des „Quality of Ser-
vice and MObility driven cognitive radio Systems“ nicht nur einen
Grundstein für die kommende Mobilfunkgeneration 5G gelegt,
sondern arbeiten noch immer an einem praktikablen Standard.
Hintergrund: QoSMOS
Das Anliegen des QoSMOS-Projekts klingt vertraut: Begrenzte
Funkspektren sollen effizienter genutzt werden, um auf wachsen-
de Datenmengen und einem zunehmenden Preisdruck reagieren
zu können. Die EU hat das Unterfangen mit 9,4 Millionen Euro
aus dem 7. Rahmenprogramm gefördert. Am QoSMOS-Konsor-
tium beteiligten sich 15 – fast ausschließlich europäische – For-
schungseinrichtungen und Unternehmenspartner. Koordiniert
wurde das Projekt von British Telecommunications (BT).
Bandbreite ist nicht
­alles. Das 5G Lab
­untersucht auch
­An­wendungen, bei
­denen es auf geringe
­Latenzen ankommt.
Bild:D.Öhmann,5GLabGermany
CIOBRIEFING 08/2015
Seite 25
Projektkoordinator Michael Fitch von BT erklärte: „Das Ziel ist
es, isoliert genutzte Bereiche abzubauen [...] Jeder neue Dienst
und jede neue Technologie benötigt einen neuen Frequenzbereich,
und wenn viele verschiedene Geräte jeweils über ihren eigenen
Bereich verfügen, entstehen solche isoliert genutzten Bereiche.“
Vision vom Mikro-Handel mit Frequenzbereichen
Diese Bereiche sollen künftig deutlich flexibler als bisher genutzt
werden. Das könne sogar soweit gehen, dass Besitzer von Fre-
quenzbereichen diese Spektrumressourcen für kurze Zeiträume
an andere Teilnehmer vermieten.
Hierfür hat QoSMOS folgende technische Grundlagen entwi-
ckelt:
●	einen zentralen Manager, der das „Portfolio“ des Spektrums
einer Region oder eines Landes in Echtzeit steuert,
●	eine Ressourcenverwaltung, die das Spektrum einzelnen Sys-
temen zuweist und die Umgebung überprüft,
●	ein Terminal für kognitiven Funk.
Zudem ist dem Projekt der Prototyp eines Sende-Empfängers
entsprungen, der FBMC-Wellenformen (Filter Bank Multicarrier)
erzeugt. Begründung: FMBC teile das Spektrum so in rechtecki-
ge Blöcke ein, dass es dicht gepackt ist und effizienter genutzt
werden könne. Damit sei das Verfahren der aktuell weit verbrei-
teten, und für LTE-Netze verwendeten OFDM-Technologie (Or-
thogonal Frequency Division Multiplexing) überlegen und werde
diese ersetzen.
Ausgangspunkt für weitere Forschungen
Das französische Commissariat à l’Energie Atomique führt ak-
tuell die Entwicklung des FBMC-Sende-Empfängers weiter.
Zudem prognostiziert die oben erwähnte Mitteilung: „Mehrere
Konsortiumsmitglieder werden die Technologie für das Spekt-
rummanagement wahrscheinlich vermarkten. Darüber hinaus
ist die britische Behörde Ofcom laut Fitch bereit, die TV-White
Spaces ab 2015 zu kommerzialisieren.“
Lage in Deutschland
Die Bundesnetzagentur (BNetzA) bremst die vollmundigen An-
kündigungen derweil etwas aus. Bevor für Mobilfunk in Frage
kommende Spektren für eine parallele Nutzung durch mehrere
CIOBRIEFING 08/2015
Seite 26
Teilnehmer freigegeben und lizenziert werden könnten, müsste
die Internationale Fernmeldeunion (ITU) zunächst einmal den
Frequenznutzungsplan für die Region 1 anpassen – und davon
hat die BNetzA bislang keine Kenntnis.
Auch das als OFDM-Nachfolger gesetzte Modulationsverfah-
ren FMBC ist keineswegs ohne Konkurrenz. QoSMOS-Partner
Alcatel-Lucent präsentierte kürzlich etwa die Wellenform Uni-
versal Filter Orthagonal Frequency Division Multiplexing (UF-
OFDM) als „führende[n] Anwärter für die Standardisierung“ von
5G-Netzen. Die Funkwellenform sei ideal für die Kombination
von Datenverkehr von Smartphones und dem hohen Volumen von
Daten, die von Sensoren erzeugt werden.
Am Potenzial der Luftschnittstelle wollen die zu Alcatel-Lucent
gehörenden Bell Labs künftig mit dem 5G Lab Germany for-
schen, das an der TU Dresden angesiedelt ist. Die TU-Dresden
war übrigens ebenfalls am QoSMOS-Projekt beteiligt und koor-
diniert ein Mobilfunk-Testbed im Rahmen des CREW-Projekts.
Steffen Watzek, Programm-Manager am Vodafone Stiftungs-
lehrstuhl Mobile Nachrichtensysteme der TU Dresden, gibt zu
bedenken: „Funksysteme der Zukunft müssen flexibel sein, um
unterschiedlichste Übertragungssituationen zu erfüllen.“ Watzek
skizziert dabei folgende drei Szenarien:
●	Mobile Breitbandkommunikation mit sehr hohem Datendurch-
satz, beispielsweise für HD-Video;
●	M2M-Kommunikation mit kurzen Datenpaketen und sehr vie-
len Teilnehmern, etwa für autonome Verkehrsmittel;
●	Echtzeit-Anwendungen (Taktiles Internet) mit geringen Laten-
zen, etwa für telemedizinische Einsatzgebiete.
Pro und Kontra einzelner Modulationsverfahren
Gerade für die zuletzt genannten Anwendungen dürfte FBMC
kaum die erste Wahl darstellen. Watzek erklärt: „FBMC (Filter-
bank Based Multi Carrier) wendet einen Pulsformungsfilter auf
jeden einzelnen Unterträger an. Die Außerbandstrahlung wird
dadurch erheblich reduziert. Je nach Wahl des Filters, verlän-
gert sich die zeitliche Länge eines Datenpaketes. Um eine mög-
lichst niedrige Außerbandstrahlung zu erreichen, muss das Filter
zeitlich sehr lang ein- und ausschwingen. Scharfe Filterflanken
und ein Abstand von mindestens einem Unterträger zwischen
verschiedenen Nutzern erlauben nicht-synchronisierte Übertra-
gungen zwischen mehreren Teilnehmern. FBMC eignet sich für
CIOBRIEFING 08/2015
Seite 27
Mobile Breitband Kommunikation, da lange, kontinuierliche Da-
tenströme zu erwarten sind. Latenzkritische oder Datenübertra-
gungen mit kurzen Paketen werden durch die Filter verlangsamt.
FBMC ist nicht kompatibel zu OFDM basierenden Systemen,
denn die Daten werden ohne zyklisches Präfix, Streaming-artig
übermittelt.“
Bei UF-OFDM/UFMC (Universal-Filtered Multi-Carrier) werde
ein Pulsformungsfilter derweil auf mehrere Unterträger angewen-
det. Die – verglichen zu FBMC – höhere Filterbandbreite führe
zu kürzeren Auf- und Abschwingzeiten. Damit ließen sich auch
kürzere Datenpaketen effizient übertragen. Um zeitliche Über-
schneidungen zu vermeiden, müsse allerdings Synchronisation
zwischen mehreren Teilnehmern beachtet werden. Ähnlich wie
bei FBMC werde kein zyklisches Präfix verwendet.
Möglicher Mittelweg
GFDM (Generalized Frequency Domain Multiplexing) bildet
laut Watzek einen Mittelweg zwischen OFDM und FBMC. Jeder
­Unterträger wird gefiltert, um die Außerbandstrahlung zu redu-
zieren, das zyklische Präfix werde allerdings beibehalten. Je nach
Wahl des Pulsformungsfilters und anderer Parameter könne eine
OFDM oder FBMC-kompatible Wellenform erzeugt werden.
 ■ Dirk Srocke
CIOBRIEFING 08/2015
Seite 28
Hybride IT-Infrastrukturen
Die Hybrid Cloud ist zum
­Normalfall geworden
„Hybride Infrastrukturen“ legen gerade einen rasanten
Siegeszug hin, wie Zahlen aus diesem und dem vergan-
genen Jahr belegen.
Noch vor kurzer Zeit galt die Private Cloud als State-of-the-Art
in Unternehmen. Mittlerweile haben diese jedoch ihre Fühler
ausgestreckt und der Hybrid Cloud zum Siegeszug verholfen.
Das belegen aktuelle Zahlen von IDG Connect. Befragte wur-
den 625 IT-Entscheider in mittelständischen und großen europäi-
schen Unternehmen zu ihrer aktuellen IT-Umgebung sowie ihren
mittel- bis langfristigen Infrastrukturplänen.
Die Zahlen sind sogar so überzeugend, dass die Marktforscher
nicht mehr von einer „Hybrid Cloud“ sondern von einer „Hybrid
IT“ beziehungsweise „Hybrid Infrastructure“ spricht – wiewohl
zwischen beiden ein kleiner, aber feiner Unterschied existiert:
Eine Hybride IT setzt nicht zwingend eine Private Cloud voraus.
Die im März vorgelegten Zahlen belegen, dass die Hybrid IT
sowohl heute als auch in der mittel- bis langfristigen Zukunft
die bevorzugte Strategie darstellen. 45 Prozent der europäischen
Unternehmen nutzen bereits hybride IT-Lösungen, die Daten aus
verschiedenen Quellen wie On-Premise-Rechenzentren sowie
ausgelagerten Public und Private Clouds verarbeiten. In Deutsch-
land sind es 58 Prozent. So setzen deutsche Firmen heute bereits
hybride Konzepte intensiver ein als der europäische Durchschnitt.
Immer mehr Unter­
nehmen beziehen
Teile ihrer IT aus der
­Hybrid Cloud, wie
­aktuelle ­Zahlen zeigen.
Bild:©bluebay2014-Fotolia.com
CIOBRIEFING 08/2015
Seite 29
Auch im kommenden Jahr werden Unternehmen hierzulande die-
sen Vorsprung noch deutlich ausbauen. 98 Prozent (!) der deut-
schen Unternehmen schätzen, dass sie 2016 hybride IT-Lösungen
nutzen werden, im europäischen Durchschnitt sind es 80 Prozent.
Akzeptanz von Private und Public Clouds
Die Hälfte der europäischen und 58 Prozent der deutschen Unter-
nehmen verwenden Private-Cloud-Umgebungen. Public Cloud-
Services haben sich europaweit bei den Befragten mit 38 Prozent,
in Deutschland mit 55 Prozent durchgesetzt. 51 Prozent der Stu-
dienteilnehmer in Europa erwarten, dass sie innerhalb der nächs-
ten fünf Jahre mehr Workloads in die Public Cloud verschieben.
Dennoch bleiben eigene Rechenzentren für 44 Prozent weiterhin
eine sehr wichtige Komponente bei geschäftskritischen, sensib-
len Daten, unabhängig davon, ob diese intern oder von einem
Service-Provider verwaltet werden.
Treiber für die Datenmigration in die Cloud
Die Studie zeigt auch, dass eine hohe Konnektivität zwischen
den verschiedenen Quellen ein Treiber für die weitere Migration
der Daten in die Cloud ist. Die wichtigsten Hürden für die Cloud-
Nutzung bilden Zweifel bei Sicherheit (53 Prozent) und Netzwerk-
Performance (47 Prozent). In Deutschland besitzt die Hälfte der
Befragten Sicherheitsbedenken gegenüber dem Cloud-Modell, 42
Prozent halten die Umsetzung von Datenschutz- und Corporate
Governance-Regeln in der Cloud für schwierig. An dritter Stelle
nannten die Unternehmen die Netzwerkleistung als Barriere für
den Cloud-Einstieg (32 Prozent).
Gäbe es keine Netzwerkprobleme, würden 89 Prozent der befrag-
ten Unternehmen in Deutschland Workloads in die Cloud verla-
gern, im europäischen Durchschnitt wären dies nur 77 Prozent. In
diesem Fall würden sich die Workloads in der Cloud von heute 25
auf 42 Prozent erhöhen. Bereits jetzt möchten 41 Prozent der Stu-
dienteilnehmer das Internet für Unternehmenslösungen umgehen
und sich über eine WAN-Verbindung oder Direktverbindungslö-
sung (Direct Connect) mit der Cloud vernetzen. In Deutschland
liegt hier die Rate mit 36 Prozent etwas niedriger.
Wie rasant der Siegeszug der Hybrid Infrastructure verläuft, lässt
sich anhand von Zahlen für das vergangene Jahr von IDC able-
sen. Auch das Analystenhaus fand heraus, dass deutsche Unter-
nehmen in den kommenden 24 Monaten die Verknüpfung ihrer
bestehenden IT-Umgebung mit Cloud Services planen.
CIOBRIEFING 08/2015
Seite 30
Vielfältige Herausforderungen
Ziel der im August 2014 durchgeführten Befragung unter 200
IT-Entscheidern aus Unternehmen in Deutschland mit mindes-
tens 100 Mitarbeitern war es, die aktuellen Trends und Pläne hin-
sichtlich Aufbau und Nutzung von hybriden Cloud-Umgebungen
zu ermitteln. Im Mittelpunkt der Studie stehen die Motive und
die Lösung der vielfältigen Herausforderungen beim Aufbau von
hybriden Cloud-Umgebungen. IDC versteht unter Hybrid Clouds
die Verknüpfung der unternehmenseigenen, herkömmlichen IT-
Umgebung mit Private, Hosted oder Public Cloud Services.
Nach Angaben der IT-Entscheider nutzte oder implementierte
im vergangenen Jahr fast die Hälfte (45 Prozent) der deutschen
Unternehmen Cloud Services, weitere 36 Prozent befanden sich
in der Planungsphase. Und klar: Private Cloud-Umgebungen wa-
ren 2014 mit 66 Prozent noch die mit Abstand bevorzugte Cloud-
Variante. Aber auch schon da braute sich hybrides zusammen:,
35 Prozent nutzen 2014 bereits eine Hosted Private Cloud oder
bezogen Lösungen aus der Public Cloud (24 Prozent). Aber erst
15 Prozent der befragten IT-Entscheider gaben zu Protokoll, eine
oder mehrere dieser Cloud-Services auch mit ihrer herkömmli-
chen IT-Umgebung zu einer Hybrid Cloud verknüpft zu haben.
Bedarf nach hybriden Cloud-Umgebungen steigt
IDC sagte bereits im vergangenen Jahr voraus, dass der Bedarf
nach hybriden Cloud-Umgebungen zunehmend steigen wird,
denn die befragten Organisationen planen die verstärkte Nutzung
von Hosted Clouds (39 Prozent) und Public Clouds (32 Prozent).
Diese Cloud Services sollten mit der herkömmlichen IT-Land-
schaft integriert werden, ganz wie nun von der Studie von IDG
Connect bestätigt. Die IDC-Befragung vom vergangenen Jahr
sagte zudem richtig voraus, dass mehr als die Hälfte (54 Prozent)
der IT-Entscheider – und hier vor allem aus mittelständischen
Unternehmen - in den kommenden 12 bis 24 Monate den Aufbau
hybrider Cloud-Umgebungen plant. ■ Dr. Dietmar Müller
CIOBRIEFING 08/2015
Seite 31
Apache Giraph für Hadoop und HDInsight
So setzen Sie Graphen in
­Big-Data-Umgebungen ein
Apache Giraph ermöglicht die Verarbeitung von Graphen
in Hadoop und damit auch in Microsoft Azure HDInsight.
Graphen stellen Beziehungen zwischen zwei Objekten
dar, zum Beispiel Beziehungen in sozialen Netzwerken,
aber auch Routen in Netzwerken. Aus diesem Grund ist
die Verarbeitung solcher Daten in Big-Data-Umgebun-
gen besonders interessant.
Wer sich mit Big Data bereits etwas auseinandergesetzt hat und
Lösungen in diesem Bereich produktiv einsetzt, kann die Umge-
bung mit zusätzlichen Möglichkeiten zur Datenauswertung er-
weitern. Auch hier steht eine Vielzahl an Open-Source-Produk-
ten zur Verfügung, zum Beispiel Apache Giraph. Das
Apache-Top-Level-Produkt eignet sich vor allem für Big-Data-
Umgebungen, in denen soziale Beziehungen und Netzwerke ana-
lysiert werden müssen. Entwickelt wurde die Umgebung ur-
sprünglich auf Basis von Java.
Grundlage von Apache Giraph ist ein Hadoop-Cluster. Da es sich
bei Giraph um eine Erweiterung des MapReduce-Algorithmus
handelt, werden auch die Giraph-Jobs auf die einzelnen Knoten
im Cluster verteilt. Die zu verarbeitenden Daten sind also im be-
reits installierten Hadoop-Cluster vorhanden und werden zusam-
men mit Hadoop verarbeitet.
Apache Giraph bietet
Datenverarbeitung mit
Vertices, Edges und
­Supersteps.
Bild: The Apache Software Foundation
CIOBRIEFING 08/2015
Seite 32
Optimale und effiziente Analyse
Giraph verbessert die Analyse von verbundenen Strukturen und
von sozialen Graphen und ist daher eine ideale Ergänzung, will
man in der Big-Data-Lösung auch Daten aus sozialen Netzwer-
ken analysieren. Das ist auch einer der Gründe warum Facebook,
PayPal, Twitter, Yahoo und auch LinkedIn auf Giraph setzen.
Die Lösung kann extrem große Datenmengen effizient und
schnell verarbeiten und über Hadoop zur Verfügung stellen. In
einem Blogbeitrag informiert Facebook, dass mit Giraph Milliar-
den von Beziehungen in wenigen Minuten analysiert werden kön-
nen. Auch Universitäten wie die TU Berlin arbeiten seit Jahren
mit den Möglichkeiten von Giraph. Neben Hadoop unterstützt
Giraph auch Apache Accumulo, Apache HBase, Apache Hive
und Cloudera Impala.
Unterstützung für Cluster und Mehrkern-Prozessoren
Giraph orientiert sich an den Möglichkeiten von Bulk Synchro-
nous Parallel (BSP) und Google Pregel (PDF). Vorteil gegenüber
diesen Lösungen ist aber der offene Quellcode, die Kompatibili-
tät mit Hadoop und die höhere Verfügbarkeit, da es keinen Single
Point of Failure gibt. Die aktuelle Version arbeitet effizient be-
züglich der Speichernutzung und bietet byteweise Serialisierung.
Das Produkt ist zudem Cluster-fähig. Das heißt, Unternehmen
können Giraph auch auf Clustern mit tausenden Knoten betrei-
ben. In den meisten Fällen wird das Produkt parallel zu Hadoop
eingesetzt, aber erst dann, wenn die Verarbeitung der Daten über
Hadoop nicht mehr ausreicht.
Zur besseren Berechnung lassen sich mit Giraph auch Mehrkern-
Prozessoren ansprechen und dadurch die Berechnungen deutlich
beschleunigen. Berücksichtigen lassen sich neben gewichteten
und ungewichteten Graphen auch gerichtete und ungerichtete
Graphen sowie sogenannte Multigraphen.
Giraph unterstützt auch YARN. Einfach ausgedrückt handelt es
sich dabei um eine Cluster-Verwaltungs-Technologie für Hadoop.
YARN stellt sozusagen den Ressourcen-Manager dar. Viele Big-
Data-Profis bezeichnen YARN auch als „MapReduce 2“.
YARN schreibt das Ressourcenmanagement und die Zeitpla-
nungsfunktionen um und entkoppelt MapReduce von der Da-
tenverarbeitungskomponente. Dadurch kann Hadoop mehr Be-
arbeitungsansätze und eine breitere Palette von Anwendungen
unterstützen. Wer sich in Giraph einarbeiten will, sollten sich die
Einarbeitungsseite des Projektes genauer ansehen.
CIOBRIEFING 08/2015
Seite 33
Bessere Analyse von Netzwerken und Webseiten
Mithilfe von Graphen und Giraph ist es also möglich, potenzielle
Beziehungen in sozialen Netzwerken zu ermitteln oder in großen
Netzwerken das Routing zu verbessern, vor allem wenn zahlrei-
che Hops genutzt werden. Auch Website-Rankings lassen sich
mit Graphen besser analysieren.
Um Giraph zu testen, können Entwickler zum Beispiel auch HDIn-
sight in Microsoft Azure testen. Microsoft stellt ein Skript zur Ver-
fügung, mit dem sich Giraph in einen HDInsight-Cluster integ-
rieren lässt, auch in einer Testversion von Microsoft Azure. Eine
ausführlichere Anleitung dazu ist in der Azure-Hilfe zu finden.
Durch die enorme Erweiterung von Big-Data-Funktionen in Mi-
crosoft Azure lässt sich auch Giraph künftig wesentlich besser
in HDInsight nutzen. Azure Data Lake erlaubt in Zukunft zum
Beispiel die Speicherung beliebiger Daten in sehr hoher Menge
direkt in der Cloud. Microsoft verspricht eine nahezu unbegrenz-
te Datenspeicherung. Hier hat Microsoft auch ganz klar Big-Da-
ta-Szenarien im Hinterkopf, denn Data Lake ist kompatibel zum
Hadoop File System (HDFS) und lässt sich daher optimal mit
Hadoop und der Microsoft-Lösung HDInsight nutzen.
In diesem Zusammenhang wird auch die Weiterverarbeitung mit
Giraph in HDInsight interessant. Um die Authentifizierung der
Daten sicherzustellen, unterstützt Azure Data Lake auch die An-
bindung an Azure Active Directory. Das ist vor allem bei der Ana-
lyse von Daten in sozialen Medien enorm wichtig. Die Daten wer-
den zentral in Azure Data Lake gespeichert und sind dann auch
von verschiedenen Anwendungen in Azure gleichzeitig abrufbar.
So läuft die Berechnung in Giraph
Giraph behandelt Eingabedaten als Graphen und kann Vertices
und Edges nativ darstellen. Dabei weist Giraph den Vertices auch
Klassen oder Modelle zu. Berechnet werden die Daten mit Su-
persteps. Dazu werden die Giraph-Jobs in einen MapReduce/
YARN-Job umgewandelt, damit er kompatibel mit Hadoop ist
und im Cluster ausgeführt werden kann. Alle Funktionen in ei-
nem Giraph-Job sind benutzerdefinierbar. Zur Implementierung
verwenden Entwickler Java. Vorlagen für die Verwendung wer-
den auch von Apache zur Verfügung gestellt.
Während der Berechnung tauschen die Vertices Werte unterein-
ander aus. Am Anfang eines jeden Supersteps analysiert Giraph
die Informationen des vorhergehenden Supersteps. Dazu haben
die einzelnen Vertices auch eigene Speicher.
CIOBRIEFING 08/2015
Seite 34
Fazit
Apache Giraph ist ein sehr effizientes und fehlertolerantes Ana-
lyse-System für soziale Graphen. Das Produkt ist stark skalier-
bar und sehr flexibel steuerbar. Da Apache Giraph kostenlos zur
Verfügung steht, müssen Unternehmen zunächst keine Investiti-
onen tätigen. Giraph ist allerdings ein sehr kompliziertes System
und ist nur sinnvoll, wenn Hadoop bereits im Einsatz ist und im
Unternehmen auch entsprechendes Know-how bezüglich Java,
Hadoop und Big Data vorhanden ist. Erst wenn die Datenverar-
beitung über Hadoop und die bekannten Zusatzwerkzeuge nicht
mehr ausreichen, lohnt es sich, Giraph zusätzlich zu integrieren.
 ■ Thomas Joos
Mehr zum Thema Big Data finden Sie auf
www.bigdata-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 08/2015
Seite 35
Compliance
Lässt sich IT-Sicherheit per
­Gesetz vorschreiben?
Das IT-Sicherheitsgesetz kommt. Zwei Jahre nach dem
ersten Entwurf des Bundesinnenministeriums wurde das
„Gesetz zur Erhöhung der Sicherheit informationstech-
nischer Dienste“ durch die große Koalition verabschie-
det. Vor allem auf Betreiber sogenannter Kritischer Infra-
strukturen kommen nun einige Pflichten zu.
Die IT-Sicherheitslage in Deutschland sei weiterhin angespannt,
heißt es im Gesetzentwurf (Drucksache 18/4096, IT-Sicherheits-
gesetz). Dieser beruft sich dabei auf Angaben des Bundesamtes
für Sicherheit in der Informationstechnik (BSI). Die Cyber-An-
griffe würden in hoher Zahl stattfinden, wären zunehmend ziel-
gerichtet, technologisch ausgereifter und komplexer.
Das Gesetz soll die IT-Sicherheit in Deutschland verbessern und
erntete in der Vergangenheit trotz dieses hehren Zieles viel Kritik.
Fünf Jahre zu spät und nicht weitreichend genug, beanstandete die
Opposition, konnte den Beschluss aber nicht mehr verhindern.
Das Ziel des IT-Sicherheitsgesetzes klingt weitreichend: Es soll
die IT-Sicherheit in Unternehmen, den Schutz der Bürgerinnen
und Bürger im Internet und das BSI sowie das Bundeskriminal-
amt (BKA) stärken. Dennoch konzentrieren sich die Regelungen
auf die Betreiber Kritischer Infrastrukturen (Kritis) wie z. B.
Energieversorger und Telekommunikationsanbieter.
Zwei Jahre lang haben
Unternehmen wie
­beispielsweise Telekom­
munikationsanbieter
Zeit, ihre IT-Sicherheit
an bestehenden
­Standards auszurichten.
CIOBRIEFING 08/2015
Seite 36
Was steckt im IT-Sicherheitsgesetz? Und was nicht?
Kurzum: Vor allem Betreiber von Infrastrukturen, von denen
das Funktionieren unserer Gesellschaft in besonderem Maße
abhängt, müssen ab sofort mehr für ihre IT-Sicherheit tun. Das
IT-Sicherheitsgesetz verpflichtet sie dazu, „ein Mindestniveau an
IT-Sicherheit einzuhalten und dem BSI IT-Sicherheitsvorfälle zu
melden“.
Zwei Jahre bleiben den Betreibern kritischer Infrastrukturen
nun noch Zeit, organisatorische und technische Vorkehrungen zu
treffen, um Störungen zu vermeiden. Mit Störungen meint der
Gesetzgeber jeden negativen Einfluss auf die Verfügbarkeit, die
Integrität, die Authentizität und die Vertraulichkeit der IT-Syste-
me und Daten.
In regelmäßigen Sicherheitsaudits muss das IT-Sicherheitsniveau
nachgewiesen werden. Darüber hinaus sind die Unternehmen nun
verpflichtet, Störfälle an das BSI zu melden und eine sogenannte
Kontaktstelle einzurichten. Die Informationen laufen schließlich
beim BSI zusammen, werden dort ausgewertet und den Betrei-
bern wieder zur Verfügung gestellt.
Dass für die Einrichtung neuer Prozesse, für neue Technik und
einen Mitarbeiter als Ansprechpartner Kosten entstehen, wird in
der Erläuterung zum Gesetzentwurf lapidar so angekündigt: „Die
Verpflichtung zur Einhaltung eines Mindestniveaus an IT-Sicher-
heit wird dort zu Mehrkosten führen, wo kein hinreichendes IT-
Sicherheitsniveau vorhanden ist.“ Der anfallende Aufwand könne
im Vorfeld jedoch nicht quantifiziert werden.
Die Rolle der Telko-Anbieter und Behörden
Das IT-Sicherheitsgesetz geht
auch auf die Rolle der Telekom-
munikationsanbieter ein, sie sei-
en in besonderem Maße für die
Sicherheit im Cyberraum verant-
wortlich. Um die Bürgerinnen
und Bürger besser zu schützen,
verlangt das Gesetz IT-Sicherheit
„nach dem Stand der Technik“.
Ziel ist es, dass das Fernmelde-
geheimnis gewahrt bleibt, perso-
nenbezogene Daten sicher sind
und die Systeme zuverlässig zur
Lutz Kolmey: „Krisen­
pläne, Krisenstäbe,
­Eskalationsprozesse und
ähnliches funktionieren
nur, wenn sie vor der
­Krise in Ruhe durchdacht,
abgestimmt und fixiert
werden.“
Bild:modITServices
CIOBRIEFING 08/2015
Seite 37
Verfügung stehen. Die Anbieter müssen zudem ihre Kunden
warnen, wenn ihnen Angriffe auf die Anschlüsse der Nutzer auf-
fallen. Natürlich sind sie auch verpflichtet, dies der Bundesnetz-
agentur und dem BSI zu melden.
Kritikern genügt das nicht
Vor allem der Opposition im Deutschen Bundestag und Daten-
schutzrechtlern geht das neue IT-Sicherheitsgesetz nicht weit ge-
nug. Angesichts der massiven Sicherheitslücken im IT-Bereich
kritisierte die Fraktion Bündnis 90/Die Grünen, dass der Ent-
wurf nicht bereits viel früher vorgelegt worden sei und dass das
Gesetz sich nun weitestgehend auf die Betreiber Kritischer Infra-
strukturen beschränke, die nicht einmal klar benannt seien.
Die Meldepflichten der öffentlichen Behörden empfinden die
Oppositionspolitiker als unzureichend geregelt. Darüber hinaus
stellen die Grünen die künftige Rolle des BSI in Frage. Das Mi-
nisterium soll künftig zur internationalen Zentralstelle für IT-
Sicherheit ausgebaut werden und enger mit dem Bundeskriminal-
amt zusammenarbeiten.
Für beide Behörden sind zusätzliche Stellen geplant. Allerdings
vertraue die Industrie dem BSI nicht im notwendigen Maße, son-
dern betrachte es mehr als Anhängsel des Bundesinnenministe-
riums, sagen die Oppositionspolitiker. Sie plädieren für eine un-
abhängige Behörde.
Und dann wäre da noch das Problem der Vorratsdatenspeiche-
rung: Damit die Telekommunikationsanbieter ihrer Pflicht nach-
kommen können, die Nutzer über etwaige Angriffe zu informie-
ren, speichern sie Daten auf Vorrat für die Dauer von wenigen
Tagen bis zu sechs Monaten. Das IT-Sicherheitsgesetz weitet
damit sogar das gültige Telekommunikationsgesetz (TKG) aus,
welches bereits eine begrenzte Befugnis zur Vorratsdatenspei-
cherung zur Störungsabwehr enthält.
Nun sollen auch Angriffe über Botnetze und Spam besser ab-
gewehrt werden können. Diese „freiwillige Vorratsdatenspeiche-
rung“ hatten sowohl Bürgerrechtler als auch der Bundesrat im
Vorfeld kritisiert, trotzdem wurde hier nicht nachgebessert.
Was Unternehmen jetzt konkret tun müssen
Da das IT-Sicherheitsgesetz für das geforderte „Mindestmaß an
IT-Sicherheit“ nur den Rahmen definiert, müssen nun die betrof-
fenen Firmen gemeinsam mit dem BSI und den verschiedenen
CIOBRIEFING 08/2015
Seite 38
Verbänden die Details aushandeln. Zwei Jahre bleiben insgesamt
Zeit, bis die entsprechenden Maßnahmen umgesetzt sein sollen.
Im Kern geht es für Unternehmen darum, ihre IT-Sicherheit auf
den neuesten Stand zu bringen und Prozesse rund um Sicher-
heitsaudit, Meldepflichten und Ansprechpartner zu etablieren.
Dafür sind einige Analysen und organisatorische Maßnahmen
notwendig, die Unternehmen zeitnah einplanen sollten: Eine um-
fassende Risikoanalyse klärt, welche Bereiche im Unternehmen
als kritisch gelten.
Dabei geht es sowohl um die Sicherheit der eigenen Infrastruktur
als auch um die Aufrechterhaltung der Dienste mit besonderem
Wert für die Gesellschaft. Es gilt zu klären, was eigentlich genau
bei Ausfällen passiert und welche Auswirkungen zu erwarten
sind. Die besten Risiken sind die, die gar nicht entstehen.
Vorbeugenden Maßnahmen und Strategien kommt hier eine be-
sondere Bedeutung zu: Wie lassen sich Risiken vermeiden oder
wenigstens mindern? Und wie lässt sich dies im Rahmen von Si-
cherheitsaudits regelmäßig überprüfen? Schließlich sollten Un-
ternehmen ihr bestehendes Krisenmanagement prüfen oder ein
neues aufbauen. Krisenpläne, Krisenstäbe, Eskalationsprozesse
und ähnliches funktionieren nur, wenn sie vor der Krise in Ruhe
durchdacht, abgestimmt und fixiert werden.
Wie es weiter geht
In vier Jahren soll das IT-Sicherheitsgesetz evaluiert werden. Da
auch auf europäischer Ebene an einer Richtlinie zur IT-Sicherheit
(NIS) gearbeitet wird, könnte es schon vor Ablauf dieser Frist
notwendig werden, das IT-Sicherheitsgesetz nachzubessern.
Die Sprecher der Koalition werteten den Gesetzesbeschluss als
wichtigen Schritt zur Stärkung der IT-Systeme in Deutschland.
Und wie wichtig die Debatte um die IT-Sicherheit auf hoher Ebe-
ne ist, zeigen nicht zuletzt die jüngsten Hackerangriffe auf den
Bundestag. ■ Lutz Kolmey
CIOBRIEFING 08/2015
Seite 39
Datacenter-Revolution im Kellerloch
Von CoreOS kommt
das ­Betriebssystem für
­Cloud-Rechenzentren
Die großen Cloud-Rechenzentren scheinen derzeit den
Weg in die IT-Zukunft zu weisen. Das Startup CoreOS hat
sich auf Software für diese hochstandardisierten und –
flexiblen Umgebungen spezialisiert. Google ist einer der
Investoren.
Hochflexible und –skalierbare Cloud-Rechenzentren funktionie-
ren nach anderen Regeln als Unternehmensrechenzentren bisher.
In ihnen soll es möglich sein, Lasten in Sekundenbruchteilen in-
nerhalb der Infrastruktur zu verschieben, möglichst schnell neue
Services informationstechnisch zusammenzubauen, die man
dann den Kunden anbieten kann.
Sie sollen am besten einen extrem hohen Sicherheitsstandard
realisieren. Und sie brauchen, um den Flächenbedarf gering zu
halten, eine hohe Auslastung. Außerdem soll ihre Hardware am
besten von A bis Z aus durchstandardisierten Komponenten be-
stehen, die ohne Betriebsunterbrechung und mit wenig techni-
schem Wissen auswechselbar sind.
Für all das eignen sich die gängigen Betriebssysteme und Hyper-
visoren, egal, von wem sie stammen, kaum. Sie sind zu träge und
zu komplex, bei der konventionellen, funktionsüberladenen
Hardware ist es dasselbe. Die Folge: Es entstehen aus den Anfor-
derungen der Cloud-Welt heraus neue Produkte und Standards.
Das lässt sich besonders gut am Open Compute Project und ähn-
lichen Vorhaben demonstrieren.
Schlagkraftig: CoreOS,
das in einem Souterrain
von San Franzisko
­residiert, will bisherige
Betriebssysteme
­wegräumen und
­bekommt dazu viel
­Unterstützung, unter
­anderem von Google.
Bild:igor/Fotolia.com
CIOBRIEFING 08/2015
Seite 40
Open Source funktioniert einfach
Sie alle funktionieren nach dem Motto: Wenn wir es nicht haben,
entwickeln wir es einfach, und zwar offen, mehr oder minder
zur gemeinsamen Nutzung und ohne die etablierten Hersteller
um Erlaubnis zu bitten. Wenn sie wollen, können sie ja mittun,
wenn nicht, kommen wir auch ohne sie aus. Die Open-Source-
Bewegung hat durch das Cloud-Paradigma gewaltigen Anschub
erhalten. Aus ihr entsteht nun wieder eine neue Gründungswelle,
die die nächsten Jahrzehnte der IT prägen könnte.
Ein Beispiel für derartige Neugründungen ist CoreOS, ein Star-
tup, das gerade neue Büros in unmittelbarer Nähe der Cesar
Chavez Street im Lationo-dominierten Mission-District von San
Francisco bezogen hat. Cesar Chavez, so die Kurzbezeichnung
der Straße, heißt nach einem frühen US-amerikanischen Gewerk-
schaftsführer. Er trat den Großunternehmen seiner Zeit mit revo-
lutionärem Elan entgegen und setzte Arbeitnehmerrechte durch.
Insofern ist die Gegend kein schlechter Standort für CoreOS: Das
Unternehmen will mit seinen Open-Source-basierenden Produk-
ten die verkrusteten Verhältnisse in der Betriebssystem- und Hy-
pervisoren-Branche nachhaltig zum Tanzen bringen. Derzeit vor
allem in den größeren Cloud-Rechenzentren. Und irgendwann
später vielleicht auch in anderen Rechenzentren, denen von Un-
ternehmen.
Gründerspirit und große Pläne
Im Keller des Hauses, in dem die rasch wachsende Firma ausbrei-
tet, stehen ein paar alte Sofas um einen klapprigen Tisch herum,
vorn ein Flipchart, in der Ecke der Kühlschrank mit Cola und
allerlei Biodrinks. „Hier verbringen wir viel von unserer Zeit und
brüten neue Ideen aus“, erklärt PR-Managerin Kelly Tenn. Das
Gründungsdomizil war stilecht eine der berühmten Garagen, in
denen viele der großen und spannenden IT-Geschichten der USA
beginnen.
Der Boss der gerade einmal zwei Jahre alten Firma mit inzwi-
schen 40 Mitarbeitern hält sich nicht mit Kleinigkeiten auf. „Wir
bauen das sichere Betriebssystem für das Container-Zeitalter“,
sagt CEO Alex Polvi vollmundig. Er ist 28 Jahre jung, mit ath-
letischer Statur und brennenden Augen. Man ist geneigt, ihm zu
glauben.
Das tun schließlich auch namhafte Investoren, die bereits 20 Mil-
lionen Dollar in CoreOS gesteckt haben. Einer davon ist Google.
CIOBRIEFING 08/2015
Seite 41
Polvi hat sich seine Sporen und die erste Million bereits verdient:
er hat mit „Cloud Kick“ schon einmal einen Startup gegründet,
der 2010 für 40 Millionen Dollar an Rackspace ging.
CoreOS patcht wie Mobiltelefone
Doch was hat CoreOS nun anzubieten? „Wegen Update- und
Patching-Problemen fehlt es der Server-Infrastruktur in Rechen-
zentren heute grundsätzlich an Sicherheit“, sagt Polvi. Also habe
man ein abgespecktes Linux entwickelt, CoreOS eben, das opti-
miert für verteilte Systeme, standardisierte Hardware und Appli-
kationscontainer sei, erläutert Polvi.
Der Update-Mechanismus CoreUpdate ermöglicht jederzeit
Überblick darüber, wo welche Systemvarianten von CoreOS
laufen. Maschinen können gruppenweise aktualisiert oder auch
von Update-Läufen systematisch ausgeschlossen werden. All das
wird über eine übersichtliche Web-Benutzerschnittstelle gesteu-
ert und in einem Dashboard grafisch und in Zahlen dargestellt
(siehe: Abbildung).
Gehört Containern die Zukunft?
Den Containern gehöre, so Polvi, wegen ihrer Flexibilität, ihrer
Ressourcensparsamkeit und der Möglichkeit, sie unabhängig von
Hypervisoren zu verwenden, die Zukunft. Sie steigerten die Aus-
lastung der Server-Hardware gegenüber virtuellen Maschinen
um das Zehnfache, behauptet Polvi. Legt man aktuelle Auslas-
tungsschätzungen für Rechenzentren zugrunde – 30 Prozent sind
hier schon ein guter Wert – ist dieses Argument sicherlich für
viele scharf kalkulierende Betreiber von Cloud-Dienstleistungs-
rechenzentren reizvoll.
Eine Professional-Variante von CoreOS ist kostenpflichtig, für
monatliche Pauschalkosten, die sich nach der Zahl der Server
richten, erhalten Anwender Wartung, Support und Updates. Hin-
ter der Lösung steht eine mehrhundertköpfige Entwickler-Com-
munity. Sie entwickelt das Betriebssystem stetig weiter. Gegen-
über vergleichbaren Projekten und Produkten wie DCOS oder
MesOS hebe sich CoreOS vor allem durch mehr Sicherheitsfea-
tures ab, sagt Polvi.
Im April machte CoreOS „Tectonic“ kommerziell verfügbar. Das
Projekt kombiniert die Container-Management-Umgebung mit
dem CoreOS-Stack, woraus sich eine Google-ähnlich funktio-
nierende Infrastruktur bauen lässt. Dazu kommen Funktionen,
CIOBRIEFING 08/2015
Seite 42
die für kommerzielle RZ-Umgebungen wichtig sind, etwa eine
Management-Konsole für Workflows und Dashboards, eine inte-
grierte Registry, um Linux-Container zu bauen und gemeinsam
zu nutzen und Tools für automatisiertes Deployment oder die Au-
tomatisierung von Updates.
Die Docker-Alternative
Ein weiteres Open-Produkt, an dem CoreOS kontinuierlich ar-
beitet, ist „rkt“ (sprich: Rock it), laut Polvi das erste Container-
format, das der Application Content Specification des Open Con-
tainer Project entspricht. Es ist eine Alternative zur gegenwärtig
gehypten, proprietären Containertechnik Docker.
Mit rkt-Containern lassen sich flexibel Mikroservices bereitstel-
len und zu immer neuen Services für Kunden zusammensetzen.
Das entspreche der Philosophie des Cloud-Zeitalters, in der es
nicht mehr um die Compute-Leistung gehe, sondern vor allem
um die der Applikationen, sagt Polvi.
Entscheidungsmechanismen für unsichere Situationen
Schließlich steckt CoreOS maßgeblich hinter dem Open-Source-
Projekt „etcd“, einem verteilten Key-Value-Speicher , der in der
Sprache „Go“ geschrieben ist und mit dem sich verteilte Systeme
konsistent halten lassen. Ziel von etcd ist es, möglichst kleine
Datenbits extrem hochverfügbar zu machen.
Das andere Zookeeper
etcd steckt in „Pivotal Cloud Foundry“ genau wie in Googles
Container-Management-Software „Kubernetes“. Die Anwendung
verwendet so genannte Kohäsionsalgorithmen. Diese ermögli-
chen bessere, sicherere Entscheidungen bei unsicheren Entschei-
dungssituationen, wie sie etwa in der Echtzeitsteuerung von Ma-
schinen auftauchen können.
Rund 500 auf GitHub gelistete Projekte nutzen etcd bereits. Eine
Alternative zu etcd ist das Apache-Projekt „Zookeeper“, das al-
lerdings auf Hadoop-Umgebungen beschränkt ist.
Sein bisheriger Erfolg scheint CEO Polvi nicht sonderlich zu
kümmern. Gefragt, warum man in einem, nun ja, Rattenloch re-
sidiere, beantwortet der Manager mit überzeugender Schlichtheit:
In dem frühen Stadium, in dem sich sein Unternehmen befinde,
sei es ganz einfach angemessen, auf Luxus zu verzichten und alle
Mittel in die Produktentwicklung zu stecken.
CIOBRIEFING 08/2015
Seite 43
Wer weiß, was geschähe, wenn sich die heutigen Giganten der IT-
Branche einmal auf diese Devise zurückbesinnen würden. Doch
damit ist wohl kaum zu rechnen. ■ Ariane Rüdiger
Mehr zum Thema Data Center finden Sie auf
www.datacenter-insider.de
Technology-Update für IT-Manager
CIOBRIEFING
CIOBRIEFING 08/2015
Seite 44
Berechtigungen, Datensicherheit und
­Verwaltung bei Fileservices
Dateiserver von Windows
nach Linux migrieren
Viele Unternehmen wechseln derzeit von Windows zu
Linux. Das liegt vor allem an dem Support-Ende von
Windows Server 2003/2003 R2 und SBS 2003/2003 R2.
Anstatt alte Windows-Versionen zu erneuern, wechseln
immer mehr Unternehmen lieber auf das Opensource-
Betriebssystem. Hier muss aber einiges beachten wer-
den.
Linux-Server sind auch für Windows-Administratoren mit ge-
ringen Linux-Kenntnissen schnell aufgesetzt und betriebsbereit.
Von vielen Herstellern gibt es assistentengestützte Systeme, die
über eine Weboberfläche verwaltet werden. An dieser Hürde
scheitern Migrationsobjekte daher selten. Die Haken liegen an
anderer Stelle.
Um auch in kleinen Unternehmen Daten zentral abzulegen,
­E-Mails zu senden und andere Funktionen der Gruppenarbeit
zu nutzen, ist nicht immer ein Windows-Server notwendig. Es
gibt einige Linux-Distributionen die ähnlichen Funktionsumfang
­bieten und schnell und einfach zu installieren und zu verwalten
sind.
Vorteil dabei ist, dass diese meistens kostenlos zur Verfügung
stehen. Allerdings müssen Administratoren vorher gut planen
und keine Schnellschüsse bei der Migration durchführen.
Auch für Linux gibt es
angepasste Sicherungs-
Lösungen. Diese müssen
aber an die eigenen
­Bedürfnisse angepasst
werden.
Bild:ThomasJoos
CIOBRIEFING 08/2015
Seite 45
Auswahl der optimalen Distribution
Bevor Unternehmen zu Linux wechseln, muss erst geklärt wer-
den, welche Distribution zum Einsatz kommen soll. Auf dem
Markt gibt es neben SUSE, Ubuntu, Debian und Red Hat, dut-
zende weitere Distributionen in verschiedenen Formen und De-
rivaten.
Wichtig ist an dieser Stelle die Kompatibilität mit den Dateien,
die auf den Servern gespeichert werden sollen. Außerdem muss
entschieden werden, ob die Client-Rechner der Anwender wei-
terhin mit Windows betrieben werden sollen. Wenn ja, muss die
Distribution natürlich kompatibel mit Windows sein und auch die
Anmeldung von Windows-Rechnern erlauben. Hier wird oft mit
Samba gearbeitet.
Aber auch mit nachträglich installierter grafischer Oberfläche
werden viele Einstellungen und Konfiguration in Linux mit Konfi-
gurationsdateien und in der Shell durchgeführt. Außnahmen sind
natürlich spezielle Server, die neben Dateidienste noch weitere
Funktionen zur Verfügung stellen, zum Beispiel DNS, DHCP,
Mail und mehr. Hier werden die Einstellungen in den meisten
Fällen in einer webbasierten Oberfläche durchgeführt.
Wenn es um die Authentifizierung von Benutzer und der Absi-
cherung von Daten in Netzwerken geht, kommen Administrato-
ren kaum um eine Windows-Domäne, seit Windows 2000 auch
Active Directory genannt herum. Administratoren, die auf Linux
setzen wollen, können eine Windows-Domäne auch mit einem
kostenlosen Samba-Server auf Basis von Linux darstellen.
Samba 4 steht auf verschiedenen Wegen als Linux-Distribution
zur Verfügung. Auch Univention Corporate Server bietet eine
Linux-Distribution mit Samba 4 und zusätzlich eine webbasierte
Verwaltungsoberfläche.
Server-Versionen verwenden, keine Desktop-Linux-Varianten
Administratoren sollten beim Betrieb von Linux-Servern darauf
achten, eine echte Server-Version zu installieren, nicht die Desk-
top-Version der entsprechenden Distribution. Denn nur diese bie-
ten optimale Möglichkeiten für die von Client-Rechnern und dem
Aufbauen von Server-Infrastrukturen.
Der Nachteil der Server-Versionen ist das Fehlen der grafischen
Oberfläche, was für Linux-Admins kein Problem darstellt, für
Windows-Administratoren allerdings etwas komplizierter ist.
CIOBRIEFING 08/2015
Seite 46
Administratoren haben aber die Möglichkeit, zum Beispiel nach
der Installation eines Ubuntu-Servers, eine eingeschränkte grafi-
sche Oberfläche zu installieren.
Wenn keine spezielle Version, wie UCS zum Einsatz kommt, ge-
staltet sich nach der Installation auch die Verwaltung der Berech-
tigungen etwas komplizierter. Denn hier fehlen unterstützende
Assistenten, und Administratoren müssen sehr sorgfältig vorge-
hen, wenn es um die Erteilung von Rechten auf Verzeichnisse
und Freigaben geht.
Berechtigungen der Verzeichnisse beachten
In den meisten Firmen liegen für Verzeichnisse und Freigaben
komplexe und verschachtelte Strukturen vor. Die Berechtigungen
der Verzeichnisse und Freigaben sind außerdem in den seltensten
Fällen dokumentiert.
Das heißt, bei einem Wechsel der Verzeichnisse und Freigabe auf
Linux-Systeme lässt sich schwer mit Tools und Anwendungen ar-
beiten, sondern Administratoren müssen die Verzeichnisstruktur
neu aufbauen. Das liegt nicht zuletzt daran, dass Windows-Ser-
ver meistens mit NTFS arbeiten, während auf Linux-Servern das
ext3/4-System zum Einsatz kommt.
Hier muss also sehr gut geplant werden, welche Verzeichnisse/
Freigaben übernommen werden, und wie die neue Rechtestruk-
tur aussehen soll. Bevor die Verzeichnisse und Freigaben sowie
deren Daten übernommen werden können, müssen sich Verant-
wortliche zunächst genau darüber im Klaren sein, wie die Benut-
zerkonten von Windows zu Linux übernommen werden sollen.
Hier stehen zwar Migrationstools zur Verfügung, allerdings ar-
beiten Windows und Linux in diesem Bereich nicht ideal zusam-
men. Sobald die Benutzer und Gruppen übernommen oder neu
angelegt wurden, müssen Rechte und Freigaben neu erstellt und
konfiguriert werden. Außerdem müssen in den meisten Fällen die
Daten manuell übernommen werden.
Während der Migration wird es also in vielen Fällen zu Paral-
lel-Installationen von Windows und Linux kommen. Am besten
werden hier einzelne Verzeichnisse und Freigaben hintereinan-
der migriert. Das hat den Vorteil, dass die neue Struktur getestet
werden kann, bevor alle Benutzer umgezogen werden. Funktio-
niert etwas nicht, lassen sich immer noch die alten Daten auf dem
Windows-Server nutzen.
CIOBRIEFING 08/2015
Seite 47
Speicher-Hardware beachten
Viele Unternehmen nutzen für die Datenablage auch externe
Plattensysteme. Hier muss darauf geachtet werden, dass diese
optimal mit der entsprechenden Linux-Distribution zusammen-
arbeiten kannund auch die notwendigen Treiber zur Verfügung
gestellt werden.
Bei der Anbindung sollten natürlich keine Daten verloren gehen
und die Geschwindigkeit der Anbindung sollte möglichst nicht
abnehmen. Außerdem muss der stabile Betrieb gewährleistet wer-
den. Arbeiten Unternehmen mit NAS-Systemen zur Datenspei-
cherung, sollten sich die Probleme in Grenzen halten. Aber auch
hier sollten Administratoren darauf achten, dass NAS- und Linux-
Server sowie die erstellten Freigaben problemlos funktionieren.
Die Herausforderung an dieser Stelle ist, dass nicht einfach das
System mit Linux verbunden werden kann, da die Freigaben und
Verzeichnisse auf dem Gerät mit den entsprechenden Berechti-
gungen konfiguriert werden müssen.
Datensicherheit und Datensicherung beachten
Wenn die Daten erfolgreich übernommen worden sind, und die
Berechtigungen funktionieren, muss auch das Thema Datensi-
cherheit und Datensicherung berücksichtigt werden. Auch auf
Linux-Servern und auf Dateien auf Linux-Servern können sich
Viren einschleichen.
Daher ist auch auf diesen Servern ein Virenscanner notwendig.
Im Opensource-Bereich gibt es sehr viele Alternativen. Aller-
dings müssen auch diese erst gefunden, installiert und auch ein-
gerichtet werden. Außerdem müssen sich Administratoren in die
Verwaltung dieser neuen Lösungen einarbeiten.
Neben dem Virenschutz spielt natürlich auch das Thema Datensi-
cherung eine wichtige Rolle. Ist im Unternehmen bereits eine Da-
tensicherungs-Lösung im Einsatz, muss überprüft werden, ob Li-
nux in der eingesetzten Distribution überhaupt unterstützt wird.
Außerdem muss der Client eingerichtet und der Linux-Server an
die Sicherung angebunden werden.
Soll der Datensicherungs-Server ebenfalls zu Linux gewechselt
werden, müssen Verantwortliche entscheiden welche Sicherungs-
lösung zum Einsatz kommen soll. Auch hier gibt es einige sehr
gute Lösungen, die aber ebenfalls eingerichtet und verwaltet wer-
den wollen.
CIOBRIEFING 08/2015
Seite 48
Datensicherung auf Linux-NAS-System
Sollen nicht die Dateiserver komplett auf Linux umgestellt wer-
den, die Daten aber auf einem Linuxbasierten NAS-System ge-
sichert werden, müssen Administratoren auch hier einiges be-
achten. Wichtig ist auch hier, dass die Sicherungs-Software auf
den Windows-Servern das NAS-System als Sicherungsmedium
unterstützt. Wird mit Tools wie Robocopy gearbeitet, müssen
Administratoren darauf achten, dass Replikationsmechanismen
funktionieren.
Denn nicht bei allen Linux-NAS-Systemen lässt sich Robocopy
für die Replikation nutzen. Die replizierten Dateien werden nicht
erkannt, und Robocopy und Co beginnen bei jeder Sicherung von
vorne, anstatt nur die geänderten Dateien zu übertragen. Das be-
lastet das Netzwerk, die beteiligten Server und erhöht den Siche-
rungsaufwand und -Zeitraum enorm.
Hier sollte vor der Umstellung als ausführlich getestet werden.
Auch auf NAS-Systemen müssen Administratoren Rechte konfi-
gurieren und die Datensicherung anpassen. Sollen die Daten zu-
sätzlich noch vom NAS-System gesichert werden, muss auch das
angepasst und zusammen mit der Server-Sicherung koordiniert
werden.
Auf der anderen Seite eignen sich die meisten professionellen
NAS-Systeme auch als Dateiablage. Benutzer lassen sich auf den
meisten Systemen genauso anlegen, wie auf Linux-Servern. Das
liegt nicht zuletzt daran, dass viele NAS-Systeme ein angepass-
tes Linux-System verwenden.
Schattenkopien und Dateiversionen berücksichtigen
Windows-Server bieten mit dem Schattenkopiedienst die Möglich-
keit auch Versionen von Dateien auf den Dateiservern zu sichern.
Anwender können auf diesem Weg selbst ältere Versionen ihrer
Dateien wiederherstellen, wenn zum Beispiel fehlerhafte Ände-
rungen seit der letzten Datensicherung vorgenommen wurden.
Diese Technik funktioniert in Zusammenarbeit von Windows und
Linux nicht mehr. Das heißt, Administratoren müssen in diesem
Fall darauf achten, dass es auf den Linux-Servern entsprechend
Ersatz gibt, damit Anwender weiterhin Dokumente herstellen
können.
Mit Windows 8 hat Microsoft den Dateiversionsverlauf zur Ver-
fügung gestellt. Dieser kann Versionen von Dateien wiederum
CIOBRIEFING 08/2015
Seite 49
auf Linux-NAS-Systemen verfügbar machen. Anwender können
mit dem Dateiversionsverlauf ältere Versionen von Dokumenten
wiederherstellen, auch dann wenn die Sicherung auf NAS-Sys-
temen auf Basis von Linux installiert ist. Der Dateiversionsver-
lauf ist der Nachfolger der Schattenkopien in Windows 8/8.1 und
Windows 10.
Der Dateiversionsverlauf hat allerdings nichts mit Schattenkopien
auf Windows-Servern zu tun. Aber auch Linux kann im Grunde
genommen im laufenden Betrieb Versionen von Dateien sichern.
Dazu werden Snapshots genutzt. Hier sollten Administratoren
also vor der Migration vorarbeiten und die Funktion einrichten,
damit Anwender diese weiter nutzen können.
Desaster-Recovery beachten
Fallen Linux-Server aus, sind diese in den meisten Fällen schwe-
rer wiederherzustellen, als Windows-Server. Wenn genügend
Linux-Wissen im eigenen Unternehmen vorhanden ist, lässt sich
dieses Problem häufig umgehen, sobald aber das Wissen nicht
ausreicht, wird es schwerer.
Durch die enorme Vielzahl an verschiedenen Distributionen und
Versionen ist es schwer kompetente Hilfe zu finden, die bei einem
Ausfall helfen kann. Hier sollte also schon im Vorfeld gut über-
legt werden, wie eine eventuelle Wiederherstellung durchgeführt
werden soll. Es gibt aber auch im Linux-Bereich einige Werkzeu-
ge, die bei Wiederherstellungen helfen, vor allem wenn komplette
Images erstellt wurden.
Eine Alternative für Windows-Administratoren kann die Virtua-
lisierung von Linux-Servern auf Basis einer kostenlosen Lösung
wie Microsoft Hyper-V Server 2012 R2 oder VMware Hyper-
visor sein. Der Vorteil dabei ist, dass die VMs auf den Servern
recht leicht gesichert und wiederhergestellt werden können.
Der Nachteil ist, dass die Leistung teilweise etwas eingeschränkt
sein kann. Da durch die Virtualisierung aber die Ausfallsicher-
heit des Dateiservers gegeben ist, sollten sich Verantwortliche
diesen Schritt überlegen. ■ Thomas Joos
Regelmäßig
kostenlos lesen?
Die Ausgabe 09/2015 erscheint am 01.09.2015
+++ Jetzt anmelden auf +++
www.ip-insider.de/cio www.security-insider.de/cio
www.cloudcomputing-insider.de/ciowww.bigdata-insider.de/cio www.datacenter-insider.de/cio
www.storage-insider.de/cio
Technology-Update für IT-Manager
CIOBRIEFING

Weitere ähnliche Inhalte

Andere mochten auch

Visibilidad
VisibilidadVisibilidad
Visibilidad
asandoval792
 
Plan de negocios
Plan de negociosPlan de negocios
Plan de negocios
PAGOS8585
 
T22 imgmotherpres esti_galindofgk
T22 imgmotherpres esti_galindofgkT22 imgmotherpres esti_galindofgk
T22 imgmotherpres esti_galindofgk
estigalindo
 
Kundenpräsentation Navigation Zukunft
Kundenpräsentation Navigation ZukunftKundenpräsentation Navigation Zukunft
Kundenpräsentation Navigation Zukunft
Reutlinger General-Anzeiger
 
Konrad Zuse
Konrad Zuse Konrad Zuse
Konrad Zuse
coco_leblanc
 
Mensaje 86 Aniversario PCdelP-PR con Carlincaturas
Mensaje 86 Aniversario PCdelP-PR con CarlincaturasMensaje 86 Aniversario PCdelP-PR con Carlincaturas
Mensaje 86 Aniversario PCdelP-PR con Carlincaturas
Tania Roja
 
Ada 2 paola bloque 3
Ada 2 paola bloque 3Ada 2 paola bloque 3
Ada 2 paola bloque 3
Paolachable
 
Morning linedealfonsorodriguezveralar7dic14
Morning linedealfonsorodriguezveralar7dic14Morning linedealfonsorodriguezveralar7dic14
Morning linedealfonsorodriguezveralar7dic14
Winston1968
 
Big data - smart grid
Big data - smart gridBig data - smart grid
Big data - smart grid
Philipp Hechler
 
Pfarrei Suhr Projekt 2015
Pfarrei Suhr Projekt 2015Pfarrei Suhr Projekt 2015
Pfarrei Suhr Projekt 2015
Beziehungs_abc
 
Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"
Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"
Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"
Jan Schmidt
 
desarrollo profesional
desarrollo profesionaldesarrollo profesional
desarrollo profesional
yodell44
 
Practica 5.
Practica 5. Practica 5.
Practica 5.
elsa-valles
 
German Shayne Reichebach
German  Shayne  ReichebachGerman  Shayne  Reichebach
German Shayne Reichebachpharesr
 
Juego ranitas
Juego ranitasJuego ranitas
Juego ranitas
Marisol Ospina
 
CURSO
CURSOCURSO

Andere mochten auch (20)

Visibilidad
VisibilidadVisibilidad
Visibilidad
 
Plan de negocios
Plan de negociosPlan de negocios
Plan de negocios
 
2012_WWWPHOTOHIGHLIGHTS
2012_WWWPHOTOHIGHLIGHTS2012_WWWPHOTOHIGHLIGHTS
2012_WWWPHOTOHIGHLIGHTS
 
T22 imgmotherpres esti_galindofgk
T22 imgmotherpres esti_galindofgkT22 imgmotherpres esti_galindofgk
T22 imgmotherpres esti_galindofgk
 
Kundenpräsentation Navigation Zukunft
Kundenpräsentation Navigation ZukunftKundenpräsentation Navigation Zukunft
Kundenpräsentation Navigation Zukunft
 
Konrad Zuse
Konrad Zuse Konrad Zuse
Konrad Zuse
 
Zugvögel
ZugvögelZugvögel
Zugvögel
 
Mensaje 86 Aniversario PCdelP-PR con Carlincaturas
Mensaje 86 Aniversario PCdelP-PR con CarlincaturasMensaje 86 Aniversario PCdelP-PR con Carlincaturas
Mensaje 86 Aniversario PCdelP-PR con Carlincaturas
 
Ada 2 paola bloque 3
Ada 2 paola bloque 3Ada 2 paola bloque 3
Ada 2 paola bloque 3
 
Morning linedealfonsorodriguezveralar7dic14
Morning linedealfonsorodriguezveralar7dic14Morning linedealfonsorodriguezveralar7dic14
Morning linedealfonsorodriguezveralar7dic14
 
SD3000
SD3000SD3000
SD3000
 
Big data - smart grid
Big data - smart gridBig data - smart grid
Big data - smart grid
 
Pfarrei Suhr Projekt 2015
Pfarrei Suhr Projekt 2015Pfarrei Suhr Projekt 2015
Pfarrei Suhr Projekt 2015
 
Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"
Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"
Vernetzte Öffentlichkeiten 2013, Sitzung 12, "Messen, Methoden, Big Data"
 
desarrollo profesional
desarrollo profesionaldesarrollo profesional
desarrollo profesional
 
Practica 5.
Practica 5. Practica 5.
Practica 5.
 
German Shayne Reichebach
German  Shayne  ReichebachGerman  Shayne  Reichebach
German Shayne Reichebach
 
Prezent
PrezentPrezent
Prezent
 
Juego ranitas
Juego ranitasJuego ranitas
Juego ranitas
 
CURSO
CURSOCURSO
CURSO
 

Ähnlich wie CIO Briefing - Technologie-Update für IT-Manager

NetTask DE Reseller Models Introduction Cloud Services
NetTask DE Reseller Models Introduction Cloud ServicesNetTask DE Reseller Models Introduction Cloud Services
NetTask DE Reseller Models Introduction Cloud ServicesNetTask GmbH
 
Whitepaper-QCT-OmniPOD.pdf
Whitepaper-QCT-OmniPOD.pdfWhitepaper-QCT-OmniPOD.pdf
Whitepaper-QCT-OmniPOD.pdf
HarryJacob6
 
abtis modernisiert Netzwerkinfrastruktur für Spedition Wackler
abtis modernisiert Netzwerkinfrastruktur für Spedition Wacklerabtis modernisiert Netzwerkinfrastruktur für Spedition Wackler
abtis modernisiert Netzwerkinfrastruktur für Spedition Wackler
bhoeck
 
devolo Smart Home Forschungsprojekt ACEMIND
devolo Smart Home Forschungsprojekt ACEMIND devolo Smart Home Forschungsprojekt ACEMIND
devolo Smart Home Forschungsprojekt ACEMIND
resultsrelations
 
Seafile Whitepaper: WITCOM Enterprise Filesync and Share
Seafile Whitepaper: WITCOM Enterprise Filesync and ShareSeafile Whitepaper: WITCOM Enterprise Filesync and Share
Seafile Whitepaper: WITCOM Enterprise Filesync and Share
Christoph Dyllick-Brenzinger
 
Success Story Seafile + WiTCOM
Success Story Seafile + WiTCOMSuccess Story Seafile + WiTCOM
Success Story Seafile + WiTCOM
Ralf Dyllick
 
Digitalisierung der Netzprozesse am Beispiel eines Versorgerverbundes
Digitalisierung der Netzprozesse am Beispiel eines VersorgerverbundesDigitalisierung der Netzprozesse am Beispiel eines Versorgerverbundes
Digitalisierung der Netzprozesse am Beispiel eines Versorgerverbundes
iTiZZiMO
 
30c3 Der Kampf um Netzneutralität
30c3 Der Kampf um Netzneutralität30c3 Der Kampf um Netzneutralität
30c3 Der Kampf um Netzneutralität
Thomas Lohninger
 
Presseinformation: numeo investiert in Xirrus-Technologie
Presseinformation: numeo investiert in Xirrus-TechnologiePresseinformation: numeo investiert in Xirrus-Technologie
Presseinformation: numeo investiert in Xirrus-TechnologieMarcus Schlueter
 
Telefónica KITE Plattform
Telefónica KITE PlattformTelefónica KITE Plattform
Christoph Mertens_IDSA_Introduction to Data Spaces.pptx
Christoph Mertens_IDSA_Introduction to Data Spaces.pptxChristoph Mertens_IDSA_Introduction to Data Spaces.pptx
Christoph Mertens_IDSA_Introduction to Data Spaces.pptx
FIWARE
 
Peter Hanke (Netapp Austria)
Peter Hanke (Netapp Austria)Peter Hanke (Netapp Austria)
Peter Hanke (Netapp Austria)
Agenda Europe 2035
 
UC-Serie Wildix funkschau - Cloud-Lösungen
UC-Serie Wildix funkschau - Cloud-Lösungen UC-Serie Wildix funkschau - Cloud-Lösungen
UC-Serie Wildix funkschau - Cloud-Lösungen
Wildix
 
IfCC Institut für Cloud Computing
IfCC Institut für Cloud ComputingIfCC Institut für Cloud Computing
IfCC Institut für Cloud Computing
Connected-Blog
 
m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)
m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)
m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)
IoT & M2M Lösungen von Telefónica Deutschland
 
Präsentation GSE Jahreshauptversammlung 2015 05-12
Präsentation GSE Jahreshauptversammlung 2015 05-12Präsentation GSE Jahreshauptversammlung 2015 05-12
Präsentation GSE Jahreshauptversammlung 2015 05-12
LineMetrics
 
Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)
Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)
Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)
Praxistage
 
IT und Telekommunikation im Care-Sector
IT und Telekommunikation im Care-SectorIT und Telekommunikation im Care-Sector
IT und Telekommunikation im Care-Sector
Peter Wolff
 

Ähnlich wie CIO Briefing - Technologie-Update für IT-Manager (20)

NetTask DE Reseller Models Introduction Cloud Services
NetTask DE Reseller Models Introduction Cloud ServicesNetTask DE Reseller Models Introduction Cloud Services
NetTask DE Reseller Models Introduction Cloud Services
 
Whitepaper-QCT-OmniPOD.pdf
Whitepaper-QCT-OmniPOD.pdfWhitepaper-QCT-OmniPOD.pdf
Whitepaper-QCT-OmniPOD.pdf
 
abtis modernisiert Netzwerkinfrastruktur für Spedition Wackler
abtis modernisiert Netzwerkinfrastruktur für Spedition Wacklerabtis modernisiert Netzwerkinfrastruktur für Spedition Wackler
abtis modernisiert Netzwerkinfrastruktur für Spedition Wackler
 
cio vortrag mobility
cio vortrag mobilitycio vortrag mobility
cio vortrag mobility
 
devolo Smart Home Forschungsprojekt ACEMIND
devolo Smart Home Forschungsprojekt ACEMIND devolo Smart Home Forschungsprojekt ACEMIND
devolo Smart Home Forschungsprojekt ACEMIND
 
Seafile Whitepaper: WITCOM Enterprise Filesync and Share
Seafile Whitepaper: WITCOM Enterprise Filesync and ShareSeafile Whitepaper: WITCOM Enterprise Filesync and Share
Seafile Whitepaper: WITCOM Enterprise Filesync and Share
 
Success Story Seafile + WiTCOM
Success Story Seafile + WiTCOMSuccess Story Seafile + WiTCOM
Success Story Seafile + WiTCOM
 
Digitalisierung der Netzprozesse am Beispiel eines Versorgerverbundes
Digitalisierung der Netzprozesse am Beispiel eines VersorgerverbundesDigitalisierung der Netzprozesse am Beispiel eines Versorgerverbundes
Digitalisierung der Netzprozesse am Beispiel eines Versorgerverbundes
 
30c3 Der Kampf um Netzneutralität
30c3 Der Kampf um Netzneutralität30c3 Der Kampf um Netzneutralität
30c3 Der Kampf um Netzneutralität
 
Wie sich SaaS und PaaS in Unternehmen durchsetzen wird
Wie sich SaaS und PaaS in Unternehmen durchsetzen wirdWie sich SaaS und PaaS in Unternehmen durchsetzen wird
Wie sich SaaS und PaaS in Unternehmen durchsetzen wird
 
Presseinformation: numeo investiert in Xirrus-Technologie
Presseinformation: numeo investiert in Xirrus-TechnologiePresseinformation: numeo investiert in Xirrus-Technologie
Presseinformation: numeo investiert in Xirrus-Technologie
 
Telefónica KITE Plattform
Telefónica KITE PlattformTelefónica KITE Plattform
Telefónica KITE Plattform
 
Christoph Mertens_IDSA_Introduction to Data Spaces.pptx
Christoph Mertens_IDSA_Introduction to Data Spaces.pptxChristoph Mertens_IDSA_Introduction to Data Spaces.pptx
Christoph Mertens_IDSA_Introduction to Data Spaces.pptx
 
Peter Hanke (Netapp Austria)
Peter Hanke (Netapp Austria)Peter Hanke (Netapp Austria)
Peter Hanke (Netapp Austria)
 
UC-Serie Wildix funkschau - Cloud-Lösungen
UC-Serie Wildix funkschau - Cloud-Lösungen UC-Serie Wildix funkschau - Cloud-Lösungen
UC-Serie Wildix funkschau - Cloud-Lösungen
 
IfCC Institut für Cloud Computing
IfCC Institut für Cloud ComputingIfCC Institut für Cloud Computing
IfCC Institut für Cloud Computing
 
m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)
m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)
m2m Telefonica Deutschland / Keynote: Internet der Dinge (Kai Brasche)
 
Präsentation GSE Jahreshauptversammlung 2015 05-12
Präsentation GSE Jahreshauptversammlung 2015 05-12Präsentation GSE Jahreshauptversammlung 2015 05-12
Präsentation GSE Jahreshauptversammlung 2015 05-12
 
Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)
Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)
Frank Schlotter, Mag. Christoph Domanig (Active Business Consult – Cenit)
 
IT und Telekommunikation im Care-Sector
IT und Telekommunikation im Care-SectorIT und Telekommunikation im Care-Sector
IT und Telekommunikation im Care-Sector
 

CIO Briefing - Technologie-Update für IT-Manager

  • 1. Technology-Update für IT-Manager powered by CIOBRIEFING 08/2015 +++ Offloadingstrategien für ­Mobilfunk +++ Sechs Tipps für die erfolgreiche Migration von Datenbanken +++ Big Data ­Protection statt Big Data Loss +++ IT-Compliance ist mehr als ­Datenschutz +++ Das DARZ als Hyperscale-­Multi-Cloud-Broker +++ Vermietete Spektren und neue ­Modulationen sollen 5G antreiben +++ Die Hybrid Cloud ist zum ­Normalfall geworden +++ So setzen Sie Graphen in ­Big-Data-Umgebungen ein +++ Lässt sich IT-Sicherheit per ­Gesetz vorschreiben? +++ Von CoreOS kommt das ­Betriebssystem für ­Cloud-Rechenzentren +++ Dateiserver von Windows nach Linux migrieren +++ ISSN 2364-3188 www.ciobriefing.de
  • 2. MANAGEMENT & STRATEGIE Offloadingstrategien für ­Mobilfunk.............................................................3 Sechs Tipps für die erfolgreiche Migration von Datenbanken.....................7 Big Data Protection statt Big Data Loss.................................................. 11 IT-Compliance ist mehr als ­Datenschutz.................................................14 Das DARZ als Hyperscale-­Multi-Cloud-Broker........................................18 TECHNOLOGIE & ZUKUNFT Vermietete Spektren und neue Modulationen sollen 5G antreiben...........24 Die Hybrid Cloud ist zum ­Normalfall geworden........................................28 So setzen Sie Graphen in ­Big-Data-Umgebungen ein.............................31 Lässt sich IT-Sicherheit per ­Gesetz vorschreiben?...................................35 Von CoreOS kommt das ­Betriebssystem für ­Cloud-Rechenzentren.........39 Dateiserver von Windows nach Linux migrieren.......................................44 CIOBRIEFING 08/2015 IMPRESSUM: Vogel IT-Medien GmbH August-Wessels-Str. 27 86156 Augsburg Tel.: +49(0)821-2177-0 Fax: +49(0)821-2177-150 Email: zentrale@vogel-it.de Internet: www.vogel-it.de Handelsregister Augsburg HRB 1 19 43 Umsatzsteueridentifikationsnummer: DE 127502716 Geschäftsführer: Werner Nieberle Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV: Nico Litzel, Florian Karlstetter, Ulrike Ostler, Andreas Donner, Peter Schmitz, Rainer Graefen (Anschrift siehe Verlag) Vogel IT-Medien Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991 gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstech- nologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an. Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de, DataCenter-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de. Vogel Business Media Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschrif- ten und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.
  • 3. CIOBRIEFING 08/2015 Seite 3 Wie WLAN, UMTS und LTE immer weiter zusammenrücken Offloadingstrategien für ­Mobilfunk Trotz Digitaler Dividende wird es für Mobilfunkprovider eng im Äther. IP-Insider zeigt, welche Strategien und Techniken die rasant steigenden Breitbandanforderun- gen der mobilen Gesellschaft zu verträglichen Kosten meistern sollen. Nicht mehr als den sprichwörtlichen Tropfen auf heißem Stein dürfte WLAN-Ausrüster Ruckus Wireless (Ruckus) in der ak- tuellen Versteigerung freier Frequenzen durch die Bundesnetz- agentur sehen. Vom Anbieter zitierte Zahlen der Signals Research Group prognostizieren nämlich ein wachsendes „Capacity Gap“; das heißt: die Nachfrage nach mobilen Datendiensten wächst mindestens doppelt so schnell wie neue Basisstationen, Spektren oder Funkstandards diesen Bedarf zu decken vermögen. Zudem ist der Betrieb von Mobilfunknetzen vergleichsweise teu- er. Das bezieht sich nicht nur auf öffentlichkeitswirksame Fre- quenzversteigerungen – die bei der Bundesnetzagentur eingegan- genen Höchstgebote für „Mobiles Breitband – Projekt 2016“ summierten sich schließlich auf 5,1 Milliarden Euro. Hinzu kom- men beträchtliche Ausgaben für Errichtung und Betrieb entspre- chender Infrastrukturen. Nachfolgend sollen verschiedene An- sätze skizziert werden, die sich eben dieser Problematiken annehmen. Die Nachfrage an ­Datendiensten steigt schneller als Makro­ zellen skalieren. ­Offloading-Strategien könnten das „Capacity Gap“ verkleinern. Bild:Ruckus
  • 4. CIOBRIEFING 08/2015 Seite 4 Wenig neu, aber für bestimmte Szenarien noch immer aktuell sind Femtozellen – also Mobilfunkbasen mit vergleichsweise wenig Sendeleistung und Reichweite. Die direkt beim Kunden installierten Basisstationen ergänzen Macro-Cell-Funktürme und sollen so die Versorgung mobiler Endgeräte innerhalb von Gebäuden sicherstellen. Die kurze Reichweite der Femtozellen kann dabei als Vorteil gelten, weil damit auch das Störpotenzial sinkt. Somit können knappe Frequenzen also effizient genutzt werden. WLAN und Mobilfunk nebeneinander... Mittlerweile gibt es derlei Funkzellen sogar mit eingebauten WLAN-Access-Points. Ein Beispiel hierfür ist der „Nokia Flexi Zone Indoor Pico with Ruckus“. Die Lösung ist jedoch als zwei Geräte in einem Gehäuse zu verstehen und nicht mit dem unter „Hotspot 2.0“ bekannten Roaming zwischen WLAN und Mobil- funk zu verwechseln. ...und miteinander „Hotspot 2.0“ soll Mobilfunkinfrastrukturen derweil per naht- losem Offloading entlasten. Die auch als „Passport“ bekannte Technik nutzt dabei den Standard 802.11u und erleichtert Mobil- funkkunden die Einwahl in WLANs. Nutzer können sich dabei nicht nur über Name und Passwort oder X.509-Zertifikate au- thentifizieren. Zusätzlich sieht das Verfahren eine nahtlose, SIM- basierende Authentifizierung vor. Die per Hotspot 2.0 bereitgestellte Infrastruktur muss nicht vom Provider des Endkunden selbst betrieben werden. Mit entspre- chenden Roaming-Abkommen können Mobilfunkanbieter also auf bestehende WLANs anderer Anbieter zurückgreifen und auch Sprachdienste über entsprechende Dienstgüten absichern (QoS Mapping von Differentiated Services Codepoints auf Lay- er-2-Luftschnittstelle). Das spart im Idealfall nicht nur Kosten, sondern verhindert auch redundante und sich womöglich gegen- seitig störende Netze an einem Ort. Sinnvoll ist eine solche Vorgehensweise an Plätzen mit hoher Personendichte. Ruckus hat zur Fußball-WM 2014 beispielsweise ein Konsortium vier brasilianischer Netzbetreiber mit WiFi-Sys- temen beliefert, die in Turnierstadien installiert wurden. An den Veranstaltungsorten wurde schließlich dreimal mehr Traffic per WLAN abgewickelt als per 3G/4G.
  • 5. CIOBRIEFING 08/2015 Seite 5 Flexible Datenkanäle für verschiedene Tarife Softwareanbieter Amdocs bestätigt: 80 Prozent der mobilen Da- tennutzung findet dann statt, wenn Nutzer wenig mobil sind. Mit seinen „Smart Net“-Lösungen hilft der Hersteller Anbietern da- bei, diese Erkenntnisse in passende Geschäftsmodelle umzuset- zen. Auf Smartphones der Endkunden läuft hierfür ein „Smart Net Agent“, der abhängig von Tarif und Netzauslastung die passende Netzanbindung realisiert – also dynamisch zwischen Mobilfunk und in der Umgebung vorhandenen Access Points umschaltet. WLAN als Femto-Ersatz Auf angepasste Clients setzt auch der britische Provider EE. Der hatte Anfang April ein WiFi-Calling genanntes Angebot gestar- tet. Ein entsprechend angepasstes Smartphone vorausgesetzt, können Anwender damit auch über WLANs telefonieren. Im Gegensatz zu klassischen Over-The-Top-Diensten (OTT) dürfen Anwender dabei die reguläre Telefonieschnittstelle ihres Handys nutzen – müssen also keinen zusätzlichen Messenger starten, wie das bei WhatsApp oder Skype der Fall wäre. Ein von EE vorgeschlagenes Einsatzgebiet ähnelt dabei dem einer Femto-Zelle: In ländlichen Regionen soll WiFi-Calling für zuver- lässige Telefonate per Handy sorgen. Das dürfte freilich nur bei einem entsprechend eng ausgebauten Breitbandnetz funktionieren. Interessanter ist derweil das per Imagefilm dokumentierte Szena- rio per WLAN telefonierender Menschen in der Londoner U- Bahn. Warum EE hier allerdings nicht auf zuverlässige Mobil- funkfrequenzen setzt, wollte uns der Anbieter auf Nachfrage nicht verraten. Schließlich könnte man annehmen, dass die offe- nen WLAN-Frequenzen deutlich störanfälliger sind als exklusiv zugewiesene Mobilfunkbänder. Zudem sollte die Reichweite des 5-GHz-Spektrums kürzer ausfallen als die der niedrigeren Mo- bilfunkfrequenzen. Branchenkenner gehen allerdings davon aus, dass eine WLAN-Infrastruktur deutlich kostengünstiger einzu- führen ist als „echte“ Mobilfunktechnik. EE launches the UK’s first WiFi Calling service YouTube
  • 6. CIOBRIEFING 08/2015 Seite 6 Protokolle gehen fremd Statt zwischen WiFi und Mobilfunk zu vermitteln, soll LTE-U direkt auf die bislang von WLAN genutzten Frequenzen zugrei- fen. Der aktuell vom 3rd Generation Partnership Project (3GPP) und verschiedenen Herstellern diskutierte Ansatz ist dabei nicht ohne Probleme, denn mit zunehmender Verbreitung von 5-GHz- WLANs dürfte auch das gegenseitige Störpotential ansteigen. Trotz allem hatte Huawei bereits im Vorjahr eine U-LTE genannte Lösung präsentiert, die (kostenpflichtig und exklusiv) lizenzierte Mobilfunkfrequenzen und frei nutzbare Bänder zusammenfasst, um die Nutzererfahrung zu verbessern. Ob und wann LTE-U tatsächlich auf den Markt kommt, ist aber noch nicht abzusehen. Bislang ist sogar noch unklar, ob inwie- weit klassische Terminals für das Verfahren taugen. Amdocs geht davon aus, dass sich zumindest einige der derzeit erhältli- chen Smartphones per Software-Update nachrüsten lassen; laut Ruckus brauche es hierfür eine neue Hardware. Die Chipherstel- ler Intel und Broadcom wollten uns auf Nachfrage nichts über ihre Pläne zu möglichen LTE-U-Chipsets verraten; Qualcomm ignorierte unsere diesbezügliche Anfrage ohne jegliche Reakti- on. ■ Dirk Srocke Mehr zum Thema Netzwerke finden Sie auf www.ip-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 7. CIOBRIEFING 08/2015 Seite 7 Ab in die Cloud, aber mit ­Bodenhaftung! Sechs Tipps für die erfolgreiche Migration von Datenbanken Heutzutage scheint jedes Unternehmen zu prüfen, was es in die Cloud verlagern kann – oder muss. Dabei ist die Cloud gar nicht für alle Anwendungen geeignet: Wie bei jeder anderen Technologie müssen auch hier die Vor- und Nachteile jeweils sorgfältig abgewogen werden. IT-Profis müssen also erst einmal herausfinden, in welchen Fällen die Cloud auf welche Weise für ihre Anwendungen vorteilhaft ist. Datenbanken stellen bei der Bewertung der Cloud-Eignung und der Migrationsplanung in der Regel das am schwersten ein- zuschätzende Element dar. Jeder Anwendung liegen aber nun einmal Daten zugrunde. Daher muss unbedingt sichergestellt werden, dass Datenbanken sich gut in die Cloud integrieren. Nachfolgend stellen wir einige Konzepte und Empfehlungen vor, die bei der Migration von Datenbanken in die Cloud beachtet werden sollten. 1. Leistung – eine Sorge weniger Es sind hauptsächlich Leistungsbedenken, die IT-Profis davon ab- halten, Datenbanken in virtuelle Umgebungen oder die Cloud zu verlagern. Allerdings sind sie oft unbegründet, da die Leistungs- anforderungen vieler Anwendungen von vielen Cloud-Architek- turen mehr als erfüllt werden. In den vergangenen drei Jahren Mit entsprechender ­Vorbereitung ist der Sprung – sprich die ­Migration – ganzer ­Datenbanken in die Cloud kein gefährliches Wagnis. Bild:GregEpperson,Fotolia
  • 8. CIOBRIEFING 08/2015 Seite 8 hat die Cloud-Technologie große Fortschritte gemacht und unter- stützt jetzt mehrere teils hochleistungsfähige Bereitstellungsop- tionen für Datenbanken. 2. Transparenz – besser entscheiden Leistungsprobleme werden häufig auf dem einfachsten Weg ge- löst, nämlich indem die Hardware aufgestockt wird. Doch ist diese Vorgehensweise nicht der Weisheit letzter Schluss – insbesondere nicht aus Kostenperspektive. Sinnvoller ist eher ein umfassendes Monitoring. Mithilfe eines Tools für die Datenbanküberwachung werden die tatsächlichen Datenbank- und Ressourcenanforderun- gen einer Anwendung erfasst. Dazu zählen: CPU, Storage, Ar- beitsspeicher, Latenz und Storage-Durchsatz (IOPS ist eine mit- unter trügerische Messgröße); das geplante Storage-Wachstum und Backup-Anforderungen; Ressourcenfluktuation auf Grund- lage der Anwendungsauslastung in Spitzenzeiten oder bei Batch- Prozessen; und nicht zuletzt Datenverbindungsabhängigkeiten – denn neben den Verbindungen zu den eigentlichen Anwendun- gen können noch weitere Anforderungen hinsichtlich Datenaus- tausch, Backups und eingehender Daten bestehen. Zu den Vorteilen der Cloud gehört die Möglichkeit, Ressourcen bei Mehr- und Minderbedarf dynamisch zu skalieren. Eine Cloud- Bereitstellung muss also nicht nur keine Leistungsbedenken aus- lösen, sondern kann im Gegenteil die Anwendungsverantwortli- chen mit der Tatsache beruhigen, dass sich jeder Anwendung die den Leistungsanforderungen entsprechende Ressourcenkapazität zuweisen lässt. Voraussetzung hierfür ist allerdings, dass diese Anforderungen bekannt sind. 3. Testen – nicht vergessen! Weitere Vorteile der Cloud – und zwei der offensichtlichsten – sind die geringen Kosten und die vielfältigen Zugriffsmöglich- keiten, die mit ihr einhergehen. Selbst wenn ein Unternehmen noch nicht an einem Migrationsplan arbeitet, sollte es sich bereits mit Cloud-Datenbanken vertraut machen. Hier hilft experimen- tieren – und die gesammelten Eindrücke für die Migrationsiniti- ative zu nutzen. Es dauert nur etwa eine Stunde, eine Datenbank in der Cloud einzurichten. Daher sollten interessierte Unterneh- men das also einfach einmal ausprobieren, testen und anschlie- ßend löschen. Die Kosten sind minimal. Mit etwas mehr Zeit und Geld können sie auch die Kopie einer Produktionsdatenbank in
  • 9. CIOBRIEFING 08/2015 Seite 9 die Cloud verschieben, um dort die Bereitstellungsoptionen zu testen und herauszufinden, wie sich speziell ihre Anwendung und Datenbank in der Cloud verhalten werden. 4. Bereitstellung – das Modell sorgfältig planen Die Bereitstellung kann in der Cloud auf verschiedene Weise er- folgen. Daher müssen Verantwortliche alle diesbezüglichen Opti- onen prüfen. So bietet DBaaS („Database as a Service“) als Ma- naged Service eine einfache Bereitstellung und Automatisierung. IaaS („Infrastructure as a Service“) dagegen bietet für Admi- nistratoren mehr Steuerungsoptionen beim Ausführen von Da- tenbankinstanzen auf Cloud-Servern. Gleichzeitig bleibt auch die Oberfläche und Funktionsweise des herkömmlichen On-Premise- Deployments erhalten. Darüber hinaus gibt es mehrere Storage- Optionen, zum Beispiel Block-Storage, SSDs, garantierte IOPS- Werte, dedizierte Verbindungen und für Datenbanken optimierte Instanzen. Da Unternehmen sich Cloud-Ressourcen meist mit anderen Nutzern teilen, ist es außerdem notwendig, neben der theoretischen Spitzenleistung auch die Konsistenz und Variabili- tät der Leistung zu testen. 5. Migration – den Sprung wagen Kein Migrationsplan kann alle Anwendungsfälle abdecken. Es empfiehlt sich daher, dem Cloud-Anbieter einfach die Unterneh- mensumgebung zu erklären und ihn um seinen Rat zu bitten, an- statt sich anhand einer Standardstrategie in die Cloud zu wagen. Am besten duplizieren die Verantwortlichen die eigentliche Um- gebung in der Cloud, um die Ausführung zu testen. Erst wenn alles reibungslos läuft, sollten Sie auf die Produktionsanwendung umstellen. Zudem ist es ratsam, über die Maßnahmen zur Erfül- lung der Datenwiederherstellungs- und Backup-Anforderungen hinaus darauf zu achten, dass sich Replikations- oder Standby- Server nicht in derselben Region wie die primären Server befin- den. 6. Überwachen und optimieren Ebenso wie On-Premise-Deployments müssen auch Cloud-Um- gebungen im Betrieb überwacht und optimiert werden. Tools für die Datenbankoptimierung analysieren die Wartezeit und beschleunigen Datenbankvorgänge durch Ressourcenkorrelati- on erheblich. Außerdem melden sie Fehler, ehe diese zu Proble- men werden, steigern die Anwendungsleistung und überwachen
  • 10. CIOBRIEFING 08/2015 Seite 10 Ressourcen zur Unterstützung der Planung. Ebenfalls hilfreich ist ein Tool für die Leistungsanalyse: Es erlaubt Datenbankad- ministratoren, Entwicklern und dem IT-Betriebsteam, sauber zu programmieren und die Ursache bei Leistungsproblemen einer Datenbank zu identifizieren (z. B. Abfragen, Storage-Ereignisse, Serverressourcen). Der neue Weg Die Cloud entwickelt sich schnell weiter. Sie wird ständig attrak- tiver, zuverlässiger und flexibler. Noch vor fünf Jahren konnten sich die meisten IT-Spezialisten nicht vorstellen, welche Verän- derungen die Cloud bewirken würde. Und es ist anzunehmen, dass sie sich in derselben Geschwindigkeit auch über die nächs- ten fünf Jahre weiterentwickeln wird. Dies ist also nur ein wei- terer Grund, sich so bald wie möglich mit der Cloud vertraut zu machen. Auf dem Weg in die Cloud werden Verantwortliche alte Maximen und Konzepte über Bord werfen müssen, doch am Ende erwarten sie und ihre Anwendungen signifikante Vorteile. ■ Gerardo Dada Mehr zum Thema Cloud Computing finden Sie auf www.cloudcomputing-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 11. CIOBRIEFING 08/2015 Seite 11 Datenverfügbarkeit bei Big Data Big Data Protection statt Big Data Loss Neben der Verschlüsselung und der Integritätskontrolle ist es die Gewährleistung der Verfügbarkeit, die die Da- tensicherheit bei Big Data ausmacht. Spezielle Backup- Lösungen helfen dabei, große Datenverluste zu vermei- den. Nicht nur die Datenberge in Unternehmen wachsen beständig, auch die Datenverluste werden immer größer. So ist die Daten- verlustrate seit 2012 um 400 Prozent gestiegen. In nur einem Jahr haben Unternehmen in Deutschland durch Datenverluste ganze 33,6 Milliarden Euro verloren, so der EMC Data Protection In- dex. Rund Dreiviertel der befragten Unternehmen können nicht zuverlässig sagen, ob sie Daten nach einem Ausfall wiederher- stellen könnten. Die Probleme mit Backup und Recovery werden durch Big Data nicht kleiner, im Gegenteil: 43 Prozent der befragten Unterneh- men in Deutschland haben noch keinen Disaster-Recovery-Plan für Big Data. 53 Prozent halten den Datenschutz und die Daten- sicherung bei Big Data für schwierig. Bei der Bedeutung, die Big Data für viele geschäftliche Bereiche erlangt, muss die Lücke bei der Verfügbarkeit von Big Data dringend geschlossen werden, sonst drohen noch massivere Datenverluste als bisher. Der Mittelstand hat besonders Probleme bei Backups Wie eine Umfrage von NetApp ergab, ist sich nur ein Drittel der mittelständischen Unternehmen sicher, dass sie ihre Daten wie- Zu den Hauptfragen, die sich Unternehmen bei Big Data stellen, ­gehört die Frage nach Backup und Recovery in aller Regel dazu. Bild:Asigra
  • 12. CIOBRIEFING 08/2015 Seite 12 derherstellen können. Zwei Drittel führen keine Tests im Bereich Recovery durch, bei zehn Prozent fehlen sogar grundlegende Backup-Prozesse. Gleichzeitig sehen 95 Prozent eine starke Ab- hängigkeit von der Verfügbarkeit ihrer Daten, 51 Prozent fürch- ten einen Stillstand ihrer Systeme bei Datenverlust. 47 Prozent der befragten Mittelständler machen (lediglich) täglich eine Voll- sicherung. Durch die Entwicklung hin zu immer größeren Daten- mengen und die hohe Dynamik in der Datenverarbeitung könnte dieses Zeitfenster bald jedoch unzureichend sein. Big Data stellt hohe Anforderungen an Backup und Recovery Welche Herausforderungen bei Backup und Recovery von Big Data bestehen, ergibt sich aus den Besonderheiten von Big-Da- ta-Verfahren: Bei Big Data werden große Mengen unterschied- licher Datenarten verarbeitet, wobei die Ergebnisse sehr schnell vorliegen sollen (Echtzeit-Anwendungen). Für eine Backup- und Recovery-Lösung bedeutet dies, dass sie sich durch hohe Flexi- bilität, hohe Speicherkapazität, hohe Skalierbarkeit und eine sehr schnelle Reaktionszeit auszeichnen muss. Die Frequenz der Da- tensicherungen muss deutlich höher liegen können als bei her- kömmlichen Backup-Szenarien. Deshalb muss zum Beispiel der RTO-Wert (Recovery Time Ob- jective), also die Zeitspanne vom Schaden bis zur völligen Wie- derherstellung, deutlich besser sein als bei einer herkömmlichen Recovery-Lösung. Andernfalls sind die negativen Auswirkungen bei den Echtzeit-Anwendungen zu hoch. Der RPO-Wert (Reco- very Point Objective), also die Zeitspanne zwischen der letzten Datensicherung und dem Systemausfall, muss bei Big Data sehr klein sein, um die möglichen, großen Datenverluste vermeiden zu können. Backup-Lösungsanbieter haben auf Big Data reagiert Ein Blick auf den Markt für Backup- und Recovery-Lösungen zeigt, dass es bereits eine Reihe von Angeboten speziell für die Sicherung und Wiederherstellung großer Datenmengen gibt. HP StoreOnce Backup zum Beispiel bietet eine schnelle Sicherung und Wiederherstellung, eine flexible Erweiterbarkeit, eine zent- rale Administration auch für verteilte Daten sowie eine spezielle Ausfallsicherheit. Die Symantec NetBackup Platform nimmt sich ebenfalls der Besonderheiten von Big Data an, ist also laut An- bieter schnell, skalierbar und flexibel einsetzbar.
  • 13. CIOBRIEFING 08/2015 Seite 13 Die Lösung von Sepaton (mittlerweile von Hitachi Data Systems übernommen) hat ebenso Big-Data-Umgebungen im Fokus und berücksichtigt das stetige Datenwachstum bei gleichzeitig immer kürzeren Backup-Zyklen. Laut Anbieter liegt die Backup-Perfor- mance bei bis zu 80 Terabyte pro Stunde. Die Wiederherstellung des letzten Backups soll in Minutenschnelle erfolgen. Commvault Simpana Simpana OnePass bietet Funktionen für Archivierung, Backup und Berichterstattung, eine zentrale Administration, verkürzt die Backup-Zeiten und unterstützt bei der Erfüllung von Com- pliance-Vorgaben. Der Simpana ContentStore bildet eine zentrale Stelle für die Sicherung und fristgerechte Löschung der Daten. Die EMC-Isilon-Archivierungslösung für Big Data ist Teil des EMC-Isilon-Scale-out-Speichers und skaliert auf bis zu 20 Peta- byte für Datensicherungen auf Vier-Terabyte-Laufwerken. Neben der Skalierbarkeit ist es das einfache Speichermanagement und die Unterstützung von Compliance-Vorgaben, die diese Lösung zur Big-Data-Lösung machen. Für die Funktionen im Bereich Backup und Disaster Recovery steht die EMC Isilon SnapshotIQ- und SyncIQ-Software zur Verfügung. Ein weiteres Beispiel ist die Cloudian Object Storage Software for Enterprise Backup. Die Lösung verspricht schnelle Backups, eine hohe Skalierbarkeit in den Bereich von mehreren Hundert Petabyte und eine automatische Behandlung von Hardware- und Netzwerkfehlern. Fazit Backup und Recovery für Big-Data-Umgebungen sind anspruchs- voll, aber durchaus technisch realisierbar. Der große Datenverlust kann nicht nur vermieden werden, er muss es auch. ■ Oliver Schonschek
  • 14. CIOBRIEFING 08/2015 Seite 14 Haftungsrisiken IT-Compliance ist mehr als ­Datenschutz So wichtig das Thema Datenschutz auch ist: Es gibt weit- aus mehr gesetzliche Compliance-Vorgaben und Bran- chenstandards, die die Informationssicherheit betreffen. Angesichts der Haftungsrisiken sollten sich Führungs- kräfte dessen stets bewusst sein. Die Zeiten, in denen der Datenschutz ein Schattendasein fristete, sind lange vorbei. Inzwischen sind die Schlagzeilen ebenso ge- füllt mit Themen rund um den Datenschutz wie die politischen Diskussionen und die IT-Sicherheitskonferenzen. Laut dem aktuellem eco Report „IT Sicherheit 2015“ sehen 88 Prozent der befragten Sicherheitsexperten den „Datenschutz“ als das wichtigste Sicherheitsthema für 2015 an. Es besteht kein Zweifel, dass noch zahlreiche Aufgaben zu bewältigen sind, da- mit die Mehrzahl der Unternehmen die Vorgaben des Datenschut- zes tatsächlich umgesetzt hat. Es kommt nicht von ungefähr, dass die Tätigkeitsberichte der Aufsichtsbehörden für den Datenschutz regelmäßig Mängelbe- richte über den Datenschutz in Unternehmen enthalten. Aller- dings wäre es auch verfehlt, wenn sich die Geschäftsleitung eines Unternehmens ganz auf die Fragen des Datenschutzes konzent- riert, wenn es um die rechtlichen und vertraglichen Forderungen zur IT-Sicherheit geht. IT-Sicherheit muss vielen Forderungen gerecht werden Oftmals ist sich das Management der Vielfalt der IT-Sicherheits- anforderungen und der damit verbundenen Risiken nicht bewusst In Deutschland rücken Cyberrisiken unter die Top 10 Unternehmens­ risiken, wie das Allianz Risk Barometer 2015 zeigt. Bild:AllianzGlobalCorporateSpecialty
  • 15. CIOBRIEFING 08/2015 Seite 15 genug. Einer der Gründe dafür ist die mangelnde Kommunika- tion zwischen den IT-Sicherheitsverantwortlichen und den Ver- tretern der Geschäftsleitung, wie eine Ponemon-Studie deutlich gemacht hat. Weitere Probleme bereitet die Komplexität der rechtlichen Vorga- ben für die IT-Sicherheit. Ein ganzes Bündel an Gesetzen, Ver- ordnungen, Richtlinien und vertraglichen Vereinbarungen kann zur sogenannten IT-Compliance gezählt werden, die erreicht wer- den muss. Fehlt ein Prozess zur Erreichung der IT-Compliance, ist der Prozess und der Status nicht ausreichend dokumentiert oder wird die IT-Compliance insgesamt nicht erreicht, kann dies spürbare Folgen haben. Dies gilt insbesondere für die Geschäftsleitung, die sowohl beim Datenschutz als auch bei den anderen Compliance-Vorgaben als die verantwortliche Stelle betrachtet wird. Compliance-Verstöße können je nach rechtlichem Bereich zu Vertragsstrafen, Bußgel- dern und sogar zur persönlichen Haftung der Unternehmenslei- tung führen. Compliance-Verstöße und Haftungsrisiken vermeiden Jedes Unternehmen sollte für sich prüfen, welche rechtlichen An- forderungen hinsichtlich IT-Compliance für die eigene Branche und das eigene Unternehmen bestehen. Dabei sollte man auch die einzelvertraglichen Pflichten nicht vergessen, denn in Kun- denverträgen können ebenfalls konkrete Forderungen an die IT- Sicherheit zu finden sein. Im Fall einer Auftragsdatenverarbeitung ist dies sogar Pflichtbe- standteil der Verträge. Zusätzliche Verpflichtungen ergeben sich aus internen IT-Sicherheitsrichtlinien und einzuhaltenden SLAs (Service Level Agreements). Die Geschäftsleitung muss die IT-Compliance sehr ernst nehmen, um (teilweise persönliche) Konsequenzen zu vermeiden. Die Be- nennung eines Compliance-Beauftragten oder zum Beispiel ei- nes Datenschutzbeauftragten (DSB) entbindet das Management nicht von der eigenen Verantwortung. Trotzdem ist die Beauftragung einer speziell zuständigen Person sehr sinnvoll, teilweise auch rechtlich gefordert. Hinzu kommt, dass die IT selbst ihren Beitrag leisten kann, um den Prozess und die Einhaltung der IT-Compliance besser in den Griff zu bekom- men.
  • 16. CIOBRIEFING 08/2015 Seite 16 Compliance-Tools helfen bei der Übersicht und Dokumenta- tion Eine Reihe von Speziallösungen können Unternehmen dabei un- terstützen, die jeweiligen IT-Risiken zu identifizieren und zu be- werten, Gegenmaßnahmen zu definieren und zu dokumentieren und den Umsetzungsstand mit verschiedenen Compliance-Vorga- ben abzugleichen. Beispiele für solche Lösungen sind die IT-Sicherheitsdatenbank SAVe der INFODAS GmbH, DocSetMinder der GRC Partner GmbH, die Agiliance RiskVision Platform, die MetricStream Compliance Management Solution, verinice und die RSA Archer GRC Suite. Je nach Lösung sind bereits umfangreiche Compli- ance-Kataloge integriert, in aller Regel können auch eigene An- forderungen definiert oder importiert werden. Ganz gleich, mit welcher Lösung oder Methode ein Unternehmen den Überblick zur IT-Compliance behält: das Risiko einer Haf- tung oder von Vertragsstrafen sollte keiner unbeantwortet lassen, weder im Datenschutz noch in einem anderen Bereich der IT- Compliance. Ergänzendes zum Thema Sicherheitsrelevante Compliance-Vorgaben Die folgenden Beispiele für Compliance-Vorgaben mit Bezug zur IT-Sicherheit sind teilweise branchenabhängig und/oder Gegen- stand vertraglicher Vereinbarungen. ● Bundesdatenschutzgesetz (BDSG) ● Empfehlungen zur ärztlichen Schweigepflicht, Datenschutz und Datenverarbeitung in der Arztpraxis ● EU-Datenschutzgrundverordnung (Entwurf) ● Grundsätze zur ordnungsmäßigen Führung und Aufbewah- rung von Büchern, Aufzeichnungen und Unterlagen in elekt- ronischer Form sowie zum Datenzugriff (GoBD) ● HIPAA ● Interne IT-Sicherheitsrichtlinien (individuell) ● ISO/IEC 27001:2013 ● IT-Grundschutz-Kataloge ● IT-Grundschutz-Standards ● IT-Sicherheitsgesetz (Kabinettsentwurf)
  • 17. CIOBRIEFING 08/2015 Seite 17 ● Landesdatenschutzgesetze ● Mindestanforderungen an das Risikomanagement – MaRisk ● Payment Card Industry Data Security Standard ● Richtlinie für Netzwerk- und Informationssicherheit (NIS) (Entwurf) ● Sarbanes-Oxley Act ● Service Level Agreements (SLA, individuell) ● Telekommunikationsgesetz (TKG) ● Telemediengesetz (TMG) ■ Oliver Schonschek Mehr zum Thema Security finden Sie auf www.security-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 18. CIOBRIEFING 08/2015 Seite 18 Die erste echte Hybrid-Cloud, jubeln die Partner Das DARZ als Hyperscale-­ Multi-Cloud-Broker Das Darmstädter Rechenzentrum, kurz DARZ, Netapp und Helpium sind die Partner, die für Kunden ein Com- pute-Sourcing in multiple Hyperscale-Clouds ermögli- chen. Die eigene IT, mit privater Cloud und den Dimensi- onen von AWS, Azure und Softlayer verheiraten, soll nun möglich sein – mit „Netapp Private Storage as a Service“ beim DARZ als Grundlage. Helpium ist der erste Kunde. Nein, eigentlich ist Helpium kein Netapp-Kunde. Das Startup, das im November 2014 online ging, ist ein Cloud-Native und will keine IT im Haus. Und eigentlich ist die Storage-Infrastruktur egal. Das Unternehmen vermittelt Privat-Kunden und kleinen Unternehmen, die ohne IT-Service-Verträge auskommen wollen, Support für ihre Alltagsprobleme. Dafür vermittelt Helpium unabhängige Experten, die sich auf der von dem Unternehmen entwickelten Internet-Plattform registrie- ren, mit Hilfesuchenden. Falls ein Problem den Zugriff auf den Computer des Anwenders erfordert, lassen sich die Computer des Experten und des Hilfesuchenden mithilfe einer eigens von Hel- pium entwickelten Software verbinden. Klar, dass sobald sich die Spezialisten über die Plattform auf die Computer ihrer Kunden einloggen, hochsensible Kundendaten übertragen und gespeichert werden. Helpium zeichnet etwa die Sreenshots auf, um nachvollziehen zu können, dass tatsächlich Hil- fe geleistet und kein Unfug betrieben wurde. Für die Vermittlung kassiert das Unternehmen 20 Prozent der erfolgten Dienstleistung. Hier soll die erste ­richtige Hybrid Cloud wohnen – im DARZ. Bild:DARZ
  • 19. CIOBRIEFING 08/2015 Seite 19 Die Anforderungen des Kunden an eine hybride Infra­ struktur Ein Public-Cloud-Angebot kommt für Holger Kärcher, den Grün- der und Geschäftsführer von Helpium, nicht in Frage. Er braucht den Schutz und die Sicherheit einer Private Cloud, beziehungs- weise das Hosting seiner Server auf dedizierten Kapazitäten in einem deutschen Rechenzentrum. Denn selbst wenn etwa US- Unternehmen hierzulande eigene Rechenzentrumsinfrastruktu- ren aufbauten oder mieteten, unterlägen sie dem Patriot Act, der sie gegebenenfalls zur Weitergabe von Kundeninformationen an die US-Behörden verpflichte, macht Sebastian Zilch aufmerk- sam, Initiator von „Freunde der Cloud“ und zwischen 2012-2015 als Head of Business Development maßgeblich für die Konzepti- on und Entwicklung des Marktplatzes der Deutsche Börse Cloud Exchange zuständig. Das DARZ wiederum liefert Shared und Dedicated Hybrid- Cloud-Services und war unter anderem mit Netapp Teilnehmer des internationalen Early Adopter Programm dieses Marktplat- zes, für das Zilch verantwortlich war. Er berät derzeit das DARZ bei der Konzeption und Umsetzung von Netapp Private Storage as a Service. Das „Feature-Set“ dieses Angebots, wie Helpium- Chef Kärcher es nennt, sei für ihn ausschlaggebend gewesen, um das DARZ als Geschäftspartner zu wählen. Netapp Private Storage as a Service erlaubt Kunden eine hybride- Storage-Architektur und damit eine simultane Nutzung von siche- rem (Private) Enterprise Storage und Public-Cloud-Ressourcen. Dank einheitlicher Schnittstellen können versierte Anwender das Netapp-Management-Tool nutzen, um übergreifend on- und off-premise ein Storage-Tiering zur betreiben, um beispielsweise verschiedene Sicherheitsstufen einzuziehen oder für bestimmte Bereiche All-Flash-Umgebungen zu nutzen. DARZ bietet seinen Kunden aber auch einen Vollservice an, der sie von der Einarbei- tung ins Netapp-Tuning entbindet. Das DARZ und Netapp Zu den DARZ-Angeboten gehört somit ein Self Managed Service mit Netapp Private Storage as a Service: Das Unternehmen stellt dafür in seinem Rechenzentrum Racks für das unternehmensei- gene Storage-System zur Verfügung. Außerdem kümmert sich der Datacenter-Betreiber um die Anbindung an alle Cloud-Provi- der, die der Kunde wünscht.
  • 20. CIOBRIEFING 08/2015 Seite 20 Lars Göbel, Leiter Vertrieb und IT Services bei der DARZ GmbH, erläutert: „Bisher war es ein Qua- litätskriterium für Co-Locator, wenn sie Carrier-neutral waren, also viele Anbindungen an ver- schiedene Kommunikations- be- ziehungsweise Internet-Provider bieten konnten. Wir bieten neut- ral den Zugang zu verschiedenen Cloud-Providern.“ Beim Self Managed Service übernehmen die Kunden selbst den Betrieb und die Verwaltung sämtlicher Ressourcen sowie der Storage-Systeme. Daneben gibt es die Möglichkeit zum Managed Netapp Private Storage as a Service. Je nach Wunsch beziehen die Kunden von DARZ ein dediziertes oder shared Storage-System. Während der Dienstleister dabei die Anbindung an alle am Standort Frankfurt verfügbaren Hyperscaler übernimmt, kümmern sie sich um Kon- figuration und Betrieb des Storage-Systems und den Bezug der Ressourcen bei den Hyperscalern. Unendliche Skalierbarkeit Die dritte Möglichkeit ist ein Full Service. Hierbei erhalten die Kunden den kompletten Service aus einer Hand. Auf Wunsch kümmern sich DARZ-Mitarbeiter um die Bereitstellung der benö- tigten Ressourcen von den Hyperscalern. Dies schließt auch den Abrechnungsprozess der Drittanbieter ein, so dass der Dienst- leister als alleiniger Lieferant des Services agiert, als einziger Kontaktpunkt in allen Belangen der Hybrid-Cloud. Darüber hinaus lässt sich Netapp Private Storage as a Service auch in bestehende Co-Location- und Private- sowie Shared- Cloud-Lösungen integrieren. Zudem ist die Migration auf ein de- diziertes oder Shared Netapp Storage-System möglich. Für Back- up-Szenarien bietet DARZ beispielsweise die Unterbringung der Storage-Systeme in einem anderen Brandabschnitt oder Partner- rechenzentrum in Frankfurt an, etwa bei euNetworks, Global Switch und Equinix. Frankfurt ist etwa 30 Kilometer entfernt und DARZ besitzt eine eigene Glasfaserleitung zu dem dortigen Hochgeschwindigkeitsring. Lars Göbel, Leiter Ver­ trieb und IT-Services beim DARZ, befasst sich seit mehr als einem Jahr­ zehnt mit IT-­Services und Cloud. Der Wirtschaftsin­ formatiker begann seine ­berufliche Laufbahn bei einem IT-Dienstleister aus dem Bankenumfeld, bevor er als IT-Projekt- Manager ­Consultant die erste ­VMware basierte Public-Cloud-Infrastruktur Deutschlands aufbaute, weiterentwickelte und ver­ marktete. Bild:DARZ
  • 21. CIOBRIEFING 08/2015 Seite 21 Doch zu einer „echten Hybrid Cloud“ wird das DARZ–Spekt- rum erst durch die Direct-Connect-Partnerschaften mit den so genannten Hyperscalern, wie AWS, Softlayer und VMware. So können Kunden beispielsweise für eine Datenverteilung über mehrere Standorte auf die Schnittstellen-Anbindung S3 as a Ser- vice zugreifen. Das gilt auch dann, wenn die Lösung global sein soll. Die Public-Cloud-Geißel DARZ-Vertriebsleiter Göbel er- läutert: „Wie sprechen mit den Kunden darüber, welchen Hyper- scaler sie bevorzugen. Denn tat- sächlich unterscheiden sich die Angebote von AWS, Azure, Soft- layer … stark voneinander. Die Vergleichbarkeit aber Restriktio- nen und die tatsächlichen Kosten sind für die Kunden oftmals völ- lig intransparent.“ Zudem seien in den Angeboten Computing- Power und Storage nicht vonein- ander getrennt, so dass nur kom- plette Pakete eingekauft werden könnten. Berater Zilch bezeichnet die Kunden von Hyperscalern gar als „gegeißelt“; wenn einmal die eigene IT und die Daten mit einem der Angebote verknüpft seien, bekämen die Kunden ihre Daten aus der jeweiligen Cloud einfach nicht mehr hinaus. Peter Wüst, Director Cloud Allian- ces CEMA bei Netapp, erläutert das wie folgt: „Die Partnerschaft mit DARZ ist ein echter Gewinn für unsere Kunden. Diese be- ziehen nun alle Leistungen zum Aufbau und Betrieb einer hyb- riden Cloud-Infrastruktur aus einer Hand. Gleichzeitig behalten unsere Kunden weiterhin die volle Kontrolle über ihre Daten, Peter Wüst ist Director Cloud Alliances CEMA bei Netapp für die Regionen Deutschland, Österreich, Schweiz, Osteuropa, Russ­ land und die GUS sowie den Mittleren Osten und Afrika: „Aus unserer Sicht entwi­ ckelt sich die hybride Cloud zum führenden Ansatz für die IT-Leistungserbringung. Wer unternehmenskritische Daten außerhalb der Fir­ mengrenzen nutzt, benötigt jedoch eine angepasste Strategie für das Daten- Management.“ Bild:Netapp Anfang 2001 gründe­ te ­Sebastian Zilch sein ­eigenes Start-up, erwarb 2004 in Frankfurt am Main den Abschluss zum Dipl. ­Informatik-Betriebswirt (VWA) und arbeite­ te ­anschließend unter ­anderem bei McKinsey Company und Siemens ­Global Procurement ­Services. Bild:Zilch
  • 22. CIOBRIEFING 08/2015 Seite 22 können diese also beliebig zwischen den Cloud-Plattformen und ihrer On-Premise-Umgebung hin- und herschieben.“ Die Partner räumen jedoch auch ein, dass es noch zu den abso- luten Ausnahmen gehört, die Hyperscale-Anbieter schneller als die Unterwäsche zu wechseln. Im Prinzip wäre das mit einem Angebotsmodell a la DARZ möglich; Kunden könnten etwa Ta- gespreise ausnutzen oder für einzelne Aufgaben andere Ressour- cen dazu schalten. Zilch sagt: „ Heute gehört das noch nicht zum Tagesgeschäft eines IT-Einkäufers. Doch die Aufgaben und die Position der Einkäufer wird sich schon in den kommenden drei Jahren ändern.“ Schutz und Kontrolle trotz Flexibilität Dem Anwender Helpium ist zu diesem Zeitpunkt wichtig, dass der Vertragspartner DARZ die Anforderungen an Sicherheit, Fle- xibilität und Skalierbarkeit erfüllt, die der Umgang mit sensiblen Daten erfordert, bestätigt Helium-Chef Kärcher, und das trotz ei- nes Shared-Hybrid-Cloud-Modells, allerdings mit den Qualitäts- klassen eines dedizierten Enterprise-Storage-Systems und ska- lierbarer Rechenleistung. Das DARZ wurde im August des vergangenen Jahres eröffnet, Baukosten rund 35 Millionen Euro. Das Rechenzentrum befindet sich im ehemaligen Tresorgebäude der Hessischen Landeszentral- bank und kann damit vermutlich als das sicherstes Datacenter in Deutschland gelten – „mit Panzerglas, Auffahrschutzrampe und allem Pi-Pa-Po“, so Göbel. Das Rechenzentrum in Darmstadt hat die höchste Sicherheitsstufe, die derzeit nur vergleichbar ist mit Hochsicherheitsrechenzentren wie in der Schweiz. Derzeit befinden sich 150 Racks auf 2.400 Quadratmetern IT- Fläche, die etwa 1.000 Server-Schränke fassen würde. „Bei ei- nem Füllstand von 75 Prozent“, so DARZ-Vertriebsmann Göbel, „würden wir ein zweites Rechenzentrum bauen.“ Neben dem Angebot einer Hybrid-Storage-Architektur, das eine simultane Nutzung von Private Enterprise Storage und Public- Cloud-Ressourcen erlaubt, offeriert das DARZ auch Co-Location und bietet dem Marktplatz Deutsche Börse Cloud Exchange eine Heimat. Während hier die Public-Cloud-Infrastruktur aus einem Fujitsu-Paket aus Hardware („Eternus CD10000“) und Software besteht, das sich mithilfe der Open-Source-Software „Ceph“ zen- tral managen lässt (siehe auch Kasten in Artikel „Stickstoff im Tresor,Maßgeschneiderter Brandschutz für Hochsicherheits-Re-
  • 23. CIOBRIEFING 08/2015 Seite 23 chenzentrum“ , ist die Grundlage für das Hybrid-Modell Netapp Private Storage as a Service. Realisiert wurde das Projekt in gut fünf Monaten. Cloud-Brokerage Nutzen Kunden dieses DARZ-Angebot, wird der Dienstleister quasi zum Cloud-Broker. Die Kunden können anders als bislang gleichzeitig an verschiedene Anbieter angebunden sein. Denn bisherige Lösungen bestehen nur aus verschiedenen Private- und Public-Cloud-Angeboten, die einem die Nutzung der einen oder anderen Welt ermöglicht, aber nicht simultan. Darüber hinaus be- rücksichtigen aktuelle Markt-Angebote nicht den möglichen Co- Location-Anteil eines Unternehmens. Trotzdem sind die Services schnell, manchmal schneller als di- rekt beim Hyperscaler. „Unser Storage-System“, erläutert FARZ- Mann Göbel, antwortet unter 0,1 Millisekunden. Bei AWS direkt ist keine Antwort unter 0,2 Millisekunden möglich. Die Round- Trip-Zeit beläuft sich auf 0,4 Millisekunden. Die Abrechnung er- folgt nutzungs- und leistungsabhängig. Trotz der Verknüpfung mit verschiedenen Public-Cloud-Anbie- tern befinden sich alle Daten in einem ausschließlich vom Kun- den kontrollierten Bereich. Außerdem unterliegt das DARZ dem deutschen Datenschutz. Im Unterschied zu Anbietern mit Haupt- sitz in den USA greift für das DARZ daher auch kein Patriot Act. ■ Ulrike Ostler
  • 24. CIOBRIEFING 08/2015 Seite 24 QoSMOS-Partner forschen weiter an Zukunft des Mobilfunks Vermietete Spektren und neue Modulationen sollen 5G antreiben Naturgemäß soll der kommende Mobilfunkstandard 5G deutlich leistungsfähiger werden als der Vorgänger LTE. Ermöglichen könnten das kurzfristig vermietete Spekt- ren und neue Modulationsverfahren. Etwas verspätet wirkte es schon, als die Europäische Union Ende Mai eine Mitteilung zum bereits 2013 abgeschlossenen Projekt QoSMOS herausgab. Dabei haben die Akteure des „Quality of Ser- vice and MObility driven cognitive radio Systems“ nicht nur einen Grundstein für die kommende Mobilfunkgeneration 5G gelegt, sondern arbeiten noch immer an einem praktikablen Standard. Hintergrund: QoSMOS Das Anliegen des QoSMOS-Projekts klingt vertraut: Begrenzte Funkspektren sollen effizienter genutzt werden, um auf wachsen- de Datenmengen und einem zunehmenden Preisdruck reagieren zu können. Die EU hat das Unterfangen mit 9,4 Millionen Euro aus dem 7. Rahmenprogramm gefördert. Am QoSMOS-Konsor- tium beteiligten sich 15 – fast ausschließlich europäische – For- schungseinrichtungen und Unternehmenspartner. Koordiniert wurde das Projekt von British Telecommunications (BT). Bandbreite ist nicht ­alles. Das 5G Lab ­untersucht auch ­An­wendungen, bei ­denen es auf geringe ­Latenzen ankommt. Bild:D.Öhmann,5GLabGermany
  • 25. CIOBRIEFING 08/2015 Seite 25 Projektkoordinator Michael Fitch von BT erklärte: „Das Ziel ist es, isoliert genutzte Bereiche abzubauen [...] Jeder neue Dienst und jede neue Technologie benötigt einen neuen Frequenzbereich, und wenn viele verschiedene Geräte jeweils über ihren eigenen Bereich verfügen, entstehen solche isoliert genutzten Bereiche.“ Vision vom Mikro-Handel mit Frequenzbereichen Diese Bereiche sollen künftig deutlich flexibler als bisher genutzt werden. Das könne sogar soweit gehen, dass Besitzer von Fre- quenzbereichen diese Spektrumressourcen für kurze Zeiträume an andere Teilnehmer vermieten. Hierfür hat QoSMOS folgende technische Grundlagen entwi- ckelt: ● einen zentralen Manager, der das „Portfolio“ des Spektrums einer Region oder eines Landes in Echtzeit steuert, ● eine Ressourcenverwaltung, die das Spektrum einzelnen Sys- temen zuweist und die Umgebung überprüft, ● ein Terminal für kognitiven Funk. Zudem ist dem Projekt der Prototyp eines Sende-Empfängers entsprungen, der FBMC-Wellenformen (Filter Bank Multicarrier) erzeugt. Begründung: FMBC teile das Spektrum so in rechtecki- ge Blöcke ein, dass es dicht gepackt ist und effizienter genutzt werden könne. Damit sei das Verfahren der aktuell weit verbrei- teten, und für LTE-Netze verwendeten OFDM-Technologie (Or- thogonal Frequency Division Multiplexing) überlegen und werde diese ersetzen. Ausgangspunkt für weitere Forschungen Das französische Commissariat à l’Energie Atomique führt ak- tuell die Entwicklung des FBMC-Sende-Empfängers weiter. Zudem prognostiziert die oben erwähnte Mitteilung: „Mehrere Konsortiumsmitglieder werden die Technologie für das Spekt- rummanagement wahrscheinlich vermarkten. Darüber hinaus ist die britische Behörde Ofcom laut Fitch bereit, die TV-White Spaces ab 2015 zu kommerzialisieren.“ Lage in Deutschland Die Bundesnetzagentur (BNetzA) bremst die vollmundigen An- kündigungen derweil etwas aus. Bevor für Mobilfunk in Frage kommende Spektren für eine parallele Nutzung durch mehrere
  • 26. CIOBRIEFING 08/2015 Seite 26 Teilnehmer freigegeben und lizenziert werden könnten, müsste die Internationale Fernmeldeunion (ITU) zunächst einmal den Frequenznutzungsplan für die Region 1 anpassen – und davon hat die BNetzA bislang keine Kenntnis. Auch das als OFDM-Nachfolger gesetzte Modulationsverfah- ren FMBC ist keineswegs ohne Konkurrenz. QoSMOS-Partner Alcatel-Lucent präsentierte kürzlich etwa die Wellenform Uni- versal Filter Orthagonal Frequency Division Multiplexing (UF- OFDM) als „führende[n] Anwärter für die Standardisierung“ von 5G-Netzen. Die Funkwellenform sei ideal für die Kombination von Datenverkehr von Smartphones und dem hohen Volumen von Daten, die von Sensoren erzeugt werden. Am Potenzial der Luftschnittstelle wollen die zu Alcatel-Lucent gehörenden Bell Labs künftig mit dem 5G Lab Germany for- schen, das an der TU Dresden angesiedelt ist. Die TU-Dresden war übrigens ebenfalls am QoSMOS-Projekt beteiligt und koor- diniert ein Mobilfunk-Testbed im Rahmen des CREW-Projekts. Steffen Watzek, Programm-Manager am Vodafone Stiftungs- lehrstuhl Mobile Nachrichtensysteme der TU Dresden, gibt zu bedenken: „Funksysteme der Zukunft müssen flexibel sein, um unterschiedlichste Übertragungssituationen zu erfüllen.“ Watzek skizziert dabei folgende drei Szenarien: ● Mobile Breitbandkommunikation mit sehr hohem Datendurch- satz, beispielsweise für HD-Video; ● M2M-Kommunikation mit kurzen Datenpaketen und sehr vie- len Teilnehmern, etwa für autonome Verkehrsmittel; ● Echtzeit-Anwendungen (Taktiles Internet) mit geringen Laten- zen, etwa für telemedizinische Einsatzgebiete. Pro und Kontra einzelner Modulationsverfahren Gerade für die zuletzt genannten Anwendungen dürfte FBMC kaum die erste Wahl darstellen. Watzek erklärt: „FBMC (Filter- bank Based Multi Carrier) wendet einen Pulsformungsfilter auf jeden einzelnen Unterträger an. Die Außerbandstrahlung wird dadurch erheblich reduziert. Je nach Wahl des Filters, verlän- gert sich die zeitliche Länge eines Datenpaketes. Um eine mög- lichst niedrige Außerbandstrahlung zu erreichen, muss das Filter zeitlich sehr lang ein- und ausschwingen. Scharfe Filterflanken und ein Abstand von mindestens einem Unterträger zwischen verschiedenen Nutzern erlauben nicht-synchronisierte Übertra- gungen zwischen mehreren Teilnehmern. FBMC eignet sich für
  • 27. CIOBRIEFING 08/2015 Seite 27 Mobile Breitband Kommunikation, da lange, kontinuierliche Da- tenströme zu erwarten sind. Latenzkritische oder Datenübertra- gungen mit kurzen Paketen werden durch die Filter verlangsamt. FBMC ist nicht kompatibel zu OFDM basierenden Systemen, denn die Daten werden ohne zyklisches Präfix, Streaming-artig übermittelt.“ Bei UF-OFDM/UFMC (Universal-Filtered Multi-Carrier) werde ein Pulsformungsfilter derweil auf mehrere Unterträger angewen- det. Die – verglichen zu FBMC – höhere Filterbandbreite führe zu kürzeren Auf- und Abschwingzeiten. Damit ließen sich auch kürzere Datenpaketen effizient übertragen. Um zeitliche Über- schneidungen zu vermeiden, müsse allerdings Synchronisation zwischen mehreren Teilnehmern beachtet werden. Ähnlich wie bei FBMC werde kein zyklisches Präfix verwendet. Möglicher Mittelweg GFDM (Generalized Frequency Domain Multiplexing) bildet laut Watzek einen Mittelweg zwischen OFDM und FBMC. Jeder ­Unterträger wird gefiltert, um die Außerbandstrahlung zu redu- zieren, das zyklische Präfix werde allerdings beibehalten. Je nach Wahl des Pulsformungsfilters und anderer Parameter könne eine OFDM oder FBMC-kompatible Wellenform erzeugt werden. ■ Dirk Srocke
  • 28. CIOBRIEFING 08/2015 Seite 28 Hybride IT-Infrastrukturen Die Hybrid Cloud ist zum ­Normalfall geworden „Hybride Infrastrukturen“ legen gerade einen rasanten Siegeszug hin, wie Zahlen aus diesem und dem vergan- genen Jahr belegen. Noch vor kurzer Zeit galt die Private Cloud als State-of-the-Art in Unternehmen. Mittlerweile haben diese jedoch ihre Fühler ausgestreckt und der Hybrid Cloud zum Siegeszug verholfen. Das belegen aktuelle Zahlen von IDG Connect. Befragte wur- den 625 IT-Entscheider in mittelständischen und großen europäi- schen Unternehmen zu ihrer aktuellen IT-Umgebung sowie ihren mittel- bis langfristigen Infrastrukturplänen. Die Zahlen sind sogar so überzeugend, dass die Marktforscher nicht mehr von einer „Hybrid Cloud“ sondern von einer „Hybrid IT“ beziehungsweise „Hybrid Infrastructure“ spricht – wiewohl zwischen beiden ein kleiner, aber feiner Unterschied existiert: Eine Hybride IT setzt nicht zwingend eine Private Cloud voraus. Die im März vorgelegten Zahlen belegen, dass die Hybrid IT sowohl heute als auch in der mittel- bis langfristigen Zukunft die bevorzugte Strategie darstellen. 45 Prozent der europäischen Unternehmen nutzen bereits hybride IT-Lösungen, die Daten aus verschiedenen Quellen wie On-Premise-Rechenzentren sowie ausgelagerten Public und Private Clouds verarbeiten. In Deutsch- land sind es 58 Prozent. So setzen deutsche Firmen heute bereits hybride Konzepte intensiver ein als der europäische Durchschnitt. Immer mehr Unter­ nehmen beziehen Teile ihrer IT aus der ­Hybrid Cloud, wie ­aktuelle ­Zahlen zeigen. Bild:©bluebay2014-Fotolia.com
  • 29. CIOBRIEFING 08/2015 Seite 29 Auch im kommenden Jahr werden Unternehmen hierzulande die- sen Vorsprung noch deutlich ausbauen. 98 Prozent (!) der deut- schen Unternehmen schätzen, dass sie 2016 hybride IT-Lösungen nutzen werden, im europäischen Durchschnitt sind es 80 Prozent. Akzeptanz von Private und Public Clouds Die Hälfte der europäischen und 58 Prozent der deutschen Unter- nehmen verwenden Private-Cloud-Umgebungen. Public Cloud- Services haben sich europaweit bei den Befragten mit 38 Prozent, in Deutschland mit 55 Prozent durchgesetzt. 51 Prozent der Stu- dienteilnehmer in Europa erwarten, dass sie innerhalb der nächs- ten fünf Jahre mehr Workloads in die Public Cloud verschieben. Dennoch bleiben eigene Rechenzentren für 44 Prozent weiterhin eine sehr wichtige Komponente bei geschäftskritischen, sensib- len Daten, unabhängig davon, ob diese intern oder von einem Service-Provider verwaltet werden. Treiber für die Datenmigration in die Cloud Die Studie zeigt auch, dass eine hohe Konnektivität zwischen den verschiedenen Quellen ein Treiber für die weitere Migration der Daten in die Cloud ist. Die wichtigsten Hürden für die Cloud- Nutzung bilden Zweifel bei Sicherheit (53 Prozent) und Netzwerk- Performance (47 Prozent). In Deutschland besitzt die Hälfte der Befragten Sicherheitsbedenken gegenüber dem Cloud-Modell, 42 Prozent halten die Umsetzung von Datenschutz- und Corporate Governance-Regeln in der Cloud für schwierig. An dritter Stelle nannten die Unternehmen die Netzwerkleistung als Barriere für den Cloud-Einstieg (32 Prozent). Gäbe es keine Netzwerkprobleme, würden 89 Prozent der befrag- ten Unternehmen in Deutschland Workloads in die Cloud verla- gern, im europäischen Durchschnitt wären dies nur 77 Prozent. In diesem Fall würden sich die Workloads in der Cloud von heute 25 auf 42 Prozent erhöhen. Bereits jetzt möchten 41 Prozent der Stu- dienteilnehmer das Internet für Unternehmenslösungen umgehen und sich über eine WAN-Verbindung oder Direktverbindungslö- sung (Direct Connect) mit der Cloud vernetzen. In Deutschland liegt hier die Rate mit 36 Prozent etwas niedriger. Wie rasant der Siegeszug der Hybrid Infrastructure verläuft, lässt sich anhand von Zahlen für das vergangene Jahr von IDC able- sen. Auch das Analystenhaus fand heraus, dass deutsche Unter- nehmen in den kommenden 24 Monaten die Verknüpfung ihrer bestehenden IT-Umgebung mit Cloud Services planen.
  • 30. CIOBRIEFING 08/2015 Seite 30 Vielfältige Herausforderungen Ziel der im August 2014 durchgeführten Befragung unter 200 IT-Entscheidern aus Unternehmen in Deutschland mit mindes- tens 100 Mitarbeitern war es, die aktuellen Trends und Pläne hin- sichtlich Aufbau und Nutzung von hybriden Cloud-Umgebungen zu ermitteln. Im Mittelpunkt der Studie stehen die Motive und die Lösung der vielfältigen Herausforderungen beim Aufbau von hybriden Cloud-Umgebungen. IDC versteht unter Hybrid Clouds die Verknüpfung der unternehmenseigenen, herkömmlichen IT- Umgebung mit Private, Hosted oder Public Cloud Services. Nach Angaben der IT-Entscheider nutzte oder implementierte im vergangenen Jahr fast die Hälfte (45 Prozent) der deutschen Unternehmen Cloud Services, weitere 36 Prozent befanden sich in der Planungsphase. Und klar: Private Cloud-Umgebungen wa- ren 2014 mit 66 Prozent noch die mit Abstand bevorzugte Cloud- Variante. Aber auch schon da braute sich hybrides zusammen:, 35 Prozent nutzen 2014 bereits eine Hosted Private Cloud oder bezogen Lösungen aus der Public Cloud (24 Prozent). Aber erst 15 Prozent der befragten IT-Entscheider gaben zu Protokoll, eine oder mehrere dieser Cloud-Services auch mit ihrer herkömmli- chen IT-Umgebung zu einer Hybrid Cloud verknüpft zu haben. Bedarf nach hybriden Cloud-Umgebungen steigt IDC sagte bereits im vergangenen Jahr voraus, dass der Bedarf nach hybriden Cloud-Umgebungen zunehmend steigen wird, denn die befragten Organisationen planen die verstärkte Nutzung von Hosted Clouds (39 Prozent) und Public Clouds (32 Prozent). Diese Cloud Services sollten mit der herkömmlichen IT-Land- schaft integriert werden, ganz wie nun von der Studie von IDG Connect bestätigt. Die IDC-Befragung vom vergangenen Jahr sagte zudem richtig voraus, dass mehr als die Hälfte (54 Prozent) der IT-Entscheider – und hier vor allem aus mittelständischen Unternehmen - in den kommenden 12 bis 24 Monate den Aufbau hybrider Cloud-Umgebungen plant. ■ Dr. Dietmar Müller
  • 31. CIOBRIEFING 08/2015 Seite 31 Apache Giraph für Hadoop und HDInsight So setzen Sie Graphen in ­Big-Data-Umgebungen ein Apache Giraph ermöglicht die Verarbeitung von Graphen in Hadoop und damit auch in Microsoft Azure HDInsight. Graphen stellen Beziehungen zwischen zwei Objekten dar, zum Beispiel Beziehungen in sozialen Netzwerken, aber auch Routen in Netzwerken. Aus diesem Grund ist die Verarbeitung solcher Daten in Big-Data-Umgebun- gen besonders interessant. Wer sich mit Big Data bereits etwas auseinandergesetzt hat und Lösungen in diesem Bereich produktiv einsetzt, kann die Umge- bung mit zusätzlichen Möglichkeiten zur Datenauswertung er- weitern. Auch hier steht eine Vielzahl an Open-Source-Produk- ten zur Verfügung, zum Beispiel Apache Giraph. Das Apache-Top-Level-Produkt eignet sich vor allem für Big-Data- Umgebungen, in denen soziale Beziehungen und Netzwerke ana- lysiert werden müssen. Entwickelt wurde die Umgebung ur- sprünglich auf Basis von Java. Grundlage von Apache Giraph ist ein Hadoop-Cluster. Da es sich bei Giraph um eine Erweiterung des MapReduce-Algorithmus handelt, werden auch die Giraph-Jobs auf die einzelnen Knoten im Cluster verteilt. Die zu verarbeitenden Daten sind also im be- reits installierten Hadoop-Cluster vorhanden und werden zusam- men mit Hadoop verarbeitet. Apache Giraph bietet Datenverarbeitung mit Vertices, Edges und ­Supersteps. Bild: The Apache Software Foundation
  • 32. CIOBRIEFING 08/2015 Seite 32 Optimale und effiziente Analyse Giraph verbessert die Analyse von verbundenen Strukturen und von sozialen Graphen und ist daher eine ideale Ergänzung, will man in der Big-Data-Lösung auch Daten aus sozialen Netzwer- ken analysieren. Das ist auch einer der Gründe warum Facebook, PayPal, Twitter, Yahoo und auch LinkedIn auf Giraph setzen. Die Lösung kann extrem große Datenmengen effizient und schnell verarbeiten und über Hadoop zur Verfügung stellen. In einem Blogbeitrag informiert Facebook, dass mit Giraph Milliar- den von Beziehungen in wenigen Minuten analysiert werden kön- nen. Auch Universitäten wie die TU Berlin arbeiten seit Jahren mit den Möglichkeiten von Giraph. Neben Hadoop unterstützt Giraph auch Apache Accumulo, Apache HBase, Apache Hive und Cloudera Impala. Unterstützung für Cluster und Mehrkern-Prozessoren Giraph orientiert sich an den Möglichkeiten von Bulk Synchro- nous Parallel (BSP) und Google Pregel (PDF). Vorteil gegenüber diesen Lösungen ist aber der offene Quellcode, die Kompatibili- tät mit Hadoop und die höhere Verfügbarkeit, da es keinen Single Point of Failure gibt. Die aktuelle Version arbeitet effizient be- züglich der Speichernutzung und bietet byteweise Serialisierung. Das Produkt ist zudem Cluster-fähig. Das heißt, Unternehmen können Giraph auch auf Clustern mit tausenden Knoten betrei- ben. In den meisten Fällen wird das Produkt parallel zu Hadoop eingesetzt, aber erst dann, wenn die Verarbeitung der Daten über Hadoop nicht mehr ausreicht. Zur besseren Berechnung lassen sich mit Giraph auch Mehrkern- Prozessoren ansprechen und dadurch die Berechnungen deutlich beschleunigen. Berücksichtigen lassen sich neben gewichteten und ungewichteten Graphen auch gerichtete und ungerichtete Graphen sowie sogenannte Multigraphen. Giraph unterstützt auch YARN. Einfach ausgedrückt handelt es sich dabei um eine Cluster-Verwaltungs-Technologie für Hadoop. YARN stellt sozusagen den Ressourcen-Manager dar. Viele Big- Data-Profis bezeichnen YARN auch als „MapReduce 2“. YARN schreibt das Ressourcenmanagement und die Zeitpla- nungsfunktionen um und entkoppelt MapReduce von der Da- tenverarbeitungskomponente. Dadurch kann Hadoop mehr Be- arbeitungsansätze und eine breitere Palette von Anwendungen unterstützen. Wer sich in Giraph einarbeiten will, sollten sich die Einarbeitungsseite des Projektes genauer ansehen.
  • 33. CIOBRIEFING 08/2015 Seite 33 Bessere Analyse von Netzwerken und Webseiten Mithilfe von Graphen und Giraph ist es also möglich, potenzielle Beziehungen in sozialen Netzwerken zu ermitteln oder in großen Netzwerken das Routing zu verbessern, vor allem wenn zahlrei- che Hops genutzt werden. Auch Website-Rankings lassen sich mit Graphen besser analysieren. Um Giraph zu testen, können Entwickler zum Beispiel auch HDIn- sight in Microsoft Azure testen. Microsoft stellt ein Skript zur Ver- fügung, mit dem sich Giraph in einen HDInsight-Cluster integ- rieren lässt, auch in einer Testversion von Microsoft Azure. Eine ausführlichere Anleitung dazu ist in der Azure-Hilfe zu finden. Durch die enorme Erweiterung von Big-Data-Funktionen in Mi- crosoft Azure lässt sich auch Giraph künftig wesentlich besser in HDInsight nutzen. Azure Data Lake erlaubt in Zukunft zum Beispiel die Speicherung beliebiger Daten in sehr hoher Menge direkt in der Cloud. Microsoft verspricht eine nahezu unbegrenz- te Datenspeicherung. Hier hat Microsoft auch ganz klar Big-Da- ta-Szenarien im Hinterkopf, denn Data Lake ist kompatibel zum Hadoop File System (HDFS) und lässt sich daher optimal mit Hadoop und der Microsoft-Lösung HDInsight nutzen. In diesem Zusammenhang wird auch die Weiterverarbeitung mit Giraph in HDInsight interessant. Um die Authentifizierung der Daten sicherzustellen, unterstützt Azure Data Lake auch die An- bindung an Azure Active Directory. Das ist vor allem bei der Ana- lyse von Daten in sozialen Medien enorm wichtig. Die Daten wer- den zentral in Azure Data Lake gespeichert und sind dann auch von verschiedenen Anwendungen in Azure gleichzeitig abrufbar. So läuft die Berechnung in Giraph Giraph behandelt Eingabedaten als Graphen und kann Vertices und Edges nativ darstellen. Dabei weist Giraph den Vertices auch Klassen oder Modelle zu. Berechnet werden die Daten mit Su- persteps. Dazu werden die Giraph-Jobs in einen MapReduce/ YARN-Job umgewandelt, damit er kompatibel mit Hadoop ist und im Cluster ausgeführt werden kann. Alle Funktionen in ei- nem Giraph-Job sind benutzerdefinierbar. Zur Implementierung verwenden Entwickler Java. Vorlagen für die Verwendung wer- den auch von Apache zur Verfügung gestellt. Während der Berechnung tauschen die Vertices Werte unterein- ander aus. Am Anfang eines jeden Supersteps analysiert Giraph die Informationen des vorhergehenden Supersteps. Dazu haben die einzelnen Vertices auch eigene Speicher.
  • 34. CIOBRIEFING 08/2015 Seite 34 Fazit Apache Giraph ist ein sehr effizientes und fehlertolerantes Ana- lyse-System für soziale Graphen. Das Produkt ist stark skalier- bar und sehr flexibel steuerbar. Da Apache Giraph kostenlos zur Verfügung steht, müssen Unternehmen zunächst keine Investiti- onen tätigen. Giraph ist allerdings ein sehr kompliziertes System und ist nur sinnvoll, wenn Hadoop bereits im Einsatz ist und im Unternehmen auch entsprechendes Know-how bezüglich Java, Hadoop und Big Data vorhanden ist. Erst wenn die Datenverar- beitung über Hadoop und die bekannten Zusatzwerkzeuge nicht mehr ausreichen, lohnt es sich, Giraph zusätzlich zu integrieren. ■ Thomas Joos Mehr zum Thema Big Data finden Sie auf www.bigdata-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 35. CIOBRIEFING 08/2015 Seite 35 Compliance Lässt sich IT-Sicherheit per ­Gesetz vorschreiben? Das IT-Sicherheitsgesetz kommt. Zwei Jahre nach dem ersten Entwurf des Bundesinnenministeriums wurde das „Gesetz zur Erhöhung der Sicherheit informationstech- nischer Dienste“ durch die große Koalition verabschie- det. Vor allem auf Betreiber sogenannter Kritischer Infra- strukturen kommen nun einige Pflichten zu. Die IT-Sicherheitslage in Deutschland sei weiterhin angespannt, heißt es im Gesetzentwurf (Drucksache 18/4096, IT-Sicherheits- gesetz). Dieser beruft sich dabei auf Angaben des Bundesamtes für Sicherheit in der Informationstechnik (BSI). Die Cyber-An- griffe würden in hoher Zahl stattfinden, wären zunehmend ziel- gerichtet, technologisch ausgereifter und komplexer. Das Gesetz soll die IT-Sicherheit in Deutschland verbessern und erntete in der Vergangenheit trotz dieses hehren Zieles viel Kritik. Fünf Jahre zu spät und nicht weitreichend genug, beanstandete die Opposition, konnte den Beschluss aber nicht mehr verhindern. Das Ziel des IT-Sicherheitsgesetzes klingt weitreichend: Es soll die IT-Sicherheit in Unternehmen, den Schutz der Bürgerinnen und Bürger im Internet und das BSI sowie das Bundeskriminal- amt (BKA) stärken. Dennoch konzentrieren sich die Regelungen auf die Betreiber Kritischer Infrastrukturen (Kritis) wie z. B. Energieversorger und Telekommunikationsanbieter. Zwei Jahre lang haben Unternehmen wie ­beispielsweise Telekom­ munikationsanbieter Zeit, ihre IT-Sicherheit an bestehenden ­Standards auszurichten.
  • 36. CIOBRIEFING 08/2015 Seite 36 Was steckt im IT-Sicherheitsgesetz? Und was nicht? Kurzum: Vor allem Betreiber von Infrastrukturen, von denen das Funktionieren unserer Gesellschaft in besonderem Maße abhängt, müssen ab sofort mehr für ihre IT-Sicherheit tun. Das IT-Sicherheitsgesetz verpflichtet sie dazu, „ein Mindestniveau an IT-Sicherheit einzuhalten und dem BSI IT-Sicherheitsvorfälle zu melden“. Zwei Jahre bleiben den Betreibern kritischer Infrastrukturen nun noch Zeit, organisatorische und technische Vorkehrungen zu treffen, um Störungen zu vermeiden. Mit Störungen meint der Gesetzgeber jeden negativen Einfluss auf die Verfügbarkeit, die Integrität, die Authentizität und die Vertraulichkeit der IT-Syste- me und Daten. In regelmäßigen Sicherheitsaudits muss das IT-Sicherheitsniveau nachgewiesen werden. Darüber hinaus sind die Unternehmen nun verpflichtet, Störfälle an das BSI zu melden und eine sogenannte Kontaktstelle einzurichten. Die Informationen laufen schließlich beim BSI zusammen, werden dort ausgewertet und den Betrei- bern wieder zur Verfügung gestellt. Dass für die Einrichtung neuer Prozesse, für neue Technik und einen Mitarbeiter als Ansprechpartner Kosten entstehen, wird in der Erläuterung zum Gesetzentwurf lapidar so angekündigt: „Die Verpflichtung zur Einhaltung eines Mindestniveaus an IT-Sicher- heit wird dort zu Mehrkosten führen, wo kein hinreichendes IT- Sicherheitsniveau vorhanden ist.“ Der anfallende Aufwand könne im Vorfeld jedoch nicht quantifiziert werden. Die Rolle der Telko-Anbieter und Behörden Das IT-Sicherheitsgesetz geht auch auf die Rolle der Telekom- munikationsanbieter ein, sie sei- en in besonderem Maße für die Sicherheit im Cyberraum verant- wortlich. Um die Bürgerinnen und Bürger besser zu schützen, verlangt das Gesetz IT-Sicherheit „nach dem Stand der Technik“. Ziel ist es, dass das Fernmelde- geheimnis gewahrt bleibt, perso- nenbezogene Daten sicher sind und die Systeme zuverlässig zur Lutz Kolmey: „Krisen­ pläne, Krisenstäbe, ­Eskalationsprozesse und ähnliches funktionieren nur, wenn sie vor der ­Krise in Ruhe durchdacht, abgestimmt und fixiert werden.“ Bild:modITServices
  • 37. CIOBRIEFING 08/2015 Seite 37 Verfügung stehen. Die Anbieter müssen zudem ihre Kunden warnen, wenn ihnen Angriffe auf die Anschlüsse der Nutzer auf- fallen. Natürlich sind sie auch verpflichtet, dies der Bundesnetz- agentur und dem BSI zu melden. Kritikern genügt das nicht Vor allem der Opposition im Deutschen Bundestag und Daten- schutzrechtlern geht das neue IT-Sicherheitsgesetz nicht weit ge- nug. Angesichts der massiven Sicherheitslücken im IT-Bereich kritisierte die Fraktion Bündnis 90/Die Grünen, dass der Ent- wurf nicht bereits viel früher vorgelegt worden sei und dass das Gesetz sich nun weitestgehend auf die Betreiber Kritischer Infra- strukturen beschränke, die nicht einmal klar benannt seien. Die Meldepflichten der öffentlichen Behörden empfinden die Oppositionspolitiker als unzureichend geregelt. Darüber hinaus stellen die Grünen die künftige Rolle des BSI in Frage. Das Mi- nisterium soll künftig zur internationalen Zentralstelle für IT- Sicherheit ausgebaut werden und enger mit dem Bundeskriminal- amt zusammenarbeiten. Für beide Behörden sind zusätzliche Stellen geplant. Allerdings vertraue die Industrie dem BSI nicht im notwendigen Maße, son- dern betrachte es mehr als Anhängsel des Bundesinnenministe- riums, sagen die Oppositionspolitiker. Sie plädieren für eine un- abhängige Behörde. Und dann wäre da noch das Problem der Vorratsdatenspeiche- rung: Damit die Telekommunikationsanbieter ihrer Pflicht nach- kommen können, die Nutzer über etwaige Angriffe zu informie- ren, speichern sie Daten auf Vorrat für die Dauer von wenigen Tagen bis zu sechs Monaten. Das IT-Sicherheitsgesetz weitet damit sogar das gültige Telekommunikationsgesetz (TKG) aus, welches bereits eine begrenzte Befugnis zur Vorratsdatenspei- cherung zur Störungsabwehr enthält. Nun sollen auch Angriffe über Botnetze und Spam besser ab- gewehrt werden können. Diese „freiwillige Vorratsdatenspeiche- rung“ hatten sowohl Bürgerrechtler als auch der Bundesrat im Vorfeld kritisiert, trotzdem wurde hier nicht nachgebessert. Was Unternehmen jetzt konkret tun müssen Da das IT-Sicherheitsgesetz für das geforderte „Mindestmaß an IT-Sicherheit“ nur den Rahmen definiert, müssen nun die betrof- fenen Firmen gemeinsam mit dem BSI und den verschiedenen
  • 38. CIOBRIEFING 08/2015 Seite 38 Verbänden die Details aushandeln. Zwei Jahre bleiben insgesamt Zeit, bis die entsprechenden Maßnahmen umgesetzt sein sollen. Im Kern geht es für Unternehmen darum, ihre IT-Sicherheit auf den neuesten Stand zu bringen und Prozesse rund um Sicher- heitsaudit, Meldepflichten und Ansprechpartner zu etablieren. Dafür sind einige Analysen und organisatorische Maßnahmen notwendig, die Unternehmen zeitnah einplanen sollten: Eine um- fassende Risikoanalyse klärt, welche Bereiche im Unternehmen als kritisch gelten. Dabei geht es sowohl um die Sicherheit der eigenen Infrastruktur als auch um die Aufrechterhaltung der Dienste mit besonderem Wert für die Gesellschaft. Es gilt zu klären, was eigentlich genau bei Ausfällen passiert und welche Auswirkungen zu erwarten sind. Die besten Risiken sind die, die gar nicht entstehen. Vorbeugenden Maßnahmen und Strategien kommt hier eine be- sondere Bedeutung zu: Wie lassen sich Risiken vermeiden oder wenigstens mindern? Und wie lässt sich dies im Rahmen von Si- cherheitsaudits regelmäßig überprüfen? Schließlich sollten Un- ternehmen ihr bestehendes Krisenmanagement prüfen oder ein neues aufbauen. Krisenpläne, Krisenstäbe, Eskalationsprozesse und ähnliches funktionieren nur, wenn sie vor der Krise in Ruhe durchdacht, abgestimmt und fixiert werden. Wie es weiter geht In vier Jahren soll das IT-Sicherheitsgesetz evaluiert werden. Da auch auf europäischer Ebene an einer Richtlinie zur IT-Sicherheit (NIS) gearbeitet wird, könnte es schon vor Ablauf dieser Frist notwendig werden, das IT-Sicherheitsgesetz nachzubessern. Die Sprecher der Koalition werteten den Gesetzesbeschluss als wichtigen Schritt zur Stärkung der IT-Systeme in Deutschland. Und wie wichtig die Debatte um die IT-Sicherheit auf hoher Ebe- ne ist, zeigen nicht zuletzt die jüngsten Hackerangriffe auf den Bundestag. ■ Lutz Kolmey
  • 39. CIOBRIEFING 08/2015 Seite 39 Datacenter-Revolution im Kellerloch Von CoreOS kommt das ­Betriebssystem für ­Cloud-Rechenzentren Die großen Cloud-Rechenzentren scheinen derzeit den Weg in die IT-Zukunft zu weisen. Das Startup CoreOS hat sich auf Software für diese hochstandardisierten und – flexiblen Umgebungen spezialisiert. Google ist einer der Investoren. Hochflexible und –skalierbare Cloud-Rechenzentren funktionie- ren nach anderen Regeln als Unternehmensrechenzentren bisher. In ihnen soll es möglich sein, Lasten in Sekundenbruchteilen in- nerhalb der Infrastruktur zu verschieben, möglichst schnell neue Services informationstechnisch zusammenzubauen, die man dann den Kunden anbieten kann. Sie sollen am besten einen extrem hohen Sicherheitsstandard realisieren. Und sie brauchen, um den Flächenbedarf gering zu halten, eine hohe Auslastung. Außerdem soll ihre Hardware am besten von A bis Z aus durchstandardisierten Komponenten be- stehen, die ohne Betriebsunterbrechung und mit wenig techni- schem Wissen auswechselbar sind. Für all das eignen sich die gängigen Betriebssysteme und Hyper- visoren, egal, von wem sie stammen, kaum. Sie sind zu träge und zu komplex, bei der konventionellen, funktionsüberladenen Hardware ist es dasselbe. Die Folge: Es entstehen aus den Anfor- derungen der Cloud-Welt heraus neue Produkte und Standards. Das lässt sich besonders gut am Open Compute Project und ähn- lichen Vorhaben demonstrieren. Schlagkraftig: CoreOS, das in einem Souterrain von San Franzisko ­residiert, will bisherige Betriebssysteme ­wegräumen und ­bekommt dazu viel ­Unterstützung, unter ­anderem von Google. Bild:igor/Fotolia.com
  • 40. CIOBRIEFING 08/2015 Seite 40 Open Source funktioniert einfach Sie alle funktionieren nach dem Motto: Wenn wir es nicht haben, entwickeln wir es einfach, und zwar offen, mehr oder minder zur gemeinsamen Nutzung und ohne die etablierten Hersteller um Erlaubnis zu bitten. Wenn sie wollen, können sie ja mittun, wenn nicht, kommen wir auch ohne sie aus. Die Open-Source- Bewegung hat durch das Cloud-Paradigma gewaltigen Anschub erhalten. Aus ihr entsteht nun wieder eine neue Gründungswelle, die die nächsten Jahrzehnte der IT prägen könnte. Ein Beispiel für derartige Neugründungen ist CoreOS, ein Star- tup, das gerade neue Büros in unmittelbarer Nähe der Cesar Chavez Street im Lationo-dominierten Mission-District von San Francisco bezogen hat. Cesar Chavez, so die Kurzbezeichnung der Straße, heißt nach einem frühen US-amerikanischen Gewerk- schaftsführer. Er trat den Großunternehmen seiner Zeit mit revo- lutionärem Elan entgegen und setzte Arbeitnehmerrechte durch. Insofern ist die Gegend kein schlechter Standort für CoreOS: Das Unternehmen will mit seinen Open-Source-basierenden Produk- ten die verkrusteten Verhältnisse in der Betriebssystem- und Hy- pervisoren-Branche nachhaltig zum Tanzen bringen. Derzeit vor allem in den größeren Cloud-Rechenzentren. Und irgendwann später vielleicht auch in anderen Rechenzentren, denen von Un- ternehmen. Gründerspirit und große Pläne Im Keller des Hauses, in dem die rasch wachsende Firma ausbrei- tet, stehen ein paar alte Sofas um einen klapprigen Tisch herum, vorn ein Flipchart, in der Ecke der Kühlschrank mit Cola und allerlei Biodrinks. „Hier verbringen wir viel von unserer Zeit und brüten neue Ideen aus“, erklärt PR-Managerin Kelly Tenn. Das Gründungsdomizil war stilecht eine der berühmten Garagen, in denen viele der großen und spannenden IT-Geschichten der USA beginnen. Der Boss der gerade einmal zwei Jahre alten Firma mit inzwi- schen 40 Mitarbeitern hält sich nicht mit Kleinigkeiten auf. „Wir bauen das sichere Betriebssystem für das Container-Zeitalter“, sagt CEO Alex Polvi vollmundig. Er ist 28 Jahre jung, mit ath- letischer Statur und brennenden Augen. Man ist geneigt, ihm zu glauben. Das tun schließlich auch namhafte Investoren, die bereits 20 Mil- lionen Dollar in CoreOS gesteckt haben. Einer davon ist Google.
  • 41. CIOBRIEFING 08/2015 Seite 41 Polvi hat sich seine Sporen und die erste Million bereits verdient: er hat mit „Cloud Kick“ schon einmal einen Startup gegründet, der 2010 für 40 Millionen Dollar an Rackspace ging. CoreOS patcht wie Mobiltelefone Doch was hat CoreOS nun anzubieten? „Wegen Update- und Patching-Problemen fehlt es der Server-Infrastruktur in Rechen- zentren heute grundsätzlich an Sicherheit“, sagt Polvi. Also habe man ein abgespecktes Linux entwickelt, CoreOS eben, das opti- miert für verteilte Systeme, standardisierte Hardware und Appli- kationscontainer sei, erläutert Polvi. Der Update-Mechanismus CoreUpdate ermöglicht jederzeit Überblick darüber, wo welche Systemvarianten von CoreOS laufen. Maschinen können gruppenweise aktualisiert oder auch von Update-Läufen systematisch ausgeschlossen werden. All das wird über eine übersichtliche Web-Benutzerschnittstelle gesteu- ert und in einem Dashboard grafisch und in Zahlen dargestellt (siehe: Abbildung). Gehört Containern die Zukunft? Den Containern gehöre, so Polvi, wegen ihrer Flexibilität, ihrer Ressourcensparsamkeit und der Möglichkeit, sie unabhängig von Hypervisoren zu verwenden, die Zukunft. Sie steigerten die Aus- lastung der Server-Hardware gegenüber virtuellen Maschinen um das Zehnfache, behauptet Polvi. Legt man aktuelle Auslas- tungsschätzungen für Rechenzentren zugrunde – 30 Prozent sind hier schon ein guter Wert – ist dieses Argument sicherlich für viele scharf kalkulierende Betreiber von Cloud-Dienstleistungs- rechenzentren reizvoll. Eine Professional-Variante von CoreOS ist kostenpflichtig, für monatliche Pauschalkosten, die sich nach der Zahl der Server richten, erhalten Anwender Wartung, Support und Updates. Hin- ter der Lösung steht eine mehrhundertköpfige Entwickler-Com- munity. Sie entwickelt das Betriebssystem stetig weiter. Gegen- über vergleichbaren Projekten und Produkten wie DCOS oder MesOS hebe sich CoreOS vor allem durch mehr Sicherheitsfea- tures ab, sagt Polvi. Im April machte CoreOS „Tectonic“ kommerziell verfügbar. Das Projekt kombiniert die Container-Management-Umgebung mit dem CoreOS-Stack, woraus sich eine Google-ähnlich funktio- nierende Infrastruktur bauen lässt. Dazu kommen Funktionen,
  • 42. CIOBRIEFING 08/2015 Seite 42 die für kommerzielle RZ-Umgebungen wichtig sind, etwa eine Management-Konsole für Workflows und Dashboards, eine inte- grierte Registry, um Linux-Container zu bauen und gemeinsam zu nutzen und Tools für automatisiertes Deployment oder die Au- tomatisierung von Updates. Die Docker-Alternative Ein weiteres Open-Produkt, an dem CoreOS kontinuierlich ar- beitet, ist „rkt“ (sprich: Rock it), laut Polvi das erste Container- format, das der Application Content Specification des Open Con- tainer Project entspricht. Es ist eine Alternative zur gegenwärtig gehypten, proprietären Containertechnik Docker. Mit rkt-Containern lassen sich flexibel Mikroservices bereitstel- len und zu immer neuen Services für Kunden zusammensetzen. Das entspreche der Philosophie des Cloud-Zeitalters, in der es nicht mehr um die Compute-Leistung gehe, sondern vor allem um die der Applikationen, sagt Polvi. Entscheidungsmechanismen für unsichere Situationen Schließlich steckt CoreOS maßgeblich hinter dem Open-Source- Projekt „etcd“, einem verteilten Key-Value-Speicher , der in der Sprache „Go“ geschrieben ist und mit dem sich verteilte Systeme konsistent halten lassen. Ziel von etcd ist es, möglichst kleine Datenbits extrem hochverfügbar zu machen. Das andere Zookeeper etcd steckt in „Pivotal Cloud Foundry“ genau wie in Googles Container-Management-Software „Kubernetes“. Die Anwendung verwendet so genannte Kohäsionsalgorithmen. Diese ermögli- chen bessere, sicherere Entscheidungen bei unsicheren Entschei- dungssituationen, wie sie etwa in der Echtzeitsteuerung von Ma- schinen auftauchen können. Rund 500 auf GitHub gelistete Projekte nutzen etcd bereits. Eine Alternative zu etcd ist das Apache-Projekt „Zookeeper“, das al- lerdings auf Hadoop-Umgebungen beschränkt ist. Sein bisheriger Erfolg scheint CEO Polvi nicht sonderlich zu kümmern. Gefragt, warum man in einem, nun ja, Rattenloch re- sidiere, beantwortet der Manager mit überzeugender Schlichtheit: In dem frühen Stadium, in dem sich sein Unternehmen befinde, sei es ganz einfach angemessen, auf Luxus zu verzichten und alle Mittel in die Produktentwicklung zu stecken.
  • 43. CIOBRIEFING 08/2015 Seite 43 Wer weiß, was geschähe, wenn sich die heutigen Giganten der IT- Branche einmal auf diese Devise zurückbesinnen würden. Doch damit ist wohl kaum zu rechnen. ■ Ariane Rüdiger Mehr zum Thema Data Center finden Sie auf www.datacenter-insider.de Technology-Update für IT-Manager CIOBRIEFING
  • 44. CIOBRIEFING 08/2015 Seite 44 Berechtigungen, Datensicherheit und ­Verwaltung bei Fileservices Dateiserver von Windows nach Linux migrieren Viele Unternehmen wechseln derzeit von Windows zu Linux. Das liegt vor allem an dem Support-Ende von Windows Server 2003/2003 R2 und SBS 2003/2003 R2. Anstatt alte Windows-Versionen zu erneuern, wechseln immer mehr Unternehmen lieber auf das Opensource- Betriebssystem. Hier muss aber einiges beachten wer- den. Linux-Server sind auch für Windows-Administratoren mit ge- ringen Linux-Kenntnissen schnell aufgesetzt und betriebsbereit. Von vielen Herstellern gibt es assistentengestützte Systeme, die über eine Weboberfläche verwaltet werden. An dieser Hürde scheitern Migrationsobjekte daher selten. Die Haken liegen an anderer Stelle. Um auch in kleinen Unternehmen Daten zentral abzulegen, ­E-Mails zu senden und andere Funktionen der Gruppenarbeit zu nutzen, ist nicht immer ein Windows-Server notwendig. Es gibt einige Linux-Distributionen die ähnlichen Funktionsumfang ­bieten und schnell und einfach zu installieren und zu verwalten sind. Vorteil dabei ist, dass diese meistens kostenlos zur Verfügung stehen. Allerdings müssen Administratoren vorher gut planen und keine Schnellschüsse bei der Migration durchführen. Auch für Linux gibt es angepasste Sicherungs- Lösungen. Diese müssen aber an die eigenen ­Bedürfnisse angepasst werden. Bild:ThomasJoos
  • 45. CIOBRIEFING 08/2015 Seite 45 Auswahl der optimalen Distribution Bevor Unternehmen zu Linux wechseln, muss erst geklärt wer- den, welche Distribution zum Einsatz kommen soll. Auf dem Markt gibt es neben SUSE, Ubuntu, Debian und Red Hat, dut- zende weitere Distributionen in verschiedenen Formen und De- rivaten. Wichtig ist an dieser Stelle die Kompatibilität mit den Dateien, die auf den Servern gespeichert werden sollen. Außerdem muss entschieden werden, ob die Client-Rechner der Anwender wei- terhin mit Windows betrieben werden sollen. Wenn ja, muss die Distribution natürlich kompatibel mit Windows sein und auch die Anmeldung von Windows-Rechnern erlauben. Hier wird oft mit Samba gearbeitet. Aber auch mit nachträglich installierter grafischer Oberfläche werden viele Einstellungen und Konfiguration in Linux mit Konfi- gurationsdateien und in der Shell durchgeführt. Außnahmen sind natürlich spezielle Server, die neben Dateidienste noch weitere Funktionen zur Verfügung stellen, zum Beispiel DNS, DHCP, Mail und mehr. Hier werden die Einstellungen in den meisten Fällen in einer webbasierten Oberfläche durchgeführt. Wenn es um die Authentifizierung von Benutzer und der Absi- cherung von Daten in Netzwerken geht, kommen Administrato- ren kaum um eine Windows-Domäne, seit Windows 2000 auch Active Directory genannt herum. Administratoren, die auf Linux setzen wollen, können eine Windows-Domäne auch mit einem kostenlosen Samba-Server auf Basis von Linux darstellen. Samba 4 steht auf verschiedenen Wegen als Linux-Distribution zur Verfügung. Auch Univention Corporate Server bietet eine Linux-Distribution mit Samba 4 und zusätzlich eine webbasierte Verwaltungsoberfläche. Server-Versionen verwenden, keine Desktop-Linux-Varianten Administratoren sollten beim Betrieb von Linux-Servern darauf achten, eine echte Server-Version zu installieren, nicht die Desk- top-Version der entsprechenden Distribution. Denn nur diese bie- ten optimale Möglichkeiten für die von Client-Rechnern und dem Aufbauen von Server-Infrastrukturen. Der Nachteil der Server-Versionen ist das Fehlen der grafischen Oberfläche, was für Linux-Admins kein Problem darstellt, für Windows-Administratoren allerdings etwas komplizierter ist.
  • 46. CIOBRIEFING 08/2015 Seite 46 Administratoren haben aber die Möglichkeit, zum Beispiel nach der Installation eines Ubuntu-Servers, eine eingeschränkte grafi- sche Oberfläche zu installieren. Wenn keine spezielle Version, wie UCS zum Einsatz kommt, ge- staltet sich nach der Installation auch die Verwaltung der Berech- tigungen etwas komplizierter. Denn hier fehlen unterstützende Assistenten, und Administratoren müssen sehr sorgfältig vorge- hen, wenn es um die Erteilung von Rechten auf Verzeichnisse und Freigaben geht. Berechtigungen der Verzeichnisse beachten In den meisten Firmen liegen für Verzeichnisse und Freigaben komplexe und verschachtelte Strukturen vor. Die Berechtigungen der Verzeichnisse und Freigaben sind außerdem in den seltensten Fällen dokumentiert. Das heißt, bei einem Wechsel der Verzeichnisse und Freigabe auf Linux-Systeme lässt sich schwer mit Tools und Anwendungen ar- beiten, sondern Administratoren müssen die Verzeichnisstruktur neu aufbauen. Das liegt nicht zuletzt daran, dass Windows-Ser- ver meistens mit NTFS arbeiten, während auf Linux-Servern das ext3/4-System zum Einsatz kommt. Hier muss also sehr gut geplant werden, welche Verzeichnisse/ Freigaben übernommen werden, und wie die neue Rechtestruk- tur aussehen soll. Bevor die Verzeichnisse und Freigaben sowie deren Daten übernommen werden können, müssen sich Verant- wortliche zunächst genau darüber im Klaren sein, wie die Benut- zerkonten von Windows zu Linux übernommen werden sollen. Hier stehen zwar Migrationstools zur Verfügung, allerdings ar- beiten Windows und Linux in diesem Bereich nicht ideal zusam- men. Sobald die Benutzer und Gruppen übernommen oder neu angelegt wurden, müssen Rechte und Freigaben neu erstellt und konfiguriert werden. Außerdem müssen in den meisten Fällen die Daten manuell übernommen werden. Während der Migration wird es also in vielen Fällen zu Paral- lel-Installationen von Windows und Linux kommen. Am besten werden hier einzelne Verzeichnisse und Freigaben hintereinan- der migriert. Das hat den Vorteil, dass die neue Struktur getestet werden kann, bevor alle Benutzer umgezogen werden. Funktio- niert etwas nicht, lassen sich immer noch die alten Daten auf dem Windows-Server nutzen.
  • 47. CIOBRIEFING 08/2015 Seite 47 Speicher-Hardware beachten Viele Unternehmen nutzen für die Datenablage auch externe Plattensysteme. Hier muss darauf geachtet werden, dass diese optimal mit der entsprechenden Linux-Distribution zusammen- arbeiten kannund auch die notwendigen Treiber zur Verfügung gestellt werden. Bei der Anbindung sollten natürlich keine Daten verloren gehen und die Geschwindigkeit der Anbindung sollte möglichst nicht abnehmen. Außerdem muss der stabile Betrieb gewährleistet wer- den. Arbeiten Unternehmen mit NAS-Systemen zur Datenspei- cherung, sollten sich die Probleme in Grenzen halten. Aber auch hier sollten Administratoren darauf achten, dass NAS- und Linux- Server sowie die erstellten Freigaben problemlos funktionieren. Die Herausforderung an dieser Stelle ist, dass nicht einfach das System mit Linux verbunden werden kann, da die Freigaben und Verzeichnisse auf dem Gerät mit den entsprechenden Berechti- gungen konfiguriert werden müssen. Datensicherheit und Datensicherung beachten Wenn die Daten erfolgreich übernommen worden sind, und die Berechtigungen funktionieren, muss auch das Thema Datensi- cherheit und Datensicherung berücksichtigt werden. Auch auf Linux-Servern und auf Dateien auf Linux-Servern können sich Viren einschleichen. Daher ist auch auf diesen Servern ein Virenscanner notwendig. Im Opensource-Bereich gibt es sehr viele Alternativen. Aller- dings müssen auch diese erst gefunden, installiert und auch ein- gerichtet werden. Außerdem müssen sich Administratoren in die Verwaltung dieser neuen Lösungen einarbeiten. Neben dem Virenschutz spielt natürlich auch das Thema Datensi- cherung eine wichtige Rolle. Ist im Unternehmen bereits eine Da- tensicherungs-Lösung im Einsatz, muss überprüft werden, ob Li- nux in der eingesetzten Distribution überhaupt unterstützt wird. Außerdem muss der Client eingerichtet und der Linux-Server an die Sicherung angebunden werden. Soll der Datensicherungs-Server ebenfalls zu Linux gewechselt werden, müssen Verantwortliche entscheiden welche Sicherungs- lösung zum Einsatz kommen soll. Auch hier gibt es einige sehr gute Lösungen, die aber ebenfalls eingerichtet und verwaltet wer- den wollen.
  • 48. CIOBRIEFING 08/2015 Seite 48 Datensicherung auf Linux-NAS-System Sollen nicht die Dateiserver komplett auf Linux umgestellt wer- den, die Daten aber auf einem Linuxbasierten NAS-System ge- sichert werden, müssen Administratoren auch hier einiges be- achten. Wichtig ist auch hier, dass die Sicherungs-Software auf den Windows-Servern das NAS-System als Sicherungsmedium unterstützt. Wird mit Tools wie Robocopy gearbeitet, müssen Administratoren darauf achten, dass Replikationsmechanismen funktionieren. Denn nicht bei allen Linux-NAS-Systemen lässt sich Robocopy für die Replikation nutzen. Die replizierten Dateien werden nicht erkannt, und Robocopy und Co beginnen bei jeder Sicherung von vorne, anstatt nur die geänderten Dateien zu übertragen. Das be- lastet das Netzwerk, die beteiligten Server und erhöht den Siche- rungsaufwand und -Zeitraum enorm. Hier sollte vor der Umstellung als ausführlich getestet werden. Auch auf NAS-Systemen müssen Administratoren Rechte konfi- gurieren und die Datensicherung anpassen. Sollen die Daten zu- sätzlich noch vom NAS-System gesichert werden, muss auch das angepasst und zusammen mit der Server-Sicherung koordiniert werden. Auf der anderen Seite eignen sich die meisten professionellen NAS-Systeme auch als Dateiablage. Benutzer lassen sich auf den meisten Systemen genauso anlegen, wie auf Linux-Servern. Das liegt nicht zuletzt daran, dass viele NAS-Systeme ein angepass- tes Linux-System verwenden. Schattenkopien und Dateiversionen berücksichtigen Windows-Server bieten mit dem Schattenkopiedienst die Möglich- keit auch Versionen von Dateien auf den Dateiservern zu sichern. Anwender können auf diesem Weg selbst ältere Versionen ihrer Dateien wiederherstellen, wenn zum Beispiel fehlerhafte Ände- rungen seit der letzten Datensicherung vorgenommen wurden. Diese Technik funktioniert in Zusammenarbeit von Windows und Linux nicht mehr. Das heißt, Administratoren müssen in diesem Fall darauf achten, dass es auf den Linux-Servern entsprechend Ersatz gibt, damit Anwender weiterhin Dokumente herstellen können. Mit Windows 8 hat Microsoft den Dateiversionsverlauf zur Ver- fügung gestellt. Dieser kann Versionen von Dateien wiederum
  • 49. CIOBRIEFING 08/2015 Seite 49 auf Linux-NAS-Systemen verfügbar machen. Anwender können mit dem Dateiversionsverlauf ältere Versionen von Dokumenten wiederherstellen, auch dann wenn die Sicherung auf NAS-Sys- temen auf Basis von Linux installiert ist. Der Dateiversionsver- lauf ist der Nachfolger der Schattenkopien in Windows 8/8.1 und Windows 10. Der Dateiversionsverlauf hat allerdings nichts mit Schattenkopien auf Windows-Servern zu tun. Aber auch Linux kann im Grunde genommen im laufenden Betrieb Versionen von Dateien sichern. Dazu werden Snapshots genutzt. Hier sollten Administratoren also vor der Migration vorarbeiten und die Funktion einrichten, damit Anwender diese weiter nutzen können. Desaster-Recovery beachten Fallen Linux-Server aus, sind diese in den meisten Fällen schwe- rer wiederherzustellen, als Windows-Server. Wenn genügend Linux-Wissen im eigenen Unternehmen vorhanden ist, lässt sich dieses Problem häufig umgehen, sobald aber das Wissen nicht ausreicht, wird es schwerer. Durch die enorme Vielzahl an verschiedenen Distributionen und Versionen ist es schwer kompetente Hilfe zu finden, die bei einem Ausfall helfen kann. Hier sollte also schon im Vorfeld gut über- legt werden, wie eine eventuelle Wiederherstellung durchgeführt werden soll. Es gibt aber auch im Linux-Bereich einige Werkzeu- ge, die bei Wiederherstellungen helfen, vor allem wenn komplette Images erstellt wurden. Eine Alternative für Windows-Administratoren kann die Virtua- lisierung von Linux-Servern auf Basis einer kostenlosen Lösung wie Microsoft Hyper-V Server 2012 R2 oder VMware Hyper- visor sein. Der Vorteil dabei ist, dass die VMs auf den Servern recht leicht gesichert und wiederhergestellt werden können. Der Nachteil ist, dass die Leistung teilweise etwas eingeschränkt sein kann. Da durch die Virtualisierung aber die Ausfallsicher- heit des Dateiservers gegeben ist, sollten sich Verantwortliche diesen Schritt überlegen. ■ Thomas Joos
  • 50. Regelmäßig kostenlos lesen? Die Ausgabe 09/2015 erscheint am 01.09.2015 +++ Jetzt anmelden auf +++ www.ip-insider.de/cio www.security-insider.de/cio www.cloudcomputing-insider.de/ciowww.bigdata-insider.de/cio www.datacenter-insider.de/cio www.storage-insider.de/cio Technology-Update für IT-Manager CIOBRIEFING