NetApp HCI. Deutlich anders.
Von Engpässen …
Von aufwändigen Upgrades …
Durch optimale Nutzung von Daten
in eine neue Startposition
Von Datensilos …
Datacenter der
Enterprise-IT nächsten Generation
Public Cloud
Cloud-übergreifend
NetApp Data Fabric
ODER
> 300 Schritte
Gestresste und überlastete
IT-Abteilung
IT-Abteilung
hat mehr Zeit für wirklich wichtige Dinge
Kleiner Bruchteil
der Schritte
Vorbei sind die Einschränkungen der bisherigen
Hyper-Converged-Infrastrukturlösungen (HCI)
Präsentation von Pierre Flammer zu Nimble Storage im Einsatz mit VMware. Nimble Storage bietet eine Flash-optimierte Architektur, welche es ermöglicht auf physisch kleinem Raum eine hohe Kapazität und für leistungshungrige Applikationen hochperformanten Storage zur Verfügung zu stellen.
Zeros Data Loss Recovery Appliance (ZDLRA) - Neue Wege für Backup und Recoveryoraclebudb
Die Zero Data Loss Recovery Appliance (ZDLRA) ist das jüngste Mitglied der Engineered Systems Familie von Oracle. Sie dient der Sicherung bis zu hunderter Oracle Datenbanken auf einem zentralen System und löst dabei die größten Herausforderungen, die bei der Implementierung eines unternehmesweiten, zentralen Backup & Recovery Konzeptes auftreten:
- Minimale Beeinträchtigung der Produktion durch Backup Aktivitäten
- Optimierung von Recovery Time Objective (RTO) und Recovery Point Objective (RPO)
- End-to-End Überwachung und Steuerung aller B&R Aktivitäten
- Hohe Skalierbarkeit
In diesem Vortrag wird die Zero Data Loss Recovery Appliance (ZDLRA) vorgestellt und erklärt, wie sich die ZDLRA von herkömmlichen Backup & Recovery Konzepten unterscheidet.
NetApp HCI. Deutlich anders.
Von Engpässen …
Von aufwändigen Upgrades …
Durch optimale Nutzung von Daten
in eine neue Startposition
Von Datensilos …
Datacenter der
Enterprise-IT nächsten Generation
Public Cloud
Cloud-übergreifend
NetApp Data Fabric
ODER
> 300 Schritte
Gestresste und überlastete
IT-Abteilung
IT-Abteilung
hat mehr Zeit für wirklich wichtige Dinge
Kleiner Bruchteil
der Schritte
Vorbei sind die Einschränkungen der bisherigen
Hyper-Converged-Infrastrukturlösungen (HCI)
Präsentation von Pierre Flammer zu Nimble Storage im Einsatz mit VMware. Nimble Storage bietet eine Flash-optimierte Architektur, welche es ermöglicht auf physisch kleinem Raum eine hohe Kapazität und für leistungshungrige Applikationen hochperformanten Storage zur Verfügung zu stellen.
Zeros Data Loss Recovery Appliance (ZDLRA) - Neue Wege für Backup und Recoveryoraclebudb
Die Zero Data Loss Recovery Appliance (ZDLRA) ist das jüngste Mitglied der Engineered Systems Familie von Oracle. Sie dient der Sicherung bis zu hunderter Oracle Datenbanken auf einem zentralen System und löst dabei die größten Herausforderungen, die bei der Implementierung eines unternehmesweiten, zentralen Backup & Recovery Konzeptes auftreten:
- Minimale Beeinträchtigung der Produktion durch Backup Aktivitäten
- Optimierung von Recovery Time Objective (RTO) und Recovery Point Objective (RPO)
- End-to-End Überwachung und Steuerung aller B&R Aktivitäten
- Hohe Skalierbarkeit
In diesem Vortrag wird die Zero Data Loss Recovery Appliance (ZDLRA) vorgestellt und erklärt, wie sich die ZDLRA von herkömmlichen Backup & Recovery Konzepten unterscheidet.
War Serveradministration früher noch Handwerkskunst, geht der Trend seit ein paar Jahren mehr und mehr in Richtung Automatisierung und Industrialisierung des Rechenzentrum-Betriebs. Für Betriebssysteme gibt es dazu bereits ausgereifte, in der Praxis vielfach bewährte Werkzeuge. Anders bei der Arbeit mit Server-Hardware: das bekannte IPMI ist alt, kennt nur wenig Security, die noch dazu kaum benutzt wird, und Automatisierung dafür ist quasi nur als Workaround-Shell-Scripts zu haben. Redfish tritt an, IPMI an eben jener Automatisierungsfront abzulösen. Grundlage ist eine Absprache verschiedener Board- und Systemhersteller mit dem Ziel, einen einheitlichen Industriestandard als Programmierschnittstelle (API) zu schaffen. Darauf können dann Werkzeuge und integrierte Lösungen zur RZ-Automatisierung aufbauen. Mittelfristig soll damit IPMI komplett abgelöst werden.
Im Webinar kommen die grundsätzliche Funktionsweise und mögliche Einsatzgebiete zur Sprache. Wir geben einen Einblick in den Funktionsumfang von Redfish, ohne zu tief in die Programmierung abzutauchen.
Schnell, zuverlässig und skalierbar – Mit dem KEEPER Projekt entstand bei der Max-PlanckGesellschaft ein Langzeitdatenarchiv auf Basis der private Cloud Lösung Seafile. Es garantiert die Speicherung sämtlicher Daten für alle Mitarbeiter für mindestens ein Jahrzehnt.
In diesem Whitepaper werden die technischen Details und die Herausforderungen der Seafile basierten Lösung beschrieben.
Workshop Architecture: Thomas Uhl, Lisog - Deutsche Wolke
---
Please contact us for a downloadable copy of the slides at CloudOps.Summit@googlemail.com .
Follow us on Twitter @CloudOps_Summit and
Facebook http://www.facebook.com/CloudOps
Sven Schlarb of the Austrian National Library presented SCAPE (in German). Besides giving a general overview of SCAPE the presentation also includes descriptions of SCAPE solutions, including tools, software integration, planning, and more.
The presentation was given at the Austrian Library day on ‘National Initiatives on Digital Information. Repositories, Research data and long-term preservation in Austria’ (http://www.obvsg.at/voeb-obvsg-bibliothekstage-2013/programm-410/) on 4 October 2013 in Vienna.
Data Lake Architektur: Von den Anforderungen zur TechnologieJens Albrecht
Keynote auf dem BARC Big Data Forum auf der OOP 2017, München.
Data Lakes bieten das Potenzial, den Zugriff auf heterogene Massendaten deutlich schneller und einfacher als relationale DWH-System zu ermöglichen. Die Risiken, die sich durch neue Technologien und den weitgehenden Verzicht auf vorab definierte Strukturen ergeben, dürfen allerdings nicht außer acht gelassen werden. Anforderungsmuster helfen, notwendige Strukturen für den Data Lake an sich und auch den Technologie-Stack zu definieren.
Mag. Christian Samide (Pure Storage Austria), Ing. Johannes Kornfellner (Öste...Agenda Europe 2035
Uncomplicated Data Storage, forever? Ist eine effiziente, einfache und ökologisch sinnvolle Datenspeicherung ohne Neukauf möglich? Moderne Datenhaltung am Beispiel des Österreichischen Parlaments. Mag. Christian Samide (Pure Storage Austria), Ing. Johannes Kornfellner (Österreichisches Parlament).
Caching - Hintergründe, Patterns und Best PracticesMichael Plöd
Das Thema Caching ist für zahlreiche Business Anwendungen relevant und der Markt für Caching-Lösungen reicht von einfachen lokalen Caches bis hin zu mächtigen und komplexen Data Grids. Ein weiteres Differenzierungsmerkmal ist die Konsistenzgarantie beziehungsweise die transaktionale Integrität, welche die unterschiedlichen Lösungen bieten. Allerdings unterscheiden sich Anwendungen, welche Geschäftsprozesse in gewachsenen Unternehmenslandschaften umsetzen stark von sozialen Netzwerken oder Internetdiensten, welche aus dem Startup-Umfeld kommen.
Der Vortrag adressiert in erster Linie das erste Szenario: Caching in Unternehmensanwendungen, welche auf Basis einer bereits bestehenden Infrastruktur umgesetzt werden. Hierbei werden zuerst die Herausforderungen, die diese Anwendungen an das Thema Caching stellen, vorgestellt. Aspekte die hierbei betrachtet werden sind: Security, Monitoring, Audit-Compliance, Art der Daten sowie Geschäftsprozesse. Im zweiten Teil werden unterschiedliche Arten des Cachings vorgestellt und im Hinblick auf die eben erwähnten Herausforderungen bewertet. Abschließend geht der Vortrag darauf ein, welche Patterns und Best Practices sich in der Praxis bewährt haben und wie das Thema Caching möglichst transparent und deterministisch in Business-Anwendungen integriert werden kann.
Business Intelligence, Big Data und Search - Drei Seiten einer Medaille?inovex GmbH
Big Data ist in aller Munde – so sehr, dass man schon befürchten muss, dass wieder einmal mit einem Buzzword Erwartungen geweckt werden, die kaum erfüllt werden können. Spricht man mit Unternehmen, zeigt sich schnell, dass viele noch auf der Suche nach dem Business Case sind. Für andere ist gerade im Bereich Business Intelligence der Einsatz von Big Data Technologien bereits seit langem tägliche Praxis und der Nutzen offensichtlich. Die Präsentation zeigt anhand konkreter Projekterfahrungen, wo aktuell die Herausforderungen liegen und wie Open Source Werkzeuge zur Lösung beitragen können.
http://www.opitz-consulting.com/go/3-2-11
SQL ist im Rahmen von Big Data die Basis, um Daten zu analysieren. Neben relationalen Datenbanken werden mit Big Data auch Daten aus Hadoop, NoSQL oder anderen Quellen im Data Warehouse integriert. Kann hier SQL verwendet werden?
Der Begriff des Logical Data Warehouse beschreibt die Architektur des Datawarehouses mit verschiedenartigen Quellen. Man beschränkt sich nicht mehr auf eine einzelne Datenbank, sondern integriert weitere Datenspeicher. Hadoop spielt in diesem Zusammenhang eine große Rolle.
Wie kann eine Kombination von Oracle Datenbank und Hadoop implementiert werden? Wie werden die Daten zwischen den Systemen ausgetauscht? Wie können alle Daten mit SQL analysiert werden?
In ihrem Vortrag bei der DOAG Business Intelligence Konferenz 2015 erklärten unser IT-Experte Ingo Reisky und Matthias Fuchs von ise Informatik, wie die einzelnen Komponenten von Hadoop mit SQL abgefragt werden können und welche Innovation Oracle an dieser Stelle bietet. Die Referenten stellten Hadoop Tools wie SQOOP, HIVE, Spark, Oozie und die Connectoren bzw. BigDataSQL von Oracle vor und zeigten wie SQL zur Analytik verwendet werden kann.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Hochleistungsspeichersysteme für Datenanalyse an der TU Dresden (Michael Kluge)data://disrupted®
Zur Unterstützung von Big Data und Machine Learning Szenarien wurde am Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) der TU Dresden eine neue Speicherlandschaft mit „NVMe Storage“ (2 PB Kapazität und 2 TB/s Bandbreite, <100us Latenz) und „Warm Archive“ auf Basis des S3-Protokolls (10 PB Kapazität und 50 GB/s Bandbreite) aufgebaut. Dr. Michael Kluge vom ZIH (Abteilungsleiter System- und Dienstentwurf) erläutert die besonderen Anforderungen dieses Projektes und berichtet vom Aufbau und Betrieb der Umgebung.
Steinzeit war gestern! Wege der Cloud-nativen Evolution.QAware GmbH
JCON 2018, Düsseldorf: Vortrag von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware)
Abstract:
Jahrzehnte lang haben wir mehr oder weniger erfolgreich monolithische Enterprise Applikationen gebaut. Leider können diese Systeme und deren Betriebsmodelle den hohen Anforderungen moderner Geschäftsmodelle nur noch schwer genügen. Kurze Release-Zyklen, Antifragilität und Hyperscale scheinen unerreichbar zu sein. Was also tun? Muss man diese Systeme alle neu bauen? Das ist sicherlich kein besonders ökonomischer und sinnvoller Weg. Dieser Vortrag zeigt mögliche Wege der Cloud-nativen Evolution von Bestandssystemen und berichtet aus der Praxis.
War Serveradministration früher noch Handwerkskunst, geht der Trend seit ein paar Jahren mehr und mehr in Richtung Automatisierung und Industrialisierung des Rechenzentrum-Betriebs. Für Betriebssysteme gibt es dazu bereits ausgereifte, in der Praxis vielfach bewährte Werkzeuge. Anders bei der Arbeit mit Server-Hardware: das bekannte IPMI ist alt, kennt nur wenig Security, die noch dazu kaum benutzt wird, und Automatisierung dafür ist quasi nur als Workaround-Shell-Scripts zu haben. Redfish tritt an, IPMI an eben jener Automatisierungsfront abzulösen. Grundlage ist eine Absprache verschiedener Board- und Systemhersteller mit dem Ziel, einen einheitlichen Industriestandard als Programmierschnittstelle (API) zu schaffen. Darauf können dann Werkzeuge und integrierte Lösungen zur RZ-Automatisierung aufbauen. Mittelfristig soll damit IPMI komplett abgelöst werden.
Im Webinar kommen die grundsätzliche Funktionsweise und mögliche Einsatzgebiete zur Sprache. Wir geben einen Einblick in den Funktionsumfang von Redfish, ohne zu tief in die Programmierung abzutauchen.
Schnell, zuverlässig und skalierbar – Mit dem KEEPER Projekt entstand bei der Max-PlanckGesellschaft ein Langzeitdatenarchiv auf Basis der private Cloud Lösung Seafile. Es garantiert die Speicherung sämtlicher Daten für alle Mitarbeiter für mindestens ein Jahrzehnt.
In diesem Whitepaper werden die technischen Details und die Herausforderungen der Seafile basierten Lösung beschrieben.
Workshop Architecture: Thomas Uhl, Lisog - Deutsche Wolke
---
Please contact us for a downloadable copy of the slides at CloudOps.Summit@googlemail.com .
Follow us on Twitter @CloudOps_Summit and
Facebook http://www.facebook.com/CloudOps
Sven Schlarb of the Austrian National Library presented SCAPE (in German). Besides giving a general overview of SCAPE the presentation also includes descriptions of SCAPE solutions, including tools, software integration, planning, and more.
The presentation was given at the Austrian Library day on ‘National Initiatives on Digital Information. Repositories, Research data and long-term preservation in Austria’ (http://www.obvsg.at/voeb-obvsg-bibliothekstage-2013/programm-410/) on 4 October 2013 in Vienna.
Data Lake Architektur: Von den Anforderungen zur TechnologieJens Albrecht
Keynote auf dem BARC Big Data Forum auf der OOP 2017, München.
Data Lakes bieten das Potenzial, den Zugriff auf heterogene Massendaten deutlich schneller und einfacher als relationale DWH-System zu ermöglichen. Die Risiken, die sich durch neue Technologien und den weitgehenden Verzicht auf vorab definierte Strukturen ergeben, dürfen allerdings nicht außer acht gelassen werden. Anforderungsmuster helfen, notwendige Strukturen für den Data Lake an sich und auch den Technologie-Stack zu definieren.
Mag. Christian Samide (Pure Storage Austria), Ing. Johannes Kornfellner (Öste...Agenda Europe 2035
Uncomplicated Data Storage, forever? Ist eine effiziente, einfache und ökologisch sinnvolle Datenspeicherung ohne Neukauf möglich? Moderne Datenhaltung am Beispiel des Österreichischen Parlaments. Mag. Christian Samide (Pure Storage Austria), Ing. Johannes Kornfellner (Österreichisches Parlament).
Caching - Hintergründe, Patterns und Best PracticesMichael Plöd
Das Thema Caching ist für zahlreiche Business Anwendungen relevant und der Markt für Caching-Lösungen reicht von einfachen lokalen Caches bis hin zu mächtigen und komplexen Data Grids. Ein weiteres Differenzierungsmerkmal ist die Konsistenzgarantie beziehungsweise die transaktionale Integrität, welche die unterschiedlichen Lösungen bieten. Allerdings unterscheiden sich Anwendungen, welche Geschäftsprozesse in gewachsenen Unternehmenslandschaften umsetzen stark von sozialen Netzwerken oder Internetdiensten, welche aus dem Startup-Umfeld kommen.
Der Vortrag adressiert in erster Linie das erste Szenario: Caching in Unternehmensanwendungen, welche auf Basis einer bereits bestehenden Infrastruktur umgesetzt werden. Hierbei werden zuerst die Herausforderungen, die diese Anwendungen an das Thema Caching stellen, vorgestellt. Aspekte die hierbei betrachtet werden sind: Security, Monitoring, Audit-Compliance, Art der Daten sowie Geschäftsprozesse. Im zweiten Teil werden unterschiedliche Arten des Cachings vorgestellt und im Hinblick auf die eben erwähnten Herausforderungen bewertet. Abschließend geht der Vortrag darauf ein, welche Patterns und Best Practices sich in der Praxis bewährt haben und wie das Thema Caching möglichst transparent und deterministisch in Business-Anwendungen integriert werden kann.
Business Intelligence, Big Data und Search - Drei Seiten einer Medaille?inovex GmbH
Big Data ist in aller Munde – so sehr, dass man schon befürchten muss, dass wieder einmal mit einem Buzzword Erwartungen geweckt werden, die kaum erfüllt werden können. Spricht man mit Unternehmen, zeigt sich schnell, dass viele noch auf der Suche nach dem Business Case sind. Für andere ist gerade im Bereich Business Intelligence der Einsatz von Big Data Technologien bereits seit langem tägliche Praxis und der Nutzen offensichtlich. Die Präsentation zeigt anhand konkreter Projekterfahrungen, wo aktuell die Herausforderungen liegen und wie Open Source Werkzeuge zur Lösung beitragen können.
http://www.opitz-consulting.com/go/3-2-11
SQL ist im Rahmen von Big Data die Basis, um Daten zu analysieren. Neben relationalen Datenbanken werden mit Big Data auch Daten aus Hadoop, NoSQL oder anderen Quellen im Data Warehouse integriert. Kann hier SQL verwendet werden?
Der Begriff des Logical Data Warehouse beschreibt die Architektur des Datawarehouses mit verschiedenartigen Quellen. Man beschränkt sich nicht mehr auf eine einzelne Datenbank, sondern integriert weitere Datenspeicher. Hadoop spielt in diesem Zusammenhang eine große Rolle.
Wie kann eine Kombination von Oracle Datenbank und Hadoop implementiert werden? Wie werden die Daten zwischen den Systemen ausgetauscht? Wie können alle Daten mit SQL analysiert werden?
In ihrem Vortrag bei der DOAG Business Intelligence Konferenz 2015 erklärten unser IT-Experte Ingo Reisky und Matthias Fuchs von ise Informatik, wie die einzelnen Komponenten von Hadoop mit SQL abgefragt werden können und welche Innovation Oracle an dieser Stelle bietet. Die Referenten stellten Hadoop Tools wie SQOOP, HIVE, Spark, Oozie und die Connectoren bzw. BigDataSQL von Oracle vor und zeigten wie SQL zur Analytik verwendet werden kann.
--
Über uns:
Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10
Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874
Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Hochleistungsspeichersysteme für Datenanalyse an der TU Dresden (Michael Kluge)data://disrupted®
Zur Unterstützung von Big Data und Machine Learning Szenarien wurde am Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) der TU Dresden eine neue Speicherlandschaft mit „NVMe Storage“ (2 PB Kapazität und 2 TB/s Bandbreite, <100us Latenz) und „Warm Archive“ auf Basis des S3-Protokolls (10 PB Kapazität und 50 GB/s Bandbreite) aufgebaut. Dr. Michael Kluge vom ZIH (Abteilungsleiter System- und Dienstentwurf) erläutert die besonderen Anforderungen dieses Projektes und berichtet vom Aufbau und Betrieb der Umgebung.
Steinzeit war gestern! Wege der Cloud-nativen Evolution.QAware GmbH
JCON 2018, Düsseldorf: Vortrag von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware)
Abstract:
Jahrzehnte lang haben wir mehr oder weniger erfolgreich monolithische Enterprise Applikationen gebaut. Leider können diese Systeme und deren Betriebsmodelle den hohen Anforderungen moderner Geschäftsmodelle nur noch schwer genügen. Kurze Release-Zyklen, Antifragilität und Hyperscale scheinen unerreichbar zu sein. Was also tun? Muss man diese Systeme alle neu bauen? Das ist sicherlich kein besonders ökonomischer und sinnvoller Weg. Dieser Vortrag zeigt mögliche Wege der Cloud-nativen Evolution von Bestandssystemen und berichtet aus der Praxis.
2. Aktuelles Datenwachstum
• Wo entsteht das enorme Datenwachstum?
• Verhältnis zwischen produktiven Daten und Kopien 5:1
• 2013: finanzieller Aufwand für Kopien übersteigt Produktion
‚Copy‘ Daten
Produktionsdaten
1 - IDC Worldwide Disk Storage System Report 2011-2015
3. Aktuelles Datenwachstum
• Wo entsteht das enorme Datenwachstum?
• Verhältnis zwischen produktiven Daten und Kopien 5:1
• 2013: finanzieller Aufwand für Kopien übersteigt Produktion
Test und Development
Snapshot
Backup
Disaster Recovery ‚Copy‘ Daten
Produktionsdaten
1 - IDC Worldwide Disk Storage System Report 2011-2015
4. Wo entstehen die Daten?
Applikation
Backup Spiegelung
Test/Development Snapshot
5. Wie verwalten Sie heute Kopien?
DataDomain StoreOnce ONTP Protectier
Deduplication Avamar Deduplication HDPS
Legato DataProtector CommVault HDPS
Backup SyncSort
SRDF Storage
Replication Mirrowview Replication
SnapMirrow TrueCopy
TimeFinder EVA Snapshot SnapVault Shadow Image
Snapshot Snapview XP Snapshot
EMC HP NetApp HDS
Beispiele für benötigte Soft- und Hardware Produkte
6. Der neue Lösungsansatz
Radically simple copy data management
Sofortige Wiederherstellung für ein Zehntel der
Kosten, die heute entstehen
7. Technologie
• Actifio liefert ‚Protection and Availability‘ Storage (PAS)
• Die PAS Plattform wird in jeder Site Domain installiert
• Die PAS Plattform kopiert die Daten gemäß der SLAs
• Die PAS Plattform dedupliziert die Daten auf der ‚Copy Site‘
• Die PAS Plattform verwendet ‚Virtual Data Pipeline (VDP)
8. Technologie
VDP ist ein verteiltes objektorientiertes Dateisystem, das die Basisaufgaben
(copy, store, move & restore) bereitstellt. VDP ermöglicht die sofortige
Bereitstellung von Kopien von Point-In-Time Daten einer Auswahl an
Datenblöcken.
9. Technologie
Mit einer einzigen Applikation können verschiedene Soft- und Hardware
Produkte ersetzt werden. Über ein einfaches SLA Management Interface
verwaltet werden.
10. Was sagen die Analysten über PAS?
Dave Russel, Gartner Backup Analyst: „Actifio offers midsize and large
enterprises the ability to unify their approach to secondary copies of data,
thereby bringing together backup, disaster recovery, business continuity
and test and development processes under a centralized policy – based
solution. Include Actifio when seking to lower the cost of data
availability and protection….“
Steve Duplessie, ESG Founder: „ESG lab was able to confirm 29 times
(2900%) capacity reduction compared with the tradional copy
management approach. By leveraging deduplicated replication, we also
obsered a 97% reduction in the bandwith required for replication.
Actifio PAS represends a new class of storage designed to simplify and
streamline the IT infrastructure, and the benifits are dramatic.
11. Wir helfen Ihnen,
Ihr Datenwachstum zu reduzieren,
Sicherheit zu erhöhen
und Kosten zu sparen.