aOS Aachen 2019 - Exchange Server 2019 - Wie macht man es richtig?Thomas Stensitzki
Dies ist meine Präsentation zum aOS Community Event 2019 in Aachen. In dieser Präsentation erfahren Sie, warum es für Exchange Server 2019 eine empfohlene Architektur (Preferred Architecure) für einen sicheren und stabilen Betrieb gibt.
Exchange Server 2019 MetaCache Database und BigFunnelThomas Stensitzki
Diese Präsentation für die Exchange Server User Group erläutere ich die Funktion und Vorteile der MetaCache Datenbank von Exchange Server 2019. Die MetaCache Datenbank (MCDB) verbessert mit der neuen Suchfunktion (BigFunnel) die Performance von Exchange Server 2019.
Exchange Server User Group Berlin | Meetup 2019-04-03Thomas Stensitzki
Folien zum Exchange User Group Berlin Meetup am 3. April 2019
- Exchange Server 2019 MetaCache Database und Big Funnel
- Migration zu Exchange Server 2019
Cloud-Provider stehen oft vor dem Problem den richtigen Storage für ihr Cloud-Portfolio zu implementieren. Lösungsansätze a la DRBD-Daisy-Chain und der Einsatz von Cluster-Filesystem a la OCFS2, GFS2 und Lustre treiben dem Admin oft Angstschweiss ins Gesicht, wenn sie sich Gedanken um Fencing und Stonith machen.
GlusterFS ist ein neuer Ansatz, um Architekturen zu vereinfachen und bessere Skalierbarkeit zu erreichen. GlusterFS sattelt auf beliebigen lokalen Filesystemen auf, skaliert bis zu mehreren Petabyte und bringt von Haus aus Raid-Funktionalitäten wie Striping und Replikation mit.
Der Vortrag befasst sich mit den theoretische Grundlagen, deren technischer Implementierung und praktischen Erfahrungen mit GlusterFS im Produktiveinsatz.
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
Diverse In-Memory-Technologien sind bereits seit langer Zeit verfügbar, wie z.B. Result Caches, verschiedene Buffer Caches, Pre-Loading von Objekten etc. Die aktuellste Oracle12c-Version geht jedoch einen großen Schritt weiter. Ohne Änderungen werden SQL-Abfragen um Faktoren beschleunigt; die Grundlage für Real-Time Analysen ist damit gelegt. Wie die einzelnen Techniken funktionieren und mit welchem geríngem Aufwand sie konfiguriert werden, wird erklärt.
aOS Aachen 2019 - Exchange Server 2019 - Wie macht man es richtig?Thomas Stensitzki
Dies ist meine Präsentation zum aOS Community Event 2019 in Aachen. In dieser Präsentation erfahren Sie, warum es für Exchange Server 2019 eine empfohlene Architektur (Preferred Architecure) für einen sicheren und stabilen Betrieb gibt.
Exchange Server 2019 MetaCache Database und BigFunnelThomas Stensitzki
Diese Präsentation für die Exchange Server User Group erläutere ich die Funktion und Vorteile der MetaCache Datenbank von Exchange Server 2019. Die MetaCache Datenbank (MCDB) verbessert mit der neuen Suchfunktion (BigFunnel) die Performance von Exchange Server 2019.
Exchange Server User Group Berlin | Meetup 2019-04-03Thomas Stensitzki
Folien zum Exchange User Group Berlin Meetup am 3. April 2019
- Exchange Server 2019 MetaCache Database und Big Funnel
- Migration zu Exchange Server 2019
Cloud-Provider stehen oft vor dem Problem den richtigen Storage für ihr Cloud-Portfolio zu implementieren. Lösungsansätze a la DRBD-Daisy-Chain und der Einsatz von Cluster-Filesystem a la OCFS2, GFS2 und Lustre treiben dem Admin oft Angstschweiss ins Gesicht, wenn sie sich Gedanken um Fencing und Stonith machen.
GlusterFS ist ein neuer Ansatz, um Architekturen zu vereinfachen und bessere Skalierbarkeit zu erreichen. GlusterFS sattelt auf beliebigen lokalen Filesystemen auf, skaliert bis zu mehreren Petabyte und bringt von Haus aus Raid-Funktionalitäten wie Striping und Replikation mit.
Der Vortrag befasst sich mit den theoretische Grundlagen, deren technischer Implementierung und praktischen Erfahrungen mit GlusterFS im Produktiveinsatz.
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
Diverse In-Memory-Technologien sind bereits seit langer Zeit verfügbar, wie z.B. Result Caches, verschiedene Buffer Caches, Pre-Loading von Objekten etc. Die aktuellste Oracle12c-Version geht jedoch einen großen Schritt weiter. Ohne Änderungen werden SQL-Abfragen um Faktoren beschleunigt; die Grundlage für Real-Time Analysen ist damit gelegt. Wie die einzelnen Techniken funktionieren und mit welchem geríngem Aufwand sie konfiguriert werden, wird erklärt.
Thomas' Tech Talk 4 - Lohnt sich ein Wechsel zu Exchange Server 2019?Thomas Stensitzki
Exchange Server 2019 ist die aktuelle Version des E-Mail-Server Produktes von Microsoft und inzwischen fast zwei Jahre verfügbar. Der Support von Exchange Server 2010 endet im Oktober 2020 und die Tage von Exchange Server 2013 sind ebenfalls gezählt. Erfahren Sie in diesem Tech Talk, ob sich ein Wechsel zu Exchange Server 2019 lohnt.
„Das Internet vergisst nicht, so sagt man. - Ganz so ist das aber nicht. Wer wichtige Daten langfristig und vollständig und
für die Nachwelt erhalten will, muss sich nicht nur Gedanken
über die zukünftige Lesbarkeit der Dateien machen, sondern
auch über ein technisch ausgereiftes Archivsystem, das
auf Jahrzehnte ausgelegt ist.“
AnyARK ist auf CentOS und Gluster basierendes Langzeitarchive, welche genau dafür ausgelegt ist.
Integrierte und dedizierte Backup Lösung von GFI MAXMAX2014DACH
GFI MAX bietet nun eine umfassende, robuste und sehr schnelle Backup-Lösung in Zwei fantastischen Versionen – Egal ob integriert oder als Standalone Lösung.
Sowohl GFI MAX Backup (Standalon/dediziert) und Managed Online Backup (integriert in GFI MAX RM) bieten einen Grad an militärischen Schutz für Ihren Kundendaten und sorgt so für Zufriedenheit zu einem guten Preis.
Mit einem Hybriden „Disk-to-Disk-to-Cloud“ (D2D2C) Ansatz, bei der True-Delta Technologie gibt keine Auswirkung auf die Bandbreitenauslastung und beschleunigt die Backups. Zusätzlich besteht die Möglichkeit des kostenfreien Seed-Loading-Service und viele weitere Vorteile. Nehmen Sie an dem Vortrag teil, umm mehr zu erfahren über die Unterschiede der beiden Lösungen und Ihren Nutzen.
Opensource Storage Lösung mit Ceph
Deutsch/Englische Folien. Es gibt eine deutsche Video Aufzeichnung des Talks unter https://entropia.de/GPN15:Ceph
----
Opensource Cloud Solution with Ceph
German/English slides. There is a german recording to this talk at https://entropia.de/GPN15:Ceph
Migration alter Öffentlicher Ordner zu modernen Öffentlichen OrdnernThomas Stensitzki
Talk beim Treffen der Office 365 User Group Hamburg am 3. Dezember 2018
Thema: Migration Öffentlicher Ordner von Exchange Server 2010 zu Exchange Server 2016 oder Exchange Online.
? Geht ihren Servern der Speicherplatz aus?
? Haben Sie mehr als einen (bit) identischen Anhang in Ihren Datenbanken gespeichert?
? Dauern Standardaufgaben wie fixup ewig oder reicht die Zeit in den Nachtstunden für ein Backup nicht mehr aus?
? Setzen Sie Datenbankquotas ein und ihre Anwender verlangen nach mehr Platz?
? Haben Sie sich schon einmal gefragt, was passiert, wenn sie ein "load compact -c" ausführen?
? Warum werden Datenbanken nicht auf das neueste ODS angehoben? Mache ich was falsch??
Wenn Sie eines oder mehrere dieser Fragen mit "JA" beantworten können, dann sind Sie bei dieser Session richtig. Nutzen Sie den vorhandenen Speicherplatz durch den Einsatz von DAOS optimal aus.
--> Verkleinern Sie ihre Datenbanken; Design- und Documentdata compression helfen Ihnen dabei.
--> Reduzieren Sie die Netzwerkbandbreite bei der Replikation zwischen Servern und zwischen Clients und Servern, und lernen Sie, wie Sie die Quota erweitern, ohne mehr Speicherplatz zu benötigen.
--> Geben Sie ihren Festplatten den nötigen "drive" durch regelmässige Defragmentierung. OpenNTF hilft Ihnen dabei.
Zielgruppe sind Administratoren oder Entscheider, die mehr über Compact, DAOS und Defragmentierung wissen möchten.
Ein Blick in die Kristallkugel mit dem Ziel spannende und relevante Online-Trends für das Jahr 2005 hervorzusagen. Auf der Liste sind:
- Open Source / Free Software
- WebAnalytics
- Compression
- VoIP
- Rich Thin Clients
- WiFi/WiMax
- SOA (Service-oriented architecture)
- Flash Streaming
- DAISY
- Folksonomy
Back to Basics - Webinar 6: Produktivsetzung einer AnwendungMongoDB
Im letzten Webinar unserer Back to Basics Reihe zeigte Ihnen Benjamin Lorenz, Senior Solutions Architect bei MongoDB, wie Sie dafür sorgen, dass Ihr MongoDB-System in einer Produktionsumgebung korrekt arbeitet.
Geht ihren Servern der Speicherplatz aus?
Haben Sie mehr als einen (bit) identischen Anhang in Ihren Datenbanken gespeichert?
Dauern Standardaufgaben wie fixup ewig oder reicht die Zeit in den Nachtstunden für ein Backup nicht mehr aus?
Setzen Sie Datenbankquotas ein und ihre Anwender verlangen nach mehr Platz?
Haben Sie sich schon einmal gefragt, was passiert, wenn sie ein "load compact -c" ausführen?
Warum werden Datenbanken nicht auf das neueste ODS angehoben? Mache ich was falsch??
Wenn Sie eines oder mehrere dieser Fragen mit "JA" beantworten können, dann sind Sie in dieser Session richtig. Nutzen Sie den vorhandenen Speicherplatz durch den Einsatz von DAOS optimal aus.
Verkleinern Sie ihre Datenbanken; Design- und Documentdata compression helfen Ihnen dabei.
Reduzieren Sie die Netzwerkbandbreite bei der Replikation zwischen Servern und zwischen Clients und Servern,
und lernen Sie, wie Sie die Quota erweitern, ohne mehr Speicherplatz zu benötigen.
Geben Sie ihren Festplatten den nötigen "drive" durch regelmässige Defragmentierung. OpenNTF hilft Ihnen dabei.
Mit SuperSUSE liefert die Boston Server & Storage GmbH eine getestet und zertifizierte Kombination aus Supermicro-Hardware und SUSE Enterprise Storage. Die Lösung ist nahezu grenzenlos skalierbar, hochperformant, und lässt sich individuell auf die Anforderungen und Bedürfnisse des Kunden anpassen. Im Webinar stellt SUSE die grundsätzliche Funktionsweise ihres Software defined Enterprise Storage vor, und wir zeigen verschiedene Spielarten und Anwendungsfälle der zugehörigen Boston Petastor Appliances.
Thomas' Tech Talk 4 - Lohnt sich ein Wechsel zu Exchange Server 2019?Thomas Stensitzki
Exchange Server 2019 ist die aktuelle Version des E-Mail-Server Produktes von Microsoft und inzwischen fast zwei Jahre verfügbar. Der Support von Exchange Server 2010 endet im Oktober 2020 und die Tage von Exchange Server 2013 sind ebenfalls gezählt. Erfahren Sie in diesem Tech Talk, ob sich ein Wechsel zu Exchange Server 2019 lohnt.
„Das Internet vergisst nicht, so sagt man. - Ganz so ist das aber nicht. Wer wichtige Daten langfristig und vollständig und
für die Nachwelt erhalten will, muss sich nicht nur Gedanken
über die zukünftige Lesbarkeit der Dateien machen, sondern
auch über ein technisch ausgereiftes Archivsystem, das
auf Jahrzehnte ausgelegt ist.“
AnyARK ist auf CentOS und Gluster basierendes Langzeitarchive, welche genau dafür ausgelegt ist.
Integrierte und dedizierte Backup Lösung von GFI MAXMAX2014DACH
GFI MAX bietet nun eine umfassende, robuste und sehr schnelle Backup-Lösung in Zwei fantastischen Versionen – Egal ob integriert oder als Standalone Lösung.
Sowohl GFI MAX Backup (Standalon/dediziert) und Managed Online Backup (integriert in GFI MAX RM) bieten einen Grad an militärischen Schutz für Ihren Kundendaten und sorgt so für Zufriedenheit zu einem guten Preis.
Mit einem Hybriden „Disk-to-Disk-to-Cloud“ (D2D2C) Ansatz, bei der True-Delta Technologie gibt keine Auswirkung auf die Bandbreitenauslastung und beschleunigt die Backups. Zusätzlich besteht die Möglichkeit des kostenfreien Seed-Loading-Service und viele weitere Vorteile. Nehmen Sie an dem Vortrag teil, umm mehr zu erfahren über die Unterschiede der beiden Lösungen und Ihren Nutzen.
Opensource Storage Lösung mit Ceph
Deutsch/Englische Folien. Es gibt eine deutsche Video Aufzeichnung des Talks unter https://entropia.de/GPN15:Ceph
----
Opensource Cloud Solution with Ceph
German/English slides. There is a german recording to this talk at https://entropia.de/GPN15:Ceph
Migration alter Öffentlicher Ordner zu modernen Öffentlichen OrdnernThomas Stensitzki
Talk beim Treffen der Office 365 User Group Hamburg am 3. Dezember 2018
Thema: Migration Öffentlicher Ordner von Exchange Server 2010 zu Exchange Server 2016 oder Exchange Online.
? Geht ihren Servern der Speicherplatz aus?
? Haben Sie mehr als einen (bit) identischen Anhang in Ihren Datenbanken gespeichert?
? Dauern Standardaufgaben wie fixup ewig oder reicht die Zeit in den Nachtstunden für ein Backup nicht mehr aus?
? Setzen Sie Datenbankquotas ein und ihre Anwender verlangen nach mehr Platz?
? Haben Sie sich schon einmal gefragt, was passiert, wenn sie ein "load compact -c" ausführen?
? Warum werden Datenbanken nicht auf das neueste ODS angehoben? Mache ich was falsch??
Wenn Sie eines oder mehrere dieser Fragen mit "JA" beantworten können, dann sind Sie bei dieser Session richtig. Nutzen Sie den vorhandenen Speicherplatz durch den Einsatz von DAOS optimal aus.
--> Verkleinern Sie ihre Datenbanken; Design- und Documentdata compression helfen Ihnen dabei.
--> Reduzieren Sie die Netzwerkbandbreite bei der Replikation zwischen Servern und zwischen Clients und Servern, und lernen Sie, wie Sie die Quota erweitern, ohne mehr Speicherplatz zu benötigen.
--> Geben Sie ihren Festplatten den nötigen "drive" durch regelmässige Defragmentierung. OpenNTF hilft Ihnen dabei.
Zielgruppe sind Administratoren oder Entscheider, die mehr über Compact, DAOS und Defragmentierung wissen möchten.
Ein Blick in die Kristallkugel mit dem Ziel spannende und relevante Online-Trends für das Jahr 2005 hervorzusagen. Auf der Liste sind:
- Open Source / Free Software
- WebAnalytics
- Compression
- VoIP
- Rich Thin Clients
- WiFi/WiMax
- SOA (Service-oriented architecture)
- Flash Streaming
- DAISY
- Folksonomy
Back to Basics - Webinar 6: Produktivsetzung einer AnwendungMongoDB
Im letzten Webinar unserer Back to Basics Reihe zeigte Ihnen Benjamin Lorenz, Senior Solutions Architect bei MongoDB, wie Sie dafür sorgen, dass Ihr MongoDB-System in einer Produktionsumgebung korrekt arbeitet.
Geht ihren Servern der Speicherplatz aus?
Haben Sie mehr als einen (bit) identischen Anhang in Ihren Datenbanken gespeichert?
Dauern Standardaufgaben wie fixup ewig oder reicht die Zeit in den Nachtstunden für ein Backup nicht mehr aus?
Setzen Sie Datenbankquotas ein und ihre Anwender verlangen nach mehr Platz?
Haben Sie sich schon einmal gefragt, was passiert, wenn sie ein "load compact -c" ausführen?
Warum werden Datenbanken nicht auf das neueste ODS angehoben? Mache ich was falsch??
Wenn Sie eines oder mehrere dieser Fragen mit "JA" beantworten können, dann sind Sie in dieser Session richtig. Nutzen Sie den vorhandenen Speicherplatz durch den Einsatz von DAOS optimal aus.
Verkleinern Sie ihre Datenbanken; Design- und Documentdata compression helfen Ihnen dabei.
Reduzieren Sie die Netzwerkbandbreite bei der Replikation zwischen Servern und zwischen Clients und Servern,
und lernen Sie, wie Sie die Quota erweitern, ohne mehr Speicherplatz zu benötigen.
Geben Sie ihren Festplatten den nötigen "drive" durch regelmässige Defragmentierung. OpenNTF hilft Ihnen dabei.
Mit SuperSUSE liefert die Boston Server & Storage GmbH eine getestet und zertifizierte Kombination aus Supermicro-Hardware und SUSE Enterprise Storage. Die Lösung ist nahezu grenzenlos skalierbar, hochperformant, und lässt sich individuell auf die Anforderungen und Bedürfnisse des Kunden anpassen. Im Webinar stellt SUSE die grundsätzliche Funktionsweise ihres Software defined Enterprise Storage vor, und wir zeigen verschiedene Spielarten und Anwendungsfälle der zugehörigen Boston Petastor Appliances.
LinuxTag 2008 - Virtuelle Cold-Standby Server mit LinuxSchlomo Schapiro
Cold-Standby-Server sind eine anerkannte Methode zur Realisierung hochverfügbarer Umgebungen. Will man damit mehrere Produktiv-Server absichern, steht schnell viel ungenutzte Hardware im Rechenzentrum herum. Mit Virtuellen Maschinen und einem SAN lässt sich dieser Overhead deutlich reduzieren.
Dabei wird ein Linux-Server aus dem SAN gestartet, so daß das System auf einer dedizierten Hardware und in einer Virtuellen Maschine lauffähig ist. Beim Ausfall der Hardware kann die VM das System sofort übernehmen, ohne daß Daten kopiert werden müssen.
Die Vorteile eines SAN kommen hierbei zum tragen und ermöglich erst die Gestaltung dieser Lösung. Am Beispiel SuSE Linux Enterprise Server wird die Technologie und die Implementierung vorgestellt.
Hintergrundinformationen zur Kundenumgebung, in der die Lösung entwickelt wurde, runden den Vortrag ab.
www.opitz-consulting.com
Wie plane ich meine SOA Suite 12c? Ist es sinnvoll einige Komponenten (zum Beispiel: SOA und BAM) getrennt zu betrachten? Wie kann ich die beste Verfügbarkeit meiner Umgebung erzielen? Der Vortrag gibt einen Überblick über die SOA Suite 12c aus der Infrastruktur-Sicht. Die aus der Praxis entstandenen Tipps und Tricks bei der Konfiguration und Administration runden die Präsentation.
Diesen Vortrag präsentierte unser Experte Borys Neselovskyi auf der DOAG Konferenz 2017.
Für das SaaS Produkt "Social PM" betreibt esentri seit 1,5 Jahren eine produktive Oracle Datenbank 11g mit den Amazon Relational Database Services, die Teil der Amazon Web Services sind. Die Software ist auf viele Tausend User ausgelegt und hat höchste Anforderungen an Performance uns Skalierbarkeit. Neben der Datenbank wird auch ein Middleware-Cluster auf der Amazon Infrastruktur betrieben.
Big Data Community Webinar vom 16. Mai 2019: Oracle NoSQL DB im ÜberblickKarin Patenge
Ein Key-Value Store mit nativer Unterstützung für JSON, der auch Graphen und SQL “kann”. Der Foliensatz enthält detaillierte Informationen zur Nutzung der Oracle NoSQL DB aus Sicht der Anwendungsentwicklung als auch aus Sicht der Administration / des Betriebs.
In diesem Vortrag ging es um die praktische Umsetzung von verschiedenen Cloud-Varianten:
- DBaaS
- IaaS
- PaaS
- MWaaS
Wir zeigen an konkreten Beispielen, wie man eine Cloud auf einer Exadata aufsetzt. Dabei werden unterschiedliche Architekturaspekte angesprochen:
- VLAN Tagging
- Backup mit ZFS
- Exadata Vorteile
- ZFS Storage Appliance
Unsere Experten Stefan Seck und Borys Neselovskyi hielten diesen Vortrag am 15.11.2017 bei der DOAG Konferenz in Nürnberg.
DIe Aufzeichnung dieses Webinars steht hier zur Verfügung: http://aws.amazon.com/de/recorded-webinar/
Amazon Redshift ist ein schneller und mächtiger, voll verwalteter Data Warehouse Dienst in der Cloud. Redshift skaliert von Terabytes bis über ein Petabyte bei sehr günstigen Kosten. In diesem Webinar geben wir einen Überblick über den Dienst, zeigen das Aufsetzen eines Redshift-Clusters, die Verwaltung, den Datenimport und die Abfrage des Data Warehouse über SQL und über Partnerwerkzeuge.
Datenbanken - Eine Übersicht (WPMeetUP München)Dietmar Leher
Datenbanken - Eine kurze Einführung
- Objektrelationales Datenbankmodell
- Nicht-Relationales Datenbankmodell
- NoSQL
- Relationales Datenbankmodell
MySQL und Varianten
Ein paar Worte zur Performance
WordPress und Datenbanken
4. 4
Klassisches SAN/NAS
SAN Storage ermöglicht je nach Hersteller die direkte Nutzung unterschiedlicher
Varianten zur Anbindung von Servern bzw. Clients. Die “Intelligenz” wird dabei vom
Storage System bereitgestellt.
iSCSI / FC CIFS / NFS
Hyper-V Cluster
CSVs
Shares
Compute
Storage
5. 5
Server 2012 R2 Storage Spaces
Features
Disk Pooling mit Resiliency (Mirror, Dual-Parity, Simple)
Disk Rebuild mittels Hot Spare oder Pool free Space
Storage Virtualisierung durch VHDx (Thin Provisioning; Resizable)
Storage Tiering (SAS/SSD)
Automatisches Realoziieren von Hot File Blocks auf SSD (scheduled)
Hot File “Pinning” (z.B. VDI Parent Disk)
Write-Back Cache (small random write buffer)
SAS
SSD
6. 6
Server 2012 R2 Storage Spaces
Features (forts.)
Support für Failover Cluster (CSV)
Multitenancy (Berechtigungsdelegation pro Pool)
Schnittstellen (Storage Management API, WMI, PowerShell)
7. 7
Server 2012 R2 Storage Spaces
Schematische Darstellung der Layer
8. 8
Anwendungsszenarien
Windows File Server (SMB oder NFS)
Hyper-V Cluster mit shared JBOD Storage
Scale-Out File Server mit SMB 3.0 Shares auf CSVs
Hyper-V Support ab Windows Server 2012
SQL Support ab SQL Server 2008 R2
Clustered iSCSI Target Server SAN
Unified Block &
File Storage Cluster
9. 9
Anwendungsszenarien
Die Storage Spaces alleine stellen “nur” die Basis für performanten und fehler-
tolleranten Massenspeicher sicher. Mit den unterschiedlichen Rollen und Features
von Windows können damit viele Anwendungsszenarien realisiert werden.
SAS
Hyper-V Cluster
SMB Shares
Compute
Storage
SMB 3.0
Storage Spaces
File Server VM
Scale-Out
File Server
iSCSI Target
Server
iSCSI
Cluster Roles
10. 10
Voraussetzungen
Storage Spaces
Ab Windows Server 2012 und Windows 8
SAS & SATA HDDs bzw. SSDs direkt am BUS
Kein RAID Controller oder alle RAID Funktionen
deaktiviert
Clustered Storage Spaces
2 bis 8 Windows Server 2012 oder höher
Gleiche Vorraussetzugen wie Windows Failover Cluster
JBOD mit SAS Anbindung (Windows zertifiziert)
Identische SAS HBAs (Windows zertifiziert)
11. 11
Skalierbarkeit
Mit Windows Server 2012 R2 sind folgende Ausbaustufen möglich:
Maximale Anzahl physische Disks pro Storage Pool 240
Maximale Grösse pro Storage Pool 480 TB
Maximale Anzahl Storage Spaces (Virtual Disks) Disks pro Storage Pool 128
Maximale Anzahl Storage Pools pro Cluster 4
Maximale Anzahl Cluster Nodes 8
12. 12
Beachtenswertes
Beim Einrichten von auf Server 2012 Storage Spaces basierenden
Diensten gibt es einige Punkte zu beachten, die wir im folgenden kurz
vorstellen.
Eine Resiliency Type Migration ist nachträglich nicht möglich (z.B. Mirror Parity)
Storage Tiering setzt Mirror Resiliency voraus (kein parity)
Storage Tiering setzt fixed Size Virtual Disks voraus
Bei Cluster Shared Volumes ist kein dynamically expanding möglich
General Purpuse File Share und VDI Szenarien unterstützen Online Deduplication
iSCSI Disks nur als Cluster Disk möglich (Active / Passive Controller Cluster)
13. 13
Konfigurationsbeispiel
Netzwerkkonfiguration unified Storage Server
JBOD SAS
Port 1
JBOD SAS
Port 2
iSCSI MPIO
Path A
iSCSI MPIO
Path B
SMB Storage Management
NIC-Teaming (LACP) NIC-Teaming (Switch ind.)
Netzwerkkonfiguration 10GbE File Server
JBOD SAS
Port 1
JBOD SAS
Port 2
SMB
Multichannel
Management
NIC-Teaming (Switch ind.)
SMB
Multichannel
NIC-Teaming (Switch ind.)
Cluster Heartbeat
15. 15
Kostenvergleich – Beispiel 1
Anschaffungskosten
Anwendungsfall: 2 Hyper-V hosts
Storage Spaces NetApp
SMBv3 oder iSCSI, Dual 1GbE iSCSI, Dual 1GbE
20x 900GB SAS / 4x 400GB SSD 20x 900GB SAS / 4x 200GB SSD
Komponente # Preis in CHF*
Dell Power Edge R420 2 9’000
DataOn
DNS-1640-D2
1 25’000
LSI9207-8E SAS HBA 2 700
Gbit Switch 2 1’000
Server 2012 Std. 2 2’000
Summe 37’700
Komponente # Preis in CHF*
NetApp 2240 Essential 1 45’000
Dual Port Gbit Ethernet
Adapter f. Server
2 400
Gbit Switch 2 1’000
Summe 46’400
* Alle Preisangaben sind excl. MwSt. und dienen nur der Veranschaulichung
16. 16
Kostenvergleich – Beispiel 2
Anschaffungskosten
Anwendungsfall: 2 Hyper-V hosts
Storage Spaces NetApp
SMBv3, Dual 10GbE SMBv3, Dual 10GbE, clustered DataOnTap
20x 900GB SAS / 4x 400GB SSD 20x 900GB SAS / 4x 200GB SSD
Komponente # Preis in CHF*
Dell Power Edge R420 2 9’000
DataOn
DNS-1640-D2
1 25’000
LSI9207-8E SAS HBA 2 700
Server 2012 Std. 2 2’000
10 Gbit Ethernet
(mit RDMA)
8 6’400
10 Gbit SFP+ Switch 2 16’000
Summe 59’100
Komponente # Preis in CHF*
NetApp 2240 Essential 2 90’000
10 Gbit Ethernet
(mit RDMA)
4 3’200
10 Gbit SFP+ Switch 2 16’000
Summe 109’200
* Alle Preisangaben sind excl. MwSt. und dienen nur der Veranschaulichung
17. 17
Q&A
Wir bedanken uns für die Aufmerksamkeit!
Haben Sie Fragen?
Liste der Server 2012 R2 certified Storage Hersteller:
http://www.windowsservercatalog.com/results.aspx?&chtext=&cstext=&csttext=&chbtext=&bCatID=1642&c
pID=0&avc=10&ava=0&avq=0&OR=1&PGS=25&ready=0
Liste der Server 2012 R2 certified SAS HBA Hersteller:
http://www.windowsservercatalog.com/results.aspx?&chtext=&cstext=&csttext=&chbtext=&bCatID=1362&c
pID=0&avc=10&ava=0&avq=61&OR=1&PGS=25&ready=0
Hinweis der Redaktion
Januar 2008
Comodity Drives! Im Consumer Fall auch USB möglich
WFC: shared storage SCSI3 persistent reservations, genügend NICs, Cluster Validation
Server Manager: Storage Pools Create Pool with 2 Disks Create VHDx/Volume Share
Cluster Manager: show Pools & Disks show Roles limited manipulations
SCVMM: show Classifications show File Servers add Disk to new Pool create SMB Share