Automatisiertes disaster recovery testing mit der oracle cloudTrivadis
Der Oracle Backup Service ist die ideale Plattform für Oracle Datenbanksicherungen in die Cloud. Zusammen mit dem Compute Cloud Service hat man eine ideale Plattform für regelmässige Restore- und Recovery Tests.
IPv6 bei PostFinance AG - Erste Erkenntnisse aus der VorstudieSwiss IPv6 Council
Inhalt:
Kurz Vorgestellt Die Informatik von PostFinance
IPv6 bei PostFinance Warum wir uns mit IPv6 auseinandersetzen
Standortbestimmung Wo wir heute stehen
Herausforderungen Unsere ersten Erkenntnisse zu IPv6
Wie es weiter geht Rüstung für die Zukunft
Automatisiertes disaster recovery testing mit der oracle cloudTrivadis
Der Oracle Backup Service ist die ideale Plattform für Oracle Datenbanksicherungen in die Cloud. Zusammen mit dem Compute Cloud Service hat man eine ideale Plattform für regelmässige Restore- und Recovery Tests.
IPv6 bei PostFinance AG - Erste Erkenntnisse aus der VorstudieSwiss IPv6 Council
Inhalt:
Kurz Vorgestellt Die Informatik von PostFinance
IPv6 bei PostFinance Warum wir uns mit IPv6 auseinandersetzen
Standortbestimmung Wo wir heute stehen
Herausforderungen Unsere ersten Erkenntnisse zu IPv6
Wie es weiter geht Rüstung für die Zukunft
IPv6 Integration im Datacenter - wie komplex ist es wirklich?Swiss IPv6 Council
Ein Anlass des Swiss Ipv6 Councils am 24. März 2014, 18 Uhr.
Referent: Ben Mathis, Leiter IT Plattform, Aspectra
Die Neugier von Ingenieuren zur Technologie stand am Anfang des Projekts, IPv6 in die beiden Datacenters der Aspectra AG zu integrieren. Inzwischen ist die erste Integrationsstufe abgeschlossen und die zweite in Arbeit. Rückblickend zeigt uns Ben Mathis, Leiter IT Plattform Aspectra AG, auf, welche Herausforderungen sich stellten und welche Entscheidungen der Schlüssel zur erfolgreichen IPv6 Integration waren. Genügend Zeit für Fragen bleibt selbstverständlich auch.
Inhalt:
- Die Motivation
- Die Strategie
- Die Implementierung
- 5 Do's und 5 Dont's
- Die offenen Punkte
www.opitz-consulting.com
Bei unserer Best-Practices-Konferenz inspire|IT in Frankfurt am Main haben unsere Experten Uwe Küchler und Simon Hahn am 15. April 2018 Anwendungsbeispiele und Vorteile des Oracle Database Security Assessment Tool DBSAT vorgestellt.
Nagios Conference 2007 | Datenbankgestützte Konfiguration von Nagios in große...NETWAYS
Die Konfiguration von Nagios ist ab einer bestimmten Größenordnung nicht mehr manuell handhabbar. Im Beispiel der DBD Deutsche Breitband Dienste GmbH werden die derzeit 3.500 Hosts mit über 8.000 überwachten Services bis Ende 2008 voraussichtlich verfünffacht werden. Um hierfür gerüstet zu sein wird die Konfiguration für Nagios datenbankgestützt automatisiert erstellt.
Eine Vorstellung der entsprechenden Vorgehensweise bei der DBD in einer multiple Master/multiple Slave Umgebung.
Einführung in das Datenbank-Backup -Recovery bei Oracle. Vortrag bei der DOAG-Datenbank-Konferenz 2018
(Kommentare der Teilnehmer wurden eingearbeitet)
Reload for Retain ist die perfekte Backup und Disaster Recovery Lösung für Retain. Nie zuvor war es so schnell und einfach möglich automatische Hot Backups von Ihrem Retain Archiv zu machen.
Big Data Community Webinar vom 16. Mai 2019: Oracle NoSQL DB im ÜberblickKarin Patenge
Ein Key-Value Store mit nativer Unterstützung für JSON, der auch Graphen und SQL “kann”. Der Foliensatz enthält detaillierte Informationen zur Nutzung der Oracle NoSQL DB aus Sicht der Anwendungsentwicklung als auch aus Sicht der Administration / des Betriebs.
Oracle unterstützt seit längerem die Nutzung von Docker für die Oracle Datenbanken. In der Theorie wird mit einem einfacher docker run aus einem Docker Image ein Container instanziiert. Doch wieso ist der DB Container nicht in wenigen Sekunden bereit? Wo kommt mein Oracle DB Image überhaupt her und was geschieht, wenn der Container wieder gestoppt wird? Dieser Vortrag erläutert, wie Oracle DBs in einem Docker Image installiert, konfiguriert und anschliessend als Container betrieben werden.
Zeros Data Loss Recovery Appliance (ZDLRA) - Neue Wege für Backup und Recoveryoraclebudb
Die Zero Data Loss Recovery Appliance (ZDLRA) ist das jüngste Mitglied der Engineered Systems Familie von Oracle. Sie dient der Sicherung bis zu hunderter Oracle Datenbanken auf einem zentralen System und löst dabei die größten Herausforderungen, die bei der Implementierung eines unternehmesweiten, zentralen Backup & Recovery Konzeptes auftreten:
- Minimale Beeinträchtigung der Produktion durch Backup Aktivitäten
- Optimierung von Recovery Time Objective (RTO) und Recovery Point Objective (RPO)
- End-to-End Überwachung und Steuerung aller B&R Aktivitäten
- Hohe Skalierbarkeit
In diesem Vortrag wird die Zero Data Loss Recovery Appliance (ZDLRA) vorgestellt und erklärt, wie sich die ZDLRA von herkömmlichen Backup & Recovery Konzepten unterscheidet.
Mit SuperSUSE liefert die Boston Server & Storage GmbH eine getestet und zertifizierte Kombination aus Supermicro-Hardware und SUSE Enterprise Storage. Die Lösung ist nahezu grenzenlos skalierbar, hochperformant, und lässt sich individuell auf die Anforderungen und Bedürfnisse des Kunden anpassen. Im Webinar stellt SUSE die grundsätzliche Funktionsweise ihres Software defined Enterprise Storage vor, und wir zeigen verschiedene Spielarten und Anwendungsfälle der zugehörigen Boston Petastor Appliances.
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
LinuxTag 2008 - Virtuelle Cold-Standby Server mit LinuxSchlomo Schapiro
Cold-Standby-Server sind eine anerkannte Methode zur Realisierung hochverfügbarer Umgebungen. Will man damit mehrere Produktiv-Server absichern, steht schnell viel ungenutzte Hardware im Rechenzentrum herum. Mit Virtuellen Maschinen und einem SAN lässt sich dieser Overhead deutlich reduzieren.
Dabei wird ein Linux-Server aus dem SAN gestartet, so daß das System auf einer dedizierten Hardware und in einer Virtuellen Maschine lauffähig ist. Beim Ausfall der Hardware kann die VM das System sofort übernehmen, ohne daß Daten kopiert werden müssen.
Die Vorteile eines SAN kommen hierbei zum tragen und ermöglich erst die Gestaltung dieser Lösung. Am Beispiel SuSE Linux Enterprise Server wird die Technologie und die Implementierung vorgestellt.
Hintergrundinformationen zur Kundenumgebung, in der die Lösung entwickelt wurde, runden den Vortrag ab.
IPv6 Integration im Datacenter - wie komplex ist es wirklich?Swiss IPv6 Council
Ein Anlass des Swiss Ipv6 Councils am 24. März 2014, 18 Uhr.
Referent: Ben Mathis, Leiter IT Plattform, Aspectra
Die Neugier von Ingenieuren zur Technologie stand am Anfang des Projekts, IPv6 in die beiden Datacenters der Aspectra AG zu integrieren. Inzwischen ist die erste Integrationsstufe abgeschlossen und die zweite in Arbeit. Rückblickend zeigt uns Ben Mathis, Leiter IT Plattform Aspectra AG, auf, welche Herausforderungen sich stellten und welche Entscheidungen der Schlüssel zur erfolgreichen IPv6 Integration waren. Genügend Zeit für Fragen bleibt selbstverständlich auch.
Inhalt:
- Die Motivation
- Die Strategie
- Die Implementierung
- 5 Do's und 5 Dont's
- Die offenen Punkte
www.opitz-consulting.com
Bei unserer Best-Practices-Konferenz inspire|IT in Frankfurt am Main haben unsere Experten Uwe Küchler und Simon Hahn am 15. April 2018 Anwendungsbeispiele und Vorteile des Oracle Database Security Assessment Tool DBSAT vorgestellt.
Nagios Conference 2007 | Datenbankgestützte Konfiguration von Nagios in große...NETWAYS
Die Konfiguration von Nagios ist ab einer bestimmten Größenordnung nicht mehr manuell handhabbar. Im Beispiel der DBD Deutsche Breitband Dienste GmbH werden die derzeit 3.500 Hosts mit über 8.000 überwachten Services bis Ende 2008 voraussichtlich verfünffacht werden. Um hierfür gerüstet zu sein wird die Konfiguration für Nagios datenbankgestützt automatisiert erstellt.
Eine Vorstellung der entsprechenden Vorgehensweise bei der DBD in einer multiple Master/multiple Slave Umgebung.
Einführung in das Datenbank-Backup -Recovery bei Oracle. Vortrag bei der DOAG-Datenbank-Konferenz 2018
(Kommentare der Teilnehmer wurden eingearbeitet)
Reload for Retain ist die perfekte Backup und Disaster Recovery Lösung für Retain. Nie zuvor war es so schnell und einfach möglich automatische Hot Backups von Ihrem Retain Archiv zu machen.
Big Data Community Webinar vom 16. Mai 2019: Oracle NoSQL DB im ÜberblickKarin Patenge
Ein Key-Value Store mit nativer Unterstützung für JSON, der auch Graphen und SQL “kann”. Der Foliensatz enthält detaillierte Informationen zur Nutzung der Oracle NoSQL DB aus Sicht der Anwendungsentwicklung als auch aus Sicht der Administration / des Betriebs.
Oracle unterstützt seit längerem die Nutzung von Docker für die Oracle Datenbanken. In der Theorie wird mit einem einfacher docker run aus einem Docker Image ein Container instanziiert. Doch wieso ist der DB Container nicht in wenigen Sekunden bereit? Wo kommt mein Oracle DB Image überhaupt her und was geschieht, wenn der Container wieder gestoppt wird? Dieser Vortrag erläutert, wie Oracle DBs in einem Docker Image installiert, konfiguriert und anschliessend als Container betrieben werden.
Zeros Data Loss Recovery Appliance (ZDLRA) - Neue Wege für Backup und Recoveryoraclebudb
Die Zero Data Loss Recovery Appliance (ZDLRA) ist das jüngste Mitglied der Engineered Systems Familie von Oracle. Sie dient der Sicherung bis zu hunderter Oracle Datenbanken auf einem zentralen System und löst dabei die größten Herausforderungen, die bei der Implementierung eines unternehmesweiten, zentralen Backup & Recovery Konzeptes auftreten:
- Minimale Beeinträchtigung der Produktion durch Backup Aktivitäten
- Optimierung von Recovery Time Objective (RTO) und Recovery Point Objective (RPO)
- End-to-End Überwachung und Steuerung aller B&R Aktivitäten
- Hohe Skalierbarkeit
In diesem Vortrag wird die Zero Data Loss Recovery Appliance (ZDLRA) vorgestellt und erklärt, wie sich die ZDLRA von herkömmlichen Backup & Recovery Konzepten unterscheidet.
Mit SuperSUSE liefert die Boston Server & Storage GmbH eine getestet und zertifizierte Kombination aus Supermicro-Hardware und SUSE Enterprise Storage. Die Lösung ist nahezu grenzenlos skalierbar, hochperformant, und lässt sich individuell auf die Anforderungen und Bedürfnisse des Kunden anpassen. Im Webinar stellt SUSE die grundsätzliche Funktionsweise ihres Software defined Enterprise Storage vor, und wir zeigen verschiedene Spielarten und Anwendungsfälle der zugehörigen Boston Petastor Appliances.
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
LinuxTag 2008 - Virtuelle Cold-Standby Server mit LinuxSchlomo Schapiro
Cold-Standby-Server sind eine anerkannte Methode zur Realisierung hochverfügbarer Umgebungen. Will man damit mehrere Produktiv-Server absichern, steht schnell viel ungenutzte Hardware im Rechenzentrum herum. Mit Virtuellen Maschinen und einem SAN lässt sich dieser Overhead deutlich reduzieren.
Dabei wird ein Linux-Server aus dem SAN gestartet, so daß das System auf einer dedizierten Hardware und in einer Virtuellen Maschine lauffähig ist. Beim Ausfall der Hardware kann die VM das System sofort übernehmen, ohne daß Daten kopiert werden müssen.
Die Vorteile eines SAN kommen hierbei zum tragen und ermöglich erst die Gestaltung dieser Lösung. Am Beispiel SuSE Linux Enterprise Server wird die Technologie und die Implementierung vorgestellt.
Hintergrundinformationen zur Kundenumgebung, in der die Lösung entwickelt wurde, runden den Vortrag ab.
This presentation covers the state of the syslog protocol and its standardization as of 2005. It was created for and held at Linuxtag in Germany (and as such is in German).
OSMC 2016 - Hello Redfish, Goodbye IPMI - The future of Hardware MonitoringNETWAYS
Thomas Niedermeier, Abteilung Communications / Knowledge Transfer bei Thomas-Krenn, absolvierte an der Hochschule Deggendorf sein Studium zum Bachelor Wirtschaftsinformatik. Seit 2013 ist Thomas bei Thomas-Krenn beschäftigt und kümmert sich hier vor allem um das Thomas-Krenn-Wiki, Synology NAS Geräte und um die Weiterentwicklung von TKmon.
OSMC 2016 | Hello Redfish, goodbye IPMI - Die Zukunft des Hardware-MonitoringsNETWAYS
Wir schreiben das Jahr 2016 und der PC-Markt schrumpft weiter. Immer mehr Menschen verwenden mobile Geräte und speichern die meisten ihrer Daten in der Cloud. Dies sind gute Entwicklungen für Server-Hersteller und Datacenter Admins, denn Marktforscher erwarten (damit verbunden) ein dreiprozentiges Wachstum für Investments in Data Center Systeme. Um mit dem Managementaufwand all dieser Cloud Systeme Schritt halten zu können, haben sich IT Profis auf der ganzen Welt zu der DevOps Bewegung zusammengeschlossen und die die Software-Seite der Serverautomation mit Tools wie Puppet, Ansible, Chef oder Salt erheblich vereinfacht. Das ist der Software-Teil... aber was ist mit der Hardware? Hmm..., IPMI (das sogenannte Intelligent Platform Management Interface) ist seit 1998 der Standard für das Out-of-Band Management der Server-Systeme. Es verwendet den UDP Port 623, das Dokument der Spezifikation umfasst mehr als 600 Seiten, es benötigt tiefergehendes Spezialwissen und enthält einige schwerwiegende Sicherheitsrisiken. Um diesen Einschränkungen entgegenzuwirken und das Hardware-System-Management in moderne Zeiten zu katapultieren, wurde von der DMTF (Distributed Management Task Force) der Redfish Management Standard entwickelt und veröffentlicht. Redfish verwendet ein RESTful Interface, funktioniert über HTTPS und stellt alle Daten mittels des JSON Formats unter Zuhilfenahme des ODATA Schemas dar.
Thomas beschreibt in diesem Vortrag die Ziele von Redfish und zeigt auf wie das Monitoring mit Redfish gelingt. Besuchen Sie diesen Vortrag und starten Sie anschließend mit der modernen Art Server-Hardware zu überwachen.
RPM kommen nur von der Distribution ? Eigentlich ist es ganz einfach, ein RPM Paket zu erstellen. Im Ergebnis unterstützen RPM Pakete die Systemautomatisierung und Standardisierung.
Sinn und Nutzen von Paketierung
RPM Paketen unter die Haube geschaut - technische Details
Best Practice - Erstellung eigener Pakete
Dependency Hell - Wie RPM kaputt geht
openSUSE Build Service - bauen lassen
Paketierung für Maintainer (Unterpakete, Cross-Plattform, Doku ...)
OSMC 2010 | Verwendung von Puppet in verteilten Monitoring Umgebungen by Birg...NETWAYS
Zunehmend werden virtualisierte oder automatisiert aufgesetzte Systeme im Data Center eingesetzt. Beide Varianten eröffnen die Möglichkeit schnell über viele ähnliche Systeme zu Verfügen. Leider fehlt hier oft der Brückenschlag zum Monitoring. Nach dem Bereitstellen der Systeme müssen diese auch kontrolliert ins Monitoring aufgenommen werden.
In komplexen, stark automatisierten Umgebungen kann Puppet nicht nur beim automatischen Configurations- und Change Management, sondern auch bei der Einrichtung des Monitoring ein treuer Gefährte sein. Der Vortrag bietet eine Einführung in die Möglichkeiten des Open Source Tools Puppet und erklärt die Konzepte, welche die Schlagkraft in Verbindung mit Icinga bzw. Nagios ausmachen anhand von Beispielen.
Das dreckige Dutzend - ADF Migration nach 12c in der IKB - DOAG 2014.Torsten Kleiber
Das Team Kreditplattform der IKB entwickelt seit etwa 2 Jahren mit ADF. Wegen der aktuellen Bindung an die SOA Suite verharrten wir seitdem auf der Version 11.1.1.5 mit diversen Bugs. Seit dem Erscheinen der Version 12c wurde die Migration der Anwendung vorbereitet und zum Zeitpunkt des Vortrags gerade abgeschlossen.
Dieser Praxisbericht beleuchtet das Vorgehen und Fallstricke der Migration
- Vorbereitung der Server
- Vorbereitung Entwicklungsumgebung
- Migrationspfad
- Aufgetretene Probleme und deren Lösung
- Bugs & Patches
- Migration MDS
- Automatische und manuelle Tests
OSMC 2012 | Monitoring bei der DB Systel by Ralf DöringNETWAYS
Die DB Systel betreibt als IT Dienstleister der Deutschen Bahn unter anderem eine größere Anzahl an Linuxsystemen. Für das Plattformmonitoring kommt eine verteilte Nagiosumgebung zum Einsatz. Derzeit werden rund 40000 Host- und Servicechecks durchgeführt, Tendenz steigend.
Im Vortrag werde ich den Prozess und die verwendeten Techniken schildern mit denen sowohl alle Nagiosserver als auch die zu überwachenden Systeme kontinuierlich, mehrmals täglich, mit den für die Überwachung notwendigen Konfigurationen versorgt werden. Die Daten dazu stammen aus einer externen CMDB und einer Meta-Konfigurationsbeschreibung für die Definition von Services sowie die Zuordnung von Services zu Hosts und Hostgruppen anhand verschiedener Kriterien.
In diesem Vortrag ging es um die praktische Umsetzung von verschiedenen Cloud-Varianten:
- DBaaS
- IaaS
- PaaS
- MWaaS
Wir zeigen an konkreten Beispielen, wie man eine Cloud auf einer Exadata aufsetzt. Dabei werden unterschiedliche Architekturaspekte angesprochen:
- VLAN Tagging
- Backup mit ZFS
- Exadata Vorteile
- ZFS Storage Appliance
Unsere Experten Stefan Seck und Borys Neselovskyi hielten diesen Vortrag am 15.11.2017 bei der DOAG Konferenz in Nürnberg.
SUSE Linux (Enterprise Server) ist eine populäre Linuxdistribution. Doch wo hört Linux auf und fängt SUSE an ? Im professionellen Umfeld lohnt es sich, die Betriebskonzepte etwas auf SUSE auszurichten um damit die Linuxumgebung effizienter und optimaler zu betreiben. Der Vortrag führt in die speziellen Themen von SUSE Linux ein und zeigt wie man mit SUSE Linux optimal arbeitet und zeigt nützliche Tipps und Handwerkszeug für den professionellen Einsatz von SUSE Linux auf:
Software Management mit Repositories
RPM Pakete für die Administration und eigene Inhalte verwenden
Subscription Management Tool
SuSE Linux unter die Haube geschaut - Wie man YaST nicht benutzt
Netzwerkkonfiguration SuSE-like (ifrename, bonding, bridging ...)
Warum SLES und nicht openSuSE - aus dem wahren Leben berichtet
Wie bekommt man wirklich Support bei SuSE ? Die Nuernberger gibt es noch !
Monitoring von SAP mit den bisher vorhandenen Plugins beschränkte sich auf die Abfrage von CCMS-Metriken. In einem SAP-System steckt aber noch viel mehr, das sich überwachen lässt. Check_sap_health ist ein neues Plugin, welches in Perl geschrieben wurde. Es entstand in einem Projekt, bei dem von unterschiedlichen Standorten aus die Laufzeiten von BAPI-Aufrufen gemessen werden sollten. Durch die einfache Erweiterung des Plugins um selbstgeschriebene Perl-Elemente lassen sich beliebige Funktionen per RFC aufrufen und somit firmenspezifische Logik implementieren.“
Vortrag gehalten beim Workshop der Open-Source-Monitoring-Community 2014 in Berlin.
Salt-Orchtestrated Software Defined (Freifunk) Networks - Service-Provider-Ne...Maximilian Wilhelm
Die Themen Infrastructure Automation / Orchestration, Cloud und Software Defined Networks sind in aller Munde und nahezu jeder Netzwerkhersteller, der etwas au
f sich hält, bietet Produkte, und stellenweise sogar Lösungen, in dieser Buzzwordblase an.
Der in den letzten Jahren vollzogene Paradigmenwechsel hin zu mehr (Host/Segment-)Routing und weniger Layer2-Magie - Stickwort »IP Fabric« - sowie die Besinnung auf offene Standards (OSPF, ISIS, BGP, MPLS) nicht nur in Data-Center-Netzwerken hat uns neue Standards (z.B. VXLAN) beschert und Open-Source-basierte "Open Networking"-Plattformen auf dem Markt erscheinen lassen. Auf einmal ist man nicht mehr an das Betriebsystem und die Vorstellungen des Hardwarevendors gebunden, sondern kann die Control-Plane einiger Geräte mit verschiedenen Linux-basierten Produkten nahezu vollständig selbst kontrollieren und orchestrieren.
Dank der Linux-Basis und Freude am Open-Source-Gedanken mancher Hersteller sind einige Features in Open-Source-Komponenten (Linux-VRFs, MPLS-Forwarding-Plane im Linux-Kernel, etc.) gewandert und stehen somit für Jedermann zur Verfügung. Besonders zu erwähnen ist hier das Debian-basierte System von Cumulus Networks, aus deren Feder ifupdown2 sowie VRF-Support für Linux stammen.
Eine Sammlung dieser Technologien und Ansätze lassen sich auch in Low-Budget- und/oder Eigenbau-Netzwerken anwenden und können hier erstaunliche und mächtige Optionen eröffnen. Der Vortrag wird am Beispiel der Netzwerk- und Server-Infrastruktur des Freifunk Hochstift darlegen, wie man mit ein bisschen SaltStack, knapp 1000 Zeilen Python und erschwinglicher Hardware eine SDN-basierte Service-Provider Infrastruktur bereitstellen kann, in der Overlay-Netze und Anycast keine Fremdworte sind.
Das Zielpublikum des Vortrags umfasst in erster Linie (Linux-)Administratoren und Netzwerker, die bereits Erfahrungen mit der jeweils anderen Welt haben und wissen was Routing ist. Eine positive Einstellung zum Thema Automatisierung ist von Vorteil.
Forms and Reports 12c - Processes and Automation in Development and OperationsTorsten Kleiber
The current target architecture of IKB's credit and loan management is based on Oracle ADF and SOA and of course the database. But how can you protect in this time your Oracle Forms & Reports longtime investments, can you support their Development Lifecycle by Automation?
Many supporting technologies from the Java environment, such as branching models, automated build and deploy procedures or code review were established with the Oracle technologies and in the course of the regulatory process.
But there is still a large part of the Oracle Forms & Reports that have grown over 25 years and have not yet been replaced. Actually, we hoped that we would no longer need a version higher than 11g. Forms & Reports had been running very stably for years. A bug brought the migration to 12c back into focus to further run supported versions. The regulatory environment did the rest to revise the current processes and, where possible, to automate them.
So how do supporting technologies and automation fit in here?
I will show you a selection of these processes from IKB's development and operations life cycle:
* Installation of application server
* Regular patching
* Packaging of the local development environment
* Requirements documentation
* Branching
* Development
* Code Review
* Merge
* Deployment
* Traceability for Regulatory Purposes
The following tools are used, among others
* Jenkins
* Scripting with Bash and Powershell
* Git
* Bitbucket
* JIRA
* FormsAPI Master
In diesem Workshop zeige ich Euch, wie ihr einen eigenen und sichereren Root-Server für Eure Websites betreibt. Dabei gehe ich auf verschiedenste Konfigurationsparameter der nötigen Dienste (Apache, MySQL, PHP) und auf die Server-Sicherheit (Firewall, IP-Autoblocking, Ports, Updates, Backups) ein.
Ähnlich wie Rsyslog - Deutsche Qualitätsarbeit für Linux (20)
Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...Trivadis
During major irregularities, the service desks of airline companies are heavily overloaded for short periods of time. A chatbot could help out during these peak hours. In this session we show how SWISS International Airlines developed a chatbot for irregularity handling. We shed light on the challenges, such as sensitive customer data and a company starting its journey into the cloud.
Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...Trivadis
Trivadis Azure Foundation – Das Fundament für den erfolgreichen Einsatz der Azure Cloud
Die Azure Cloud steuert auf ihr 10-jähriges Jubiläum zu und ist in der Schweiz angekommen. Im Vergleich zum Betrieb von On-Premise Lösungen bietet die Cloud eine Vielzahl von Vorteilen. Viele Aufgaben aus der On-Premise Welt werden im Cloud Computing vom Anbieter übernommen.
Aber die Freiheiten, welche Cloud Computing bietet, sind sehr mächtig und das beste Rezept für Wildwuchs und Chaos. Viele unserer Kunden werden sich erst jetzt bewusst, um welche Aufgaben sie sich bereits vor 5 Jahren hätten kümmern sollen. Die Trivadis Azure Foundation ist unser in der Praxis erprobtes Vorgehen, um alle Vorteile der Cloud optimal Nutzen zu können, ohne die Kontrolle zu verlieren. In dieser Session bekommen Sie einen Einblick in unsere Azure Foundation Methodik, zusätzlich berichten wir von den Azure-Erfahrungen unserer Kunden.
Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)Trivadis
In dieser Session stellen wir ein Projekt vor, in welchem wir ein umfassendes BI-System mit Hilfe von Azure Blob Storage, Azure SQL, Azure Logic Apps und Azure Analysis Services für und in der Azure Cloud aufgebaut haben. Wir berichten über die Herausforderungen, wie wir diese gelöst haben und welche Learnings und Best Practices wir mitgenommen haben.
Azure Days 2019: Master the Move to Azure (Konrad Brunner)Trivadis
Die Azure Cloud hat sich in den letzten 10 Jahren etabliert und steht heute sowohl global, als auch lokal zur Verfügung,
der Schritt in die Cloud muss aber gut geplant werden. In diesem Talk teilen wir unsere Erfahrungen aus diversen Projekten mit Ihnen. Wir zeigen, worauf Sie besonders achten müssen, damit Ihr Wechsel in die Cloud ein Erfolg wird.
Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...Trivadis
Die Azure Cloud ist in der Schweiz angekommen. In dieser Session beleuchtet Primo Amrein, Cloud Lead bei Microsoft Schweiz, die Einführung der Azure Cloud in der Schweiz, berichtet über die Erfolgsgeschichten und die Lessons Learned. Die Session wird mit einem Ausblick auf die Roadmap abgerundet.
Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)Trivadis
«Moderne» Data Warehouse/Data Lake Architekturen strotzen oft nur von Layern und Services. Mit solchen Systemen lassen sich Petabytes von Daten verwalten und analysieren. Das Ganze hat aber auch seinen Preis (Komplexität, Latenzzeit, Stabilität) und nicht jedes Projekt wird mit diesem Ansatz glücklich.
Der Vortrag zeigt die Reise von einer technologieverliebten Lösung zu einer auf die Anwender Bedürfnisse abgestimmten Umgebung. Er zeigt die Sonnen- und Schattenseiten von massiv parallelen Systemen und soll die Sinne auf das Aufnehmen der realen Kundenanforderungen sensibilisieren.
Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...Trivadis
API-Management bietet eine integrierte Umgebung zur Erstellung, Ausführung, Verwaltung und Sicherung von Enterprise-APIs für moderne digitale Anwendungen. Die Firma Vinci Energies Schweiz setzt den Azure API-Management Dienst seit mehreren Jahren in unterschiedlichen Projekten erfolgreich ein. Ein Erfahrungsbericht, der die Möglichkeiten, aber auch die Grenzen von Azure API-Management aufzeigt.
Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...Trivadis
Heutzutage schreibt man nicht nur Applikationen mit Code. Dank der Cloud wird die Konfiguration von Infrastruktur wie virtuellen Maschinen oder Netzwerken in Code definiert und automatisiert ausgeliefert. Man spricht von Infrastructure as Code, kurz: IAC. Für Infrastructure as Code auf Azure gibt es viele tools wie Ansible, Puppet, Chef, etc. Zwei Lösungen stechen durch Ihren unterschiedlichen Ansatz heraus - Die Azure Resource Manager Templates (ARM) als Microsoft-native Lösung, immer auf dem neusten Stand, aber an Azure gebunden. Auf der anderen Seite Terraform von HashiCorp mit einer deskriptiven Sprache als Grundlage, dafür weniger Features im Security-Bereich. Für einen Grosskunden haben wir die beiden Technologien verglichen. Die Resultate zeigen wir in dieser Session mit Livedemos auf.
Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...Trivadis
Was waren die Learnings und Challenges um eine auf Azure basierende, moderne Data Analytics Plattform für einen großen Konzern als Service bereitzustellen und in das Enterprise zu integrieren? Ein Projekt mit vielen interessanten Aspekten über Azure BI Services wie HDInsight, die Integration in ein Enterprise in einem "as a Service" Model, Management der Kosten und Verrechnungen der Services, und noch viel mehr. Diese Session bietet Einblicke in eines unserer Projekte, die Ihnen in Ihrem nächsten Projekt behilflich sein werden.
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...Trivadis
Die Helsana (https://www.helsana.ch), die Nummer 2 der grössten Krankenversicherungen der Schweiz, verfolgt eine moderne Cloud-First Strategie. Um komplexe Marketingkampagnen mit einem hohen Grad an Automatisierung ausführen zu können, wurden von Helsana diverse Produkte evaluiert. Leider fand sich keines, welches allen Anforderungen genügte. In enger Zusammenarbeit mit Microsoft wurde die zu 100% Azure-basierte Anwendung CRM-Analytics (CRMa) erstellt, welche Leads und Aufgaben aus dem Dynamics CRM gemäss komplexen Verteilregelwerken an die Regionen, Niederlassungen und Kundenbetreuer verteilt. Die Resultate und Performance der Kampagnen können über eine Data Analytics Strecke analysiert und in PowerBI visualisiert werden. Manuelle Prozesse zur Zielgruppenselektion wurden automatisiert und die Zeit von der Idee bis zur Selektion der Zielgruppe konnte von 10(!) Tagen auf einige Minuten reduziert werden. Mit der Einführung von CRMa hat die Helsana einen massgebenden Schritt in die Digitalisierung und zu einem ganzheitlichen Kampagnenmanagement geschafft.
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...Trivadis
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individuelles Angebot in 5 Sek formulierst; Martin Kortstiege, Ronny Bauer - Trivadis
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...Trivadis
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing PostgreSQL to Oracle, the best kept secrets; Konrad Häfeli, Jan Karremans - Trivadis
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...Trivadis
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 - von klassischen zu agilen Prozessen; Martin Moog, Esther Trapp, Norbert Ziebarth - Trivadis
TechEvent 2019: The sleeping Power of Data; Eberhard Lösch - Trivadis
Rsyslog - Deutsche Qualitätsarbeit für Linux
1. BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF
HAMBURG KOPENHAGEN LAUSANNE MÜNCHEN STUTTGART WIEN ZÜRICH
Rsyslog – deutsche Qualitätsarbeit für Linux
DOAG Jahrestagung 18. November 2015
Roman Gächter
4. Agenda
Rsyslog – deutsche Qulitästarbeit für Linux
4
14/
11/
15
1. Konzept der Syslog Implementierung
2. Rsyslog
Übersicht
Features
3. Konfiguration
Server
Client
4. Auditd
5. Betrieb
Upgrades
Administration
Fehlersuche
6. Fazit
6. Syslog Konzept
Rsyslog – deutsche Qulitästarbeit für Linux6 14/11/15
Zentrale Ablage von Syslogs
Syslog Server
– Zwei redundante Server
Verwenden von Rsyslog
– Neuer Standard für RHEL basierte Distributionen
– Enterprise Erweiterungen in Rsyslog
• high-performance“
• „great security features“
• Verschlüsselte Übertragung mit TLS
• „modular design“
7. Syslog Konzept
Rsyslog – deutsche Qulitästarbeit für Linux7 14/11/15
Zentrale Ablage von Syslogs
Sammeln Security relevanter Logs
Korrelieren und trennen nach
– „priorities“
– „facilities“
Audit Watches
– Alarmierung durch Rsyslog
Filter Rules
– Proaktive Reaktion auf Fehler
11. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux11 14/11/15
Dank an Rainer Gerhards
Deutsche Qualitätsarbeit setzt sich durch
Heute Standard bei Linux Distributionen
– Redhat basierte
– Debian basierte
– SuSE basierte
12. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux12 14/11/15
RFC‘s zu Syslog
RFC 3164
– The BSD syslog Protocol (obsoleted by RFC 5424)
RFC 5424
– The Syslog Protocol (obsoletes RFC 3164)
– https://tools.ietf.org/html/rfc5424
RFC 5425
– Transport Layer Security Mapping for Syslog
RFC 5426
– Transmission of Syslog Messages over UDP
13. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux13 14/11/15
„Facility Keywords“ für facility-basierte Filter
Ebene 1
14. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux14 14/11/15
Beispiel Zuordnung der „kernel“ Facility
# Log all local kernel messages to the console
# and /var/log/kern
if $hostname == ‘syslogsrv1'
and $syslogfacility == '0'
then /var/log/kern
15. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux15 14/11/15
Facility values MUST be in the range of 0 to 23 inclusive
16. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux16 14/11/15
„Priority Keywords“ für priority-basierte Filter
17. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux17 14/11/15
Beispiel Zuordnung der „error“ priority
if $syslogseverity == '3'
then /u00/rsyslog/priority/error
19. Rsyslog Übersicht
Rsyslog – deutsche Qulitästarbeit für Linux19 14/11/15
Features
Homepage
– „RSYSLOG is the rocket-fast system for log processing“
– „It offers high-performance, great security features and a modular design“
„Multi-threading“
TCP, SSL, TLS, RELP
MySQL, PostgreSQL, Oracle und mehr
Filterung der Syslog Message
„Fully configurable output format“
„Suitable for enterprise-class relay chains“
20. Rsyslog Features
Rsyslog – deutsche Qulitästarbeit für Linux20 14/11/15
Struktur
Input Modules
– $ModLoad imuxsock
• provides support for local system logging
– $ModLoad imklog
• provides kernel logging support (previously done by rklogd)
Rulesets
– Filtering
21. Rsyslog Features
Rsyslog – deutsche Qulitästarbeit für Linux21 14/11/15
Struktur
Actions
– Schreiben in Files
– DB Backends
– Weiterleiten
22. Rsyslog Features
Rsyslog – deutsche Qulitästarbeit für Linux22 14/11/15
Modules, functionality to be dynamically loaded from modules
$ModLoad MODULE_name
Filter modules
Library modules
Input modules
Output modules
Message modification modules
Parser modules
String generator modules
Template features
23. Rsyslog Features
Rsyslog – deutsche Qulitästarbeit für Linux23 14/11/15
RELP
„Relaible Event Logging Protocol“
TLS Session Abbruch
RELP und TLS
– Mit 7.4.7 (2013-12-10) noch nicht unterstützt, erst ab 7.5.1
Jan 13 11:08:38 srv105 rsyslogd-2078: netstream session 0x4988510 will be closed
due to error
24. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux24 14/11/15
Struktur und Konfigurations Management Tools
Aufteilen der Konfiguration
– Basis Konfig im/etc/rsyslog.conf
• Includes im /etc/rsyslog.d
> /etc/rsyslog.conf/server.conf
> /etc/rsyslog/client.conf
Konfigurations Management Tools
– Puppet
• saz-rsyslog Module
25. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux25 14/11/15
Standard Syslog Syntax
Kann man verwenden
# Everybody gets emergency messages
*.emerg *
*.info /u00/rsyslog/hosts/all/messages
27. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux27 14/11/15
TLS Verschlüsselung
Certificate Files
Authentifizierung
$DefaultNetstreamDriverCAFile /rsyslog/protected/CA_bundle.pem
$DefaultNetstreamDriverCertFile /rsyslog/protected/server_cert.myhostname.pem
$DefaultNetstreamDriverKeyFile /rsyslog/protected/server_private_myhostname.key
$ActionSendStreamDriverAuthMode x509/name
$ActionSendStreamDriverPermittedPeer syslog-server1.mydomain
$ActionSendStreamDriverPermittedPeer syslog-server2.mydomain
$ActionSendStreamDriverMode 1 # run driver in TLS-only mode
28. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux28 14/11/15
TLS Verschlüsselung
X509 Zertifikate
– Ab Oracle Linux 6
• min. 2048 Bit Zertifikate
– Rsyslog Problem mit SHA2
29. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux29 14/11/15
Filter
Neues „style format“
– Rainer Script
if $msg contains 'Abort command issued'
or $msg contains 'blocked for more than 120 seconds'
or $msg contains 'checker reports path is down'
or $msg contains 'kernel: device-mapper: multipath: Failing path'
or $msg contains 'multipathd: checker failed path'
or $msg contains ': mark as failed'
or $msg contains 'checker reports path is up'
or $msg contains 'require eh work'
or $msg contains 'Error handler scsi_eh'
or $msg contains 'FCP command status'
or $msg contains 'aborting sp'
or $msg contains 'firmware reported underrun'
or $msg contains 'Dropped frame(s) detected'
or $msg contains 'kernel: end_request: I/O error'
or $msg contains 'error calling out /sbin/mpath_prio_alua'
then /u00/rsyslog/applications/scripts/scsiaborts
30. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux30 14/11/15
Templates
Beispiel
$template HostAudit, "/u00/rsyslog/applications/auditd/%HOSTNAME%/audit_log"
$template auditFormat, "%msg%n"
local5.* ?HostAudit;auditFormat
31. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux31 14/11/15
Rules
„forwarding rules“
# forward everything to remote servers
*.* @@fqdn-syslogserver1:10514
*.* @@fqdn-syslogserver2:10514
33. Konfiguration
Rsyslog – deutsche Qulitästarbeit für Linux33 14/11/15
Regex
POSIX ERE oder BRE
Online Regex Checker
– http://www.rsyslog.com/regex/
:msg, regex, "sshd.* session opened for user q[a-z0-9]*[0-9]”
/lfs/oracle_audit/os.log
35. Auditd
Rsyslog – deutsche Qulitästarbeit für Linux35 14/11/15
Auditd
Zentrale Ablage der Audit Logs
– Korrelation von Sicherheitsvorfällen
– Zentrale Auswertung mit Audit Tools
Audit Watches
– Reaktion auf „audit watch“ Triggers mit Rsyslog
36. Auditd
Rsyslog – deutsche Qulitästarbeit für Linux36 14/11/15
Konfiguration
Imfile Module
Beispiel local5
$ModLoad imfile
$InputFileName /var/log/audit/audit.log
$InputFileTag tag_audit_log:
$InputFileStateFile audit_log
$InputFileSeverity info
$InputFileFacility local5
$InputRunFileMonitor
37. Auditd
Rsyslog – deutsche Qulitästarbeit für Linux37 14/11/15
Konfiguration
Format beibehalten
Auswerten
– ausearch
– aureport
$template HostAudit, “/u00/rsyslog/auditd/%HOSTNAME%/audit_log"
$template auditFormat, "%msg%n" local5.* ?HostAudit;auditFormat
38. Auditd
Rsyslog – deutsche Qulitästarbeit für Linux38 14/11/15
Konfiguration
Keine Audit Logs im „messages“ des Syslogservers
if $hostname == ‘syslogsrv1'
and not ( $syslogfacility == '2' )
and not ( $syslogfacility == ‘21' )
and not ( $syslogfacility-text == 'cron' )
and not ( $syslogtag == 'tag_audit_log:' )
then /var/log/messages
39. Auditd
Rsyslog – deutsche Qulitästarbeit für Linux39 14/11/15
Änderungen von Files in Realtime erkennen
Beispiel Audit Rule
– /etc/audit/audit.rules
– Dynamisch aktivieren
-w /etc/sd_pam.conf -p w -k sd_pam.conf_changed
auditctl -R /etc/audit/audit.rules
40. Auditd
Rsyslog – deutsche Qulitästarbeit für Linux40 14/11/15
Änderungen von Files in Realtime erkennen
In Rsyslog Konfig
$template FileWatcher, "%HOSTNAME% %msg%n"
if $msg contains 'sd_pam.conf_changed'
and $msg contains 'type=SYSCALL'
then ^/usr/local/bin/generic_audit_filewatcher_alerter.ksh;FileWatcher
42. Betrieb
Rsyslog – deutsche Qulitästarbeit für Linux42 14/11/15
Upgrade auf Oracle Linux 7.1
Gibt Warnung aus
Mit omruleset definieren
Kernel Logging
*.emerg :omusrmsg:*
*.emerg *
#$ModLoad imklog # provides kernel logging support
$ModLoad imjournal # provides access to the systemd journal
43. Betrieb
Rsyslog – deutsche Qulitästarbeit für Linux43 14/11/15
Upgrade auf Oracle Linux 7.1
Probleme mit X509 Zertifikaten
– SSL-Lib akzeptiert nur noch 2048 Bit Keys
– 2048 Bit mit MD5 signiert ??
– 2048 Bit mit SHA2 signiert ??
– 2048 Bit mit SHA1
44. Betrieb
Rsyslog – deutsche Qulitästarbeit für Linux44 14/11/15
Upgrade auf Oracle Linux 7.1
PID Filename geändert
Logrotate
/var/run/syslogd.pid
/var/run/rsyslogd.pid
/bin/kill -HUP `cat /var/run/syslogd.pid 2> /dev/null`
45. Betrieb
Rsyslog – deutsche Qulitästarbeit für Linux45 14/11/15
Housekeeping
Logrotate
– /etc/logrotate.d/syslog
– Logrotate Debugging
Fehlersuche
– Syntaxchecker
– Debugging
rsyslogd -N 1
46. Betrieb
Rsyslog – deutsche Qulitästarbeit für Linux46 14/11/15
Fehlersuche
Debugging
export RSYSLOG_DEBUGLOG="/path/to/debuglog"
export RSYSLOG_DEBUG="Debug“
rsyslogd -dn