Dataservices - Data Processing mit MicroservicesQAware GmbH
IT-Tage 2018, Frankfurt: Vortrag von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware)
=== Dokument bitte herunterladen für bessere Lesbarkeit! ===
Abstract: Data Processing und Microservices sind ein perfektes Gespann. In dieser Kombination können Microservices dazu verwendet werden, ein flexibles, Event-getriebenes und skalierbares System von lose gekoppelten Datenverarbeitungsaufgaben aufzubauen. Diesen Ansatz nennen wir Dataservices.
In diesem Vortrag stellen wir zunächst die wesentlichen Konzepte und einige Schlüsseltechnologien vor, um Dataservice-Architekturen zu realisieren. Anschließend werden wir die einzelnen Bestandteile einer exemplarischen Datenverarbeitungs-Pipeline schrittweise komponieren und die Showcase-Pipeline in der Cloud zur Ausführung bringen und skalieren.
Betriebsdatenerfassung einer Dimplex Wärmepumpe vom Typ LA 40TUJohannes Kinzig
Dieses Projekt hat zum Ziel die Betriebsdaten der installierten Wärmepumpe (Dimplex - Typ LA 40TU) zu erfassen, um das Betriebsverhalten analysieren zu können. Die gesammelten Daten sollen im Anschluss dazu genutzt werden, Optimierungspotential für den Betrieb zu identifizieren. Dieses Projekt dient dazu, zwei Fragen zu evaluieren:
Welche Betriebsdaten können erfasst werden, die ein Fachunternehmen dabei unterstützen den anlagenbezogenen Wartungsvertrag zu erfüllen und gleichzeitig die Arbeitszeiten vor Ort zu reduzieren? (#SmartService)
Welche Betriebsdaten werden benötigt, um den Betrieb der Wärmepumpe noch weiter zu optimieren, sodass eine nachhaltige Energieeinsparung möglich wird? (#renewables)
Digitale Kommunikation in Fertigungsnetzwerken neu gedachtGeorg Guentner
Digitale Kommunikation in Fertigungsnetzwerken neu gedacht - Welche Sprache sprechen digitale Zwillinge?
Infolge der industriellen Digitalisierung nimmt die Vernetzung von Produktionsanlagen und Fertigungs-IT-Systemen
rasant zu. Die digitalen Abbilder der Maschinen („digitale Zwillinge“) sind auf unterschiedliche IT Systeme (z.B. ERP, MES, CMMS) verteilt.
Wie aber kommunizieren die IT
Systeme mit den Anlagen?
Welche Sprache sprechen digitale Zwillinge?
Sind dafür immer hohe Integrationsaufwände und aufwändige Schnittstellen
Programmierung erforderlich?
In dem von Salzburg Research koordinierten Forschungsprojekt i
Twin stellen wir mit den „Semantic Integration Patterns“ ein Konzept vor, wie diese Kommunikation standardisiert werden kann.
LineMetrics Data-as-a-Service - Monitoring für BestandsgebäudeLeonieDelphineReschr
Gebäudedaten per Plug & Play integrieren.
Erweitern Sie Ihre Software-Lösung einfach mit der LineMetrics IoT-Plattform & API. Werden Sie LineMetrics-Partner!
Cloud – der nächste Schritt der Diagnose (German)KPIT
Immer kürzere Modellzykluszeiten mit immer komplexeren Systemen erfordern
innovative
Lösungen sowohl bei der Erstellung der Diagnosesysteme als auch
zur effizienten und zielgerichteten Diagnose in der Werkstatt. Die Cloud bietet
viele Vorteile hinsichtlich eines skalierbaren Systems, einer aktuellen Diagnoseapplikation
ohne komplexen Updateprozess, sowie einer Reduzierung der benötigten
Hardware im Feld. Die in diesem Artikel beschriebene Plattform verbindet eine
Offline-, sowie eine Cloud-basierte Diagnoselösung ohne Bedarf an zusätzlichen
Änderungen am Code der Applikation oder der Daten. Mithilfe unterschiedlicher
Lizenzen können spezifische Anforderungen aus den Bereichen Entwicklung und
Aftersales bis hin zum Endkunden abgedeckt werden.
IoT-X Platform von prodot - Daten sammeln, analysieren und auswertenprodot GmbH
Eine Lösung für alle Daten: Die prodot IoT-X Platform
ermöglicht das Sammeln, Verknüpfen, Analysieren und
Auswerten von Daten aus Tausenden von Sensoren oder
Geräten an einer zentralen Stelle – herstellerunabhängig,
übergreifend und weltweit. Das trägt zur Reduzierung
des Ressourcenaufwands und zur Optimierung in vielen
Bereichen bei und erhöht so die Wettbewerbsfähigkeit.
Dataservices - Data Processing mit MicroservicesQAware GmbH
IT-Tage 2018, Frankfurt: Vortrag von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware)
=== Dokument bitte herunterladen für bessere Lesbarkeit! ===
Abstract: Data Processing und Microservices sind ein perfektes Gespann. In dieser Kombination können Microservices dazu verwendet werden, ein flexibles, Event-getriebenes und skalierbares System von lose gekoppelten Datenverarbeitungsaufgaben aufzubauen. Diesen Ansatz nennen wir Dataservices.
In diesem Vortrag stellen wir zunächst die wesentlichen Konzepte und einige Schlüsseltechnologien vor, um Dataservice-Architekturen zu realisieren. Anschließend werden wir die einzelnen Bestandteile einer exemplarischen Datenverarbeitungs-Pipeline schrittweise komponieren und die Showcase-Pipeline in der Cloud zur Ausführung bringen und skalieren.
Betriebsdatenerfassung einer Dimplex Wärmepumpe vom Typ LA 40TUJohannes Kinzig
Dieses Projekt hat zum Ziel die Betriebsdaten der installierten Wärmepumpe (Dimplex - Typ LA 40TU) zu erfassen, um das Betriebsverhalten analysieren zu können. Die gesammelten Daten sollen im Anschluss dazu genutzt werden, Optimierungspotential für den Betrieb zu identifizieren. Dieses Projekt dient dazu, zwei Fragen zu evaluieren:
Welche Betriebsdaten können erfasst werden, die ein Fachunternehmen dabei unterstützen den anlagenbezogenen Wartungsvertrag zu erfüllen und gleichzeitig die Arbeitszeiten vor Ort zu reduzieren? (#SmartService)
Welche Betriebsdaten werden benötigt, um den Betrieb der Wärmepumpe noch weiter zu optimieren, sodass eine nachhaltige Energieeinsparung möglich wird? (#renewables)
Digitale Kommunikation in Fertigungsnetzwerken neu gedachtGeorg Guentner
Digitale Kommunikation in Fertigungsnetzwerken neu gedacht - Welche Sprache sprechen digitale Zwillinge?
Infolge der industriellen Digitalisierung nimmt die Vernetzung von Produktionsanlagen und Fertigungs-IT-Systemen
rasant zu. Die digitalen Abbilder der Maschinen („digitale Zwillinge“) sind auf unterschiedliche IT Systeme (z.B. ERP, MES, CMMS) verteilt.
Wie aber kommunizieren die IT
Systeme mit den Anlagen?
Welche Sprache sprechen digitale Zwillinge?
Sind dafür immer hohe Integrationsaufwände und aufwändige Schnittstellen
Programmierung erforderlich?
In dem von Salzburg Research koordinierten Forschungsprojekt i
Twin stellen wir mit den „Semantic Integration Patterns“ ein Konzept vor, wie diese Kommunikation standardisiert werden kann.
LineMetrics Data-as-a-Service - Monitoring für BestandsgebäudeLeonieDelphineReschr
Gebäudedaten per Plug & Play integrieren.
Erweitern Sie Ihre Software-Lösung einfach mit der LineMetrics IoT-Plattform & API. Werden Sie LineMetrics-Partner!
Cloud – der nächste Schritt der Diagnose (German)KPIT
Immer kürzere Modellzykluszeiten mit immer komplexeren Systemen erfordern
innovative
Lösungen sowohl bei der Erstellung der Diagnosesysteme als auch
zur effizienten und zielgerichteten Diagnose in der Werkstatt. Die Cloud bietet
viele Vorteile hinsichtlich eines skalierbaren Systems, einer aktuellen Diagnoseapplikation
ohne komplexen Updateprozess, sowie einer Reduzierung der benötigten
Hardware im Feld. Die in diesem Artikel beschriebene Plattform verbindet eine
Offline-, sowie eine Cloud-basierte Diagnoselösung ohne Bedarf an zusätzlichen
Änderungen am Code der Applikation oder der Daten. Mithilfe unterschiedlicher
Lizenzen können spezifische Anforderungen aus den Bereichen Entwicklung und
Aftersales bis hin zum Endkunden abgedeckt werden.
IoT-X Platform von prodot - Daten sammeln, analysieren und auswertenprodot GmbH
Eine Lösung für alle Daten: Die prodot IoT-X Platform
ermöglicht das Sammeln, Verknüpfen, Analysieren und
Auswerten von Daten aus Tausenden von Sensoren oder
Geräten an einer zentralen Stelle – herstellerunabhängig,
übergreifend und weltweit. Das trägt zur Reduzierung
des Ressourcenaufwands und zur Optimierung in vielen
Bereichen bei und erhöht so die Wettbewerbsfähigkeit.
Connext ist ein I/O-Server, der eine Vielzahl von Kommunikationsprotokollen verarbeiten kann, um verschiedene Ebenen der Fabrik IT und OT mit der OPC UA-Technologie zu verbinden. Progea bringt Connext auf den Markt der industriellen Automatisierung.
Mit dem Connext-OPC-UA-Server kommunizieren Sie unmittelbar mit unzähligen Feldgeräten und veröffentlichen den OPC-UA-Adressraum. Er unterstützt zahlreiche Protokolle und fortschrittliche Funktionen wie Datenaufzeichnung, serverseitige Redundanz und vieles mehr…
BizDataX - Data Masking Solution - Datamasking-ToolDragan Kinkela
Diese Tabelle bietet einen optimalen Überblick über die Unterschiede zwischen dem Einsatz von
Datenbankskripten (z. B. PL/SQL und T-SQL) und der BizDataX-Plattform für die Datenmaskierung.
Während sich die meisten Unternehmen bewusst sind, dass Datenmaskierung bei der Erfüllung der Anforderungen für den Schutz vertraulicher Informationen
hilfreich ist, müssen sie gleichzeitig die Entscheidung treffen, eine Lösung für die Datenmaskierung zu kaufen oder eine eigene Lösung zu entwickeln.
Bei der Entwicklung einer unternehmensinternen Lösung müssen in der Regel Datenbankskripte für die verschiedenen Datenbank-Engines geschrieben
werden. Und auch wenn Skripte auf den ersten Blick eine effiziente Methode für die Datenmaskierung sind, da sie meist von erfahrenen DBAs
geschrieben werden, die für diese Aufgabe nicht extra bezahlt werden müssen, beweist die Erfahrung leider das Gegenteil. Hier finden Sie eine Vergleichstabelle
mit den wichtigsten Unterschieden zwischen Datenbankskripten und der BizDataX-Plattform.
Blockchain | Vom Placebo zum HeilmittelAndy Martens
Im Rahmen der Vortragsserie «Blockchain: Placebo oder Heilmittel» erklären wir was die Blockchain ist, dessen Eigenschaften sowie den aktuellen und zukünftigen Platz dieser Technologie in unterschiedlichen Geschäftsbereichen erarbeiten.
Diesmal ging es mittel- bis langfristige Perspektive der Blockchain-Technologie.
Dev Day 2024: Fabian Zillgens - Entwicklung einer Infrastruktur für maschinel...emmaberlin1
Unser Ziel bei Phoenix Games ist es, unseren Spielern mithilfe von maschinellem Lernen personalisierte Inhalte anbieten zu können,
basierend auf dem aktuellen Spielgeschehen und der Verarbeitung von Daten im Millisekundenbereich.
Mithilfe von AWS Cloud Technologien und Apache Flink haben wir eine Infrastruktur entwickelt, um große Mengen an Daten erfassen, verarbeiten und auswerten zu können, sodass in Echtzeit auf die individuellen Spielerlebnisse unserer Spieler reagiert werden kann.
Ich möchte unsere Erkenntnisse aus diesem Entwicklungsprozess aus einer technischen Perspektive teilen und die Beurteilung verschiedener Technologien zur Diskussion stellen.
d.velop ecspand entscheidet sich für SemTalk zur SharePoint-Modellierungbhoeck
Führender Anbieter von SharePoint ECM nutzt SemTalk SiteBuilder zur Modellierung von Aktenplänen und Generierung von SharePoint-Sites. Import ermöglicht Transparenz auch für bestehende SharePoint-Strukturen.
Einfache Migration von 3rd Party-Lizenzierungs-Systementeam-WIBU
Ein über Jahre gewachsenes Lizenzierungssystem abzulösen ist die perfekte Gelegenheit, um die eigenen Prozesse zu optimieren und die Vertriebsmodelle zukunftssicher aufzustellen. Eine spannende Herausforderung ist dabei die Migration der Bestandsdaten, vor allem wenn bereits ausgelieferte Software weiterhin unterstützt werden soll. Die Migrationsszenarien sind dabei vielfältig und abhängig von Ihren Anforderungen.
Sehr häufig wird in diesen Szenarien ein Mischbetrieb für eine definierte Übergangszeit verwendet. Dabei haben sich zwei grundlegende Ansätze herauskristallisiert:
Verwendung des bisherigen Systems für die Erstellung der Lizenzen und Auslieferung von CodeMeter Dongles als unterliegende ID. Sobald eine kritischen Masse von CodeMeter Dongles erreicht wird, dann wird auf CodeMeter License Central umgeschaltet.
Sofortige Verwendung von CodeMeter License Central zur Erstellung neuer Lizenzen. In diesem Fall wird oft ein Kompatibilitätsmodus für die Erstellung von Lizenzen für bereits im Feld befindliche Software benötigt.
Ein möglicher Ansatz für den Kompatibilitätsmodus ist die Auslieferung eines Patches, der alte Software CodeMeter-fähig macht. Mit „Custom Licensing Adapter“ bietet Wibu-Systems Ihnen noch eine weitere, geniale Alternative. Durch ein vorbereitetes Interface können nahezu alle 3rd Party-Lizenzen über CodeMeter License Central verwaltet und ausliefert werden. Die Prozesse zur Erstellung einer Lizenz aus bestehenden E-Commerce-, CRM- und ERP-Systemen wie SAP oder Salesforce sind identisch zu den CodeMeter Lizenzen. Lediglich bei der Aktivierung erkennen WebDepot und Gateway, dass es sich um eine 3rd Party-Lizenz handelt, und rufen Custom Licensing Adapter auf. Dieser bildet die CodeMeter Lizenzeigenschaften auf die Legacy-Lizenz ab, erzeugt die Lizenz über das 3rd Party-System und spielt den Lizenzstatus in CodeMeter License Central zurück. Die Prozesse für Erzeugung und Auslieferung erfolgen einheitlich und einfach über CodeMeter License Central.
Inhalte der Präsentation:
Ausgangssituation
Verwendung einer selbst implementierten Lösung
Verwendung eines Dongles
Verwendung einer gekauften Softwareschutzlösung
Migrationsszenarien
CodeMeter Runtime / Binding Extension
Übergangszeit mit zwei Systemen
CodeMeter als sichere ID
Komplette Umstellung mit neuer Hauptversion
Dongle-Austausch
Patch alter Versionen
Standardprozesse mit CodeMeter License Central
Erstellung einer Lizenz
Aktivierung einer Lizenz
Custom Licensing Adapter
Verwendung von CodeMeter License Central als alleinige Datenquelle
Erstellung von 3rd Party-Lizenzen mit CodeMeter License Central
Abbildung von CodeMeter Product Item Options zu Legacy-Lizenzen
Demo Custom Licensing Adapter
Webinar anschauen: https://youtu.be/TP6l56IWXD8
Java Aktuell Bernd Zuther Canary Releases mit der Very Awesome Microservices ...Bernd Zuther
Immer mehr Unternehmen zerschlagen ihre Software-Systeme in kleine Microservices. Wenn das passiert, entstehen mehrere Deployment-Artefakte, was nicht nur das Deployment des Gesamtsystems komplexer macht. Um diese Komplexität beherrschen zu können und die Auslieferungsmöglichkeiten einer Software zu verbessern, ist der Einsatz von Werkzeugen zur Infrastruktur-Automatisierung unumgänglich.
In ihrer Präsentation "Event Driven Architecture" zeigen Torsten Winterberg (Direktor Strategie & Innovation bei OPITZ CONSULTING) und Guido Schmutz (Technology Manager bei Trivadis) den Nutzen von EDA für moderne Anwendungslandschaften auf.
Elegantes In-Memory Computing mit Apache Ignite und Kubernetes. @data2dayMario-Leander Reimer
Mit Apache Ignite steht eine hoch-performante, integrierte und verteilte In-Memory Plattform bereit die im Zusammenspiel mit Kubernetes zu wahrer Hochform aufläuft. In dieser Kombination lassen sich flexibel skalierbare In-Memory Computing Systeme elegant realisieren. In diesem Vortrag stellen wir die wesentlichen Features und die Architektur von Apache Ignite vor. Anhand von anschaulichen Beispielen zeigen wir mögliche Use-Cases, wie etwa den Einsatz als Kommunikations-Backbone einer Microservice-Architektur oder als Plattform zur Verarbeitung von kontinuierlichen Event-Daten. Zur Demonstration von Resilienz und Skalierbarkeit werden die Beispiele auf einem tragbaren K8S Cluster ausgeführt.
@data2day @qaware #CloudNativeNerd
https://www.data2day.de/veranstaltung-5997-elegantes-in-memory-computing-mit-apache-ignite-und-kubernetes.html?id=5997
In-Memory Computing mit Apache Ignite und KubernetesQAware GmbH
data2day 2017, Heidelberg: Talk von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware).
Mit Apache Ignite steht eine hochperformante, integrierte und verteilte In-Memory-Plattform bereit, die im Zusammenspiel mit Kubernetes zu wahrer Hochform aufläuft. In dieser Kombination lassen sich flexibel skalierbare In-Memory-Computing-Systeme elegant realisieren.
In diesem Vortrag stellen wir die wesentlichen Features und die Architektur von Apache Ignite vor. Anhand von anschaulichen Beispielen zeigen wir mögliche Use-Cases, wie den Einsatz als Kommunikations-Backbone einer Microservice-Architektur oder als Plattform zur Verarbeitung kontinuierlicher Event-Daten. Zur Demonstration von Resilienz und Skalierbarkeit werden die Beispiele auf einem tragbaren K8S-Cluster ausgeführt.
Synterium is a platform that uses technology and science to improve quality of life and longevity. Their logo consists of lettering and a sign that come in different variations and colors depending on the background. The document provides branding guidelines for Synterium including their logo, fonts, colors, spacing requirements and examples of acceptable and prohibited logo usage. It also includes examples of potential branded merchandise like business cards, folders, apparel and promotional items.
Connext ist ein I/O-Server, der eine Vielzahl von Kommunikationsprotokollen verarbeiten kann, um verschiedene Ebenen der Fabrik IT und OT mit der OPC UA-Technologie zu verbinden. Progea bringt Connext auf den Markt der industriellen Automatisierung.
Mit dem Connext-OPC-UA-Server kommunizieren Sie unmittelbar mit unzähligen Feldgeräten und veröffentlichen den OPC-UA-Adressraum. Er unterstützt zahlreiche Protokolle und fortschrittliche Funktionen wie Datenaufzeichnung, serverseitige Redundanz und vieles mehr…
BizDataX - Data Masking Solution - Datamasking-ToolDragan Kinkela
Diese Tabelle bietet einen optimalen Überblick über die Unterschiede zwischen dem Einsatz von
Datenbankskripten (z. B. PL/SQL und T-SQL) und der BizDataX-Plattform für die Datenmaskierung.
Während sich die meisten Unternehmen bewusst sind, dass Datenmaskierung bei der Erfüllung der Anforderungen für den Schutz vertraulicher Informationen
hilfreich ist, müssen sie gleichzeitig die Entscheidung treffen, eine Lösung für die Datenmaskierung zu kaufen oder eine eigene Lösung zu entwickeln.
Bei der Entwicklung einer unternehmensinternen Lösung müssen in der Regel Datenbankskripte für die verschiedenen Datenbank-Engines geschrieben
werden. Und auch wenn Skripte auf den ersten Blick eine effiziente Methode für die Datenmaskierung sind, da sie meist von erfahrenen DBAs
geschrieben werden, die für diese Aufgabe nicht extra bezahlt werden müssen, beweist die Erfahrung leider das Gegenteil. Hier finden Sie eine Vergleichstabelle
mit den wichtigsten Unterschieden zwischen Datenbankskripten und der BizDataX-Plattform.
Blockchain | Vom Placebo zum HeilmittelAndy Martens
Im Rahmen der Vortragsserie «Blockchain: Placebo oder Heilmittel» erklären wir was die Blockchain ist, dessen Eigenschaften sowie den aktuellen und zukünftigen Platz dieser Technologie in unterschiedlichen Geschäftsbereichen erarbeiten.
Diesmal ging es mittel- bis langfristige Perspektive der Blockchain-Technologie.
Dev Day 2024: Fabian Zillgens - Entwicklung einer Infrastruktur für maschinel...emmaberlin1
Unser Ziel bei Phoenix Games ist es, unseren Spielern mithilfe von maschinellem Lernen personalisierte Inhalte anbieten zu können,
basierend auf dem aktuellen Spielgeschehen und der Verarbeitung von Daten im Millisekundenbereich.
Mithilfe von AWS Cloud Technologien und Apache Flink haben wir eine Infrastruktur entwickelt, um große Mengen an Daten erfassen, verarbeiten und auswerten zu können, sodass in Echtzeit auf die individuellen Spielerlebnisse unserer Spieler reagiert werden kann.
Ich möchte unsere Erkenntnisse aus diesem Entwicklungsprozess aus einer technischen Perspektive teilen und die Beurteilung verschiedener Technologien zur Diskussion stellen.
d.velop ecspand entscheidet sich für SemTalk zur SharePoint-Modellierungbhoeck
Führender Anbieter von SharePoint ECM nutzt SemTalk SiteBuilder zur Modellierung von Aktenplänen und Generierung von SharePoint-Sites. Import ermöglicht Transparenz auch für bestehende SharePoint-Strukturen.
Einfache Migration von 3rd Party-Lizenzierungs-Systementeam-WIBU
Ein über Jahre gewachsenes Lizenzierungssystem abzulösen ist die perfekte Gelegenheit, um die eigenen Prozesse zu optimieren und die Vertriebsmodelle zukunftssicher aufzustellen. Eine spannende Herausforderung ist dabei die Migration der Bestandsdaten, vor allem wenn bereits ausgelieferte Software weiterhin unterstützt werden soll. Die Migrationsszenarien sind dabei vielfältig und abhängig von Ihren Anforderungen.
Sehr häufig wird in diesen Szenarien ein Mischbetrieb für eine definierte Übergangszeit verwendet. Dabei haben sich zwei grundlegende Ansätze herauskristallisiert:
Verwendung des bisherigen Systems für die Erstellung der Lizenzen und Auslieferung von CodeMeter Dongles als unterliegende ID. Sobald eine kritischen Masse von CodeMeter Dongles erreicht wird, dann wird auf CodeMeter License Central umgeschaltet.
Sofortige Verwendung von CodeMeter License Central zur Erstellung neuer Lizenzen. In diesem Fall wird oft ein Kompatibilitätsmodus für die Erstellung von Lizenzen für bereits im Feld befindliche Software benötigt.
Ein möglicher Ansatz für den Kompatibilitätsmodus ist die Auslieferung eines Patches, der alte Software CodeMeter-fähig macht. Mit „Custom Licensing Adapter“ bietet Wibu-Systems Ihnen noch eine weitere, geniale Alternative. Durch ein vorbereitetes Interface können nahezu alle 3rd Party-Lizenzen über CodeMeter License Central verwaltet und ausliefert werden. Die Prozesse zur Erstellung einer Lizenz aus bestehenden E-Commerce-, CRM- und ERP-Systemen wie SAP oder Salesforce sind identisch zu den CodeMeter Lizenzen. Lediglich bei der Aktivierung erkennen WebDepot und Gateway, dass es sich um eine 3rd Party-Lizenz handelt, und rufen Custom Licensing Adapter auf. Dieser bildet die CodeMeter Lizenzeigenschaften auf die Legacy-Lizenz ab, erzeugt die Lizenz über das 3rd Party-System und spielt den Lizenzstatus in CodeMeter License Central zurück. Die Prozesse für Erzeugung und Auslieferung erfolgen einheitlich und einfach über CodeMeter License Central.
Inhalte der Präsentation:
Ausgangssituation
Verwendung einer selbst implementierten Lösung
Verwendung eines Dongles
Verwendung einer gekauften Softwareschutzlösung
Migrationsszenarien
CodeMeter Runtime / Binding Extension
Übergangszeit mit zwei Systemen
CodeMeter als sichere ID
Komplette Umstellung mit neuer Hauptversion
Dongle-Austausch
Patch alter Versionen
Standardprozesse mit CodeMeter License Central
Erstellung einer Lizenz
Aktivierung einer Lizenz
Custom Licensing Adapter
Verwendung von CodeMeter License Central als alleinige Datenquelle
Erstellung von 3rd Party-Lizenzen mit CodeMeter License Central
Abbildung von CodeMeter Product Item Options zu Legacy-Lizenzen
Demo Custom Licensing Adapter
Webinar anschauen: https://youtu.be/TP6l56IWXD8
Java Aktuell Bernd Zuther Canary Releases mit der Very Awesome Microservices ...Bernd Zuther
Immer mehr Unternehmen zerschlagen ihre Software-Systeme in kleine Microservices. Wenn das passiert, entstehen mehrere Deployment-Artefakte, was nicht nur das Deployment des Gesamtsystems komplexer macht. Um diese Komplexität beherrschen zu können und die Auslieferungsmöglichkeiten einer Software zu verbessern, ist der Einsatz von Werkzeugen zur Infrastruktur-Automatisierung unumgänglich.
In ihrer Präsentation "Event Driven Architecture" zeigen Torsten Winterberg (Direktor Strategie & Innovation bei OPITZ CONSULTING) und Guido Schmutz (Technology Manager bei Trivadis) den Nutzen von EDA für moderne Anwendungslandschaften auf.
Elegantes In-Memory Computing mit Apache Ignite und Kubernetes. @data2dayMario-Leander Reimer
Mit Apache Ignite steht eine hoch-performante, integrierte und verteilte In-Memory Plattform bereit die im Zusammenspiel mit Kubernetes zu wahrer Hochform aufläuft. In dieser Kombination lassen sich flexibel skalierbare In-Memory Computing Systeme elegant realisieren. In diesem Vortrag stellen wir die wesentlichen Features und die Architektur von Apache Ignite vor. Anhand von anschaulichen Beispielen zeigen wir mögliche Use-Cases, wie etwa den Einsatz als Kommunikations-Backbone einer Microservice-Architektur oder als Plattform zur Verarbeitung von kontinuierlichen Event-Daten. Zur Demonstration von Resilienz und Skalierbarkeit werden die Beispiele auf einem tragbaren K8S Cluster ausgeführt.
@data2day @qaware #CloudNativeNerd
https://www.data2day.de/veranstaltung-5997-elegantes-in-memory-computing-mit-apache-ignite-und-kubernetes.html?id=5997
In-Memory Computing mit Apache Ignite und KubernetesQAware GmbH
data2day 2017, Heidelberg: Talk von Mario-Leander Reimer (@LeanderReimer, Cheftechnologe bei QAware).
Mit Apache Ignite steht eine hochperformante, integrierte und verteilte In-Memory-Plattform bereit, die im Zusammenspiel mit Kubernetes zu wahrer Hochform aufläuft. In dieser Kombination lassen sich flexibel skalierbare In-Memory-Computing-Systeme elegant realisieren.
In diesem Vortrag stellen wir die wesentlichen Features und die Architektur von Apache Ignite vor. Anhand von anschaulichen Beispielen zeigen wir mögliche Use-Cases, wie den Einsatz als Kommunikations-Backbone einer Microservice-Architektur oder als Plattform zur Verarbeitung kontinuierlicher Event-Daten. Zur Demonstration von Resilienz und Skalierbarkeit werden die Beispiele auf einem tragbaren K8S-Cluster ausgeführt.
Synterium is a platform that uses technology and science to improve quality of life and longevity. Their logo consists of lettering and a sign that come in different variations and colors depending on the background. The document provides branding guidelines for Synterium including their logo, fonts, colors, spacing requirements and examples of acceptable and prohibited logo usage. It also includes examples of potential branded merchandise like business cards, folders, apparel and promotional items.
This document discusses genomics and how it can be used to make personalized recommendations through a mobile app called Synterium Life App. It explains that the app allows users to scan a product's QR code to get a recommendation based on how well the product matches their DNA profile. The app was created by Synterium to help users choose the single best product from thousands of options by analyzing how their body may react based on their genetics.
Synterium Finance provides technological support for Synterium Platform projects and uses GectaCoin for accounting between community members. It partnered with Central Marketing Limited, which provided the GectaHPC Blockchain to store, account, and process community data. GectaHPC Blockchain is a high-performance computing cluster based on blockchain that ensures GectaCoin emissions and supports dedicated "virtual blockchains" for clients. It has 5 stages of development planned through 2022 to improve its computing capabilities and integrate with third-party systems for industrial use.
2. ÜBER
SYNTERIUM
FINANZ
Synterium Finanz ist eine
technologische Basis für die
Umsetzung von Projekten der
Synterium Plattform und für das
Funktionieren der Buchhaltungs
Einheit der Gemeinschaft,
GectaCoin.
GectaCoin wird für die Abrechnung
von gegenseitigen Siedlungen
zwischen Gemeindemitgliedern
verwendet.
3. Für die Realisierung von
Projekten war das
Unternehmen Central
Marketing Limited als
strategischer Partner
beteiligt. Die Organisation
versorgt uns mit ihrem
Produkt, GectaHPC
Blockchain, zur
Speicherung, Abrechnung,
und Verarbeitung von Daten
der Synterium
Gemeinschaft.
GectaHPC Blockchain ist ein
Hochleistungs-Computer-Cluster,
der eine Datenspeicherung der Big-
Data-Klasse und eine Rechen
Ressource ist, basierend auf der
Blockchain-Technologie.
4. GECTAHPC
BLOCKCHAIN
ANWENDUNG IM
PROJEKT
Sicherstellung der Emission der
Rechnungseinheit der Gemeinschaft,
GectaCoin;
Unterstützung von dedizierten
«Virtual blockchains» (VBC) für die
Bereitstellung kommerzieller
Dienstleistungen für externe
Kunden;
Autorschaft und Besitz;
Computergrafiken;
Ökologie;
Datenspeicherung;
e-Voting;
neuronalen Netzen.
5. GECTA COMPUTING PRIMARY
Die Erstellung der ersten Version des
GectaHPC Blockchains, das die Bildung
eines physischen Detenspeichers mit dem
grundlegenden Einsatz von BlockChain
Technologie beinhaltet.
Die Einführung des Partnernetzwerks für
die Gecta Computing Pool Teilnehmer.
Q4 2017 - Q3 2018
5 STUFEN DER ENTWICKLUNG VON FINANZ
PROJEKT
6. Mitglieder des Computing-Pools erstellen ein Blockchain, indem
sie die USB-Computing-Geräte nutzen, die in das verteilte
Netzwerk eingebunden sind. Die Bildung der blockchain ermöglicht
es, die Leistung des GectaHPC-BlockChain-Systems zu erhalten,
GectaCoin zu produzieren, und die Abrechnung für diese Einheit zu
liefern.
Steigerung der Rechenleistungen GectaHPC-Blockchain-Systems
durch Erhöhung der Anzahl der Gecta Computing Pool Teilnehmer.
7. GECTA
COMPUTING
DISTRIBUTED
Q4 2018 –
Q2 2019
Die Einführung der Basisversion des
GectaHPC-BlockChains, wenn die
Systemkapazität 6.000 Computing-
Knoten erreicht. Die
Versionsänderung wird dadurch
erfolgt, wenn der Übergang von der
physischen Datenspeicherung zur
verteilten Speicherarchitektur mit
der Übertragung ihrer Kopie auf die
PCs der Mitglieder des
Computerpools geschieht.
8. GECTAHPC
CLUSTER
Q3 2019 –
Q1 2020
Die Einführung der Zielversion der
GectaHPC Blockchain mit neuer
Funktionalität, die die Durchführung
von Überweisungs Berechnungen
im System vorsieht, die in
wissenschaftlichen Berechnungen
erforderlich sind. Mit den
Überweisungs Berechnungen
können Sie Aufgaben innerhalb des
Netzwerks ausführen, indem Sie die
Daten früherer und anschließender
Knoten verwenden. Die Verwendung
von USB-Geräten eines neuen
Lineup für die Aufrechterhaltung
der Zielversion des Systems.
9. GECTAHPC
ADVANCED
Q2 2020 –
Q1 2021
Die Einführung der erweiterte
Version des GectaHPC Blockchains,
das neuer Harware-Elemente,
namens Hardware Gateway,
verwendet. Die Nutzung solcher
Elemente wird es ermöglichen, die
Funktionen des Systems für die
Verarbeitung von Daten zu
erweitern, indem die Aufzeichnung
von Informationen innerhalb des
Netzwerks auf verschiedenen
Ebenen in einem bestimmten
Zeitraum kontrolliert wird.
10. GECTAHPC
EXECUTIVE
Q2 2021 –
Q2 2022
Die Verbesserung des GectaHPC
Blockchains auf Executive Ebene um
die Datenintegration mit
Fremdsyzstemen zu versichern.
Wird für den industriellen Einsatz
benötigt, nachdem die Technologie
die erforderlichen Rechenprozesse
im Bereich der Genomik erfolgreich
bewältigt hat.
11. GECTAHPC BLOCKCHAIN
PERSPEKTIVEN
Je größer die Rechenkapazitäten des Clusters werden, desto attraktiver
werden wir für unsere Kunden. Wir beginnen, unsere Lösung, GectaHPC
BlockChain, in größerem Maßstab, in diesem oder jenem Bereich zu
verwenden.
Folglich werden wir in der Lage sein, die finanzielle Unterstützung von
gectacoin zu erhöhen, was zu einem Wachstum des Wechselkurses führen
wird.