Session am 17.05.2017, DeveloperCamp 2017, Nürnberg
Jeder Schritt in der Entwicklung oder Verwendung von Software hinterlässt wertvolle, digitale Spuren. Die Auswertung dieser „Softwaredaten“ (wie etwa Laufzeitmessungen, Logdateien oder Commits) lässt unser Bauchgefühl zu Fakten und stichhaltigen Beweisen werden.
Ich zeige, wie sich Fragen aus der Softwareentwicklung datengetrieben, automatisiert und nachvollziehbar beantworten lassen. Dazu demonstriere ich das Zusammenspiel von Open-Source-Analysewerkzeugen (wie jQAssistant, Neo4j, Pandas und Jupyter) zur Auswertung von Daten aus unterschiedlichen Quellen (wie Profiler, Jenkins und Git). Gemeinsam sehen wir uns u. a. an, wie wir Lösungen zur Optimierung der Performance erarbeiten, Build-Breaker identifizieren oder Wissenslücken im Quellcode offenlegen können.
„Bekommen Sie Ihre SQL Datenbank unter Kontrolle”
Ein Großteil des existierenden .NET Codes steht unter Quellcodeverwaltung und bereits heute verwenden viele Anwendungsentwickler irgendeine Form von Continuous Integration. Die Datenbankentwickler hängen an dieser Stelle leider ein wenig hinterher. Dabei sind gerade die Daten das Herzstück einer Anwendung und Änderungen an Datenbankstrukturen daher besonders komplex. Der erste Schritt um eine Verbesserung herbeizuführen ist es, die Datenbank ebenfalls unter Quellcodeverwaltung zu stellen. Das erleichtert nicht nur die Zusammenarbeit mit anderen Teammitgliedern und ermöglicht ein einfacheres Deployment, sondern es bildet auch die Grundlage für Continuous Integration, sowie automatisiertes Testing.
Dieser User-Group Abend zeigt:
* wie man seine SQL Datenbank genauso einfach in die Quellcodeverwaltung bringt wie .NET Code
* wie man seine Datenbank direkt aus der Quellcodeverwaltung heraus deployen kann und
* wie man einen ersten Schritt in Richtung Continous Integration machen kann
Der Vortrag beschreibt die Architektur eines serviceorientierten, modular erweiterbaren DWH-Modells und dem dazu gehörigen Berichtswesens. Er soll außerdem zeigen, wie ein solches Modell in ein bereits existierendes, stark heterogenes Umfeld eingebunden werden kann.
Die verschiedenen Schichten des DWH-Modells sowie die Einbindung in das Umfeld werden dabei detailliert beschrieben. Auf die Vor- und Nachteile der verschiedenen Modellierungsmöglichkeiten (3NF, Stern, Cube), sowie Aspekte der zukünftigen Erweiterung und Veränderung wird ebenfalls eingegangen. Eine kurze Übersicht über Tuning und Sicherheitsaspekte beendet den ersten Teil.
Der zweite Teil besteht aus einer Übersicht über die Einbindung des Berichtswesens in die Gesamtarchitektur. Verschiedene Ansatzmöglichkeiten für die Bedienung der Anforderungen verschiedener Nutzergruppen werden erarbeitet. Zuletzt werden Ideen zur Konsolidierung und Ablösung eines stark zerklüfteten, sich widersprechenden Berichtswesens gegeben.
Der Vortrag soll damit DWH-Architekten Möglichkeiten aufzeigen, wie man ein DWH zukunftssicher und flexibel modellieren und in ein heterogenes Umfeld einbetten kann. OPITZ CONSULTING Berater Arno Tigges hielt diesen Vortrag am 29.06.2010 bei der DOAG SIG BI/DWH in Köln.
Project Cortex – Die Revolution für das Wissensmanagement in der Microsoft Welt?Michael Greth
Künstliche Intelligenz steckt heute schon in diversen Funktionen in Microsoft 365, PowerPoint Ideas, Video Transkription oder AI-Builder sind nur einige Beispiele. Und die Entwicklung geht weiter: Im November 2019 hat Microsoft auf der Ignite in Orlando das
Project Cortex vorgestellt.
Project Cortex baut auf Intelligenz aus Microsoft Graph, verschiedenen Microsoft KI-Technologien und Content Services von SharePoint auf, um Daten, Inhalte und Beziehung in Microsoft 365 systemübergreifend zu analysieren, Inhalte zu erkennen und Informationen zu extrahieren.
Dem Anwender werden die daraus gewonnenen Erkenntnisse in Form eines Wissensnetzwerk präsentiert, das in die Anwendungen integriert, einfach zu bedienen und an individuelle Anforderungen anpassbar ist.
In diesem Webinar geben wir einen Überblick über die Funktionen von Project Cortex, diskutieren die Auswirkungen und geben praktische Tipps, wie man sich auf die zukünftigen Möglichkeiten einstellen kann.
Inhaltsübersicht
1. Künstliche Intelligenz - Begriffsklärung
2. Künstliche Intelligenz in Microsoft 365
3. Project Cortex - Wissensmanagement à la SharePoint
4. Praktische Handlungsempfehlungen
BizDataX Transformiert und Synthetisiert neue Testdaten. Entweder wird die Produktionsdatenbank zu Maskierung von Daten benutz, oder die Testdaten werden Synthetisiert und in einer nicht-Produktionsdatenbank eingespeist. Dabei werden Datenmaskierungstechniken wie Unterteilung, Redaktion (Schwärzen), Randomisierung, Generalisierung und Mischen verwendet. Die Maskierung bewahrt sowohl das Format als auch den Kontext der realen Daten, um so neue Datensätze herstellen zu können, welche realitätsnah sowie geeignet für eine Vielzahl von nichtproduzierenden Geschäftsprozessen (zum Beispiel dem Softwareentwicklungsprozess) sind. Es können elementare Maskierungstechniken kombiniert werden, so dass sie einen komplexen Maskierungsalgorithmus bilden, welcher einen Schutz für die Sicherheit Ihrer vertraulichen Daten garantiert. BizDataXsnap-in ermöglicht den Administratoren den Datenmaskierungsprozess manuell zu starten oder dessen Ausführung terminiert zu automatisieren. Die Administratoren können laufende Prozesse beobachten, den Verlauf analysieren sowie Konfigurationsparameter und Benachrichtigungseinstellungen setzen. BizDataX zeigt Leistungsstarke Performance wenn es darum geht grosse Datenmengen zu Maskieren oder zu Synthetisieren. Beispiel: BizDataX verarbeitet ca. 500-600 Millionen Records in ca. 4 Stunden.
„Bekommen Sie Ihre SQL Datenbank unter Kontrolle”
Ein Großteil des existierenden .NET Codes steht unter Quellcodeverwaltung und bereits heute verwenden viele Anwendungsentwickler irgendeine Form von Continuous Integration. Die Datenbankentwickler hängen an dieser Stelle leider ein wenig hinterher. Dabei sind gerade die Daten das Herzstück einer Anwendung und Änderungen an Datenbankstrukturen daher besonders komplex. Der erste Schritt um eine Verbesserung herbeizuführen ist es, die Datenbank ebenfalls unter Quellcodeverwaltung zu stellen. Das erleichtert nicht nur die Zusammenarbeit mit anderen Teammitgliedern und ermöglicht ein einfacheres Deployment, sondern es bildet auch die Grundlage für Continuous Integration, sowie automatisiertes Testing.
Dieser User-Group Abend zeigt:
* wie man seine SQL Datenbank genauso einfach in die Quellcodeverwaltung bringt wie .NET Code
* wie man seine Datenbank direkt aus der Quellcodeverwaltung heraus deployen kann und
* wie man einen ersten Schritt in Richtung Continous Integration machen kann
Der Vortrag beschreibt die Architektur eines serviceorientierten, modular erweiterbaren DWH-Modells und dem dazu gehörigen Berichtswesens. Er soll außerdem zeigen, wie ein solches Modell in ein bereits existierendes, stark heterogenes Umfeld eingebunden werden kann.
Die verschiedenen Schichten des DWH-Modells sowie die Einbindung in das Umfeld werden dabei detailliert beschrieben. Auf die Vor- und Nachteile der verschiedenen Modellierungsmöglichkeiten (3NF, Stern, Cube), sowie Aspekte der zukünftigen Erweiterung und Veränderung wird ebenfalls eingegangen. Eine kurze Übersicht über Tuning und Sicherheitsaspekte beendet den ersten Teil.
Der zweite Teil besteht aus einer Übersicht über die Einbindung des Berichtswesens in die Gesamtarchitektur. Verschiedene Ansatzmöglichkeiten für die Bedienung der Anforderungen verschiedener Nutzergruppen werden erarbeitet. Zuletzt werden Ideen zur Konsolidierung und Ablösung eines stark zerklüfteten, sich widersprechenden Berichtswesens gegeben.
Der Vortrag soll damit DWH-Architekten Möglichkeiten aufzeigen, wie man ein DWH zukunftssicher und flexibel modellieren und in ein heterogenes Umfeld einbetten kann. OPITZ CONSULTING Berater Arno Tigges hielt diesen Vortrag am 29.06.2010 bei der DOAG SIG BI/DWH in Köln.
Project Cortex – Die Revolution für das Wissensmanagement in der Microsoft Welt?Michael Greth
Künstliche Intelligenz steckt heute schon in diversen Funktionen in Microsoft 365, PowerPoint Ideas, Video Transkription oder AI-Builder sind nur einige Beispiele. Und die Entwicklung geht weiter: Im November 2019 hat Microsoft auf der Ignite in Orlando das
Project Cortex vorgestellt.
Project Cortex baut auf Intelligenz aus Microsoft Graph, verschiedenen Microsoft KI-Technologien und Content Services von SharePoint auf, um Daten, Inhalte und Beziehung in Microsoft 365 systemübergreifend zu analysieren, Inhalte zu erkennen und Informationen zu extrahieren.
Dem Anwender werden die daraus gewonnenen Erkenntnisse in Form eines Wissensnetzwerk präsentiert, das in die Anwendungen integriert, einfach zu bedienen und an individuelle Anforderungen anpassbar ist.
In diesem Webinar geben wir einen Überblick über die Funktionen von Project Cortex, diskutieren die Auswirkungen und geben praktische Tipps, wie man sich auf die zukünftigen Möglichkeiten einstellen kann.
Inhaltsübersicht
1. Künstliche Intelligenz - Begriffsklärung
2. Künstliche Intelligenz in Microsoft 365
3. Project Cortex - Wissensmanagement à la SharePoint
4. Praktische Handlungsempfehlungen
BizDataX Transformiert und Synthetisiert neue Testdaten. Entweder wird die Produktionsdatenbank zu Maskierung von Daten benutz, oder die Testdaten werden Synthetisiert und in einer nicht-Produktionsdatenbank eingespeist. Dabei werden Datenmaskierungstechniken wie Unterteilung, Redaktion (Schwärzen), Randomisierung, Generalisierung und Mischen verwendet. Die Maskierung bewahrt sowohl das Format als auch den Kontext der realen Daten, um so neue Datensätze herstellen zu können, welche realitätsnah sowie geeignet für eine Vielzahl von nichtproduzierenden Geschäftsprozessen (zum Beispiel dem Softwareentwicklungsprozess) sind. Es können elementare Maskierungstechniken kombiniert werden, so dass sie einen komplexen Maskierungsalgorithmus bilden, welcher einen Schutz für die Sicherheit Ihrer vertraulichen Daten garantiert. BizDataXsnap-in ermöglicht den Administratoren den Datenmaskierungsprozess manuell zu starten oder dessen Ausführung terminiert zu automatisieren. Die Administratoren können laufende Prozesse beobachten, den Verlauf analysieren sowie Konfigurationsparameter und Benachrichtigungseinstellungen setzen. BizDataX zeigt Leistungsstarke Performance wenn es darum geht grosse Datenmengen zu Maskieren oder zu Synthetisieren. Beispiel: BizDataX verarbeitet ca. 500-600 Millionen Records in ca. 4 Stunden.
Die wirtschaftliche Bedeutung der Softwareentwicklung nach dem Vorbild des Internet. Was 99,9 Prozent Verfügbarkeit für Wirtschaft und Staat bedeutet. - Dipl.-Ing. Leopold Peneder (HC Solutions)
Big Data – Hype mit Potential! Big Data beinhaltet neue Methoden und Technologien, die die wachsende Komplexität im Datenmanagement und Business-Intelligence vernünftig beherrschbar machen soll.
Im Rahmen des vom BARC-Institut ausgerichteten Business Intelligence und Datenmanagement Forums auf der diesjährigen CeBIT, wurde unter anderem dieser Vortrag von Timm Grosser (Senior Analyst) gehalten.
Folien zum Vortrag von Stefan Zörner (embarc GmbH) auf der JAX 2014 in Mainz.
Abstract: Mitunter gelingt ein Entwicklungsvorhaben, und alle sind zufrieden. Oder es scheitert am Ende kläglich. Manchmal auch irgendwas dazwischen. Alles nur Zufall? Der Begriff "Zufällige Architektur" (engl. Accidental Architecture) ist als Anti-Pattern durchaus gebräuchlich, der Ausspruch "Historisch gewachsen" passt ebenfalls prima in diesen Kontext. Wie kann Softwarearchitektur zum Erfolg beitragen? Was genau macht eine gute Architektur aus? Wie erreicht oder erkennt man sie? Müssen am Ende alle glücklich sein? Oder sind Kompromisse sogar zwingend erforderlich? Dieser Vortrag ordnet Projektsituationen zwischen zufälliger und wirkungsvoller Softwarearchitektur ein. Er stellt bewährte Praktiken zum Kurs setzen vor und gibt konkrete Tipps rund um Entwurf und Bewertung für Ihr eigenes Vorgehen. Werfen Sie Ballast ab und erhöhen Sie gleichzeitig die Wirksamkeit der Architekturarbeit in ihrem Projekt.
Automatisierung von Dokumenten mit SharePointdox42
Webinar-Aufzeichnung vom 17.10.2015
Automatisierung von Dokumenten mit SharePoint. Webinar mit MVP Michael Greth.
Zahlreiche Geschäftsprozesse werden mit Hilfe von SharePoint abgewickelt. Dabei müssen Dokumente nicht nur verwaltet, sondern auch erstellt werden – am besten automatisch. Etwa Verträge, Gutachten, Produktblätter, Offerte, Berichte oder andere strukturierte Dokumente.
Mit dox42 können auch Businessuser Dokumentvorlagen in MS Office gestalten und Daten aus SharePoint, SAP oder CRM einbinden.
Michael Greth und Christian Bauer zeigen Ihnen live, welche Möglichkeiten der Dokumentautomation die Microsoft Plattform bietet und wie Sie mit dox42 die Dokumenterstellung aus SharePoint automatisieren können – in der Cloud, on-premise oder in einem hybriden Szenario.
Weitere Informationen finden Sie unter www.dox42.com
SQL Server 2016 ist der nächste logische und evolutionäre Schritt in der Entwicklung des SQL Server. In der Roadshow gab Referent Dieter Rüetschi den Teilnehmern die Entscheidungsgrundlage für eine Migration mit auf den Weg.
In der Roadshow wurden die evolutionären Erweiterungen, welche Microsoft SQL Server 2016 bietet, vorgestellt. Dazu gehören die höhere Performance dank verbesserter In-Memory-Leistung, die nächste Generation der Hochverfügbarkeit durch Always On, bessere Skalierbarkeit und erweiterte Reporting-Möglichkeiten. Zudem bietet SQL Server 2016 sowohl lokal wie auch in der Cloud eine einheitliche Umgebung - was das Arbeiten unabhängig davon macht, ob Ihre Daten in Ihrem Rechenzentrum oder in Ihrer Private Cloud sind.
Neben den Erweiterungen gab Dieter Rüetschi auch einen Einblick in die fundamentalen neuen Techniken, welche in SQL Server 2016 eingesetzt werden. Besonders erwähnt seien hier die Advanced Analytics, Query Data Store, und die Always Encrypted Technologie.
Gerne stellen wir Ihnen die Slides der SQL Server 2016 Roadshow zur Verfügung.
Mit PAVONE PCS für JavaEE /PAVONElive können Sie alle Prozesse zielgerichtet aufeinander abstimmen, gewinnen Sie Zeit und erhöhen Sie die Informationsqualität für Ihre Entscheidungen. Erweitern oder passen Sie die integrierten Workflows an Ihre Unternehmensbedürfnisse an.
YUNA - Data Science Plattform für Unternehmeneoda GmbH
YUNA ist eine kollaborative Data Science Plattform. Sie deckt alle relevanten integrativen, Daten verarbeitenden und kollaborativen Funktionen zur Abbildung solcher Einsatzszenarien ab. Im Ergebnis reduziert YUNA so die TCO und sorgt für kurze time-to-market.
So ermöglicht die Plattform die Entwicklung von „Data Products“ durch :
- Komfort-Funktionen zur unternehmensweiten Zusammenarbeit
- Governance-Funktionen zu Steuerung und Überwachung
- Skalierbare Architektur zur Unterstützung vom Prototyp zum Mission Critical Service
- und eine offene API zur Integration in die Systemlandschaft.
AWS Initiate Berlin - Maschinelles Lernen - Chancen, Werkzeuge und Beispiel-A...Amazon Web Services
Maschinelles Lernen: Chancen, Werkzeuge und Beispiel-Anwendungen für öffentliche Einrichtungen
Durch die Zusammenführung von innovativen Algorithmen, Big Data Methoden und leistungsfähiger Hardware wie GPUs hat das Maschinelle Lernen (ML) in den letzten Jahren einen großen Aufschwung erlebt. In diesem Vortrag betrachten wir Werkzeuge, Technologien und Beispiele für ML in der Cloud, von einfachen, API-gesteuerten Diensten für Bild-, Sprach- und Text-Erkennung und -Verstehen bis zu Forschungs- und Entwicklungs-Plattformen für Entwickler und Wissenschaftler im ML-Umfeld.
Sprecher: Constantin Gonzalez, Principal Solutions Architect - AWS
Datenanalysen in der Softwareentwicklung (IMPROVE Workshop Wien)Markus Harrer
Softwareentwickler haben bei ihren altgedienten Anwendungssystemen oft das Bauchgefühl, dass irgendetwas komisch läuft. Das Management lässt sich aber nur mit Zahlen-Daten-Fakten von dringenden Verbesserungsarbeiten überzeugen. Genau dafür stelle ich den Bereich "Software Analytics" vor, dessen Vorgehen und Methoden darauf abzielen, Daten aus der Softwareentwicklung so aufzubereiten, dass sie von Managern zur Entscheidungsfindung herangezogen werden können.
Ich bringe hierzu einen digitalen Notizbuchansatz sowie Werkzeuge für die schnelle Durchführung von nachvollziehbaren Datenanalysen mit. Damit können ganz individuelle Problemursachen in Softwaresystemen Schritt für Schritt herausgearbeitet und explizit dargestellt werden. Ich zeige das Zusammenspiel von Open-Source-Analysewerkzeugen (wie Jupyter, Pandas, jQAssistant, Neo4j und D3) zur Untersuchung von Java-Anwendungen und deren Umgebung (Git, JaCoCo, Profiler, Logfiles etc.). Im Live-Coding-Teil sehen wir uns einige Auswertungen zu Race-Conditions, Wissenslücken oder wertlosen Codeteilen an – von den Rohdaten bis zu den Visualisierungen.
Software Analytics - Datenanalysen in der Softwareentwicklung (BigDataMeetup)Markus Harrer
Softwareentwickler haben bei ihren altgedienten Anwendungssystemen oft das Bauchgefühl, dass irgendetwas komisch läuft. Das Management lässt sich aber nur mit Zahlen-Daten-Fakten von dringenden Verbesserungsarbeiten überzeugen.
In diesem Meetup stellt Markus Harrer den Bereich "Software Analytics" vor, dessen Vorgehen und Methoden darauf abzielen, Daten aus der Softwareentwicklung so aufzubereiten, dass sie von Managern zur Entscheidungsfindung herangezogen werden können.
Markus bringt hierzu einen digitalen Notizbuchansatz sowie Werkzeuge für die schnelle Durchführung von nachvollziehbaren Datenanalysen mit. Damit können ganz individuelle Problemursachen in Softwaresystemen Schritt für Schritt herausgearbeitet und explizit dargestellt werden. Markus zeigt das Zusammenspiel von Open-Source-Analysewerkzeugen (wie Jupyter, Pandas, jQAssistant, Neo4j und D3) zur Untersuchung von Java-Anwendungen und deren Umgebung (Git, JaCoCo, Profiler, Logfiles etc.). Im Live-Coding-Teil sehen wir uns einige Auswertungen zu Race-Conditions, Wissenslücken, wertlosen Codeteilen sowie die Optimierung des fachlichen Schnitts einer Anwendung an – von den Rohdaten bis zu den Visualisierungen.
Weitere ähnliche Inhalte
Ähnlich wie Nachvollziehbare, datengetriebene, automatisierte Analysen der Softwareentwicklung [DeveloperCamp2017]
Die wirtschaftliche Bedeutung der Softwareentwicklung nach dem Vorbild des Internet. Was 99,9 Prozent Verfügbarkeit für Wirtschaft und Staat bedeutet. - Dipl.-Ing. Leopold Peneder (HC Solutions)
Big Data – Hype mit Potential! Big Data beinhaltet neue Methoden und Technologien, die die wachsende Komplexität im Datenmanagement und Business-Intelligence vernünftig beherrschbar machen soll.
Im Rahmen des vom BARC-Institut ausgerichteten Business Intelligence und Datenmanagement Forums auf der diesjährigen CeBIT, wurde unter anderem dieser Vortrag von Timm Grosser (Senior Analyst) gehalten.
Folien zum Vortrag von Stefan Zörner (embarc GmbH) auf der JAX 2014 in Mainz.
Abstract: Mitunter gelingt ein Entwicklungsvorhaben, und alle sind zufrieden. Oder es scheitert am Ende kläglich. Manchmal auch irgendwas dazwischen. Alles nur Zufall? Der Begriff "Zufällige Architektur" (engl. Accidental Architecture) ist als Anti-Pattern durchaus gebräuchlich, der Ausspruch "Historisch gewachsen" passt ebenfalls prima in diesen Kontext. Wie kann Softwarearchitektur zum Erfolg beitragen? Was genau macht eine gute Architektur aus? Wie erreicht oder erkennt man sie? Müssen am Ende alle glücklich sein? Oder sind Kompromisse sogar zwingend erforderlich? Dieser Vortrag ordnet Projektsituationen zwischen zufälliger und wirkungsvoller Softwarearchitektur ein. Er stellt bewährte Praktiken zum Kurs setzen vor und gibt konkrete Tipps rund um Entwurf und Bewertung für Ihr eigenes Vorgehen. Werfen Sie Ballast ab und erhöhen Sie gleichzeitig die Wirksamkeit der Architekturarbeit in ihrem Projekt.
Automatisierung von Dokumenten mit SharePointdox42
Webinar-Aufzeichnung vom 17.10.2015
Automatisierung von Dokumenten mit SharePoint. Webinar mit MVP Michael Greth.
Zahlreiche Geschäftsprozesse werden mit Hilfe von SharePoint abgewickelt. Dabei müssen Dokumente nicht nur verwaltet, sondern auch erstellt werden – am besten automatisch. Etwa Verträge, Gutachten, Produktblätter, Offerte, Berichte oder andere strukturierte Dokumente.
Mit dox42 können auch Businessuser Dokumentvorlagen in MS Office gestalten und Daten aus SharePoint, SAP oder CRM einbinden.
Michael Greth und Christian Bauer zeigen Ihnen live, welche Möglichkeiten der Dokumentautomation die Microsoft Plattform bietet und wie Sie mit dox42 die Dokumenterstellung aus SharePoint automatisieren können – in der Cloud, on-premise oder in einem hybriden Szenario.
Weitere Informationen finden Sie unter www.dox42.com
SQL Server 2016 ist der nächste logische und evolutionäre Schritt in der Entwicklung des SQL Server. In der Roadshow gab Referent Dieter Rüetschi den Teilnehmern die Entscheidungsgrundlage für eine Migration mit auf den Weg.
In der Roadshow wurden die evolutionären Erweiterungen, welche Microsoft SQL Server 2016 bietet, vorgestellt. Dazu gehören die höhere Performance dank verbesserter In-Memory-Leistung, die nächste Generation der Hochverfügbarkeit durch Always On, bessere Skalierbarkeit und erweiterte Reporting-Möglichkeiten. Zudem bietet SQL Server 2016 sowohl lokal wie auch in der Cloud eine einheitliche Umgebung - was das Arbeiten unabhängig davon macht, ob Ihre Daten in Ihrem Rechenzentrum oder in Ihrer Private Cloud sind.
Neben den Erweiterungen gab Dieter Rüetschi auch einen Einblick in die fundamentalen neuen Techniken, welche in SQL Server 2016 eingesetzt werden. Besonders erwähnt seien hier die Advanced Analytics, Query Data Store, und die Always Encrypted Technologie.
Gerne stellen wir Ihnen die Slides der SQL Server 2016 Roadshow zur Verfügung.
Mit PAVONE PCS für JavaEE /PAVONElive können Sie alle Prozesse zielgerichtet aufeinander abstimmen, gewinnen Sie Zeit und erhöhen Sie die Informationsqualität für Ihre Entscheidungen. Erweitern oder passen Sie die integrierten Workflows an Ihre Unternehmensbedürfnisse an.
YUNA - Data Science Plattform für Unternehmeneoda GmbH
YUNA ist eine kollaborative Data Science Plattform. Sie deckt alle relevanten integrativen, Daten verarbeitenden und kollaborativen Funktionen zur Abbildung solcher Einsatzszenarien ab. Im Ergebnis reduziert YUNA so die TCO und sorgt für kurze time-to-market.
So ermöglicht die Plattform die Entwicklung von „Data Products“ durch :
- Komfort-Funktionen zur unternehmensweiten Zusammenarbeit
- Governance-Funktionen zu Steuerung und Überwachung
- Skalierbare Architektur zur Unterstützung vom Prototyp zum Mission Critical Service
- und eine offene API zur Integration in die Systemlandschaft.
AWS Initiate Berlin - Maschinelles Lernen - Chancen, Werkzeuge und Beispiel-A...Amazon Web Services
Maschinelles Lernen: Chancen, Werkzeuge und Beispiel-Anwendungen für öffentliche Einrichtungen
Durch die Zusammenführung von innovativen Algorithmen, Big Data Methoden und leistungsfähiger Hardware wie GPUs hat das Maschinelle Lernen (ML) in den letzten Jahren einen großen Aufschwung erlebt. In diesem Vortrag betrachten wir Werkzeuge, Technologien und Beispiele für ML in der Cloud, von einfachen, API-gesteuerten Diensten für Bild-, Sprach- und Text-Erkennung und -Verstehen bis zu Forschungs- und Entwicklungs-Plattformen für Entwickler und Wissenschaftler im ML-Umfeld.
Sprecher: Constantin Gonzalez, Principal Solutions Architect - AWS
Ähnlich wie Nachvollziehbare, datengetriebene, automatisierte Analysen der Softwareentwicklung [DeveloperCamp2017] (20)
Datenanalysen in der Softwareentwicklung (IMPROVE Workshop Wien)Markus Harrer
Softwareentwickler haben bei ihren altgedienten Anwendungssystemen oft das Bauchgefühl, dass irgendetwas komisch läuft. Das Management lässt sich aber nur mit Zahlen-Daten-Fakten von dringenden Verbesserungsarbeiten überzeugen. Genau dafür stelle ich den Bereich "Software Analytics" vor, dessen Vorgehen und Methoden darauf abzielen, Daten aus der Softwareentwicklung so aufzubereiten, dass sie von Managern zur Entscheidungsfindung herangezogen werden können.
Ich bringe hierzu einen digitalen Notizbuchansatz sowie Werkzeuge für die schnelle Durchführung von nachvollziehbaren Datenanalysen mit. Damit können ganz individuelle Problemursachen in Softwaresystemen Schritt für Schritt herausgearbeitet und explizit dargestellt werden. Ich zeige das Zusammenspiel von Open-Source-Analysewerkzeugen (wie Jupyter, Pandas, jQAssistant, Neo4j und D3) zur Untersuchung von Java-Anwendungen und deren Umgebung (Git, JaCoCo, Profiler, Logfiles etc.). Im Live-Coding-Teil sehen wir uns einige Auswertungen zu Race-Conditions, Wissenslücken oder wertlosen Codeteilen an – von den Rohdaten bis zu den Visualisierungen.
Software Analytics - Datenanalysen in der Softwareentwicklung (BigDataMeetup)Markus Harrer
Softwareentwickler haben bei ihren altgedienten Anwendungssystemen oft das Bauchgefühl, dass irgendetwas komisch läuft. Das Management lässt sich aber nur mit Zahlen-Daten-Fakten von dringenden Verbesserungsarbeiten überzeugen.
In diesem Meetup stellt Markus Harrer den Bereich "Software Analytics" vor, dessen Vorgehen und Methoden darauf abzielen, Daten aus der Softwareentwicklung so aufzubereiten, dass sie von Managern zur Entscheidungsfindung herangezogen werden können.
Markus bringt hierzu einen digitalen Notizbuchansatz sowie Werkzeuge für die schnelle Durchführung von nachvollziehbaren Datenanalysen mit. Damit können ganz individuelle Problemursachen in Softwaresystemen Schritt für Schritt herausgearbeitet und explizit dargestellt werden. Markus zeigt das Zusammenspiel von Open-Source-Analysewerkzeugen (wie Jupyter, Pandas, jQAssistant, Neo4j und D3) zur Untersuchung von Java-Anwendungen und deren Umgebung (Git, JaCoCo, Profiler, Logfiles etc.). Im Live-Coding-Teil sehen wir uns einige Auswertungen zu Race-Conditions, Wissenslücken, wertlosen Codeteilen sowie die Optimierung des fachlichen Schnitts einer Anwendung an – von den Rohdaten bis zu den Visualisierungen.
Software Analytics with Jupyter, Pandas, jQAssistant, and Neo4j [Neo4j Online...Markus Harrer
Let’s tackle problems in software development in an automated, data-driven and reproducible way!
As developers, we often feel that there might be something wrong with the way we develop software. Unfortunately, a gut feeling alone isn’t sufficient for the complex, interconnected problems in software systems.
We need solid, understandable arguments to gain budgets for improvement projects or to defend us against political decisions. Though, we can help ourselves: Every step in the development or use of software leaves valuable, digital traces. With clever analysis, these data can show us root causes of problems in our software and deliver new insights – understandable for everybody.
If concrete problems and their impact are known, developers and managers can create solutions and take sustainable actions aligned to existing business goals.
In this meetup, I talk about the analysis of software data by using a digital notebook approach. This allows you to express your gut feelings explicitly with the help of hypotheses, explorations and visualizations step by step.
I show the collaboration of open source analysis tools (Jupyter, Pandas, jQAssistant and, of course, Neo4j) to inspect problems in Java applications and their environment. We have a look at performance hotspots, knowledge loss and worthless code parts – completely automated from raw data up to visualizations for management.
Participants learn how they can translate their unsafe gut feelings into solid evidence for obtaining budgets for dedicated improvement projects with the help of data analysis.
Philosophy screws it all up (Pecha Kucha) [Java Forum Stuttgart 2017]Markus Harrer
Wie Erkenntnistheorie unsere Softwareentwicklung beeinflusst und wie wir damit umgehen können...
Softwareentwicklungsprojekte scheitern ab und an weder aus technischen, noch fachlichen – ja nicht einmal aus politischen Gründen. Sind anderweitige Gründe im Spiel, versenkt diese Art von Softwareprojektabbrüchen meist auch noch extrem viel Geld. Es ist unheimlich, dass wir diese Fälle nicht wirklich begründen können und daher vor allem nicht herausbekommen, woran es wohl wirklich gelegen hat. Es müssen somit noch andere, grundsätzliche Aspekte eine Rolle spielen, welche nicht sofort offensichtlich sind.
In diesem Pecha-Kucha-Vortrag ergründe ich mit Hilfe der philosophischen Disziplin der Erkenntnistheorie – der Theorie des Wissens – einige der nicht augenscheinlichen, jedoch immer vorhandenen Probleme der Softwareentwicklung. Die vorgestellten „erkenntnistheoretischen Dilemmata“ begegnen uns immer, wenn wir es mit Wissen zu tun haben. Softwareentwicklung ist die Implementierung von Wissen in Code. Daher sind auch wir – ob wir es wollen oder nicht – immer von diesen Dilemmata betroffen.
Es gibt jedoch Hoffnung: Sind diese Grundprobleme erst einmal bekannt, können wir sie nutzen, um unsere eigene Arbeit – unser Vorgehen, unserer eingesetzten Methoden und Praktiken in der Softwareentwicklung – nach objektiven Kriterien zu beurteilen und zu verbessern. Konkret zeige ich, wie sich die normative Wissenschaft der Erkenntnistheorie ganz praktisch als „Messwerkzeug“ verwenden lässt. Dazu stelle ich ihre Einflussnahme auf softwaretechnische Praktiken anhand von Praxisbeispielen vor. Meine Kernziele sind es, die Dilemmata kurz und prägnant darzustellen, handhabbar zu machen und praxisorientierte Lösungsansätze zum Umgang mit ihnen aufzuzeigen.
Architektur und Code im Einklang [JUG Nürnberg]Markus Harrer
28.06.2017, Java User Group Nürnberg
Umsetzung von Architekturkonzepten und Designvorgaben mit jQAssistant direkt im Quellcode überprüfen
jQAssistant ist ein Werkzeug zur statischen Analyse von Softwareartefakten. Mit jQAssistant ist es möglich, Architektur- und Designkonzepte als einen Satz von Regeln zu definieren. Die Einhaltung dieser Regeln kann anschließend bei jedem Bau einer Software automatisiert überprüft werden. Dadurch kann sichergestellt werden, dass eine vorgegebene Architektur sowie Designvorgaben auch wirklich im Quellcode umgesetzt wurden.
In meinem Vortrag stelle ich die Grundlagen von jQAssistant vor und zeige an einem Beispiel, wie sich mit dem Werkzeug eine sich selbst prüfende Architekturdokumentation erstellen lässt.
Architektur und Code im Einklang [DeveloperCamp 2017]Markus Harrer
18.05.2017, DeveloperCamp 2017, Nürnberg
Umsetzung von Architekturkonzepten und Designvorgaben mit jQAssistant direkt im Quellcode überprüfen
jQAssistant ist ein Werkzeug zur statischen Analyse von Softwareartefakten. Mit jQAssistant ist es möglich, Architektur- und Designkonzepte als einen Satz von Regeln zu definieren. Die Einhaltung dieser Regeln kann anschließend bei jedem Bau einer Software automatisiert überprüft werden. Dadurch kann sichergestellt werden, dass eine vorgegebene Architektur sowie Designvorgaben auch wirklich im Quellcode umgesetzt wurden.
In meinem Vortrag stelle ich die Grundlagen von jQAssistant vor und zeige an einem Beispiel, wie sich mit dem Werkzeug eine sich selbst prüfende Architekturdokumentation erstellen lässt.
Software Analytics for Pragmatists [DevOps Camp 2017]Markus Harrer
Talk at DevOps Camp 2017, Nürnberg, 13.05.2017
Each step in the development or use of software leaves valuable, digital tracks. The analysis of this "software data" (such as runtime measures, log files or commits) refines our gut feeling to facts with sound evidence.
I'll show how questions that arise in software development can be answered automated, data-driven and reproducible. I demonstrate the interaction of open source analysis tools (such as jQAssistant, Neo4j, Pandas, and Jupyter) for the analysis of data from different sources (such as JProfiler, Jenkins, and Git). Together, we have a look at how we can develop solutions to optimize performance, identify build breaker or make knowledge gaps in our source code visible.
Erkenntnistheoretische Beurteilung von Extreme ProgrammingMarkus Harrer
English abstract: Agile software development projects fail from time to time for reasons that can be explained neither technically nor functionally. So other aspects must be playing an important reason why those projects fail. In this article, I take another view on agile development practices with the help of the philosophical discipline of epistemology to show the inherent human problems. These problems occur in every methodology where humans try to model real world phenomenon. Further, these epistemological dilemmas can be used to evaluate the problems of methods and procedures used in the software development. I take a deeper look at some of the practices used in Extreme Programming (XP). The goal is to find out what epistemological dilemmas are particularly well treated by XP practices and which ones can be very dangerous for projects using XP practices
An interactive form-based mobile software system with a sample application in...Markus Harrer
Presentation about my bachelor's thesis back in early 2009.
The motivation for this paper was that mobile devices have been entering the workplace at businesses that were previously not supposed to be "digitalized" thus leading to overwhelmed staff and software systems suffering from major acceptance drawbacks.
My primary research questions were to find a way to design and realize a software system that can support "interactive forms." Interactive forms are a structured game-like way of entering or gathering data in a computer. They have a well-designed and visually appealing user interface combined with a motivation system (e.g. achievements or high scores). Other goals of my thesis were to create a software development process and a software architecture that support a workflow for the interdisciplinary design of interactive forms.
In my thesis I initially investigated and gathered domain-specific requirements for elderly care, which is a (nearly) non-digitized domain, to better understand the problems that a caretaker has to deal with every day. I then analyzed the specific needs of interaction designers and software developers and looked for domain expert centric, iterative development processes that are similar for interaction designers and software developers. This was followed by an examination of existing software architectures that can support most of the requirements previously determined. Finally, I implemented a prototype that demonstrated the feasibility of interactive forms and their underlying software architecture and development process.
Erkenntnistheoretische Beurteilung von Extreme ProgrammingMarkus Harrer
Agile Softwareentwicklungsprojekte scheitern immer wieder aus Gründen, welche weder technisch noch fachlich erklärbar sind. Es müssen also andere Aspekte eine Rolle spielen. Aus der philosophischen Disziplin der Erkenntnistheorie lassen sich menschliche Grundprobleme ableiten, die bei jeder Erstellung von Softwaresystemen auftreten. Diese erkenntnistheoretischen Dilemmata können dazu dienen, verwendete Vorgehen und Methoden in der Softwareentwicklung objektiv nach menschlichen Faktoren zu beurteilen. In dieser Arbeit werden ausgewählte Techniken von Extreme Programming (XP) mit Hilfe der Erkenntnistheorie untersucht. Ziel ist es herauszufinden, welche Dilemmata von XP besonders gut behandelt werden und welche sich gefährlich auf den Projektverlauf auswirken können.
5. Fragen aus der Praxis
• Weshalb schlagen unsere CI-Builds fehl?
• Woher kommen die vielen DB-Calls?
• Welcher Entwickler kennt sich im Code aus?
• Wo gibt es sich gegenseitig überschreibende
statische Variablen?
• Wo verletzen wir Compliance-Vorgaben?
• Welche „JSF-Getter“ greifen auf das Backend
durch?
• ...
•Oft auch: Wo fange ich an?
17. Checkliste Daten
Pro Variable eine Spalte (mit richtigem
Datentyp)
Für jede Beobachtung eine Reihe
Eine Tabelle für jede zusammengehörige
Gruppe von Variablen
Für jede Tabelle einer Analyse eine
verlinkende Spalte
„Keine auf Empirie basierende Untersuchung kann ein allum-fassendes Ergebnis liefern.“
Betrand Meyer
Aktives Gegensteuern durch:
Einschränkung der kontextabhängigen Messergebnisse
Möglichkeit der manuellen Datenbewertung
Weshalb schlagen unsere CI-Builds fehl?
Woher kommen die vielen DB-Calls?
Welcher Entwickler kennt sich im Code aus?
Wo gibt es sich gegenseitig überschreibende statische Variablen?
Wo verletzen wir Compliance-Vorgaben?
Wie schlimm sind unsere technischen Schulden?
...
Oft auch: Wo fange ich an?
3
Ideen generieren
Problem formulieren
Hypothese festlegen
etc.
Durchführung
Reproduzierbarkeit
Replizierbarkeit
Automatisierung
3
3
Ideen generieren
Problem formulieren
Hypothese festlegen
etc.
Durchführung
Reproduzierbarkeit
Replizierbarkeit
Automatisierung
3
Ideen generieren
Problem formulieren
Hypothese festlegen
etc.
Durchführung
Reproduzierbarkeit
Replizierbarkeit
Automatisierung
3
Ideen generieren
Problem formulieren
Hypothese festlegen
etc.
Durchführung
Reproduzierbarkeit
Replizierbarkeit
Automatisierung
3
SonarQube & Co: Null Datenberienigung
Nichts ohne Kommentar wegwerfen
Datenbereinigung durchführen etc.
Datentypen (inkl. Einheiten) kontrollieren
Codierungen vermeiden
Explizite Ausnahmen erläutern
Stylings explizit aufbereiten
Fehlenden Daten behandeln
Datenprobleme offenlegen
Pro Variable eine Spalte
Für jede Beobachtung eine Reihe
Eine Tabelle für jede zusammengehörige Gruppe von Variablen
Für jede Tabelle einer Analyse ein verlinkende Spalte
3
Ideen generieren
Problem formulieren
Hypothese festlegen
etc.
Durchführung
Reproduzierbarkeit
Replizierbarkeit
Automatisierung
3
Ideen generieren
Problem formulieren
Hypothese festlegen
etc.
Durchführung
Reproduzierbarkeit
Replizierbarkeit
Automatisierung
3
Ideen generieren
Problem formulieren
Hypothese festlegen
etc.
Durchführung
Reproduzierbarkeit
Replizierbarkeit
Automatisierung
Python is Easy
Universally, Python has gained a reputation because of it’s easy to learn. The syntax of Python programming language is designed to be easily readable. Python has significant popularity in scientific computing. The people working in this field are scientists first, and programmers second.
Python is Efficient
Nowadays we working on bulk amount of data, popularly known as big data. The more data you have to process, the more important it becomes to manage the memory you use. Here Python will work very efficiently.
Python is Fast
We all know Python is an interpreted language, we may think that it is slow, but some amazing work has been done over the past years to improve Python’s performance. My point is that if you want to do high-performance computing, Python is a viable best option today.
Pragmatisches Datenanalyse-Framework
Schnelle, flexible und ausdruckstarke Datenstrukturen
Tabellenartige Daten
Zeitreihen
Vektor-/Matrix-Operationen
Sehr gute Integration mit
Datenquellen
Wissenschaftlichen Bibliotheken
KIV Kinder Idioten Vorstandsvorsitzender
7
ABER: Auswertungen sind harte Arbeit
Erste Schritte: innerhalb von 30 Minuten
Erste brauchbare Analyse: nach ca. 1 Woche
Gut genug: nach ca. 1 Monat
Meistern: ein Leben lang