www.opitz-consulting.com
Durch die Entwicklung zahlreicher Frameworks und Bibliotheken wurde die Anwendung von Methoden des Maschinellen Lernens in den vergangenen Jahren stark vereinfacht und einer großen Bandbreite von Anwendern zugänglich gemacht. Dies motiviert auch zunehmend Unternehmen dazu, Maschinelles Lernen in ihre Geschäfts- und Entwicklungsprozesse zu integrieren. Des Öfteren lassen sich dabei jedoch Fehler beobachten, die teils gravierende Auswirkungen nach sich ziehen können.
In diesem Vortrag bei der OOP 2018 in München veranschaulichte unser Experte Milen Großmann einige solcher Fehler mittels praktischer Demonstrationen und gab Empfehlungen für mögliche Gegenmaßnahmen.
Will keinen Überblick über Algorithmen geben (-> siehe Web) sondern Erfahrungen im Umgang mit ML weitergeben Überblick über Algorithmen gibt Martin Münn morgen
Ziel: Entscheider wissen was ihre Leute brauchen um effektiv arbeiten zu können, Entwickler die neu in diesem Feld sind wissen worauf sie achten müssen
Verwende Englische Begriffe, da deutsche Übersetzungen blöd klingen und Großteil der Literatur und Veröffentlichungen auf Englisch
Energiedisaggregation
- Niederlassungen in allen großen Industriestandorten Deutschlands: Hamburg, Berlin, Stuttgart, Nürnberg, Essen, München, nahe Köln, Bad Homburg
Wir stellen ein!
Wikipedia: ML ist die künstliche Generierung von Wissen aus Erfahrung
ML notwendig allein schon aufgrund der heute vorhandenen Datenmenge
Finanzielle Einbußen z. B. durch falsche Investmentstrategie, ausfallende Maschinen
Imageschäden: Paradebeispiel große SW-Entwicklungsfirma -> Chatbot leugnete irgendwann den Holocaust
Imageschäden: Pardebeispiel Linus Torvalds’ Spam Disaster beim Maildienst eines großen Suchmaschinenherstellers
Weitere Infos zu Basics des Maschinellen Lernens morgen
Viele Algorithmen performen schlecht bei inhomogenen Gruppen
Regularisierung begrenzt Freiheitsgrade des Modells durch zusätzliche Terme in Evaluationsmetrik -> Parameteranpassung nur innerhalb gewissem Bereich
Daten generieren z. B. wie großer Video-Streamingdienst: 3 Serien/Filme wählen die einem gefallen -> Korrelation mit Nutzern die ähnlich gewählt haben und deren Daten
In vergangenem Projekt von Kollegen: Dr. in Mathe hatte einfach Neuronales Netz verwendet “weil er’s kann” -> schlechte Performance -> konnte von Kollegen deutlich verbessert warden durch Modellvereinfachung
Algorithmenwahl…..sinnlos -> No Free Lunch Theorem