3. by Datamics, 2018
Unsupervised Learning
• Lasst uns schnell wiederholen, was unbeaufsichtigtes Lernen ist und
welche besonderen Herausforderungen es mit sich bringt!
• Erinnere dich daran, dass Supervised Learning mit beschrifteten Daten
arbeitet, was uns den Zugang zu einer direkten Fehlerprüfung für unsere
Modelle ermöglicht.
Wiederholung Unsupervised Learning
4. by Datamics, 2018
Unsupervised Learning
• Die meisten Daten der Welt sind unbeschriftet!
• Neue Artikel, Filmkritiken, User-Netflix-Bewertungen, Bilder im Internet,
etc....
• Welche Wege können wir gehen, um diese Art von unbeschrifteten
Daten zu nutzen?
Wiederholung Unsupervised Learning
5. by Datamics, 2018
Unsupervised Learning
Zwei Vorgehensweisen
• Reduzierung der Dimensionalität
• Clustering
Wiederholung Unsupervised Learning
7. by Datamics, 2018
Autoencoder
• Der Autoencoder ist eigentlich ein sehr einfaches neuronales Netzwerk
und ähnelt einem mehrschichtiges Preceptron-Modell.
• Es ist so konzipiert, dass es seinen Input auf der Ausgabeschicht
wiedergibt.
Autoencoder Grundlagen
8. by Datamics, 2018
Autoencoder
• Der wesentliche Unterschied zwischen einem Autoencoder und einem
typischen MLP-Netzwerk besteht darin, dass die Anzahl der
Eingangsneuronen gleich der Anzahl der Ausgangsneuronen ist.
• Lass uns erforschen, wie das aussieht und warum wir es benutzen
würden.
Autoencoder Grundlagen
10. by Datamics, 2018
Autoencoder
• Gehen wir durch die Ebenen und
erklären die Grundidee eines
Autoencoders
Autoencoder Grundlagen
11. by Datamics, 2018
Autoencoder
• Lass uns dies noch weiter
vereinfachen mit nur einer
einzigen versteckten Ebene.
(Eng.: Hidden Layer).
Autoencoder Grundlagen
12. by Datamics, 2018
Autoencoder
• Lass uns dies noch weiter
vereinfachen mit nur einer
einzigen versteckten Ebene
(Eng.: Hidden Layer).
Autoencoder Grundlagen
13. by Datamics, 2018
Autoencoder
• Feed-Forward-Netzwerk, das
darauf trainiert ist, seinen Input
auf der Ausgabeschicht zu
reproduzieren.
Autoencoder Grundlagen
17. by Datamics, 2018
Autoencoder
• Die versteckte/interne
Darstellung bewahrt alle
Informationen der Eingabe
Autoencoder Grundlagen
18. by Datamics, 2018
Autoencoder
• Wir können die versteckte Ebene
verwenden, um aussagekräftige
Funktionen zu extrahieren. Wir
werden auch PCA mit
Autoencodern untersuchen.
Autoencoder Grundlagen
19. by Datamics, 2018
Autoencoder
• Später werden wir gestapelte
Autoencoder mit mehr
versteckten Ebenen
(Eng. Hidden Layers) erkunden.
Autoencoder Grundlagen
20. by Datamics, 2018
Autoencoder
• Jetzt solltest du einen sehr einfachen Autoencoder verstehen.
• Als nächstes besprechen wir, wie wir einen Autoencoder verwenden
können, um die Dimensionalität zu reduzieren.
Autoencoder Grundlagen
22. by Datamics, 2018
Linear Autoencoder
• Lineare Autoencoder können verwendet werden, um eine
Hauptkomponentenanalyse durchzuführen, die es uns ermöglicht, die
Dimensionalität unserer Daten zu reduzieren.
Dimensionsreduktion mit Linear Autoencoder
23. by Datamics, 2018
Linear Autoencoder
• Die Reduzierung der Dimensionalität ermöglicht es uns, eine niedrigere
Dimensionsdarstellung unserer Daten zu erhalten.
• Der Encoder erzeugt aus den Input-Features neue (weniger) Features.
Dimensionsreduktion mit Linear Autoencoder
24. by Datamics, 2018
Linear Autoencoder
• Zum Beispiel können wir einen 3-dimensionalen Datensatz eingeben
und eine 2-dimensionale Darstellung davon ausgeben.
• Denke jedoch daran, dass wir nicht einfach zwei der drei
vorhergehenden Features nehmen, sondern wir konstruieren zwei neue
Features aus den drei.
Dimensionsreduktion mit Linear Autoencoder
25. by Datamics, 2018
Linear Autoencoder
• Diesen Effekt erreichen wir durch den Einsatz eines linearen
Autoencoders.
• Lineare Autoencoder führen die linearen Transformationen durch,
indem sie nur die Gewichte und den Bias verwenden.
Dimensionsreduktion mit Linear Autoencoder
26. by Datamics, 2018
Linear Autoencoder
Dimensionsreduktion mit Linear Autoencoder
Decoder
X̄ =c + Wout h(x)
Inputs
Outputs
Encoder
h(x)= b + Wx
X
h(X)
X
W
Wout
̄ c
b Hidden
27. by Datamics, 2018
Linear Autoencoder
Dimensionsreduktion mit Linear Autoencoder
Nach dem Training können
wir die versteckte Schicht
verwenden, um eine
reduzierte Dimensionalität zu
erreichen.
Inputs
Encoder
h(x)= b + Wx
X
h(X)
W
b Hidden
28. by Datamics, 2018
Linear Autoencoder
• Lasst uns herausfinden, wie es funktioniert.
• Sieh dir auch die Ressourcen-Links an, um den mathematischen Beweis
dafür zu finden.
• Gehen wir nun zum Jupyter-Notebook!
Dimensionsreduktion mit Linear Autoencoder
35. by Datamics, 2018
Verwende den Gutschein „SLIDESHARE2018“ auf Udemy oder die Shortlinks
und erhalte unsere Kurse für nur 10,99€ (95% Rabatt).
Deep Learning Grundlagen mit TensorFlow und Python https://goo.gl/FqNoAe
Python für Data Science und Machine Learning: https://goo.gl/cE7TQ3
Original Python Bootcamp - Von 0 auf 100: https://goo.gl/gjn7pX
R für Data Science und Machine Learning: https://goo.gl/8h5tH7
Exklusive Gutscheine
Udemy-Kurse
by Datamics, 2018https://www.udemy.com/user/rene-brunner/