Autoencoder
Wiederholung Unsupervised
Learning
(unbeaufsichtigtenLernen)
by Datamics, 2018
Unsupervised Learning
• Lasst uns schnell wiederholen, was unbeaufsichtigtes Lernen ist und
welche besonderen Herausforderungen es mit sich bringt!
• Erinnere dich daran, dass Supervised Learning mit beschrifteten Daten
arbeitet, was uns den Zugang zu einer direkten Fehlerprüfung für unsere
Modelle ermöglicht.
Wiederholung Unsupervised Learning
by Datamics, 2018
Unsupervised Learning
• Die meisten Daten der Welt sind unbeschriftet!
• Neue Artikel, Filmkritiken, User-Netflix-Bewertungen, Bilder im Internet,
etc....
• Welche Wege können wir gehen, um diese Art von unbeschrifteten
Daten zu nutzen?
Wiederholung Unsupervised Learning
by Datamics, 2018
Unsupervised Learning
Zwei Vorgehensweisen
• Reduzierung der Dimensionalität
• Clustering
Wiederholung Unsupervised Learning
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Der Autoencoder ist eigentlich ein sehr einfaches neuronales Netzwerk
und ähnelt einem mehrschichtiges Preceptron-Modell.
• Es ist so konzipiert, dass es seinen Input auf der Ausgabeschicht
wiedergibt.
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Der wesentliche Unterschied zwischen einem Autoencoder und einem
typischen MLP-Netzwerk besteht darin, dass die Anzahl der
Eingangsneuronen gleich der Anzahl der Ausgangsneuronen ist.
• Lass uns erforschen, wie das aussieht und warum wir es benutzen
würden.
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder Beispiel
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Gehen wir durch die Ebenen und
erklären die Grundidee eines
Autoencoders
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Lass uns dies noch weiter
vereinfachen mit nur einer
einzigen versteckten Ebene.
(Eng.: Hidden Layer).
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Lass uns dies noch weiter
vereinfachen mit nur einer
einzigen versteckten Ebene
(Eng.: Hidden Layer).
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Feed-Forward-Netzwerk, das
darauf trainiert ist, seinen Input
auf der Ausgabeschicht zu
reproduzieren.
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Output Größe ist genauso groß
wie bei der Input Layer
Autoencoder Grundlagen
by Datamics, 2018Autoencoder Grundlagen
Autoencoder
by Datamics, 2018Autoencoder Grundlagen
Autoencoder
= WT
Gebundene
Gewichtung
by Datamics, 2018
Autoencoder
• Die versteckte/interne
Darstellung bewahrt alle
Informationen der Eingabe
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Wir können die versteckte Ebene
verwenden, um aussagekräftige
Funktionen zu extrahieren. Wir
werden auch PCA mit
Autoencodern untersuchen.
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Später werden wir gestapelte
Autoencoder mit mehr
versteckten Ebenen
(Eng. Hidden Layers) erkunden.
Autoencoder Grundlagen
by Datamics, 2018
Autoencoder
• Jetzt solltest du einen sehr einfachen Autoencoder verstehen.
• Als nächstes besprechen wir, wie wir einen Autoencoder verwenden
können, um die Dimensionalität zu reduzieren.
Autoencoder Grundlagen
Dimensionsreduktion mit
Linear Autoencoder
by Datamics, 2018
Linear Autoencoder
• Lineare Autoencoder können verwendet werden, um eine
Hauptkomponentenanalyse durchzuführen, die es uns ermöglicht, die
Dimensionalität unserer Daten zu reduzieren.
Dimensionsreduktion mit Linear Autoencoder
by Datamics, 2018
Linear Autoencoder
• Die Reduzierung der Dimensionalität ermöglicht es uns, eine niedrigere
Dimensionsdarstellung unserer Daten zu erhalten.
• Der Encoder erzeugt aus den Input-Features neue (weniger) Features.
Dimensionsreduktion mit Linear Autoencoder
by Datamics, 2018
Linear Autoencoder
• Zum Beispiel können wir einen 3-dimensionalen Datensatz eingeben
und eine 2-dimensionale Darstellung davon ausgeben.
• Denke jedoch daran, dass wir nicht einfach zwei der drei
vorhergehenden Features nehmen, sondern wir konstruieren zwei neue
Features aus den drei.
Dimensionsreduktion mit Linear Autoencoder
by Datamics, 2018
Linear Autoencoder
• Diesen Effekt erreichen wir durch den Einsatz eines linearen
Autoencoders.
• Lineare Autoencoder führen die linearen Transformationen durch,
indem sie nur die Gewichte und den Bias verwenden.
Dimensionsreduktion mit Linear Autoencoder
by Datamics, 2018
Linear Autoencoder
Dimensionsreduktion mit Linear Autoencoder
Decoder
X̄ =c + Wout h(x)
Inputs
Outputs
Encoder
h(x)= b + Wx
X
h(X)
X
W
Wout
̄ c
b Hidden
by Datamics, 2018
Linear Autoencoder
Dimensionsreduktion mit Linear Autoencoder
Nach dem Training können
wir die versteckte Schicht
verwenden, um eine
reduzierte Dimensionalität zu
erreichen.
Inputs
Encoder
h(x)= b + Wx
X
h(X)
W
b Hidden
by Datamics, 2018
Linear Autoencoder
• Lasst uns herausfinden, wie es funktioniert.
• Sieh dir auch die Ressourcen-Links an, um den mathematischen Beweis
dafür zu finden.
• Gehen wir nun zum Jupyter-Notebook!
Dimensionsreduktion mit Linear Autoencoder
Dimensionsreduktion mit
Linear Autoencoder
Teil2
Dimensionsreduktion mit
Linear Autoencoder
Aufgabe
Dimensionsreduktion mit
Linear Autoencoder
Lösungen
Stacked Autoencoder
Gestapelter Autoencoder
by Datamics, 2018
StackedAutoencoder
Autoencoder Grundlagen
Stacked Autoencoder
Teil 2
by Datamics, 2018
Verwende den Gutschein „SLIDESHARE2018“ auf Udemy oder die Shortlinks
und erhalte unsere Kurse für nur 10,99€ (95% Rabatt).
Deep Learning Grundlagen mit TensorFlow und Python https://goo.gl/FqNoAe
Python für Data Science und Machine Learning: https://goo.gl/cE7TQ3
Original Python Bootcamp - Von 0 auf 100: https://goo.gl/gjn7pX
R für Data Science und Machine Learning: https://goo.gl/8h5tH7
Exklusive Gutscheine
Udemy-Kurse
by Datamics, 2018https://www.udemy.com/user/rene-brunner/

Slideshare AutoEncoder

  • 1.
  • 2.
  • 3.
    by Datamics, 2018 UnsupervisedLearning • Lasst uns schnell wiederholen, was unbeaufsichtigtes Lernen ist und welche besonderen Herausforderungen es mit sich bringt! • Erinnere dich daran, dass Supervised Learning mit beschrifteten Daten arbeitet, was uns den Zugang zu einer direkten Fehlerprüfung für unsere Modelle ermöglicht. Wiederholung Unsupervised Learning
  • 4.
    by Datamics, 2018 UnsupervisedLearning • Die meisten Daten der Welt sind unbeschriftet! • Neue Artikel, Filmkritiken, User-Netflix-Bewertungen, Bilder im Internet, etc.... • Welche Wege können wir gehen, um diese Art von unbeschrifteten Daten zu nutzen? Wiederholung Unsupervised Learning
  • 5.
    by Datamics, 2018 UnsupervisedLearning Zwei Vorgehensweisen • Reduzierung der Dimensionalität • Clustering Wiederholung Unsupervised Learning
  • 6.
  • 7.
    by Datamics, 2018 Autoencoder •Der Autoencoder ist eigentlich ein sehr einfaches neuronales Netzwerk und ähnelt einem mehrschichtiges Preceptron-Modell. • Es ist so konzipiert, dass es seinen Input auf der Ausgabeschicht wiedergibt. Autoencoder Grundlagen
  • 8.
    by Datamics, 2018 Autoencoder •Der wesentliche Unterschied zwischen einem Autoencoder und einem typischen MLP-Netzwerk besteht darin, dass die Anzahl der Eingangsneuronen gleich der Anzahl der Ausgangsneuronen ist. • Lass uns erforschen, wie das aussieht und warum wir es benutzen würden. Autoencoder Grundlagen
  • 9.
    by Datamics, 2018 AutoencoderBeispiel Autoencoder Grundlagen
  • 10.
    by Datamics, 2018 Autoencoder •Gehen wir durch die Ebenen und erklären die Grundidee eines Autoencoders Autoencoder Grundlagen
  • 11.
    by Datamics, 2018 Autoencoder •Lass uns dies noch weiter vereinfachen mit nur einer einzigen versteckten Ebene. (Eng.: Hidden Layer). Autoencoder Grundlagen
  • 12.
    by Datamics, 2018 Autoencoder •Lass uns dies noch weiter vereinfachen mit nur einer einzigen versteckten Ebene (Eng.: Hidden Layer). Autoencoder Grundlagen
  • 13.
    by Datamics, 2018 Autoencoder •Feed-Forward-Netzwerk, das darauf trainiert ist, seinen Input auf der Ausgabeschicht zu reproduzieren. Autoencoder Grundlagen
  • 14.
    by Datamics, 2018 Autoencoder •Output Größe ist genauso groß wie bei der Input Layer Autoencoder Grundlagen
  • 15.
    by Datamics, 2018AutoencoderGrundlagen Autoencoder
  • 16.
    by Datamics, 2018AutoencoderGrundlagen Autoencoder = WT Gebundene Gewichtung
  • 17.
    by Datamics, 2018 Autoencoder •Die versteckte/interne Darstellung bewahrt alle Informationen der Eingabe Autoencoder Grundlagen
  • 18.
    by Datamics, 2018 Autoencoder •Wir können die versteckte Ebene verwenden, um aussagekräftige Funktionen zu extrahieren. Wir werden auch PCA mit Autoencodern untersuchen. Autoencoder Grundlagen
  • 19.
    by Datamics, 2018 Autoencoder •Später werden wir gestapelte Autoencoder mit mehr versteckten Ebenen (Eng. Hidden Layers) erkunden. Autoencoder Grundlagen
  • 20.
    by Datamics, 2018 Autoencoder •Jetzt solltest du einen sehr einfachen Autoencoder verstehen. • Als nächstes besprechen wir, wie wir einen Autoencoder verwenden können, um die Dimensionalität zu reduzieren. Autoencoder Grundlagen
  • 21.
  • 22.
    by Datamics, 2018 LinearAutoencoder • Lineare Autoencoder können verwendet werden, um eine Hauptkomponentenanalyse durchzuführen, die es uns ermöglicht, die Dimensionalität unserer Daten zu reduzieren. Dimensionsreduktion mit Linear Autoencoder
  • 23.
    by Datamics, 2018 LinearAutoencoder • Die Reduzierung der Dimensionalität ermöglicht es uns, eine niedrigere Dimensionsdarstellung unserer Daten zu erhalten. • Der Encoder erzeugt aus den Input-Features neue (weniger) Features. Dimensionsreduktion mit Linear Autoencoder
  • 24.
    by Datamics, 2018 LinearAutoencoder • Zum Beispiel können wir einen 3-dimensionalen Datensatz eingeben und eine 2-dimensionale Darstellung davon ausgeben. • Denke jedoch daran, dass wir nicht einfach zwei der drei vorhergehenden Features nehmen, sondern wir konstruieren zwei neue Features aus den drei. Dimensionsreduktion mit Linear Autoencoder
  • 25.
    by Datamics, 2018 LinearAutoencoder • Diesen Effekt erreichen wir durch den Einsatz eines linearen Autoencoders. • Lineare Autoencoder führen die linearen Transformationen durch, indem sie nur die Gewichte und den Bias verwenden. Dimensionsreduktion mit Linear Autoencoder
  • 26.
    by Datamics, 2018 LinearAutoencoder Dimensionsreduktion mit Linear Autoencoder Decoder X̄ =c + Wout h(x) Inputs Outputs Encoder h(x)= b + Wx X h(X) X W Wout ̄ c b Hidden
  • 27.
    by Datamics, 2018 LinearAutoencoder Dimensionsreduktion mit Linear Autoencoder Nach dem Training können wir die versteckte Schicht verwenden, um eine reduzierte Dimensionalität zu erreichen. Inputs Encoder h(x)= b + Wx X h(X) W b Hidden
  • 28.
    by Datamics, 2018 LinearAutoencoder • Lasst uns herausfinden, wie es funktioniert. • Sieh dir auch die Ressourcen-Links an, um den mathematischen Beweis dafür zu finden. • Gehen wir nun zum Jupyter-Notebook! Dimensionsreduktion mit Linear Autoencoder
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
    by Datamics, 2018 Verwendeden Gutschein „SLIDESHARE2018“ auf Udemy oder die Shortlinks und erhalte unsere Kurse für nur 10,99€ (95% Rabatt). Deep Learning Grundlagen mit TensorFlow und Python https://goo.gl/FqNoAe Python für Data Science und Machine Learning: https://goo.gl/cE7TQ3 Original Python Bootcamp - Von 0 auf 100: https://goo.gl/gjn7pX R für Data Science und Machine Learning: https://goo.gl/8h5tH7 Exklusive Gutscheine Udemy-Kurse by Datamics, 2018https://www.udemy.com/user/rene-brunner/