SlideShare ist ein Scribd-Unternehmen logo
1 von 104
Downloaden Sie, um offline zu lesen
www.kit.edu
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Anwendungen der KI – WS 22/23
Maschinelles Lernen III
Vertretungsprof. Dr. Michael Färber
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Kursübersicht
2
Datum Thema
Freitag, 04. November 2022 Einführung + Text Mining I
Freitag, 11. November 2022 Text Mining II
Freitag, 18. November 2022 Maschinelles Lernen I
Freitag, 25. November 2022 Maschinelles Lernen II
Freitag, 02. Dezember 2022 Maschinelles Lernen III
Freitag, 09. Dezember 2022 Gastvorlesung
Freitag, 16. Dezember 2022 Wissenserwerb und -repräsentation
Freitag, 23. Dezember 2022 Logisches Schließen
Freitag, 13. Januar 2023 Wissensgraphen
Freitag, 20. Januar 2023 Suchverfahren I
Freitag, 27. Januar 2023 Suchverfahren II
Freitag, 03. Februar 2023 Gastvorlesung
Freitag, 10. Februar 2023 Gastvorlesung
Freitag, 17. Februar 2023 Wiederholung und Fragestunde
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Neuronale Netze
Komponenten eines Neuronalen
Netzes
Verschiedene Netzwerktypen
Methoden zum Lernen
Delta-Lernverfahren
Backpropagation
Vor- und Nachteile
Deep Learning
Was ist Deep Learning?
Wo wird es eingesetzt?
Deep Learning-Architekturen
Autoencoder
CNN
RNN / LSTM / BiLSTM / GRU /
Transformers
3
Vorlesungsüberblick
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
4
NEURONALE NETZE
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Der unten gezeigte Datensatz ist nicht linear trennbar
SVM mit linearen Kernel kann die Daten nicht perfekt separieren
Wir benötigen somit ein Verfahren, das uns erlaubt, nicht-lineare Probleme ohne
feature engineering zu lösen Neuronale Netze!
5
Neuronale Netze: Motivation
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Die Anwendung von künstlichen neuronalen Netzen (artificial neural networks, ANNs)
bzw. Deep Learning-Methoden nimmt zu aufgrund:
der größer werdenden Datenmenge
der zunehmenden Digitalisierung der Gesellschaft
der schnelleren Berechnung und Innovation bei der Entwicklung von Algorithmen
6
Neuronale Netze: Motivation - Skalierbarkeit
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Grundgerüst cortico-corticaler Assoziations- und Kommissurfasern im Konnektom-Modell
der menschlichen Großhirnrinde:
7
Neuronale Netze
Quelle: Hagmann et al. (2008) Mapping the structural core of human cerebral cortex.
PLoS Biology Vol. 6, No. 7, e159.[1], CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=6246097
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Informatik: (Künstliche) Neuronale Netze
angelehnt an neuronale Netze im menschlichen Gehirn
basieren meist auf McCulloch-Pitts-Zelle aus dem Jahr 1943
erste neuronale Lernregel von Donald O. Hebb in 1949
Karl Steinbuch stellt 1961 Techniken der assoziativen Speicherung vor
(1958-1980 Professor an Universität Karlsruhe (TH))
Wesentliche Fortschritte, Hype und Ernüchterung in den 1980er Jahren
Neue Durchbrüche ab 2000er Jahren
Boom seit 2015 mit “Deep Learning”
8
Neuronale Netze
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
9
Rechenaufwand für die größten KI-Trainingsläufe
Quelle: https://openai.com/blog/ai-and-compute/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Systeme mit NNs können z.B. sehr erfolgreich Schach oder GO spielen
Steigerung der Rechenleistung in den größten KI-Projekten um Faktor 300.000*
10
Neuronale Netze (NNs)
2016: Google DeepMind
Aplha Go besiegt
Go Weltmeister Lee Sedol
Quellen: Wikipedia
1997: IBM Deep Blue besiegt
Schachweltmeister Garri Kasparow
* https://t3n.de/news/rechenleistung-ki-systeme-1081130/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Abstraktes Modell eines Neurons
11
Neuronale Netze
b
Dendriten
Zellkörper
Axon
Übertragungsfunktion Aktivierungsfunktion
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
12
Neuronale Netze: Feed-Forward-Modell
Gewichtete Verbindungen
Input layer = Input Vector Hidden layer Output layer
Gewichtete Verbindungen
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Ein neuronales Netz besteht aus:
Input Layer / Eingangsschicht
Hidden Layer(s) / verdeckte(n) Schicht(en) – sind optional!
Output Layer / Ausgabeschicht
Ein NN kann als gerichteter Graph
dargestellt werden
Eingaben, Neuronen und
Ausgaben sind Knoten
Verbindungen dazwischen
sind Kanten
13
Neuronale Netze: Modell
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Durch die Kombination verschiedener Neuronen in verschiedenen Schichten
können wir ein komplexeres Modell erzeugen
Aktivierungsfunktionen in Hidden Layers
können linear oder nicht-linear sein
nicht-lineare Aktivierungsfunktionen
machen das Netzwerk komplexer
Das Schaubild zeigt ein “two-layer NN”
Input Layer zählt nicht!
Hidden Layer besteht aus 3 Neuronen
14
Neuronale Netze: Hidden Layer
x1
x2
Input Layer Hidden Layer Output Layer
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Mehrschichtige NNs
Stand 1989: 30 Output-Knoten und 4 Hidden-Knoten
Stand heute: NNs haben typischerweise ein paar tausend bis ein paar
Millionen Einheiten sowie Millionen von Verbindungen
15
Neuronale Netze: Hidden Layer
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Darstellung durch Gewichtsmatrix
… eine Gewichtsmatrix sofern keine Hidden-Schicht existiert
… bei einer Hidden-Schicht würde man zwei Gewichtsmatrizen benötigen,
bei zwei Hidden-Schichten drei Matrizen usw.
Ziel: Berechnungen dadurch relativ einfach
16
Neuronale Netze: Hidden Layer
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Mehr Flexibilität durch höhere Anzahl von verdeckten Neuronen
Bei zu viel Flexibilität neigt das Netz zu Overfitting
Bei zu wenig Flexibilität ist das Netz nicht aussagekräftig genug
für eine Problemstellung
Oft zwischen 5 und 100 verdeckte Neuronen
Anzahl steigt mit der Anzahl der Eingabewerte und der Trainingseinheiten
Bestimmung der Anzahl von Hidden Layers
mit Hintergrundwissen
und/oder durch Experimente
17
Neuronale Netze: Hidden Layer
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Feed-Forward Netze:
Daneben gibt es noch eine
vielzahl weiterer Netze
Convolutional Neural Networks (CNN)
Dilated Neural Networks (DNN)
Auto Encoders (AE)
18
Neuronale Netze: Netzwerktypen
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Stochastic Gradient Descent
(auch: Delta-Lernverfahren oder
Delta-Regel)
Einfachster Trainingsalgorithmus
Falls sich tatsächliche Ausgabe von
der Ziel-Ausgabe unterscheidet,
wird die Differenz bzw. der Fehler
berechnet
Der Gradientenabstiegsalgorithmus
ändert die Gewichte des Netzwerks
so, dass dieser Fehler minimiert
wird
Prinzip:
(1) Wähle zufällige Gewichte
(2) Lege Testmuster an
(3) Falls Perzeptronausgabe falsch,
dann verändere Gewichte
(4) Gehe zu (2), bis richtige
Perzeptronausgabe für alle
Testmuster
19
Neuronale Netze: Methoden zum Lernen
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Delta-Lernverfahren basiert auf
Gradientenabstiegsverfahren
Es aktualisiert die Gewichtung unter
Beachtung jedes einzelnen Datenpunktes.
Batch Gradient Descent aktualisiert die
Gewichtung unter Beachtung des
gesamten Datensatzes
Lernrate 𝜶 ist z.B. 0,001
Frage: Was geschieht, wenn die Lernrate
zu groß oder zu klein gewählt wird?
20
Neuronale Netze: Delta-Lernverfahren
𝑤𝑖 = 𝑤𝑖 − 𝛼
𝜕
𝜕𝑤𝑖
𝒥(𝑤𝑖)
X
X
Ableitung ist negativ
Update nach rechts
Ableitung ist positiv
Update nach links
𝑤1
𝒥(𝑤𝑖)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Fehler wird “zurück propagiert”
In jedem Neuron wird der Fehler berechnet
21
Neuronale Netze: Methoden zum Lernen
Input
Layer
hidden
Layer
hidden
Layer
Output
Layer
Data Stream (Propagation)
Error Stream (Backpropagation)
Error
Data
Input
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Andere Algorithmen zum Lernen
Momentum
RMSProp
Adadelta
Adam
22
Neuronale Netze: Methoden zum Lernen
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Eingabewerte können nicht nur addiert, sondern auch multipiliziert werden, …
… oder es kann lediglich die kleinste, oder die größte Eingabe gewählt werden.
23
Neuronale Netze
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Die Übertragungsfunktion des Netzes entscheidet, ob die Reizung eines
Neurons auch zur Aktivierung führt.
Anmerkung: wir gehen generell
von einer Summe als
Übertragungsfunktion aus
24
Neuronale Netze: Übertragungsfunktion
xi
x
i
xi xi
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Die Aktivierungsfunktion beeinflusst den Wert, welcher durch das Neuron
weitergegeben wird
Im Allgemeinen sind Aktivierungsfunktionen monoton steigend
Gängige Aktivierungsfunktionen sind:
Sigmoidfunktion
Schwellenwertfunktion
Stückweise lineare Funktion
Tangens Hyperbolikus Funktion
Gaussfunktion
25
Neuronale Netze: Aktivierungsfunktion
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Sigmoidfunktion führt eine
Nichtlinearität in das Netzwerk ein,
indem es die Aktivierung des Neurons
in einen Bereich [0,1] “quetscht”
Wird häufig im Output Layer
verwendet
Ist Differenzierbar: benötigt für
Backpropagation
26
Neuronale Netze: Sigmoidfunktion
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
ReLU (Rectified Linear Unit)
Die zur Zeit mit am häufigsten
verwendete Aktivierungsfunktion
Funktion konvergiert sehr schnell
Negative Werte werden null
Beeinflusst das Ergebnis, indem
es die negativen Werte nicht
entsprechend abbildet.
27
Neuronale Netze: ReLu-Funktion
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Schwellenwertfunktion nimmt nur
die Werte 0 oder 1 an
Manchmal auch -1 und 1
Sie wird nur aktiviert, wenn ein
Schwellenwert überschritten wird
28
Neuronale Netze: Schwellenwertfunktion
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
29
Neuronale Netze: Häufige Aktivierungsfunktionen
See https://www.programmersought.com/article/1060528072/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Ausgabe eines Neurons …
wird durch die Aktivierungsfunktion bestimmt
Aktivierung …
wird beeinflusst durch die Übertragungsfunktion
sowie einem Schwellenwert
30
Neuronale Netze: Aktivierungsfunktionen
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Gegeben ist folgendes neuronales
Netz, welches das XOR Problem löst
Gehen Sie jeweils von Sigmoid
Aktivierungsfunktionen aus
31
Neuronale Netze: Beispiel Berechnung Output
n1,1
n1,2
x1
x2
ො
𝑦
x1 x2 Label
0 0 0
0 1 1
1 0 1
1 1 0
20
20
-20
20
20
-20
b=-10
b=30
b=-30
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
(0,0)
32
Neuronale Netze: Beispiel Berechnung Output
n1,1
n1,2
x1
x2
ො
𝑦
20
20
-20
20
20
-20
b=-10
b=30
b=-30
s(z) =
1
1+e-a×z
𝜎 −10 =
1
1+𝑒10 ≈0
𝜎 30 =
1
1 + 𝑒−30
≈ 1
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
(0,0)
Somit Vorhersage ො
𝑦 = 0
33
Neuronale Netze: Beispiel Berechnung Output
n1,1
n1,2
x1
x2
ො
𝑦
20
20
-20
20
20
-20
b=-10
b=30
b=-30
s(z) =
1
1+e-a×z
𝜎 10 =
1
1+𝑒10 ≈0
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
(1,0)
34
Neuronale Netze: Beispiel Berechnung Output
n1,1
n1,2
x1
x2
ො
𝑦
20
20
-20
20
20
-20
b=-10
b=30
b=-30
s(z) =
1
1+e-a×z
𝜎 10 =
1
1 + 𝑒−10 ≈ 1
𝜎 10 =
1
1 + 𝑒10
≈ 1
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
(1,0)
Somit Vorhersage ො
𝑦 = 1
35
Neuronale Netze: Beispiel Berechnung Output
n1,1
n1,2
x1
x2
ො
𝑦
20
20
-20
20
20
-20
b=-10
b=30
b=-30
s(z) =
1
1+e-a×z
𝜎 10 =
1
1 + 𝑒−10
≈ 1
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Darstellung der Decision Boundaries eines Neuronalen Netzes über
verschiedene Iterationen
InputLayer: 2 Neuronen
4 Hidden Layer (ReLu Aktivierungsfunktion): 100 Neuronen
Output Layer (Sigmoid Aktivierungsfunktion): 1 Neuron
36
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Folgende Klassen sollen separiert warden
Im Folgenden wird die Decision Boundary über die unterschiedlichen
Iterationen/Epochen dargestellt
37
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
38
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
39
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
40
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
41
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
42
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
43
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
44
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
45
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
46
Neuronale Netze: Beispiel einer Decision Boundary
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Gegeben sei folgendes Muster und
ein neuronales Netz:
Aufgabe:
Berechnen Sie auf Basis des
Delta-Lernverfahrens die
entsprechenden Gewichte.
Gehen Sie von einer linearen
Aktivierungsfunktion aus.
Start mit
initiale Gewichtung von 0 für
alle Kanten und
Lernrate von 0,25
Verwenden Sie folgende Loss
function:
47
Neuronale Netze: Anwendungsbeispiel
Muster 0 1 2 3 4
0 1 -1 1 -1 1
1 1 1 1 1 1
2 1 1 1 -1 -1
3 1 -1 -1 1 -1
𝒥 𝑤𝑖 =
1
2
𝑤 ∙ 𝑥 − 𝑦 2
0 1 2 3
4
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Iteration 1, erstes Muster:
48
Neuronale Netze: Anwendungsbeispiel
Muster Eingabe Ziel Ausgabe Fehler
0 1 2 3
0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 0,25 -0,25 0,25 -0,25
1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0,5 0 0,5 0
2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 0 -0,5 0 0,5
3 1 -1 -1 1 -1 1 -2 -0,5 0,5 0,5 -0,5 -0,5 0 0,5 0
4
Input/Output-Matrix
0 1 2 3
4
0 0 0 0
0*1 + 0*(-1) + 0*1 + 0*(-1)
𝑤𝑖 = 𝑤𝑖 − 𝛼
𝜕
𝜕𝑤𝑖
𝒥(𝑤𝑖)
𝒥 𝑤𝑖 =
1
2
𝑤0 ∙ 𝑥0 + 𝑤1 ∙ 𝑥1 + 𝑤2 ∙ 𝑥2 + 𝑤3 ∙ 𝑥3 − 𝑦 2
𝜕
𝜕𝑤0
𝒥 𝑤0 = 𝑤0 ∙ 𝑥0 + 𝑤1 ∙ 𝑥1 + 𝑤2 ∙ 𝑥2 + 𝑤3 ∙ 𝑥3 − 𝑦 ∙ 𝑥0 Update-Regel
Ausgabe
…
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Iteration 1, zweites Muster:
49
Neuronale Netze: Anwendungsbeispiel
Muster Eingabe Ziel Ausgabe Fehler
0 1 2 3
0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 0,25 -0,25 0,25 -0,25
1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0,5 0 0,5 0
2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 0 -0,5 0 0,5
3 1 -1 -1 1 -1 1 -2 -0,5 0,5 0,5 -0,5 -0,5 0 0,5 0
4
Input/Output-Matrix
Berechne erst Ausgabe,
dann berechne Fehler
als Differenz zu Ziel (4)
0,25*1 - 0,25*1 + 0,25*1 – 0,25*1
Berechne Passe an
0,25 + 0,25
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Iteration 1, alle Muster:
Führe alle Schritte für alle Testmuster durch:
Die in Iteration 1 gelernte Gewichtung ist:
wij = ( -0,5 , 0 , 0,5 , 0)
50
Neuronale Netze: Anwendungsbeispiel
Muster Eingabe Ziel Ausgabe Fehler
0 1 2 3
0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 0,25 -0,25 0,25 -0,25
1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0,5 0 0,5 0
2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 0 -0,5 0 0,5
3 1 -1 -1 1 -1 1 -2 -0,5 0,5 0,5 -0,5 -0,5 0 0,5 0
4
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Iteration 2, alle Muster:
Führe (wiederum) alle Schritte für alle Testmuster durch:
Die in Iteration 2 gelernte Gewichtung ist:
wij = ( -0,75 , -0,25 , 0,75 , 0,25)
51
Neuronale Netze: Anwendungsbeispiel
Muster Eingabe Ziel Ausgabe Fehler
0 1 2 3
0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 -0,25 -0,25 0,75 -0,25
1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0 0 1 0
2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 -0,5 -0,5 0,5 0,5
3 1 -1 -1 1 -1 0 -1 -0,25 0,25 0,25 -0,25 -0,75 -0,25 0,75 0,25
4
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
usw..
Nach 30 Iterationen konvergiert es gegen die gewünschte Gewichtung
Die schließlich gelernte Gewichtung ist (aufgerundet):
wij = (-1, -1, 2, 1)
52
Neuronale Netze: Anwendungsbeispiel
Muster
Eingabe Ziel Ausgabe Fehler
0 1 2 3
0 1 -1 1 -1 1 0,999576694 0,000423306 0,000105826 -0,000105826 0,000105826 -0,000105826 -0,999788347 -0,999788347 1,999576694 0,999576694
1 1 1 1 1 1 0,999576694 0,000423306 0,000105826 0,000105826 0,000105826 0,000105826 -0,999682521 -0,999682521 1,999682521 0,999682521
2 1 1 1 -1 -1 -0,999365041 -0,000634959 -0,00015874 -0,00015874 -0,00015874 0,00015874 -0,99984126 -0,99984126 1,999523781 0,99984126
3 1 -1 -1 1 -1 -0,999682521 -0,000317479 -7,93698E-05 7,93698E-05 7,93698E-05 -7,93698E-05 -0,99992063 -0,999761891 1,999603151 0,999761891
4
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Universelle Approximationseigenschaft
Jede stetige Funktion kann durch eine mehrschichtige KNN mit nur einer versteckten
Schicht (unter weiteren Annahmen) angenähert werden
Nichtlinearität
Fähigkeit komplexe Funktionen zu modellieren
Robustheit
Ignoriert irrelevante Eingaben und Rauschen (Noise)
Anpassungsfähigkeit
Kann die Gewichte auf der Grundlage von Umgebungsänderungen anpassen
Einfache Benutzbarkeit
Kann mit wenig Kenntnis über die Beziehung der zu modellierenden Funktion
verwendet werden
53
Neuronale Netze: Eigenschaften von Multi-Layer KNN
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Liefern bessere Ergebnisse (im Vergleich zu statistischen Verfahren),
wenn Problem nicht-linear ist und es viele Eingabedaten gibt
Verhältnismäßig wenige Parameter
Für große Datenmengen und viele Datendimensionen (Einflussfaktoren)
können sinnvolle Ergebnisse ermittelt werden
54
Neuronale Netze: Vorteile
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
NNs neigen generell eher zum Overfitting
Overfitting nimmt mit steigender Komplexität / Ausdrucksfähigkeit zu
Daher: vorsichtige / umsichtige Evaluation
NNs neigen dazu, in lokale Minima zu laufen
Trainingszeiten sind für komplexe Netzwerke sehr lang
Benötigen viele Iterationen
55
Neuronale Netze: Probleme
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Häufige Iterationen in "engen Tälern”
Stagnation auf ebenen Flächen
Gefahr, in lokale Minima zu laufen
56
Neuronale Netze: Probleme
E
E
E
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Schwierige Nachvollziehbarkeit eines NNs
Viele Trainingsdaten werden benötigt
Hoher Rechenaufwand
Ist das Problem mathematisch beschreibbar, sind NNs oftmals schlechter oder
maximal genauso gut wie weniger komplexe Verfahren
Es ist zu keinem Zeitpunkt bekannt, ob die gefundene Lösung das globale
Optimum ist oder ob es noch bessere Lösungen gibt
57
Neuronale Netze: Nachteile
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
58
DEEP LEARNING
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Einer der ersten Erfolge (2012): Erkennung von Katzenbildern
Siehe z.B. https://www.wired.com/2012/06/google-x-neural-network/
59
Deep Learning
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Deep Learning bezeichnet die Anwendung von neuronalen Netzen
mit mehr als einem Hidden Layer (meistens sogar “viele”)
Deep Learning ist also ein Teilbereich des maschinellen Lernens
Bei vielen Verfahren des maschinellen Lernens greift ein Mensch in die Analyse der
Daten und den eigentlichen Entscheidungsprozess ein.
Beim Deep Learning sorgt ein Mensch lediglich dafür, dass die Informationen für das
Lernen bereitstehen und die Prozesse dokumentiert sind.
Die eigentliche Analyse und das Ableiten von Prognosen oder Entscheidungen
wird der Maschine selbst überlassen.
Es lässt sich im Nachhinein nicht mehr vollständig zurückverfolgen, auf Basis
welcher genauen Muster eine Maschine eine bestimmte Entscheidung getroffen hat.
Deep Learning eignet sich besonders gut für große Datenbestände
60
Deep Learning
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Deep Learning findet nahezu überall in unserem Alltag, oft unbemerkt, statt …
Gesichtserkennung
Übersetzungsmaschinen
Vorhersage von Wirkungen eines Medikaments
Dabei kann Deep Learning sowohl für supervised als auch unsupervised
Problemstellungen verwendet werden
Die Investititionen im Bereich Deep Learning stieg in den letzten Jahren stark an
2014: Google übernimmt “Deep Mind” für $400 Millionen
2014: IBM investiert $1 Millarde in Watson und AI
2019: Microsoft investiert $1 Millarde in OpenAI (mit GPT-3)
… und noch viele weitere, genaue Zahlen sind oft nicht bekannt.
61
Deep Learning
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
DeepMind AI von Google hat sich selbst beigebracht zu laufen
https://www.youtube.com/watch?v=gn4nRCC9TwQ
Der Agent hat Sensoren, welche ihm Informationen über seine Umwelt bereitstellen
Dem Agenten wurde lediglich der Anreiz
gegeben, von A nach B zu gelangen.
Wie er das machen kann, wurde ihm
nicht gezeigt.
Er hat daraufhin selbständig
laufen “gelernt” und sich über
Hindernisse fortbewegt.
62
Deep Learning: Google’s Deep Mind
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Forscher verwendeten hier “Deep Reinforcement Learning”
Kombination aus Reinforcement Learning (RL) und Deep Learning (DL)
Idee: RL + DL = Allgemeine Intelligenz
Reinforcement Learning (RL)
Jede Aktion beeinflusst den Umweltzustand
Erfolge werden belohnt
Ziel ist es, durch Aktionen eine maximale Belohnung zu erhalten
Deep Learning (DL)
Gegeben ein Ziel
Lerne Repräsentationen von rohen Daten, welche notwendig sind, um das Ziel zu
erreichen
… Verfahren verwendet dabei minimales Domänen-Wissen
63
Deep Learning: Google’s Deep Mind
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Autonomes Fahren
Verwendet Objekterkennung, um die derzeitige Situation einzuschätzen
Unteres Bild zeigt vom Fahrzeug erkannte Situation
64
Deep Learning: Anwendungsbereiche
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Übersetzen von gesprochenen Texten
Google Translate arbeitet bspw. mit
einem neuronalen Netz
Um in Echtzeit laufen zu können,
musste Google mehrere
mathematische Operationen
optimieren.
z.B. Tuning von Matrix Multiplikation
65
Deep Learning: Anwendungsbereiche
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Gesichts-, Objekt- oder Spracherkennung
Bei der Spracherkennung ist es beispielsweise dank des Deep Learnings
möglich, dass die Systeme ihren Wortschatz selbstständig mit neuen Wörtern
oder Wortwendungen erweitern.
Beispiel für eine solche Arbeitsweise ist der intelligente Sprachassistent Siri
von Apple.
Anderes Beispiel:
66
Deep Learning: Anwendungsbereiche
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
3 wichtige neuronale Netzwerk-Architekturen:
67
Deep Learning-Architekturen
Unsupervised
Pre-trained Networks
Convolutional
Neural Networks
Recurrent
Neural Networks
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Unüberwachte vortrainierte Netzwerke
(Unsupervised Pre-trained Networks)
Autoencoders Deep Belief Networks
Generative Adversarial
Networks
68
Literatur:
Erhan et al. “Why does unsupervised
pre-training help deep learning?”,
JMLR, 2010.
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
69
Generative Adversarial Network (GAN)
Source: https://pixabay.com/
See also https://www.slideshare.net/xavigiro/deep-learning-for-computer-vision-generative-models-and-adversarial-training-upc-2016
Example use case: Deepfakes
https://www.youtube.com/watch
?v=cQ54GDm1eL0
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Convolutional Neural Networks
Convolutional
Neural Network
Recurrent Convolutional
Neural Network
Convolutional
Deep Belief Network
70
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Recurrent Neural Networks
Long Short-Term Memory
Hierarchical Bidirectional
Recurrent Neural Network
Bidirectional Recurrent
Neural Network
71
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Architekturen im Folgenden
1. Autoencoders
2. Convolutional Neural Networks (CNN)
3. Long Short-Term Memory (LSTM / RNN)
72
4. Transformers
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Autoencoder
Input
Komprimierter feature-Vektor
Encoder Decoder
73
siehe [Hinton & Zemel, 1994]
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Ein Autoencoder ist ein neuronales Netzwerk, das darauf trainiert ist, die Eingabe in die
Ausgabe zu kopieren, mit dem typischen Zweck der Dimensionsreduktion (komprimierter
Merkmalsvektor).
Autoencoder sind eine Form des unüberwachten Lernens, was bedeutet, dass ein
Autoencoder nur ungelabelte Daten benötigt.
74
Autoencoder
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Autoencoder – Encoder, Decoder
Funktionen für Encoder und Decoder:
Input : (x)
Encoder: z = wobei W (Gewichtsmatrix) ein Encoder-Filter ist mit
Decoder: y = Dz mit D (Gewichtsmatrix) ist der Decoder-Filter
Lernen: Minimiere die cross-entropy loss zwischen Input (x) und
Rekonstruktion (y), mit sigmoid als Decoder-Aktivierungsfunktion.
Loss(x,y) =
75
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Wenn lineare Aktivierungsfunktionen verwendet werden oder nur eine einzige verborgene
sigmoid-Schicht, ist die optimale Lösung für einen Autoencoder ähnlich zur Lösung einer
Hauptkomponentenanalyse (PCA).
Jedoch ist PCA auf ein lineares mapping beschränkt, während Autoencoder nichtlineare
Encoder / Decoder haben können.
76
Autoencoder vs. PCA
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Autoencoder vs. PCA
Rekonstruktion von Bildern mittels Autoencoder und
Rekonstruktion mittels PCA.
Michela Massi, English Wikipedia (CC BY-SA 4.0)
77
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Stacked Autoencoders Denoising Autoencoders
78
Autoencoder – Variationen
Source: Francois Pachet
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Overview
1. Autoencoders
2. Convolutional Neural Networks (CNN)
3. Long Short-Term Memory (LSTM / RNN)
79
4. Transformers
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Das Ziel eines CNN ist es, Merkmale höherer Ordnung in den Daten über
Faltungen zu lernen.
CNNs sind in der Regel am nützlichsten, wenn die Eingabedaten strukturiert
sind.
80
Convolutional Neural Networks (CNN)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Die biologische Inspiration für CNNs ist der visuelle Kortex bei Tieren.
81
Convolutional Neural Networks (CNN)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
82
Convolutional Neural Networks (CNN)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Multi-Layer Perceptron (ML)-Problem, etwa bei Bildern:
“Curse of Dimensionality”
Beispiel:
Wenn das Bild 300x300x3 hat
(Höhe x Breite x Farbe):
270.000 Werte als MLP-Input.
83
Convolutional Neural Networks (CNN)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Ein CNN ordnet seine Neuronen in drei Dimensionen an (z. B. Breite, Höhe,
Tiefe).
84
Convolutional Neural Networks (CNN)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
85
Aufbau eines einfachen CNNs
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Convolution (Faltung):
Berechnet die Ausgabe von Neuronen, die mit „lokalen Regionen“ in der
Eingabe verbunden sind.
86
Convolution-Schritt
Input Convolution Output-Convolution
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
87
Convolution-Schritt (2)
Input
Filter
Output-Convolution
…
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
ReLU: wendet eine elementweise Aktivierungsfunktion an, z. B. den maximalen
Schwellenwert (0, x).
88
ReLU-Schritt
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Pool: Führt eine Downsampling-Operation entlang der räumlichen
Dimensionen (Breite, Höhe) durch.
89
Pooling-Schritt
Max pool
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Fully connected (vollständig verbunden): berechnet die Ergebnisse der
Klassifikation. Wie bei Feed-Forward-Netzen wird jedes Neuron in dieser
Schicht mit allen Neuronen in der Schicht davor verbunden.
90
Convolutional Neural Networks (CNN)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
91
Convolutional Neural Networks (CNN)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Für Bildklassifikation (image classification)
Alex Krizhevsky et al: “ImageNet Classification with Deep Convolutional Neural Networks”, NIPS 2012.
Note: 60 million learned parameters; first use of ReLU; dropout 0.5; heavy data augmentation.
92
AlexNet
See also https://www.ic.unicamp.br/~sandra/pdf/class/2019-2/mc886/2019-10-16-MC886-CNN-Architectures.pdf
~75k citations
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Overview
1. Autoencoders
2. Convolutional Neural Networks (CNN)
3. Long Short-Term Memory (LSTM / RNN)
93
4. Transformers
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Rekurrente Neuronale Netze haben “Schleifen”.
A “schaut“ auf die Eingabe xt und gibt einen Wert ht aus.
Gut für Sequenzen und Listen.
94
Rekurrentes Neuronales Netz
(Recurrent Neural Network; RNN)
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Mit tanh
95
Standard-RNN
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
RNN erfasst keine langfristigen Abhängigkeiten und behält den Kontext nicht
bei.
96
Problem von RNNs
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Long Short Term Memory-Netzwerke – normalerweise nur als „LSTMs“
bezeichnet – sind eine spezielle Art von RNN, die in der Lage sind, langfristige
Abhängigkeiten zu lernen.
97
Long Short-Term Memory (LSTM)
See also http://colah.github.io/posts/2015-08-Understanding-
LSTMs/
Paper: https://www.bioinf.jku.at/publications/older/2604.pdf
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Wiederholendes Modul von LSTMs:
98
Long Short-Term Memory (LSTM)
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Die sequentielle Berechnung verhindert die Parallelisierung
Keine explizite Modellierung von Lang- und Kurzstreckenabhängigkeiten
"Abstand" zwischen Positionen ist linear. Zu lange LSTMs arbeiten schlecht.
99
Nachteile von LSTMs
Siehe
https://towardsdatascience.com/
transformers-141e32e69591
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Verarbeitet die Daten (z. B. Satz) auch in umgekehrter Richtung.
100
Bidirectional LSTM (BiLSTM)
Source: Arvind Mohan
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
101
Gated Recurrent Unit (GRU)
See https://towardsdatascience.com/illustrated-guide-to-lstms-and-gru-s-a-step-by-step-explanation-44e9eb85bf21
LSTM hat drei Tore
(input/output/forget gates)
GRU hat zwei Tore
(reset/update gates)
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Konzentrieren Sie sich auf bestimmte Informationen
102
Attention
Source: https://google.github.io/seq2seq/
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
“Attention Is All You Need”: https://arxiv.org/abs/1706.03762
Encoder-Decoder-Architektur mit “word-embeddings” und “self-attention”
Technische Einführung: “LSTM is dead. Long Live Transformers!”
https://www.youtube.com/watch?v=S27pHKBEp30
Allgemeine Einführung auf Deutsch: https://breos.com/google-transformer/
103
Transformers
Institut für Angewandte Informatik und Formale
Beschreibungsverfahren (AIFB)
Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI
Neuronale Netze
Bestehen aus Neuronen,
Aktivierungsfunktionen, Dendrite
Verschiedene Aktivierungsfunktionen
Sigmoid, Schwellenwertfunktion,
Tanhbyperbolikus Funktion
Methoden zum Lernen
Delta-Lernverfahren
Backpropagation
Benötigen große Datenbestände zum Lernen
Große Netzwerke sind schwer Interpretiertbar
Black-Box Verfahren
Deep Learning
Neuronale Netze mit mindestens einem
Hidden Layer
Verwendet für
Übersetzungen
Autonomes Fahren
Sprach-, Gesichts- und Objekterkennung
…
Autoencoder
CNN
RNN / LSTM / BiLSTM / GRU /
Transformers
104
Zusammenfassung

Weitere ähnliche Inhalte

Empfohlen

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by HubspotMarius Sescu
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTExpeed Software
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsPixeldarts
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthThinkNow
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfmarketingartwork
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024Neil Kimberley
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)contently
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024Albert Qian
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsKurio // The Social Media Age(ncy)
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Search Engine Journal
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summarySpeakerHub
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next Tessa Mero
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentLily Ray
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best PracticesVit Horky
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project managementMindGenius
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...RachelPearson36
 

Empfohlen (20)

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPT
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage Engineerings
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental Health
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
 

Anwendungen_der_KI_-_06_Maschinelles_Lernen_III.pdf

  • 1. www.kit.edu KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft Anwendungen der KI – WS 22/23 Maschinelles Lernen III Vertretungsprof. Dr. Michael Färber
  • 2. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Kursübersicht 2 Datum Thema Freitag, 04. November 2022 Einführung + Text Mining I Freitag, 11. November 2022 Text Mining II Freitag, 18. November 2022 Maschinelles Lernen I Freitag, 25. November 2022 Maschinelles Lernen II Freitag, 02. Dezember 2022 Maschinelles Lernen III Freitag, 09. Dezember 2022 Gastvorlesung Freitag, 16. Dezember 2022 Wissenserwerb und -repräsentation Freitag, 23. Dezember 2022 Logisches Schließen Freitag, 13. Januar 2023 Wissensgraphen Freitag, 20. Januar 2023 Suchverfahren I Freitag, 27. Januar 2023 Suchverfahren II Freitag, 03. Februar 2023 Gastvorlesung Freitag, 10. Februar 2023 Gastvorlesung Freitag, 17. Februar 2023 Wiederholung und Fragestunde
  • 3. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Neuronale Netze Komponenten eines Neuronalen Netzes Verschiedene Netzwerktypen Methoden zum Lernen Delta-Lernverfahren Backpropagation Vor- und Nachteile Deep Learning Was ist Deep Learning? Wo wird es eingesetzt? Deep Learning-Architekturen Autoencoder CNN RNN / LSTM / BiLSTM / GRU / Transformers 3 Vorlesungsüberblick
  • 4. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 4 NEURONALE NETZE
  • 5. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Der unten gezeigte Datensatz ist nicht linear trennbar SVM mit linearen Kernel kann die Daten nicht perfekt separieren Wir benötigen somit ein Verfahren, das uns erlaubt, nicht-lineare Probleme ohne feature engineering zu lösen Neuronale Netze! 5 Neuronale Netze: Motivation
  • 6. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Die Anwendung von künstlichen neuronalen Netzen (artificial neural networks, ANNs) bzw. Deep Learning-Methoden nimmt zu aufgrund: der größer werdenden Datenmenge der zunehmenden Digitalisierung der Gesellschaft der schnelleren Berechnung und Innovation bei der Entwicklung von Algorithmen 6 Neuronale Netze: Motivation - Skalierbarkeit
  • 7. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Grundgerüst cortico-corticaler Assoziations- und Kommissurfasern im Konnektom-Modell der menschlichen Großhirnrinde: 7 Neuronale Netze Quelle: Hagmann et al. (2008) Mapping the structural core of human cerebral cortex. PLoS Biology Vol. 6, No. 7, e159.[1], CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=6246097
  • 8. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Informatik: (Künstliche) Neuronale Netze angelehnt an neuronale Netze im menschlichen Gehirn basieren meist auf McCulloch-Pitts-Zelle aus dem Jahr 1943 erste neuronale Lernregel von Donald O. Hebb in 1949 Karl Steinbuch stellt 1961 Techniken der assoziativen Speicherung vor (1958-1980 Professor an Universität Karlsruhe (TH)) Wesentliche Fortschritte, Hype und Ernüchterung in den 1980er Jahren Neue Durchbrüche ab 2000er Jahren Boom seit 2015 mit “Deep Learning” 8 Neuronale Netze
  • 9. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 9 Rechenaufwand für die größten KI-Trainingsläufe Quelle: https://openai.com/blog/ai-and-compute/
  • 10. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Systeme mit NNs können z.B. sehr erfolgreich Schach oder GO spielen Steigerung der Rechenleistung in den größten KI-Projekten um Faktor 300.000* 10 Neuronale Netze (NNs) 2016: Google DeepMind Aplha Go besiegt Go Weltmeister Lee Sedol Quellen: Wikipedia 1997: IBM Deep Blue besiegt Schachweltmeister Garri Kasparow * https://t3n.de/news/rechenleistung-ki-systeme-1081130/
  • 11. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Abstraktes Modell eines Neurons 11 Neuronale Netze b Dendriten Zellkörper Axon Übertragungsfunktion Aktivierungsfunktion
  • 12. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 12 Neuronale Netze: Feed-Forward-Modell Gewichtete Verbindungen Input layer = Input Vector Hidden layer Output layer Gewichtete Verbindungen
  • 13. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Ein neuronales Netz besteht aus: Input Layer / Eingangsschicht Hidden Layer(s) / verdeckte(n) Schicht(en) – sind optional! Output Layer / Ausgabeschicht Ein NN kann als gerichteter Graph dargestellt werden Eingaben, Neuronen und Ausgaben sind Knoten Verbindungen dazwischen sind Kanten 13 Neuronale Netze: Modell
  • 14. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Durch die Kombination verschiedener Neuronen in verschiedenen Schichten können wir ein komplexeres Modell erzeugen Aktivierungsfunktionen in Hidden Layers können linear oder nicht-linear sein nicht-lineare Aktivierungsfunktionen machen das Netzwerk komplexer Das Schaubild zeigt ein “two-layer NN” Input Layer zählt nicht! Hidden Layer besteht aus 3 Neuronen 14 Neuronale Netze: Hidden Layer x1 x2 Input Layer Hidden Layer Output Layer
  • 15. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Mehrschichtige NNs Stand 1989: 30 Output-Knoten und 4 Hidden-Knoten Stand heute: NNs haben typischerweise ein paar tausend bis ein paar Millionen Einheiten sowie Millionen von Verbindungen 15 Neuronale Netze: Hidden Layer
  • 16. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Darstellung durch Gewichtsmatrix … eine Gewichtsmatrix sofern keine Hidden-Schicht existiert … bei einer Hidden-Schicht würde man zwei Gewichtsmatrizen benötigen, bei zwei Hidden-Schichten drei Matrizen usw. Ziel: Berechnungen dadurch relativ einfach 16 Neuronale Netze: Hidden Layer
  • 17. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Mehr Flexibilität durch höhere Anzahl von verdeckten Neuronen Bei zu viel Flexibilität neigt das Netz zu Overfitting Bei zu wenig Flexibilität ist das Netz nicht aussagekräftig genug für eine Problemstellung Oft zwischen 5 und 100 verdeckte Neuronen Anzahl steigt mit der Anzahl der Eingabewerte und der Trainingseinheiten Bestimmung der Anzahl von Hidden Layers mit Hintergrundwissen und/oder durch Experimente 17 Neuronale Netze: Hidden Layer
  • 18. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Feed-Forward Netze: Daneben gibt es noch eine vielzahl weiterer Netze Convolutional Neural Networks (CNN) Dilated Neural Networks (DNN) Auto Encoders (AE) 18 Neuronale Netze: Netzwerktypen
  • 19. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Stochastic Gradient Descent (auch: Delta-Lernverfahren oder Delta-Regel) Einfachster Trainingsalgorithmus Falls sich tatsächliche Ausgabe von der Ziel-Ausgabe unterscheidet, wird die Differenz bzw. der Fehler berechnet Der Gradientenabstiegsalgorithmus ändert die Gewichte des Netzwerks so, dass dieser Fehler minimiert wird Prinzip: (1) Wähle zufällige Gewichte (2) Lege Testmuster an (3) Falls Perzeptronausgabe falsch, dann verändere Gewichte (4) Gehe zu (2), bis richtige Perzeptronausgabe für alle Testmuster 19 Neuronale Netze: Methoden zum Lernen
  • 20. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Delta-Lernverfahren basiert auf Gradientenabstiegsverfahren Es aktualisiert die Gewichtung unter Beachtung jedes einzelnen Datenpunktes. Batch Gradient Descent aktualisiert die Gewichtung unter Beachtung des gesamten Datensatzes Lernrate 𝜶 ist z.B. 0,001 Frage: Was geschieht, wenn die Lernrate zu groß oder zu klein gewählt wird? 20 Neuronale Netze: Delta-Lernverfahren 𝑤𝑖 = 𝑤𝑖 − 𝛼 𝜕 𝜕𝑤𝑖 𝒥(𝑤𝑖) X X Ableitung ist negativ Update nach rechts Ableitung ist positiv Update nach links 𝑤1 𝒥(𝑤𝑖)
  • 21. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Fehler wird “zurück propagiert” In jedem Neuron wird der Fehler berechnet 21 Neuronale Netze: Methoden zum Lernen Input Layer hidden Layer hidden Layer Output Layer Data Stream (Propagation) Error Stream (Backpropagation) Error Data Input
  • 22. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Andere Algorithmen zum Lernen Momentum RMSProp Adadelta Adam 22 Neuronale Netze: Methoden zum Lernen
  • 23. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Eingabewerte können nicht nur addiert, sondern auch multipiliziert werden, … … oder es kann lediglich die kleinste, oder die größte Eingabe gewählt werden. 23 Neuronale Netze
  • 24. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Die Übertragungsfunktion des Netzes entscheidet, ob die Reizung eines Neurons auch zur Aktivierung führt. Anmerkung: wir gehen generell von einer Summe als Übertragungsfunktion aus 24 Neuronale Netze: Übertragungsfunktion xi x i xi xi
  • 25. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Die Aktivierungsfunktion beeinflusst den Wert, welcher durch das Neuron weitergegeben wird Im Allgemeinen sind Aktivierungsfunktionen monoton steigend Gängige Aktivierungsfunktionen sind: Sigmoidfunktion Schwellenwertfunktion Stückweise lineare Funktion Tangens Hyperbolikus Funktion Gaussfunktion 25 Neuronale Netze: Aktivierungsfunktion
  • 26. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Sigmoidfunktion führt eine Nichtlinearität in das Netzwerk ein, indem es die Aktivierung des Neurons in einen Bereich [0,1] “quetscht” Wird häufig im Output Layer verwendet Ist Differenzierbar: benötigt für Backpropagation 26 Neuronale Netze: Sigmoidfunktion
  • 27. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI ReLU (Rectified Linear Unit) Die zur Zeit mit am häufigsten verwendete Aktivierungsfunktion Funktion konvergiert sehr schnell Negative Werte werden null Beeinflusst das Ergebnis, indem es die negativen Werte nicht entsprechend abbildet. 27 Neuronale Netze: ReLu-Funktion
  • 28. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Schwellenwertfunktion nimmt nur die Werte 0 oder 1 an Manchmal auch -1 und 1 Sie wird nur aktiviert, wenn ein Schwellenwert überschritten wird 28 Neuronale Netze: Schwellenwertfunktion
  • 29. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 29 Neuronale Netze: Häufige Aktivierungsfunktionen See https://www.programmersought.com/article/1060528072/
  • 30. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Ausgabe eines Neurons … wird durch die Aktivierungsfunktion bestimmt Aktivierung … wird beeinflusst durch die Übertragungsfunktion sowie einem Schwellenwert 30 Neuronale Netze: Aktivierungsfunktionen
  • 31. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Gegeben ist folgendes neuronales Netz, welches das XOR Problem löst Gehen Sie jeweils von Sigmoid Aktivierungsfunktionen aus 31 Neuronale Netze: Beispiel Berechnung Output n1,1 n1,2 x1 x2 ො 𝑦 x1 x2 Label 0 0 0 0 1 1 1 0 1 1 1 0 20 20 -20 20 20 -20 b=-10 b=30 b=-30
  • 32. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI (0,0) 32 Neuronale Netze: Beispiel Berechnung Output n1,1 n1,2 x1 x2 ො 𝑦 20 20 -20 20 20 -20 b=-10 b=30 b=-30 s(z) = 1 1+e-a×z 𝜎 −10 = 1 1+𝑒10 ≈0 𝜎 30 = 1 1 + 𝑒−30 ≈ 1
  • 33. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI (0,0) Somit Vorhersage ො 𝑦 = 0 33 Neuronale Netze: Beispiel Berechnung Output n1,1 n1,2 x1 x2 ො 𝑦 20 20 -20 20 20 -20 b=-10 b=30 b=-30 s(z) = 1 1+e-a×z 𝜎 10 = 1 1+𝑒10 ≈0
  • 34. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI (1,0) 34 Neuronale Netze: Beispiel Berechnung Output n1,1 n1,2 x1 x2 ො 𝑦 20 20 -20 20 20 -20 b=-10 b=30 b=-30 s(z) = 1 1+e-a×z 𝜎 10 = 1 1 + 𝑒−10 ≈ 1 𝜎 10 = 1 1 + 𝑒10 ≈ 1
  • 35. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI (1,0) Somit Vorhersage ො 𝑦 = 1 35 Neuronale Netze: Beispiel Berechnung Output n1,1 n1,2 x1 x2 ො 𝑦 20 20 -20 20 20 -20 b=-10 b=30 b=-30 s(z) = 1 1+e-a×z 𝜎 10 = 1 1 + 𝑒−10 ≈ 1
  • 36. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Darstellung der Decision Boundaries eines Neuronalen Netzes über verschiedene Iterationen InputLayer: 2 Neuronen 4 Hidden Layer (ReLu Aktivierungsfunktion): 100 Neuronen Output Layer (Sigmoid Aktivierungsfunktion): 1 Neuron 36 Neuronale Netze: Beispiel einer Decision Boundary
  • 37. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Folgende Klassen sollen separiert warden Im Folgenden wird die Decision Boundary über die unterschiedlichen Iterationen/Epochen dargestellt 37 Neuronale Netze: Beispiel einer Decision Boundary
  • 38. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 38 Neuronale Netze: Beispiel einer Decision Boundary
  • 39. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 39 Neuronale Netze: Beispiel einer Decision Boundary
  • 40. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 40 Neuronale Netze: Beispiel einer Decision Boundary
  • 41. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 41 Neuronale Netze: Beispiel einer Decision Boundary
  • 42. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 42 Neuronale Netze: Beispiel einer Decision Boundary
  • 43. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 43 Neuronale Netze: Beispiel einer Decision Boundary
  • 44. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 44 Neuronale Netze: Beispiel einer Decision Boundary
  • 45. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 45 Neuronale Netze: Beispiel einer Decision Boundary
  • 46. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 46 Neuronale Netze: Beispiel einer Decision Boundary
  • 47. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Gegeben sei folgendes Muster und ein neuronales Netz: Aufgabe: Berechnen Sie auf Basis des Delta-Lernverfahrens die entsprechenden Gewichte. Gehen Sie von einer linearen Aktivierungsfunktion aus. Start mit initiale Gewichtung von 0 für alle Kanten und Lernrate von 0,25 Verwenden Sie folgende Loss function: 47 Neuronale Netze: Anwendungsbeispiel Muster 0 1 2 3 4 0 1 -1 1 -1 1 1 1 1 1 1 1 2 1 1 1 -1 -1 3 1 -1 -1 1 -1 𝒥 𝑤𝑖 = 1 2 𝑤 ∙ 𝑥 − 𝑦 2 0 1 2 3 4
  • 48. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Iteration 1, erstes Muster: 48 Neuronale Netze: Anwendungsbeispiel Muster Eingabe Ziel Ausgabe Fehler 0 1 2 3 0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 0,25 -0,25 0,25 -0,25 1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0,5 0 0,5 0 2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 0 -0,5 0 0,5 3 1 -1 -1 1 -1 1 -2 -0,5 0,5 0,5 -0,5 -0,5 0 0,5 0 4 Input/Output-Matrix 0 1 2 3 4 0 0 0 0 0*1 + 0*(-1) + 0*1 + 0*(-1) 𝑤𝑖 = 𝑤𝑖 − 𝛼 𝜕 𝜕𝑤𝑖 𝒥(𝑤𝑖) 𝒥 𝑤𝑖 = 1 2 𝑤0 ∙ 𝑥0 + 𝑤1 ∙ 𝑥1 + 𝑤2 ∙ 𝑥2 + 𝑤3 ∙ 𝑥3 − 𝑦 2 𝜕 𝜕𝑤0 𝒥 𝑤0 = 𝑤0 ∙ 𝑥0 + 𝑤1 ∙ 𝑥1 + 𝑤2 ∙ 𝑥2 + 𝑤3 ∙ 𝑥3 − 𝑦 ∙ 𝑥0 Update-Regel Ausgabe …
  • 49. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Iteration 1, zweites Muster: 49 Neuronale Netze: Anwendungsbeispiel Muster Eingabe Ziel Ausgabe Fehler 0 1 2 3 0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 0,25 -0,25 0,25 -0,25 1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0,5 0 0,5 0 2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 0 -0,5 0 0,5 3 1 -1 -1 1 -1 1 -2 -0,5 0,5 0,5 -0,5 -0,5 0 0,5 0 4 Input/Output-Matrix Berechne erst Ausgabe, dann berechne Fehler als Differenz zu Ziel (4) 0,25*1 - 0,25*1 + 0,25*1 – 0,25*1 Berechne Passe an 0,25 + 0,25
  • 50. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Iteration 1, alle Muster: Führe alle Schritte für alle Testmuster durch: Die in Iteration 1 gelernte Gewichtung ist: wij = ( -0,5 , 0 , 0,5 , 0) 50 Neuronale Netze: Anwendungsbeispiel Muster Eingabe Ziel Ausgabe Fehler 0 1 2 3 0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 0,25 -0,25 0,25 -0,25 1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0,5 0 0,5 0 2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 0 -0,5 0 0,5 3 1 -1 -1 1 -1 1 -2 -0,5 0,5 0,5 -0,5 -0,5 0 0,5 0 4
  • 51. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Iteration 2, alle Muster: Führe (wiederum) alle Schritte für alle Testmuster durch: Die in Iteration 2 gelernte Gewichtung ist: wij = ( -0,75 , -0,25 , 0,75 , 0,25) 51 Neuronale Netze: Anwendungsbeispiel Muster Eingabe Ziel Ausgabe Fehler 0 1 2 3 0 1 -1 1 -1 1 0 1 0,25 -0,25 0,25 -0,25 -0,25 -0,25 0,75 -0,25 1 1 1 1 1 1 0 1 0,25 0,25 0,25 0,25 0 0 1 0 2 1 1 1 -1 -1 1 -2 -0,5 -0,5 -0,5 0,5 -0,5 -0,5 0,5 0,5 3 1 -1 -1 1 -1 0 -1 -0,25 0,25 0,25 -0,25 -0,75 -0,25 0,75 0,25 4
  • 52. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI usw.. Nach 30 Iterationen konvergiert es gegen die gewünschte Gewichtung Die schließlich gelernte Gewichtung ist (aufgerundet): wij = (-1, -1, 2, 1) 52 Neuronale Netze: Anwendungsbeispiel Muster Eingabe Ziel Ausgabe Fehler 0 1 2 3 0 1 -1 1 -1 1 0,999576694 0,000423306 0,000105826 -0,000105826 0,000105826 -0,000105826 -0,999788347 -0,999788347 1,999576694 0,999576694 1 1 1 1 1 1 0,999576694 0,000423306 0,000105826 0,000105826 0,000105826 0,000105826 -0,999682521 -0,999682521 1,999682521 0,999682521 2 1 1 1 -1 -1 -0,999365041 -0,000634959 -0,00015874 -0,00015874 -0,00015874 0,00015874 -0,99984126 -0,99984126 1,999523781 0,99984126 3 1 -1 -1 1 -1 -0,999682521 -0,000317479 -7,93698E-05 7,93698E-05 7,93698E-05 -7,93698E-05 -0,99992063 -0,999761891 1,999603151 0,999761891 4
  • 53. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Universelle Approximationseigenschaft Jede stetige Funktion kann durch eine mehrschichtige KNN mit nur einer versteckten Schicht (unter weiteren Annahmen) angenähert werden Nichtlinearität Fähigkeit komplexe Funktionen zu modellieren Robustheit Ignoriert irrelevante Eingaben und Rauschen (Noise) Anpassungsfähigkeit Kann die Gewichte auf der Grundlage von Umgebungsänderungen anpassen Einfache Benutzbarkeit Kann mit wenig Kenntnis über die Beziehung der zu modellierenden Funktion verwendet werden 53 Neuronale Netze: Eigenschaften von Multi-Layer KNN
  • 54. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Liefern bessere Ergebnisse (im Vergleich zu statistischen Verfahren), wenn Problem nicht-linear ist und es viele Eingabedaten gibt Verhältnismäßig wenige Parameter Für große Datenmengen und viele Datendimensionen (Einflussfaktoren) können sinnvolle Ergebnisse ermittelt werden 54 Neuronale Netze: Vorteile
  • 55. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI NNs neigen generell eher zum Overfitting Overfitting nimmt mit steigender Komplexität / Ausdrucksfähigkeit zu Daher: vorsichtige / umsichtige Evaluation NNs neigen dazu, in lokale Minima zu laufen Trainingszeiten sind für komplexe Netzwerke sehr lang Benötigen viele Iterationen 55 Neuronale Netze: Probleme
  • 56. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Häufige Iterationen in "engen Tälern” Stagnation auf ebenen Flächen Gefahr, in lokale Minima zu laufen 56 Neuronale Netze: Probleme E E E
  • 57. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Schwierige Nachvollziehbarkeit eines NNs Viele Trainingsdaten werden benötigt Hoher Rechenaufwand Ist das Problem mathematisch beschreibbar, sind NNs oftmals schlechter oder maximal genauso gut wie weniger komplexe Verfahren Es ist zu keinem Zeitpunkt bekannt, ob die gefundene Lösung das globale Optimum ist oder ob es noch bessere Lösungen gibt 57 Neuronale Netze: Nachteile
  • 58. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 58 DEEP LEARNING
  • 59. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Einer der ersten Erfolge (2012): Erkennung von Katzenbildern Siehe z.B. https://www.wired.com/2012/06/google-x-neural-network/ 59 Deep Learning
  • 60. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Deep Learning bezeichnet die Anwendung von neuronalen Netzen mit mehr als einem Hidden Layer (meistens sogar “viele”) Deep Learning ist also ein Teilbereich des maschinellen Lernens Bei vielen Verfahren des maschinellen Lernens greift ein Mensch in die Analyse der Daten und den eigentlichen Entscheidungsprozess ein. Beim Deep Learning sorgt ein Mensch lediglich dafür, dass die Informationen für das Lernen bereitstehen und die Prozesse dokumentiert sind. Die eigentliche Analyse und das Ableiten von Prognosen oder Entscheidungen wird der Maschine selbst überlassen. Es lässt sich im Nachhinein nicht mehr vollständig zurückverfolgen, auf Basis welcher genauen Muster eine Maschine eine bestimmte Entscheidung getroffen hat. Deep Learning eignet sich besonders gut für große Datenbestände 60 Deep Learning
  • 61. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Deep Learning findet nahezu überall in unserem Alltag, oft unbemerkt, statt … Gesichtserkennung Übersetzungsmaschinen Vorhersage von Wirkungen eines Medikaments Dabei kann Deep Learning sowohl für supervised als auch unsupervised Problemstellungen verwendet werden Die Investititionen im Bereich Deep Learning stieg in den letzten Jahren stark an 2014: Google übernimmt “Deep Mind” für $400 Millionen 2014: IBM investiert $1 Millarde in Watson und AI 2019: Microsoft investiert $1 Millarde in OpenAI (mit GPT-3) … und noch viele weitere, genaue Zahlen sind oft nicht bekannt. 61 Deep Learning
  • 62. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI DeepMind AI von Google hat sich selbst beigebracht zu laufen https://www.youtube.com/watch?v=gn4nRCC9TwQ Der Agent hat Sensoren, welche ihm Informationen über seine Umwelt bereitstellen Dem Agenten wurde lediglich der Anreiz gegeben, von A nach B zu gelangen. Wie er das machen kann, wurde ihm nicht gezeigt. Er hat daraufhin selbständig laufen “gelernt” und sich über Hindernisse fortbewegt. 62 Deep Learning: Google’s Deep Mind
  • 63. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Forscher verwendeten hier “Deep Reinforcement Learning” Kombination aus Reinforcement Learning (RL) und Deep Learning (DL) Idee: RL + DL = Allgemeine Intelligenz Reinforcement Learning (RL) Jede Aktion beeinflusst den Umweltzustand Erfolge werden belohnt Ziel ist es, durch Aktionen eine maximale Belohnung zu erhalten Deep Learning (DL) Gegeben ein Ziel Lerne Repräsentationen von rohen Daten, welche notwendig sind, um das Ziel zu erreichen … Verfahren verwendet dabei minimales Domänen-Wissen 63 Deep Learning: Google’s Deep Mind
  • 64. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Autonomes Fahren Verwendet Objekterkennung, um die derzeitige Situation einzuschätzen Unteres Bild zeigt vom Fahrzeug erkannte Situation 64 Deep Learning: Anwendungsbereiche
  • 65. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Übersetzen von gesprochenen Texten Google Translate arbeitet bspw. mit einem neuronalen Netz Um in Echtzeit laufen zu können, musste Google mehrere mathematische Operationen optimieren. z.B. Tuning von Matrix Multiplikation 65 Deep Learning: Anwendungsbereiche
  • 66. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Gesichts-, Objekt- oder Spracherkennung Bei der Spracherkennung ist es beispielsweise dank des Deep Learnings möglich, dass die Systeme ihren Wortschatz selbstständig mit neuen Wörtern oder Wortwendungen erweitern. Beispiel für eine solche Arbeitsweise ist der intelligente Sprachassistent Siri von Apple. Anderes Beispiel: 66 Deep Learning: Anwendungsbereiche
  • 67. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 3 wichtige neuronale Netzwerk-Architekturen: 67 Deep Learning-Architekturen Unsupervised Pre-trained Networks Convolutional Neural Networks Recurrent Neural Networks
  • 68. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Unüberwachte vortrainierte Netzwerke (Unsupervised Pre-trained Networks) Autoencoders Deep Belief Networks Generative Adversarial Networks 68 Literatur: Erhan et al. “Why does unsupervised pre-training help deep learning?”, JMLR, 2010.
  • 69. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 69 Generative Adversarial Network (GAN) Source: https://pixabay.com/ See also https://www.slideshare.net/xavigiro/deep-learning-for-computer-vision-generative-models-and-adversarial-training-upc-2016 Example use case: Deepfakes https://www.youtube.com/watch ?v=cQ54GDm1eL0
  • 70. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Convolutional Neural Networks Convolutional Neural Network Recurrent Convolutional Neural Network Convolutional Deep Belief Network 70
  • 71. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Recurrent Neural Networks Long Short-Term Memory Hierarchical Bidirectional Recurrent Neural Network Bidirectional Recurrent Neural Network 71
  • 72. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Architekturen im Folgenden 1. Autoencoders 2. Convolutional Neural Networks (CNN) 3. Long Short-Term Memory (LSTM / RNN) 72 4. Transformers
  • 73. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Autoencoder Input Komprimierter feature-Vektor Encoder Decoder 73 siehe [Hinton & Zemel, 1994]
  • 74. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Ein Autoencoder ist ein neuronales Netzwerk, das darauf trainiert ist, die Eingabe in die Ausgabe zu kopieren, mit dem typischen Zweck der Dimensionsreduktion (komprimierter Merkmalsvektor). Autoencoder sind eine Form des unüberwachten Lernens, was bedeutet, dass ein Autoencoder nur ungelabelte Daten benötigt. 74 Autoencoder
  • 75. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Autoencoder – Encoder, Decoder Funktionen für Encoder und Decoder: Input : (x) Encoder: z = wobei W (Gewichtsmatrix) ein Encoder-Filter ist mit Decoder: y = Dz mit D (Gewichtsmatrix) ist der Decoder-Filter Lernen: Minimiere die cross-entropy loss zwischen Input (x) und Rekonstruktion (y), mit sigmoid als Decoder-Aktivierungsfunktion. Loss(x,y) = 75
  • 76. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Wenn lineare Aktivierungsfunktionen verwendet werden oder nur eine einzige verborgene sigmoid-Schicht, ist die optimale Lösung für einen Autoencoder ähnlich zur Lösung einer Hauptkomponentenanalyse (PCA). Jedoch ist PCA auf ein lineares mapping beschränkt, während Autoencoder nichtlineare Encoder / Decoder haben können. 76 Autoencoder vs. PCA
  • 77. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Autoencoder vs. PCA Rekonstruktion von Bildern mittels Autoencoder und Rekonstruktion mittels PCA. Michela Massi, English Wikipedia (CC BY-SA 4.0) 77
  • 78. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Stacked Autoencoders Denoising Autoencoders 78 Autoencoder – Variationen Source: Francois Pachet
  • 79. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Overview 1. Autoencoders 2. Convolutional Neural Networks (CNN) 3. Long Short-Term Memory (LSTM / RNN) 79 4. Transformers
  • 80. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Das Ziel eines CNN ist es, Merkmale höherer Ordnung in den Daten über Faltungen zu lernen. CNNs sind in der Regel am nützlichsten, wenn die Eingabedaten strukturiert sind. 80 Convolutional Neural Networks (CNN)
  • 81. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Die biologische Inspiration für CNNs ist der visuelle Kortex bei Tieren. 81 Convolutional Neural Networks (CNN)
  • 82. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 82 Convolutional Neural Networks (CNN)
  • 83. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Multi-Layer Perceptron (ML)-Problem, etwa bei Bildern: “Curse of Dimensionality” Beispiel: Wenn das Bild 300x300x3 hat (Höhe x Breite x Farbe): 270.000 Werte als MLP-Input. 83 Convolutional Neural Networks (CNN)
  • 84. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Ein CNN ordnet seine Neuronen in drei Dimensionen an (z. B. Breite, Höhe, Tiefe). 84 Convolutional Neural Networks (CNN)
  • 85. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 85 Aufbau eines einfachen CNNs
  • 86. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Convolution (Faltung): Berechnet die Ausgabe von Neuronen, die mit „lokalen Regionen“ in der Eingabe verbunden sind. 86 Convolution-Schritt Input Convolution Output-Convolution
  • 87. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 87 Convolution-Schritt (2) Input Filter Output-Convolution …
  • 88. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI ReLU: wendet eine elementweise Aktivierungsfunktion an, z. B. den maximalen Schwellenwert (0, x). 88 ReLU-Schritt
  • 89. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Pool: Führt eine Downsampling-Operation entlang der räumlichen Dimensionen (Breite, Höhe) durch. 89 Pooling-Schritt Max pool
  • 90. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Fully connected (vollständig verbunden): berechnet die Ergebnisse der Klassifikation. Wie bei Feed-Forward-Netzen wird jedes Neuron in dieser Schicht mit allen Neuronen in der Schicht davor verbunden. 90 Convolutional Neural Networks (CNN)
  • 91. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 91 Convolutional Neural Networks (CNN)
  • 92. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Für Bildklassifikation (image classification) Alex Krizhevsky et al: “ImageNet Classification with Deep Convolutional Neural Networks”, NIPS 2012. Note: 60 million learned parameters; first use of ReLU; dropout 0.5; heavy data augmentation. 92 AlexNet See also https://www.ic.unicamp.br/~sandra/pdf/class/2019-2/mc886/2019-10-16-MC886-CNN-Architectures.pdf ~75k citations
  • 93. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Overview 1. Autoencoders 2. Convolutional Neural Networks (CNN) 3. Long Short-Term Memory (LSTM / RNN) 93 4. Transformers
  • 94. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Rekurrente Neuronale Netze haben “Schleifen”. A “schaut“ auf die Eingabe xt und gibt einen Wert ht aus. Gut für Sequenzen und Listen. 94 Rekurrentes Neuronales Netz (Recurrent Neural Network; RNN) http://colah.github.io/posts/2015-08-Understanding-LSTMs/
  • 95. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Mit tanh 95 Standard-RNN http://colah.github.io/posts/2015-08-Understanding-LSTMs/
  • 96. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI RNN erfasst keine langfristigen Abhängigkeiten und behält den Kontext nicht bei. 96 Problem von RNNs http://colah.github.io/posts/2015-08-Understanding-LSTMs/
  • 97. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Long Short Term Memory-Netzwerke – normalerweise nur als „LSTMs“ bezeichnet – sind eine spezielle Art von RNN, die in der Lage sind, langfristige Abhängigkeiten zu lernen. 97 Long Short-Term Memory (LSTM) See also http://colah.github.io/posts/2015-08-Understanding- LSTMs/ Paper: https://www.bioinf.jku.at/publications/older/2604.pdf
  • 98. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Wiederholendes Modul von LSTMs: 98 Long Short-Term Memory (LSTM) http://colah.github.io/posts/2015-08-Understanding-LSTMs/
  • 99. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Die sequentielle Berechnung verhindert die Parallelisierung Keine explizite Modellierung von Lang- und Kurzstreckenabhängigkeiten "Abstand" zwischen Positionen ist linear. Zu lange LSTMs arbeiten schlecht. 99 Nachteile von LSTMs Siehe https://towardsdatascience.com/ transformers-141e32e69591
  • 100. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Verarbeitet die Daten (z. B. Satz) auch in umgekehrter Richtung. 100 Bidirectional LSTM (BiLSTM) Source: Arvind Mohan
  • 101. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI 101 Gated Recurrent Unit (GRU) See https://towardsdatascience.com/illustrated-guide-to-lstms-and-gru-s-a-step-by-step-explanation-44e9eb85bf21 LSTM hat drei Tore (input/output/forget gates) GRU hat zwei Tore (reset/update gates)
  • 102. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Konzentrieren Sie sich auf bestimmte Informationen 102 Attention Source: https://google.github.io/seq2seq/
  • 103. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI “Attention Is All You Need”: https://arxiv.org/abs/1706.03762 Encoder-Decoder-Architektur mit “word-embeddings” und “self-attention” Technische Einführung: “LSTM is dead. Long Live Transformers!” https://www.youtube.com/watch?v=S27pHKBEp30 Allgemeine Einführung auf Deutsch: https://breos.com/google-transformer/ 103 Transformers
  • 104. Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Dr. Michael Färber, Dr. Tobias Käfer: Anwendungen der KI Neuronale Netze Bestehen aus Neuronen, Aktivierungsfunktionen, Dendrite Verschiedene Aktivierungsfunktionen Sigmoid, Schwellenwertfunktion, Tanhbyperbolikus Funktion Methoden zum Lernen Delta-Lernverfahren Backpropagation Benötigen große Datenbestände zum Lernen Große Netzwerke sind schwer Interpretiertbar Black-Box Verfahren Deep Learning Neuronale Netze mit mindestens einem Hidden Layer Verwendet für Übersetzungen Autonomes Fahren Sprach-, Gesichts- und Objekterkennung … Autoencoder CNN RNN / LSTM / BiLSTM / GRU / Transformers 104 Zusammenfassung