Häufig stellt die Entwicklung einer ML-Lösung die Optimierung von Performanz-Metriken wie der "Accuracy" unter Verwendung sehr komplexer Modelle in den Fokus. Fälschlicherweise wird sich damit abgefunden, dass aufgrund der höheren Komplexität die Explainability, also die Frage nach dem "Warum verhält sich mein Modell so und nicht anders?" leiden muss. Die Folgen können schwerwiegend sein und reichen vom unwissentlich gelernten Bias aus tabellarischen Daten bis zu einer hohen Anfälligkeit gegenüber Adversarial-Attacks in Bilddaten des autonomen Fahrens.
Warum meiner Meinung nach die Explainability auch bei komplexen Modellen nicht leiden muss, möchte ich in diesem Vortrag verdeutlichen.
Hierfür werde ich verschiedene XAI-Methoden, wie z.B. die Permutation-Importance und LIME, anhand eines konkreten Anwendungsfalles vorstellen, bewerten und vergleichen. Mein Ziel ist es, für XAI zu sensibilisieren und euch einen Methoden-Kasten an die Hand zu geben, der dazu befähigt, den Blick in die Black-Box zu wagen.
9. „Warum wurde auf dem
Ultraschallbild ein Tumor
klassifiziert?“
„Warum wurde meine
Kreditanfrage
abgelehnt?“
„Warum habe ich ein
höheres Risiko an einer
Krankheit zu erkranken?“
Aber auch abseits dieser Probleme…
24. Analyse der Gewichte
Ausgangsformel:
Umformen in Linear
Regression Stil:
l𝑜𝑔
𝑃(𝑦 = 1)
𝑃(𝑦 = 0)
= 𝑤0 + 𝑤1𝑥1 + … + 𝑤𝑛𝑥𝑛
𝑃 𝑦 = 1 =
1
1 + 𝑒(−(𝑤0+𝑤1𝑥1+ … +𝑤𝑛𝑥𝑛)
Erklärung:
„Wenn x1 um eine Einheit vergrößert
wird, vergrößert sich log(odds) um w1!“
𝑜𝑑𝑑𝑠 =
𝑃(𝑦 = 1)
𝑃(𝑦 = 0)
Beachte:
25. Odds Ratio
:
Nach weiteren
Umstellungen:
l𝑜𝑔 𝑜𝑑𝑑𝑠 = 𝑤0 + 𝑤1𝑥1 + … + 𝑤𝑛𝑥𝑛
Erklärung:
„Wenn x1 um eine Einheit vergrößert
wird, vergrößern sich die odds um den
Faktor 𝒆𝒘𝟏!“
𝑜𝑑𝑑𝑠𝑥𝑖+1
𝑜𝑑𝑑𝑠𝑥𝑖
= 𝑒𝑤𝑖 𝑜𝑑𝑑𝑠𝑥𝑖+1 = 𝑒𝑤𝑖𝑜𝑑𝑑𝑠𝑥𝑖
26. Ein Beispiel:
… mit Feature x1 = Temperatur
& Gewicht w1 = 0.7
„Wenn x1 um eine Einheit vergrößert wird, vergrößern
sich die odds um den Faktor 𝒆𝒘𝟏!“
„Wenn die Temperatur um einen Grad steigt, erhöht sich
die Chance (odds) um den Faktor 𝑒0.𝟕(= 2).
Also verdoppelt sich die Chance, dass Fahrräder
verfügbar sind.“*
*anderen Variablen bleiben gleich. Temperatur wurde nicht skaliert.
28. Odds Ratio
Vorteile
Modell-
Spezifisch
Scope
• Einfache Berechnung
• Stärke und Richtung des Einflusses
• Odds Ratio ist gewöhnungsbedürftig
• Logistic Regression meist zu schlechte
Genauigkeit
Kompatibilität
Nachteile
Global
34. XAI: Permutation Importance
Reference Score s
k-mal für
jedes Feature i:
1
Score sk
2
Zufällige
Werte für
Feature i
𝑖𝑚𝑝𝑖 = 𝑠 −
1
𝐾
𝑘=1
𝐾
𝑠𝑘𝑖
Fit &
Validate
Validate
K-mal
35. XAI: Permutation Importance
Fit &
Validate
Reference Score s
k-mal für
jedes Feature i:
Validate
K-mal
Score sk
2
Zufällige
Werte für
Feature i
𝑖𝑚𝑝𝑖 = 𝑠 −
1
𝐾
𝑘=1
𝐾
𝑠𝑘𝑖
BLACK
BOX
BLACK
BOX
1
43. Local Interpretable Model-Agnostic
Explanations (LIME)
Künstlich
erzeugte Daten
Rad nicht verfügbar
Rad Verfügbar
Generiere neue
Vorhersagen
in Nachbarschaft
&
Gewichte basierend
auf Kernel
1
Kernel
44. Local Interpretable Model-Agnostic
Explanations (LIME)
Surrogate-Modell-
Decision Boundary
Original Modell
Vorhersage
Rad nicht verfügbar
Rad Verfügbar
Fitte simples
Surrogate-Modell
auf generierte
Vorhersagen
2
47. Das geht auch mit Bildern…
https://christophm.github.io/interpretable-ml-book/lime.html
48. LIME
Vorteile
Modell-
Agnostisch
Scope
• Einblick in sehr komplexe Modelle
• Tabellarisch, Bilder und Texte
• Richtung und Stärke des Einflusses
• Wahl des Kernels hat großen Einfluss auf
Ergebnis
• Wahl der Nachbarschaft
Kompatibilität
Nachteile
Lokal
49. Ein Blick auf den XAI-Reiseplan…
2 Odds-Ratio
Permutation-
Importance
Odds
Ratio
Permutation
Importance
LIME
50. Ein Blick auf die Beute..
3
Odds-Ratio
Permutation-
Importance
LIME
Agnostisch
Spezifisch
Lokal Global
51. Wir brauchen einen größeren
Rucksack…
Odds
Raito
Permutation
Importance
LIME
SHAP
Partial
Dependency
Plots
Saliency
Maps
53. A N S P R E C H P A R T N E R
TIM WÜLLNER
Machine Learning Engineer
Kaiserliche Post, Poststraße 1, 26122 Oldenburg
www.openknowledge.de
+49 (0) 441 4082 0
tim.wuellner@openknowledge.de
www.linkedin.com/in/tim-wuellner/
Ich lade dich auf einen
remote Kaffee ein ;-)
Hier direkt
Termin sichern!
Husky-Wolf Klassifikation
3d-Printed Turtle
AMAZON Recruitment
Andere
Husky-Wolf Klassifikation
3d-Printed Turtle
AMAZON Recruitment
Andere
Andere Gründe:
Debugging ML
Steigerung des Vertrauens
Finden von Edge-Cases
Wissenschaft: Extraktion von Wissen durch XAI, da das Modell eine Abstraktion der Daten (also der Wahrheit) ist
https://www.flaticon.com/free-icon/doctor_921058?term=doctor&page=1&position=25&origin=search&related_id=921058
https://www.flaticon.com/free-icon/sad_7642724?term=sad&page=1&position=11&origin=search&related_id=7642724
Nach https://towardsdatascience.com/explainable-ai-the-data-scientists-new-challenge-f7cac935a5b4
Vielleicht eher sowas: https://www.datacamp.com/tutorial/explainable-ai-understanding-and-trusting-machine-learning-models
Meranna
Stock-Fotografie-ID:1178528765
Hochgeladen am: 4. Oktober 2019
Kategorien:Fotos | Kreativität
Möglichkeit von Remote Office aber im Büro gibt es den besseren Kaffee
Kein Auto, Fahrrad kaputt, Bus nicht verlässlich
Fahrrad leihen, aber App buggy und oft keine Fahrräder mehr da
Blöd, weil ich dann meistens schon draußen und hätte viel Zeit sparen können
WANN SIND FAHRRÄDER VERFÜGBAR?
https://www.flaticon.com/de/kostenloses-icon/mann_4842197?term=person&related_id=4842197
Am meisten Einfluss haben die Features, welche am weitesten von 1 entfernt sind, da bei odds-ratio=1 keine Änderung der Odds bei Feature-Änderung vorliegt.
Zusätzlich:
Einfluss der Features scheint nicht linear zu sein
Features beeinflussen sich gegenseitig:
Season wird einen Einfluss auf Temperatur haben,
Hr hat Einfluss auf Temperatur,
Gefühlte und echte Temperatur sind korreliert
usw.
Non-Linear: Decision Tree
https://www.flaticon.com/de/kostenloses-icon/stern_5487318?term=bling&page=2&position=96&origin=search&related_id=5487318
https://www.flaticon.com/de/kostenloses-icon/mogen_6645236?term=vorteil&page=1&position=11&origin=search&related_id=6645236
Wenn negativ: Accuracy ist höher auf zufälligen Daten dieses Features als auf „richtigen“ Daten. Dann hat Feature keinen Einfluss auf Modell-Performance
https://scikit-learn.org/stable/modules/permutation_importance.html
Zusätzlich:
Einfluss der Features scheint nicht linear zu sein
Features beeinflussen sich gegenseitig:
Season wird einen Einfluss auf Temperatur haben,
Hr hat Einfluss auf Temperatur,
Gefühlte und echte Temperatur sind korreliert
usw.
Non-Linear: Decision Tree
https://www.flaticon.com/de/kostenloses-icon/stern_5487318?term=bling&page=2&position=96&origin=search&related_id=5487318
https://www.flaticon.com/de/kostenloses-icon/mogen_6645236?term=vorteil&page=1&position=11&origin=search&related_id=6645236
Hier sind auch negative werte möglich. Die grafik muss noch ersetzt werden
Zusätzlich:
Einfluss der Features scheint nicht linear zu sein
Features beeinflussen sich gegenseitig:
Season wird einen Einfluss auf Temperatur haben,
Hr hat Einfluss auf Temperatur,
Gefühlte und echte Temperatur sind korreliert
usw.
Non-Linear: Decision Tree
https://www.flaticon.com/de/kostenloses-icon/stern_5487318?term=bling&page=2&position=96&origin=search&related_id=5487318
https://www.flaticon.com/de/kostenloses-icon/mogen_6645236?term=vorteil&page=1&position=11&origin=search&related_id=6645236
Meranna
Stock-Fotografie-ID:1178528765
Hochgeladen am: 4. Oktober 2019
Kategorien:Fotos | Kreativität
Tree-based models provide an alternative measure of feature importances based on the mean decrease in impurity (MDI). Impurity is quantified by the splitting criterion of the decision trees (Gini, Log Loss or Mean Squared Error). However, this method can give high importance to features that may not be predictive on unseen data when the model is overfitting. Permutation-based feature importance, on the other hand, avoids this issue, since it can be computed on unseen data.
Furthermore, impurity-based feature importance for trees are strongly biased and favor high cardinality features (typically numerical features) over low cardinality features such as binary features or categorical variables with a small number of possible categories.
Permutation-based feature importances do not exhibit such a bias. Additionally, the permutation feature importance may be computed performance metric on the model predictions and can be used to analyze any model class (not just tree-based models).
The following example highlights the limitations of impurity-based feature importance in contrast to permutation-based feature importance: https://scikit-learn.org/stable/auto_examples/inspection/plot_permutation_importance.html#sphx-glr-auto-examples-inspection-plot-permutation-importance-py
Zusätzlich:
Einfluss der Features scheint nicht linear zu sein
Features beeinflussen sich gegenseitig:
Season wird einen Einfluss auf Temperatur haben,
Hr hat Einfluss auf Temperatur,
Gefühlte und echte Temperatur sind korreliert
usw.
Non-Linear: Decision Tree
https://www.flaticon.com/de/kostenloses-icon/stern_5487318?term=bling&page=2&position=96&origin=search&related_id=5487318
https://www.flaticon.com/de/kostenloses-icon/mogen_6645236?term=vorteil&page=1&position=11&origin=search&related_id=6645236