Wissen Sie wie Ihre KI Entscheidungen trifft? Wie man KI erklärbar macht und warum das für den Datenschutz so wichtig ist. Matthias Hausegger (ONTEC AG)
1. ― 1 ―
Wissen Sie, wie Ihre KI
Entscheidungen trifft?
Wie man KI erklärbar macht und warum das
für den Datenschutz so wichtig ist
Matthias Hausegger
2. ― 2 ―
Matthias
ONTEC AG
• Individual Software Entwicklung
• Betrieb von businesskritischen Infrastrukturen &
Applikationen
• Lösungen für künstliche Intelligenz
Künstliche Intelligenz
• Machine Learning statt Algorithmus
• KI erfordert Vertrauen
• Einhaltung der Datenschutzgesetze
• Hauseigene Forschung bei ONTEC AG
Hausegger
3. ― 3 ―
Agenda und
Themenüberblick
KI – Ein
schneller
Überblick
• KI vs. Klassisches
Programm
• Potenzial von KI
LAMaLearner –
Ein Praxis-
beispiel
• Überblick
• Vorteile
• LAMaLearner als
erklärbare KI
Warum KI erklärt
werden sollte
• Vertrauen schaffen
durch Transparenz
• Beispiele aus der
Praxis
Wie man KI
erklärbar macht
• Make-or-Buy-
Entscheidung
• KI erklärbar machen
• Von Entwicklung bis
Betrieb
4. ― 4 ―
KI – Ein schneller
Überblick
KI vs. Klassisches Programm
Potenzial von KI
5. ― 5 ―
Klassisch programmiert oder doch Künstliche
Intelligenz
Algorithmus
Von einem Menschen definierte fixe
Verfahrensvorschrift
Modell
Vom Computer durch Machine Learning
selbst generierter Algorithmus
6. ― 6 ―
Künstliche Intelligenz – Eine Lösung mit Potential
• Komplexe Problemstellungen
• Für Menschen
undurchführbare
Geschäftsprozesse
• Verarbeitung unstrukturierter
Daten
KI und ihre Datenarten
7. ― 7 ―
Warum KI erklärt
werden sollte
Vertrauen schaffen durch
Transparenz
Beispiele aus der Praxis
8. ― 8 ―
01 02
03 04
Datenschutz
DSGVO schreibt Recht auf Erklärung
fest
Wissensaufbau
Wissensaufbau durch von der KI
erkannte Muster
Vertrauen
Nachvollziehbarkeit fördert das
Vertrauen in die KI
Fehleranalyse
Fehleranalyse bei unlogisch
erscheinenden Ergebnissen
Warum
KI
erklärt
werden
sollte
9. ― 9 ―
Projekt „KITKA“ – Vertrauen schaffen durch
Transparenz
Projektteam
Interdisziplinäres Team (Ethik, Wirtschaft,
Psychologie, Datenschutz, …)
Ziel
Erhöhung der Transparenz in Österreich
entwickelter Künstlicher Intelligenzen
Ergebnis:
• Entwicklung eines Kriterienkatalogs für vertrauensvolle KI
• Beschreibung von KI Systemen anhand dieser Kriterien
• Konzeption einer öffentlich zugänglichen Plattform
• Breite Umsetzung dieser Plattform als Zukunftsvision
10. ― 10 ―
Wo erklärbare KI eine Rolle spielt
– Recruiting
Ausgangslage
• Suche von geeigneten Kandidaten anhand ihrer Lebensläufe
• Sehr viele CVs
• Suche mit exakten Suchbegriffen ignoriert viele geeignete
Kandidaten
Erklärbarkeit
• Anforderungen der DSGVO
• Analyse, nach welchen
Kriterien, die KI entschieden
hat
Anforderung
• Intelligentes System, zum
Auffinden ähnlicher
Lebensläufe
11. ― 11 ―
Anforderung
• Intelligentes System, das Personen auf dem richtigen Karrierepfad
zu der zu besetzenden Stelle identifiziert
• Beispielhaft anhand von Lebensläufen bereits vermittelter
Personen für diese Stelle
Wo erklärbare KI eine Rolle spielt
– Karriereplanung
Erklärbarkeit
• Anforderungen der DSGVO
• Analyse, nach welchen
Kriterien, die KI entschieden
hat
Ausgangslage
• Suche geeigneter Kandidaten
für eine bestimmte Stelle
12. ― 12 ―
Wie man KI
erklärbar macht
Make-or-Buy-Entscheidung
KI erklärbar machen
Von Entwicklung bis Betrieb
13. ― 13 ―
• Selbst trainiertes Modell
• Woher kommen die Daten?
• Sind sie anonymisiert?
• Wissen über die Daten liegt beim
Anwender
• Erklärbarkeit von Anfang an
• Zukauf eines vortrainierten
Modells
• Ist das Modell richtig trainiert?
• Welche Daten wurden verwendet?
• Erklärbarkeit im Nachhinein herzustellen
Daten für die
KI – Zwei
Ansätze
14. ― 14 ―
Erklärbarkeit durch begründete
Entscheidungen
Eigens entwickelte erklärbare KI
• Von Anfang an auf Erklärbarkeit hin
entwickelt
Vortrainierte Modelle
• Data Lineage
• Post Hoc Blackbox Model Explanation
Algorithmen
Metadaten
• Teamzusammensetzung bei der Entwicklung
• Zielsetzung der Entwicklung
• Verwendete Datenquellen
• u.s.w.
15. ― 15 ―
Use Case Discovery
Mit Kunden gemeinsam KI-
Opportunities erarbeiten
Operation
ISO-zertifizierter Betrieb der KI-
Lösungen
Prototyping
Verifizieren, wie gut ein KI-Modell für
den identifizierten Use-Case funktioniert
Development
Professionell entwickelte und erklärbare
KI-Lösungen
Erklärbare
KI
von
der
Entwicklung
bis
zum
Betrieb
16. ― 16 ―
LAMaLearner – Ein
Praxisbeispiel
Überblick
Vorteile
LAMaLearner als
erklärbare KI
17. ― 17 ―
LAMaLearner – Intelligentes Log-Management und
SIEM
• Log Analysis Machine Learner
• Automatisierung personalintensiver Arbeitsschritte für Log-Management und SIEM
• Lernt selbst und verbessert sich stetig
18. ― 18 ―
LAMaLearner – Der flexible Log-Manager, der
mitlernt
Robust gegen
Änderungen bei den
Log-Files
• Einordnung neuer
Formate statt Produktion
von Unknown Events
Übersichtliches Log-
Management
• 1 Mio. Events
• 10 – 100 Cluster
• 2 – 5 Labels
Hohe Performance
• 2000 Datensätze pro
Sekunde bei Anwendung
von 100 Regeln
19. ― 19 ―
Der LAMaLearner erklärt sich
• Gibt ausschlaggebende Wörter für die Ergebnisse an
• Begründet gefundene Anomalien
• Dokumentiert Modelleinsatz durch Audit Logging
• Dokumentiert im Training verwendete Daten
Vorteile:
• Überprüfbare Ergebnisse
• Verifizierbare Funktionsweise
• Erkenntnisgewinn
• Datenschutzkonform
20. ― 20 ―
Zusammenfassung und
Rückblick
Potential mit
Hürden
KI hat großes
Potential, aber auch
Hürden zu überwinden
Erklärbarkeit von
Anfang an
Erklärbarkeit der KI
sollte schon bei der
Planung berücksichtigt
werden
Vertrauen durch
Erklärbarkeit
Durch erklärbare KI
kann das Vertrauen
gestärkt werden
Wissen und
Transparenz
Datenschutz,
Transparenz und
Wissensgewinn
sprechen für sich und
für erklärbare KI
21. Matthias Hausegger
ONTEC AG
T +43 1 20 55 20-0
M +43 664 807 575 29
matthias.hausegger@ontec.at
Ihr Spezialist für Artificial Intelligence
Hinweis der Redaktion
Sehr geehrte Damen und Herren, mein Name ist Matthias Hausegger und ich darf Ihnen heute etwas über die Erklärbarkeit von KI erzählen und warum das unserer Sicht besonders wichtig sit.
Ich bin Mitglied des Vorstandes bei der ONTEC AG und für den Bereich Vertrieb und Marketing verantwortlich.
Die ONTEC AG ist ein IT Dienstleister mit 3 Haupthandlungsfeldern
Individual Software Entwicklung
Betrieb von bussinesskritischer Infrastruktur & Applikationen
Lösungen für künstliche Intelligenz
Wir freuen uns sehr, heuer den 20. Geburtstag unseres Unternehmens zu feiern. Damit haben wir langjährige Erfahrung in der Betreuung von Großkunden und Mittelstandsunternehmen.
Unsere 60 MitarbeiterINNen an unserem Unternehmenssitz in Wien können wir nationale und europäische Projekte
In den SW Projektern bereits gelernt => nicht alles lässt sich durch einen Algorthmus lösen
Auch in der Betriebsführung lassen sich nicht alle Themen durch Automatisierung in den Griff bekommen
Daher beschäftigen wir uns bereits seit einigen Jahren mit KI => betreiben dazu auch hauseigene Forschung
Unsere Erkenntnis ist, das KI einerseits Vertrauen erfordert und andererseit die Einhaltung der gesetzlichen Rahmenbedinungen (speziell DSGVO) die Nachvollziehbarkeit der KI notwendig macht
Wir haben uns überlegt, diesem Vortrag auf 4 Schwerpunkte áufzubauen
Zuerst Möchte ich Ihnen einen Überblick zu KI geben
Danach nochmals die Notwendigkeit der Erklärbarkeit adressieren
Anschließend die Möglichkeiten bzw den Weg zur Erklärbarkeit der KI darstellen
Und als Abrundung ein Beispiel aus der Praxis einer erklärbaren KI vorstellen
Sehen wir uns den Unterschied zwischen einer klassisch programmierten Anwendung und einer KI einmal genauer an:
Algorithmus
Der Algorithmus ist eine fixe Verfahrensvorschrift, die durch einen Menschen so programmiert wurde
Der Output ist gut nachvollziehbar, der Prozess ist durch den Quellcode bekannt
Die Entwicklerin / Der Entwickler muss alle potentiellen Inputs und Outputs schon vor dem Programmieren kennen
Modell (Machine Learning)
In dem fall wird Der Algorithmus vom Computer selbst generiert
Im Training entwickelt die KI ein Modell aus dem Input und dem erwarteten Output
In dem fall sind der erwartete output die vorhanden daten
Aus Input, Output und Feedback passt die KI ihr Modell immer weiter an => daher auch der Begriff des Machine Learnings
Die Entscheidungsfindung der KI ist allerdings eine Black Box und nicht nachvollziehbar
Warum verwende ich KI überhaupt, wenn ich sie nicht erklären kann?
Es gibt gewisse Anwendungsfälle, die nur durch KI bearbeitet werden können:
Komplexe Problemstellungen
Bei denen Menschen keinen guten Algorithmus definieren können
dafür aber einen Machine Learner entwickeln können, der anhand einer großen Beispieldatenmenge Modelle erzeugt
Für Menschen undurchführbare Geschäftsprozesse
Hier handelt es sich Geschäftsprozesse die zu monoton oder zu unübersichtlich sind
Dafür können ebenfalls Machine Learner entwickelt werden, denn diesen wird nicht langweilig
Verarbeitung von unstrukturierten Daten
Die Verarbeitung von unstrukturierten Daten ist die große Stärke der KI, da es dafür keine guten, von Menschen erdachten Algorithmen gibt.
Generell unterscheidet man zwischen folgende Datenarten:
Strukturierte Daten (z.B.: Tabellen, Zahlen, Boolean (Binäre Daten), Kategorien)
Unstrukturierte Daten (z.B.: Bilder, Videos, Töne, Fließtext)
Semistrukturierte Daten (z.B.: HTML, XML)
Metadaten (Daten über Daten)
In den meisten künstlichen Intelligenzen werden mehrere Arten von Daten multimodal verarbeitet
Und warum muss KI jetzt unbedingt erklärt werden?
Während die Entscheidungen eines Algorithmus nachvollzogen werden können indem man sich einfach den Quellcode anschaut, ist das Verhalten einer KI eine Black Box
Das vom Machine Learner entwickelte Modell entscheidet nach unbekannten Kriterien
Gleichzeitig schreibt die DSGVO ein Recht auf Erklärung fest wenn es um die Verarbeitung von personenbezogenen Daten geht
Davon abgesehen gibt es auch bei der Verarbeitung von nicht personenbezogenen Daten, gute Gründe, warum man das Verhalten einer KI nachvollziehen möchte:
es fördert das Vertrauen in die KI
hilft bei der Fehleranalyse, wenn Entscheidungen der KI unlogisch erscheinen
Ermöglicht den Wissensaufbau, denn die KI kann Muster erkennen, die ein Mensch vielleicht nicht erkannt hat
Insbesondere aus den erkannten Gründen, die für erklärbare KI sprechen entstand ein Forschunsprojekt zur Frage „Wie können wir KI-Systeme bzw. deren Algorithmen unter Berücksichtigung ethischer Grundsätze möglichst vertrauensvoll gestalten, damit österreichische Unternehmen diese akzeptieren, ihre Potenziale erkennen und ausschöpfen?“
Ziel des Projekts war die Erhöhung der Transparenz von in Österreich entwickelter KI
Beteiligt waren neben ONTEC als Industriepartner auch das IHS (Institut für höhere Studien), die FH Oberösterreich und die Universität Salzburg.
Damit ergab sich ein interdisziplinäres Team um Perspektiven aus Ethik, Soziologie, Wirtschaft, Psychologie und Datenschutz zu erhalten
Das Ergebnis der Studie:
Das Team entwickelte einen Kriterienkatalog für vertrauensvolle KI
Anhand dieser Kriterien wurden beispielhaft 10 in Österreich angebotene KI-Systeme beschrieben
Um diese Information übersichtlich und transparent darzustellen wurde ein öffentlich zugängliche Plattform konzipiert
Die breite Umsetzung dieser Plattform ist der nächste Schritt des KITKA-Teams
Zwei konkrete Beispiele aus unserer Praxis, wo erklärbare KI eine wichtige Rolle spielt:
Recruiting
Ausgangslage: Personaldienstleister suchen anhand von CVs nach geeigneten Kandidaten für eine Stelle
Da hier sehr viele Lebensläufe durchsucht werden müssen, soll der Prozess automatisiert werden.
Eine Suche nach exakten Suchbegriffen wird jedoch schnell sehr komplex.
Sucht man zum Beispiel nach „Java“ müssten auch Begriffe wie „J2EE“ und weitere Geschmacksrichtungen berücksichtigt werden
Außerdem sind Lebensläufe in der Regel nicht standardisiert und damit explizite unstrukturierte Daten
Die Anforderung an die Lösung: Ein intelligentes System, das anhand eines Beispiel-Lebenslaufs ähnliche Lebensläufe herausfiltert
Anforderung an die Erklärbarkeit: Da hier personenbezogene Daten verarbeitet werden, stellt die DSGVO ein Recht auf Erklärbarkeit fest.
Auch abseits davon ist es für den Personaldienstleister von Vorteil zu wissen, nach welchen Kriterien die KI hier entscheidet.
Hat die KI vielleicht ein Muster gefunden, das dem Personaldienstleister entgangen ist?
Karriereplanung
Ausgangslage: Personaldienstleister suchen einen Kandidaten für eine bestimmte Position, beispielsweise einen IT-Leiter.
Aktuell hat der Personaldienstleister aber keine geeignete Person im Pool, die auf die Anforderungen passt.
Er gibt jedoch die Lebensläufe von bereits vermittelten IT-Leitern.
Diese haben bestimmte Karriereschritte vollzogen, bis sie IT-Leiter wurden.
Anforderung an die Lösung: Ein intelligentes System, das Personen identifiziert, die sich auf dem vergleichbaren Karrierepfad befinden und deren nächster Schritt, der zum IT-Leiter sein könnte. Die Lebensläufe der bereits vermittelten IT-Leiter dienen der KI als Beispiel um potenzielle IT-Leiter Kandidaten zu identifizieren.
Anforderung an die Erklärbarkeit: Wie im ersten Beispiel haben wir es mit personenbezogenen Daten zu tun, die von der DSGVO umfasst werden.
Auch hier gelten die anderen genannten Vorteile der Erklärbarkeit für den Personaldienstleister
Habe ich mich dazu entschlossen, eine KI für einen bestimmten Anwendungsfall einzusetzen, stehe ich als Nutzer vor einer Make-or-Buy-Entscheidung
Bei einem selbst trainierten Modell
muss man sich die Frage stellen woher die Daten kommen
und sicherstellen, dass diese beim Lernen anonymisiert sind.
Das Wissen über die Daten liegt jedoch vollständig in der Hand des Anwenders
Das garantiert Erklärbarkeit von Anfang an
Der Zukauf eines bereits vortrainierten Modells
spart Zeit,
man muss allerdings darauf vertrauen, dass der Hersteller das Modell richtig und mit den richtigen Daten trainiert hat,
denn als Käufer hat man kein Wissen darüber, welche Daten verwendet wurden.
Ist Erklärbarkeit erforderlich oder erwünscht, muss man diese im Nachhinein herstellen
Was heißt das jetzt eigentlich, dass eine KI erklärbar ist?
Grundsätzlich bedeutet es, dass die Entscheidung einer KI begründet werden kann.
Für vortrainierte Modelle gibt es verschiedene Strategien, um diese im Nachhinein erklärbar zu machen:
Durch die Offenlegung, welche Daten verwendet wurden kann die Data Lineage nachverfolgt werden
Zusätzlich gibt es Post Hoc Black Box Model Explanation Algorithmen. Diese liefern Listen von Eingabeelementen, die für eine Entscheidung besonders ausschlaggebend waren
d.h. welche Daten hat die KI benutzt um zur Entscheidung zu kommen;
Studien zeigen jedoch, dass diese Algorithmen relativ leicht umgangen werden können, wenn man das möchte
Beispiel 1 – filtern von Kandidatinnen nach Geburtsland wäre offensichtlich rassistisch;
In Regionen, in denen ethnische Wohncluster etabliert sind, ließe sich durch filtern nach Wohnort indirekt auf eine Migrationshintergrund schließen
Immer noch rassistisch
Beispiel 2 - nach Geschlecht der Bewerber selektieren – offensichtlich diskriminierend
Alternativ nach Präsenzdienst selektieren)
Bei ONTEC verfolgen wir den Ansatz, unsere KI von Anfang an auf Erklärbarkeit hin zu entwickeln
Unabhängig davon, ob es sich um ein vortrainiertes Modell oder eine eigens entwickelte KI handelt tragen Metadaten über die Entstehung der KI zur Erklärbarkeit bei.
Beispielsweise
die Teamzusammensetzung bei der Entwicklung,
die Zielsetzung der Entwicklung,
die verwendeten Datenquellen
und vieles mehr
Hier auch wieder der Faktor Mensch im Projekt
Bei ONTEC haben wir uns ganz der erklärbaren KI verschrieben. Daher umfasst KI-Entwicklung bei uns alle Schritte bis hin zum Betrieb der Lösung.
Im Use Case Discovery identifizieren wir mit unseren Kunden gemeinsam KI-Opportunities. Vor allem im Bereich der predictive Maintenance konnten wir hier bei einigen unserer Industriekunden bereits Potenzial aufdecken.
Die zuvor bereits genannten Praxisbeispiele aus dem Recruitingprozess befinden sich derzeit in der Prototyping-Phase. Hier wird verifiziert, wie gut ein KI-Modell für den identifizierten Use-Case funktioniert.
Eine bereits entwickelte und im Einsatz befindliche KI-Lösung ist der LAMaLearner, der personalintensive Arbeitsschritte für Log Management in SIEM-Umgebungen automatisiert. Diesen werde ich als Praxisbeispiel für erklärbare KI im Anschluss noch kurz näher vorstellen.
Selbstverständlich betreiben wir bei ONTEC die entwickelten KI-Lösungen auch. IT-Sicherheit hat bei uns einen hohen Stellenwert, daher sind wir in auch ISO-27001 zertifiziert.
Wie erklärbare KI in der Praxis funktionieren kann möchte ich nun anhand eines Beispiels zeigen:
Der LAMaLearner ist im Auftrag von und in Zusammenarbeit mit unserem Schwester-Unternehmen schoeller network control entstanden
Die Schoeller Network Control ist auf den Bereich Netzwerk-Security spezialisiert
LAMaLearner steht hier für Log Analysis Machine Learner
Die Grundidee ist, personalintensive Arbeitsschritte für Log Management und Security Information and Event Management, kurz SIEM, zu automatisieren.
Wie funktioniert das genau?
Computer und Netzwerk-Komponenten erzeugen Log-Files
Diese müssen analysiert werden, entweder
um bereits erfolgte Vorfälle nachvollziehen zu können, oder
um Fehler in Echtzeit am laufenden System zu erkennen
Da die Log-Files aus vielen unterschiedlichen Quellen kommen, haben wir es mit sehr heterogenen Daten zu tun
Der LAMaLearner analysiert und interpretiert diese Log-Files, er verwandelt sie also in Datenbankeinträge
Aus diesen Einträgen erzeugt er Cluster aus inhaltlich ähnlichen Logs und leitet Muster ab
Daraus lernt er, was im Unternehmen „normal“ ist und alarmiert bei Anomalien
Der LAMaLearner lernt indem er sich selbst testet und dann das Modell auswählt, das die besten Ergebnisse liefert, außerdem kann der User ihm Feedback geben oder manuell Fakten anlegen und so den Lernprozess zusätzlich unterstützen.
Mensch & Maschine
Warum setzen wir hier überhaupt eine KI ein?
Dadurch, dass der LAMaLearner ständig mitlernt, ist er robust gegenüber sich ändernden Formaten von Log-Meldungen. Hat es eine klassische Software mit unbekannten Formaten zu tun, kommt es zu vielen unknown Events, der LAMaLearner kann auch neue Formate einordnen und verarbeiten.
Zukunftssicher
Außerdem macht er das Log Management übersichtlicher. Aus Millionen Events kann er 10-100 Cluster generieren und diesen 2-5 Labels zuordnen.
Der LAMaLearner besticht auch durch seine hohe Performance. Die aktuelle Umgebung ist so ausgelegt, dass pro Sekunde 2000 Datensätze bei insgesamt 100 Regeln in Echtzeit verarbeitet werden können.
Der user bekommt so vorverdichtete Informationen aus den Echtdaten
Inwiefern ist der LAMaLearner jetzt eine erklärbare KI und muss sie das überhaupt sein?
Der LAMaLearner erklärt, welche Wörter im Log-File ausschlaggebend dafür waren, dass ein bestimmtes Ergebnis (z.B. Fehlermeldung, normale Tätigkeit, Warnung, …) generiert wurde.
Weiters gibt der LAMaLearner an, was er an einem bestimmten Tag für ein bestimmtes Zeitintervall als normal annimmt und begründet so gefundene Anomalien
Durch Audit Logging wird dokumentiert, welches Modell wann und wofür verwendet wurde
=> Nachvollziehbarkeit
Außerdem wird dokumentiert welche Daten für das Training des jeweiligen Modells zum Einsatz kamen
Durch diese Maßnahmen
lassen sich Ergebnisse leicht überprüfen und das korrekte Funktionieren der KI verifizieren,
können Erkenntnisse über wichtige Faktoren von Log Management und SIEM gewonnen werden und
Dem Datenschutz wird Rechnung getragen
Zusammenfassend lässt sich feststellen, dass der Einsatz von KI großes Potential hat, aber auch noch einige Hürden überwinden muss. Eine davon ist eben, das Vertrauen der, insbesondere österreichischen, Unternehmen in KI zu stärken und ein Weg dazu ist aus unserer Sicht, der über erklärbare KI.
Denn diese genügt nicht nur den gesetzlichen Anforderungen bei der Verarbeitung personenbezogener Daten nach europäischem Recht, sondern fördert auch bei allen Themen die Nachvollziehbarkeit der Entscheidungen, die eine KI trifft und trägt so zu Wissensgewinn und Transparenz bei.
Schon aus der klassischen Softwareentwicklung kennen wir die weithin gepredigte und leider oft ignorierte Maxime, der Dokumentation von Anfang an. Für KI gilt das umso mehr, da Erklärbarkeit im Nachhinein herzustellen nur unter größtem Aufwand oder überhaupt nicht möglich ist.
Knowhowtransfer
Damit bedanke ich mich für Ihre Aufmerksamkeit und stehe Ihnen für Fragen gerne zur Verfügung