Transparente und Verantwortungsbewusste KI: Was bedeutet Explainable und Responsible AI und warum sollten wir uns damit beschäftigen?
In dieser Session widmen wir uns den aktuellen Themen Explainable AI (XAI) und Responsible AI (RAI), bei denen es um die Entwicklung von Künstlicher Intelligenz geht, die transparent, erklärbar und ethisch verantwortlich agiert. Wir wollen ein breites Publikum ansprechen, von KI-Experten und Forschern bis hin zu Vertretern aus Wirtschaft, Politik und der Zivilgesellschaft. Ziel ist es, ein Verständnis für die Bedeutung von Explainable und Responsible AI zu schaffen, mögliche Herausforderungen zu diskutieren und Lösungsansätze für eine verantwortungsvolle KI-Nutzung zu entwickeln.
Die digitale Transformation und der Aufstieg von Künstlicher Intelligenz (KI) haben die Geschäftswelt revolutioniert. Unternehmen, die ihre Geschäftsentscheidungen auf Daten und KI stützen, gewinnen einen klaren Wettbewerbsvorteil und schaffen innovative Lösungen für ihre Kunden. Diese Veranstaltung richtet sich an Führungskräfte, Manager, Unternehmer und Data-Enthusiasten, die mehr darüber erfahren möchten, ob und wann sie eine Datenstrategie brauchen, wie sie eine effektive Datenstrategie entwickeln und wie sie damit ein datengetriebenes und KI-basiertes Business aufbauen oder bereichern können.
Ob in der Landwirtschaft, der Industrie oder im Dienstleistungsgewerbe: Künstliche Intelligenz (KI) oder auch Artificial Intelligence (AI) ist in aller Munde. Zukünftig soll Informationstechnik in immer mehr Anwendungsbereichen dazu fähig sein, menschenähnliches Lern-, Beurteilungs- und Entscheidungsverhalten nachzuahmen und zu automatisieren. Mittels ausgefeilter Algorithmen überprüfen Systeme fortlaufend Daten und analysieren Ereignisse.
Das vorliegende Whitepaper dient folglich als Auftakt für die Beleuchtung der aktuellen Trends in der digitalisierten Personalgewinnung unter Berücksichtigung von Künstlicher Intelligenz. Erfahren Sie mit Hays, welche Methoden und Tools bereits in der deutschen Recruiting-Landschaft im Einsatz sind – und was derzeit noch als ferne Zukunftsmusik zu bewerten ist.
Wenn Maschinen Menschen bewerten: To-dos für TeilhabeKonrad Lischka
Politischer und gesellschaftlicher Handlungsbedarf bei maschinellen Entscheidungen / Prozessen algorithmischer Entscheidungsfindung.
Gehalten bei der Konferenz "Das ist Netzpolitik!", 1.9.2017
Umfrage im Auftrag des Bundesamts für Kommunikation (BAKOM) zu Big Data in der Schweiz: "Chancen, Risiken und Handlungsbedarf des Bundes". BFH-interne Präsentation der Studien-Ergebnisse. November 2015.
Die digitale Transformation und der Aufstieg von Künstlicher Intelligenz (KI) haben die Geschäftswelt revolutioniert. Unternehmen, die ihre Geschäftsentscheidungen auf Daten und KI stützen, gewinnen einen klaren Wettbewerbsvorteil und schaffen innovative Lösungen für ihre Kunden. Diese Veranstaltung richtet sich an Führungskräfte, Manager, Unternehmer und Data-Enthusiasten, die mehr darüber erfahren möchten, ob und wann sie eine Datenstrategie brauchen, wie sie eine effektive Datenstrategie entwickeln und wie sie damit ein datengetriebenes und KI-basiertes Business aufbauen oder bereichern können.
Ob in der Landwirtschaft, der Industrie oder im Dienstleistungsgewerbe: Künstliche Intelligenz (KI) oder auch Artificial Intelligence (AI) ist in aller Munde. Zukünftig soll Informationstechnik in immer mehr Anwendungsbereichen dazu fähig sein, menschenähnliches Lern-, Beurteilungs- und Entscheidungsverhalten nachzuahmen und zu automatisieren. Mittels ausgefeilter Algorithmen überprüfen Systeme fortlaufend Daten und analysieren Ereignisse.
Das vorliegende Whitepaper dient folglich als Auftakt für die Beleuchtung der aktuellen Trends in der digitalisierten Personalgewinnung unter Berücksichtigung von Künstlicher Intelligenz. Erfahren Sie mit Hays, welche Methoden und Tools bereits in der deutschen Recruiting-Landschaft im Einsatz sind – und was derzeit noch als ferne Zukunftsmusik zu bewerten ist.
Wenn Maschinen Menschen bewerten: To-dos für TeilhabeKonrad Lischka
Politischer und gesellschaftlicher Handlungsbedarf bei maschinellen Entscheidungen / Prozessen algorithmischer Entscheidungsfindung.
Gehalten bei der Konferenz "Das ist Netzpolitik!", 1.9.2017
Umfrage im Auftrag des Bundesamts für Kommunikation (BAKOM) zu Big Data in der Schweiz: "Chancen, Risiken und Handlungsbedarf des Bundes". BFH-interne Präsentation der Studien-Ergebnisse. November 2015.
Mittelstand trifft künstliche Intelligenz - Point of ViewWeissmanGruppe
Künstliche Intelligenz stellt neben Blockchain, Augmented Reality, Big Data und zahlreichen anderen Themenfelder ein aktuelles Trendmedium dar. Durch die kontinuierliche, technische Weiterentwicklung und zahlreiche Innovationen in diesem Feld wird der Einsatz von künstlicher Intelligenz auch für den deutschen Mittelstand immer interessanter. Die grundlegende Funktionsweise wird, ebenso wie mögliche Anwendungen in diesem Point of View zusammenfassend dargestellt.
Jeder Mensch soll grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten bestimmen. Der Umgang mit personenbezogenen Daten wird durch das Datenschutzrecht geregelt.Es kommt zur Anwendung, wenn Sie Daten bearbeiten, die einem Menschen zugeordnet werden können.
Dieser Vortrag wurde am 14.11.18 an der Leuphana Universität Lüneburg für Studenten gehalten. Er skizziert mögliche Einsatzgebiete der künstlichen Intelligenz und stellt das Thema vor.
Können wir einer "KI" Moral beibringen?Tobias Jonas
Folien meines X-Conference 2020 Talks.
Beschreibung:
Als IT-Startup, das sich schwerpunktmäßig mit Cloud Computing und Big Data beschäftigt, haben wir ständig mit mehr oder weniger sensiblen Daten von Personen zu tun. Mithilfe der Daten und modernen Frameworks können wir aus den Daten problemlos schwache KIs zur Entscheidungsfindung trainieren. Oft ein unbezahlbarer Schatz der anonym auch DSGVO konform verwendet werden kann. Falsche Analysen können jedoch schwere persönliche Einschränkungen im Leben des Nutzers bedeuten. Somit stellt sich auch als Startup die Frage: Wie weit kann man gehen und können wir einer KI überhaupt Moral beibringen?
Link zum Talk:
https://www.x-conference.de/breakout-sessions/koennen-wir-einer-ki-moral-beibringen.html
Link zur Aufzeichnung:
folgt
Besuchen Sie uns auf https://innfactory.de
Ist Ihr Unternehmen in der Lage auf Knopfdruck alle Dokumente zu einer Person zu lokalisieren, um dann die „Betroffenenrechte“ gemäß der DSGVO (Recht auf Auskunft, Berichtigung, Löschung, Einschränkung, Datenübertragbarkeit) erfüllen zu können?
Eines der Schlüsselelemente der DSGVO ist die Handhabung von personenbezogenen Daten im gesamten Unternehmen. Sie müssen in der Lage sein bestehende und neu erfasste Daten zu klassifizieren, Datensätze jederzeit zu finden und den Umgang mit personenbezogenen Daten nachvollziehbar zu dokumentieren.
Um diese große Herausforderung zu meistern, stellen wir Ihnen unseren Ansatz vor, der auf Enterprise Search Technologie aus dem Hause SINEQUA basiert, und der Sie bei der präzisen und effizienten Integration Ihrer künftigen Compliance-Strategie in die bestehende IT-Landschaft unterstützt.
Meetup "Datenseen und Datensilos" der Meetup-Reihe "Verstehen Sie Ihre Kunden?", Impulsvortrag zur Reife von Unternehmen im Verstehen Ihrer Kunden. Meetup bei ThoughtWorks in Köln am 16.01.2019
Die Menge der produzierten Daten wächst exponenziell. Zusätzlich verändert sich deren Zusammensetzung: über 80% der Daten sind unstrukturiert und liegen meistens in Form von Texten (E-Mails, Kommentare und Bewertungen in Foren, Beschwerden, Social Media Posts usw.) vor. Sentimentanalyse (Opinion Mining) beschäftigt sich damit, Meinungen in Texten automatisch mit Hilfe von Methoden von Artificial Intelligence und Machine Learning zu extrahieren und zu klassifizieren. Für Unternehmen stellt diese Technologie eine grosse Chance dar, die Einstellung der Kunden zu ihren Produkten und Services zu erfahren und somit durch gezielte Massnahmen die Kundenerlebnisse zu verbessern.
“Ethik-Leitlinien für vertrauenswürdige KI” - Vorstellung, Kommentar und unse...Jan Groenefeld
Die Technisierung von Mensch und Umwelt schreitet unaufhaltsam voran. Neuratech installiert Microchips erfolgreich direkt ins menschliche Gehirn und Sozialwissenschaftler modernisieren Beziehungsmodelle altehrwürdiger griechischer Philosophen, um der „Freundschaft” zwischen Mensch und Maschine eine definitorische Grundlage zu geben. Die Mutter all dieser wahrgewordenen Technikfantasien: Künstliche Intelligenzen.
Es wird also Zeit, dass wir uns bei der Gestaltung einer zunehmend digitalisierten Welt aktiv mit den Chancen und Risiken von KI auseinandersetzen. Eine Expertengruppe der europäischen Kommission hat mit den jüngst veröffentlichten „Ethik-Leitlinien für vertrauenswürdige KI” eine wichtige Grundlage geschaffen, die die weitere Diskussion und inhaltliche Ausgestaltung auf gesellschaftlicher Ebene ermöglicht. Der Vortrag soll für die Bedeutung und Auswirkungen von KI auf die Gestaltung soziotechnischer Systeme sensibilisieren. Hierzu möchte ich die wichtigsten Eckpfeiler der Leitlinie beispielhaft vorstellen und insbesondere die Rolle kollaborativer und mensch-zentrierter Gestaltungswerkzeuge aufzeigen. Zuletzt werde ich einzelne Aspekte aus persönlicher Perspektive kommentieren und freue mich darauf, diese mit euch zu diskutieren.
Die mensch-zentrierte Gestaltung der digitalen Gesellschaft ist eine Mammutaufgabe und erfordert die interdisziplinäre Zusammenarbeit unzähliger Experten. Aber auch wenn wir noch ganz am Anfang unserer digitalen Reise stehen, ist eines bereits sicher: Eure Erfahrung und geschulte Perspektive als Gestalter:innen digitaler Produkte und Services sind dabei unerlässlich - Für intelligente Technologie, die den Menschen unterstützt und befähigt, statt ihn zu beherrschen!
Durch intelligente Optimierung zum einem Enterprise Information SystemFranz Schreiber
Durch intelligente Verschlagwortung, Indexierung und einer intelligenten semantische Suche zu einem Enterprise Information System mit Methodik und Konzept.
Durch intelligente Optimierung zum Enterprise Information SystemFranz Schreiber
Durch intelligente Verschlagwortung, Indexierung und einer intelligenten semantische Suche zu einem Enterprise Information System mit Methodik und Konzept.
Big Data, Datenschutz, Datensicherheit - Chancen und Risiken für Smart CitiesMichael Lobeck
Vortrag "Big Data, Datenschutz, Datensicherheit – Chancen und Risiken für Smart Cities" bei der Konferenz "Wien wächst – Smart City.Neues Konzept, offene Fragen" der Arbeiterkammer Wien am 17.02.2016 in Wien. BITTE BEACHTEN SIE AUCH DIE NOTIZEN
Anlässlich unseres 15 jährigen Firmenjubiläums fand am 17. September 2015 ein exklusives B-S-S Digital Workplace Summit statt - mit praxisnahen Berichten und hochkarätigen Speakern zum Thema "Digitaler Arbeitsplatz - wandelnde Werte und intelligente Systeme".
http://www.b-s-s.de/unternehmen/digitaler-arbeitsplatz-wandelnde-werte-und-intelligente-systeme
Vortrag auf der M3 Online-Konferenz am 16.06.2020 (https://online.m3-konferenz.de/lecture.php?id=12337&source=0)
Mit Machine Learning getroffene Entscheidungen sind inhärent schwierig – wenn nicht gar unmöglich – nachzuvollziehen. Ein scheinbar gutes Ergebnis mit Hilfe von maschinellen Lernverfahren ist oft schnell erzielt oder wird von anderen als bahnbrechend verkauft.
Die Komplexität einiger der besten Modelle wie neuronaler Netze ist genau das, was sie so erfolgreich macht. Aber es macht sie gleichzeitig zu einer Black Box. Das kann problematisch sein, denn Geschäftsführer oder Vorstände werden weniger geneigt sein, einer Entscheidung zu vertrauen und nach ihr zu handeln, wenn sie sie nicht verstehen.
Shapley Values, Local Interpretable Model-Agnostic Explanations (LIME) und Anchors sind Ansätze, diese komplexen Modelle zumindest teilweise nachvollziehbar zu machen.
In diesem Vortrag erkläre ich, wie diese Ansätze funktionieren, und zeige Anwendungsbeispiele.
LERNZIELE
* Die Teilnehmer erhalten Einblick in Möglichkeit, die komplexe Modelle erklärbar machen.
* Sie lernen, Datensätze kritisch zu hinterfragen und angemessen aufzuteilen.
* Und sie erfahren, unter welchen Bedingungen sie Entscheidungen durch Machine Learning vertrauen können.
These are slides from a lecture I gave at the School of Applied Sciences in Münster. In this lecture, I talked about **Real-World Data Science** at showed examples on **Fraud Detection, Customer Churn & Predictive Maintenance**.
Weitere ähnliche Inhalte
Ähnlich wie Transparente und Verantwortungsbewusste KI
Mittelstand trifft künstliche Intelligenz - Point of ViewWeissmanGruppe
Künstliche Intelligenz stellt neben Blockchain, Augmented Reality, Big Data und zahlreichen anderen Themenfelder ein aktuelles Trendmedium dar. Durch die kontinuierliche, technische Weiterentwicklung und zahlreiche Innovationen in diesem Feld wird der Einsatz von künstlicher Intelligenz auch für den deutschen Mittelstand immer interessanter. Die grundlegende Funktionsweise wird, ebenso wie mögliche Anwendungen in diesem Point of View zusammenfassend dargestellt.
Jeder Mensch soll grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten bestimmen. Der Umgang mit personenbezogenen Daten wird durch das Datenschutzrecht geregelt.Es kommt zur Anwendung, wenn Sie Daten bearbeiten, die einem Menschen zugeordnet werden können.
Dieser Vortrag wurde am 14.11.18 an der Leuphana Universität Lüneburg für Studenten gehalten. Er skizziert mögliche Einsatzgebiete der künstlichen Intelligenz und stellt das Thema vor.
Können wir einer "KI" Moral beibringen?Tobias Jonas
Folien meines X-Conference 2020 Talks.
Beschreibung:
Als IT-Startup, das sich schwerpunktmäßig mit Cloud Computing und Big Data beschäftigt, haben wir ständig mit mehr oder weniger sensiblen Daten von Personen zu tun. Mithilfe der Daten und modernen Frameworks können wir aus den Daten problemlos schwache KIs zur Entscheidungsfindung trainieren. Oft ein unbezahlbarer Schatz der anonym auch DSGVO konform verwendet werden kann. Falsche Analysen können jedoch schwere persönliche Einschränkungen im Leben des Nutzers bedeuten. Somit stellt sich auch als Startup die Frage: Wie weit kann man gehen und können wir einer KI überhaupt Moral beibringen?
Link zum Talk:
https://www.x-conference.de/breakout-sessions/koennen-wir-einer-ki-moral-beibringen.html
Link zur Aufzeichnung:
folgt
Besuchen Sie uns auf https://innfactory.de
Ist Ihr Unternehmen in der Lage auf Knopfdruck alle Dokumente zu einer Person zu lokalisieren, um dann die „Betroffenenrechte“ gemäß der DSGVO (Recht auf Auskunft, Berichtigung, Löschung, Einschränkung, Datenübertragbarkeit) erfüllen zu können?
Eines der Schlüsselelemente der DSGVO ist die Handhabung von personenbezogenen Daten im gesamten Unternehmen. Sie müssen in der Lage sein bestehende und neu erfasste Daten zu klassifizieren, Datensätze jederzeit zu finden und den Umgang mit personenbezogenen Daten nachvollziehbar zu dokumentieren.
Um diese große Herausforderung zu meistern, stellen wir Ihnen unseren Ansatz vor, der auf Enterprise Search Technologie aus dem Hause SINEQUA basiert, und der Sie bei der präzisen und effizienten Integration Ihrer künftigen Compliance-Strategie in die bestehende IT-Landschaft unterstützt.
Meetup "Datenseen und Datensilos" der Meetup-Reihe "Verstehen Sie Ihre Kunden?", Impulsvortrag zur Reife von Unternehmen im Verstehen Ihrer Kunden. Meetup bei ThoughtWorks in Köln am 16.01.2019
Die Menge der produzierten Daten wächst exponenziell. Zusätzlich verändert sich deren Zusammensetzung: über 80% der Daten sind unstrukturiert und liegen meistens in Form von Texten (E-Mails, Kommentare und Bewertungen in Foren, Beschwerden, Social Media Posts usw.) vor. Sentimentanalyse (Opinion Mining) beschäftigt sich damit, Meinungen in Texten automatisch mit Hilfe von Methoden von Artificial Intelligence und Machine Learning zu extrahieren und zu klassifizieren. Für Unternehmen stellt diese Technologie eine grosse Chance dar, die Einstellung der Kunden zu ihren Produkten und Services zu erfahren und somit durch gezielte Massnahmen die Kundenerlebnisse zu verbessern.
“Ethik-Leitlinien für vertrauenswürdige KI” - Vorstellung, Kommentar und unse...Jan Groenefeld
Die Technisierung von Mensch und Umwelt schreitet unaufhaltsam voran. Neuratech installiert Microchips erfolgreich direkt ins menschliche Gehirn und Sozialwissenschaftler modernisieren Beziehungsmodelle altehrwürdiger griechischer Philosophen, um der „Freundschaft” zwischen Mensch und Maschine eine definitorische Grundlage zu geben. Die Mutter all dieser wahrgewordenen Technikfantasien: Künstliche Intelligenzen.
Es wird also Zeit, dass wir uns bei der Gestaltung einer zunehmend digitalisierten Welt aktiv mit den Chancen und Risiken von KI auseinandersetzen. Eine Expertengruppe der europäischen Kommission hat mit den jüngst veröffentlichten „Ethik-Leitlinien für vertrauenswürdige KI” eine wichtige Grundlage geschaffen, die die weitere Diskussion und inhaltliche Ausgestaltung auf gesellschaftlicher Ebene ermöglicht. Der Vortrag soll für die Bedeutung und Auswirkungen von KI auf die Gestaltung soziotechnischer Systeme sensibilisieren. Hierzu möchte ich die wichtigsten Eckpfeiler der Leitlinie beispielhaft vorstellen und insbesondere die Rolle kollaborativer und mensch-zentrierter Gestaltungswerkzeuge aufzeigen. Zuletzt werde ich einzelne Aspekte aus persönlicher Perspektive kommentieren und freue mich darauf, diese mit euch zu diskutieren.
Die mensch-zentrierte Gestaltung der digitalen Gesellschaft ist eine Mammutaufgabe und erfordert die interdisziplinäre Zusammenarbeit unzähliger Experten. Aber auch wenn wir noch ganz am Anfang unserer digitalen Reise stehen, ist eines bereits sicher: Eure Erfahrung und geschulte Perspektive als Gestalter:innen digitaler Produkte und Services sind dabei unerlässlich - Für intelligente Technologie, die den Menschen unterstützt und befähigt, statt ihn zu beherrschen!
Durch intelligente Optimierung zum einem Enterprise Information SystemFranz Schreiber
Durch intelligente Verschlagwortung, Indexierung und einer intelligenten semantische Suche zu einem Enterprise Information System mit Methodik und Konzept.
Durch intelligente Optimierung zum Enterprise Information SystemFranz Schreiber
Durch intelligente Verschlagwortung, Indexierung und einer intelligenten semantische Suche zu einem Enterprise Information System mit Methodik und Konzept.
Big Data, Datenschutz, Datensicherheit - Chancen und Risiken für Smart CitiesMichael Lobeck
Vortrag "Big Data, Datenschutz, Datensicherheit – Chancen und Risiken für Smart Cities" bei der Konferenz "Wien wächst – Smart City.Neues Konzept, offene Fragen" der Arbeiterkammer Wien am 17.02.2016 in Wien. BITTE BEACHTEN SIE AUCH DIE NOTIZEN
Anlässlich unseres 15 jährigen Firmenjubiläums fand am 17. September 2015 ein exklusives B-S-S Digital Workplace Summit statt - mit praxisnahen Berichten und hochkarätigen Speakern zum Thema "Digitaler Arbeitsplatz - wandelnde Werte und intelligente Systeme".
http://www.b-s-s.de/unternehmen/digitaler-arbeitsplatz-wandelnde-werte-und-intelligente-systeme
Ähnlich wie Transparente und Verantwortungsbewusste KI (20)
Vortrag auf der M3 Online-Konferenz am 16.06.2020 (https://online.m3-konferenz.de/lecture.php?id=12337&source=0)
Mit Machine Learning getroffene Entscheidungen sind inhärent schwierig – wenn nicht gar unmöglich – nachzuvollziehen. Ein scheinbar gutes Ergebnis mit Hilfe von maschinellen Lernverfahren ist oft schnell erzielt oder wird von anderen als bahnbrechend verkauft.
Die Komplexität einiger der besten Modelle wie neuronaler Netze ist genau das, was sie so erfolgreich macht. Aber es macht sie gleichzeitig zu einer Black Box. Das kann problematisch sein, denn Geschäftsführer oder Vorstände werden weniger geneigt sein, einer Entscheidung zu vertrauen und nach ihr zu handeln, wenn sie sie nicht verstehen.
Shapley Values, Local Interpretable Model-Agnostic Explanations (LIME) und Anchors sind Ansätze, diese komplexen Modelle zumindest teilweise nachvollziehbar zu machen.
In diesem Vortrag erkläre ich, wie diese Ansätze funktionieren, und zeige Anwendungsbeispiele.
LERNZIELE
* Die Teilnehmer erhalten Einblick in Möglichkeit, die komplexe Modelle erklärbar machen.
* Sie lernen, Datensätze kritisch zu hinterfragen und angemessen aufzuteilen.
* Und sie erfahren, unter welchen Bedingungen sie Entscheidungen durch Machine Learning vertrauen können.
These are slides from a lecture I gave at the School of Applied Sciences in Münster. In this lecture, I talked about **Real-World Data Science** at showed examples on **Fraud Detection, Customer Churn & Predictive Maintenance**.
SAP webinar: Explaining Keras Image Classification Models with LIMEShirin Elsinghorst
Keras is a high-level open-source deep learning framework that by default works on top of TensorFlow. Keras is minimalistic, efficient and highly flexible because it works with a modular layer system to define, compile and fit neural networks. It has been written in Python but can also be used from within R. Because the underlying backend can be changed from TensorFlow to Theano and CNTK (with more options being developed right now) it is designed to be framework-independent. Models can be trained on CPU or GPU, locally or in the cloud.
I will show an example how to build an image classifier with Keras. We'll be using a convolutional neural net to classify fruits in images. But that's not all! We not only want to judge our black-box model based on accuracy and loss measures - we want to get a better understanding of how the model works. We will use an algorithm called LIME (local interpretable model-agnostic explanations) to find out what part of the different test images contributed most strongly to the classification that was made by our model. I will introduce LIME and explain how it works. And finally, I will show how to apply LIME to the image classifier we built before, as well as to a pretrained Imagenet model.
You will get:
* an introduction to Keras
* an overview about deep learning and neural nets
* a demo how to build an image classifier with Keras
* an introduction to explaining black box models, specifically to the LIME algorithm
* a demo how to apply LIME to explain the predictions of our own Keras image classifier, as well as of a pretrained Imagenet
Further Information:
* www.shirin-glander.de<http://www.shirin-glander.de>
* https://blog.codecentric.de/author/shirin-glander/
* www.youtube.com/codecentricAI
These are the slides from workshop: Introduction to Machine Learning with R which I gave at the University of Heidelberg, Germany on June 28th 2018.
The accompanying code to generate all plots in these slides (plus additional code) can be found on my blog: https://shirinsplayground.netlify.com/2018/06/intro_to_ml_workshop_heidelberg/
The workshop covered the basics of machine learning. With an example dataset I went through a standard machine learning workflow in R with the packages caret and h2o:
- reading in data
- exploratory data analysis
- missingness
- feature engineering
- training and test split
- model training with Random Forests, Gradient Boosting, Neural Nets, etc.
- hyperparameter tuning
This is a slide deck from a presentation, that my colleague Uwe Friedrichsen (https://www.slideshare.net/ufried/) and I did together. As we created our respective parts of the presentation on our own, it is quite easy to figure out who did which part of the presentation as the two slide decks look quite different ... :)
For the sake of simplicity and completeness, Uwe copied the two slide decks together. As he did the "surrounding" part, he added my part at the place where I took over and then added concluding slides at the end. Well, I'm sure, you will figure it out easily ... ;)
The presentation was intended to be an introduction to deep learning (DL) for people who are new to the topic. It starts with some DL success stories as motivation. Then a quick classification and a bit of history follows before the "how" part starts.
The first part of the "how" is some theory of DL, to demystify the topic and explain and connect some of the most important terms on the one hand, but also to give an idea of the broadness of the topic on the other hand.
After that the second part dives deeper into the question how to actually implement DL networks. This part starts with coding it all on your own and then moves on to less coding step by step, depending on where you want to start.
The presentation ends with some pitfalls and challenges that you should have in mind if you want to dive deeper into DL - plus the invitation to become part of it.
As always the voice track of the presentation is missing. I hope that the slides are of some use for you, though.
HH Data Science Meetup: Explaining complex machine learning models with LIMEShirin Elsinghorst
On April 12th, 2018 I gave a talk about Explaining complex machine learning models with LIME at the Hamburg Data Science Meetup:
Traditional machine learning workflows focus heavily on model training and optimization; the best model is usually chosen via performance measures like accuracy or error and we tend to assume that a model is good enough for deployment if it passes certain thresholds of these performance criteria. Why a model makes the predictions it makes, however, is generally neglected. But being able to understand and interpret such models can be immensely important for improving model quality, increasing trust and transparency and for reducing bias. Because complex machine learning models are essentially black boxes and too complicated to understand, we need to use approximations to get a better sense of how they work. One such approach is LIME, which stands for Local Interpretable Model-agnostic Explanations and is a tool that helps understand and explain the decisions made by complex machine learning models.
– slide deck was produced with beautiful.ai –
HH Data Science Meetup: Explaining complex machine learning models with LIMEShirin Elsinghorst
Unfortunately, slideshare doesn't allow re-uploading slides any more, so there is an updated version with some corrected errors here: https://www.slideshare.net/ShirinGlander/hh-data-science-meetup-explaining-complex-machine-learning-models-with-lime-94218890
Ruhr.PY - Introducing Deep Learning with Keras and PythonShirin Elsinghorst
Ruhr.PY - Python Developer Meetup:
Keras is a high-level API written in Python for building and prototyping neural networks. It can be used on top of TensorFlow, Theano or CNTK. In this talk we build, train and visualize a Model using Python and Keras - all interactive with Jupyter Notebooks!
https://www.meetup.com/Ruhr-py/events/248093628/
-- slide deck generated with beautiful.ai --
-- video recording can be seen here: https://youtu.be/Q8hVXnpEPmc --
-- comment here: https://shirinsplayground.netlify.com/2018/04/ruhrpy_meetup_2018_slides/ --
From Biology to Industry. A Blogger’s Journey to Data Science.Shirin Elsinghorst
What does blogging mean for Data Sciences?
What is Big Data today?
How to become a Data Scientist and what type of work results from this transformation?
3. ● KI und
verantwortungsbewusster
Umgang mit KI
● Was ist Explainable AI?
● Ethik & Moral im
Zusammenhang mit KI
● Regeln, Guidelines, Gesetze
● Best Practices
● Zusammenfassung
3
4. KI - Künstliche Intelligenz
4
Was ist KI? KI ist überall Gesellschaftliche
Auswirkungen
• Mathematische Modelle/
Algorithmen
• Lernt Muster &
Zusammenhänge aus Daten
• Auch in Bereichen, die
typischerweise
menschliche Intelligenz
benötigen
• Erkennung von Gesichtern,
Objekten, Mustern, etc. auf
Bildern oder Videos
• Sprachverständnis &
-generierung => ChatGPT
• Autonomes Fahren,
Recommender Systeme,
Medizinische Diagnosen, …
• Daten => Bias =>
selbsterfüllende Prophezeiung
• Transparenz => warum trifft KI
bestimmte Entscheidungen?
• Privatsphäre => welche Daten
werden wie genutzt?
6. 6
Bias in historischen Daten kann zu Diskrimierung führen =>
IT = Mann & Pflegeberufe = Frau???
Automatisierte Aussortierung von nicht-kaukasischen Menschen???
Besondere Lebensläufe, Ausbildungen, nicht-standardisierte Werdegänge haben
keine Chance mehr???
Bias/ Diskriminierung
im Recruiting-Prozess
7. 7
COMPAS (Correctional Offender
Management Profiling for Alternative
Sanctions) =>
Rassistischer Bias gegenüber
Afrikanisch-Amerikanischen Häftlingen durch
historische Daten
Bias/ Diskriminierung
bei
Bewährungsstrafen
8. 8
März 2018: Ein autonom gesteuertes Auto
überfährt einen Fußgänger =>
wurde nicht als solcher erkannt, da dieser ein
Fahrrad quer über die Straße schob
Wie sicher ist
Autonomes Fahren?
11. 11
• Schaden & Diskriminierung vermeiden => Benachteiligung
durch Bias, Verletzung der Privatsphäre, fehlerhafte Erkennung
im autonomen Fahren, …
• Ethik & Moral => gesellschaftlichen Werte & Moralvorstellungen
gelten auch für KI
• Vertrauen => Nur KI, der vertraut wird, wird effektiv genutzt
• Human-centric AI => der Mensch steht im Zentrum von
KI-Nutzung & Entwicklung => KI soll unterstützen statt ersetzen
(empower & assist)
• Green & sustainable AI => Energie als Ressource
Warum sollten wir uns darüber Gedanken
machen?
Gesellschaft
Sustainability
Transparenz &
Vertrauen
Verantwortung-
bewusste KI
12. 12
Datenschutz: AI benötigt Daten. DSGVO regelt welche Daten
wie gesammelt, genutzt, gespeichert werden dürfen =>
Daten dürfen nur für spezifische Zwecke, mit expliziter
Zustimmung und nur im minimal notwendigen Maß
verarbeitet werden.
Data Protection by Design and by Default
Data Protection Impact Assessments (DPIAs)
Recht auf Information & Erklärung von
algorithmen-basierten Entscheidungen für Individuen
Was sind die rechtlichen Grundlagen?
GDPR / DSGVO /
EU AI Act
Company
Guidelines
BestPractices
Regeln, Guidelines,
Gesetze
13. 13
EU AI Act: Soll die Entwicklung und Nutzung von KI in der EU
regeln.
Risikobewertung => verschiedene Level an Restriktionen &
Regeln
“Parliament’s priority is to make sure that AI systems used in
the EU are safe, transparent, traceable, non-discriminatory
and environmentally friendly. AI systems should be overseen
by people, rather than by automation, to prevent harmful
outcomes.”
Was sind die rechtlichen Grundlagen?
Unacceptable Risk:
● Manipulation
● Sozial-Scoring
● Real-time & remote biometrische
Identifikation
Regeln, Guidelines,
Gesetze
Banned!
High Risk:
● Sicherheitsrisiken
● Risiken für Grundrechte
● Gilt für Produkte unter EU Safety
Legislation & 8 festgelegte Bereiche
Limited Risk:
● Transparenz
● Awareness
Generative AI (z.B. ChatGPT):
● Transparenz
● Generierung illegaler Inhalte verhindern
● Zusammenfassung von Trainingsdaten
veröffentlichen
Compliance
Code of
Conduct
14. Was können wir tun, um KI sicherer,
transparenter & fairer zu machen?
16. Responsible AI
Best Practices für Unternehmen
16
• Set an Regeln, Standards oder
Vorschlägen für die
verantwortungsbewusste
Entwicklung und Verwendung
von KI
Ethical AI Guidelines
• Human-Centered Design
• Klare Rollen mit Verantwortlichkeiten definieren
• Umsetzung der DSGVO-Richtlinien
• Risikobewertung
• Monitoring
• Explizit auf Fairness und Bias überprüfen => Daten &
Modelle
• Transparenz: Erklärungen für Modelle & Entscheidungen
geben => XAI
• Safety & Security auch für KI
• Inklusivität & Zugang
17. Explainable AI (XAI) -
Interpretierbarkeit & Erklärbarkeit
17
• Entscheidungen von KI sollen
transparenter &
nachvollziehbarer sein => für
das menschliche Gehirn
interpretierbar
• Model-specific vs.
model-agnostic
• Local vs. global explainers
• Annäherungsweise
Erklärungen vs. “echte”
Erklärungen
• Optimierung von KI => sanity
check bevor etwas (lange
Zeit) schief läuft
• Höheres Vertrauen &
Akzeptanz
• Fairness, Ethik & Moral
Black-Box-Modelle XAI Methoden Benefits
18. Responsible AI
Best Practices für Unternehmen
18
• Tools oder Methoden, um den
Impact von KI auf Business,
Gesellschaft, Individuen, etc.
zu bewerten
AI Impact Assessment
Tools
(Roh-) Daten, Modelle in Training & Betrieb testen auf =>
• Ethischen Impact: fairness, bias, transparency,
accountability
• Privacy Impact: data flow, Risikobewertung,
DSGVO-konform
• Gesellschaftlicher Impact: Auwirkungen auf Jobs,
gesellschaftliche Normen & Strukturen
• Impact für die Umwelt: CO2-Fußabdruck
• Menschenrechte: Freedom of Speech, Privatsphäre,
Nicht-Diskriminierung
19. 19
• Balance zwischen Genauigkeit & Erklärbarkeit: häufig je
interpretierbarer ein Modell, desto geringer die Performance
• Häufig je besser das Modell, desto komplexer => je
komplexer desto schwieriger zu interpretieren
• Skalierbarkeit häufig schwierig
• Auswirkungen sind nicht immer direkt zu erkennen
und/oder messbar
• Benefits sind oft nicht direkt messbar => menschliche
Kriterien => => trotzdem wichtig!
Responsible & Explainable AI
Performance,
Komplexität,
Interpretation
Skalierbarkeit
Benefits
sichtbar machen
Challenges
21. Innovative - Trustful - Competent - Pragmatic
codecentric AG
Am Mittelhafen 14
48155 Münster
Dr. Shirin Elsinghorst
Senior Data Scientist
shirin.elsinghorst@codecentric.de
www.codecentric.de
21
Stay
connected
Photo by Markus Spiske on Unsplash