di Fiorella Operto per il corso "Longevità e innovazione responsabile" di Fondazione Bassetti e Fondazione Ravasi-Garzanti per la Scuola del design del Politecnico di Milano. 2021
https://www.fondazionebassetti.org/en/focus/2021/05/longevita_e_innovazione_respon.html
CIMULACT, la voce dei cittadini nella futura agenda di ricerca e innovazione ...
Longevità e innovazione responsabile. Elementi di Roboetica. Fiorella Operto.
1. LONGEVITÀ E INNOVAZIONE RESPONSABILE
Elementi di Roboetica
Fiorella Operto
Scuola di Robotica
2.
3. Robots Autonomy?
Machines are better than humans
because they are rational
Machines are better than humans
because they don’t feel emotions
STEREOTIPI, FALSE CREDENZE
7. 7
Service Robotics Overview
• Field robotics
• Professional cleaning
• Inspection and maintenance systems
• Construction and demolition
• Logistic systems
• Health Care and Assistive robotics
• Defence, rescue & security applications
• Underwater systems
• Mobile Platforms in general use
• Robot arms in general use
• Public relation robots
• Humanoids
10. New technical issues arising from:
• HW/SW Complexity
• Autonomy
• Uncertainty, deriving from the unstructured and chaotic real
environment.
• Unpredictability of learning machines;
• Traceability of evaluation/actions procedures.
• Identification of robots.
• Cyber security
Advanced Robotics Technical Issues
11. • Replacement of human beings (economic problems;
human unemployment; social instability);
• Digital divide;
• Generational divide;
• Lack of legislation;
• Privacy;
• Psychological problems (deviations in human emotions,
problems of attachment, disorganization in children, fears,
panic, confusion between real and artificial, feeling of
subordination towards robots)
Advanced Robotics ELS issues
12. Human tendency to Anthropomorphization
Dare caratteristiche umane ad animali, oggetti inanimati o fenomeni
naturali è un tratto umano chiamato "antropomorfizzare".
Il termine ανθρωπομορφισμός (antropomorfismo) fu coniato dal filosofo
greco Senofane (570 circa - 475 circa a.C.) quando descrisse la
somiglianza tra i credenti religiosi e i loro dei (cioè, gli dei greci erano
raffigurati con la pelle chiara e gli occhi azzurri mentre gli dei africani
avevano la pelle scura e gli occhi marroni).
L'antropomorfismo comporta molte implicazioni importanti.
Per esempio, pensare a un'entità non umana in modi umani la rende
degna di cura e considerazione morale.
Inoltre, le entità antropomorfizzate diventano responsabili delle proprie
azioni - cioè, diventano meritevoli di punizione e ricompensa.
BIAS
13. Embodiement (forza, presenza fisica)
L’InterAction Technology (IAT), tecnologie che permettano anche l’interazione fisica con l’utilizzatore.
Il cyber-physical system.
14. Il training dei robot
Gli algoritmi dell’apprendimento delle
macchine (machine-learning)
BIAS razziali, di gender (ImageNet data)
Dati inutili perché la IA ha difficoltà di
selezione
Dati reali? O dati troppo astratti?
Esempi di bias famosi: riconoscimento facciale
delle minoranze
HUMAN BIAS
HUMAN BIAS
15. Iniziamo dalla tecnologia più vicina..
Educare all’uso della tecnologia digitale
Lo smarthphone, questo sconosciuto
a) Gli studenti
b) le famiglie
Bambini e giovani: qualche dato
Bias di comprensione nell’uso
Il digitale è reale (la rete fisica)
Tempo
• accelerazione fra intenzione e azione, fra un messaggio e la riposta;
• Può essere «Per sempre»
Spazio
Si cancellano le distanze? (ma in che misura? O apparentemente?)
Contenuti
Che si possa comunicare ogni tipo di contenuti
16. La Roboetica
per conoscere meglio le nostre tecnologie
Oggettività: dare per scontato l’esistente
Le tecnologie rispecchiano la società del tempo
Riflettono i pregiudizi e gli schemi di chi le progetta
Non solo quelli voluti e progettati
Quelli non consci, pre consci, culturali
Non sono perfette, neutrali, oggettive
Cambiare l’atteggiamenti dei ricercatori e degli esperti
Il che vuol dire.. Le prossime generazioni di progettisti,
programmatori e utenti di robot
Diotima di Mantinea
17. ETHICBOTS (Roboetica)
• Super umano
• Cosiddetto shared control
• Questioni di responsabilità’/liability (EEG data, robotic sensor
data e processing memory traces)
• Il soggetto e’ ancora autonomo e moralmente responsabile?
• Problema del machine learning