Université de Printemps du SIRH - 30 - 31 mars 2017
Conférence sur les effets de l'IA et des convergences NBIC, CKTS et DIADEH sur les Ressources Humaines - PARIS 2017
1. Convergence NBIC, Convergence CKTS,
Intelligence Artificielle :
Comment vont-elles révolutionner les RH ?
Université de printemps du SIRH
30 et 31 mars 2017
Thierry Berthier
Chaire de Cyberdéfense & Cybersécurité Saint-Cyr – CREC
2. PLAN
1 – Les concepts de convergences NBIC et CKTS.
2 – L’intelligence artificielle (IA), moteur des convergences, a
fêté ses soixante ans.
3 – Les succès et les défis de l’IA annoncent la « DIADEH ».
4 – Quand l’IA révolutionne les RH.
5 – Préparons l’entreprise aux mutations et ruptures
engendrées par l’IA.
4. Le concept de convergence NBIC
N : Nanotechnologies
B : Biotechnologies
I : Informatique
C : sciences Cognitives ou Cognitique
Le concept de convergence NBIC est évoqué pour la première fois
en 2002, dans un rapport (482 pages) de la National Science
Foundation (NSF) américaine qui insiste sur la nécessité d’un
rapprochement, d’une convergence des sciences et en particulier
des domaines scientifiques N,B,I,C.
https://www.whitehouse.gov/sites/default/files/microsites/ostp/bioecon-
(%23%20023SUPP)%20NSF-NBIC.pdf
8. Depuis sa première évocation en 2002 (15 ans), la convergence des
domaines N,B,I,C est devenue effective. Les interactions et les
collaborations N,B,I,C se sont multipliées, accélérant ainsi
l’innovation et la dynamique de convergence.
En 2009, le concept de convergence NBIC vient s’inscrire dans un
mouvement plus large , la convergence CKTS (Convergence
Knowledge, Technologie et Société) ou Convergence des
connaissances et des technologies au bénéfice de la société.
En 2013, la Commission Européenne soutient l’ensemble des
projets favorisant la convergence des nanotechnologies, de la
nano-biologie et des autres domaines de la santé.
La convergence CKTS fait référence aux sociétés de la
connaissance dans lesquelles nous évoluons.
11. Un exemple issu de la convergence Bio-Info :
Le processeur neuromorphique TrueNorth IBM
issu du programme DARPA SyNAPSE
12.
13.
14.
15.
16. Les convergences NBIC et CKTS constituent les
thématiques centrales de la pensée singulariste –
transhumaniste.
L’augmentation humaine (H+) et d’allongement de la durée
de vie s’appuient sur les progrès technologiques issus des
convergences NBIC & CKTS.
17.
18. Les grands Hubs académiques d’étude des convergences NBIC et
CKTS sont situés aux USA et en Grande-Bretagne :
La S.U. Université de la Singularité en Californie)
https://su.org/
Et le FHI Future of Humanity Institute (Oxford – GB).
https://www.fhi.ox.ac.uk/
La France ne dispose en 2017 d’aucune structure équivalente ...
19.
20.
21.
22.
23. Les prévisions de Ray Kurzweil
Pour la période 2015 - 2030
By the late 2010s, glasses will beam images directly onto the retina.
Ten terabytes of computing power (roughly the same as the human
brain) will cost about $1,000.
By the 2020s, most diseases will go away as nanobots become
smarter than current medical technology. Normal human eating can
be replaced by nanosystems. The Turing test begins to be passable.
Self-driving cars begin to take over the roads, and people won’t be
allowed to drive on highways.
https://singularityhub.com/2015/01/26/ray-kurzweils-mind-boggling-predictions-for-the-
next-25-years/
24. Les prévisions de Ray Kurzweil
Pour la période 2030 - 2045
By the 2030s, virtual reality will begin to feel 100% real. We will be
able to upload our mind/consciousness by the end of the decade.
By the 2040s, non-biological intelligence will be a billion times more
capable than biological intelligence (a.k.a. us). Nanotech foglets will
be able to make food out of thin air and create any object in
physical world at a whim.
By 2045, we will multiply our intelligence a billionfold by linking
wirelessly from our neocortex to a synthetic neocortex in the cloud.
https://singularityhub.com/2015/01/26/ray-kurzweils-mind-boggling-predictions-for-the-
next-25-years/
25.
26.
27. Les prévisions de Ray Kurzweil doivent être prises avec prudence.
Certaines de ses prévisions reposent sur des fondements peu
scientifiques .
Il s’est rarement trompé jusqu’à présent mais semble
particulièrement présomptueux quand il évoque l’avènement
d’une IA forte à l’horizon 2030 et d’une Singularité Technologique
en 2045…
D’une manière générale, la Silicon Valley fait preuve d’une forme
d’arrogance face à la complexité des défis liés aux convergences
NBIC – CKTS.
Cette tendance à un solutionnisme béat porté par les GAFA est
aussi un fantastique moteur dopant l’innovation sur le sol
américain.
28. 2 – L’intelligence artificielle (IA),
moteur des convergences, a fêté
ses soixante ans.
29. Des tentatives pour définir l’IA …
L’expression IA apparaît en 1956 durant la conférence de Dartmouth
dans une première définition (qui s’avère très insuffisante
aujourd’hui) :
Définition de Marvin Minsky (1927 – 2016)
« L’intelligence artificielle est la science qui consiste à faire faire à
des machines ce que l’homme fait moyennant une certaine
intelligence ».
Critique : Cette définition présente une forte récursivité… La
« complexité » mentale est-elle comparable à la complexité
informatique ?
La définition de Minsky exclut des domaines majeurs de l’IA : la
perception (vision et parole), la robotique, la compréhension du
langage naturel, le sens commun.
29
30. Des tentatives pour définir l’IA …
L’IA est-t-elle le contraire de la « bêtise naturelle » ??
Une définition plus opérationnelle :
« L’IA est le domaine de l’informatique qui étudie comment faire
faire à l’ordinateur des tâches pour lesquelles l’homme est
aujourd’hui encore le meilleur. »
(Elaine Rich & Knight – Artificial Intelligence)
Les grandes dichotomies de l’IA subsistent :
- IA forte vs IA faible,
- Niveau de compétence vs niveau de performance,
- Algorithmique vs non algorithmique,
- Vision analytique vs vision émergente de la résolution de
problèmes,
- Sciences du naturel vs sciences de l’Artificiel. 30
31. Des tentatives pour définir l’IA …
IA forte : une machine produisant un comportement intelligent ,
capable d’avoir conscience d’elle-même en éprouvant des
« sentiments » et une compréhension de ses propres
raisonnements.
IA faible : Machine simulant ces comportements sans conscience
d’elle-même. Impossibilité liée au support « biologique » de la
conscience.
La question centrale : une « conscience » peut-elle émerger de
manipulations purement syntaxiques ?
31
33. Compétence vs performance :
On doit tenir compte de la distinction introduite par Noam
Chomsky (MIT) : faire « comme » ou faire « aussi bien que ».
L’oiseau et l ’avion volent mais pas de la même façon…
Jeux d ’échecs : les grands champions réfléchissent différemment
de Deep Blue.
Jeu de Go : AlphaGo n’a pas la même approche que celle du
champion du monde .
Vision analytique vs vision émergente de la résolution de
problèmes :
D’un côté on procède par décomposition de problèmes en sous-
problèmes plus simples à résoudre (analyse procédurale, système
experts basés sur la logique des prédicats) et de l’autre, on réalise
une distribution des tâches à un ensemble d ’agents qui
interagissent (exemple : Ant Algorithm).
33
34.
35.
36. L’histoire de l’IA est très récente… (60 ans)
Acte de naissance : 1956, Darmouth College (New Hampshire,USA)
John McCarthy (tenant de la logique) et Marvin Minsky (tenant
d’une approche par schémas).
Genèse autour de la notion de « machines à penser »
Comparaison du cerveau avec les premiers ordinateurs
Les grands acteurs de l’IA
Mc Culloch et Pitts : réseaux neuronaux artificiels (approche
physiologique),
Wiener : cybernétique,
Shannon : théorie de l’information,
Von Neumann : architecture d’un calculateur,
Alan Turing : théorisation des fonctions calculables par machine,
Kurt Gödel : théorème d’incomplétude (1931). 36
37. L’époque des systèmes experts (1970-1980)
Les systèmes experts apparaissent au début des années 1970 et se
développent jusqu’à la fin des années 1980 :
DENDRAL en chimie, MYCIN en médecine, Hersay II en
compréhension de la parole, Prospector en géologie.
Apparaissent également les premiers générateurs de systèmes
Experts : NEXPERT System, CLIPS, …
Les langages de programmation pour l’IA
LISP (usa), PROLOG (France - Colmerauer),
SmallTalk (langage objet), YAFOOL et KL-ONE (langages de Frame),
langages de logique de description.
37
39. Les années 1980 :
La période des espoirs déçus de l’IA
Recul de l’approche symbolique de l’IA :
Après des espoirs déçus : en particulier avec l’échec de la
généralisation de la théorie des micromondes et le constat du
manque de souplesse des systèmes experts (on parlerait aujourd’hui
de manque d’agilité). Ils ont pourtant enregistré des succès dans des
domaines bien spécifiques en particulier en informatique de gestion.
Renaissance de l’approche connexionniste :
- Systèmes multi-agents, concept de « vie artificielle »,
- Hopfield, mémoire autoassociative, 1982
- Rumelhart & McClelland, Parallel Distributed Processes, MIT Press,
1985
- Réseaux de neurones artificiel (RNA)
39
40. Les défis actuels de l’IA
- Attente d’une IA généraliste (?), autonome (?), auto-apprenante
- Elle doit devenir performante et adaptative sur des situations
dynamiques, changeantes, singulières.
- Elle doit être capable d’assister l’apprentissage humain.
- Elle doit être en mesure de gérer des dialogues entre « agents »
très hétérogènes.
Pour cela, il faut traiter la cognition comme une émergence dans
l’interaction avec l’environnement.
Ceci implique la conception d’une nouvelle génération de systèmes
informatiques qui vont privilégier une cognition située, distribuée,
émergente (prolifération d’agents intelligents et auto-apprentissage).
40
41. L’agent intelligent comme concept
fondamental de l’IA
- Le terme « action » est à comprendre au sens large. Cela peut
signifier « fournir un diagnostic ».
- La boucle systémique Agent/Environnement n’est pas
nécessairement fermée.
?
senseurs
"actionneurs "
AGENT
perception
ENVIRONNEMENT
"action"
Source – Mines ParisTech
41
42. Définition de l’apprentissage artificiel :
« Capacité d’un système à améliorer ses performances
via des interactions avec son environnement » .
Spécificité de l’apprentissage :
Conception et adaptation de l’agent « intelligent » par
analyse automatisée (statistique) de son environnement
et de son action dans cet environnement.
Exemple typique d’apprentissage artificiel :
L’agent « prédicteur »
42
43. Un système d’apprentissage est en général
composé :
- d’un modèle paramétrique,
- d’une façon d’interagir avec l’environnement,
- d’une « fonction de coût » à minimiser,
- d’un algorithme destiné à adapter le modèle, en
utilisant les données issues de l’environnement, avec
l’objectif d’optimiser la fonction de coût
43
45. La phase d'apprentissage d'un réseau de neurones se
décompose en cinq étapes :
Etape 1 - Présenter au réseau un couple entrée-cible.
Etape 2 - Calculer les prévisions du réseau pour les cibles.
Etape 3 - Utiliser la fonction d'erreur pour calculer la différence entre les prévisions
(sorties) du réseau et les valeurs cible. Reprendre les étapes 1 et 2 jusqu'à ce que
tous les couples entrée-cible aient été présentés au réseau.
Etape 4 - Utiliser l'algorithme d'apprentissage afin d'ajuster les poids du réseau de
telle sorte qu'il produise de meilleures prévisions à chaque couple entrée-cible.
Remarque : les étapes 1 à 5 constituent un seul cycle d'apprentissage ou itération.
Le nombre de cycles nécessaire pour entraîner un modèle de réseaux de neurones
n'est pas connu a priori mais peut être défini dans le cadre du processus
d'apprentissage.
Etape 5 - Répéter à nouveau les étapes 1 à 5 pendant un certain nombre de cycles
d'apprentissage ou d'itérations jusqu'à ce que le réseau commence à produire des
résultats suffisamment fiables (c'est-à-dire des sorties qui se trouvent assez
proches des cibles compte tenu des valeurs d'entrée). Un processus
d'apprentissage type pour les réseaux de neurones est constitué de plusieurs
centaines de cycles.
45
46. Les réseaux de neurones sont performants dans les
taches suivantes :
Traitement du signal,
Maîtrise des processus,
Robotique,
Classification,
Pré-traitement des données
Reconnaissance de formes,
Analyse de l'image et synthèse vocale,
Diagnostics et suivi médical,
Marché boursier et prévisions,
Demande de crédits ou de prêts immobiliers.
46
47. Deep Learning et Réseaux de Neurones
On enregistre les premiers succès du Deep Learning (apprentissage
profond) en 2006. Les réseaux de neurones accompagnent les
avancées du Deep Learning .
Ces réseaux sont multicouches. Ils effectuent une série de
traitements hiérarchisés dans le but de classer des objets en
catégories, sans critères prédéfinis. Il s'agit d'un apprentissage non
supervisé.
Google, Facebook, IBM les utilisent partout aujourd’hui…
47
48. DeepFace de Facebook
Facebook a développé DeepFace, une
application de reconnaissance de visages qui
atteint des taux de réussite de plus de 97 %.
DeepFace utilise un réseau de neurones à 9
couches.
48
53. Les dérives de TAY, l’IA de Microsoft qui apprenait trop bien …
53
54. Les dérives de TAY, l’IA de Microsoft qui apprenait trop bien …
54
55. 3 - Les succès et les défis de l’IA
annoncent la « DIADEH ».
« DIADEH : Diffusion de l’Intelligence Artificielle sur les Domaines
d’Expertises Humaines »
56. En 2016, l’Intelligence Artificielle a surpassé
l’homme dans plusieurs domaines.
Ces domaines étaient jusque là réservés à la
seule expertise humaine.
58. Pour la première fois, un robot chirurgien a opéré de manière
totalement autonome . Il est intervenu pour recoudre deux parties
d’un intestin de cochon.
Les chercheurs responsables de ce programme ont publié leurs
résultats en mai 2016 dans la revue Translational Medecine.
Le robot autonome a opéré avec plus de précision et d’habileté
que les chirurgiens humains et que les robots pilotés
manuellement par l’homme sur le même type d’intervention.
Des technologies d’imagerie intelligente et des marqueurs
fluorescents ont permis au robot de s’adapter aux tissus mous et
de réaliser des sutures et des connexions optimales.
La phase de test va se poursuivre durant deux ans avant une
intervention humaine.
59. Le « nouveau Rembrandt » peint par une Intelligence Artificielle
60. Le 5 avril 2016, un nouveau Rembrandt a été dévoilé…
Ce tableau « à la manière de Rembrandt » a été entièrement
réalisé par une IA créée par Microsoft, la banque ING, l’Université
de Delft et deux musées néerlandais .
L’IA a d’abord analysé des centaines de tableaux de Rembrandt
puis a déterminé les caractéristiques dominantes du Maître. Elle a
ensuite piloté une imprimante 3D pour réaliser cette œuvre inédite
en respectant parfaitement le style de Rembrandt.
61. Le champion Sud Coréen Lee Sedol affrontant l’IA AlphaGo au jeu de GO en 2016
62. En 2016, AlphaGo, l’intelligence artificielle développée par Google
DeepMind a battu à 4 reprises le champion du monde de jeu de Go,
Lee Sedol (5 manches à 0 en janvier contre le champion européen
et 4 manches à une en mars contre Lee Sedol).
Avec ses 10 puissance 600 combinaisons possibles, le jeu de Go
reste beaucoup plus complexe que le jeu d’échecs.
AlphaGo a utilisé les techniques du Deep Learning pour réaliser cet
exploit.
64. SeaHunter, navire autonome de 45 mètres, transocéanique, dédié à
la lutte anti-sous-marine – En phase de test depuis 2016 -
Programme Darpa sur l’autonomie.
69. La Course à l’IA
Google, IBM, Twitter, Intel, Apple, Yahoo, Salesforce, Samsung, sont
en concurrence depuis 2011 pour racheter les startups d’IA les plus
innovantes.
Depuis 2011, 140 startups et entreprises travaillant dans le secteur
de l’intelligence artificielle avancée ont été rachetées , dont 40
acquisitions en 2016 !
70.
71. Les leaders de la recherche en Machine Learning
La Chine et les Etats-Unis sont leaders dans la recherche en Machine
Learning / Deep Learning.
La Chine vient de prendre la tête du classement des pays en terme
de publications de recherche en Machine Learning / Deep Learning
et des citations de ces articles.
Barack Obama a fait plusieurs interventions rappelant l’importance
stratégique de l’IA dans la future croissance américaine. Plusieurs
études prospectives sur l’IA ont été lancées par son gouvernement.
https://www.whitehouse.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/n
ational_ai_rd_strategic_plan.pdf
72.
73.
74.
75. Plusieurs études réalisées en 2016 sur l'impact de l'IA à l'horizon
2035 affirment que la croissance économique d'un pays ne
s'évaluera plus en fonction de son capital mais en fonction de son
degré de maturité en IA.
En France, l'IA devrait augmenter la productivité nationale de plus
de 20 % d'ici 2035 (augmentation de 35 % pour la productivité
américaine).
Arrivée à maturité, l'intelligence artificielle modifiera la nature
même du travail et des relations homme-machine.
Il faudra alors certainement redéfinir les termes d'emploi et de
marché du travail sous l'égide de l'IA.
77. L'IA va entraîner de profonds changements dans la manière de
recruter, de diriger et d'évaluer les salariés d'une entreprise.
L'IA devient un acteur majeur du processus de recrutement avec des
résultats qui surpassent là encore le jugement humain.
78. Une étude publiée cette année dans la Harvard Business Review
affirme, statistiques à l'appui, que l'IA demeure 25 % plus fiable
qu'un être humain pour évaluer le dossier d'un candidat à un
emploi.
Menée par une équipe de chercheurs canadiens et américains,
l'étude précise que plus il existe de candidats sur le même emploi et
plus cette différence de fiabilité augmente en faveur de l'IA.
L'humain se laisse distraire par les détails des dossiers et finit par
produire une synthèse mentale de l'information imparfaite,
déformée par les biais cognitifs et par un volume informationnel
trop important.
81. En tant qu'outil de sourcing, l'IA devient de plus en plus efficace
dans les processus de sélection des dossiers de candidature.
Une solution comme Riminder parvient à traiter efficacement 5000
CV en 23 secondes !
82. Riminder met à disposition des RH les puissances combinées du big
data et du deep learning pour trouver le meilleur profil pour un
emploi donné et réciproquement.
Riminder est une plateforme développée en partenariat avec les
laboratoires de Centrale Paris, de l'Ecole polytechnique et de l'Ecole
Normale Supérieure de Paris. L'utilisation de cette solution permet
un gain de temps important dans le processus de sélection
notamment par l'automatisation et l'optimisation des tâches
administratives liées au recrutement.
Le temps économisé peut ainsi être consacré à la dimension humaine
de l'étude des candidatures.
83. L'IA apporte de l'innovation dans la gestion du capital humain (HCM -
Human Capital Management).
L'analyse prédictive devient pertinente lorsque l'entreprise dispose
d'une plate-forme couvrant le processus HCM du recrutement
jusqu'au départ du salarié. L'IA et l'analyse prédictive permettent
d'anticiper les besoins de formation en interne et de planifier les
successions au sein de l'entreprise.
L'IA sert également à interpréter les informations contextuelles
provenant de différents capteurs pour proposer de manière
autonome des solutions ou de l'aide à la décision. Elle permet
d'anticiper les besoins des salariés en fonction des données de
performance et des caractéristiques du poste occupé. L'IA peut jouer
le rôle de coach virtuel auprès duquel il est parfois plus simple de se
confier qu'auprès de son DRH.
84. Une plate-forme comme D4J (Data 4 Job) intègre ces fonctionnalités
pour aider le collaborateur dans son évolution de carrière, dans ses
objectifs de formation et d'accompagnement.
90. 5 – Préparons l’entreprise aux
mutations et ruptures engendrées
par l’IA.
91. Les dix recommandations publiées par le CIGREF en
matière d'IA en entreprise
Les mutations de l'entreprise provoquées par l'intelligence
artificielle ont fait l'objet d'une étude très complète menée par le
CIGREF en 2016 et publiée sous la forme d'un livre blanc intitulé
"Gouvernance de l'intelligence artificielle dans les grandes
entreprises" .
http://www.cigref.fr/wp/wp-content/uploads/2016/09/Gouvernance-IA-
CIGREF-LEXING-2016.pdf
Cette étude mérite d'être largement diffusée et prise en compte
par les dirigeants d'entreprises et par les décideurs.
Elle préconise en particulier dix recommandations à mettre en
œuvre sans attendre au sein des entreprises :
92. Les dix recommandations publiées par le CIGREF en
matière d'IA en entreprise
1. Affecter un budget dédié à l'IA dépassant le simple "proof of
concept".
2. Passer à l'internet 4.0 : IA, algorithmes prédictifs.
3. Engager un roboticien dans des équipes IT pour passer en 4.0
4. Développer des systèmes de Machine Learning.
5. Suivre les tutoriels de TensorFlow, la bibliothèque d'IA de Google.
6. Développer la culture des APIs en interne.
7. Sensibiliser les Métiers et Fonctions aux enjeux de l'IA.
8. Développer une communauté autour de l'IA et échanger avec les
communautés d'experts.
9. Supprimer les « points de douleur » dans l'entreprise.
10. Créer des boîtes noires logiques qui gardent en mémoire l'IA et
avoir la possibilité de la détruire (d'effacer l'ensemble des parcs) dans
un souci de droit à l'oubli.
93. Quel sera l’impact social de la DIADEH en 2030 ?
Personne ne peut répondre précisément à cette question
aujourd’hui.
La réponse est dépendante du ratio de transition T
Nombre de nouveaux métiers créés par l’IA
T = ____________________________________
Nombre de postes détruits par l’IA
94.
95.
96.
97. Les nouvelles générations doivent être formées dans le
sens d’une complémentarité cognitive avec l’IA.
Etre « IA-complémentaire » assurera un job à celui ou
celle qui pourra revendiquer cette qualité.
Les RH auront à sélectionner des profils « IA-
complémentaires ».
Paradoxalement, elles pourront le faire facilement grâce
à l’IA.
98. L’intégration d’IA au sein de l’entreprise, le recrutement de robots
nécessiteront l’élargissement du spectre des missions RH, en
particulier l’ouverture d’un service RNH (Ressources Non
Humaines).
Le SIRH 2.0 devra veiller à la complémentarité des intelligences
humaines (augmentées ou non) et des intelligences artificielles.
Les sciences cognitives et les convergences NBIC – CKTS
permettront d’optimiser le mariage (la fusion) de ces deux types
d’intelligences.
99. RHNH
RH+
RH
RNH
(IA)
RH : Ressources Humaines
RH+ : Ressources humaines
augmentées
RNH : Ressources Non
Humaines
RHNH : Ressources Humaines et
Non Humaines
100. Bibliographie – convergence NBIC
Rapport NBIC – 2003 – 482 pages
https://iatranshumanisme.files.wordpress.com/2016/03/nbic_report.pdf
Rapport NBIC – 2006 – 398 pages - Springer
https://iatranshumanisme.files.wordpress.com/2016/03/nbic3_report.pdf
Rapport NBIC – CKTS - janvier 2016 - 22 pages
http://www.marketing-trends-
congress.com/archives/2016/pages/PDF/CURBATOV_LOUYOT-GALLICHER.pdf
https://hal.archives-ouvertes.fr/hal-01364860/document
Rapport NBIC – OCDE – 2014 – 39 pages
http://www.oecd.org/officialdocuments/publicdisplaydocumentpdf/?cote=dsti/s
tp(2013)15/final&doclanguage=en