3. 2
Plan stratégique
scientifique
1 Inria et sa stratégie scientifique
2 Explorer le monde numérique
11 Algorithmes et programmation
12 Science des données et ingénierie de la connaissance
13 Modélisation et simulation
15 Optimisation et contrôle
17 Architectures, systèmes et réseaux
19 Sécurité et confidentialité
21 Interaction et multimédia
23 Intelligence artificielle et systèmes autonomes
3 Problématiques sociétales et transverses
Questions posées aux sciences du numérique
par les attentes sociales
28 [ 1 ] Données personnelles et protection de la vie privée
28 [ 2 ] Vérifier l’information
28 [ 3 ] Éducation aux sciences numériques pour tous
29 [ 4 ] Développement durable
29 [ 5 ] Transparence et neutralité
Contribuer à de grands enjeux sociétaux impliquant
un progrès scientifique
30 [ 6 ] Santé et bien-être
30 [ 7 ] Agronomie
31 [ 8 ] Comprendre la société
Approche d’Inria pour contribuer à une société numérique ouverte
32 [ 9 ] Éthique
32 [ 10 ] Le défi de la recherche reproductible
34 [ 11 ] Le défi de gouvernance d’une société numérique complexe
4 Défis scientifiques
L’ordinateur de demain
41 [ 1 ] L’ordinateur post-loi de Moore
43 [ 2 ] Logiciels éternels
45 [ 3 ] Calcul extrême pour les sciences gourmandes en données
47 [ 4 ] Technologies et algorithmes quantiques
Intelligence augmentée
49 [ 5 ] Collaboration en toute confiance entre humains et systèmes d’IA
51 [ 6 ] La science des données pour tous et toutes
53 [ 7 ] Des véhicules autonomes connectés
Un monde connecté fiable
55 [ 8 ] Des systèmes distribués sans autorité centrale
57 [ 9 ] Méthodes formelles pour systèmes cyberphysiques
59 [ 10 ] Protocoles cryptographiques vérifiés de bout en bout
61 [ 11 ] Vers un Internet des objets sûr et fiable
Le multiéchelle partout
63 [ 12 ] Relier les échelles de temps ou d’espace
65 [ 13 ] Biologie des systèmes prédictive
67 [ 14 ] Numériser l’énergie
69 [ 15 ] Modéliser et simuler l’environnement
Un monde numérique centré sur l’humain
71 [ 16 ] Des interactions adaptatives avec les humains tout au long de la vie
73 [ 17 ] L’apprentissage numérique pour l’enseignement et la formation
75 [ 18 ] Améliorer la rééducation et l’autonomie
77 [ 19 ] Médecine computationnelle intégrative
79 Un témoignage externe
5 Centres de recherche d’Inria
83 Bordeaux – Sud-Ouest, Grenoble – Rhône-Alpes, Lille – Nord Europe,
Nancy – Grand Est, Paris, Rennes – Bretagne Atlantique,
Saclay – Île-de-France, Sophia Antipolis – Méditerranée
5. 4
Inria et
sa stratégie
scientifique
—
→ Sommaire
Salle des
serveurs
•
La solution de
refroidissement choisie
repose sur le principe
du couloir froid : l’air
froid est propulsé à
l’intérieur du couloir
central, hermétique,
et ressort à travers
les équipements pour
les refroidir.
6. 5
Inria et
sa stratégie
scientifique
—
→ Sommaire
Inria est le seul organisme de recherche public
français dédié aux sciences du numérique.
Placé sous la double tutelle du ministère en charge de la Recherche et
du ministère en charge de l’Industrie, il a pour mission de promouvoir
« l’excellence scientifique au service du transfert technologique et de
la société ». L’institut a notamment mis en place une solide politique
de partenariats avec un large éventail d’acteurs économiques
et sociétaux, allant des start-up aux grands groupes, en passant
par les PME ou les institutions de recherche et d’enseignement.
7. 6
Inria et
sa stratégie
scientifique
—
→ Sommaire
Cedocumentprésentelastratégiescientifiqued’Inriapourlescinqansàvenir.
Les précédents « plans stratégiques » d’Inria, y compris le tout dernier1, expo
saient dans un même document les stratégies de l’institut dans les différents
domaines (science, développement de technologies, transfert industriels, déve
loppement international, etc.), et les aspects opérationnels concernant leur
mise en œuvre. Une évolution récente de la gouvernance des institutions de
recherche publiques a entraîné la création de « Contrats d’objectifs et de per
formance » (COP)2, signés conjointement par l’institut et ses ministères de
tutelle ; en 2015, Inria a ainsi signé son COP pour la période 2015-2019. Les
stratégies de développement et de gestion de l’institut étant traitées dans
ce COP, Inria a fait le choix délibéré d’axer le présent document exclusivement
sur les questions relatives à sa recherche scientifique. Son objectif est donc de
décrire les orientations de recherche importantes, d’identifier les principales
attentes sociétales qui ont un impact sur nos activités scientifiques, et enfin
de présenter un ensemble de défis que l’institut se propose de relever au cours
des cinq prochaines années. Naturellement, et à travers ses nombreux contacts
avec l’industrie, Inria continue d’appréhender et de faire siens les besoins d’une
économie en constante évolution. Le présent document a fait l’objet de dis-
cussions avec les nombreux partenaires scientifiques d’Inria afin de vérifier
que leurs attentes scientifiques y étaient bien abordées, sans chercher pour
autant à en faire une feuille de route de développements technologiques ou
de priorités industrielles.
Les recherches d’Inria recouvrent la plupart des aspects des sciences
du numérique, avec environ 180 équipes-projets ayant chacune une spé
cialité bien définie et une feuille de route scientifique pluriannuelle, ainsi
que des domaines d’application et des partenariats spécifiques. Ces équi
pes-projets sont créées à l’issue d’un processus de revue poussé faisant
intervenirladirectiond’Inria,desexpertesetexpertsinternationaux,afind’éval
uer la pertinence des objectifs scientifiques, le positionnement au sein du
portefeuille d’activités de l’institut, les perspectives d’impact et de transfert
(qu’il soit industriel ou sociétal) et l’adéquation de la composition proposée
de l’équipe. Dans le cadre de sa stratégie scientifique, Inria s’engage ainsi
pouraiderchacunedeseséquipesàprogresserverssesobjectifs.Nous com
mençons ce document par une présentation des orientations de recherche
actuelles les plus prometteuses au sein de notre portefeuille d’équipes-pro
jets, sur l’ensemble des sciences du numérique, et déclarons notre ambition
de soutenir la recherche sur tous ces sujets.
Cependant,au-delàdesavancéesdelascienceeninformatiqueetmathéma
tiques, nous avons à cœur de relier nos activités aux évolutions de la société :
d’unepartentermesd’applicationsetdedéfisscientifiquespourlesautresscien
ces,etd’autrepartenpromouvantuneréflexionintégréesurlestransformations
sociétales apportées par nos disciplines au sein de nos équipes de recherche.
C’estpourquoiunesectiondecedocumentpasseenrevuedifférentsproblèmes
etquestionsactuellessoulevésparlasociétéounosenvironnementsextérieurs,
et qui doivent être pris en considération dans le positionnement d’Inria.
Enfin, Inria a sélectionné plusieurs défis scientifiques pour la période : ils sont
expriméssouslaformed’orientationsspécifiquessurlesquellesl’institutdéclare
son ambition de progresser, généralement en combinant les compétences liées
à plusieurs sujets. Sélectionnés à l’issue de discussions approfondies dans les
centres de recherche et au sein des équipes-projets d’Inria, ces défis ont été
présentés aux partenaires académiques et industriels de l’institut, et débat
tus avec eux. Ils sont par conséquent adoptés collectivement à tous les niveaux
de l’institut. Le second élément de la stratégie scientifique d’Inria consiste à
prendre ces défis comme guides dans l’évolution de ses équipes-projets de
recherche et leurs activités.
1. « Vers Inria 2020 » : Plan stratégique 2013-2017 d’Inria.
2. Contrat d’Objectifs et de Performance Inria : https://www.inria.fr/institut/strategie/cop-2015-2019
9. 8
Explorer
le monde
numérique
—
→ Sommaire
Simulation
et analyse
numérique
de systèmes
dynamiques
•
Des chercheurs de
l’équipe Mephysto
étudient des méthodes
quantitatives pour les
modèles aléatoires de la
physique. Mephysto est
une équipe commune
Inria, Université Libre
de Bruxelles, Université
Lille 1 et CNRS.
10. 9
Explorer
le monde
numérique
—
→ Sommaire
Les sciences du numérique ont déjà profondément métamorphosé la plupart des
aspects de notre société et cette transformation prendra encore plus d’ampleur
dans un avenir proche. Citons simplement quelques-uns des principaux défis
qui nous attendent, et l’apport potentiel des sciences du numérique à leur égard :
SANTÉ
accompagner le vieillissement de la population et faire
évoluer l’organisation des systèmes de santé ; dévelop-
per la médecine personnalisée fondée sur l’analyse
de données ; concevoir de nouveaux médicaments, etc. ;
ÉNERGIE
optimiserlessourcesd’énergiedisponibles,maîtriser
l’empreinteénergétiquedesoutilsnumériques ;
SÉCURITÉ ET RÉSILIENCE
construire des infrastructures et mécanismes sûrs
et robustes tout en respectant les droits individuels
et la vie privée ;
ENVIRONNEMENT
comprendre l’évolution de notre environnement à travers
l’interaction complexe des phénomènes, afindelimiterles
impactsnégatifsetdepromouvoirles activités durables ;
CLIMAT
comprendre et limiter l’impact des activités humaines
sur le changement climatique ;
TRANSPORT
proposer des solutions accessibles, efficientes, sûres et
durables pour tous les besoins et échelles de transport ;
CULTURE ET DIVERTISSEMENT
nouvelles formes de création et de partage de l’art,
évolution des médias ;
ÉCONOMIE
transformation de l’industrie et des services avec une
personnalisation et une flexibilité extrêmes, nouveaux
modèles économiques fondés sur l’intermédiation
et la collaboration ;
FINANCE
modélisation et contrôle du risque à des fins
de quantification et de régulation ;
ALIMENTATION ET AGRICULTURE
qualité, efficience et traçabilité de la production
de nourriture pour la planète.
11. 10
Explorer
le monde
numérique
—
→ Sommaire
Les attentes de la société sont immenses quant à la capacité des
sciencesdunumériqueàproposerdenouvellesvisionsetsolutions
danstouscesdomaines.Inriapromeutl’excellencescientifiqueau
service du transfert technologique et de la société, incorporant
donc explicitement dans sa mission le désir d’avoir un impact
mesurable sur le monde réel.
L’approche d’Inria consiste à combiner deux aspirations : comprendre le
monde, ses problématiques et ses systèmes, et agir sur lui en fournissant
desmodèlesnumériques,desalgorithmes,deslogiciels,destechnologieset
dessolutions.Celaimpliqued’élaborerunedescriptionprécise,parexemple
formelle ou inspirée de données, des outils adéquats pour raisonner à leur
sujet ou les manipuler, mais aussi de proposer des solutions innovantes et
efficaces.
Cette vision s’est affinée au cours des 50 ans d’existence de l’institut,
favorisée par une organisation qui ne sépare pas la théorie de la pratique,
ou les mathématiques de l’informatique, mais qui réunit au contraire les
expertises requises au sein d’équipes de recherche établies, sur la base de
projets de recherche focalisés.
Identifier les problématiques majeures de la recherche pour les sciences
du numérique.
La notion de « sciences du numérique » n’a pas de définition unique, mais
nous pouvons l’envisager sous l’angle du double objectif présenté ci-dessus :
comprendre le monde, puis agir sur lui. L’élaboration d’une « pensée algorith
mique » requiert une capacité à définir, organiser et manipuler les éléments au
cœur des sciences du numérique : les modèles, les données et les langages. Le
développement de techniques et de solutions pour le monde numérique fait
appelàdesrecherchesdansdiversdomaines,mêlantgénéralementlesmodèles
mathématiques, les avancées algorithmiques et les systèmes.
À cet égard, nous identifions plusieurs branches de la recherche pertinen
tes pour Inria :
→ Algorithmes et programmation ;
→ Science des données et ingénierie de la connaissance ;
→ Modélisation et simulation ;
→ Optimisation et contrôle ;
→ Architectures, systèmes et réseaux ;
→ Sécurité et confidentialité ;
→ Interaction et multimédia ;
→ Intelligence artificielle et systèmes autonomes.
Comme toute classification, cette présentation est partiellement arbitraire, et
ne reflète pas les nombreuses interactions entre les sujets. Ainsi, les études des
réseaux impliquent également le développement de nouveaux algorithmes, et
l’intelligence artificielle est très transverse par nature, entretenant des liens
étroits avec la science des données.
Chacun de ces domaines est indubitablement un axe de recherche déjà actuel
et très actif. Inria a investi dans ces sujets en créant des équipes-projets spécial
isées et en construisant une solide expertise dans bon nombre de ces champs
de recherche. Chacune de ces orientations est considérée comme importante
pour l’institut. Les défis scientifiques répertoriés à la Section 4, ainsi que les
interactions avec l’industrie, agiront comme des occasions d’orienter ou de
recentrercertainesdecesactivités,etdecréerdessynergiesentrelesdomaines.
12. 11
Explorer
le monde
numérique
—
→ Sommaire
→
Algorithmes et programmation
Face à l’impact toujours plus conséquent des ordinateurs, des réseaux ubiqui
taires et des capacités de stockage massif, il est plus que jamais crucial de ren
forcer notre compréhension des algorithmes et de leur complexité.
Pour ce qui concerne les algorithmes, de nombreuses questions se posent, de
nature combinatoire, géométrique ou topologique, et il convient de porter une
attention particulière à la prise en compte des incertitudesdans les données et
les processus de calcul. Les représentations (par exemple géométriques) évol
uent vers la grande dimensionnalité, déclenchée par l’émergence du big data,
mais des algorithmes plus intelligents devront reconnaître les possibilités de
réduire les calculs requis, soit en adaptant la précision, soit en détectant des
formes de plus petite dimension.
Denouvellesformesdecalculsefontjour,quipeuventêtrefruitsdelaphysique,
comme l’informatique quantique, ou bien de la biologie, comme l’informatique
à base d’ADN par exemple. Ces nouvelles technologies ouvrent de nouveaux
horizons pour la recherche, soit pour comprendre leur impact potentiel lorsque
la complexité du calcul est essentielle (comme c’est le cas pour l’informatique
quantique dans les applications de cryptologie ou d’optimisation), soit pour
comprendre quelles nouvelles applications de calcul peuvent être inventées
(dans le cas de l’informatique à base d’ADN).
La recherche sur les algorithmes est nécessaire pour s’adapter aux nouvelles
questions dans la conceptiondesordinateurs haute performance, concernant
la localisation du calcul dans des systèmes multicœurs, les économies d’énergie,
l’adaptation de la précision pour éviter les calculs superflus, et ainsi de suite.
Un aspect central de toute cette recherche sur les algorithmes est la ques
tion des algorithmes destinés aux calculs algébriques, qui auront un impact
sur la géométrie, la cryptographie, la robotique, la théorie des nombres ou les
calculs numériques haute précision.
Les ordinateurs, présents en grand nombre et dans tous les registres de
l’activitéhumaine,interrogentégalementnotreaptitudeàleurfairefaireexacte
ment ce que nous attendons.
Depuismaintenantplusieursdécennies,noussoutenonslesoutilsquiaidentà
vérifier que les programmes sont corrects et fiables, soit en analysant leur com
portement de façon abstraite, soit en réalisant des preuves dont la cohérence
peut être contrôlée. Les futures recherches se concentreront sur la conception
de langages adaptés à cette activitédepreuve, en les rendant efficaces pour de
grandes bibliothèques vérifiées formellement (dans des domaines tels que les
calculs numériques en mathématiques, robotique ou cryptographie) et pour
des systèmes complexes (comme les véhicules autonomes, les compilateurs,
les réseaux de commerce en ligne, etc.).
L’intégration de systèmes gourmands en termes de calculs et de réseaux
dans notre société, où les structures et les habitudes sociales sont soumises
à des changements constants, soulève encore d’autres questions concer
nant le génie logiciel. L’objectif est de construire des systèmes complexes
en intégrant de multiples composants, admettant des modifications inces
santes des exigences et technologies sur une longue durée de vie (plusieurs
décennies), et en construisant des systèmes qui assurent un service continu,
sans interruption, quelle que soit l’évolution de ce service. Les technologies
Les ordinateurs, présents en grand nombre
et dans tous les registres de l’activité
humaine, interrogent également notre
aptitude à leur faire faire exactement
ce que nous attendons.
13. 12
Explorer
le monde
numérique
—
→ Sommaire
informatiquespeuventégalementêtreadoptéesdansdessecteursnombreuxet
divers des activités humaines, grâce à des langages spécifiques au domaine, qui
contribuentàcapitaliserlaconnaissanceconcernantchaqueactivitéetàdiffuser
de bonnes pratiques. Des recherches doivent être conduites sur les approches
efficaces à adopter pour la conception de ces langages spécifiques.
→
Science des données
et ingénierie de la connaissance
Les données, envisagées ici dans un sens large allant des données brutes à
l’information et à la connaissance, ont toujours été au cœur de la science
informatique.
En tant que domaine de recherche, le traitement de données témoigne d’une
collaborationétroiteentrelarechercheacadémiqueetl’industrie,etd’unrenou
vellement permanent des sujets de recherche, ainsi que d’un enrichissement
mutuel avec d’autres domaines de l’informatique et des mathématiques : les
langages de programmation (bases de données objet), le calcul distribué (con
trôle de la concurrence), la vérification (workflows centrés sur les données),
la logique mathématique (théorie de la dépendance), la théorie des proba
bilités (données imprécises), l’IA (intelligence artificielle) en général, incluant
par exemple la représentation de connaissances (Web sémantique), les statis
tiques et l’apprentissage statistique automatique (de la fouille de données à
l’analyse de données).
De nouvelles problématiques naissent aujourd’hui d’applications extrêmes
avec la distribution à large échelle de données massives (le big data), assortie
des défis que représentent les données imprécises et peu structurées (texte,
tweets, sites web commerciaux, publicités), et facilitée par l’avènement du
Développer des
méthodes et outils
algorithmiques.
•
Faire des recherches
sur l’apprentissage
statistique.
14. 13
Explorer
le monde
numérique
—
→ Sommaire
calcul à large échelle (du grid/cloud computing aux GPU) et des approches ad
hoc pour l’analyse de données et l’apprentissage automatique. Il en résulte des
scénarios de big data très divers : pour le Web sémantique, pour les applica
tions scientifiques, pour l’intégration, la visualisation et l’analyse de données...
Des données bruitées, incomplètes ou incohérentes peuvent être traitées à
l’aide d’approches probabilistes, faisant appel à des méthodes statistiques pour
mettre en évidence les données les plus probables (par exemple les systèmes
derecommandation,ladécouvertedecommunautésetl’identificationdeleaders).
Mais l’éthique entre en jeu lorsque le « bruit » est préjudiciable, nécessitant
une vérification de faits pour identifier les fausses nouvelles ou les services
web biaisés, opaques ou déloyaux.
La visualisation de données, que ce soit pour leur manipulation ou pour leur
exploration, rencontre de nouveaux défis en raison de la taille des données,
mais aussi de leur nature sous-jacente extrêmement complexe, ou, au contraire,
particulièrement pauvre. De nouveaux outils ont été conçus pour découvrir les
structures cachées. Dans ce contexte, la fouille de données et l’apprentissage
automatique symbolique sont revisités pour exploiter la connaissance humaine,
ou les propriétés des structures sous-jacentes sur lesquelles reposent les don
nées (par exemple des réseaux ou des graphes).
L’écart entre ces approches symboliques et des méthodes statistiques plus
traditionnelles se comble lentement, tandis que de nouveaux modèles d’in
férence statistique sont proposés pour s’attaquer aux grands jeux de données
complexes et hétérogènes. Au-delà des modèles utilisés pour la classification,
les modèles génératifs ouvrent la voie à de nouvelles applications, explorant
la distribution des données plutôt que de décider simplement si un point de
donnée appartient à telle ou telle classe, gagnant ainsi en robustesse face aux
espaces de données de très grandes dimensions.
Les méthodes d’apprentissage automatique, agnostiques relativement au
type et à la structure des données, se sont également adaptées au bigdata ; les
données structurées sont traitées à l’aide de noyaux, et les algorithmes d’opti
misation sont de plus en plus performants dans des contextes tant convexes
que non convexes. L’apprentissageprofond en particulier est progressivement
devenu l’outil de prédilection dans certains domaines d’application nécessitant
des modèles de très grande taille. Mais l’hégémonie du big data ne doit pas
masquer les défis radicalement différents que pose le small data, lorsqu’on
ne trouve que quelques rares exemples dans des espaces complexes de très
grandes dimensions, comme c’est le cas pour de nombreuses applications en
sciences humaines et sociales, ou dans des scénarii industriels tels que la main
tenance prédictive.
→
Modélisation et simulation
La modélisation mathématique et la simulation ne sont pas seulement des clés
incontournables pour mieux comprendre la complexité du monde : elles nous
offrent également des outilsdeprédiction incroyablement efficaces. Les sim
ulations numériques sont très utiles pour fournir des informations a priori sur
La visualisation de données, que ce soit pour
leur manipulation ou pour leur exploration,
rencontre de nouveaux défis en raison de la
taille des données, mais aussi de leur nature
sous-jacente extrêmement complexe,
ou, au contraire, particulièrement pauvre.
15. 14
Explorer
le monde
numérique
—
→ Sommaire
des phénomènes qui ne peuvent pas être reproduits par des expériences en
laboratoire. Alors que les modèles numériques sont de plus en plus utilisés pour
faciliter la prisededécision (par exemple au niveau des États), les scientifiques
de toutes les disciplines s’appuient également sur eux pour comprendre l’évo
lution de phénomènes complexes, en particulier à partir de données observées.
En outre, les entreprises, dont les PME, intègrent désormais l’exploitation de
solutions logicielles numériques à leurs activités de RD.
De plus en plus de logiciels simulant des phénomènes réalistes régis par
des systèmes complexes d’équations ont été commercialisés au cours de ces
dernièresannées,etcontinuerontdel’êtredansl’avenir.Cessimulationsmarient
dessavoir-fairetrèsdifférents,telsquel’analysemathématique,lanumérisation,
l’algèbre linéaire et le calcul haute performance (HPC). Il s’agit d’un enjeucon-
sidérable, qui doit notamment bénéficier des avancées fantastiques réalisées
en matière d’architectures de calcul. Celles-ci devraient être prises en compte
dans la conception de schémas numériques — les approches sans maillage ou
les techniques de réduction de modèle en sont de bons exemples — de manière
que les méthodes de HPC et la modélisation numérique progressent de concert.
Fortes de leurs récents perfectionnements, les mathématiques et l’infor
matique sont désormais prêtes à affronter des problèmes réalistes impliquant
des couplages et des interactions. Parmi les nouveaux développements nota
bles, on citera la médecinenumérique et les étudesclimatologiques (dont par
exemple les développements utilisés par les membres du Groupe d’experts
Ces simulations marient des savoir-faire très
différents, tels que l’analyse mathématique,
la numérisation, l’algèbre linéaire
et le calcul haute performance (HPC).
Optimiser les
mouvements
de données pour
le calcul intensif.
•
Améliorer le
motion tracking.
16. 15
Explorer
le monde
numérique
—
→ Sommaire
intergouvernemental sur l’évolution du climat), ainsi que les essais virtuels dans
de nombreux domaines industriels. En s’attelant aux problèmes touchant l’en
vironnement, l’énergie, les transports, la santé, la sécurité, etc., les chercheurs
et chercheuses ont un impact sur les grands enjeux industriels et sociétaux ;
d’où la nécessité de concevoir des modèles mathématiques tenant compte de
toute l’étendue des échelles et de la physique qui représentent la complexité
du monde. Ces modèles à large échelle repoussent les limites des méthodes
numériques existantes et impulsent des progrès dans ce domaine.
Il convient également de noter que les nouvelles générations d’architectures
de calcul sont assez complexes, évoluant vers des plates-formes pour lesquelles
les algorithmes mathématiques, et même potentiellement la programmation,
doivent être repensés. L’incertitude est également un paramètre important, à
intégrer aussi bien à la modélisation mathématique qu’aux simulations : d’une
part, le caractère aléatoire doit être pris en compte dans les modèles afin de
définir le degré de confiance que l’on peut accorder à un modèle mathématique ;
d’autre part, pour quantifier la précision des simulations, celles-ci doivent être
combinées à des méthodes statistiques.
→
Optimisation et contrôle
Lecontrôleetl’optimisationonttoujoursétédespierresangulairesdesactivités
d’Inria, traitant des problématiques en boucle fermée (contrôle robuste, suivi
de trajectoire) comme en boucle ouverte (inversion, estimation, diagnostic).
Le cercle vertueux (modélisation – simulation/prédiction – optimisation –
contrôle)s’appuiesurdesmodèlesduphénomèneétudié.Ainsiqu’ilaétéévoqué
dans la section précédente, les modèles des systèmes du monde réel ont été
graduellement affinés, prenant en compte davantage de variables hétérogènes,
d’interactions ou de dépendances entre des composants ou sous-systèmes
différents, afin d’atteindre des niveaux acceptables de précision (par exem
ple systèmes biologiques, physique des hautes énergies, processus chimiques,
sciences des matériaux, modèles environnementaux ou systèmes impliquant
des interactions humaines tels que les systèmes de transport ou financiers).
De même, les systèmes artificiels se font toujours plus complexes, impliquant
un nombre croissant d’éléments (hétérogènes), par exemple les réseaux de
capteurs, le Web et l’Internet des objets, ou encore les réseaux d’énergie.
Cependant, réaliser un modèle aussi précis que possible n’est pas nécessaire
ment la meilleure voie : une autre solution peut en effet consister à combiner un
modèle grossier à une loi de contrôle robuste ; un compromis doit être trouvé
entre le temps consacré à la modélisation (qui peut tendre vers l’infini) et la
qualité de performance attendue (qui demeurera limitée). Les techniques de
contrôlequiontétéutiliséespourdessystèmesdepetitesdimensions(quelques
boucles régies par des EDO) doivent être revisitées de façon à pouvoir traiter les
systèmesdesystèmes(SdS), dans lesquels des systèmes de différentes natures
(ordinaires, distribués, à événements ou discontinus, à retards, impliquant des
inclusions différentielles ou des données de grandes dimensions) sont inter
connectés. Quelles que soient leur taille ou leur complexité, les techniques de
contrôle doivent être améliorées, notamment pour prendre en compte des
contraintes ou des paramètres stochastiques.
Cependant, réaliser un modèle aussi précis
que possible n’est pas nécessairement
la meilleure voie : une autre solution peut
en effet consister à combiner un modèle
grossier à une loi de contrôle robuste.
17. 16
Explorer
le monde
numérique
—
→ Sommaire
L’interdisciplinarité est l’une des clés du progrès : la théorie de l’information
pour traiter des systèmes hyperconnectés ; la science des réseaux pour concev
oir des algorithmes de contrôle indépendants de l’échelle (autrement dit, à faible
complexité)pourdessystèmesspécifiques,telsquedesréseauxroutiersurbains ;
lesmathématiquesabstraites(géométrie,topologie,algèbre)entantquelangage
deconception,éventuellementrenforcéesparlecalculsymbolique ;lagestiondes
donnéesdistribuéesetlecalculpourlaprisededécisiondécentraliséeentempsréel.
Suivant des schémas similaires, les techniques d’optimisation doivent égale
ment passer à la vitesse supérieure, en termes de dimension de l’espace de
recherche (par exemple, le défi des PDE est lié à leur dimension infinie), ainsi
que de nombre d’objectifs et de contraintes. Inria a su ajouter aux approches
numériques traditionnelles les techniques de recherche opérationnelle dis
crète, l’optimisation stochastique et les (méta) heuristiques. Là encore, les
hybridations avec d’autres domaines sont nécessaires pour progresser davan
tage, dans les configurations tant continues (optimisation par décomposition
et basée sur les modèles), que discrètes et combinatoires (exemples : Lagrange
et théorie des polyèdres, théorie des graphes) et plus généralement, pour des
domaines complexes (théorie des jeux et optimisation multiobjectif). Enfin,
le choix du bon algorithme et de ses paramètres pour un problème donné est
devenu un sujet de recherche à part entière.
Uneautredifficultéprovientdel’incertitudedel’environnementdanslequelle
système vit (par exemple la finance, les assemblées de neurones, les particules
en interaction, les capteurs à bas coût, la biologie). La gestion de l’incertitude
requiert des approches radicalement nouvelles, qu’elles soient issues de la
théoriedesensembles (paramètres et variables décrits par ensembles au lieu
de points, utilisés pour le contrôle robuste et l’estimation) ou stochastiques
(utilisées pour la prédiction et l’optimisation), nécessitant en retour de nou
veaux mécanismes d’optimisation et de contrôle.
Plateforme FIT : réseau
de capteurs installés
sur les murs, au plafond,
sur des robots mobiles.
•
Collecter et synthétiser
des informations
relatives à la pollution
environnementale
avec Ambiciti.
18. 17
Explorer
le monde
numérique
—
→ Sommaire
Les systèmes d’exploitation doivent
s’adapter aux nouvelles architectures
comme les réseaux mobiles (ad hoc), les
réseaux de capteurs, les réseaux de robots,
les systèmes pair à pair, les infrastructures
cloud, les petits objets de l’Internet
des objets et les processeurs multicœurs.
De plus en plus de domaines de recherche impliquent le contrôle et l’opti
misation, dans des champs divers tels que les technologies quantiques émer
gentes, la mécanique des fluides et les structures mécaniques complexes, la
gestion de l’énergie, le transport, l’aéronautique, la défense et la robotique.
Parmi toutes ces applications, la biologie et la santé sont en plein essor et pos
sèdent la plupart des caractéristiques décrites ci-dessus en termes de taille, de
connectivité et de complexité. La théorie du contrôle est cruciale pour com
prendre par exemple le comportement dynamique desréseauxintracellulaires
et guider leur contrôle optimal et leur conception expérimentale à des fins
biotechnologiques ou médicales. Ces efforts ont été étendus au contrôle des
écosystèmes,àl’optimisationdesprogrammesdeluttebiologiquepourcontrôler
les invasions pathogènes et parasitaires, et à l’optimisation, pour comprendre
les relations structures-fonctions moléculaires en biologie structurale, ou les
réarrangements du génome dans l’évolution moléculaire.
→
Architectures, systèmes et réseaux
Évoluant constamment, l’écosystème numérique croît tant en taille qu’en
hétérogénéité, avec des milliards d’appareils individuels. Cette évolution
conduit à de nouveaux défis impliquant une forte convergence entre les champs
de recherche de l’architecture, des systèmes et des réseaux.
L’augmentation spectaculaire de l’utilisation d’objets et de plates-formes
numériques change la manière dont les infrastructures sont conçues. Loin
des immenses data centers centralisés et peu nombreux, l’avenir verra se
diffuser des plates-formestrèsdistribuéesethétérogènes. Ces architectures
novatrices intègreront les objets de petite (smartphones, tablettes, objets
connectés) et moyenne taille à des data centers à large échelle interconnectés
par des réseaux. Cela favorisera l’évolution des infrastructures actuelles de
cloud computing vers une fédération massivement distribuée de data centers
petits et hétérogènes situés à la périphérie des backbones, appelée Fog/Edge
Computing. Réduire la consommation d’électricité est également une priorité
pour le déploiement de ces infrastructures cloud, accélérant la conception de
nouveaux modèles d’énergie et d’algorithmes.
Les systèmes d’exploitation doivent s’adapter aux nouvelles architectures
comme les réseaux mobiles (ad hoc), les réseaux de capteurs, les réseaux de
robots, les systèmes pair à pair, les infrastructures cloud, les petits objets de
l’Internet des objets et les processeurs multicœurs. Les différentes contraintes
de ces architectures sont notamment l’allocation des ressources, la gestion des
accès simultanés aux données, l’énergie limitée et le stockage de petits objets.
Les défis qu’elles représentent sont aussi divers que la gestion de la mémoire
dans les architectures multicœurs large échelle, l’interconnexion des petits
objets, la gestion de la dynamicité pour les architectures distribuées large
échelle et la gestion de la virtualisation des architectures.
Les améliorations majeures accomplies en virtualisation ouvrent la voie au
paradigme de l’élasticité, qui renvoie à la capacité d’un système à étendre ou
réduire ses propres ressources et à les ajuster selon les besoins. Si l’élasticité
19. 18
Explorer
le monde
numérique
—
→ Sommaire
peut fournir davantage d’agilité en cloud computing, de nouvelles approches
doivent être proposées pour identifier la stratégie propre à rendre élastique
un système donné.
L’écosystème Internet sera confronté à un environnement interconnecté
de plus en plus dense de machines communicantes (capteurs, appareils élec�
troménagers, actionneurs, robots et drones). Les défis à relever par la recherche
sont entre autres la conception de protocoles de routage adaptatifs utilisant
les informations locales, les garanties de latence et de fiabilité de bout en
bout, la construction d’appareils « intelligents » avec des capacités de stock
age et de traitement et le développement de protocoles adaptés pour les faire
coopérer de manière efficace et sûre, les méthodes de mesure pour surveiller
et prévoir la qualité de l’expérience en temps réel, le renforcement de la pro
tection de la vie privée.
Un autre aspect marquant des réseaux actuels est leur « logiciellisation »,
qui combinée à la virtualisation, assure davantage de « programmabilité » et
de flexibilité. Ainsi, un opérateur de réseau peut proposer des services réservés
et personnalisés à ses clientes et clients, et même son propre réseau à d’autres
clientes ou clients (NaaS, réseau en tant que service). Ce modèle économique
permettra aux leaders du marché de diriger leur secteur de services sans avoir
à gérer l’infrastructure réseau. La dynamicité et l’adaptabilité dans le déploie
ment,laconsommationdesressourcesetlasécuritédoiventdoncêtreabordées
par le biais d’une approche globale en matière de gestion des ressources, en
améliorant l’abstraction et l’intégration des ressources du réseau dans des
environnements virtualisés, ainsi qu’en établissant des réseaux basés sur la
connaissance.
Développer l’IoT : Fairy
Flower et Domicube
dans l’appartement
Amiqual4Home.
•
Représenter
les graphes : cycle
hamiltonien.
20. 19
Explorer
le monde
numérique
—
→ Sommaire
→
Sécurité et confidentialité
Notre monde toujours plus interconnecté nous appelle à construire la
confiance, et donc à accentuer les recherches sur la sécurisation des calculs,
des échanges commerciaux et des données personnelles, en particulier en
cryptologie et sécurité.
La cryptographie offre des garanties telles que la confidentialité ou l’au
thenticité. Elle est également un moyen crucial de protéger nos démocraties
contre les menaces grandissantes issues d’usages malveillants du Web : sur
veillance, fausses nouvelles et appels à la violence, interférences dans les
processus électoraux, etc. Les dispositifs informatiques qui entrent en jeu
vont d’appareils minuscules jusqu’aux grandes installations à la puissance de
calcul phénoménale. Si certaines primitives cryptographiques sont utilisées
depuis longtemps, la recherche s’intéresse à des primitives ou fonctionnal
ités plus récentes qui sont adaptées aux nouvelles contraintes telles que la
limitation des coûts de déploiement, le besoin croissant de performance, ou
encore la capacité à résister à l’arrivée d’un ordinateur quantique. Les primitives
bien établies nécessitent également un examen continu par cryptanalyse : des
défauts récemment découverts pourraient rendre ces primitives obsolètes, et
donc imposer un remplacement en urgence. Se fondant sur une expertise fon
damentale en mathématiques, algorithmes et contraintes d’implémentation,
à l’aide d’approches telles que l’algèbre, la théorie des nombres, les réseaux, les
codes et les courbes algébriques, cette recherche est cruciale pour maintenir
la capacité à fournir de nouvellesprimitivescryptographiques selon les beso
ins et à évaluer leur pertinence.
Au-delà de la robustesse des primitives cryptographiques, les questions de
sécuritéapparaissentdansdessystèmesplusélaboréstelsquelacommunication
de groupe et les environnements cloud. Des vulnérabilités supplémen
taires peuvent résulter de dépendances inappropriées entre informations,
ou de la mauvaise utilisation des primitives. Cela exige un contrôle précis du
flux d’information et des analyses de sécurité de bout en bout, reposant sur
des définitions précises des systèmes, des comportements nuisibles et des
types d’attaques qui doivent être déjouées. On recherche alors des preuves
mathématiques, visant à quantifier les risques et à vérifier si les garanties
de sécurité promises sont réellement fournies. Les modèles formels et les
analyses et preuves assistées par ordinateur deviennent la norme. Plusieurs
niveaux d’examen peuvent être envisagés, certains fonctionnant sur des
modèles abstraits et d’autres s’appuyant directement sur la vérification des
programmes.
L’analyse et les preuves de sécurité sont réalisées avec un modèle de l’at
taquant, mais l’attaquant lui-même ne joue pas avec des règles prédéfinies. Ce
modèle est par essence incomplet, des attaques inconnues étant susceptibles
de se produire. En outre, il est rare que les systèmes interconnectés complexes
soient entièrement modélisés. Par conséquent, des approches de sécurité tant
préventives que réactives doivent être appliquées. La sécuritépréventive con
siste à déployer les meilleurs efforts pour éliminer toutes les sources de trous de
sécurité au sein des protocoles et de leurs implémentations, ainsi que dans les
différents composants du système global. La sécuritéréactivefait l’hypothèse
que l’attaquant peut toujours trouver une brèche pour contourner les bar
rières de sécurité et donc surveille les réseaux et systèmes afin de détecter les
L’analyse et les preuves de sécurité sont
réalisées avec un modèle de l’attaquant,
mais l’attaquant lui-même ne joue pas
avec des règles prédéfinies.
21. 20
Explorer
le monde
numérique
—
→ Sommaire
intrusions ou programmes malveillants au plus tôt, et y réagir de façon appro
priée. Les attaquesdecybersécuritépouvant se propager extrêmement vite, la
réponse initiale devrait être automatisée, afin de déployer les contre-mesures
adéquates au bon moment, et s’assurer que le remède ne soit pas pire que le
mal. C’est un jeu du chat et de la souris qui oppose attaquants et attaquantes
d’un côté, et défenseurs et défenseuses de l’autre les obligeant à apprendre
constamment de nouvelles techniques. Cette recherche exigeante combine
des approches traditionnelles fondées sur des méthodes formelles, et de nou
velles approches reposant sur l’analyse statistique, la fouille de données et
l’apprentissageautomatique, indispensables pour explorer les grands volumes
de données de sécurité afin de repérer les schémas suspects et d’orchestrer les
contre-mesures. Pour ce faire, des expériences peuvent être conduites dans des
environnements confinés, dans lesquels les programmes malveillants peuvent
être collectés, étudiés pendant qu’ils opèrent, puis où les contre-mesures peu
vent être testées. À cette fin, Inria a créé des « laboratoiresdehautesécurité ».
On assiste à une explosion des applications web, tandis que de nouvelles
applications et nouveaux services émergent dans des contextes mobiles et
d’Internet des objets, augmentant considérablement la surface d’exposition
aux attaques et créant un nombre croissant de problèmes de sécurité. Nous
observons des violationsdelavieprivéedesutilisateurslorsqu’ils naviguent sur
le Web, utilisent des applications mobiles et déploient des appareils d’Internet
des objets exposant les données personnelles. Le suivi des données et le con
trôle de leur usage au moyen d’autorisations associées apparaissent comme
une orientation prometteuse. Inria s’est attaqué à ces problèmes à travers des
Détecter et caractériser
des comportements
utilisateurs dans
un contexte Big Data.
•
Sécuriser les systèmes
embarqués.
Les attaques de cybersécurité pouvant
se propager extrêmement vite, la réponse
initiale devrait être automatisée.
22. 21
Explorer
le monde
numérique
—
→ Sommaire
mesures à grande échelle, des études centrées sur l’utilisateur et l’utilisatrice
et des vérifications des applications web, mobiles et Internet des objets. Cette
recherche requiert des efforts transdisciplinaires, partant de la conception des
langages pour rendre plus sûr le développement des politiques de sécurité et
des programmes distribués tenant compte de la sécurité.
→
Interaction et multimédia
Les capteurs audio et optiques sont désormais partout, avec la disponibilité
croissante de capteurs optiques plus puissants comme les appareils à grande
gamme dynamique et panoramiques 3D. En fait, il est difficile d’imaginer un
domainedelasociétéquinesoitpasaffectéparlesdonnéescaptéesnumérique
ment, que ce soit la médecine, l’assistance à l’autonomie, les jeux (dont les
serious games), la modélisation environnementale, l’inspection industrielle,
la robotique, la communication efficace, la cognition, ou encore les réseaux
sociaux. Les capteursdeprofondeur se répandent également, accompagnant
la quête d’informations 3D. Tout en offrant des opportunités sans précédent
pour mieux comprendre le monde qui nous entoure et étendre la richesse des
interactions avec l’environnement numérique, les données capturées par les
capteurs de vision omniprésents ne sont pas seulement importantes en termes
de volume, mais sont aussi lourdes de conséquences sur de nombreux autres
aspects : vie privée, fiabilité, besoin en puissance de traitement... Des capteurs
imperceptibles au porter mesurant toutes sortes de signaux physiologiques
(pulsations, conductivité de la peau, mouvement et posture) se développent
également dans le domaine de la télémédecine pour la surveillance de la santé
et du bien-être, plus généralement pour les applications de quantified self, par
exemple en sport, pour la sécurité et la rééducation individuelle à domicile.
Compte tenu des volumes colossaux de données de grandes dimensions
produits par les nouvelles modalités d’imagerie, la compression est indispens
able pour leur communication et leur stockage. La conception de méthodes de
réductiondedimensiondesdonnées,demodèlesparcimonieuxetdetechniques
d’acquisition comprimée est une problématique importante pour la poursuite
des progrès dans ce secteur, ce qui demandera des avancées en traitement du
signal, vision par ordinateur, analyse d’image et codage.
L’analyseetl’interprétationd’informationssensoriellesaudioetvisuellessont
des défis toujours d’actualité, avec un large impact potentiel sur la science et
la société. Reconnaître des objets, comprendre des scènes et des comporte
ments, extraire de la sémantique d’ordre supérieur de données visuelles, tels
sont quelques-uns des objectifs de la recherche en traitement de l’image et
visionparordinateur. L’augmentation rapide de la quantité de données visuelles
a relancé le développement des techniques d’apprentissageautomatique, qui
occupent une place considérable dans les recherches sur la vision artificielle.
Quant à la recherchesurleson, elle s’intéresse notamment à la séparation des
différentessourcesdesoncaptédansdesenvironnementscomplexesàl’aidede
capteurs non étalonnés et non synchronisés. La technologie et les applications
de réalité augmentée deviennent un sujet majeur au sein des communautés
de visualisation et d’interface Homme-machine. Les progrès dans ce secteur
se nourrissent des avancées tant en analyse audio que dans le domaine des
méthodes basées sur la vision pour la localisation d’objets et la modélisation 3D.
L’analyse et l’interprétation d’informations
sensorielles audio et visuelles sont des défis
toujours d’actualité, avec un large impact
potentiel sur la science et la société.
23. 22
Explorer
le monde
numérique
—
→ Sommaire
Wilder, mur d’images
interactif de 12 m2
qui permet l’interaction
tactile multipoint
et la possibilité d’agir
à distance.
•
Simuler les flux d’air
afin d’optimiser
le design des pales
des éoliennes et
ainsi maximiser la
production d’énergie.
Des interactions meilleures et plus transparentes entre les personnes, y
compris celles avec handicap, et les systèmes numériques omniprésents,
nécessitent d’explorer des modalités d’interaction novatrices, des interfaces
Homme-machine repensées telles que les interfaces cerveau-ordinateur.
La recherche en interaction et visualisation doit en outre s’appuyer sur la
psychologie de la perception et la science cognitive pour mieux comprendre
comment les personnes perçoivent les informations, et comment tirer profit
au mieux de l’animation et du retour d’expérience.
Au cours de ces deux dernières décennies, le champ du traitement des lan
gages naturels (NLP, pour Natural Language Processing) a fait des avancées
spectaculaires sur plusieurs problèmes difficiles. Les réussites ont été portées
par l’utilisation intensive de données textuelles massives et de l’apprentissage
automatique statistique. Mais l’émergence continue de nouveaux médias de
communication(comme les forums en ligne et les plates-formes de microblog-
ging) a fortement diversifié les données textuelles en termes de domaines, de
langages et de styles. Cette diversité entraîne la nécessité d’analyses linguis
tiques approfondies, qui impliquent également la reconnaissance de structures
couvrant un document entier ou une série de documents. Le NLP a connu à la
fois un changement de paradigme au profit de systèmes moins dépendants
d’une supervision humaine, et une inflexion thématique vers une meilleure
modélisation des phénomènes sémantiques et pragmatiques. Cela élève aussi
indubitablement les objectifs de l’apprentissage automatique, voué à gérer
des structures de données d’entrée (et de sortie) de très grandes dimensions.
Les techniques de calcul pour la modélisation réaliste d’objets physiques
et l’animation de modèles, ainsi que pour incorporer des données dans des
scénarios virtuels tout en rendant l’outil informatique invisible dans l’inter
action, sont essentielles dans la recherche en graphisme informatique avec
des applications en réalité virtuelle. Les modèles biomécaniques compatibles
24. 23
Explorer
le monde
numérique
—
→ Sommaire
avec les simulations temps réel trouvent notamment leur utilité dans les sim
ulations médicales fondées sur la réalité augmentée. Les techniques de calcul
pour modéliser des formes complexes, traiter leur géométrie et optimiser des
propriétés structurales et la consommation de matériaux sont des vecteurs
clés dans l’émergence des technologies d’impression 3D qui transforment des
objets géométriques numériques en artefacts physiques.
→
Intelligence artificielle
et systèmes autonomes
L’intelligence artificielle jouit aujourd’hui d’une grande popularité, grâce à des
réalisations très visibles et faciles à comprendre : le Watson d’IBM et l’AlphaGO
de Google qui battent des champions du monde, les assistants de type Siri et
les traducteurs automatiques efficaces, le développement de véhicules auto
nomes,pourn’ennommerquequelques-uns.Cessuccèsontsuscitédesattentes
très élevées, parfois irréalistes, de la part du public comme des décideurs et
décideuses. En outre, les différents risquessociétaux (des menaces pour la vie
privée aux armes létales autonomes, en passant par la perte de contrôle sur
les décisions pour les humains, ou les suppressions d’emploi) font peser une
pression extrêmement forte sur la recherche en IA. En conséquence, l’IA fait
aujourd’hui face à des défis scientifiques d’envergure concernant la montée
en puissance, la compréhensibilité et l’ « explicabilité », les interactions avec
les humains, et, peut-être plus important encore, pour son acceptation par la
société, la validation et la certification.
L’IAestundomainetransversal,ayantdesimpactsdansdenombreuxchamps
de recherche, bien que ses réussites ne soient souvent que la partie visible de
l’iceberg. L’IA est de facto devenue ubiquitaire dans le monde numérique en
général,depuislesdomainesd’applicationgourmandsendonnées,oùl’ingénierie
de la connaissance et l’apprentissage automatique sont devenus incontour
nables, jusqu’aux domaines fortement consommateurs de modèles, où elle
devient une approche complémentaire aux premiers principes. Ce mouvement
s’observe très clairement au sein d’Inria, ainsi qu’en témoigne son Livre blanc
sur l’intelligence artificielle publié récemment.
Ces aspects de la recherche en IA sont particulièrement saillants pour les
systèmesautonomes, qui doivent relever des défis concernant la perception, le
contrôle, la planification et la prise de décision, tels que le calcul autonome et
les bots (souvent naïvement appelés « IA » dans les jeux et autres environne
ments artificiels). C’est encore plus vrai pour les véhicules autonomes et les
robots physiques, confrontés à de lourdes contraintes allant des problèmes
mécaniques aux interactions avec les humains, et par conséquent, à la sécurité.
La recherche en robotique évolue vers une augmentation radicale de la com
plexité, la gestion d’environnements plus dynamiques, en particulier peuplés
d’humains,etlanécessitédefairefaceàl’incertitudeavecunerobustesseaccrue.
Cegaindecomplexitédécouledel’accroissementdunombrededegrésdeliberté
et de configurations, soit parce que des robots individuels utilisent davantage
d’articulations, soit parce que la recherche envisage des systèmes multiro
bots, des capteurs plus nombreux, et l’objectif de missions longue durée. Ce
L’IA est un domaine transversal, ayant
des impacts dans de nombreux champs
de recherche, bien que ses réussites
ne soient souvent que la partie visible
de l’iceberg.
25. 24
Explorer
le monde
numérique
—
→ Sommaire
tournant est bien illustré par deux exemples extrêmes. Tout d’abord, les robots
« mous »dont le nombre de configurations est infini ; les méthodes basées sur
les éléments finis devraient aider à maîtriser la complexité computationnelle
inhérente à la modélisation et au contrôle des objets. Deuxièmement, lesrobots
en apprentissage permanent qui, s’ils ne s’adaptent pas aux environnements
peuplés d’humains, s’exposent à des dommages matériels.
Avec l’introduction de systèmes autonomes dans des environnements com
prenant des humains, apparaît la nécessité de gérer des environnements plus
dynamiques, que ce soit au service des personnes fragiles dans un contexte
médical, ou dans le cadre de la conduite autonome sur les routes. Afin de gérer
ces interactions avec les humains, la recherche doit notamment fournir des
connaissances prédictives de leur comportement, de manière à maximiser la
satisfaction, éviter les accidents et améliorer l’acceptabilité. La recherche doit
également prendre en compte les interruptions et transferts de responsabil
ité dans les tâches collaboratives entre systèmes intelligents et humains, dans
lesquelles les systèmes doivent expliquer leurs décisions et l’état en cours de
la tâche, et être également capables de comprendre la contribution d’êtres
humains (non experts) et leurs sentiments, à travers le langage naturel et la
communication non verbale.
Là encore, des efforts doivent viser à améliorer la gestion des incertitudes
caractérisant les environnements dynamiques, et ce à différents niveaux : au
moment de la réception des données enregistrées par les capteurs, au moment
de prévoir le comportement de composants dynamiques de l’environnement, et
au moment de prédire l’effet d’actions de robots ou de décisions d’ordinateurs.
Poppy au xylophone.
•
Faire coopérer des
robots – ici des Zooids.
27. 26
Problématiques
sociétales
et transverses
—
→ Sommaire
Teegi, interface
EEG tangible
•
Teegi est une
interface tangible
pour les débutants
qui s’intéressent
au fonctionnement
du cerveau : quand
le mouvement d’un
membre est détecté
par les signaux EEG,
Teegi bouge le même
membre, et les parties
du cerveau sollicitées
s’allument sur la tête
de Teegi. On peut
également directement
manipuler ses mains,
ses pieds ou ses yeux.
28. 27
Problématiques
sociétales
et transverses
—
→ Sommaire
En dehors des avancées de la connaissance
et des capacités technologiques, les progrès sur toutes
les problématiques de la section précédente faciliteront également
les percées dans d’autres sciences, les transformations sociétales
et de nouvelles applications. En termes d’applications, Inria
s’engage à travailler avec des entreprises existantes et émergentes
dans l’optique de favoriser l’innovation à l’aide des résultats de
ses recherches. En outre, nous estimons fondamental, et comme
relevant de la vocation d’Inria, d’identifier les évolutions sociétales
et les nombreuses questions qu’elles posent aux sciences du
numérique, de façon à pouvoir traiter ces questions en conduisant
les recherches et à diffuser leurs résultats auprès de la société. Le
plus souvent, les questions mentionnées ci-dessous seront l’occasion
pour les scientifiques d’Inria de travailler avec d’autres partenaires
(par exemple des chercheurs et des chercheuses provenant d’autres
domaines, des expertes et experts en sciences sociales et juridiques,
des économistes, des philosophes, etc.). L’objectif d’Inria est d’ancrer
ses recherches dans la société et d’encourager les chercheurs et
chercheuses à réfléchir à ces questions dans une approche ouverte.
Nous commençons cette section
par une série de questions
porteuses d’attentes fortes de la
part de la société, associées à sa
transformation numérique, et qui
exigent la plus grande attention
d’Inria dans ses recherches. Nous
présentons ensuite quelques défis
qui combinent des problématiques
sociales majeures et des enjeux
scientifiques, auxquels Inria
s’engage à contribuer bien qu’il ne
puisse prétendre à un leadership
dans ces domaines. Enfin, nous
identifions plusieurs défis de
nature plus méthodologique,
qui impacteront les activités
et l’approche d’Inria.
29. 28
Problématiques
sociétales
et transverses
—
→ Sommaire
Questions posées aux sciences
du numérique par les attentes sociales
[ 1 ]
Données personnelles et protection de la vie privée
Le fait que des quantités toujours croissantes de données personnelles soient
collectées par diverses entités privées et publiques constitue une menace
sérieuse pour les droits individuels (violation de la vie privée, discrimination,
etc.), mais aussi pour les droits collectifs (manipulation, intimidation, etc.), et
à terme pour la démocratie (dystopies d’Orwell et d’Huxley).
Cependant, les données sont aussi souvent collectées à des fins parfaite
ment valables. L’enjeu est donc de fournir les moyens d’analyser les risques
et bénéfices du traitement de données, ainsi que les outils pour réconcilier
(autant que possible) des objectifs contradictoires ou de restaurer des relations
plus équilibrées entre les citoyennes et citoyens et celles et ceux qui collectent
des données.
Les techniques d’anonymisation (pour réconcilier l’analyse de big data et
la protection des données personnelles) sont un bon exemple de recherches
pertinentes dans cette sphère, de même que les architectures pair à pair et les
techniques cryptographiques (pour réconcilier le calcul global et le contrôle
local) et l’IA explicable (pour réconcilier la prédiction précise et l’intelligibilité).
Afin d’avoir un impact réel sur ce sujet, Inria se mobilise pour travailler en
étroite collaboration avec d’autres disciplines (droit, sciences sociales, sciences
politiques,etc.),lesdécideurspolitiques,lesautoritésdesupervisionetl’industrie.
[ 2 ]
Vérifier l’information
Notre époque se caractérise par une abondance de l’information : ses sources
se sont multipliées, son rythme de production, souvent par réplication, s’est
accéléré ;àlaclé,unevéritableavalanched’informations.Imprécisions,erreurset
mensonges se propagent sur le Web, avec des tentatives de manipulation, voire
de déstabilisation de l’opinion publique, et parfois des conséquences négatives
significatives. Avec les fausses nouvelles, nous assistons à un affaiblissement de
la démocratie. En réponse, de nouvelles pratiques de données ouvertes fleuris
sent, de même que les initiatives de vérification de faits parfois fondées sur la
production participative, ou le journalisme de données.
Des solutions techniques doivent être développées afin de soutenir les
citoyennes et citoyens et les journalistes qui se retrouvent face à la tâche
considérable d’évaluer la qualité de masses d’informations. Inria contribuera
par ses recherches à développer des outils, incluant notamment l’analyse de
données et la surveillance du Web.
[ 3 ]
Éducation aux sciences numériques pour tous
L’informatiqueetlemondenumériquesontpartout,dansnosvilles,dansnosscien
ces,dansnosviesprivées...Demêmequenousavonsdûapprendreàvivredansun
mondeindustrielauXIXe siècle,nousdevonsapprendreaujourd’huiàvivredansun
universd’algorithmes,dedonnéesnumériquesetderéseaux,apprendreàmaîtriser
de nouveaux outils et de nouveaux usages.
30. 29
Problématiques
sociétales
et transverses
—
→ Sommaire
Au-delà des scientifiques et des ingénieures et ingénieurs, nous devons tous
et toutes, sans exception, acquérir une culture de cette nouvelle science, ainsi
que des techniques qui en découlent.
Inria doit donc intensifier ses activités de vulgarisation scientifique et sa
participation à l’éducation de toute la population. Cela implique de renforcer
les partenariats avec les acteurs et actrices de terrain qui maillent le territoire,
et d’inclure les sciences du numérique dans l’apprentissage tout au long de la
vie et les programmes de formation professionnelle.
[ 4 ]
Développement durable
Aujourd’hui, l’humanité se voit confrontée à des défis totalement inédits. Sur
le front environnemental, nous devons faire face à la raréfaction des ressou
rces (eau, érosion du sol, minéraux, etc.) et à de graves problèmes de pollution
(GES, plastique, polluants organiques persistants, etc.). Ainsi que l’illustrent le
réchauffement climatique ou l’effondrement de la biodiversité, les impacts ris
quentd’êtreirréversiblesetmondiaux,etlesbouleversementspeuventêtretrès
violents. Grâce à des simulations et à la multiplication des capteurs, les tech
nologies numériques nous permettent de mieux comprendre ces phénomènes,
de suivre leur évolution et de faire des prévisions. Elles peuvent aussi améliorer
la gestion des ressources et faciliter le développement de technologies pro
pres. Cependant, les bénéfices qu’elles génèrent demeurent très limités par les
« effets de rebond », dans lesquels les gains d’efficience sont contrebalancés
par une demande accrue.
Enoutre,lestechnologiesnumériqueselles-mêmesengendrentunepollution
significative et sont actuellement peu durables en termes de ressources (éner
gie et matériaux). Elles sont également en partie responsables de l’explosion
de la complexité de la société contemporaine (source d’inertie et de hausse
des coûts) et de son accélération (perte de contrôle, fuite en avant). Il est fon
damental qu’Inria s’engage et dispose d’une vision globale sur ces problèmes.
[ 5 ]
Transparence et neutralité
La neutralité du Net est un sujet de débat très sensible concernant la régula
tion des infrastructures et usages d’Internet. Ce concept postule que le trafic
ne devrait pas faire l’objet de discriminations entre ses différentes applications,
ses multiples contenus ou les divers terminaux des utilisateurs finaux et utilisa
trices finales. Il est très difficile de renforcer un Internet non discriminant, car
de plus en plus de parties prenantes aux objectifs contradictoires contribuent
à la fourniture de données et services. L’expertise scientifique d’Inria pourrait
aider les décideurs et décideuses politiques, les gouvernements et les autres
décideurs et décideuses, et les citoyennes et citoyens en général, en leur pro
posant une base plus précise et plus fiable pour la prise de décisions au niveau
individuel (stratégies de vie privée) ou à l’échelle collective (normes juridiques).
La transparence des systèmes algorithmiques utilisés par les plates-formes
numériques est également cruciale. De nombreuses questions demeurent sans
réponsesetdoiventêtrerésolues :quelleestl’origine(ouquelleestladestination)
des données d’entrée (ou de sortie) ? Comment les résultats sont-ils obtenus ?
Il existe un grand déséquilibre entre les connaissances des consommateurs et
consommatrices et celles des plates-formes numériques ; un redressement de
la situation s’impose.
31. 30
Problématiques
sociétales
et transverses
—
→ Sommaire
Contribuer à de grands enjeux sociétaux
impliquant un progrès scientifique
Notre société fait face à de multiples défis globaux, systémiques, tels
que préserver la santé de la population, nourrir le monde, instaurer des
systèmes de citoyenneté et de gouvernement stables et harmonieux...
Si ces problématiques sont des constantes à travers l’Histoire, certains
de leurs paramètres se révèlent toutefois fortement amplifiés par les
mutations rapides de notre ère moderne (augmentation de la population
mondiale,changementclimatique,économieglobaliséeetcommunications
numériques...). Les sciences du numérique joueront un rôle important en
s’attaquant à ces défis, en termes de simulation et de compréhension de
leurs constituants ou de leur impact, ainsi qu’en développant des modèles,
des outils et des solutions en coopération avec les parties intéressées, et
Inria s’engage avec vigueur dans cet effort.
[ 6 ]
Santé et bien-être
Les technologies de l’information et de la communication ont révolutionné
le domaine de la santé, pour le plus grand bénéfice des malades comme des
bien-portants. Les besoins sont aussi divers que l’enregistrement des activi
tés physiques (nombre de pas effectués, rythme cardiaque) pour le bien-être
et les performances athlétiques ; la gestion des maladies chroniques comme
l’enregistrement des niveaux de sucre dans leur sang par les diabétiques ; ou la
surveillance à distance des malades par des consultations en visioconférence
et l’enregistrement d’informations sur les patientes et patients. La santé
électronique cherche également à atteindre l’équité sociale, en donnant accès
à des services de santé et en formant le personnel de santé pour des popu
lations isolées et des communautés mal desservies. Ces pratiques de soins
novatrices doivent beaucoup aux développements actuels en Internet des
objets, technologies de big data et appareils électroniques – des applications
mobiles aux objets connectés et appareils de surveillance pour la mesure des
données physiologiques. Fort d’une solide expertise dans ces domaines, Inria
poursuivra et amplifiera son action aux côtés de ses partenaires industriels et
institutionnels (Inserm, hôpitaux universitaires) afin de contribuer au bien-
être et à la santé des populations. Un aspect clé de cette recherche devrait être
une attention constante portée aux avantages réels découlant des innovations
proposées en termes de problèmes de santé, pour le bien tant des patientes et
patients que du public.
[ 7 ]
Agronomie
Plus que jamais, l’agriculture est sous pression pour demeurer durable tout
en nourrissant une population mondiale croissante. Après des décennies de
RD sur l’augmentation des rendements agricoles ou la conception de trac
teurs intelligents, une transformation numérique touche l’agronomie et aide
les agriculteurs et agricultrices et les industriels à prendre des décisions pour
protéger les cultures, optimiser les exploitations, accroître les rendements et
suivrelesproduitsdelafermeàlatable.Lasurveillanceentempsréeletl’analyse
de données de terrain à l’aide de capteurs, combinées à des données satellites
et climatiques, à la photographie aérienne, alimentent des algorithmes per
mettant d’adapter les processus agricoles : par exemple la robotisation et le
contrôle à distance à travers le cloud permettent une irrigation efficace des
32. 31
Problématiques
sociétales
et transverses
—
→ Sommaire
champs en fonction de la pluviométrie. Les réseaux de capteurs, les technolo
gies de big data, l’Internet des objets et l’informatique sur le cloud sont ainsi à
l’avant-garde de cette révolution. Avec son expertise dans ces domaines, Inria
s’engage aux côtés de ses partenaires institutionnels en agronomie (INRA,
CIRAD, IRD et IRSTEA) pour les aider à faire face aux enjeux majeurs d’une agri
culture responsable et durable. Indubitablement, ces problématiques sont aussi
liées aux défis environnementaux majeurs (déclin des populations d’insectes)
et sociétaux (modèles de chaîne de valeur agricole mettant l’accent sur un rev
enu stable des agriculteurs).
[ 8 ]
Comprendre la société
Lesscienceshumainessontfortementimpactéesparlessciencesdunumérique,
permettantdeconsidérersousunnouveaujourdessujetsétudiésdelonguedate
et d’en définir de nouveaux. En sociologie, économie, géographie ou histoire, la
collecte fastidieuse de données est remplacée par une récupération à grande
échelle d’informations ouvertes issues d’une véritable mine de documents
numérisés. En outre, de nouveaux sujets, comportements ou phénomènes (bit-
coin, réseaux sociaux...) sont immédiatement observables et permettent des
expérimentations naturelles à grande échelle.
Lafouilleetl’extractiond’informationspeuventcertesfournirdenombreuses
informations à partir de grands corpus, mais toutes les réponses ne sont pas
pour autant nouvelles, pertinentes ou intéressantes pour le chercheur ou la
chercheuse en sciences humaines et sociales. Un travail interdisciplinaire est
obligatoire pour tirer du sens de régularités statistiques et évaluer des conjec
tures, en tenant compte des connaissances de base disponibles ou en incluant
l’expert dans la boucle.
À la croisée des chemins entre phénomènes naturels et sociaux, les simula
tions ont le potentiel d’accompagner la conception de nouvelles politiques. Ces
simulations devraient être alimentées par des théories, et affinées à l’aide de
données assimilées afin de produire une analyse plus fine (par exemple voir le
simulateur de politiques fiscales de Piketty1). Mais la conception de politiques
réelles nécessite des modes de raisonnement plus avancés, incluant des scénar
ios de type « what if » et le test d’hypothèses contrefactuelles. Considérant
l’impactpourlemoinstoxiquedecescapacitéssiellestombaiententrelesmains
d’unBigBrother,desgarde-fousdoiventêtreintégrésauxhumanitésnumériques.
33. 32
Problématiques
sociétales
et transverses
—
→ Sommaire
Approche d’Inria pour contribuer
à une société numérique ouverte
[ 9 ]
Éthique
Le développement explosif des sciences et technologies numériques appelle
une réflexion approfondie sur l’éthique, aux niveaux tant individuel que collec
tif. Ce processus est indispensable dans tous les domaines scientifiques – la
philosophie et l’éthique de la science ne sont d’ailleurs pas des sujets nouveaux
– pour comprendre le sens de nos recherches, le cadre social de leur dévelop
pement et l’impact de leurs résultats. Inria a travaillé sur ces sujets au cours
de la décennie écoulée et a créé son premier comité opérationnel d’éthique
en 2012. En outre, l’institut contribue à des réflexions générales sur l’éthique
de la science et de la technologie numérique, à travers le comité d’éthique de
l’alliance ALLISTENE. Nos objectifs sont de travailler sur des problématiques à
grande échelle (comme la responsabilité des systèmes autonomes, ou la dual
ité entre respect de la vie privée et surveillance), ainsi que d’accompagner des
scientifiques sur des questions très pratiques comme d’interroger les aspects
éthiques soulevés par leurs projets de recherche.
Cependant, le progrès numérique impacte également le cadre éthique
existant : de nouvelles capacités telles que le calcul à large échelle, le big data,
l’apprentissage automatique ou les modèles de raisonnement, modifient nos
capacités d’investigation, et donc la base même de notre réflexion éthique. De
ce fait, l’éthique devient un sujet de recherche pour les sciences du numérique :
ainsi, comment décrire formellement les notions de valeurs, de dilemmes, de
conflits et de réflexion éthique ? Les avancées sur ces sujets difficiles impactent
potentiellement toutes les disciplines scientifiques et la société en général,
mêmesiellesnepeuventpasprétendre« résoudre »desconsidérationséthiques
qui sont par nature extrêmement subtiles et complexes.
[ 10 ]
Le défi de la recherche reproductible
La science moderne est devenue de plus en plus complexe et les sources d’er
reurs ne manquent donc pas. La recherche reproductible (RR) vise à faciliter
l’exploitation et la réutilisation de processus de recherche et de résultats en
promouvant l’utilisation de procédures informatisées et de cahiers de labora
toire, la mise à disposition totale du code et des (méta)données, ainsi que l’util
isation de plates-formes expérimentales standard et bien contrôlées.
Il est donc essentiel d’encourager le développement et l’adoption de méth
odologies de RR afin que l’ensemble de la communauté informatique améliore
ses pratiques quotidiennes, ce qui ne manquera pas de rejaillir sur d’autres
domaines des sciences.
Travailler de façon reproductible ne peut cependant se faire de la même
façon pour tout le monde : les équipes travaillant en relation avec la biologie ou
la physique ont un fort besoin de s’assurer que le logiciel calculant un modèle
particulier est numériquement correct, peut être comparé et compris de façon
fiableetestcapabled’évoluer ;leséquipestravaillantsurdesinfrastructuresdis
tribuées (HPC, cloud, réseaux de capteurs, Internet des objets) sont quant à elles
très demandeuses de plates-formes de grande taille, ouvertes et configurables
afin de comparer de façon fiable des approches concurrentes. L’amélioration
de nos pratiques se fera donc selon les axes suivants :
34. 33
Problématiques
sociétales
et transverses
—
→ Sommaire
→ Diffusion et adoption
Les pratiques en termes de diffusion de données/logiciels ou d’utilisation de
cahiers de laboratoire modernes, qui permettent l’intégration facile de notes,
de codes sources ou de données, sont assez variables. Les équipes d’Inria seront
fortement encouragées à utiliser de tels outils qui facilitent la production
d’articles scientifiques reproductibles. Les équipes d’Inria déjà impliquées en
RR diffuseront les techniques et outils qu’elles utilisent ou développent et pro
mouvront ces bonnes pratiques au travers de conférences, d’universités d’été,
ou même de Mooc.
→ Des cahiers de laboratoire puissants et des plates-formes
expérimentales mutualisées
Les cahiers de laboratoire numériques deviennent un moyen standard de gérer
la reproductibilité en sciences du numérique, et les plates-formes expérimen
tales comme Grid5000 permettent de conduire des expériences avec un niveau
de contrôle sans précédent. Cependant, ces outils demandent une expertise
relativement élevée, et il est souvent plus simple pour les chercheurs et cher
cheuses de se contenter d’une méthodologie moins stricte et de plates-formes
personnelles plus faciles d’accès mais également bien plus limitées. C’est pour
quoinotreprioritéestd’abaisserlecoûtd’adoptiondesbancsd’essaimutualisés
et des cahiers pour les nouveaux venus. En particulier, la combinaison d’outils
de RR avec des infrastructures expérimentales ou de calcul intensif reste très
lourde. Une meilleure intégration passera par une convergence de ces plates-
formes en termes d’infrastructure logicielle et de pratique (sécurité, gestion
des comptes, isolation,...).
→ Préserver et exploiter les logiciels/données
L’avènement de grands référentiels tels que Software Heritage ou des masses
d’informations issues de cahiers de laboratoire ouverts permettent d’envisager
des questions radicalement nouvelles sur les logiciels (par exemple détection
de failles de sécurité et application des correctifs) et les travaux de recherche
(extension de la portée des travaux, méta-études...). L’exploitation de ces
nouveaux répertoires de données pose de nombreux défis techniques,
algorithmiques et sémantiques.
« Le terme “recherche reproductible” apparaît pour la première
fois dans une publication universitaire de 1992 (J. Claerbout
à la convention de la Society of Exploration Geophysics). Mais les
objectifs fixés il y a 25 ans ne sont toujours pas atteints. À présent
que les meilleures institutions scientifiques dans le monde
reconnaissent que la question est urgente, les communautés
de recherche doivent travailler ensemble afin d’établir des normes,
des outils, des workflows et des enseignements spécifiques. Le fruit
de ces efforts concertés sera un progrès accéléré de la science, et
une crédibilité renforcée des conclusions scientifiques, ce dont nous
avons décidément bien besoin aujourd’hui. »
Lorena Barba (George Washington University)
35. 34
Problématiques
sociétales
et transverses
—
→ Sommaire
[ 11 ]
Le défi de gouvernance d’une société numérique complexe
Notre société devient de plus en plus complexe, et les technologies et outils
se font toujours plus sophistiqués (TIC, transport, production et distribu
tion d’énergie, mais aussi ingénierie biologique, nanotechnologies, etc.).
L’augmentation de la complexité affecte également les organisations et insti
tutions, que ce soit au niveau économique, social ou politique. Les acteurs et
mécanismes économiques, de l’industrie manufacturière au système financier,
sont largement mondialisés, interdépendants et stratifiés (sous-traitance
ubiquitaire). Au niveau politique, de plus en plus de parties prenantes et
d’institutions entrelacent leurs diverses compétences à travers des territoires
interconnectés. Ces accroissements de la complexité génèrent des coûts
économiques et énergétiques qui vont sans cesse en s’alourdissant, en ter
mes tant absolus que relatifs.
Dans le même temps, les sociétés contemporaines sont confrontées à des
défissansprécédent,enparticulierconcernantl’environnement,quisedétériore
sur de nombreux aspects et à l’échelle mondiale. En outre, tous les problèmes
majeurs que rencontre notre société sont désormais interdépendants, qu’ils
soient économiques, sociaux ou environnementaux. En règle générale, une
augmentation de la complexité est un vecteur d’inaction potentielle. Dans ce
contexte, les innovations sociales ou techniques conduisent souvent à négliger
le traitement de questions de principe (notamment politiques) au profit de
solutions purement technologiques. Cette approche renforce le cadre existant
constituant la source des problèmes, au lieu d’élargir l’espace des potentia
lités sociopolitiques. Ainsi, la société tend à devenir un système complexe et
gigantesque qu’il est de plus en plus difficile de piloter et d’adapter aux enjeux
vitaux du XXIe siècle.
Inria s’attaquera à ces questions des manières suivantes :
→ En encourageant le travail sur la complexité
en tant que sujet scientifique
Plusieurs définitions ou descriptions de la complexité sociétale, par exemple,
ont été proposées en sciences humaines et sociales, telles que celles d’Edgar
Morin ou Joseph Tainter. Comment formaliser ces notions ? Comment prendre
en compte quantitativement leur caractère multidimensionnel ?
→ En développant des outils et services numériques visant l’émergence
de nouveaux modèles d’organisation collective
Par exemple, en complément des structures verticales et centralisées actuelles,
la logique de gouvernance horizontale entre en résonance avec les architectures
et modèles (techniques et économiques) basés sur les réseaux, de pair à pair ou
à caractère coopératif produites par la recherche en sciences du numérique. Ce
changement de philosophie s’applique à de nombreux autres domaines de la
société. Il a déjà commencé à transformer de nombreuses habitudes, comme
dans le champ politique, par le biais des applications civiques et des plates-
formes citoyennes, en économie par les plates-formes d’intermédiation, en
fabrication par les fab labs, etc. Quelles seront la position, la pertinence et les
limites de ces nouveaux outils et philosophies par rapport aux défis posés par
la complexité ? Quels risques peuvent-ils engendrer ? Il est indispensable de
prendre en compte les exigences existantes et émergentes afin d’évaluer les
outils déjà disponibles et d’identifier leurs principales lacunes. Plus largement,
les communautés scientifiques doivent expliquer les problèmes, discuter des
solutions et de manière générale influencer les débats sociaux, en particulier
en prenant en considération la dépendance toujours croissante de la société à
la technologie numérique.
36. 35
Problématiques
sociétales
et transverses
—
→ Sommaire
→ En s’attaquant à la complexité directement générée
par le monde numérique même
Quelles méthodes de développement logiciel et quels formats de données per
mettraient de créer des outils et services numériques encore plus flexibles,
ouverts et faciles à utiliser ? Comment mieux prendre en considération les util
isateurs finaux dans leurs spécifications et leur conception ?
→ En soutenant les activités de recherche qui prennent en compte
les différentes facettes de la société actuelle dans une approche
systémique et transdisciplinaire, en particulier avec les sciences
humaines et sociales
Dans cette perspective, la coconstruction de questions et outils de recherche,
transversaux entre les scientifiques, parties prenantes d’une part, et citoy
ennes et citoyens d’autre part, apparaît comme un élément structurant et un
défi en soi. C’est pourquoi l’institut encouragera la science participative et la
recherche-action.
Les approches décrites ci-dessus seront promues dans les activités d’In
ria, dans un effort d’amélioration continue de la relation entre la science et la
société dans le domaine numérique.
« Comment les systèmes socio-environnementaux complexes
naissent-ils, évoluent-ils et disparaissent-ils ? Quel rôle les
conséquences imprévues d’actions antérieures jouent-elles dans
la conduite d’un système socio-environnemental complexe jusqu’à
un point de bascule ? Comment surmonter l’imprévisibilité radicale
de systèmes complexes lorsque l’accélération de la révolution
numérique rend l’anticipation du futur potentiel de plus
en plus urgente ? Comment améliorer notre compréhension
de ces systèmes ? Que ne connaissons-nous pas d’eux, et quels
sont les éléments que nous ignorons ignorer ? Voilà des questions
de fond pour un institut tel qu’Inria. »
Sander van der Leeuw
(Professeur au Santa Fe Institute, Arizona State University).
38. 37
Défis
scientifiques
—
→ Sommaire
Neuroimagerie
computationnelle
•
L’exploration du
système nerveux
central (cerveau
et moelle épinière)
est possible grâce
à la neuroimagerie
computationnelle,
en mettant l’accent sur
l’IRM de diffusion
d’une part, et la
magnéto- et l’électro-
encéphalographie
d’autre part. Les
applications de ces
recherches se focalisent
sur des maladies
importantes du système
nerveux central,
sur les neurosciences
et sur les interfaces
cerveau-ordinateur.
39. 38
Défis
scientifiques
—
→ Sommaire
Cettesectionprésenteunesériededéfisscientifiques
sélectionnés par Inria comme particulièrement actuels et pertinents
pour les cinq années à venir. Ces défis ont été choisis par le comité
de direction d’Inria, à partir de propositions issues de diverses
origines : certains ont été identifiés à travers l’analyse par Inria de ses
discussions et partenariats avec l’industrie, d’autres ont été suggérés
par des équipes-projets ou groupes d’équipes dans le cadre d’un
processus de consultation à grande échelle, et d’autres encore ont
été directement suggérés par la direction scientifique de l’institut.
Le processus de sélection a impliqué tout le comité de direction
d’Inria, et une liste initiale a été affinée durant plusieurs mois
au cours d’une discussion interne avec toutes les équipes-projets
intéressées (ce qui a conduit à une légère évolution des défis proposés).
40. 39
Défis
scientifiques
—
→ Sommaire
Le fruit de cette démarche est donc une vision collective de l’ambition de
l’institutpourlescinqprochainesannées :ellenereflètepasnécessairement
tous les sujets actifs ou « brûlants » des sciences du numérique, mais vise
plutôt à présenter un ensemble de directions dans lesquelles Inria pense
contribuer à un progrès significatif. Cette conviction est soutenue par le
mélange particulier de compétences apporté par Inria : bon nombre de ces
défisnécessitentlacombinaisondemathématiquesavancées,destatistiques,
d’outils informatiques et d’une expertise en systèmes, sans oublier un goût
pour l’interdisciplinarité. En combinant des équipes-projets spécialisées
dans chacun de ces sujets, Inria est en mesure d’assembler une expertise
ad hoc. Cependant, la plupart de ces défis nécessitent également une forte
interaction avec d’autres sciences (physique, sciences de la terre, biologie,
médecine, sciences humaines et sociales, pour n’en nommer que quelques-
unes), ou d’autres parties intéressées (par exemple des médecins et des
chercheurs et chercheuses cliniques dans le domaine médical, des écoles et
spécialistesene-éducationdansledomainedel’enseignement,desacteurs
industriels pour la validation et le déploiement à l’échelle du monde réel).
Le développement de projets interdisciplinaires est un objectif transverse
revendiqué d’Inria.
La création du présent plan stratégique scientifique a impliqué une
consultationapprofondiedenospartenairesindustrielsàtoutesleséchelles
(grands groupes, dont certains sont liés à l’institut par un partenariat de
longuedate,pluspetitesentreprisesetstart-up).Lemessageclairqu’envoient
les acteurs économiques est qu’ils attendent d’Inria qu’il poursuive à la fois
des défis ayant des applications industrielles immédiates (les véhicules
autonomes ou les systèmes logiciels complexes, par exemple) et des défis
avec des perspectives à plus long terme qui nécessitent davantage de
recherche avant d’atteindre le marché (tels que l’informatique quantique).
Cette attente est tout à fait cohérente avec le choix d’Inria de présenter des
défisdenatureetdetaillediverses,certainsd’entreeuxconcernantungrand
nombred’équipes-projetsdanslaplupartdenoscentresderecherches,tandis
qued’autresn’impliquentqu’unpetitnombred’équipes-projetsspécialisées,
associées à des partenaires externes. Tous les défis présentés ci-après ont
étéconsidéréscommepertinentsparlamajoritédesentreprisesconsultées.
41. 40
Défis
scientifiques
—
→ Sommaire
Voici donc nos dix-neuf défis scientifiques,
organisés en cinq grands thèmes :
L’ordinateur de demain
1 L’ordinateur post-loi de Moore
2 Logiciels éternels
3 Calcul extrême pour les sciences gourmandes en données
4 Technologies et algorithmes quantiques
Intelligence augmentée
5 Collaboration en toute confiance entre humains
et systèmes d’IA
6 La science des données pour tous et toutes
7 Des véhicules autonomes connectés
Un monde connecté fiable
8 Des systèmes distribués sans autorité centrale
9 Méthodes formelles pour systèmes cyberphysiques
10 Protocoles cryptographiques vérifiés de bout en bout
11 Vers un Internet des objets sûr et fiable
Le multiéchelle partout
12 Relier les échelles de temps ou d’espace
13 Biologie des systèmes prédictive
14 Numériser l’énergie
15 Modéliser et simuler l’environnement
Un monde numérique centré sur l’humain
16 Des interactions adaptatives avec les humains
tout au long de la vie
17 L’apprentissage numérique pour l’enseignement
et la formation
18 Améliorer la rééducation et l’autonomie
19 Médecine computationnelle intégrative
42. 41
Défis
scientifiques
—
→ Sommaire
[ L’ordinateur de demain ]1
L’ordinateur post-loi de Moore
Les processeurs et les systèmes de calcul sont à la base de toutes les inno
vations en technologies de l’information et de la communication (TIC) de ces
dernières décennies. Jusqu’à récemment, ces systèmes informatiques étaient
circonscrits sous les bureaux ou dans des salles des machines. Mais ils devien
nent omniprésents, de l’Internetdesobjets(IoT) à l’informatique dans le cloud.
Plus que jamais, pour suivre cette cadence effrénée, une recherche fondamen
tale est nécessaire pour définir les architectures de calcul de demain, en rupture
avec les paradigmes actuels.
Lecalculparallèleestdésormaismonnaiecourante,ycomprispourlessystèmes
embarqués. Le parallélisme a ravivé l’intérêt pour la recherche sur les architec
tures, ainsi que sur les techniques permettant de tirer parti de leurs avantages.
Cependant, les systèmes de calcul des années à venir vont devenir considérable
ment plus complexes et hétérogènes.
La consommation d’énergie est devenue un problème central pour les
systèmes informatiques, or la plupart des architectures de processeurs sont
optimisées pour la vitesse plutôt que pour l’énergie. Les abstractions de pro
grammation de haut niveau nécessitent des modèles d’architectures adaptés
(par exemple des modèles à mémoire partagée cohérente) qui, là encore, ne
sontpastrèssobres.Deséconomiesd’énergiesubstantiellespeuventêtreenvis
agées si l’on revisite les architectures de calcul actuelles. Le temps est venu
pour les multicoeurs hétérogènes, dans lesquels les processeurs généralistes
coexistent avec des accélérateurs spécialisés, peu gourmands en énergie.
-
+
43. 42
Défis
scientifiques
—
→ Sommaire
Néanmoins, ces architectures hétérogènes ne seront un succès que si elles
offrent une « programmabilité » suffisante au niveau logiciel, nécessitant aussi
par conséquent de nouveaux compilateurs et supports d’exécution.
Avec la fin de la loi de Moore, la portion relative d’une puce capable de
fonctionner à pleine fréquence diminue. Cette notion de « Dark Silicon » ouvre
de nouvelles opportunités pour l’intégration d’accélérateurs matériels, qu’ils
soient statiques ou reconfigurables dynamiquement. Pour ces systèmes infor
matiques hétérogènes, compiler automatiquement ce matériel spécialisé à
partir de langages de haut niveau est un défi majeur.
Le déplacement de données nécessite une énergie bien plus importante
que le calcul. Par conséquent, placer les données au plus près du calcul est une
problématique importante pour l’efficacité énergétique. Calculer directement
dans la mémoire, recalculer pour éviter les transferts de données, ou encore
compresser-décompresser les données en temps réel, sont des approches très
prometteuses.
En outre, grâce aux technologies émergentes de mémoires non volatiles
(NVM), nous prévoyons l’arrivée d’un nouveau type de mémoire universelle qui
combinera accès rapide et non-volatilité. Les modèles de programmation, les
compilateurs et les systèmes d’exploitation existants ne sont pas conçus pour
ce type de mémoire. Il est nécessaire de complètement les redéfinir afin de tirer
parti de la non-volatilité et de masquer la latence de la mémoire. La NVM est
également pertinente pour les objets à alimentation intermittente de nouvelle
génération, tels que les nœuds de l’IoT autonomes en énergie.
Les futures technologies devront gérer de plus en plus d’erreurs matérielles
transitoires ou permanentes. Des architectures innovantes, capables de résister
intrinsèquementauxfautesouauvieillissement,sontnécessaires.Denombreuses
applications sont intrinsèquement résilientes aux erreurs ou aux calculs inex
acts. Calculer en tolérant des approximations permet d’offrir des gains en
énergie significatifs en recherchant un compromis entre énergie consommée
et qualité des résultats de l’application. Choisir la précision adéquate, lors de la
compilation ou de l’exécution, tout en préservant les fonctionnalités de l’ap
plication, est donc une approche prometteuse, bien que difficile à résoudre de
façon systématique, pour réduire la consommation l’énergie.
La tâche de programmation en tant que telle doit évoluer, afin de faire face
aux défis actuels et futurs concernant la complexité du matériel et du logiciel.
Il ne sera possible de tirer profit des plates-formes nouvelle génération que si
un parallélisme adéquat, des compilateurs capables d’optimiser et des envi
ronnements d’exécution le permettent. La chaîne de développement logiciel
doit fournir des moyens d’interaction entre le programmeur ou la program
meuse, le logiciel et le matériel. Les extensions de matériel et les systèmes
d’exécution doivent faciliter la surveillance de l’exécution du logiciel, en termes
de correction et de performance.
Enfin, la dépendance croissante de notre économie vis-à-vis des systèmes
informatiques implique également que la sécurité soit devenue de toute
première importance. La protection a un coût en termes de performance et
d’énergie, et rendre le matériel et le logiciel résistants aux attaques devient un
point névralgique.
« La prochaine génération de systèmes informatiques fait face à
d’énormes défis. L’industrie des calculateurs est en pleine transition
sur la manière d’assurer la performance, car les technologies
silicium atteignent leurs limites en énergie et performance. Inria
a identifié et dans de nombreux cas possède les forces adéquates
pour gérer bon nombre de ces défis touchant la programmation,
les compilateurs et les architectures d’ordinateur. »
Kathryn S. McKinley
(Microsoft Research)
1
44. 43
Défis
scientifiques
—
→ Sommaire
[ L’ordinateur de demain ]2
Logiciels éternels
De nos jours, les systèmes logiciels types s’exécutent dans des environne
ments riches et complexes, exploitant des ressources telles que les systèmes
d’information, les services distribués et différents types de capteurs. Ces sys
tèmes vont de la plus petite à la plus grande échelle – des smartphones aux
réseaux de distribution d’énergie en passant par les bâtiments automatisés et
les réseaux ferroviaires. Dans tous ces contextes, les logiciels doivent pouvoir
s’exécuter encontinu, tout en maintenant leur capacité à évoluer pour prendre
en compte de nouveaux besoins et exigences, des changements de techno
logie et des correctifs de bugs. Sans cette capacité à évoluer à l’exécution, un
logiciel peut devenir à obstacle à l’exploitation d’opportunités économiques.
Les systèmes éternels soulèvent un certain nombre de défis critiques, aux
dimensions à la fois scientifiques, technologiques, économiques et sociétales.
Cesdéfiss’expliquentparlacomplexitédesenvironnementsdeproductionciblés,
les mécanismes nécessaires pour permettre au logiciel d’évoluer dynamique
ment, et les contraintes de fiabilité et de sécurité que nécessitent ces systèmes.
Les systèmes éternels étant appelés à se diffuser largement dans notre
société, ils doivent respecter des contraintes strictes, dont le passage à l’échelle,
la sécurité, la protection de la vie privée, la performance et la fiabilité. Pour
satisfaire ces contraintes tout au long du cycle de vie de ces systèmes, des
recherches sont nécessaires pour répondre aux questions suivantes :
→ Comment exprimer les systèmes éternels (spécifications, langage de
programmation, environnements de développement intégrés, etc.) ?
→ Comment traiter leurs définitions (compilation, vérification, instrumenta
tion, etc.) ?
→ Commentlesexécuter(surveillance,bibliothèques,supportd’exécution,etc.) ?
→ Comment les faire évoluer (introspection, génération de code d’exécution,
auto-adaptation et calcul autonome, contrôle de la reconfiguration, etc.) ?
Ces recherches auront un impact de grande ampleur. Ainsi les citoyennes
et citoyens subiront l’impact lorsque des services informatisés et déployés à
l’échelle de la société deviennent critiques, et doivent impérativement évoluer.
L’industrie informatique aura un avantage concurrentiel en informatisant avec
succès une large palette de secteurs à travers la société et l’industrie.
La nature des systèmes éternels requiert un nouveau cycle de vie du dével-
oppement logiciel, afin de tenir compte de l’évolution continue d’un système
éternel, potentiellement déployé à grande échelle. Cette évolution devra passer
par trois avancées majeures.
Analyse de programme
Il faudra élaborer des approches d’analyse fondamentalement nouvelles,
alliant des aspects statiques et dynamiques. Ces approches :
1 seront non disruptives, préservant le comportement d’origine et limi
tant le surcoût,
2 gérerontleslangagesetsupportsd’exécutionpertinentsdudomainecible,
3 s’adapteront à des événements de surveillance haute fréquence de
systèmes réalistes,
4 assureront la certification des propriétés critiques pour le domaine.
45. 44
Défis
scientifiques
—
→ Sommaire
Infrastructure
Les logiciels éternels nécessitent des supports d’exécution de nouvelle
génération (machines virtuelles, noyaux réflexifs, etc.), qui supportent les mises
à jour « à chaud ». En outre, ces supports d’exécution devront être soumis à des
boucles de rétroaction et des techniques de régulation issues de la théorie du
contrôle, afin d’appliquer des règles de sécurité et de tendre vers l’optimalité
dans la qualité de service ou la gestion des ressources.
Usages
Les logiciels éternels nécessitent une approche centrée humain afin d’en
cadrer les opérations d’évolution du logiciel. Cette approche exige des outils
spécifiques au domaine en appui à des tâches clés comme la visualisation, la
prise de décision et la maintenance.
« Afin de répondre à des demandes changeant rapidement, les
entreprises doivent continuellement évoluer et se réaligner avec
leur marché. Les systèmes éternels permettront de relever les défis
qui en résultent en produisant des systèmes adaptatifs fondés sur
des technologies et des environnements hétérogènes pour un coût
minimal. Les clientes et clients auront toute confiance dans
le fait que leurs exigences seront satisfaites, tandis que la qualité
du service sera préservée. »
Nabil Djarallah
(Directeur de la RD et de l’Exploitation Open Source chez Scalair)
2