SlideShare ist ein Scribd-Unternehmen logo
1 von 46
Downloaden Sie, um offline zu lesen
MBA affaires électroniques
              Johann Lovato
    Matricule de dossier 08 125 684
    SIO-66087 : Entreprise digitale

       Rapport de session automne 2008 :



Web 3.0 ou l'évolution vers un réseau Internet
                  intelligent




                                            Page   1
Sommaire
Introduction…..………..……………………………………………………………………...3

I. Web sémantique…………………………………………………………………………….4
A. Un langage propre : OWL………………………………………………………………………..…4
B. Une nouvelle structure d’entreprise : l’architecture orientée service............................6
C. Les nouvelles applications concrètes pour les processus d’affaires……………………..….9

II. WEB 3.0: évolution vers l’intelligence des réseaux………………………………………...12

A. Les outils de raisonnement conçus pour les ontologies……………………..…………..…..13
B. Les systèmes multi-agents………………………………………..…………….……….…...20
C. RFID: la voie royale vers une traçabilité absolue................................................................. 24
D. L’informatique omniprésente change les mentalités………………………………..............30

III. Limites et perspectives d’un Internet en pleine mutation……………………………………….33

A. L’intégration et fusion des modèles conceptuels.................................................................... 33
B. Le traitement des données incertaines: un chantier à long terme.......................................... 35
C. E-gouvernement: un enjeu international…………….……………………………………... 38


Conclusion…............................................................................................................................... 41
Bibliographie et Webographie..................................................................................................... 42




                                                                                                                                   Page    2
Introduction
 L’évolution de l’internet s’est réalisée de manière très rapide depuis 2001 et a marqué une
nouvelle étape avec l’émergence du WEB 2.0, un internet participatif qui a changé
profondément la structure du commerce électronique et s’axe beaucoup plus sur la
participation commune, la collaboration entre partenaires, avec l’expansion actuelle des
logiciels libres qui vont accroître davantage cette ouverture du monde des affaires
électroniques.

Nous étudierons tout d’abord un concept qui, bien que présenté dès 1993 par Tim Bernes Lee,
n’a commencé à être sérieusement appliqué que depuis 2003-2004 : le web sémantique. Nous
verrons comment ce réseau donne une vision plus globale de l’internet et contribue à construire
un Internet qui a du sens, une structure autonome et à donner cette intelligence, flexibilité,
rapidité à la gestion de la connaissance. Nous verrons ensuite les répercussions sur la
restructuration et réingénierie des systèmes d’information et des architectures d’entreprise en
expliquant quels sont les nouveaux enjeux, perspectives pour le commerce électronique. Nous
nous arrêterons sur une notion de plus en plus présente : l’e-gouvernement.

La seconde partie abordera les outils permettant d’exploiter cette approche nouvelle des
connaissances en analysant en profondeur des concepts-clés tels que les ontologies et
modélisation de concepts en montrant leurs implications au niveau des processus
d’affaires. Ces principes seront illustrés par les notions d'agents intelligents, de
technologies telles que RFID ou Ubiquitous Computing (informatique omniprésente) et
montrerons l'impact de ces nouvelles technologies et quelles améliorations concrètes sont
escomptées, à exploiter ou à perfectionner.

Enfin la dernière partie fera un constat des limites actuelles du web sémantique et des projets à
venir, solutions en études qui sont en chantier pour les prochaines décennies et quel est l’avenir
proche d’Internet. La conclusion établira une synthèse des éléments-clés du web sémantique et
de leurs débouchés économiques, financiers, politique, individuels.




                                                                                          Page   3
I – Web sémantique
Les gestionnaires de l’information et les architectes web n’ont désormais plus qu’un
mot à la bouche lorsque l’on aborde le sujet d’Internet : les services web. Or avant d’y
parvenir, il a fallu reconstruire une nouvelle perception du réseau et effectuer une
mutation d’un système d’information syntaxique vers un système de la connaissance qui
a abouti au web sémantique.

   A) Un langage propre : OWL

Pour comprendre la source de ce basculement, il faut remonter à 1999, lorsqu’à la veille
du nouveau millénaire et des spéculations énormes qui pesaient déjà sur les
investissements de la nouvelle technologie de l’Internet par les entreprises, Tim Berners
Lee, fondateur du World Wide Web en 1990, commença ses travaux et sa réflexion sur
l’évolution déjà future des réseaux informatiques dans son livre intitulé « Weaving the
web » où il exprimait déjà la notion de « connaissance » et de « sens » propre à cette
technologie1.

Mais le 10 février 1998 fut le départ d’une formidable aventure avec la certification du
langage XML 1.0 aboutissement d’une longue recherche de deux années de Michael
McQueen, développeur de langages de balises jusqu’alors connu grâce au SGML mais
qui posait des soucis de standardisation. Le langage XML était le premier langage à
pouvoir structurer le contenu de l’information de manière en éléments simples,
complexes, en langage compréhensible par l’individu, tout en ayant un format
adaptable au standard du World Wide Web et un code ouvert à une évolution future de
son exploitation2. Le XML obtenait ainsi en 1998 une norme ISO de la part du
consortium W3C fondé par Tim Berners Lee en 1994.

Diverses recherches conduisirent ce dernier à définir concrètement un point de départ
du Semantic Web sur le fond de recherches d’ingénieurs qui abouti en 1999 à un cadre
de description nommé RDF, qui utilisé avec la syntaxe et la définition de schémas XML
allait permettre une vision totalement différente et pionnière d’Internet.

Le Resource Definition Framework a constitué le premier cadre vers un modèle
conceptuel de données. Il intègre l’énumération des éléments, des attributs et une liste
exhaustive des caractéristiques s’y rapportant. Le XML avait un souci de représentation
en page web cependant car il structurait le contenu tandis que le langage HTML le
présentait, ce qui a obligé le développement d’un modèle XSL (eXtensible Stylesheet
Language) qui a permis d’intégrer le XML dans les page HTML et de donner naissance au
langage XHTML. De l’utilisation conjointe du XHTML du RDF est né le RDFS ou schéma

                                                                                 Page   4
RDF qui permet de décrire la structure, le fonctionnement de ces éléments sur Internet
et de voir désormais les informations comme une arborescence d’éléments, contenant
des sous-éléments et permettant de regrouper les données en blocs, construire une
interaction entre ces éléments, définir la manière dont les éléments s’échangeaient de
l’information sur le réseau.

Cependant ce schéma RDF était assez rudimentaire. L’idée de Berners Lee, Roland
Wagner, et plusieurs membres du W3C était d’apporter une notion temporelle à ce
modèle conceptuel de données afin qu’il puisse traiter l’information de manière
autonome, sans interaction humaine et sache prendre en considération l’évolution des
termes, des concepts, du sens, de la définition de la sémantique, en permanence. Le but
était de préserver l’intégrité du modèle de manière permanente. Cela nécessitait de
créer un langage propre à cette ontologie qui puisse regrouper l’ensemble des
éléments, inférences, interactions, classes, sous-classes et devait permettre d’ajouter du
sens et maintenir un raisonnement qui permettent de mieux comprendre les activités
notamment dans les processus d’affaires, en les découpant en objets, hiérarchisés,
interagissant entre eux et aboutissant à un mappage des domaines, activités, rubriques,
applications, sous-applications des entreprises dans leur commerce électronique.

C’est ainsi qu’est apparu en 2001 le Web Ontology Working group. Effectuant des
recherches plus poussée pour exploiter le XML et les schémas RDF, les chercheurs ont
abouti au langage OIL (Ontology Inference Layer). Celui-ci s’appuyait sur des
descriptions d’attributs beaucoup plus riches et permettait de définir des domaines
particuliers avec les classes d’objets qui y correspondaient. OIL s’appuyait également sur
le FaCT3 (Fast Classification of Terminologies) qui permettait de constituer une base de
connaissances sur les différentes hiérarchies de classification et de types de classes
d’objets selon les domaines demandés.

OIL a permis des applications dans les ressources humaines, où le partage de la
connaissance représente d’énormes quantités d’informations stockées sur les systèmes
et a permis de les structurer notamment dans des entreprises comme Enersearch, afin
de permettre une meilleur modélisation des connaissances des activités et
communication des processus d’affaires à ses actionnaires4. De son côté, le
département de la défense américaine a travaillé en parallèle depuis 1960 sur son
propre réseau sémantique et le DARPA (Defense Advanced Research Projects Agency) a
établit son langage propre : le DAML ou DARPA Agent Markup Language.

Afin d’harmoniser l’OIL et le DAML, le W3C proposa une syntaxe commune DAML+OIL et qui
devint le 10 février 2004 le langage officiel du web sémantique sous une appellation définitive :
OWL (Ontology Web Language).

                                                                                          Page   5
B) Une nouvelle structure d’entreprise : l’Architecture Orientée Services

Le commerce électronique a très vite compris l’avantage que pouvait procurer l’utilisation du
web sémantique, car jusqu’alors les organisations étaient structurées en divisions, chacune
indépendante, sans aucun lien entre les activités ni interconnexions entre les bases de
connaissances. Les systèmes d’informations se retrouvaient ainsi dupliqués, avec une valeur
dégradée, rigide, utilisée uniquement de manière ponctuelle.

Le modèle conceptuel de données que proposent les ontologies, sur lesquelles nous nous
arrêterons plus en détail dans la partie II, permet d’effectuer une réflexion nouvelle sur les
processus d’affaires. En effet, les domaines d’activités sont trop souvent segmentés d’après leur
environnement d’application et les systèmes connectés point à point entre eux. Ceci provoque
souvent des pertes de bénéfices énormes lorsqu’une défaillance d’un des deux systèmes
survient, car le lien ne peut être remplacé. Pour conséquence, les affaires cessent entre deux
partenaires d’activités ou deux départements internes de l’organisation car l’ensemble du
réseau est paralysé. De même cette structure souvent appelée « legacy system » ou système
d’héritage, provoquait des multitudes d’intermédiaires entre certaines entités diamétralement
opposées sur une structure de plusieurs milliers de systèmes.

D’autre part la plupart des systèmes tels que les réseaux bancaires, notamment, du fait de leur
complexité et programmation en COBOLD parfois même (langage de programmation datant des
années 1970) rendent ces systèmes inopérables avec des systèmes plus actuels et ralentissent
voir empêche d’optimiser la productivité de l’organisation et cela a des répercussions auprès
des clients, Sears a été un exemple de mauvaise gestion informatique. Ce leader nord-
américains dans le commerce de détail a cru bon d’investir 60 millions de dollars dans de très
nombreux systèmes d’informations, sans se préoccuper d’établir une architecture commune et
rationnelle, ce qui l’a fortement handicapé au niveau de la gestion des clients et à revoir sa
stratégie en fonction des services fournies à ses clients en magasin mais aussi envers ses
partenaires de la chaîne logistique5.

Autre souci, l’entrée et la suppression d’un système soulevaient le problème d’intégration des
applications d’entreprise dans son architecture globale. Chaque modification avait une
répercussion sur l’ensemble des activités présente sur le réseau et ceci générait de plus des
soucis de compatibilité entre les applications et programmes afin d’échanger des informations.




                                                                                         Page   6
Exemple d’architecture classique d’entreprises traditionnelles




Cette architecture archaïque nommée CORBA (Common Object Request Broker Architecture)
montrait ainsi ses faiblesses au niveau de sa rapidité de traitement des informations, de sa
souplesse à réagir face aux évolutions, changements des besoins des activités d’entreprises.

En 2004, des travaux basés sur la programmation orientée objet d’université européennes de
Milan,Manchester et de Stanford, du Massachusset Institute of Technology aux États-Unis, ont
servi à définir un lien entre le XML et les activités d’affaires pour développer les services web et
une architecture d’entreprise nouvelle.

Cette architecture permet de regrouper les systèmes d’informations disparates en services
simplifiés et interconnectés non plus de point à point mais en réseau connecté en toile avec
une point de convergence commun permettant l’échange entre n’importe quel services quelque
soient leur programmation d’architecture et avec une parfaite communication entre services
web, apportant une flexibilité de connexion et d’interaction entre les processus d’affaires des
sociétés.

L’architecture orientée services s’articule sur 3 composantes :

    -   UDDI (Universal Description Discovery and Integration): une base de registres contenant
        les noms des services webs, leurs attributs, ainsi que leur caractéristiques et propriétés
        (ex : SCM = port 80). Celui-ci enregistre le nom des services chaque fois que de
        nouveaux apparaissent et les suppriment aisément lorsqu’une entreprise se retire du
        réseau d’affaires.

    -   WSDL (Web Services Description Language): un langage qui permettent de créer les
        interactions et échanges entre les services web et décrit de quelle manière chacun
        d’entre eux se connectent, quelle nature de données transmettre sans en connaître le



                                                                                            Page   7
contenu exact, à quel partenaire d’activité le service web doit être envoyé, sous quelle
        forme….

    -   SOAP (Simple Object Access Protocol): le langage de communication entre les services
        web. Grâce à un « broker » ou « facilitateur »utilisant le format XML et situé au centre
        du l’architecture orientée service, SOAP permet l’échange entre les services webs. Les
        entreprise n’ayant besoin que de programmer un applet qui va transformer les codes de
        programmations différents de chacun vers le langage commun SOAP qui permettre
        d’établir la connexion entre deux services à partir d’un réseau en toile commun et une
        architecture ayant un noyau central gérant les demandes de services des partenaires
        d’affaires.



         Exemple d’architecture orientée service




Cette architecture a incité les entreprises actuelles à réfléchir à une meilleure définition de leur
stratégie d’affaires, des objectifs à réaliser et des processus d’affaires adaptés à leurs besoins,
tout en permettant de garder en place les legacy systems et de les faire fonctionner avec des
systèmes plus récents en offrant cette compatibilité par un même langage commun, le SOAP.




                                                                                            Page   8
L’un des principaux outil de réingénierie utilisé à dans ce but fut l’UMM (UNCEFACT Modeling
Methodology) qui a permis de recréer des processus structurés en services et non plus en
applications, à simplifier les tâches afin de permettre une meilleure correspondance des services
entre les partenaires d’affaires et de pouvoir définir la manière d’opérer des processus, et
finalement à pouvoir automatiser le traitement des processus selon qu’ils le permettent ou non.

Le gros avantage est de pouvoir améliorer la réutilisation des mêmes services pour différents
partenaires qui en font la demande et de pouvoir éliminer à la fois la surmultiplication des bases
de données qui contiennent des données similaires afin d’obtenir une souplesse et facilité
d’échange d’information entre les applications logicielles des entreprises. Des standards
d’ingénierie propre à l’architecture orientée services ont été créés comme le BPM4WS 6 et
permettent d’obtenir un même raisonnement de conceptualisation d’éléments de processus
d’affaires pour l’ensemble des partenaires d’un même réseau sur Internet.

Cette architecture permet d’intégrer de nouveaux services ou d’en supprimer sans occasionner
de perturbations dans le fonctionnement de l’architecture, on y voit souvent une référence au
plug-in et plug-out qui illustre cette facilité d’utilisation de l’architecture orientée service et de
ses services web.

Dernier composante importante dans cette réingénierie pour optimiser le fonctionner de
l’architecture orientée services : le Service Level Agreement.
Le S.L.A est un cadre d’interface des services web qui permet de définir la manière dont
fonctionnent les processus, les responsabilités affectées à chaque éléments du service utilisé,
ainsi que leur portée, et pourvoir une interface commune de travail afin d’harmoniser en un
même langage les différentes équipes d’utilisateurs en s’appuyant sur des règles, standards qui
définissent un champs d’opérations commun pour tous lors de l’utilisation des services web7.



    C) Les nouvelles applications concrètes pour les processus d’affaires

Là où certaine entreprises y ont vu un simple remodelage de processus, d’autre s’y sont
appuyées pour redéfinir leur cœur de métier de base. C’est le cas notamment des
réseaux bancaires dont un des exemples les plus réussis est sans doute le réseau Nordea
qui rassemble les 4 banques leader en Scandinavie et se répartit sur plus de 1100 sites
différents utilisant près de 30000 collaborateurs8.

Les gestionnaires, là où certains y ont vu un projet ambitieux d’investir massivement
dans l’équipement pour améliorer la technologie et l’efficacité des système
d’information présents dans l’entreprise, ceux de Nordea a raisonnée en terme de gain
de productivité et de rentabilité en redéfinissant les processus d’affaires du cœur de
métier et en organisant les tâches qui pouvaient réduire les charges de l’organisation
tout en permettant une efficacité d’action par son automatisation.

                                                                                              Page   9
Nordea s’est rendue compte qu’une architecture orientée service servait une stratégie
d’affaires et non une volonté de modernisation des systèmes. L’essentiel des banques
qui ont échoué dans leur investissement technologiques, l’ont fait à tort en pensant à
l’aspect technique et matériel au détriment du sens des affaires, à l’apport qu’une
nouvelle architecture pouvait apporter à la structure de l’ensemble de l’entreprise.

L’Architecture orientée service, si elle a permet à d’anciennes structures d’évoluer, peut
permettre également à des compagnies leaders de surveiller et développer, maintenir
leur avantage compétitif au niveau concurrentiel. C’est notamment le cas de la société
RLP Technology, basé dans le Michigan aux États-Unis, et qui est leader au niveau des
solutions d’affaires marketing dans le domaine automobile.

La compagnie, basé dans plus d’une dizaine de pays à travers le monde tel que le Japon,
la France, l’Australie, cherchait à améliorer son système de collecte de l’information,
afin de pouvoir proposer des offres de services plus adaptées à ses clients, car le marché
du B2B suggéré d’être extrêmement pointu et en veille permanente et efficace du
marché.

L’architecture orientée service y a apporté une solution en permettant de réorganiser
les tâches de collectes des données, en optimisant la vitesse d’échanges d’informations
des systèmes, en définissant des réglementations quant à ces données et rationalisant
les coût tout en apportant un support additionnel pour le suivi de l’activité.

L’essentielle était de structure les systèmes d’information de manière ordonnée et
intelligente afin de faciliter l’accès aux données et de créer des concevoir les services
comme des blocs d’éléments, des services à part entière et qui éliminaient toute
redondance en clarifiant les forages de données et les modes d’accès à l’information
dans l’entreprise.

RLP Technology a ainsi pu ouvrir ses services vers les analystes de ses partenaires
d’affaires qui pouvait étudier les perspectives par rapport à l’évolution de l’entreprise
sur le marché automobile grâce à une interface simplifiée, procurant des outils de
création de données et d’échanges beaucoup plus souples et rapides.

L’A.O.S (Architecture Orientée Service) a permis de refondre les activités des
producteurs de pièces en se concentrant sur leurs cœurs d’activités pour créer
l’interaction avec les services proposés par RLP. Une plus grande richesse d’information
s’est créée sans pour autant se disperser dans les systèmes car la base de connaissances
était organisée de manière dynamique, en organisant ses données selon les domaines
financiers, communication, marketing, juridique de RLP, et la conceptualisation des


                                                                                  Page 10
données permettait ainsi de mieux analyser les cycles, les étapes successifs des
processus d’affaires entre eux pour mieux anticiper les conséquences de les
commercialisation de produits sur le marché automobile et prévoir l’impact des
décisions et stratégies d’affaires de ses concurrents sur le marché actuel et selon les
perspectives futures.

Ce projet baptisé Re-Fuel a été complété par un ESB (Entreprise Service Bus) qui devait
permettre d’augmenter la capacité de traitement des quelques 2,5 milliards
d’informations que comptait à l’époque les systèmes d’information de RLP, tout en
veillant à une définition plus précise des données afin d’assurer une meilleur qualité et
intégration de l’information dans les affaires électroniques.

Une meilleur gestion globale de l’information a permis à RLP de remplacer ses legacy
system programmé en COBOLD par un réseau internet souple, rapide, efficace,
directement connecté à ses partenaires professionnels afin d’augmenter la
collaboration et l’échange pour créer une valeur ajoutée aux avantages compétitifs des
services marketing de RLP Technology. Ajouté à un choix judicieux de la technologie
JEMS pour son intégration du langage JAVA dans la programmation de ses systèmes et
son intégration dans l’architecture globale, ont contribué à une stratégie gagnante
définie par Joe Lafair, responsable du développement de l’architecture web RLP, comme
une stratégie 50/50/100 avec 50% de l’activité reposant sur cette solution, permettant
50% de rapidité de traitement en plus, aboutissant à 100% de qualité et en
rationnalisant les coûts des investissement par rapport à la réduction du traitement des
affaires que permet l’automatisation de processus simples.

Autre excellent exemple d’application, celle de la compagnie Swedish Railways. En 2005,
constatant de la saturation et manque d’efficacité de ses serveurs actuels et intranets, la
société a réfléchit avec une société experte en implantation d’architectures orientées
services à une plateforme permettant d’optimiser sa capacité de traitement de la
demande de billets de trains de ses clients et d’une manière de rationnaliser les coûts
de son système, à des fins de rentabilité accrue.

Un partenariat avec Ebay a ainsi été mis en place en utilisant l’AOS pour rendre plus
aisée l’échange de services entre les deux firmes et être plus réactif quand à la demande
spontanée et le flux de clients auquel devait faire face Swedish Railways. Ceci lui a
permis, grâce à l’appui d’une infrastructure informatique IBM adaptée, souple, fondée
sur Websphere et les logiciels libres ainsi que des postes informatiques et serveurs plus
performants d’augmenter ses ventes de 1500 billets supplémentaires chaque semaine,
et donc d’assurer un formidable retour sur investissement et une meilleur satisfaction
de sa clientèle9.

                                                                                 Page 11
Tous ces exemples de réussites sont un élément de motivation pour inciter davantage
les entreprises qui cherchent la meilleur optimisation de leurs affaires électroniques et
dont l’architecture classique et rigide en place paralyse l’évolution avec les partenaires
d’activités et empêchent d’utiliser de manière efficiente l’information de leurs systèmes
pour coordonner leur tâche, leur échanges de services sur le marché, ce qui accroît les
investissements à réaliser afin de se maintenir à jour par rapport à la concurrence et
l’essentiel point de départ est toujours une réflexion itérative sur le modèle économique
de l’entreprise, afin de prendre en compte les réels besoins ,les faiblesses du réseau
existant et choisir les solutions les plus adaptées à une souplesse, réactivité, rentabilité
des affaires, chose que permet l’architecture orientée services.



II – WEB 3.0 : évolution vers l’intelligence des réseaux
L’internet a contribué à une fulgurante amélioration de la conduite des affaires dans le
domaine du commerce-électronique, en s’axant sur le développement d’activités créant
une réelle valeur ajoutée apportée par les technologies nouvelles de l’information liées
à Internet.

Là où le web 2.0 a recentré la stratégie autour de la collaboration et l’aspect social,
participatif des individus pour la création d’information afin d’adapter les produits,
services de meilleure manière pour desservir les clients, leur donnant plus de valeur et
cherchant par tous les moyens à augmenter l’interaction, l’ergonomie de
communication, d’utilisation, la valeur de leur partenaires d’activité et celle des clients,
le web 3.0 lui apporte cette notion supplémentaire d’intelligence.

Cette nouvelle approche des affaires prend du recul par rapport aux stratégies
d’affaires, en apportant une réflexion nouvelle sur la conceptualisation de la
connaissance, de l’information et une transparence et homogénéisation de la gestion
des connaissances sur Internet. Nous l’avons vu précédemment, l’architecture réseau
est un élément-clé désormais dans une vision d’optimisation du traitement de
l’information, opérabilité des processus d’affaires et valeur de l’offre de services.
Cependant les méthodes et technologies en développement, telles que les ontologies
d’entreprises, agents intelligents, nous offrent une vision d’un réseau autonome et
cohérent, ayant du sens et cherchant à créer du sens pour simplifier l’accès, le
traitement des informations, des activités et tend à modifier l’ensemble des
comportements des individus en impliquant une logique humaine aux applications
informatiques et une meilleur coordination du partage des informations.


                                                                                  Page 12
A) Les outils de raisonnement conçus pour les ontologies

Nous l’avons brièvement aperçu précédemment, le web sémantique a contribué à se
tourner vers le problème du sens de la connaissance et de la manière imparfaite avec
laquelle elle est utilisée.

Très tôt et dès le milieu de l’année 2004, le W3C et des équipes telles que l’université de
Milan en Italie, ou de Stanford aux Etats-Unis, et groupes d’ingénieurs asiatiques,
indiens ont perçu cette limite que représenterait à court ou moyen terme l’utilisation
« syntaxique » des données sur le réseau Internet. Cette perception réduisait les
possibilités d’exploitation autonome de l’information et réduisait l’utilisation des base
de connaissances à une simple connexion formalisée, prédéfinie et rigide. Ainsi les
ontologies ou modèles conceptuels de données sont nés du web sémantique avec son
propre langage OWL afin de réfléchir à une approche nouvelle de l’utilisation des
données et à l’élaboration de significations, de structures ordonnées et inter-
opérationnelles et autonome des systèmes afin d’améliorer la qualité des informations
et de la pertinence des recherches et du traitement automatisé des données.

Concrètement, lorsque de nos jours nous recherchons de l’information sur Google, ce
qui se passe derrière sur le réseau n’est qu’une combinaison de « wrappers »,
« spiders » plus communément appelés robots-araignées de recherches, qui combinés à
de très puissant algorithmes d’analyse permet cette rapidité d’accès à l’information.
Cependant, aucune analyse ne nous permet de dire si les résultats affichés sont
réellement pertinents, car cela dépend souvent des critères choisis pour paramétrer une
recherche. Et les outils utilisés tels que le pagerank (classement de la popularité des
pages), le référencement HTML, la notoriété des sites internet ne nous indique
nullement quand à la qualité réelle du contenu même des informations que renferment
ces sites. Comment définir la réelle pertinence d’un terme lorsque par exemple la
tomate est considérée pour 236 sites comme légume, alors que pour 4 sites il est
désigné comme un fruit. Est-ce la popularité qui octroie la certitude du sens
obligatoirement? La tomate étant considéré comme fruit et légume, cela montre qu’il
est nécessaire de reconceptualiser les connaissances afin de préciser leur sens, leur
portée, les éléments intégrés, les attributs et le type d’interaction avec d’autres
connaissances, afin d’homogénéiser la connaissance.

Au niveau des entreprise ceci impliquait une refonte totale de leur modèle d’affaires en
5 étapes : l’étude de faisabilité, le kick-off, la réitération, l’évaluation et la maintenance.




                                                                                    Page  13
Méthodologie de conceptualisation des processus d’affaires 10




Étude de faisabilité

Elle permet de faire le constat des faiblesses de l’entreprise, de la pertinence de sa
stratégie d’affaires et de l’adéquation de ses processus avec ses besoins actuels et
futurs. Ceci permet ensuite de faire le point sur les possibilités d’intégrer un modèle
conceptuel de données au sein de l’organisation avec les ressources disponibles pour
valider le projet.

Kick-off

Il s’agit de faire une capture de l’information et des connaissances conservées dans les
bases de données et systèmes d’information. Cette étape permet de définir un
« squelette » de l’architecture de l’information dans l’entreprise et permet ensuite de
définir les activités en domaines d’application, eux-mêmes divisés en sous-domaines,
comportant des éléments. Chaque éléments peut comporter des sous-éléments et se
composent obligatoirement d’attributs, de caractéristiques qui définissent sa nature et
sa portée, ses propriétés, sa signification. Ce modèle définit également les interactions


                                                                                Page 14
qui se produisent entre chaque élément, entre éléments et domaines, entre les
domaines, etc.….

L’ensemble de cette phase se base sur la sémantique des éléments et les
correspondances de sens des termes, données présentes dans les bases de données,
pour définir les processus d’affaires et il est très important de vérifier que chaque
élément est cohérent avec le sens du domaine auquel il appartient.



                         Exemple de conceptualisation des données




« Refinement » ou itération

Une fois le modèle défini en détails, il s’agit de vérifier de la validité de chaque élément
en regardant son application et essayant de catégoriser les données de manière plus
affinée encore. Une réflexion est apportée sur la valeur des concepts établis, jusqu’à ce
que les éléments soient clairs, compréhensibles et dont l’impact, l’action, les relations et
inférences, hiérarchies doivent être correctement précisés. Bien évidemment le travail
sera d’autant plus difficile que l’information est riche ou que les domaines touchent à
une multitude d’environnement ,de champs sémantiques divers et épars, et la difficulté
est de catégoriser en concepts des éléments souvent complexes et dont les données
peuvent être incertaines ou dont les répercussions sont improbables, chose que nous
analyserons plus tard dans ce rapport.


                                                                                 Page 15
Évaluation

Cette phase vérifie que les éléments soient opérationnels, que le raisonnement des
processus soit cohérent à la stratégie d’affaires d’ensemble et par rapport aux domaines
cernés. Il est nécessaire de vérifie que les relations entre concepts pour déterminer s’ils
sont correctement définis, si les bonnes caractéristiques, attributs, inférences, actions
ont été catégorisés de façon à ce que l’ontologie obtenue puisse être réutilisable et
exploitable de manière continue.

Maintenance

La mise à jour des données est capitale afin de préserver la qualité des informations
possédées. La valeur des concepts des processus dépendra fortement de la capacité à
les faire évoluer en fonction e l’environnement dans lesquels ils s’appliquent et en
fonction des changements de comportements des utilisateurs. Et il sera ponctuellement
nécessaire de procéder à un processus de réitération et donc de revenir à notre 3ème
étape de « refinement » afin de modifier les éléments, dès lors que leur signification,
leur rôle, leur actions, les finalités visées, changent.

Les outils du web sémantique

L’un des premiers outils apparaissent en 2004 fut Swoogle, accessible via l’URL
http://swoogle.umbc.edu/ et qui fonctionne comme un moteur de recherche pour le
web sémantique. Cette outils permettait de retrouver des éléments, des attributs et des
ontologies parmi plus de 100 000 documents en 2004. Cependant, il lui était impossible
d’établir le lien entre deux concepts d’ontologies distinctes, ni de définir la qualité de
l’information autrement que pas le ranking des mots-clés ou des sites.




                                                                                Page 16
Ainsi en 2006, le Knowledge Media Institut de Milton Keynes au Royaume-Uni a
développé un outil plus perfectionné appelé Watson Semantic Web Gateway11. Au
contraire de Swoogle, Watson se base sur un moteur de recherche par mots-clés de très
haut niveau et utilisent les métadonnées des informations et concepts afin de vérifier la
qualité, la pertinence de ceux-ci et ne se base plus sur l’uniquement popularité des
termes sur les pages internet. D’autre part, Watson Gateway permet d’analyser les
relations qu’il existent entre des concepts appartenant à des ontologies différentes en
se basant sur les liens existants entre les éléments dans leurs ontologies respectives
pour ensuite établir des correspondance de sens au niveau de ces concepts et construire
une relation entre eux.

                   Exemple de raisonnement de Watson Gateway12




Autre caractéristique, Watson vérifie en permanence l’utilité de ses critères d’analyses
des termes sémantiques et développe de nouveaux critères d’analyse et de
correspondances pour établir les liens entre les informations et améliorer sa perception
de leur qualité. A l’instar de Swoogle qui se limitait à 100 000 documents, Watson peut
traiter les quelques 6 millions d’informations renfermées dans les bases de données du
web sémantique et peut traiter ces informations sans limite de temps ni d’utilisation, ce
qui n’ était pas le cas de Swoogle qui n’autorisait qu’un nombre limité de demandes.

Watson a été vu très rapidement comme un premier pas vers les intégrations
d’ontologies et un projet en devenir concernant les alignements de concepts et fusion
d’ontologies.



                                                                               Page 17
D’autres outils tels que Poweraqua et Powermagpie permettent également de faciliter
le repérage des informations et d’établir les liens avec des ontologies existantes ou de
créer une nouvelle ontologie, en analysant les contextes et les attributs, les classes de
termes et de connaissances ces deux logiciel permettent d’afficher à l’écran les
correspondances existantes, les ontologies utilisées ou les conceptualisation qu’il est
possible d’établir entre plusieurs mots-clés. Power Magpie tout comme Watson
s’appuie sur le RDF (Resource Description Framework) pour établir les catégorisation de
concepts,de termes sémantiques et établir une « communication » avec les documents
html afin de générer un listing des relations existantes dans les modèles conceptuels
relevés dans chaque page internet. Ainsi selon l’API ou Application Programming
Interface de Power Magpie utiliser des fenêtres contextuelles de similaire au format
Notepad afin de montrer les résultats des analyses sémantiques.

                     Capture écran de l’interface de Power Magpie




   L’outil actuellement le plus abouti et le plus utilisé pour concevoir des ontologies et
   structures leur intégration est sans aucun doute le logiciel Protégé.



                                                                                Page  18
Le logiciel Protégé, développé en 2000 à l’université biomédicale de Stanford 13 en
Californie, est une des premières solutions qui ont été mis en place afin de représenter
sous informatique de manière schématique, visuelle le web sémantique.

Il permet de créer des structures sous forme d’arbres heuristiques avec des connexions
qui sont établies par le biais de concepts- clés communs entre les systèmes
d’informations ou entre les éléments de manière à ce que l’ensemble des concepts
puisse communiquer de manière optimisée et automatisée. Ce logiciel permet d’affecter
les informations par individus, classes (qui peuvent posséder des attributs caractérisés
par des propriétés propres), entités et au sommet de la structure l’ontologie et d’y
assigner les actions d’analyse intelligente de cette dernière.

 Il permet aussi d’y intégrer des annotations spéciales pour compléter la description de
chaque élément de l’ontologie. Grâce à l’outil Graphviz, il est possible de visualiser la
hiérarchie des données telle que l’on a répertorié les fils, sous-fils, sous-sous-fils et
différents liens entre les classes, labels descriptifs d’information et attributs des
différents contenus.

De plus il permet d’intégrer des plug-ins pour fonctionner avec les documents OIL, RDS,
OWL de toutes sortes, inclure des librairies et notamment un plug-in intéressant avec
l’outil Watson Gateway.

                Exemple de l’interface de Protégé (en version 4 bêta ici)




                                                                                Page 19
Tous ces outils du web sémantique sont tous confrontés des problèmes qui sont encore
à l’heure actuelle à l’étude comme la fusion d’ontologie et l’intégration de concepts
renfermant des éléments complexes et de l’information incertaine.

   B) Les systèmes multi-agents

Entrevue par la communauté scientifique dès le début des années 1990 14, le système
multi-agents se caractérisait par trois composantes essentielles :

   -   Réactivité : capacité à agir selon les changements de son environnement et à
       s’adapter en fonction des données qu’il reçoit ou analyse.

   -   Pro-activité : aptitude à anticiper les besoins et les répercussions futures des
       informations, aide à la prise des décisions avant que les événements ne
       surviennent en étudier toutes les possibilités d’évolution du contexte et des
       éléments avec lesquels il interagit.

   -   Sociabilité : faculté de coopération avec les autres agents et d’organiser la
       répartition de tâches, la structure hiérarchique d’un projet entre agents, de
       définir une structure approprié pour travailler de manière indépendante.


                Schéma de fonctionnement des agents intelligents15




                                                                                 Page  20
Les agents intelligents conceptualisent les données pour se forger leurs propres
ontologies et agir de manière autonome dans leur environnement. Ils réagissent en
fonction de capteurs d’information qui rentrent en « input » ou entrée pour constituer
une action en sortie ou « ouput » vers ce même environnement.

Chaque agent du système peut être attribué à un contexte ou environnement
différents, mais établit toujours un lien avec les autres agents.

D’autre part les agents intelligents ont leur propre structure mentale qu’il organisa en
fonction de croyances, désirs et intention (le BDI ou Belief, Desire, Intention). L’agent en
analysant les données se construisent leur propre choix de négociation et prennent les
décisions d’après les perspectives répondent le plus à ce qu’il « croient » optimal
comme choix pour atteindre un objectif de travail. Le désir est l’objectif de base que
chacun possède mais qui est souvent sujet à des divergences avec les buts des autres
agents. Ils se concentrent alors sur les intentions où les obligations, besoins sur lesquels
ils n’accepteront aucune marge de négociation.

Ainsi selon le contexte 4 différents choix sont possibles : la coopération, la collaboration,
l’antagonisme, ou la semi-coopération.

Dans une logique coopérative l’agent peut rendre un service à son homologue mais la
chose ne sera pas forcément réciproque ensuite, car les intérêts sont divergents mais
une entente existe.
La collaboration présente une action mutuelle des agents entre eux car ils ont des
objectifs soient commun soient compatibles avec les finalités escomptées.

L’antagonisme est le refus catégorique de communication entre deux agents, soit par
intérêts trop fortement divergents, incompatibles, où par analyse de l’autre comme
ayant une réputation insuffisamment fiable ou infidèle.

La semi-coopération enfin est un état de réflexion de l’agent intelligent qui va d’abord
considérer le statut de son vis-à-vis avant de prendre une décision. Il se basera sur
l’historique des interactions passées, la réputation, fiabilité, qualité de l’autre agent et
sa propension à permettre la réalisation d’objectifs en temps voulu.

Le système multi-agents se structure autour de l’architecture CORBA16 (Common Objet
Request Broker Architecture) , qui permet d’utiliser les agents comme des objets et de
les rendre autonomes pour des tâches précises, complexes.




                                                                                   Page 21
On retrouve généralement trois types d’organisation des agents intelligents dans le
système SMA17 :

   -   L’architecture axée sur le flux d’information : le rôle des agents est de capturer,
       analyser, et effectuer des veilles sur la base de connaissances qu’il possède ou
       acquiert afin de maintenir sa qualité et son utilité.

   -   L’architecture orientée rôle : chaque agents comprend des responsabilités et
       peut avoir à se référer à un agent supérieur. Une hiérarchie par couche
       d’importance des tâches à accomplir ou application à utiliser peut suggérer
       qu’un agent constitue des sous-agents qui vont exécuter des tâches simples.

   -   L’architecture orientée contrôle : mise en place lorsque le projet dans lequel est
       impliqué le système multi-agents est trop complexe pour laisser une autonomie
       et confiance totale à l’ensemble des agents, des contrôles s’effectuent dans leur
       espace de collaboration afin de valider l’atteinte de objectifs de chaque
       éléments simples contenu dans les applications complexes à réaliser et ensuite
       une validation de l’ensemble de la tâche complexe est effectuer par les agents
       lorsque tous manifestent l’atteinte des objectifs définis au départ.

   De nombreux domaines exploitent déjà cette technologie, notamment les secteurs
   de la santé, du tourisme et de la gestion de la relation client.



   Système multi-agents dans l’aéronautique

   Le très ambitieux projet Nextlink, par exemple, dans le domaine de l’aéronautique,
   avait pour objectif de construire un système multi-agents afin de travailler sur le
   design des pièces de construction des avions commerciaux.

   L’architecture du système utilisait un agent intelligent qui supervisaient
   l’avancement dans la réalisation des pièces et validait les étapes de conception et
   pouvait moduler des décisions en fonction des impératifs, défaillances, difficultés
   rencontrées auprès des différents ingénieurs réparties à travers le monde,
   permettant également la transmission via les réseaux sans-fils aux équipes humaines
   et le but était de construire un système standard transposable dans d’autres
   domaines ultérieurement.




                                                                                 Page 22
Schéma extrait du projet18




Système multi-agents dans le traffic automobile

Autre exemple encore plus complexe : la gestion de la signalisation routière des feux
routiers. Un équipe de projet de recherche à l’université de Anyang en Corée du Sud a
établit un système multi-agents permettant de gérer le changement des lumières des feux
passant du rouge au vert.

Les agents au moyen de capteurs permettent d’analyser et calculer le temps des cycles des
feux en fonction de la densité et congestion du trafic routier. Mais également ils sont
« conscients » des conditions atmosphériques en analysant la structure de l’air et peuvent
adapter la vitesse de changement des lumières selon le contexte afin de minimiser les
risques d’accident automobiles.

Cela va encore plus loin puisque les agents peuvent non seulement prévenir les autres
agents d’augmentation ou baisse de flux de trafic, mais aussi peuvent gérer le signal des
feux en fonction de la vitesse à laquelle roulent les automobilistes afin de ne pas provoquer
des ralentissements pouvant occasionner de possibles carambolages, et peut gérer
simultanément plusieurs intersections de rues.




                                                                                  Page  23
Schéma représentatif de l’application du système d’agents intelligents pour réguler le
                      traffic routier au niveau des intersections19




  Cette technologie représente un défi formidable dans les systèmes d’informations des
entreprises, et les projets actuels rapprochent les systèmes multi-agents de la recherche en
   intelligence artificielle, afin de permettre une autonomie de travail sur des éléments
 beaucoup plus complexes et sur l’amélioration du raisonnement « humain » des agents.

C) RFID : la voie royale vers une traçabilité absolue

Développée dès la seconde guerre mondiale, en 1948, pour la Royal Air Force
britannique pour distinguer les avions ennemis20, ce système apparaissait alors sous
le nom « IFF » pour Identification Friendly of Foe. Ce n’est que vers la fin des années
1970 que la Radio Frequency Identification fit une percée, lorsque le domaine de
l’armée qui avait conservé l’usage et la recherche exclusive de cette technologie
durant plusieurs décennies finit par la rendre publique.

Utilisée durant les années 1980 essentiellement pour sécuriser l’accès aux sites
nucléaires, et il faudra attendre 1998 pour qu’un système utilise les puces RFID pour

                                                                                 Page 24
permettre de suivre le bétail au niveau agricole mette sur le devant de la scène
réellement cette technologie. La raison de ces années de silence est essentiellement
due à l’absence de normes et à un devoir de réglementation avant tout usage
public21.

En 2004, après de longues décennies de recherche et fabrication de tags par les
industrie européennes et américaines essentiellement, la RFID pris tout son sens
lorsque les entreprise ont entrevue l’utilité des progiciels, architecture orientée
services et l’enjeu économique au niveau de la logistique que l’apport de nouvelles
puces de traçabilité des produits offrait. Ainsi dès fin 2003, WalMart suivi les pistes
d’ASA firme de détail anglaise dans l’incorporation de tags RFID sur ses produits. Ce
qui causa un demi-échec car le coût des puces se posait car bien que permettant un
rayon d’action de 50m, elles coutaient en moyenne 15€, ce qui réduisait son
implantation dans des firmes de grande taille ayant de forte rotation de stocks ou
portant sur des produits à fortes marges22. WalMart, leader américain de la grande
distribution du reporter ses ambitions pour 2005, année où il créa la norme EPC, en
fréquence 13,56Mhz et 98 bits et dont la portée était estimé à 2 mètres maximum
étant donné qu’il s’agissait d’étiquettes RFID passive 23.

Ainsi depuis, la RFID est utilisée essentiellement pour contrôler le taux de démarque
inconnue en magasin, la traçabilité des produits depuis le fabricant vers les
entrepôts et surveiller les stocks en magasins.

La puce RFID se compose d’une micro-puce renfermant des informations sur le
produit et utilisant l’énergie du signal d’un lecteur RFID qui transmet une requête
pour échanger l’information qu’elle contient.

                    Schéma de fonctionnement d’une puce RFID




La technologie Verichip, approuvée par la travaille actuellement sur une puce ayant
une portée de 300m et permettant d’être implanter sous cutané afin de permettre
la localisation des individus par satellite et préoccupe énormément les prisons


                                                                             Page 25
américaines pour la surveillance de leur détenus, mais également dans la prise en
charge de patients24.

Les puces RFID comprennent deux catégories :

-   Les puces passives, ayant un rayon d’action réduit de 9 cm à 2 mètres et ayant
    une fréquence de 13,56 Mhz : uniquement lisibles par une lecture,
    essentiellement pour le stockage d’informations.

-   Les puces actives, ayant un rayon d’action allant jusqu’à plus de 50 mètres en
    moyenne, utilisant une fréquence de 2,38 à 2,47Ghz : permettent lecture et
    écriture, mise à jour de données, utilisée pour le suivi logistique principalement.



Applications

Transport londonien


La RFID s’inscrivit de plus en plus le principe d’ubiquitous computing ou
informatique omniprésente et très tôt les gouvernements ont saisit ce progrès pour
l’application dans les services publics. Le réseau public de Londres ainsi a vu très tôt
l’utilité d’une telle technologie pour réduire la congestion du trafic de voyageurs
quotidien du centre urbain de Londres, où plus de 5 millions d’anglais prennent
chaque jour le métro, le bus, le train et le nombre de visiteurs enregistrés
augmentent de 15% chaque année. La gestion optimale du réseau de transport était
donc une priorité essentielle à très court terme face à l’engorgement des flux de
circulation.

Le ministère des transports britannique, et le réseau TfL (Transport for London),
réfléchissait à une amélioration de leur système de tickets magnétiques et billets
d’autobus qui engendrait des perturbations et embouteillages dans les heures de
pointe en journée et de même facilitait la fraude d’individus mal intentionnés et qui
coûtait entre 5 et 6 millions de pounds au réseau chaque année.

C’est ainsi que naquit le projet Prestige en 2005 25, qui élabora un système de
capteur sur les portiques d’entrée et sortie des stations de métro qui à l’aide de
capteurs placés près de la zone de passage des individus lisaient leur nouvelle carte
magnétique RFID et leur ouvraient le portique. Ceci engendra un gain de 4 secondes
par personne en temps de passage car il n’était plus nécessaire d’insérer un coupon
magnétique mais de passer simplement suffisamment près des capteurs avec la

                                                                             Page  26
carte contenant la puce RFID pour que celle-ci soit reconnu, authentifiée et se voit
accordé l’accès. La carte ne devait pas nécessairement être sortie et les personnes
pouvaient les conserver sur eux du moment que le capteur détecter un titre valide.

Un problème au début du projet se posa sur la difficulté à placer les dispositifs de
reconnaissances car la portée était réduite à quelques centimètres uniquement avec
une risque d’effet d’angle perpendiculaire qui pouvait empêcher le capteur de lire
les puces RFID contenu dans les cartes des citoyens.

Ce système permis de réduire de manière significative la congestion du trafic
londonien et fut également mis en place dans plus de 8000 bus londonien qui
enregistraient en 2005 près de 6 millions de ventes de billets, grâce à ce système et
près de 4 millions supplémentaire de titres concernant le métro.

Ce système permis d’enregistrer le parcours des usagers, ce qui souleva également
le problème de méthode d’écriture « étape par étape » ou « finale » des trajets des
individus pour identifier les différences entre les parcours simples et les allers-
retours et valider les droits des usagers par rapport aux informations détenues sur
leurs cartes individuelle. Ceci facilite grandement les contrôles des agents de
surveillance des réseau du métro de Londres dans le contrôle des titres et grâce à
une signature électronique propre à chaque pass, la fraude et les tentatives de
falsification de titres de transports s’est considérablement résorbé.

Portiques RFID à Londres et effets observés sur les ventes de titres de transports26




                                                                            Page 27
Gestion client tokyoïte dans la vente de chaussure

Autre exemple pertinent, le support client en plein centre ville de Shibuya à Tokyo dans le
flagship (plus grand magasin mondial en termes de superficie) de la firme Mitsukoshi,
spécialiste dans la vente de détail et dont le problème de qualité de service auprès de la
clientèle de leur département de chaussures était problématique.

En effet, l’évasion de clientèle qu’entraînait le traitement de chaque client à cause de
nombreuses allées et venues des vendeurs et du manque d’information spontanée sur l’état
des stocks entraînait des pertes chiffrées à 8% des chiffres d’affaires notamment sur la cible
féminine.

Appuyé par le METI (Minister of Economy Trade and Industry) du Japon concernant les
recherches de projets portant sur la technologie RFID, la firme Mitsukoshi aboutit à la
conception d’un système de kiosque RFID intégré avec écran tactile qui permettait d’insérer
de manière discrète et invisible les lecteurs de puces. Les vendeurs pour leur part utilisaient
des assistant personnels capable de lire les tags des puces collées sur chaque chaussures en
magasin. Les PALM étaient ainsi connectés en réseau sans fil avec les kiosques qui leur
transmettaient en temps réel l’emplacement des produits et de la disponibilité de chaque
taille de chaussure en magasin. Très vite les vendeurs ont manifesté cependant une
appréhension quant au fait de garder en permanence un assistant personnel à la main ce
qui réduisait leur confort lors de manipulation d’échantillon de vitrine auprès des clients.

Le système finit par ne plus utiliser que les kiosques et renseigner de meilleure manière le
client sur leurs demandes. Une autre amélioration au système concernait les puces
implantées sur les chaussures pour qu’elles puissent être retirées aisément une fois le
produit vendu au client, et l’application de tags RFID détachable facilement a été par la suite
instauré pour un meilleur confort d’utilisation et éviter tout souci de retour du client.

Les kiosques ont retirés des bénéfices également du fait qu’ils permettaient de reconnaître
une chaussure à son tag RFID chaque fois qu’elle était posée sur le kiosque à proximité du
lecteur et de l’écran informatique.




                                                                                    Page 28
Exemple de kiosque Mitsukoshi




La RFID ainsi nous montre une très forte avancée technologie possible dans le domaine
de la traçabilité logistique des produits et dans la transparence des stocks, avec une
meilleure gestion des flux de personnes ou de produits mais se heurte encore à un
obstacle de taille : la liberté individuelle.

En effet, la RFID utilisée également au niveau marketing pour recenser les habitudes de
consommation des clients ou les procédures d’affaires entre partenaires, suscite l’émoi
des association de défenseurs des droits des citoyens et des institutions juridiques de la
propriété industrielle, pour délimiter la frontière de l’accès à l’information à caractère
privé des individus et des entreprises. En effet, cette technologie apparaît comme outil
de puissant pour sonder en profondeur les faits et gestes des individus et manque de
cadres juridiques, normes et réglementations suffisantes pour protéger les libertés
civiles de chaque citoyen. L’autre effet pervers est celui de l’utilisation de cette
application dans la veille stratégique des entreprises afin d’obtenir des informations à
caractère confidentiel sur les brevets, secrets de fabrication et stratégies d’affaires des
concurrents.

C’est un problème encore majeur qui bien que commençant à être cadré par les
institutions gouvernementales dans chaque pays, reste encore en développement à
l’heure actuelle.




                                                                                 Page 29
D) L’informatique omniprésente change les mentalités

L’ubiquitous computing est un concept qui date des années 1970 et regroupe un
ensemble de technologies dont les systèmes multi-agents, la RFID et bon nombre
d’autres technologies internet pour exprimer une vision nouvelle de l’informatique :

L’accès instantané à l’information.

En effet le concept est d’inclure un individu qui se situe dans un environnement
géographique et qui circule avec un appareil prenant la forme d’un assistant personnel
digital et tactile et lui informant de toutes les opportunités qui peuvent se présenté en
fonction du comportement, des habitudes, du mode de vie de chaque individu.

Le principe est de programmer ce « gadget » pour qu’il analyse tout seul la personnalité
les actions de chacun afin de lui faciliter le quotidien.

Évidemment cet optique utilise le principe de concepts et de relation s’inscrivant dans
l’environnement d’évolution de l’individu et permet une réflexion avancée en
construisant des ontologies permettant cette facilité d’échange d’informations et
confort d’usage.

Un très bel exemple de ce principe a été observé entre 2002 et 2004 dans les hôpitaux
du Danemark en collaboration étroite avec le laboratoire de recherche en technologie
d’Aalborg au niveau de la gestion des patients.

En effet jusqu’alors, l’afflux en constante augmentation de malades, blessés, et patients
admis aux urgences et soins intensifs devenait préoccupant quand à la surpopulation
des hôpitaux et de la qualité de travail des infirmières auprès de chaque patient pour
vérifier de manière optimale l’évolution de leurs conditions de santé.

Jusqu’alors selon les tests du laboratoire d’Aalborg, montraient que les allées et venues
des infirmières jusqu’au terminal de saisie des informations sous poste informatique,
engendrait une perte de temps de 3 min par patient et que parfois le manque de
coordination des services et entre les relève de gardes pouvait augmenter le temps de
traitement de chaque patient.

L’idée trouvée fut tout d’abord de recourir à des petits chariots roulants à bonne
hauteur sur lesquels les infirmières disposait d’ordinateurs portable, permettant ainsi de
pouvoir être plus autonome quand à l’enregistrement des données d’évolution et des
traitements ingérés au patients et des analyses faites ou restantes à effectuer.
L’avantage était la réduction de la perte de temps dû à l’aller-retour des infirmières
entre leur service et les chambres des malades. Ce qui pouvait être critique dans la

                                                                                Page 30
gestion des urgences et salles de soins intensifs ou la surveillance minute après minute
pouvait avoir une incidence vitale sur la vie du patient et l’évolution favorable de son
état.

Exemples à droite des terminaux classiques fixes, à gauche des chariots mobiles avec
                              ordinateurs portables




Hors après de multiples tests visant à analyser la perception du systèmes par le
personnel des hôpitaux (pris entre 30 et 45 ans avec tout type d’expérience des outils
informatiques), il s’est avéré que le matériel était encombrant pour effectuer des
traitements ou pour le passage entre les lits dans les chambres où l’espace exigu
empêchait de procurer les soins dans des conditions d’ergonomie et de confort pour les
infirmières.

L’équipe de chercheurs du laboratoire d’Aalborg ont alors réfléchit un à un système sous
forme d’assistant personnel digital de poche qui permettait de proposer une interface
intuitive et simple de gestion afin d’intégrer les dossiers de clients, les analyses faites, à
faire sans avoir à pousser un chariot et sans réduire leur mobilité dans les chambres lors
de la procuration de soins.

Les premiers tests effectués dans le laboratoire avec des infrastructures identiques à
celles d’une section d’un service d’hôpital, ont démontré encore 9 problèmes majeurs
dont le principal était la compréhension de l’interface. En effet, le personnel quelque
soit son expertise en utilisation informatique à révélé un manque de logique dans la
présentation des informations des données qui étaient formalisés de manière
incohérente par rapport à la pratique des infirmières en temps normal et ne respectait



                                                                                   Page 31
pas les étapes de traitement des patients dans le même ordre logique que le
raisonnement humain.

Une reprogrammation a été donc nécessaire afin d’inclure ce facteur en analysant
pendant 1h près de 38 personnes afin de comprendre leur parcours, leur comportement
et assimiler les étapes de traitement des patients de manière identique sur l’appareil
mobile.

Ceci abouti au bout de 2 ans de pouvoir implanter en situation réelle cet assistant
mobile de poche, qui utilisait un clip de ceinture afin de permettre de garder les mains
libres pour les interventions et de se connecter dans un rayon de 10m aux patients par
l’intermédiaires d’étiquettes RFID intégrées dans les bracelets des patients. Ce qui
permettait instantanément aux infirmières de savoir quels patients étaient présents
dans chaque chambre, quels médicaments, traitements, soins, avec été prodigué et
restaient à être pourvus. L’assistant par une interface très simple autorisait les
infirmières simplement en tapotant du doigts sur un menu d’avoir accès à l’historique
de l’état du patient et de vérifier par des couleurs rouges ou vertes de caractères, les
variations des tests positives ou négatives , effectuées sur leur état de santé et pouvoir
réagir en cas de forte différence ou dégradation de santé de manière plus rapide. Elles
pouvaient également saisir en tout temps des observations ou des remarques
pertinentes au moyen d’un stylet tactile qui leur permettait ainsi d’enregistrer des
annotations ou recommandations ultérieures éventuelles sous forme de mémo stocké
sur l’assistant personnel.

                         Affichage-type d’un assistant sans fil27




Le système en place permettait de mettre à jour automatiquement les données d’autres
infirmières lors de relève de garde à partir du système d’information qui actualise les



                                                                                 Page 32
données en temps réel en fonction des informations saisies par le personnel de l’hôpital
et des données enregistrées par les infirmières sur leur assistant mobile.

Cet exemple illustre bien l’adéquation que l’ubiquitous computing permet à l’utilisation
humaine des applications en permettant une meilleure analyse du contexte dans lequel
évolue un individu avec une technologie en main et de pouvoir proposer une utilisation
qui suggère un comportement optimale en fonction de l’environnement dans lequel il
s’inscrit. Cependant bon nombre de limites sont encore présentes notamment au
niveau de l’harmonisation des utilisations d’applications et de l’utilisation des standards
eux-mêmes qui diffère à un niveau qui dépasse les frontières des pays.



III - Limites et perspectives d’un Internet en pleine mutation

Si le web sémantique est un formidable chantier d’application pour l’avenir au niveau du
quotidien individuel que pour les modèles d’affaires d’entreprises, de nombreuses
interrogations subsistent.

   A) L’intégration des modèles conceptuels de données

L’un des problèmes majeurs existant au niveau de la création d’ontologies, est
l’intégration de concepts de modèles conceptuels différents ou n’utilisant pas la même
linguistiques du fait de langue maternelle du pays et d’une pluralité de langues parlées
au niveau mondial.

De nombreux projet comme celui d’IBM Thinking Ontologies ou de DOLCE Projet du
centre de recherche de Trente en Italie ont réfléchit à une façon de redéfinir les
ontologies de manière à permettre un « alignement » des termes, éléments, classes,
attributs par rapports à des domaines d’application en définissant des correspondances
et des outils de traduction linguistiques de termes sémantiques d’un pays à un autre
afin de permettre l’interaction entre ces ontologies.

Ce projet entrevu dès 1999, consiste à décrire une ontologie supérieure, une sorte de
langage universel qui permettrait à n’importe quelle ontologie de communiquer avec une
autre via des termes standardisé qui permettrait de dépasser la barrière linguistique ou
contextuelle propre à chaque ontologie. Définit par le laboratoire de recherche en
technologies et sciences cognitives de Trente en Italie, le DAML+OIL est vu comme
tremplin à la redéfinition d’instances, classes, substituts, relations afin de faire converger
en un même point toutes les ontologies et permettre leur échange et intégration.



                                                                                    Page 33
Dolce souvent vu comme le mythe de l’ontologie universelle est pour l’instant étudiée
afin de voir les points de connexions entre ontologies, leur qualité de contenu et de
fonctionnement et définir des ontologies catégorielles. Celles-ci se basent sur un domaine
en particulier d’un univers (pour la médecine le domaine génétique, bio-moléculaire,
etc..) et permettent à plusieurs ontologies d’un même domaine de l’utiliser comme
intermédiaire pour communiquer via une structure et une abstraction commune.

Le projet vise à définir une hiérarchie d’ontologies également : ontologie de domaine,
core-ontology et top-ontology. La core-ontology étant encore plus basique que
l’ontologie de domaine permettant à l’entendement humain d’être comprise, la top-
ontology qui se situe au niveau de l’univers (science, finance, économie…).

Dolce permet de définir des classes d’ontology de manière itérative de l’ontologie la plus
spécialisée à l’ontologie la plus globale. Cette catégorisation va permettre d’harmoniser
les ontologies entre elles pour améliorer leur alignement et la traduction d’éléments
synonymes afin d’accroître l’interopérabilité entre ontologies 28.

Néanmoins, les limites constatées sont une « librairie » d’éléments, classes, définis sous
formes de framework, standards qui reste limitée et pauvre. Dolce se sert des ontologies
dites matérielles et plus spécialisées pour alimenter sa propre ontologie et permettre
l’échange commun de données. Elle ne peut être utilisée qu’à un stade intermédiaire pour
rassembler des ontologies de domaines simples mais se limite à un échange très
sommaire d’informations et de processus entre ontologies. Elle utilise le SPARQL pour
permettre la traduction des requêtes considérées comme similaires ou pouvant opérer
entre elles entre ontologies mais cela reste à un niveau encore trop limité pour le moment
pour envisager une communication plus détaillée et aboutie.

                              Schéma explicatif du projet




                                                                                Page 34
Ainsi si les protocoles tels que SPARQL , les plug-ins Watson Gateway de logiciels
    tels que Protégé permettent d’effectuer l’intégration de raisonnement entre concepts
     de deux ou plusieurs ontologies, la fusion des base de connaissance reste difficile à
   établir, car la description des métadonnées supporte une pluralité de sens au niveau du
          web sémantique qui n’est pas différenciable par les outils d’analyse et de
   conceptualisation, tant qu’un sens commun, une entité commune n’est pas instauré et
                              compréhensible de manière standard.

     C’est ainsi que l’on constate que 90% des outils tels que Watson ou et Poweraqua,
     Power Magpie donne un sens erroné au terme « assumption », lorsque quasiment
       toutes les revues écrites académiques cernent le sens commun et authentique.

     La « désambigüisation » des concepts est un des domaines de travaux actuels. Des
           chercheurs autrichiens de Vienne sont depuis 200629 sur un projet d’outil
         d’annotation qui permet de réfléchir à la manière dont doivent être perçus les
     concepts avant d’être incorporés dans des ontologies, en s’intéressant à la manière
        dont ils sont catégoriser, la nature des informations, attributs, inférence devant
     accompagner chaque notion, chaque services d’entreprise au niveau des ontologies
     d’entreprise. La difficulté est également de permettre une plateforme logicielle qui
    établissent les échanges et similarités de concepts pour soit éliminer les redondances
       entre ontologies soit permettre l’échange d’information et les relations entre les
    attributs d’ontologies différentes au sein d’un même modèle fonctionnant grâce à des
                           standards XML,HTML,JAVA,OWL,RDF.



       B) Le traitement des données incertaines

Autre frein observé au niveau de la gestion de la connaissance et du fonctionnement des
ontologies et de l’analyse des informations au niveau sémantique et plus globalement de
la compréhension des informations porte sur l’incertitude, l’improbabilité.

En effet, le web sémantique s’appuie sur des concepts, des processus dont le sens est
formalisé, commun, irréfutable ou à très forte probabilité quand à la nature des
information que les concepts et leurs attributs renferment.

Hors, ne pas pouvoir prévoir d’un ouragan s’abat en Floride à telle heure, tel jour,
détruisant les principales plateforme pétrolière maritimes, est synonymes de millions de
dollars de pertes pour les industries qui opèrent dans ce domaine et a une incident encore
plus vaste sur l’inflation du baril de pétrole et la consommation des ménages ensuite.




                                                                                Page 35
Ce type d’événement définit une première catégorie d’informations incertaines : les
données bien définies mais imprévisibles. Ceci est du au caractère aléatoire et spontané,
insondable d’informations.

Le second type d’information, tout autant problématique concerne les concepts, les
données, sur lequel le doute se porte à la fois sur le contenu de l’information, sur son
champ d’action, sur la source qui fournit l’information mais aussi sur la fiabilité.

Cet type de données peu ainsi révéler une erreur de saisie, mais également porter sur une
pluralité de sens quand au concept en lui-même sur lequel des avis divergents feignent de
se ranger à un avis commun, ou encore le manque d’expérience ou d’avis concernant un
fait, un données ne permet pas de qualifier, certifier l’exactitude d’une information, parce
qu’elle touche un domaine trop pointu ou émergent sur lequel la réflexion de chercheurs,
d’analystes, n’ont pas encore pointé dessus et une signification réelle, une élaboration de
métadonnées restent à produire.

Il s’agit dans ce cas soit de créer une probabilité fondée sur l’ « endorsement » ou
ralliement, c’est-à-dire sur le nombre et la qualité des personnes exprimant un même
point de vue sur une information, ce que l’on appelle la technique des « logiques floues »,
ou encore en utilisant des avis de personnes ayant l’expertise du domaine du concept et
permettant de créer des métadonnées qui autoriseront à donner une meilleur probabilité à
la certitude et exactitude des données. Le modèle conceptuel de ces probabilités
s’effectue alors de manière inversée, en partant de l’information la plus incertaine pour
apporter une clarification à son sens à la véracité attribuable à celle-ci pour remonter
jusqu’au concept et au domaine d’incertitude de l’information et pouvoir ainsi créer la
fonction de croyance ou belief fonction.

A mi-chemin de la conceptualisation, un autre souci plus subjectif lui aussi pose
problème quand au véritable sens d’une information : l’ambigüité. En effet, une
information peut changer totalement de signification selon le contexte ou le domaine
d’application. Un titre de journal qui annonce « Microsoft a dit bonjour au logiciel
libre » peut être compris au Québec comme « Microsoft a fermé la porte au monde du
logiciel libre », tandis que les autres francophones comprendront que « Microsoft accepte
de collaborer avec le monde des logiciels libres ». La même information en fonction de
son contexte économique, culturel peut amener à une compréhension erronée ou
imprécise de l’information ce qui instaure une improbabilité que l’information soit fiable
et exacte dans le sens commun où elle est voulue au départ.




                                                                                  Page 36
Modèle conceptuel de Fischer en 2005 sur le traitement de l’incertitude




    C’est ainsi qu’au niveau des architecture d’entreprises, en 1987, un employé d’IBM
 nommé John Zachman, mis en place un cadre de travail sur l’incohérence au niveau des
   systèmes d’information des architectures d’entreprise en proposant un cadre avec des
 entrées horizontales et verticales définissant les 6 différentes questions à se poser sur les
 informations (qui, pourquoi, où, comment, quand et quoi) ainsi que 6 modèles possibles
de représentation des différentes perceptions de concepts dans l’entreprise. Ce modèle fut
      très utilisés pour la transversalité qu’il offrait au niveau de la réflexions sur les
                                  incohérences de systèmes30.

                                            Modèle de Zachman31

  Le cadre Zachman
                               Données -                    Activités -                    Emplacement -
                               Quoi ?                       Comment ?                      Où ?
  Portée (contextuelle)        Liste des éléments           Liste des processus exécutés   Liste des lieux où est
  Planificateur                importants pour l'activité   par l'activité                 exercée l'activité
                               Modèle de données
  Modèle métier (conceptuel)                                Modèle métier                  Modèle logistique
                               conceptuelles
  Modèle système (logique)     Modèle de données logiques Architecture de programmes       Architecture SI distribuée
  Modèle de technologie        Modèle de données            Modélisation de systèmes       Architecture
  (physique)                   physiques                    (fonction informatique)        technologique
  Représentation détaillée
                               Définition des données       Programmes                     Architecture réseau
  (hors contexte)
  Le fonctionnement "réel"
                               Données métier réelles       Code du programme              Réseau physique réel
  de l'entreprise
                                                                                               Source : BPMS / 2007




                                                                                                           Page     37
Le cadre Zachman (suite)
                             Personnel -                   Temps -                        Motivation - Pourquoi
                             Qui ?                         Quand ?                        ?
  Portée (contextuelle)      Listes des organisations      Liste des évènements           Liste des objectifs
  Planificateur              importantes pour l'activité   significatifs pour le métier   métiers stratégiques
  Modèle métier
                             Modèle hiérarchique           Modèle temporel                Modèle d'objectifs
  (conceptuel)
  Modèle système (logique)   Interface homme / document    Structure de traitement        Modèle de règle métier
  Modèle de technologie      Matrice organisation /
                                                           Structure de contrôle          Modélisation des règles
  (physique)                 processus
  Représentation détaillée
                             Architecture de sécurité      Définition du calendrier       Spécification des règles
  (hors contexte)
  Le fonctionnement "réel"
                             Organisation métier réelle    Planning                       Stratégie réelle
  de l'entreprise
                                                                                             Source : BPMS / 2007




Autre méthode utilisée pour le traitement de l’incertitude, le processus MDA ou

Model Driven Architecture, qui fut créé sur les base du langage de modélisation des
objects OCL, créé en 1995 par Cook et Warmer chez IBM, et qui travaillèrent par la suite
dans l’Object Management Group pour construire un modèle qui tendrait vers
l’abstraction des éléments afin de pouvoir mieux assigner du sens et une perception
unique des objets. Ce modèle considérait les programmes informatiques eux-mêmes
aussi comme des abstractions et définit plusieurs niveaux partant de l’aspect général
d’une donnée vers un modèle expressif et contextuel. Cela passe par un changement
d’état des concepts en y ajoutant un degré de sens et de raisonnement pour accéder à
un modèle MDA final. Les étapes intermédiaires passent par l’enrichissement de sens
des concepts et l’ajout de métadonnées de haute qualité pour pouvoir cerner le
contenu de l’information sans avoir à l’analyser en profondeur32.

Enfin, il est à noter que les agents intelligents sont souvent utiliser pour leur capacité à se créer
leur propres fonctions de croyances et à utilisés les logiques floues en adaptant le langage des
ontologie en langage Pr-OWL qui raisonne en utilisant des algorithmes de calculs pour définir
dans des tableaux des probabilités quant à l’exactitude des informations et à leur fiabilité.



    C) E-gouvernement : un enjeu international

Dès 1998, le Secrétariat Général du Trésor du gouvernement du Canada a instauré une
administration compétente nommée Service Canada pour gérer les services en ligne aux
citoyens et faciliter leurs demandes dans les deux langues : français et anglais.

L’e-gouvernement bien au-delà de voir l’aspect Internet des ministères a pour finalité de
permettre une meilleur coordination des systèmes administratifs afin d’offrir une meilleur prise
en charge des citoyens dans leur demandes officielles.


                                                                                                         Page    38
L’objectif essentiel se situe à 3 niveaux essentiellement :

    -   Du gouvernement vers les administrations publiques et collectivités

    -   Entre administrations et entre ministères

    -   Des administrations publiques vers les citoyens

Concernant le plus ce dernier niveau, il a été important d’abandonner l’utilisation de services
organiser en silo épars qui entraînaient une rigidité et une lenteur des services rendus aux
citoyens et constituer des base de connaissances disparates sans connexions entre elles et se
limitant à une application précise et sans lien avec les autres applications externes.

Il a fallu réorganiser cette structure sous forme de « grappes » qui regroupe en rubriques, puis
en domaine principaux les services des différentes administration afin de permettre un
regroupement des personnels affectés et d’instaurer une coordination commune.

L’objectif est à un niveau supérieur concernant le gouvernement en lui-même car les ministères
sont très réticents face au changement, appuyés par le lobbying de principale société comme
Bombardier, Industrielle Alliance qui sont des exemples de poids lourds du Produit Intérieur
Brut national au Canada et donc la résistance au changement met un frein au déploiement de
nouvelles technologies afin d’améliorer les systèmes administratifs et gouvernementaux.

Mis à part cette résistance au changement, cette nouvelle architecture de l’information
nécessite de réviser en profondeur les processus comme c’est le cas pour le vote électronique.

En effet, ce cas d’application de gouvernement électronique a soulevé d’énormes débats
concernant la réglementation de ce type de service, qui se différenciait des procédures de votes
et de décomptage manuels. La sécurité fut ainsi au cœur de la réingénierie des processus en
Angleterre par exemple, où des problèmes se posaient quand à la préservation de l’anonymat
et à la gestion de la fraude et de défaillances informatiques des machines à voter.

Il fallu également créer un cadre de responsabilisation des autorités locales en charge de ce
type d’événements politique et définir le rôle précis de chacun pour veiller au bon déroulement
des votes33.

Des applications professionnelles voient le jour parmi les administrations européennes,
notamment les pionniers que furent la Finlande, Belgique et Italie. Elles touchent le domaine
des affaires électroniques avec notamment la disparition de la carte d’identité papier au profit
d’une carte électronique à puce assurant une sécurité accrue. Les entreprises y ont vu un intérêt
substantiel lors de signatures de contrat. Étant donné la valeur juridique reconnue depuis 2001
de la signature électronique, la combinaison avec une pièce d’identité du même format, permet
d’authentifier les transactions professionnelles. C’est ainsi que les compagnies européennes ont
fait la demande d’un accord avec la société Adobe pour utiliser le format PDF dans les contrats
d’entreprise et pouvoir vérifier de manière sure l’identité des contractants avec la signature et

                                                                                       Page 39
l’eID, nom de la futur carte d’identité qui est en réflexion depuis 200534.Le sujet du dédouanage
ou de la défiscalisation en ligne a été entrevue comme futurs services aux particuliers et
entreprises à venir.




Le potentiel est énorme lorsque l’on sait que par exemple 45% des européens ont consultés au
   moins une fois des informations sur les sites de l’administration publique en ligne, avec la
Finlande en tête (62%), et que la Suède par exemple est en tête des utilisation professionnelles
  des administrations en ligne avec un taux de 94% constaté sur l’année 2005,selon le cabinet
                               d’analyses statistiques Eurostat35.

Cependant l’absence d’uniformisation des législations et des réglementations internationales
opèrent des obstacles à la collaboration entre les gouvernements nationaux, notamment en
Amérique du Nord où affecté par la culture, les pratiques disparates des gouvernements, des
difficultés d’échanges d’information et de correspondances de normes s’établit entre Canada,
États-Unis et Mexique. D’autant plus que le manque de transparence bloque les échanges et
empêche des services d’êtres mis en place.

La solution doit passer par l’élargissement de standards tels que l’ISO 15489 concernant les
documents électroniques ou l’amélioration de l’éthique au niveau de la gouvernance des
nations afin d’accélérer ce changement de mentalité et restructurer de manière homogène les
fonctionnements de gouvernement en ligne entre les continents.

Le président Obama a essayé d’entrevoir une possible entente et intégration du Canada au sein
de la NAFTA ou ALENA (Association de Libre 2change Nord Atlantique) afin de travailler sur une
plus grande collaboration du commerce continental et harmoniser les procédures, ce qui aura
nécessairement des répercussions sur la vision d’e-gouvernement entre Canada et États-Unis.

Ce document ne présente qu’un bref aperçu des possibilités et un excellent document émanant
de la société Gemalto, leader mondial de la sécurité informatique, explique de manière très
détaillée par secteur et applications les avancés récentes au niveau européen sur
l’administration en ligne, que vous pourrez parcourir avec le lien suivant :
http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf.

                                                                                      Page  40
Conclusion


Internet a connu durant les années 1990 un progrès essentiellement technique. Le web
sémantique et les nouvelles technologies, d’e-gouvernement, d’informatique omniprésente,
nous ont montré en quoi Internet convergeait vers un progrès désormais organisationnel à tous
les niveaux, que ce soit au niveau fondamental de la connaissance, avec une perception
nouvelles des concepts et la recherche essentielle du sens, de la qualité des informations et de
l’interopérabilité des services webs en réseau.

L’apparition d’outil permettant une plus grande flexibilité et rapidité de traitement des
informations permet de remodeler les processus d’affaires électroniques et de faciliter
l’émergence de standards et cadres de travaux communs afin de développer un monde
d’affaires plus collaboratif et basé sur l’interaction, l’échange d’information et une meilleure
qualité des informations, et une meilleur compréhension de l’utilité de développer toujours plus
les infrastructure en technologies de l’information afin de parer à la complexité et densité des
flux de données qu’intègres les systèmes et bases de données de manière exponentielle.

La collaboration passe également par l’adaptation des réseaux à une logique d’affaires, à un
comportement social afin de faciliter l’intégration de solutions nouvelles dans l’atteinte des
objectifs professionnelles, publiques, ou privés.

Un meilleur partage de l’expérience sur les connaissances permettra de développer sans aucun
doute d’ici une vingtaine d’années un Internet plus autonome, coopératif, simple d’accès et
qualitatif. En ce sens ils se décisifs de toujours adapter la technologie par rapport à une finalité
commune et non prendre celle-ci pour un but en soi. Internet, quelque soit l’ampleur
grandissante qui lui sera attribuée ne devra pas occulter de nos esprits qu’un progrès du
commerce électronique et d’Internet passe d’abord par une réflexion sur les besoins, les
faiblesses, l’analyses de nos ressources et un cadre de travail et de planification précis afin
d’atteindre ce but et utiliser internet comme tremplin de développement d’opportunités
d’affaires.




                                                                                         Page  41
Bibliographie et Webographie


1
 Semantic Web, d’après une entrevue entre le magazine Scientific American et Tim
Berners-Lee en mai 2001 :

http://www.sciam.com/article.cfm?id=the-semantic-web

2
 Article Extensible Markup Language (XML) 1.0 (Second Edition),W3C Recommendation,
6 October 2000:


http://www.w3.org/TR/2000/REC-xml-20001006

3
    “Fact system”, université de Manchester, Ian Horrock:

http://www.cs.man.ac.uk/~horrocks/FaCT/
4
    Présentation du projet Enersearch :

www.ontoknowledge.org/downl/3review-del28.ppt


5
    Voir l’article « Sears peut-elle se réinventer? » :

http://www.polytech.unice.fr/~hugues/MIS/EDHEC1/Etude%20de%20cas%20SEARS.pdf



6
    “Service Oriented Architecture Standards”,Jim Rubert :

http://www.w3.org/2007/01/wos-papers/boeing
7
    Plus de détails dans l’article Service Oriented Enterprise téléchargeable à l’adresse suivante :

http://www.zdnet.fr/livres-blancs/0,39035134,60243299p-39002695q,00.htm
8
 « Réussir une transformation bancaire », d’après une interview réalisée en 2006 auprès du
vice-président de la direction du centre de l’excellence de l’Architecture Orientée Service du
réseau Nordea, M.Siamak Amjadi :

http://www.atelier.fr/applications-it/7/23102007/accenture-bea-soa-banque-35430-.html




                                                                                          Page  42
9
   D’après l’article “Swedish Railways Implements JBoss Enterprise SOA Platform For Improved
Performance and Customer Service”:

http://www.jboss.com/pdf/SwedishRailroads_casestudy.pdf

10
    schéma extrait de l’article “Methodology for Development and Employment of Ontology
based Knowledge Management Applications”, rédigé en 2002 par York Sure, Steffen Staab et
Rudi Studer membres de l’ Institut für Angewandte Informatik und Formale
Beschreibungsverfahren aus Karlsruhe: http://lsdis.cs.uga.edu/SemNSF/SIGMOD-Record-
Dec02/Sure.pdf



11
     Présentation du logiciel plus en détails: http://watson.kmi.open.ac.uk/Overview.html



12
  Schéma extrait de l’article « Toward a New Generation of Semantic web Applications »,
rédigé par Mathieu d’Aquin, Enrico Motta, Marta Sabou, Sofia Angeletou, Laurian Gridinoc,
Vanessa Lopez, and Davide Guidi, Open University, paru en mai 2008 sur le site IEEE computer
Electronic.
13
     Information relevée sur le site internet du logiciel : http://protege.stanford.edu
14
 Artificial Intelligence: A Modern Approach by Stuart Russell and Peter Norvig, 1995 Prentice-
Hall, Inc : http://www.cs.berkeley.edu/~russell/aima1e/chapter02.pdf



15
   “A framework for dynamic knowledge exchange among intelligent agents”,publié au
American Association for Artificial Intelligence (AAAI) Symposium Control of the Physical World
by Intelligent Agents, New Orleans, LA, USA, November 1994 :

http://www.cengeloglu.com/pub1.html



16
  « Multi-agents et CORBA », rédigé par Philippe Merle Jean-Marc Geib, Laboratoire
d’Informatique Fondamentale de Lille en France :

: www2.lifl.fr/~merle/papers/95_GANYMEDE.ps.gz

17
     D’après l’article «On the Architectures of Complex Multi-Agent Systems », Huaglory Tianfield *,
Jiang Tian, de l’université de Glasgow en Ecosse et Xin Yao, de l’université de Birmingham
au Royaume-Uni, publié en 2003 :


                                                                                             Page  43
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.58.393
18
     Next-link project : http://www-cdr.stanford.edu/html/NextLink/NextLink.html



19
   Schéma extrait de l’article « Traffic Signal Using Smart Agent System », publié en 2008 dans
l’American Journal of Applied Sciences, rédigé par Cheonshik Kim et You-Sik Hong, chercheurs
de l’université d’Anyang en Corée du Sud:

http://www.scipub.org/fulltext/ajas/ajas5111487-1493.pdf
20
 L’avenir de la RFID, centre de recherche public Henri Tudor, paru le 29 novembre 2005 par le journal
Quotidien:

http://www.tudor.lu/cms/henritudor/content.nsf/id/WEBR-7DSGJN?opendocument&language=fr



21
   « RFID, mode d’emploi »,livre blanc, mai 2005, Stéphane Boss,responsable de la distribution
Microsoft :

http://www.logistique.com/image/stock-distribution/Microsoft-Distribution-RFID.pdf



22
     RFID et logistique, site internet ZDnet :

http://www.zdnet.fr/actualites/informatique/0,39040745,39139364,00.htm



23
     RFID, Normes et Standards, Xavier Barras, directeur EPCglobal France :

http://www.tracabilite.org/Media/pdf/documentation/presentations/Salon06/ME1_GS1_Xavier
_BARRAS.pdf



24
     Site internet Atelier : http://www.atelier.fr/article.php?artid=28474



25
  D’après le livre “Ubiquitous computing in the real world: lessons learnt from large scale RFID
deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8 Novembre 2006.



26
  D’après « Group Transport Planning and London Travel Report 2005 », émanant du Transport
for London et de la note 25 précédente.

                                                                                            Page  44
27
   Capture extraite de l’article : “Ubiquitous computing in the real world: lessons learnt from
large scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8
Novembre 2006.




28
     D’après les recherches suivantes :

Semantic Integration: A Survey Of Ontology-Based
“Approaches” (Natalya F. Noy, Stanford Medical Informatics, Stanford University,
SIGMOD Record, Vol. 33, No. 4, December 2004):

http://www.sigmod.org/sigmod/record/issues/0412/13.natasha-10.pdf

WonderWeb Deliverable D17, The WonderWeb Library of Foundational Ontologies,
Preliminary Report (Claudio Masolo, Stefano Borgo, Aldo Gangemi, Nicola Guarino, Alessandro
Oltramari, Luc Schneider, ISTC-CNR):
http://www.loa-cnr.it/Papers/DOLCE2.1-FOL.pdf
29
  Présentation d’outils d’annotation sémantique donnée faite au “2nd International Workshop
on Enterprise and Networked Enterprises Interoperability”,ENEI’2006 – Vienna – September, 4
2006:

http://www.loria.fr/~nacer/ENEI06/10-Invited-Talk.pdf



30
     Article publié le 4 avril 2008 sur le site internet JDN Solution :

http://www.journaldunet.com/solutions/acteurs/classement/08/bpms/0404-zachman.shtml



31
     Tiré de BPMS,2007.
32
  École de technologie supérieure Département de Génie logiciel et des TI de l’université UQAM
de Montréal, « Document thématique OCL et MDA » :

https://cours.ele.etsmtl.ca/academique/mgl/mgl806/Cours/Theme06_OCL.pdf


33




                                                                                       Page  45
Voir l’article: “Using Business Process Re-engineering (BPR) for the Effective Administration of
Electronic Voting”,rédigé par Alexandros Xenakis et Ann Macintosh, International
Teledemocracy Centre, Napier University, Edinburgh Scotland UK:

http://www.ejeg.com/volume-3/vol3-iss2/XenakisAlexandrosandMacintoshAnn.pdf



34
     Article paru sur le site Pcimpact le 10 avril 2005 :

http://www.pcinpact.com/actu/news/La_carte_didentite_garante_des_formats_PDF_en_Belg.h
tm


35
     « E-gouvernement 2.0 »,Gemalto, septembre 2007 :

http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf




                                                                                       Page  46

Weitere ähnliche Inhalte

Ähnlich wie Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

Les professionnels de l'information face aux défis du Web de données
Les professionnels de l'information face aux défis du Web de donnéesLes professionnels de l'information face aux défis du Web de données
Les professionnels de l'information face aux défis du Web de donnéesGautier Poupeau
 
PowerPoint sur le Web 2.0
PowerPoint sur le Web 2.0PowerPoint sur le Web 2.0
PowerPoint sur le Web 2.0guest4ca1b
 
Slideshare - Web 2.0
Slideshare - Web 2.0Slideshare - Web 2.0
Slideshare - Web 2.0agirard003
 
Le Web 2.0
Le Web 2.0Le Web 2.0
Le Web 2.0clemdups
 
Introduction au web des données (Linked Data)
Introduction au web des données (Linked Data)Introduction au web des données (Linked Data)
Introduction au web des données (Linked Data)BorderCloud
 
Le Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entrepriseLe Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entreprisemastertic
 
Le Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entrepriseLe Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entreprisemastertic
 
Le Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entrepriseLe Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entreprisemastertic
 
55174240 rapport-cloud-computing
55174240 rapport-cloud-computing55174240 rapport-cloud-computing
55174240 rapport-cloud-computingnoussa krid
 
Dodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi Mbuta
Dodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi MbutaDodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi Mbuta
Dodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi MbutaDaniella Mbuta
 
évolution du Web 2.0
évolution du Web 2.0 évolution du Web 2.0
évolution du Web 2.0 Moutea Elaoufi
 
Web Semantique
Web SemantiqueWeb Semantique
Web SemantiqueMimi0509
 
Présentation du web 2.0 pour l'association Granit
Présentation du web 2.0 pour l'association GranitPrésentation du web 2.0 pour l'association Granit
Présentation du web 2.0 pour l'association GranitOlivier Le Deuff
 
Ecole ESMA : Rapport de projet - Application de gestion d'une bibliotheque
Ecole ESMA : Rapport de projet - Application de gestion d'une bibliothequeEcole ESMA : Rapport de projet - Application de gestion d'une bibliotheque
Ecole ESMA : Rapport de projet - Application de gestion d'une bibliothequeMehdi Hamime
 
Gestion des contenus d'entreprise: clarification des notions
Gestion des contenus d'entreprise: clarification des notionsGestion des contenus d'entreprise: clarification des notions
Gestion des contenus d'entreprise: clarification des notionsPatrick Genoud
 
Le web 3.0 ie rie 25 apr 2008
Le web 3.0 ie rie 25 apr 2008Le web 3.0 ie rie 25 apr 2008
Le web 3.0 ie rie 25 apr 2008mroussin
 

Ähnlich wie Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent (20)

Les professionnels de l'information face aux défis du Web de données
Les professionnels de l'information face aux défis du Web de donnéesLes professionnels de l'information face aux défis du Web de données
Les professionnels de l'information face aux défis du Web de données
 
PowerPoint sur le Web 2.0
PowerPoint sur le Web 2.0PowerPoint sur le Web 2.0
PowerPoint sur le Web 2.0
 
Slideshare - Web 2.0
Slideshare - Web 2.0Slideshare - Web 2.0
Slideshare - Web 2.0
 
Le Web 2.0
Le Web 2.0Le Web 2.0
Le Web 2.0
 
Web 2.0
Web 2.0Web 2.0
Web 2.0
 
Introduction au web des données (Linked Data)
Introduction au web des données (Linked Data)Introduction au web des données (Linked Data)
Introduction au web des données (Linked Data)
 
Web 3.0
Web 3.0Web 3.0
Web 3.0
 
Le Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entrepriseLe Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entreprise
 
Le Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entrepriseLe Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entreprise
 
Le Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entrepriseLe Web comme plateforme TIC pour l'entreprise
Le Web comme plateforme TIC pour l'entreprise
 
55174240 rapport-cloud-computing
55174240 rapport-cloud-computing55174240 rapport-cloud-computing
55174240 rapport-cloud-computing
 
Dodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi Mbuta
Dodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi MbutaDodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi Mbuta
Dodi_Mbuta_La création d'un web service : « Note Reminder » _ Dodi Mbuta
 
évolution du Web 2.0
évolution du Web 2.0 évolution du Web 2.0
évolution du Web 2.0
 
Web Semantique
Web SemantiqueWeb Semantique
Web Semantique
 
Web 3.0
Web 3.0Web 3.0
Web 3.0
 
Présentation du web 2.0 pour l'association Granit
Présentation du web 2.0 pour l'association GranitPrésentation du web 2.0 pour l'association Granit
Présentation du web 2.0 pour l'association Granit
 
Ecole ESMA : Rapport de projet - Application de gestion d'une bibliotheque
Ecole ESMA : Rapport de projet - Application de gestion d'une bibliothequeEcole ESMA : Rapport de projet - Application de gestion d'une bibliotheque
Ecole ESMA : Rapport de projet - Application de gestion d'une bibliotheque
 
Web 2.0 Wikipedia
Web 2.0 WikipediaWeb 2.0 Wikipedia
Web 2.0 Wikipedia
 
Gestion des contenus d'entreprise: clarification des notions
Gestion des contenus d'entreprise: clarification des notionsGestion des contenus d'entreprise: clarification des notions
Gestion des contenus d'entreprise: clarification des notions
 
Le web 3.0 ie rie 25 apr 2008
Le web 3.0 ie rie 25 apr 2008Le web 3.0 ie rie 25 apr 2008
Le web 3.0 ie rie 25 apr 2008
 

Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

  • 1. MBA affaires électroniques Johann Lovato Matricule de dossier 08 125 684 SIO-66087 : Entreprise digitale Rapport de session automne 2008 : Web 3.0 ou l'évolution vers un réseau Internet intelligent Page 1
  • 2. Sommaire Introduction…..………..……………………………………………………………………...3 I. Web sémantique…………………………………………………………………………….4 A. Un langage propre : OWL………………………………………………………………………..…4 B. Une nouvelle structure d’entreprise : l’architecture orientée service............................6 C. Les nouvelles applications concrètes pour les processus d’affaires……………………..….9 II. WEB 3.0: évolution vers l’intelligence des réseaux………………………………………...12 A. Les outils de raisonnement conçus pour les ontologies……………………..…………..…..13 B. Les systèmes multi-agents………………………………………..…………….……….…...20 C. RFID: la voie royale vers une traçabilité absolue................................................................. 24 D. L’informatique omniprésente change les mentalités………………………………..............30 III. Limites et perspectives d’un Internet en pleine mutation……………………………………….33 A. L’intégration et fusion des modèles conceptuels.................................................................... 33 B. Le traitement des données incertaines: un chantier à long terme.......................................... 35 C. E-gouvernement: un enjeu international…………….……………………………………... 38 Conclusion…............................................................................................................................... 41 Bibliographie et Webographie..................................................................................................... 42 Page 2
  • 3. Introduction L’évolution de l’internet s’est réalisée de manière très rapide depuis 2001 et a marqué une nouvelle étape avec l’émergence du WEB 2.0, un internet participatif qui a changé profondément la structure du commerce électronique et s’axe beaucoup plus sur la participation commune, la collaboration entre partenaires, avec l’expansion actuelle des logiciels libres qui vont accroître davantage cette ouverture du monde des affaires électroniques. Nous étudierons tout d’abord un concept qui, bien que présenté dès 1993 par Tim Bernes Lee, n’a commencé à être sérieusement appliqué que depuis 2003-2004 : le web sémantique. Nous verrons comment ce réseau donne une vision plus globale de l’internet et contribue à construire un Internet qui a du sens, une structure autonome et à donner cette intelligence, flexibilité, rapidité à la gestion de la connaissance. Nous verrons ensuite les répercussions sur la restructuration et réingénierie des systèmes d’information et des architectures d’entreprise en expliquant quels sont les nouveaux enjeux, perspectives pour le commerce électronique. Nous nous arrêterons sur une notion de plus en plus présente : l’e-gouvernement. La seconde partie abordera les outils permettant d’exploiter cette approche nouvelle des connaissances en analysant en profondeur des concepts-clés tels que les ontologies et modélisation de concepts en montrant leurs implications au niveau des processus d’affaires. Ces principes seront illustrés par les notions d'agents intelligents, de technologies telles que RFID ou Ubiquitous Computing (informatique omniprésente) et montrerons l'impact de ces nouvelles technologies et quelles améliorations concrètes sont escomptées, à exploiter ou à perfectionner. Enfin la dernière partie fera un constat des limites actuelles du web sémantique et des projets à venir, solutions en études qui sont en chantier pour les prochaines décennies et quel est l’avenir proche d’Internet. La conclusion établira une synthèse des éléments-clés du web sémantique et de leurs débouchés économiques, financiers, politique, individuels. Page 3
  • 4. I – Web sémantique Les gestionnaires de l’information et les architectes web n’ont désormais plus qu’un mot à la bouche lorsque l’on aborde le sujet d’Internet : les services web. Or avant d’y parvenir, il a fallu reconstruire une nouvelle perception du réseau et effectuer une mutation d’un système d’information syntaxique vers un système de la connaissance qui a abouti au web sémantique. A) Un langage propre : OWL Pour comprendre la source de ce basculement, il faut remonter à 1999, lorsqu’à la veille du nouveau millénaire et des spéculations énormes qui pesaient déjà sur les investissements de la nouvelle technologie de l’Internet par les entreprises, Tim Berners Lee, fondateur du World Wide Web en 1990, commença ses travaux et sa réflexion sur l’évolution déjà future des réseaux informatiques dans son livre intitulé « Weaving the web » où il exprimait déjà la notion de « connaissance » et de « sens » propre à cette technologie1. Mais le 10 février 1998 fut le départ d’une formidable aventure avec la certification du langage XML 1.0 aboutissement d’une longue recherche de deux années de Michael McQueen, développeur de langages de balises jusqu’alors connu grâce au SGML mais qui posait des soucis de standardisation. Le langage XML était le premier langage à pouvoir structurer le contenu de l’information de manière en éléments simples, complexes, en langage compréhensible par l’individu, tout en ayant un format adaptable au standard du World Wide Web et un code ouvert à une évolution future de son exploitation2. Le XML obtenait ainsi en 1998 une norme ISO de la part du consortium W3C fondé par Tim Berners Lee en 1994. Diverses recherches conduisirent ce dernier à définir concrètement un point de départ du Semantic Web sur le fond de recherches d’ingénieurs qui abouti en 1999 à un cadre de description nommé RDF, qui utilisé avec la syntaxe et la définition de schémas XML allait permettre une vision totalement différente et pionnière d’Internet. Le Resource Definition Framework a constitué le premier cadre vers un modèle conceptuel de données. Il intègre l’énumération des éléments, des attributs et une liste exhaustive des caractéristiques s’y rapportant. Le XML avait un souci de représentation en page web cependant car il structurait le contenu tandis que le langage HTML le présentait, ce qui a obligé le développement d’un modèle XSL (eXtensible Stylesheet Language) qui a permis d’intégrer le XML dans les page HTML et de donner naissance au langage XHTML. De l’utilisation conjointe du XHTML du RDF est né le RDFS ou schéma Page 4
  • 5. RDF qui permet de décrire la structure, le fonctionnement de ces éléments sur Internet et de voir désormais les informations comme une arborescence d’éléments, contenant des sous-éléments et permettant de regrouper les données en blocs, construire une interaction entre ces éléments, définir la manière dont les éléments s’échangeaient de l’information sur le réseau. Cependant ce schéma RDF était assez rudimentaire. L’idée de Berners Lee, Roland Wagner, et plusieurs membres du W3C était d’apporter une notion temporelle à ce modèle conceptuel de données afin qu’il puisse traiter l’information de manière autonome, sans interaction humaine et sache prendre en considération l’évolution des termes, des concepts, du sens, de la définition de la sémantique, en permanence. Le but était de préserver l’intégrité du modèle de manière permanente. Cela nécessitait de créer un langage propre à cette ontologie qui puisse regrouper l’ensemble des éléments, inférences, interactions, classes, sous-classes et devait permettre d’ajouter du sens et maintenir un raisonnement qui permettent de mieux comprendre les activités notamment dans les processus d’affaires, en les découpant en objets, hiérarchisés, interagissant entre eux et aboutissant à un mappage des domaines, activités, rubriques, applications, sous-applications des entreprises dans leur commerce électronique. C’est ainsi qu’est apparu en 2001 le Web Ontology Working group. Effectuant des recherches plus poussée pour exploiter le XML et les schémas RDF, les chercheurs ont abouti au langage OIL (Ontology Inference Layer). Celui-ci s’appuyait sur des descriptions d’attributs beaucoup plus riches et permettait de définir des domaines particuliers avec les classes d’objets qui y correspondaient. OIL s’appuyait également sur le FaCT3 (Fast Classification of Terminologies) qui permettait de constituer une base de connaissances sur les différentes hiérarchies de classification et de types de classes d’objets selon les domaines demandés. OIL a permis des applications dans les ressources humaines, où le partage de la connaissance représente d’énormes quantités d’informations stockées sur les systèmes et a permis de les structurer notamment dans des entreprises comme Enersearch, afin de permettre une meilleur modélisation des connaissances des activités et communication des processus d’affaires à ses actionnaires4. De son côté, le département de la défense américaine a travaillé en parallèle depuis 1960 sur son propre réseau sémantique et le DARPA (Defense Advanced Research Projects Agency) a établit son langage propre : le DAML ou DARPA Agent Markup Language. Afin d’harmoniser l’OIL et le DAML, le W3C proposa une syntaxe commune DAML+OIL et qui devint le 10 février 2004 le langage officiel du web sémantique sous une appellation définitive : OWL (Ontology Web Language). Page 5
  • 6. B) Une nouvelle structure d’entreprise : l’Architecture Orientée Services Le commerce électronique a très vite compris l’avantage que pouvait procurer l’utilisation du web sémantique, car jusqu’alors les organisations étaient structurées en divisions, chacune indépendante, sans aucun lien entre les activités ni interconnexions entre les bases de connaissances. Les systèmes d’informations se retrouvaient ainsi dupliqués, avec une valeur dégradée, rigide, utilisée uniquement de manière ponctuelle. Le modèle conceptuel de données que proposent les ontologies, sur lesquelles nous nous arrêterons plus en détail dans la partie II, permet d’effectuer une réflexion nouvelle sur les processus d’affaires. En effet, les domaines d’activités sont trop souvent segmentés d’après leur environnement d’application et les systèmes connectés point à point entre eux. Ceci provoque souvent des pertes de bénéfices énormes lorsqu’une défaillance d’un des deux systèmes survient, car le lien ne peut être remplacé. Pour conséquence, les affaires cessent entre deux partenaires d’activités ou deux départements internes de l’organisation car l’ensemble du réseau est paralysé. De même cette structure souvent appelée « legacy system » ou système d’héritage, provoquait des multitudes d’intermédiaires entre certaines entités diamétralement opposées sur une structure de plusieurs milliers de systèmes. D’autre part la plupart des systèmes tels que les réseaux bancaires, notamment, du fait de leur complexité et programmation en COBOLD parfois même (langage de programmation datant des années 1970) rendent ces systèmes inopérables avec des systèmes plus actuels et ralentissent voir empêche d’optimiser la productivité de l’organisation et cela a des répercussions auprès des clients, Sears a été un exemple de mauvaise gestion informatique. Ce leader nord- américains dans le commerce de détail a cru bon d’investir 60 millions de dollars dans de très nombreux systèmes d’informations, sans se préoccuper d’établir une architecture commune et rationnelle, ce qui l’a fortement handicapé au niveau de la gestion des clients et à revoir sa stratégie en fonction des services fournies à ses clients en magasin mais aussi envers ses partenaires de la chaîne logistique5. Autre souci, l’entrée et la suppression d’un système soulevaient le problème d’intégration des applications d’entreprise dans son architecture globale. Chaque modification avait une répercussion sur l’ensemble des activités présente sur le réseau et ceci générait de plus des soucis de compatibilité entre les applications et programmes afin d’échanger des informations. Page 6
  • 7. Exemple d’architecture classique d’entreprises traditionnelles Cette architecture archaïque nommée CORBA (Common Object Request Broker Architecture) montrait ainsi ses faiblesses au niveau de sa rapidité de traitement des informations, de sa souplesse à réagir face aux évolutions, changements des besoins des activités d’entreprises. En 2004, des travaux basés sur la programmation orientée objet d’université européennes de Milan,Manchester et de Stanford, du Massachusset Institute of Technology aux États-Unis, ont servi à définir un lien entre le XML et les activités d’affaires pour développer les services web et une architecture d’entreprise nouvelle. Cette architecture permet de regrouper les systèmes d’informations disparates en services simplifiés et interconnectés non plus de point à point mais en réseau connecté en toile avec une point de convergence commun permettant l’échange entre n’importe quel services quelque soient leur programmation d’architecture et avec une parfaite communication entre services web, apportant une flexibilité de connexion et d’interaction entre les processus d’affaires des sociétés. L’architecture orientée services s’articule sur 3 composantes : - UDDI (Universal Description Discovery and Integration): une base de registres contenant les noms des services webs, leurs attributs, ainsi que leur caractéristiques et propriétés (ex : SCM = port 80). Celui-ci enregistre le nom des services chaque fois que de nouveaux apparaissent et les suppriment aisément lorsqu’une entreprise se retire du réseau d’affaires. - WSDL (Web Services Description Language): un langage qui permettent de créer les interactions et échanges entre les services web et décrit de quelle manière chacun d’entre eux se connectent, quelle nature de données transmettre sans en connaître le Page 7
  • 8. contenu exact, à quel partenaire d’activité le service web doit être envoyé, sous quelle forme…. - SOAP (Simple Object Access Protocol): le langage de communication entre les services web. Grâce à un « broker » ou « facilitateur »utilisant le format XML et situé au centre du l’architecture orientée service, SOAP permet l’échange entre les services webs. Les entreprise n’ayant besoin que de programmer un applet qui va transformer les codes de programmations différents de chacun vers le langage commun SOAP qui permettre d’établir la connexion entre deux services à partir d’un réseau en toile commun et une architecture ayant un noyau central gérant les demandes de services des partenaires d’affaires. Exemple d’architecture orientée service Cette architecture a incité les entreprises actuelles à réfléchir à une meilleure définition de leur stratégie d’affaires, des objectifs à réaliser et des processus d’affaires adaptés à leurs besoins, tout en permettant de garder en place les legacy systems et de les faire fonctionner avec des systèmes plus récents en offrant cette compatibilité par un même langage commun, le SOAP. Page 8
  • 9. L’un des principaux outil de réingénierie utilisé à dans ce but fut l’UMM (UNCEFACT Modeling Methodology) qui a permis de recréer des processus structurés en services et non plus en applications, à simplifier les tâches afin de permettre une meilleure correspondance des services entre les partenaires d’affaires et de pouvoir définir la manière d’opérer des processus, et finalement à pouvoir automatiser le traitement des processus selon qu’ils le permettent ou non. Le gros avantage est de pouvoir améliorer la réutilisation des mêmes services pour différents partenaires qui en font la demande et de pouvoir éliminer à la fois la surmultiplication des bases de données qui contiennent des données similaires afin d’obtenir une souplesse et facilité d’échange d’information entre les applications logicielles des entreprises. Des standards d’ingénierie propre à l’architecture orientée services ont été créés comme le BPM4WS 6 et permettent d’obtenir un même raisonnement de conceptualisation d’éléments de processus d’affaires pour l’ensemble des partenaires d’un même réseau sur Internet. Cette architecture permet d’intégrer de nouveaux services ou d’en supprimer sans occasionner de perturbations dans le fonctionnement de l’architecture, on y voit souvent une référence au plug-in et plug-out qui illustre cette facilité d’utilisation de l’architecture orientée service et de ses services web. Dernier composante importante dans cette réingénierie pour optimiser le fonctionner de l’architecture orientée services : le Service Level Agreement. Le S.L.A est un cadre d’interface des services web qui permet de définir la manière dont fonctionnent les processus, les responsabilités affectées à chaque éléments du service utilisé, ainsi que leur portée, et pourvoir une interface commune de travail afin d’harmoniser en un même langage les différentes équipes d’utilisateurs en s’appuyant sur des règles, standards qui définissent un champs d’opérations commun pour tous lors de l’utilisation des services web7. C) Les nouvelles applications concrètes pour les processus d’affaires Là où certaine entreprises y ont vu un simple remodelage de processus, d’autre s’y sont appuyées pour redéfinir leur cœur de métier de base. C’est le cas notamment des réseaux bancaires dont un des exemples les plus réussis est sans doute le réseau Nordea qui rassemble les 4 banques leader en Scandinavie et se répartit sur plus de 1100 sites différents utilisant près de 30000 collaborateurs8. Les gestionnaires, là où certains y ont vu un projet ambitieux d’investir massivement dans l’équipement pour améliorer la technologie et l’efficacité des système d’information présents dans l’entreprise, ceux de Nordea a raisonnée en terme de gain de productivité et de rentabilité en redéfinissant les processus d’affaires du cœur de métier et en organisant les tâches qui pouvaient réduire les charges de l’organisation tout en permettant une efficacité d’action par son automatisation. Page 9
  • 10. Nordea s’est rendue compte qu’une architecture orientée service servait une stratégie d’affaires et non une volonté de modernisation des systèmes. L’essentiel des banques qui ont échoué dans leur investissement technologiques, l’ont fait à tort en pensant à l’aspect technique et matériel au détriment du sens des affaires, à l’apport qu’une nouvelle architecture pouvait apporter à la structure de l’ensemble de l’entreprise. L’Architecture orientée service, si elle a permet à d’anciennes structures d’évoluer, peut permettre également à des compagnies leaders de surveiller et développer, maintenir leur avantage compétitif au niveau concurrentiel. C’est notamment le cas de la société RLP Technology, basé dans le Michigan aux États-Unis, et qui est leader au niveau des solutions d’affaires marketing dans le domaine automobile. La compagnie, basé dans plus d’une dizaine de pays à travers le monde tel que le Japon, la France, l’Australie, cherchait à améliorer son système de collecte de l’information, afin de pouvoir proposer des offres de services plus adaptées à ses clients, car le marché du B2B suggéré d’être extrêmement pointu et en veille permanente et efficace du marché. L’architecture orientée service y a apporté une solution en permettant de réorganiser les tâches de collectes des données, en optimisant la vitesse d’échanges d’informations des systèmes, en définissant des réglementations quant à ces données et rationalisant les coût tout en apportant un support additionnel pour le suivi de l’activité. L’essentielle était de structure les systèmes d’information de manière ordonnée et intelligente afin de faciliter l’accès aux données et de créer des concevoir les services comme des blocs d’éléments, des services à part entière et qui éliminaient toute redondance en clarifiant les forages de données et les modes d’accès à l’information dans l’entreprise. RLP Technology a ainsi pu ouvrir ses services vers les analystes de ses partenaires d’affaires qui pouvait étudier les perspectives par rapport à l’évolution de l’entreprise sur le marché automobile grâce à une interface simplifiée, procurant des outils de création de données et d’échanges beaucoup plus souples et rapides. L’A.O.S (Architecture Orientée Service) a permis de refondre les activités des producteurs de pièces en se concentrant sur leurs cœurs d’activités pour créer l’interaction avec les services proposés par RLP. Une plus grande richesse d’information s’est créée sans pour autant se disperser dans les systèmes car la base de connaissances était organisée de manière dynamique, en organisant ses données selon les domaines financiers, communication, marketing, juridique de RLP, et la conceptualisation des Page 10
  • 11. données permettait ainsi de mieux analyser les cycles, les étapes successifs des processus d’affaires entre eux pour mieux anticiper les conséquences de les commercialisation de produits sur le marché automobile et prévoir l’impact des décisions et stratégies d’affaires de ses concurrents sur le marché actuel et selon les perspectives futures. Ce projet baptisé Re-Fuel a été complété par un ESB (Entreprise Service Bus) qui devait permettre d’augmenter la capacité de traitement des quelques 2,5 milliards d’informations que comptait à l’époque les systèmes d’information de RLP, tout en veillant à une définition plus précise des données afin d’assurer une meilleur qualité et intégration de l’information dans les affaires électroniques. Une meilleur gestion globale de l’information a permis à RLP de remplacer ses legacy system programmé en COBOLD par un réseau internet souple, rapide, efficace, directement connecté à ses partenaires professionnels afin d’augmenter la collaboration et l’échange pour créer une valeur ajoutée aux avantages compétitifs des services marketing de RLP Technology. Ajouté à un choix judicieux de la technologie JEMS pour son intégration du langage JAVA dans la programmation de ses systèmes et son intégration dans l’architecture globale, ont contribué à une stratégie gagnante définie par Joe Lafair, responsable du développement de l’architecture web RLP, comme une stratégie 50/50/100 avec 50% de l’activité reposant sur cette solution, permettant 50% de rapidité de traitement en plus, aboutissant à 100% de qualité et en rationnalisant les coûts des investissement par rapport à la réduction du traitement des affaires que permet l’automatisation de processus simples. Autre excellent exemple d’application, celle de la compagnie Swedish Railways. En 2005, constatant de la saturation et manque d’efficacité de ses serveurs actuels et intranets, la société a réfléchit avec une société experte en implantation d’architectures orientées services à une plateforme permettant d’optimiser sa capacité de traitement de la demande de billets de trains de ses clients et d’une manière de rationnaliser les coûts de son système, à des fins de rentabilité accrue. Un partenariat avec Ebay a ainsi été mis en place en utilisant l’AOS pour rendre plus aisée l’échange de services entre les deux firmes et être plus réactif quand à la demande spontanée et le flux de clients auquel devait faire face Swedish Railways. Ceci lui a permis, grâce à l’appui d’une infrastructure informatique IBM adaptée, souple, fondée sur Websphere et les logiciels libres ainsi que des postes informatiques et serveurs plus performants d’augmenter ses ventes de 1500 billets supplémentaires chaque semaine, et donc d’assurer un formidable retour sur investissement et une meilleur satisfaction de sa clientèle9. Page 11
  • 12. Tous ces exemples de réussites sont un élément de motivation pour inciter davantage les entreprises qui cherchent la meilleur optimisation de leurs affaires électroniques et dont l’architecture classique et rigide en place paralyse l’évolution avec les partenaires d’activités et empêchent d’utiliser de manière efficiente l’information de leurs systèmes pour coordonner leur tâche, leur échanges de services sur le marché, ce qui accroît les investissements à réaliser afin de se maintenir à jour par rapport à la concurrence et l’essentiel point de départ est toujours une réflexion itérative sur le modèle économique de l’entreprise, afin de prendre en compte les réels besoins ,les faiblesses du réseau existant et choisir les solutions les plus adaptées à une souplesse, réactivité, rentabilité des affaires, chose que permet l’architecture orientée services. II – WEB 3.0 : évolution vers l’intelligence des réseaux L’internet a contribué à une fulgurante amélioration de la conduite des affaires dans le domaine du commerce-électronique, en s’axant sur le développement d’activités créant une réelle valeur ajoutée apportée par les technologies nouvelles de l’information liées à Internet. Là où le web 2.0 a recentré la stratégie autour de la collaboration et l’aspect social, participatif des individus pour la création d’information afin d’adapter les produits, services de meilleure manière pour desservir les clients, leur donnant plus de valeur et cherchant par tous les moyens à augmenter l’interaction, l’ergonomie de communication, d’utilisation, la valeur de leur partenaires d’activité et celle des clients, le web 3.0 lui apporte cette notion supplémentaire d’intelligence. Cette nouvelle approche des affaires prend du recul par rapport aux stratégies d’affaires, en apportant une réflexion nouvelle sur la conceptualisation de la connaissance, de l’information et une transparence et homogénéisation de la gestion des connaissances sur Internet. Nous l’avons vu précédemment, l’architecture réseau est un élément-clé désormais dans une vision d’optimisation du traitement de l’information, opérabilité des processus d’affaires et valeur de l’offre de services. Cependant les méthodes et technologies en développement, telles que les ontologies d’entreprises, agents intelligents, nous offrent une vision d’un réseau autonome et cohérent, ayant du sens et cherchant à créer du sens pour simplifier l’accès, le traitement des informations, des activités et tend à modifier l’ensemble des comportements des individus en impliquant une logique humaine aux applications informatiques et une meilleur coordination du partage des informations. Page 12
  • 13. A) Les outils de raisonnement conçus pour les ontologies Nous l’avons brièvement aperçu précédemment, le web sémantique a contribué à se tourner vers le problème du sens de la connaissance et de la manière imparfaite avec laquelle elle est utilisée. Très tôt et dès le milieu de l’année 2004, le W3C et des équipes telles que l’université de Milan en Italie, ou de Stanford aux Etats-Unis, et groupes d’ingénieurs asiatiques, indiens ont perçu cette limite que représenterait à court ou moyen terme l’utilisation « syntaxique » des données sur le réseau Internet. Cette perception réduisait les possibilités d’exploitation autonome de l’information et réduisait l’utilisation des base de connaissances à une simple connexion formalisée, prédéfinie et rigide. Ainsi les ontologies ou modèles conceptuels de données sont nés du web sémantique avec son propre langage OWL afin de réfléchir à une approche nouvelle de l’utilisation des données et à l’élaboration de significations, de structures ordonnées et inter- opérationnelles et autonome des systèmes afin d’améliorer la qualité des informations et de la pertinence des recherches et du traitement automatisé des données. Concrètement, lorsque de nos jours nous recherchons de l’information sur Google, ce qui se passe derrière sur le réseau n’est qu’une combinaison de « wrappers », « spiders » plus communément appelés robots-araignées de recherches, qui combinés à de très puissant algorithmes d’analyse permet cette rapidité d’accès à l’information. Cependant, aucune analyse ne nous permet de dire si les résultats affichés sont réellement pertinents, car cela dépend souvent des critères choisis pour paramétrer une recherche. Et les outils utilisés tels que le pagerank (classement de la popularité des pages), le référencement HTML, la notoriété des sites internet ne nous indique nullement quand à la qualité réelle du contenu même des informations que renferment ces sites. Comment définir la réelle pertinence d’un terme lorsque par exemple la tomate est considérée pour 236 sites comme légume, alors que pour 4 sites il est désigné comme un fruit. Est-ce la popularité qui octroie la certitude du sens obligatoirement? La tomate étant considéré comme fruit et légume, cela montre qu’il est nécessaire de reconceptualiser les connaissances afin de préciser leur sens, leur portée, les éléments intégrés, les attributs et le type d’interaction avec d’autres connaissances, afin d’homogénéiser la connaissance. Au niveau des entreprise ceci impliquait une refonte totale de leur modèle d’affaires en 5 étapes : l’étude de faisabilité, le kick-off, la réitération, l’évaluation et la maintenance. Page 13
  • 14. Méthodologie de conceptualisation des processus d’affaires 10 Étude de faisabilité Elle permet de faire le constat des faiblesses de l’entreprise, de la pertinence de sa stratégie d’affaires et de l’adéquation de ses processus avec ses besoins actuels et futurs. Ceci permet ensuite de faire le point sur les possibilités d’intégrer un modèle conceptuel de données au sein de l’organisation avec les ressources disponibles pour valider le projet. Kick-off Il s’agit de faire une capture de l’information et des connaissances conservées dans les bases de données et systèmes d’information. Cette étape permet de définir un « squelette » de l’architecture de l’information dans l’entreprise et permet ensuite de définir les activités en domaines d’application, eux-mêmes divisés en sous-domaines, comportant des éléments. Chaque éléments peut comporter des sous-éléments et se composent obligatoirement d’attributs, de caractéristiques qui définissent sa nature et sa portée, ses propriétés, sa signification. Ce modèle définit également les interactions Page 14
  • 15. qui se produisent entre chaque élément, entre éléments et domaines, entre les domaines, etc.…. L’ensemble de cette phase se base sur la sémantique des éléments et les correspondances de sens des termes, données présentes dans les bases de données, pour définir les processus d’affaires et il est très important de vérifier que chaque élément est cohérent avec le sens du domaine auquel il appartient. Exemple de conceptualisation des données « Refinement » ou itération Une fois le modèle défini en détails, il s’agit de vérifier de la validité de chaque élément en regardant son application et essayant de catégoriser les données de manière plus affinée encore. Une réflexion est apportée sur la valeur des concepts établis, jusqu’à ce que les éléments soient clairs, compréhensibles et dont l’impact, l’action, les relations et inférences, hiérarchies doivent être correctement précisés. Bien évidemment le travail sera d’autant plus difficile que l’information est riche ou que les domaines touchent à une multitude d’environnement ,de champs sémantiques divers et épars, et la difficulté est de catégoriser en concepts des éléments souvent complexes et dont les données peuvent être incertaines ou dont les répercussions sont improbables, chose que nous analyserons plus tard dans ce rapport. Page 15
  • 16. Évaluation Cette phase vérifie que les éléments soient opérationnels, que le raisonnement des processus soit cohérent à la stratégie d’affaires d’ensemble et par rapport aux domaines cernés. Il est nécessaire de vérifie que les relations entre concepts pour déterminer s’ils sont correctement définis, si les bonnes caractéristiques, attributs, inférences, actions ont été catégorisés de façon à ce que l’ontologie obtenue puisse être réutilisable et exploitable de manière continue. Maintenance La mise à jour des données est capitale afin de préserver la qualité des informations possédées. La valeur des concepts des processus dépendra fortement de la capacité à les faire évoluer en fonction e l’environnement dans lesquels ils s’appliquent et en fonction des changements de comportements des utilisateurs. Et il sera ponctuellement nécessaire de procéder à un processus de réitération et donc de revenir à notre 3ème étape de « refinement » afin de modifier les éléments, dès lors que leur signification, leur rôle, leur actions, les finalités visées, changent. Les outils du web sémantique L’un des premiers outils apparaissent en 2004 fut Swoogle, accessible via l’URL http://swoogle.umbc.edu/ et qui fonctionne comme un moteur de recherche pour le web sémantique. Cette outils permettait de retrouver des éléments, des attributs et des ontologies parmi plus de 100 000 documents en 2004. Cependant, il lui était impossible d’établir le lien entre deux concepts d’ontologies distinctes, ni de définir la qualité de l’information autrement que pas le ranking des mots-clés ou des sites. Page 16
  • 17. Ainsi en 2006, le Knowledge Media Institut de Milton Keynes au Royaume-Uni a développé un outil plus perfectionné appelé Watson Semantic Web Gateway11. Au contraire de Swoogle, Watson se base sur un moteur de recherche par mots-clés de très haut niveau et utilisent les métadonnées des informations et concepts afin de vérifier la qualité, la pertinence de ceux-ci et ne se base plus sur l’uniquement popularité des termes sur les pages internet. D’autre part, Watson Gateway permet d’analyser les relations qu’il existent entre des concepts appartenant à des ontologies différentes en se basant sur les liens existants entre les éléments dans leurs ontologies respectives pour ensuite établir des correspondance de sens au niveau de ces concepts et construire une relation entre eux. Exemple de raisonnement de Watson Gateway12 Autre caractéristique, Watson vérifie en permanence l’utilité de ses critères d’analyses des termes sémantiques et développe de nouveaux critères d’analyse et de correspondances pour établir les liens entre les informations et améliorer sa perception de leur qualité. A l’instar de Swoogle qui se limitait à 100 000 documents, Watson peut traiter les quelques 6 millions d’informations renfermées dans les bases de données du web sémantique et peut traiter ces informations sans limite de temps ni d’utilisation, ce qui n’ était pas le cas de Swoogle qui n’autorisait qu’un nombre limité de demandes. Watson a été vu très rapidement comme un premier pas vers les intégrations d’ontologies et un projet en devenir concernant les alignements de concepts et fusion d’ontologies. Page 17
  • 18. D’autres outils tels que Poweraqua et Powermagpie permettent également de faciliter le repérage des informations et d’établir les liens avec des ontologies existantes ou de créer une nouvelle ontologie, en analysant les contextes et les attributs, les classes de termes et de connaissances ces deux logiciel permettent d’afficher à l’écran les correspondances existantes, les ontologies utilisées ou les conceptualisation qu’il est possible d’établir entre plusieurs mots-clés. Power Magpie tout comme Watson s’appuie sur le RDF (Resource Description Framework) pour établir les catégorisation de concepts,de termes sémantiques et établir une « communication » avec les documents html afin de générer un listing des relations existantes dans les modèles conceptuels relevés dans chaque page internet. Ainsi selon l’API ou Application Programming Interface de Power Magpie utiliser des fenêtres contextuelles de similaire au format Notepad afin de montrer les résultats des analyses sémantiques. Capture écran de l’interface de Power Magpie L’outil actuellement le plus abouti et le plus utilisé pour concevoir des ontologies et structures leur intégration est sans aucun doute le logiciel Protégé. Page 18
  • 19. Le logiciel Protégé, développé en 2000 à l’université biomédicale de Stanford 13 en Californie, est une des premières solutions qui ont été mis en place afin de représenter sous informatique de manière schématique, visuelle le web sémantique. Il permet de créer des structures sous forme d’arbres heuristiques avec des connexions qui sont établies par le biais de concepts- clés communs entre les systèmes d’informations ou entre les éléments de manière à ce que l’ensemble des concepts puisse communiquer de manière optimisée et automatisée. Ce logiciel permet d’affecter les informations par individus, classes (qui peuvent posséder des attributs caractérisés par des propriétés propres), entités et au sommet de la structure l’ontologie et d’y assigner les actions d’analyse intelligente de cette dernière. Il permet aussi d’y intégrer des annotations spéciales pour compléter la description de chaque élément de l’ontologie. Grâce à l’outil Graphviz, il est possible de visualiser la hiérarchie des données telle que l’on a répertorié les fils, sous-fils, sous-sous-fils et différents liens entre les classes, labels descriptifs d’information et attributs des différents contenus. De plus il permet d’intégrer des plug-ins pour fonctionner avec les documents OIL, RDS, OWL de toutes sortes, inclure des librairies et notamment un plug-in intéressant avec l’outil Watson Gateway. Exemple de l’interface de Protégé (en version 4 bêta ici) Page 19
  • 20. Tous ces outils du web sémantique sont tous confrontés des problèmes qui sont encore à l’heure actuelle à l’étude comme la fusion d’ontologie et l’intégration de concepts renfermant des éléments complexes et de l’information incertaine. B) Les systèmes multi-agents Entrevue par la communauté scientifique dès le début des années 1990 14, le système multi-agents se caractérisait par trois composantes essentielles : - Réactivité : capacité à agir selon les changements de son environnement et à s’adapter en fonction des données qu’il reçoit ou analyse. - Pro-activité : aptitude à anticiper les besoins et les répercussions futures des informations, aide à la prise des décisions avant que les événements ne surviennent en étudier toutes les possibilités d’évolution du contexte et des éléments avec lesquels il interagit. - Sociabilité : faculté de coopération avec les autres agents et d’organiser la répartition de tâches, la structure hiérarchique d’un projet entre agents, de définir une structure approprié pour travailler de manière indépendante. Schéma de fonctionnement des agents intelligents15 Page 20
  • 21. Les agents intelligents conceptualisent les données pour se forger leurs propres ontologies et agir de manière autonome dans leur environnement. Ils réagissent en fonction de capteurs d’information qui rentrent en « input » ou entrée pour constituer une action en sortie ou « ouput » vers ce même environnement. Chaque agent du système peut être attribué à un contexte ou environnement différents, mais établit toujours un lien avec les autres agents. D’autre part les agents intelligents ont leur propre structure mentale qu’il organisa en fonction de croyances, désirs et intention (le BDI ou Belief, Desire, Intention). L’agent en analysant les données se construisent leur propre choix de négociation et prennent les décisions d’après les perspectives répondent le plus à ce qu’il « croient » optimal comme choix pour atteindre un objectif de travail. Le désir est l’objectif de base que chacun possède mais qui est souvent sujet à des divergences avec les buts des autres agents. Ils se concentrent alors sur les intentions où les obligations, besoins sur lesquels ils n’accepteront aucune marge de négociation. Ainsi selon le contexte 4 différents choix sont possibles : la coopération, la collaboration, l’antagonisme, ou la semi-coopération. Dans une logique coopérative l’agent peut rendre un service à son homologue mais la chose ne sera pas forcément réciproque ensuite, car les intérêts sont divergents mais une entente existe. La collaboration présente une action mutuelle des agents entre eux car ils ont des objectifs soient commun soient compatibles avec les finalités escomptées. L’antagonisme est le refus catégorique de communication entre deux agents, soit par intérêts trop fortement divergents, incompatibles, où par analyse de l’autre comme ayant une réputation insuffisamment fiable ou infidèle. La semi-coopération enfin est un état de réflexion de l’agent intelligent qui va d’abord considérer le statut de son vis-à-vis avant de prendre une décision. Il se basera sur l’historique des interactions passées, la réputation, fiabilité, qualité de l’autre agent et sa propension à permettre la réalisation d’objectifs en temps voulu. Le système multi-agents se structure autour de l’architecture CORBA16 (Common Objet Request Broker Architecture) , qui permet d’utiliser les agents comme des objets et de les rendre autonomes pour des tâches précises, complexes. Page 21
  • 22. On retrouve généralement trois types d’organisation des agents intelligents dans le système SMA17 : - L’architecture axée sur le flux d’information : le rôle des agents est de capturer, analyser, et effectuer des veilles sur la base de connaissances qu’il possède ou acquiert afin de maintenir sa qualité et son utilité. - L’architecture orientée rôle : chaque agents comprend des responsabilités et peut avoir à se référer à un agent supérieur. Une hiérarchie par couche d’importance des tâches à accomplir ou application à utiliser peut suggérer qu’un agent constitue des sous-agents qui vont exécuter des tâches simples. - L’architecture orientée contrôle : mise en place lorsque le projet dans lequel est impliqué le système multi-agents est trop complexe pour laisser une autonomie et confiance totale à l’ensemble des agents, des contrôles s’effectuent dans leur espace de collaboration afin de valider l’atteinte de objectifs de chaque éléments simples contenu dans les applications complexes à réaliser et ensuite une validation de l’ensemble de la tâche complexe est effectuer par les agents lorsque tous manifestent l’atteinte des objectifs définis au départ. De nombreux domaines exploitent déjà cette technologie, notamment les secteurs de la santé, du tourisme et de la gestion de la relation client. Système multi-agents dans l’aéronautique Le très ambitieux projet Nextlink, par exemple, dans le domaine de l’aéronautique, avait pour objectif de construire un système multi-agents afin de travailler sur le design des pièces de construction des avions commerciaux. L’architecture du système utilisait un agent intelligent qui supervisaient l’avancement dans la réalisation des pièces et validait les étapes de conception et pouvait moduler des décisions en fonction des impératifs, défaillances, difficultés rencontrées auprès des différents ingénieurs réparties à travers le monde, permettant également la transmission via les réseaux sans-fils aux équipes humaines et le but était de construire un système standard transposable dans d’autres domaines ultérieurement. Page 22
  • 23. Schéma extrait du projet18 Système multi-agents dans le traffic automobile Autre exemple encore plus complexe : la gestion de la signalisation routière des feux routiers. Un équipe de projet de recherche à l’université de Anyang en Corée du Sud a établit un système multi-agents permettant de gérer le changement des lumières des feux passant du rouge au vert. Les agents au moyen de capteurs permettent d’analyser et calculer le temps des cycles des feux en fonction de la densité et congestion du trafic routier. Mais également ils sont « conscients » des conditions atmosphériques en analysant la structure de l’air et peuvent adapter la vitesse de changement des lumières selon le contexte afin de minimiser les risques d’accident automobiles. Cela va encore plus loin puisque les agents peuvent non seulement prévenir les autres agents d’augmentation ou baisse de flux de trafic, mais aussi peuvent gérer le signal des feux en fonction de la vitesse à laquelle roulent les automobilistes afin de ne pas provoquer des ralentissements pouvant occasionner de possibles carambolages, et peut gérer simultanément plusieurs intersections de rues. Page 23
  • 24. Schéma représentatif de l’application du système d’agents intelligents pour réguler le traffic routier au niveau des intersections19 Cette technologie représente un défi formidable dans les systèmes d’informations des entreprises, et les projets actuels rapprochent les systèmes multi-agents de la recherche en intelligence artificielle, afin de permettre une autonomie de travail sur des éléments beaucoup plus complexes et sur l’amélioration du raisonnement « humain » des agents. C) RFID : la voie royale vers une traçabilité absolue Développée dès la seconde guerre mondiale, en 1948, pour la Royal Air Force britannique pour distinguer les avions ennemis20, ce système apparaissait alors sous le nom « IFF » pour Identification Friendly of Foe. Ce n’est que vers la fin des années 1970 que la Radio Frequency Identification fit une percée, lorsque le domaine de l’armée qui avait conservé l’usage et la recherche exclusive de cette technologie durant plusieurs décennies finit par la rendre publique. Utilisée durant les années 1980 essentiellement pour sécuriser l’accès aux sites nucléaires, et il faudra attendre 1998 pour qu’un système utilise les puces RFID pour Page 24
  • 25. permettre de suivre le bétail au niveau agricole mette sur le devant de la scène réellement cette technologie. La raison de ces années de silence est essentiellement due à l’absence de normes et à un devoir de réglementation avant tout usage public21. En 2004, après de longues décennies de recherche et fabrication de tags par les industrie européennes et américaines essentiellement, la RFID pris tout son sens lorsque les entreprise ont entrevue l’utilité des progiciels, architecture orientée services et l’enjeu économique au niveau de la logistique que l’apport de nouvelles puces de traçabilité des produits offrait. Ainsi dès fin 2003, WalMart suivi les pistes d’ASA firme de détail anglaise dans l’incorporation de tags RFID sur ses produits. Ce qui causa un demi-échec car le coût des puces se posait car bien que permettant un rayon d’action de 50m, elles coutaient en moyenne 15€, ce qui réduisait son implantation dans des firmes de grande taille ayant de forte rotation de stocks ou portant sur des produits à fortes marges22. WalMart, leader américain de la grande distribution du reporter ses ambitions pour 2005, année où il créa la norme EPC, en fréquence 13,56Mhz et 98 bits et dont la portée était estimé à 2 mètres maximum étant donné qu’il s’agissait d’étiquettes RFID passive 23. Ainsi depuis, la RFID est utilisée essentiellement pour contrôler le taux de démarque inconnue en magasin, la traçabilité des produits depuis le fabricant vers les entrepôts et surveiller les stocks en magasins. La puce RFID se compose d’une micro-puce renfermant des informations sur le produit et utilisant l’énergie du signal d’un lecteur RFID qui transmet une requête pour échanger l’information qu’elle contient. Schéma de fonctionnement d’une puce RFID La technologie Verichip, approuvée par la travaille actuellement sur une puce ayant une portée de 300m et permettant d’être implanter sous cutané afin de permettre la localisation des individus par satellite et préoccupe énormément les prisons Page 25
  • 26. américaines pour la surveillance de leur détenus, mais également dans la prise en charge de patients24. Les puces RFID comprennent deux catégories : - Les puces passives, ayant un rayon d’action réduit de 9 cm à 2 mètres et ayant une fréquence de 13,56 Mhz : uniquement lisibles par une lecture, essentiellement pour le stockage d’informations. - Les puces actives, ayant un rayon d’action allant jusqu’à plus de 50 mètres en moyenne, utilisant une fréquence de 2,38 à 2,47Ghz : permettent lecture et écriture, mise à jour de données, utilisée pour le suivi logistique principalement. Applications Transport londonien La RFID s’inscrivit de plus en plus le principe d’ubiquitous computing ou informatique omniprésente et très tôt les gouvernements ont saisit ce progrès pour l’application dans les services publics. Le réseau public de Londres ainsi a vu très tôt l’utilité d’une telle technologie pour réduire la congestion du trafic de voyageurs quotidien du centre urbain de Londres, où plus de 5 millions d’anglais prennent chaque jour le métro, le bus, le train et le nombre de visiteurs enregistrés augmentent de 15% chaque année. La gestion optimale du réseau de transport était donc une priorité essentielle à très court terme face à l’engorgement des flux de circulation. Le ministère des transports britannique, et le réseau TfL (Transport for London), réfléchissait à une amélioration de leur système de tickets magnétiques et billets d’autobus qui engendrait des perturbations et embouteillages dans les heures de pointe en journée et de même facilitait la fraude d’individus mal intentionnés et qui coûtait entre 5 et 6 millions de pounds au réseau chaque année. C’est ainsi que naquit le projet Prestige en 2005 25, qui élabora un système de capteur sur les portiques d’entrée et sortie des stations de métro qui à l’aide de capteurs placés près de la zone de passage des individus lisaient leur nouvelle carte magnétique RFID et leur ouvraient le portique. Ceci engendra un gain de 4 secondes par personne en temps de passage car il n’était plus nécessaire d’insérer un coupon magnétique mais de passer simplement suffisamment près des capteurs avec la Page 26
  • 27. carte contenant la puce RFID pour que celle-ci soit reconnu, authentifiée et se voit accordé l’accès. La carte ne devait pas nécessairement être sortie et les personnes pouvaient les conserver sur eux du moment que le capteur détecter un titre valide. Un problème au début du projet se posa sur la difficulté à placer les dispositifs de reconnaissances car la portée était réduite à quelques centimètres uniquement avec une risque d’effet d’angle perpendiculaire qui pouvait empêcher le capteur de lire les puces RFID contenu dans les cartes des citoyens. Ce système permis de réduire de manière significative la congestion du trafic londonien et fut également mis en place dans plus de 8000 bus londonien qui enregistraient en 2005 près de 6 millions de ventes de billets, grâce à ce système et près de 4 millions supplémentaire de titres concernant le métro. Ce système permis d’enregistrer le parcours des usagers, ce qui souleva également le problème de méthode d’écriture « étape par étape » ou « finale » des trajets des individus pour identifier les différences entre les parcours simples et les allers- retours et valider les droits des usagers par rapport aux informations détenues sur leurs cartes individuelle. Ceci facilite grandement les contrôles des agents de surveillance des réseau du métro de Londres dans le contrôle des titres et grâce à une signature électronique propre à chaque pass, la fraude et les tentatives de falsification de titres de transports s’est considérablement résorbé. Portiques RFID à Londres et effets observés sur les ventes de titres de transports26 Page 27
  • 28. Gestion client tokyoïte dans la vente de chaussure Autre exemple pertinent, le support client en plein centre ville de Shibuya à Tokyo dans le flagship (plus grand magasin mondial en termes de superficie) de la firme Mitsukoshi, spécialiste dans la vente de détail et dont le problème de qualité de service auprès de la clientèle de leur département de chaussures était problématique. En effet, l’évasion de clientèle qu’entraînait le traitement de chaque client à cause de nombreuses allées et venues des vendeurs et du manque d’information spontanée sur l’état des stocks entraînait des pertes chiffrées à 8% des chiffres d’affaires notamment sur la cible féminine. Appuyé par le METI (Minister of Economy Trade and Industry) du Japon concernant les recherches de projets portant sur la technologie RFID, la firme Mitsukoshi aboutit à la conception d’un système de kiosque RFID intégré avec écran tactile qui permettait d’insérer de manière discrète et invisible les lecteurs de puces. Les vendeurs pour leur part utilisaient des assistant personnels capable de lire les tags des puces collées sur chaque chaussures en magasin. Les PALM étaient ainsi connectés en réseau sans fil avec les kiosques qui leur transmettaient en temps réel l’emplacement des produits et de la disponibilité de chaque taille de chaussure en magasin. Très vite les vendeurs ont manifesté cependant une appréhension quant au fait de garder en permanence un assistant personnel à la main ce qui réduisait leur confort lors de manipulation d’échantillon de vitrine auprès des clients. Le système finit par ne plus utiliser que les kiosques et renseigner de meilleure manière le client sur leurs demandes. Une autre amélioration au système concernait les puces implantées sur les chaussures pour qu’elles puissent être retirées aisément une fois le produit vendu au client, et l’application de tags RFID détachable facilement a été par la suite instauré pour un meilleur confort d’utilisation et éviter tout souci de retour du client. Les kiosques ont retirés des bénéfices également du fait qu’ils permettaient de reconnaître une chaussure à son tag RFID chaque fois qu’elle était posée sur le kiosque à proximité du lecteur et de l’écran informatique. Page 28
  • 29. Exemple de kiosque Mitsukoshi La RFID ainsi nous montre une très forte avancée technologie possible dans le domaine de la traçabilité logistique des produits et dans la transparence des stocks, avec une meilleure gestion des flux de personnes ou de produits mais se heurte encore à un obstacle de taille : la liberté individuelle. En effet, la RFID utilisée également au niveau marketing pour recenser les habitudes de consommation des clients ou les procédures d’affaires entre partenaires, suscite l’émoi des association de défenseurs des droits des citoyens et des institutions juridiques de la propriété industrielle, pour délimiter la frontière de l’accès à l’information à caractère privé des individus et des entreprises. En effet, cette technologie apparaît comme outil de puissant pour sonder en profondeur les faits et gestes des individus et manque de cadres juridiques, normes et réglementations suffisantes pour protéger les libertés civiles de chaque citoyen. L’autre effet pervers est celui de l’utilisation de cette application dans la veille stratégique des entreprises afin d’obtenir des informations à caractère confidentiel sur les brevets, secrets de fabrication et stratégies d’affaires des concurrents. C’est un problème encore majeur qui bien que commençant à être cadré par les institutions gouvernementales dans chaque pays, reste encore en développement à l’heure actuelle. Page 29
  • 30. D) L’informatique omniprésente change les mentalités L’ubiquitous computing est un concept qui date des années 1970 et regroupe un ensemble de technologies dont les systèmes multi-agents, la RFID et bon nombre d’autres technologies internet pour exprimer une vision nouvelle de l’informatique : L’accès instantané à l’information. En effet le concept est d’inclure un individu qui se situe dans un environnement géographique et qui circule avec un appareil prenant la forme d’un assistant personnel digital et tactile et lui informant de toutes les opportunités qui peuvent se présenté en fonction du comportement, des habitudes, du mode de vie de chaque individu. Le principe est de programmer ce « gadget » pour qu’il analyse tout seul la personnalité les actions de chacun afin de lui faciliter le quotidien. Évidemment cet optique utilise le principe de concepts et de relation s’inscrivant dans l’environnement d’évolution de l’individu et permet une réflexion avancée en construisant des ontologies permettant cette facilité d’échange d’informations et confort d’usage. Un très bel exemple de ce principe a été observé entre 2002 et 2004 dans les hôpitaux du Danemark en collaboration étroite avec le laboratoire de recherche en technologie d’Aalborg au niveau de la gestion des patients. En effet jusqu’alors, l’afflux en constante augmentation de malades, blessés, et patients admis aux urgences et soins intensifs devenait préoccupant quand à la surpopulation des hôpitaux et de la qualité de travail des infirmières auprès de chaque patient pour vérifier de manière optimale l’évolution de leurs conditions de santé. Jusqu’alors selon les tests du laboratoire d’Aalborg, montraient que les allées et venues des infirmières jusqu’au terminal de saisie des informations sous poste informatique, engendrait une perte de temps de 3 min par patient et que parfois le manque de coordination des services et entre les relève de gardes pouvait augmenter le temps de traitement de chaque patient. L’idée trouvée fut tout d’abord de recourir à des petits chariots roulants à bonne hauteur sur lesquels les infirmières disposait d’ordinateurs portable, permettant ainsi de pouvoir être plus autonome quand à l’enregistrement des données d’évolution et des traitements ingérés au patients et des analyses faites ou restantes à effectuer. L’avantage était la réduction de la perte de temps dû à l’aller-retour des infirmières entre leur service et les chambres des malades. Ce qui pouvait être critique dans la Page 30
  • 31. gestion des urgences et salles de soins intensifs ou la surveillance minute après minute pouvait avoir une incidence vitale sur la vie du patient et l’évolution favorable de son état. Exemples à droite des terminaux classiques fixes, à gauche des chariots mobiles avec ordinateurs portables Hors après de multiples tests visant à analyser la perception du systèmes par le personnel des hôpitaux (pris entre 30 et 45 ans avec tout type d’expérience des outils informatiques), il s’est avéré que le matériel était encombrant pour effectuer des traitements ou pour le passage entre les lits dans les chambres où l’espace exigu empêchait de procurer les soins dans des conditions d’ergonomie et de confort pour les infirmières. L’équipe de chercheurs du laboratoire d’Aalborg ont alors réfléchit un à un système sous forme d’assistant personnel digital de poche qui permettait de proposer une interface intuitive et simple de gestion afin d’intégrer les dossiers de clients, les analyses faites, à faire sans avoir à pousser un chariot et sans réduire leur mobilité dans les chambres lors de la procuration de soins. Les premiers tests effectués dans le laboratoire avec des infrastructures identiques à celles d’une section d’un service d’hôpital, ont démontré encore 9 problèmes majeurs dont le principal était la compréhension de l’interface. En effet, le personnel quelque soit son expertise en utilisation informatique à révélé un manque de logique dans la présentation des informations des données qui étaient formalisés de manière incohérente par rapport à la pratique des infirmières en temps normal et ne respectait Page 31
  • 32. pas les étapes de traitement des patients dans le même ordre logique que le raisonnement humain. Une reprogrammation a été donc nécessaire afin d’inclure ce facteur en analysant pendant 1h près de 38 personnes afin de comprendre leur parcours, leur comportement et assimiler les étapes de traitement des patients de manière identique sur l’appareil mobile. Ceci abouti au bout de 2 ans de pouvoir implanter en situation réelle cet assistant mobile de poche, qui utilisait un clip de ceinture afin de permettre de garder les mains libres pour les interventions et de se connecter dans un rayon de 10m aux patients par l’intermédiaires d’étiquettes RFID intégrées dans les bracelets des patients. Ce qui permettait instantanément aux infirmières de savoir quels patients étaient présents dans chaque chambre, quels médicaments, traitements, soins, avec été prodigué et restaient à être pourvus. L’assistant par une interface très simple autorisait les infirmières simplement en tapotant du doigts sur un menu d’avoir accès à l’historique de l’état du patient et de vérifier par des couleurs rouges ou vertes de caractères, les variations des tests positives ou négatives , effectuées sur leur état de santé et pouvoir réagir en cas de forte différence ou dégradation de santé de manière plus rapide. Elles pouvaient également saisir en tout temps des observations ou des remarques pertinentes au moyen d’un stylet tactile qui leur permettait ainsi d’enregistrer des annotations ou recommandations ultérieures éventuelles sous forme de mémo stocké sur l’assistant personnel. Affichage-type d’un assistant sans fil27 Le système en place permettait de mettre à jour automatiquement les données d’autres infirmières lors de relève de garde à partir du système d’information qui actualise les Page 32
  • 33. données en temps réel en fonction des informations saisies par le personnel de l’hôpital et des données enregistrées par les infirmières sur leur assistant mobile. Cet exemple illustre bien l’adéquation que l’ubiquitous computing permet à l’utilisation humaine des applications en permettant une meilleure analyse du contexte dans lequel évolue un individu avec une technologie en main et de pouvoir proposer une utilisation qui suggère un comportement optimale en fonction de l’environnement dans lequel il s’inscrit. Cependant bon nombre de limites sont encore présentes notamment au niveau de l’harmonisation des utilisations d’applications et de l’utilisation des standards eux-mêmes qui diffère à un niveau qui dépasse les frontières des pays. III - Limites et perspectives d’un Internet en pleine mutation Si le web sémantique est un formidable chantier d’application pour l’avenir au niveau du quotidien individuel que pour les modèles d’affaires d’entreprises, de nombreuses interrogations subsistent. A) L’intégration des modèles conceptuels de données L’un des problèmes majeurs existant au niveau de la création d’ontologies, est l’intégration de concepts de modèles conceptuels différents ou n’utilisant pas la même linguistiques du fait de langue maternelle du pays et d’une pluralité de langues parlées au niveau mondial. De nombreux projet comme celui d’IBM Thinking Ontologies ou de DOLCE Projet du centre de recherche de Trente en Italie ont réfléchit à une façon de redéfinir les ontologies de manière à permettre un « alignement » des termes, éléments, classes, attributs par rapports à des domaines d’application en définissant des correspondances et des outils de traduction linguistiques de termes sémantiques d’un pays à un autre afin de permettre l’interaction entre ces ontologies. Ce projet entrevu dès 1999, consiste à décrire une ontologie supérieure, une sorte de langage universel qui permettrait à n’importe quelle ontologie de communiquer avec une autre via des termes standardisé qui permettrait de dépasser la barrière linguistique ou contextuelle propre à chaque ontologie. Définit par le laboratoire de recherche en technologies et sciences cognitives de Trente en Italie, le DAML+OIL est vu comme tremplin à la redéfinition d’instances, classes, substituts, relations afin de faire converger en un même point toutes les ontologies et permettre leur échange et intégration. Page 33
  • 34. Dolce souvent vu comme le mythe de l’ontologie universelle est pour l’instant étudiée afin de voir les points de connexions entre ontologies, leur qualité de contenu et de fonctionnement et définir des ontologies catégorielles. Celles-ci se basent sur un domaine en particulier d’un univers (pour la médecine le domaine génétique, bio-moléculaire, etc..) et permettent à plusieurs ontologies d’un même domaine de l’utiliser comme intermédiaire pour communiquer via une structure et une abstraction commune. Le projet vise à définir une hiérarchie d’ontologies également : ontologie de domaine, core-ontology et top-ontology. La core-ontology étant encore plus basique que l’ontologie de domaine permettant à l’entendement humain d’être comprise, la top- ontology qui se situe au niveau de l’univers (science, finance, économie…). Dolce permet de définir des classes d’ontology de manière itérative de l’ontologie la plus spécialisée à l’ontologie la plus globale. Cette catégorisation va permettre d’harmoniser les ontologies entre elles pour améliorer leur alignement et la traduction d’éléments synonymes afin d’accroître l’interopérabilité entre ontologies 28. Néanmoins, les limites constatées sont une « librairie » d’éléments, classes, définis sous formes de framework, standards qui reste limitée et pauvre. Dolce se sert des ontologies dites matérielles et plus spécialisées pour alimenter sa propre ontologie et permettre l’échange commun de données. Elle ne peut être utilisée qu’à un stade intermédiaire pour rassembler des ontologies de domaines simples mais se limite à un échange très sommaire d’informations et de processus entre ontologies. Elle utilise le SPARQL pour permettre la traduction des requêtes considérées comme similaires ou pouvant opérer entre elles entre ontologies mais cela reste à un niveau encore trop limité pour le moment pour envisager une communication plus détaillée et aboutie. Schéma explicatif du projet Page 34
  • 35. Ainsi si les protocoles tels que SPARQL , les plug-ins Watson Gateway de logiciels tels que Protégé permettent d’effectuer l’intégration de raisonnement entre concepts de deux ou plusieurs ontologies, la fusion des base de connaissance reste difficile à établir, car la description des métadonnées supporte une pluralité de sens au niveau du web sémantique qui n’est pas différenciable par les outils d’analyse et de conceptualisation, tant qu’un sens commun, une entité commune n’est pas instauré et compréhensible de manière standard. C’est ainsi que l’on constate que 90% des outils tels que Watson ou et Poweraqua, Power Magpie donne un sens erroné au terme « assumption », lorsque quasiment toutes les revues écrites académiques cernent le sens commun et authentique. La « désambigüisation » des concepts est un des domaines de travaux actuels. Des chercheurs autrichiens de Vienne sont depuis 200629 sur un projet d’outil d’annotation qui permet de réfléchir à la manière dont doivent être perçus les concepts avant d’être incorporés dans des ontologies, en s’intéressant à la manière dont ils sont catégoriser, la nature des informations, attributs, inférence devant accompagner chaque notion, chaque services d’entreprise au niveau des ontologies d’entreprise. La difficulté est également de permettre une plateforme logicielle qui établissent les échanges et similarités de concepts pour soit éliminer les redondances entre ontologies soit permettre l’échange d’information et les relations entre les attributs d’ontologies différentes au sein d’un même modèle fonctionnant grâce à des standards XML,HTML,JAVA,OWL,RDF. B) Le traitement des données incertaines Autre frein observé au niveau de la gestion de la connaissance et du fonctionnement des ontologies et de l’analyse des informations au niveau sémantique et plus globalement de la compréhension des informations porte sur l’incertitude, l’improbabilité. En effet, le web sémantique s’appuie sur des concepts, des processus dont le sens est formalisé, commun, irréfutable ou à très forte probabilité quand à la nature des information que les concepts et leurs attributs renferment. Hors, ne pas pouvoir prévoir d’un ouragan s’abat en Floride à telle heure, tel jour, détruisant les principales plateforme pétrolière maritimes, est synonymes de millions de dollars de pertes pour les industries qui opèrent dans ce domaine et a une incident encore plus vaste sur l’inflation du baril de pétrole et la consommation des ménages ensuite. Page 35
  • 36. Ce type d’événement définit une première catégorie d’informations incertaines : les données bien définies mais imprévisibles. Ceci est du au caractère aléatoire et spontané, insondable d’informations. Le second type d’information, tout autant problématique concerne les concepts, les données, sur lequel le doute se porte à la fois sur le contenu de l’information, sur son champ d’action, sur la source qui fournit l’information mais aussi sur la fiabilité. Cet type de données peu ainsi révéler une erreur de saisie, mais également porter sur une pluralité de sens quand au concept en lui-même sur lequel des avis divergents feignent de se ranger à un avis commun, ou encore le manque d’expérience ou d’avis concernant un fait, un données ne permet pas de qualifier, certifier l’exactitude d’une information, parce qu’elle touche un domaine trop pointu ou émergent sur lequel la réflexion de chercheurs, d’analystes, n’ont pas encore pointé dessus et une signification réelle, une élaboration de métadonnées restent à produire. Il s’agit dans ce cas soit de créer une probabilité fondée sur l’ « endorsement » ou ralliement, c’est-à-dire sur le nombre et la qualité des personnes exprimant un même point de vue sur une information, ce que l’on appelle la technique des « logiques floues », ou encore en utilisant des avis de personnes ayant l’expertise du domaine du concept et permettant de créer des métadonnées qui autoriseront à donner une meilleur probabilité à la certitude et exactitude des données. Le modèle conceptuel de ces probabilités s’effectue alors de manière inversée, en partant de l’information la plus incertaine pour apporter une clarification à son sens à la véracité attribuable à celle-ci pour remonter jusqu’au concept et au domaine d’incertitude de l’information et pouvoir ainsi créer la fonction de croyance ou belief fonction. A mi-chemin de la conceptualisation, un autre souci plus subjectif lui aussi pose problème quand au véritable sens d’une information : l’ambigüité. En effet, une information peut changer totalement de signification selon le contexte ou le domaine d’application. Un titre de journal qui annonce « Microsoft a dit bonjour au logiciel libre » peut être compris au Québec comme « Microsoft a fermé la porte au monde du logiciel libre », tandis que les autres francophones comprendront que « Microsoft accepte de collaborer avec le monde des logiciels libres ». La même information en fonction de son contexte économique, culturel peut amener à une compréhension erronée ou imprécise de l’information ce qui instaure une improbabilité que l’information soit fiable et exacte dans le sens commun où elle est voulue au départ. Page 36
  • 37. Modèle conceptuel de Fischer en 2005 sur le traitement de l’incertitude C’est ainsi qu’au niveau des architecture d’entreprises, en 1987, un employé d’IBM nommé John Zachman, mis en place un cadre de travail sur l’incohérence au niveau des systèmes d’information des architectures d’entreprise en proposant un cadre avec des entrées horizontales et verticales définissant les 6 différentes questions à se poser sur les informations (qui, pourquoi, où, comment, quand et quoi) ainsi que 6 modèles possibles de représentation des différentes perceptions de concepts dans l’entreprise. Ce modèle fut très utilisés pour la transversalité qu’il offrait au niveau de la réflexions sur les incohérences de systèmes30. Modèle de Zachman31 Le cadre Zachman Données - Activités - Emplacement - Quoi ? Comment ? Où ? Portée (contextuelle) Liste des éléments Liste des processus exécutés Liste des lieux où est Planificateur importants pour l'activité par l'activité exercée l'activité Modèle de données Modèle métier (conceptuel) Modèle métier Modèle logistique conceptuelles Modèle système (logique) Modèle de données logiques Architecture de programmes Architecture SI distribuée Modèle de technologie Modèle de données Modélisation de systèmes Architecture (physique) physiques (fonction informatique) technologique Représentation détaillée Définition des données Programmes Architecture réseau (hors contexte) Le fonctionnement "réel" Données métier réelles Code du programme Réseau physique réel de l'entreprise Source : BPMS / 2007 Page 37
  • 38. Le cadre Zachman (suite) Personnel - Temps - Motivation - Pourquoi Qui ? Quand ? ? Portée (contextuelle) Listes des organisations Liste des évènements Liste des objectifs Planificateur importantes pour l'activité significatifs pour le métier métiers stratégiques Modèle métier Modèle hiérarchique Modèle temporel Modèle d'objectifs (conceptuel) Modèle système (logique) Interface homme / document Structure de traitement Modèle de règle métier Modèle de technologie Matrice organisation / Structure de contrôle Modélisation des règles (physique) processus Représentation détaillée Architecture de sécurité Définition du calendrier Spécification des règles (hors contexte) Le fonctionnement "réel" Organisation métier réelle Planning Stratégie réelle de l'entreprise Source : BPMS / 2007 Autre méthode utilisée pour le traitement de l’incertitude, le processus MDA ou Model Driven Architecture, qui fut créé sur les base du langage de modélisation des objects OCL, créé en 1995 par Cook et Warmer chez IBM, et qui travaillèrent par la suite dans l’Object Management Group pour construire un modèle qui tendrait vers l’abstraction des éléments afin de pouvoir mieux assigner du sens et une perception unique des objets. Ce modèle considérait les programmes informatiques eux-mêmes aussi comme des abstractions et définit plusieurs niveaux partant de l’aspect général d’une donnée vers un modèle expressif et contextuel. Cela passe par un changement d’état des concepts en y ajoutant un degré de sens et de raisonnement pour accéder à un modèle MDA final. Les étapes intermédiaires passent par l’enrichissement de sens des concepts et l’ajout de métadonnées de haute qualité pour pouvoir cerner le contenu de l’information sans avoir à l’analyser en profondeur32. Enfin, il est à noter que les agents intelligents sont souvent utiliser pour leur capacité à se créer leur propres fonctions de croyances et à utilisés les logiques floues en adaptant le langage des ontologie en langage Pr-OWL qui raisonne en utilisant des algorithmes de calculs pour définir dans des tableaux des probabilités quant à l’exactitude des informations et à leur fiabilité. C) E-gouvernement : un enjeu international Dès 1998, le Secrétariat Général du Trésor du gouvernement du Canada a instauré une administration compétente nommée Service Canada pour gérer les services en ligne aux citoyens et faciliter leurs demandes dans les deux langues : français et anglais. L’e-gouvernement bien au-delà de voir l’aspect Internet des ministères a pour finalité de permettre une meilleur coordination des systèmes administratifs afin d’offrir une meilleur prise en charge des citoyens dans leur demandes officielles. Page 38
  • 39. L’objectif essentiel se situe à 3 niveaux essentiellement : - Du gouvernement vers les administrations publiques et collectivités - Entre administrations et entre ministères - Des administrations publiques vers les citoyens Concernant le plus ce dernier niveau, il a été important d’abandonner l’utilisation de services organiser en silo épars qui entraînaient une rigidité et une lenteur des services rendus aux citoyens et constituer des base de connaissances disparates sans connexions entre elles et se limitant à une application précise et sans lien avec les autres applications externes. Il a fallu réorganiser cette structure sous forme de « grappes » qui regroupe en rubriques, puis en domaine principaux les services des différentes administration afin de permettre un regroupement des personnels affectés et d’instaurer une coordination commune. L’objectif est à un niveau supérieur concernant le gouvernement en lui-même car les ministères sont très réticents face au changement, appuyés par le lobbying de principale société comme Bombardier, Industrielle Alliance qui sont des exemples de poids lourds du Produit Intérieur Brut national au Canada et donc la résistance au changement met un frein au déploiement de nouvelles technologies afin d’améliorer les systèmes administratifs et gouvernementaux. Mis à part cette résistance au changement, cette nouvelle architecture de l’information nécessite de réviser en profondeur les processus comme c’est le cas pour le vote électronique. En effet, ce cas d’application de gouvernement électronique a soulevé d’énormes débats concernant la réglementation de ce type de service, qui se différenciait des procédures de votes et de décomptage manuels. La sécurité fut ainsi au cœur de la réingénierie des processus en Angleterre par exemple, où des problèmes se posaient quand à la préservation de l’anonymat et à la gestion de la fraude et de défaillances informatiques des machines à voter. Il fallu également créer un cadre de responsabilisation des autorités locales en charge de ce type d’événements politique et définir le rôle précis de chacun pour veiller au bon déroulement des votes33. Des applications professionnelles voient le jour parmi les administrations européennes, notamment les pionniers que furent la Finlande, Belgique et Italie. Elles touchent le domaine des affaires électroniques avec notamment la disparition de la carte d’identité papier au profit d’une carte électronique à puce assurant une sécurité accrue. Les entreprises y ont vu un intérêt substantiel lors de signatures de contrat. Étant donné la valeur juridique reconnue depuis 2001 de la signature électronique, la combinaison avec une pièce d’identité du même format, permet d’authentifier les transactions professionnelles. C’est ainsi que les compagnies européennes ont fait la demande d’un accord avec la société Adobe pour utiliser le format PDF dans les contrats d’entreprise et pouvoir vérifier de manière sure l’identité des contractants avec la signature et Page 39
  • 40. l’eID, nom de la futur carte d’identité qui est en réflexion depuis 200534.Le sujet du dédouanage ou de la défiscalisation en ligne a été entrevue comme futurs services aux particuliers et entreprises à venir. Le potentiel est énorme lorsque l’on sait que par exemple 45% des européens ont consultés au moins une fois des informations sur les sites de l’administration publique en ligne, avec la Finlande en tête (62%), et que la Suède par exemple est en tête des utilisation professionnelles des administrations en ligne avec un taux de 94% constaté sur l’année 2005,selon le cabinet d’analyses statistiques Eurostat35. Cependant l’absence d’uniformisation des législations et des réglementations internationales opèrent des obstacles à la collaboration entre les gouvernements nationaux, notamment en Amérique du Nord où affecté par la culture, les pratiques disparates des gouvernements, des difficultés d’échanges d’information et de correspondances de normes s’établit entre Canada, États-Unis et Mexique. D’autant plus que le manque de transparence bloque les échanges et empêche des services d’êtres mis en place. La solution doit passer par l’élargissement de standards tels que l’ISO 15489 concernant les documents électroniques ou l’amélioration de l’éthique au niveau de la gouvernance des nations afin d’accélérer ce changement de mentalité et restructurer de manière homogène les fonctionnements de gouvernement en ligne entre les continents. Le président Obama a essayé d’entrevoir une possible entente et intégration du Canada au sein de la NAFTA ou ALENA (Association de Libre 2change Nord Atlantique) afin de travailler sur une plus grande collaboration du commerce continental et harmoniser les procédures, ce qui aura nécessairement des répercussions sur la vision d’e-gouvernement entre Canada et États-Unis. Ce document ne présente qu’un bref aperçu des possibilités et un excellent document émanant de la société Gemalto, leader mondial de la sécurité informatique, explique de manière très détaillée par secteur et applications les avancés récentes au niveau européen sur l’administration en ligne, que vous pourrez parcourir avec le lien suivant : http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf. Page 40
  • 41. Conclusion Internet a connu durant les années 1990 un progrès essentiellement technique. Le web sémantique et les nouvelles technologies, d’e-gouvernement, d’informatique omniprésente, nous ont montré en quoi Internet convergeait vers un progrès désormais organisationnel à tous les niveaux, que ce soit au niveau fondamental de la connaissance, avec une perception nouvelles des concepts et la recherche essentielle du sens, de la qualité des informations et de l’interopérabilité des services webs en réseau. L’apparition d’outil permettant une plus grande flexibilité et rapidité de traitement des informations permet de remodeler les processus d’affaires électroniques et de faciliter l’émergence de standards et cadres de travaux communs afin de développer un monde d’affaires plus collaboratif et basé sur l’interaction, l’échange d’information et une meilleure qualité des informations, et une meilleur compréhension de l’utilité de développer toujours plus les infrastructure en technologies de l’information afin de parer à la complexité et densité des flux de données qu’intègres les systèmes et bases de données de manière exponentielle. La collaboration passe également par l’adaptation des réseaux à une logique d’affaires, à un comportement social afin de faciliter l’intégration de solutions nouvelles dans l’atteinte des objectifs professionnelles, publiques, ou privés. Un meilleur partage de l’expérience sur les connaissances permettra de développer sans aucun doute d’ici une vingtaine d’années un Internet plus autonome, coopératif, simple d’accès et qualitatif. En ce sens ils se décisifs de toujours adapter la technologie par rapport à une finalité commune et non prendre celle-ci pour un but en soi. Internet, quelque soit l’ampleur grandissante qui lui sera attribuée ne devra pas occulter de nos esprits qu’un progrès du commerce électronique et d’Internet passe d’abord par une réflexion sur les besoins, les faiblesses, l’analyses de nos ressources et un cadre de travail et de planification précis afin d’atteindre ce but et utiliser internet comme tremplin de développement d’opportunités d’affaires. Page 41
  • 42. Bibliographie et Webographie 1 Semantic Web, d’après une entrevue entre le magazine Scientific American et Tim Berners-Lee en mai 2001 : http://www.sciam.com/article.cfm?id=the-semantic-web 2 Article Extensible Markup Language (XML) 1.0 (Second Edition),W3C Recommendation, 6 October 2000: http://www.w3.org/TR/2000/REC-xml-20001006 3 “Fact system”, université de Manchester, Ian Horrock: http://www.cs.man.ac.uk/~horrocks/FaCT/ 4 Présentation du projet Enersearch : www.ontoknowledge.org/downl/3review-del28.ppt 5 Voir l’article « Sears peut-elle se réinventer? » : http://www.polytech.unice.fr/~hugues/MIS/EDHEC1/Etude%20de%20cas%20SEARS.pdf 6 “Service Oriented Architecture Standards”,Jim Rubert : http://www.w3.org/2007/01/wos-papers/boeing 7 Plus de détails dans l’article Service Oriented Enterprise téléchargeable à l’adresse suivante : http://www.zdnet.fr/livres-blancs/0,39035134,60243299p-39002695q,00.htm 8 « Réussir une transformation bancaire », d’après une interview réalisée en 2006 auprès du vice-président de la direction du centre de l’excellence de l’Architecture Orientée Service du réseau Nordea, M.Siamak Amjadi : http://www.atelier.fr/applications-it/7/23102007/accenture-bea-soa-banque-35430-.html Page 42
  • 43. 9 D’après l’article “Swedish Railways Implements JBoss Enterprise SOA Platform For Improved Performance and Customer Service”: http://www.jboss.com/pdf/SwedishRailroads_casestudy.pdf 10 schéma extrait de l’article “Methodology for Development and Employment of Ontology based Knowledge Management Applications”, rédigé en 2002 par York Sure, Steffen Staab et Rudi Studer membres de l’ Institut für Angewandte Informatik und Formale Beschreibungsverfahren aus Karlsruhe: http://lsdis.cs.uga.edu/SemNSF/SIGMOD-Record- Dec02/Sure.pdf 11 Présentation du logiciel plus en détails: http://watson.kmi.open.ac.uk/Overview.html 12 Schéma extrait de l’article « Toward a New Generation of Semantic web Applications », rédigé par Mathieu d’Aquin, Enrico Motta, Marta Sabou, Sofia Angeletou, Laurian Gridinoc, Vanessa Lopez, and Davide Guidi, Open University, paru en mai 2008 sur le site IEEE computer Electronic. 13 Information relevée sur le site internet du logiciel : http://protege.stanford.edu 14 Artificial Intelligence: A Modern Approach by Stuart Russell and Peter Norvig, 1995 Prentice- Hall, Inc : http://www.cs.berkeley.edu/~russell/aima1e/chapter02.pdf 15 “A framework for dynamic knowledge exchange among intelligent agents”,publié au American Association for Artificial Intelligence (AAAI) Symposium Control of the Physical World by Intelligent Agents, New Orleans, LA, USA, November 1994 : http://www.cengeloglu.com/pub1.html 16 « Multi-agents et CORBA », rédigé par Philippe Merle Jean-Marc Geib, Laboratoire d’Informatique Fondamentale de Lille en France : : www2.lifl.fr/~merle/papers/95_GANYMEDE.ps.gz 17 D’après l’article «On the Architectures of Complex Multi-Agent Systems », Huaglory Tianfield *, Jiang Tian, de l’université de Glasgow en Ecosse et Xin Yao, de l’université de Birmingham au Royaume-Uni, publié en 2003 : Page 43
  • 44. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.58.393 18 Next-link project : http://www-cdr.stanford.edu/html/NextLink/NextLink.html 19 Schéma extrait de l’article « Traffic Signal Using Smart Agent System », publié en 2008 dans l’American Journal of Applied Sciences, rédigé par Cheonshik Kim et You-Sik Hong, chercheurs de l’université d’Anyang en Corée du Sud: http://www.scipub.org/fulltext/ajas/ajas5111487-1493.pdf 20 L’avenir de la RFID, centre de recherche public Henri Tudor, paru le 29 novembre 2005 par le journal Quotidien: http://www.tudor.lu/cms/henritudor/content.nsf/id/WEBR-7DSGJN?opendocument&language=fr 21 « RFID, mode d’emploi »,livre blanc, mai 2005, Stéphane Boss,responsable de la distribution Microsoft : http://www.logistique.com/image/stock-distribution/Microsoft-Distribution-RFID.pdf 22 RFID et logistique, site internet ZDnet : http://www.zdnet.fr/actualites/informatique/0,39040745,39139364,00.htm 23 RFID, Normes et Standards, Xavier Barras, directeur EPCglobal France : http://www.tracabilite.org/Media/pdf/documentation/presentations/Salon06/ME1_GS1_Xavier _BARRAS.pdf 24 Site internet Atelier : http://www.atelier.fr/article.php?artid=28474 25 D’après le livre “Ubiquitous computing in the real world: lessons learnt from large scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8 Novembre 2006. 26 D’après « Group Transport Planning and London Travel Report 2005 », émanant du Transport for London et de la note 25 précédente. Page 44
  • 45. 27 Capture extraite de l’article : “Ubiquitous computing in the real world: lessons learnt from large scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8 Novembre 2006. 28 D’après les recherches suivantes : Semantic Integration: A Survey Of Ontology-Based “Approaches” (Natalya F. Noy, Stanford Medical Informatics, Stanford University, SIGMOD Record, Vol. 33, No. 4, December 2004): http://www.sigmod.org/sigmod/record/issues/0412/13.natasha-10.pdf WonderWeb Deliverable D17, The WonderWeb Library of Foundational Ontologies, Preliminary Report (Claudio Masolo, Stefano Borgo, Aldo Gangemi, Nicola Guarino, Alessandro Oltramari, Luc Schneider, ISTC-CNR): http://www.loa-cnr.it/Papers/DOLCE2.1-FOL.pdf 29 Présentation d’outils d’annotation sémantique donnée faite au “2nd International Workshop on Enterprise and Networked Enterprises Interoperability”,ENEI’2006 – Vienna – September, 4 2006: http://www.loria.fr/~nacer/ENEI06/10-Invited-Talk.pdf 30 Article publié le 4 avril 2008 sur le site internet JDN Solution : http://www.journaldunet.com/solutions/acteurs/classement/08/bpms/0404-zachman.shtml 31 Tiré de BPMS,2007. 32 École de technologie supérieure Département de Génie logiciel et des TI de l’université UQAM de Montréal, « Document thématique OCL et MDA » : https://cours.ele.etsmtl.ca/academique/mgl/mgl806/Cours/Theme06_OCL.pdf 33 Page 45
  • 46. Voir l’article: “Using Business Process Re-engineering (BPR) for the Effective Administration of Electronic Voting”,rédigé par Alexandros Xenakis et Ann Macintosh, International Teledemocracy Centre, Napier University, Edinburgh Scotland UK: http://www.ejeg.com/volume-3/vol3-iss2/XenakisAlexandrosandMacintoshAnn.pdf 34 Article paru sur le site Pcimpact le 10 avril 2005 : http://www.pcinpact.com/actu/news/La_carte_didentite_garante_des_formats_PDF_en_Belg.h tm 35 « E-gouvernement 2.0 »,Gemalto, septembre 2007 : http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf Page 46