1. Evaluer la crédibilité
d’une ressource sur
internet
Alexandre Serres
URFIST de Rennes
Novembre 2010
Support sous Licence Creative Commons
2. A. Serres, URFIST Rennes, 20102
PLAN
1/ Introduction : contextes,
ruptures et continuités de
l’évaluation de l’information
2/ Complexités et notions-clés
de l’évaluation
3/ La crédibilité
4/ Démarche d’évaluation de la
crédibilité
3. A. Serres, URFIST Rennes, 20103
PLAN
1/ Introduction : contextes,
ruptures et continuités de
l’évaluation de l’information
Contexte socio-politique
Contexte socio-technique : quels
changements avec le web 2.0 ?
Une triple illusion à combattre
Permanence des difficultés de
l'évaluation
4. A. Serres, URFIST Rennes, 20104
1/ Introduction : les nouveaux
contextes de l’évaluation de
l’information
Quatre éléments :
Renversement du modèle de la
validation
Complexité de l’offre
informationnelle
Crise de la confiance
Nouvelles modalités d’évaluation
avec le web social
5. A. Serres, URFIST Rennes, 20105
Introduction : le contexte socio-
politique de la crédibilité
« Société de défiance généralisée »,
selon D. Schnapper (Le Monde, 15 juillet 2010)
Contradiction historique des démocraties entre :
« L’individu démocratique », en critique
permanente des institutions
Et nécessité de la confiance en autrui
Contradiction entre :
doute radical
adhésion sans limites
La raison face aux « sirènes du relativisme
absolu »
Question cruciale : en qui, en quoi avoir
confiance ?
6. A. Serres, URFIST Rennes, 20106
Contexte socio-technique : la
question de (la) confiance
locale globale
verticale
horizontale
Confiance
scientifique
Confiance
Internet
Source : Geoffrey Bilder, Journal
of Electronic Publishing, 2006
7. A. Serres, URFIST Rennes, 20107
Contexte socio-technique :
quels changements avec le
web 2.0 ?
Nouvelles valeurs et représentations :
Tyrannie de l'instant
Règne de la popularité, du buzz…
« L'évaluationnite » :
omniprésence de l'évaluation, du
jugement, du vote, de l'avis...
recours à l'affectif :
> nouveaux rapports à l'information ?
8. A. Serres, URFIST Rennes, 20108
Dérives et effets pervers de la
rhétorique de Facebook
?
?
9. A. Serres, URFIST Rennes, 20109
Contexte socio-technique :
quels changements avec le
web 2.0 ?
Nouvelles infopollutions :
confusion autorité/popularité :
Cf Technorati
dévalorisation des critères d'expertise, de fiabilité
propagation encore plus rapide des rumeurs, de la
désinformation
« effet de meute » :
sagesse ou folie des foules ?
usurpations d'identités, de représentativité
“astroturfing”
dérives de l'économie de la recommandation
10. A. Serres, URFIST Rennes, 201010
Contexte socio-technique :
quels changements avec le
web 2.0 ?
Nouvelles pratiques informationnelles :
Peu d'attention portée à l'évaluation
de l'information chez les jeunes
Nouvelles modalités d'évaluation :
pratiques collaboratives
fortes potentialités du collaboratif
Vérification collective de l'information
lutte plus forte contre infopollutions
cf rectifications sur Wikipedia
11. A. Serres, URFIST Rennes, 201011
Contexte socio-technique :
quels changements avec le
web 2.0 ?
Dans les outils et les techniques :
Essor des outils de filtrage, de validation,
d'identification...
Cf Web of Trust
Intérêt des outils collaboratifs :
réseaux de confiance
Rôle des métadonnées :
Web sémantique
Rôle de la statistique :
Qualité et quantité
12. A. Serres, URFIST Rennes, 201012
Contexte socio-technique :
quels changements avec le
web 2.0 ?
Dans les modèles de l'autorité et de la
crédibilité :
Remise en cause du modèle traditionnel de
l’auteur
Dissémination des expertises :
éclatement des monopoles du savoir
Nouvelles expertises :
collectif vs expert
13. A. Serres, URFIST Rennes, 201013
Introduction : triple illusion à
combattre
Illusion sociale :
confiance excessive dans la communauté :
limites des réseaux de confiance :
Illusion technique :
confiance excessive dans les outils :
limites des outils : par rapport à la fiabilité d'une information
dérive techniciste des modèles du filtrage collaboratif
et de l'économie de la recommandation
modélisation implicite des comportements
Illusion épistémologique :
Vision « objectiviste » de l’information avec le web
sémantique
limites de la formalisation des descriptions par métadonnées
Information comme interaction, construction
14. A. Serres, URFIST Rennes, 201014
Introduction : permanence des
difficultés de l'évaluation
Ce qui ne change pas :
Complexité de l'évaluation :
confusion des objets de l'évaluation
complexité des notions mobilisées
confusion des notions et critères
Multiplicité des cultures et
compétences
Nombreuses connaissances nécessaires
Imbrication des cultures
Difficultés de l'évaluation du document
numérique
15. A. Serres, URFIST Rennes, 201015
Introduction : du côté des
pratiques informationnelles des
jeunes
« la culture informationnelle des jeunes
ne s'est pas améliorée avec
l'augmentation de l'accès à la
technologie »
(enquête britannique: UCL, JISC, Estève-Bouvet, Isabelle (trad.).
Comportement informationnel du chercheur du futur.
16. A. Serres, URFIST Rennes, 201016
Introduction : du côté des
pratiques informationnelles des
étudiants
Confiance trop grande dans les résultats des
moteurs de recherche
Méconnaissance ou confusion des critères
d’évaluation
Facilité d’utilisation d’un site considérée comme critère
de crédibilité
Difficultés à évaluer l’information
Négligences dans le référencement
Pratiques de plagiat
17. A. Serres, URFIST Rennes, 201017
En conclusion de
l’introduction…
En résumé, l’évaluation de l’information
est une opération à la fois :
Beaucoup plus cruciale qu’avant internet
Beaucoup plus importante dans les études
universitaires
Plus difficile
Encore sacrifiée et méconnue
18. A. Serres, URFIST Rennes, 201018
PLAN
2/ Complexité et notions-clés
de l’évaluation
2.1 Rappel des difficultés de
l’évaluation de l’information
2.2 Quatre notions-clé à
distinguer
19. A. Serres, URFIST Rennes, 201019
2.1 Complexités de l’évaluation
de l’information
Ne pas occulter la complexité de
l’évaluation de l’information :
Pas de « recettes »
Pas d’outils-miracles
Démarche de questionnement :
Nombreuses connaissances nécessaires
Apprendre à discerner, à distinguer…
Evaluation de l’information = apprentissage du
jugement critique
20. A. Serres, URFIST Rennes, 201020
2.1 Complexités de l’évaluation
de l’information
Double distinction à opérer :
Entre les objets de l’évaluation :
Qu’est-ce qu’on évalue dans une ressource ?
Source, auteur, information, organisation de l’information,
facilité d’usage, présentation… ?
Entre les critères de l’évaluation :
Selon quels critères on évalue ?
Critères de crédibilité, d’autorité, de qualité, de pertinence,
d’usage ?
Imbrication des objets et des critères >> mais
double confusion assez fréquente
21. A. Serres, URFIST Rennes, 201021
2.1 Distinguer les objets de
l’évaluation de l’information
La structuration :
du document, du
site..
Cohérence, qualité,
présentation, facilité
de repérage…
L’usage :
Lisibilité, graphisme,
« utilisabilité » du
site…
Confusion fréquente
des objets à évaluer
:
Par ex. entre fiabilité
de source et facilité
d’accès
Dans toute
ressource, au
moins quatre
objets à évaluer :
La source,
l’auteur…
Fiabilité, crédibilité,
réputation, etc.
> connaissance des
circuits de
l ’édition...
L’information :
Qualité de
l’information,
validité, fiabilité…
> connaissances
disciplinaires
22. A. Serres, URFIST Rennes, 201022
2.1 Distinguer les notions et
critères
Des « allants-de-soi » peu explicités :
« Évaluer la qualité et la pertinence de
l'information », compétence D4.3 du nouveau B2i
Adultes
Mais qu’est-ce que la qualité de
l’information ? La crédibilité ?
L’autorité d’une ressource ? La
pertinence ?
Importance de bien distinguer ces notions, qui ne
se recouvrent pas
23. A. Serres, URFIST Rennes, 201023
2.2.1 Quatre notions à distinguer :
la crédibilité
Crédibilité = « Caractère, qualité rendant
quelque chose susceptible d'être cru ou
digne de confiance »
Synonyme de fiabilité
Rôle-clé de la confiance :
Crédibilité toujours à construire
Plus proche d’un sentiment que d’une
qualité factuelle
Crédibilité d’une ressource :
Qualité perçue, à partir de différents
indices
24. A. Serres, URFIST Rennes, 201024
2.2.1 Quatre notions à distinguer :
la crédibilité
Relations avec autres notions :
Crédibilité comme première condition de
l’autorité
Crédibilité comme élément de la qualité
de l’information
mais pas de recouvrement entre qualité et
crédibilité
Crédibilité différente de la véracité, ou de la
vérité
Crédibilité différente de la pertinence
25. A. Serres, URFIST Rennes, 201025
2.2.2 Quatre notions à distinguer :
“l’autorité cognitive”
« Il n'y a pas de si grand philosophe qui ne
croie un million de choses sur la foi d'autrui et
qui ne suppose beaucoup plus de vérités qu'il
n'en établit (...) Il faut donc toujours, quoi
qu'il arrive, que l'autorité se rencontre
quelque part dans le monde
intellectuel et moral. Sa place est variable
mais elle a nécessairement sa place. »
(Tocqueville, De la démocratie en Amérique,
1840)
26. A. Serres, URFIST Rennes, 201026
2.2.2 Quatre notions à distinguer :
“l’autorité cognitive”
Selon Patrick Wilson : « une relation d’influence de
pensée, impliquant au minimum deux personnes,
l’une accordant à l’autre sa confiance parce qu’elle
maîtrise un domaine spécifique de compétences »
Diversité des autorités cognitives :
Personnes, livres, organisations, outils…
Autorité cognitive fondée sur la crédibilité, la
réputation, l’expertise
Mais autorité plus forte que la crédibilité :
Notion d’influence choisie, de reconnaissance d’une
expertise
Idée de connaissance de « seconde main »
27. A. Serres, URFIST Rennes, 201027
2.2.2 Quatre notions à distinguer :
l’autorité
Notion « d’autorité informationnelle » (E.
Broudoux)
Quatre types d’autorités informationnelles :
L’autorité énonciative :
liée à un auteur, à un collectif… ;
L’autorité institutionnelle :
Éditeur, organisation, source…
L’autorité du support :
Liée au type de document ;
L’autorité de contenu :
« plausibilité intrinsèque » du texte
28. A. Serres, URFIST Rennes, 201028
2.2.2 L’autorité informationnelle en
contexte pré-numérique (Broudoux)
D’après Evelyne Broudoux, 2007
29. A. Serres, URFIST Rennes, 201029
2.2.2 L’autorité informationnelle en
contexte numérique (Broudoux)
D’après Evelyne Broudoux, 2007
30. A. Serres, URFIST Rennes, 201030
2.2.3 Quatre notions à distinguer :
la qualité de l’information
Trois grandes approches de la qualité :
« Qualité documentaire » :
Ensemble de critères, liés aux caractéristiques
formelles du contenu d’une ressource
Qualité de l’information, au sens info-news
Voir AQIT
Qualité des données (info-data) :
« La définition de la qualité est propre à l’utilisateur,
c’est-à-dire elle est relative à la satisfaction de ses
besoins en termes de choix et d’appréciation des
facteurs de la qualité » (Harrathi et Calabretto)
> Confondue avec la pertinence
31. A. Serres, URFIST Rennes, 201031
2.2.3 Quatre notions à distinguer :
la qualité de l’information
4ème approche de la qualité :
approche « usagers », selon Robert S.
Taylor (1986)
Jugements de valeur permanents de l’usager,
dans l’interaction avec ressources
Cinq valeurs :
l’exactitude (accuracy)
la complétude (comprehensiveness)
l’actualité de l’information (currency)
la fiabilité (reliability)
la validité (validity).
> qualité comme critère à la fois
documentaire et d’usage
32. A. Serres, URFIST Rennes, 201032
2.2.3 Quatre notions à distinguer :
la qualité de l’information
Qualité documentaire liée à la crédibilité et à
l’autorité, mais à distinguer également :
Ressource crédible : de plus ou moins bonne qualité
Ressource de bonne qualité, sans avoir une grande
crédibilité de réputation
Qualité documentaire varie selon le domaine :
Information juridique, économique…
Sur la qualité de l’information médicale, voir le Netscoring
Quelques critères « universels », communs à tous les
domaines :
Critères de l’information professionnelle
33. A. Serres, URFIST Rennes, 201033
2.2.3 Quatre notions à distinguer :
la qualité de l’information
L’information, selon les critères de
l’information professionnelle :
identifiée, « sourcée »
fiable
précise, exacte, complète
apportant du nouveau
fraîche, actualisée
accessible
ayant un impact, un effet
bien structurée, bien organisée, bien
rédigée
Qualité documentaire de l’information :
Seule vraiment formalisable pour l’évaluation
34. A. Serres, URFIST Rennes, 201034
2.2.4 Quatre notions à distinguer :
la pertinence
« Qualité de ce qui est adapté exactement à
l'objet dont il s'agit. »
Notion complexe, nombreux modèles,
nombreuses théories
Au fondement de la recherche
documentaire :
"Degré de corrélation entre une question
et la réponse apportée »
approche précise mais réductrice de la pertinence
Nécessité d’élargir la notion
Différentes catégories de pertinences
35. A. Serres, URFIST Rennes, 201035
2.2.4 Quatre notions à distinguer :
trois catégories de pertinences
La « pertinence-système » :
pertinence de la représentation du document (indexation...) et
recherche d'information elle-même.
les outils de recherche
La « pertinence-utilisateur » : trois types
pertinence de la formulation de la requête :
l’utilisateur + les outils (interfaces)
pertinence de la présentation des résultats :
uniquement les outils
pertinence du document par rapport au besoin :
uniquement l’utilisateur
La « pertinence-thème » :
pertinence du contenu du document par rapport au thème
évaluation de l’information
36. A. Serres, URFIST Rennes, 201036
2.2.4 Quatre notions à distinguer :
la pertinence
Dans l’évaluation de l’information, pertinence
= adéquation d’une ressource à :
un besoin précis :
De quel type d’information ai-je besoin ?
un contexte précis :
Dans quel but se fait la recherche d’information ?
un usage précis :
Pour quel type d’usage ? Usage facilité ou non ?
un individu précis :
Quel rapport avec le niveau, le degré de
connaissance du sujet, les représentations, les
opinions… ?
Impossibilité de formaliser l’évaluation de la
pertinence
37. A. Serres, URFIST Rennes, 201037
2.2.5 Quatre notions à distinguer :
en conclusion
Bien distinguer les combinaisons entre les notions.
Une ressource peut être :
crédible, de qualité, mais non pertinente :
Ex. d’une thèse en Licence
peu crédible, mais de qualité et pertinente :
Ex. d’un site personnel inconnu, mais de qualité et pertinent
crédible, mais de mauvaise qualité et non pertinente:
Ex. d’un article de revue de mauvaise qualité
non crédible et de mauvaise qualité mais pertinente
Ex. d’un site sectaire pour un dossier sur les secte
Pas de superposition entre ces trois ensembles de
critères
Pour l’usager, primauté de la pertinence sur
tous les autres
38. A. Serres, URFIST Rennes, 201038
PLAN
3/ Différentes facettes de la
crédibilité :
Typologies de la crédibilité
Critères et pratiques de la
crédibilité chez les usagers
Facteurs de la confiance
39. A. Serres, URFIST Rennes, 201039
3.1 Typologies de la crédibilité
Deux typologies de la crédibilité :
selon les objets de crédibilité :
Source, auteur, support, document
selon les types de crédibilités :
(Fogg et Tseng, 1999)
40. A. Serres, URFIST Rennes, 201040
3.1 Typologies de la
crédibilité :
selon les objets
Quatre objets de crédibilité à mesurer :
Crédibilité de la source :
Réputation, sérieux, notoriété, fiabilité de l’éditeur, de
l’organisation, du média, de l’hébergeur du site…
Première crédibilité à évaluer, car conditionne largement
les autres ;
Crédibilité de l’auteur :
Degré de confiance dans un auteur, lié à son
expertise, sa notoriété ;
Crédibilité essentielle sur internet, avec l’auto-
publication :
Ex. des blogs
41. A. Serres, URFIST Rennes, 201041
3.1 Typologies de la
crédibilité :
selon les objets
Crédibilité du support :
Image de sérieux, de fiabilité… du support, du média, du
type de document… :
Ex. : crédibilité plus forte d’une revue scientifique, par
rapport à une revue de vulgarisation, ou un blog…
Type de crédibilité difficile à mesurer sur internet
Crédibilité du document :
Image de sérieux et de fiabilité de la ressource elle-
même
Liée à la présentation, à la structuration, au type
d’expression, au type d’information…
Mais différent de la fiabilité de l’information
42. A. Serres, URFIST Rennes, 201042
3.1 Typologies de la crédibilité :
selon les facteurs de la crédibilité
Crédibilité présumée :
> représentations
Confiance accordée a priori à quelqu’un, à une source,
en fonction des représentations, des croyances, des
hypothèses des usagers…
Confiance plus forte pour un ami que pour un vendeur…
Crédibilité réputée :
> réputation
Confiance accordée selon la réputation, la notoriété,
l’affiliation d’une source à une autorité…
Confiance plus forte pour un site universitaire que pour un
site commercial
Typologie de Fogg et Tseng, 1999
43. A. Serres, URFIST Rennes, 201043
3.1 Typologies de la crédibilité :
selon les facteurs de la crédibilité
Crédibilité de surface, ou apparente :
> apparence, présentation :
Présentation d’une personne, d’une ressource, d’un site web
Ex. : registre de langue, couverture d’un livre, graphisme d’un site
web…
Comprend la crédibilité du support et du document
Rôle très important dans les pratiques des usagers
Crédibilité d’expérience :
> usage
Liée à l’expérience personnelle d’une personne, d’une
ressource, d’un site…
Comprend l’usage, ou « l’utilisabilité »
Typologie de Fogg et Tseng, 1999
44. A. Serres, URFIST Rennes, 201044
3.2 Critères et pratiques de la
crédibilité
Plusieurs études sur les critères spontanés d’évaluation
Nombreuses variables, différents clivages selon les publics
Clivage grand public / public expert
Etude de Stanford (Fogg, 2002)
2500 personnes concernées, tous horizons
Evaluation de la crédibilité d’une centaine de sites,
appartenant à 10 catégories thématiques
Mise en évidence de 18 critères d’évaluation
Prédominance très nette des critères de
présentation
45. A. Serres, URFIST Rennes, 201045
3.2 Critères et pratiques de la
crédibilité : étude de Stanford,
2002
46. A. Serres, URFIST Rennes, 201046
3.2 Critères et pratiques de la
crédibilité
Variable du niveau d’étude :
Etude de Ziming Liu et Xiaobin Huang (2005)
Comparaison entre étudiants de premier cycle et
étudiants avancés
Etudiants de premier cycle :
critères concernant l'auteur (réputation, affiliation…) (>81 %) ;
apparence (layout) (à 21,1 %) ;
réputation du site web.
Etudiants de second cycle :
Plus d’importance aux critères de contenu (véracité, qualité de
l’information, etc.)
47. A. Serres, URFIST Rennes, 201047
3.2 Critères et pratiques de la
crédibilité : étude de Liu et Huang
48. A. Serres, URFIST Rennes, 201048
3.2 Critères et pratiques de la
crédibilité
Variable interculturelle :
Même étude de Ziming Liu et Xiaobin Huang
Comparaison d’étudiants chinois et américains
Convergences dans les crédibilités
présumée et réputée :
Présence de références
Signalement sur un site respecté
Publication en parallèle dans une revue
imprimée
49. A. Serres, URFIST Rennes, 201049
3.2 Critères et pratiques de la
crédibilité
Différences, dans l’importance
accordée aux critères :
Chez étudiants chinois :
Fréquentation d’un site
Présence de tableaux et graphiques
Longueur du document
Chez étudiants américains :
Contenu informatif
Affiliation de l’auteur
50. A. Serres, URFIST Rennes, 201050
3.2 Critères et pratiques de la crédibilité :
la variable interculturelle
Aspects jugés les moins crédibles par les étudiants
américains et chinois. Étude de Liu et Huang
51. A. Serres, URFIST Rennes, 201051
3.2 Critères et pratiques de la crédibilité
:
la variable interculturelle
Rapports inverses aux crédibilités :
Pour les étudiants chinois :
Crédibilités apparentes, présumée et de
réputation : plus importantes
Crédibilité de contenu : sert à éliminer une
ressource
Pour les étudiants américains :
Crédibilité de contenu : la plus importante
Crédibilités de surface, de réputation et
présumée : conditions minimales, servent à
éliminer
52. A. Serres, URFIST Rennes, 201052
3.2 Critères et pratiques de la
crédibilité
Nombreuses variables,
complexité du jugement de
crédibilité
Intérêt et limites de l'évaluation
de la crédibilité
importance à l'université
rapport crédibilité/pertinence
53. A. Serres, URFIST Rennes, 201053
3.3 Les facteurs de la
confiance
Méta-étude britannique sur
la construction de la
confiance (Pickard, 2010):
Panorama des modalités de la
confiance des usagers
Dépouillement de plus de 220
références d’études
54. A. Serres, URFIST Rennes, 201054
3.3 Les facteurs de la
confiance
Identification précise des multiples « facteurs
de la confiance »
Trois grandes catégories :
les facteurs externes :
Liés à la source, au dispositif sociotechnique, à la
présentation… des sites web
« signes extérieurs de crédibilité »
Les facteurs internes :
Liés au contenu des ressources
Facteurs liés à l’état cognitif des usagers
55. A. Serres, URFIST Rennes, 201055
3.3 Les facteurs de la
confiance
Users’ trust in information resources in the Web environment: a status report
Facteurs externes, intervenant dans la confiance des usagers
56. A. Serres, URFIST Rennes, 201056
3.3 Les facteurs de la
confiance
Users’ trust in information resources in the Web environment: a status report
Facteurs internes, intervenant dans la confiance des usagers
57. A. Serres, URFIST Rennes, 201057
3.3 Les facteurs de la
confiance
Users’ trust in information resources in the Web environment: a status report
Facteurs cognitifs, intervenant dans la confiance des usagers
58. A. Serres, URFIST Rennes, 201058
PLAN
4/ Démarche d’évaluation de la
crédibilité
59. A. Serres, URFIST Rennes, 201059
4.1 Démarche pour
l’évaluation
Evaluer = apprendre à questionner
Développer son esprit critique
Apprendre à discerner entre les critères
Distinguer entre les composantes
d’une ressource :
Source
Contenu
Présentation
Usage
60. A. Serres, URFIST Rennes, 201060
4.1 Méthodologie : 6 principes pour
une démarche d’évaluation de
l’information
Savoir (se) questionner :
identifier l'objet de la recherche
Bien définir ses besoins d’information
bien cerner le sujet
traduire concepts en mots-clés
Bien utiliser les outils de recherche :
Mode avancé
Utiliser les opérateurs de filtrage
Bien identifier les ressources trouvées :
Bien décoder les URL
Identifier les sources, les auteurs, les documents
61. A. Serres, URFIST Rennes, 201061
4.1 Méthodologie : 6 principes pour
une démarche d’évaluation de
l’information
Evaluer la pertinence de la ressource :
Par rapport aux besoins, au contexte, au niveau
Evaluer la crédibilité et l’autorité :
De la source
Du support
De l’auteur
Du contenu
Evaluer la qualité de l’information :
Fiabilité, exactitude…
recouper, critiquer, comparer...
62. A. Serres, URFIST Rennes, 201062
4.2 Méthodologie :
bien identifier les résultats
Identifier :
Le site web :
Savoir décoder les URL
Identifier le nom, le statut de l’organisation, de
l’hébergeur...
L’auteur de la ressource :
Nom, statut, coordonnées...
La nature du document :
Vulgarisation, opinion, recherche…
Type de document : rapport, article, ouvrage…
63. A. Serres, URFIST Rennes, 201063
4.2 Savoir décoder les résultats de
Google
Type de
documents
Date du
document
Nationalité
du site
Origine,
type de
site
Type de ressource
Taille du document
Nombre de citations
Nom de
l’auteur
64. A. Serres, URFIST Rennes, 201064
4.3 Méthodologie : juger de la
pertinence des ressources
La ressource trouvée correspond-elle :
Au sujet ?
Est-elle pertinente sur le sujet ? Est-elle crédible ?
A mes besoins ?
Par rapport au type d’informations demandées
A la tâche demandée ?
La ressource peut-elle être utile pour un dossier, une note de
lecture, un mémoire… ?
A mon niveau ?
A mes connaissances ?
Document trop spécialisé ?
A une certaine facilité d’usage ?
Ressource plus ou moins compliquée à utiliser ?
65. A. Serres, URFIST Rennes, 201065
4.3 Méthodologie : juger de la
pertinence des ressources
Pour des recherches universitaires,
primauté des critères de crédibilité,
d’autorité et de qualité, qui font partie
de la pertinence
Voir l’importance de la crédibilité de la
source
Sauf pour les documents « contre-exemples »
Pour des recherches « pratiques »,
primauté des critères d’usage
66. A. Serres, URFIST Rennes, 201066
4.4 Méthodologie :
évaluer la crédibilité
Crédibilité de la source :
Quel est le sérieux de l’éditeur, de l’organisation, du média,
de l’hébergeur du site… ?
Quelle réputation, quelle notoriété ?
Faire des recherches sur la source
Crédibilité de l’auteur :
Quelle expertise, quelles autres publications ?
Quelle notoriété, quelles recommandations, quel réseau ?
Quelles intentions ? Pourquoi publie-t-il ?
Partager ses connaissances, se promouvoir, vendre,
défendre un point de vue, divertir... ?
Utiliser les moteurs de recherche de personnes, Google...
67. A. Serres, URFIST Rennes, 201067
4.4 Méthodologie :
évaluer la crédibilité
Crédibilité du document :
La nature du document est-elle précisée, visible ?
(article, communication de congrès…)
L’auteur est-il clairement indiqué ?
Le document comporte-t-il des références,
indique-t-il ses sources ?
Le document est-il bien structuré, cohérent, clair ?
Est-il bien rédigé ? (quelle qualité d’expression ?)
Est-il clairement daté ? (date de création, de mise
à jour…)
68. A. Serres, URFIST Rennes, 201068
4.4 Méthodologie :
évaluer l’autorité de l’auteur
Observer la notoriété, l’influence :
Pour les chercheurs :
le nombre de publications, les titres…
Le nombre et l’origine des citations
Ex. sur Google Scholar, ou avec Publish Or Perish
Pour les auteurs de blogs, de ressources :
le nombre de liens, de citations
Ex. sur Wikio
Mais rester critique face aux indicateurs de
popularité !
69. A. Serres, URFIST Rennes, 201069
4.4 Méthodologie :
évaluer la crédibilité
TP sur l’évaluation de la
crédibilité
70. A. Serres, URFIST Rennes, 201070
Références bibliographiques
BROUDOUX, Evelyne. Construction de l'autorité informationnelle sur le
web. In R. Skare, N. W. Lund et A. Vårheim. A Document (Re)turn:
Contributions from a Research Field in Transition. Frankfurt : Peter
Lang, 2007. Disp. sur :
http://archivesic.ccsd.cnrs.fr/docs/00/12/07/10/PDF/AutorInfo.pdf.
FOGG, B. J., & TSENG, H. ”The elements of computer credibility”.
Proceedings of the SIGCHI conference on Human Factors in
Computing Systems, 1999, p. 80–87
FOGG, B. J., SOOHOO, Cathy, DANIELSON, David R. How do people
evaluate a web site's credibility ? Results from a large study [En ligne].
Stanford, California : Persuasive Technology Lab Stanford University,
2002. 105 p. Disp. sur : < http://www.consumerwebwatch.org/pdfs/
stanfordPTL.pdf >
HARRATHI, Rami, CALABRETTO, Sylvie C. « Un modèle de qualité de
l'information ». In : EGC'2006. Lille : [s.n.], 2006. p. pp. 299-304. Disp.
sur :http://apmd.prism.uvsq.fr
/public/Publications/Articles/Un%20modele%20de%20qualite%20de%20l%20in
>
71. A. Serres, URFIST Rennes, 201071
Références bibliographiques
LIU, Ziming, HUANG, Xiaobin. « Evaluating the credibility of scholarly
information on the web: A cross cultural study ». The International
Information & Library Review [En ligne]. Juin 2005, Vol. 37, n°2, p. 102. Disp.
sur : < http://dx.doi.org/10.1016/j.iilr.2005.05.004
PICKARD, Alison Jane, GANNON-LEARY, Pat, COVENTRY, Lynne. Users’
trust in information resources in the Web environment: a status report [En
ligne]. Northumbria University : JISC (Joint Information Systems Committee),
2010. Disp. sur : < http://ie-repository.jisc.ac.uk/470/2/
JISC_User_Trust_final_report.pdf >
SCHNAPPER, Dominique. « En qui peut-on avoir confiance ? ». Le Monde
[En ligne]. 15 Juillet 2010.
UCL (University College London), JISC (Joint Information Systems
Committee), Estève-Bouvet, Isabelle (trad.). Comportement informationnel
du chercheur du futur. Information behaviour of the researcher of the future
[En ligne]. Londres, Paris : UCL (University College London), JISC (Joint
Information Systems Committee), 2008. Disp. sur : http://www.jisc.ac.uk
/media/documents/programmes/reppres/gg_final_keynote_11012008.pdf ;
Trad. en français disp. sur : http://www.savoirscdi.cndp.fr/fileadmin/
fichiers_auteurs/PDF_manuels/
Le_comportement__informationnel_du_chercheur_du_futur.pdf >