SlideShare ist ein Scribd-Unternehmen logo
1 von 87
Downloaden Sie, um offline zu lesen
La Statistique
            ou
comment tenter de s’affranchir
            de
       la Variabilité



          Dr Frédérick Gay
     CHU Pitié –Salpêtrière, Paris
“ Le Jeu de la Science et du Hasard "
                      Pr Daniel Schwartz



          Dans le domaine du vivant le hasard est roi.




                         duel serré entre :


Sciences de la vie
                                 ?                  Hasard
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
La Statistique parce que la Variabilité


• Les statistiques sont des dénombrements de sujets, d’objets,
  d’évènements, dans des populations ou des sous-populations.


• La statistique est un mode de pensée permettant de
  recueillir, de traiter et d’interpréter les données qu’on
  rencontre dans divers domaines, et tout particulièrement
  dans les sciences de la vie, du fait que ces données
  présentent une caractéristique essentielle :

                    la variabilité.
• Bien que la variabilité dans le domaine du vivant
  soit, aux yeux de tous, une évidence,




                         la force de cette évidence n’a d’égale
                   que la faculté de l’oublier à chaque instant.
• La variabilité peut être réduite par des procédés
  expérimentaux,



                                          mais non supprimée.
• La variabilité (qui comporte l’éventuelle erreur de mesure),
               traduit la fluctuation biologique.
Histoire personnelle du Pr Daniel Schwartz :
Mes rhododendrons fleurissent mal, j’avais fait venir un spécialiste :

" Vos rhododendrons manquent de terre de bruyère " fut son verdict.

Je rétorquais : " Vous m’étonnez, regardez ce Roseum elegans, c’est celui qui fleurit
le mieux, et je ne lui ai pas mis de terre de bruyère du tout. "

Regard désolé de l’agronome : " Voyons Monsieur Schwartz, vous qui êtes
statisticien, vous raisonnez sur un cas ? "

Tout en rougissant d’être tombé dans le piège contre lequel j’ai mis en garde des
milliers d’élèves, je notais que le spécialiste griffonnait quelques remarques sur ses
tablettes : " Qu’écrivez-vous là ? "

" Mais que le Roseum elegans se passe de terre de bruyère "

" Eh là ! Vous raisonnez sur un cas ! "

En cinq minutes, il avait oublié la variabilité….
• Certains caractères varient d’un moment à l’autre chez le
  même individu,



                              à la variabilité inter i dividuelle
                                                   - n
           se superpose ainsi une variabilité intra i dividuelle
                                                   - n
               (encore plus souvent oubliée que la première).
Une science du particulier ?

  L’individu diffère des autres individus,
  il diffère de lui-même d’un moment à l’autre.

  Ainsi, le domaine du vivant est fait de cas particuliers.

  Mais il n’y a de science que du général.
  Alors comment peut-il y avoir une science du vivant ?

Il faut adapter la science au domaine du particulier.
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
La science de l’incertain
• Du fait de la variabilité, on est dans le domaine de l’incertain.

• Adapter une science au particulier,
  c’est inventer une science de l’incertain.

• Mais l’incertain n’échappe-t-il pas par force à toute loi ?

• Science du particulier, science de l’incertain,
  l’association de ces mots est-elle possible à réaliser ?

           C’est le défi qu’a relevé la statistique,
        en s’appuyant sur le concept de probabilité.
La probabilité

• L’incertitude n’est pas en tout ou rien, elle présente des degrés.

• On qualifie un événement incertain de plus ou moins probable.

• Mesure de l’incertain :
  le rapport entre le nombre des cas où un événement se produit et le nombre
  des cas possibles (supposés également probables) = définition élémentaire
  de la probabilité, comprise entre 0 (0 %) et 1 (100 %).



•   Exemple :
    La probabilité de tirer un as dans un jeu de 52 cartes est le quotient de 4 (nombre de
    cas favorables) par 52 (nombres des cas possibles), soit environ 8%. Que je tire une
    carte rouge a une probabilité de 26/52 soit 50 %, c’est encore incertain, mais c’est
    plus probable.
Notre niveau d’ignorance


• La probabilité qu’un événement se produise n’a pas
  toujours une estimation figée une fois pour toutes.

•   L’estimation de la probabilité dépend des informations
    disponibles.

• Une fois prises en compte toutes les informations
  disponibles, les cas identiques pour ces informations ont
  tous une même probabilité du fait de notre ignorance. Ils
  forment un groupe homogène dans l’état de nos
  connaissances.
• " Lois du hasard " :
      2 mots apparemment incompatibles




                 ne sont pas des lois de certitudes




                                    mais des lois d’incertitude.
XVII siècle - cercles de jeu – Pascal

• Le chevalier de Méré, cherchait à gagner sur ses
  adversaires dans des paris où la chance de gain,
  légèrement supérieure à 50 %, donnait l’apparence
  d’un jeu équitable, mais lui assurait le succès sur
  une longue série.

• Un de ses paris était de sortir au moins un 6 en lançant quatre
  dés (probabilité de gain 51,77 %)

• Un autre était de lancer deux dés 24 fois en pariant sur
  l’apparition de deux 5 au moins une fois ; en fait, la probabilité
  de gain n’est ici que 49.14 % ; il aurait fallu pour gagner lancer
  les dés 25 fois et non 24.
XVII siècle - Cercles de jeu – Pascal

• Le chevalier Méré posa un jour un problème à Pascal :
  deux joueurs font une partie de pile ou face, le gagnant est celui qui obtient le premier
  3 résultats conformes à sa prédiction, la partie comporte plusieurs manches.


• Mais les joueurs sont obligés de l’interrompre prématurément à la fin
  de la première manche.

• Comment leur rendre les mises de façon équitable, en tenant compte
  du fait que l’un des joueurs avait gagné la première manche ?

• Pascal trouva la solution et voulut aussitôt l’exposer à Fermat :
  il le fit par une lettre dont la date, le 29 juillet 1654, est généralement
  considérée comme établissant les fondements du calcul des
  probabilités.
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
Description et Recherche


• Pour exposer la démarche statistique, il est utile de classer
  les problèmes en deux catégories :



            - les problèmes de description

                           et

            - les problèmes de recherche.
Description et Recherche


• Il est pratique de considérer que :


   – la description porte sur 1 caractère
     (la survenue d’un cancer, la cholestérolémie)


   – la recherche sur au moins 2 caractères
     (survenue d’un cancer et tabagisme, cholestérolémie et régime)
     La recherche commence quand on met à l’épreuve la
     liaison entre les deux caractères.
Description


• Les mauvaises langues prétendent qu’un statisticien se
  noya dans un cours d’eau dont la profondeur moyenne était
  de 20 cm.

• C’est qu’à l’endroit où il souhaitait patauger
  elle atteignait 2 mètres !

• Comment avait il peu oublier la variabilité, raison d’être de
                  -
  la statistique ?
Description

• L’idée, aujourd’hui presque évidente, de décrire une population, par des
  pourcentages ou des moyennes, a pourtant rencontré de fortes
  résistances.

• L’utilisation de pourcentages a été proposée par Pierre Louis, dans les
  années 1830, et violemment combattue aux Académies de médecine et
  des sciences.

• Dire qu’un caractère se présente 10 fois sur 100, prétendaient certains,
  c’est « mettre dans le même sac » 100 sujets qui ne sont pas
  comparables en raison de l’individualité humaine. Le Dr Double (son
  principal adversaire) estimait que chaque cas est nouveau et distinct, une
  maladie n’est pas une entité fixe et uniforme mais une série de situations
  variées.
Description


• Les "rapport numériques« (les taux) étaient bannis, il fallait se contenter
  de dire "souvent, rarement, dans le plus grand nombre des cas".


• Double concluait : "les calculs numériques et statistiques ne sont
  d’aucune manière applicables à la thérapeutique".

• Ainsi, la statistique présentée comme remède à la variabilité était
  condamnée au nom même de cette variabilité.

• Quand à l’usage des moyennes, il a été violemment combattu par Claude
  Bernard (adversaire résolu de la statistique) : il le ridiculisait par l’image
  du physiologiste qui, pour étudier l’urine moyenne européenne, puiserait
  dans l’urinoir d’une grande gare !
Effacement des individualités



• Puisque la probabilité est fonction des informations
  disponibles,



• les sujets deviennent tous pareils dans notre état
  d’ignorance, ils constituent un groupe homogène.
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
On ne dispose que d’échantillons


• Comme les fluctuations d’échantillonnage sont imprévisibles,

• car le hasard peut tout faire,

• que peut o dire du taux dans la population totale ?
         - n

• La méthode statistique nous apporte la solution,
  sous la forme d’un :

                 intervalle de confiance
                        (fourchette)
Risque d’erreur consenti



• Certitude impossible.

• Seule réplique valable :

                  la fixation d’un intervalle
                avec risque d’erreur consenti
Comment fixer le risque ?

• Dans certains problèmes, on peut chiffrer le coût de l’erreur
  et l’intérêt apporté par la dimension de la fourchette.

• En l’absence de telles informations, l’habitude est de
  choisir le risque de 5% considéré comme un moyen terme
  raisonnable.

• Pourquoi ?
   –   il est petit
   –   il conduit dans le calcul à une formule simple
   –   c’est un chiffre rond
   –   on a longtemps exprimé l’erreur en terme de paris, et admettre le
       risque 5 % revient à parier 20 contre 1.
Un peu d’histoire


• L’intervalle de confiance d’un pourcentage a été imaginé
  par Laplace dès 1789,

• puis utilisé par ses disciples, tout particulièrement par
  Poisson qui, dans les années 1830, le popularisa largement

• suivi dans le domaine médical par son élève Gavarret.

• Poisson choisissait pour la fourchette le pari à 212 contre 1 ; plus prudent
  que nous, Poisson choisissait au lieu de 5 chances sur 100, le risque d’erreur
  de 5 pour 1000, soit 1 pour 200, mais avec 212 au lieu de 200 la formule
  donnant la fourchette est plus simple.
Calcul de la “fourchette”

1 – La dimension de la fourchette diminue quand le nombre de sujet n de l’échantillon
   augmente, mais on n’est "récompensé "que proportionnellement à n
   (avec 4 fois plus de sujets, la fourchette n’est que 2 fois plus petite).


2 – Par contre, la dimension de la fourchette ne dépend pas de la taille de la population.


3 – Ceci est vrai que lorsque la taille de l’échantillon est petite par rapport à celle de la
   population, mais c’est un cas très général.



   Il ne faut pas d’avantage de sujets pour un sondage dans la population chinoise que
   dans celle de Mayotte.


   La dimension de la fourchette dépend du seul effectif de l’échantillon.
Les pièges de la fourchette


•   Le sens de la fourchette est souvent mal compris.

•   Il est faux de s’imaginer que la vraie valeur est sûrement dans la fourchette

•   Il n’y a pas une seule fourchette, mais une infinité, correspondant à tous les
    risques possibles.

•   Un autre faux pas, plus sournois et plus dangereux :
    Un chirurgien, auteur d’une nouvelle technique opératoire, veut s’assurer de son bien-
    fondé. Il écrit aux 1000 premiers patients qui en ont bénéficié et reçoit 100 réponses :
    75 sont très satisfaits, 25 non. Le succès évalué sur cet échantillon, est donc de 75 %.
    Le chirurgien ne se contente pas de ce résultat, il sait ce qu’est un intervalle de
    confiance et le calcule : [66% - 84 %].
Les pièges de la fourchette


•   Cependant, un doute le saisit :
    Comment se fait-il que 100 patients seulement sur les 1 000 se soient manifestés ?

•   Réponse :
    les 900 autres sont morts des suites de l’opération…
    Le taux de succès est donc de 75 sur 1000 et non 75 sur 100, et la donnée d’une
    fourchette savamment calculée autour d’un pourcentage aussi faux serait une
    absurdité.


                 une fourchette n’a de sens que si elle est estimée
                     à partir d’un échantillon représentatif.

                       Mais qu’est-ce que la représentativité ?
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
La représentativité


• Si l’échantillon diffère systématiquement de la population pour un
  caractère au moins,

• et comme un caractère est toujours lié à un écheveau de beaucoup
  d’autres,

• l’échantillon risque de différer de la population pour de nombreux
  caractères, peut-être précisément pour ceux qu’on étudie.


• Un tel échantillon n’est pas représentatif, on dit qu’il est biaisé.
Représentatif


• On croit souvent qu’un échantillon n’est représentatif que s’il est
  suffisamment grand.

• C’est faux !

• Un échantillon, si petit soit-il, est représentatif dès lors qu’il résulte d’un
  tirage au sort.



La taille de l’échantillon intervient sur la dimension de la fourchette.
Le tirage au sort


• Pour éviter ce biais, il faut donc que l’inclusion d’un sujet dans
  l’échantillon soit faite indépendamment de toutes les caractéristiques
  de ce sujet.

• La seule façon d’y parvenir est de recourir au hasard

• N’est-ce pas là, la définition du hasard ? :
  la rencontre de deux chaînes d’évènements indépendantes.


• La solution est donc le tirage au sort. Aussi appelle-t-on échantillon
  représentatif, un échantillon tiré au sort dans la population.
La courte paille

•   Le recours au hasard est une pratique ancienne.

•   L’objectif est de désigner les sujets indépendamment de toutes leur caractéristiques.

•   C’est bien ce qu’on vise aussi en statistique dans la recherche de la représentativité.

•   Le recours au tirage au sort pour obtenir la représentativité avait été évoquée par
    Laplace en 1783.

•   Mais il ne fut proposé comme méthode d’échantillonnage qu’au début du XXème siècle.
    En 1925, une résolution de l’Institut International de Statistiques envisageait encore
    deux procédés : choix judicieux et méthode aléatoire.

•   Des progrès, considérables dans le choix des échantillons devaient résulter des
    sondages d’opinion, pratiqués de plus en plus aux Etats-Unis, notamment pour les
    élections présidentielles.

•   Une date cruciale est le 3 novembre 1936 où F.D. Roosevelt fut élu, alors que son
    concurrent Landon était donné gagnant par un sondage de plus de 2 millions de
    personnes. Mais les sujets interrogés étaient les abonnés au téléphone, le grand
    nombre étant censé (quelle erreur !) tenir lieu de représentativité.
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
Le jeune accoucheur
•   Un jeune accoucheur entreprit, pour sa thèse, une enquête réunissant 1000 cas.


    Accouchements              Avec accoucheur                       Sans accoucheur
    Nb de cas                        500                                     500
    Nb de complications               20                                      60
    soit en %                        4%                                      12 %



•   Les taux de complications observés sont différents dans les deux séries.

•   Mais les taux vrais ne sont pas nécessairement 4 % et 12 %, ils sont dans une fourchette autour de ces valeurs.

•   Peut-être que le taux vrai est le même dans les deux séries ?

•   Pour le savoir, il faut effectuer un « test statistique », ce que fit L’accoucheur.

•   La réponse est très claire : si le taux vrai de complications était le même avec et sans accoucheur,
    on aurait eu moins de 1 chances sur 100 000 d’obtenir une différence aussi grande que celle observée.

•   Cette hypothèse est donc invraisemblable : la différence observée est probante.

        Peut-on pour autant en conclure qu’on doit faire appel à l’accoucheur ?
Désillusion


• C’est ici le moment d’avouer que les résultats
  n’étaient pas ceux annoncés dans le tableau.

• En réalité la différence était dans le sens inverse :
  le taux de complications était plus élevé en faisant
  appel à l’accoucheur !

• Résultat plutôt embarrassant pour l’auteur de
  l’enquête !
Explication



• On faisait surtout appel à l’accoucheur
  quand la situation se présentait mal.

• Les deux groupes avec et sans accoucheur
  n’étaient pas comparables.
Un nouveau mode de pensée
• Les véritables fondateurs de la théorie des tests d’hypothèse sont Jerzy
  Neyman et Egon Pearson (Pearson II, fils de Karl) au cours d’une
  collaboration qui fut si étroite , entre 1926 et 1933, qu’on citait toujours le duo
  Neyman - Pearson, alors que le premier était en Pologne et le second en
  Grande Bretagne.

• Analogie de pensée entre le test statistique et le jugement d’un inculpé :
  série de débats passionnés entre mathématiciens, philosophes et hommes
  politiques sur les fondements de la justice.

• Condorcet le premier proposait en 1785 une formule permettant, sous
  certaines hypothèses de calculer la probabilité de condamner un innocent.

• Laplace en 1830, précisant la formule, l’appliquait aux jugements en Cours
  d’Assise où les jurys comprenaient 12 jurés, la condamnation étant
  prononcée à la majorité (7 voix contre 5).

• Laplace montrait que le risque d’erreur était alors de ¼, valeur manifestement
  intolérable !
Justice et Statistique
• En 1830, la proportion était portée à 8 voix contre 4, mais même avec cette
  modification le risque d’erreur restait encore très élevé.

• Arago exposait à la Chambre des Députés que « sur 8 hommes qui montent
  à l’échafaud, il y en a 1 d’innocent ». Et de proposer de baisser le risque à
  1/16.

• Condorcet : « Il est de notre nature de ne pouvoir juger que sur des
  probabilités. Il n’est donc pas injuste de condamner un innocent pourvu que
  l’on soit assuré qu’il y a une grande probabilité que la décision rendue soit
  exacte ».

• C’était bien proposer la politique du risque consenti, avec intervention du
  calcul des probabilités.

• Si l’on considérait comme obligatoire d’envoyer un innocent à l’échafaud (le
  plus rarement possible), c’est bien qu’on prenait en compte, l’autre risque,
  celui de relaxer un coupable.
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
Définition de la cause dans le domaine de l’incertain




• Dans le domaine de l’incertain, un facteur est causal

                     s’il provoque

             une augmentation de probabilité de l’évènement.
De la définition à la preuve
• Comment prouver qu’un facteur provoque une augmentation de probabilité
  d’un évènement ?

• Le test statistique permet de conclure qu’une augmentation est réelle et
  non le fruit du hasard, mais peut-il aller plus loin ?

• Les déboires du jeune accoucheur nous mettent sur la voie : si l’on ne
  pouvait conclure de ses données que le recours à l’accoucheur favorise les
  complications, c’est parce que les deux groupes comparés n’étaient pas
  comparables.

• Mais comment assurer la comparabilité ?

• Qu’est-ce la comparabilité ?

• Est-ce une condition suffisante pour permettre l’imputation causale ?
La tare foncière de l’enquête d’évaluation

• La faille est que le chercheur n’a pas décidé quels sujets fumeraient ou ne
  fumeraient pas.

• Les groupes « fumeurs » et « non- fumeurs » se sont constitués d’eux-
  mêmes.

• On s’est contenté d’observer.

• C’est une règle générale dans une enquête d’observation, les groupes
  s’étant constitués spontanément à partir d’un facteur (le sujet fume ou
  non), plausiblement lié à beaucoup d’autre, on ne sait plus lequel
  incriminer.

 La non comparabilité des groupes rend l’imputation causale impossible.
• L’imputation causale à la suite d’une simple
  enquête d’observation est une erreur grave
  et courante commise presque par réflexe
  comme l’oubli de la variabilité.
Cause ou Conséquence ?

• En suivant une cohorte de sujets, on a observé un risque plus élevé de cancer
  chez ceux qui avaient une cholestérolémie basse.

• Pensez à l’écoeurement de ceux qui s’étaient longtemps privés de foie gras ou
  de crème au chocolat pour éviter l’infarctus.

• Heureusement, les médias ignorèrent ce résultat :
  on aurait crié haro sur les épidémiologistes !

• En fait, les sujets atteints de cancer non encore diagnostiqué présentaient déjà la
  cachexie des cancéreux.

 La baisse de cholestérol était la conséquence et non la cause du cancer !
L’effet pris pour la cause


• De même, dans des enquêtes en médecine du travail, on a
  souvent observé que le personnel affecté à des postes
  pénibles avait une mortalité plus faible que le personnel
  travaillant à des postes de tout repos.

• Une explication est bien sûr l’auto s
                                    - élection ou la sélection
  par la médecine du travail, qui ne retient pour les postes
  pénibles que les sujets en très bonne santé.

Une enquête d’observation peut aboutir à l’erreur extrême, où
                l’effet est pris pour la cause.
L’effet pris pour la cause



• « 70 % des gens meurent au lit »




                         « Moralité : ne vous couchez pas ! »




L’enquête d’observation ne peut établir que des corrélations.
La solution : le tirage au sort


• Si l’on veut constituer des groupes comparables, il faut que
  l’inclusion de chaque sujet dans le groupe A ou B soit
  indépendante de toutes les caractéristiques du sujet.

• La solution est, comme dans le problème de
  représentativité, le tirage au sort.

• L’opération qui affecte un sujet dans le groupe A ou B par
  tirage au sort est appelé randomisation (random =hasard)
Eviter les biais


• Deux groupes constitués par tirage au sort ne sont pas
  certes identiques mais ils ne présentent pas de différence
  systématique.

• Ils se ressemblent « en moyenne »

• Pour chaque caractéristique, connue ou inconnue, des
  sujets, la valeur moyenne tend à être la même dans les
  deux groupes.
Imputation causale avec risque d’erreur consenti


• Le tirage au sort apporte surtout une garantie fondamentale
  en matière d’imputation causale.

• Fisher : « Si l’on a constitué les groupes par tirage au sort,
  on peut conclure à la causalité avec le risque d’erreur et le
  degré de signification du test statistique utilisé. »

• Dans la comparaison de deux traitements attribués par tirage au sort, si l’on
  adopte le seuil 5 %, une différence significative est attribuable aux
  traitements avec le risque d’erreur 5 %.
• Si les groupes A et B n’ont pas été constitués par tirage au sort, on peut
  seulement conclure que les chances de guérisons sont inégales, mais ce
  résultats ne peut pas être attribué aux traitements.
Attention au piège !


• Sur un échantillon tiré au sort dans la population des
  femmes venues accoucher dans une maternité, on
  observe un taux plus élevé de prématurés chez celles
  qui ont effectué des travaux pénibles.

• Le travail pénible est-il cause de la plus fréquente
  prématurité ?

• « Cette imputation causale est possible puisqu’il y a
  eu tirage au sort » ???
Aïe Aïe Aïe !!!


• Faux !

• Pour qu’on puisse démontrer la causalité, il aurait fallu constituer deux groupes
  de femmes comparables :
    – les unes soumises à un travail pénible
    – les autres non
    – par tirage au sort à l’intérieur de l’échantillon.


• Que l’échantillon ait été tiré au sort dans une population initiale permet
  seulement d’extrapoler à cette population la conclusion observée sur
  l’échantillon, mais qui est le constat d’une relation dont la nature causale n’est
  en rien démontrée.
Tirage au sort à 2 niveaux


• Un tirage au sort à l’intérieur de l’échantillon, assure la
  comparabilité des deux groupes, il est indispensable pour
  l’imputation causale.

• En amont, un tirage au sort de l’échantillon dans une
  population- mre permet, grâce à sa représentativité,
                 è
  l’extrapolation à la population des conclusions observées sur
  l’échantillon.

• Ce tirage au sort dans une population mère, le plus souvent,
  n’a pas lieu.
La statistique basée sur des hypothèses de distribution

1.   Variabilité
2.   Incertitude et Probabilité
3.   Description versus Recherche
4.   Échantillon et Intervalle de confiance
5.   Représentativité et Tirage au sort
6.   Comparabilité
7.   Causalité
8.   Questions « existentielles »
Déduction / Induction


• Alors que dans le calcul des probabilités, une
  démarche déductive permet au sein d’une
  population, des prédictions pour les échantillons
  qui en sont tirés au sort,

• la méthode statistique vise à induire, à partir d’un
  échantillon, des propriétés d’une population,
  parfois bien déterminée, mais souvent abstraite,
  forgée à l’image de l’échantillon.
Autre question


• Des résultats obtenus pour un groupe sont il applicables à
                                          -
  un individu particulier ?


• Réponse = oui,
  dans le cadre des groupes homogènes tenant compte des
  facteurs (de guérison dans notre exemple) connus à
  l’époque, puisqu’alors tous les sujets du groupe sont
  pareils.
Critères de présomption causale de Bradford Hill

   1 – Force de l’association

   2 – Relation dose e
                   - ffet

   3 – Pas d’ambiguïté sur la chronologie

   4 – Constance des résultats dans diverses études

   5 – Plausibilité de l’hypothèse

   6 – Cohérence des résultats

   7 – Spécificité de l’association
Exemple


Le tabac, sûrement coupable de causer le cancer bronchique,
ne vérifie le critère de spécificité dans aucun des deux sens :

      - il n’est pas la seule cause

      - il occasionne d’autres pathologies.
Le lever du soleil

• La cause est e comme le proclame Chantecler dans la
             - lle,
  pièce d’Edmond Rostand, le chant du coq ?

• La relation vérifie de multiples critères de la liste de
  Bradford Hill :
   – force de l’association ? ((le coq s’époumone)
   – loi dose- effet ? (le soleil est-il éclatant)
   – l’ordre chronologique, si important ? (témoignage coléreux du
     Grand duc : il chante quand la nuit est encore bonne et fraîche)
   – le dernier critère de la liste est le plus frappant :
     le coq chante-t-il au lever de la lune ?
     les canards chantent-ils au lever du soleil ?
     Il y a donc spécificité à double sens.
Le lever du soleil

Cependant, dans la pièce d’Edmond Rostand, la faisane
dorée, amoureuse de Chantecler et jalouse de l’aurore,
l’emmène une nuit au concert du rossignol.

Chantecler fasciné en oublie de chanter.

Et le soleil se lève quand même.

Ainsi, tous les arguments accumulés par la seule
observation étaient ils balayés par la voie royale de
                   -
l’expérimentation.
“Le renard et les raisins” (La Fontaine)

•   Devant la difficulté de l’imputation causale, il faut parfois savoir délaisser
    (provisoirement) la recherche des causes.

•   Il et souvent possible de guider l’action à partir de facteurs de risque d’une maladie,
    sans se préoccuper aucunement de savoir s’ils jouent un rôle causal.

•   En périnatologie :

     – La démarche statistique permet de ne retenir qu’un tout petit nombre des nombreux facteurs
       qui, chez la femme enceinte, font présager une mauvaise issue de la grossesse.

     – Judicieusement combinés, ils désignent les grossesses à risque.

     – Pour ces cas sera adoptée une conduite ne visant pas à peser sur les facteurs de risque,
       dont le rôle causal est ignoré : on recommandera seulement aux femmes des visites plus
       fréquentes.

     – Cette démarche méthodologique ne nous éclaire pas sur le déterminisme du mal à
       combattre, mais elle guide l’action.

      Il n’est pas toujours nécessaire de comprendre pour agir.
•   1ère Partie
      La statistique basée sur des hypothèses de distribution

•   2ème Partie
      Choix d’un test statistique

•   3ème Partie
      Traitement statistique de petits échantillons
      et tests exacts

•   4ème Partie
       Analyses factorielles multidimensionnelles
Choix d’un test statistique pour mesures quantitatives
             provenant d’une distribution gaussienne

                  Objectif                                Calcul ou Test

•   Décrire un groupe                          •   Moyenne, DS
•   Comparer 1 groupe à une valeur             •   Test t pour un échantillon
    hypothétique
•   Comparer deux groupes                      •   Test t non pairé
    non appariés
•   Comparer deux groupes appariés             •   Test t pairé
•   Comparer 3 groupes indépendants            •   ANOVA à une voie
    (ou davantage)
•   Comparer 3 groupes appariés                •   ANOVA pour mesures répétées
    (ou davantage)
•   Quantifier une association entre deux      •   Corrélation de Pearson
    variables
•   Prédire une valeur à partir d’une autre    •   Régression linéaire simple ou
    variable mesurée                               régression non linéaire
•   Prédire une valeur à partir de plusieurs   •   Régression linéaire multiple ou
    variables mesurées ou binomiales               régression non linéaire multiple
Choix d’un test statistique pour mesures quantitatives provenant
 d’une population non gaussienne, pour rangs ou pour scores

                  Objectif                                Calcul ou Test

•   Décrire un groupe                          •   Médiane, écart interquartile
•   Comparer 1 groupe à une valeur             •   Test de Wilcoxon
    hypothétique
•   Comparer deux groupes                      •   Test de Mann-Withney
    non appariés
•   Comparer deux groupes appariés             •   Test de Wilcoxon
•   Comparer 3 groupes indépendants            •   Test de Kruskal-Wallis
    (ou davantage)
•   Comparer 3 groupes appariés                •   Test de Friedman
    (ou davantage)
•   Quantifier une association entre deux      •   Corrélation de Spearman
    variables
•   Prédire une valeur à partir d’une autre    •   Régression non paramétrique
    variable mesurée
•   Prédire une valeur à partir de plusieurs
    variables mesurées ou binomiales
Choix d’un test statistique pour variables binomiales

                   Objectif                                 Calcul ou Test

•    Décrire un groupe                          •   Proportion
•    Comparer 1 groupe à une valeur             •   Test du chi-carré ou test
     hypothétique                                   binomial
•    Comparer deux groupes non                  •   Test exact de Fisher (test du chi-
     appareillés                                    carré pour les grands échantillons)
•    Comparer deux groupes appareillés          •   Test de Mc Nemar
•    Comparer 3 groupes indépendant ou          •   Test du chi-carré
     davantage
•    Comparer 3 groupes appareillés ou          •   Q de Cochran
     davantage
•    Quantifier une association entre deux      •   Coefficients de contingence
     variables
•    Prédire une valeur à partir d’une autre    •   Regression logistique simple
     variable mesurée
•    Prédire une valeur à partir de plusieurs   •   Régression logistique multiple
     variables mesurées ou binomiales
Choix d’un test statistique pour temps de survie

                 Objectifs                           Calcul ou Test

  •   Décrire un groupe                   •   Courbe de Kaplan-Meier

  •   Comparer deux groupes               •   Test de log rank
      non appariés                            ou Test de Mantel-Haenszel

  •   Comparer 2 ou plus de 2 groupes     •   Régression conditionnelle des
                                              risques instantanés
  •   Comparer 3 groupes
      indépendants ou davantage
  •   Prédire une valeur à partir d’une   •   Régression des risques
      autre variable mesurée                  instantanés proportionnels de
  •   Prédire une valeur à partir de          Cox
      plusieurs variables mesurées ou
      binomiales
•   1ère Partie
      La statistique basée sur des hypothèses de distribution

•   2ème Partie
      Choix d’un test statistique

•   3ème Partie
      Traitement statistique de petits échantillons
      et tests exacts

•   4ème Partie
       Analyses factorielles multidimensionnelles
•   Mesure quantitative
                                             •   Intervalles entre les valeurs
Perte d’information
                      Echelle d’intervalle       sont connues
                                             •   Opération arithmétiques
                                                 possibles

                                             •   Catégories ordonnées
                      Echelle ordinale       •   Valeur des différences entre 2
                                                 catégories non connues
                                             •   Opérations impossibles

                      Echelle nominale       •   Catégories sans ordre

                      Echelle binomiale      •   Echelle nominale à 2 catégories
                                                 (binominales
Echantillons indépendants          Echantillons appariés

      Facteurs contrôlés           Non prise en compte des
                                      facteurs entraînant des
     + facteurs aléatoires        différences à chaque mesure

Prise en compte de la variation   Seul compte le changement
         intra é
             - chantillon           entre les 2 (ou n) mesures




       Les tests statistiques ne sont pas les mêmes
Grille de choix d’un test statistique pour petits échantillons
                                                         Echelles de mesure

 Echantillons                Choix          Catégories        Catégories            Echelle
                            Binomial        nominales          ordinales          d’intervalle

 Un seul échantillon      Test binomial      Chi2 de bonne adéquation             Test de
                                                                                redistribution

 Deux échantillons          Test de                          Test du signe         Test de
    appariés               McNemar                                              permutations
                                                                                pour mesures
                                                                                    pairées
                                                                              Test de Wilcoxon

 Deux échantillons        Test exact de      Test Chi2 de                          Test de
    indépendants            Fisher            Pearson                            permutations
                                                                                 pour mesures
                                                                                 indépendantes
                                                                 Test de Mann et Whitney

 Plus de 2 échantillons   Test de Cochran                        Test de Friedman
  appariés                                                   Test de Page (colonnes ordonnées)
Grille de choix d’un test statistique pour petits échantillons
                                                        Echelles de mesure

 Echantillons              Choix         Catégories          Catégories             Echelle
                          Binomial       nominales            ordinales           d’intervalle

 Plus de 2 échantillons    Test du Chi2 de Pearson                           Analyse de variance
    indépendants                                                              par permutation
                                                                                des scores

                                                                Test de Kruskal et Wallis
                                                                Test de Jonckheere- Terpstra
                                                                   (colonnes ordonnées)

 Mesure de                 Coefficient de contingence           Coefficience de corrélation par
 l’association entre           Kappa de Cohen                         rang de Spearmann
 Variables                                                      Coefficient de concordance
                                                                         de Kendall
5 LFK HVVH G ಬ LQI R U P DW LR Q



        ( [ LJ HQFH G HV W HVW V


5 LVT XH G H  ªU H HVS ªFH LQFK DQJ «


5 LVT XH G H  ªP H HVS ªFH DXJ P HQW «


     3XLVVDQFH
•   1ère Partie
      La statistique basée sur des hypothèses de distribution

•   2ème Partie
      Choix d’un test statistique

•   3ème Partie
      Traitement statistique de petits échantillons
      et tests exacts

•   4ème Partie
       Analyses factorielles multidimensionnelles
Un mode de pensée souvent paradoxal

• La méthode statistique est une succession de démarches le plus souvent
  contraires à notre mode de pensée. Le calcul des probabilités vise à établir la
  rigueur dans l’incertain, à assigner des lois au hasard.

• Pascal parlait de « la géométrie du hasard ».

• La statistique nous propose d’abord la politique du risque d’erreur consenti,
  certes la plus intelligente dans le domaine de l’obligatoire incertitude, mais qui
  implique que, dans un pourcentage accepté de cas, le résultat obtenu à la
  suite d’opérations mathématiques plus ou moins sophistiquées sera faux.

• L’estimation par intervalle de confiance présente comme un triomphe un résultat
  doublement incertain : non pas la valeur exacte, mais une fourchette qui l’entoure,
  et il n’est pas certain que la valeur exacte soit dans la fourchette.
Le Hasard au service de la Science

• Cette méthode n’est possible que si l’échantillon est représentatif et comment
  obtenir cette représentativité ? Par choix raisonné ?

• Pas du tout, en recourant au hasard, absence de raison par excellence.

• En matière de recherche, le test statistique n’évalue pas la vraisemblance de
  l’hypothèse en fonction des données, mais la vraisemblance des données en
  fonction de l’hypothèse.

• L’hypothèse qu’on teste, quand on veut éprouver l’efficacité d’un traitement, c’est
  l’hypothèse de son inefficacité, la fameuse hypothèse nulle.

• Devant une différence significative, pour prouver la causalité, il faut comparer
  deux groupes comparables.

• On ne recherchera pas cette comparabilité par un choix raisonné, on
  demandera au hasard de faire mieux que nous !

       Pour finir, on aura quand même fait de la science !
La Statistique ou comment tenter de s'affranchir de la variabilité

Weitere ähnliche Inhalte

Andere mochten auch

Formation cybercriminalite-alain-stevens
Formation cybercriminalite-alain-stevensFormation cybercriminalite-alain-stevens
Formation cybercriminalite-alain-stevens
lecointe666
 
Atelier tic et évaluation aqep_dec13
Atelier tic et évaluation aqep_dec13Atelier tic et évaluation aqep_dec13
Atelier tic et évaluation aqep_dec13
Mélanie Ducharme
 
Baromètre edonateurs 2014
Baromètre edonateurs 2014Baromètre edonateurs 2014
Baromètre edonateurs 2014
Karima Benamer
 
Frederic mistral presentation
Frederic mistral presentationFrederic mistral presentation
Frederic mistral presentation
Andrea Mowers
 

Andere mochten auch (20)

Cartographie statistique décisionnelle--Rendez-vous Ritme du 6 mars 2014
Cartographie statistique décisionnelle--Rendez-vous Ritme du 6 mars 2014Cartographie statistique décisionnelle--Rendez-vous Ritme du 6 mars 2014
Cartographie statistique décisionnelle--Rendez-vous Ritme du 6 mars 2014
 
Data Entry in CSpro
Data Entry in CSproData Entry in CSpro
Data Entry in CSpro
 
Slides udm-080910
Slides udm-080910Slides udm-080910
Slides udm-080910
 
Scikit-learn: apprentissage statistique en Python. Créer des machines intelli...
Scikit-learn: apprentissage statistique en Python. Créer des machines intelli...Scikit-learn: apprentissage statistique en Python. Créer des machines intelli...
Scikit-learn: apprentissage statistique en Python. Créer des machines intelli...
 
Chapitre4 Les sondages à probabilité inégales
Chapitre4 Les sondages à probabilité inégalesChapitre4 Les sondages à probabilité inégales
Chapitre4 Les sondages à probabilité inégales
 
Àlbum lector de 2n batxillerat
Àlbum lector de 2n batxilleratÀlbum lector de 2n batxillerat
Àlbum lector de 2n batxillerat
 
La lutte contre le paludisme: à la recherche des stratégies complémentaires
La lutte contre le paludisme: à la recherche des stratégies complémentairesLa lutte contre le paludisme: à la recherche des stratégies complémentaires
La lutte contre le paludisme: à la recherche des stratégies complémentaires
 
Formation cybercriminalite-alain-stevens
Formation cybercriminalite-alain-stevensFormation cybercriminalite-alain-stevens
Formation cybercriminalite-alain-stevens
 
The Duquesne group, en 4 slides
The Duquesne group, en 4 slidesThe Duquesne group, en 4 slides
The Duquesne group, en 4 slides
 
2013 09-17 sadc - médias sociaux
2013 09-17 sadc - médias sociaux2013 09-17 sadc - médias sociaux
2013 09-17 sadc - médias sociaux
 
Web Conférence Humanis - ANI 2013 et décret du 9 janvier 2012
Web Conférence Humanis - ANI 2013 et décret du 9 janvier 2012Web Conférence Humanis - ANI 2013 et décret du 9 janvier 2012
Web Conférence Humanis - ANI 2013 et décret du 9 janvier 2012
 
Atelier tic et évaluation aqep_dec13
Atelier tic et évaluation aqep_dec13Atelier tic et évaluation aqep_dec13
Atelier tic et évaluation aqep_dec13
 
ACS88_7222
ACS88_7222ACS88_7222
ACS88_7222
 
Avant-projet de loi visant à instituer de nouvelles libertés et de nouvelles ...
Avant-projet de loi visant à instituer de nouvelles libertés et de nouvelles ...Avant-projet de loi visant à instituer de nouvelles libertés et de nouvelles ...
Avant-projet de loi visant à instituer de nouvelles libertés et de nouvelles ...
 
L'infection asymptomatique
L'infection asymptomatiqueL'infection asymptomatique
L'infection asymptomatique
 
Qivana Canada French Qivana Metaboliq Système IBO Powerpoint
Qivana Canada French Qivana Metaboliq Système IBO PowerpointQivana Canada French Qivana Metaboliq Système IBO Powerpoint
Qivana Canada French Qivana Metaboliq Système IBO Powerpoint
 
Baromètre edonateurs 2014
Baromètre edonateurs 2014Baromètre edonateurs 2014
Baromètre edonateurs 2014
 
Réussir son service à la clientèle sur les médias sociaux
Réussir son service à la clientèle sur les médias sociauxRéussir son service à la clientèle sur les médias sociaux
Réussir son service à la clientèle sur les médias sociaux
 
Frederic mistral presentation
Frederic mistral presentationFrederic mistral presentation
Frederic mistral presentation
 
Synthèse des Grilles Evaluations 2003
Synthèse des Grilles Evaluations 2003Synthèse des Grilles Evaluations 2003
Synthèse des Grilles Evaluations 2003
 

Ähnlich wie La Statistique ou comment tenter de s'affranchir de la variabilité

Cancer & question du devenir
Cancer & question du devenirCancer & question du devenir
Cancer & question du devenir
AmineBenjelloun
 
Question du devenir de l 'ado canceraux
Question du devenir de l 'ado cancerauxQuestion du devenir de l 'ado canceraux
Question du devenir de l 'ado canceraux
AmineBenjelloun
 
Articles d'interne - Les petites cases
Articles d'interne - Les petites casesArticles d'interne - Les petites cases
Articles d'interne - Les petites cases
Réseau Pro Santé
 
Le vécu du cancer chez l 'enfant
Le vécu du cancer chez l 'enfantLe vécu du cancer chez l 'enfant
Le vécu du cancer chez l 'enfant
AmineBenjelloun
 
Texte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidose
Texte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidoseTexte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidose
Texte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidose
La Fabrique Narrative
 
00216_MNHN_FUERSCHER_BROCH
00216_MNHN_FUERSCHER_BROCH00216_MNHN_FUERSCHER_BROCH
00216_MNHN_FUERSCHER_BROCH
Patrick Michaely
 
L horreur est-humaine
L horreur est-humaine L horreur est-humaine
L horreur est-humaine
Elsa von Licy
 

Ähnlich wie La Statistique ou comment tenter de s'affranchir de la variabilité (20)

Strategie et-philosophie
Strategie et-philosophieStrategie et-philosophie
Strategie et-philosophie
 
Le risque-et-le-décideur
Le risque-et-le-décideurLe risque-et-le-décideur
Le risque-et-le-décideur
 
Climat, vaccins et vin rouge : quand le savoir scientifique s’oppose aux savo...
Climat, vaccins et vin rouge : quand le savoir scientifique s’oppose aux savo...Climat, vaccins et vin rouge : quand le savoir scientifique s’oppose aux savo...
Climat, vaccins et vin rouge : quand le savoir scientifique s’oppose aux savo...
 
Décisions sau
Décisions sauDécisions sau
Décisions sau
 
Décisions sau
Décisions sauDécisions sau
Décisions sau
 
Présentation zététique
Présentation zététiquePrésentation zététique
Présentation zététique
 
La veille de né kid du 18.11.2010 : la zététique
La veille de né kid du 18.11.2010 : la zététiqueLa veille de né kid du 18.11.2010 : la zététique
La veille de né kid du 18.11.2010 : la zététique
 
Pour_la_Science_2018_05.pdf
Pour_la_Science_2018_05.pdfPour_la_Science_2018_05.pdf
Pour_la_Science_2018_05.pdf
 
Bibdoc 2018 - Raison(s) et déraison(s)
Bibdoc 2018 - Raison(s) et déraison(s)Bibdoc 2018 - Raison(s) et déraison(s)
Bibdoc 2018 - Raison(s) et déraison(s)
 
Dépistage du cancer du sein : tribulations d’une radiologue, présentation aut...
Dépistage du cancer du sein : tribulations d’une radiologue, présentation aut...Dépistage du cancer du sein : tribulations d’une radiologue, présentation aut...
Dépistage du cancer du sein : tribulations d’une radiologue, présentation aut...
 
Cancer & question du devenir
Cancer & question du devenirCancer & question du devenir
Cancer & question du devenir
 
Question du devenir de l 'ado canceraux
Question du devenir de l 'ado cancerauxQuestion du devenir de l 'ado canceraux
Question du devenir de l 'ado canceraux
 
Articles d'interne - Les petites cases
Articles d'interne - Les petites casesArticles d'interne - Les petites cases
Articles d'interne - Les petites cases
 
Le vécu du cancer chez l 'enfant
Le vécu du cancer chez l 'enfantLe vécu du cancer chez l 'enfant
Le vécu du cancer chez l 'enfant
 
Guy Simonin, Synthèse du colloque Des clowns et des sciences
Guy Simonin, Synthèse du colloque Des clowns et des sciencesGuy Simonin, Synthèse du colloque Des clowns et des sciences
Guy Simonin, Synthèse du colloque Des clowns et des sciences
 
Petit recueil de 20 moisissures argumentatives. corteco
Petit recueil de 20 moisissures argumentatives. cortecoPetit recueil de 20 moisissures argumentatives. corteco
Petit recueil de 20 moisissures argumentatives. corteco
 
Texte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidose
Texte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidoseTexte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidose
Texte conference pour_le_chu_de_bordeaux_sur_approche_narrative_et_mucoviscidose
 
00216_MNHN_FUERSCHER_BROCH
00216_MNHN_FUERSCHER_BROCH00216_MNHN_FUERSCHER_BROCH
00216_MNHN_FUERSCHER_BROCH
 
L horreur est-humaine
L horreur est-humaine L horreur est-humaine
L horreur est-humaine
 
Science dans la_lumière
Science dans la_lumièreScience dans la_lumière
Science dans la_lumière
 

Mehr von Institut Pasteur de Madagascar

Mehr von Institut Pasteur de Madagascar (20)

Annexe 3 atelier paludisme 2009
Annexe 3  atelier paludisme 2009Annexe 3  atelier paludisme 2009
Annexe 3 atelier paludisme 2009
 
Rapport audit 2007
Rapport audit 2007Rapport audit 2007
Rapport audit 2007
 
Bilan evaluations 2007
Bilan evaluations 2007Bilan evaluations 2007
Bilan evaluations 2007
 
Exemple evaluation 2007
Exemple evaluation 2007Exemple evaluation 2007
Exemple evaluation 2007
 
Presentation atelier paludisme 2007
Presentation atelier paludisme 2007Presentation atelier paludisme 2007
Presentation atelier paludisme 2007
 
Comparaison entre les premières et les dernières évaluations - 2006
Comparaison entre les premières et les dernières évaluations - 2006Comparaison entre les premières et les dernières évaluations - 2006
Comparaison entre les premières et les dernières évaluations - 2006
 
Exemple grille evaluation 2006
Exemple grille evaluation 2006Exemple grille evaluation 2006
Exemple grille evaluation 2006
 
Présentation Atelier Paludisme 2006
Présentation Atelier Paludisme 2006Présentation Atelier Paludisme 2006
Présentation Atelier Paludisme 2006
 
Rapport evaluations 1an 2 ans - 2005
Rapport evaluations 1an 2 ans - 2005Rapport evaluations 1an 2 ans - 2005
Rapport evaluations 1an 2 ans - 2005
 
Synthese 2005
Synthese 2005Synthese 2005
Synthese 2005
 
Grille d'evalution 2005
Grille d'evalution 2005Grille d'evalution 2005
Grille d'evalution 2005
 
Participants tables rondes 2005
Participants tables rondes 2005Participants tables rondes 2005
Participants tables rondes 2005
 
Diaporama 2003
Diaporama 2003Diaporama 2003
Diaporama 2003
 
Certificat 2003
Certificat 2003Certificat 2003
Certificat 2003
 
Grilles d'évaluations 2004
Grilles d'évaluations 2004Grilles d'évaluations 2004
Grilles d'évaluations 2004
 
Guide pour le suivi et l'évaluation des programmes
Guide pour le suivi et l'évaluation des programmesGuide pour le suivi et l'évaluation des programmes
Guide pour le suivi et l'évaluation des programmes
 
Monitoring and Evaluation Toolkit
Monitoring and Evaluation ToolkitMonitoring and Evaluation Toolkit
Monitoring and Evaluation Toolkit
 
Développement nouveaux médicaments
Développement nouveaux médicamentsDéveloppement nouveaux médicaments
Développement nouveaux médicaments
 
Diagnostic biologique du paludisme
Diagnostic biologique du paludismeDiagnostic biologique du paludisme
Diagnostic biologique du paludisme
 
Guide d’élaboration d’un plan de gestion des achats et des stocks (Global Fun...
Guide d’élaboration d’un plan de gestion des achats et des stocks (Global Fun...Guide d’élaboration d’un plan de gestion des achats et des stocks (Global Fun...
Guide d’élaboration d’un plan de gestion des achats et des stocks (Global Fun...
 

Kürzlich hochgeladen

ANATOMIE SYSTEME DIGESTIF AI1354789.pdf
ANATOMIE  SYSTEME DIGESTIF AI1354789.pdfANATOMIE  SYSTEME DIGESTIF AI1354789.pdf
ANATOMIE SYSTEME DIGESTIF AI1354789.pdf
MadickNDAO1
 

Kürzlich hochgeladen (10)

INTRODUCTION GENERALE A LA PARASITOLOGIE.pptx
INTRODUCTION GENERALE  A LA PARASITOLOGIE.pptxINTRODUCTION GENERALE  A LA PARASITOLOGIE.pptx
INTRODUCTION GENERALE A LA PARASITOLOGIE.pptx
 
Les aménorrhée primaire et secondaire .ppt
Les aménorrhée primaire et secondaire .pptLes aménorrhée primaire et secondaire .ppt
Les aménorrhée primaire et secondaire .ppt
 
présentation PowerPoint sur les technique d'anesthésie en neurochirurgie.ppt
présentation PowerPoint sur les technique d'anesthésie en neurochirurgie.pptprésentation PowerPoint sur les technique d'anesthésie en neurochirurgie.ppt
présentation PowerPoint sur les technique d'anesthésie en neurochirurgie.ppt
 
physologie de la croissance : age osseux.pptx
physologie de la croissance : age osseux.pptxphysologie de la croissance : age osseux.pptx
physologie de la croissance : age osseux.pptx
 
Les tumeurs malignes des glandes salivaires'.pptx
Les tumeurs malignes des glandes salivaires'.pptxLes tumeurs malignes des glandes salivaires'.pptx
Les tumeurs malignes des glandes salivaires'.pptx
 
Phytochemical profile and antioxidant activity of two varieties of dates (Pho...
Phytochemical profile and antioxidant activity of two varieties of dates (Pho...Phytochemical profile and antioxidant activity of two varieties of dates (Pho...
Phytochemical profile and antioxidant activity of two varieties of dates (Pho...
 
Amibiase Cours diagnostic biologique .pptx
Amibiase Cours diagnostic biologique .pptxAmibiase Cours diagnostic biologique .pptx
Amibiase Cours diagnostic biologique .pptx
 
antalgique cours 3 année faculté .pptx
antalgique cours 3 année  faculté  .pptxantalgique cours 3 année  faculté  .pptx
antalgique cours 3 année faculté .pptx
 
Histologie du Tube Digestif (Chapitre 2/3 de l'Histologie du l'appareil diges...
Histologie du Tube Digestif (Chapitre 2/3 de l'Histologie du l'appareil diges...Histologie du Tube Digestif (Chapitre 2/3 de l'Histologie du l'appareil diges...
Histologie du Tube Digestif (Chapitre 2/3 de l'Histologie du l'appareil diges...
 
ANATOMIE SYSTEME DIGESTIF AI1354789.pdf
ANATOMIE  SYSTEME DIGESTIF AI1354789.pdfANATOMIE  SYSTEME DIGESTIF AI1354789.pdf
ANATOMIE SYSTEME DIGESTIF AI1354789.pdf
 

La Statistique ou comment tenter de s'affranchir de la variabilité

  • 1. La Statistique ou comment tenter de s’affranchir de la Variabilité Dr Frédérick Gay CHU Pitié –Salpêtrière, Paris
  • 2. “ Le Jeu de la Science et du Hasard " Pr Daniel Schwartz Dans le domaine du vivant le hasard est roi. duel serré entre : Sciences de la vie ? Hasard
  • 3.
  • 4.
  • 5. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 6. La Statistique parce que la Variabilité • Les statistiques sont des dénombrements de sujets, d’objets, d’évènements, dans des populations ou des sous-populations. • La statistique est un mode de pensée permettant de recueillir, de traiter et d’interpréter les données qu’on rencontre dans divers domaines, et tout particulièrement dans les sciences de la vie, du fait que ces données présentent une caractéristique essentielle : la variabilité.
  • 7. • Bien que la variabilité dans le domaine du vivant soit, aux yeux de tous, une évidence, la force de cette évidence n’a d’égale que la faculté de l’oublier à chaque instant.
  • 8. • La variabilité peut être réduite par des procédés expérimentaux, mais non supprimée.
  • 9. • La variabilité (qui comporte l’éventuelle erreur de mesure), traduit la fluctuation biologique.
  • 10. Histoire personnelle du Pr Daniel Schwartz : Mes rhododendrons fleurissent mal, j’avais fait venir un spécialiste : " Vos rhododendrons manquent de terre de bruyère " fut son verdict. Je rétorquais : " Vous m’étonnez, regardez ce Roseum elegans, c’est celui qui fleurit le mieux, et je ne lui ai pas mis de terre de bruyère du tout. " Regard désolé de l’agronome : " Voyons Monsieur Schwartz, vous qui êtes statisticien, vous raisonnez sur un cas ? " Tout en rougissant d’être tombé dans le piège contre lequel j’ai mis en garde des milliers d’élèves, je notais que le spécialiste griffonnait quelques remarques sur ses tablettes : " Qu’écrivez-vous là ? " " Mais que le Roseum elegans se passe de terre de bruyère " " Eh là ! Vous raisonnez sur un cas ! " En cinq minutes, il avait oublié la variabilité….
  • 11. • Certains caractères varient d’un moment à l’autre chez le même individu, à la variabilité inter i dividuelle - n se superpose ainsi une variabilité intra i dividuelle - n (encore plus souvent oubliée que la première).
  • 12. Une science du particulier ? L’individu diffère des autres individus, il diffère de lui-même d’un moment à l’autre. Ainsi, le domaine du vivant est fait de cas particuliers. Mais il n’y a de science que du général. Alors comment peut-il y avoir une science du vivant ? Il faut adapter la science au domaine du particulier.
  • 13. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 14. La science de l’incertain • Du fait de la variabilité, on est dans le domaine de l’incertain. • Adapter une science au particulier, c’est inventer une science de l’incertain. • Mais l’incertain n’échappe-t-il pas par force à toute loi ? • Science du particulier, science de l’incertain, l’association de ces mots est-elle possible à réaliser ? C’est le défi qu’a relevé la statistique, en s’appuyant sur le concept de probabilité.
  • 15. La probabilité • L’incertitude n’est pas en tout ou rien, elle présente des degrés. • On qualifie un événement incertain de plus ou moins probable. • Mesure de l’incertain : le rapport entre le nombre des cas où un événement se produit et le nombre des cas possibles (supposés également probables) = définition élémentaire de la probabilité, comprise entre 0 (0 %) et 1 (100 %). • Exemple : La probabilité de tirer un as dans un jeu de 52 cartes est le quotient de 4 (nombre de cas favorables) par 52 (nombres des cas possibles), soit environ 8%. Que je tire une carte rouge a une probabilité de 26/52 soit 50 %, c’est encore incertain, mais c’est plus probable.
  • 16. Notre niveau d’ignorance • La probabilité qu’un événement se produise n’a pas toujours une estimation figée une fois pour toutes. • L’estimation de la probabilité dépend des informations disponibles. • Une fois prises en compte toutes les informations disponibles, les cas identiques pour ces informations ont tous une même probabilité du fait de notre ignorance. Ils forment un groupe homogène dans l’état de nos connaissances.
  • 17. • " Lois du hasard " : 2 mots apparemment incompatibles ne sont pas des lois de certitudes mais des lois d’incertitude.
  • 18. XVII siècle - cercles de jeu – Pascal • Le chevalier de Méré, cherchait à gagner sur ses adversaires dans des paris où la chance de gain, légèrement supérieure à 50 %, donnait l’apparence d’un jeu équitable, mais lui assurait le succès sur une longue série. • Un de ses paris était de sortir au moins un 6 en lançant quatre dés (probabilité de gain 51,77 %) • Un autre était de lancer deux dés 24 fois en pariant sur l’apparition de deux 5 au moins une fois ; en fait, la probabilité de gain n’est ici que 49.14 % ; il aurait fallu pour gagner lancer les dés 25 fois et non 24.
  • 19. XVII siècle - Cercles de jeu – Pascal • Le chevalier Méré posa un jour un problème à Pascal : deux joueurs font une partie de pile ou face, le gagnant est celui qui obtient le premier 3 résultats conformes à sa prédiction, la partie comporte plusieurs manches. • Mais les joueurs sont obligés de l’interrompre prématurément à la fin de la première manche. • Comment leur rendre les mises de façon équitable, en tenant compte du fait que l’un des joueurs avait gagné la première manche ? • Pascal trouva la solution et voulut aussitôt l’exposer à Fermat : il le fit par une lettre dont la date, le 29 juillet 1654, est généralement considérée comme établissant les fondements du calcul des probabilités.
  • 20. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 21. Description et Recherche • Pour exposer la démarche statistique, il est utile de classer les problèmes en deux catégories : - les problèmes de description et - les problèmes de recherche.
  • 22. Description et Recherche • Il est pratique de considérer que : – la description porte sur 1 caractère (la survenue d’un cancer, la cholestérolémie) – la recherche sur au moins 2 caractères (survenue d’un cancer et tabagisme, cholestérolémie et régime) La recherche commence quand on met à l’épreuve la liaison entre les deux caractères.
  • 23. Description • Les mauvaises langues prétendent qu’un statisticien se noya dans un cours d’eau dont la profondeur moyenne était de 20 cm. • C’est qu’à l’endroit où il souhaitait patauger elle atteignait 2 mètres ! • Comment avait il peu oublier la variabilité, raison d’être de - la statistique ?
  • 24. Description • L’idée, aujourd’hui presque évidente, de décrire une population, par des pourcentages ou des moyennes, a pourtant rencontré de fortes résistances. • L’utilisation de pourcentages a été proposée par Pierre Louis, dans les années 1830, et violemment combattue aux Académies de médecine et des sciences. • Dire qu’un caractère se présente 10 fois sur 100, prétendaient certains, c’est « mettre dans le même sac » 100 sujets qui ne sont pas comparables en raison de l’individualité humaine. Le Dr Double (son principal adversaire) estimait que chaque cas est nouveau et distinct, une maladie n’est pas une entité fixe et uniforme mais une série de situations variées.
  • 25. Description • Les "rapport numériques« (les taux) étaient bannis, il fallait se contenter de dire "souvent, rarement, dans le plus grand nombre des cas". • Double concluait : "les calculs numériques et statistiques ne sont d’aucune manière applicables à la thérapeutique". • Ainsi, la statistique présentée comme remède à la variabilité était condamnée au nom même de cette variabilité. • Quand à l’usage des moyennes, il a été violemment combattu par Claude Bernard (adversaire résolu de la statistique) : il le ridiculisait par l’image du physiologiste qui, pour étudier l’urine moyenne européenne, puiserait dans l’urinoir d’une grande gare !
  • 26. Effacement des individualités • Puisque la probabilité est fonction des informations disponibles, • les sujets deviennent tous pareils dans notre état d’ignorance, ils constituent un groupe homogène.
  • 27. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 28. On ne dispose que d’échantillons • Comme les fluctuations d’échantillonnage sont imprévisibles, • car le hasard peut tout faire, • que peut o dire du taux dans la population totale ? - n • La méthode statistique nous apporte la solution, sous la forme d’un : intervalle de confiance (fourchette)
  • 29. Risque d’erreur consenti • Certitude impossible. • Seule réplique valable : la fixation d’un intervalle avec risque d’erreur consenti
  • 30. Comment fixer le risque ? • Dans certains problèmes, on peut chiffrer le coût de l’erreur et l’intérêt apporté par la dimension de la fourchette. • En l’absence de telles informations, l’habitude est de choisir le risque de 5% considéré comme un moyen terme raisonnable. • Pourquoi ? – il est petit – il conduit dans le calcul à une formule simple – c’est un chiffre rond – on a longtemps exprimé l’erreur en terme de paris, et admettre le risque 5 % revient à parier 20 contre 1.
  • 31. Un peu d’histoire • L’intervalle de confiance d’un pourcentage a été imaginé par Laplace dès 1789, • puis utilisé par ses disciples, tout particulièrement par Poisson qui, dans les années 1830, le popularisa largement • suivi dans le domaine médical par son élève Gavarret. • Poisson choisissait pour la fourchette le pari à 212 contre 1 ; plus prudent que nous, Poisson choisissait au lieu de 5 chances sur 100, le risque d’erreur de 5 pour 1000, soit 1 pour 200, mais avec 212 au lieu de 200 la formule donnant la fourchette est plus simple.
  • 32. Calcul de la “fourchette” 1 – La dimension de la fourchette diminue quand le nombre de sujet n de l’échantillon augmente, mais on n’est "récompensé "que proportionnellement à n (avec 4 fois plus de sujets, la fourchette n’est que 2 fois plus petite). 2 – Par contre, la dimension de la fourchette ne dépend pas de la taille de la population. 3 – Ceci est vrai que lorsque la taille de l’échantillon est petite par rapport à celle de la population, mais c’est un cas très général. Il ne faut pas d’avantage de sujets pour un sondage dans la population chinoise que dans celle de Mayotte. La dimension de la fourchette dépend du seul effectif de l’échantillon.
  • 33. Les pièges de la fourchette • Le sens de la fourchette est souvent mal compris. • Il est faux de s’imaginer que la vraie valeur est sûrement dans la fourchette • Il n’y a pas une seule fourchette, mais une infinité, correspondant à tous les risques possibles. • Un autre faux pas, plus sournois et plus dangereux : Un chirurgien, auteur d’une nouvelle technique opératoire, veut s’assurer de son bien- fondé. Il écrit aux 1000 premiers patients qui en ont bénéficié et reçoit 100 réponses : 75 sont très satisfaits, 25 non. Le succès évalué sur cet échantillon, est donc de 75 %. Le chirurgien ne se contente pas de ce résultat, il sait ce qu’est un intervalle de confiance et le calcule : [66% - 84 %].
  • 34. Les pièges de la fourchette • Cependant, un doute le saisit : Comment se fait-il que 100 patients seulement sur les 1 000 se soient manifestés ? • Réponse : les 900 autres sont morts des suites de l’opération… Le taux de succès est donc de 75 sur 1000 et non 75 sur 100, et la donnée d’une fourchette savamment calculée autour d’un pourcentage aussi faux serait une absurdité. une fourchette n’a de sens que si elle est estimée à partir d’un échantillon représentatif. Mais qu’est-ce que la représentativité ?
  • 35. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 36. La représentativité • Si l’échantillon diffère systématiquement de la population pour un caractère au moins, • et comme un caractère est toujours lié à un écheveau de beaucoup d’autres, • l’échantillon risque de différer de la population pour de nombreux caractères, peut-être précisément pour ceux qu’on étudie. • Un tel échantillon n’est pas représentatif, on dit qu’il est biaisé.
  • 37. Représentatif • On croit souvent qu’un échantillon n’est représentatif que s’il est suffisamment grand. • C’est faux ! • Un échantillon, si petit soit-il, est représentatif dès lors qu’il résulte d’un tirage au sort. La taille de l’échantillon intervient sur la dimension de la fourchette.
  • 38. Le tirage au sort • Pour éviter ce biais, il faut donc que l’inclusion d’un sujet dans l’échantillon soit faite indépendamment de toutes les caractéristiques de ce sujet. • La seule façon d’y parvenir est de recourir au hasard • N’est-ce pas là, la définition du hasard ? : la rencontre de deux chaînes d’évènements indépendantes. • La solution est donc le tirage au sort. Aussi appelle-t-on échantillon représentatif, un échantillon tiré au sort dans la population.
  • 39. La courte paille • Le recours au hasard est une pratique ancienne. • L’objectif est de désigner les sujets indépendamment de toutes leur caractéristiques. • C’est bien ce qu’on vise aussi en statistique dans la recherche de la représentativité. • Le recours au tirage au sort pour obtenir la représentativité avait été évoquée par Laplace en 1783. • Mais il ne fut proposé comme méthode d’échantillonnage qu’au début du XXème siècle. En 1925, une résolution de l’Institut International de Statistiques envisageait encore deux procédés : choix judicieux et méthode aléatoire. • Des progrès, considérables dans le choix des échantillons devaient résulter des sondages d’opinion, pratiqués de plus en plus aux Etats-Unis, notamment pour les élections présidentielles. • Une date cruciale est le 3 novembre 1936 où F.D. Roosevelt fut élu, alors que son concurrent Landon était donné gagnant par un sondage de plus de 2 millions de personnes. Mais les sujets interrogés étaient les abonnés au téléphone, le grand nombre étant censé (quelle erreur !) tenir lieu de représentativité.
  • 40. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 41. Le jeune accoucheur • Un jeune accoucheur entreprit, pour sa thèse, une enquête réunissant 1000 cas. Accouchements Avec accoucheur Sans accoucheur Nb de cas 500 500 Nb de complications 20 60 soit en % 4% 12 % • Les taux de complications observés sont différents dans les deux séries. • Mais les taux vrais ne sont pas nécessairement 4 % et 12 %, ils sont dans une fourchette autour de ces valeurs. • Peut-être que le taux vrai est le même dans les deux séries ? • Pour le savoir, il faut effectuer un « test statistique », ce que fit L’accoucheur. • La réponse est très claire : si le taux vrai de complications était le même avec et sans accoucheur, on aurait eu moins de 1 chances sur 100 000 d’obtenir une différence aussi grande que celle observée. • Cette hypothèse est donc invraisemblable : la différence observée est probante. Peut-on pour autant en conclure qu’on doit faire appel à l’accoucheur ?
  • 42. Désillusion • C’est ici le moment d’avouer que les résultats n’étaient pas ceux annoncés dans le tableau. • En réalité la différence était dans le sens inverse : le taux de complications était plus élevé en faisant appel à l’accoucheur ! • Résultat plutôt embarrassant pour l’auteur de l’enquête !
  • 43. Explication • On faisait surtout appel à l’accoucheur quand la situation se présentait mal. • Les deux groupes avec et sans accoucheur n’étaient pas comparables.
  • 44. Un nouveau mode de pensée • Les véritables fondateurs de la théorie des tests d’hypothèse sont Jerzy Neyman et Egon Pearson (Pearson II, fils de Karl) au cours d’une collaboration qui fut si étroite , entre 1926 et 1933, qu’on citait toujours le duo Neyman - Pearson, alors que le premier était en Pologne et le second en Grande Bretagne. • Analogie de pensée entre le test statistique et le jugement d’un inculpé : série de débats passionnés entre mathématiciens, philosophes et hommes politiques sur les fondements de la justice. • Condorcet le premier proposait en 1785 une formule permettant, sous certaines hypothèses de calculer la probabilité de condamner un innocent. • Laplace en 1830, précisant la formule, l’appliquait aux jugements en Cours d’Assise où les jurys comprenaient 12 jurés, la condamnation étant prononcée à la majorité (7 voix contre 5). • Laplace montrait que le risque d’erreur était alors de ¼, valeur manifestement intolérable !
  • 45. Justice et Statistique • En 1830, la proportion était portée à 8 voix contre 4, mais même avec cette modification le risque d’erreur restait encore très élevé. • Arago exposait à la Chambre des Députés que « sur 8 hommes qui montent à l’échafaud, il y en a 1 d’innocent ». Et de proposer de baisser le risque à 1/16. • Condorcet : « Il est de notre nature de ne pouvoir juger que sur des probabilités. Il n’est donc pas injuste de condamner un innocent pourvu que l’on soit assuré qu’il y a une grande probabilité que la décision rendue soit exacte ». • C’était bien proposer la politique du risque consenti, avec intervention du calcul des probabilités. • Si l’on considérait comme obligatoire d’envoyer un innocent à l’échafaud (le plus rarement possible), c’est bien qu’on prenait en compte, l’autre risque, celui de relaxer un coupable.
  • 46. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 47. Définition de la cause dans le domaine de l’incertain • Dans le domaine de l’incertain, un facteur est causal s’il provoque une augmentation de probabilité de l’évènement.
  • 48. De la définition à la preuve • Comment prouver qu’un facteur provoque une augmentation de probabilité d’un évènement ? • Le test statistique permet de conclure qu’une augmentation est réelle et non le fruit du hasard, mais peut-il aller plus loin ? • Les déboires du jeune accoucheur nous mettent sur la voie : si l’on ne pouvait conclure de ses données que le recours à l’accoucheur favorise les complications, c’est parce que les deux groupes comparés n’étaient pas comparables. • Mais comment assurer la comparabilité ? • Qu’est-ce la comparabilité ? • Est-ce une condition suffisante pour permettre l’imputation causale ?
  • 49. La tare foncière de l’enquête d’évaluation • La faille est que le chercheur n’a pas décidé quels sujets fumeraient ou ne fumeraient pas. • Les groupes « fumeurs » et « non- fumeurs » se sont constitués d’eux- mêmes. • On s’est contenté d’observer. • C’est une règle générale dans une enquête d’observation, les groupes s’étant constitués spontanément à partir d’un facteur (le sujet fume ou non), plausiblement lié à beaucoup d’autre, on ne sait plus lequel incriminer. La non comparabilité des groupes rend l’imputation causale impossible.
  • 50. • L’imputation causale à la suite d’une simple enquête d’observation est une erreur grave et courante commise presque par réflexe comme l’oubli de la variabilité.
  • 51. Cause ou Conséquence ? • En suivant une cohorte de sujets, on a observé un risque plus élevé de cancer chez ceux qui avaient une cholestérolémie basse. • Pensez à l’écoeurement de ceux qui s’étaient longtemps privés de foie gras ou de crème au chocolat pour éviter l’infarctus. • Heureusement, les médias ignorèrent ce résultat : on aurait crié haro sur les épidémiologistes ! • En fait, les sujets atteints de cancer non encore diagnostiqué présentaient déjà la cachexie des cancéreux. La baisse de cholestérol était la conséquence et non la cause du cancer !
  • 52. L’effet pris pour la cause • De même, dans des enquêtes en médecine du travail, on a souvent observé que le personnel affecté à des postes pénibles avait une mortalité plus faible que le personnel travaillant à des postes de tout repos. • Une explication est bien sûr l’auto s - élection ou la sélection par la médecine du travail, qui ne retient pour les postes pénibles que les sujets en très bonne santé. Une enquête d’observation peut aboutir à l’erreur extrême, où l’effet est pris pour la cause.
  • 53. L’effet pris pour la cause • « 70 % des gens meurent au lit » « Moralité : ne vous couchez pas ! » L’enquête d’observation ne peut établir que des corrélations.
  • 54. La solution : le tirage au sort • Si l’on veut constituer des groupes comparables, il faut que l’inclusion de chaque sujet dans le groupe A ou B soit indépendante de toutes les caractéristiques du sujet. • La solution est, comme dans le problème de représentativité, le tirage au sort. • L’opération qui affecte un sujet dans le groupe A ou B par tirage au sort est appelé randomisation (random =hasard)
  • 55. Eviter les biais • Deux groupes constitués par tirage au sort ne sont pas certes identiques mais ils ne présentent pas de différence systématique. • Ils se ressemblent « en moyenne » • Pour chaque caractéristique, connue ou inconnue, des sujets, la valeur moyenne tend à être la même dans les deux groupes.
  • 56. Imputation causale avec risque d’erreur consenti • Le tirage au sort apporte surtout une garantie fondamentale en matière d’imputation causale. • Fisher : « Si l’on a constitué les groupes par tirage au sort, on peut conclure à la causalité avec le risque d’erreur et le degré de signification du test statistique utilisé. » • Dans la comparaison de deux traitements attribués par tirage au sort, si l’on adopte le seuil 5 %, une différence significative est attribuable aux traitements avec le risque d’erreur 5 %. • Si les groupes A et B n’ont pas été constitués par tirage au sort, on peut seulement conclure que les chances de guérisons sont inégales, mais ce résultats ne peut pas être attribué aux traitements.
  • 57. Attention au piège ! • Sur un échantillon tiré au sort dans la population des femmes venues accoucher dans une maternité, on observe un taux plus élevé de prématurés chez celles qui ont effectué des travaux pénibles. • Le travail pénible est-il cause de la plus fréquente prématurité ? • « Cette imputation causale est possible puisqu’il y a eu tirage au sort » ???
  • 58. Aïe Aïe Aïe !!! • Faux ! • Pour qu’on puisse démontrer la causalité, il aurait fallu constituer deux groupes de femmes comparables : – les unes soumises à un travail pénible – les autres non – par tirage au sort à l’intérieur de l’échantillon. • Que l’échantillon ait été tiré au sort dans une population initiale permet seulement d’extrapoler à cette population la conclusion observée sur l’échantillon, mais qui est le constat d’une relation dont la nature causale n’est en rien démontrée.
  • 59. Tirage au sort à 2 niveaux • Un tirage au sort à l’intérieur de l’échantillon, assure la comparabilité des deux groupes, il est indispensable pour l’imputation causale. • En amont, un tirage au sort de l’échantillon dans une population- mre permet, grâce à sa représentativité, è l’extrapolation à la population des conclusions observées sur l’échantillon. • Ce tirage au sort dans une population mère, le plus souvent, n’a pas lieu.
  • 60. La statistique basée sur des hypothèses de distribution 1. Variabilité 2. Incertitude et Probabilité 3. Description versus Recherche 4. Échantillon et Intervalle de confiance 5. Représentativité et Tirage au sort 6. Comparabilité 7. Causalité 8. Questions « existentielles »
  • 61. Déduction / Induction • Alors que dans le calcul des probabilités, une démarche déductive permet au sein d’une population, des prédictions pour les échantillons qui en sont tirés au sort, • la méthode statistique vise à induire, à partir d’un échantillon, des propriétés d’une population, parfois bien déterminée, mais souvent abstraite, forgée à l’image de l’échantillon.
  • 62. Autre question • Des résultats obtenus pour un groupe sont il applicables à - un individu particulier ? • Réponse = oui, dans le cadre des groupes homogènes tenant compte des facteurs (de guérison dans notre exemple) connus à l’époque, puisqu’alors tous les sujets du groupe sont pareils.
  • 63. Critères de présomption causale de Bradford Hill 1 – Force de l’association 2 – Relation dose e - ffet 3 – Pas d’ambiguïté sur la chronologie 4 – Constance des résultats dans diverses études 5 – Plausibilité de l’hypothèse 6 – Cohérence des résultats 7 – Spécificité de l’association
  • 64. Exemple Le tabac, sûrement coupable de causer le cancer bronchique, ne vérifie le critère de spécificité dans aucun des deux sens : - il n’est pas la seule cause - il occasionne d’autres pathologies.
  • 65. Le lever du soleil • La cause est e comme le proclame Chantecler dans la - lle, pièce d’Edmond Rostand, le chant du coq ? • La relation vérifie de multiples critères de la liste de Bradford Hill : – force de l’association ? ((le coq s’époumone) – loi dose- effet ? (le soleil est-il éclatant) – l’ordre chronologique, si important ? (témoignage coléreux du Grand duc : il chante quand la nuit est encore bonne et fraîche) – le dernier critère de la liste est le plus frappant : le coq chante-t-il au lever de la lune ? les canards chantent-ils au lever du soleil ? Il y a donc spécificité à double sens.
  • 66. Le lever du soleil Cependant, dans la pièce d’Edmond Rostand, la faisane dorée, amoureuse de Chantecler et jalouse de l’aurore, l’emmène une nuit au concert du rossignol. Chantecler fasciné en oublie de chanter. Et le soleil se lève quand même. Ainsi, tous les arguments accumulés par la seule observation étaient ils balayés par la voie royale de - l’expérimentation.
  • 67. “Le renard et les raisins” (La Fontaine) • Devant la difficulté de l’imputation causale, il faut parfois savoir délaisser (provisoirement) la recherche des causes. • Il et souvent possible de guider l’action à partir de facteurs de risque d’une maladie, sans se préoccuper aucunement de savoir s’ils jouent un rôle causal. • En périnatologie : – La démarche statistique permet de ne retenir qu’un tout petit nombre des nombreux facteurs qui, chez la femme enceinte, font présager une mauvaise issue de la grossesse. – Judicieusement combinés, ils désignent les grossesses à risque. – Pour ces cas sera adoptée une conduite ne visant pas à peser sur les facteurs de risque, dont le rôle causal est ignoré : on recommandera seulement aux femmes des visites plus fréquentes. – Cette démarche méthodologique ne nous éclaire pas sur le déterminisme du mal à combattre, mais elle guide l’action. Il n’est pas toujours nécessaire de comprendre pour agir.
  • 68. 1ère Partie La statistique basée sur des hypothèses de distribution • 2ème Partie Choix d’un test statistique • 3ème Partie Traitement statistique de petits échantillons et tests exacts • 4ème Partie Analyses factorielles multidimensionnelles
  • 69.
  • 70. Choix d’un test statistique pour mesures quantitatives provenant d’une distribution gaussienne Objectif Calcul ou Test • Décrire un groupe • Moyenne, DS • Comparer 1 groupe à une valeur • Test t pour un échantillon hypothétique • Comparer deux groupes • Test t non pairé non appariés • Comparer deux groupes appariés • Test t pairé • Comparer 3 groupes indépendants • ANOVA à une voie (ou davantage) • Comparer 3 groupes appariés • ANOVA pour mesures répétées (ou davantage) • Quantifier une association entre deux • Corrélation de Pearson variables • Prédire une valeur à partir d’une autre • Régression linéaire simple ou variable mesurée régression non linéaire • Prédire une valeur à partir de plusieurs • Régression linéaire multiple ou variables mesurées ou binomiales régression non linéaire multiple
  • 71. Choix d’un test statistique pour mesures quantitatives provenant d’une population non gaussienne, pour rangs ou pour scores Objectif Calcul ou Test • Décrire un groupe • Médiane, écart interquartile • Comparer 1 groupe à une valeur • Test de Wilcoxon hypothétique • Comparer deux groupes • Test de Mann-Withney non appariés • Comparer deux groupes appariés • Test de Wilcoxon • Comparer 3 groupes indépendants • Test de Kruskal-Wallis (ou davantage) • Comparer 3 groupes appariés • Test de Friedman (ou davantage) • Quantifier une association entre deux • Corrélation de Spearman variables • Prédire une valeur à partir d’une autre • Régression non paramétrique variable mesurée • Prédire une valeur à partir de plusieurs variables mesurées ou binomiales
  • 72. Choix d’un test statistique pour variables binomiales Objectif Calcul ou Test • Décrire un groupe • Proportion • Comparer 1 groupe à une valeur • Test du chi-carré ou test hypothétique binomial • Comparer deux groupes non • Test exact de Fisher (test du chi- appareillés carré pour les grands échantillons) • Comparer deux groupes appareillés • Test de Mc Nemar • Comparer 3 groupes indépendant ou • Test du chi-carré davantage • Comparer 3 groupes appareillés ou • Q de Cochran davantage • Quantifier une association entre deux • Coefficients de contingence variables • Prédire une valeur à partir d’une autre • Regression logistique simple variable mesurée • Prédire une valeur à partir de plusieurs • Régression logistique multiple variables mesurées ou binomiales
  • 73. Choix d’un test statistique pour temps de survie Objectifs Calcul ou Test • Décrire un groupe • Courbe de Kaplan-Meier • Comparer deux groupes • Test de log rank non appariés ou Test de Mantel-Haenszel • Comparer 2 ou plus de 2 groupes • Régression conditionnelle des risques instantanés • Comparer 3 groupes indépendants ou davantage • Prédire une valeur à partir d’une • Régression des risques autre variable mesurée instantanés proportionnels de • Prédire une valeur à partir de Cox plusieurs variables mesurées ou binomiales
  • 74. 1ère Partie La statistique basée sur des hypothèses de distribution • 2ème Partie Choix d’un test statistique • 3ème Partie Traitement statistique de petits échantillons et tests exacts • 4ème Partie Analyses factorielles multidimensionnelles
  • 75.
  • 76. Mesure quantitative • Intervalles entre les valeurs Perte d’information Echelle d’intervalle sont connues • Opération arithmétiques possibles • Catégories ordonnées Echelle ordinale • Valeur des différences entre 2 catégories non connues • Opérations impossibles Echelle nominale • Catégories sans ordre Echelle binomiale • Echelle nominale à 2 catégories (binominales
  • 77. Echantillons indépendants Echantillons appariés Facteurs contrôlés Non prise en compte des facteurs entraînant des + facteurs aléatoires différences à chaque mesure Prise en compte de la variation Seul compte le changement intra é - chantillon entre les 2 (ou n) mesures Les tests statistiques ne sont pas les mêmes
  • 78. Grille de choix d’un test statistique pour petits échantillons Echelles de mesure Echantillons Choix Catégories Catégories Echelle Binomial nominales ordinales d’intervalle Un seul échantillon Test binomial Chi2 de bonne adéquation Test de redistribution Deux échantillons Test de Test du signe Test de appariés McNemar permutations pour mesures pairées Test de Wilcoxon Deux échantillons Test exact de Test Chi2 de Test de indépendants Fisher Pearson permutations pour mesures indépendantes Test de Mann et Whitney Plus de 2 échantillons Test de Cochran Test de Friedman appariés Test de Page (colonnes ordonnées)
  • 79. Grille de choix d’un test statistique pour petits échantillons Echelles de mesure Echantillons Choix Catégories Catégories Echelle Binomial nominales ordinales d’intervalle Plus de 2 échantillons Test du Chi2 de Pearson Analyse de variance indépendants par permutation des scores Test de Kruskal et Wallis Test de Jonckheere- Terpstra (colonnes ordonnées) Mesure de Coefficient de contingence Coefficience de corrélation par l’association entre Kappa de Cohen rang de Spearmann Variables Coefficient de concordance de Kendall
  • 80. 5 LFK HVVH G ಬ LQI R U P DW LR Q ( [ LJ HQFH G HV W HVW V 5 LVT XH G H ªU H HVS ªFH LQFK DQJ « 5 LVT XH G H ªP H HVS ªFH DXJ P HQW « 3XLVVDQFH
  • 81. 1ère Partie La statistique basée sur des hypothèses de distribution • 2ème Partie Choix d’un test statistique • 3ème Partie Traitement statistique de petits échantillons et tests exacts • 4ème Partie Analyses factorielles multidimensionnelles
  • 82.
  • 83.
  • 84.
  • 85. Un mode de pensée souvent paradoxal • La méthode statistique est une succession de démarches le plus souvent contraires à notre mode de pensée. Le calcul des probabilités vise à établir la rigueur dans l’incertain, à assigner des lois au hasard. • Pascal parlait de « la géométrie du hasard ». • La statistique nous propose d’abord la politique du risque d’erreur consenti, certes la plus intelligente dans le domaine de l’obligatoire incertitude, mais qui implique que, dans un pourcentage accepté de cas, le résultat obtenu à la suite d’opérations mathématiques plus ou moins sophistiquées sera faux. • L’estimation par intervalle de confiance présente comme un triomphe un résultat doublement incertain : non pas la valeur exacte, mais une fourchette qui l’entoure, et il n’est pas certain que la valeur exacte soit dans la fourchette.
  • 86. Le Hasard au service de la Science • Cette méthode n’est possible que si l’échantillon est représentatif et comment obtenir cette représentativité ? Par choix raisonné ? • Pas du tout, en recourant au hasard, absence de raison par excellence. • En matière de recherche, le test statistique n’évalue pas la vraisemblance de l’hypothèse en fonction des données, mais la vraisemblance des données en fonction de l’hypothèse. • L’hypothèse qu’on teste, quand on veut éprouver l’efficacité d’un traitement, c’est l’hypothèse de son inefficacité, la fameuse hypothèse nulle. • Devant une différence significative, pour prouver la causalité, il faut comparer deux groupes comparables. • On ne recherchera pas cette comparabilité par un choix raisonné, on demandera au hasard de faire mieux que nous ! Pour finir, on aura quand même fait de la science !