SlideShare ist ein Scribd-Unternehmen logo
1 von 14
(k narres neighbours, ou k plus proches
      voisins)

                  Réalisé par :
                 Wassim
                 Lahbibi


2012-2013
plan   1         Introduction

       2         Généralités

       3      Domaine d’activité

       4     Principe de
           fonctionnement
       5      Mesures de distance

       6    Notations et Algorithme

       7    Avantage et inconvénient

       8          conclusion
Introduction
   Le data mining emploie des techniques et des
    algorithme issus de disciplines scientifiques
    diverses telles que
    les statistiques, l‘intelligence artificielle ou
    l‘informatique, pour construire des modèles à
    partir des données
   Parmi les techniques utilisées, il ya la méthode
    de k plus proche voisin.
Généralités
•   la méthode des k plus proches voisins est une méthode de
    d’apprentissage supervisé.

•   dédiée à la classification.

•   En abrégé k-NN ou KNN, de l'anglais k-nearest neighbor.

•   L’algorithme KNN figure parmi les plus simples algorithmes
    d’apprentissage artificiel.

•   L’objectif de l’algorithme est de classé les exemples non
    étiquetés sur la base de leur similarité avec les exemples
    de la base d’apprentissage .
Domaine d’activité
   L’algorithme kNN est utilisée dans de
    nombreux domaines :

•   La reconnaissance de formes.
•   La recherche de nouveaux biomarqueurs pour
    le diagnostic.
•   Algorithmes de compression.
•   Analyse d’image satellite
•   Marketing ciblé
Principe de fonctionnement
   Le principe de cet algorithme de classification est
    très simple. On lui fournit:
•    un ensemble de données d’apprentissage D
•   une fonction de distance d
•   et un entier k

   Pour tout nouveau point de test x, pour lequel il
    doit prendre une décision, l’algorithme recherche
    dans D les k points les plus proches de x au sens
    de la distance d , et attribue x à la classe qui est
    la plus fréquente parmi ces k voisins.
Exemple

•Dans l’exemple suivant, on a 3 classes
et le but est de trouver la valeur de la classe de l’exemple
inconnu x.
•On prend la distance Euclidienne et k=5 voisins
•Des 5 plus proches voisins, 4 appartiennent à ω1 et 1
appartient à ω3, donc x est affecté à ω1, la classe majoritaire
Comment choisir la valeur de K
?
   K=1 : frontières des classes très complexes
      très sensible aux fluctuations des données
       (variance élevée).
      risque de sur-ajustement.

      résiste mal aux données bruitées.

   K=n : frontière rigide
      moins sensible au bruit

      plus la valeur de k est grande plus la
       résultat d’affectation est bien réalisée
Mesures de distance
   Mesures souvent utilisées pour la distance dist(xi, xj)
•   la distance Euclidienne: qui calcule la racine carrée de la
    somme des différences carrées entre les coordonnées de
    deux points :




   la distance de Manhattan: qui calcule la somme des valeur
    absolue des différences entre les coordonnées de deux
    points :




•   la distance de Minkowski: qui est une métrique de distance
    générale.
Notations et Algorithme
     Soit D = {(x′, c), c ∈ C} l’ensemble d’apprentissage
     Soit x l’exemple dont on souhaite déterminer la classe

Algorithme
Début
  pour chaque ( (x′, c) ∈ D) faire
  Calculer la distance dist(x, x′)
  fin

      pour chaque {x′ ∈ kppv(x)} faire
          compter le nombre d’occurrence de chaque classe
      fin
          Attribuer à x la classe la plus fréquente;
fin
Avantages

    Apprentissage rapide
    Méthode facile à comprendre
    Adapté aux domaines où chaque classe est
     représentée par plusieurs prototypes et où
     les frontières sont irrégulières (ex.
     Reconnaissance de chiffre manuscrits ou
     d'images satellites)
Inconvénients

    prédiction lente car il faut revoir tous les
     exemples à chaque fois.
    méthode gourmande en place mémoire
    sensible aux attributs non pertinents et
     corrélés
    particulièrement vulnérable au fléau de la
     dimensionnalité
Conclusion
   dans cette présentation nous avons vue le
    principe de k plus proche voisin mais il y a
    d’autres algorithmes utilisés par le data mining
    comme :
   Arbres de décision
   Réseaux de neurones
   Classification bayésienne…
Merci pour votre
   attention

Weitere ähnliche Inhalte

Was ist angesagt?

Rapport kmeans
Rapport kmeans Rapport kmeans
Rapport kmeans
Imen Turki
 
Apprentissage supervisé.pdf
Apprentissage supervisé.pdfApprentissage supervisé.pdf
Apprentissage supervisé.pdf
hanamettali
 
Réseaux des neurones
Réseaux des neuronesRéseaux des neurones
Réseaux des neurones
Med Zaibi
 
Le Reseau De Neurones
Le Reseau De NeuronesLe Reseau De Neurones
Le Reseau De Neurones
guestf80d95
 

Was ist angesagt? (20)

Data Mining (Partie 1).pdf
Data Mining (Partie 1).pdfData Mining (Partie 1).pdf
Data Mining (Partie 1).pdf
 
Les 10 plus populaires algorithmes du machine learning
Les 10 plus populaires algorithmes du machine learningLes 10 plus populaires algorithmes du machine learning
Les 10 plus populaires algorithmes du machine learning
 
AI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine LearnigAI Apprentissage Automatique, Machine Learnig
AI Apprentissage Automatique, Machine Learnig
 
Perceptron monocouche en français
Perceptron monocouche en françaisPerceptron monocouche en français
Perceptron monocouche en français
 
clustering
clusteringclustering
clustering
 
Clustering: Méthode hiérarchique
Clustering: Méthode hiérarchiqueClustering: Méthode hiérarchique
Clustering: Méthode hiérarchique
 
Rapport kmeans
Rapport kmeans Rapport kmeans
Rapport kmeans
 
Deep learning
Deep learningDeep learning
Deep learning
 
Apprentissage supervisé.pdf
Apprentissage supervisé.pdfApprentissage supervisé.pdf
Apprentissage supervisé.pdf
 
Les arbres de décisions
Les arbres de décisionsLes arbres de décisions
Les arbres de décisions
 
réseaux de neurones artificiels
réseaux de neurones artificiels réseaux de neurones artificiels
réseaux de neurones artificiels
 
Les réseaux de neurones
Les réseaux de neuronesLes réseaux de neurones
Les réseaux de neurones
 
Data mining - Segmentation(k-means, cah)
Data mining - Segmentation(k-means, cah)Data mining - Segmentation(k-means, cah)
Data mining - Segmentation(k-means, cah)
 
Réseaux de neurones
Réseaux de neurones Réseaux de neurones
Réseaux de neurones
 
Intelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de rechercheIntelligence Artificielle - Algorithmes de recherche
Intelligence Artificielle - Algorithmes de recherche
 
Arbre de décision
Arbre de décisionArbre de décision
Arbre de décision
 
classification des images couleurs par un réseau de neurone quaternionique ré...
classification des images couleurs par un réseau de neurone quaternionique ré...classification des images couleurs par un réseau de neurone quaternionique ré...
classification des images couleurs par un réseau de neurone quaternionique ré...
 
Réseaux des neurones
Réseaux des neuronesRéseaux des neurones
Réseaux des neurones
 
Exposé réseaux des neurones (NN) - (RN)
Exposé réseaux des neurones (NN) - (RN)Exposé réseaux des neurones (NN) - (RN)
Exposé réseaux des neurones (NN) - (RN)
 
Le Reseau De Neurones
Le Reseau De NeuronesLe Reseau De Neurones
Le Reseau De Neurones
 

Ähnlich wie Algorithme knn

FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caret
jfeudeline
 
Ch6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdfCh6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdf
nesrinetaamallah
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
ENSET, Université Hassan II Casablanca
 
Planification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésiennePlanification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésienne
Julien Bect
 
Arbre de décision.pdf
Arbre de décision.pdfArbre de décision.pdf
Arbre de décision.pdf
imane26
 
Presoutenance
PresoutenancePresoutenance
Presoutenance
Jun XIONG
 

Ähnlich wie Algorithme knn (20)

FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caret
 
Recursive Neural Network summary
Recursive Neural Network summaryRecursive Neural Network summary
Recursive Neural Network summary
 
Présentation sur le Data Mining
Présentation sur le Data MiningPrésentation sur le Data Mining
Présentation sur le Data Mining
 
Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learning
 
Ch6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdfCh6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdf
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
 
optimisation cours.pdf
optimisation cours.pdfoptimisation cours.pdf
optimisation cours.pdf
 
test
testtest
test
 
Rc ia-benmammar
Rc ia-benmammarRc ia-benmammar
Rc ia-benmammar
 
Planification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésiennePlanification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésienne
 
Arbre de décision.pdf
Arbre de décision.pdfArbre de décision.pdf
Arbre de décision.pdf
 
comprehension clustering CHA.pdf
comprehension clustering CHA.pdfcomprehension clustering CHA.pdf
comprehension clustering CHA.pdf
 
Modèles numériques coûteux : de la quantification des incertitudes la planifi...
Modèles numériques coûteux : de la quantification des incertitudes la planifi...Modèles numériques coûteux : de la quantification des incertitudes la planifi...
Modèles numériques coûteux : de la quantification des incertitudes la planifi...
 
Séminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
Séminaire IA & VA- Dominique Gruyer, Univ Gustave EiffelSéminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
Séminaire IA & VA- Dominique Gruyer, Univ Gustave Eiffel
 
Presoutenance
PresoutenancePresoutenance
Presoutenance
 
Soutenance 17 Avril 2003
Soutenance 17 Avril 2003Soutenance 17 Avril 2003
Soutenance 17 Avril 2003
 
toaz.info-clustering-1-pr_7c021feec2e58f2cfdcdf6fe5c0cfc03.pdf
toaz.info-clustering-1-pr_7c021feec2e58f2cfdcdf6fe5c0cfc03.pdftoaz.info-clustering-1-pr_7c021feec2e58f2cfdcdf6fe5c0cfc03.pdf
toaz.info-clustering-1-pr_7c021feec2e58f2cfdcdf6fe5c0cfc03.pdf
 
Fondements du machine learning
Fondements du machine learningFondements du machine learning
Fondements du machine learning
 
Présentation_IA.pptx
Présentation_IA.pptxPrésentation_IA.pptx
Présentation_IA.pptx
 

Algorithme knn

  • 1. (k narres neighbours, ou k plus proches voisins) Réalisé par : Wassim Lahbibi 2012-2013
  • 2. plan 1 Introduction 2 Généralités 3 Domaine d’activité 4 Principe de fonctionnement 5 Mesures de distance 6 Notations et Algorithme 7 Avantage et inconvénient 8 conclusion
  • 3. Introduction  Le data mining emploie des techniques et des algorithme issus de disciplines scientifiques diverses telles que les statistiques, l‘intelligence artificielle ou l‘informatique, pour construire des modèles à partir des données  Parmi les techniques utilisées, il ya la méthode de k plus proche voisin.
  • 4. Généralités • la méthode des k plus proches voisins est une méthode de d’apprentissage supervisé. • dédiée à la classification. • En abrégé k-NN ou KNN, de l'anglais k-nearest neighbor. • L’algorithme KNN figure parmi les plus simples algorithmes d’apprentissage artificiel. • L’objectif de l’algorithme est de classé les exemples non étiquetés sur la base de leur similarité avec les exemples de la base d’apprentissage .
  • 5. Domaine d’activité  L’algorithme kNN est utilisée dans de nombreux domaines : • La reconnaissance de formes. • La recherche de nouveaux biomarqueurs pour le diagnostic. • Algorithmes de compression. • Analyse d’image satellite • Marketing ciblé
  • 6. Principe de fonctionnement  Le principe de cet algorithme de classification est très simple. On lui fournit: • un ensemble de données d’apprentissage D • une fonction de distance d • et un entier k  Pour tout nouveau point de test x, pour lequel il doit prendre une décision, l’algorithme recherche dans D les k points les plus proches de x au sens de la distance d , et attribue x à la classe qui est la plus fréquente parmi ces k voisins.
  • 7. Exemple •Dans l’exemple suivant, on a 3 classes et le but est de trouver la valeur de la classe de l’exemple inconnu x. •On prend la distance Euclidienne et k=5 voisins •Des 5 plus proches voisins, 4 appartiennent à ω1 et 1 appartient à ω3, donc x est affecté à ω1, la classe majoritaire
  • 8. Comment choisir la valeur de K ?  K=1 : frontières des classes très complexes  très sensible aux fluctuations des données (variance élevée).  risque de sur-ajustement.  résiste mal aux données bruitées.  K=n : frontière rigide  moins sensible au bruit  plus la valeur de k est grande plus la résultat d’affectation est bien réalisée
  • 9. Mesures de distance  Mesures souvent utilisées pour la distance dist(xi, xj) • la distance Euclidienne: qui calcule la racine carrée de la somme des différences carrées entre les coordonnées de deux points :  la distance de Manhattan: qui calcule la somme des valeur absolue des différences entre les coordonnées de deux points : • la distance de Minkowski: qui est une métrique de distance générale.
  • 10. Notations et Algorithme  Soit D = {(x′, c), c ∈ C} l’ensemble d’apprentissage  Soit x l’exemple dont on souhaite déterminer la classe Algorithme Début pour chaque ( (x′, c) ∈ D) faire Calculer la distance dist(x, x′) fin pour chaque {x′ ∈ kppv(x)} faire compter le nombre d’occurrence de chaque classe fin Attribuer à x la classe la plus fréquente; fin
  • 11. Avantages  Apprentissage rapide  Méthode facile à comprendre  Adapté aux domaines où chaque classe est représentée par plusieurs prototypes et où les frontières sont irrégulières (ex. Reconnaissance de chiffre manuscrits ou d'images satellites)
  • 12. Inconvénients  prédiction lente car il faut revoir tous les exemples à chaque fois.  méthode gourmande en place mémoire  sensible aux attributs non pertinents et corrélés  particulièrement vulnérable au fléau de la dimensionnalité
  • 13. Conclusion  dans cette présentation nous avons vue le principe de k plus proche voisin mais il y a d’autres algorithmes utilisés par le data mining comme :  Arbres de décision  Réseaux de neurones  Classification bayésienne…
  • 14. Merci pour votre attention