SlideShare ist ein Scribd-Unternehmen logo
1 von 56
Plan du cours
     Introduction

     Système de communication

     Schéma général de la communication


      Sources d’information

              Sources d’information discrètes
              Canal

              Canal discret sans mémoire

               Canal continu

03/01/13                                        1
Théorie de l’information
 Théorie de l’information: Théorie mathématique
qui se préoccupe des systèmes d'information, des
systèmes de communication et de leurs efficacités.
• Créée par C. E. Shannon dans les années 40.
•Fournit une mesure quantitative de la notion
d'information apportée par un message (ou une
observation).


  03/01/13                                      2
Système de communication
 Moyens de transmettre une information depuis la
source jusqu’à un utilisateur à travers un canal.




Source : voix, musique, image (fixe ou animée), texte, . . .
Canal : radio, fil, fibre optique, support magnétique ou optique, . . .
Bruit : perturbations électromagnétiques, rayures, . . .
03/01/13                                                                  3
Système de communication




03/01/13                              4
Théorie de l'information
 La transmission peut se faire dans l’espace ou
dans le temps.
Codeur: Ensemble des opérations effectuées sur la
sortie de la source avant la transmission. Ces
opérations peuvent être par exemple:
•la modulation, la compression, le brouillage, l’ajout de
redondance, la cryptographie
Le décodeur doit être capable, à partir de la sortie
du canal, de restituer de façon acceptable
l’information fournie par la source.
 03/01/13                                             5
Théorie de l'information
En Général, Les sciences de l'information essaient de dégager le
sens des informations en vue de prendre des décisions depuis des
données en s'appuyant sur des questions de:
     corrélation,
     d'entropie
     d'apprentissage.
Alors que Les technologies de l'information, s'occupent de la
façon de:
     concevoir,
     implémenter
     et déployer des solutions pour répondre à des besoins
    identifiés.
03/01/13                                                      6
Théorie de l'information
 On constate donc que dans la chaîne qui mène de la
donnée à l'action (prise de décision, déduction,….):
(données -> information -> connaissance -> sens -> motivation)
• Seule les deux premières transformations sont prises en
compte par la théorie de l'information classique
                                données -> information




03/01/13                                                     7
Schéma général de la communication
 X=“HELLO”      x=0011010100…                 y=0011000100…      Y=“CELLO”

  Source
information
                     Transmetteur            Canal          Récepteur            Destination


              P(X)                  X=F(x)              y
                                                                        Y=G(y)

                                              Bruit

                                               P(y|x)
  1er rôle du transmetteur/récepteur :
    – Traduire la source en un langage admis par le canal
  2ème rôle du transmetteur/récepteur :
    – réduire la redondance de la source
   3ème rôle du transmetteur/récepteur :
   – gérer les erreurs du canal,
   – les détecter et/ou les corriger
   03/01/13                                                                            8
Sources d’information
• Définition : Systèmes capables de sélectionner et
d’émettre des séquences de signes (ou messages)
appartenant à un ensemble (ou alphabet) donné
• Ex. de signes : lettres, chiffres, échantillons
• Ex. de sources : système à 2 niveaux logiques,
  texte



03/01/13                                        9
Modèles de Sources d’information
On peut distinguer, parmi les classes de modèles
de sources:
• les sources discrètes sans mémoire, finie ou
  infinie.
• les sources non discrètes, ou sources continues,




03/01/13                                       10
Sources d’information discrètes
Une source discrète χ est un alphabet fini
χ = (a1,…, aK) muni d'une loi de probabilité PX.
• Exemples : Sources d’information alphanumériques,
   de symboles binaires, d’information numérique (signaux
   quantifiés en amplitude, en fréquence ou en phase)
2 sortes de sources:
• Sources sans mémoire : signes générés indépendamment les
    uns des autres => modèle de Bernoulli
• Sources avec mémoire : prise en compte de la dépendance
    entre un signe émis et les signes précédents=> modèle de
    Markov: Ex : description statistique des langues écrites usuelles
03/01/13                                                          11
Hypothèse sur la source
• On considère le message produit par la source comme un
  signal aléatoire dont on peut connaître les probabilités
  d’occurrence des symboles p(X).

Exemple 1: source binaire équiprobable, “010010111001…”,
   p(0) = 1-p(1) = 0.5

Exemple 2: source binaire biaisée, “11011110011111…”,
   p(0) = 1-p(1) = 0.2

Exemple 3: source alphabétique équiprobable,
 “AGRWTCHG…”,
   p(A) = p(B) = p(C) = … p(Z) = 1/26.


   03/01/13                                                  12
03/01/13   13
Canal
• Pour modéliser un canal de transmission, il est
  nécessaire de spécifier l’ensemble des entrées
  et l’ensemble des sorties possibles.
• Canal discret sans mémoire: L’entrée est une
  lettre prise dans un alphabet fini A = {a1,...,an}
  et la sortie est une lettre prise dans un
  alphabet fini B = {b1,...,bm}


03/01/13                                           14
Canal discret sans mémoire
• Chaque lettre de la séquence reçue ne dépend
  statistiquement que de la lettre émise de
  même position.
• Entièrement décrit par la donnée des
  probabilités conditionnelles p(b|a) pour
  toutes les lettres a de l’alphabet d’entrée et
  toutes les lettres b de l’alphabet de sortie.


03/01/13                                       15
Canal continu
• Plus proches des canaux physiques.
• L’entrée et la sortie sont des fonctions
  continues du temps.




03/01/13                                     16
Canal continu
• Le codeur du canal discret, transforme une
  séquence binaire en une séquence de lettres
  d’un alphabet fini A = {a1, . . . , an}.
• La seconde partie du codeur, le modulateur de
  données digitales, envoie pendant un temps τc
  sur le canal une des fonctions de temps
  prédéfinies s1(t), . . . , sn(t).
• La durée τc est l’intervalle de temps séparant
  l’émission de deux lettres par le codeur de
  canal discret.
03/01/13                                       17
Canal continu
• L’ensemble de ces fonctions du temps mises
  bout à bout est converti à la sortie du canal
  par le démodulateur de données digitales en
  une séquence de lettres d’un alphabet de
  sortie B = {b1, . . . , bm} au rythme, d’une lettre
  toutes les τc secondes




03/01/13                                            18
Hypothèse sur le canal
• On considère le canal de transmission en termes probabilistes
  via les probabilités de transition p(y|x) d’obtenir un symbole y
  en sortie quand le symbole x a été introduit en entrée
Exemple 1: canal binaire sans bruit,
       p(0|0) = p(1|1) = 1
       p(1|0) = p(0|1) = 0
Exemple 2: canal binaire bruité,
       p(0|0) = p(1|1) = 1- p ,
       p(1|0) = p(0|1) = p
Exemple 3: machine à écrire bruitée,
       p(A|A) = p(B|A) = 0.5 ,
       p(B|B) = p(C|B) = 0.5 ,
       p(C|C) = p(D|C) = 0.5 , …

   03/01/13                                                  19
03/01/13   20
Exemple d’information
Problème:
Une bibliothèque possède un grand nombre:
 d'ouvrages,
 des revues,
 des livres
 et des dictionnaires.
Nous cherchons un cours complet sur la théorie de
l'information.

  03/01/13                                    21
Exemple d’information
• Tout d'abord, il est logique que nous ne trouverons
pas ce dossier dans des ouvrages d'arts ou de
littérature; nous venons donc d'obtenir une
information qui diminuera notre temps de
recherche.
• Il est précisé que nous voulions aussi un cours
complet, nous ne le trouverons donc ni dans une
revue, ni dans un dictionnaire.
• Nous avons obtenu une information
supplémentaire (nous cherchons un livre), qui
réduira encore le temps de notre recherche.
  03/01/13                                        22
Notion de la quantité d’information




03/01/13                                    23
Notion de la quantité d’information




03/01/13                                    24
Notion de la quantité d’information
Problème
Considérons N boîtes numérotées de 1 à N.
Un individu A a caché au hasard un objet dans une de ces boîtes.
Un individu B doit trouver le numéro de la boîte où est caché l'objet.
 Pour cela, B a le droit de poser des questions à l'individu A
 A doit répondre sans mentir par OUI ou NON.
Mais chaque question posée représente un coût à payer par l'individu B (par
exemple un dinar).
 Un individu C sait dans quelle boîte est caché l'objet. Il a la possibilité de
vendre cette information à l'individu B.
B n'acceptera ce marché que si le prix de C est inférieur ou égal au coût
moyen que B devrait dépenser pour trouver la boîte en posant des questions
à A.
L'information détenue par C a donc un certain prix.
 Ce prix représente la quantité d'information représentée par la connaissance
de la bonne boîte : c'est le nombre moyen de questions à poser pour
identifier cette boîte.
Nous la noterons I.
  03/01/13                                                                25
Notion de la quantité
               d’information
•Si N = 1, I = 0. Il n'y a qu'une seule boîte. Aucune question
n'est nécessaire.
•Si N = 2, I = 1. On demande si la bonne boîte est la boîte
n°1. La réponse OUI ou NON détermine alors sans
ambiguïté quelle est la boîte cherchée.
•Si N = 4, I = 2. On demande si la boîte porte le n°1 ou 2.
La réponse permet alors d'éliminer deux des boîtes et il
suffit d'une dernière question pour trouver quelle est la
bonne boîte parmi les deux restantes.

 03/01/13                                                  26
Notion de la quantité
               d’information
•Si N = 2k, I = k. On écrit les numéros des boîtes en base 2. Les
numéros ont au plus k chiffres binaires, et pour chacun des rangs
de ces chiffres, on demande si la boîte cherchée possède le chiffre
0 ou le chiffre 1.
• En k questions, on a déterminé tous les chiffres binaires de la
bonne boîte. Cela revient également à poser k questions, chaque
question ayant pour but de diviser successivement le nombre de
boîtes considérées par 2 (méthode de dichotomie).
On est donc amené à poser I = log2(N), mais cette configuration ne
se produit que dans le cas de N événements équiprobables.


 03/01/13                                                       27
Notion de la quantité
                d’information
• Supposons maintenant que les boîtes soient colorées, et qu'il y
ait n boîtes rouges.
• Supposons également que C sache que la boîte où est caché
l'objet est rouge. Quel est le prix de cette information?
• Sans cette information, le prix à payer est log(N). Muni de cette
information, le prix à payer n'est plus que log(n).
• Le prix de l'information « la boîte cherchée est rouge » est donc :
log(N) − log(n) = log(N / n).




  03/01/13                                                         28
Notion de la quantité
              d’information
On définit ainsi la quantité d'information comme une fonction
croissante de N/n avec :
N : le nombre d'évènements possibles
n : le cardinal du sous-ensemble délimité par l'information
Quantité d'information: I=log2(N/n)




03/01/13                                                   29
03/01/13   30
Information mutuelle




03/01/13                          31
03/01/13   32
03/01/13   33
Entropie, formule de Shannon

Supposons maintenant que les boîtes soient de diverses
couleurs :
n1 boîtes de couleur C1,
n2 boîtes de couleur C2,
...,
nk boîtes de couleurs Ck,


avec n1 + n2 + ... + nk = N.
 03/01/13                                          34
Entropie, formule de Shannon

La personne C sait de quelle couleur est la boîte recherchée.

            Quel est le prix de cette information ?

L'information « la boîte est de couleur C1 » vaut log N/n1,
et cette éventualité a une probabilité n1/N.
L'information « la boîte est de couleur C2 » vaut log N/n2,
et cette éventualité a une probabilité n2/N...
 03/01/13                                                 35
Entropie, formule de Shannon
Le prix moyen de l'information est donc:
 n1/N log( N/n1 )+ n2/N log (N/n2 )+ ... + nk/N log (N/nk)
Plus généralement, si on considère k évènements disjoints
de probabilités respectives p1, p2, ..., pk avec :
p1 + p2 + ... + pk = 1, alors la quantité d'information
correspondant à cette distribution de probabilité est:
 p1 log 1/p1 + ... + pk log 1/pk.
Cette quantité s'appelle entropie de la distribution de
probabilité
 01/03/13                                                    36
Entropie, formule de Shannon
           L’entropie permet donc de mesurer la
           quantité d'information moyenne d'un
           ensemble d'évènements (en particulier de
           messages) et de mesurer son incertitude.
           On la note H :
           avec              la probabilité associée à
           l'apparition de l'évènement i.


01/03/13                                                 37
Entropie
• Du point de vue d'un récepteur, plus la source
  émet d'informations différentes, plus
  l'entropie (ou incertitude sur ce que la source
  émet) est grande, et vice versa.
• Plus le récepteur reçoit d'information sur le
  message       transmis,       plus    l'entropie
  (incertitude) vis-à-vis de ce message décroît.


01/03/13                                         38
Entropie
• La définition de l'entropie d'une source selon
  Shannon est telle que plus la source est
  redondante,        moins      elle    contient
  d'information.
• En l'absence de contraintes particulières,
  l'entropie est maximale pour une source dont
  tous les symboles sont équiprobables.


01/03/13                                       39
Entropie
• Dans le cas particulier d'un système de
  télécommunication, l'entropie de la source
  d'information (le transmetteur) indique
  l'incertitude du récepteur par rapport à ce
  que la source va transmettre




01/03/13                                    40
Entropie
 • Une source réputée envoyer toujours le
   même symbole, disons la lettre 'a', a une
   entropie nulle, c'est-à-dire minimale.
 • En effet, un récepteur qui connait seulement
   les statistiques de transmission de la source
   est assuré que le prochain symbole sera un
   'a', sans jamais se tromper.
 • Le récepteur n'a pas besoin de recevoir de
   signal pour lever l'incertitude sur ce qui a été
   transmis par la source car celle-ci n'engendre
   pas d'aléa
01/03/13                                         41
Entropie
• Par contre, si la source est réputée envoyer
  un 'a' la moitié du temps et un 'b' l'autre
  moitié, le récepteur est incertain de la
  prochaine lettre à recevoir. L'entropie de la
  source dans ce cas est donc non nulle
  (positive) et représente quantitativement
  l'incertitude qui règne sur l'information
  émanant de la source.

01/03/13                                      42
Entropie
• Du point de vue du récepteur, l'entropie
  indique la quantité d'information qu'il lui
  faut obtenir pour lever complètement
  l'incertitude (ou le doute) sur ce que la
  source a transmis




01/03/13                                    43
Entropie
 • Si une source émet nlettres équiprobables (ou
 encore avec une loi de probabilité uniforme), son
 entropie est donc log2 n.
 • Si n= 2r, son entropie est alors r.
 Or pour représenter 2r lettres distinctes en binaires,
 rcases sont nécessaires.
 L’entropie d’une source est quelquefois
 donnée en bits/seconde

01/03/13                                             44
01/03/13   45
01/03/13   46
Entropie d’une source discrète
• Exemple 2: 26 lettres de l’alphabet
                              26
                                 1   1 
                 H ( X ) = −∑ log  = 4.7bits / lettre
                            k =1 26  26 
• Exemple 3: code ASCII 7 bits - 128 symboles
                        128
                            1   1 
              H (X ) =−∑ log128  = 7bits / lettres
                       k = 128
                          1       

• Exemple 4: X dans {a,b,c,d}, p(a) = ½ , p(b) = ¼ , p(c) =
  p(d) = ?
           1 1 1 1 1 1 1 1 7
H ( X ) = − log − log − log − log = bits / symbole
           2 2 4 4 8 8 8 8 4
01/03/13                                                  47
Entropie d’une source discrète




01/03/13                                    48
Entropie d’une source discrète




01/03/13                                    49
Entropie d’une source discrète




01/03/13                                    50
01/03/13   51
01/03/13   52
01/03/13   53
01/03/13   54
01/03/13   55
Théo inf

Weitere ähnliche Inhalte

Was ist angesagt?

Les algorithmes d’approximation
Les algorithmes d’approximationLes algorithmes d’approximation
Les algorithmes d’approximation
Wael Ismail
 
Programmation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexeProgrammation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexe
Jiijishady
 
Chapitre v algorithmes gloutons
Chapitre v algorithmes gloutonsChapitre v algorithmes gloutons
Chapitre v algorithmes gloutons
Sana Aroussi
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite complet
Chahrawoods Dmz
 
Limites de fonctions et de suites
Limites de fonctions et de suitesLimites de fonctions et de suites
Limites de fonctions et de suites
Ămîʼndǿ TrànCè
 
Cours maths s1.by m.e.goultine
Cours maths s1.by m.e.goultineCours maths s1.by m.e.goultine
Cours maths s1.by m.e.goultine
Abdel Hakim
 
Modelisation non supervisee
Modelisation non superviseeModelisation non supervisee
Modelisation non supervisee
miniloka
 
Fonctions exponentielles et puissances
Fonctions exponentielles et puissancesFonctions exponentielles et puissances
Fonctions exponentielles et puissances
Ămîʼndǿ TrànCè
 

Was ist angesagt? (18)

Analyse de données fonctionnelles par Machines à Vecteurs de Support (SVM)
Analyse de données fonctionnelles par Machines à Vecteurs de Support (SVM) Analyse de données fonctionnelles par Machines à Vecteurs de Support (SVM)
Analyse de données fonctionnelles par Machines à Vecteurs de Support (SVM)
 
Les algorithmes d’approximation
Les algorithmes d’approximationLes algorithmes d’approximation
Les algorithmes d’approximation
 
Programmation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexeProgrammation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexe
 
Vraisembl
VraisemblVraisembl
Vraisembl
 
C4 spec-adt
C4 spec-adtC4 spec-adt
C4 spec-adt
 
La complexité des algorithmes récursives Géométrie algorithmique
La complexité des algorithmes récursivesGéométrie algorithmiqueLa complexité des algorithmes récursivesGéométrie algorithmique
La complexité des algorithmes récursives Géométrie algorithmique
 
Fonction quadratique TS-4
Fonction quadratique TS-4Fonction quadratique TS-4
Fonction quadratique TS-4
 
Planification séquentielle pour l'estimation de probabilités de défaillance
Planification séquentielle pour l'estimation de probabilités de défaillancePlanification séquentielle pour l'estimation de probabilités de défaillance
Planification séquentielle pour l'estimation de probabilités de défaillance
 
Chapitre v algorithmes gloutons
Chapitre v algorithmes gloutonsChapitre v algorithmes gloutons
Chapitre v algorithmes gloutons
 
Théorie 1234
Théorie 1234Théorie 1234
Théorie 1234
 
Presentation of SOMbrero
Presentation of SOMbreroPresentation of SOMbrero
Presentation of SOMbrero
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite complet
 
Une formule de dérivation pour les fonctions exponentielles
Une formule de dérivation pour les fonctions exponentiellesUne formule de dérivation pour les fonctions exponentielles
Une formule de dérivation pour les fonctions exponentielles
 
Aates ch08 lois-a-densite
Aates ch08 lois-a-densiteAates ch08 lois-a-densite
Aates ch08 lois-a-densite
 
Limites de fonctions et de suites
Limites de fonctions et de suitesLimites de fonctions et de suites
Limites de fonctions et de suites
 
Cours maths s1.by m.e.goultine
Cours maths s1.by m.e.goultineCours maths s1.by m.e.goultine
Cours maths s1.by m.e.goultine
 
Modelisation non supervisee
Modelisation non superviseeModelisation non supervisee
Modelisation non supervisee
 
Fonctions exponentielles et puissances
Fonctions exponentielles et puissancesFonctions exponentielles et puissances
Fonctions exponentielles et puissances
 

Andere mochten auch (7)

MaxEnt 2009 talk
MaxEnt 2009 talkMaxEnt 2009 talk
MaxEnt 2009 talk
 
Princeton's Maximum Entropy Tutorial
Princeton's Maximum Entropy TutorialPrinceton's Maximum Entropy Tutorial
Princeton's Maximum Entropy Tutorial
 
Weave-D - 2nd Progress Evaluation Presentation
Weave-D - 2nd Progress Evaluation PresentationWeave-D - 2nd Progress Evaluation Presentation
Weave-D - 2nd Progress Evaluation Presentation
 
Le Reseau De Neurones
Le Reseau De NeuronesLe Reseau De Neurones
Le Reseau De Neurones
 
Chap2 physique
Chap2 physiqueChap2 physique
Chap2 physique
 
How to Make Awesome SlideShares: Tips & Tricks
How to Make Awesome SlideShares: Tips & TricksHow to Make Awesome SlideShares: Tips & Tricks
How to Make Awesome SlideShares: Tips & Tricks
 
Getting Started With SlideShare
Getting Started With SlideShareGetting Started With SlideShare
Getting Started With SlideShare
 

Ähnlich wie Théo inf

Inf_theory_lect2.pdf
Inf_theory_lect2.pdfInf_theory_lect2.pdf
Inf_theory_lect2.pdf
kohay75604
 

Ähnlich wie Théo inf (9)

Inf_theory_lect2.pdf
Inf_theory_lect2.pdfInf_theory_lect2.pdf
Inf_theory_lect2.pdf
 
1 entropie-capacite theorie de l'information
1 entropie-capacite theorie de l'information1 entropie-capacite theorie de l'information
1 entropie-capacite theorie de l'information
 
Communication et support de Transmission L1 UNILO 2023.pdf
Communication et support de Transmission L1 UNILO 2023.pdfCommunication et support de Transmission L1 UNILO 2023.pdf
Communication et support de Transmission L1 UNILO 2023.pdf
 
SRC - SAV - La lumière
SRC - SAV - La lumièreSRC - SAV - La lumière
SRC - SAV - La lumière
 
2 codage source
2 codage source2 codage source
2 codage source
 
td_devoirs_2013.pdf
td_devoirs_2013.pdftd_devoirs_2013.pdf
td_devoirs_2013.pdf
 
chap2 genéralites-chaine_de_transmission_15-16
chap2 genéralites-chaine_de_transmission_15-16chap2 genéralites-chaine_de_transmission_15-16
chap2 genéralites-chaine_de_transmission_15-16
 
seminaires_crytage_vision compression video
seminaires_crytage_vision compression videoseminaires_crytage_vision compression video
seminaires_crytage_vision compression video
 
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIBTRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
TRANSMISSION NUMERIQUE Année 2022-2023 CEFIB
 

Théo inf

  • 1. Plan du cours Introduction Système de communication Schéma général de la communication Sources d’information Sources d’information discrètes Canal Canal discret sans mémoire Canal continu 03/01/13 1
  • 2. Théorie de l’information  Théorie de l’information: Théorie mathématique qui se préoccupe des systèmes d'information, des systèmes de communication et de leurs efficacités. • Créée par C. E. Shannon dans les années 40. •Fournit une mesure quantitative de la notion d'information apportée par un message (ou une observation). 03/01/13 2
  • 3. Système de communication  Moyens de transmettre une information depuis la source jusqu’à un utilisateur à travers un canal. Source : voix, musique, image (fixe ou animée), texte, . . . Canal : radio, fil, fibre optique, support magnétique ou optique, . . . Bruit : perturbations électromagnétiques, rayures, . . . 03/01/13 3
  • 5. Théorie de l'information  La transmission peut se faire dans l’espace ou dans le temps. Codeur: Ensemble des opérations effectuées sur la sortie de la source avant la transmission. Ces opérations peuvent être par exemple: •la modulation, la compression, le brouillage, l’ajout de redondance, la cryptographie Le décodeur doit être capable, à partir de la sortie du canal, de restituer de façon acceptable l’information fournie par la source. 03/01/13 5
  • 6. Théorie de l'information En Général, Les sciences de l'information essaient de dégager le sens des informations en vue de prendre des décisions depuis des données en s'appuyant sur des questions de:  corrélation,  d'entropie  d'apprentissage. Alors que Les technologies de l'information, s'occupent de la façon de:  concevoir,  implémenter  et déployer des solutions pour répondre à des besoins identifiés. 03/01/13 6
  • 7. Théorie de l'information  On constate donc que dans la chaîne qui mène de la donnée à l'action (prise de décision, déduction,….): (données -> information -> connaissance -> sens -> motivation) • Seule les deux premières transformations sont prises en compte par la théorie de l'information classique données -> information 03/01/13 7
  • 8. Schéma général de la communication X=“HELLO” x=0011010100… y=0011000100… Y=“CELLO” Source information Transmetteur Canal Récepteur Destination P(X) X=F(x) y Y=G(y) Bruit P(y|x) 1er rôle du transmetteur/récepteur : – Traduire la source en un langage admis par le canal 2ème rôle du transmetteur/récepteur : – réduire la redondance de la source 3ème rôle du transmetteur/récepteur : – gérer les erreurs du canal, – les détecter et/ou les corriger 03/01/13 8
  • 9. Sources d’information • Définition : Systèmes capables de sélectionner et d’émettre des séquences de signes (ou messages) appartenant à un ensemble (ou alphabet) donné • Ex. de signes : lettres, chiffres, échantillons • Ex. de sources : système à 2 niveaux logiques, texte 03/01/13 9
  • 10. Modèles de Sources d’information On peut distinguer, parmi les classes de modèles de sources: • les sources discrètes sans mémoire, finie ou infinie. • les sources non discrètes, ou sources continues, 03/01/13 10
  • 11. Sources d’information discrètes Une source discrète χ est un alphabet fini χ = (a1,…, aK) muni d'une loi de probabilité PX. • Exemples : Sources d’information alphanumériques, de symboles binaires, d’information numérique (signaux quantifiés en amplitude, en fréquence ou en phase) 2 sortes de sources: • Sources sans mémoire : signes générés indépendamment les uns des autres => modèle de Bernoulli • Sources avec mémoire : prise en compte de la dépendance entre un signe émis et les signes précédents=> modèle de Markov: Ex : description statistique des langues écrites usuelles 03/01/13 11
  • 12. Hypothèse sur la source • On considère le message produit par la source comme un signal aléatoire dont on peut connaître les probabilités d’occurrence des symboles p(X). Exemple 1: source binaire équiprobable, “010010111001…”, p(0) = 1-p(1) = 0.5 Exemple 2: source binaire biaisée, “11011110011111…”, p(0) = 1-p(1) = 0.2 Exemple 3: source alphabétique équiprobable, “AGRWTCHG…”, p(A) = p(B) = p(C) = … p(Z) = 1/26. 03/01/13 12
  • 13. 03/01/13 13
  • 14. Canal • Pour modéliser un canal de transmission, il est nécessaire de spécifier l’ensemble des entrées et l’ensemble des sorties possibles. • Canal discret sans mémoire: L’entrée est une lettre prise dans un alphabet fini A = {a1,...,an} et la sortie est une lettre prise dans un alphabet fini B = {b1,...,bm} 03/01/13 14
  • 15. Canal discret sans mémoire • Chaque lettre de la séquence reçue ne dépend statistiquement que de la lettre émise de même position. • Entièrement décrit par la donnée des probabilités conditionnelles p(b|a) pour toutes les lettres a de l’alphabet d’entrée et toutes les lettres b de l’alphabet de sortie. 03/01/13 15
  • 16. Canal continu • Plus proches des canaux physiques. • L’entrée et la sortie sont des fonctions continues du temps. 03/01/13 16
  • 17. Canal continu • Le codeur du canal discret, transforme une séquence binaire en une séquence de lettres d’un alphabet fini A = {a1, . . . , an}. • La seconde partie du codeur, le modulateur de données digitales, envoie pendant un temps τc sur le canal une des fonctions de temps prédéfinies s1(t), . . . , sn(t). • La durée τc est l’intervalle de temps séparant l’émission de deux lettres par le codeur de canal discret. 03/01/13 17
  • 18. Canal continu • L’ensemble de ces fonctions du temps mises bout à bout est converti à la sortie du canal par le démodulateur de données digitales en une séquence de lettres d’un alphabet de sortie B = {b1, . . . , bm} au rythme, d’une lettre toutes les τc secondes 03/01/13 18
  • 19. Hypothèse sur le canal • On considère le canal de transmission en termes probabilistes via les probabilités de transition p(y|x) d’obtenir un symbole y en sortie quand le symbole x a été introduit en entrée Exemple 1: canal binaire sans bruit, p(0|0) = p(1|1) = 1 p(1|0) = p(0|1) = 0 Exemple 2: canal binaire bruité, p(0|0) = p(1|1) = 1- p , p(1|0) = p(0|1) = p Exemple 3: machine à écrire bruitée, p(A|A) = p(B|A) = 0.5 , p(B|B) = p(C|B) = 0.5 , p(C|C) = p(D|C) = 0.5 , … 03/01/13 19
  • 20. 03/01/13 20
  • 21. Exemple d’information Problème: Une bibliothèque possède un grand nombre:  d'ouvrages,  des revues,  des livres  et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. 03/01/13 21
  • 22. Exemple d’information • Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. • Il est précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. • Nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche. 03/01/13 22
  • 23. Notion de la quantité d’information 03/01/13 23
  • 24. Notion de la quantité d’information 03/01/13 24
  • 25. Notion de la quantité d’information Problème Considérons N boîtes numérotées de 1 à N. Un individu A a caché au hasard un objet dans une de ces boîtes. Un individu B doit trouver le numéro de la boîte où est caché l'objet. Pour cela, B a le droit de poser des questions à l'individu A A doit répondre sans mentir par OUI ou NON. Mais chaque question posée représente un coût à payer par l'individu B (par exemple un dinar). Un individu C sait dans quelle boîte est caché l'objet. Il a la possibilité de vendre cette information à l'individu B. B n'acceptera ce marché que si le prix de C est inférieur ou égal au coût moyen que B devrait dépenser pour trouver la boîte en posant des questions à A. L'information détenue par C a donc un certain prix. Ce prix représente la quantité d'information représentée par la connaissance de la bonne boîte : c'est le nombre moyen de questions à poser pour identifier cette boîte. Nous la noterons I. 03/01/13 25
  • 26. Notion de la quantité d’information •Si N = 1, I = 0. Il n'y a qu'une seule boîte. Aucune question n'est nécessaire. •Si N = 2, I = 1. On demande si la bonne boîte est la boîte n°1. La réponse OUI ou NON détermine alors sans ambiguïté quelle est la boîte cherchée. •Si N = 4, I = 2. On demande si la boîte porte le n°1 ou 2. La réponse permet alors d'éliminer deux des boîtes et il suffit d'une dernière question pour trouver quelle est la bonne boîte parmi les deux restantes. 03/01/13 26
  • 27. Notion de la quantité d’information •Si N = 2k, I = k. On écrit les numéros des boîtes en base 2. Les numéros ont au plus k chiffres binaires, et pour chacun des rangs de ces chiffres, on demande si la boîte cherchée possède le chiffre 0 ou le chiffre 1. • En k questions, on a déterminé tous les chiffres binaires de la bonne boîte. Cela revient également à poser k questions, chaque question ayant pour but de diviser successivement le nombre de boîtes considérées par 2 (méthode de dichotomie). On est donc amené à poser I = log2(N), mais cette configuration ne se produit que dans le cas de N événements équiprobables. 03/01/13 27
  • 28. Notion de la quantité d’information • Supposons maintenant que les boîtes soient colorées, et qu'il y ait n boîtes rouges. • Supposons également que C sache que la boîte où est caché l'objet est rouge. Quel est le prix de cette information? • Sans cette information, le prix à payer est log(N). Muni de cette information, le prix à payer n'est plus que log(n). • Le prix de l'information « la boîte cherchée est rouge » est donc : log(N) − log(n) = log(N / n). 03/01/13 28
  • 29. Notion de la quantité d’information On définit ainsi la quantité d'information comme une fonction croissante de N/n avec : N : le nombre d'évènements possibles n : le cardinal du sous-ensemble délimité par l'information Quantité d'information: I=log2(N/n) 03/01/13 29
  • 30. 03/01/13 30
  • 32. 03/01/13 32
  • 33. 03/01/13 33
  • 34. Entropie, formule de Shannon Supposons maintenant que les boîtes soient de diverses couleurs : n1 boîtes de couleur C1, n2 boîtes de couleur C2, ..., nk boîtes de couleurs Ck, avec n1 + n2 + ... + nk = N. 03/01/13 34
  • 35. Entropie, formule de Shannon La personne C sait de quelle couleur est la boîte recherchée. Quel est le prix de cette information ? L'information « la boîte est de couleur C1 » vaut log N/n1, et cette éventualité a une probabilité n1/N. L'information « la boîte est de couleur C2 » vaut log N/n2, et cette éventualité a une probabilité n2/N... 03/01/13 35
  • 36. Entropie, formule de Shannon Le prix moyen de l'information est donc: n1/N log( N/n1 )+ n2/N log (N/n2 )+ ... + nk/N log (N/nk) Plus généralement, si on considère k évènements disjoints de probabilités respectives p1, p2, ..., pk avec : p1 + p2 + ... + pk = 1, alors la quantité d'information correspondant à cette distribution de probabilité est: p1 log 1/p1 + ... + pk log 1/pk. Cette quantité s'appelle entropie de la distribution de probabilité 01/03/13 36
  • 37. Entropie, formule de Shannon L’entropie permet donc de mesurer la quantité d'information moyenne d'un ensemble d'évènements (en particulier de messages) et de mesurer son incertitude. On la note H : avec la probabilité associée à l'apparition de l'évènement i. 01/03/13 37
  • 38. Entropie • Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande, et vice versa. • Plus le récepteur reçoit d'information sur le message transmis, plus l'entropie (incertitude) vis-à-vis de ce message décroît. 01/03/13 38
  • 39. Entropie • La définition de l'entropie d'une source selon Shannon est telle que plus la source est redondante, moins elle contient d'information. • En l'absence de contraintes particulières, l'entropie est maximale pour une source dont tous les symboles sont équiprobables. 01/03/13 39
  • 40. Entropie • Dans le cas particulier d'un système de télécommunication, l'entropie de la source d'information (le transmetteur) indique l'incertitude du récepteur par rapport à ce que la source va transmettre 01/03/13 40
  • 41. Entropie • Une source réputée envoyer toujours le même symbole, disons la lettre 'a', a une entropie nulle, c'est-à-dire minimale. • En effet, un récepteur qui connait seulement les statistiques de transmission de la source est assuré que le prochain symbole sera un 'a', sans jamais se tromper. • Le récepteur n'a pas besoin de recevoir de signal pour lever l'incertitude sur ce qui a été transmis par la source car celle-ci n'engendre pas d'aléa 01/03/13 41
  • 42. Entropie • Par contre, si la source est réputée envoyer un 'a' la moitié du temps et un 'b' l'autre moitié, le récepteur est incertain de la prochaine lettre à recevoir. L'entropie de la source dans ce cas est donc non nulle (positive) et représente quantitativement l'incertitude qui règne sur l'information émanant de la source. 01/03/13 42
  • 43. Entropie • Du point de vue du récepteur, l'entropie indique la quantité d'information qu'il lui faut obtenir pour lever complètement l'incertitude (ou le doute) sur ce que la source a transmis 01/03/13 43
  • 44. Entropie • Si une source émet nlettres équiprobables (ou encore avec une loi de probabilité uniforme), son entropie est donc log2 n. • Si n= 2r, son entropie est alors r. Or pour représenter 2r lettres distinctes en binaires, rcases sont nécessaires. L’entropie d’une source est quelquefois donnée en bits/seconde 01/03/13 44
  • 45. 01/03/13 45
  • 46. 01/03/13 46
  • 47. Entropie d’une source discrète • Exemple 2: 26 lettres de l’alphabet 26 1  1  H ( X ) = −∑ log  = 4.7bits / lettre k =1 26  26  • Exemple 3: code ASCII 7 bits - 128 symboles 128 1  1  H (X ) =−∑ log128  = 7bits / lettres k = 128 1   • Exemple 4: X dans {a,b,c,d}, p(a) = ½ , p(b) = ¼ , p(c) = p(d) = ? 1 1 1 1 1 1 1 1 7 H ( X ) = − log − log − log − log = bits / symbole 2 2 4 4 8 8 8 8 4 01/03/13 47
  • 48. Entropie d’une source discrète 01/03/13 48
  • 49. Entropie d’une source discrète 01/03/13 49
  • 50. Entropie d’une source discrète 01/03/13 50
  • 51. 01/03/13 51
  • 52. 01/03/13 52
  • 53. 01/03/13 53
  • 54. 01/03/13 54
  • 55. 01/03/13 55