4. 4
INTRODUCTION
Qu'est-ce que le multimédia?
Origine
Historique
Intérȇt du multimédia
Les applications multimédia
5. 5
INTRODUCTION
Qu'est-ce que le multimédia?
✔ ”C'est l'ouverture de l'informatique à d'autres formes
d'informations que le texte et le graphique.”( le livre blanc du
multimedia )
✔ ”Technique de communication qui tend à rassembler sur un seul
support l'ensemble des moyens audiovisuels (médium de base ,
dessins animés et informatiques (données et programmes ) pour
les diffuser simultanément et de manière interactives”
(dictionnaire du multimédia)
✔ ”Le terme multimédia designe un système intégrant divers média
et autorisant leur utilisation interactive.”(The Design Of an
Extensible Multimedia Library for an OODBMS)
6. 6
INTRODUCTION
✔ Selon la norme AFNOR le terme MULTIMEDIA peut désigner :
- Un assemblage des technologies destinées à gérer les
données, le son et l'image sur un même support.
-Un Ensemble de techniques permettant d'utiliser des informations de type
texte, image fixe, image animée et son sur un même support.
-Une caractéristique d'un système de traitement, un ordinateur, un logiciel,
etc., permettant l'exploitation simultanée de données numériques, de textes,
d'images fixes ou animées, de sons.
7. 7
INTRODUCTION
origine
✔ Le multimédia est le carrefour de plusieures domaines :
- audiovisuel
- informatique
- télécommunications
- art graphique,publicité,électronique...
✔ Ce domaine a bénéficier des avancées technologiques
- Technologies de stockage.
- Méthodes de compression/décompression.
- Technologies de transfert de données.
- Accroissement des capacités de traitements des ordinateurs
8. 8
INTRODUCTION
Historique
✔ Né dans les années 80 :
– Avec le vidéodisque analogique.
– Pour stocker des sons, des images fixes et de la vidéo.
– Premier : Hypercard (Macintosh Apple):
+ Stocker du texte, des images et du son,
+ Les manipuler,
+ Les consulter par navigation.
9. 9
INTRODUCTION
Historique
✔ 1984-1985 : interface graphique sur les ordinateurs
✔ ~1988 : CD-ROM
✔ 1990 : sons et images sophistiqués
✔ Techniques de compression
✔ Puissance des machines
✔ 1994 : démocratisation d’Internet
✔ 2004 : Web 2.0
✔ …
10. 10
INTRODUCTION
Intérȇt du multimédia
✔ Nous nous souvenons en moyenne de :
- 10 % de ce que nous lisons
- 20 % de ce que nous entendons
- 30 % de ce que nous voyons.
Et :
- 50 % de ce que nous voyons et entendons en même temps,
- 80 % de ce que nous disons,
- 90 % de ce que nous faisons et disons en même temps.
11. 11
INTRODUCTION
Les applications :
✔ Applications « grand-public » (loisir, éducation, art et culture,...)
✔ magazine, journaux en ligne
✔ musée interactif
✔ encyclopédies électroniques
✔ livres électroniques
✔ TV et cinéma interactifs
✔ vidéo à la demande
✔ réalité virtuelle
✔ auto-apprentissage
12. 12
INTRODUCTION
Les applications :
✔ Applications professionnelles (commerce, promotion, formation)
– formation à distance
– vidéoconférences (visioconférence)
– catalogues interactifs
– commerce électronique
– domaine médical (télédiagnostic,dossiers)
– construction (architecte, simulation)
– réservation en ligne
15. 15
NUMERISATION
Pourquoi numériser ?
✔ Jusqu'aux années 1960-1970 le traitement des signaux se faisait
par voie purement analogique grâce à des systèmes matériels
électroniques.
✔ Inconvénients :
* Manque de fiabilité des résultats due à l'inévitable dérive et
dispersion des caractéristiques des composants
* Etude difficile et approximative car basée sur des
phénomènes physiques analogues mais pas toujours identiques
aux phénomènes réels.
* Inévitable introduction d'artefacts - parasites - dus au bruit
des systèmes de traitement eux-mêmes. Bruit le plus souvent
indissociable du signal.
16. 16
NUMERISATION
Pourquoi numériser ?
* Coût des prototypes. Chaque application étant étroitement liée
à son système matériel, toute modification impliquant
pratiquement sa reconstruction matérielle.
* Coûts de construction en série élevés en raison du nombre
considérable d'insertions de composants discrets analogiques à
faible densité d'intégration fonctionnelle : résistances -
condensateurs etc.
✔ L'avénement des machines de calcul numérique à forte densité
d'intégration - microprocesseurs - a permis de substituer le
traitement numérique des grandeurs physiques analogiques à leur
traitement analogique.
17. 17
NUMERISATION
Pourquoi numériser ?
✔ L'unité centrale, grâce à un programme approprié peut effectuer
des calculs sur les valeurs instantanées d'un signale et en déduire
les corrections souhaitées.
✔ On a transféra les compétences de la physique vers les
mathématiques.
✔ Etapes du traitement numérique :
1. Transformer le signal analogique à traiter en un signal électrique proportionnel :
c'est la capture ou l'acquisition du signal. Les instruments en sont divers :
microphones pour les sons, tubes analyseurs d'images pour la vidéo, capteurs
industriels etc. Cette étape est encore purement analogique.
2. Convertir le signal électrique en une suite de valeurs numériques binaires, seules
compréhensibles par les calculateurs numériques. C'est la conversion analogique-
numérique.
18. 18
NUMERISATION
Pourquoi numériser ?
3. Lancer le programme de calcul mathématique censé opérer le traitement voulu.
4. Convertir les codes binaires résultant du calcul en un signal électrique pour
ramener le résultat final dans le monde réel analogique. C'est la conversion
numérique-analogique.
5. Reconvertir le signal électrique dans la grandeur physique initiale : haut parleurs,
écrans vidéo, transducteurs industriels.
20. 20
NUMERISATION
CAN et CNA
✔ Un Converstisseur Analogique-Numérique CAN est un circuit
integré qui permet de convertir un signal analogique en un signal
numérique.
✔ Un Convertisseur Numérique-Analogique CNA est un circuit
integré qui fait l'inverse
✔ Les CAN sont plus complexes et plus chères que les CNA et leurs
prix varient selon deux parametres :
- résolution
-la rapidité de conversion
22. 22
NUMERISATION
CAN et CNA
✔ La résolution est un nombre qui mesure la finesse de la
conversion
✔ Il dépend du nombre de bits du convertisseur
✔ Plus la résolution est élevée :
➔ plus les échelons sont nombreux pour une même étendue de
valeurs extrêmes
➔ plus les écarts entre valeurs successives seront faibles
➔ plus le signal initial sera fidèlement relevé.
23. 23
NUMERISATION
CAN et CNA
✔ Résolution relative pour un convertisseur de 8 bits :
1 / 255 = 0,003921 = 0,3921 %
✔ Avec un convertisseur 16 bits :
1/65635 = 15,2590 E-6
✔ Cette définition est également valable pour les convertisseurs
inverses : les CNA
24. 24
NUMERISATION
Echantillonnage
✔ Si le signal à transmettre est une fonction du temps ; c'est entre
autre le cas du son ou de l'image vidéo.
Combien de fois par seconde devrons-nous relever ses valeurs
sucessives pour le restituer fidèlement ?
✔ L'échantillonnge = la discrétisation dans le temps (sampling en
Anglais).
✔ Nous comprenons bien que si les échantillons sont "rares" le
signal analogique sera grossièrement traduit et donc
grossièrement restitué : on le dira sous-numérisé.
✔ Il semble bien qu'il faudra un nombre "assez élevé"
d'échantilonnages par seconde si l'on souhaite une "bonne
restitution" par la suite.
27. 27
NUMERISATION
Echantillonnage
✔ Le théorème de l'échantillonnage précise la fréquence minimale
d'échantillonnage pour un signal sinusoïdal analogique de
fréquence donnée :
La fréquence d'échantillonnage minimale requise pour
pouvoir ensuite restituer un signal sinusoïdal est le double
de la fréquence de ce signal.
✔ Ce qui donne (à retenir) :
➔ La fréquence d'échantillonnage minimale requise pour pouvoir
ensuite restituer un signal est le double de la fréquence de la plus
haute des harmoniques de ce signal que l'on souhaite restituer (th
de Shannon)
28. 28
NUMERISATION
Echantillonnage
✔ Exemple :
➔ Le son téléphonique est contenu dans la bande théorique
maximale de 0 - 4 kHz.
L'harmonique la plus élevée a une fréquence de 4 kHz.
Si nous voulons restituer toutes ses harmoniques, il nous faudra
donc prélever 8 000 échantillons par seconde.
(En fait, la bande passante pratique de la boucle terminale
analogique d'abonné est de 300 Hz - 3,5 kHz. Soit 3,2 kHz.)
➔ La musique de qualité exige une bande passante de 20 Hz à 20
kHz.
L'échantillonnage se fera donc à 40 kHz.
L'échantillonnage standard pour les CD est de 44,1 kHz (44 100
échantillons par seconde).
29. 29
NUMERISATION
Quantification
✔ C'est en Anglais Quantization .
✔ Quantification = discrétisation de l'amplitude .
✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la
valeur de chaque échantillon
✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ
peut ȇtre 8 bits , 16 bits ,...
8 bits → 256 valeurs
On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs
possibles
30. 30
NUMERISATION
Quantification
✔ C'est en Anglais Quantization .
✔ Quantification = discrétisation de l'amplitude .
✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la
valeur de chaque échantillon
✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ
peut ȇtre 8 bits , 16 bits ,...
8 bits → 256 valeurs
On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs
possibles
31. 31
Chapitre 3 :Chapitre 3 :
PERCEPTION VISUELLEPERCEPTION VISUELLE
ET SVH (RGB ETET SVH (RGB ET
SYSTEMES VIRTUELS)SYSTEMES VIRTUELS)
32. 32
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
Illusion
Les espaces de couleur
33. 33
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ Chez l'humain la perception de la couleur depend de :
➔ la lumière,
➔ des objets reflétant la lumière,
➔ de l'oeil et du cerveau du spectateur
✔ La perception de la couleur varie considérablement en fonction de
l'environnement extérieur.
➔ la même couleur semble différente éclairée par le soleil ou à la
bougie.
➔ la vue humaine s'adapte à la source de lumière, nous permettant
de déterminer qu'il s'agit de la même
34. 34
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ La perception de la couleur varie également d'un individu à un
autre.
➔ Nous pouvons percevoir une couleur comme étant chaude,
froide, pesante,légère, douce, vive,excitante, relaxante ou
brillante .
✔ Dans tous les cas la perception dépend de l'âge, du sexe, et de
l'environnement de la personne.
➔ Deux personnes n'auront jamais la même impression à propos
d'une seule couleur physique.
➔ Les gens diffèrent même en termes de sensibilité à la gamme de
lumière visible.
35. 35
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ La lumière est un moyen de médiation de la perception des objets
qu'elle illumine.
➔ Lorsque nos yeux sont stimulés par la lumière reflétée par un
objet, nous percevons et reconnaissons la lumière sous forme
d'une couleur.
✔ C’est une lumière sous forme d’un type spécifique d'onde
électromagnétique :
➔ similaire aux ondes radio utilisées dans la télédiffusion et la
télécommunication.
✔ Les caractéristiques de la lumière changent en fonction de la
longueur des ondes électromagnétiques.
36. 36
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ Les ondes électromagnétiques couvrent des ondes radio, à la
lumière visible, et jusqu'aux rayons gamma.
✔ L'énergie véhiculée par des ondes, est de l'ordre de 400nm (bleu)-
700 nm (rouge).
✔ La Commission Internationale de l'Eclairage (CIE) définit la
"lumière visible" comme étant constituée des longueurs d'ondes
situées entre 380 nm et 780 nm.
37. 37
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ Les humains perçoivent deux types de couleurs :
✔ la couleur d'une source dégageant de la lumière s'appelle la
couleur lumière
✔ et la couleur d'un objet illuminé par une source de lumière
s’appelle la couleur d'objet.
38. 38
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ La lumière en réalité est un mélange de spectre visible de la
lumière visible.
➔ Les humains perçoivent la lumière du soleil de midi
comme étant de la "lumière blanche ".
➔ Cette lumière blanche est en réalité un mélange de spectre de
couleur visible comprise entre 400 nm (bleu) 500 nm (vert) et 700
nm (rouge).
✔ Un objet ne parait coloré que parce que s’il est éclairé par une
source lumineuse.
➔ La couleur que nous percevons comme étant la couleur d’objet
c'est en réalité la lumière reflétée par cet objet.
39. 39
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ Lorsque la lumière blanche traverse une pomme rouge :
➔ Elle absorbe les spectres de lumière visible comprise entre 400
nm (bleu), 500 nm (vert).
➔ Elle réfléchie que le spectre visible de longueur d’onde 700 nm
(rouge).
➔ Quelle est la couleur d’une pomme la nuit en absence de lumière ?
40. 40
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ L'oeil est l'organe de base de la vision qui comporte un ensemble
d'éléments destinés à:
➔ recevoir la lumière reflétée sur un objet,
➔ former l'image des objets perçus,
➔ traiter les informations recueillies.
41. 41
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ Lorsque la lumière reflétée sur un objet entre dans l'oeil humain,
elle réagit avec les photorécepteurs (nerfs optiques) de la rétine
qui sont :
➔ Les bâtonnets : sensibles à la lumière et à l'obscurité
➔ Les cônes : sensibles aux longueurs d'ondes du rouge, du vert et
du bleu.
✔ La rétine envoie ensuite des signaux via
le nerf optique jusqu'au cerveau.
42. 42
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ Les bâtonnets :
➔ sont responsables de la vision nocturne et possèdent un maximum de
sensibilité vers 510 nm.
➔ Leur sensibilité est liée à un colorant, qui blanchit à la lumière du jour,
expliquant par là leur insensibilité pendant la nuit.
➔ Les bâtonnets ne permettent pas de déterminer les couleurs.
✔ Les cônes :
➔ fournissent une réponse chromatique (couleur), grâce à des pigments
sensibles aux longueurs d'ondes du rouge, du vert et du bleu.
44. 44
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Vision Humaine
✔ Le mode de fonctionnement des nerfs optiques explique bien la
perception de la couleur :
➔ L'absence de perception de la couleur ou le daltonisme se
produisent lorsque la fonction de ces nerfs est affectée.
➔ La variation de la perception de la couleur est déterminée par la
variation du fonctionnement de ces nerfs optiques :
- Certains animaux ne peuvent voir dans l'obscurité, alors que
d'autres voient très bien dans ces conditions.
-Les chiens et les chats ne perçoivent pas les couleurs.
45. 45
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Illusion
✔ Le système visuel humain sert souvent de référence. Cependant,
il ne constitue pas un système parfait et il peut être facilement
piégé comme le montrent les exemples suivants :
48. 48
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ On distingue deux types de synthèses de couleurs :
➔ Synthèse addictive
➔ Synthèse soustractive
✔ Systhèse addictive :
➔ Combinaison de trois faisceaux lumineux de couleurs rouge, verte et bleue à
proportions variées pour produire la plus part des couleurs
➔ Cette méthode est appelée "additive" parce que la somme de ces trois
couleurs de base (à intensité égale) donne du blanc.
➔ On nomme parfois les couleurs rouge,verte et bleue les primaires addictives
49. 49
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Systhèse soustractive :
➔ Uilisation de trois couleur de base le cyan, le magenta et le jaune
pour supprimer certaines couleurs de la couleur blanche et
obtenir une couleur souhaitée.
➔ chacun des trois couleurs de base absorbe les ondes d'une
primaire additive (le rouge, le vert ou le bleu) et réfléchit les
ondes des deux autres.
- le jaune absorbe les ondes bleues et réfléchit les ondes rouges et
vertes.
- le magenta réfléchit les ondes rouges et bleues au détriment des
ondes vertes.
➔ On nomme parfois les couleurs cyan,magenta et jaune les
primaires soustractive.
50. 50
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ On appelle espace de couleurs la repprésentation mathématique
d'un ennsemble de couleurs .
✔ Il en existe plusieurs espaces de couleurs , parmi lesquels les plus
connus sont :
➔ Le codage RGB
➔ Le codage CMYK
➔ Le codage HSV
➔ Le codage CIE
➔ Le codage YIV
➔ Le codage YCrCb
➔ Le codage YIQ
51. 51
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage RGB :
➔ Le codage RGB mis au point par la Commission Internationale de
l'Eclairage (CIE) est basé sur la synthèse addictive.
➔ Il estt utilisé par l'ecran d'un ordinateur ou de télévision.
✔ Le codage CMYK :
➔ Il est basé sur la synthèse soustractive (Cyan , Magenta , Jaune et
noir pur ou en français CMJN ).
➔ Il est utilisé pour produire la couleur en imprimerie .
53. 53
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage HSV :
➔ Le modèle HSV (Hue, Saturation, value, ou en français TSV), est
un modèle de représentation proche de la perception humaine mis
au point pour permettre une gestion interactive rapide d'une
couleur.
➔ Contrairement au modèle RGB, le modèle HSV plus facile à
utiliser lors du réglage ou l'éclaircissement d’une couleur.
➔ Le modèle HSV consiste à décomposer la couleur selon des
critères physiologiques :
- La teinte (en anglais Hue), correspondant à la perception de la
couleur (mauve ou orange, etc.),
- La saturation, décrivant la pureté de la couleur, c'est-à-dire son
caractère vif ou terne (neuf ou délavé),
54. 54
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage HSV :
- la valeur, indiquant la quantité de lumière de la couleur, c'est-à-
dire son aspect clair ou sombre.
➔ La teinte décrit la nuance de couleur et où cette couleur se trouve
dans le spectre de couleur Rouge, jaune, etc .
➔ La saturation est un pourcentage qui s'étend de 0 à 100. Un rouge
pur qui n'a aucun blanc est 100% saturé.
➔ La valeur, comme la Saturation, est un pourcentage qui va de 0 à
100. Quand la teinte est rouge et la valeur est élevée, la couleur
semble brillante/lumineux. Quand la valeur est basse, elle semble
foncée.
55. 55
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage CIE :
➔ Enfin en 1976, la CIE développe le modèle colorimétrique La*b*
(aussi connu sous le nom de CIE Lab), dans lequel une couleur est
repérée par trois valeurs :
- L, la luminance, exprimée en pourcentage (0 pour le noir à 100
pour le blanc)
- a et b deux gammes de couleur allant respectivement du vert au
rouge et du bleu au jaune avec des valeurs allant de -120 à +120.
➔ Le mode Lab couvre l'intégralité du spectre visible par l'oeil
humain et le représente de manière uniforme.
➔ PhotoShop utilisent ce mode pour passer d'un modèle de
représentation à un autre.
56. 56
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage CIE :
57. 57
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage YIV :
➔ Il s'agit du format utilisé dans le standard allemand PAL (Phase
Alternation by Line)
➔ Le paramètre Y représente la luminance (c'est-à-dire l'information
en noir et blanc).
➔ U et V permettent de représenter la chrominance, c'est-à-dire
l'information sur la couleur.
➔ Y = 0,30RE + 0,59GE + 0,11BE
➔ U = 0,493(BE - Y)
➔ V = 0,877(RE - Y)
58. 58
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage YCrCb :
➔ Il s'agit du format utilisé dans le standard français SECAM
(SEquentiel Couleur A Mémoire).
➔ Le paramètre Y représente la luminance (c'est-à-dire l'information
en noir et blanc).
➔ Cr et Cb permettent de représenter la chrominance, c'est-à-dire
l'information sur la couleur.
➔ Y = 0,30RE + 0,59GE + 0,11BE
➔ Cr = -1.9(RE - Y)
➔ Cb = 1,5(BE - Y)
59. 59
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Le codage YIQ :
➔ Il s'agit du format utilisé dans le standard NTSC (National
Television Standards Committee)
➔ Le paramètre Y représente la luminance (c'est-à-dire l'information
en noir et blanc).
➔ I et Q permettent de représenter la chrominance, c'est-à-dire
l'information sur la couleur.
➔ Y = 0,30RF + 0,59GF + 0,11BF
➔ I = 0,74(RF - Y) - 0,27(BF – Y)
➔ Q = 0,48(RF - Y) + 0,41(BF - Y
60. 60
PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH
Les espaces de couleur :
✔ Les primaires et le blanc de référence utilisés dans les téléviseurs
dépendent des normes imposées par les standards de chaque
pays. Le standard NTSC utilise l’illuminant C comme blanc de
référence alors que les standards PAL et SECAM utilisent
l’illuminant D65.
✔ Les téléviseurs américains répondent à la norme NTSC qui
utilise les primaires [RF], [GF], [BF] fixées par la FCC (Federal
Communications Commission).
✔ Les téléviseurs européens répondent à la norme allemande PAL
fixée par l’EBU (European Broadcasting Union ou Union
Européenne de Radio-télévision (UER)), ou à la norme française
SECAM.
63. 63
IMAGE NUMERIQUEIMAGE NUMERIQUE
Définitions préliminaires :
✔ Une image : c'est une représentation bi-dimentionnelle (2-D)
d'une scène tri-dimentionnelle (3-D)
64. 64
IMAGE NUMERIQUEIMAGE NUMERIQUE
Définitions préliminaires :
✔ Une image numérique est une représentation approchée adaptée
à des traitements informatiques .En fait , toutes les données
correspondant aux informations contenues dans l'image sont
structurées d'une certaine façon afin de permettre leur stockage.
✔ Une image numérique en elle même est en fait un concept tout à
fait abstrait :
➔ manipulation de données numériques.
➔ ces données ne trouve une signification à nos yeux qu'à
la visualisation lorsque l'on utilise un logiciel adéquat.
65. 65
IMAGE NUMERIQUEIMAGE NUMERIQUE
Définitions préliminaires :
✔ On distingue deux types d'images numériques :
➔ Images matricielles
➔ Images vectorielles
✔ Une image matricielle est en faite une matrice de données
numériques dont chaque position (x,y) associe une couleur afin de
visualiser l'image à l'ecran.
✔ Une image vectorielle est une représentation des données de
l'images par des formes géométriques qui vont pouvoir être
décrites d'un point de vue mathématique.
66. 66
IMAGE NUMERIQUEIMAGE NUMERIQUE
Définitions préliminaires :
✔ Une image vectorielle est indépendante du facteur échelle car elle
est définie par des coordonnés numériques et des formules
mathématiques.
Zoom
67. 67
IMAGE NUMERIQUEIMAGE NUMERIQUE
Définitions préliminaires :
✔ Etant définie par une dimension fixe et d'un nombre de couleurs
fixe , une image matricielle est en fait dépendante du facteur
échelle dont le changement peut provoquer par suite une perte de
qualité .
Zoom
68. 68
IMAGE NUMERIQUEIMAGE NUMERIQUE
Définitions préliminaires :
✔ Traitement d'image : ensemble de méthodes et de techniques
permettant de :
➔ modifier l'image pour améliorer son aspect visuel,
➔ la préparer à la transmission par voie télématique,
➔ la préparer à l'extraction d'une mesure,
➔ extraire des informations pertinentes.
69. 69
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Les images matricielles sont constituées de pixels de différentes
couleurs disposés en lignes et en colonnes.
✔ Elles sont définies par leurs dimensions en nombre de pixels ainsi
que par le nombre de couleurs possibles.
✔ Chaque pixel possède une adresse numérique et est stocké dans
une zone de mémoire appelée matrice.
✔ Les images matricielles dépendent de la résolution :
➔ Elles comportent un nombre fixe de pixels qui représentent les données
de l'image.
70. 70
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ La représentation discrète est
➔ Bidimentionnelle pour les images
[1..L] x [1..C] -> [1,M]p (L lignes, C colonnes)
➔ Tridimentionnelle pour les vidéos
[1..L] x [1..C] x [1..T] -> [1,M]p (vidéo de T im.)
L : nombre de lignes
C : nombre de colonnes
[1,M]p :M+1 valeurs d'intensité , sur un espace a p dimensions
(p=nombre de plans )
71. 71
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Les pixels sont les plus petits éléments employés par les
moniteurs et imprimantes d'ordinateur pour représenter des
caractères, des graphiques et des images.
✔ Une image numérique est formée d'une grille de petits carrés
appelés pixels.
✔ Un pixel est :
➔ une unité de base de l''image
➔ un pas de discrétisation
72. 72
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ La dynamique d'une image correspond à l'étendu de la gamme de
couleurs que peuvent prendre les pixels image.
✔ La dynamique d’une image est liée au nombre d'octets utilisés
pour stocker l'information couleurs.
✔ La dynamique de l’image détermine si une image est :
➔ binaire,
➔ en niveau de gris,
➔ en fausses couleurs (couleurs indexées),
➔ Ou en couleurs « vrai ».
73. 73
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Une image binaire est une image ayant deux couleurs possibles
généralement noir est blanc.
✔ Dans ces images, un seul bit suffit à représenter chaque pixel
(1=blanc ou 0=noir).
✔ Si I est une image binaire, alors :
➔ (p,M) = (1,1)
➔ p=1 à un seul plan = une seule matrice.
➔ M=1 à m+1 valeur d’intensité.
74. 74
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Une image en niveaux de gris est appelée dans le langage
courant image en noir et blanc.
✔ Dans ce type d'image , chaque pixel est codé sur 8 bits et contient
un seul nombre qui correspond à la nuance du gris de l'image.
✔ Les nuances de gris couvrent tout le spectre du blanc au noir, en
une échelle de 256 nuances.
✔ Si I est une image en niveaux de gris alors (p,M)=(1,255).
76. 76
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Les images en couleur indexé sont créées à l'aide d'une palette
limitée attachée à cette image et qui comprend n couleurs
différentes.
➔ N=512;
➔ N=256;
✔ La donnée correspondant à chaque pixel consiste en un indice qui
pointe vers une couleur précise dans la palette.
✔ Ce format ne convient pas à des images en couleurs réelles, à
cause du nombre restreint de couleurs et de palettes différentes
qu'il est possible d'utiliser.
✔ Si I est une image en couleur indexée, (p,M) = (1,n-1).
➔ n = taille de l'indexe
78. 78
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Une l'image en « vrai couleur » se décompose en trois plans
fondamentaux que sont le Rouge, le Vert et le Bleu.
✔ Il s'agit d'une appellation trompeuse :
➔ on est dans un monde numérique (discret, fini) qui ne peut pas
rendre compte de la réalité (infinie).
✔ Une image couleur comporte pour chaque pixel une information
sur sa composition en Rouge, Vert et Bleu :
➔ toute couleur peut, être obtenue par un mélange de ces 3
couleurs fondamentales.
➔ Chacune de ces couleurs fondamentales RVB dispose de 256
nuances possibles soit 256*256*256 possibilités= 16 millions de
possibilités.
79. 79
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Si I est une image couleur, alors (p,M) = (3,255)
Une image
couleur
Les trois plans RVB
Chaque plan a 256 nuances de couleurs
Matrice R Matrice V Matrice B
81. 81
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ La résolution est une mesure de la clarté ou du niveau de détail et
de finesse d'une image numérique.
✔ La définition complète du terme résolution recouvre les notions
de résolution spatiale et de résolution en luminance.
✔ Dans l'usage courant, le terme résolution est souvent employé
pour parler de la résolution spatiale uniquement.
✔ Plus la résolution,est grande, plus l'image est détaillée, et plus le
fichier correspondant est volumineux.
✔ la résolution spatiale s'exprime en pixels au pouce et souvent
abrégé « dpi » pour dots per inch.
83. 83
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ La résolution en luminance, ou nombre de bits, se rapporte à
l'échelle de gris ou aux couleurs possibles de chaque pixel.
84. 84
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ La résolution en luminance, détermine le nombre de nuances ou
de couleurs possibles pour chaque pixel.
✔ Plus le nombre de bits est grand, plus le nombre de couleurs
possibles est élevé.
+ Résolution en luminance -
vraie couleur
24 bits
Fausse couleur
8 bits
en niveau de
gris
24 bits
binaire
2bits
86. 86
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Un histogramme est un graphique statistique permettant de
représenter la distribution des intensités des pixels d'une image,
c'est-à-dire le nombre de pixels pour chaque intensité lumineuse.
✔
Par convention un histogramme représente le niveau d'intensité en
abscisse en allant du plus foncé (à gauche) au plus clair (à droite).
C’est la fréquence d’apparition d’une valeur de pixel
Histo(i)=Card{Pixel(x,y)=i}
89. 89
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Pour les images en vrai couleur plusieurs histogrammes sont
nécessaires. Par exemple pour une image codée en RGB :
➔ un histogramme représentant la distribution de la luminance,
➔ trois histogrammes représentant respectivement la distribution
des valeurs respectives des composantes rouges, bleues et vertes.
90. 90
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Les contours sont les lieux de variations significatives de
l'information au niveaux de gris.
✔ Un contour est une transition marquée entre deux régions ayant
chacune une luminosité distincte.
Image au niveau de gris Image contour
91. 91
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Les contours sont les lieux de variations significatives de
l'information au niveaux de gris.
✔ Une texture est une répétition spatiale :
➔ d'un même motif
➔ dans différentes directions de l'espace.
✔ La texture décrit :
➔ un aspect homogène de la surface,
➔ une information visuelle qui permet de la décrire qualitativement
a l'aide des adj. : grossière, fine, lisse, tachetée, granuleuse,
marbrée, régulière ou irrégulière
93. 93
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ La luminance (la brillance) est la quantité d’énergie (lumière)
reçue par unité de surface (pixel) nommé dans la pratique
Intensité lumineuse I.
✔ Pour augmenter la luminosité d’une image deux solutions
possibles :
➔
on ajoute à chacun des pixels de l'image une même constante n dans les
différentes composantes de couleurs R, G et B.
➔
on calcul la composante luminosité f(x,y) de l’image, puis pour chaque
pixel de f(x,y) on ajoute une constante n.
I=
∬
yx
I x,ydxdy
∬
yx
dxdy
=
1
LC
∑
x=0
L−1
∑
y=0
C−1
f x,y
95. 95
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Le contraste est une mesure relative aux différences de
luminosités dans les images.
2
1
0
1
0
)),((
1
Iyxf
NM
C
N
x
M
y
−= ∑∑
−
=
−
=
96. 96
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Un format d'image comprend en général un en-tête qui contient
des données sur l'image (taille de l'image en pixels par exemple)
suivie des données de l'image.
✔ Il existe plusieurs formats d'image :
➔ Bmp
➔ Jpg
➔ Gif
➔ Png
➔ Tiff
➔ ...
97. 97
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Caractéristiques intrinsèques à un format :
➔ Le statut par rapport aux brevets : La plupart des formats sont
libres mais certains sont ”propriétaires”, comme le format GIF.
➔ Le nombre de couleurs supportées
➔ La compression des données :
- On distinguera les compressions sans pertes, qui compactent
l’information des intensités sans changer leur valeurs, et les
compressions avec pertes, comme JPEG, o`u le contenu est altéré.
➔ Transparence : La caractéristique de transparence permet de
spécifier que l’une des couleurs de la palette peut être ignorée
lors de l’affichage de l’image sur le moniteur (Par extension :
alpha chanel).
98. 98
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ Caractéristiques intrinsèques à un format :
➔ Entrelaçage : C’est un mécanisme qui permet de faire apparaître
plus rapidement les images à l’écran, en affichant une version
basse résolution raffinée au fur et à mesure du chargement.
➔ Animation : Certains formats permettent de stocker dans le même
fichier plusieurs images qui représentent une animation. C’est le
cas du format GIF.Des navigateurs, comme Netscape, sont alors
capables d’afficher ce fichiers comme une séquence jouée.
➔ Les usages ! ! internet ? archivage ? calcul scientifique ?
99. 99
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ JPEG (Joint Photo Expert Group):
➔ Ce format est la représentation d'une norme ISO. Statut par
rapport aux brevets .
➔ Ce format permet une représentation en vraies couleurs (16
millions).
➔ La compression utilisée est la compression avec perte avec un taux
qui varie entre 1% (qualité la meilleure) et 99 %(qualité moins
bonne).
➔ Ce format ne supporte pas la transparence car il est basé sur une
compression avec perte.
➔ Ce format supporte l'entrelaçage.
100. 100
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ JPEG (Joint Photo Expert Group):
➔ Ce format ne supporte pas les animations.
➔ Il est utilisé dans le cadre de la représentation de prédilection: les
images "naturelles" avec des grands dégradés de couleurs
(transition douce de couleurs).
➔ Il est utilisé au niveau de l'internet .
101. 101
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ JPEG 2000 (Joint Photo Expert Group 2000):
➔ Ce format permet , dans une zone définie, des manipulations
géométriques tels que la rotation, la permutation du paysage par
rapport au portait
➔ Permet de définir une ou plusieurs zones d'une image afin d'en
préserver la qualité (dégrader les régions les moins stratégiques de
l'image tout en gardant intact la zone sélectionnée).
➔ Permet d'incorporer des méta-données.
102. 102
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ JPEG 2000 (Joint Photo Expert Group 2000)
➔ La compression est basée sur un système d'ondelette qui permet
une compression plus importante avec une perte de qualité
imperceptible à l'oeil nu).
➔ Ce format permet une représentation en vraies couleurs (16
millions) et ne gère pas la transparence
➔ Usage : internet ...
103. 103
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ PNG (Portable Network Graphics)
➔ Ce format est l'émanation de recommandations du consortium W3
(1996).
➔ Il supporte dews images vraies couleurs ,niveaux de gris et 8 bits
indexées.
➔ Il est basé sur une compression sans perte réputée par son
efficacité.
➔ Il supporte la transparence .
➔ L'affichage entrelacé est possible aussi .
➔ Il est utilisé partout et surtout internet et ne supporte pas les
animations.
104. 104
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ GIF (Compuserve Graphics)
➔ Ce format supporte 256 couleurs avec palette.
➔ La compression est sans perte mais dépend de plusieurs facteurs :
- l'existence de zones homogènes.
- de l'orientation de l'image: la lecture des données de l'image se
fait en commençant par le pixel en haut et à gauche et se fait en
ligne.
105. 105
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ GIF (Compuserve Graphics)
➔ Ce format supporte la transparense.
➔ L'entrelaçage diffère selon le navigateur :Ligne 1,9,17 puis lignes 5,
13 puis ligne 3, 7, 11, 15 et enfin ligne 2, 4, 6, 8, 10, 12, 14, 16 .
➔ Les animations sont possibles.
➔ Ce format est utilisé au niveau des logos et dans tout ce qui contient des
peu de nuances de couleurs et avec une transition brusque.
➔ Il est utilisé aussi au niveau d'internet.
106. 106
IMAGE NUMERIQUEIMAGE NUMERIQUE
Image Matricielle :
✔ TIFF (TAG IMAGE FILE FORMAT)
➔ Ce format supporte 16 millions de couleurs.
➔ multiples versions qui rendent sa diffusion difficile!
➔ Il utilise une compression sans ou avec perte(au choix).
➔ Il ne supporte ni la transparençe ni l'entrelaçage.
➔ Ce format ne supporte pas les animations.
➔ Utilisation possible partout sauf sur internet car ill est tres
volumineux .
108. 108
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ La numérisation d'une image est obtenue par l'intermédiaire d'un
capteur :
➔ Le signal lumineux est transmis à une cellule photo-sensible
appelée CCD (Charged Coupled Device) qui transforme l'énergie
(lumière) en une série d'impulsions électriques.
✔ et aussi d'un numériseur (carte de numérisation intégrée ou non au
capteur) qui transforment un signal optique en un signal
numérique:
➔ Le signal électrique est repris par un convertisseur analogique-
digital qui transforme les données continues en données
numériques codées sur 1, 8, 16 ou 24 bits.
➔
Le codage utilisé définit le type d'images (noir et blanc, niveaux de gris ou
couleur).
109. 109
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ L'obtention d'une image numérique nécessite deux processus :
➔ Echantillonnage spatial de l'image (sampling) :
- Discrétisation dans le temps :Découpage en « tranche » (pavage) :
définition de la résolution spatiale de l’image (nombre pixels en
horizontal et en vertical).
➔ Quantification du niveau de luminance (quantization):
-Définition de la résolution de luminance :-Définition de la résolution de luminance :
-Choix de la précision de représentation de chaque pixel-Choix de la précision de représentation de chaque pixel.
-Précision du nombre de bits utilisé pour le codage de chaque-Précision du nombre de bits utilisé pour le codage de chaque
échantillon (pixel).échantillon (pixel).
113. 113
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
Image 1024x1024, codée sur 8 bits, sous-
échantillonnée jusqu’à une taille de 32x32 pixels.
Le nombre de niveau de gris est gardé à 256.
114. 114
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
a)1024x1024x8 b)512x512 ré-échantillonné en 1024*1024 par duplication
de lignes et . c jusqu’à f)images 256x256, 128x128, 64x64,
32x32 sous échantillonnées à partir de a.
115. 115
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Le PAVAGE :
➔ Définition : Une abstraction mathématique de présentation des pixels sous
forme d’une décomposition régulière dans un plan euclidien avec une
même forme élémentaire.
➔ Principe : Lors du processus de digitalisation, le signal lumineux
transmis par les capteur (CCD) est projeté dans un espace euclidien
partitionner de façon régulière.
➔ Une répartition sous forme d’un ensemble connexe de points
appelés pixels de telle sorte que deux pixels voisins ne peuvent
s'intersectée que sur leur bord, et que l'ensemble des pixels
recouvre le plan.
116. 116
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Les images sont habituellement plaquée sur des pavés de type
polygones réguliers :
✗ Triangulaire,
✗ Carré,
✗ Hexagonal.
117. 117
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ A tout pavage du plan euclidien est associé un maillage.
✔ Un maillage est un graphe non-orienté dont les nœuds sont les
points centres des pavés qui se touchent par un coté.
118. 118
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Il y a une dualité entre maillage et pavage :
➔ à un pavage carré correspond un maillage carré.
➔ au pavage hexagonal correspond une maille triangulaire.
➔ au pavage triangulaire est associé le maillage hexagonal.
✔ Le maillage est obtenu de manière implicite par échantillonnage
de l’image analogique lors de la numérisation.
✔ La plupart des capteurs échantillonne en maillage carré.
119. 119
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ A Tout pixel se code comme un couple (i,j) d'entiers.
➔ Dans un maillage carré, tout pixel a 2 types de voisins, à savoir ses
4 voisins selon les axes, et ses 4 voisins selon les diagonales. Deux
pixels p et q sont dits :
✗ 4-adjacents s'ils sont voisins suivant un axe.
✗ 8-adjacents s'ils sont voisins suivant un axe ou une diagonale.
120. 120
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Etant donné un pixel (i,j), en maillage carré les pixels 4-adjacents à
(i,j) sont :
➔ (i+1,j),
➔ (i-1,j),
➔ (i,j+1),
➔ et (i,j-1)
✔ Pour les 8-adjacences les mêmes, plus (i+1,j+1), (i+1,j-1), (i-1,j+1).
(i,j)
(i,j)
(i+1,j+1)
(i-1,j-1)
121. 121
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Dans le cas d’un maillage carré le pixel (i,j) est 4-adjacent à (i',j') si
et seulement si :|i-i'| + |j-j'| = 1
✔ (i,j) est 8-adjacent à (i',j') si et seulement si :max(|i-i'|,|j-j'|) = 1
(i,j)
(i,j-1)
(i-1,j)
(i,j+1)
(i+1,j)
122. 122
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Dans une configuration de maillage hexagonal le pixel central a 6
voisins tous situés à égale distance de lui.
✔ NB. Un passage d'une maille carrée à une maille hexagonale, est
possible grâce à un simple calcul, effectué par certains logiciels
d'analyse d'images.
123. 123
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Soit k = nombre d’adjacence choisie (k=4 ou k=8 ou k=6) :
✔ Un k-chemin du pixel p au pixel q est une suite x0
, ..., xn
de
pixels tels que :
➔ x0
= p et xn
= q (où n est un entier naturel)
➔ pour i = 0, ..., n-1, xi
est k-adjacent à xi+1
➔ n est la longueur du chemin
✔ Un chemin de longueur n comporte donc n+1 pixels et n transitions
124. 124
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ La k-distance dk
(p,q) entre 2 pixels p et q est la longueur min d'un
k-chemin de p à q.
✔ Il s'agit bien d'une distance dans le sens qu'elle vérifie les axiomes
suivants :
➔ dk
(p,p) = 0, (identité ),
➔ pour p différent de q on a dk
(p,q) > 0 (positivité),
➔ dk
(p,q) = dk
(q,p) (symétrie)
➔ dk
(p,r) est plus petit ou égal à dk
(p,q) + dk
(q,r) (inégalité
triangulaire).
125. 125
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Dans le cas du maillage carré il est facile de voir que si p
et q sont de coordonnées (i,j) et (i',j') respectivement,
alors :
➔
Distance de MANATHAN
d4
(p,q) = |i-i'| + |j-j'|
➔
Distance de l’ECHIQUIER
d8
(p,q) = max(|i-i'|,|j-j'|)
➔
Distance EUCLIDIENNE
(p,q) = [(xp - xq)2
+ (yp - yq)2
]1/2
126. 126
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Dans une configuration de maillage carré le pixel central a 8
voisin :
➔ 4 directs, tous situés à la distance d1 du pixel central.
➔ 4 indirects, tous situés à la distance
d2 = d1 du pixel central.
d2
d1
2
127. 127
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Changement d'échelle : Approximation d’une fonction sur in
intervalle donné.
➔ Intercalation dans une suite de valeurs connu (données d’image)
une ou plusieurs valeurs calculées par une fonction.
✔ Exemple de changement d’échelle : Zoom +
✔ Deux types d’interpolation :
➔ Interpolation du plus proche voisin par Réplication des Pixels :
Copie chaque colonne et chaque ligne.
➔ Interpolation avec les 4 voisins
✗ Bilinéaire
✗ Bicubique
✗ Sinc
133. 133
IMAGE NUMERIQUEIMAGE NUMERIQUE
Numérisation :
✔ Bruit : phénomène de brusque variation de l’intensité d’un pixel
par rapport à ses voisins.
✔ Provenance :
➔ l’éclairage,
➔ l’objet,
➔ La transmission,
➔ l’optique de la caméra,
➔ Le capteur CCD,
➔ l’échantillonnage,
➔ Le stockage de l’image
135. 135
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
Oreille et cerveau humain
Numérisation
Compression
Principaux formats
136. 136
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
✔ Qu’est-ce que le son ?
nous désignons à la fois le mot son :
➔ un phénomène physique vibratoire complexe
➔ la sensation auditive engendrée par ce phénomène
✔ Qu’est-ce que le phénomène vibratoire ?
un son naît (en général) de la déformation d’un corps. Cette déformation
engendre une vibration mécanique qui va à son tour déformer le milieu dans
lequel se trouve le corps. Ainsi, la vibration va se propager de proche en
proche, selon une onde dite sonore ou acoustique.
➔ Exemple :
la membrane d’un instrument à percussion déformée par la choc du maillet ou la
corde d’un violon frottée par l’archet.
137. 137
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
✔ Transmission du son
➔ La vibration de l’air constitue un phénomène périodique car elle
se reproduit identiquement à elle-même au bout d’un certain
temps (ou période).
➔ La période (T, exprimée en secondes) désigne le temps nécessaire à un
cycle vibratoire complet, c’est-à-dire une oscillation.
➔ La fréquence (f, exprimée en Hertz) définit le nombre de périodes par unité
de temps : il s’agit du nombre d’oscillations par seconde.
✗ Relation entre T et f :
la fréquence est l’inverse de la période
plus la période est petite, plus la fréquence est grande
f (en Hz) = 1 / T (en secondes)
138. 138
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
➔ Exemple : propagation d’une onde provoquée par la chute d’une
pierre lancée sur un plan d’eau
Temps (s)
amplitude
0
+A
- A
période
Fréquence (= 3Hz)
1 s
139. 139
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
✔ Phénomènes sonores
➔ On considère généralement que la perception auditive humaine
s’étale (dans le meilleur des cas) entre 20 Hz et 20 kHz.
➔ La fréquence est un paramètre essentiel des phénomènes sonores car c’est
d’elle que dépend la hauteur du son perçue :
➔ Exemples :
✗ la fréquence de 20 kHz (= 20 000 périodes/s) est considérée comme la
limite de la perception humaine dans l’extrême aigu, mais cette perception
des fréquences élevées se dégrade avec l’âge et la fatigue auditive
✗ La fréquence de 20 Hz (= 20 périodes/s) est quant à elle considérée comme
la limite inférieure des la perception humaine dans l’extrême grave
➔ Cette fourchette de fréquences définit donc la bande de fréquences ou
bande passante utile d’un système de reproduction sonore de haute qualité
qui doit s’efforcer de reproduire le plus linéairement possible
140. 140
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
✔ Exemple (bandes passantes)
Système
Bandes passante(HZ)
Téléphone 300 – 4 000
Radio AM 50 – 6 000
Radio FM 50 – 15 000
Magnétophone K7 40 – 15 000
CD audio et
matériel
professionnel
20 – 20 000
141. 141
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
✔ Signal sonore
➔ On représente fréquemment de manière simplifiée un signal
sonore par une courbe sinusoïdale (ou harmonique en
sinus/cosinus)
➔ En fait, une telle sinusoïde ne représenterait qu’un son dit pur défini par une
seule fréquence : or, les sons audible ne sont pas purs, ie. complexes et
constitués d’une combinaison de fréquences
➔ En effet, à la fréquence fondamentale qui définit la hauteur sonore viennent
s’ajouter une série de signaux harmoniques
➔ C’est à J. Fourrier qu’il revient d’avoir démontré mathématiquement au
début du XIXe siècle que tout phénomène périodique pouvait être
décomposé en une série de sinusoïdes élémentaires dont les fréquences
sont des multiples entiers de la fréquence la plus grave, dite fondamentale.
142. 142
SON NUMERIQUESON NUMERIQUE
Définitions préliminaires
✔ Signal sonore
➔ Exemple :
Appuyer la touche d’un piano correspondant au La3
, nous obtenons un son
complexe constitué par l’addition à la fréquence fondamentale (440 Hz) et à
des amplitudes variables de fréquences dites harmoniques à des valeurs
multiples (x2, x3, …)
➔ La Conférence Internationale de Londres en 1953 a fixé la hauteur absolue
du La3
à 440 Hz, pour servir de base à l’accord des instruments (musiques
ou sonores).
143. 143
SON NUMERIQUESON NUMERIQUE
Oreille et cerveau humain
✔ Le nombre et l’amplitude des diverses fréquences harmoniques
sont spécifiques à chaque source sonore et déterminent le timbre
propre de cette source.
✔ Ce sont donc les harmoniques caractéristiques de chaque source qui
permettent à l’oreille et au cerveau humains de distinguer et de reconnaître
des sources sonores différentes :
➔ Le timbre d’une voix émettant à une fréquence fondamentale de 400 Hz
sera perçu comme différent d’une autre voix émettant à la même fréquence.
➔ Le son d’une guitare ne sera pas confondu avec celui d’un piano, même si
les deux instruments jouent la même séquence de notes musicales
144. 144
SON NUMERIQUESON NUMERIQUE
Oreille et cerveau humain
✔ L'oreille absolue, par opposition à l'oreille relative, est la faculté
pour un homme de pouvoir identifier une note musicale en
l’absence de référence.
➔ En occident seule 1 personne sur 10 000 en serait dotée.
✔ En psychologie, Alexei Leontiev a émis l'hypothèse, à partir de
travaux réalisés auprès de blessés de la seconde guerre mondiale,
que l'oreille absolue pouvait s'acquérir en combinant un
apprentissage vocal et auditif :
➔ l'effort musculaire réalisé par l'appareil phonatoire au moment de
la reproduction d'un son est mémorisé et, quand un son est
entendu, la personne tente alors de reproduire mentalement
l'effort nécessaire pour l'émettre, ce qui lui permet ensuite de
dire quelle est sa hauteur.
➔ D'après les expériences réalisées, de nombreuses personnes
seraient ainsi parvenues à acquérir cette fameuse oreille absolue.
145. 145
SON NUMERIQUESON NUMERIQUE
Oreille et cerveau humain
✔ Seule la fréquence d’un diapason est considérée comme une
« fréquence absolue » servant de point de départ à tel ou tel type
d'accord. Cette fréquence est celle du la 3
est de « 440 Hz ». Une
octave en acoustique désigne un doublement de fréquence
➔ Cette valeur de 440 Hz a également été retenue pour la tonalité du
téléphone.
146. 146
SON NUMERIQUESON NUMERIQUE
Numérisation
✔ Le son est une suite périodique de compressions et de dépressions du
milieu dans lequel il se propage (l’air)
✔ Les divers organes de l’oreille externe, moyenne et interne captent
ces vibrations périodiques de pression et les transforment en signaux
bio-électriques qui sont ensuite transmis au cortex pour y être traités
et perçus en tant que son (musique, parole, …)
✔ La représentation analogique du son consiste à passer d’une onde
sonore à son image électrique.
✔ La représentation numérique du son nécessitera quant à elle la
quantification des échantillons prélevés sur cette image.
150. 150
SON NUMERIQUESON NUMERIQUE
Numérisation
➔ Exemple de fréquence d'échantillonnage :
Fréquence (kHz) Applications
8 Téléphonie
11,025 Mac OS
22,05 PC
32 HTDV (high definition TV)
Radio numérique
NICAM
44,1 CD audio
48 DAT (digital audio tape)
96 DVD audio 6 canaux 5.1
192 DVD audio 2 canaux stéréo
2822,4 SACD (super audio CD)
DSD (Direct stream digital)
151. 151
SON NUMERIQUESON NUMERIQUE
Compression
✔ La numérisation du son transforme un signal fragile et caractérisé
par une variation continue en un signal numérique très stable fait
d’une succession de 0 et 1 : copiable et transportable sans
dégradation.
✔ Le signal numérique permet en fin de parcours de reconstituer et
de restituer de manière propre l’onde sonore originale
✔ Tout irait donc pour le mieux si les suites de 0 et 1 dont sont
constitués les documents sonores numériques n’étaient pas de
taille à poser très vite de problèmes de stockage, surtout lorsqu’il
s’agit d’enregistrements de haute qualité
➔ Exemple : une durée de 1 minute en qualité son stéréo sur CD-
DA, échantillonnage à 44,1 kHz, quantification à 16 bits sur 2
voies, aura un volume :
taux d’ échantillonnage x nbr. Bits codage x nbr. Secondes x nbr.
voies =44100 x 16 x 60 x 2 = 84672000 bits/min = ~ 10
Mo/min
152. 152
SON NUMERIQUESON NUMERIQUE
Compression
✔ Rappelons qu’un algorithme de compression non destructif
permet de retrouver, après décompression, l’intégralité du
document original : il n’y a pas de perte d’information sur le
contenu original.
✔ Le principe général de ce type de compression est fondé sur la recherche
des occurrences multiples d’une même suite d’octets. Ces suites étant
rassemblées dans un dictionnaire où elles seront représentées par les
codes les plus courts possibles.
✔ Les codes dans le dictionnaire remplaceront dans le fichier compressé les
longues suites d’octets du fichier original.
153. 153
SON NUMERIQUESON NUMERIQUE
Compression
Exemple 1 : algorithmes généralistes
WinZip, WinRar et WinAce (*.zip, *.rar, *.ace) doivent se satisfaire d’une
réduction du volume du fichier d’origine (selon la complexité de la source) de 5
à 35%
Exemple 2 : algorithmes spécifiques
WavArc, RKAU, Perfect Clarity Audio (*.wa, *.rka, *.pca) sont spécifiquement
dédiés au son et non destructifs, permettent d’atteindre une réduction de
volume de 50%.
154. 154
SON NUMERIQUESON NUMERIQUE
Principaux formats
✔ Parmi la multitude des formats de fichiers audio proposés sur le
marché, retenons les plus utilisés :
➔ WAV (Waveform Audio Format): format propriétaire de l’environnement
Windows sur PC, il est lu directement par la quasi-totalité des logiciels
d’édition ou de composition musicale.
➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format
standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format
d’échange multi-plateformes.
➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de
logiciels professionnels de traitement audio.
➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités
de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le
logiciel RealPLayer
155. 155
SON NUMERIQUESON NUMERIQUE
Principaux formats
➔ MOV ou QT (QuickTime): dessiné à l’origine à l’environnement
Macintosh, il est aujourd’hui disponible sur PC et peut être utilisé
pour réaliser du streaming.
➔ VOC (SoundBlaster): format propriétaire de Creative Labs.
➔ MP3 (MPEG-Layer 3): recommandé par le MPEG, ce format
présente l’intérêt majeur d’autoriser un taux de compression
important sans altérer notablement la qualité sonore jusqu’à
l’ordre 12:1. De nombreux lecteurs permettent la restitution des
fichiers *.mp3 : WinAmp, Nad mp3 Player, UnrealPlayer, JetAudio,
etc.
➔ MID ou MIDI (Music Instrument Digital Interface): il s’agit d’un
format très spécifique puisque le son n’est pas (à proprement
parler) numérisé comme dans les autres formats (wav, aif, etc.).
156. 156
SON NUMERIQUESON NUMERIQUE
Principaux formats
✔ Parmi la multitude des formats de fichiers audio proposés sur le
marché, retenons les plus utilisés :
➔ WAV (Waveform Audio Format): format propriétaire de l’environnement
Windows sur PC, il est lu directement par la quasi-totalité des logiciels
d’édition ou de composition musicale.
➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format
standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format
d’échange multi-plateformes.
➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de
logiciels professionnels de traitement audio.
➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités
de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le
logiciel RealPLayer
159. 159
VIDEOVIDEO
Qu'est-ce qu'une vidéo ?
✔ Une vidéo est une succession d’images à une certaine cadence.
✔ L’œil humain a comme caractéristique d’être capable de
distinguer environ 20 images par seconde. Ainsi, en affichant plus
de 20 images par seconde, il est possible de tromper l’œil et de lui
faire croire à une image animée.
✔ D’autre part la vidéo au sens multimédia du terme est
généralement accompagnée de son, c’est-à-dire de données audio.
✔ La vidéo analogique représente l’information comme un flux
continu de données analogiques, destiné à être affichées sur un
écran de télévision (basé sur le principe du balayage. Il existe
plusieurs normes pour la vidéo analogique. Les trois principales
sont : PAL, NTSC, SECAM
✔ La vidéo numérique consiste à coder la vidéo en une succession
d’images numériques.
160. 160
VIDEOVIDEO
La vidéo analogique
✔ Il existe 3 formats de vidéo analogiques :
➔ Composite : Le type de connexion analogique le plus simple
consiste à utiliser un câble composite.Ce câble transmet le signal
vidéo à l’aide d’un fil unique. Les signaux de luminance et de
chrominance sont combinés ensemble et transmis simultanément.
Cette connexion présente la plus faible qualité du fait de la fusion
des deux signaux.
➔ S-Video : Le type de connexion présentant un niveau de qualité
immédiatement supérieur est appelé S–Video. Ce câble distribue
sur deux fils distincts le signal de luminance et les signaux de
chrominance combinés. Les deux fils sont contenus dans un câble
unique.
➔ Composante : Le système de connexion qui offre la meilleure
qualité, chaque signal YCC disposant d’un câble spécifique.
161. 161
VIDEOVIDEO
La vidéo analogique
✔ Trois normes de formats sont actuellement en vigueur pour la
diffusion télévisée dans le monde :
162. 162
VIDEOVIDEO
La vidéo numérique
✔ La vidéo numérique consiste à afficher une succession d’images
numériques. Puisqu’il s’agit d’images numériques affichées à une
certaine cadence, il est possible de connaître le débit nécessaire
pour l’affichage d’une vidéo, c’est-à-dire le nombre d’octets
affichés (ou transférés) par unité de temps.
✔ Ainsi le débit nécessaire pour afficher une vidéo (en octets par
seconde) est égal à la taille d’une image que multiplie le nombre
d’images par seconde.
✔ Soit une image true color (24 bits) ayant une définition de 640
pixels par 480. Pour afficher correctement une vidéopossédant
cette définition il est nécessaire d’afficher au moins 30 images par
seconde, c’est-à-dire un débit égal à :900 Ko * 30 = 27 Mo/s
163. 163
VIDEOVIDEO
La vidéo numérique
✔ Notion de codec
➔ Une image d’une vidéo non compressée occupe une taille
d’environ 1 Mo. Afin d’obtenir une vidéo paraissant fluide il est
nécessaire d’avoir une fréquence d’au moins 25 ou 30 images par
seconde, ce qui produit un flux de données d’environ30 Mo/s, soit
plus de 1.5 Go par minute.
➔ Il est évident que ce type de débit est peu compatible avec les
espaces de stockage des ordinateurs personnels ni même avec les
connexions réseau de particuliers ou de petites ou moyennes
entreprises.Ainsi, afin de pallier à cette difficulté, il est possible
de recourir à des algorithmes permettant de réduire
significativement les flux de données en compressant /
décompressant les données vidéos. On appelle ces algorithmes
CoDec (pourCOmpression / DECompression).
164. 164
VIDEOVIDEO
La vidéo numérique
➔ Exemples de codecs :
✗ h.261 / MPEG-1 1988
✗ Cinepac 1991 Apple
✗ Indeo 1992 Intel
✗ Avi 1992 Microsoft
✗ h.263 / MPEG-2 1995/96 ITU-T VCEG
✗ DV (Digital Video) 1995 (basé sur MPEG-2)
✗ DVD 1995 video (MPEG-2) + son(AC-3, DTS, MPEG ou
encore .ogg, MP3, VQF, AAC) !!!
✗ h.264 / MPEG-4 2003 (.mp4, .mov, .avi, .divx,etc....;)
165. 165
VIDEOVIDEO
La vidéo numérique
✔ Il existe au niveau de la vidéo deux sortes de compression :
➔ On parle de compression spatiale lorsque l’on réduit la taille
initiale d’une image par des moyens dégradants ou non. Cette
méthode s’applique principalement sur les images fixes.
➔ La compression temporelle est utilisée pour réduire le flux
d’information en ne conservant par exemple que les différences
entre deux images successives. On associe à la compression
temporelle deux méthodes distinctes :
✔ Le codage différentiel qui soustrait toutes les informations
redondantes d’une image à l’autre pour ne conserver que les
déplacements (problèmes si grandes différences)
✔ La seconde méthode employée est le codage par prédiction du
mouvement qui est très réducteur de volume, mais dont le défaut
est de trop dégrader l’information surtout si les mouvements sont
rapides.
166. 166
VIDEOVIDEO
La vidéo numérique
✔ M-JPEG
➔ La première idée qui vient à l’esprit après s’être interessé à la
compression d’images est d’appliquer . Le principe du Motion
JPEG (noté MJPEG ou M-JPEG, à ne pas confondre avec le MPEG)
consiste à appliquer successivement l’algorithme de compression
JPEG aux différentes images d’une séquence vidéo.
➔ Etant donné que le M-JPEG code séparément chaque image de la
séquence il permet d’accéder aléatoirement à n’importe quelle
partie d’une vidéo. Ainsi son débit de 8 à 10 Mbps le rend
utilisable dans les studios de montage numérique.
167. 167
VIDEOVIDEO
La vidéo numérique
✔ MPEG
➔ Dans de nombreuses séquences vidéos, de nombreuses scènes
sont fixes ou bien changent très peu, c’est ce que l’on nomme la
redondance temporelle.Lorsque seules les lèvres de l’acteur
bougent, presque seuls les pixels de la bouche vont être modifiés
d’une image à l’autre, il suffit donc de décrire le changement
d’une image à l’autre. C’est là la différence majeure entre le
MPEG (Mo-ving Pictures Experts Group) et le M-JPEG. Cependant
cette méthode aur beaucoup moins d’impact sur une
scèned’action.Le groupe MPEG a été établi en 1988 dans le but
de développer des standa rds internationaux de compression,
décompression, traitement et codage d’image animées et de
données audio.
➔ Il existe plusieurs standards MPEG :
168. 168
VIDEOVIDEO
La vidéo numérique
✔ MPEG
✗ le MPEG-1, développé en 1988, est un standard pour la
compression des données vidéos et des canaux audio associés
(jusqu’à 2 canaux pour une écoute stéréo). Il permet le stockage
de vidéos à un débit de 1.5Mbps dans une qualité proche des
cassettes VHS sur un support CD appelé VCD (Vidéo CD).
✗ le MPEG-2, un standard dédié originalement à la télévision
numérique (HDTV) offrant une qualité élevé à un débit pouvant
aller jusqu’à 40 Mbps, et 5 canaux audio surround. Le MPEG-2
permet de plus une identification et une protection contre le
piratage. Il s’agit du format utilisé par les DVD vidéos.
✗ le MPEG-4, un standard destiné à permettre le codage de données
multimédia sous formes d’objets numériques, afin d’obtenir une
plus grande interactivité, ce qui rend son usage particulièrement
adapté au Web et aux périphériques mobiles.
169. 169
VIDEOVIDEO
La vidéo numérique
✔ MPEG
➔ La norme MPEG-1 représente chaque image comme un ensemble
de blocs 16 x 16. Elle permet d’obtenir une résolution de:
• 352x240 à 30 images par seconde en NTSC
• 352x288 à 25 images par seconde en PAL/SECAM
➔ Le MPEG-1 permet d’obtenir des débits de l’ordre de 1.2 Mbps
(exploitable sur un lecteur de CD-ROM).
➔ Le MPEG-1 permet d’encoder une vidéo grâce à plusieurs
techniques :
170. 170
VIDEOVIDEO
La vidéo numérique
✔ MPEG
✗ Intra coded frames (Frames I, correspondant à un codage
interne): les images sont codées séparément sans faire référence
aux images précédentes.
✗ Predictive coded frames (frames P ou codage prédictif): les
images sont décrites par différence avec les images précédentes.
✗ Bidirectionally predictive coded frames (Frames B): les images
sont décrites par différence avec l’image précédente et l’image
suivante.
✗ DC Coded frames: les images sont décodées en faisant des
moyennes par bloc.
171. 171
VIDEOVIDEO
La vidéo numérique
✔ MPEG
➔ Les frames I : Ces images sont codées uniquement en utilisant le
codage JPEG, sans se soucier des images qui l’entourent. De telles
images sont nécessaires dans une vidéo MPEG car ce sont elles
qui assurent la cohésion de l’image (puisque les autres sont
décrites par rapport aux images qui les entourent), elles sont
utiles notamment pour les flux vidéo qui peuvent être pris en
cours de route (télévision), et sont indispensables en cas d’erreur
dans la réception. Il y en a donc une ou deux par seconde dans
une vidéo MPEG.
➔ Les frames P : Ces images sont définies par différence par rapport
à l’image précédente. L’encodeur recherche les différences de
l’image par rapport à la précédente et définit des blocs, appelés
macroblocs (16x16 pixels) qui se superposeront à l’image
précédente.L’algorithme compare les deux images bloc par bloc
et à partir d’un certain seuil de différence, il considère le bloc
del’image précédente différent de celui de l’image en cours et lui
applique une compression JPEG.
172. 172
VIDEOVIDEO
La vidéo numérique
✔ MPEG
➔ Les frames B : De la même façon que les frames P, les frames B
sont travaillées par différences par rapport à une image de
référence,sauf que dans le cas des frames B cette différence peut
s’effectuer soit sur la précédente (comme dans les cas des frames
P) soit sur la suivante, ce qui donne une meilleure compression,
mais induit un retard (puisqu’il faut connaîtrel’image suivante) et
oblige à garder en mémoire trois images (la précédente, l’actuelle
et la suivante).
➔ Afin d’optimiser le codage MPEG, les séquences d’images sont
dans la pratique codées suivant une suite d’images I, B, et P (D
étant comme on l’a dit réservé à l’avance rapide) dont l’ordre a
été déterminé expérimentalement. La séquence, type appelée
GOP (Group Of Pictures ou en français groupes d’images) est la
suivante:IBBPBBPBBPBBI
➔ Une image I est donc insérée toutes les 12 frames.
173. 173
VIDEOVIDEO
La vidéo numérique
Norme Objectif Etat
MPEG-1 Visionnage / Video CD (1 à 3 Mb/s) Standard en 1992
MPEG-2 Diffusion broadcast / DVD (4 à 50
Mb/s)
Standard en 1994
MPEG-4 Intégration des formats Audiovisuels
(Vidéo, audio, 2D, 3D) pour le bas et le
haut débit
Version 1 en 1998
Version 2 en 1999
2003 : H264 / part 10
MPEG-7 Description des informations
audiovisuelles pour faciliter la
recherche et le filtrage
Standard en 2001
MPEG-21 Définition d’un modèle et d’une
architecture pour la diffusion
commerciale des contenus multimédia
En cours
174. 174
VIDEOVIDEO
La vidéo numérique
✔ Les formats les plus connus :
➔ .mov : (Apple) container -> tous formats/résolutions et mélanges
de ceux-ci.
➔ .avi : (MS) container -> divers formats y compris DivX.
➔ .dv : idéal pour le montage vidéo avec iMovie ou autrefaible
compression => fichiers très gros mais sans perte de qualité.
➔ .mpg .mpeg : obsolète, faible compression, mauvaise qualité
d'image et de son.
➔ .wmv :(Windows Media Player) divers codecs propriétaires
non compatible QuickTime sauf via plugins Flip4Mac ou Perian
➔ .mp4 : MPEG-4 = forte compression, standardisé, accepté partout
➔ .vob : DVDs commerciaux
175. 175
VIDEOVIDEO
La vidéo numérique
✔ Alors, quel est le meilleur format ? Bien difficile de répondre car
cela dépend beaucoup du type du document vidéo concerné et de
son utilisation future. Voici quand même l'esquisse d'une
sélection:
➔ dv (ou .mov avec compression DV) : idéal pour le montage vidéo
mais surtout pas pour la diffusion.
➔ .mp4 :idéal pour le web car format normalisé, fichiers petits et
acceptés par tous les browsers.
➔ .flv : pas mal utilisé sur le web car les vidéos en ligne ne sont
pas/pas facilement copiables. A proscrire donc si on veut que le
lecteur puisse aisément récupérer la vidéo.
➔ .vob : si on veut faire de jolis DVDs lisibles sur n'importe quel
lecteur de salon.Dans ce cas il faut passer par un outil de création
de DVDs comme iDVD d'Apple.
178. 178
Compression des imagesCompression des images
C'est quoi la compression ?
✔ La compression de données ou codage de source est l'opération
informatique consistant à transformer une suite de bits A en une
suite de bits B plus courte pouvant restituer les mêmes
informations en utilisant un algorithme particulier.
✔ Opération de codage, elle raccourcit la taille (de transmission ou
de stockage) des données au prix d'un effort de compression et de
décompression.
✔ La décompression est l'opération inverse de la compression.
✔ La compression peut etre soit sans perte soit avec perte
179. 179
Compression des imagesCompression des images
La compression sans perte
✔ La compression est dite sans perte lorsqu'il n'y a aucune perte de
données sur l'information d'origine. Il y a autant d'information
après la compression qu'avant, elle est seulement réécrite d'une
manière plus concise (c'est par exemple le cas de la compression
gzip pour n'importe quel type de données ou du format PNG pour
des images synthétiques destinées au Web2).
✔ La compression sans perte est dite aussi compactage.
✔ L'information à compresser est vue comme la sortie d'une source
de symboles qui produit des textes finis selon certaines règles.
✔ Le but est de réduire la taille moyenne des textes obtenus après la
compression tout en ayant la possibilité de retrouver exactement
le message d'origine (on trouve aussi la dénomination codage de
source en opposition au codage de canal qui désigne le codage
correcteur d'erreurs).
✔ Plusieurs méthodes possibles dont on site : RLE,LZW et Huffman.
180. 180
Compression des imagesCompression des images
● Méthode RLE
✔ Exemple :
WWWWWWWWWWWWBWWWWWWWWWWWWWWBBBW
WWWWWWWWWWWWWWWWWWWWWWBWWWWWWW
WWWW
✔ Un encodage RLE consiste alors à indiquer pour chaque suite de
pixels d'une même couleur, le nombre de pixels de cette
séquence. Le résultat comporte en général moins de caractères,
bien que ce ne soit pas une obligation. On obtient par exemple
pour la ligne précédente :
12W1B14W3B23W1B11W
✔ Tandis que : WBWBWBWBWB donnerait :
1W1B1W1B1W1B1W1B1W1B
✔ Ce qui est deux fois plus long.Remarque : Dans ce dernier cas, il
serait donc plus efficace d'écrire la lettre uniquement si elle est
seule (sans le chiffre 1). On aurait donc au pire la même taille
(dans le cas où il y aurait une ou 2 lettres identiques) mais jamais
une augmentation.
181. 181
Compression des imagesCompression des images
● Méthode RLE
✔ Le run-length encoding, appelé en français le codage par plages,
est un algorithme de compression de données en informatique.
✔ Le système s'applique essentiellement à des documents scannés
en noir et blanc : au lieu de coder un bit par point, on dispose
d'un compteur — en général sur un octet — indiquant combien de
points blancs ou noirs se suivent. Comme il est rare de ne pas
avoir au moins 8 pixels noirs ou 8 pixels blancs qui se suivent, et
que 256 ne sont pas rares sur les endroits vierges ou les à-plats
noirs, le système a bien pour effet une compression.
✔ S'il y a plus de 256 bits de la même couleur, on peut placer
ensuite un octet spécifiant 0 bit de la couleur opposée, puis coder
le nombre de bits qui restent...
✔ Par exemple, considérons un écran de texte noir sur fond blanc. Il
sera constitué de longues séquences de pixels blancs pour le fond,
et de courtes séquences de pixels noirs pour le texte.
Représentons une ligne d'un tel écran, avec B pour les pixels
noirs et W pour les pixels blancs :
182. 182
Compression des imagesCompression des images
● Méthode LZW :
✔ LZW (pour Lempel-Ziv-Welch) est un algorithme de compression
de données sans perte. Il s'agit d'une amélioration de l'algorithme
LZ78 inventé par Abraham Lempel et Jacob Ziv en 1978. LZW fut
créé en 1984 par Terry Welch, d'où son nom.
✔ L'algorithme LZW avait été breveté par la société Unisys1 (un
brevet logiciel valable uniquement aux États-Unis). Il a été utilisé
dans les modems (norme V42 bis) et est encore utilisé dans les
formats d'image numérique GIF ou TIFF et les fichiers audio
MOD.
✔ L’algorithme est conçu pour être rapide à implémenter, mais n’est
la plupart du temps pas optimal car il effectue une analyse limitée
des données à compresser.
183. 183
Compression des imagesCompression des images
● Méthode LZW :
w = Nul;
tant que (lecture d'un caractère c) faire
si (wc existe dans le dictionnaire) alors
w = wc;
sinon
ajouter wc au dictionnaire;
écrire le code de w;
w = c;
fin si
fin tant que
écrire le code de w;
184. 184
Compression des imagesCompression des images
● Méthode LZW :
✔ Exemple
✔ La table suivante montre le résultat de l'exécution de l'algorithme
de compression sur la chaîne suivante :
TOBEORNOTTOBEORTOBEORNOT
✔ On suppose qu'on utilise un code ASCII de 256 caractères (8-bits)
comme dictionnaire de base. La longueur de cette chaîne est de
24 caractères. Elle nécessite donc 24 * 8 = 192 bits d'espace de
stockage.
✔ Après la compression, nous obtenons une séquence de codes de 9
bits sur la sortie :
TOBEORNOT<256><258><260><265><259><261><263>
✔ Elle nécessite 16 × 9 = 144 bits d'espace de stockage, au lieu des
192 bits de la chaine originale.
186. 186
Compression des imagesCompression des images
● Méthode Huffman :
✔ Le principe du codage de Huffman repose sur la création d'un
arbre composé de nœuds. Supposons que la phrase à coder est «
wikipédia ».
✔ On recherche tout d'abord le nombre d'occurrences de chaque
caractère (ici les caractères 'a', 'd', 'é', 'k', 'p' et 'w' sont
représentés chacun une fois et le caractère 'i' trois fois).
✔ Chaque caractère constitue une des feuilles de l'arbre à laquelle
on associe un poids valant son nombre d'occurrences. Puis l'arbre
est créé suivant un principe simple : on associe à chaque fois les
deux nœuds de plus faibles poids pour donner un nœud dont le
poids équivaut à la somme des poids de ses fils jusqu'à n'en avoir
plus qu'un, la racine. On associe ensuite par exemple le code 0 à
la branche de gauche et le code 1 à la branche de droite.
188. 188
Compression des imagesCompression des images
● Méthode Huffman :
Symbol Frequency Code Code total
Length Length
A 24 0 1 24
B 12 100 3 36
C 10 101 3 30
D 8 110 3 2
E 8 111 3 24
189. 189
Compression des imagesCompression des images
La compression avec perte
✔ La compression est dite avec perte ou destructive (contrairement
à la compression sans perte ou non destructive engendre
généralement une perte de données plus au moins visible .
✔ Elle peut utiliser un codage non destructif tel est celui de huffman
✔ Plusieurs méthodes possibles dont on site : la norme jpeg .
190. 190
Compression des imagesCompression des images
● La norme JPEG (Joint Photographic Expert Group )
✔ JPEG définit deux classes de processus de compression :
• avec pertes ou compression irréversible. C’est le JPEG « classique ». Il
permet des taux de compression de 3 à 100
• sans pertes ou compression réversible. Il n’y a pas de pertes
d’information et il est donc possible de revenir aux valeurs originales de
l’image. Les gains en termes de compression sont alors plus modestes,
avec un taux de compression de l’ordre de 2 à 8 [réf. nécessaire]. Cette
partie fait l’objet d’une norme spécifique appelée JPEG-LS.
191. 191
Compression des imagesCompression des images
● La norme JPEG (Joint Photographic Expert Group )
✔ La technique de codage repose , après une transformation
discrète en cosinus (DCT) , sur une quantification suivie d'un
codage de Huffman. La rigueur de la spécification est spécifiée au
moment du codage .
✔ Ce paramètre va interférer sur la qualité du résultat :
• 10:1 à 20:1 sans perte visible
• 30:1 à 50:1 avec perte modérée
• 100:1 pour les images de faibles qualités
✔ La transformée DCT (Discrete Cosine Transform, en français
transformée en cosinus discrète), est une transformation
numérique qui est appliquée à chaque bloc. Cette transformée est
une variante de la transformée de Fourier. Elle décompose un
bloc, considéré comme une fonction numérique à deux variables,
en une somme de fonctions cosinus oscillant à des fréquences
différentes.
192. 192
Compression des imagesCompression des images
● La norme JPEG (Joint Photographic Expert Group )
✔ La transformée DCT s’exprime mathématiquement par :
✔ Et la transformée DCT inverse s’exprime par :
✔ Dans les deux cas la constante vaut 1 si x>0 et 1/racine(2) sinon
194. 194
Compression des imagesCompression des images
● L'utilisation des fractales :
✔ La compression fractale est une méthode de compression d'image
encore peu utilisée aujourd’hui. Elle repose sur la détection de la
récurrence des motifs, et tend à éliminer la redondance
d’informations dans l'image.
✔ C'est une méthode destructive puisque l'ensemble des données de
départ ne se retrouve pas dans l'image finale. Il existe plusieurs
méthodes (subdivision de triangles, Delaunay etc.) mais la
compression par la méthode Jacquin est la plus connue.
✔ L'idée de base est la description des images par des équations
ainsi l'image est définie par des transformations et non point par
point .Ce fait engendre :
• On peut obtenir un taux de compression de 30:1 sans effet de masaique .
• Mais ça nécessite beaucoup de puissance et un temps de compression
énorme .
195. 195
Compression des imagesCompression des images
● Le codage par ondelette :
✔ Le principe est de décomposer l'image en de multiples images de
faibles résolutions .
✔ La compression se compose donc des étapes suivantes
1. Transformations par ondelettes.
2. Quantification : les valeurs des images de détails inférieures à un certain
niveau sont éliminées, en fonction de l’efficacité recherchée. C’est cette
étape qui introduit des pertes.
3. Codage des valeurs restantes.
✔ Les principaux avantages par rapport à JPEG sont :
• Le fait que l’algorithme s’adapte mieux aux propriétés locales de l’image.
• On peut atteindre des taux de compression d’environ 50 contre 15 pour
JPEG tout en ayant une qualité d’image raisonnable.