Cours fondement du multimedia

Post on 12-Jan-2015

3,205 views 3 download

Tags:

description

 

transcript

COURS:FONDEMENT DU MULTIMEDIACOURS:FONDEMENT DU MULTIMEDIA

BEN MEFTEH HAMDIBEN MEFTEH HAMDI

ISET RADES 2012-2013ISET RADES 2012-2013

11

2

PLAN DU COURS

INTRODUCTION

NUMERISATION

PERCEPTION VISUELLE ET SVH (RGB ET SV)

IMAGE NUMERIQUE

SON NUMERIQUE

VIDEO

3

Chapitre 1 :Chapitre 1 :

INTRODUCTIONINTRODUCTION

4

INTRODUCTION

Qu'est-ce que le multimédia?

Origine

Historique

Intérȇt du multimédia

Les applications multimédia

5

INTRODUCTION

Qu'est-ce que le multimédia?✔ ”C'est l'ouverture de l'informatique à d'autres formes

d'informations que le texte et le graphique.”( le livre blanc du multimedia )

✔ ”Technique de communication qui tend à rassembler sur un seul support l'ensemble des moyens audiovisuels (médium de base , dessins animés et informatiques (données et programmes ) pour les diffuser simultanément et de manière interactives” (dictionnaire du multimédia)

✔ ”Le terme multimédia designe un système intégrant divers média et autorisant leur utilisation interactive.”(The Design Of an Extensible Multimedia Library for an OODBMS)

6

INTRODUCTION

✔ Selon la norme AFNOR le terme MULTIMEDIA peut désigner :

- Un assemblage des technologies destinées à gérer les données, le son et l'image sur un même support. 

-Un Ensemble de techniques permettant d'utiliser des informations de type texte, image fixe, image animée et son sur un même support.

-Une caractéristique d'un système de traitement, un ordinateur, un logiciel, etc., permettant l'exploitation simultanée de données numériques, de textes, d'images fixes ou animées, de sons.

7

INTRODUCTION

origine✔ Le multimédia est le carrefour de plusieures domaines :

- audiovisuel

- informatique

- télécommunications

- art graphique,publicité,électronique...

✔ Ce domaine a bénéficier des avancées technologiques

- Technologies de stockage.

- Méthodes de compression/décompression.

- Technologies de transfert de données.

- Accroissement des capacités de traitements des ordinateurs

8

INTRODUCTION

Historique✔ Né dans les années 80 :

– Avec le vidéodisque analogique.

– Pour stocker des sons, des images fixes et de la vidéo.

– Premier : Hypercard (Macintosh Apple):

+ Stocker du texte, des images et du son,

+ Les manipuler,

+ Les consulter par navigation.

9

INTRODUCTION

Historique✔ 1984-1985 : interface graphique sur les ordinateurs

✔ ~1988 : CD-ROM

✔ 1990 : sons et images sophistiqués

✔ Techniques de compression

✔ Puissance des machines

✔ 1994 : démocratisation d’Internet

✔ 2004 : Web 2.0

✔ …

10

INTRODUCTION

Intérȇt du multimédia✔ Nous nous souvenons en moyenne de :

- 10 % de ce que nous lisons

- 20 % de ce que nous entendons

- 30 % de ce que nous voyons.

Et :

- 50 % de ce que nous voyons et entendons en même temps,

- 80 % de ce que nous disons,

- 90 % de ce que nous faisons et disons en même temps.

11

INTRODUCTION

Les applications :✔ Applications « grand-public » (loisir, éducation, art et culture,...)

✔ magazine, journaux en ligne

✔ musée interactif

✔ encyclopédies électroniques

✔ livres électroniques

✔ TV et cinéma interactifs

✔ vidéo à la demande

✔ réalité virtuelle

✔ auto-apprentissage

12

INTRODUCTION

Les applications :✔ Applications professionnelles (commerce, promotion, formation)

– formation à distance

– vidéoconférences (visioconférence)

– catalogues interactifs

– commerce électronique

– domaine médical (télédiagnostic,dossiers)

– construction (architecte, simulation)

– réservation en ligne

13

Chapitre 2 :Chapitre 2 :

NUMERISATIONNUMERISATION

14

NUMERISATION

Pourquoi numériser ?

CAN ET CNA

Echantillonnage

Quantification

15

NUMERISATION

Pourquoi numériser ?✔ Jusqu'aux années 1960-1970 le traitement des signaux se faisait

par voie purement analogique grâce à des systèmes matériels électroniques.

✔ Inconvénients :

* Manque de fiabilité des résultats due à l'inévitable dérive et dispersion des caractéristiques des composants

* Etude difficile et approximative car basée sur des phénomènes physiques analogues mais pas toujours identiques aux phénomènes réels.

* Inévitable introduction d'artefacts - parasites - dus au bruit des systèmes de traitement eux-mêmes. Bruit le plus souvent indissociable du signal.

16

NUMERISATION

Pourquoi numériser ?

* Coût des prototypes. Chaque application étant étroitement liée à son système matériel, toute modification impliquant pratiquement sa reconstruction matérielle.

* Coûts de construction en série élevés en raison du nombre considérable d'insertions de composants discrets analogiques à faible densité d'intégration fonctionnelle : résistances - condensateurs etc.

✔ L'avénement des machines de calcul numérique à forte densité d'intégration - microprocesseurs - a permis de substituer le traitement numérique des grandeurs physiques analogiques à leur traitement analogique.

17

NUMERISATION

Pourquoi numériser ?✔ L'unité centrale, grâce à un programme approprié peut effectuer

des calculs sur les valeurs instantanées d'un signale et en déduire les corrections souhaitées.

✔ On a transféra les compétences de la physique vers les mathématiques.

✔ Etapes du traitement numérique :

1. Transformer le signal analogique à traiter en un signal électrique proportionnel : c'est la capture ou l'acquisition du signal. Les instruments en sont divers : microphones pour les sons, tubes analyseurs d'images pour la vidéo, capteurs industriels etc. Cette étape est encore purement analogique.

2. Convertir le signal électrique en une suite de valeurs numériques binaires, seules compréhensibles par les calculateurs numériques. C'est la conversion analogique-numérique.

18

NUMERISATION

Pourquoi numériser ?3. Lancer le programme de calcul mathématique censé opérer le traitement voulu.

4. Convertir les codes binaires résultant du calcul en un signal électrique pour ramener le résultat final dans le monde réel analogique. C'est la conversion numérique-analogique.

5. Reconvertir le signal électrique dans la grandeur physique initiale : haut parleurs, écrans vidéo, transducteurs industriels.

19

NUMERISATION

Pourquoi numériser ?

20

NUMERISATION

CAN et CNA✔ Un Converstisseur Analogique-Numérique CAN est un circuit

integré qui permet de convertir un signal analogique en un signal numérique.

✔ Un Convertisseur Numérique-Analogique CNA est un circuit integré qui fait l'inverse

✔ Les CAN sont plus complexes et plus chères que les CNA et leurs prix varient selon deux parametres :

- résolution

-la rapidité de conversion

21

NUMERISATION

CAN et CNA✔ La figure ci-dessous illustre un CAN de 4 bits :

22

NUMERISATION

CAN et CNA✔ La résolution est un nombre qui mesure la finesse de la

conversion

✔ Il dépend du nombre de bits du convertisseur

✔ Plus la résolution est élevée :

➔ plus les échelons sont nombreux pour une même étendue de valeurs extrêmes

➔ plus les écarts entre valeurs successives seront faibles

➔ plus le signal initial sera fidèlement relevé.

23

NUMERISATION

CAN et CNA✔ Résolution relative pour un convertisseur de 8 bits :

1 / 255 = 0,003921 = 0,3921 %

✔ Avec un convertisseur 16 bits :

1/65635 = 15,2590 E-6

✔ Cette définition est également valable pour les convertisseurs inverses : les CNA

24

NUMERISATION

Echantillonnage✔ Si le signal à transmettre est une fonction du temps ; c'est entre

autre le cas du son ou de l'image vidéo.

Combien de fois par seconde devrons-nous relever ses valeurs sucessives pour le restituer fidèlement ?

✔ L'échantillonnge = la discrétisation dans le temps (sampling en Anglais).

✔ Nous comprenons bien que si les échantillons sont "rares" le signal analogique sera grossièrement traduit et donc grossièrement restitué : on le dira sous-numérisé.

✔ Il semble bien qu'il faudra un nombre "assez élevé" d'échantilonnages par seconde si l'on souhaite une "bonne restitution" par la suite.

25

NUMERISATION

Echantillonnage✔ Si La figure ci-dessous présente le même signal sinusoïdal

échantillonné 8, puis 4 fois par période.

26

NUMERISATION

Echantillonnage✔ Si La figure ci-dessous présente le précédent signal sinusoïdal

échantillonné 3 puis 2 fois par période.

27

NUMERISATION

Echantillonnage✔ Le théorème de l'échantillonnage précise la fréquence minimale

d'échantillonnage pour un signal sinusoïdal analogique de fréquence donnée :

La fréquence d'échantillonnage minimale requise pour pouvoir ensuite restituer un signal sinusoïdal est le double de la fréquence de ce signal.

✔ Ce qui donne (à retenir) :

➔ La fréquence d'échantillonnage minimale requise pour pouvoir ensuite restituer un signal est le double de la fréquence de la plus haute des harmoniques de ce signal que l'on souhaite restituer (th de Shannon)

28

NUMERISATION

Echantillonnage✔ Exemple :

➔ Le son téléphonique est contenu dans la bande théorique maximale de 0 - 4 kHz.

L'harmonique la plus élevée a une fréquence de 4 kHz.

Si nous voulons restituer toutes ses harmoniques, il nous faudra donc prélever 8 000 échantillons par seconde.

(En fait, la bande passante pratique de la boucle terminale analogique d'abonné est de 300 Hz - 3,5 kHz. Soit 3,2 kHz.)

➔ La musique de qualité exige une bande passante de 20 Hz à 20 kHz.

L'échantillonnage se fera donc à 40 kHz.

L'échantillonnage standard pour les CD est de 44,1 kHz (44 100 échantillons par seconde).

29

NUMERISATION

Quantification ✔ C'est en Anglais Quantization .

✔ Quantification = discrétisation de l'amplitude .

✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la valeur de chaque échantillon

✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ

peut ȇtre 8 bits , 16 bits ,...

8 bits → 256 valeurs

On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs possibles

30

NUMERISATION

Quantification ✔ C'est en Anglais Quantization .

✔ Quantification = discrétisation de l'amplitude .

✔ Il s'agit de terminer le nombre de bits utilisés pour discrétiser la valeur de chaque échantillon

✔ Exemple : Un son dont la fréquence d'échantillonnage est 44 KHZ

peut ȇtre 8 bits , 16 bits ,...

8 bits → 256 valeurs

On a discrétisé l'intervalle continu [Vmin , Vmax] en 256 valeurs possibles

31

Chapitre 3 :Chapitre 3 :

PERCEPTION VISUELLE PERCEPTION VISUELLE ET SVH (RGB ET ET SVH (RGB ET

SYSTEMES VIRTUELS)SYSTEMES VIRTUELS)

32

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine

Illusion

Les espaces de couleur

33

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ Chez l'humain la perception de la couleur depend de :

➔ la lumière,

➔ des objets reflétant la lumière,

➔ de l'oeil et du cerveau du spectateur

✔ La perception de la couleur varie considérablement en fonction de l'environnement extérieur.

➔ la même couleur semble différente éclairée par le soleil ou à la bougie.

➔ la vue humaine s'adapte à la source de lumière, nous permettant de déterminer qu'il s'agit de la même

34

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ La perception de la couleur varie également d'un individu à un

autre.

➔ Nous pouvons percevoir une couleur comme étant chaude, froide, pesante,légère, douce, vive,excitante, relaxante ou brillante .

✔ Dans tous les cas la perception dépend de l'âge, du sexe, et de l'environnement de la personne.

➔ Deux personnes n'auront jamais la même impression à propos d'une seule couleur physique.

➔ Les gens diffèrent même en termes de sensibilité à la gamme de lumière visible.

35

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ La lumière est un moyen de médiation de la perception des objets

qu'elle illumine.

➔ Lorsque nos yeux sont stimulés par la lumière reflétée par un objet, nous percevons et reconnaissons la lumière sous forme d'une couleur.

✔ C’est une lumière sous forme d’un type spécifique d'onde électromagnétique :

➔ similaire aux ondes radio utilisées dans la télédiffusion et la télécommunication.

✔ Les caractéristiques de la lumière changent en fonction de la longueur des ondes électromagnétiques.

36

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ Les ondes électromagnétiques couvrent des ondes radio, à la

lumière visible, et jusqu'aux rayons gamma.

✔ L'énergie véhiculée par des ondes, est de l'ordre de 400nm (bleu)-700 nm (rouge).

✔ La Commission Internationale de l'Eclairage (CIE) définit la "lumière visible" comme étant constituée des longueurs d'ondes situées entre 380 nm et 780 nm.

37

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ Les humains perçoivent deux types de couleurs :

✔ la couleur d'une source dégageant de la lumière s'appelle la couleur lumière

✔ et la couleur d'un objet illuminé par une source de lumière s’appelle la couleur d'objet.

38

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ La lumière en réalité est un mélange de spectre visible de la

lumière visible.

➔ Les humains perçoivent la lumière du soleil de midi

comme étant de la "lumière blanche ".

➔ Cette lumière blanche est en réalité un mélange de spectre de couleur visible comprise entre 400 nm (bleu) 500 nm (vert) et 700 nm (rouge).

✔ Un objet ne parait coloré que parce que s’il est éclairé par une source lumineuse.

➔ La couleur que nous percevons comme étant la couleur d’objet c'est en réalité la lumière reflétée par cet objet.

39

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ Lorsque la lumière blanche traverse une pomme rouge :

➔ Elle absorbe les spectres de lumière visible comprise entre 400 nm (bleu), 500 nm (vert).

➔ Elle réfléchie que le spectre visible de longueur d’onde 700 nm (rouge).

➔ Quelle est la couleur d’une pomme la nuit en absence de lumière ?

40

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ L'oeil est l'organe de base de la vision qui comporte un ensemble

d'éléments destinés à:

➔ recevoir la lumière reflétée sur un objet,

➔ former l'image des objets perçus,

➔ traiter les informations recueillies.

41

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ Lorsque la lumière reflétée sur un objet entre dans l'oeil humain,

elle réagit avec les photorécepteurs (nerfs optiques) de la rétine qui sont :

➔ Les bâtonnets : sensibles à la lumière et à l'obscurité

➔ Les cônes : sensibles aux longueurs d'ondes du rouge, du vert et du bleu.

✔ La rétine envoie ensuite des signaux via le nerf optique jusqu'au cerveau.

42

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ Les bâtonnets :

➔ sont responsables de la vision nocturne et possèdent un maximum de sensibilité vers 510 nm.

➔ Leur sensibilité est liée à un colorant, qui blanchit à la lumière du jour, expliquant par là leur insensibilité pendant la nuit.

➔ Les bâtonnets ne permettent pas de déterminer les couleurs.

✔ Les cônes :

➔ fournissent une réponse chromatique (couleur), grâce à des pigments sensibles aux longueurs d'ondes du rouge, du vert et du bleu.

43

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine

44

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Vision Humaine✔ Le mode de fonctionnement des nerfs optiques explique bien la

perception de la couleur :

➔ L'absence de perception de la couleur ou le daltonisme se produisent lorsque la fonction de ces nerfs est affectée.

➔ La variation de la perception de la couleur est déterminée par la variation du fonctionnement de ces nerfs optiques :

- Certains animaux ne peuvent voir dans l'obscurité, alors que d'autres voient très bien dans ces conditions.

-Les chiens et les chats ne perçoivent pas les couleurs.

45

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Illusion ✔ Le système visuel humain sert souvent de référence. Cependant,

il ne constitue pas un système parfait et il peut être facilement piégé comme le montrent les exemples suivants :

46

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Illusion

47

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Illusion

48

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ On distingue deux types de synthèses de couleurs :

➔ Synthèse addictive

➔ Synthèse soustractive

✔ Systhèse addictive :

➔ Combinaison de trois faisceaux lumineux de couleurs rouge, verte et bleue à proportions variées pour produire la plus part des couleurs

➔ Cette méthode est appelée "additive" parce que la somme de ces trois couleurs de base (à intensité égale) donne du blanc.

➔ On nomme parfois les couleurs rouge,verte et bleue les primaires addictives

49

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Systhèse soustractive :

➔ Uilisation de trois couleur de base le cyan, le magenta et le jaune pour supprimer certaines couleurs de la couleur blanche et obtenir une couleur souhaitée.

➔ chacun des trois couleurs de base absorbe les ondes d'une primaire additive (le rouge, le vert ou le bleu) et réfléchit les ondes des deux autres.

- le jaune absorbe les ondes bleues et réfléchit les ondes rouges et vertes.

- le magenta réfléchit les ondes rouges et bleues au détriment des ondes vertes.

➔ On nomme parfois les couleurs cyan,magenta et jaune les primaires soustractive.

50

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ On appelle espace de couleurs la repprésentation mathématique

d'un ennsemble de couleurs .

✔ Il en existe plusieurs espaces de couleurs , parmi lesquels les plus connus sont :

➔ Le codage RGB

➔ Le codage CMYK

➔ Le codage HSV

➔ Le codage CIE

➔ Le codage YIV

➔ Le codage YCrCb

➔ Le codage YIQ

51

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage RGB :

➔ Le codage RGB mis au point par la Commission Internationale de l'Eclairage (CIE) est basé sur la synthèse addictive.

➔ Il estt utilisé par l'ecran d'un ordinateur ou de télévision.

✔ Le codage CMYK :

➔ Il est basé sur la synthèse soustractive (Cyan , Magenta , Jaune et noir pur ou en français CMJN ).

➔ Il est utilisé pour produire la couleur en imprimerie .

52

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :

53

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage HSV :

➔ Le modèle HSV (Hue, Saturation, value, ou en français TSV), est un modèle de représentation proche de la perception humaine mis au point pour permettre une gestion interactive rapide d'une couleur.

➔ Contrairement au modèle RGB, le modèle HSV plus facile à utiliser lors du réglage ou l'éclaircissement d’une couleur.

➔ Le modèle HSV consiste à décomposer la couleur selon des critères physiologiques :

- La teinte (en anglais Hue), correspondant à la perception de la couleur (mauve ou orange, etc.),

- La saturation, décrivant la pureté de la couleur, c'est-à-dire son caractère vif ou terne (neuf ou délavé),

54

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage HSV :

- la valeur, indiquant la quantité de lumière de la couleur, c'est-à-dire son aspect clair ou sombre.

➔ La teinte décrit la nuance de couleur et où cette couleur se trouve dans le spectre de couleur Rouge, jaune, etc .

➔ La saturation est un pourcentage qui s'étend de 0 à 100. Un rouge pur qui n'a aucun blanc est 100% saturé.

➔ La valeur, comme la Saturation, est un pourcentage qui va de 0 à 100. Quand la teinte est rouge et la valeur est élevée, la couleur semble brillante/lumineux. Quand la valeur est basse, elle semble foncée.

55

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage CIE :

➔ Enfin en 1976, la CIE développe le modèle colorimétrique La*b* (aussi connu sous le nom de CIE Lab), dans lequel une couleur est repérée par trois valeurs :

- L, la luminance, exprimée en pourcentage (0 pour le noir à 100 pour le blanc)

- a et b deux gammes de couleur allant respectivement du vert au rouge et du bleu au jaune avec des valeurs allant de -120 à +120.

➔ Le mode Lab couvre l'intégralité du spectre visible par l'oeil humain et le représente de manière uniforme.

➔ PhotoShop utilisent ce mode pour passer d'un modèle de représentation à un autre.

56

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage CIE :

57

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage YIV :

➔ Il s'agit du format utilisé dans le standard allemand PAL (Phase Alternation by Line)

➔ Le paramètre Y représente la luminance (c'est-à-dire l'information en noir et blanc).

➔ U et V permettent de représenter la chrominance, c'est-à-dire l'information sur la couleur.

➔ Y = 0,30RE + 0,59GE + 0,11BE

➔ U = 0,493(BE - Y)

➔ V = 0,877(RE - Y)

58

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage YCrCb :

➔ Il s'agit du format utilisé dans le standard français SECAM (SEquentiel Couleur A Mémoire).

➔ Le paramètre Y représente la luminance (c'est-à-dire l'information en noir et blanc).

➔ Cr et Cb permettent de représenter la chrominance, c'est-à-dire l'information sur la couleur.

➔ Y = 0,30RE + 0,59GE + 0,11BE

➔ Cr = -1.9(RE - Y)

➔ Cb = 1,5(BE - Y)

59

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Le codage YIQ :

➔ Il s'agit du format utilisé dans le standard NTSC (National Television Standards Committee)

➔ Le paramètre Y représente la luminance (c'est-à-dire l'information en noir et blanc).

➔ I et Q permettent de représenter la chrominance, c'est-à-dire l'information sur la couleur.

➔ Y = 0,30RF + 0,59GF + 0,11BF

➔ I = 0,74(RF - Y) - 0,27(BF – Y)

➔ Q = 0,48(RF - Y) + 0,41(BF - Y

60

PERCEPTION VISUELLE ET SVHPERCEPTION VISUELLE ET SVH

Les espaces de couleur :✔ Les primaires et le blanc de référence utilisés dans les téléviseurs

dépendent des normes imposées par les standards de chaque pays. Le standard NTSC utilise l’illuminant C comme blanc de référence alors que les standards PAL et SECAM utilisent l’illuminant D65.

✔ Les téléviseurs américains répondent à la norme NTSC qui utilise les primaires [RF], [GF], [BF] fixées par la FCC (Federal Communications Commission).

✔ Les téléviseurs européens répondent à la norme allemande PAL fixée par l’EBU (European Broadcasting Union ou Union Européenne de Radio-télévision (UER)), ou à la norme française SECAM.

61

Chapitre 4 :Chapitre 4 :

IMAGE NUMERIQUEIMAGE NUMERIQUE

62

IMAGE NUMERIQUEIMAGE NUMERIQUE

Définitions prémliminaires

Image Matricielle

Numérisation

63

IMAGE NUMERIQUEIMAGE NUMERIQUE

Définitions préliminaires :✔ Une image : c'est une représentation bi-dimentionnelle (2-D)

d'une scène tri-dimentionnelle (3-D)

64

IMAGE NUMERIQUEIMAGE NUMERIQUE

Définitions préliminaires :✔ Une image numérique est une représentation approchée adaptée

à des traitements informatiques .En fait , toutes les données correspondant aux informations contenues dans l'image sont structurées d'une certaine façon afin de permettre leur stockage.

✔ Une image numérique en elle même est en fait un concept tout à fait abstrait :

➔ manipulation de données numériques.

➔ ces données ne trouve une signification à nos yeux qu'à

la visualisation lorsque l'on utilise un logiciel adéquat.

65

IMAGE NUMERIQUEIMAGE NUMERIQUE

Définitions préliminaires :✔ On distingue deux types d'images numériques :

➔ Images matricielles

➔ Images vectorielles

✔ Une image matricielle est en faite une matrice de données numériques dont chaque position (x,y) associe une couleur afin de visualiser l'image à l'ecran.

✔ Une image vectorielle est une représentation des données de l'images par des formes géométriques qui vont pouvoir être décrites d'un point de vue mathématique.

66

IMAGE NUMERIQUEIMAGE NUMERIQUE

Définitions préliminaires :✔ Une image vectorielle est indépendante du facteur échelle car elle

est définie par des coordonnés numériques et des formules mathématiques.

Zoom

67

IMAGE NUMERIQUEIMAGE NUMERIQUE

Définitions préliminaires :✔ Etant définie par une dimension fixe et d'un nombre de couleurs

fixe , une image matricielle est en fait dépendante du facteur échelle dont le changement peut provoquer par suite une perte de qualité .

Zoom

68

IMAGE NUMERIQUEIMAGE NUMERIQUE

Définitions préliminaires :

✔ Traitement d'image : ensemble de méthodes et de techniques permettant de :

➔ modifier l'image pour améliorer son aspect visuel,

➔ la préparer à la transmission par voie télématique,

➔ la préparer à l'extraction d'une mesure,

➔ extraire des informations pertinentes.

69

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Les images matricielles sont constituées de pixels de différentes

couleurs disposés en lignes et en colonnes.

✔ Elles sont définies par leurs dimensions en nombre de pixels ainsi que par le nombre de couleurs possibles.

✔ Chaque pixel possède une adresse numérique et est stocké dans une zone de mémoire appelée matrice.

✔ Les images matricielles dépendent de la résolution :

➔ Elles comportent un nombre fixe de pixels qui représentent les données de l'image.

70

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ La représentation discrète est

➔ Bidimentionnelle pour les images

[1..L] x [1..C] -> [1,M]p (L lignes, C colonnes)

➔ Tridimentionnelle pour les vidéos

[1..L] x [1..C] x [1..T] -> [1,M]p (vidéo de T im.)

L : nombre de lignes

C : nombre de colonnes

[1,M]p :M+1 valeurs d'intensité , sur un espace a p dimensions (p=nombre de plans )

71

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Les pixels sont les plus petits éléments employés par les

moniteurs et imprimantes d'ordinateur pour représenter des caractères, des graphiques et des images.

✔ Une image numérique est formée d'une grille de petits carrés appelés pixels.

✔ Un pixel est :

➔ une unité de base de l''image

➔ un pas de discrétisation

72

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ La dynamique d'une image correspond à l'étendu de la gamme de

couleurs que peuvent prendre les pixels image.

✔ La dynamique d’une image est liée au nombre d'octets utilisés pour stocker l'information couleurs.

✔ La dynamique de l’image détermine si une image est :

➔ binaire,

➔ en niveau de gris,

➔ en fausses couleurs (couleurs indexées),

➔ Ou en couleurs « vrai ».

73

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Une image binaire est une image ayant deux couleurs possibles

généralement noir est blanc.

✔ Dans ces images, un seul bit suffit à représenter chaque pixel (1=blanc ou 0=noir).

✔ Si I est une image binaire, alors :

➔ (p,M) = (1,1)

➔ p=1 à un seul plan = une seule matrice.

➔ M=1 à m+1 valeur d’intensité.

74

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Une image en niveaux de gris est appelée dans le langage

courant image en noir et blanc.

✔ Dans ce type d'image , chaque pixel est codé sur 8 bits et contient un seul nombre qui correspond à la nuance du gris de l'image.

✔ Les nuances de gris couvrent tout le spectre du blanc au noir, en une échelle de 256 nuances.

✔ Si I est une image en niveaux de gris alors (p,M)=(1,255).

75

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

255

0

76

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Les images en couleur indexé sont créées à l'aide d'une palette

limitée attachée à cette image et qui comprend n couleurs différentes.

➔ N=512;

➔ N=256;

✔ La donnée correspondant à chaque pixel consiste en un indice qui pointe vers une couleur précise dans la palette.

✔ Ce format ne convient pas à des images en couleurs réelles, à cause du nombre restreint de couleurs et de palettes différentes qu'il est possible d'utiliser.

✔ Si I est une image en couleur indexée, (p,M) = (1,n-1).

➔ n = taille de l'indexe

77

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

Image 1

Image 2

Palette 1(256 couleurs)

Palette 2(256 couleurs)

78

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Une l'image en « vrai couleur » se décompose en trois plans

fondamentaux que sont le Rouge, le Vert et le Bleu.

✔ Il s'agit d'une appellation trompeuse :

➔ on est dans un monde numérique (discret, fini) qui ne peut pas rendre compte de la réalité (infinie).

✔ Une image couleur comporte pour chaque pixel une information sur sa composition en Rouge, Vert et Bleu :

➔ toute couleur peut, être obtenue par un mélange de ces 3 couleurs fondamentales.

➔ Chacune de ces couleurs fondamentales RVB dispose de 256 nuances possibles soit 256*256*256 possibilités= 16 millions de possibilités.

79

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Si I est une image couleur, alors (p,M) = (3,255)

Une image couleur

Les trois plans RVB Chaque plan a 256 nuances de couleurs

Matrice R Matrice V Matrice B

80

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

Taille de l ’image = Largeur × Hauteur (octets)

640 × 480 octets = 307.200 octets

81

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ La résolution est une mesure de la clarté ou du niveau de détail et

de finesse d'une image numérique.

✔ La définition complète du terme résolution recouvre les notions de résolution spatiale et de résolution en luminance.

✔ Dans l'usage courant, le terme résolution est souvent employé pour parler de la résolution spatiale uniquement.

✔ Plus la résolution,est grande, plus l'image est détaillée, et plus le fichier correspondant est volumineux.

✔ la résolution spatiale s'exprime en pixels au pouce et souvent abrégé « dpi » pour dots per inch.

82

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

+ R

és o

lutio

n s p

ati a

le -

83

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ La résolution en luminance, ou nombre de bits, se rapporte à

l'échelle de gris ou aux couleurs possibles de chaque pixel.

84

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ La résolution en luminance, détermine le nombre de nuances ou

de couleurs possibles pour chaque pixel.

✔ Plus le nombre de bits est grand, plus le nombre de couleurs possibles est élevé.

+ Résolution en luminance -

vraie couleur24 bits

Fausse couleur8 bits

en niveau de gris

24 bits

binaire2bits

85

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

+ Résolution en luminance -

86

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Un histogramme est un graphique statistique permettant de

représenter la distribution des intensités des pixels d'une image, c'est-à-dire le nombre de pixels pour chaque intensité lumineuse.

✔ Par convention un histogramme représente le niveau d'intensité en abscisse en allant du plus foncé (à gauche) au plus clair (à droite).

C’est la fréquence d’apparition d’une valeur de pixel

Histo(i)=Card{Pixel(x,y)=i}

87

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Exemple d'histogramme d’une image au niveau de gris:

dynamique [0..255]

88

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Exemple d'histogramme d’une image au niveau de gris:

dynamique [0..255]

89

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Pour les images en vrai couleur plusieurs histogrammes sont

nécessaires. Par exemple pour une image codée en RGB :

➔ un histogramme représentant la distribution de la luminance,

➔ trois histogrammes représentant respectivement la distribution des valeurs respectives des composantes rouges, bleues et vertes.

90

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Les contours sont les lieux de variations significatives de

l'information au niveaux de gris.

✔ Un contour est une transition marquée entre deux régions ayant chacune une luminosité distincte.

Image au niveau de gris Image contour

91

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Les contours sont les lieux de variations significatives de

l'information au niveaux de gris.

✔ Une texture est une répétition spatiale :

➔ d'un même motif

➔ dans différentes directions de l'espace.

✔ La texture décrit :

➔ un aspect homogène de la surface,

➔ une information visuelle qui permet de la décrire qualitativement a l'aide des adj. : grossière, fine, lisse, tachetée, granuleuse, marbrée, régulière ou irrégulière

92

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

bois bulles canevas lierre

herbe laine eau sable

93

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ La luminance (la brillance) est la quantité d’énergie (lumière)

reçue par unité de surface (pixel) nommé dans la pratique Intensité lumineuse I.

✔ Pour augmenter la luminosité d’une image deux solutions possibles :

➔ on ajoute à chacun des pixels de l'image une même constante n dans les différentes composantes de couleurs R, G et B.

➔ on calcul la composante luminosité f(x,y) de l’image, puis pour chaque pixel de f(x,y) on ajoute une constante n.

I=∬yx

I x,y dxdy

∬yx

dxdy=

1LC ∑

x=0

L−1

∑y=0

C−1

f x,y

94

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

n=0 n=+80n=-80

95

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Le contraste est une mesure relative aux différences de

luminosités dans les images.

21

0

1

0

)),((1

IyxfNM

CN

x

M

y

−= ∑∑−

=

=

96

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Un format d'image comprend en général un en-tête qui contient

des données sur l'image (taille de l'image en pixels par exemple) suivie des données de l'image.

✔ Il existe plusieurs formats d'image :

➔ Bmp

➔ Jpg

➔ Gif

➔ Png

➔ Tiff

➔ ...

97

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Caractéristiques intrinsèques à un format :

➔ Le statut par rapport aux brevets : La plupart des formats sont libres mais certains sont ”propriétaires”, comme le format GIF.

➔ Le nombre de couleurs supportées

➔ La compression des données :

- On distinguera les compressions sans pertes, qui compactent l’information des intensités sans changer leur valeurs, et les compressions avec pertes, comme JPEG, o`u le contenu est altéré.

➔ Transparence : La caractéristique de transparence permet de spécifier que l’une des couleurs de la palette peut être ignorée lors de l’affichage de l’image sur le moniteur (Par extension : alpha chanel).

98

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ Caractéristiques intrinsèques à un format :

➔ Entrelaçage : C’est un mécanisme qui permet de faire apparaître plus rapidement les images à l’écran, en affichant une version basse résolution raffinée au fur et à mesure du chargement.

➔ Animation : Certains formats permettent de stocker dans le même fichier plusieurs images qui représentent une animation. C’est le cas du format GIF.Des navigateurs, comme Netscape, sont alors capables d’afficher ce fichiers comme une séquence jouée.

➔ Les usages ! ! internet ? archivage ? calcul scientifique ?

99

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ JPEG (Joint Photo Expert Group):

➔ Ce format est la représentation d'une norme ISO. Statut par rapport aux brevets .

➔ Ce format permet une représentation en vraies couleurs (16 millions).

➔ La compression utilisée est la compression avec perte avec un taux qui varie entre 1% (qualité la meilleure) et 99 %(qualité moins bonne).

➔ Ce format ne supporte pas la transparence car il est basé sur une compression avec perte.

➔ Ce format supporte l'entrelaçage.

100

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ JPEG (Joint Photo Expert Group):

➔ Ce format ne supporte pas les animations.

➔ Il est utilisé dans le cadre de la représentation de prédilection: les images "naturelles" avec des grands dégradés de couleurs (transition douce de couleurs).

➔ Il est utilisé au niveau de l'internet .

101

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ JPEG 2000 (Joint Photo Expert Group 2000):

➔ Ce format permet , dans une zone définie, des manipulations géométriques tels que la rotation, la permutation du paysage par rapport au portait

➔ Permet de définir une ou plusieurs zones d'une image afin d'en préserver la qualité (dégrader les régions les moins stratégiques de l'image tout en gardant intact la zone sélectionnée).

➔ Permet d'incorporer des méta-données.

102

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ JPEG 2000 (Joint Photo Expert Group 2000)

➔ La compression est basée sur un système d'ondelette qui permet une compression plus importante avec une perte de qualité imperceptible à l'oeil nu).

➔ Ce format permet une représentation en vraies couleurs (16 millions) et ne gère pas la transparence

➔ Usage : internet ...

103

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ PNG (Portable Network Graphics)

➔ Ce format est l'émanation de recommandations du consortium W3 (1996).

➔ Il supporte dews images vraies couleurs ,niveaux de gris et 8 bits indexées.

➔ Il est basé sur une compression sans perte réputée par son efficacité.

➔ Il supporte la transparence .

➔ L'affichage entrelacé est possible aussi .

➔ Il est utilisé partout et surtout internet et ne supporte pas les animations.

104

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ GIF (Compuserve Graphics)

➔ Ce format supporte 256 couleurs avec palette.

➔ La compression est sans perte mais dépend de plusieurs facteurs :

- l'existence de zones homogènes.

- de l'orientation de l'image: la lecture des données de l'image se fait en commençant par le pixel en haut et à gauche et se fait en ligne.

105

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ GIF (Compuserve Graphics)

➔ Ce format supporte la transparense.

➔ L'entrelaçage diffère selon le navigateur :Ligne 1,9,17 puis lignes  5, 13 puis ligne 3, 7, 11, 15 et enfin ligne 2, 4, 6, 8, 10, 12, 14, 16 .

➔ Les animations sont possibles.

➔ Ce format est utilisé au niveau des logos et dans tout ce qui contient des peu de nuances de couleurs et avec une transition brusque.

➔ Il est utilisé aussi au niveau d'internet.

106

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :✔ TIFF (TAG IMAGE FILE FORMAT)

➔ Ce format supporte 16 millions de couleurs.

➔ multiples versions qui rendent sa diffusion difficile!

➔ Il utilise une compression sans ou avec perte(au choix).

➔ Il ne supporte ni la transparençe ni l'entrelaçage.

➔ Ce format ne supporte pas les animations.

➔ Utilisation possible partout sauf sur internet car ill est tres volumineux .

107

IMAGE NUMERIQUEIMAGE NUMERIQUE

Image Matricielle :

108

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ La numérisation d'une image est obtenue par l'intermédiaire d'un

capteur :

➔ Le signal lumineux est transmis à une cellule photo-sensible appelée CCD (Charged Coupled Device) qui transforme l'énergie (lumière) en une série d'impulsions électriques.

✔ et aussi d'un numériseur (carte de numérisation intégrée ou non au capteur) qui transforment un signal optique en un signal numérique:

➔ Le signal électrique est repris par un convertisseur analogique-digital qui transforme les données continues en données numériques codées sur 1, 8, 16 ou 24 bits.

➔ Le codage utilisé définit le type d'images (noir et blanc, niveaux de gris ou couleur).

109

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ L'obtention d'une image numérique nécessite deux processus :

➔ Echantillonnage spatial de l'image (sampling) :

- Discrétisation dans le temps :Découpage en « tranche » (pavage) : définition de la résolution spatiale de l’image (nombre pixels en horizontal et en vertical).

➔ Quantification du niveau de luminance (quantization):

-Définition de la résolution de luminance :-Définition de la résolution de luminance :

-Choix de la précision de représentation de chaque pixel-Choix de la précision de représentation de chaque pixel.

-Précision du nombre de bits utilisé pour le codage de chaque -Précision du nombre de bits utilisé pour le codage de chaque échantillon (pixel).échantillon (pixel).

110

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

111

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :Scène Echantillonnage

1 Pixel (3bits)

1 1 0

01

2

34

567

Pixel

Quantification

112

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Une image estt une matrice M*N

✔ Une image est une fonction F(x,y)

113

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

Image 1024x1024, codée sur 8 bits, sous-échantillonnée jusqu’à une taille de 32x32 pixels. Le nombre de niveau de gris est gardé à 256.

114

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

a)1024x1024x8 b)512x512 ré-échantillonné en 1024*1024 par duplication de lignes et . c jusqu’à f)images 256x256, 128x128, 64x64, 32x32 sous échantillonnées à partir de a.

115

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Le PAVAGE :

➔ Définition : Une abstraction mathématique de présentation des pixels sous forme d’une décomposition régulière dans un plan euclidien avec une même forme élémentaire.

➔ Principe : Lors du processus de digitalisation, le signal lumineux transmis par les capteur (CCD) est projeté dans un espace euclidien partitionner de façon régulière.

➔ Une répartition sous forme d’un ensemble connexe de points appelés pixels de telle sorte que deux pixels voisins ne peuvent s'intersectée que sur leur bord, et que l'ensemble des pixels recouvre le plan.

116

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Les images sont habituellement plaquée sur des pavés de type

polygones réguliers :

✗ Triangulaire,

✗ Carré,

✗ Hexagonal.

117

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ A tout pavage du plan euclidien est associé un maillage.

✔ Un maillage est un graphe non-orienté dont les nœuds sont les points centres des pavés qui se touchent par un coté.

118

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Il y a une dualité entre maillage et pavage :

➔ à un pavage carré correspond un maillage carré.

➔ au pavage hexagonal correspond une maille triangulaire.

➔ au pavage triangulaire est associé le maillage hexagonal.

✔ Le maillage est obtenu de manière implicite par échantillonnage

de l’image analogique lors de la numérisation.

✔ La plupart des capteurs échantillonne en maillage carré.

119

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ A Tout pixel se code comme un couple (i,j) d'entiers.

➔ Dans un maillage carré, tout pixel a 2 types de voisins, à savoir ses 4 voisins selon les axes, et ses 4 voisins selon les diagonales. Deux pixels p et q sont dits :

✗ 4-adjacents s'ils sont voisins suivant un axe.

✗ 8-adjacents s'ils sont voisins suivant un axe ou une diagonale.

120

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Etant donné un pixel (i,j), en maillage carré les pixels 4-adjacents à

(i,j) sont :

➔ (i+1,j),

➔ (i-1,j),

➔ (i,j+1),

➔ et (i,j-1)

✔ Pour les 8-adjacences les mêmes, plus (i+1,j+1), (i+1,j-1), (i-1,j+1).

(i,j)

(i,j)

(i+1,j+1)

(i-1,j-1)

121

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Dans le cas d’un maillage carré le pixel (i,j) est 4-adjacent à (i',j') si

et seulement si :|i-i'| + |j-j'| = 1

✔ (i,j) est 8-adjacent à (i',j') si et seulement si :max(|i-i'|,|j-j'|) = 1

(i,j)(i,j-1)

(i-1,j)

(i,j+1)

(i+1,j)

122

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Dans une configuration de maillage hexagonal le pixel central a 6

voisins tous situés à égale distance de lui.

✔ NB. Un passage d'une maille carrée à une maille hexagonale, est possible grâce à un simple calcul, effectué par certains logiciels d'analyse d'images.

123

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Soit k = nombre d’adjacence choisie (k=4 ou k=8 ou k=6) :

✔ Un k-chemin du pixel p au pixel q est une suite x0, ..., xn de pixels tels que :

➔ x0 = p et xn = q (où n est un entier naturel)

➔ pour i = 0, ..., n-1, xi est k-adjacent à xi+1

➔ n est la longueur du chemin

✔ Un chemin de longueur n comporte donc n+1 pixels et n transitions

124

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

✔ La k-distance dk(p,q) entre 2 pixels p et q est la longueur min d'un k-chemin de p à q.

✔ Il s'agit bien d'une distance dans le sens qu'elle vérifie les axiomes suivants :

➔ dk(p,p) = 0, (identité ),

➔ pour p différent de q on a dk(p,q) > 0 (positivité),

➔ dk(p,q) = dk(q,p) (symétrie)

➔ dk(p,r) est plus petit ou égal à dk(p,q) + dk(q,r) (inégalité triangulaire).

125

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

✔ Dans le cas du maillage carré il est facile de voir que si p et q sont de coordonnées (i,j) et (i',j') respectivement, alors :

➔ Distance de MANATHAN

d4(p,q) = |i-i'| + |j-j'|

➔ Distance de l’ECHIQUIER

d8(p,q) = max(|i-i'|,|j-j'|)

➔ Distance EUCLIDIENNE

(p,q) = [(xp - xq)2 + (yp - yq)2]1/2

126

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Dans une configuration de maillage carré le pixel central a 8

voisin :

➔ 4 directs, tous situés à la distance d1 du pixel central.

➔ 4 indirects, tous situés à la distance d2 = d1 du pixel central.

d2

d1

2

127

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Changement d'échelle : Approximation d’une fonction sur in

intervalle donné.

➔ Intercalation dans une suite de valeurs connu (données d’image) une ou plusieurs valeurs calculées par une fonction.

✔ Exemple de changement d’échelle : Zoom +

✔ Deux types d’interpolation :

➔ Interpolation du plus proche voisin par Réplication des Pixels : Copie chaque colonne et chaque ligne.

➔ Interpolation avec les 4 voisins

✗ Bilinéaire

✗ Bicubique

✗ Sinc

128

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Zoom par réplication :

Zoom

129

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Zoom par interpolation:

130

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

Interpolation linéaire

131

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

Interpolation linéaire

P(x’,y’) = (1-dx) (1-dy) P(x,y) + (dx) (1-dy) P(x+1,y) + (1-dx)(dy) P(x,y+1) + (Px) (Py) P(x+1,y+1)

132

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :

Interpolation bicubique

133

IMAGE NUMERIQUEIMAGE NUMERIQUE

Numérisation :✔ Bruit : phénomène de brusque variation de l’intensité d’un pixel

par rapport à ses voisins.

✔ Provenance :

➔ l’éclairage,

➔ l’objet,

➔ La transmission,

➔ l’optique de la caméra,

➔ Le capteur CCD,

➔ l’échantillonnage,

➔ Le stockage de l’image

134

Chapitre 4 :Chapitre 4 :

SON NUMERIQUESON NUMERIQUE

135

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires

Oreille et cerveau humain

Numérisation

Compression

Principaux formats

136

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires✔ Qu’est-ce que le son ?

nous désignons à la fois le mot son :

➔ un phénomène physique vibratoire complexe

➔ la sensation auditive engendrée par ce phénomène

✔ Qu’est-ce que le phénomène vibratoire ?

un son naît (en général) de la déformation d’un corps. Cette déformation engendre une vibration mécanique qui va à son tour déformer le milieu dans lequel se trouve le corps. Ainsi, la vibration va se propager de proche en proche, selon une onde dite sonore ou acoustique.

➔ Exemple :

la membrane d’un instrument à percussion déformée par la choc du maillet ou la corde d’un violon frottée par l’archet.

137

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires✔ Transmission du son

➔ La vibration de l’air constitue un phénomène périodique car elle se reproduit identiquement à elle-même au bout d’un certain temps (ou période).

➔ La période (T, exprimée en secondes) désigne le temps nécessaire à un cycle vibratoire complet, c’est-à-dire une oscillation.

➔ La fréquence (f, exprimée en Hertz) définit le nombre de périodes par unité de temps : il s’agit du nombre d’oscillations par seconde.

✗ Relation entre T et f :

la fréquence est l’inverse de la période

plus la période est petite, plus la fréquence est grande

f (en Hz) = 1 / T (en secondes)

138

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires➔ Exemple : propagation d’une onde provoquée par la chute d’une

pierre lancée sur un plan d’eau

Temps (s)

amplitude

0

+A

- A

périodeFréquence (= 3Hz)

1 s

139

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires✔ Phénomènes sonores

➔ On considère généralement que la perception auditive humaine s’étale (dans le meilleur des cas) entre 20 Hz et 20 kHz.

➔ La fréquence est un paramètre essentiel des phénomènes sonores car c’est d’elle que dépend la hauteur du son perçue :

➔ Exemples :

✗ la fréquence de 20 kHz (= 20 000 périodes/s) est considérée comme la limite de la perception humaine dans l’extrême aigu, mais cette perception des fréquences élevées se dégrade avec l’âge et la fatigue auditive

✗ La fréquence de 20 Hz (= 20 périodes/s) est quant à elle considérée comme la limite inférieure des la perception humaine dans l’extrême grave

➔ Cette fourchette de fréquences définit donc la bande de fréquences ou bande passante utile d’un système de reproduction sonore de haute qualité qui doit s’efforcer de reproduire le plus linéairement possible

140

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires✔ Exemple (bandes passantes)

Système Bandes passante(HZ)

Téléphone 300 – 4 000

Radio AM 50 – 6 000

Radio FM 50 – 15 000

Magnétophone K7 40 – 15 000

CD audio et matériel professionnel

20 – 20 000

141

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires✔ Signal sonore

➔ On représente fréquemment de manière simplifiée un signal sonore par une courbe sinusoïdale (ou harmonique en sinus/cosinus)

➔ En fait, une telle sinusoïde ne représenterait qu’un son dit pur défini par une seule fréquence : or, les sons audible ne sont pas purs, ie. complexes et constitués d’une combinaison de fréquences

➔ En effet, à la fréquence fondamentale qui définit la hauteur sonore viennent s’ajouter une série de signaux harmoniques

➔ C’est à J. Fourrier qu’il revient d’avoir démontré mathématiquement au début du XIXe siècle que tout phénomène périodique pouvait être décomposé en une série de sinusoïdes élémentaires dont les fréquences sont des multiples entiers de la fréquence la plus grave, dite fondamentale.

142

SON NUMERIQUESON NUMERIQUE

Définitions préliminaires✔ Signal sonore

➔ Exemple :

Appuyer la touche d’un piano correspondant au La3, nous obtenons un son complexe constitué par l’addition à la fréquence fondamentale (440 Hz) et à des amplitudes variables de fréquences dites harmoniques à des valeurs multiples (x2, x3, …)

➔ La Conférence Internationale de Londres en 1953 a fixé la hauteur absolue du La3 à 440 Hz, pour servir de base à l’accord des instruments (musiques ou sonores).

143

SON NUMERIQUESON NUMERIQUE

Oreille et cerveau humain ✔ Le nombre et l’amplitude des diverses fréquences harmoniques

sont spécifiques à chaque source sonore et déterminent le timbre propre de cette source.

✔ Ce sont donc les harmoniques caractéristiques de chaque source qui permettent à l’oreille et au cerveau humains de distinguer et de reconnaître des sources sonores différentes :

➔ Le timbre d’une voix émettant à une fréquence fondamentale de 400 Hz sera perçu comme différent d’une autre voix émettant à la même fréquence.

➔ Le son d’une guitare ne sera pas confondu avec celui d’un piano, même si les deux instruments jouent la même séquence de notes musicales

144

SON NUMERIQUESON NUMERIQUE

Oreille et cerveau humain ✔ L'oreille absolue, par opposition à l'oreille relative, est la faculté

pour un homme de pouvoir identifier une note musicale en l’absence de référence.

➔ En occident seule 1 personne sur 10 000 en serait dotée.

✔ En psychologie, Alexei Leontiev a émis l'hypothèse, à partir de travaux réalisés auprès de blessés de la seconde guerre mondiale, que l'oreille absolue pouvait s'acquérir en combinant un apprentissage vocal et auditif :

➔ l'effort musculaire réalisé par l'appareil phonatoire au moment de la reproduction d'un son est mémorisé et, quand un son est entendu, la personne tente alors de reproduire mentalement l'effort nécessaire pour l'émettre, ce qui lui permet ensuite de dire quelle est sa hauteur.

➔ D'après les expériences réalisées, de nombreuses personnes seraient ainsi parvenues à acquérir cette fameuse oreille absolue.

145

SON NUMERIQUESON NUMERIQUE

Oreille et cerveau humain ✔ Seule la fréquence d’un diapason est considérée comme une

« fréquence absolue » servant de point de départ à tel ou tel type d'accord. Cette fréquence est celle du la 3 est de « 440 Hz ». Une octave en acoustique désigne un doublement de fréquence

➔ Cette valeur de 440 Hz a également été retenue pour la tonalité du téléphone.

146

SON NUMERIQUESON NUMERIQUE

Numérisation ✔ Le son est une suite périodique de compressions et de dépressions du

milieu dans lequel il se propage (l’air)

✔ Les divers organes de l’oreille externe, moyenne et interne captent ces vibrations périodiques de pression et les transforment en signaux bio-électriques qui sont ensuite transmis au cortex pour y être traités et perçus en tant que son (musique, parole, …)

✔ La représentation analogique du son consiste à passer d’une onde sonore à son image électrique.

✔ La représentation numérique du son nécessitera quant à elle la quantification des échantillons prélevés sur cette image.

147

SON NUMERIQUESON NUMERIQUE

Numérisation ➔ Onde sonore

148

SON NUMERIQUESON NUMERIQUE

Numérisation ➔ Du continu au discret

am

plit

ud

e

temps

Onde sonore échantillonnage quantification

149

SON NUMERIQUESON NUMERIQUE

Numérisation ➔ Exemple d'échantillonnage :

150

SON NUMERIQUESON NUMERIQUE

Numérisation ➔ Exemple de fréquence d'échantillonnage :

Fréquence (kHz) Applications 8 Téléphonie

11,025 Mac OS

22,05 PC

32 HTDV (high definition TV)Radio numériqueNICAM

44,1 CD audio

48 DAT (digital audio tape)

96 DVD audio 6 canaux 5.1

192 DVD audio 2 canaux stéréo

2822,4 SACD (super audio CD)DSD (Direct stream digital)

151

SON NUMERIQUESON NUMERIQUE

Compression ✔ La numérisation du son transforme un signal fragile et caractérisé

par une variation continue en un signal numérique très stable fait d’une succession de 0 et 1 : copiable et transportable sans dégradation.

✔ Le signal numérique permet en fin de parcours de reconstituer et de restituer de manière propre l’onde sonore originale

✔ Tout irait donc pour le mieux si les suites de 0 et 1 dont sont constitués les documents sonores numériques n’étaient pas de taille à poser très vite de problèmes de stockage, surtout lorsqu’il s’agit d’enregistrements de haute qualité

➔ Exemple : une durée de 1 minute en qualité son stéréo sur CD-DA, échantillonnage à 44,1 kHz, quantification à 16 bits sur 2 voies, aura un volume :

taux d’ échantillonnage x nbr. Bits codage x nbr. Secondes x nbr. voies =44100 x 16 x 60 x 2 = 84672000 bits/min = ~ 10 Mo/min

152

SON NUMERIQUESON NUMERIQUE

Compression ✔ Rappelons qu’un algorithme de compression non destructif

permet de retrouver, après décompression, l’intégralité du document original : il n’y a pas de perte d’information sur le contenu original.

✔ Le principe général de ce type de compression est fondé sur la recherche des occurrences multiples d’une même suite d’octets. Ces suites étant rassemblées dans un dictionnaire où elles seront représentées par les codes les plus courts possibles.

✔ Les codes dans le dictionnaire remplaceront dans le fichier compressé les longues suites d’octets du fichier original.

153

SON NUMERIQUESON NUMERIQUE

Compression

Exemple 1 : algorithmes généralistes

WinZip, WinRar et WinAce (*.zip, *.rar, *.ace) doivent se satisfaire d’une réduction du volume du fichier d’origine (selon la complexité de la source) de 5 à 35%

Exemple 2 : algorithmes spécifiques

WavArc, RKAU, Perfect Clarity Audio (*.wa, *.rka, *.pca) sont spécifiquement dédiés au son et non destructifs, permettent d’atteindre une réduction de volume de 50%.

154

SON NUMERIQUESON NUMERIQUE

Principaux formats ✔ Parmi la multitude des formats de fichiers audio proposés sur le

marché, retenons les plus utilisés :

➔ WAV (Waveform Audio Format): format propriétaire de l’environnement Windows sur PC, il est lu directement par la quasi-totalité des logiciels d’édition ou de composition musicale.

➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format d’échange multi-plateformes.

➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de logiciels professionnels de traitement audio.

➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le logiciel RealPLayer

155

SON NUMERIQUESON NUMERIQUE

Principaux formats

➔ MOV ou QT (QuickTime): dessiné à l’origine à l’environnement

Macintosh, il est aujourd’hui disponible sur PC et peut être utilisé pour réaliser du streaming.

➔ VOC (SoundBlaster): format propriétaire de Creative Labs.

➔ MP3 (MPEG-Layer 3): recommandé par le MPEG, ce format présente l’intérêt majeur d’autoriser un taux de compression important sans altérer notablement la qualité sonore jusqu’à l’ordre 12:1. De nombreux lecteurs permettent la restitution des fichiers *.mp3 : WinAmp, Nad mp3 Player, UnrealPlayer, JetAudio, etc.

➔ MID ou MIDI (Music Instrument Digital Interface): il s’agit d’un format très spécifique puisque le son n’est pas (à proprement parler) numérisé comme dans les autres formats (wav, aif, etc.).

156

SON NUMERIQUESON NUMERIQUE

Principaux formats ✔ Parmi la multitude des formats de fichiers audio proposés sur le

marché, retenons les plus utilisés :

➔ WAV (Waveform Audio Format): format propriétaire de l’environnement Windows sur PC, il est lu directement par la quasi-totalité des logiciels d’édition ou de composition musicale.

➔ AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format d’échange multi-plateformes.

➔ AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de logiciels professionnels de traitement audio.

➔ RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le logiciel RealPLayer

157

Chapitre 6 :Chapitre 6 :

VIDEOVIDEO

158

VIDEOVIDEO

Qu'est-ce qu'une vidéo

La vidéo analogique

La vidéo numérique

159

VIDEOVIDEO

Qu'est-ce qu'une vidéo ?✔ Une vidéo est une succession d’images à une certaine cadence.

✔ L’œil humain a comme caractéristique d’être capable de distinguer environ 20 images par seconde. Ainsi, en affichant plus de 20 images par seconde, il est possible de tromper l’œil et de lui faire croire à une image animée.

✔ D’autre part la vidéo au sens multimédia du terme est généralement accompagnée de son, c’est-à-dire de données audio.

✔ La vidéo analogique représente l’information comme un flux continu de données analogiques, destiné à être affichées sur un écran de télévision (basé sur le principe du balayage. Il existe plusieurs normes pour la vidéo analogique. Les trois principales sont : PAL, NTSC, SECAM

✔ La vidéo numérique consiste à coder la vidéo en une succession d’images numériques.

160

VIDEOVIDEO

La vidéo analogique ✔ Il existe 3 formats de vidéo analogiques :

➔ Composite : Le type de connexion analogique le plus simple consiste à utiliser un câble composite.Ce câble transmet le signal vidéo à l’aide d’un fil unique. Les signaux de luminance et de chrominance sont combinés ensemble et transmis simultanément. Cette connexion présente la plus faible qualité du fait de la fusion des deux signaux.

➔ S-Video : Le type de connexion présentant un niveau de qualité immédiatement supérieur est appelé S–Video. Ce câble distribue sur deux fils distincts le signal de luminance et les signaux de chrominance combinés. Les deux fils sont contenus dans un câble unique.

➔ Composante : Le système de connexion qui offre la meilleure qualité, chaque signal YCC disposant d’un câble spécifique.

161

VIDEOVIDEO

La vidéo analogique ✔ Trois normes de formats sont actuellement en vigueur pour la

diffusion télévisée dans le monde :

162

VIDEOVIDEO

La vidéo numérique✔ La vidéo numérique consiste à afficher une succession d’images

numériques. Puisqu’il s’agit d’images numériques affichées à une certaine cadence, il est possible de connaître le débit nécessaire pour l’affichage d’une vidéo, c’est-à-dire le nombre d’octets affichés (ou transférés) par unité de temps.

✔ Ainsi le débit nécessaire pour afficher une vidéo (en octets par seconde) est égal à la taille d’une image que multiplie le nombre d’images par seconde.

✔ Soit une image true color (24 bits) ayant une définition de 640 pixels par 480. Pour afficher correctement une vidéopossédant cette définition il est nécessaire d’afficher au moins 30 images par seconde, c’est-à-dire un débit égal à :900 Ko * 30 = 27 Mo/s

163

VIDEOVIDEO

La vidéo numérique✔ Notion de codec

➔ Une image d’une vidéo non compressée occupe une taille d’environ 1 Mo. Afin d’obtenir une vidéo paraissant fluide il est nécessaire d’avoir une fréquence d’au moins 25 ou 30 images par seconde, ce qui produit un flux de données d’environ30 Mo/s, soit plus de 1.5 Go par minute.

➔ Il est évident que ce type de débit est peu compatible avec les espaces de stockage des ordinateurs personnels ni même avec les connexions réseau de particuliers ou de petites ou moyennes entreprises.Ainsi, afin de pallier à cette difficulté, il est possible de recourir à des algorithmes permettant de réduire significativement les flux de données en compressant / décompressant les données vidéos. On appelle ces algorithmes CoDec (pourCOmpression / DECompression).

164

VIDEOVIDEO

La vidéo numérique➔ Exemples de codecs :

✗ h.261 / MPEG-1 1988

✗ Cinepac 1991 Apple

✗ Indeo 1992 Intel

✗ Avi 1992 Microsoft

✗ h.263 / MPEG-2 1995/96 ITU-T VCEG

✗ DV (Digital Video) 1995 (basé sur MPEG-2)

✗ DVD 1995 video (MPEG-2) + son(AC-3, DTS, MPEG ou

encore .ogg, MP3, VQF, AAC) !!!

✗ h.264 / MPEG-4 2003 (.mp4, .mov, .avi, .divx,etc....;)

165

VIDEOVIDEO

La vidéo numérique✔ Il existe au niveau de la vidéo deux sortes de compression :

➔ On parle de compression spatiale lorsque l’on réduit la taille initiale d’une image par des moyens dégradants ou non. Cette méthode s’applique principalement sur les images fixes.

➔ La compression temporelle est utilisée pour réduire le flux d’information en ne conservant par exemple que les différences entre deux images successives. On associe à la compression temporelle deux méthodes distinctes :

✔ Le codage différentiel qui soustrait toutes les informations redondantes d’une image à l’autre pour ne conserver que les déplacements (problèmes si grandes différences)

✔ La seconde méthode employée est le codage par prédiction du mouvement qui est très réducteur de volume, mais dont le défaut est de trop dégrader l’information surtout si les mouvements sont rapides.

166

VIDEOVIDEO

La vidéo numérique✔ M-JPEG

➔ La première idée qui vient à l’esprit après s’être interessé à la compression d’images est d’appliquer . Le principe du Motion JPEG (noté MJPEG ou M-JPEG, à ne pas confondre avec le MPEG) consiste à appliquer successivement l’algorithme de compression JPEG aux différentes images d’une séquence vidéo.

➔ Etant donné que le M-JPEG code séparément chaque image de la séquence il permet d’accéder aléatoirement à n’importe quelle partie d’une vidéo. Ainsi son débit de 8 à 10 Mbps le rend utilisable dans les studios de montage numérique.

167

VIDEOVIDEO

La vidéo numérique✔ MPEG

➔ Dans de nombreuses séquences vidéos, de nombreuses scènes sont fixes ou bien changent très peu, c’est ce que l’on nomme la redondance temporelle.Lorsque seules les lèvres de l’acteur bougent, presque seuls les pixels de la bouche vont être modifiés d’une image à l’autre, il suffit donc de décrire le changement d’une image à l’autre. C’est là la différence majeure entre le MPEG (Mo-ving Pictures Experts Group) et le M-JPEG. Cependant cette méthode aur beaucoup moins d’impact sur une scèned’action.Le groupe MPEG a été établi en 1988 dans le but de développer des standa rds internationaux de compression, décompression, traitement et codage d’image animées et de données audio.

➔ Il existe plusieurs standards MPEG :

168

VIDEOVIDEO

La vidéo numérique✔ MPEG

✗ le MPEG-1, développé en 1988, est un standard pour la compression des données vidéos et des canaux audio associés (jusqu’à 2 canaux pour une écoute stéréo). Il permet le stockage de vidéos à un débit de 1.5Mbps dans une qualité proche des cassettes VHS sur un support CD appelé VCD (Vidéo CD).

✗ le MPEG-2, un standard dédié originalement à la télévision numérique (HDTV) offrant une qualité élevé à un débit pouvant aller jusqu’à 40 Mbps, et 5 canaux audio surround. Le MPEG-2 permet de plus une identification et une protection contre le piratage. Il s’agit du format utilisé par les DVD vidéos.

✗ le MPEG-4, un standard destiné à permettre le codage de données multimédia sous formes d’objets numériques, afin d’obtenir une plus grande interactivité, ce qui rend son usage particulièrement adapté au Web et aux périphériques mobiles.

169

VIDEOVIDEO

La vidéo numérique✔ MPEG

➔ La norme MPEG-1 représente chaque image comme un ensemble de blocs 16 x 16. Elle permet d’obtenir une résolution de:

• 352x240 à 30 images par seconde en NTSC

• 352x288 à 25 images par seconde en PAL/SECAM

➔ Le MPEG-1 permet d’obtenir des débits de l’ordre de 1.2 Mbps (exploitable sur un lecteur de CD-ROM).

➔ Le MPEG-1 permet d’encoder une vidéo grâce à plusieurs techniques :

170

VIDEOVIDEO

La vidéo numérique✔ MPEG

✗ Intra coded frames (Frames I, correspondant à un codage interne): les images sont codées séparément sans faire référence aux images précédentes.

✗ Predictive coded frames (frames P ou codage prédictif): les images sont décrites par différence avec les images précédentes.

✗ Bidirectionally predictive coded frames (Frames B): les images sont décrites par différence avec l’image précédente et l’image suivante.

✗ DC Coded frames: les images sont décodées en faisant des moyennes par bloc.

171

VIDEOVIDEO

La vidéo numérique✔ MPEG

➔ Les frames I : Ces images sont codées uniquement en utilisant le codage JPEG, sans se soucier des images qui l’entourent. De telles images sont nécessaires dans une vidéo MPEG car ce sont elles qui assurent la cohésion de l’image (puisque les autres sont décrites par rapport aux images qui les entourent), elles sont utiles notamment pour les flux vidéo qui peuvent être pris en cours de route (télévision), et sont indispensables en cas d’erreur dans la réception. Il y en a donc une ou deux par seconde dans une vidéo MPEG.

➔ Les frames P : Ces images sont définies par différence par rapport à l’image précédente. L’encodeur recherche les différences de l’image par rapport à la précédente et définit des blocs, appelés macroblocs (16x16 pixels) qui se superposeront à l’image précédente.L’algorithme compare les deux images bloc par bloc et à partir d’un certain seuil de différence, il considère le bloc del’image précédente différent de celui de l’image en cours et lui applique une compression JPEG.

172

VIDEOVIDEO

La vidéo numérique✔ MPEG

➔ Les frames B : De la même façon que les frames P, les frames B sont travaillées par différences par rapport à une image de référence,sauf que dans le cas des frames B cette différence peut s’effectuer soit sur la précédente (comme dans les cas des frames P) soit sur la suivante, ce qui donne une meilleure compression, mais induit un retard (puisqu’il faut connaîtrel’image suivante) et oblige à garder en mémoire trois images (la précédente, l’actuelle et la suivante).

➔ Afin d’optimiser le codage MPEG, les séquences d’images sont dans la pratique codées suivant une suite d’images I, B, et P (D étant comme on l’a dit réservé à l’avance rapide) dont l’ordre a été déterminé expérimentalement. La séquence, type appelée GOP (Group Of Pictures ou en français groupes d’images) est la suivante:IBBPBBPBBPBBI

➔ Une image I est donc insérée toutes les 12 frames.

173

VIDEOVIDEO

La vidéo numérique

Norme Objectif Etat

MPEG-1 Visionnage / Video CD (1 à 3 Mb/s) Standard en 1992

MPEG-2 Diffusion broadcast / DVD (4 à 50 Mb/s)

Standard en 1994

MPEG-4 Intégration des formats Audiovisuels (Vidéo, audio, 2D, 3D) pour le bas et le haut débit

Version 1 en 1998Version 2 en 19992003 : H264 / part 10

MPEG-7 Description des informations audiovisuelles pour faciliter la recherche et le filtrage

Standard en 2001

MPEG-21 Définition d’un modèle et d’une architecture pour la diffusion commerciale des contenus multimédia

En cours

174

VIDEOVIDEO

La vidéo numérique✔ Les formats les plus connus :

➔ .mov : (Apple) container -> tous formats/résolutions et mélanges de ceux-ci.

➔ .avi : (MS) container -> divers formats y compris DivX.

➔ .dv : idéal pour le montage vidéo avec iMovie ou autrefaible compression => fichiers très gros mais sans perte de qualité.

➔ .mpg .mpeg : obsolète, faible compression, mauvaise qualité d'image et de son.

➔ .wmv :(Windows Media Player) divers codecs propriétaires

non compatible QuickTime sauf via plugins Flip4Mac ou Perian

➔ .mp4 : MPEG-4 = forte compression, standardisé, accepté partout

➔ .vob : DVDs commerciaux

175

VIDEOVIDEO

La vidéo numérique✔ Alors, quel est le meilleur format ? Bien difficile de répondre car

cela dépend beaucoup du type du document vidéo concerné et de son utilisation future. Voici quand même l'esquisse d'une sélection:

➔ dv (ou .mov avec compression DV) : idéal pour le montage vidéo mais surtout pas pour la diffusion.

➔ .mp4 :idéal pour le web car format normalisé, fichiers petits et acceptés par tous les browsers.

➔ .flv : pas mal utilisé sur le web car les vidéos en ligne ne sont pas/pas facilement copiables. A proscrire donc si on veut que le lecteur puisse aisément récupérer la vidéo.

➔ .vob : si on veut faire de jolis DVDs lisibles sur n'importe quel lecteur de salon.Dans ce cas il faut passer par un outil de création de DVDs comme iDVD d'Apple.

176

Chapitre 7 :Chapitre 7 :

Compression de images Compression de images

177

Compression des imagesCompression des images

C'est quoi la compression

La compression sans perte

La compression avec perte

178

Compression des imagesCompression des images

C'est quoi la compression ?✔ La compression de données ou codage de source est l'opération

informatique consistant à transformer une suite de bits A en une suite de bits B plus courte pouvant restituer les mêmes informations en utilisant un algorithme particulier.

✔ Opération de codage, elle raccourcit la taille (de transmission ou de stockage) des données au prix d'un effort de compression et de décompression.

✔ La décompression est l'opération inverse de la compression.

✔ La compression peut etre soit sans perte soit avec perte

179

Compression des imagesCompression des images

La compression sans perte ✔ La compression est dite sans perte lorsqu'il n'y a aucune perte de

données sur l'information d'origine. Il y a autant d'information après la compression qu'avant, elle est seulement réécrite d'une manière plus concise (c'est par exemple le cas de la compression gzip pour n'importe quel type de données ou du format PNG pour des images synthétiques destinées au Web2).

✔ La compression sans perte est dite aussi compactage.

✔ L'information à compresser est vue comme la sortie d'une source de symboles qui produit des textes finis selon certaines règles.

✔ Le but est de réduire la taille moyenne des textes obtenus après la compression tout en ayant la possibilité de retrouver exactement le message d'origine (on trouve aussi la dénomination codage de source en opposition au codage de canal qui désigne le codage correcteur d'erreurs).

✔ Plusieurs méthodes possibles dont on site : RLE,LZW et Huffman.

180

Compression des imagesCompression des images

● Méthode RLE✔ Exemple :

WWWWWWWWWWWWBWWWWWWWWWWWWWWBBBWWWWWWWWWWWWWWWWWWWWWWWBWWWWWWWWWWW

✔ Un encodage RLE consiste alors à indiquer pour chaque suite de pixels d'une même couleur, le nombre de pixels de cette séquence. Le résultat comporte en général moins de caractères, bien que ce ne soit pas une obligation. On obtient par exemple pour la ligne précédente :

12W1B14W3B23W1B11W

✔ Tandis que : WBWBWBWBWB donnerait :1W1B1W1B1W1B1W1B1W1B

✔ Ce qui est deux fois plus long.Remarque : Dans ce dernier cas, il serait donc plus efficace d'écrire la lettre uniquement si elle est seule (sans le chiffre 1). On aurait donc au pire la même taille (dans le cas où il y aurait une ou 2 lettres identiques) mais jamais une augmentation.

181

Compression des imagesCompression des images

● Méthode RLE✔ Le run-length encoding, appelé en français le codage par plages,

est un algorithme de compression de données en informatique.

✔ Le système s'applique essentiellement à des documents scannés en noir et blanc : au lieu de coder un bit par point, on dispose d'un compteur — en général sur un octet — indiquant combien de points blancs ou noirs se suivent. Comme il est rare de ne pas avoir au moins 8 pixels noirs ou 8 pixels blancs qui se suivent, et que 256 ne sont pas rares sur les endroits vierges ou les à-plats noirs, le système a bien pour effet une compression.

✔ S'il y a plus de 256 bits de la même couleur, on peut placer ensuite un octet spécifiant 0 bit de la couleur opposée, puis coder le nombre de bits qui restent...

✔ Par exemple, considérons un écran de texte noir sur fond blanc. Il sera constitué de longues séquences de pixels blancs pour le fond, et de courtes séquences de pixels noirs pour le texte. Représentons une ligne d'un tel écran, avec B pour les pixels noirs et W pour les pixels blancs :

182

Compression des imagesCompression des images

● Méthode LZW :✔ LZW (pour Lempel-Ziv-Welch) est un algorithme de compression

de données sans perte. Il s'agit d'une amélioration de l'algorithme LZ78 inventé par Abraham Lempel et Jacob Ziv en 1978. LZW fut créé en 1984 par Terry Welch, d'où son nom.

✔ L'algorithme LZW avait été breveté par la société Unisys1 (un brevet logiciel valable uniquement aux États-Unis). Il a été utilisé dans les modems (norme V42 bis) et est encore utilisé dans les formats d'image numérique GIF ou TIFF et les fichiers audio MOD.

✔ L’algorithme est conçu pour être rapide à implémenter, mais n’est la plupart du temps pas optimal car il effectue une analyse limitée des données à compresser.

183

Compression des imagesCompression des images

● Méthode LZW :

w = Nul;

tant que (lecture d'un caractère c) faire

si (wc existe dans le dictionnaire) alors

w = wc;

sinon

ajouter wc au dictionnaire;

écrire le code de w;

w = c;

fin si

fin tant que

écrire le code de w;

184

Compression des imagesCompression des images

● Méthode LZW :✔ Exemple

✔ La table suivante montre le résultat de l'exécution de l'algorithme de compression sur la chaîne suivante :

TOBEORNOTTOBEORTOBEORNOT

✔ On suppose qu'on utilise un code ASCII de 256 caractères (8-bits) comme dictionnaire de base. La longueur de cette chaîne est de 24 caractères. Elle nécessite donc 24 * 8 = 192 bits d'espace de stockage.

✔ Après la compression, nous obtenons une séquence de codes de 9 bits sur la sortie :

TOBEORNOT<256><258><260><265><259><261><263>

✔ Elle nécessite 16 × 9 = 144 bits d'espace de stockage, au lieu des 192 bits de la chaine originale.

185

Compression des imagesCompression des images

● Méthode LZW :

186

Compression des imagesCompression des images

● Méthode Huffman :✔ Le principe du codage de Huffman repose sur la création d'un

arbre composé de nœuds. Supposons que la phrase à coder est « wikipédia ».

✔ On recherche tout d'abord le nombre d'occurrences de chaque caractère (ici les caractères 'a', 'd', 'é', 'k', 'p' et 'w' sont représentés chacun une fois et le caractère 'i' trois fois).

✔ Chaque caractère constitue une des feuilles de l'arbre à laquelle on associe un poids valant son nombre d'occurrences. Puis l'arbre est créé suivant un principe simple : on associe à chaque fois les deux nœuds de plus faibles poids pour donner un nœud dont le poids équivaut à la somme des poids de ses fils jusqu'à n'en avoir plus qu'un, la racine. On associe ensuite par exemple le code 0 à la branche de gauche et le code 1 à la branche de droite.

187

Compression des imagesCompression des images

● Méthode Huffman :✔ Example :

Symbol Frequency

A 24

B 12

c 10

D 8

E 8

188

Compression des imagesCompression des images

● Méthode Huffman :

Symbol Frequency Code Code total

Length Length

A 24 0 1 24

B 12 100 3 36

C 10 101 3 30

D 8 110 3 2

E 8 111 3 24

189

Compression des imagesCompression des images

La compression avec perte ✔ La compression est dite avec perte ou destructive (contrairement

à la compression sans perte ou non destructive engendre généralement une perte de données plus au moins visible .

✔ Elle peut utiliser un codage non destructif tel est celui de huffman

✔ Plusieurs méthodes possibles dont on site : la norme jpeg .

190

Compression des imagesCompression des images

● La norme JPEG (Joint Photographic Expert Group )

✔ JPEG définit deux classes de processus de compression :

• avec pertes ou compression irréversible. C’est le JPEG « classique ». Il permet des taux de compression de 3 à 100

• sans pertes ou compression réversible. Il n’y a pas de pertes d’information et il est donc possible de revenir aux valeurs originales de l’image. Les gains en termes de compression sont alors plus modestes, avec un taux de compression de l’ordre de 2 à 8 [réf. nécessaire]. Cette partie fait l’objet d’une norme spécifique appelée JPEG-LS.

191

Compression des imagesCompression des images

● La norme JPEG (Joint Photographic Expert Group )✔ La technique de codage repose , après une transformation

discrète en cosinus (DCT) , sur une quantification suivie d'un codage de Huffman. La rigueur de la spécification est spécifiée au moment du codage .

✔ Ce paramètre va interférer sur la qualité du résultat :

• 10:1 à 20:1 sans perte visible

• 30:1 à 50:1 avec perte modérée

• 100:1 pour les images de faibles qualités

✔ La transformée DCT (Discrete Cosine Transform, en français transformée en cosinus discrète), est une transformation numérique qui est appliquée à chaque bloc. Cette transformée est une variante de la transformée de Fourier. Elle décompose un bloc, considéré comme une fonction numérique à deux variables, en une somme de fonctions cosinus oscillant à des fréquences différentes.

192

Compression des imagesCompression des images

● La norme JPEG (Joint Photographic Expert Group )✔ La transformée DCT s’exprime mathématiquement par :

✔ Et la transformée DCT inverse s’exprime par :

✔ Dans les deux cas la constante vaut 1 si x>0 et 1/racine(2) sinon

193

Compression des imagesCompression des images

● La norme JPEG (Joint Photographic Expert Group )

194

Compression des imagesCompression des images

● L'utilisation des fractales :✔ La compression fractale est une méthode de compression d'image

encore peu utilisée aujourd’hui. Elle repose sur la détection de la récurrence des motifs, et tend à éliminer la redondance d’informations dans l'image.

✔ C'est une méthode destructive puisque l'ensemble des données de départ ne se retrouve pas dans l'image finale. Il existe plusieurs méthodes (subdivision de triangles, Delaunay etc.) mais la compression par la méthode Jacquin est la plus connue.

✔ L'idée de base est la description des images par des équations ainsi l'image est définie par des transformations et non point par point .Ce fait engendre :

• On peut obtenir un taux de compression de 30:1 sans effet de masaique .

• Mais ça nécessite beaucoup de puissance et un temps de compression énorme .

195

Compression des imagesCompression des images

● Le codage par ondelette :✔ Le principe est de décomposer l'image en de multiples images de

faibles résolutions .

✔ La compression se compose donc des étapes suivantes

1. Transformations par ondelettes.

2. Quantification : les valeurs des images de détails inférieures à un certain niveau sont éliminées, en fonction de l’efficacité recherchée. C’est cette étape qui introduit des pertes.

3. Codage des valeurs restantes.

✔ Les principaux avantages par rapport à JPEG sont :

• Le fait que l’algorithme s’adapte mieux aux propriétés locales de l’image.

• On peut atteindre des taux de compression d’environ 50 contre 15 pour JPEG tout en ayant une qualité d’image raisonnable.