Bonjour,
Je commencerai par citer un livre de référence, que je conseille à tous ceux intéressés par l'image numérique :
Cours de photographie numérique (principes, acquisition et stockage), de René Bouillot, aux éditions Dunod.
Pour faire simple, la compression des images consiste à réduire le volume des données représentant l'image, en encodant non pas chaque pixel de celle-ci, mais plutôt les variations de teinte. En effet, une image contient souvent des zones plus ou moins grandes (portion de ciel, mur, etc...) à l'intérieur desquelles la couleur est uniforme.
Dans un format non compressé, comme le format BitMaP (BMP), chaque pixel de l'image est encodé sur 255 niveaux d'intensité par couleur, soit donc 24 bits, 8 bits par couleur primaire (RGB en anglais ou RVB en français). Dans un format conservant la transparence, comme le format Targa (TGA), 8 bits supplémentaires sont affectés à la transparence et définissent ce que l'on appelle la "Couche Alpha". Celà donne donc 32 bits par pixel pour le format Targa.
Un appareil photo numérique ou une caméra ne crée pas de couche alpha. Celle-ci est obtenue dans les logiciels d'imagerie 3D ou de traitement d'image.
Néanmoins, à 24 bits par pixel, on obtient des images encore trop "lourdes" pour être traitée et stockées sans "simplification". A titre d'exemple, pour la définition TV Standard PAL 720 x 576 en mode progressif, une image non compressée représente 414720 pixels, soit un poids par image de 414720 x 24(bits) / 8(octets) = 1,244160 Mo !
Capturer des images dans un format non compressé en vidéo demanderait une bande passante énorme. Le débit de données devrait être en effet extrêmement élevé (31,104 Mo par seconde à 25 images par seconde) pour permettre à l'électronique de traiter et de stocker les images capturées (1,866 Go par minute), et celà sans tenir compte de l'enregistrement du son !
C'est la raison pour laquelle, on préfère simplifier l'image juste après sa capture en encodant (encodage hardware effectué dans la caméra) non pas la couleur de chaque pixel, mais la couleur d'un pixel associée au nombre de fois ou cette couleur se répète à la suite sur une même ligne de l'image.
Ceci est très schématique et simplifié et les algorithme de compression sont bien plus complexes que celà mais c'est le principe de base de l'encodage JPEG (JPG). Ce principe fait appel à une compression dite INTRA IMAGE, traitement qui est propre à chaque image. Ce type de compression ne fait perdre que très peu d'information et conserve donc une image de qualité.
Appliqué à la vidéo, en encodant en JPEG chacune des images , on obtient un format nommé Motion JPEG.
La compression utilisée en Mini DV est du Motion JPEG (MJPG). Ce type de compression permet d'obtenir une réduction de volume des fichiers de l'ordre de 5x, sans perte de qualité.
Toutefois, il n'est pas possible de conserver ce type de compression d'un bout à l'autre de la chaîne de production, car il n'est pas envisageable de graver à destination du public un DVD d'une heure trente en Motion JPEG. Un tel disque devrait en effet avoir une capacité d'environ 200 Go !
C'est la raison pour laquelle a été créé l'encodage MPEG2. Cette méthode d'encodage ne se limite plus à une simplification de chaque image (INTRA IMAGE) mais effectue également une compression INTER IMAGE. Pour ce faire, il examine chaque pixel de l'image sur N images successives, et enregistre les variations de teinte d'un pixel d'une image à l'autre. Si un pixel ne varie pas de teinte sur plusieurs images successives, on enregistrera sa teinte et son nombre d'occurences à la suite. Ce concept ne permet plus de stocker des images entières de manière continue, et donc on devra stocker au moins une image JPEG n'ayant subi qu'une compression INTRA IMAGE toutes les N images afin de conserver une référence. Ce type d'image est appelé image clé. Une vidéo MPEG2 est constituée de séquences successives appelées séquences GOP (Group Of Pictures), contenant des images clés (nommées I) encadrant des images interpolées (nommées B) et des images dites prédictives (nommées P) basées sur le comportement des vecteurs de déplacements des pixels.
Le format obtenu est dit destructif, car il y a perte importante d'informations. En effet seules les images I (clés)sont des images entières. On appelle Codec (abréviation de Codeur Décodeur) l'algorithme ou programme réalisant l'opération d'encodage ou de décodage de la vidéo ou du son. Si le processus est réalisé dans la caméra ou dans un périphérique spécifique externe à un ordinateur (périphérique de capture et d'encodage temps réel ou lecteur DVD), on parle de codec matériel ou Hardware. Si le processus est effectué par un programme chargé sur un ordinateur, on parle de codec logiciel, ou software.
Le MPEG2 est à l'origine un "format de diffusion". Il a été conçu pour fournir à l'utilisateur final (le spectateur) une vidéo de qualité visuelle satisfaisante, sur un support de capacité raisonnable, au coût modéré : le DVD.
Ceci est très bien tant que l'on reste dans des résolutions assez faibles. Or, le format d'image qui était le standard TV jusqu'à une époque proche est maintenant appelé SD, pour Simple Définition et laisse place progressivement à des formats de définition beaucoup plus élevée qui ne tarderont pas à devenir des standards.
Dans la volonté de donner au consommateur la possibilité d'enregistrer ses propres videos à cette haute définition, on a donc vu apparaître des camescopes grand public capturant au format HDV, dont la résolution en terme de nombre de pixels est 5 fois plus élevée.
C'est à ce point que celà "se gâte". En effet, à cette résolution, un taux de compression très élevé devient indispensable. C'est la raison pour laquelle le format MPEG2, qui était jusqu'alors un format réservé à la diffusion, est devenu par la force des choses un format de capture.
Il en est de même pour le format MPEG4, destiné jusqu'alors à réduire au maximum le poids des fichiers video essentiellement diffusés sur Internet en qualité assez médiocre (DivX entre autre) et qui se trouve maintenant incorporé via des codecs hardware dans des petits camescopes à carte mémoire ou même dans des appareils photo numériques (comme le Samsung NV24HD) sous le format nommé 720p qui permet l'enregistrement de videos de qualité assez honorable en 16/9 en mode progressif, à une résolution de 1280x720, à 30 images par seconde.
Une remarque à propos du mode progressif du 720p : Celà signifie simplement que la video n'est pas entrelacée. Rien à voir qualitativement avec du 25 p ou du 50p en MJPG !
Chaque fois que l'on effectue une opération au sein d'un logiciel de montage, comme le mixage de deux séquences sur une même piste de la time line (fondu enchaîné par exemple) ou sur deux pistes différentes (incrustation, titrage, etc...) le logiciel effectue des opérations mathématiques entre les données représentatives d'un même pixel dans chacune des images. Or, la perte importante d'information dans un format tel que le MPEG2 ou MPEG4 pose problème, car selon les logiciels, il ne sera pas toujours possible d'effectuer simplement et correctement les opérations souhaitées. Un exemple récurrent réside dans les coupes à l'image près , qui ne seront pas toujours possibles. On devra alors les effectuer sur les images clés.
D'autre part, l'exportation du projet finalisé imposera une nouvelle compression qui bien souvent dégradera considérablement la qualité de l'image, par suite du cumul des opérations d'encodage destructif à la capture et ensuite au montage.
Il est à noter également que bien que la résolution des capteurs CCD ou CMOS des camescopes HDV soit de 1920 x 1080 (et même plus pour permettre lemode photo), l'image video n'est pas (à ma connaissance) enregistrée à cette résolution. Afin de réduire la bande passante nécessaire à l'enregistrement, la résolution est en effet réduite à 1440 x 1080 lors de l'encodage hardware (dans la caméra donc), et ensuite restituée à 1920 x 1080 par interpolation, lors du dérushage.
Les formats de capture Haute définition Professionnels tels que le DVC Pro HD, en revanche font appel à un système d'encodage non destructif basé sur une architecture parallèle de plusieurs codecs de type DV (Motion JPEG) qui nécessitent un volume de stockage plus important et une bande passante plus élevée, mais assurent la capture d'images de qualité aptes à subir tous les traitements et effets souhaités en post-production, d'un bout à l'autre de la chaîne, laissant de la marge pour délivrer au spectateur une image visuellement parfaite sur le support de diffusion (en MPEG2).
... Je n'avais pas relu tout le sujet avant d'écrire ces lignes, et je constate que j'ai repris pas mal de choses que j'avais déjà évoquées. Tant pis ! Je n'ai pas tout relu en détail. J'espère que ce post apporte un complément d'infos... sinon, on mettra ça sur le compte de la vieillesse !
