Vidéo

3.4297397769408 (1345)
Posté par marvin 22/03/2009 @ 04:07

Tags : vidéo, loisirs numériques, high-tech, vidéos, loisirs

Dernières actualités
A défaut de vidéo, le Palm Pre sait enregistrer en stop motion - 20minutes.fr
Mais s'il pouvait faire mieux que de la vidéo, et de manière native? Disons de l'animation stop motion par exemple? En maintenant la barre espace du Pre enfoncée, vous pouvez prendre environ une photo par seconde, ce qui est plutôt rapide pour un...
Secret Story : Daniela et Emilie sont les premières nominées (VIDEO) - Fémin Actu
Nouvelle quotidienne de Secret Story 3 ce soir, et le verdict est tombée pour deux candidates du jeu. Le mardi, c'est traditionnellement le jour des nominations, et pour cette première semaine, les garçons ont choisi de nominer Daniela et Emilie....
Alan Simon. «Anne mérite bien un rock opéra» [Video] - Le Télégramme
Après l'album-événement sorti le mois dernier, le rock opéra d'Alan Simon « Anne de Bretagne» sera joué lundi et mardi à Nantes, dans le cadre idéal qu'offre le château des ducs de Bretagne. 120 artistes l'interpréteront, dont beaucoup de noms...
Remaniement. Un gros lifting au gouvernement [Video] - Le Télégramme
Ce devait être une piqûre de mouche, c'est un remaniement. Un vrai de vrai. Après les solennités à Versailles, il fallait bien illustrer la nouvelle ligne du quinquennat, censée enterrer le programme de Nicolas 1er, de 2007 à nos jours....
Roland Ries "admire" Dominique de Villepin (vidéo) - DNA - Dernières Nouvelles d'Alsace
Le maire socialiste de Strasbourg, Roland Ries, qui recevait lundi soir à l'Hôtel de Ville de Strasbourg l'ancien Premier ministre UMP, Dominique de Villepin, venu en Alsace présenter son livre "La cité des hommes" (Plon), a utilisé pas moins de quatre...
M6 Mobile fait le buzz en vidéo sur le web - Mobinaute
Revendiquant plus de 1,5 million de clients, dont 90% ayant moins de 25 ans, M6 Mobile s'est ainsi associé aux agences marketing HighCo 3.0 et Effikas pour produire et diffuser 9 vidéos présentant des usages atypiques, tous fictifs mais présentés comme...
Quoi de neuf en jeux vidéo ce mercredi ? - Clubic
Un peu moins de deux minutes, c'est la durée de cette nouvelle vidéo (WMV9, 1280x720, 1 min 44) pour Le Seigneur Des Anneaux Online : Les Mines De La Moria. Deux minutes, c'est la durée de cette nouvelle vidéo (MOV, 640x360, 1 min 50) pour Spore...
Ceville en vidéo, images et infos pas barbantes - Clubic
Alors que Ceville devrait faire son arrivée dès le 3 juillet prochain, nous avons mis les mains sur une version preview proposant de découvrir le début de l'histoire de ce jeu d'aventure point & click, très classique dans la forme, développé par Boxed...
Haier AFT630 IX, le réfrigérateur avec mémo vidéo ! - PCWorld France
Pour laisser des messages vidéo à ses proches évidemment. Un écran tactile pour faire joujou, mais pas seulement puisqu'il sert aussi à paramétrer le réfrigérateur, y compris ses modes exclusifs comme le "Ice Maker" qui permet de fabriquer 1 Kg de...
Secret Story 3 : Léo est-il un ancien SDF ? (vidéo) - melty.fr
Le jeune candidat qui fait beaucoup parler de lui serait un ancien sans domicile fixe, à ce qu'on voit sur une vidéo postée par entrevue.fr. La source n'est pas donnée, on n'a aucune confirmation de la véracité du secret, d'autant que l'on pensait...

Vidéo

La vidéo regroupe l'ensemble des techniques, technologie, permettant l'enregistrement ainsi que la restitution d'images animées, accompagnées ou non de son, sur un support adapté à l'électronique et non de type photochimique. Le mot vidéo vient du latin video qui signifie « je vois ». C'est l'apocope de vidéophonie ou vidéogramme. Le substantif vidéo s'accorde en nombre, cependant, l'adjectif reste toujours invariable.

Un flux vidéo est composé d'une succession d'images, 25 par seconde en Europe (30 par seconde aux USA), composant l'illusion du mouvement. Chaque image est décomposée en lignes horizontales, chaque ligne pouvant être considérée comme une succession de points. La lecture et la restitution d'une image s'effectue donc séquentiellement ligne par ligne comme un texte écrit : de gauche à droite puis de haut en bas.

L'image d'un téléviseur est une succession de balayages linéaires horizontaux, de gauche à droite, partant du haut, et finissant en bas de l'écran. Au commencement de la télévision, la qualité des éléments phosphorescents du tube est fort médiocre. De ce fait, quand le faisceau balaye le bas de l'écran, le haut a déjà disparu, d'où un phénomène de scintillement, ressenti fortement par l'œil humain pour 25 Hz ou 30 Hz. La solution la plus simple eût été d'accélérer la cadence de balayage, mais ceci imposait également d'augmenter la cadence des images, ce qui était inutile d'un point de vue cinématographique (le mouvement est perçu de la même façon), et fort coûteux en matériel et en bande passante. Une solution plus astucieuse fut de doubler la cadence de balayage, en omettant une ligne sur deux, afin de garder une quantité d'information constante. Ainsi, une première passe affiche toutes les lignes impaires en deux fois moins de temps que pour une image entière et une seconde passe affiche les lignes manquantes paires : c'est ce que l'on appelle l'entrelacement. On obtient bien le même nombre de lignes de balayages pour une image, et on balaye deux fois l'écran pour afficher une seule image. On désigne par le terme « trame » ("field" en anglais) une passe de balayage. Une image est donc constituée de deux trames, puisqu'il faut deux balayages pour définir l'image ("frame" en anglais).

Les caméras, qui fonctionnent comme un « téléviseur inversé », adoptèrent elles aussi cet entrelacement du balayage. Dans la première moitié du temps d'une image, une 1re prise de vue définit toutes les lignes impaires, et une moitié d'image plus tard, une seconde prise de vue définit les lignes paires. Ce qu'il faut bien comprendre ici, c'est que les deux prises de vues sont distantes dans le temps (d'une moitié d'image). Et même si ces deux prises de vue sont complémentaires d'un point de vue spatial (les deux balayages se complètent dans le cadre), ces deux prises de vue n'affichent pas le même contenu ! Si un sujet se déplace dans le champ, il aura une position différente sur chacune des deux trames : on a alors un effet de zig-zag sur chaque frame.

Ce problème est en partie résolu par un dispositif de lames cristallines biréfringentes qui "étalent" les détails en dédoublant les rayons lumineux. Il en découle une perte de définition qui confèrent aux système PAL et SECAM une résolution verticale multipliée par 0,7 (facteur de Kell) et qui n'est plus réellement que de 400 lignes environ.

Du fait de la capture en deux trames de 1/50 de seconde chacune, c'est le temps de pose en vidéo (25i).

Il existe dorénavant de plus en plus d'appareils vidéo capables d'afficher 25, 50 ou 60 images complètes par seconde, l'affichage n'est plus entrelacé, on parle alors de balayage progressif. Parmi les appareils capables d'un tel affichage on trouve : les ordinateurs (leur carte vidéo et leur écran), certains vidéoprojecteurs, les téléviseurs haut de gamme, certaines platines DVD et quelques rares caméscopes. C'est le mode de capture choisi pour les films tournés en HD TV ou en D-cinéma destinés à être transférés et projetés en 35 mm.

Les 25 images progressives (25p) confèrent alors aux caméras un temps de pose de 1/25 de seconde ce qui est trop long en termes de résolution temporelle. On préfère alors limiter le temps d'intégration des trames à 1/50 s (obturateur électronique).

Les premières caméras vidéo, fonctionnant sur le même principe que les téléviseurs, analysaient l'image formée par l'objectif à l'aide d'un tube cathodique. Depuis la fin des années 1980, elles sont dotées de capteurs Charge-Coupled Device : CCD ou Dispositif à Transfert de Charges (DTC) en français.

Le transfert de ces charges peut se faire de 3 manières différentes : transfert interligne (capteur IT : Interline Transfer), transfert trame (capteur FT : Frame Transfer) qui nécessite un obturateur mécanique et est rarement utilisé ou transfert FIT (Frame Interline Transfer).

Au début du XXIe siècle, les fabricants de capteurs ont décidé d'abandonner cette technologie et construisent désormais des capteurs CMOS (Complementary Metal Oxide Semi-conductor). On trouve cependant encore sur le marché des camescopes semi-professionnels utilisant la technologie dite "tri-CCD" qui permet d'améliorer notablement le traitement des couleurs.

Il existe différents formats d'image vidéo, qui dépendent essentiellement de la fréquence de balayage vertical de l'image.

On peut constater à ce point qu'il existe une différence entre le nombre de lignes composant l'image et le nombre de lignes affichées. Ceci représente une différence de 49 lignes en 50 Hz et de 45 lignes en 60 Hz. Ces lignes perdues sont nécessaires, elles représentent le temps nécessaire pour que le faisceau d'électrons balayant le tube cathodique puisse remonter du bas de l'image vers le haut. Ce problème technique n'existe pas avec les panneaux LCD et les dalles plasma, mais il est conservé pour assurer la compatibilité. Les lignes libres sont mises partiellement à profit : on y place les signaux du télétexte, du sous-titrage et aussi le time-code des équipements vidéo professionnels.

Ce résultat n'est pas dû au hasard. Si les fréquences horizontales sont presque les mêmes en 50Hz et en 60 Hz, c'est que cela permet d'utiliser la même circuiterie de balayage horizontal, donc de réaliser des économies.

Depuis quelques décennies on connaissait les particularités spectrales de l'œil humain, qui affichaient une très nette préférence pour certaines couleurs. De plus on savait que le spectre chromatique de l'œil peut se décomposer en trois couleurs primaires, qui permettent par mélange de recréer à peu près toutes les autres couleurs du spectre. Le cinéma couleur exploite celà en utilisant des émulsions à plusieurs couches, dont chacune est sensible à une couleur primaire.

Les ingénieurs vidéo optèrent pour trois couleurs bien particulières : rouge vert bleu. Ces couleurs sont dites primaires (à ne pas confondre avec les couleurs primaires du domaine de la peinture qui sont le bleu, le rouge et le jaune, ou à celles de l'imprimerie, qui sont, en synthèse additive, les complémentaires jaune, magenta, cyan) car ce sont elles qui, par mélange, vont permettre de recomposer un spectre entier de couleurs.

La prise de vue en couleur s'effectue selon un prisme optique qui répartit la lumière sur trois capteurs, devant lesquels on a respectivement un filtre rouge, vert et bleu. Ainsi, chaque capteur n'enregistre que les informations de lumière concernant sa couleur. Il suffit ensuite d'enregistrer puis restituer les 3 composantes RVB (RGB en anglais) sur un moniteur couleur acceptant les trois entrées RVB. Il faut bien comprendre que l'on obtient trois signaux à la place d'un seul. Il faut non seulement tripler toutes les liaisons câblées entre les différents équipements, mais aussi tripler les pistes d'enregistrement sur un magnétoscope, tripler tous les équipements de production, jusqu'aux équipements de diffusion hertzienne... Le défi était donc de créer un signal unique englobant trois informations différentes, et qui ne devaient pas se mélanger avant le traitement par le poste de réception.

Le défi était aussi de conserver la totale compatibilité avec les postes noir et blanc encore très présents dans les foyers. On travailla donc dans le but de créer un signal vidéo englobant : du rouge, du vert, du bleu, et du noir et blanc dans le même tuyau, sans que ceux-ci se mélangent.

Pour commencer, il était impensable d'avoir une caméra noir et blanc ET une caméra couleur. Il fallait donc fabriquer du noir et blanc à partir des trois composantes RVB. Se basant sur les sensibilités de l'œil aux différentes couleurs, on prit 59 % de vert, 30 % de rouge, et 11 % de bleu qu'on mélangea copieusement. On venait d'inventer un nouveau terme : la luminance (Y). Les télés noir et blanc pourraient donc voir en noir et blanc des images issues de caméra couleur. Comment maintenant rajouter à ce Y les informations de couleurs nous permettant de retrouver notre RVB original ? Puisqu'on avait déjà la lumière de notre image (le Y), il fallait « colorier » ce noir et blanc avec des informations de couleurs qui ne contenaient elles, aucune valeur de lumière, mais uniquement des indications de teinte et de saturation.

Une fois d'accord pour ce noir et blanc colorisé, il fallut trouver l'astuce qui permettrait de transmettre la lumière (Y) et la chroma (que nous appellerons C pour faire simple). Des procédés électroniques aux noms aussi effrayants que « modulation d'amplitude en quadrature de phase, à sous-porteuse supprimée » virent le jour. Ces solutions se devaient à la fois de mixer 2 signaux de manière à pouvoir les discriminer à la réception, mais aussi de n'avoir aucune interférence visible dans le spectre du signal noir et blanc.

Ces solutions furent trouvées et appliquées. Ainsi sont nés le NTSC (National Television System Committee) aux États-Unis, le SECAM (SÉquentiel Couleur À Mémoire) en France, et le PAL (Phase Alternate Line) en Allemagne. La technique employée pour transformer du RVB en signal couleur compatible noir et blanc s'appelle le codage. Le NTSC, le SECAM et le PAL sont trois types de codages différents, et bien entendu, incompatibles entre eux. Passer d'un type de codage à un autre s'appelle transcodage.

Aucune des trois solutions n'est néanmoins transparente, loin s'en faut. Un signal codé souffre d'artefacts plus ou moins visibles selon le codage.

Un signal vidéo codé de la sorte est dit signal composite, car il contient plusieurs sources de nature différente. Les standards vidéo utilisant le composite vont de l'U-MATIC / U-MATIC SP au VHS en passant par le 8mm ou Video 8, le Betamax, le VCR ou encore le V2000. Au vu des dégradations causées par le codage, il devenait urgent de s'en absoudre en production.

Au début des années 80, SONY mit au point un format vidéo à composantes séparées, constitué de plusieurs signaux distincts, véhiculés par des câbles distincts : le Betacam / Betacam SP. Pour rester compatible N&B, on évita soigneusement le RVB, et on choisit naturellement un format comportant le fameux Y (signal N&B), plus des informations de chrominance véhiculées par 2 signaux : U & V (appelés aussi Cr et Cb). Pour ceux qui n'auraient pas encore décroché, le U = R - Y, le V = B - Y, où Y = 0,30R+0,59V+0,11B (les coefficients étant différents selon le codage utilisé). Cette transformation de RVB en YUV s'appelle Matriçage. Contrairement au codage, le matriçage est une opération très simple, qui ne génère pas de dégradation, tout en offrant l'avantage de la compatibilité Y.

Quelques années plus tard, on vit apparaître un format grand public dit S-Video ou Y/C, où la luminance Y et la chrominance C (codée en NTSC, PAL ou SECAM) étaient séparées (S-VHS, Hi-8, Super-Betamax). Ce format est de qualité meilleure qu'un format composite, puisque la chrominance n'empiète plus sur la bande de fréquences de la luminance, ce qui pouvait amener à des artefacts colorés sur des détails fins. La résolution horizontale de ces formats pouvait donc être quasiment doublée (400 points/ligne au lieu de 240-250).

L’histoire du numérique dans la vidéo commence véritablement de 1972 à 1982. À l’origine équipements de synchronisation, les appareils se sophistiquèrent avant d’entrer dans le milieu professionnel. Dès lors, les industriels prirent conscience de l’avènement de ce nouveau phénomène et présentèrent des normes en matière de numérisation. Une certaine anarchie numérique régna alors sur le marché ce qui força la main au CCIR (Comité consultatif international des radiocommunications) à normaliser un format vidéo en composantes numériques compatible dans le monde entier : cette norme c'est le 4:2:2, ou CCIR 601. Elle spécifie les paramètres de codage de signaux à numériser (échantillonnage, quantification…) Dès lors les innovations ne cessèrent de s’enchaîner pour permettre aujourd'hui à la vidéo numérique de se généraliser dans les centres de production, chaînes TV et régie de post-production pour assister le montage vidéo.

Le procédé de l’acquisition vidéo analogique et de sa conversion en numérique peut s’assimiler au passage du langage oral au langage écrit. Pour prendre en note le discours oral d’une personne, cette dernière ne doit pas parler trop rapidement, dans tel cas il devient difficile d’écouter et de transcrire simultanément. Certes la personne pourrait ralentir son débit de parole mais si l’on assimile ces paroles avec le signal vidéo analogique, on comprend aisément que le débit ne peut pas être ralenti. On procède donc à l’échantillonnage du discours, c’est-à-dire que l’on ne saisit que des « morceaux » de message pour les retranscrire par la suite. La précision de la retranscription dépend donc directement du nombre d’échantillons de discours prélevés. Pour la vidéo, le phénomène est identique : il est nécessaire avant toute chose de connaître le signal et de savoir quels sont les signaux à numériser.

Le signal vidéo numérique devait, sans aucun doute, être identique pour tous les pays : l’idée était de numériser des données communes aux systèmes 625 lignes (PAL, SECAM) et 525 lignes (NTSC). Le CCIR a donc unanimement décidé de numériser de façon séparée les signaux de luminance (Y) et de chrominance (Cr ; Cb). Un système basé sur le codage numérique des composantes vidéo exclut tous les problèmes qu’auraient pu engendrer un codage de signal vidéo composite et permet une compatibilité à échelle mondiale. Ce système devrait donc apparaître comme étant l’accessoire principal d’un développement de nouveaux équipements, mais aussi et surtout d’un échange international de données, constituant la base de l’audiovisuel : la communication.

L’échantillonnage d’un signal, c'est le découpage en tranches temporelles ou "échantillons" de ce dernier. Il est directement suivi de la quantification qui consiste à convertir la valeur de l'échantillon en valeur numérique représentée par un nombre entier (voir ci-dessous). Il est donc nécessaire que le rythme de découpage (fréquence d’échantillonnage) soit élevé pour pouvoir retranscrire les variations du signal les plus brèves. Car si l’intervalle de temps entre deux échantillons consécutifs est supérieur au temps de la variation la plus rapide du signal d’origine, cette dernière se trouvera perdue et ne sera pas prise en compte dans le signal numérique.

Par conséquent, pour échantillonner un signal en préservant son information, il est nécessaire de connaître la fréquence la plus élevée à laquelle il est susceptible de varier. Le théorème d'échantillonnage de Nyquist-Shannon établit qu’« un signal dont le spectre est limité à la fréquence Fmax est entièrement défini par la suite de ses échantillons prélevés à des intervalles de temps réguliers de valeur T inférieurs à 1/(2 Fmax) ».

Par conséquent, la fréquence d’échantillonnage doit être ƒe > 2 Fmax pour respecter la représentation d’origine. Si cette condition n’est pas remplie, les composantes spectrales répétitives du signal échantillonné ne sont pas assez espacées et se chevauchent. La zone de repliement, appelée aussi zone d’aliasing, donne naissance à une fréquence parasite se traduisant par un effet de moiré sur l’image. Pour pallier ce problème, un filtre passe-bas (filtre anti-aliasing) est disposé en amont de la conversion. Ce filtre à pente raide rejette les fréquences du signal analogique d’entrée qui sont supérieures à 1/2 ƒe.

Cependant, pour être utilisée au niveau mondial, ƒe(Y) doit être multiple commun des fréquences lignes des systèmes à 525 et 625 lignes, à savoir 15 625 et 15 734,2 Hz. Le CCIR a donc retenu la fréquence d’échantillonnage suivante : ƒe(Y) = 13,5 MHz. Cette fréquence est égale à 864 fois la fréquence ligne des systèmes à 625 lignes et 858 fois celle des systèmes à 525 lignes (une ligne active contenant 720 échantillons).

Pour les signaux de chrominance, la bande passante est d’environ 3 MHz. Le CCIR a décidé de les échantillonner à une fréquence deux fois moindre que celle de la luminance, soit ƒe(Cr) = ƒe(Cb) = 6,75 MHz. Pour ces signaux, il n’y aura donc que 360 échantillons par ligne active. Ceci n’est pas réellement gênant pour l’être humain qui est moins sensible aux variations de couleur qu’aux variations d’éclairement. Concrètement, le contour d'un objet paraîtra net si la luminance varie rapidement, mais il n'est pas indispensable que la chrominance varie aussi rapidement.

Ces fréquences d’échantillonnage déterminées par le CCIR s’apparentent aux chiffres 4, 2 et 2. Pour un groupe de 8 pixels (4 pixels par ligne et sur 2 lignes), le chiffre 4 représente le nombre de valeurs indiquées par ligne pour la luminance (13,5 MHz), 2 le nombre de pixels possédant une valeur propre chrominance (6,75 MHz = 13,5/2) sur les lignes paires, et le dernier 2 idem pour les lignes impaires. C’est ainsi que la norme CCIR 601, née de ces études, prit le nom courant de norme 4:2:2.

La périodicité 2 trames permet trois types de structures d’échantillonnage : orthogonale, quinconce ligne et quinconce trame. C’est la structure orthogonale qui a retenu l’attention dans la norme 4:2:2. Dans cette structure, la phase de l’horloge d’échantillonnage est identique pour chaque ligne et chaque trame. Les échantillons sont donc situés aux mêmes emplacements d’une ligne à l’autre et d’une trame à l’autre.

Chaque échantillon est « pesé », tout comme un aliment, afin d’en déterminer son poids. En numérique, ce pesage est appelé quantification. Il s’effectue, pour reprendre notre analogie, à l'aide d'une balance à deux plateaux : dans un des plateaux se trouve l’échantillon à peser, dans l’autre les poids nécessaires pour trouver l’équilibre. La précision du pesage dépend donc de la valeur du plus petit poids disponible. En vidéo, le poids de l’échantillon est la tension du signal électrique à numériser et la balance un quantificateur. Cet appareil convertit les tensions en valeurs numériques, exploitables par une station de montage virtuelle, par exemple.

Cependant, la quantification ne peut pas représenter parfaitement la tension de l'échantillon du signal analogique d'origine. En effet, un signal analogique (représenté par un nombre réel) peut prendre une infinité de valeurs, or il va être converti en un signal formé d'un nombre fini de valeurs numériques « N » dont chacune est codée sur « n » bits (c'est-à-dire sous forme d'un nombre entier dont la valeur maximale est limitée). Il y aura donc nécessairement, après quantification, une erreur d'arrondi. La précision du signal converti sera donc liée au nombre de valeurs disponibles pour traduire chaque échantillon. L'intervalle situé entre deux valeurs est noté « q » et se nomme « pas de quantification ». À chaque instant « t », l'amplitude du signal se trouvant à l'intérieur d'un échelon est remplacé par la valeur de l'échelon le plus proche. On comprend aisément que plus les pas de quantification sont petits, plus ils sont nombreux sur une plage donnée et donc que plus la précision du signal quantifié est importante (le taux d'erreur de quantification étant déterminé par la relation Terr = 1/2n).

La quantification du signal vidéo est uniforme, linéaire et s'effectue de façon séparée sur Cr et Cb. Initialement fixée sur 8 bits, la quantification du signal vidéo de la norme 4:2:2 est passée à 10 bits. En effet, une quantification sur 8 bits permet de disposer de 2^8 = 256 niveaux numériques (dont 220 utiles pour représenter les niveaux de gris) ce qui n'est parfois pas suffisant. Pour un dégradé de gris du blanc au noir, par exemple, un « effet d'escalier » apparaît après numérisation. De plus, le rapport S/B (signal à bruit) d'une quantification sur 8 bits est de 56 dB alors que les caméras d'aujourd'hui atteignent les 60 dB. Le C.C.I.R. a donc choisi de quantifier le signal vidéo sur 10 bits, ce qui donne 1024 niveaux (dont 880 utiles) soit 4 fois plus qu'une quantification sur 8 bits, et avec pour rapport S/B 68 dB.

Le signal de luminance est toujours positif et ne pose pas de problèmes à numériser, en revanche les signaux de chrominance sont bipolaires. On a donc dû fixer une valeur pour le signal nul : les valeurs au dessus correspondant à un signal positif et celles au dessous à un signal négatif. Cette « valeur zéro » a été fixée par le C.C.I.R. à 512 (à mi-chemin entre 0 et 1024).

Il existe encore d'autres codes (comme le code Miller ou le code Miller carré) qui ne sont utilisés que dans certains magnétoscopes numériques.

Les lignes analogiques des systèmes à 625 et 525 lignes sont de durées légèrement différentes. Ainsi, la capacité d’une ligne active doit être suffisante pour contenir un nombre suffisant d’échantillons afin de couvrir les lignes des deux systèmes. Le CCIR a choisi 720 échantillons pour le signal de luminance et 360 pour les signaux de chrominance. Ceci est suffisant car les lignes actives analogiques les plus longues sont celles des systèmes à 525 lignes qui nécessitent plus de 710 échantillons pour être totalement analysées. La ligne active 4:2:2 est donc codée sur 1 440 mots (720 x 2). Les signaux permettant de positionner la ligne active numérique sont codés respectivement sur 264 et 24 mots pour les systèmes à 625 lignes et sur 244 et 32 pour les systèmes à 525 lignes. Le front avant des impulsions de synchronisation ligne (SAV) détermine l’arrivée du premier échantillon et la référence de temps pour la conversion analogique-numérique. Le front arrière (EAV) en détermine la fin.

Le support d’enregistrement (ou le canal de transmission) peut engendrer des erreurs dans le flux de données numériques. C’est-à-dire qu’une valeur binaire peut prendre une autre valeur (un « 0 » devient « 1 » et vice-versa) ou bien qu’une info peut manquer à un moment donné. Cette erreur peut soit affecter l’image vidéo visible soit les autres signaux vidéo selon les bits qu’elle affecte. Elle peut donc avoir des conséquences plus ou moins importantes d’où l’utilité de les détecter et de les corriger.

La difficulté des systèmes de correction d’erreur réside dans le fait qu’il faut avant tout détecter l’erreur avant de pouvoir la corriger. Pour cela, des données redondantes sont ajoutées lors du codage aux données utiles, selon une loi définie et connue du codeur et du décodeur. À chaque fois que cette loi n’est pas vérifiée au décodage, un processus de correction est déclenché. Si le manque d’information est tel que même les données redondantes ne suffisent pas à retrouver le signal d’origine, des processus de compensation, qui consistent à calculer la valeur moyenne entre échantillons proches, sont exécutés. Le signal ainsi corrigé peut enfin être utilisé par les différents équipements numériques.

Historiquement, la télévision a été mise au point sur des écrans au format 4/3 (soit un rapport de 1,33/1). Ce format a été choisi car il était celui utilisé par le cinéma lors de la mise au point de la télévision, dans les années 1940. Depuis, le cinéma a évolué, avec des procédés tels que le cinémascope et autres panavision basés sur l'utilisation d'un objectif anamorphoseur, les formats courants au cinéma sont le 1,85/1 et le 2,35/1. Lorsqu'il a été décidé de passer la télévision vers un format panoramique, c'est le format 16/9 qui a été choisi. Il correspond à un rapport d'image de 1,77/1, c'est assez proche de 1,85 et reste un bon compromis entre le 1,33 (barres noires à gauche et à droite) et le 2,35 (barres noires en haut et en bas). Les puristes conservent les barres noires pour voir l'intégralité de l'image, tandis que ceux qui préfèrent profiter du plein écran utilisent le zoom du téléviseur mais perdent par conséquent une partie des bords de l'image.

Les autres modes d'affichage ne sont pas vraiment normalisés. Les formats d'image standards sont déclinés en un nombre variable de couleurs (16, 256, 65 536, 16 777 216, 4 294 967 296 et plus).

La fréquence de balayage est comprise entre 50 Hz et plus de 120 Hz. Tous ces affichages sont à balayage progressif bien que dans les plus hautes résolutions, il soit possible de trouver des modes entrelacés.

C'est à cause des fréquences de balayage différentes qu'il n'est pas possible de brancher un ordinateur directement sur un téléviseur, cela peut même entraîner la destruction du téléviseur. Par ailleurs, un encodeur couleur (PAL, SECAM ou NTSC) est nécessaire pour réaliser un enregistrement vidéo d'une image informatique. C'est pour cela que certains ordinateurs sont dotés d'une sortie vidéo indépendante de la sortie destinée au moniteur.

La vidéo, à travers l'art vidéo, connait une pratique artistique depuis les années 60 environ.

En haut



Video Home System

Agrandir afin de voir la résolution des vidéos obtenue avec une cassette VHS (240 pixels de hauteur).

L’expression anglaise Video Home System (système vidéo domestique), plus connue sous son sigle VHS, désigne une norme d’enregistrement de signaux vidéos sur bande magnétique de 1/2 pouce mis au point par JVC à la fin des années 1970. Sa diffusion grand public fut annoncée en 1976. La durée d’enregistrement des cassettes commercialisées dans ce format peut être de 2 heures (cassette E-120), 3 heures (E-180), 4 heures (E-240) et même 5 heures (E-300). Il faut remarquer que le défilement de la bande est plus rapide au format NTSC américain. De ce fait, la durée des cassettes vendues aux États-Unis est plus faible, entre 2 h (T-120) et 3 h 30 (T-210). Mais certains magnétoscopes au format NTSC peuvent enregistrer et lire à demi vitesse (SP), ou même au tiers de la vitesse de défilement (EP ou SLP) de la bande, multipliant ainsi par 2 ou par 3 la durée (jusque 10 h 30 avec une T-210). En Europe, la durée peut être portée par le même système jusqu’à 12 h avec une cassette E-240 (15 h avec une E-300). Cette augmentation de durée se fait évidemment au détriment de la qualité.

Durant les années 1980 et 1990, le VHS est la norme la plus commune pour la vidéo familiale à travers le monde entier. Son utilisation se borne à la large diffusion et à l’enregistrement des émissions de télévision pour les particuliers. Son successeur est le DVD.

Dans les années 1980, le VHS s’est imposé comme la norme de la vidéo grand public face à ses concurrents : le Betamax de Sony et le V2000 de Philips.

Le VHS offre une qualité d’image bien inférieure aux supports numérique. Les premières générations avaient un son mono avec un faible rapport signal/bruit et une mauvaise bande passante. L’apport du mode Hi-Fi stéréo a permis de bénéficier d’un son de meilleure qualité. Cette norme subsiste encore 30 ans après sa création car elle a deux avantages : son universalité et son prix.

Avec l’apparition des DVD enregistrables et d’appareils permettant d’enregistrer des programmes télévisés sur disque dur, le VHS décline dès le début des années 2000. Il est peu à peu abandonné pour les publications de films au profit des DVD. Pour l'anecdote, en 2008, le film « Bienvenue chez les Ch'tis » est vendu en DVD, mais son succès est tel qu'il l'est aussi en VHS, alors que ce format est pratiquement abandonné depuis quelques années.

En haut



Google Video

Google Video est un service de partage et de visionnage de vidéos proposé par Google et disponible en français depuis le 12 juillet 2006.

L'envoi et la recherche ainsi que le visionnage de vidéos ont été simplifiés au possible. Il suffit de taper un mot-clé (comme pour un moteur de recherche normal) et Google trouve automatiquement toutes les vidéos hébergées sur le site qui se rapportent de près ou de loin au mot indiqué.

Les vidéos proviennent directement du site Google Video et ne sont donc pas recherchées sur Internet. Le site possède son propre lecteur vidéo, Google Video Viewer, une extension disponible pour Internet Explorer et Firefox, avec lequel on peut regarder directement en ligne la vidéo si celle-ci n'est pas payante. La vidéo sera au format "gvi" et pourra être lue uniquement avec le lecteur Google.

Google Video propose aussi bien des vidéos payantes (clips vidéo, films, séries télévisées américaines ABC, NBC, CNN, AOL) que des vidéos gratuites mises en ligne par les utilisateurs, grâce au "Google Video Uploader", logiciel gratuit téléchargeable après avoir créé un compte Google (gratuit).

En plus de pouvoir mettre la vidéo sur son site internet, il y a possibilité de la télécharger au format Mac/PC, « iPod vidéo », et PlayStation Portable.

Chaque personne qui propose une vidéo sur Google Video peut modifier ses caractéristiques (gratuite, payante, téléchargeable...) et peut voir les statistiques de sa vidéo : le nombre de fois que celle-ci à été visualisée et téléchargée. On notera qu'il faut compter environ un jour pour voir apparaître sa vidéo sur l'index de Google.

Le 9 octobre 2006, Google rachète YouTube pour un montant de 1,65 milliards de dollars en actions, ce qui constitue à l'époque la plus grosse opération d'acquisition de Google (montant dépassé depuis le rachat de DoubleClick). Au terme de cet accord, YouTube conservera son nom, ainsi que ses 67 employés, dont les co-fondateurs Chad Hurley et Steve Chen.

Le blog officiel de Google Video a annoncé le 14 janvier 2009 que l'envoi de vidéos serait suspendu dans quelques mois.

En haut



Original Video Animation

Une Original Video Animation (souvent abrégée en OVA, traduction littérale : animation vidéo originale) est une production d'animation de différents formats, court-métrage, moyen métrage ou long-métrage destiné à l'exploitation sur support vidéo (VHS, Laserdisc, DVD, Blu-Ray Disc, ...) sans diffusion télévisuelle ni cinématographique préalable. Ce terme est surtout employé pour désigner les dessins animés japonais, les Américains préférant le terme direct-to-video. Contrairement à certaines idées, les Direct-to-video ne sont pas des productions diminuées à qui l'on a refusé l'exploitation en salle. Les films sont produits pour un public souvent minoritaire aux goûts particuliers. L'exploitation sur support permet d'aligner avec précision les frais de commercialisation.

Le terme Original Animation Video (OAV, traduction littérale : vidéo d'animation originale) en est un synonyme, plus souvent utilisé en Europe et aux États-Unis. C'était le terme utilisé à l'origine au Japon, qui n'est plus utilisé aujourd'hui à quelques exceptions près. En effet, l'abréviation OAV ressemblait trop à celle des vidéos pornographiques, dénommées là-bas Adult Video (AV), et a donc été remplacée pour éviter des confusions possibles qui auraient pu indisposer les clients.

La demande en anime est vite devenue massive au Japon, à tel point que de nombreux consommateurs allaient acheter les nouvelles séries dès leur sortie. Les magnétoscopes étant un équipement très répandu dans les ménages japonais, l'idée de sortir certaines œuvres directement sur le marché de la vidéo germa très vite. Ainsi, beaucoup de séries furent produites pour être vendues, et elles trouvèrent rapidement un marché. Si le terme direct-to-video est devenu relativement péjoratif aux États-Unis, sous-entendant des productions ne méritant même pas un passage au cinéma, les OVA sont devenues au Japon une nécessité à cause de la demande, et nombre d'entre elles ont fait la preuve de leur qualité, au point même, pour certaines productions ambitieuses, de dépasser largement celle des séries TV.

De nombreuses séries populaires comme Bubblegum crisis et Tenchi muyo! sont sorties directement en vidéo comme OVA. Bien que les direct-to-video soient apparues vers la fin des années 1970, Dallos, le premier anime OVA, fut réalisé en 1983 par Mamoru Oshii. D'autres sociétés suivirent également et le marché des OVA fut grandissant jusqu'au début des années 1990 où il diminua brutalement principalement en raison de la conjoncture économique japonaise. Il y a maintenant moins d'OVA originales, certaines faisant seulement suite à des séries télévisées, comme Hunter × Hunter.

En haut



Montage vidéo

Le montage vidéo consiste à sélectionner des images enregistrées sur un support non argentique et à assembler le tout en une suite cohérente. C'est l'une des opérations finales dans la réalisation de documentaires, téléfilms, reportages, vidéo clips, etc.

Depuis longtemps utilisé par le cinéma, pour les effets spéciaux en particulier, tout un chacun peut maintenant aussi utiliser l'outil informatique pour créer ses films de famille ou ses fictions et réaliser lui-même ses montages. Plusieurs logiciels sont d'ailleurs à sa disposition pour ce faire, certains gratuits, d'autres payants.

Jusque dans les années 2000, une régie composée d'un banc de montage multimachine disposait le plus souvent, outre des magnétoscopes, d'un éditeur de montage (Sony RME 400, RME 450, BVE 600, BVE 900, BVE 2000, BVE 9000, BVE 9100...), d'un mélangeur vidéo, d'une console de mixage et d'un multi effet (ADO 100, Sony DME 7000 ...) Depuis l'ère du numérique, les régies multimachines disparaissent peu à peu, laissant place aux stations de montage qui regroupent toutes ces fonctionnalités.

Pour les formats numériques grand public tels que le DV ou le HDV, la station de montage devra être équipée d'un port firewire (implémenté sur la carte mère ou sur une carte annexe) pour acquérir les cassettes vidéo et d'un stockage important, suivant les projets.

Le montage linéaire est historiquement la première forme de montage vidéo.

Cela consiste à utiliser deux magnétoscopes : un lecteur et un enregistreur, à mettre un support vide dans l'enregistreur (cassette) et y copier à la suite, de façon linéaire, les parties que l'on a sélectionné sur la source.

Ce type de montage était l'unique moyen d'assembler des images jusqu'à la fin des années 1980 et la technique du montage linéaire à été perfectionnée jusque-là.

L'ajout de ces différentes fonctionnalités prend de la place et de plus en plus les salles de montages ressemblent à des cockpits d'avions. Le terme de cinéma "Banc de montage" est récupéré par la télévision.

Le montage linéaire est encore couramment utilisé, dans les salles de nouvelles le plus souvent, pour sa rapidité et sa fiabilité. Mais avec l'arrivée en force de l'informatique, de nouvelles possibilités s'offrent aux monteurs.

Le montage non linéaire, ou montage virtuel, a été rendu possible en vidéo grâce à l'avènement de l'informatique.

Les images et le son sont enregistrés sur un serveur vidéo, directement dans le codec utilisé par le programme de montage, et peuvent être directement montés sur ce support. Par analogie, on peut comparer le montage non linéaire à un traitement de texte informatique et le montage linéaire à une mise en page par dactylo. L'insertion d'une nouvelle phrase dans un texte déjà tapé à la dactylo nécessite une restructuration de la mise en page plus ou moins fastidieuse, ce qui n'est plus le cas en traitement de texte informatique.

Il est désormais possible de déplacer des plans ou des séquences en cours de montage, comme en montage traditionnel en pellicule, grâce aux techniques de segmentation en plans. Ceci est difficilement réalisable dans le cas du montage linéaire.

Il existe deux facons de « monter » en non-linéaire. La première ressemble à du montage linéaire (Logiciel AVID). On choisi les séquences que l'on veut insérer puis on les « enregistre » sur la ligne de montage (Timeline). On peut toutefois quand même intégrer des séquences au milieu du montage en tout temps.

La seconde facon est le « Drag and Drop ». On choisi le clip à insérer puis on le glisse sur la ligne (timeline). Pour déplacer les clips déjà sur la ligne, on les sélectionne et les glisse à l'endroit désiré, ce qui ne peut se faire de cette mainière dans la première méthode. Le drag and drop est beaucoup plus facile d'usage pour des non-expérimentés.

Dans tous les cas, le montage linéaire permet l'édition à la volée de certains évènements en direct (comme le sport), en évitant toute perte de temps car on évite le transcodage, et la diffusion dès que le montage est terminé.

Aussi appelée "importation", "capture", "numérisation", "digitalisation", "input" ou encore "ingest" elle permet de transférer les données vidéo depuis un caméscope, un magnétoscope ou un faisceau satellite vers le disque dur de l'ordinateur ou un serveur vidéo.

Dans les formats grand public, il faut tout d'abord relier le caméscope à l'ordinateur. Dans le cas d'un caméscope numérique, la connexion se fait de préférence par le port IEEE 1394 (appelé aussi Firewire chez Apple ou i-Link chez Sony), qui est présent sur la plupart des ordinateurs récents et en standard d'origine sur les Macintosh Apple. Dans les autres cas, par l'intermédiaire d'une carte ou d'un boîtier externe d'acquisition présent sur le marché.

Sous Linux, le service video4linux, généralement installé par defaut permet l'acquisition d'image ou de vidéos, pour la gestion du IEEE 1394, selon les distributions, il faut installer les paquets correspondants ou elles sont installées par défaut, ou lorsqu'on installe un logiciel de montage spécialisé DV, comme Kino.

Sur Windows XP, le service WIA permet l'acquisition d'images sans installation de pilotes supplémentaires à partir de certains caméscopes compatibles. Sinon, il faudra installer le driver du caméscope pour pouvoir transférer les images sur le PC.

Dans le milieu professionnel, la numérisation (ou digitalisation), notamment en fiction, ne consiste pas uniquement à capturer des images. Il faut faire un dérushage c'est-à-dire nommer chaque plan (par le numéro du clap), décrire brièvement la nature du plan (Plan large, Plan moyen, travelling, pano ...) et l'action (description de la scène et des personnages). On se doit de choisir une qualité de numérisation (exemple en 1 pour 1 signifie que l'on numérise une image sans la compresser, en 10 pour 1 elle le sera), le bon format audio (analogique ou numérique etc...) et le codec. La numérisation, lorsqu'elle est effectuée correctement permet donc de faire gagner un peu de temps au monteur qui prendra la suite...

Avec certains serveurs (voir XT), il est possible de directement acquérir les images dans la définition (HD ou SD) et le codec utilisés par le logiciel de montage, de déjà réaliser un pré-montage (rough cut), d'insérer rapidement certaines métadonnées (et même de façon automatique, comme la date, le jour, l'heure, ..) et certains commentaires pour les monteurs. Ceci a comme avantage notable de permettre le début de l'édition et du montage dès le début de l'acquisition et de ne pas attendre la fin de celle-ci pour commencer le montage. Il en résulte un net gain de temps.

Le mixage permet d'ajouter des commentaires audio, de la musique ou des bruitages grâce aux fonctions du logiciel de montage (soit en les enregistrant avec le caméscope et en les important, ou en les numérisant à la demande), ce qui permet d'appuyer le sens narratif des images, voire d'imposer un style particulier (décalage de sens, voix-off, musique d'ambiance).

Dans le milieu professionnel, le mixeur est un artiste à part entière qui doit gérer tous les éléments sonores qui arrivent sur sa console ( sons directs, bruitages, montage son, musiques ). Ainsi le mixage n'est pas qu'une gestion de potentiomètres et de niveaux, il inclut une sensibilité qui doit être mise en oeuvre pour privilégier certains sons, créer des effets sonores, moduler la musique pour l'intégrer parfaitement aux autres bandes son, bref créer une harmonie pour rendre un mixage unique pour chaque film. C'est la haute couture du son, tout est millimétré au moment du mixage suivant les éléments sonores qui vont composer le film.

Suivant le format de la production finale, on code (convertit) le montage effectué soit en AVI ou dans différents formats MPEG (pour une production finale sur CD ou DVD), ou encore dans des formats comme DivX, .mov (lu avec Quicktime) ou Windows Media Player ou Real Media (.rm généralement). Ces trois derniers formats sont surtout utilisés pour la vidéo en ligne (streaming en anglais). Dans certain cas, on peut choisir le débit et/ou le nombre d'images/seconde suivant la qualité que l'on désire.

Si on souhaite diffuser sa production sur cédérom ou DVD (à condition de posséder un graveur), on utilise alors un logiciel de gravure. Le cédérom ou le DVD pourra dans certains cas être lu sur un lecteur DVD de salon (faire des tests au préalable pour en vérifier la compatibilité). Ils peuvent aussi être lus sur ordinateur avec des logiciels (gratuits ou payants) de lecture de cédéroms ou DVD. Le logiciel de gravure peut avoir un modèle prédéfini pour graver en VCD, SVCD ou encore DVD avec menu interactif ou non, simple couche ou double couche.

Une exportation est aussi possible en DV AVI vers le caméscope qui possède une entrée DV (ce n'est pas la généralité en France et certains pays d'Europe : taxe sur les entrées vidéos). En perte de vitesse, le système VHS pouvait aussi accueillir le montage terminé si l'ordinateur possède une carte avec sortie analogique.

Le montage vidéo par ordinateur est devenu à la portée de presque tout le monde puisqu'il a été simplifié, rendu plus intuitif.

Des logiciels de montage sont généralement fournis avec le caméscope, la carte ou le boîtier externe d'acquisition. Certains autres sont payants.

Ils permettent le plus souvent d'intégrer des transitions, des titres, parfois des effets spéciaux, des corrections de niveaux vidéo, colorimétrique ou audio, de modifier la vitesse des images...

En haut



Source : Wikipedia