Glossaire
- AES/EBU
Interface audio numérique professionnelle.
- AIFF
Format de fichier audio développé par Apple.
- ANTI-CRENELAGE
Procédé de traitement d’image numérique qui supprime les crénelages et lisse les lignes, en particulier pour éviter que les diagonales n’apparaissent comme des escaliers.
- ATSC (Advanced Television Systems Commitee)
Diverses propositions de systèmes de télévision haute définition US dont le point commun est que l’image est codée en MPG2 et le son en Dolby AC-3.
- AVI (Audio Video Interleaved)
Format d’image animée Microsoft (l’équivalent sur PC du Quick Time d’Apple).
- BIT
Information minimale en informatique qui ne peut recevoir que 2 états : 0 ou 1 (A ne pas confondre avec byte ou octet).
- BLU-RAY OU BD
le disque Blu-ray ou Blu-ray Disc (abréviation officielle BD) est un support numérique, tout comme le DVD, permettant le stockage d’une très grande capacité d’information. Il est idéal pour la diusion de programme HD. Sa dénomination provient du type de rayon laser qu’il exploite, de couleur spectrale proche du bleu. La version enregistrable se nomme BD-R et la version ré-inscriptible BD-RE.. La taille des supports (disques de 12 cm et 8 cm de diamètre) : – BD-R et BD-RE (ré-inscriptible) : 25 Go (7.8 Go pour les disques de 8 cm) – BD-R double-couche : 50 Go (15.6 Go pour les disques de 8 cm) Supporte les Codecs MPEG2 et MPEG4. Enregistrable dans des résolutions allant de 720×576 jusqu’à 1920×1080. Intègre un mode interactif nommé : BD-J.
- BMP (Bitmap)
Format de fichier développé par Microsoft pour le codage d’image fixe.
- BNC (Bayonett Conector)
Connecteur à baïonnette utilisé en particulier pour les connexions vidéo composite ou composante (1 à 3 connecteurs simultanés).
- BOBINE LABORATOIRE (Lab roll)
C’est l’assemblage de plusieurs bobines caméra mises bout à bout en vue du passage au télécinéma.
- BUS
Liaison interne d’un micro-ordinateur, reliant la carte mère aux diverses cartes et autres périphériques. Cette liaison peut se faire sur 8 fils (8 bits), 16 fils (16 bits) etc. Il existe plusieurs standards comme le Nubus, le PCI, le PCX…
- CACHE (Matte Key)
Incrustation d’aprés un signal de découpe extérieur, qu’il provienne d’un signal vidéo séparé, ou soit inclus dans un fichier.
- CANAL ALPHA (Alpha Channel)
Signal complémentaire qui est utilisé pour définir une incrustation. En général intégré dans un fichier graphique.
- CCIR
Comité Consultatif International des Radiocommunications.
- CHROMINANCE
La partie d’un signal vidéo en composantes qui contient spécifiquement l’information de couleur.
- CLIENT
Une application qui envoie des requêtes auprès d’un serveur pour
obtenir des informations ou faire réaliser une tache en son nom. Les clients et les serveurs communiquent par des protocoles particuliers qui leur permettent de se trouver sur des plates-formes différentes. - CODEC (Compression / decompression software)
La compensation est un moyen de créer un signal vidéo 50 Hz à partir d’une image film tournée en 24 i/s. Le télécinéma ajoute 1 trame toutes les 12 images, et donc 1 image toutes les 24, ce qui crée un léger défaut stroboscopique. (Dans les pays en 60 Hz, il faut passer de 24 à 30 i/s, la compensation est dites «3:2», c’est-à-dire qu’on ajoute une trame toutes les deux images.
- COMPOSANTES (component)
Un des états du codage de la vidéo après le RVB, elle se trouve encore sous la forme de trois signaux diérents : la luminance (y) et la chrominance (R-Y et B-Y, respectivement appelées Cr et CB – la terminologie «YUV» est en fait spécifique au Betacam).
- COMPOSITE
Un des états du codage de la vidéo, elle se trouve sous la forme d’un signal unique, dans lequel la luminance et la chrominance sont mélangées, et qui existe selon plusieurs standards : NTSC (30 i/s), PAL ou SECAM (25 i/s).
- COMPOSITING
Fonction de trucage qui permet de combiner plusieurs éléments d’image pour en créer une nouvelle qui sera l’assemblage des différents médias intégrés ou « couches ».
- COMPRESSION
Opération qui consiste à réduire la quantité d’informations nécessaires pour coder de l’image ou du son. La compression peut se faire par simple suppression des informations redondantes, auquel cas l’information peut être ensuite reconstituée sans perte d’information (lossless). C’est le cas en particulier de la compression informatique) où l’on travaille sur un flux numérisé pour en diminuer son poids.
Ou utiliser des algorithmes qui tirent parti d’études psychophysiologiques sur la vision humaine, mais qui suppriment une partie des informations originales (LOSSY).
Cette dernière peut se faire de multiples manières :
– Spatiale ou intra image : quand dans une image il y a une plage uniforme, on n’est pas obligé de conserver individuellement l’information de chaque pixel. On se débarrasse donc des informations qui sont redondantes à l’intérieur même de l’image- Temporelle ou inter image : d’une plage d’image à la même plage de l’image suivante, il n’y a parfois pas de changement et il est inutile de se répéter. On se débarrasse donc des informations qui n’ont pas changé depuis l’image précédente.
Tous les systèmes numériques utilisent la compression intra image, comme la plupart des nouveaux formats numériques. La méthode inter image est utilisée aujourd’hui par le Betacam Digital et par des systèmes de diffusion essentiellement.
Les taux de compression se notent «2:1», «3:1» etc.., ce qui signifie que le nombre d’octets nécessaires pour coder une image a été respectivement divisé par 2, par 3 etc.… - CRENELAGE (Aliasing)
Défaut dans l’image qui donne un aspect crénelé. (aussi appelé «effet
d’escalier»). - CSDI (Compressed Serial Digital Interface)
Interface qui permet de communiquer d’un équipement à un autre le signal DV sous sa forme numérique compressée avec l’audio, le time code, et des commandes. Ce signal est mis sous forme série pour pouvoir être transmis sur un câble unique, de type BNC, et permet des transferts à 4 fois la vitesse nominale (DVC pro).
- D1
Format de magnétoscope numérique qui enregistre un signal 4:2:2 non compressé. Malgré sa haute qualité, c’est un format relativement peu utilisé à cause de son prix
- D2
Format de magnétoscope numérique qui enregistre un signal composite numérique (PAL ou NTSC). Conçu pour remplacer les anciens magnétoscopes 1 pouce, la qualité potentielle du numérique est limitée par l’utilisation d’un signal composite , avec tous les problèmes qu’il pose (séquence couleur, cross-color, etc.), et ce format est donc peu répandu.
- D3
Format de magnétoscope numérique qui enregistre un signal composite numérique (PAL ou NTSC). On y rencontre les mêmes problèmes qu’avec le D2, mais les cassettes plus petites (1/2 pouce) ont permis de développer un caméscope.
- D5
Format de magnétoscope numérique qui enregistre un signal 4:2:2 non compressé, et qui est capable de relire les cassettes du D3.
- D6
Format de magnétoscope numérique qui enregistre un signal numérique haute définition non compressé, aussi bien au format européen qu’au format Japonais.
- DCT (Discret Cosine Transform)
C’est la première étape de la quasi totalité des systèmes de compression : l’image est divisée en bloc de 8 x 8 pixels, qui sont transformés en informations de variation de fréquence. Au lieu d’avoir une information sur les pixels eux-mêmes, on a une information sur leurs variations de l’un à l’autre. Le procédé ne fait perdre aucune information de départ (lossless compression) : l’image peut être entièrement reconstituée.
- DEFORMATION (Warp)
Fonction disponible sur les systèmes de trucages qui permet de déformer une partie d’images selon les contraintes diverses.
- DEROULANT HORIZONTAL (Crawl)
Défilement horizontal et régulier d’un titre.
- DEROULANT VERTICAL (Roll)
Défilement vertical et régulier d’un titre.
- DOLBY E
Le dolby E est une technologie développée par les laboratoire Dolby© qui permet de compresser 8 pistes audio discrètes dans un seul flux stéréo, soit un 5.1 et une paire stéréo. Cet encodage est maintenant rendu obligatoire dans la remise des PAD Haute définition (HDCAM etc…) aux chaînes de télévision même pour une diffusion stéréo.
- DIFFUSABLE (Broadcast)
Qualité d’image suffisante pour être utilisée au moment de la diffusion du programme (synonyme de ONLINE).
- DVD Vidéo (Digital Versatile Disk)
Disque compact d’une capacité de 4,34 à 8,6 GO sur une ou deux faces et qui comporte en plus du son multi canal (AC 3 ou DTS) de l’image codée en MPG2. Ce standard supporte les formats 4/3 et 16/9. Le DVD vidéo propose 4 tailles différentes, le DVD 5 ou une couchede 4,34 Go – le DVD 9 ou 4,34 Go multiplié par deux couches sur une face, le DVD 10 ou une couche de 4,34 Go par face sur deux faces et le DVD 18 ou deux couches par faces sur deux faces. (ce dernier n’étant pas utilisé car trop de contraintes techniques pour son élaboration).
- DLT
Enregistreur sur cartouche permettant la livraison au pressage des couches pour le glassmaster des DVD et également de sauvegarder de gros volumes, comme les fichiers média. Avec le DLT 35, on peut mettre 35 Go sur une cartouche. Le temps de transfert est d’environ 16 GO/h.
- DV (Digital Video)
Le DV est un format d’enregistrement sur bande, en vidéo numérique compressé (5:1), défini conjointement par de nombreux constructeurs d’équipements vidéo.
Il se décline en plusieurs formats :
– Le DV grand public.
– Le DVCam, un format professionnel proposé par Sony
– Le DVCPro, un format professionnel proposé par Panasonic.
Mais dans tous les cas l’appellation DV, qu’elle soit à destination du grand public ou des professionnels, désigne la manière dont les signaux vidéo et audio sont inscris sur la bande. - DVCAM
Format développé par Sony à partir du DV. Utilise le 4:2:0 compressé en 5:1 pour le 25i/s, et le 4:1:1 pour le 30 i/s.
- DVCPRO
Format développé par Panasonic à partir du DV. Il existe un DVCPro 25 qui utilise le 4:2:2 compressé en 3:1.
- DVCS (DV Compression Serial)
Signal faible débit, 36 ou 72 Mb/s compressé DV, l’audio, le timecode,et des commandes, mis sous forme série pour pouvoir être transmis sur un câble unique, de type BNC.
- ETHERNET
Type de réseau local (LAN) utilisant des connecteurs RJ 45 :
10 Base-T : 10 Mb/s.
100 Base-T : 100 Mb/s .
1000 Base-T : 1 Gb/s.. - FLV
Format video utilisé par Flash.
- FRAGMENTATION
Caractère qu’on observe fréquemment sur les disques quand on procède à un grand nombre d’enregistrements puis d’effacement de master-clips, sans qu’on ait la possibilité de vider complètement les disques.
Dans ce cas les fichiers médias sont répartis un peu partout sur la surface du disque, et le prochain enregistrement va se faire en utilisant plusieurs «trous», ce qui va le découper en plusieurs fragments. Un disque très fragmenté peut empêcher la lecture des images, surtout quand on utilise les résolutions les plus hautes. On s’en débarrasse en consolidant , ou en faisant une simple copie de partition à partition. - GENERATION
On désigne par ce terme le nombre de copies subies par un signal vidéo. Un signal provenant d’une source vidéo (caméra) et enregistré pour la première fois sur une bande, est dit de génération 1 ; une bande sur laquelle on a copié cette bande de génération 1 est dites de génération 2 ; etc.
En général en vidéo analogique , on ne dépasse pas 4 ou 5 générations.
En vidéo numérique non compressée sur bande on obtient dans la pratique une vingtaine de générations.
En vidéo numérique non compressée sur disque, on pourrait atteindre des millions de générations (copies de disque à disque), mais cela n’a plus de sens, puisque un des avantages du non linéaire est d’éviter les copies. - GIGA OCTET
1024 Mégaoctets.
- GOP (Group of Picture)
Nombre d’images qui codent une séquence MPEG.
- HARMONISATION (Stretch)
Traitement du son qui permet, lorsqu’on allonge ou raccourcit un son, de retrouver les fréquences originales.
- IEEE-1394 (Firewire)
L’IEEE-1394 est une norme de connexion entre un ordinateur et ses différents périphériques. Conçue en 1986 par Apple, cette interfaceest maintenant utilisée par de nombreux constructeurs. Elle a commeavantage de :
– proposer une bande passante de 100 à 800 Mb ( à titre d’exemple,un périphérique DV requiert environ 30 Mb/s)
– connecter ensemble quelques 63 périphériques sans nécessiter denuméro d’identification (SCSI ID)
– permettre à ces périphériques de dialoguer ensemble sans passer par l’ordinateur;
– pouvoir les brancher ou débrancher en cours de travail sans avoir besoin d’éteindre et de redémarrer l’ordinateur ni les périphériques : on branche, et le périphérique est aussitôt opérationnel. (déconnexion à chaud).
En découvrant les avantages que cette interface présente, les constructeurs d’équipement vidéo numérique l’ont intégré à leurs équipements (caméscope, téléviseurs…), ce qui permet de les connecter facilement au monde informatique. Par exemple, certains camescopes dotés de cette connectique permettent de faire passer directement une image fixe sur quelques secondes de bande, sur le disque dur de l’ordinateur. L’IEEE-1394 peut donc transmettre un signal qui provient d’un magnétoscope DV, mais aussi bien d’autres formats.
Cependant, comme au moment de la conception du DV, l’IEEE-1394 était disponible et a été choisi comme interface, il y a souvent confusion entre ces deux termes. L’IEEE-1394 pourrait bien être le futur de la connexion audio, car il permet de faire passer à la fois des commandes MIDI et 32 canaux de son sur la même cible. - INCRUSTATION AVAL (Downstream Keyer)
Incrustation qui se fait par dessus tous les autres effets, donc au dernier étage du trucage.
- INCRUSTATION EN CHROMINANCE (Chroma Key)
Incrustation qui remplace un fond de couleur (souvent bleu ou vert) par une autre image.
- INSERTION (Insert)
1/ Mode de montage vidéo linéaire, contrairement au mode “assemble”, on enregistre sur des pistes préalablement enregistrées sans toucher aux pistes d’asservissement et de synchronisation.
2/ En montage non linéaire, mode de montage qui permet d’intercaler un élément nouveau au milieu d’une séquence et d’en repousser la fin sans la modifier – ce qui typiquement ne peut pas faire une «insertion» dans un montage linéaire. - INTER-IMAGE (Interframe)
Type de compression qui ne se fait pas seulement image par image, mais qui s’étale sur une séquence d’images – comme le MPEG.
- INTERPOLATION (Interpolate)
Traitement numérique d’images, des pixels sont intercalés ou créés par un calcul utilisant les pixels voisins. Ce procédé est utilisé notamment dans des zooms sur une image, sur des effets de vitesse variable, chaque fois qu’on change la taille ou la fréquence des images.
- INTRA-IMAGE (Intraframe)
Type de compression qui traite chaque image séparément.
- ITU (International Telecommunication Union)
Auparavant «CCIR». Organisme dépendant des Nations Unies, et définissant différents standards de télécommunications dont le 4:2:2.
- JPEG (Joint photographique experts group)
Format de compression des images basé sur des études portant sur la façon dont l’homme interprète les images qu’il voit, de manière à rendre les pertes d’informations aussi peu perceptibles que possible.
Le JPEG est un des standards basés sur le DCT. Mais ensuite, d’un constructeur à l’autre, le standard JPEG sera lui-même utilisé selon des algorithmes propriétaires.
Cette compression est composée de 6 étapes :
1> L’image est décomposée en blocs de 8 x 8 pixels
2> Application de la DCT qui transforme le précédent bloc en une matrice de 8 x 8 toujours, mais qui représente maintenant les variations de fréquence dans l’image.
3> Quantification : on divise la matrice selon un facteur qu’on choisit, afin de réduire la quantité d’information. C’est à ce stade seulement qu’on perd des informations d’image (LOSSY COMPRESSION)
4> Balayage en zigzag de la matrice, de façon à commencer par les basses fréquences et à terminer par les plus hautes.
5> Codage à longueur variable : il consiste essentiellement à se débarrasser des zéros inutiles.
6> Codage entropique : on va coder les éléments selon leur fréquence, les éléments les plus fréquents ayant les codes les plus courts - KILO-OCTET (Kilo Byte)
1024 octets.
- KILO-OCTET PAR SECONDE (Kilo Byte per Second)
Débit dans un transfert numerique.
- KINESCOPE
Appareil permettant de transcrire une image en provenance d’une bande vidéo sur une image film. (le KINESCOPAGE).
- LTC (longitudinal Time Code)
Signal de timecode enregistré dans une piste linéaire du magnétoscope, de même type qu’une piste audio (on ne peut l’entendre comme un son grésillant).
- LUMINANCE
La partie d’un signal vidéo en composantes qui contient spécifiquement l’information d’intensité lumineuse, sans la couleur (c’est la partie «noir» et «blanc» du signal vidéo).
- MEGAOCTETS (Mega Byte)
1024 Kilo-octets.
- MEMOIRE VIVE (Random Access Memory ou RAM)
La mémoire qu’un ordinateur utilise pour stocker provisoirement les informations qu’il traite.
- MIDI (Musical Instrument Digital Interface)
Protocole qui transmet à un appareil comment jouer un morceau de musique.
- MJPEG (Motion JPEG)
Le MJPEG est le nom d’une norme JPEG adaptée aux images vidéo entrelacées. Ce n’est pas un standard différent et, contrairement à une idée répandue, ce n’est pas un codage inter image : chaque image est traitée indépendamment des précédentes comme des suivantes.
- MODULE EXTERNE (Plugin)
Extension logicielle qui vient compléter les fonctions d’un système
- MONTAGE MAQUETTE (Off Line Editing)
Premier montage réalisé avec une qualité d’image inférieure, soit pour utiliser des équipements moins chers, soit pour travailler avec une résolution qui prend moins de place sur les disques durs de l’ordinateur de montage virtuel.
- MONTAGE NON-LINEAIRE (Non Linear Editing)
Aussi appelé montage virtuel. Après avoir enregistré des images sur des disques informatiques, les opérations de montage se résument à donner des ordres de lecture : il n’y a plus besoin, pour matérialiser le montage, ni de copier les images comme en vidéo, ni de les déplacer comme en film.
Le montage n’a donc pas de réalité physique, et on peut accéder à tout instant à n’importe quelle partie des rushes ou des séquences (par opposition aux systèmes linéaires qui nécessitent le déroulement d’une bande pour y parvenir). De même on peut avoir autant de versions qu’on veut d’une séquence, puisque toutes font appel aux mêmes médias.
La qualité des numérisations permettent aujourd’hui de travailler directement en On-line avec des taux de compression de 1:4 en 360 kb/i ou 2:1 en lossless sur Média 100 XS. sur Média 100 844X le taux de compression est nul et le codage de l’image se fait sur 10 bits au lieu des 8 bits habituels. - MP@ML (Main Profile @ Main Level)
Une des sous normes MPEG2, qui est utilisée en diffusion, pour le DVD par exemple.
- MPEG (Motion Pictures Experts Group)
Standard de compression des images et des sons.
La compression se fait sur une séquence d’images (inter images ou GOP), par exemple 12. Le système stocke d’abord une image complète, puis seulement ce qui s’est modifié dans la seconde image. Régulièrement le système stocke à nouveau une image complète pour se débarrasser des erreurs qui pourraient s’être propagées.
Si l’on rentre un peu plus dans le détail, la compression MPEG se compose de 3 types d’images :
1> Les images I (intraframe coded frame) sont codée en intra – image comme une image JPEG. Elles sont indépendantes des autres.
2> Les images P (predicted frame) sont prédites depuis une image I ou une autre image P. Quand on observe par exemple la suite de nombres 3-6-9-12-15…, on peut prédire que les nombres qui vont enchaîner seront 18-21-24…. Quand on reconnaît les variations qui se produisent d’une image à l’autre, on peut prédire celles qui vont suivre. Le taux de compression des images P est plus grand que celui des I.
3> Les images B (bi-directionnal frame), l’image est interpolée à partir des images I ou P qui l’entourent. C’est sur les images B que le taux de compression est le plus fort.
Typiquement, une séquence MPEG à 12 images (GOP 12) se compose de : I-B-B-P-B-B-P-B-B-P-B-B-I-B…
Il existe plusieurs standards : MPEG1, MPEG2….. Le MPEG1 a été conçu à l’origine pour travailler à 1,2 MB/s et pouvoir ainsi être lu d’un cd-rom mais la qualité est reste faible et l’encodage ne se fait que sur une seule trame des deux utilisés en vidéo de plus la taille de l’encodage est normalisée à 352×288 soit la moitié d’un format vidéo normal type D1.
Le MPEG2 a été prévu pour couvrir une large fourchette de qualités, depuis le VHS jusqu’à la télévision haute définition (hdtv). Il se décline selon une série selon une série d’algorithmes (profiles) et de résolutions (levels).
Deux combinaisons sont effectivement rencontrées : le MPEG2 MP@ML (débit de 15 MB/s et GOP 12 en PAL) qui ne peut servir qu’à de la diffusion, et le MPEG2 422@ML (débit de 50 MB/s et gop2) qui sert à des applications de montage ou d’archivage haute qualité. - MPEG4
Contrairement au MPEG-2 qui visait uniquement des usages liés à la télévision numérique et au DVD, les usages du MPEG-4 englobent toutes les nouvelles applications vidéo comme le téléchargement et le streaming sur Internet et sur les téléphones portables, la radio numérique, les jeux vidéo, la télévision et les supports haute définition.
Le MPEG-4 se décompose en une suite de normes, les parties, qui spécifient un type de codage particulier. Dans chaque partie plusieurs profils (collection d’algorithmes) et niveaux (contraintes quantitatives) sont définis. Par exemple le H264 ou MPEG-4 AVC (Advanced Video Coding) permet des compressions 2 fois inférieures au MPEG 2 voir plus, sans perte de qualité.
En Europe, l’organisation de standardisation Digital Video Broadcast (DVB) a approuvé le H.264/AVC pour la diffusion de la télévision en Europe dès la fin 2004. En France il a été adopté pour équiper les récepteurs de toutes les Télévisions HD, il est diffusé obligatoirement sur la TNT pour tous les programmes payants. - NTSC (National Television System Committee)
Signal Composite principalement utilisé en Amérique du Nord, au Japon…
- NUMERISATION (Digitalisation)
Opération par laquelle on transforme un signal analogique en signal constitué uniquement d’octets (0 et 1). A une fréquence d’échantillonnage fixe, selon une échelle définie par le nombre d’incréments, on va mesurer le signal analogique et l’exprimer sous la forme de suites de nombres.
- OCTET (Byte)
Unité informatique composée de 8 bits.
- OMF (open media framework interchange)
Format de fichier, qui permet d’échanger des médias numériques entre des plates-formes hétérogènes d’un Macintosh à un PC, ou un Silicon Graphics par exemple.
- PAL (Phase Alternate Line)
Signal composite utilisé en Europe pour la production et la postproduction. Il existe un projet de «PAL plus» qui, à l’intérieur de la bande passante d’un signal PAL normal, loge un signal au format 16/9 tout en laissant une compatibilité possible pour les moniteurs 4/3.
- PARTITION
Quand on formate un disque, on peut le diviser en plusieurs unités logiques à des fins d’organisation personnelle. On peut changer la taille des partitions mais dans ce cas, on perd tout ce qui était enregistré sur le disque.
- PIXEL (Picture Element)
Point élémentaire de l’image. Cette notion est valide en image numérique. En image chimique, on parle plutôt du nombre de traits au millimètre. Il existe deux types de pixels, ceux qui sont carrés et ce qui ne le sont pas. Les écrans vidéo comme les écrans d’ordinateur, ont un format de 4/3, soit 1,33. Quand les constructeurs d’ordinateur ont mis au point leur surface de travail, ils ont naturellement choisi des valeurs multiples de 4/3.
- PIXELISATION
Défaut de l’image numérique qui apparaît par exemple quand on la grossit ou quand on utilise une résolution trop faible.
- PRO TOOLS
Système Digidesign d’enregistrement audio, de montage, mixage et mastering 24-bit.
- QUICK TIME
Architecture Macintosh permettant de créer des fichiers contenant de la vidéo et de l’audio. (l’équivalent AVI sur PC).
- RAID (Redundant Array of Independent Disks)
Formatage particulier d’un groupe de disques qui permet d’augmenter le débit et/ou la sécurité des données.
- RAID 0
Formatage commun d’un ensemble de disques permettant d’augmenter le débit total du volume, mais n’offrant aucune redondance.
- RAID 2
Ensemble de 9 disques, où chaque bit de chaque octet est enregistré sur les 8 premiers disques, et un bit de parité sur le 9e.
- RAID 3
Ensemble de disques plus un disque supplémentaire, où les informations sont enregistrées sur des secteurs définis au travers des disques principaux, un secteur de parité étant constitué sur le disque supplémentaire. Si l’un des disques principaux tombe en panne, on peut le remplacer par un neuf, l’information qu’il contenait est reconstruite par calcul entre les autres disques et le disque de parité. C’est le système le mieux adapté pour les applications transférant de grosses masses d’informations, comme des applications vidéo.
- RAID 4
Même principe que le raid 3, mais adapté pour les applications transférant aléatoirement de petits volumes d’information, comme des applications de base de données.
- RAID 5
Comme le raid 4, mais le rôle du disque de parité est réparti sur tous les disques.
- REDUCTION DE BRUIT (Noise Reduction)
Opération qui supprime tout ou partie d’un bruit audio ou vidéo , en vue d’améliorer la qualité du signal et de sa compression.
- RESEAU ETENDU (Wide Aera Network ou WAN)
Un réseau d’ordinateurs qui se trouvent relativement éloignés, par exemple dans des villes différentes.
- RESEAU LOCAL (Local Aera Network ou LAN)
Un réseau d’ordinateurs qui se trouvent relativement proches, par exemple dans plusieurs bureaux d’un société.
- ROTOSCOPIE (Rotoscoping)
Travail image par image où l’on utilise une prise de vues réelles comme référence pour lui ajouter un graphique animé. Peut être utilisé soit pour des effets spéciaux, soit pour corriger des défauts d’image. (Associées à la rotoscopie, on trouve le plus souvent des fonctions d’automatisation des taches répétitives).
- ROUGE VERT BLEU ou RVB (Red Green Blue - RGB)
Les 3 signaux primaires créés par la caméra et qui seront restitués au moniteur vidéo pour affichage. Chacun de ces signaux électriques sont proportionnels à la quantité de la couleur correspondante qui se trouve dans la lumière.
- RS 422
Standard de communication série, permettant des connexions jusqu’à 300 m, et beaucoup utilisé en vidéo professionnelle pour transférer des ordres et des commandes entre des magnétoscopes, des contrôleurs de montage, des mélangeurs etc. Utilise d’ordinaire des connecteurs 9 broches.
- S-VIDEO
Un des états du codage après les composantes (yc), où la vidéo se trouve sous la forme de deux signaux différents : la luminance (y) , et la chrominance (c). A ce stade, le codage de la couleur à la norme PAL, SECAM ou NTSC est déjà fait.
- SDDI (Serial Digital Data Interface)
Signal transmettant la vidéo 4:2:2 compressée, l’audio, le time code, et des commandes mis sous forme série pour pouvoir être transmis sur un câble unique, de type BNC. On utilise la norme SDDI pour transmettre d’autres informations que la vidéo.
- SDI (Serial Digital Interface)
Signal transmettant la vidéo 4:2:2 sur 10 bits non compressée, 4 canaux audio, et le time code, mis sous forme série pour pouvoir être transmis sur un câble unique, de type BNC 75 ohm. Débit de 270 mo/s.
- SECAM (Séquentiel Couleur à Mémoire)
Signal composite utilisé en France, en Russie et quelques pays Africains uniquement pour la diffusion finale et la réception particulière.
- SERVEUR (Server)
Soit l’ordinateur, soit l’application qui répond aux requêtes d’un client en lui envoyant de l’information ou en exécutant une tâche à sa place.
- SYSTEME D’EXPLOITATION (OS)
Première couche logicielle d’un ordinateur qui gère les fonctions de base des autres applications. Sur Macintosh on trouve Mac OS 9 ou X, sur PC on trouve Windows NT, 2000 ou XP.
- TAUX VARIABLE (Variable Bit Rate ou VBR)
Compression qui utilise un nombre de kilo-octets par image variable, en fonction de sa complexité comme par exemple le Quick time Sorenson ou le Mepg 2 – ce type d’encodage permet de tirer au maximum le rapport qualité/poids de l’image.
- TCP/IP (Transmission Control Protocol and Internet Protocol)
Protocole qui permet la transmission d’un ordinateur à l’autre, aussi bien dans le cadre d’un réseau local (LAN) qu’au travers d‘Internet.
- TELEVISION A HAUTE DEFINITION
Format 16/9 et qui doublent la définition verticale et horizontale.
– Le format européen basé sur le 4:2:2, à 50 Hz, mais en 1280 lignes.
– Le format Japonais à 60 Hz en 1125 lignes.
– Le format Américain NTSC recouvre en fait plusieurs propositions différentes. - TELEVISION NUMERIQUE
Toute diffusion numérique, quel que soit son support (câble, satellite, hertzien).
- TEMPS REEL
Possibilité sur un système non linéaire de lire un effet sans avoir besoin de le calculer au préalable.
- TERA OCTET (Tera Byte)
1024 Giga Octets.
- TGA (targa)
Format de fichier image développé par Truevision, utilisé sur PC et MAC notamment pour les images de synthèses.
- TIFF (targed image file format)
Format de fichier image bitmap développé par Aldus, utilisé sur PC et MAC pour les images fixes.
- TIMECODE
Le timecode est un système de numérotation qui sert autant pour la vidéo que pour le son, mais il est de plus en plus utilisé également dans les systèmes film. Le timecode se base sur le comptage de temps. Il est généré à la prise de vues, il peut être dans certains cas modifié ultérieurement, et il n’est lu que par des machines. Le timecode se compose de deux numéros distincts : le timecode à proprement parler (code temporel) et les user’s bits (code personnel).
Dans le mot de time code, 8 chiffres définissent un numéro en heures, minutes, secondes, et images , par exemple 12:35:48:05. - TRANSFORMATION (Morph)
Fonction disponible sur les systèmes de trucage qui permet de partir d’une image pour la transformer en une autre image.
- TRUE TYPE
Format de police de caractères vectorielle, utilisé aussi bien sur PC que sur MAC.
- TV HD
Le terme HD s’étend à l’ensemble des technologies audiovisuelles numériques tels que HDV (grand public), HDCam (professionnel), télévision à haute définition (DVB-T, DVB-S, DVB-C, DSL TV…) ainsi que les supports Disque Blu-ray.
Chaque norme TVHD peut exploiter une variante d’affichage conforme aux standards vidéo historiques analogiques; le 50 Hz (conforme aux 25 images par seconde PAL ou Sécam) et le 60 Hz (conforme aux 30 images par seconde NTSC).
Résolution 1080 lignes de 1920 points en affichage entrelacé (1080i) à 50i pour l’Europe ou à 60i pour l’Amérique du Nord, l’Amérique du Sud et le Japon.
Résolution 720 lignes de 1280 points en affichage progressif (720p) à 25p pour l’Europe ou à 30p pour l’Amérique du Nord, l’Amérique du Sud et le Japon.
Cette deuxième n’ayant pas été retenue par le HDFORUM contrairement à l’avis de l’UER, ne se retrouve pas en diffusion en France. - TWISTER
Moteur de rendu d’objets 3D avec mise au point interactive incluant la nouvelle version de Mental Ray. Fonctionne avec Softimage 3D et tout autre logiciel 3D du marché.
- WAVE
Format audio développé par Microsoft, qui peut transmettre le son sous de nombreuses façons différentes, et qui contient un descriptif de la manière dont le son a été encodé.