Télévision, partie 9
Au milieu des années 1980, alors que les entreprises japonaises d'électronique grand public poursuivaient le développement de la technologie HDTV, le format analogique MUSE proposé par la société japonaise NHK était considéré comme un pionnier qui menaçait d'éclipser les technologies des entreprises d'électronique américaines. Jusqu'en juin 1990, la norme japonaise MUSE, basée sur un système analogique, était la favorite parmi plus de 23 autres concepts techniques à l'étude. Puis, une société américaine, General Instrument, a démontré la possibilité d'un signal de télévision numérique. Cette avancée a été d'une telle importance que la FCC a été persuadée de retarder sa décision sur une norme ATV jusqu'à ce qu'une norme numérique puisse être développée.
En mars 1990, lorsqu'il est devenu évident qu'une norme numérique était possible, la FCC a pris plusieurs décisions cruciales. Tout d'abord, la Commission a déclaré que la nouvelle norme ATV devait être plus qu'un signal analogique amélioré, mais être capable de fournir un véritable signal HDTV avec une résolution au moins deux fois supérieure aux images de télévision existantes. Ensuite, pour garantir que les téléspectateurs qui ne souhaitaient pas acheter un nouveau téléviseur numérique puissent continuer à recevoir des émissions de télévision conventionnelles, la FCC a imposé que la nouvelle norme ATV puisse être « diffusée simultanément » sur différentes chaînes. La nouvelle norme ATV a également permis au nouveau signal DTV de se baser sur des principes de conception entièrement nouveaux. Bien qu'incompatible avec la norme NTSC existante, la nouvelle norme DTV pourrait intégrer de nombreuses améliorations.
Les dernières normes adoptées par la FCC n'exigeaient pas de norme unique pour les formats de numérisation, les rapports d'aspect ou les lignes de résolution. Ce compromis résultait d'un différend entre l'industrie de l'électronique grand public (rejointe par certains diffuseurs) et l'industrie informatique (rejointe par l'industrie cinématographique et certains groupes d'intérêt public) sur lequel des deux processus de numérisation, entrelacé ou progressif, serait le mieux adapté aux nouveaux dispositifs d'affichage compatibles HDTV numériques. Le balayage entrelacé, qui avait été spécifiquement conçu pour les anciennes technologies d'affichage CRT analogiques, analyse d'abord les lignes paires, puis les lignes impaires. Le balayage entrelacé peut être considéré comme le premier modèle de compression vidéo. Il a été développé en partie dans les années 1940 pour doubler la résolution de l'image afin de dépasser les limites de la bande passante de diffusion télévisée. Une autre raison de son adoption était de limiter le scintillement sur les premiers écrans cathodiques, dont les écrans recouverts de phosphore ne pouvaient conserver l'image du canon à balayage électronique que pendant une durée relativement courte. Cependant, le balayage entrelacé ne fonctionne pas aussi efficacement sur les nouveaux dispositifs d'affichage tels que les cristaux liquides (LCD), par exemple, qui sont mieux adaptés à un taux de rafraîchissement progressif plus fréquent.
Le balayage progressif, le format que l'industrie informatique avait depuis longtemps adopté pour les écrans d'ordinateur, balaie chaque ligne en séquence, de haut en bas. Le balayage progressif, en effet, double la quantité de données générées pour chaque écran complet affiché par rapport au balayage entrelacé en peignant l'écran en un seul passage en 1/60 seconde au lieu de deux passages en 1/30 seconde. L'industrie informatique a fait valoir que le balayage progressif est supérieur car il ne « scintille » pas sur la nouvelle norme des dispositifs d'affichage à la manière du balayage entrelacé. L'industrie cinématographique a également soutenu le balayage progressif, car il offrait un moyen plus efficace de convertir les programmes filmés en formats numériques. De leur côté, l'industrie de l'électronique grand public et les diffuseurs ont fait valoir que le balayage entrelacé était la seule technologie capable de transmettre les images de la plus haute qualité alors (et actuellement) réalisable, c'est-à-dire 1 080 lignes par image et 1 920 pixels par ligne. Les diffuseurs ont également favorisé le balayage entrelacé, car leurs vastes archives de programmes entrelacés ne sont pas facilement compatibles avec un format progressif. William F. Schreiber, qui a été directeur du programme de recherche sur la télévision avancée au Massachusetts Institute of Technology de 1983 jusqu'à sa retraite en 1990, pensait que la défense continue des équipements entrelacés provenait des entreprises d'électronique grand public qui essayaient de récupérer les investissements substantiels qu'elles avaient faits dans la technologie entrelacée.
La transition vers la télévision numérique a commencé à la fin des années 2000. Tous les gouvernements du monde ont fixé comme date butoir l'abandon de l'analogique d'ici les années 2010. Au départ, le taux d'adoption était faible, car les premiers téléviseurs équipés d'un tuner numérique étaient coûteux. Cependant, à mesure que le prix des téléviseurs compatibles avec le numérique a chuté, de plus en plus de ménages ont commencé à passer à la télévision numérique. La transition devrait être achevée dans le monde entier d'ici le milieu ou la fin des années 2010.
Link 1
Link 2
Link 3
Link 4
Link 5
Link 6
Link 7
Link 8
Link 9
Link 10
Link 11
Link 12
Link 13
Link 14
Link 15
Link 16
Link 17
Link 18
Link 19
Link 20
Link 21
Link 22
Link 23
Link 24
Link 25
Link 26
Link 27
Link 28
Link 29
Link 30
Ajouter un commentaire