L'affichage sur Micro-Ordinateur


1ère Partie : LES ECRANS

L'écran est sans aucun doute l'élément le plus familier aux utilisateurs de micro-ordinateur. De fait, cet objet ressemble à s'y méprendre à un téléviseur : même forme, même fonction (afficher des images), même simplicité d'utilisation. Pourtant cet objet commun mérite que l'on s'intéresse à son principe de fonctionnement. A priori, il n'est rien d'évident lorsque l'on doit retranscrire sous la forme d'images de simples signaux électriques...

1.1 Les écrans cathodiques

Le principe est le suivant : trois faisceaux (un par couleur primaire) sont émis par une source électrique. L'intensité de chacun d'eux est fixée par les informations provenant de la carte graphique. Un jeu de lentilles assure ensuite la convergence de ces trois rayons. Ces derniers sont ensuite accélérés puis déviés, verticalement et horizontalement. C'est ainsi que l'on obtient le balayage de l'écran et la formation d'une image. Dernière étape, une grille perforée filtre les électrons assurant la convergence des faisceaux. Le rayon vient ensuite frapper la surface intérieure de l'écran. La combinaison des faisceaux d'électrons et de la couche de particules phosphorescentes crée un point lumineux de couleur variable. Ce point (appelé pixel) est en réalité la juxtaposition de trois points élémentaires (un pour chaque couleur primaire). Les teintes intermédiaires sont obtenues par le mélange des teintes primaires. L'intensité des faisceaux d'électrons détermine la couleur du pixel.


(schéma du principe de fonctionnement)


Connaître le mode de fonctionnement d'un écran à tube cathodique permet d'en apprécier les limites et de comprendre les divergences qui se font d'un modèle à un autre. Les points discriminants sont finalement peu nombreux mais suffisent à établir une hiérarchie très claire. La qualité de l'optique, c'est-à-dire du jeu de lentilles assurant la convergence des trois faisceaux d'électrons, est primordiale. La qualité du revêtement de l'écran également. De nombreux fabricants traitent d'ailleurs cette surface de manière à rendre la dalle en verre plus sombre et donc le rendu des noirs plus profond.

LE TRINITRON

Autour de ces principes, on note quelques variations. Ainsi, Sony a-t-il développé une technologie spécifique, appelée Trinitron. Ses apports concernent l'émission des faisceaux d'électrons (opération confiée à une source unique pour un meilleur alignement) et à leurs focalisations qui reposent sur l'utilisation d'une seule lentille de plus grande taille). La grille est ici, non plus percée d'innombrable trous, mais de fentes verticales. Ce système laissse filtrer davantage d'électrons, ce qui est le gage d'une luminosité accrue.
La supériorité des écrans équipés de tubes Trinitron n'est toutefois pas aussi évidente que ce modèle théorique le laisse supposer. D'autres facteurs pèsent d'un poids plus lourd. C'est le cas par exemple de la forme de la dalle en verre. L'irruption massive des écrans à surface plane et aux coins carrés a permis d'optimiser le confort visuel et la qualité d'affichage. Les progrès concernent la moindre déformation de l'image dans les angles et une meilleure tolérance quant à l'angle de vision. En réalité, deux paramètres principaux qualifient un écran : sa taille et sa résolution maximale. Ils ne sont pas forcément liés, même si un moniteur de très petites dimensions ne peut pas afficher de hautes résolutions (c'est-à-dire un nombre important de lignes et de colonnes). Concernant la résolution, un autre facteur intervient : la bande passante, qui indique si l'écran est compatible avec les différentes normes graphiques. Chaque norme impose, en effet, des fréquences de balayage horizontale et verticale différentes. Plus la résolution est élevée, plus l'électronique du moniteur doit être performante.
Autre point important, la nature des signaux qui parviennent à l'écran. Le mode analogique RGB est utilisé par les normes d'affichage récentes. Tous les moniteurs disposent d'ailleurs d'une entrée analogique. Toutefois, certaines cartes graphiques anciennes gèrent des normes désormais obsolètes (EGA, CGA) dont les signaux sont codés sous une forme numérique (on évoque alors le terme TTL). Le nombre d'afficheurs capables de traiter ces sources se restreint d'années en années.
Les réglages dont disposent les moniteurs les plus évolués permettent d'adapter parfaitement l'image aux besoins de l'utilisateur (taille, couleur, etc.). Ils sont de deux types : ceux implantés en usine, de manière définitive, et ceux effectués par l'utilisateur.

Possibilités de réglage

Lorsque l'on passe dans une résolution spécifique, il faut en effet ajuster systématiquement la taille de l'image afin de diminuer la surface occupée par les bandes noires. Les réglages manuels sont bien entendu indispensables pour les modes graphiques inhabituels. Les fonctions de mémorisation des réglages de l'utilisateur sont souvent difficiles à mettre en oeuvre. Contrairement aux imprimantes de haut de gamme, les moniteurs ne disposent pas encore de façon généralisée de panneaux de contrôle à cristaux liquides. Les réglages effectués peuvent néanmoins être mémorisés pour une utilisation ultérieure.
Au fil des années, la législation sur le rayonnement nocifs des moniteurs s'est renforcée. Ainsi la majorité des écrans se conforment maintenant aux normes suédoises MPR I ou MPR II. Certains fabricants annoncent même l'adoption des spécifications TCO, une norme d'une sévérité extrême mise en place par les syndicats suédois. Désormais, tous les écrans subissent des traitements antireflets et antistatiques poussés. L'époque où l'affichage devenait illisible au premier rayon de soleil est révolue. La lumière ambiante influe beaucoup moins sur la qualité de l'image. Autre avantage : la poussière s'accumule moins vite.

La juste taille

La taille optimale de l'écran varie suivant le type d'utilisation envisagé, et bien entendu de la carte graphique dont on dispose. Pour une utilisation mixte avec des programmes sous Dos en VGA et des applications Windows en Super-VGA, on peut choisir un modèle de 15 ou 16 pouces. L'image en VGA n'est pas trop grande et les textes sous Windows restent lisibles. Pour une meilleure utilisation exclusive d'applications bureautiques sous Windows (ou avec des logiciels MS-Dos disposant de pilotes en haute résolution), l'idéal est de choisir un moniteur d'entrée de gamme de 17 pouces, voire, de 19 pouces, souvent chers, sont à réserver, dans l'ensemble, aux applications spécifiques comme la PAO (Publication Assistée par Ordinateur).
Concernant, les applications bureautiques évoluées en environnement graphique, une résolution de 800x600 en mode non entrelacé paraît suffisante. Mieux vaux au passage éviter les modes entrelacés (typiquement 1024x768 entrelacé) qui provoquent une fatique visuelle après quelques heures d'utilisation. Pour exploiter des logiciels graphiques (PAO, dessin, etc.) une résolution de 1024x768 points s'impose. Les modèles de 20 et surtout 21 pouces permettent une visualisation parfaite en 1280x1024, voire parfois 1600x1200. Mais les cartes graphiques qui atteignent de telles résolutions sont encore onéreuses.

1.2 Les écrans plats

Après avoir connu ses heures de gloire et bénéficié d'une situation de monopole, le tube cathodique perd du terrain. Récemment, il occupait encore une place prépondérante pour l'affichage, tant pour les téléviseurs que pour les écrans d'ordinateurs. Les grandes avancées opérées ces dernières années permettent aujourd'hui aux écrans de 40 pouces de diagonale de rivaliser en qualité avec le film de 35mm. Pourtant de sérieux concurrents s'annoncent. Les nouveaux venus, les écrans plats, constitueront des adversaires redoutables pour le vénérable tube cathodique. Une constatation illustre clairement ce propos : il sera toujours impossible de glisser un tube cathodique dans votre poche, ni même de l'installer dans un notebook. L'enjeu pour les constructeurs est donc de fournir des systèmes d'affichage pour ordinateurs portables présentant des fonctions équivalentes à celles des machines de bureau. Ce nouveau marché, à l'abri de la concurrence des tubes cathodiques, peut se développer en toute tranquilité. Il prendra même peut-être une autre dimension. La fiction deviendra alors réalité avec dans votre salon, fixé au mur tel un tableau, votre dernier téléviseur extra plats.
A l'heure actuelle quatre systèmes d'affichage sont en concurrence : les anciens tubes cathodiques, les panneaux à plasma, les écrans à cristaux liquides (à matrice passive) et les nouveaux modèles à cristaux liquides à matrice active, ou écrans TFT. Quatre autres technologies d'affichage, encore à l'état de prototypes plus ou moins avancés viendront bientôt concurrencer leurs aînés. Toutes sont actuellement en pleine évolution.

1.2.1 Ecran plasma

Apparus à la fin des années 60, les écrans à plasma furent les premiers systèmes d'affichage plats. Encore aujourd'hui, ils fonctionnent sensiblement comme le tube néon : une tension électique entre deux fils conducteurs ionise un gaz qui se transforme en plasma lumineux (un mélange d'ions et d'électrons qui émet constamment des photons). Ce gaz de plasma ionisé présente une particularité. Il génère de la lumière à partir d'une tension précise : le seuil d'allumage. Un écran à plasma prend en sandwich un gaz susceptible de se transformer en plasma luminescent entre deux plaques de verre. De part et d'autre du gaz, les plaques isolantes sont parcourues par un ensemble de fils conducteurs parallèles. Les fils sont disposés en colonne sur l'une des plaques et en ligne sur l'autre. Lorsqu'un fil vertical et un fil horizontal sont tous deux parcourus par un courant électrique (égal à la moitié du seuil d'allumage), seul le point d'intersection de ces fils s'allume. La couleur du point dépend du gaz utilisé. La lueur orangée est généralement celle que l'on a pris l'habitude d'associer au plasma.

Pour former une image complète, l'ensemble des points doit être traité de cette façon. La technique employée consiste à mettre sous tension, tour à tour, chacune des lignes. Lorsqu'une ligne est activée, les tensions des différentes colonnes correspondent aux pixels à afficher sur celle-ci. Dans les écrans à plasma les plus modernes, chaque point du substrat se comporte comme un condensateur électrique et maintient la dernière tension appliquée d'un balayage à l'autre. En quelque sorte les points restent allumés jusqu'à ce que l'on les éteigne par un mouvement. Ces types d'écrans restent donc très lumineux même s'ils sont de grandes tailles. Le plasma perd rapidement de sa luminosité lors d'une baisse de tension. Les écrans à plasma ont une rémanence faible et ne souffrent pas des " effets de traînées " lors de séquences animées, ou de pertes intempestives de la souris, cas de figure typique, en revanche, des affichages à cristaux liquides.

Depuis deux ans, les constructeurs ont sorti des modèles d'écran à plasma couleur venant égayer l'offre des traditionnels afficheurs orange. Cette technologie nécessite un panneau de plasma d'une résolution triple de celle désirée. Pour y parvenir, un écran recouvert d'une grille de particules photoluminescentes rouges, bleues et vertes est installé entre le panneau et l'utilisateur. Lorsqu'un pixel du panneau de plasma s'allume, la particule correspondante de l'écran s'illumine. Le mélange des trois composantes lumineuses primaires est à la base de cet effet. Il produit la couleur désirée, un peu à la manière des tubes cathodiques de type Trinitron.
Comparés aux technologies récentes, ces écrans sont actuellement, trop chers pour une grande diffusion. En effet, le prix de revient de cette technique est élevé en raison de la couche réactive supplémentaire utilisée pour y parvenir (un phosphore photoluminescent) ainsi que de l'emploie d'un plasma spécial émettant dans l'ultraviolet pour pour les activer. En revanche, la fiabilité est presque parfaite. Le taux de rejet des chaînes de fabrication est faible, pouvant rapidement permettre des productions de série si la demande l'imposait (90% des écrans sont sans défaut).
Les écrans à plasma ont des qualités certaines : bon contraste, faible sensibilité à la lumière ambiante, luminosité variable de chaque point (pour l'obtention des niveaux de gris), faible rémanence, robustesse et faible coût pour les modèles monochromes (conséquences directes de leur principe de fonctionnement particulièrement simple). Malgré ces atouts, ils sont inadaptés à la génération actuelle d'ordinateurs portables. En effet, cette technologie nécessite une consommation très élevée, proche de celle d'un écran à tube cathodique et absolument incompatible avec l'impératif d'économie d'énergie des machines autonomes. De ce fait, les écrans à plasma couleur seront probablement présentés au public comme des concurrents des tubes cathodiques pour la télévision haute définition, et les grands écrans vidéo.

1.2.2 Ecrans cristaux liquides

Les écrans à cristaux liquides, appelés plus fréquemment LCD (Liquid Crystal Display), utilisent les propriétés électriques et optiques très particulières de certaines molécules. Ils sont installés entre deux plaques de verre polarisées. Le matériau employé a la particularité de ne laisser passer la lumière que selon un angle précis. Le cristal liquide modifie également l'angle de polarisation de la lumière suivant son orientation. Au repos, l'ensemble est transparent, mais lorsque le cristal est soumis à une tension électrique, il change d'orientation et devient opaque. Aussi, lorsque des tensions intermédiaires sont appliquées, on obtient des niveaux de gris.
Sur les écrans des ordinateurs, des électrodes sont disposées sur toute la surface de l'écran de manière à activer individuellement chaque pixel. L'écran réagit donc comme un ensemble de minuscules volets capables de transmettre ou d'intercepter la lumière provenant d'une source externe. Cette dernière est soit un simple miroir renvoyant la lumière extérieure, soit un tube au néon placé à l'arrière de l'écran pour les modèles rétro-éclairés. Deux couches séparent encore éventuellement l'utilisateur de l'écran : une épaisseur de filtres colorés pour les écrans couleur et enfin une couche de plastique diffuseur, pour élargir l'angle de vue. Cette structure est valable pour tous les écrans LCD actuel, les écrans classiques aussi bien que les écrans TFT. Ce qui différencie ces deux types d'afficheurs, ce sont les électrodes de commande des cristaux liquides.
Dans un écran à cristaux liquides classique, des électrodes de ligne parallèles sont disposées sur une des plaques et des électrodes de colonne sur l'autre. Chaque intersection de ligne et de colonne définit un pixel. Comme pour un écran plasma, le cristal liquide pivote lorsqu'une tension suffisante est appliquée entre les deux électrodes. Les lignes sont mises sous tension à tour de rôle, soixante fois par seconde pour à écran à 60 Hertz. Les colonnes contrôlent l'allumage ou l'extinction des points.
Dans les premiers écrans LCD, le cristal liquide némantique utilisé est tourné d'un quart de tour au repos. On a donc baptisé ces écrans Twisted nématics. Ceux-ci étaient faciles à construire, et permettaient de nombreux niveaux de gris. Ils présentaient l'inconvénient d'une grande sensibilité à leurs propres parasites. Les pixels non allumés accumulent une tension indésirable croissante lorsque le nombre de lignes activées augmente. La conséquence est une diminution progressive du contraste car les pixels voisins tournent au gris. Malgré des améliorations progressives, le contraste reste le point faible de ce type d'écran. Pour résoudre ce problème les constructeurs ont inventé les écrans Supertwisted, où les cristaux sont tournés de trois quart de tour au repos. Leur contraste est de beaucoup supérieur mais ils sont plus complexes à réaliser, donc plus chers. Cependant, malgré l'utilisation de filtres compensatoires, ils perdent rapidement leur contraste lorsque l'angle de vue s'écarte de la normale.

Ce problème de contraste est plus grave qu'il n'y paraît. Pour les applications graphiques et en particulier les animations, il est nécessaire d'utiliser des cristaux liquides spéciaux pivotant plus rapidement afin de réduire l'effet de rémanence. Ces cristaux présentent malheureusement l'inconvénient d'être peu stables, bougeant entre deux balayages, entraînant des pertes de constrastes, des parasites, ou des effets de flottement. La rémanence étant moins désagréable que les parasites, ce sont donc des cristaux plus lents mais plus stables qui sont employés dans ce type d'écran.
Malgré ces défauts, la technique des écrans LCD à matrice passive reste la moins chère à l'heure actuelle pour les écrans portables de haute résolution. Elle est aussi la moins gourmande en énergie. Seuls les écrans TFT permettent pratiquement de telles économies sur ce plan, sans toutefois les égaler.
Les écrans LCD à matrices actives, ou écrans LCD TFT sont en fait une variante de l'écran à cristaux liquides classique. Les électrodes de commande en lignes et en colonnes ont été remplacées par des transistors directement posés sur la surface interne de l'écran. Lorsque l'un de ces transistors est sous tension, le pixel correspondant s'allume. Contrairement aux écrans LCD classiques, la tension appliquée à un pixel est constante. Elle ne subit pas des pics réguliers de haute tension à chaque rafraîchissement de ligne. Le problème du contraste ne se pose donc plus pour les écrans TFT. Les transistors TFT utilisés fonctionnent exactement comme la mémoire dynamique d'un PC (DRAM), dans laquelle on pourrait uniquement écrire. Ils doivent donc être rafraîchi à intervalle régulier sous peine de perdre progressivement leur tension. Pour éviter toute variation de l'affichage, bien qu'une fréquence plus basse puisse suffire, le contrôleur d'écran réécrit la valeur de chaque cellule TFT à la fréquence habituellement employée pour le balayage des lignes d'un écran. C'est-à-dire 60 ou 70 Hertz. La stabilité de chaque pixel d'un écran TFT est exceptionnelle : les utilisateurs préfèrent généralement les images qu'ils affichent à celles des tubes cathodiques, car leur stabilité est supérieure. On peut donc utiliser des cristaux liquides spéciaux de plus faible rémanence (20ms) que les écrans LCD à matrice passive.
Les écrans LCD à matrice active sont actuellement les meilleurs systèmes d'affichage disponibles pour les ordinateurs portables. Certains problèmes ne sont cependant toujours pas résolus à ce jour : ils sont, en fait, difficiles à fabriquer. Seulement un écran TFT sur cinq quitte les chaînes de fabrication. Et même parmi les écrans retenus, certains ont de petits défauts (quelques pixels qui ne fonctionnent pas, par exemple). Plus la taille de l'écran augmente, plus la situation s'aggrave. Ce taux de rejet considérable explique le prix élevé de ces modèles d'écran.

1.2.3 Autres technologies

D'autres technologies, encore à l'état de prototype, prendront peut-être l'ascendant sur les trois types d'écrans plats actuels.

1.2.3.1 Electroluminescence

L'électroluminescence, une technique comparable au plasma mais utilisant un solide luminescent à la place d'un gaz de plasma, a très récemment été améliorée, permettant désormais la construction d'écrans couleur.

1.2.3.2 Ecran à émission de champ

Les écrans à émission (ou FED) regroupent sur une plaque un ensemble de cathodes froides émetrices d'électrons. Ceux-ci comme dans les tubes cathodiques traditionnels frappent des particules de phosphore luminescent qui produisent les couleurs. Ces écrans constituent en quelque sorte une juxtaposition de minuscules tubes cathodiques. Cette technologie très prometteuse permettra probablement d'obtenir des écrans très denses et surtout extrêmement lumineux.

1.2.3.3 Smart Slide (Diapositive intelligente)

La nouvelle technologie Smart slide (approximativement, " diapositive intelligente "), permettant de transférer des processeurs traditionnels sur des plaques de verres, commence également à être au point. Actuellement, cette approche ne permet d'obtenir des écrans que de quelques centimètres carrés. La densité des pixels pourrra être plus de cent fois supérieure à celle des écrans actuels, avec une vitesse de commutation des pixels sans équivalent. Deux applications profiteraient de cette avancée technologique : les projecteurs d'écran, dont la taille et le coût diminueraient énormement sans perte de qualité, et le vieux rêve de l'écran incorporé aux lunettes, enfin réalisable. Mieux encore, une grande partie des circuits d'un ordinateur pourrait être directement intégrée à l'écran, par exemple une carte graphique perfectionnée.

1.2.3.4 Ecrans à particules en suspension

Encore loin d'être disponible pour le grand public, les écrans à particules en suspension fonctionnent un peu à la manière des afficheurs LCD. Une cellule contenant un liquide opaque, composé de particules en suspension, intercepte la lumière au repos. Lorsque l'on applique une tension électrique à ces cellules, les particules s'alignent et le liquide devient transparent. Pour obtenir un affichage couleur, comme pour le LCD, on utilise un système de filtre.

2ème Partie : LES CARTES GRAPHIQUES

Le succès de Windows a bouleversé la donne en matière de cartes graphiques. En effet, les résultats obtenus avec l'interface de Microsoft sont à présent fortement tributaire de la qualité de la carte utilisée. Pour garantir de bonnes performances à un PC, il faut donc disposer, au même titre qu'un processeur rapide et un disque dur performant, d'une carte graphique rapide mais ce terme que l'on rencontre souvent recouvre en fait des produits très différents dont les performances peuvent varier de manière considérable.
Aujourd'hui trois types de ces cartes cohabitent sur le même marché : les cartes passives, les cartcs actives et les cartes programmables. Dans la première catégorie, on inclut la carte VGA standard. Les cartes passives se contentent de recevoir des informations provenant du processeur et de générer les signaux électriques permettant l'affichage sur l'écran. Le processeur du PC doit produire la suite de points permettant de créer l'image voulue. Le principal avantage des cartes passives est leur prix. Le faible nombre de composants mis en jeu explique cet état de fait.
Une carte active, comme son nom l'indique, se charge d'une partie du travail en matière de graphismes. Elle intègre pour cela un microprocesseur spécialisé. Le prix de la carte varie en fonction du degré de complexité de ce processeur et de la quantité de mémoire dont dispose la carte. Mais le surcoût se voit largement justifié par des performanccs en moyenne décuplées. En effet, les cartes actives sont environ 5 à 15 fois plus véloces qu'une VGA standard. Le dialogue entre le processeur du PC et la carte graphique évolue. Ainsi, au lieu d'envoyer simplement une suite de points pour tracer un cercle à l'écran, le processeur émet un ordre complexe. La carte active prend alors les opérations en main, calculant elle-même quels points doivent être modifiés. Pendant
ce temps, le processeur du PC est libre de continuer son travail. De plus, celui de la carte graphique est spécialisé dans les calculs spécifiques liés à l'affichage. Il effectue donc ces opérations bien plus rapidement que ne peut le faire le microprocesseur lui-même. Enfin, avec les cartes actives, beaucoup moins d'informations circulent sur le bus d'extension, accélérant encore l'opération. Le prix d'une carte active se situe dans une fourchettc de prix tout de mêmc assez raisonnable.
Les cartes programmables sont des cartes actives pour lesquelles on peut définir à nouveau les commandes. En effet, avec une carte active, les instructions qui seront traitées sont déterminées une fois pour toutes lors de la conception dc ses circuits. Au contraire, le microprocesseur de la carte programmable peut être " reprogrammé " (d'où son nom) pour répondre à de nouvelles commandes. Pour exécuter Windows 3.1, les cartcs actives et programmables se valent. Par contre, si Microsoft modifie des éléments dans une prochaine version et décidc, par exemple, d'ajouter une ombre à toutes les boîtes de dialogue, la carte active verra ses performances baisser alors que dans le cas de la carte programmable, l'écriture d'un nouveau pilote permettra de créer une nouvelle comnande. Juste contrepartie : leur prix est nettement plus élevé.

RESOLUTIONS ET NOMBRE DE COULEURS

La première caractéristique évoquée lorsque l'on examine une carte graphique est bien entendu sa résolution.
Presque tous les modèles disposent du mode 1024x 768 points. Certaines proposent des modes supplémentaires, comme le 1280x 960 points et le 1280x 1024 points, mais en mode entrelacé. La carte graphiquc affiche alors une ligne sur deux a chaque balayage de l'écran, ce qui entraîne une nette diminution de la qualité d'affichage. A dire vrai, l'image ainsi obtenue est à peine exploitable pour un usage professionnel. Mais attention: la résolution de la carte doit toujours être compatible avec celle du moniteur (voir la partie Cartes et écrans; une union difficile). Le second paramètre à examiner lors du choix de ce type de carte est la couleur. Plus le nombre de teintes est important, plus les nuances seront rendues avec précision. 256 couleurs est un minimum pour travailler avec des logiciels bureautiques sous Windows. Disposer de 32768 couleurs procure bien sûr un avantage mais nombreux sont les logiciels qui ne gèrent pas (ou mal) ce mode graphique. L'idéal est de disposer de 65 536 couleurs ou de 16,7 millions de couleurs. On obtient alors une qualité d'affichage remarquable. Mais il est extrêmement difficile de distinguer des images affichées cn 65536 et 16,7 millions de couleurs. Seul un oeil expert est capable de trancher, même si les deux images sont affichées côte à côte sur deux moniteurs identiques. Attention à bien lire les notices : on vous propose le plus souvent, fromage ou dessert : 1024 x 768 points mais avec seulement 256 couleurs, ou bien 16,7 millions de couleurs en mode 640 x 400. Un compromis raisonnable pourrait s'établir à 800x 600 points en 65 536 couleurs. Par ailleurs, tous les moniteurs peuvent afficher une infinité de teintes. Il n'y a donc aucun souci de compatibilité à ce niveau. Enfin, il faut examiner la liste des fréquences de balayage proposées.

LA NECESSITE DES PILOTES OPTIMISES

L'interface entre l'application et la carte est assurée par un pilote logiciel. L'installation d'un tel outil s'effectue soit depuis MS-Dos en lançant le programme INSTALL.EXE qui se trouve dans le répertoire de Windows, soit directement à partir de l'interface graphique de Microsoft, par l'intermédiaire d'un utilitaire spécifique.
Contrairement à une idée reçue, les performances d'une carte ne diminuent pas forcément à mesure que la résolution graphique augmente. En effet, tant le pilote que l'électronique de la carte sont optimisés pour certains modes graphiques. Les fabricants partent du principe que l'utilisateur préférera exploiter sa carte en mode 256 couleurs plutôt que de se limiter à 16 teintes. Ainsi, les cartes actives de haut de gamme affichent les meilleurs résultats en 1 024 x 768 points avec 65 535 couleurs, ou en mode 800 x 600 avec 16,7 millions de nuances. Actuellement, la fourniture du pilote pour Windows 3.1 représente le point de passage obligé pour tous les fournisseurs de cartes graphiques. On trouve en général quelques pilotes supplémentaires (en général Autocad et OS/2). On commence également à trouver des pilotes pour Windows NT. Enfin, presque toutes les cartes proposent des pilotes adaptés aux logiciels plus anciens sous MS-Dos (Lotus l-2-3, Wordperfect5.1, Word, etc.).

LES COMPOSANTS FONT A COUP SÛR LA DIFFERENCE

Si l'on trouve aujourd'hui de très nombreux modèles de cartes graphiques, seuls quelques fabricants en sont à l'origine. En effet, trois jeux de circuits (dans leurs différentes variantes) dominent le marché actuel : ET4000, S3 et TMS340x0. Il est intéressant de connaître le circuit qui se trouve sur une carte particulière, dans la mesure où il conditionne en grande partie les performances. Par exemple, le ET4000 permet de concevoir des cartes graphiques environ 5 fois plus rapides qu'un modèle VGA standard. On trouve donc facilement ces pilotes pour les principaux logiciels (ceux-ci sont proposés en standard dans Windows 3.1 et Windows NT par exemple). Bien que moins répandue, la carte à base de circuits S3 a le vent en poupe. Sa vitesse atteint environ 10 fois celle d'une carte VGA standard. Enfin, les cartes programmables à base de TMS34010 ou 34020 sont les plus véloces (environ 25 fois plus efficace qu'une VGA standard).
Pour assurer des performances optimales, toutes les cartes graphiques intègrent leur propre mémoire vive plutôt que d'exploiter celle du PC, comme c'était le cas avec les premiers micro-ordinateurs. On obtient ainsi des performances homogènes quelle que soit la machine utilisée. Très performante, cette mémoire coûte très cher. Elle grève imanquablement le coût des cartes graphiques avancées. Cela est d'autant plus ennuyeux qu'il faut toujours plus de mémoire pour satisfaire les exigeances des utilisateurs qui souhaitent des résolutions plus élevées et des couleurs plus nombreuses.

LA MEMOIRE DETERMINE RESOLUTION ET COULEURS

Un calcul simple permet de comprendre que la mémoire des cartes graphiques constitue le frein essentiel à l'évolution des normes. Par exemple, en mode 256 couleurs, le codage de chaque point nécessite un octet (1 octet = 8 bits, ce qui donne 28 possibilités, soit 256 couleurs). Donc, si l'on veut travailler avec une résolution de 1 024 x 768, il faut afficher 786 432 points au total. Comme nous l'avons vu précédemment, le même nombre d'octets sera monopolisé. La carte graphique appropriée devra ainsi disposer d'au moins 768 Ko de mémoire propre (786432/1 024). Si, dans la même résolution, on veut disposer de 16,7 millions de couleurs pour obtenir un rendu des images, il faut cette fois trois octets par point (c'est le mode 24bits). La carte graphique devra alors renfermer 2304Ko (786432x 3/1024). De ce fait, les cartes graphiques qui n'exploitent que 2Mo de mémoire vive n'ont pas accès à cette résolution lorsqu'elles travaillent avec 16,7 millions de couleurs. On comprend que les très hautes résolutions (1600x 1200 et plus) restent réservées aux cartes de haut de gamme. A titre indicatif, il faut 1 ,25 Mo de mémoire pour afficher 256 couleurs en 1 280 x 1 024, et 1,83 Mo pour accéder à la résolution 1 600 x 1 200 avec le même nombre de couleurs. Enfin, 5,5Mo de mémoire vive sont un minimum indispensable pour travailler en vraies couleurs (16,7 millions de nuances) dans cette même résolution.

L'APPORT DU BUS LOCAL VIDEO

Cette année est marquée par l'apparition d'une grande innovation : le bus local. Cette technique consiste à relier la carte graphique directement au bus du processeur. Les cartes traditionnelles Isa travaillent toutes à 8MHz. Par contre, une carte graphique en bus local fonctionne à la même vitesse que le microprocesseur auquel elle est reliée. Ainsi, connectée à un 486SX/25, elle est cadencée à 25MHz, alors qu'insérée dans un PC à base de 486DX/33, elle adopte une fréquence de 33MHz. Grâce au bus local, la bande passante disponible pour les échanges entre le processeur et la carte graphique est multipliée par quatre. Les premières machines à bus local ont marqué le règne de l'anarchie. Chaque constructeur proposait une solution propre. Fort heureusement, les fabricants ont réussi à se mettre d'accord. Ils ont adopté une norme commune appelée VLB (par l'entremise de l'association Vesa). Ce bus fonctionne parfaitement avec le processeur 486 et permet de disposer d'un bus local bon marché.
A plus long terme, d'autres solutions, plus complexes mais indépendantes du processeur, devraient s'imposer. Le bus PCI, promu par Intel offre un large débit (132Mo par seconde) ainsi que des caractéristiques avancées, comme la configuration automatique. Son rival, le bus EMB, est soutenu par le consortium Eisa. Pouvant aussi transférer 133Mo par seconde, il assure, pour sa part, la compatibilité totale avec les cartes 32 bits Isa et Eiisa existantes.

3ème Partie : L'ALLIANCE CARTES/ECRANS

La fonction même du moniteur multisynchrone est, d'une part de permettre d'exploiter des résolutions différentes avec un seul moniteur, d'autre part de protéger les investissements. En effet, pendant longtemps, l'utilisateur d'une carte CGA devait posséder un moniteur CGA; la carte Ega devait être accompagnée de son moniteur spécifique et ainsi de suite. Changer de carte graphique impliquait alors l'achat d'un nouvel écran. L'apparition de modèles à fréquence variable a changé la donne. Ces écrans, capables de travailler harmonieusement avec plusieurs cartes, ont contribué au développement du graphisme sur PC. Leur plage de
fonctionnement est même suffisamment large pour espérer faire face au développement de nouvelles normes.
Concrètement, un moniteur de type multifréquence adapte son action en fonction des signaux qui lui sont transmis, alors qu'un modèle à fréquence fixe conserve les mêmes propriétés quoiqu'il arrive. Dans le cas qui nous intéresse, l'écran reconnaît les signaux électriques de synchronisation envoyés par le contrôleur vidéo qui sont des informations directement liées au mode graphique considéré. Partant de là, il détermine les fréquences de balayage verticale et horizontale adéquates. Dans la pratique, cette vertu d'universalité vous autorise à jongler entre les résolutions. Rien ne vous empêche plus de passer d'une application sous MS-Dos fonctionnant en mode VGA (640x 480 points) à un logiciel graphique utilisant un affichage en 1 024x 768 points. A titre de comparaison, un écran exclusivement VGA produirait une image inexploitable si vous lui imposiez une autre résolution.
Si le passage d'un mode graphique à l'autre s'effectue de manière automatique, tous les écrans ne sont pas en mesure de mémoriser les différents réglages nécessaires. Quelques modèles seulement sont pourvus de cette fonction très pratique. Chaque fois qu'il reconnaît l'un des modes préréglés, un tel périphérique reprend, en effet, les réglages afférents : la taille de l'image, mais aussi sa position ainsi que diverses corrections. Toute intervention "humaine" est inutile. Vous disposez d'une qualité d'affichage optimale en toute circonstance. Ce type de prestations dénote la complexité croissante des moniteurs puisque cette forme " d'intelligence "
exige la présence d'un microprocesseur chargé de piloter l'écran.
Lors de la transition d'un mode graphique à l'autre, le moniteur doit s'adapter au changement de résolution ct ajustcr sa fréquence. Ccci sc produit, par exemple, lorsque l'on ouvre une fenêtre MS-Dos plein écran sous Windows. Parfois, le délai de synchronisation est long, ce qui conduit à des attentes répétées. Ce temps varie selon les modèles.

NE PAS CONFONDRE TAILLE DE L'ECRAN ET RESOLUTION

En matière de moniteurs à fréquence variable, il existe quelques évidences qu'il est bon de rappeler. La première est qu'évidemment, la taille de l'écran n'influe pas sur la quantité d'informations visualisées. Ainsi, un moniteur de 14 pouces en 1024x 768 affiche exactement le même nombre de pixels qu'un modèle de 17 pouces travaillant dans la même résolution. Seul le confort d'utilisation est sensiblement différent, les caractères du 14 pouces étant à la limite de la lisibilité. Inversement, des proportions généreuses ne signifient nullement des performances de haut niveau. Un pas de masque trop important limite fortement le nombre de points pouvant être affichés sur une même ligne.
Résolument haul de gamme, les écrans multifréquences bénéficient en général d'un équipement fourni. Les plus évolués permettent d'enregistrer des réglages correspondant à une norme graphique particulière. Ils s'ajoutent à ceux définis à la sortie de l'usine et sont automatiquement reconnns dès que vous les utilisez. Autre privilège réservé aux matériels de prestige, de multiples boutons et poussoirs autorisent des ajustements précis de l'image. Il est ainsi possible de modifier la largeur ou la hauteur de l'image afin d'optimiser l'occupation de l'écran, de la recentrer, de gommer les déformations (image en forme de trapèze ou de coussin), de moduler la luminosité ou le contraste, etc. Les moniteurs les plus pointus techniquement s'essaient même à la correction chromatique. Vous pouvez alors jouer sur l'intensité des différentes couleurs primaires et décider, par exemple, de forcer sur le vert. L'option est, reconnaissons-le, assez anecdotique. Elle permet toutefois de rapprocher l'affichage des résultats obtenus avec une imprimante couleur et d'obtenir un mode "on voit sur l'écran le résultat imprimé " plus fidèle. Enfin, le nec plus ultra consiste en un écran de contrôle à cristaux liquides rappelant la résolution active !
Les moniteurs multifréquence sont-ils pour autant "pluri-environnement " ? Pour la plupart, pas de problèmes : ils fonctionnent aussi bien avec un PC qu'avec un Macintosh. Il suffit de disposer des cordons de liaison adequats, différents selon le type de matériel utilisé.

LES CONTRAINTES FIXEES PAR LE MONITEUR

Universel, aucun écran ne l'est tout à fait. Chaque modèle a ses limites, définies par une plage de fréquences. Il est inutile d'essayer d'afficher une résolution de 1 280x 1 024 points avec une fréquence de rafraîchissement de 74Hz si le moniteur ne le permet pas. Non seulement vous n'obtiendrez aucun résultat, mais, bien pire, vous risquez d'endommager le périphérique.
Les plus résistants se contenteront de produire quelques zébrures épileptiques ; les plus fragiles ne résisteront pas au chaos électronique.
Quelle que soit la qualité d'un écran, il ne faut jamais perdre de vue que c'est la carte graphique qui crée l'image. Simple aux débuts de la micro, la situation s'est singulièrement compliquée dès lors qu'IBM, le concepteur du PC, a cessé d'imposer ses vues. Peu à peu, les normes se sont multipliées, compliquant la tâche des fabricants d'écrans. Faute d'un standard, les moniteurs multifréquences se révélaient parfois incapables de gérer certaines cartes " exotiques". Pour pallier ce type de désagréments, les principaux acteurs du marché graphique se sont regroupés au sein d'une association : Vesa (Video electronics standards association) était née. Six groupes de travail ont été créés, chacun s'occupant d'une question précise (multimédias, XGA en bus Isa, vitesses de rafraîchissement des moniteurs, etc.). Aujourd'hui, la situation tend à se normaliser. La plupart des matériels se plient aux spécifications édictées par Vesa. Les bienfaits de ce ralliement se traduisent notamment en matière de confort d'emploi. Les normes Vesa imposent, en effet, des fréquences de rafraîchissement élevées (voir le tableau page ci-contre). Ainsi, une résolution de 640x 480 points doit s'accompagner d'une fréquence de balayage au moins égale à 72 images par seconde (72Hz), le mode 1024x 768 points voyant l'image recomposée 70 fois par seconde. Le résultat saute aux yeux, si l'on peut dire : aucun tressautement ni scintillement parasite ne viennent perturber l'oeil. Le confort visuel est optimal.

HISTOIRES DE FREQUENCES

Les fréquences utilisées pour l'affichage conditionnent la qualité de l'image telle qu'elle est perçue par l'utilisateur. Trois données entrent en jeu à ce niveau : la fréquence verticale (ou fréquence de rafraîchissement), la fréquence horizontale (ou fréquence ligne) et la bande passante. La fréquence verticale est exprimée en Hertz. Elle indique combien de fois par seconde l'image doit être composée à nouveau. Ainsi, en mode VGA standard, la fréquence verticalc s'établit à 60Hz, c'est-à-dire que l'image est redessinée (ou rafraîchie) 60 fois par seconde. Plus la fréquence verticale est élevée, plus l'image paraît stable. Les phénomènes de scintillement disparaissent au-délà de 70Hz. A titre d'exemple, l'association Vesa préconise une fréquence verticale de 72Hz pour un affichage en mode VGA standard.

UNE FREQUENCE HORIZONTALE POUR CHAQUE RESOLUTION

La fréquence horizontale correspond à la vitesse de balayage d'une ligne. Cette information, donnée en kilohertz (kHz), est propre à chaque résolution. Les moniteurs multisynchrones se distinguent des moniteurs communs, justement parce qu'ils acceptent n'importe quelle fréquence ligne au sein d'une plage. Plus celle-ci est large, plus le monitcur multisynchrone est performant. A un delta près, la fréquence horizontale pour une résolution donnée peut être calculée en effectuant le produit du nombre de lignes et du taux de rafraîchissement (la fréquence verticale). Par exemple, pour afficher une résolution de 1280x 1024 points an rythme de 60 images par seconde, il faut que l'écran multisynchrone accepte de travailler avec une fréquence horizontale de 68kHz (1024x 60 + delta). Pour bénéficier d'une qualité supérieure et supprimer tout scintillement (image renouvelée 72 fois par seconde), il faut que l'écran puis se atteindre une fréquence ligne de 78kHz (1024x 74 + delta).
Enfin, la bande passante est une donnée purement physique qui permet de savoir quels modes pourront être gérés par l'écran. Exprimée en MHz, la bande passante est obtenue en multipliant la fréquence horizontale maximum par le nombre de colonnes à l'écran. Ainsi, pour afficher correctement une image 1024x 768 points avec une fréquence verticale de 70Hz (70 images par seconde, soit le taux de rafraîchissement préconisé par Vesa), il faut que la bande passante atteigne 59,4 MHz (58 kHz de fréquence ligne multipliée par 1024 points). La résolution d'un Macintosh II (1 152x 860) nécessite une bande passante supérieure à 78mhz (fréquence ligne de 68kHz multiplié par 1 152 points = 78,336MHz).Vous le voyez, il est crucial de vérifier la bonne adéquation de la carte vidéo avec le moniteur. Même livrés ensemble, il est probable que ces deux périphériques ne forment pas un couple idéal.