COMO FUNCIONAM OS MONITORES DE VÍDEO?
O monitor de vídeo é um dispositivo de saída que utiliza uma tela semelhante
à TV como meio de visualização das informações processadas. Também são
utilizados monitor com tela de cristal líquido em microcomputadores portáteis
(laptops, notebooks, hand-helds, etc). A informação relativa à imagem
que deve ser exibida é gerada no computador e transmitida (em formato digital,
isto é, bits) para a interface de vídeo, onde a imagem propriamente
dita (sinais de vídeo) é produzida.
Os monitores em geral tem suas telas
de imagem construídas a partir de um Tubo de Raios Catódicos. A imagem se forma
em uma tela constituídas por uma película de fósforo e, uma vez que um de seus
pontos de imagem é atingido por um elétron (gerado pelo canhão de
imagem) ele emite luz - e isso é o que o olho humano capta.
Corte de um Tubo de Raios Catódicos
Cada ponto da imagem precisa ser "impresso" na tela. Isso é conseguido bombardeando individualmente todos os pontos da tela, um de cada vez, ponto por ponto, linha por linha, do início ao fim da tela, então de volta ao início e assim sucessivamente, ininterruptamente, sem parar. São dois processos coordenados de varredura da tela, conforme a ilustração a seguir mostra.
A luz emitida pelo ponto de fósforo "bombardeado" tem permanência (duração) curta e logo esmaece e se apaga. Assim, esse processo de "bombardeio" precisa ser repetido periodicamente, para manter a imagem visível, mesmo que a imagem não mude (Nota: o mesmo processo também acontece com a televisão!). Portanto, o computador ( o processador) precisa ficar constantemente re-enviando a mesma imagem (ou as imagens modificadas) para a interface que por sua vez "refresca" a tela.
TIPOS DE MONITOR - modo de exibição
Os monitores eram
inicialmente utilizados para exibir apenas caracteres (modo caractere) em uma
única cor (geralmente um fósforo verde, algumas vezes branco ou ainda laranja).
Dessa forma, o que trafegava na interface entre computador e monitor
eram apenas códigos em bits (geralmente ASCII) que representavam os caracteres
que seriam exibidos. Na interface esses códigos digitais eram
decodificados e transformados em sinais analógicos (sinais de vídeo).
Posteriormente, com o advento de sistemas gráficos (inicialmente em aplicações especializadas, em geral ligadas a engenharia, tal como CAD - Computer Aided Design), foram desenvolvidos monitores gráficos em cores. Nesses monitores, a imagem passou a ser constituída, não mais por um caracteres de uma só cor que podia ser tratado como um código, mas agora por pontos individualmente gerados na tela e que agrupados formavam os gráficos e/ou os caracteres.
Cada um desses pontos (chamados pixels - picture elements) passou a ter diversos atributos, entre eles a cor. Cada cor exibida precisa ser identificada por um código. Se tivermos 16 = 24 cores, serão necessários 16 códigos e portanto 4 bits para identificá-las individualmente. Sendo 256 = 28 cores, serão portanto 8 bits e assim por diante, até a chamada "true color" com 64 milhões = 232 cores exigindo 32 bits.
Também em termos de resolução (número de pontos de imagem por tela) as exigências creceram muito. Quanto mais pixels maior resolução, mas também maior número de bits a serem transmitidos em cada tela. A quantidade de informação que passou a trafegar entre computador e monitor aumentou de forma extraordinária, exigindo novas soluções de projeto para evitar que a exibição de informações na tela se transformasse em um "gargalo" (bottleneck) para o desempenho do sistema. A solução para esse problema veio com o desenvolvimento de interfaces mais elaboradas, possibilitando maior throughput, bem como pela utilização de verdadeiros processadores de imagem (interfaces dotadas de processadores especializados para processamento gráfico e de memória local). Dessa forma, o computador passou a transmitir primitivas gráficas (informações codificadas que eram transformadas em gráfico apenas no processador gráfico da interface). O processo de refresh também passou a ser atribuição sòmente do processador de vídeo, não havendo necessidade do processador principal (o processador do computador) re-enviar uma imagem que não sofresse alterações. Mais ainda: o processo de envio das modificações de uma imagem passou a ser feito por diferença, isto é, o processador principal transmite apenas o que mudou e o processador de vídeo se encarrega de alterar a imagem de acordo.
Informações transferidas entre computador e interface
Modo caractere: nº de colunas x nº de linhas x nº de
bytes por caractere
Modo gráfico: nº de
colunas x nº de linhas x nº de bytes por pixel
No cálculo a
seguir apresentado como exemplo, no número de bits por caractere ou por
pixel foi considerado (por simplicidade) apenas o atributo
cor.
Monitores modo caractere | Nº colunas | Nº linhas | Nº caract. | Nº cores | bytes transferidos |
monocromático 80 colunas | 80 | 25 | 2.000 | 2 = 21 | 2 kbytes |
monocromático 132 colunas | 132 | 25 | 3.300 | 2 = 21 | 3,2 kbytes |
Monitores Gráficos | Nº colunas | Nº linhas | Nº pixels | Nº cores | bytes transferidos |
VGA | 640 | 480 | 300 k | 16 = 24 | 150 kbytes |
SVGA | 800 | 600 | 468,75 k | 256 = 28 | 468,75 kbytes |
SVGA | 1024 | 768 | 768 k | 64 k = 216 | 1,5 Mbytes |
SVGA | 1280 | 1024 | 1,25 M | 64 M = 232 | 5 Mbytes |