TARJETAS DE VIDEO
lunes, 19 de noviembre de 2012
TARJETAS DE VIDEO
HISTORIA
las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de
usar impresoras como elemento de visualización a utilizar monitores. Las
primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero
la aparición de los primeros chips
gráficos como el Motorola
6845 con un bus S-100Eurocard Junto con las tarjetas que
añadían un modulador de televisión fueron las primeras en recibir el término tarjeta
de video.
Estas tarjetas nos sirve para mejorar la calidad de video, las imágenes,
audio.
Elemento
de salida primario la pantalla representa la conexión entre el usuario y los
diferentes programas, que envían sus salidas a través de la llamadas tarjetas
de vídeo a la pantalla. El proceso de visualización de datos e imágenes en la
pantalla del monitor se realiza correctamente debido al sistema de vídeo del
ordenador. Un sistema de vídeo consta de 3
elementos.
·
Monitor.
·
Programas controladores ( drivers ).
·
Tarjeta gráfica.
CARACTERISTICAS
·
Los tres deben estar coordinados entre si, en el
caso de uno de los tres tenga un nivel inferior a los otros dos, estos valores
serán los que marquen el nivel máximo que se puede conseguir.
·
El elemento mas importante del sistema de vídeo
son las tarjetas gráficas, ya que se comunican con el programa, controlan el
monitor, y a veces proporcionan los drivers.
FUNCIONAMIENTO
GENERAL
Cuando el ordenador necesita mostrar un dato por
pantalla simplemente lo envía a la memoria de vídeo VRAM. Una sección especial
de la tarjeta de vídeo se encarga constantemente de mirar en esa memoria y de
colocar en pantalla todo lo que allí se almacena. Desde el momento que la CPU mete algo en memoria hasta
que sale por pantalla sólo transcurren entre 0,2 y 0,016 segundos, este proceso
depende también de la velocidad de barrido de nuestro monitor, a continuación
mostramos un gráfico de los principales componentes de una tarjeta de vídeo y
su explicación:
El espacio que ocupa una imagen representada en el monitor viene dada en
función de su resolución y su profundidad de color, es decir, una
imagen sin comprimir en formato estándar Full HD con 1920x1080
píxeles y 32 bits de profundidad de color ocuparía 66.355.200 bits, es decir,
8,294 MiB
SALIDAS
Los sistemas de conexión más habituales entre la tarjeta gráfica y el
dispositivo visualizador (como un monitor o un televisor) son:
- SVGA/Dsub-15: Estándar
analógico de los años 1990; diseñado para dispositivos CRT, sufre de
ruido eléctrico y distorsión por la conversión de digital a analógico y el
error de muestreo al evaluar los píxeles a enviar al monitor. Se conecta
mediante pines. Su utilización continúa muy extendida a día de hoy, aunque
claramente muestra una reducción frente al DVI en los últimos años.
- DVI: Sustituto del
anterior, pero digital, fue diseñado para obtener la máxima calidad de
visualización en las pantallas digitales o proyectores. Se conecta
mediante pines. Evita la distorsión y el ruido al corresponder
directamente un píxel a representar con uno del monitor en la resolución
nativa del mismo. Cada vez más adoptado, aunque compite con el HDMI, pues
el DVI no es capaz de transmitir audio.
- HDMI: Tecnología
propietaria transmisora de audio y vídeo digital de alta definición
cifrado sin compresión en un mismo cable. Se conecta mediante patillas de
contacto. No esta pensado inicialmente para monitores, sino para
Televisiones, por ello no apaga la pantalla cuando deja de recibir señal y
debe hacerse manualmente en caso de monitor.
Suscribirse a:
Entradas (Atom)