Aquí también estamos

Glosario actualizado el

Historias: Tarjetas gráficas

La historia de las tarjetas gráficas o de video se remonta a fines de los años 60, cuando se deja de usar las impresoras como pantalla para dar el gran salto a los monitores. No obstante, en sus primeros años realizaban apenas algunas funciones, estaban integradas a la placa base y daban salida a la imagen (texto). Pese a su limitado trabajo, eran imprescindibles.

El éxito del ordenador doméstico y de las videoconsolas en los años 80 significaron un impulso para las tarjetas de video, las cuales iban incorporadas en la placa. La primera tarjeta gráfica llegó en 1981, con la MDA (Monochrome Display Adapter), la cual tenía la capacidad de representar 25 líneas de 80 caracteres en pantalla. Además, tenía una memoria RAM de 4 kB, con lo cual podía trabajar con una página de memoria. Cabe precisar que en aquel entonces se usaban monitores monocromáticos.

En aquel mismo año llegaron los colores y gráficos con la tarjeta CGA (Adaptador de Gráficos en Color) de la mano de IBM. Esta tenía 16 kibibytes (KiB) de memoria (VRAM) y soportaba una paleta de 16 colores, de los cuales podía mostrar 4 colores en simultáneo. Esto daba la posibilidad de conectar dos monitores y obtener salida en ambos.

En 1982 se lanzó al mercado la HGC (Hércules Graphics Card), la cual permitía trabajar dos páginas gráficas con una resolución de 720×348 puntos en pantalla. Aunque unía las prestaciones de la MDA y la CGA, no mostraba color de pantalla, por lo cual no se llegó a estandarizar. Tenía una memoria de 643 kB.

En 1990 IBM presentó la VGA (Video Graphics Array), la cual tuvo gran aceptación en el mercado, pues se alcanzaron los 2 MB de memoria de video, así como 256 colores. A partir de entonces, las tarjetas de video experimentaron una veloz evolución. Intel desarrolló en 1997 el puerto AGP (Accelerated Graphics Port) para solucionar los cuellos de botella entre el procesador y la tarjeta. Este luego se sustituyó por el PCI Express en 2003.

A fines de los 90 Nvidia crea el GPU (Unidad de proceso gráfico), un procesador dedicado a tareas gráficos que viene dentro de la tarjeta de video. Esto permitió una revolución en la industria, con lo que se lanzó la GeForce 256, la cual era capaz de procesar más de 10 millones de polígonos por segundo. En años posteriores, se incorporó las memorias DDR, y las tarjetas alcanzaron los 128 MB.

A partir de entonces, Nvidia y AMD han dominado el mercado con sus series GeForce y Radeon, respectivamente. Actualmente, las tarjetas de video soportan hasta pantallas 8K a 60HZ, por lo cual se han convertido en piezas fundamentales para videojuegos, trabajos en 3D, edición de video, etc.

Ejemplo de estas tarjetas son la Nvidia RTX 2050 Super o la AMD RX 5700 de AMD, las cuales ofrecen una gran capacidad de respuesta y potencia.

Ver también

En el glosario: AGPAMDCGADDRGPUMDAPCI ExpressTarjeta de videoTarjeta gráficaVGAVRAM.

Más contenido

Apartados: ¿Cómo optimizar y aumentar la velocidad de Internet?¿Cómo surge una idea?¿Existe la seguridad absoluta?Consejos en la ergonomía informáticaConsejos para aprender a programarEl auge de las redes socialesEn la búsqueda de archivos torrentsEntrevista laboral: cualquier cosa te llamamosHerramientas de respaldo y recuperación de archivos¿Se puede estar sin Internet?¿Seremos dependientes de la IA como lo somos de Internet?Una cursada diferente


Virus/gusanos: El origen de los virusCIHHappy99HybrisILoveYouLife StagesMelissaTimofónicaZippedFilesInfecciones vía correo electrónicoDistintas vías de infecciónVirus informáticos con historia


Historias: ¿Cómo surgió la imprenta?Acerca de paquetes ofimáticosEl CDEvolución de la informáticaAppleGoogleLa evolución de los Disc JockeysLinuxLa lógicaMicrosoftNavegadores de InternetOrigen y evolución de InternetRedes neuronales artificialesSurgimiento de la criptografía


Videojuegos/consolas: Evolución de las consolasEvolución de los videojuegosInventores de videojuegosJugando con la XboxSimCityVideojuegos violentos