La historia de las tarjetas gráficas o de video se remonta a fines de los años 60, cuando se deja de usar las impresoras como pantalla para dar el gran salto a los monitores. No obstante, en sus primeros años realizaban apenas algunas funciones, estaban integradas a la placa base y daban salida a la imagen (texto). Pese a su limitado trabajo, eran imprescindibles.
El éxito del ordenador doméstico y de las videoconsolas en los años 80 significaron un impulso para las tarjetas de video, las cuales iban incorporadas en la placa. La primera tarjeta gráfica llegó en 1981, con la MDA (Monochrome Display Adapter), la cual tenía la capacidad de representar 25 líneas de 80 caracteres en pantalla. Además, tenía una memoria RAM de 4 kB, con lo cual podía trabajar con una página de memoria. Cabe precisar que en aquel entonces se usaban monitores monocromáticos.
En aquel mismo año llegaron los colores y gráficos con la tarjeta CGA (Adaptador de Gráficos en Color) de la mano de IBM. Esta tenía 16 kibibytes (KiB) de memoria (VRAM) y soportaba una paleta de 16 colores, de los cuales podía mostrar 4 colores en simultáneo. Esto daba la posibilidad de conectar dos monitores y obtener salida en ambos.
En 1982 se lanzó al mercado la HGC (Hércules Graphics Card), la cual permitía trabajar dos páginas gráficas con una resolución de 720×348 puntos en pantalla. Aunque unía las prestaciones de la MDA y la CGA, no mostraba color de pantalla, por lo cual no se llegó a estandarizar. Tenía una memoria de 643 kB.
En 1990 IBM presentó la VGA (Video Graphics Array), la cual tuvo gran aceptación en el mercado, pues se alcanzaron los 2 MB de memoria de video, así como 256 colores. A partir de entonces, las tarjetas de video experimentaron una veloz evolución. Intel desarrolló en 1997 el puerto AGP (Accelerated Graphics Port) para solucionar los cuellos de botella entre el procesador y la tarjeta. Este luego se sustituyó por el PCI Express en 2003.
A fines de los 90 Nvidia crea el GPU (Unidad de proceso gráfico), un procesador dedicado a tareas gráficos que viene dentro de la tarjeta de video. Esto permitió una revolución en la industria, con lo que se lanzó la GeForce 256, la cual era capaz de procesar más de 10 millones de polígonos por segundo. En años posteriores, se incorporó las memorias DDR, y las tarjetas alcanzaron los 128 MB.
A partir de entonces, Nvidia y AMD han dominado el mercado con sus series GeForce y Radeon, respectivamente. Actualmente, las tarjetas de video soportan hasta pantallas 8K a 60HZ, por lo cual se han convertido en piezas fundamentales para videojuegos, trabajos en 3D, edición de video, etc.
Ejemplo de estas tarjetas son la Nvidia RTX 2050 Super o la AMD RX 5700 de AMD, las cuales ofrecen una gran capacidad de respuesta y potencia.
Apartados: ¿Cómo optimizar y aumentar la velocidad de Internet? • ¿Cómo surge una idea? • ¿Existe la seguridad absoluta? • Consejos en la ergonomía informática • Consejos para aprender a programar • El auge de las redes sociales • En la búsqueda de archivos torrents • Entrevista laboral: cualquier cosa te llamamos • Herramientas de respaldo y recuperación de archivos • ¿Se puede estar sin Internet? • ¿Seremos dependientes de la IA como lo somos de Internet? • Una cursada diferente
Virus/gusanos: El origen de los virus • CIH • Happy99 • Hybris • ILoveYou • Life Stages • Melissa • Timofónica • ZippedFiles • Infecciones vía correo electrónico • Distintas vías de infección • Virus informáticos con historia
Historias: ¿Cómo surgió la imprenta? • Acerca de paquetes ofimáticos • El CD • Evolución de la informática • Apple • Google • La evolución de los Disc Jockeys • Linux • La lógica • Microsoft • Navegadores de Internet • Origen y evolución de Internet • Redes neuronales artificiales • Surgimiento de la criptografía
Videojuegos/consolas: Evolución de las consolas • Evolución de los videojuegos • Inventores de videojuegos • Jugando con la Xbox • SimCity • Videojuegos violentos