La evolución de las tarjetas gráficas a través de la historia

TRENDING

jas

No hay dudas al afirmar que es la tarjeta gráfica uno de los componentes tecnológicos que más avanzó. Desde sus tímidas primeras funciones hasta el gran protagonismo actual, hubo miles de transformaciones y mejoras. Para conocer su evolución, primero vamos a definir con exactitud qué es una tarjeta gráfica, conocer cuáles son sus componentes y funciones, para, desde allí, recorrer su historia.

¿Qué es una tarjeta gráfica?

Se trata de un componente electrónico que está integrado en la placa base de los ordenadores, como las Intel UHD Graphics, Intel Iris Xe o AMD Radeon Vega pero que también se puede instalar para aumentar el rendimiento, como la NVIDIA RTX 3090 o AMD Radeon RX 6800. Su función específica es la de transformar en imagen un código servido por el procesador y enviarla a un monitor que hace posible su visualización. También se la suele llamar tarjeta de video o GPU.

Componentes de las tarjetas gráficas

Poseen una unidad de procesamiento gráfico (GPU), una RAM dedicada a procesar rápidamente los datos gráficos y dispositivos refrigerantes que eliminan el calor excesivo; (para ello se utilizan ventiladores o aspiradores). La memoria de la tarjeta gráfica es la responsable de almacenar todos los datos y las imágenes que se muestran en la pantalla.

Tipos de tarjetas gráficas

Pueden ser integradas, dedicadas o híbridas.

Integradas

También conocidas como compartidas, son las que vienen incluidas dentro del procesador en la placa base. Están preparadas para ejecutar tareas cotidianas. Su rendimiento es menor que el de las tarjetas dedicadas. Las más conocidas son, en procesadores Intel, Intel UHD Graphics y, en procesadores AMD Ryzen, AMD Radeon Vega.

Dedicadas

Tienen recursos propios, son más grandes, ofrecen mayor potencia y se instalan en el equipo como si fuesen una unidad externa. Realizan tareas más exigentes y cuentan con sus propios ventiladores. Entre ellas se encuentran la NVIDIA RTX 3090 y la AMD Radeon RX 6800

Híbridas

Las tarjetas híbridas son una combinación entre ambas y permiten el trabajo en conjunto o de manera alternativa. Por ejemplo, la EVGA GeForce RTX 3090 FTW3 Ultra Hybrid.

Historia

Actualmente es imposible pensar en una computadora sin gráficos, o, mejor dicho, en una computadora sin tarjeta gráfica que los posibilite. La historia cuenta que en los años 60 los ordenadores se comunicaban visualmente a través de impresoras en línea que mostraban números y letras; y que a principios de los 70 comenzaron a ser reemplazados por monitores.

Ordenadores cada vez más evolucionados

La evolución de los ordenadores llevó a reducir el tamaño lo más posible y el auge de las laptops dio como resultado la integración de las tarjetas gráficas en las placas base

Cronología

La primera tarjeta gráfica que se conoció fue la MDA en 1981. Tenía 4KB de RAM por lo que solo podía trabajar con una página de memoria Los monitores eran monocromáticos, de tonos verdes.  No tardó en llegar la CGA; primera tarjeta de IBM que trabajaba tanto en textos como en gráficos. Tenía 16 KB de RAM y soportaba una paleta de 16 colores que podían mostrarse simultáneamente. En 1982 surgió la HGC (Hércules Graphics Card) con beneficios multiplicados pero que no era totalmente compatible con las tarjetas de IBM. Traía memoria de 643 KB.

EGA: nacen en 1986 y se las puede considerar como las primeras tarjetas gráficas reales. Incorporaban memoria de 64KB y 256 KB y podían trabajar en 16 colores a una resolución de 640 por 200 pixeles. Se conectaban a puertos ISA. En 1987 Hércules reapareció con la posibilidad de mostrar 16 colores en una paleta de 64. Su calidad de imagen se veía muy superior a lo ya conocido. Las gráficas VGA surgen en 1987 y traen aparejados varios cambios. A partir de ese momento se fabrican modelos cada vez más completos. y los colores comienzan a mostrarse tal como los vemos ahora.

En 1990 sale a la luz VG y luego nace la SVGA con 2 MB de memoria de video, resoluciones 1024 por 768 puntos y 256 colores dentro de una paleta de 262. En 1993 se reduce el tamaño de las tarjetas y en 1995 se dan a conocer las primeras versiones 2D y 3D que muestran un mundo de posibilidades gráficas al incorporar nuevas funciones. Voodoo y Voodoo 2 surgen en 1997 y a partir de allí se conocen, entre otras, las tarjetas TNT y TNT 2 de alto rendimiento, de Nvidia.

Tarjetas AGP: el puerto AGP se desarrolla en 1997 por Intel. Se trata de un puerto de 22 bits, pero con diferencias importantes entre las que podemos mencionar la incorporación de 8 canales adicionales para comunicación RAM

A partir de 1999 Nvidia crea y oficializa el término tarjeta gráfica y comienza a liderar el mercado con la incorporación de su gama GForce. En año nace la GPU (nombre con que también se las llama a las tarjetas de video, pero no hay que confundir, ya que se trata de un procesador que viene integrado) y causó una verdadera revolución dentro del mundo tecnológico.

La GEFORCE 256 fue el primer modelo de Nvidia con un procesador GPU y resultó un enorme éxito comercial y tecnológico. En ese momento las tarjetas eran caras y estaban pensadas solamente para un usuario exigente.

Con el nuevo milenio, en 2001Nvidia produce la primera GPU programable: la Ge Force 3 y los adelantos se comienzan a dar con mayor frecuencia.

En 2004, Nvidia lanza la tecnología Sli que permite combinar la potencia de varias GPU en las misma PC. En 2006, presenta CUDA, que permite la posibilidad de resolver problemas complejos. En 2008, se diseña Tsubame, una de las computadoras más rápidas del mundo, la primera basada en GPU de Nvidia.

Un año despues, AMD lanza ATI Radeon HD 5970, la tarjeta gráfica más veloz del mundo, diseñada para los videojuegos más demandantes. En 2012 Nvidia presenta GPU con tecnología GRID, trasladada por primera vez en la historia del procesamiento gráfico desde la tarjeta a la nube y en 2014 AMD presenta Radeon R9 295 x2, la tarjeta gráfica más potente del mundo conocida hasta ese momento.  

Últimos años

Con el tiempo las tarjetas gráficas pasaron de un hardware de un solo núcleo y función fija, a tener un conjunto de núcleos paralelos programables. En los últimos años la evolución se ha enfocado en el campo de los algoritmos 3D y la velocidad de los procesos gráficos. También se ha incorporado memoria DDR.

Años 2020

Las tarjetas gráficas de 2020 trajeron bastante innovaciones y marcaron grandes avances. La serie Nvidia RTX 30, incluyó modelos como la RTX 3070, RTX 3080 y la poderosa RTX 3090 que ofrecieron un rendimiento excepcional en juegos y aplicaciones de gráficos intensivos.

Líderes indiscutidos

Hasta 2006 Nvidia y ATI compartieron primeros puestos y liderazgo, pero ATI fue comprada por AMD y se convirtió en la principal competidora de Intel y Nvidia, con aportes significativos en el campo de la investigación, el avance y la innovación.

Tarjetas gráficas actuales

La tarjeta gráfica es un componente esencial en el mundo del gaming moderno. Permite obtener imágenes de calidad indiscutida y mayor fluidez en el juego.

Podemos elegir de acuerdo con nuestras necesidades

Hoy podemos optar entre una AMD, una Nvidia, o una MSI que se encuentran en constante evolución; todos sus modelos mejoran notablemente las condiciones de iluminación, sombras y reflejos y aseguran imágenes más realistas y experiencias inmersivas.

La última generación de GForce RTX de Nvidia serie 30 ofrece un rendimiento y una calidad de imagen deslumbrante. La Nvidia Ge Force 30380 lidera el mercado actual.

Conclusiones

Sin dudas, desde su aparición hasta la fecha, la tarjeta gráfica ha evolucionado de manera increíble. No es descabellado afirmar que en un futuro no muy lejano seguirá asombrándonos de la mano de nuevas tecnologías.