Pocket-lint es compatible con sus lectores. Cuando compra a través de enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Aprende más

Esta página ha sido traducida utilizando IA y aprendizaje automático antes de ser revisada por un editor humano en su idioma nativo.

(Pocket-lint) - Nvidia se fundó en 1993, pero no fue hasta 1995 cuando la compañía lanzó su primer producto gráfico: la NV1. Las cosas han cambiado mucho desde entonces y ahora estamos mimados con el trazado de rayos, el DLSS y otras maravillosas tecnologías que hacen que nuestras experiencias de juego sean aún más agradables.

Echamos un vistazo a la historia de las tarjetas gráficas de Nvidia y a cómo han sido estos dispositivos a lo largo de los años.

-

Swaaye/WikipediaLas GPUs Nvidia a través de los tiempos foto 1

Nvidia NV1

La Nvidia NV1 se lanzó en 1995 y era capaz de manejar tanto vídeo 2D como 3D. Se vendió con el nombre de "Diamond Edge 3D" e incluso contaba con un puerto de joypad compatible con Sega Saturn.

Varios juegos de Sega Saturn fueron portados a PC, como Panzer Dragoon y Virtua Fighter Remix. Sin embargo, estas características no fueron suficientes para atraer al mercado, ya que la Saturn luchaba por competir con la PlayStation original.

La NV1 tuvo un comienzo difícil que empeoró con el lanzamiento de Microsoft DirectX , que era incompatible con la GPU y muchos juegos no se ejecutaban.

Mathías Tabó/WikipediaLas GPUs Nvidia a través de los tiempos foto 2

Nvidia RIVA 128

En 1997, Nvidia lanzó la NV3, también conocida como Riva 128, que significaba "Vídeo y animación interactivos en tiempo real". Esta tarjeta gráfica utilizaba la aceleración 2D y 3D junto con el mapeo de texturas poligonales.

En aquel momento, el rival de Nvidia, 3dfx, dominaba el mercado, pero la NV3 tenía un reloj de núcleo/memoria de 100MHz y básicamente duplicaba las especificaciones de la Voodoo 1 de 3dfx.

Había dos variantes de la NV3: la Riva 128 y la Riva 128ZX. Esta última era más potente, con 8 MB de VRAM y una velocidad de reloj de 250 MHz.

La NV3 tuvo mucho más éxito que la primera GPU de la compañía y ayudó a Nvidia a conseguir una gran popularidad.

Tors/WikipediaLas GPUs Nvidia a través de los tiempos foto 3

Nvidia NV4

En 1998, Nvidia lanzó la NV4, también conocida como Riva TNT. Esta tarjeta gráfica mejoró respecto a los modelos anteriores al incluir soporte para True Colour de 32 bits. La NV4 también tenía más memoria RAM, con 16 MB de SDR SDRAM, lo que significaba que también ofrecía un mayor rendimiento.

Fue en esta época cuando Nvidia empezó a hacer movimientos para actualizar regularmente los controladores gráficos para asegurar un buen rendimiento y compatibilidad para el usuario final, algo que la compañía sigue haciendo hasta el día de hoy.

La Riva TNT de Nvidia era más asequible en ese momento que la Vodoo2 de 3dfx, aunque un poco más lenta en términos de rendimiento. El soporte de los controladores fue clave para el éxito de NV4.

Uwe Hermann/WikipediaLas GPUs Nvidia a través de los tiempos foto 4

Nvidia NV5

En 1999, Nvidia dio continuidad a la NV4 con la RIVA TNT2. La NV5, como se llamaba en clave, incorporaba una serie de actualizaciones, como la compatibilidad con Z-buffer/stencil de 32 bits, hasta 32 MB de VRAM y compatibilidad con texturas de 2048 x 2048.

Y lo que es más importante, esta tarjeta gráfica contaba con velocidades de reloj mejoradas (hasta más de 150 MHz), lo que le proporcionaba un aumento de rendimiento de hasta el 17% con respecto al modelo anterior.

Esta tarjeta era un competidor directo de la 3dfx Voodoo3 y ambas eran increíblemente populares.

Hyins/WikipediaLas GPUs Nvidia a través de los tiempos foto 5

Nvidia GeForce 256

A finales de 1999, Nvidia lanzó lo que denominó la "primera GPU del mundo", la Nvidia GeForce 256.

Fue un inteligente movimiento de marketing de Nvidia y el comienzo de una historia de amor con las tarjetas gráficas de la marca GeForce durante los años siguientes.

Mejoraba las anteriores tarjetas RIVA al aumentar los canales de píxeles, pero también ofrecía un gran salto en el rendimiento para los juegos de PC.

Esta tarjeta admitía hasta 64 MB de SDRAM DDR y funcionaba a 166 MHz. Por tanto, era un 50% más rápida que la NV5.

Y, lo que es más importante, la GeForce 256 también era totalmente compatible con Direct3D 7, lo que significaba que podía ejecutar muchos de los mejores juegos de PC disponibles en ese momento.

Poco después de su lanzamiento, 3dfx quebró y ATI se convirtió en el principal competidor de Nvidia.

Hyins/WikipediaLas GPUs Nvidia a través de los tiempos foto 6

Nvidia GeForce2

Nvidia siguió a la primera GPU del mundo con la bien llamada GeForce2.

Esta GPU se presentó en diferentes variantes, como los modelos Ti, Pro, GTS y Ultra. Se trataba básicamente de tarjetas NV11, 15 y 16. A lo largo de los años 2000 y 2001 se fueron incrementando los canales y las frecuencias de reloj.

Lo que hizo interesante a GeForce2 fue el inicio de la compatibilidad con configuraciones multimonitor.

También fue en esta época cuando Nvidia adquirió 3dfx.

Hyins/WikipediaLas GPUs Nvidia a través de los tiempos foto 7

Nvidia GeForce3

Poco después de GeForce2 llegó GeForce3. Con el nombre en clave de NV20, esta serie de tarjetas gráficas representó las primeras GPU de Nvidia compatibles con DirectX 8.

Hubo tres versiones: GeForce3, GeForce3 Ti 200 y GeForce3 Ti 500. Esta siguiente GPU GeForce añadió sombreadores de píxeles y vértices programables, y antialiasing multimuestra a la mezcla.

Una versión de GeForce3 denominada NV2A se utilizó en la consola Xbox original.

Hyins/WikipediaLas GPUs Nvidia a través de los tiempos foto 8

Serie GeForce FX de Nvidia

Un salto adelante de un par de generaciones y en 2003 tenemos el lanzamiento de la serie GeForce FX de Nvidia.

Se trataba de la quinta generación de tarjetas gráficas GeForce y era compatible con Direct3D 9, así como con una serie de nuevas tecnologías de memoria. Entre ellas se encontraban DDR2, GDDR2 y GDDR3, así como el primer intento de Nvidia de crear un bus de datos de memoria de más de 128 bits.

Por su parte, la GeForce FX 5800 causó sensación por ser la primera GPU equipada con un gran refrigerador. Uno tan grande que a menudo se le llamaba el "cazapolvo" por la cantidad de ruido que emitía el ventilador.

Hyins/WikipediaLas GPUs Nvidia a través de los tiempos foto 9

Nvidia GeForce serie 6

Poco después del lanzamiento de la serie GeForce FX llegó la serie 6 (también conocida como NV40). Con la GeForce 6, Nvidia empezó a impulsar la tecnología SLI, que permitía combinar más de una tarjeta gráfica para obtener más potencia.

El buque insignia de esta gama era la GeForce 6800 Ultra, una tarjeta gráfica que contaba con 222 millones de transistores, pipelines superescalares de 16 píxeles y seis sombreadores de vértices. Era compatible con Shader Model 3.0 y con DirectX 9.0c y OpenGL 2.0 de Microsoft.

La serie también contaba con la tecnología Nvidia PureVideo y era capaz de descodificar vídeos H.264, VC-1, WMV y MPEG-2 con un uso reducido de la CPU.

Como resultado de todo esto, la serie GeForce 6 tuvo un gran éxito.

FxJ/WikipediaLas GPUs Nvidia a través de los tiempos foto 10

Serie GeForce7 de Nvidia

En 2005 llegó la serie GeForce7, que incluía la estrella 7800 GTX.

Esa tarjeta era una verdadera potencia para la época y, con una refrigeración inteligente, Nvidia pudo elevar la velocidad de reloj a 550 MHz. Al mismo tiempo, la compañía también consiguió reducir la latencia y aumentar el bus a 512 bits.

Curiosamente, una versión de la serie 7 se creó como RSX Reality Synthesizer, que era la CPU propietaria creada conjuntamente por Nvidia y Sony para la PlayStation 3.

Shooke/WikipediaLas GPUs Nvidia a través de los tiempos foto 11

Serie GeForce8 de Nvidia

En 2006, Nvidia lanzó la serie GeForce8 y presentó su microarquitectura Tesla. Se trataba del primer diseño de sombreado unificado de la compañía y también sería una de sus arquitecturas más utilizadas en futuras tarjetas.

La muy querida Nvidia GeForce 8800 GTX era el buque insignia de la gama y gozaba de una increíble popularidad. Contaba con 681 millones de transistores, 768 MB de memoria GDDR3 y 128 sombreadores a 575 MHz.

Lo más importante es que esta tarjeta gráfica podía ejecutar Crysis, que era todo lo que los jugadores de PC querían en ese momento.

En 2006, las cosas también se calentaron cuando AMD compró ATI por 5.400 millones de dólares y se convirtió en una espina clavada para Nvidia en los años venideros.

Sk/WikipediaLas GPUs Nvidia a través de los tiempos foto 12

Serie Nvidia GeForce9

A principios de 2008, Nvidia lanzó la serie GeForce9. Estas tarjetas seguían utilizando la arquitectura Tesla, pero también añadían compatibilidad con PCIe 2.0, colores mejorados y compresión Z.

En esta época, Nvidia estaba aumentando el rendimiento con velocidades de reloj de hasta 675 MHz y reduciendo el consumo de energía.

AmazonLas GPUs Nvidia a través de los tiempos foto 13

Nvidia GeForce serie 400

La siguiente actualización importante llegó en 2010, cuando Nvidia lanzó la serie GeForce 4000. Fue entonces cuando Nvidia reveló la microarquitectura Fermi, que era la siguiente arquitectura importante de la compañía.

Esta serie también era compatible con OpenGL 4.0 y Direct3D 11 y competía directamente con la serie Radeon HD 5000.

Sin embargo, la serie se vio defraudada por las altas temperaturas de funcionamiento y el consumo de energía, lo que provocó muchas quejas de los usuarios.

HanyNARLas GPUs Nvidia a través de los tiempos foto 14

Nvidia GeForce serie 600

La serie GeForce 600 introdujo la arquitectura Kepler de Nvidia, diseñada para aumentar el rendimiento por vatio y mejorar el rendimiento de la anterior microarquitectura Fermi.

Con Kepler, Nvidia consiguió aumentar el reloj de la memoria a 6 GHz. También añadió GPU Boost, que garantizaba que la GPU pudiera funcionar a una velocidad de reloj mínima, pero también aumentar el rendimiento cuando fuera necesario hasta alcanzar un objetivo de potencia predefinido.

Esta gama también era compatible con Direct3D 11 y Direct3D 12. También se introdujo un nuevo método de antialiasing conocido como TXAA.

Marcus BurnsLas GPUs Nvidia a través de los tiempos foto 15

Nvidia GeForce serie 700

En 2013, Nvidia subió el listón con la serie 700, rematada con la increíble tarjeta GTX Titan de gama alta para entusiastas.

Esta serie era una actualización de la microarquitectura Kepler, pero algunas tarjetas posteriores también incorporaban las arquitecturas Femi y Maxwell.

La GTX Titan contaba con 2.688 núcleos CUDA, 224 TMU y 6 GB de RAM. En esta época, Nvidia estaba consiguiendo exprimir hasta siete mil millones de transistores en sus GPU.

La serie GeForce 700 estaba diseñada para maximizar la eficiencia energética, pero también incluía otras funciones como la codificación H.264 por hardware, la interfaz PCI Express 3.0, la compatibilidad con DisplayPort 1.2 y la salida de vídeo HDMI 1.4a 4K x 2K, así como GPU-Boost 2.0.

Marcus BurnsLas GPUs Nvidia a través de los tiempos foto 16

Nvidia GeForce serie 900

En 2014, Nvidia parece haberse saltado una generación y pasó directamente a la serie GeForce 900. Fue la introducción de la microarquitectura Maxwell, que ofrecía mejores capacidades gráficas y una mayor eficiencia energética.

Esta serie contaba con la GeForce GTX 980 como buque insignia inicial, seguida posteriormente por la 980 Ti y la GeForce GTX TITAN X en el extremo.

También se mejoró NVENC para esta serie y apareció la compatibilidad con Direct3D 12_1, OpenGL 4.6, OpenCL 3.0 y Vulkan 1.3.

Marcus BurnsLas GPUs Nvidia a través de los tiempos foto 17

Serie Nvidia GeForce10

En 2014 Nvidia reveló la serie GeForce10 basada en la microarquitectura Pascal. La GTX 1080 Ti es quizás la más conocida de las GPU de esta serie y se consolidó en la historia como quizás una de las tarjetas más significativas que Nvidia lanzó.

Esta tarjeta gráfica dominó el mercado y ofrecía un rendimiento y una eficiencia energética frente al coste tan extraordinarios que a menudo se hacía referencia a ella cuando se comparaba con futuras GPU.

La serie 10 también incluía nuevas características como GPU Boost 3.0, un sistema de programación de equilibrio de carga dinámico, triple buffering y soporte para DisplayPort 1.4 y HDMI 2.0b.

Marcus BurnsLas GPUs Nvidia a través de los años foto 18

Serie Nvidia GeForce20

La serie GeForce20 se lanzó en 2018 y presentó al mundo la microarquitectura Turing.

En particular, estas tarjetas gráficas fueron la primera generación de tarjetas RTX y vieron cómo Nvidia impulsaba el trazado de rayos como principal punto de venta.

El uso de Tensor Cores y otras mejoras ayudaron a estas tarjetas a dar un enorme salto en la destreza gráfica. El resultado fue una iluminación realista y unos efectos de reflexión convincentes en el juego.

Sin embargo, las mejoras tuvieron un coste, ya que la RTX 2080 Ti se vendió a un precio de 1.199 dólares (en comparación con los 699 dólares de la 1080 Ti).

Pocket-lintLas GPUs Nvidia a través de los tiempos foto 19

Serie GeForce30 de Nvidia

La serie GeForce30 sucedió a la serie 20 en 2020 y, por desgracia, se hizo más conocida por ser simplemente imposible de conseguir debido a la escasez de silicona.

Aun así, la Nvidia RTX 3080 estaba destinada a venderse por 699 dólares, lo que la hacía mucho más asequible que el buque insignia de las generaciones anteriores, y la serie también adquirió mejoras significativas.

El buque insignia GeForce RTX 3090 Ti, anunciado en marzo de 2022, contaba con 10.752 núcleos CUDA, 78 RT-TFLOPs, 40 Shader-TFLOPs y 320 Tensor-TFLOPs de potencia. Esta poderosa bestia también se ha señalado que consume mucha energía, ya que requiere al menos 850 vatios de potencia, lo que significa que probablemente necesitarás una fuente de alimentación de 1.000 vatios para hacerla funcionar.

Escrito por Adrian Willings. Edición por Chris Hall.