Pocket-lint est pris en charge par ses lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons gagner une commission daffiliation. Apprendre encore plus

Cette page a été traduite en utilisant l'IA et l'apprentissage automatique avant d'être révisée par un rédacteur humain dans votre langue maternelle.

(Pocket-lint) - Nvidia a été fondée en 1993, mais ce n'est qu'en 1995 que la société a sorti son premier produit graphique, le NV1. Les choses ont beaucoup changé depuis et nous sommes maintenant gâtés avec le ray tracing, le DLSS et d'autres technologies merveilleuses qui rendent nos expériences de jeu encore plus agréables.

Nous nous penchons sur l'histoire des cartes graphiques Nvidia et sur l'évolution de ces appareils au fil des ans.

Swaaye/WikipediaLes GPU Nvidia à travers les âges photo 1

Nvidia NV1

Le Nvidia NV1 a été lancé en 1995 et était capable de gérer les vidéos 2D et 3D. Il était vendu sous le nom de "Diamond Edge 3D" et possédait même un port de manette compatible Sega Saturn.

Plusieurs jeux Sega Saturn ont été portés sur PC, notamment Panzer Dragoon et Virtua Fighter Remix. Mais ces caractéristiques ne suffisent pas à séduire le marché, car la Saturn a du mal à concurrencer la PlayStation originale.

Le NV1 a connu un départ difficile, aggravé par la sortie de Microsoft DirectX , incompatible avec le GPU et qui empêchait de nombreux jeux de tourner.

Mathías Tabó/WikipediaLes GPU Nvidia à travers les âges photo 2

Nvidia RIVA 128

En 1997, Nvidia a sorti la NV3 alias Riva 128, Riva signifiant "Real-time Interactive Video and Animation". Cette carte graphique utilisait l'accélération 2D et 3D ainsi que le mappage de texture polygonale.

À l'époque, 3dfx, le rival de Nvidia, dominait le marché, mais la NV3 avait une horloge cœur/mémoire de 100 MHz et doublait essentiellement les spécifications de la Voodoo 1 de 3dfx.

Il y avait deux variantes de la NV3 sous la forme du Riva 128 et du Riva 128ZX. Ce dernier était plus puissant avec 8 Mo de VRAM et une vitesse d'horloge de 250 MHz.

Le NV3 a eu beaucoup plus de succès que le premier GPU de la société et a permis à Nvidia d'acquérir une grande popularité.

Tors/WikipediaLes GPU Nvidia à travers les âges photo 3

Nvidia NV4

En 1998, Nvidia a lancé NV4, alias Riva TNT. Cette carte graphique améliorait les modèles précédents en incluant le support de la True Colour 32 bits. La NV4 disposait également de plus de RAM avec 16 Mo de SDR SDRAM, ce qui signifiait qu'elle offrait également de meilleures performances.

C'est à cette époque que Nvidia a commencé à prendre des mesures pour mettre régulièrement à jour les pilotes graphiques afin de garantir de bonnes performances et une bonne compatibilité pour l'utilisateur final, ce que la société fait encore aujourd'hui.

Le Riva TNT de Nvidia était plus abordable à l'époque que le Vodoo2 de 3dfx, bien qu'un peu plus lent en termes de performances. Le support des pilotes a été la clé du succès de la NV4.

Uwe Hermann/WikipediaLes GPU Nvidia à travers les âges photo 4

Nvidia NV5

En 1999, Nvidia a suivi le NV4 avec le RIVA TNT2. NV5, comme son nom de code l'indique, a bénéficié d'un certain nombre de mises à jour, notamment le support du Z-buffer/stencil 32 bits, jusqu'à 32 Mo de VRAM et le support des textures 2048 x 2048.

Plus important encore, cette carte graphique avait des vitesses d'horloge améliorées (jusqu'à 150+ MHz), ce qui lui donnait un gain de performance de 17 % par rapport au modèle précédent.

Cette carte était une concurrente directe de la 3dfx Voodoo3 et toutes deux ont été très populaires.

Hyins/WikipediaLes GPU Nvidia à travers les âges photo 5

Nvidia GeForce 256

Fin 1999, Nvidia a lancé ce qu'elle présentait comme le "premier GPU au monde", le Nvidia GeForce 256.

Il s'agissait d'un coup marketing astucieux de la part de Nvidia et le début d'une histoire d'amour avec les cartes graphiques de la marque GeForce pour les années à venir.

Elle a amélioré les cartes RIVA précédentes en augmentant le nombre de pipelines de pixels, mais a également offert un grand bond en avant en termes de performances pour les jeux sur PC.

Cette carte prenait en charge jusqu'à 64 Mo de DDR SDRAM et fonctionnait jusqu'à 166 MHz. Elle était donc 50 % plus rapide que la NV5.

Plus important encore, le GeForce 256 prenait entièrement en charge Direct3D 7, ce qui signifiait qu'il pouvait alimenter la plupart des meilleurs jeux PC disponibles à l'époque.

Peu après ce lancement, 3dfx a fait faillite et ATI est devenu le principal concurrent de Nvidia.

Hyins/WikipediaLes GPU Nvidia à travers les âges photo 6

Nvidia GeForce2

Nvidia a suivi le premier GPU du monde avec le bien nommé GeForce2.

Ce GPU se déclinait en plusieurs variantes, notamment les modèles Ti, Pro, GTS et Ultra. Il s'agissait essentiellement de cartes NV11, 15 et 16. L'augmentation des pipelines et des fréquences d'horloge a suivi tout au long des versions 2000 et 2001.

Ce qui a rendu le GeForce2 intéressant, c'est le début de la prise en charge des configurations multi-moniteurs.

C'est également à cette époque que Nvidia a acquis 3dfx.

Hyins/WikipediaLes GPU Nvidia à travers les âges photo 7

Nvidia GeForce3

Peu après le GeForce2 est arrivé le GeForce3. Sous le nom de code NV20, cette série de cartes graphiques représentait les premiers GPU compatibles DirectX 8 de Nvidia.

Il existe trois versions : le GeForce3, le GeForce3 Ti 200 et le GeForce3 Ti 500. Ce nouveau GPU GeForce a ajouté des nuanceurs de pixels et de sommets programmables, ainsi qu'un anti-crénelage multi-échantillons.

Une version du GeForce3 appelée NV2A a été utilisée dans la console Xbox originale.

Hyins/WikipediaLes GPU Nvidia à travers les âges photo 8

Série Nvidia GeForce FX

Avancez de quelques générations et en 2003, nous avons la sortie de la série GeForce FX de Nvidia.

Il s'agit de la cinquième génération de cartes graphiques GeForce, qui prennent en charge Direct3D 9 ainsi qu'un certain nombre de nouvelles technologies de mémoire. Il s'agissait notamment de DDR2, GDDR2 et GDDR3 ainsi que de la première tentative de Nvidia d'utiliser un bus de données mémoire de plus de 128 bits.

Entre-temps, le GeForce FX 5800 a fait des vagues en étant le premier GPU à être équipé d'un grand refroidisseur. Il était si grand qu'on l'appelait souvent le "dépoussiéreur" en raison du bruit du ventilateur qu'il émettait.

Hyins/WikipediaLes GPU Nvidia à travers les âges photo 9

Nvidia GeForce 6 series

Peu après la sortie de la série GeForce FX est arrivée la série 6 (alias NV40). Les GeForce 6 ont marqué le début de l'introduction par Nvidia de la technologie SLI, qui permet aux utilisateurs de combiner plusieurs cartes graphiques pour plus de puissance.

Le fleuron de cette gamme était la GeForce 6800 Ultra, une carte graphique dotée de 222 millions de transistors, de pipelines superscalaires de 16 pixels et de six vertex shaders. Elle prenait en charge le Shader Model 3.0 et était compatible avec Microsoft DirectX 9.0c et OpenGL 2.0.

La série était également dotée de la technologie Nvidia PureVideo et était capable de décoder des vidéos H.264, VC-1, WMV et MPEG-2 avec une utilisation réduite du CPU.

Grâce à tout cela, la série GeForce 6 a connu un grand succès.

FxJ/WikipediaLes GPU Nvidia à travers les âges photo 10

Nvidia GeForce7 series

En 2005, la série GeForce7 est apparue, y compris la 7800 GTX.

Cette carte était à elle seule une véritable centrale électrique pour l'époque et, grâce à un système de refroidissement intelligent, Nvidia a pu faire passer la vitesse d'horloge à 550 MHz. Dans le même temps, la société a également réussi à réduire la latence et à augmenter le bus à 512 bits.

Il est intéressant de noter qu'une version de la série 7 a été conçue en tant que RSX Reality Synthesizer, le CPU propriétaire créé conjointement par Nvidia et Sony pour la PlayStation 3.

Shooke/WikipediaLes GPU Nvidia à travers les âges photo 11

Nvidia GeForce8 series

En 2006, Nvidia a lancé la série GeForce8 et dévoilé sa microarchitecture Tesla. Il s'agit de la première conception de shaders unifiés de la société et elle sera l'une des architectures les plus utilisées dans les cartes futures.

La très appréciée Nvidia GeForce 8800 GTX était le fleuron de la gamme et était incroyablement populaire. Elle comptait 681 millions de transistors, 768 Mo de mémoire GDDR3 et 128 shaders cadencés à 575 MHz.

Plus important encore, cette carte graphique pouvait faire tourner Crysis, ce qui était tout ce que les joueurs de PC voulaient à l'époque.

En 2006, les choses se sont également réchauffées avec l'achat d'ATI par AMD pour 5,4 milliards de dollars, qui allait devenir une épine dans le pied de Nvidia pour les années à venir.

Sk/WikipediaLes GPU Nvidia à travers les âges photo 12

Nvidia GeForce9 series

Au début de l'année 2008, Nvidia a lancé la série GeForce9. Ces cartes continuent d'utiliser l'architecture Tesla mais ajoutent la prise en charge de PCIe 2.0, l'amélioration des couleurs et la compression en z.

À cette époque, Nvidia a augmenté les performances d'un cran avec des vitesses d'horloge atteignant 675 MHz, tout en réduisant la consommation d'énergie.

AmazonLes GPU Nvidia à travers les âges photo 13

Nvidia GeForce 400 series

La mise à jour suivante a eu lieu en 2010, lorsque Nvidia a lancé la série GeForce 4000. C'est à ce moment-là que Nvidia a révélé la microarchitecture Fermi, qui était la prochaine grande architecture de la société.

Cette série prenait également en charge OpenGL 4.0 et Direct3D 11 et était un concurrent direct de la série Radeon HD 5000.

Cependant, la série a été déçue par des températures de fonctionnement et une consommation d'énergie élevées qui ont provoqué la grogne des utilisateurs.

HanyNARLes GPU Nvidia à travers les âges photo 14

Nvidia GeForce 600 series

La série GeForce 600 a introduit l'architecture Kepler de Nvidia, conçue pour augmenter les performances par watt tout en améliorant les performances de la microarchitecture Fermi.

Avec Kepler, Nvidia a réussi à augmenter l'horloge mémoire à 6 GHz. Elle a également ajouté la fonction GPU Boost, qui garantit que le GPU peut fonctionner à une vitesse d'horloge minimale, tout en augmentant les performances si nécessaire, jusqu'à ce qu'il atteigne un objectif de consommation prédéfini.

Cette gamme prend également en charge Direct3D 11 et Direct3D 12. IT a également introduit une nouvelle méthode d'anti-crénelage connue sous le nom de TXAA.

Marcus BurnsLes GPU Nvidia à travers les âges photo 15

Nvidia GeForce 700 series

En 2013, Nvidia a fait monter les choses d'un cran avec la série 700, qui a été couronnée par la carte GTX Titan, une carte haut de gamme pour les passionnés.

Cette série était un rafraîchissement de la microarchitecture Kepler, mais certaines cartes ultérieures étaient également dotées des architectures Femi et Maxwell.

La GTX Titan possédait 2688 cœurs CUDA, 224 TMU et 6 Go de RAM. À cette époque, Nvidia parvenait à insérer jusqu'à sept milliards de transistors dans ses GPU.

La série GeForce 700 a été conçue pour maximiser l'efficacité énergétique, mais elle comprend également d'autres caractéristiques telles que l'encodage matériel H.264, l'interface PCI Express 3.0, la prise en charge de la sortie vidéo DisplayPort 1.2 et HDMI 1.4a 4K x 2K, ainsi que le GPU-Boost 2.0.

Marcus BurnsLes GPU Nvidia à travers les âges photo 16

Nvidia GeForce 900 series

En 2014, Nvidia a apparemment sauté une génération et est passé directement à la série GeForce 900. C'était l'introduction de la microarchitecture Maxwell qui offrait des capacités graphiques améliorées ainsi qu'une meilleure efficacité énergétique.

Cette série comprenait la GeForce GTX 980 comme vaisseau amiral initial, suivie plus tard par la 980 Ti et la GeForce GTX TITAN X à l'extrémité.

Le NVENC a également été amélioré pour cette série et la prise en charge de Direct3D 12_1, OpenGL 4.6, OpenCL 3.0 et Vulkan 1.3 est apparue.

Marcus BurnsLes GPU Nvidia à travers les âges photo 17

Série Nvidia GeForce10

En 2014, Nvidia a révélé la série GeForce10 basée sur la microarchitecture Pascal. La GTX 1080 Ti est peut-être la plus connue des GPU de cette série et s'est imposée dans l'histoire comme l'une des cartes les plus significatives que Nvidia ait lancées.

Cette carte graphique a dominé le marché et a offert de telles performances et une telle efficacité énergétique par rapport au coût qu'elle sera souvent citée en référence pour comparer les futurs GPU.

La série 10 comprenait également de nouvelles fonctionnalités telles que GPU Boost 3.0, un système de planification dynamique de l'équilibrage des charges, le triple buffering et la prise en charge de DisplayPort 1.4 et HDMI 2.0b.

Marcus BurnsLes GPU Nvidia à travers les âges photo 18

Nvidia GeForce20 series

La série GeForce20 est sortie en 2018 et a présenté la microarchitecture Turing au monde.

Notamment, ces cartes graphiques étaient la première génération de cartes RTX et ont vu Nvidia pousser le ray tracing comme principal argument de vente.

L'utilisation de Tensor Cores et d'autres améliorations ont permis à ces cartes de faire un bond en avant dans les prouesses graphiques. Il en résulte un éclairage réaliste et des effets de réflexion convaincants dans les jeux.

Ces améliorations ont toutefois eu un coût, la RTX 2080 Ti étant vendue au détail au prix exorbitant de 1 199 $ (contre 699 $ pour la 1080 Ti).

Pocket-lintLes GPU Nvidia à travers les âges photo 19

Nvidia GeForce30 series

La série GeForce30 a succédé à la série 20 en 2020 et est malheureusement devenue plus connue pour être tout simplement impossible à obtenir en raison de la pénurie de silicone.

Pourtant, la Nvidia RTX 3080 était censée être vendue au détail à 699 $, ce qui la rendait beaucoup plus abordable que le produit phare de la génération précédente, et la série a également bénéficié d'améliorations significatives.

Le fleuron de la série, la GeForce RTX 3090 Ti, annoncée en mars 2022, est dotée de 10 752 cœurs CUDA, 78 RT-TFLOPs, 40 Shader-TFLOPs et 320 Tensor-TFLOPs. Cette puissante bête a également été notée comme étant gourmande en énergie, nécessitant au moins 850 watts de puissance, ce qui signifie que vous auriez probablement besoin d'un PSU de 1 000 watts pour la faire fonctionner.

Écrit par Adrian Willings. Édité par Chris Hall.