Pocket-lint stöds av sina läsare. När du köper via länkar på vår webbplats kan vi tjäna en affiliate provision. Läs mer

Den här sidan har översatts med hjälp av AI och maskininlärning innan den har granskats av en mänsklig redaktör på ditt modersmål.

(Pocket-lint) - Nvidia grundades 1993, men det var inte förrän 1995 som företaget släppte sin första grafikprodukt - NV1. Saker och ting har förändrats mycket sedan dess och vi är nu bortskämda med ray tracing, DLSS och annan fantastisk teknik som gör våra spelupplevelser ännu roligare.

Vi tar en titt tillbaka på Nvidias grafikkorts historia och hur dessa enheter har sett ut genom åren.

-

Swaaye/WikipediaNvidias grafikprocessorer genom tiderna foto 1

Nvidia NV1

Nvidia NV1 lanserades 1995 och kunde hantera både 2D- och 3D-video. Den såldes som "Diamond Edge 3D" och hade till och med en Sega Saturn-kompatibel joypadport.

Flera Sega Saturn-spel portades till PC, bland annat Panzer Dragoon och Virtua Fighter Remix. Dessa funktioner var dock inte tillräckliga för att tilltala marknaden eftersom Saturn kämpade för att konkurrera med den ursprungliga PlayStation.

NV1 fick en tuff start som förvärrades av lanseringen av Microsoft DirectX som var inkompatibelt med GPU:n och många spel kunde inte köras.

Mathías Tabó/WikipediaNvidias GPU:er genom tiderna foto 2

Nvidia RIVA 128

1997 släppte Nvidia NV3 alias Riva 128, Riva stod för "Real-time Interactive Video and Animation" (interaktiv video och animation i realtid). Detta grafikkort använde både 2D- och 3D-acceleration tillsammans med polygontexturmappning.

Vid den tiden dominerade Nvidias rival 3dfx marknaden, men NV3 hade en kärn- och minnesklocka på 100 MHz och fördubblade i princip specifikationerna för 3dfx Voodoo 1.

Det fanns två varianter av NV3 i form av Riva 128 och Riva 128ZX. Den senare var kraftfullare med 8 MB VRAM och en klockfrekvens på 250 MHz.

NV3 var mycket mer framgångsrik än företagets första GPU och bidrog till att Nvidia fick en bred popularitet.

Tors/WikipediaNvidias grafikprocessorer genom tiderna foto 3

Nvidia NV4

1998 släppte Nvidia NV4, även kallad Riva TNT. Detta grafikkort var bättre än de tidigare modellerna och hade stöd för 32-bitars True Colour. NV4 hade också mer RAM-minne med 16 MB SDR SDRAM, vilket innebar att det också erbjöd högre prestanda.

Det var vid den här tiden som Nvidia började ta initiativ till att regelbundet uppdatera grafikdrivrutiner för att säkerställa god prestanda och kompatibilitet för slutanvändaren, något som företaget fortfarande gör än idag.

Nvidias Riva TNT var vid den här tiden mer prisvärd än 3dfx Vodoo2 om än lite långsammare när det gäller prestanda. Drivrutinstödet var nyckeln till NV4:s framgång.

Uwe Hermann/WikipediaNvidias grafikprocessorer genom tiderna foto 4

Nvidia NV5

1999 följde Nvidia upp NV4 med RIVA TNT2. NV5, som var dess kodnamn, köpte ett antal uppdateringar, bland annat stöd för 32-bitars Z-buffer/stencil, upp till 32 MB VRAM och stöd för texturer på 2048 x 2048.

Ännu viktigare är att grafikkortet hade förbättrade klockfrekvenser (upp till 150+ MHz), vilket gav det så mycket som en 17-procentig prestandaförbättring jämfört med den tidigare modellen.

Detta kort var en direkt konkurrent till 3dfx Voodoo3 och båda var otroligt populära.

Hyins/WikipediaNvidias grafikprocessorer genom tiderna foto 5

Nvidia GeForce 256

I slutet av 1999 släppte Nvidia vad de kallade "världens första GPU" i form av Nvidia GeForce 256.

Detta var ett smart marknadsföringsgrepp från Nvidias sida och början på en kärleksaffär med GeForce-märkta grafikkort under många år framöver.

Det förbättrade tidigare RIVA-kort genom att öka antalet pixelpipelines men erbjöd också ett stort språng i prestanda för PC-spel.

Kortet hade stöd för upp till 64 MB DDR SDRAM och fungerade upp till 166 MHz. Som sådant var det 50 procent snabbare än NV5.

Ännu viktigare är att GeForce 256 också hade fullt stöd för Direct3D 7, vilket innebar att det kunde driva många av de bästa PC-spel som fanns tillgängliga vid den tiden.

Kort efter lanseringen gick 3dfx i konkurs och ATI blev Nvidias främsta konkurrent.

Hyins/WikipediaNvidias grafikprocessorer genom tiderna foto 6

Nvidia GeForce2

Nvidia följde upp världens första GPU med den passande namnet GeForce2.

Denna GPU fanns i flera olika varianter, bland annat Ti, Pro, GTS och Ultra-modellerna. Dessa var i huvudsak NV11-, 15- och 16-kort. Fler pipelines och högre klockfrekvenser följde under 2000 och 2001 års versioner.

Det som gjorde GeForce2 intressant var att man började stödja inställningar med flera bildskärmar.

Det var också vid denna tid som Nvidia förvärvade 3dfx.

Hyins/WikipediaNvidias grafikprocessorer genom tiderna foto 7

Nvidia GeForce3

Kort efter GeForce2 kom GeForce3. Denna serie grafikkort med kodnamnet NV20 var Nvidias första DirectX 8-kompatibla grafikkort.

Det fanns tre versioner - GeForce3, GeForce3 Ti 200 och GeForce3 Ti 500. Med nästa GeForce GPU lades programmerbara pixel- och vertex shaders och multisample anti-aliasing till.

En version av GeForce3 som kallas NV2A användes i den ursprungliga Xbox-konsolen.

Hyins/WikipediaNvidias grafikprocessorer genom tiderna foto 8

Nvidia GeForce FX-serien

Vi hoppar ett par generationer framåt och 2003 lanseras Nvidias GeForce FX-serie.

Dessa var den femte generationen GeForce-grafikkort och stödde Direct3D 9 samt ett antal nya minnestekniker. Dessa inkluderade DDR2, GDDR2 och GDDR3 samt Nvidias första försök med en minnesdatabuss som var bredare än 128 bitar.

Samtidigt gjorde GeForce FX 5800 vågen för att vara den första GPU:n som var utrustad med en stor kylare. En så stor att den ofta kallades "dustbuster" på grund av det fläktljud den gav upphov till.

Hyins/WikipediaNvidias grafikprocessorer genom tiderna foto 9

Nvidia GeForce 6-serien

Kort efter GeForce FX-serien kom 6-serien (även kallad NV40). GeForce 6 var början på Nvidias satsning på SLI-teknik som gör det möjligt att kombinera mer än ett grafikkort för att få mer kraft.

Flaggskeppet i denna serie var GeForce 6800 Ultra, ett grafikkort med 222 miljoner transistorer, superskalära pipelines med 16 pixlar och sex vertex shaders. Det hade stöd för Shader Model 3.0 och var kompatibelt med både Microsoft DirectX 9.0c och OpenGL 2.0.

Serien hade också Nvidia PureVideo teknik och kunde avkoda H.264, VC-1, WMV och MPEG-2 videor med minskad CPU-användning.

Som ett resultat av allt detta blev GeForce 6-serien mycket framgångsrik.

FxJ/WikipediaNvidias grafikprocessorer genom tiderna foto 10

Nvidia GeForce7-serien

2005 kom GeForce7-serien med höjdpunkten 7800 GTX.

Bara det kortet var ett riktigt kraftpaket för den tiden och med hjälp av smart kylning kunde Nvidia driva klockfrekvensen till 550 MHz. Samtidigt lyckades företaget också minska latensen och öka bussen till 512 bit.

Intressant nog tillverkades en version av 7-serien som RSX Reality Synthesizer, vilket var den proprietära CPU som skapades gemensamt av Nvidia och Sony för PlayStation 3.

Shooke/WikipediaNvidias grafikprocessorer genom tiderna foto 11

Nvidia GeForce8-serien

2006 lanserade Nvidia GeForce8-serien och presenterade sin Tesla-mikroarkitektur. Detta var företagets första enhetliga shaderkonstruktion och skulle bli en av de mest använda arkitekturerna även i framtida kort.

Det mycket omtyckta Nvidia GeForce 8800 GTX var seriens flaggskepp och var otroligt populärt. Det hade 681 miljoner transistorer, 768 MB GDDR3-minne och 128 shaders med en klockfrekvens på 575 MHz.

Det viktigaste är att det här grafikkortet kunde köra Crysis, vilket var allt som PC-spelare ville ha på den tiden.

År 2006 började det också hetta till när AMD köpte ATI för 5,4 miljarder dollar och skulle bli en nagel i ögat på Nvidia under många år framöver.

Sk/WikipediaNvidias grafikprocessorer genom tiderna foto 12

Nvidia GeForce9-serien

I början av 2008 släppte Nvidia GeForce9-serien. Dessa kort fortsatte att använda Tesla-arkitekturen men lade också till stöd för PCIe 2.0, förbättrad färg och z-komprimering.

Vid den här tiden hade Nvidia ökat prestandan ytterligare ett steg med klockfrekvenser på upp till 675 MHz, samtidigt som strömförbrukningen minskade.

AmazonNvidias grafikprocessorer genom tiderna foto 13

Nvidia GeForce 400-serien

Nästa viktiga uppdatering kom 2010 när Nvidia lanserade GeForce 4000-serien. Det var då Nvidia avslöjade mikroarkitekturen Fermi som var företagets nästa stora arkitektur.

Denna serie fick också stöd för OpenGL 4.0 och Direct3D 11 och var en direkt konkurrent till Radeon HD 5000-serien.

Serien sveptes dock ner av höga driftstemperaturer och hög strömförbrukning vilket orsakade en hel del gnäll från användarna.

HanyNARNvidias grafikprocessorer genom tiderna foto 14

Nvidia GeForce 600-serien

Med GeForce 600-serien introducerades Nvidias Kepler-arkitektur som var utformad för att öka prestandan per watt samtidigt som den förbättrade prestandan från den tidigare mikroarkitekturen Fermi.

Med Kepler lyckades Nvidia öka minnesklockan till 6 GHz. Man lade också till GPU Boost som garanterade att GPU:n skulle kunna köras med en lägsta klockfrekvens, men också öka prestandan vid behov tills den nådde ett fördefinierat effektmål.

Denna serie hade också stöd för både Direct3D 11 och Direct3D 12. IT introducerade också en ny antialiasingmetod som kallas TXAA.

Marcus BurnsNvidias grafikprocessorer genom tiderna foto 15

Nvidia GeForce 700-serien

År 2013 ökade Nvidia tempot ytterligare med 700-serien som toppades med det galna GTX Titan-kortet för avancerade entusiaster.

Den här serien var en uppdatering av Kepler-mikroarkitekturen men vissa senare kort hade även Femi- och Maxwell-arkitekturerna.

GTX Titan hade 2688 CUDA-kärnor, 224 TMU:er och 6 GB RAM. Vid den här tiden lyckades Nvidia klämma in så många som sju miljarder transistorer i sina GPU:er.

GeForce 700-serien var utformad för att maximera energieffektiviteten men innehöll även andra funktioner som hårdvarukodning av H.264, PCI Express 3.0-gränssnitt, stöd för DisplayPort 1.2 och HDMI 1.4a 4K x 2K-videoutgång samt GPU-Boost 2.0.

Marcus BurnsNvidias grafikprocessorer genom tiderna foto 16

Nvidia GeForce 900-serien

2014 hoppade Nvidia till synes över en generation och gick direkt till GeForce 900-serien. Detta var introduktionen till Maxwell-mikroarkitekturen som erbjöd förbättrad grafikkapacitet samt bättre energieffektivitet.

Denna serie hade GeForce GTX 980 som sitt första flaggskepp, senare följt av 980 Ti och GeForce GTX TITAN X i den extrema änden.

NVENC förbättrades också för denna serie och stöd dök upp för Direct3D 12_1, OpenGL 4.6, OpenCL 3.0 och Vulkan 1.3.

Marcus BurnsNvidias grafikprocessorer genom tiderna foto 17

Nvidia GeForce10-serien

2014 presenterade Nvidia GeForce10-serien baserad på Pascal-mikroarkitekturen. GTX 1080 Ti är kanske det mest kända av GPU:erna från den här serien och cementerade sig själv i historien som kanske ett av de mest betydelsefulla kort som Nvidia släppte.

Detta grafikkort dominerade marknaden och erbjöd en sådan fantastisk prestanda och energieffektivitet i förhållande till kostnaden att det ofta skulle refereras till när det jämfördes med framtida GPU:er.

10-serien innehöll också nya funktioner som GPU Boost 3.0, ett dynamiskt schemaläggningssystem för lastbalansering, trippelbuffring och stöd för både DisplayPort 1.4 och HDMI 2.0b.

Marcus BurnsNvidias grafikprocessorer genom tiderna foto 18

Nvidia GeForce20-serien

GeForce20-serien släpptes 2018 och introducerade Turing-mikroarkitekturen för världen.

Noterbart är att dessa grafikkort var den första generationen av RTX-kort och att Nvidia tryckte på ray tracing som det främsta försäljningsargumentet.

Användningen av Tensor Cores och andra förbättringar hjälpte dessa kort att presentera ett massivt språng i grafisk förmåga. Detta resulterade i realistisk belysning och övertygande reflektionseffekter i spel.

Förbättringarna kom dock till ett pris, RTX 2080 Ti säljs för en skyhöga 1 199 dollar (jämfört med 1080 Ti:s 699 dollar).

Pocket-lintNvidias grafikprocessorer genom tiderna foto 19

Nvidia GeForce30-serien

GeForce30-serien efterträdde 20-serien 2020 och blev tyvärr mest känd för att vara omöjlig att få tag på på grund av silikonbristen.

Ändå var Nvidia RTX 3080 tänkt att säljas för 699 dollar vilket gör den mycket mer prisvärd än föregående generations flaggskepp och serien köpte betydande förbättringar också.

Flaggskeppet GeForce RTX 3090 Ti som tillkännagavs i mars 2022 hade 10 752 CUDA-kärnor, 78 RT-TFLOPs, 40 Shader-TFLOPs och 320 Tensor-TFLOPs i kraft. Detta kraftfulla odjur noterades också vara strömhungrigt och kräver minst 850 watt, vilket innebär att du troligen behöver ett nätaggregat på 1 000 watt för att köra det.

Skriva av Adrian Willings. Redigering av Chris Hall.