Pocket-lint wird von seinen Lesern unterstützt. Wenn Sie über Links auf unserer Website kaufen, erhalten wir möglicherweise eine Partnerprovision. Mehr erfahren

Diese Seite wurde mit Hilfe von KI und maschinellem Lernen übersetzt, bevor sie von einem menschlichen Redakteur in Ihrer Muttersprache überprüft wurde.

(Pocket-lint) - Nvidia wurde ursprünglich 1993 gegründet, aber erst 1995 brachte das Unternehmen sein erstes Grafikprodukt heraus - den NV1. Seitdem hat sich viel getan, und wir werden heute mit Raytracing, DLSS und anderen wunderbaren Technologien verwöhnt, die unser Spielerlebnis noch angenehmer machen.

Wir werfen einen Blick zurück auf die Geschichte der Nvidia-Grafikkarten und darauf, wie diese Geräte im Laufe der Jahre ausgesehen haben.

Swaaye/WikipediaNvidia-GPUs im Wandel der Zeit Foto 1

Nvidia NV1

Der Nvidia NV1 kam 1995 auf den Markt und konnte sowohl 2D- als auch 3D-Video verarbeiten. Er wurde als "Diamond Edge 3D" verkauft und verfügte sogar über einen mit dem Sega Saturn kompatiblen Joypad-Anschluss.

Mehrere Sega Saturn-Spiele wurden für den PC portiert, darunter Panzer Dragoon und Virtua Fighter Remix. Diese Funktionen allein reichten jedoch nicht aus, um den Markt anzusprechen, da der Saturn mit der ursprünglichen PlayStation nicht mithalten konnte.

NV1 hatte einen schweren Start, der durch die Veröffentlichung von Microsoft DirectX noch verschlimmert wurde, das nicht mit der GPU kompatibel war und viele Spiele nicht laufen ließ.

Mathías Tabó/WikipediaNvidia-GPUs im Wandel der Zeit Foto 2

Nvidia RIVA 128

1997 brachte Nvidia die NV3 alias Riva 128 heraus, wobei Riva für "Real-time Interactive Video and Animation" stand. Diese Grafikkarte nutzte sowohl 2D- als auch 3D-Beschleunigung zusammen mit Polygon Texture Mapping.

Zu dieser Zeit dominierte Nvidias Konkurrent 3dfx den Markt, aber die NV3 hatte einen Kern-/Speichertakt von 100 MHz und verdoppelte im Wesentlichen die Spezifikationen der Voodoo 1 von 3dfx.

Es gab zwei Varianten des NV3 in Form des Riva 128 und des Riva 128ZX. Letztere war mit 8 MB VRAM und einer Taktfrequenz von 250 MHz leistungsstärker.

Der NV3 war wesentlich erfolgreicher als der erste Grafikprozessor des Unternehmens und verhalf Nvidia zu großer Popularität.

Tors/WikipediaNvidia-GPUs im Wandel der Zeit Foto 3

Nvidia NV4

1998 brachte Nvidia NV4, auch bekannt als Riva TNT, auf den Markt. Diese Grafikkarte verbesserte sich gegenüber den Vorgängermodellen durch die Unterstützung von 32-Bit True Colour. Die NV4 hatte auch mehr RAM mit 16MB SDR SDRAM, was bedeutete, dass sie auch mehr Leistung bot.

Zu dieser Zeit begann Nvidia, die Grafiktreiber regelmäßig zu aktualisieren, um eine gute Leistung und Kompatibilität für den Endbenutzer zu gewährleisten, was das Unternehmen auch heute noch tut.

Nvidias Riva TNT war damals erschwinglicher als der Vodoo2 von 3dfx, wenn auch in Bezug auf die Leistung etwas langsamer. Die Treiberunterstützung war der Schlüssel zum Erfolg von NV4.

Uwe Hermann/WikipediaNvidia-GPUs im Wandel der Zeit Foto 4

Nvidia NV5

1999 ließ Nvidia den NV4 mit dem RIVA TNT2 folgen. NV5, so der Codename, erhielt eine Reihe von Aktualisierungen, darunter 32-Bit-Z-Buffer/Stencil-Unterstützung, bis zu 32 MB VRAM und 2048 x 2048 Texturunterstützung.

Noch wichtiger ist, dass diese Grafikkarte über eine verbesserte Taktfrequenz (bis zu 150+ MHz) verfügte, was eine Leistungssteigerung von bis zu 17 Prozent gegenüber dem Vorgängermodell bedeutete.

Diese Karte war ein direkter Konkurrent für die 3dfx Voodoo3 und beide waren unglaublich beliebt.

Hyins/WikipediaNvidia-GPUs im Wandel der Zeit Foto 5

Nvidia GeForce 256

Ende 1999 brachte Nvidia die Nvidia GeForce 256 auf den Markt, die als "erster Grafikprozessor der Welt" angepriesen wurde.

Dies war ein cleverer Marketing-Schachzug von Nvidia und der Beginn einer jahrelangen Liebesbeziehung mit Grafikkarten der Marke GeForce.

Sie verbesserte die vorherigen RIVA-Karten, indem sie die Pixel-Pipelines vergrößerte, bot aber auch einen großen Leistungssprung für PC-Spiele.

Diese Karte unterstützte bis zu 64 MB DDR-SDRAM und arbeitete mit bis zu 166 MHz. Damit war sie um 50 Prozent schneller als der NV5.

Noch wichtiger war, dass die GeForce 256 auch Direct3D 7 vollständig unterstützte, was bedeutete, dass sie viele der besten PC-Spiele, die zu dieser Zeit erhältlich waren, betreiben konnte.

Kurz nach der Markteinführung ging 3dfx in Konkurs und ATI wurde zum Hauptkonkurrenten von Nvidia.

Hyins/WikipediaNvidia-GPUs im Wandel der Zeit Foto 6

Nvidia GeForce2

Nvidia ließ den ersten Grafikprozessor der Welt mit dem treffenden Namen GeForce2 folgen.

Dieser Grafikprozessor wurde in verschiedenen Varianten angeboten, darunter die Modelle Ti, Pro, GTS und Ultra. Dies waren im Wesentlichen NV11-, 15- und 16-Karten. In den Jahren 2000 und 2001 folgten immer mehr Pipelines und höhere Taktraten.

Das Interessante an GeForce2 war die Einführung der Unterstützung für Multi-Monitor-Setups.

Etwa zu dieser Zeit übernahm Nvidia auch 3dfx.

Hyins/WikipediaNvidia-GPUs im Wandel der Zeit Foto 7

Nvidia GeForce3

Kurz nach GeForce2 kam GeForce3. Diese Grafikkartenserie mit dem Codenamen NV20 war die erste DirectX 8-kompatible GPU von Nvidia.

Es gab drei Versionen - den GeForce3, den GeForce3 Ti 200 und den GeForce3 Ti 500. Dieser nächste GeForce-Grafikprozessor fügte programmierbare Pixel- und Vertex-Shader sowie Multisample-Anti-Aliasing in den Mix ein.

Eine als NV2A bezeichnete Version des GeForce3 wurde in der ursprünglichen Xbox-Konsole verwendet.

Hyins/WikipediaNvidia-GPUs im Wandel der Zeit Foto 8

Nvidia GeForce FX-Reihe

Ein paar Generationen weiter, im Jahr 2003, kam die GeForce FX-Serie von Nvidia auf den Markt.

Dies war die fünfte Generation der GeForce-Grafikkarten und unterstützte Direct3D 9 sowie eine Reihe neuer Speichertechnologien. Dazu gehörten DDR2, GDDR2 und GDDR3 sowie Nvidias erster Versuch mit einem Speicherdatenbus, der breiter als 128 Bit war.

In der Zwischenzeit sorgte die GeForce FX 5800 für Aufsehen, weil sie die erste GPU war, die mit einem großen Kühler ausgestattet war. Der Kühler war so groß, dass er wegen des lauten Lüftergeräuschs oft als "dustbuster" bezeichnet wurde.

Hyins/WikipediaNvidia-GPUs im Wandel der Zeit Foto 9

Nvidia GeForce 6-Serie

Kurz nach der Veröffentlichung der GeForce FX-Serie kam die 6er-Serie (auch bekannt als NV40). Mit der GeForce 6-Serie begann Nvidia, die SLI-Technologie voranzutreiben, die es ermöglichte, mehr als eine Grafikkarte für mehr Leistung zu kombinieren.

Das Flaggschiff dieser Reihe war die GeForce 6800 Ultra, eine Grafikkarte mit 222 Millionen Transistoren, superskalaren 16-Pixel-Pipelines und sechs Vertex-Shadern. Sie unterstützte das Shader Model 3.0 und war sowohl mit Microsoft DirectX 9.0c als auch mit OpenGL 2.0 konform.

Die Serie war außerdem mit der Nvidia PureVideo-Technologie ausgestattet und konnte H.264-, VC-1-, WMV- und MPEG-2-Videos mit reduzierter CPU-Nutzung dekodieren.

All dies führte dazu, dass die GeForce 6-Serie sehr erfolgreich war.

FxJ/WikipediaNvidia-GPUs im Wandel der Zeit Foto 10

Nvidia GeForce7-Reihe

Im Jahr 2005 kam die GeForce7-Serie auf den Markt, deren Highlight die 7800 GTX war.

Allein diese Karte war für die damalige Zeit ein echtes Kraftpaket, und mit einer geschickten Kühlung konnte Nvidia die Taktfrequenz auf 550 MHz erhöhen. Gleichzeitig gelang es dem Unternehmen, die Latenz zu verringern und den Bus auf 512 Bit zu erhöhen.

Interessanterweise wurde eine Version der 7er-Serie als RSX Reality Synthesizer entwickelt, die proprietäre CPU, die gemeinsam von Nvidia und Sony für die PlayStation 3 entwickelt wurde.

Shooke/WikipediaNvidia-GPUs im Wandel der Zeit Foto 11

Nvidia GeForce8-Reihe

Im Jahr 2006 veröffentlichte Nvidia die GeForce8-Serie und stellte seine Tesla-Mikroarchitektur vor. Dies war das erste einheitliche Shader-Design des Unternehmens und sollte auch bei zukünftigen Karten eine der meistgenutzten Architekturen sein.

Die beliebte Nvidia GeForce 8800 GTX war das Flaggschiff der Serie und erfreute sich unglaublicher Beliebtheit. Sie verfügte über 681 Millionen Transistoren, 768 MB GDDR3-Speicher und 128 Shader, die mit 575 MHz getaktet waren.

Das Wichtigste ist, dass diese Grafikkarte Crysis ausführen konnte, was alles war, was PC-Spieler zu dieser Zeit wollten.

Im Jahr 2006 wurden die Dinge auch heißer, als AMD ATI für 5,4 Milliarden Dollar aufkaufte und Nvidia für die nächsten Jahre ein Dorn im Auge sein sollte.

Sk/WikipediaNvidia-GPUs im Wandel der Zeit Foto 12

Nvidia GeForce9-Reihe

Anfang 2008 brachte Nvidia die GeForce9-Serie heraus. Diese Karten nutzten weiterhin die Tesla-Architektur, boten aber auch PCIe 2.0-Unterstützung, verbesserte Farben und Z-Kompression.

Zu dieser Zeit steigerte Nvidia die Leistung mit Taktfrequenzen von bis zu 675 MHz und reduzierte gleichzeitig den Stromverbrauch.

AmazonNvidia-GPUs im Wandel der Zeit Foto 13

Nvidia GeForce 400-Serie

Die nächste wichtige Aktualisierung erfolgte 2010, als Nvidia die GeForce 4000-Serie auf den Markt brachte. Zu diesem Zeitpunkt stellte Nvidia die Fermi-Mikroarchitektur vor, die die nächste große Architektur des Unternehmens war.

Diese Serie bot auch Unterstützung für OpenGL 4.0 und Direct3D 11 und war ein direkter Konkurrent der Radeon HD 5000 Serie.

Die Serie wurde jedoch durch hohe Betriebstemperaturen und einen hohen Stromverbrauch enttäuscht, was bei den Anwendern für viel Unmut sorgte.

HanyNARNvidia-GPUs im Wandel der Zeit Foto 14

Nvidia GeForce 600-Reihe

Mit der GeForce 600-Serie wurde die Kepler-Architektur von Nvidia eingeführt, die die Leistung pro Watt steigern und gleichzeitig die Leistung der vorherigen Fermi-Mikroarchitektur verbessern sollte.

Mit Kepler gelang es Nvidia, den Speichertakt auf 6GHz zu erhöhen. Außerdem wurde GPU Boost hinzugefügt, der garantierte, dass der Grafikprozessor mit einer Mindesttaktfrequenz laufen konnte, aber auch bei Bedarf die Leistung erhöhte, bis er ein vordefiniertes Energieziel erreichte.

Diese Serie unterstützte außerdem sowohl Direct3D 11 als auch Direct3D 12. IT führte auch eine neue Anti-Aliasing-Methode ein, die als TXAA bekannt ist.

Marcus BurnsNvidia-GPUs im Wandel der Zeit Foto 15

Nvidia GeForce 700-Serie

Im Jahr 2013 legte Nvidia mit der 700er-Serie einen Zahn zu, die von der wahnsinnigen High-End-Enthusiasten-GTX Titan-Karte gekrönt wurde.

Diese Serie war eine Auffrischung der Kepler-Mikroarchitektur, aber einige spätere Karten verfügten auch über Femi- und Maxwell-Architekturen.

Die GTX Titan verfügte über 2688 CUDA Kerne, 224 TMUs und 6 GB RAM. Zu dieser Zeit schaffte es Nvidia, bis zu sieben Milliarden Transistoren in seine Grafikprozessoren zu quetschen.

Die GeForce 700-Serie wurde entwickelt, um die Energieeffizienz zu maximieren, bot aber auch andere Funktionen wie Hardware-H.264-Kodierung, PCI Express 3.0-Schnittstelle, Unterstützung für DisplayPort 1.2 und HDMI 1.4a 4K x 2K-Videoausgabe sowie GPU-Boost 2.0.

Marcus BurnsNvidia-GPUs im Wandel der Zeit Foto 16

Nvidia GeForce 900-Serie

Im Jahr 2014 übersprang Nvidia scheinbar eine Generation und startete direkt mit der GeForce 900-Serie. Dies war die Einführung der Maxwell-Mikroarchitektur, die sowohl verbesserte Grafikfähigkeiten als auch eine bessere Energieeffizienz bot.

Diese Serie hatte die GeForce GTX 980 als erstes Flaggschiff, später gefolgt von der 980 Ti und der GeForce GTX TITAN X am äußersten Ende.

NVENC wurde für diese Serie ebenfalls verbessert und Unterstützung für Direct3D 12_1, OpenGL 4.6, OpenCL 3.0 und Vulkan 1.3 wurde eingeführt.

Marcus BurnsNvidia-GPUs im Wandel der Zeit Foto 17

Nvidia GeForce10-Reihe

Im Jahr 2014 stellte Nvidia die GeForce10-Serie vor, die auf der Pascal-Mikroarchitektur basiert. Die GTX 1080 Ti ist vielleicht die bekannteste der GPUs aus dieser Serie und ging als eine der bedeutendsten Karten, die Nvidia veröffentlichte, in die Geschichte ein.

Diese Grafikkarte dominierte den Markt und bot eine so hervorragende Leistung und Energieeffizienz im Vergleich zu den Kosten, dass sie oft zum Vergleich mit zukünftigen GPUs herangezogen wurde.

Die 10er-Serie enthielt auch neue Funktionen wie GPU Boost 3.0, ein dynamisches Lastausgleichs-Planungssystem, Triple-Buffering und Unterstützung für DisplayPort 1.4 und HDMI 2.0b.

Marcus BurnsNvidia-GPUs im Wandel der Zeit Foto 18

Nvidia GeForce20-Reihe

Die GeForce20-Serie wurde 2018 veröffentlicht und führte die Turing-Mikroarchitektur in die Welt ein.

Diese Grafikkarten waren die erste Generation von RTX-Karten und Nvidia hat Raytracing als wichtigstes Verkaufsargument propagiert.

Die Verwendung von Tensor Cores und anderen Verbesserungen verhalfen diesen Karten zu einem gewaltigen Sprung in der grafischen Leistung. Das Ergebnis: realistische Beleuchtung und überzeugende Reflexionseffekte im Spiel.

Die Verbesserungen hatten jedoch ihren Preis: Die RTX 2080 Ti kostet 1.199 US-Dollar (im Vergleich zu 699 US-Dollar für die 1080 Ti).

Pocket-lintNvidia-GPUs im Wandel der Zeit Foto 19

Nvidia GeForce30-Serie

Die GeForce30-Serie löste die 20er-Serie im Jahr 2020 ab und wurde leider vor allem dadurch bekannt, dass sie aufgrund der Silikonknappheit einfach nicht mehr zu bekommen war.

Dennoch sollte die Nvidia RTX 3080 für 699 Dollar im Handel erhältlich sein, was sie viel erschwinglicher machte als das Flaggschiff der vorherigen Generation und die Serie brachte auch erhebliche Verbesserungen mit sich.

Das im März 2022 angekündigte Flaggschiff GeForce RTX 3090 Ti verfügte über 10.752 CUDA-Kerne, 78 RT-TFLOPs, 40 Shader-TFLOPs und 320 Tensor-TFLOPs an Leistung. Dieses leistungsstarke Biest wurde auch als stromhungrig bezeichnet, da es mindestens 850 Watt Leistung benötigt, was bedeutet, dass Sie wahrscheinlich ein 1.000-Watt-Netzteil benötigen, um es zu betreiben.

Schreiben von Adrian Willings. Bearbeiten von Chris Hall.