Nvidia-GeForce-40-Serie

Serie von Grafikkarten des Unternehmens Nvidia und Nachfolger der GeForce-30-Serie (ab 2022)
(Weitergeleitet von Nvidia GeForce RTX 4090)

Die GeForce-40-Serie ist eine Serie von Grafikkarten des Unternehmens Nvidia und Nachfolger der GeForce-30-Serie. Alle Grafikprozessoren basieren auf der Lovelace-Architektur, benannt nach der britischen Mathematikerin Ada Lovelace, und unterstützen das Shadermodell 6.6 nach DirectX 12 Ultimate. Die ersten Grafikkarten wurden von Nvidia im Rahmen der GTC 2022 am 20. September 2022 offiziell vorgestellt.[1]

Leicht schiefe Frontalansicht der GeForce RTX 4090 von NVIDIA
Das Flaggschiffmodell der Serie, die Nvidia GeForce RTX 4090, in der Founders Edition

Beschreibung

Bearbeiten

Die ersten Grafikkarten der GeForce-40-Serie wurden im Rahmen der GTC 2022 am 20. September 2022 offiziell vorgestellt, wobei es sich um die GeForce RTX 4090, sowie zwei Modelle der GeForce RTX 4080 handelte.[1] Nachdem die Vorgänger bei Samsung produziert wurden, kehrte Nvidia nun wieder zu TSMC zurück. Die neuen Grafikprozessoren werden bei TSMC im 4N-Fertigungsprozess hergestellt, wobei es sich um einen für Nvidia angepassten 5-nm-Prozess handelt.

Als erste Grafikkarte der GeForce-40-Serie kam die GeForce RTX 4090 am 12. Oktober 2022 auf den Markt. Diese nutzt den AD102-300-A1-Grafikprozessor, welcher auf der Karte teildeaktiviert ist. So sind nur 128 der 144 Shader-Cluster aktiv und der L2-Cache ist von 96 auf 72 MiB reduziert worden. In dieser Spezifikation erreicht die GeForce RTX 4090 in 4K-Anwendungen eine 60 % bis 70 % höhere Leistung gegenüber der GeForce RTX 3090 Ti.[2][3] Der große Leistungssprung wurde in der Fachpresse positiv bewertet,[4][5][6][7][8][9] da dieser bei vorherigen Generationen mit 30 % bis 40 % deutlich geringer ausfiel. Kritisch wurden das hoch angesetzte Power Target von 450 W[10] sowie der neue 12VHPWR-Stecker[11] bewertet. Sie wurde von der Fachpresse häufig als erste Grafikkarte bezeichnet, die aktuelle Spiele in 8K-Auflösung[12][13][14] bzw. in 4K-Auflösung mit aktiviertem Raytracing[15][16][17] flüssig darstellen kann. Die PC-Welt bezeichnete die RTX 4090 als „Machbarkeitsstudie“, mit „welcher Nvidia demonstrieren will, was vom technologischen Standpunkt aus derzeit möglich ist.“[17] Sie habe „es nicht als Ziel, die breite Masse ansprechen, sondern ein kleines ausgewähltes Publikum, welches maximale Rechenleistung benötigt“, weshalb die unverbindliche Preisempfehlung in Europa von etwa 2000 € zur Veröffentlichung „tatsächlich nicht zu hoch gegriffen“ sei.[17] Laut USA Today erreicht die RTX 4090 „[...] so hohe Bildwiederholraten, dass es eine Verschwendung wäre, etwas anderes als einen 4K-Monitor [mit ihr] zu verwenden, insbesondere einen mit einer Bildwiederholrate unter 144 Hz.“[18] Sie eigne sich dank ihrer Leistung und ihres großen Grafikspeichers außerdem für kreative Anwender im Bereich 3D-Rendering sowie 4K- und 8K Videobearbeitung.[18]

Am 28. Dezember 2023 stellte Nvidia die GeForce RTX 4090D exklusiv für den chinesischen Markt vor, wobei es sich um eine leistungsreduzierte Version der normalen GeForce RTX 4090 handelt. Hintergrund dieser Präsentation sind verschärfte US-Sanktionen für Hochtechnologie und Halbleiter gegenüber China, bei welcher die maximal zulässige Rechenleistung im sogenannten TPP-Rating auf 4800 Punkte beschränkt wird.[19]

 
12VHPWR-Stecker der RTX 4090

Bei der Vorstellung der GeForce RTX 4080 präsentierte Nvidia diese in zwei Modellen: ein 16-GiB-Modell auf Basis des AD103-300-A1, sowie ein 12-GiB-Modell, welches den AD104-400-A1-Grafikprozessor nutzt. Dieser Umstand sorgte für massive Kritik, da beide Modelle erheblich unterschiedliche Leistungswerte aufwiesen, weshalb die Verwendung desselben Verkaufsnamens als irreführend angesehen wurde. Auch der deutlich gestiegene Listenpreis von 1199 US$ (16-GiB-Modell) bzw. 899 US$ (12-GiB-Modell) gegenüber 699 US$ bei der GeForce RTX 3080 sorgte für Kritik. Als Folge der Kritik zog Nvidia das 12-GiB-Modell noch vor dem geplanten Verkaufsstart wieder zurück.[20][21] Das 16-GiB-Modell wurde für die hohe Rasterungs- und Raytracing-Leistung, den großen Grafikspeicher, die niedrigen Betriebstemperaturen, die Energieeffizienz und den AV1-Support gelobt.[22][23][24]

Bei der GeForce RTX 4060 und 4060 Ti ist zu beachten, dass diese nur über 8 Lanes verfügt, im Gegensatz zu allen vorherigen 60er-Modellen.[25]

Ada-Lovelace-Architektur

Bearbeiten
 
Aufbau und Verteilung der Bauteile auf einer RTX 4090
 
Nahansicht des Grafikprozessors einer RTX 4090

Die Ada-Lovelace-Architektur ist die direkte Weiterentwicklung der Ampere-Architektur, deren eigentlicher Aufbau nicht verändert wurde.[26][27] Nach wie vor sind die Grafikprozessoren in Graphics-Processing-Cluster (GPC) gegliedert, die teilweise auch als Raster-Engines bezeichnet werden. Jeder GPC besteht aus 6 Texture-Processing-Cluster (TPC), welche allerdings teilweise deaktiviert sein können. Ein TPC besteht dabei aus zwei Shader-Clustern, welche von Nvidia als Streaming-Multiprozessoren (SM) bezeichnet werden. Dabei sind jedem SM folgende Einheiten zugeordnet:

  • 64 FP32-Einheiten für 32-bit-Gleitkomma-Zahlen
  • 64 Dual-Use FP32/INT32-Einheiten für 32-bit-Gleitkomma-Zahlen oder für 32-bit-Ganzzahlen
  • 2 FP64-Einheiten für 64-bit-Gleitkomma-Zahlen
  • 4 Textureinheiten
  • 16 Load/Store-Einheiten
  • 16 Special-Function-Units
  • 4 Tensoreinheiten (4. Generation)
  • 1 Raytracing-Einheit (3. Generation)

Während der L2-Cache bei Ada-Lovelace erheblich vergrößert wurde (von 6 MB beim GA102 auf 96 MB beim AD102), blieb der L1-Cache pro SM unverändert bei 128 KB.

Bei der Präsentation der neuen Ada-Lovelace-Architektur legte Nvidias Marketing den Fokus auf DLSS 3. Die dritte Hauptversion des KI-gestützten Upsamplings führt eine sogenannte Frame Generation ein.[27] Das zusätzliche Feature erzeugt zwischen jedem nativen Frame noch einen zusätzlichen KI-gestützt erzeugten Frame.

Datenübersicht

Bearbeiten

Grafikprozessoren

Bearbeiten
Grafik-
chip
Fertigung Einheiten L2-
Cache
API-Support Video-
pro-
zessor
Bus-
Schnitt-
stelle
NV-
Link
Pro-
zess
Transis-
toren
Die-
Fläche
(mm²)
ROPs Unified-Shader Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
DirectX OpenGL OpenCL CUDA Vulkan
GPC SM ALUs
AD102 TSMC
N4
76,3 Mrd. 608,4 192 12 144 18432 576 576 144 96 MB 12.2 4.6 3.0 9.0 1.3 VP12 PCIe 4.0
×16
Nein
AD103 45,9 Mrd. 378,6 112 07 080 10240 320 320 080 64 MB
AD104 35,8 Mrd. 294,5 080 05 060 07680 240 240 060 48 MB
AD106 22,9 Mrd. 190,0 048 03 036 04608 144 144 036 32 MB PCIe 4.0
×8
AD107 18,9 Mrd. 146,0 032 02 024 03072 096 096 024 32 MB

Desktop-Modelldaten

Bearbeiten
Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 1] Leistungsaufnahme
Typ Aktive Einheiten Chiptakt[Anm. 2] Größe Takt
[Anm. 2]
Inter-
face
Rechenleistung
(in TFlops)
Füllrate Speicher-
bandbreite

(GB/s)
MGCP
[Anm. 3]
Messwerte[Anm. 4]
ROPs SM ALUs Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
Basis Boost Pixel
(GP/s)
Texel
(GT/s)
Idle 3D-
Last
32 bit 64 bit
GeForce RTX 4060[28] 29. Jun. 2023 AD107 032 024 03072 096 096 024 1830 MHz 2460 MHz 08 GB GDDR60 17 Gbps 128 Bit 15,11 0,24 079 0236 0272 115 W 16 W[29] 124 W[29]
GeForce RTX 4060 Ti[28] 24. Mai 2023 AD106 048 034 04352 128 128 034 2310 MHz 2535 MHz 18 Gbps 22,06 0,34 122 0325 0288 160 W 12 W[29] 151 W[29]
18. Jul. 2023 16 GB GDDR60 165 W 14 W[29] 160 W[29]
GeForce RTX 4070[30] 20. Aug. 2024 AD104 064 046 05888 184 184 046 1920 MHz 2475 MHz 12 GB GDDR6X 20 Gbps 192 Bit 29,15 0,44 158 0455 0480 200 W k. A. k. A.
13. Apr. 2023 12 GB GDDR6X 21 Gbps 0504 10 W[29] 193 W[29]
GeForce RTX 4070 Super[30] 17. Jan. 2024 064 056 07168 224 224 056 1980 MHz 2475 MHz 35,48 0,55 198 0554 220 W 12 W[29] 221 W[29]
GeForce RTX 4070 Ti[30] 05. Jan. 2023 080 060 07680 240 240 060 2310 MHz 2610 MHz 40,09 0,63 209 0626 285 W 16 W[29] 267 W[29]
GeForce RTX 4070 Ti Super[30] 24. Jan. 2024 AD103 088 066 08448 264 264 066 2340 MHz 2610 MHz 16 GB GDDR6X 256 Bit 44,10 0,69 238 0689 0672 14 W[29] 277 W[29]
GeForce RTX 4080[31] 16. Nov. 2022 112 076 09728 304 304 076 2205 MHz 2505 MHz 22,4 Gbps 48,74 0,76 281 0762 0717 320 W 17 W[29] 297 W[29]
GeForce RTX 4080 Super[31] 31. Jan. 2024 112 080 10240 320 320 080 2295 MHz 2550 MHz 23 Gbps 52,22 0,82 286 0816 0736 15 W[29] 302 W[29]
GeForce RTX 4090D 28. Dez. 2023 AD102 176 114 14592 456 456 114 2280 MHz 2520 MHz 24 GB GDDR6X 21 Gbps 384 Bit 73,54 1,15 444 1149 1008 425 W k. A. 400 W[29]
GeForce RTX 4090[32] 12. Okt. 2022 176 128 16384 512 512 128 2235 MHz 2520 MHz 82,58 1,29 484 1290 450 W 21 W[29] 418 W[29]

Notebook-Modelldaten

Bearbeiten
Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 1] MGCP
[Anm. 3]
Typ Aktive Einheiten Chiptakt[Anm. 2] Größe Takt
[Anm. 2]
Inter-
face
Rechenleistung
(in TFlops)
Füllrate Speicher-
bandbreite

(GB/s)
ROPs SM ALUs Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
Basis Boost Pixel
(GP/s)
Texel
(GT/s)
32 bit 64 bit
GeForce RTX 4050[33] 22. Feb. 2023 AD107 024 20 2560 080 080 20 k. A. 1605–2370 MHz 06 GB GDDR6 k. A. 096 Bit 8,9 0,13 56 140 192 35–115 W
GeForce RTX 4060[33] 22. Feb. 2023 032 24 3072 096 096 24 k. A. 1470–2370 MHz 08 GB GDDR6 16 Gbps 128 Bit 11,6 0,17 61 181 256 35–115 W
GeForce RTX 4070[33] 22. Feb. 2023 AD106 064 36 4608 144 144 36 k. A. 1230–2175 MHz 08 GB GDDR6 k. A. 128 Bit 15,6 0,24 81 244 256 35–115 W
GeForce RTX 4080[33] 8. Feb. 2023 AD104 080 58 7424 232 232 58 k. A. 1350–2280 MHz 12 GB GDDR6 18 Gbps 192 Bit 24,7 0,37 133 386 432 60–150 W
GeForce RTX 4090[33] 8. Feb. 2023 AD103 112 76 9728 304 304 76 k. A. 1455–2040 MHz 16 GB GDDR6 18 Gbps 256 Bit 32,9 0,50 190 513 576 80–150 W

Anmerkungen

Bearbeiten
  1. a b Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
  2. a b c d Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der effektive Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
  3. a b Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
  4. Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
Bearbeiten

Einzelnachweise

Bearbeiten
  1. a b GTC 2022 Keynote. Nvidia, abgerufen am 20. September 2022 (englisch).
  2. Nvidia GeForce RTX 4090 im Test: Benchmarks in WQHD, UHD & 5K mit und ohne Raytracing (Seite 2). Computerbase, 12. Oktober 2022, abgerufen am 16. Oktober 2022.
  3. Geforce RTX 4090 im Test: Benchmarks in 4 Auflösungen (Seite 2). PC Games Hardware, 14. Oktober 2022, abgerufen am 16. Oktober 2022.
  4. Nvidia Geforce RTX 4090 im Test: So powerful, it's kinda ridiculous! [Update]. In: PC Games Hardware. 12. Oktober 2022, abgerufen am 29. November 2023.
  5. Alexander Köpf: RTX 4090 im Test: Der größte Leistungssprung seit Jahren. In: GameStar. 11. Oktober 2022 (gamestar.de [abgerufen am 29. November 2023]).
  6. Wolfgang Andermahr: Nvidia GeForce RTX 4090 FE im Test: Brachial schnell. In: computerbase.de. 13. Oktober 2022, abgerufen am 29. November 2023.
  7. Andreas Schilling: Deutliches Leistungsplus und künstliche Frames: GeForce RTX 4090 in der Founders Edition im Test. In: hardwareluxx.de. 11. Oktober 2022, abgerufen am 29. November 2023.
  8. Sebastian Schenzinger: Nvidia Geforce RTX 4090 im Test: Viel schneller und effizienter als gedacht. In: PC-WELT. 11. Oktober 2022, abgerufen am 29. November 2023.
  9. John Loeffler: Nvidia GeForce RTX 4090 review: "Unquestionably, this is the best graphics card ever made". In: Gamesradar. 23. Januar 2023, abgerufen am 11. Dezember 2023 (englisch).
  10. Nils Raettig: Watt-Wahnsinn bei neuen Grafikkarten: Wie schlimm ist es mittlerweile wirklich? In: GameStar. 6. Oktober 2022 (gamestar.de [abgerufen am 5. Februar 2024]).
  11. Oliver Nickel: Der umstrittene 12VHPWR-Standard wird überarbeitet. In: golem.de. 9. Juli 2023, abgerufen am 5. Februar 2024.
  12. Alessio Palumbo: RTX 4090 Is the First True 8K Gaming GPU According to Benchmarks. 12. Oktober 2022, abgerufen am 13. Juni 2024 (amerikanisches Englisch).
  13. Alexander Köpf: Ist das der nächste Schritt in Sachen Gaming? Nvidia zeigt Benchmarks in utopischer 8K-Auflösung. In: GameStar. 29. September 2022 (gamestar.de [abgerufen am 13. Juni 2024]).
  14. RTX 4090: Ausreichend schnell für Gaming in 8K? 12. Oktober 2022, abgerufen am 13. Juni 2024.
  15. Mark Mantel: GeForce RTX 4090: Die erste Grafikkarte für 4K-Gaming mit Raytracing. 11. Oktober 2022, abgerufen am 13. Juni 2024.
  16. Geforce RTX 4090 - Verfügbarkeit und Fazit. In: golem.de. Abgerufen am 13. Juni 2024.
  17. a b c Sebastian Schenzinger: Kommentar: RTX 4090 ist nicht zu teuer für 2.000 Euro! In: pcwelt.de. PC-Welt, 30. Oktober 2022, abgerufen am 1. Juli 2024.
  18. a b Joanna Nelius: Nvidia’s RTX 4090 is a phenomenal graphics card, but you probably shouldn’t buy it. In: reviewed.usatoday.com. USA Today, 7. März 2024, abgerufen am 12. Juli 2024 (englisch).
  19. Geforce RTX 4090 D: Nvidia lässt den chinesischen Drachen offiziell ab 1.650 Euro von der Leine. In: PC Games Hardware. 28. Dezember 2023, abgerufen am 1. Januar 2024.
  20. GeForce RTX 4080 12GB: Nvidia streicht Grafikkarte wegen falscher Bezeichnung. Computerbase, 14. Oktober 2022, abgerufen am 16. Oktober 2022.
  21. Eilmeldung: Nvidia zieht Start der RTX 4080 12GB zurück. PC Games Hardware, 14. Oktober 2022, abgerufen am 16. Oktober 2022.
  22. Nvidia Geforce RTX 4080 16GB im Test: Ein fast perfektes Gesamtpaket - wenn der Preis nicht wäre [Update]. 16. November 2022, abgerufen am 27. Juni 2024.
  23. Wolfgang Andermahr: Nvidia GeForce RTX 4080 FE und Customs im Test: Preis, Verfügbarkeit und Fazit. 15. November 2022, abgerufen am 27. Juni 2024.
  24. Alexander Köpf: Geforce RTX 4080 im Test: Nvidia setzt einen neuen Maßstab. In: GameStar. 15. November 2022 (gamestar.de [abgerufen am 27. Juni 2024]).
  25. Nvidia Geforce RTX 4060: Palit zeigt die traurige Wahrheit jetzt auch mechanisch. In: pcgameshardware.de. 14. Juli 2023, abgerufen am 5. August 2023.
  26. Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions. Computerbase, 22. September 2022, abgerufen am 16. Oktober 2022.
  27. a b Geforce RTX 4090 im Test (Seite 2). PC Games Hardware, 12. Oktober 2022, abgerufen am 16. Oktober 2022.
  28. a b GeForce RTX 4060-Produktreihe. Nvidia, abgerufen am 8. Januar 2024.
  29. a b c d e f g h i j k l m n o p q r s t u Stromverbrauchs-Überblick für DirectX 11/12 Grafikkarten – nVidia GeForce 40 Serie (Ada Lovelace). In: 3dcenter.org. 4. Juli 2021, abgerufen am 14. September 2024.
  30. a b c d GeForce RTX 4070-Produktreihe. Nvidia, abgerufen am 8. Januar 2024.
  31. a b GeForce RTX 4080-Produktreihe. Nvidia, abgerufen am 8. Januar 2024.
  32. GeForce RTX 4090. Nvidia, abgerufen am 20. September 2022.
  33. a b c d e Laptops der GeForce RTX 40-Serie. Nvidia, abgerufen am 20. September 2022.