Filter

GeForce RTX 2080 Super

0 Ergebnisse
404 image

Ist das denn möglich?

Leider haben wir dazu nichts gefunden.

NVIDIA GeForce RTX 2080 Super

Die NVIDIA GeForce RTX 2080 Super Gaming-Grafikkarte ist seit dem 09.07.2019 verfügbar. Die "RTX Super"-Grafikkarten sind ein Refresh der Turing-Architektur und bieten eine herausragende Gaming-Performance. Zu den Features der optimierten Turing-Generation gehören unter anderem höhere Taktraten des Grafikchips sowie stellenweise höhere Taktraten des GDDR6-Grafikspeichers. Dank der enormen Rechenleistung der "Super"-Grafikkarten wird das Zocken in der Virtual Reality, in 4K-Auflösung oder mit in Echtzeit gerenderten Raytracing-Effekten zu einem unvergessenen Erlebnis.


Leistungsdaten der NVIDIA GeForce RTX 2080 Super Grafikkarte (Referenzmodell):

  • Rechenleistung (FP32): ca. 13 TFLOPS
  • Basistakt der GPU: 1.650 MHz
  • Boost-Takt der GPU: 1.815 MHz
  • Grafikspeicher: 8 GB GDDR6
  • Speichertakt: 7.750 MHz (effektiv 15.500 MHz)
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 496 GB/s
  • CUDA-Cores (Shader): 3.072
  • RT-Kerne: 48
  • Tensor-Cores: 384
  • TDP: 250 Watt
  • Stromanschluss: je 1x 8 Pin- und 6-Pin-PCIe
  • Videoausgänge: DP 1.3, HDMI 2.0, DVI-D, USB 3.1 Typ C (VirtualLink)

GeForce RTX 2080 Super: Der Turing-Refresh

Die NVIDIA GeForce RTX 2080 Super basiert auf der Turing-Architektur und verfügt über zwei entscheidende Vorteile gegenüber der Pascal-Architektur der 10er-Serie: Tensor-Kerne und Raytracing-Kerne. Diese neuartigen Rechenkerne ermöglichen nicht nur neue Features, sondern erhöhen gleichzeitig auch die Rechenpower der CUDA-Kerne. Der TU104-450-A1-Grafikchip der GeForce RTX 2080 Super bietet gegenüber dem TU104-Grafikchip der GeForce RTX 2080 nicht nur mehr CUDA-, Tensor- und Raytracing-Kerne, sondern ermöglicht zudem höhere Taktraten.

Die Turing-Architektur
Das Besondere an den GeForce RTX-Grafikkarten ist der Aufbau des Grafikchips. Dieser verfügt neben den herkömmlichen CUDA-Kernen über zwei weitere Arten von Rechenkernen: Tensor und RT. Die drei verschiedenen Kerne arbeiten in parallelisierten Prozessen miteinander und ermöglichen so das Ray Tracing in Echtzeit. Hierfür muss das Spiel oder die Anwendung ebenfalls Ray Tracing unterstützen. Beim Berechnen von realistischen Licht- und Schatteneffekte werden diese zunächst durch die RT-Kerne teilberechnet und dann durch die Tensor-Kerne auf die dargestellte Szene hochgerechnet. Bei den einzelnen Schritten werden sowohl die Tensor- als auch die RT-Kerne von den CUDA-Cores unterstützt.

Was sind Tensor-Kerne?



Die Die Tensor-Rechenkerne
Tensor-Kerne sind speziell für das Deep Learning entwickelte Rechenkerne, die mit der Volta-GPU-Architektur eingeführt wurden. Diese auf einer Matrix basierenden Rechenkerne sind mit besonderen Datenpfaden für einen optimierten Gleitkomma-Berechnungsdurchsatz ausgestattet und bieten zudem eine gesteigerte Energieeffizienz. Vor allem das "Training" und die "Inferenz" als Bestandteile des Deep Learnings profitieren von den Tensor-Kernen.

Das Training, also das Lernen neuer Fähigkeiten anhand vorhandener Daten, soll mit Hilfe der Tensor-Rechenkernen mit einer bis zu 12 Mal höheren TFLOP-Leistung erfolgen als noch mit Pascal, dem Vorgänger der Volta-GPU-Architektur. Die Inferenz beim Deep Learning ist das Anwenden der beim Training gelernten Fähigkeiten und soll bei Volta gegenüber Pascal mit einer bis zu 6 Mal höheren TFLOP-Spitzenleistung erfolgen.

Was ist Ray-Tracing?

Ray Tracing ermöglicht realistische Beleuchtung, indem die physikalischen Eigenschaften und das Verhalten des Lichts simuliert werden. Ray Tracing berechnet die Farbe einzelner Pixel durch das Verfolgen des Weges, den das Licht vom Auge des Benutzers durch eine 3D-Landschaft nehmen würde. Während das Licht die 3D-Szenerie durchquert, könnte es von Objekten reflektiert werden und Reflexionen erzeugen, von Objekten geblockt werden und Schatten erzeugen oder transparente oder halb-transparente Objekte durchqueren und Lichtbrechungen oder Verzerrungen erzeugen. Ray Tracing kombiniert all diese Effekte, um die finale Farbe eines Pixels auf dem Monitor darzustellen.

Bisher wurde Ray Tracing vor allem bei Filmen genutzt, um Spezialeffekte zu erzeugen. Für diese Szenen werden häufig Renderfarmen genutzt und das berechnen komplexer 3D-Animationen und Spezialeffekte für Kinofilme kann mehrere Wochen in Anspruch nehmen. Aufgrund der Komplexität von Ray Tracing wurden PC-Anwendungen wie Computerspiele in der Regel mit 3D-Objekten gefüllt, die auf einem Raster-Modell aufbauen. Bei der Rasterung (engl.: Rasterization) werden 3D-Objekte aus einem Netzwerk von Dreiecken oder Polygonen modelliert. In der Rendering-Pipeline werden diese Dreiecke des 3D-Modell einzeln in Pixel auf einer 2D-Bildfläche umgewandelt. Anschließend können die Pixel weiterverarbeitet ("shaded") werden.


GDDR6 - Der schnelle Videospeicher der GeForce RTX 2080 Super

GDDR6
Die GeForce RTX 2080 Super ist mit 8 GB GDDR6-Videospeicher der "zweiten Generation" bestückt. Im Vergleich zur RTX 2080 ist der VRAM der "Super"-Karte dank der höheren Taktrate schneller und bietet noch mehr Gaming-Performance. Der von der JEDEC im Juli 2017 spezifizierte Videospeicher bietet eine höhere Speicherbandbreite als seine Vorgänger und ermöglicht so einen höheren Datendurchsatz. Mit Transferraten von bis zu 18 GB/s und beispielsweise einem 384-Bit-Speicherinterface erzielt GDDR6 eine Geschwindigkeit von bis zu 672 GB/s. Bei gleichem Speicherbus ist dies rund 17 Prozent schneller als GDDR5X-VRAM (12GB/s Durchsatz, 576 GB/s Gesamtgeschwindigkeit) und knapp 56 Prozent schneller als GDDR5 (9 GB/s, 432 GB/s).

Mit einer Spannung von 1,35 Volt ist GDDR6 zudem sehr sparsam und es besteht zudem die Möglichkeit, den Durchsatz pro Chip auf 12 GB/s zu reduzieren, wodurch die benötigte Spannung auf 1,25 Volt gesenkt wird. Während einzelne GDDR5-Speicherchips eine Kapazität zwischen 512 MB und 8 GB bieten, verfügt GDDR6 über Kapazitäten von 8 GB bis 32 GB. Das Prefetching wird gegenüber GDDR5 verdoppelt, sodass 16 statt 8 Datenbits genutzt werden. Pro Zugriff werden so 64 statt 32 Bit übertragen. GDDR6 wird zudem mit Dual-Channel-Ansteuerung ausgestattet sein, wodurch die Bandbreite im Vergleich zu einem normalen Interface erhöht wird.


NVIDIA NVLink: Die Ablösung für SLI?

NVLink Fabric
NVIDIA NVLink ist ein neues Interface, um Grafikkarten und Prozessoren miteinander zu verbinden. Vor allen in Systemen, die für künstliche Intelligenzen (KI, engl.: AI: Artificial Intelligence) verwendet werden, kann es zu Engpässen bei der Datenbandbreite zwischen den einzelnen Komponenten kommen. Hierfür wurde die NVLink Fabric entwickelt. Einzelne NVLinks können zudem mit einem Mesh-Netzwerk verbunden werden.

Mit einem NVLink können theoretisch Daten mit einer Geschwindigkeit von bis zu 300 GB/sec (NVIDIA V100 mit NVLink 2.0) übertragen würden, was ungefähr 100 PCIe-3.0-Lanes entsprechen würde und sechs Mal so schnell ist, wie das mit PCIe 3.0 mögliche Maximum. Vor allem hochparallelisierte Prozesse profitieren hiervon deutlich.
NVM Bridge
Die neuen GeForce RTX-Grafikkarten verfügen über einen Connector, mit dessen Hilfe Grafikkarten mit einer entsprechenden NVLink-Brücke verbunden werden können. Dies erfolgt wie bei NVIDIA SLI über das Anstecken der Bridge an die beiden Grafikkarten und die NVLink Bridges sind mit SLI abwärtskompatibel.

Die tatsächliche Leistung bei Spielen ist ähnlich wie bei SLI davon abhängig, ob das Spiel SLI/NVLink unterstützt. Wie stark die miteinander verbundenen Grafikkarten skalieren ist demnach von der Software genauso abhängig, wie von der verwendeten Hardware.

VirtualLink: USB Typ C für VR-Brillen

VirtualLink
VirtualLink ist ein offener Industriestandard. Entwickelt wurde VirtualLink, um VR-Brillen bequemer mit dem PC verbinden zu können. Die Verbindung erfolgt über einen USB-Typ C-Stecker, der neben der Unterstützung von DisplayPort High Bit Rate 3 (HBR3) und USB 3.2 (USB 3.1 Gen2) auch eine Stromversorgung von bis zu 27 Watt gewährleisten kann. Maßgeblich beteiligt an der Entwicklung von VirtualLink sind NVIDIA, Oculus, Valve, Microsoft und AMD.