Filter

GeForce RTX 2070 Super

0 Ergebnisse
404 image

Ist das denn möglich?

Leider haben wir dazu nichts gefunden.

NVIDIA GeForce RTX 2070 Super

Die NVIDIA GeForce RTX 2070 Super Gaming-Grafikkarte aus dem "RTX Super"-Serie ist mit dem TU104-410-A1-Grafikchip aus NVIDIAs zweiter Turing-Generation bestückt. Neben 2.560 herkömmlichen CUDA-Rechenkernen ist der Grafikchip der GeForce RTX 2070 Super mit den neuartigen Tensor-Cores und den revolutionären Raytracing-Kernen ausgestattet. Zusätzlich ist die GeForce RTX 2070 Super mit dem besonders schnellen Videospeicher der Spezifikation GDDR6 über ein 256-Bit-Speicherinterface verbunden. Die Grafikkarte aus dem High-End-Segment ermöglicht mit ihrer Rechenleistung das Eintauchen in die virtuelle Realität (VR), das Zocken in 4K/UHD-Auflösung sowie phänomenale, in Echtzeit gerenderte Licht- und Schatteneffekte.


Leistungsdaten der NVIDIA GeForce RTX 2070 Super Grafikkarte (Referenzmodell):

  • Basistakt der GPU: 1.605 MHz
  • Boost-Takt der GPU: 1.770 MHz
  • Grafikspeicher: 8 GB GDDR6
  • Speichertakt: 7.000 MHz (effektiv 14.000 MHz)
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 448 GB/s
  • CUDA-Cores (Shader): 2.560
  • Raytracing-Recheneinheiten: 40
  • Turing-Tensor-Kerne: 320
  • TDP: 160 Watt
  • Stromanschluss: 1x 8-Pin + 1x 8-Pin
  • Videoausgänge: DP 1.4, HDMI 2.0b, USB 3.1 Typ C (VirtualLink)

GeForce RTX 2070 Super: Der Turing Refresh

Der TU104-410-A1-Grafikchip der NVIDIA GeForce RTX 2070 Super stammt aus der "zweiten turing-Generation" und verfügt über drei Arten von Rechenkernen: CUDA, RT und Tensor. CUDA-Kerne sind die Shader-Einheiten des Grafikchips und der TU104-410-A1 verfügt über 2.560 dieser Rechenkerne. Mit der Turing-GPU-Architektur wurden die neuen Raytracing-Kerne eingeführt und mit den Tensor-Kernen der Volta-Generation kombiniert. Die 40 RT-Cores sind für die Berechnung realistischer Licht- und Schatteneffekte verantwortlich, während die 320 Tensor-Kerne zum Beispiel für die Kantenglättung (DLAA/DLSS = Deep Learning Anti Aliasing / Deep Learning Super Sampling) zuständig sind.

Die Turing-Architektur
Das Besondere an den GeForce RTX-Grafikkarten ist der Aufbau des Grafikchips. Dieser verfügt neben den herkömmlichen CUDA-Kernen über zwei weitere Arten von Rechenkernen: Tensor und RT. Die drei verschiedenen Kerne arbeiten in parallelisierten Prozessen miteinander und ermöglichen so das Ray Tracing in Echtzeit. Hierfür muss das Spiel oder die Anwendung ebenfalls Ray Tracing unterstützen. Beim Berechnen von realistischen Licht- und Schatteneffekte werden diese zunächst durch die RT-Kerne teilberechnet und dann durch die Tensor-Kerne auf die dargestellte Szene hochgerechnet. Bei den einzelnen Schritten werden sowohl die Tensor- als auch die RT-Kerne von den CUDA-Cores unterstützt.

Was sind Tensor-Kerne?



Die Die Tensor-Rechenkerne
Tensor-Kerne wurden mit den Volta-Grafikkarten eingeführt und speziell für das Deep Learning entwickelt. Diese auf einer Matrix basierenden Recheneinheiten sind mit speziellen Datenpfaden versehen, welche den Gleitkomma-Berechnungsdurchsatz gegenüber normalen Rechenkernen stark optimieren und gleichzeitig die Energieeffizienz steigern. Vor allem das "Training" und die "Inferenz" als Bestandteile des Deep Learnings profitieren von den Tensor-Kernen.

Das Training, also das Lernen neuer Fähigkeiten anhand vorhandener Daten, erfolgt mit Hilfe der Tensor-Rechenkernen mit einer bis zu 12 Mal höheren TFLOP-Leistung als noch mit Pascal, dem Vorgänger der Volta-GPU-Architektur. Die Inferenz beim Deep Learning ist das Anwenden der beim Training gelernten Fähigkeiten und soll bei Volta gegenüber Pascal mit einer bis zu 6 Mal höheren TFLOP-Spitzenleistung erfolgen.

Was ist Raytracing?

Raytracing ermöglicht eine realistische Beleuchtung, indem die physikalischen Eigenschaften und das Verhalten des Lichts simuliert werden. Ray Tracing berechnet die Farbe einzelner Pixel durch das Verfolgen des Weges, den das Licht vom Auge des Benutzers durch eine 3D-Landschaft nehmen würde. Während das Licht die 3D-Szenerie durchquert, könnte es von Objekten reflektiert werden und Reflexionen erzeugen, von Objekten geblockt werden und Schatten erzeugen oder transparente oder halb-transparente Objekte durchqueren und Lichtbrechungen oder Verzerrungen erzeugen. Ray Tracing kombiniert all diese Effekte, um die finale Farbe eines Pixels auf dem Monitor darzustellen.

Bisher wurde Ray Tracing vor allem bei Filmen genutzt, um Spezialeffekte zu erzeugen. Für diese Szenen werden häufig Renderfarmen genutzt und das berechnen komplexer 3D-Animationen und Spezialeffekte für Kinofilme kann mehrere Wochen in Anspruch nehmen. Aufgrund der Komplexität von Ray Tracing wurden PC-Anwendungen wie Computerspiele in der Regel mit 3D-Objekten gefüllt, die auf einem Raster-Modell aufbauen. Bei der Rasterung (engl.: Rasterization) werden 3D-Objekte aus einem Netzwerk von Dreiecken oder Polygonen modelliert. In der Rendering-Pipeline werden diese Dreiecke des 3D-Modell einzeln in Pixel auf einer 2D-Bildfläche umgewandelt. Anschließend können die Pixel weiterverarbeitet ("shaded") werden.


GDDR6 - Der Videospeicher der GeForce RTX 2070

GDDR6
Die GeForce RTX 2070 Super ist mit 8 GB GDDR6-VRAM bestückt. Der von der JEDEC im Juli 2017 spezifizierte Videospeicher bietet eine höhere Speicherbandbreite als seine Vorgänger und ermöglicht so einen höheren Datendurchsatz. Mit Transferraten von bis zu 18 GB/s und beispielsweise einem 384-Bit-Speicherinterface erzielt GDDR6 eine Geschwindigkeit von bis zu 672 GB/s. Bei gleichem Speicherbus ist dies rund 17 Prozent schneller als GDDR5X-VRAM (12GB/s Durchsatz, 576 GB/s Gesamtgeschwindigkeit) und knapp 56 Prozent schneller als GDDR5 (9 GB/s, 432 GB/s).

Mit einer Spannung von 1,35 Volt ist GDDR6 zudem sehr sparsam und es besteht zudem die Möglichkeit, den Durchsatz pro Chip auf 12 GB/s zu reduzieren, wodurch die benötigte Spannung auf 1,25 Volt gesenkt wird. Während einzelne GDDR5-Speicherchips eine Kapazität zwischen 512 MB und 8 GB bieten, verfügt GDDR6 über Kapazitäten von 8 GB bis 32 GB. Das Prefetching wird gegenüber GDDR5 verdoppelt, sodass 16 statt 8 Datenbits genutzt werden. Pro Zugriff werden so 64 statt 32 Bit übertragen. GDDR6 wird zudem mit Dual-Channel-Ansteuerung ausgestattet sein, wodurch die Bandbreite im Vergleich zu einem normalen Interface erhöht wird.


NVIDIA NVLink: Die Ablösung für SLI?

NVLink Fabric
NVIDIA NVLink ist ein neues Interface, um Grafikkarten und Prozessoren miteinander zu verbinden. Vor allen in Systemen, die für künstliche Intelligenzen (KI, engl.: AI: Artificial Intelligence) verwendet werden, kann es zu Engpässen bei der Datenbandbreite zwischen den einzelnen Komponenten kommen. Hierfür wurde die NVLink Fabric entwickelt. Einzelne NVLinks können zudem mit einem Mesh-Netzwerk verbunden werden.

Mit einem NVLink können theoretisch Daten mit einer Geschwindigkeit von bis zu 300 GB/sec (NVIDIA V100 mit NVLink 2.0) übertragen würden, was ungefähr 100 PCIe-3.0-Lanes entsprechen würde und sechs Mal so schnell ist, wie das mit PCIe 3.0 mögliche Maximum. Vor allem hochparallelisierte Prozesse profitieren hiervon deutlich.
NVM Bridge
Die neuen GeForce RTX-Grafikkarten verfügen über einen Connector, mit dessen Hilfe Grafikkarten mit einer entsprechenden NVLink-Brücke verbunden werden können. Dies erfolgt wie bei NVIDIA SLI über das Anstecken der Bridge an die beiden Grafikkarten und die NVLink Bridges sind mit SLI abwärtskompatibel.

Die tatsächliche Leistung bei Spielen ist ähnlich wie bei SLI davon abhängig, ob das Spiel SLI/NVLink unterstützt. Wie stark die miteinander verbundenen Grafikkarten skalieren ist demnach von der Software genauso abhängig, wie von der verwendeten Hardware.

VirtualLink: USB Typ C für VR-Brillen

VirtualLink
VirtualLink ist ein offener Industriestandard. Entwickelt wurde VirtualLink, um VR-Brillen bequemer mit dem PC verbinden zu können. Die Verbindung erfolgt über einen USB-Typ C-Stecker, der neben der Unterstützung von DisplayPort High Bit Rate 3 (HBR3) und USB 3.2 (USB 3.1 Gen2) auch eine Stromversorgung von bis zu 27 Watt gewährleisten kann. Maßgeblich beteiligt an der Entwicklung von VirtualLink sind NVIDIA, Oculus, Valve, Microsoft und AMD.