Filter

GeForce RTX 2060 Super

0 Ergebnisse
404 image

Ist das denn möglich?

Leider haben wir dazu nichts gefunden.

NVIDIA GeForce RTX 2060 Super

Die NVIDIA GeForce RTX 2060 Super ist eine Gaming-Grafikkarte aus dem oberen Mittelklassesegment und bietet ein besonders gutes Preis-Leistungs-Verhältnis. Die vielen Features der Turing-GPU-Architektur des TU106-410-A1-Grafikchips der NVIDIA GeForce RTX 2060 Super beinhalten die im Focus stehenden Raytracing-Rechenkerne und die Tensor-Kerne. Als "RTX Super"-Grafikkarte der zweiten Turing-Generation ist die NVIDIA GeForce RTX 2060 Super nicht nur mit einem schnelleren Grafikchip als die "normale" RTX 2060 bestückt, sondern bietet auch gleich 8 GB des besonders schnellen GDDR6-Videospeichers anstelle der 6 GB der RTX 2060.


Leistungsdaten der NVIDIA GeForce RTX 2060 Super Grafikkarte (Referenzmodell):

  • Basistakt der GPU: 1.470 MHz
  • Boost-Takt der GPU: 1.860 MHz
  • Grafikspeicher: 8 GB GDDR6
  • Speichertakt: 7.000 MHz (effektiv 14.000 MHz)
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 448 GB/s
  • CUDA-Cores (Shader): 2.176
  • Raytracing-Recheneinheiten: 34
  • Turing-Tensor-Kerne: 272
  • TDP: 160 Watt
  • Stromanschluss: 1x 8-Pin
  • Videoausgänge: DP 1.4, HDMI 2.0b, USB 3.1 Typ C (VirtualLink)

GeForce RTX 2060 Super: Der Turing-Refresh

Die NVIDIA GeForce RTX 2060 Super basiert auf der Turing-Architektur der "zweiten Generation" und verfügt über zwei entscheidende Vorteile gegenüber der Pascal-Architektur der 10er-Serie: Tensor-Kerne und Ray Tracing-Kerne. Der Grafikchip der RTX 2060 Super bietet 2.176 Shader-Einheiten (bei NVIDIA: CUDA-Cores). Zusätzlich verfügt der TU106-410-A1-Chip aus dem "RTX Super"-Refresh der NVIDIA GeForce RTX 2060 Super über 272 TENSOR- und 34 Ray-Tracing-Kerne.

Die Turing-Architektur
Das Besondere an den GeForce RTX-Grafikkarten ist der Aufbau des Grafikchips. Dieser verfügt neben den herkömmlichen CUDA-Kernen über zwei weitere Arten von Rechenkernen: Tensor und RT. Die drei verschiedenen Kerne arbeiten in parallelisierten Prozessen miteinander und ermöglichen so das Ray Tracing in Echtzeit. Hierfür muss das Spiel oder die Anwendung ebenfalls Ray Tracing unterstützen. Beim Berechnen von realistischen Licht- und Schatteneffekte werden diese zunächst durch die RT-Kerne teilberechnet und dann durch die Tensor-Kerne auf die dargestellte Szene hochgerechnet. Bei den einzelnen Schritten werden sowohl die Tensor- als auch die RT-Kerne von den CUDA-Cores unterstützt.

Was sind Tensor-Kerne?



Die Die Tensor-Rechenkerne
Tensor-Kerne sind spezielle, für das Deep Learning entwickelte Rechenkerne, die mit der Volta-GPU-Architektur eingeführt wurden. Diese auf einer Matrix basierenden Rechenkerne sind mit besonderen Datenpfaden für einen optimierten Gleitkomma-Berechnungsdurchsatz ausgestattet und bieten zudem eine gesteigerte Energieeffizienz. Vor allem das "Training" und die "Inferenz" als Bestandteile des Deep Learnings profitieren von den Tensor-Kernen.

Das Training, also das Lernen neuer Fähigkeiten anhand vorhandener Daten, soll mit Hilfe der Tensor-Rechenkernen mit einer bis zu 12 Mal höheren TFLOP-Leistung erfolgen als noch mit Pascal, dem Vorgänger der Volta-GPU-Architektur. Die Inferenz beim Deep Learning ist das Anwenden der beim Training gelernten Fähigkeiten und soll bei Volta gegenüber Pascal mit einer bis zu 6 Mal höheren TFLOP-Spitzenleistung erfolgen.

Was ist Ray-Tracing?

Ray Tracing ermöglicht realistische Beleuchtung, indem die physikalischen Eigenschaften und das Verhalten des Lichts simuliert werden. Ray Tracing berechnet die Farbe einzelner Pixel durch das Verfolgen des Weges, den das Licht vom Auge des Benutzers durch eine 3D-Landschaft nehmen würde. Während das Licht die 3D-Szenerie durchquert, könnte es von Objekten reflektiert werden und Reflexionen erzeugen, von Objekten geblockt werden und Schatten erzeugen oder transparente oder halb-transparente Objekte durchqueren und Lichtbrechungen oder Verzerrungen erzeugen. Ray Tracing kombiniert all diese Effekte, um die finale Farbe eines Pixels auf dem Monitor darzustellen.

Bisher wurde Ray Tracing vor allem bei Filmen genutzt, um Spezialeffekte zu erzeugen. Für diese Szenen werden häufig Renderfarmen genutzt und das berechnen komplexer 3D-Animationen und Spezialeffekte für Kinofilme kann mehrere Wochen in Anspruch nehmen. Aufgrund der Komplexität von Ray Tracing wurden PC-Anwendungen wie Computerspiele in der Regel mit 3D-Objekten gefüllt, die auf einem Raster-Modell aufbauen. Bei der Rasterung (engl.: Rasterization) werden 3D-Objekte aus einem Netzwerk von Dreiecken oder Polygonen modelliert. In der Rendering-Pipeline werden diese Dreiecke des 3D-Modell einzeln in Pixel auf einer 2D-Bildfläche umgewandelt. Anschließend können die Pixel weiterverarbeitet ("shaded") werden.


GDDR6 - Der Videospeicher der RTX 2060 Super

GDDR6
Die RTX 2060 Super ist mit 8 GB GDDR6-VRAM bestückt. Der von der JEDEC im Juli 2017 spezifizierte Videospeicher bietet eine höhere Speicherbandbreite als seine Vorgänger und ermöglicht so einen höheren Datendurchsatz. Mit Transferraten von bis zu 18 GB/s und beispielsweise einem 384-Bit-Speicherinterface erzielt GDDR6 eine Geschwindigkeit von bis zu 672 GB/s. Bei gleichem Speicherbus ist dies rund 17 Prozent schneller als GDDR5X-VRAM (12GB/s Durchsatz, 576 GB/s Gesamtgeschwindigkeit) und knapp 56 Prozent schneller als GDDR5 (9 GB/s, 432 GB/s).

Mit einer Spannung von 1,35 Volt ist GDDR6 zudem sehr sparsam und es besteht zudem die Möglichkeit, den Durchsatz pro Chip auf 12 GB/s zu reduzieren, wodurch die benötigte Spannung auf 1,25 Volt gesenkt wird. Während einzelne GDDR5-Speicherchips eine Kapazität zwischen 512 MB und 8 GB bieten, verfügt GDDR6 über Kapazitäten von 8 GB bis 32 GB. Das Prefetching wird gegenüber GDDR5 verdoppelt, sodass 16 statt 8 Datenbits genutzt werden. Pro Zugriff werden so 64 statt 32 Bit übertragen. GDDR6 wird zudem mit Dual-Channel-Ansteuerung ausgestattet sein, wodurch die Bandbreite im Vergleich zu einem normalen Interface erhöht wird.


NVIDIA NVLink: Die Ablösung für SLI?

NVLink Fabric
NVIDIA NVLink ist ein neues Interface, um Grafikkarten und Prozessoren miteinander zu verbinden. Vor allen in Systemen, die für künstliche Intelligenzen (KI, engl.: AI: Artificial Intelligence) verwendet werden, kann es zu Engpässen bei der Datenbandbreite zwischen den einzelnen Komponenten kommen. Hierfür wurde die NVLink Fabric entwickelt. Einzelne NVLinks können zudem mit einem Mesh-Netzwerk verbunden werden.

Mit einem NVLink können theoretisch Daten mit einer Geschwindigkeit von bis zu 300 GB/sec (NVIDIA V100 mit NVLink 2.0) übertragen würden, was ungefähr 100 PCIe-3.0-Lanes entsprechen würde und sechs Mal so schnell ist, wie das mit PCIe 3.0 mögliche Maximum. Vor allem hochparallelisierte Prozesse profitieren hiervon deutlich.
NVM Bridge
Die neuen GeForce RTX-Grafikkarten verfügen über einen Connector, mit dessen Hilfe Grafikkarten mit einer entsprechenden NVLink-Brücke verbunden werden können. Dies erfolgt wie bei NVIDIA SLI über das Anstecken der Bridge an die beiden Grafikkarten und die NVLink Bridges sind mit SLI abwärtskompatibel.

Die tatsächliche Leistung bei Spielen ist ähnlich wie bei SLI davon abhängig, ob das Spiel SLI/NVLink unterstützt. Wie stark die miteinander verbundenen Grafikkarten skalieren ist demnach von der Software genauso abhängig, wie von der verwendeten Hardware.

VirtualLink: USB Typ C für VR-Brillen

VirtualLink
VirtualLink ist ein offener Industriestandard. Entwickelt wurde VirtualLink, um VR-Brillen bequemer mit dem PC verbinden zu können. Die Verbindung erfolgt über einen USB-Typ C-Stecker, der neben der Unterstützung von DisplayPort High Bit Rate 3 (HBR3) und USB 3.2 (USB 3.1 Gen2) auch eine Stromversorgung von bis zu 27 Watt gewährleisten kann. Maßgeblich beteiligt an der Entwicklung von VirtualLink sind NVIDIA, Oculus, Valve, Microsoft und AMD.