Filter

GeForce RTX 2070

0 Ergebnisse
404 image

Ist das denn möglich?

Leider haben wir dazu nichts gefunden.

NVIDIA GeForce RTX 2070

NVIDIA GeForce RTX 2070

Die NVIDIA GeForce RTX 2070 Gaming-Grafikkarte basiert auf der "Turing" GPU-Architektur. Neben 2.304 herkömmlichen CUDA-Rechenkernen ist der TU106-Grafikchip der GeForce RTX 2070 mit den neuartigen Tensor-Cores und den revolutionären Raytracing-Kernen ausgestattet. Zusätzlich ist die GeForce RTX 2070 mit dem besonders schnellen Videospeicher der Spezifikation GDDR6 über ein 256-Bit-Speicherinterface verbunden. Die Grafikkarte aus dem oberen Mittelklassesegment ermöglicht mit ihrer Rechenleistung das Eintauchen in die virtuelle Realität (VR) und das Zocken in 4K/UHD-Auflösung.


Leistungsdaten der NVIDIA GeForce RTX 2070 Grafikkarte (Referenzmodell):

  • Rechenleistung (FP32): ca. 7,5 TFLOPS
  • Basistakt der GPU: 1.410 MHz
  • Boost-Takt der GPU: 1.620 MHz
  • Grafikspeicher: 8 GB GDDR6
  • Speichertakt: 7.000 MHz (effektiv 14.000 MHz)
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 448 GB/s
  • CUDA-Cores (Shader): 2.304
  • RT-Kerne: 36
  • Tensor-Cores: 288
  • TDP: 175 Watt
  • Stromanschluss:1x 8 Pin-PCIe
  • Videoausgänge: DP 1.4, HDMI 2.0, DVI-D, USB 3.1 Typ C (VirtualLink)

GeForce RTX 2070: Die Turing-GPU-Architektur

Der TU106-Grafikchip der NVIDIA GeForce RTX 2070 verfügt über drei Arten von Rechenkernen: CUDA, RT und Tensor. CUDA-Kerne sind die Shader-Einheiten des Grafikchips und der TU106 verfügt über 2.304 dieser Rechenkerne. Mit der Turing-GPU-Architektur wurden die neuen Raytracing-Kerne eingeführt und mit den Tensor-Kernen der Volta-Generation kombiniert. Die 36 RT-Cores sind für die Berechnung realistischer Licht- und Schatteneffekte verantwortlich, während die 288 Tensor-Kerne für zum Beispiel die Kantenglättung (DLAA/DLSS = Deep Learning Anti Aliasing / Deep Learning Super Sampling) zuständig sind.

Die Turing-Architektur
Das Besondere an den GeForce RTX-Grafikkarten ist der Aufbau des Grafikchips. Dieser verfügt neben den herkömmlichen CUDA-Kernen über zwei weitere Arten von Rechenkernen: Tensor und RT. Die drei verschiedenen Kerne arbeiten in parallelisierten Prozessen miteinander und ermöglichen so das Ray Tracing in Echtzeit. Hierfür muss das Spiel oder die Anwendung ebenfalls Ray Tracing unterstützen. Beim Berechnen von realistischen Licht- und Schatteneffekte werden diese zunächst durch die RT-Kerne teilberechnet und dann durch die Tensor-Kerne auf die dargestellte Szene hochgerechnet. Bei den einzelnen Schritten werden sowohl die Tensor- als auch die RT-Kerne von den CUDA-Cores unterstützt.

Was sind Tensor-Kerne?



Die Die Tensor-Rechenkerne
Tensor-Kerne wurden mit den Volta-Grafikkarten eingeführt und speziell für das Deep Learning entwickelt. Diese auf einer Matrix basierenden Recheneinheiten sind mit speziellen Datenpfaden versehen, welche den Gleitkomma-Berechnungsdurchsatz gegenüber normalen Rechenkernen stark optimieren und gleichzeitig die Energieeffizienz steigern. Vor allem das "Training" und die "Inferenz" als Bestandteile des Deep Learnings profitieren von den Tensor-Kernen.

Das Training, also das Lernen neuer Fähigkeiten anhand vorhandener Daten, erfolgt mit Hilfe der Tensor-Rechenkernen mit einer bis zu 12 Mal höheren TFLOP-Leistung als noch mit Pascal, dem Vorgänger der Volta-GPU-Architektur. Die Inferenz beim Deep Learning ist das Anwenden der beim Training gelernten Fähigkeiten und soll bei Volta gegenüber Pascal mit einer bis zu 6 Mal höheren TFLOP-Spitzenleistung erfolgen.

Was ist Raytracing?

Raytracing ermöglicht eine realistische Beleuchtung, indem die physikalischen Eigenschaften und das Verhalten des Lichts simuliert werden. Ray Tracing berechnet die Farbe einzelner Pixel durch das Verfolgen des Weges, den das Licht vom Auge des Benutzers durch eine 3D-Landschaft nehmen würde. Während das Licht die 3D-Szenerie durchquert, könnte es von Objekten reflektiert werden und Reflexionen erzeugen, von Objekten geblockt werden und Schatten erzeugen oder transparente oder halb-transparente Objekte durchqueren und Lichtbrechungen oder Verzerrungen erzeugen. Ray Tracing kombiniert all diese Effekte, um die finale Farbe eines Pixels auf dem Monitor darzustellen.

Bisher wurde Ray Tracing vor allem bei Filmen genutzt, um Spezialeffekte zu erzeugen. Für diese Szenen werden häufig Renderfarmen genutzt und das berechnen komplexer 3D-Animationen und Spezialeffekte für Kinofilme kann mehrere Wochen in Anspruch nehmen. Aufgrund der Komplexität von Ray Tracing wurden PC-Anwendungen wie Computerspiele in der Regel mit 3D-Objekten gefüllt, die auf einem Raster-Modell aufbauen. Bei der Rasterung (engl.: Rasterization) werden 3D-Objekte aus einem Netzwerk von Dreiecken oder Polygonen modelliert. In der Rendering-Pipeline werden diese Dreiecke des 3D-Modell einzeln in Pixel auf einer 2D-Bildfläche umgewandelt. Anschließend können die Pixel weiterverarbeitet ("shaded") werden.


GDDR6 - Der Videospeicher der GeForce RTX 2070

GDDR6
Die GeForce RTX 2070 ist mit 8 GB GDDR6-VRAM bestückt. Der von der JEDEC im Juli 2017 spezifizierte Videospeicher bietet eine höhere Speicherbandbreite als seine Vorgänger und ermöglicht so einen höheren Datendurchsatz. Mit Transferraten von bis zu 18 GB/s und beispielsweise einem 384-Bit-Speicherinterface erzielt GDDR6 eine Geschwindigkeit von bis zu 672 GB/s. Bei gleichem Speicherbus ist dies rund 17 Prozent schneller als GDDR5X-VRAM (12GB/s Durchsatz, 576 GB/s Gesamtgeschwindigkeit) und knapp 56 Prozent schneller als GDDR5 (9 GB/s, 432 GB/s).

Mit einer Spannung von 1,35 Volt ist GDDR6 zudem sehr sparsam und es besteht zudem die Möglichkeit, den Durchsatz pro Chip auf 12 GB/s zu reduzieren, wodurch die benötigte Spannung auf 1,25 Volt gesenkt wird. Während einzelne GDDR5-Speicherchips eine Kapazität zwischen 512 MB und 8 GB bieten, verfügt GDDR6 über Kapazitäten von 8 GB bis 32 GB. Das Prefetching wird gegenüber GDDR5 verdoppelt, sodass 16 statt 8 Datenbits genutzt werden. Pro Zugriff werden so 64 statt 32 Bit übertragen. GDDR6 wird zudem mit Dual-Channel-Ansteuerung ausgestattet sein, wodurch die Bandbreite im Vergleich zu einem normalen Interface erhöht wird.


NVIDIA NVLink: Die Ablösung für SLI?

NVLink Fabric
NVIDIA NVLink ist ein neues Interface, um Grafikkarten und Prozessoren miteinander zu verbinden. Vor allen in Systemen, die für künstliche Intelligenzen (KI, engl.: AI: Artificial Intelligence) verwendet werden, kann es zu Engpässen bei der Datenbandbreite zwischen den einzelnen Komponenten kommen. Hierfür wurde die NVLink Fabric entwickelt. Einzelne NVLinks können zudem mit einem Mesh-Netzwerk verbunden werden.

Mit einem NVLink können theoretisch Daten mit einer Geschwindigkeit von bis zu 300 GB/sec (NVIDIA V100 mit NVLink 2.0) übertragen würden, was ungefähr 100 PCIe-3.0-Lanes entsprechen würde und sechs Mal so schnell ist, wie das mit PCIe 3.0 mögliche Maximum. Vor allem hochparallelisierte Prozesse profitieren hiervon deutlich.
NVM Bridge
Die neuen GeForce RTX-Grafikkarten verfügen über einen Connector, mit dessen Hilfe Grafikkarten mit einer entsprechenden NVLink-Brücke verbunden werden können. Dies erfolgt wie bei NVIDIA SLI über das Anstecken der Bridge an die beiden Grafikkarten und die NVLink Bridges sind mit SLI abwärtskompatibel.

Die tatsächliche Leistung bei Spielen ist ähnlich wie bei SLI davon abhängig, ob das Spiel SLI/NVLink unterstützt. Wie stark die miteinander verbundenen Grafikkarten skalieren ist demnach von der Software genauso abhängig, wie von der verwendeten Hardware.

VirtualLink: USB Typ C für VR-Brillen

VirtualLink
VirtualLink ist ein offener Industriestandard. Entwickelt wurde VirtualLink, um VR-Brillen bequemer mit dem PC verbinden zu können. Die Verbindung erfolgt über einen USB-Typ C-Stecker, der neben der Unterstützung von DisplayPort High Bit Rate 3 (HBR3) und USB 3.2 (USB 3.1 Gen2) auch eine Stromversorgung von bis zu 27 Watt gewährleisten kann. Maßgeblich beteiligt an der Entwicklung von VirtualLink sind NVIDIA, Oculus, Valve, Microsoft und AMD.

GeForce RTX 2070 FAQ: Häufige Fragen zur Gaming-Grafikkarte beantwortet

  • Kann man mit der GeForce RTX 2070 in der virtual Reality (VR) spielen?
    - Ja, die RTX 2070 Grafikkarte ist VR Ready und man kann damit in der VR spielen. Die Grafikkarte unterstützt zudem viele Features zur Steigerung der VR-Gaming-Performance, wie zum Beispiel NVIDIAs VR-Works.
  • Kann man mit der GeForce RTX 2070 in 4K/UHD-Auflösung spielen?
    - Ja. Die RTX 2070 besitzt genug Rechenpower, um Spiele und Filme in 4K-Auflösung wiederzugeben, ohne dass man dabei die Details zu sehr herunterstellen müsste.
  • "Bottleneck" mit der GeForce RTX 2070? Welche CPU passt zu der Grafikkarte?
    - Die GeForce RTX 2070 ist eine High-End-Grafikkarte und sollte mit einem passenden Prozessor eingesetzt werden. Es empfiehlt sich, mindestens einen Intel-Core-i5-Prozessor mit vier oder sechs Kernen oder eine Ryzen 5-CPU von AMD mit der GeForce RTX 2070 zu paaren. Für maximale Performance in allen Auflösungen sollte eine High-End-CPU (Intel Core i7, AMD Ryzen 7-Serie) verwendet werden.
  • Kann man seinen alten PC mit einer RTX 2070 upgraden?
    - Ja, prinzipiell kann man seinen alten Gaming-PC mit einer GeForce RTX 2070 nachrüsten. Wichtig ist jedoch, dass das Netzteil über die benötigte Leistung verfügt und über die benötigten PCIe-Stromkabel verfügt.