Door Reinoud Dik

Redacteur

GeForce RTX 4070 Round-up

Wat krijg je voor Nvidia's adviesprijs?

10-07-2023 • 06:00

218

Multipage-opmaak

De GeForce RTX 4070

  • Inno3D RTX 4070 Twin X2
  • ASUS RTX 4070 Dual
  • MSI RTX 4070 Ventus X3 OC

Samengevat

De Inno3D RTX 4070 Twin X2 valt op door zijn compacte formaat gecombineerd met prima prestaties. De Twin X2 is veel kleiner dan zijn directe concurrenten, en weet ondanks zijn formaat en de twee kleine ventilators de geluidsproductie nog vrij bescheiden te houden. De temperaturen zijn onder belasting zelfs laag genoeg om met een custom fanprofiel de kaart nog stiller te maken. Wie op zoek is naar een compacte en relatief scherp geprijsde RTX 4070, kan met de Inno3D Twin X2 prima uit de voeten.

Samengevat

De ASUS RTX 4070 Dual presteert goed, heeft met het 'quiet bios' een beperkte geluidsproductie en past door zijn afmetingen in meer behuizingen dan de Ventus van MSI. Daar staat tegenover dat de Dual effectief niet twee, maar drie slots in beslag neemt. De efficiëntie van de Dual-koeler is ook hoog en ook op de stille modus is de maximaal gemeten temperatuur nog prima acceptabel.

Samengevat

De MSI Ventus 3X OC levert goede prestaties en een hoge koelefficiëntie met een beperkte geluidsproductie op standaardinstellingen. Wel is de kaart met ruim 30cm aan de lange kant en zal hij daardoor niet in elke behuizing passen. De essentiële zaken leveren doet de Ventus 3X in ieder geval goed.

We vergelijken zes custom-GeForce RTX 4070-videokaarten met elkaar. Hiervoor hebben we fabrikanten opgeroepen om dit keer geen superdeluxe high-end model op te sturen, maar juist een exemplaar dat dicht bij Nvidia's gestelde adviesprijs van 669 euro komt. Omdat de RTX 4070-kaarten inmiddels iets in prijs zijn gezakt, kun je er voor zo'n 640 euro al een kopen. Maar welke van deze eenvoudigere modellen nou echt interessant zijn, zoeken we uit in deze round-up.

De RTX 4070 is in de basis een tragere versie van de RTX 4070 Ti. Dezelfde AD104-gpu wordt gebruikt, maar voor het nieuwe model zijn er 5888 rekenkernen ingeschakeld, precies evenveel als bij zijn voorganger en grofweg driekwart van het aantal waarover de RTX 4070 Ti beschikt. In tegenstelling tot alle high-end modellen uit de RTX 40-serie valt de RTX 4070 op omdat hij over de conventionele peg-connector met acht pinnen beschikt in plaats van over de nieuwe zestienpins-Gen5-aansluiting. Elke RTX 4070 in deze round-up is dus voorzien van een enkele achtpinsaansluiting, wat het makkelijker maakt om deze kaarten in een bestaand systeem zonder adapters te installeren en gebruiken.

Videokaart RTX 4070
Gpu AD104
Architectuur Ada Lovelace
Procedé TSMC '4N' 5nm
Diesize 295mm²
Transistors 35,8 miljard
CUDA-cores 5888
Tensor-cores 184
RT-cores 46
Texture-units 184
Rops 64
Baseclock 1920MHz
Boostclock 2475MHz
L2-cache 36MB
Vram 12GB GDDR6X
Geheugensnelheid 21Gbit/s
Geheugenbus 192bit
Bandbreedte 504GB/s
Tgp 200W
Adviesprijs FE
(bij introductie)
669 euro
Uitgebracht 12 april 2023

De geteste modellen

Om te beginnen bekijken we de opvallendste features en kenmerken van de RTX 4070's die we voor deze round-up hebben getest. Hieronder bespreken we per merk de modellen en op de volgende pagina is daar een overzichtstabel met alle specificaties van te vinden.

ASUS: Dual en TUF OC

Ons verzoek om een msrp-model op te sturen, werd door ASUS beantwoord met de Dual. Deze videokaart beschikt over twee grote 100mm-ventilators en is effectief drie slots dik. De kaart is met 955g wat zwaarder dan veel andere modellen in deze round-up. Ten opzichte van de Dual is de TUF OC, die ASUS ons in zijn enthousiasme eveneens opstuurde, veel verder uit de kluiten gewassen. Dat komt doordat de RTX 4070 TUF OC over dezelfde koeler beschikt als de Ti-versie van de TUF en dus wordt afgedekt met drie gelijke 90mm-ventilators. Ook het pcb is identiek, met als enige verschil dat de Ti-versie nog een extra, elfde fase actief heeft op de stroomvoorziening. Wel mist de RTX 4070 TUF OC de tweede HDMI-aansluiting, die we op zijn Ti-broer nog wel aantroffen. Zowel de Dual als de TUF OC beschikt over een biosswitch, om te wisselen tussen een stille en een snelle 'gaming'-modus.

ASUS Dual RTX 4070ASUS Dual RTX 4070ASUS Dual RTX 4070

ASUS RTX 4070 Dual

ASUS RTX 4070 TUF OCASUS RTX 4070 TUF OCASUS RTX 4070 TUF OC

ASUS RTX 4070 TUF OC

Gigabyte Windforce OC

De Windforce OC die we van Gigabyte ontvingen, valt wat uiterlijk betreft niet op tussen de andere modellen uit dezelfde serie. Ook hier treffen we drie 80mm-ventilators aan. Desondanks is de kaart met een lengte van 26,1cm nog relatief compact. Wel neemt de kaart effectief drie slots in beslag. In de metalen backplate heeft Gigabyte een grote uitsparing gemaakt om een van de drie ventilators beter de warmte uit het koelblok te laten afvoeren.

Gigabyte RTX 4070 Windforce OCGigabyte RTX 4070 Windforce OCGigabyte RTX 4070 Windforce OC

Gigabyte RTX 4070 Windforce OC

Inno3D Twin X2

Inno3D's RTX 4070 Twin X2 is duidelijk de kleinste kaart in deze round-up, met een lengte van 25cm en een dikte van slechts twee slots. De kaart is bovendien met 11,8cm relatief smal, waardoor je dit model in meer compacte systemen kunt inbouwen. Samen met de TUF OC van ASUS is deze Inno3D voorzien van twee 90mm-ventilators, waar de andere modellen over meer of grotere ventilators beschikken. Inno3D's Twin X2 staat door zijn beperkte afmetingen gecombineerd met de twee 'kleinere' ventilators voor een grotere uitdaging dan de andere kaarten in deze round-up, die over grotere koelers beschikken.

Inno3D RTX 4070 Twin X2Inno3D RTX 4070 Twin X2Inno3D RTX 4070 Twin X2

Inno3D RTX 4070 Twin X2

MSI Ventus X3 OC

Van MSI ontvingen we de Ventus X3 OC, die zoals de naam al doet vermoeden, drie ventilators aan boord heeft. Dat heeft onder meer tot gevolg dat de kaart vrij lang is. In deze round-up is het zelfs de langste kaart, met een lengte van 30,8cm. De kaart haalt zijn koeling vooral uit het oppervlak in deze dimensie en blijft met een dikte van twee slots iets bescheidener van formaat. MSI kiest als enige voor een kunststof backplate, wat ook tot gevolg heeft dat de Ventus X3 OC wat gewicht betreft net iets lager uitkomt dan de rest.

MSI RTX 4070 Ventus 3XMSI RTX 4070 Ventus 3XMSI RTX 4070 Ventus 3X

MSI RTX 4070 Ventus X3 OC

PNY XLR8 Gaming Verto Epic-X RGB Overclocked Triple Fan

PNY stuurde ons de XLR8 Verto Gaming Epix-X RGB Overclocked Triple Fan op. Net als de naam zelf is de kaart aan de lange kant. Met een lengte van 30,5cm komt hij bijna gelijk uit met de Ventus X3 van MSI en ook in de breedte is het nagenoeg gelijkspel. Deze oppervlakte stelt ook PNY in staat om de de dikte te beperken tot twee slots. Bij PNY is de uitsparing op de metalen backplate vrij groot en bedoeld om de airflow te verbeteren.

PNY RTX 4070 XLR8 Verto Epic-X RGB OCPNY RTX 4070 XLR8 Verto Epic-X RGB OCPNY RTX 4070 XLR8 Verto Epic-X RGB OC

PNY RTX 4070 XLR8 Gaming Verto Epic-X RGB Overclocked Triple Fan

Specificatietabel

De onderstaande tabel bevat een samengevat overzicht van de features en eigenschappen van de besproken RTX 4070-videokaarten.

Specificaties RTX 4070-modellen

GeForce RTX 4070 ASUS Dual ASUS TUF OC Gigabyte Windforce OC Inno3D Twin X2 MSI Ventus X3 OC PNY XLR8 Verto Epic-X
Prijs bij publicatie € 649 € 748 € 659 € 639 € 659 € 893
Actuele prijs Onbekend € 1.131,10 € 859,- Onbekend € 797,- Onbekend
Boostclock 2505MHz 2580MHz 2490MHz 2475MHz 2520MHz 2520MHz
Aantal ventilators 2x 100mm 2x 90mm 3x 80mm 2x 90mm 3x 90mm 3x 90mm
Backplate Metaal Metaal Metaal Metaal Plastic Metaal
Biosswitch Ja Ja Ja Nee Nee Nee
Verlichting Nee Ja Nee Nee Nee Ja
Beeldaansluitingen 3x DisplayPort 1.4, 1x HDMI 2.1 3x DisplayPort 1.4, 1x HDMI 2.1 3x DisplayPort 1.4, 1x HDMI 2.1 3x DisplayPort 1.4, 1x HDMI 2.1 3x DisplayPort 1.4, 1x HDMI 2.1 3x DisplayPort 1.4, 1x HDMI 2.1
Lengte 267mm 301mm 261mm 250mm 308mm 305mm
Breedte 134mm 139mm 126mm 118mm 120mm 119mm
Dikte (effectief) 3-slot 3-slot 3-slot 2-slot 2-slot 2-slot
Gewicht 955g 1180g 885g 840g 810g 850g
Stroomtoevoer 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG 1x 8-pin PEG

Testverantwoording

Voor de tests van de videokaarten gebruiken we ons vaste testsysteem, gebaseerd op een watergekoelde Intel Core i9-13900K-processor, overgeklokt naar 5,5GHz-allcore. Omdat de e-cores van deze processor in een aantal van onze tests tot prestatieverlies leiden, hebben we die op ons platform geheel uitgeschakeld. Daarmee blijven dus enkel alle acht performancecores met zestien threads actief. Als werkgeheugen gebruiken we 32GB aan snel DDR5-7200 met relatief strakke timings, zodat de cpu en het ram zo min mogelijk de beperkende factor vormen voor het meten van gpu-prestaties.

De exacte specificaties van het testsysteem zijn in de tabel hieronder te vinden.

Testsysteem gpu's
Processor Intel Core i9-13900K (p-cores @5,5GHz, e-cores uitgeschakeld)
Moederbord Gigabyte Aorus Z790 Master (resizable bar ingeschakeld)
Werkgeheugen G.Skill Trident Z RGB F5 32GB (2x 16GB) DDR5-7200 CL34-45-45-115
Ssd Silicon Power XS70 4TB
Voeding FSP Hydro PTM Pro ATX3.0 1200W
Koeling Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Testbench Streacom BC1 V2 Benchtable
Besturingssysteem Windows 11

Methodiek

In deze review richten we ons op de onderlinge verschillen tussen de uitvoeringen van de diverse fabrikanten. In grote lijnen zullen de gamingprestaties van alle kaarten met dezelfde gpu vergelijkbaar zijn. Om kleine verschillen te kunnen ontdekken die voortkomen uit bijvoorbeeld firmware, keuzes bij het pcb-ontwerp en natuurlijk de kwaliteit van de koeler, testen we minder games dan in een complete gpu-review, maar testen we per game een stuk uitgebreider.

We hebben drie games uitgezocht waarin het goed mogelijk is om een langere test van tien minuten uit te voeren. Tijdens elke test loggen we vrijwel alles wat er te loggen valt: de prestaties met PresentMon, maar ook onder andere de temperatuur, klokfrequentie en ventilatorsnelheid. Wie bekend is met het duurtestconcept, zou dit als individuele duurtests kunnen zien. Tien minuten is daarvoor ruimschoots voldoende; bij het merendeel van de kaarten worden de stabiele kloksnelheid en temperatuur al na enkele minuten bereikt. Alle games testen we op 4k-resolutie met ultra-settings, zodat de gpu zoveel mogelijk de bottleneck vormt.

Geluidsproductie en stroomverbruik

Naast de prestaties meten we ook de geluidsproductie en het stroomverbruik van de videokaarten. De meting van de geluidsproductie doen we in onze nieuwe geluiddichte ruimte op een afstand van 50cm, met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 14dB(A); dat mag je opvatten als volledig stil. Tijdens de idle-test wordt de videokaart vanzelfsprekend niet belast. De load-test is gebaseerd op een verlengde gametest van tien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.

De stroommeting voeren we uit met een zogenoemde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting vertrouwen we op verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met een dergelijke bricklet uitgerust. Om de stroom van de pegkabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.

Stroomverbruik meting videokaartenTinkerforge stroommeter

Prestaties

In deze round-up vergelijken we een reeks RTX 4070-videokaarten die door boardpartners op de markt zijn gebracht. Voordat we ingaan op de onderlinge prestatieverhoudingen, geven we hieronder een overzicht van de prestaties van de GeForce RTX 4070 ten opzichte van andere gpu's. Deze Prestatiescore, gebaseerd op verschillende benchmarks, maakt ook deel uit van onze eerder gepubliceerde review van de GeForce RTX 4070.

  • 4k Ultra
  • 4k Medium
  • 1440p Ultra
  • 1440p Medium
  • 1080p Ultra
  • 1080p Medium
Tweakers GPU Prestatiescore 2023-1 - 4k ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 FE
101,5
Radeon RX 7900 XT
88,1
Radeon RX 6950 XT
74,9
GeForce RTX 4070 Ti
73,2
GeForce RTX 4070
64,4
GeForce RTX 3080 10GB FE
64,4
Radeon RX 6800 XT
58,6
GeForce RTX 3070 Ti
55,7
GeForce RTX 3070 FE
52,9
Tweakers GPU Prestatiescore 2023-1 - 4k medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 FE
141,6
Radeon RX 7900 XT
125,7
GeForce RTX 4070 Ti
112,0
Radeon RX 6950 XT
106,1
GeForce RTX 3080 10GB FE
96,4
GeForce RTX 4070
92,8
Radeon RX 6800 XT
92,2
GeForce RTX 3070 Ti
79,8
GeForce RTX 3070 FE
74,2
GeForce RTX 2070
48,9
Tweakers GPU Prestatiescore 2023-1 - 1440p ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 FE
169,8
Radeon RX 7900 XT
154,6
Radeon RX 6950 XT
134,9
GeForce RTX 4070 Ti
129,8
GeForce RTX 4070
114,8
GeForce RTX 3080 10GB FE
109,9
Radeon RX 6800 XT
106,5
GeForce RTX 3070 Ti
99,2
GeForce RTX 3070 FE
94,5
GeForce RTX 2070
59,2
Tweakers GPU Prestatiescore 2023-1 - 1440p medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 FE
243,2
Radeon RX 7900 XT
219,6
GeForce RTX 4070 Ti
202,1
Radeon RX 6950 XT
193,6
GeForce RTX 4070
170,4
Radeon RX 6800 XT
170,2
GeForce RTX 3080 10GB FE
166,7
GeForce RTX 3070 Ti
145,9
GeForce RTX 3070 FE
136,0
GeForce RTX 2070
91,1
Tweakers GPU Prestatiescore 2023-1 - 1080p ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 FE
217,2
Radeon RX 7900 XT
198,8
GeForce RTX 4070 Ti
177,4
Radeon RX 6950 XT
175,7
GeForce RTX 4070
156,3
Radeon RX 6800 XT
147,7
GeForce RTX 3080 10GB FE
146,1
GeForce RTX 3070 Ti
132,6
GeForce RTX 3070 FE
126,1
GeForce RTX 2070
81,9
Tweakers GPU Prestatiescore 2023-1 - 1080p medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 4080 FE
306,6
Radeon RX 7900 XT
283,7
GeForce RTX 4070 Ti
274,3
Radeon RX 6950 XT
260,7
Radeon RX 6800 XT
239,6
GeForce RTX 4070
235,7
GeForce RTX 3080 10GB FE
226,1
GeForce RTX 3070 Ti
196,2
GeForce RTX 3070 FE
181,7
GeForce RTX 2070
117,2

Prestaties custom RTX 4070-kaarten

We trappen de round-up af met 3DMark's Speedway, een synthetische benchmark en een consistente test die een eerste indruk geeft van de onderlinge verhoudingen. In deze benchmark testen we standaard alle videokaarten op de verschillende biosmodi die ze beschikbaar hebben. Traditiegetrouw liggen de prestaties in 3DMark tussen de verschillende kaarten op basis van dezelfde chip erg dicht bij elkaar. We meten slechts drie procent verschil tussen de snelste en langzaamste kaart van deze benchmark, wat toevallig allebei kaarten van ASUS zijn.

  • 3DMark Speedway - Score
  • 3DMark Speedway - FPS
3DMark Speed Way - Score
Videokaart Gemiddelde score in punten (hoger is beter)
ASUS RTX 4070 TUF OC (gaming bios)
4.517
ASUS RTX 4070 TUF OC (quiet bios)
4.509
Gigabyte RTX 4070 Windforce OC
4.489
MSI RTX 4070 Ventus 3X OC
4.471
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
4.432
Inno3D RTX 4070 Twin X2
4.428
ASUS Dual RTX 4070 (gaming bios)
4.376
ASUS Dual RTX 4070 (quiet bios)
4.375
3DMark Speed Way - FPS
Videokaart Gemiddelde frames per seconde in fps (hoger is beter)
ASUS RTX 4070 TUF OC (gaming bios)
45,2
ASUS RTX 4070 TUF OC (quiet bios)
45,1
Gigabyte RTX 4070 Windforce OC
44,9
MSI RTX 4070 Ventus 3X OC
44,7
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
44,3
Inno3D RTX 4070 Twin X2
44,3
ASUS Dual RTX 4070 (quiet bios)
43,8
ASUS Dual RTX 4070 (gaming bios)
43,8

F1 2022

Ook in F1 meten we framerates die dicht tegen elkaar zitten. De TUF OC eindigt als eerste en is in de gemiddelde framerate vijf procent sneller dan de PNY, die zich onderaan de reeks voegt.

  • Ultra
  • Ultra (99p)
  • Kloksnelheid
F1 22 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
ASUS RTX 4070 TUF OC (quiet bios)
124,3
Gigabyte RTX 4070 Windforce OC
122,9
MSI RTX 4070 Ventus 3X OC
121,5
ASUS Dual RTX 4070 (quiet bios)
120,7
Inno3D RTX 4070 Twin X2
120,3
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
118,4
F1 22 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
ASUS RTX 4070 TUF OC (quiet bios)
9,7
Gigabyte RTX 4070 Windforce OC
10,3
Inno3D RTX 4070 Twin X2
10,4
ASUS Dual RTX 4070 (quiet bios)
10,4
MSI RTX 4070 Ventus 3X OC
10,4
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
10,5
F1 22 - Stabiele kloksnelheid
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
ASUS RTX 4070 TUF OC (quiet bios)
2.865
Gigabyte RTX 4070 Windforce OC
2.850
Inno3D RTX 4070 Twin X2
2.775
MSI RTX 4070 Ventus 3X OC
2.775
ASUS Dual RTX 4070 (quiet bios)
2.730
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
2.730

Doom Eternal DXR

In Doom testen we standaard alle videokaarten op de verschillende biosmodi die ze beschikbaar hebben. Voor de TUF OC maakt het in deze test niet uit welk bios gebruikt wordt; beide scoren identiek. Voor de Dual zit daar wel een kleine verbetering. De overige kaarten beschikken niet over een biosswitch, en plaatsen zich tussen de twee ASUS-kaarten in. Inno3D's Twin X2 weet daarbij de derde plaats te bemachtigen.

  • Ultra
  • Ultra (99p)
  • Kloksnelheid
Doom Eternal - 3840x2160 - Ultra - DXR
Videokaart Gemiddelde framerate in fps (hoger is beter)
ASUS RTX 4070 TUF OC (quiet bios)
126,6
ASUS RTX 4070 TUF OC (gaming bios)
126,6
Inno3D RTX 4070 Twin X2
124,1
Gigabyte RTX 4070 Windforce OC
123,2
MSI RTX 4070 Ventus 3X OC
122,4
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
122,2
ASUS Dual RTX 4070 (gaming bios)
121,9
ASUS Dual RTX 4070 (quiet bios)
118,6
Doom Eternal - 3840x2160 - Ultra - DXR (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Gigabyte RTX 4070 Windforce OC
9,8
ASUS RTX 4070 TUF OC (quiet bios)
9,9
ASUS RTX 4070 TUF OC (gaming bios)
9,9
MSI RTX 4070 Ventus 3X OC
10,1
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
10,1
ASUS Dual RTX 4070 (gaming bios)
10,2
Inno3D RTX 4070 Twin X2
10,3
ASUS Dual RTX 4070 (quiet bios)
10,4
Doom DXR - Stabiele kloksnelheid
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
ASUS RTX 4070 TUF OC (gaming bios)
2.805
ASUS RTX 4070 TUF OC (quiet bios)
2.790
Gigabyte RTX 4070 Windforce OC
2.760
Inno3D RTX 4070 Twin X2
2.700
ASUS Dual RTX 4070 (gaming bios)
2.685
MSI RTX 4070 Ventus 3X OC
2.685
ASUS Dual RTX 4070 (quiet bios)
2.640
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
2.640

Cyberpunk 2077

Ook in Cyberpunk is er amper variatie tussen de prestaties van de geteste kaarten.

  • Ultra
  • Ultra (99p)
  • Kloksnelheid
Cyberpunk 2077 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Inno3D RTX 4070 Twin X2
36,3
ASUS Dual RTX 4070 (quiet bios)
35,6
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
34,9
Gigabyte RTX 4070 Windforce OC
34,5
ASUS RTX 4070 TUF OC (quiet bios)
34,2
MSI RTX 4070 Ventus 3X OC
34,1
Cyberpunk 2077 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Gigabyte RTX 4070 Windforce OC
28,5
MSI RTX 4070 Ventus 3X OC
29,1
Inno3D RTX 4070 Twin X2
33,2
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
34,6
ASUS Dual RTX 4070 (quiet bios)
34,7
ASUS RTX 4070 TUF OC (quiet bios)
39,1
Cyberpunk 2077 - Stabiele kloksnelheid
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
ASUS RTX 4070 TUF OC (quiet bios)
2.865
Gigabyte RTX 4070 Windforce OC
2.850
Inno3D RTX 4070 Twin X2
2.805
ASUS Dual RTX 4070 (quiet bios)
2.760
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
2.745
MSI RTX 4070 Ventus 3X OC
2.700

Temperatuur en geluidsproductie

Aan de prestaties van een koeler zitten altijd twee kanten: de temperatuur en de geluidsproductie. We testen hoeveel geluid een videokaart produceert onder volle belasting en noteren de maximale temperatuur tijdens deze test. Daarnaast meten we de geluidsproductie idle, evenals de maximale geluidsproductie als de ventilators op volle snelheid draaien. Omdat alle geteste videokaarten in deze vergelijking beschikken over semipassieve koeling, staan de ventilators bij idle volledig stil. We meten dan 14dB(A) voor alle kaarten, wat de noisefloor in onze geluidskamer is.

  • Geluid ingame
  • Temp. GPU (max)
  • Geluid idle
  • Geluid 100% fan
Geluidsdruk load ingame (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
ASUS RTX 4070 TUF OC (quiet bios)
20,7
ASUS RTX 4070 TUF OC (gaming bios)
21,6
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
23,0
ASUS Dual RTX 4070 (quiet bios)
24,2
MSI RTX 4070 Ventus 3X OC
25,5
Inno3D RTX 4070 Twin X2
33,3
ASUS Dual RTX 4070 (gaming bios)
35,3
Gigabyte RTX 4070 Windforce OC
40,7
Geluidsdruk idle (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
Inno3D RTX 4070 Twin X2
14,0
ASUS Dual RTX 4070 (quiet bios)
14,0
ASUS Dual RTX 4070 (gaming bios)
14,0
MSI RTX 4070 Ventus 3X OC
14,0
Gigabyte RTX 4070 Windforce OC
14,0
ASUS RTX 4070 TUF OC (quiet bios)
14,0
ASUS RTX 4070 TUF OC (gaming bios)
14,0
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
14,0
Geluidsdruk 100% fan (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
Gigabyte RTX 4070 Windforce OC
50,6
Inno3D RTX 4070 Twin X2
51,7
ASUS RTX 4070 TUF OC (quiet bios)
54,0
ASUS Dual RTX 4070 (quiet bios)
54,6
MSI RTX 4070 Ventus 3X OC
57,1
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
57,7

Koelefficiëntie en stroomverbruik

Als je zelf het fanprofiel wilt instellen of simpelweg de videokaart met de best mogelijke koeler wilt kopen, is de efficiëntie van de koeler van groot belang. Je wilt immers zoveel mogelijk koeling met zo min mogelijk geluidsproductie. Om dit te testen, meten we bij welke ventilatorsnelheid de kaart het dichtst bij de 35dB(A) zit, gemeten op 50cm afstand. Vervolgens stellen we de kloksnelheid en spanning in op vaste waarden. Zo trekken we het stroomverbruik van alle kaarten zoveel mogelijk gelijk. Het stroomverbruik is immers de 'belasting' van de koeler.

Onder deze gelijke omstandigheden is de TUF OC van ASUS de beste als het aankomt op koelefficiëntie. Dat is ook niet zo vreemd, aangezien ASUS de enorme koeler van de RTX 4070 Ti voor deze kaart heeft hergebruikt. Op plek twee tot en met vijf zien we vervolgens vergelijkbare stappen in temperatuurtoename bij de Ventus 3X, Dual, XLR8 Verto en Twin X2. Alleen de Windforce OC van Gigabyte blijft hier verder achter bij de rest en eindigt onderaan in de grafiek.

  • Gpu-temp 35dB(A)
  • Stroomverbruik 35dB(A)
Gpu-temperatuur - 35dB(A) en vaste klok
Videokaart Gemiddelde temperatuur in °C (lager is beter)
ASUS RTX 4070 TUF OC (quiet bios)
49
MSI RTX 4070 Ventus 3X OC
54
ASUS Dual RTX 4070 (quiet bios)
57
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
59
Inno3D RTX 4070 Twin X2
61
Gigabyte RTX 4070 Windforce OC
70
Stroomverbruik (software) - 35dB(A) en vaste klok
Videokaart Gemiddelde vermogen in watt (lager is beter)
ASUS RTX 4070 TUF OC (quiet bios)
185
Inno3D RTX 4070 Twin X2
188
ASUS Dual RTX 4070 (quiet bios)
189
MSI RTX 4070 Ventus 3X OC
190
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
193
Gigabyte RTX 4070 Windforce OC
194

Stroomverbruik

Stroomverbruik - Doom DXR (gem.) (hwinfo)
Videokaart Gemiddelde vermogen in watt (lager is beter)
PNY RTX 4070 XLR8 Verto Epic-X RGB OC
191,86
ASUS Dual RTX 4070 (quiet bios)
195,58
ASUS Dual RTX 4070 (gaming bios)
195,86
MSI RTX 4070 Ventus 3X OC
196,54
Gigabyte RTX 4070 Windforce OC
196,77
Inno3D RTX 4070 Twin X2
197,58
ASUS RTX 4070 TUF OC (gaming bios)
200,63
ASUS RTX 4070 TUF OC (quiet bios)
202,16

Conclusie

In deze round-up hebben we zes custom-RTX 4070-videokaarten met elkaar vergeleken. Onze oproep aan de fabrikanten was om dit keer geen high-end model op te sturen, maar juist hun versie die het dichtst bij de door Nvidia gestelde adviesprijs zit. Dat betekent betaalbaardere, maar ook minder luxe videokaarten. De adviesprijs van 669 euro maakt van een RTX 4070 nog altijd geen goedkope videokaart, maar het is nog wel het prijssegment waarin besparingen van een tiental euro's meetellen in de overweging. Drie modellen uit deze round-up vielen ons op met de genoemde selectie: de MSI Ventus X3 OC, de ASUS Dual en de Inno3D Twin X2.

MSI Ventus X3 OC: vooral lang

De MSI Ventus X3 OC heeft van de modellen rondom de adviesprijs de beste koelefficiëntie. Gezien de lengte van de kaart mag dat ook wel, maar ondertussen is dit ook de lichtste kaart uit deze round-up. De prestaties van deze RTX 4070 zijn netjes, met een beperkte geluidsproductie op standaardinstellingen. Ook is de maximale temperatuur onder belasting laag genoeg om nog met het fanprofiel te kunnen spelen om de kaart nog stiller te maken. Niet elke behuizing heeft de ruimte voor deze videokaart van ruim 30cm, maar bij voldoende plek is de MSI Ventus X3 OC in ieder geval een goede RTX 4070 om te kiezen. Daarom krijgt hij een Excellent-award.

ASUS Dual: korter maar ook dikker

De ASUS RTX 4070 Dual heeft een hoop zaken goed voor elkaar. De kaart presteert goed, heeft met het 'quiet bios' een beperkte geluidsproductie en past door zijn afmetingen in meer behuizingen dan de Ventus van MSI. De efficiëntie van de koeler is in orde en ook op de stille modus is de maximaal gemeten temperatuur nog prima acceptabel. De TUF OC van ASUS kwam in deze test vanzelfsprekend nog beter naar voren, maar die kaart is ook 100 euro duurder op het moment van schrijven. In dit prijssegment is dat een behoorlijk verschil, en de meerwaarde van de iets lagere geluidsproductie en marginaal hogere prestaties zijn dat eigenlijk niet waard. Ook de ASUS RTX 4070 Dual krijgt vanwege zijn goede prijs-prestatieverhouding een Excellent-award.

Inno3D Twin X2: kleintje met pit

De Inno3D RTX 4070 Twin X2 is het compacte exemplaar van deze round-up en met de beperkte afmetingen in het achterhoofd zijn de prestaties des te indrukwekkender. De Twin X2 is met 25cm ruim 1cm korter dan de volgende deelnemer. In de breedte is hij eveneens bescheiden en bovendien neemt de kaart slechts twee slots ruimte in beslag. Met zijn twee kleine ventilators lijkt dat een recept voor lawaai, maar de Twin X2 weet de geluidsproductie nog aardig beperkt te houden. Omdat de maximaal gemeten temperatuur met 63ºC aan de lage kant is, blijft hier bovendien ruimte over om het fanprofiel aan te passen en de kaart zo stiller te maken. Wie op zoek is naar een compacte en relatief scherp geprijsde RTX 4070, kan met de Inno3D Twin X2 prima uit de voeten. De Inno3D RTX 4070 Twin X2 krijgt daarom een Excellent-award.

Reacties (218)

218
214
58
4
0
132

Sorteer op:

Weergave:

Bijna 20% duurder dan een 6800XT, maar geen 20% betere prestaties.

Jammer ook dat deze GPU geen 16GB aan geheugen mee heeft gekregen om de prijzen bij AMD nog wat meer onder druk te zetten. Ik kan begrijpen wanneer iemand de 4070 verkiest boven een 6800XT. RTX en DLSS zijn waardevolle toevoegingen. Maar 100€ meer en 4GB geheugen minder zijn geen kattenpis.
Ik vind de RTX 4070 geen slechte koop. De RTX 4070 is zonder RT even snel als de RX 6800 XT en 22% sneller dan de RX 6800 XT met RT op 2560x1440. Daarbij is 1440p de optimale resolutie voor deze videokaarten. Beide kaarten presteren hier geweldig. Echter, rechtstreeks uit de doos draait een RTX 4070 op 200 watt, waar de RX 6800 XT 300 watt pakt. Een RTX 4070 (model irrelevant) is daarbij altijd koeler en stiller - zeker met een ietwat prijziger model. Dit is een overweging die ieder voor zich mag maken. Frame Generation is niet voor iedereen, maar het is een 'nice-to-have'-feature die in de toekomst best goed van pas kan komen (en al goed van pas komt in sommige scenario's). Handig om te hebben. DLSS is vooralsnog beter dan FSR als we het hebben over het behoud van de beeldkwaliteit en het tegengaan van artefacten e.d.. PS: 12 GB VRAM is voldoende voor 1440p gaming op de hoogste instellingen (op RE4 na). Natuurlijk was 16 GB ook welkom geweest, daar het inmiddels geen luxe meer is.

Pick your poison: 16 GB VRAM voor een ietwat langere levensduur of een kaart die stiller, koeler en zuiniger is, en met beter geïmplementeerde features komt.
Ik ben het met jouw beweringen grotendeels eens, de 4070 zou waarschijnlijk een kaart zijn die ik wel zou willen hebben op het moment. Dat FSR slechter zou zijn als DLSS zeggen veel mensen, maar als ik dan ga kijken naar testen hierover, zie ik weinig tot geen verschil in de beelden. Wellicht dat echte pro gamers of zo dit wel zien, maar vooralsnog werkt bij mij FSR (in Diablo 4 bijvoorbeeld) prima en ook omdat dit open source is en toegankelijk voor iedereen, hoop ik dat FSR zich stevig blijft doorontwikkelen.

Wellicht dat iemand mij eens kan wijzen op een site waar het veschil tussen FSR en DLSS duidelijk zichtbaar is ?
Wellicht dat iemand mij eens kan wijzen op een site waar het veschil tussen FSR en DLSS duidelijk zichtbaar is ?
Kijk anders hier eens:
DLSS 2 smashes AMD's FSR 2 technology in 26-game "ultimate analysis"

Hardware Unboxed has recently released a video that compares AMD's FidelityFX Super Resolution technology to Nvidia's DLSS 2 upscaler across 26 games, creating what they call the "Ultimate Analysis" of both technologies.

By conducting this analysis Hardware Unboxed compared the quality of both DLSS 2 and FSR 2 and rated each game at 4K and 1440p resolutions across each game's Quality and Performance upscaling settings. There were no games where AMD's FSR 2 technology was found to deliver superior levels of image quality to DLSS, though there are titles where both technologies tie at 4K.
https://youtu.be/1WM_w7TBbj0
Ok, ik heb de video eens goed bekeken en zie inderdaad soms wel verschil. Voornamelijk inderdaad in het voordeel van Nvidia. Echter, het zijn voor mij kleine verschillen en ik vraag mij af of het je zal opvallen als je geen vergelijkingsmateriaal hebt. En vaak zie ik geen verschil. Het zal mij in ieder geval niet overhalen om de 1 of de andere fabrikant uit te sluiten.

Toch wel een andere (persoonlijke) conclusie dan de mensen van Hardware Unboxed.
Ik denk dat het heel erg persoonlijk is hoe erg je het vindt. Sommige mensen vinden dergelijke artifacts enorm storend en anderen niet.
Heb even gegoogled:
Op 398 games die 1 vd 2 of beiden hebben geimplementeerd is FSR 243x toegepast, DLSS 284x.
(Oftewel FSR 61% en DLSS 71%)
Als ik toekomstige games mee reken: FSR 287x en DLSS 314x op 471 games (61% vs 66%)

Nu is dit een ouder artikel (mid 2022) dus verwacht een nog betere implementatie verhouding van AMD.
Wat je aangeeft klopt dus niet, FSR is niet veel minder in games te gebruiken.
Dan is dat sterk verbeterd. Mij stond bij dat FSR nogal pionieren was.
Ik ben het eens met je eindconclusie, al is het wel de moeite om het 100 euro/20% prijsverschil te benoemen in de vergelijking.
Ik ben het eens met je eindconclusie, al is het wel de moeite om het 100 euro/20% prijsverschil te benoemen in de vergelijking.
Maar dat prijs verschil houdt natuurlijk niet lang stand. Een verschil van 100W tegen de huidige gemiddelde stroomprijs van 0,41 gaat best wel hard. Dat komt neer op 41 euro per 1000 uur.

DLSS helpt hier overigens ook nog wel bij. In Diablo 3 verbruikte ik 200W icm met een 120 fps cap op 3440x1440. Met DLSS ingeschakeld zakte dit verbruik terug naar 150W.

Ik weet overigens niet wat voor bundles AMD momenteel aanbied. Maar ik kreeg Diablo 4 (69 euro) en 40 euro steamwallet tegoed. Bij elkaar goed voor 109 euro.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:39]

Maar dat prijs verschil houdt natuurlijk niet lang stand. Een verschil van 100W tegen de huidige gemiddelde stroomprijs van 0,41 gaat best wel hard. Dat komt neer op 41 euro per 1000 uur.
Ik wil niet lullig doen maar 1000 uur is nogal wat, dat is een pc voor ongeveer een half jaar tijdens je werk aan laten staan als je van thuis uit werkt of je 36 uur per week doet gamen ;). Die 1000 uur haal ik nieteens voordat ik de videokaart weer moet upgraden. Als je een PC met alleen maar zuinige onderdelen vergelijkt met een PC met alleen maar onzuinige onderdelen vergelijkt heb je een mooi verschil maar die 100 watt meer of minder doet het hem niet. Maar dat is puur mijn mening.
En die mening volg ik hier ook 100% !
Als je dan bv zonnepanelen hebt, valt die 100W helemaal in het niks.
Op gebied van crypto mining hebben we natuurlijk wel een verhaal die kan tellen op die 100W extra verbruik ! Want dan draait je systeem 8760 uren op een jaar.
Als je dan bv zonnepanelen hebt, valt die 100W helemaal in het niks.
Zolang we salderen hebben, en zolang je meer opwekt dan je verbruikt, en daarbij geen hoge terugleververgoeding hebt, dan ben ik het met je eens. En die eerste is natuurlijk het geval, en die laatste is een goede mogelijkheid.

Maar aan duizend uur kom je zo over de levensduur van een GPU, en denk dat de meeste heel wat duizenden uren hem gebruiken.
Ik denk dat er iets mis gaat in je rekensom. Ik heb de 1000 uur gebaseerd op 20 uur per week * 52 weken = 1040 uur per jaar. Dus 36 uur per week kan niet kloppen.

Voor de keuze van een videokaart maakt het niet uit hoe zuinig de rest van het systeem is. Een verschil van 100W blijft verder 100W, ook al is de rest wel of niet zuinig. Die extra kosten kun je aan de GPU toerekenen.

Overigens zijn er genoeg mensen die 20, 40 of zelfs 80 uur in de week halen. Momenteel zie je hier op tweakers bijvoorbeeld mensen écht veel Diablo 4 spelen.
1000 / 36 = 27,78 weken heb ik gerekend. Zelfs met de hoge energiekosten vind ik het allemaal wel meevallen nadat ik jouw bericht gelezen had. Heel veel mensen laten het blijken alsof je honderden euro's per jaar meer kwijt bent aan alleen je PC.

Denk dat een bijkomend nadeel is dat wanneer je een zuinige PC gaat samenstellen deze bijna altijd ook minder performance heeft, en dat is nu niet iets waar gamers op zitten te wachten.

Ik wil wel eens weten waar die de tijd vandaan halen! :O
Heel veel mensen laten het blijken alsof je honderden euro's per jaar meer kwijt bent aan alleen je PC.
Dat doet niemand blijken, en dat is ook helemaal niet nodig om stroomverbruik relevant te maken. Voor iemand die veel spellen speelt, en die geen gratis electriciteit heeft, kan over de volledige levensduur van de kaart makkelijk het verschil in aanschafprijs goed gemaakt worden.
Je hebt inderdaad gelijk!

Ik ben het eens uit nieuwsgierigheid na gaan rekenen en je bespaard inderdaad genoeg of zelfs iets meer om het verschil in aanschafprijs goed te maken. Nu heb ik wel gerekend dat iemand 5 jaar lang iedere week 25 uur doet gamen. Ik zou het verschil in de aanschafprijs niet goed maken met die paar uurtjes per maand dat ik nog op mijn PC doe gamen, en daarbij hebben wij sinds een maandje of 3 zonnepanelen waardoor ik zolang de zon schijnt "gratis" doe gamen.
Nu heb ik wel gerekend dat iemand 5 jaar lang iedere week 25 uur doet gamen
Dat is precies waarom ik zulke vergelijkingen onzin vind, er wordt namelijk geen rekening mee gehouden dat stroom waarschijnlijk niet 5 jaar lang het zelfde kost, en de kans dat een persoon 5 jaar lang elke dag 25 uur per week gamed lijkt me ook zeer klein. in 5 jaar kan er veel in je leven gebeuren
Als student of vrijgezel haal je dat wellicht wel maar het gros van de mensen gaat hier natuurlijk nooit aan komen. Dus voor het gros van de mensen is het verschil verwaarloosbaar en heeft het dus eigenlijk geen nut om hier rekening mee te houden.
Oh dus je hoeft maar 2500 uur te gamen voor je dat verschil eruit hebt. Kun je bijna 14 keer RDR2 als completionist uitspelen: https://howlongtobeat.com/game/27100. En al die tijd heb je ook een tragere kaart.
RE 4 doet aan texture en shadow caching. In theorie kan dan ook 20gb helemaal vol lopen. In mijn geval loopt het op tot 17gb maar dat betekend nie dat 10gb problemen geeft zoals minder performance of een slechte beeldkwaliteit. Er gaan wel wat filmpjes rond tussen 4gb en 8gb tests na de nodige updates.
Over dat verbruik, met een undervolt krijg je de 6800XT makkelijk op 220 watt zonder prestatieverlies, ik begrijp dat de meeste mensen zich daar niet in zullen verdiepen, maar de gemiddelde tweaker zou dat niet zo snel over het hoofd zien. Voor veel mensen kan de 12GB geheugen van de 4070 een grotere domper zijn dan het iets hogere stroomverbruik van de 6800XT.
Undervolting kan op elke GPU. Maar hoe veel, terwijl alles volledig stabiel blijft werken, is sterk afhankelijk van je specifeke chip. Dat is normaal gesproken niet iets waar je een aankoop op moet baseren.
Maarja, dan moet je weer gaan kloten met de bios, zaken als undervolt vind ik zinloos, ik wil dat gehannes niet, moet gewoon meteen out-of-the-box goed zijn.
Dat kan gewoon met de AMD Adrenalin software, geen bios aanpassing voor nodig.
Maar je moet er dus wel weer mee gaan kloten.
Voor undervolten hoef je niet te kloten met de bios, undervolten doe je gewoon in de amd software.
Zoals ik hier boven al aangaf, je moet nog steeds kloten. Bij GPU's doe je dat standaard via software om biosaanpassingen te maken.
Je kunt je ook afvragen wat voor levensduur een kaart heeft die zwak is in ray tracing. Dat is duidelijk waar de industrie naartoe wil.
Dit zou ik een tijdje geleden ook vinden, maar ondertussen ben ik van gedachten veranderd.
Stel je zelf eens de volgende vraag:
Waarom kopen wij een grafische kaart?
Antw; vooral om te gamen.

Waarom gamen wij?
Antw: omdat games een leuk tijdverdrijf zijn.

En juist dat laatste, vind ik cruciaal. Wij willen gamen! En juist dat dat wat mij betreft onder druk, omdat de grafische kaarten fabrikanten met steeds meer toeters en bellen komt, zodat wij ons suf kunnen klikken en tweaken om de beste kwaliteit te krijgen of de beste prestaties.Daar komt nog bij dat de fabrikanten elkaar tegenwerken en wij dat helaas ervaren met allerlei perikelen, het ene spel draait slecht op brand a, maar wel brand b en vice versa. Ja, daar hebben wij altijd van gedroomd toch? (sarcasme).

Persoonlijk vind ik dat het te ver is doorgeschoten, met een berg setting opties die vaak al niet eens meer in het beeldscherm past en je door moet scrollen. Daar heb ik die kaart toch niet voor gekocht? Willen
wij niet vooral onze kostbare tijd verspillen aan gamen ipv dagenlang tweaken en testen etc. ?

Het is dat ik console besturing niet lust, kan er niet aan wennen anders was ik allang overgestapt.

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

Je kijkt verkeerd, de 4070 moet je Vergelijken met de 3080 en dan valt die 4070 wel tegen.
De 6800XT is zo goed als nergens meer verkrijgbaar omdat die EOL is, dus die vergelijking volg ik niet helemaal. Je zou hem moeten vergelijken met de 7900XT gezien de 7800XT er helaas nog niet is.

Het VRAM stuk wordt vaak aangehaald. Echter door de manier hoe de geheugencontroller is ingezet kan je er niet zomaar 16GB van maken.Een van de GamersNexus video's over de 4070 legt in detail uit waarom. Er gaan echter wat geruchten dat Nvidia afgevallen 4080 chips met dezelfde geheugencontroller als de 4080 gaat inzetten voor een 4070 16GB model. Of dat klopt valt nog te bezien.

Aan de andere kant, gezien deze kaart qua rekenkracht realistisch gezien op maximaal 1440p@144 is te gebruiken vraag ik me af of je echt meer dan 12GB nodig hebt. Of dat het meer roeptoeteren is van een paar media outlets. VRAM is namelijk bijzonder lastig te meten omdat veel applicaties een 'pakken wat je pakken kan' systeem hebben. Betekend niet dat ze ook zoveel nodig hebben om hetzelfde te presteren. Texture optimalisaties/compressie, render tweaks zoals "frustum culling" en technieken zoals DirectStorage om textures te pre-loaden zouden de afhankelijkheid van VRAM sterk kunnen verminderen.

Meer VRAM nodig hebben omdat games slecht geoptimaliseerd zijn voelt mij een beetje van achter naar voren werken. Dus ergens vind ik het wel een goeie zet van Nvidia om alles onder de 90-series met minder VRAM dan AMD uit te dossen. Gezien de marktpositie zal dit game makers dwingen om hier wat beter mee om te springen. Dus in theorie positief voor ons in de toekomst.
Meer VRAM nodig hebben omdat games slecht geoptimaliseerd zijn voelt mij een beetje van achter naar voren werken. Dus ergens vind ik het wel een goeie zet van Nvidia om alles onder de 90-series met minder VRAM dan AMD uit te dossen. Gezien de marktpositie zal dit game makers dwingen om hier wat beter mee om te springen. Dus in theorie positief voor ons in de toekomst.
Nogal een bijzondere redenatie waarbij het zogenaamd goed zou zijn voor de consument als ze mindere hardware krijgen. Volgens dezelfde logica zouden providers alleen maar 10 Mb verbindingen moeten aanbieden, zodat game makers hun games klein houden en films goed geoptimaliseerd moeten worden. Ik denk dat je ook wel begrijpt dat het zo niet werkt en je dan heel lang moet wachten op de downloads.

Net zo goed betaal je als consument de prijs voor lage VRAM-hoeveelheden. Optimalisaties zijn niet gratis. Hoe meer tijd het kost om te optimaliseren, hoe minder kwaliteit een ontwikkelaar kan opleveren in dezelfde tijd, want betekent dat of de prijzen van games hoger zijn, of de kwaliteit lager is.

Er zijn gewoon allerlei technieken die VRAM kosten en op een gegeven moment is de VRAM op en dan is de enige mogelijke 'optimalisatie' het uitzetten van de feature. Overigens kost RT ook extra VRAM en dat is nu net waar Nvidia mee adverteert.

De vermeende marktmacht van Nvidia lijkt een beetje een illusie, want de AAA-ontwikkelaars lijken zich toch echt primair te richten op de console-hardware en pas bij de port gaan ze kijken of het een beetje redelijk draait op de PC. Dat is te laat om nog fundamentele aanpassingen te doen en dus zien we hacks zoals het stiekem verlagen van de texture kwaliteit.
Aan de andere kant, gezien deze kaart qua rekenkracht realistisch gezien op maximaal 1440p@144 is te gebruiken vraag ik me af of je echt meer dan 12GB nodig hebt.
Dat zeiden veel mensen eerder al over 8GB op 1080p, maar dan blijkt nu toch regelmatig niet genoeg. 12 GB lijkt inderdaad op dit moment voldoende voor 1440p, maar het is wel een risico dat het in de toekomst niet meer genoeg is wanneer spellen extra kwaliteitsopties toevoegen.

Daarnaast speelt niet iedereen shooters. Ik kan mij best voorstellen dat er mensen zijn die zo'n kaart willen gebruiken voor 4K/60 met DLSS aan, of voor VR. Dan is extra VRAM zeker handig.

[Reactie gewijzigd door Ludewig op 22 juli 2024 13:39]

10 Mbit is nogal overdreven natuurlijk. Ik doel er meer op in de richting dat een beperking leid tot innovatie. Bijvoorbeeld een wet dat er minder uitstoot mag plaatsvinden zorgde voor veel zuinigere auto's. Toen werden fabrikanten verplicht om hier meer tijd en moeite in te steken. De kwaliteit van games over het algemeen, de laatste jaren bij de launch is verre van positief te noemen. Als we het accepteren dat ontwikkelaars optimalisatie op een laag pitje kunnen blijven zetten is het hek van de dam natuurlijk. Dus vandaar dat ik het positief vind dat 2 van de 3 spelers in de GPU markt het beperken in hun lineup buiten de vlaggenschip kaarten.

De Series X heeft om en nabij 10GB vrij te gebruiken VRAM dus dat is zelfs minder dan de 4070 waar het artikel over gaat. De PS5 schijnt 16GB te kunnen gebruiken. Dus ook niet echt veel meer. Bijna geen PC is gelijk, elke PS5 en X komt met gelijke config uit de fabriek met een gesloten OS. Dus veel makkelijker om op te optimaliseren. Dus blijft het een scheve vergelijking, dat zal altijd zo blijven. Maar inderdaad, qua aantallen is die markt veel groter dan de losse GPU's

Als je Hi-Res VR en 4k/60 stabiel wilt draaien is deze kaart sowieso een slechte koop, nu al. Dan kom je bij een 4080 of vanwege prijs-perstatie een 4090 uit als je voor team groen gaat. Deze kaart is geënt op 1440p of wellicht 1080p met volle RT opsmeuk ingeschakeld als je daarvan houdt. Games worden qua rekenkracht ook gewoon zwaarder en krijgen nieuwe features dus dat alleen VRAM dit zou beperken en minder toekomst gericht maakt vind ik toch echt wel een dooddoener. VRAM is onderdeel van het plaatje, niet hèt plaatje. Zeker dat een buffetje geen kwaad kan maar niemand kan in de toekomst kijken, dus die argumentatie vind ik vrij dunnetjes op zichzelf.
Als je Hi-Res VR en 4k/60 stabiel wilt draaien is deze kaart sowieso een slechte koop, nu al. Dan kom je bij een 4080 of vanwege prijs-perstatie een 4090 uit als je voor team groen gaat.
Een 4080 of 4090 is wel meteen 2-3 maal zo duur. Niet iedereen heeft dat budget of wil zoveel betalen. De 4070 kan zelfs vrij goed een Pimax Crystal aansturen in MSFS (30-50 FPS, wat voor dat spel voor veel mensen acceptabel is).

Dus er zijn wel degelijk use cases boven 1440p, zeker omdat juist door DLSS/FSR het ook mogelijk is om te renderen op resoluties tussen 1440p en 4K in en daarna te upscalen naar 4K.
Deze kaart is geënt op 1440p of wellicht 1080p met volle RT opsmeuk ingeschakeld als je daarvan houdt.
Ik vind het nogal zwakjes om zo te redeneren. GPU's worden op allerlei manieren gebruikt en als ze bezuinigen op een relatief goedkoop onderdeel die de toepassingen beperkt, dan is dat toch echt een zwak punt wat mij betreft.

[Reactie gewijzigd door Ludewig op 22 juli 2024 13:39]

[...]


Nogal een bijzondere redenatie waarbij het zogenaamd goed zou zijn voor de consument als ze mindere hardware krijgen.
Je krijgt natuurlijk geen VRAM, je betaalt voor vram.

Een GPU is een stuk duurder om te maken dan een CPU. Los van de chip (vergelijkbaar met de cpu) heb je dure power delivery, dure koeler en dan nog het dure geheugen.

Vervolgens de economische realteit. Stel een midrange chip kost 50 dollar, 8GB vram 30 dollar (recent gedaald) en de koeler 30 dollar. Dan zit de kostprijs direct op 110 dollar. Dan heb je nog geen winst gemaakt, geen R&D kosten terug verdiend, geen verpakking, geen logistieke kosten, geen marketing. Dan ga je dus al snel richting de 200 dollar aan kostprijs. Leg je deze in de winkel dan blijft er 100 dollar over (te verdelen door iedereen in de keten, dus ook de tussenhandel én de winkel én de OEM). Een marge van 50%.

Ga je nu extra geheugen toevoegen dan gaat de kostprijs naar 230 dollar en dan stijgt de prijs meteen meer naar 345 dollar. Met andere woorden, om de marge gelijk te houden moet de prijs flink omhoog. Dat maakt extra geheugen niet interessant om te verkopen.

Vergeet ook niet dat dit voorbeeld de huidige prijs van +- 30 dollar gebruikt. Vorig jaar lag deze prijs letterlijk meer dan 2x hoger.

Bij AMD is het een ander verhaal. Die verkopen hun Radeon kaarten sinds de overname van Ati eigenlijk rond, soms zelfs onder, kostprijs. Daarom heb je bij AMD ook geen explosie van winst en omzet gezien tijdens de mining hype. Het succes van AMD moest écht van de cpu tak komen.
We hebben het hier over kaarten van over de 600 euro, dus je rekensommetje is niet erg relevant. Sowieso ook niet omdat het verschil tussen 12 en 16 GB maar 4 GB is, dus het prijsverschil is de helft van waar je mee rekent.

En het is gewoon onzin dat AMD de kaarten verkoopt zonder winstmarge. De echte oorzaak van de matig stijgende omzet tijdens de mininghype kunt je gewoon aflezen aan het marktaandeel: Nvidia kon wel extra productie inkopen bij Samsung, maar AMD niet bij TSMC. Dus kon Nvidia veel meer kaarten leveren, maar AMD niet.
We hebben het hier over kaarten van over de 600 euro, dus je rekensommetje is niet erg relevant. Sowieso ook niet omdat het verschil tussen 12 en 16 GB maar 4 GB is, dus het prijsverschil is de helft van waar je mee rekent.
Mijn voorbeeld ging over een goedkopere kaart als de 4060. Overigens zou met de huidige gedaalde VRAM prijzen een 4070 met 24GB ineens prima mogelijk worden. Maar goed, dat is nu.
En het is gewoon onzin dat AMD de kaarten verkoopt zonder winstmarge. De echte oorzaak van de matig stijgende omzet tijdens de mininghype kunt je gewoon aflezen aan het marktaandeel: Nvidia kon wel extra productie inkopen bij Samsung, maar AMD niet bij TSMC. Dus kon Nvidia veel meer kaarten leveren, maar AMD niet.
Dat is het niet, zie jaarverslag en dan pagina 60. Later zijn ze de resultaten gaan verbergen door ze samen te voegen met semi custom opdrachten. Tegenwoordig staan ze weer samen met de cpu resultaten. Losse cijfers voor Radeon durven ze al jaren niet te publiceren.
De echte oorzaak van de matig stijgende omzet tijdens de mininghype kunt je gewoon aflezen aan het marktaandeel: Nvidia kon wel extra productie inkopen bij Samsung, maar AMD niet bij TSMC. Dus kon Nvidia veel meer kaarten leveren, maar AMD niet.
Dat is een omgekeerde redenatie. Wanneer Nvidia wél extra productie inkoopt, omdat die met elke extra GPU geld als water verdienen, terwijl AMD dat niet doet, omdat die geen geld verdienen met een gpu, dan is het logisch dat je een verschuiving in marktaandeel ziet. Dat was nu juist het hele punt.

Vergeet niet dat Nvidia van 5 miljard <2017 naar 12 miljard in 2018 is gegroeid. In de tweede hype zijn ze van 10 miljard in 2020 naar bijna 30 miljard gegroeid. De operationele winst volgt een vergelijkbaar patroon. Van 10 jaar lang nog geen 800 miljoen per jaar naar 4.5 miljard in 12 maanden voor 2019 voor Nvidia. De tweede piek in 2022 lag zelfs op 10 miljard per 12 maanden. Dit gaat over vele jaren heen en is geen kwestie van geen capaciteit bij kunnen kopen, maar dat simpelweg niet willen doen. AMD heeft ook wel extra capaciteit bijgekocht, alleen niet voor hun GPU.

Overigens geeft AMD ondanks dat ze de cijfers niet los publiceren wel hints dat Radeon niet goed loopt:
Computing and Graphics net revenue of $4.7 billion in 2019 increased by 14%, compared to $4.1 billion in 2018, primarily as a result of a 22% increase in average selling price and a 4% increase in unit shipments. The increase in average selling price was primarily driven by a richer mix of client processors due to strong demand of our Ryzen processors. The increase in unit shipments was primarily due to higher demand for our Ryzen processors, partially offset by lower demand for our Radeon graphics products.
Hier staat bijvoorbeeld dat een deel van het succes van Ryzen in 2019 teniet is gedaan door een tegenvaller bij Radeon.

Momenteel heeft AMD de grafische tak wéér ergens anders gezet. De cijfers zijn nu samen gezet met semi-custom Soc (Xbox, Playstation, steamdeck) omzet. Terwijl de Ryzen desktop onder client vallen. Opvallend genoeg draait de client tak zowel absoluut als procentueel meer winst. Dit terwijl in het verleden de semi custom tak op zichzelf een veel hogere marge had. Opnieuw een indicatie dat de Radeon videokaarten de resultaten negatief beinvloeden.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:39]

[...]
Dat is het niet, zie jaarverslag en dan pagina 60.
Dat zijn de cijfers over 2007 en 2008. Niet echt relevant voor vandaag de dag.
Hier staat bijvoorbeeld dat een deel van het succes van Ryzen in 2019 teniet is gedaan door een tegenvaller bij Radeon.
Het enige dat daar staat is dat het marktaandeel van Radeon is gedaald, wat we al weten van Jon Peddy. Maar dat zegt weinig over marge per product. Vasthouden aan redelijk hoge marges kan juist zorgen voor een laag marktaandeel.
[...]


Dat zijn de cijfers over 2007 en 2008. Niet echt relevant voor vandaag de dag.
Yes en sindsdien is AMD dus structureel de cijfers van de videokaarten bij andere productgroepen gaan plaatsen. Waardoor de daadwerkelijke marges dus verborgen worden. Dat zijn de laatste transparante cijfers over Radeon omzet en marge.
Het enige dat daar staat is dat het marktaandeel van Radeon is gedaald, wat we al weten van Jon Peddy. Maar dat zegt weinig over marge per product. Vasthouden aan redelijk hoge marges kan juist zorgen voor een laag marktaandeel.
Hmm nee ze verklaren daar hun groei. Ze zeggen 22% daarvan is de gemiddelde verkoop prijs die hoger is geworden en 4% is hogere verkoop in aantal units verkocht. De gemiddelde verkoopprijs is het gevolg van sterke vraag naar hun Ryzen cpu's. Hun aantal units verkocht was ook het gevolg van Ryzen cpu's maar gedeeltelijk teniet gedaan door lagere vraag naar Radeon graphics producten. Met andere woorden; zonder Radeon was hun units shipped stijging groter. Dat is wat daar staat.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:39]

Een setje 32GB DDR4 koop je al voor dik onder de 100 euro als consument, nu is dat geen vram maar reken maar dat de gpu fabrikanten minder betalen dan wij als consument op de consumentenmarkt.

Die 4GB of 8GB meer ram maakt echte geen groot verschil. Het probleem bij Nvidia is in mijn ogen dat ze voor dat extra beetje meer vram de hoofdprijs willen vangen. Als je de CEO van Nvdia hoort zeggen dat de Apple doctrine willen volgen is dat echter geen verassing. Ook Apple vraagt al jarenlang de hoofdprijs voor elk beetje extra wat je wil toevoegen. Dat is gewoon onderdeel van hun "graai" kuch, businessmodel.
Dat zeiden veel mensen eerder al over 8GB op 1080p, maar dan blijkt nu toch regelmatig niet genoeg. 12 GB lijkt inderdaad op dit moment voldoende voor 1440p, maar het is wel een risico dat het in de toekomst niet meer genoeg is wanneer spellen extra kwaliteitsopties toevoegen.
vraag is ook, of je GPU zelf dan nog snel genoeg is dat vram te benutten....
Sommige dingen kosten heel veel VRAM, maar zorgen voor weinig load.

De grote vragen bij mij zijn wat DirectStorage en AI textures gaan doen. DirectStorage kan zorgen voor minder VRAM gebruik als spellen continu textures gaan vervangen, maar juist ook voor hoger verbruik als men DirectStorage gaat gebruiken om veel meer textures in te laden. Door het niet inladen van textures in 1 grote bulk, maar continu textures in te laden kan de bandbreedte van het geheugen veel efficiënter worden gebruikt. Daardoor kan men ook op kaarten met een relatief kleine bus kiezen voor erg complexe omgevingen waarvoor je dan alsnog heel veel textures beschikbaar wilt hebben in de VRAM.

En met AI kan men in principe extreem veel variatie in textures maken tegen minimale kosten, waar ze nu een artiest dat moeten laten doen. Dus de kans bestaat dat daardoor de textures exploderen en ze ook heel veel textures tegelijk in VRAM willen laden. Want een muur bestaat dan niet meer uit dezelfde paar textures die tig keer herhaalt wordt, maar uit een grote variatie aan textures.
Over mindere hardware gesproken, je beveelt een videokaart aan die twee generaties achterloopt qua ray tracing en geen ML hardware heeft waardoor je beperkt bent tot de slechtste upscalingstechniek.

Altijd zo met AMD. Qua compute lopen ze achter, qua ray tracing lopen ze achter, machine learning geloven ze niet in. Als je dat allemaal negeert dan krijg je misschien 5% meer prestaties voor je geld :+

Je levert gewoon teveel in voor een minimaal prijsverschil. Wat mij betreft is AMD juist veel te duur voor een budgetmerk.

[Reactie gewijzigd door Wolfos op 22 juli 2024 13:39]

De XFX Speedster en Powercolor Red Dragon zijn bij Megekko nog gewoon "vandaag besteld, morgen in huis". De kaart mag dan tegen z'n eind aanlopen, maar is dus op dit moment nog wel verkrijgbaar en dus een relevante vergelijking.

De achterliggende redenen voor het geheugen zijn irrelevant, het gaat om het resultaat. Deze chip op een 256bit / 16GB kaart, zou natuurlijk nog net wat lekkerder lopen ook.

Verder is het geen roeptoeteren, maar gewoon een feit dat VRAM beperkingen de prestaties flink kunnen belemmeren. Je ziet dat het in de meeste gevallen wel binnen een maand of twee weer rechtgezet kan worden middels patches, maar voor een kaart die 600 Euro of meer kost, zou je eigenlijk dergelijke compromissen niet moeten maken.

Ook hier maakt de achterliggende reden overigens niets uit, is toevallig die ene game waar je al een tijd naar uitkijkt een console port getroffen door VRAM beperkingen, is het enige wat je kunt doen geduld opbrengen. We weten allemaal dat games, uitzonderingen daargelaten, niet rijp op de markt worden gebracht. Release now, patch later is al jaren de norm. Ik help je hopen dat Nvidia's VRAM beperkingen hier een trendbreuk kunnen veroorzaken, maar tot die tijd, is het een nadeel :)
Jij vind het wellicht irrelevant echter als je alleen maar naar de oppervlakte kijkt, wat prima is maar dan kan je mijn inziens nooit een gedegen uitspraak doen over de kwaliteiten of tekortkomingen van een bepaald product. Ik wil graag weten hoe iemand aan een resultaat komt en niet enkel naar het resultaat kijken. Zodat ik het resultaat kan inschatten op waarde. Maargoed dat is een verschil in inzicht, wat uiteraard verder los staat van de discussie.

Ik ben vooral oprecht erg benieuwd welke feitelijk onderbouwde cijfers je naar boven kan halen die aantonen dat VRAM op zichzelf een flinke beperkende factor is zoals je claimt. De enige manier om dit goed en dus vooral wetenschappelijk (toetsbaar) te testen is om een kaart met dezelfde GPU core en configuratie maar met een verschil in hoeveelheid fysiek VRAM. Ik weet dat NVIDIA hier voorheen wat "geintjes" mee uitgehaald heeft maar daar zaten ook andere type VRAM chips dus ook niet 1:1 vergelijkbaar. Als je een 24GB AMD kaart tegen een 16GB Nvidia kaart aanhoud is dat appels met peren vergelijken. Hele andere architectuur, drivers en geheugencontroller dus al zou de AMD qua FPS beter scoren is het prima om aan te geven dat deze kaart an sich beter is, Maar om dat gelijk te koppelen dat het komt omdat 24>16 Dat kan je gewoon niet hard maken op die manier. Dos je dezelfde Nvidia kaart uit met 24GB en je hebt ineens wel 20% meer FPS dan is je verhaal rond, dat kan echter niet.

Zelfs een reviewer als GN die soms tot vervelends aan toe in de technische details treden hebben de grootste moeite met het VRAM vraagstuk. Buiten de snelheid kan je het niet vergroten, verkleinen of muteren. Zoals je bijvoorbeeld bij RAM en CPU's wel kan doen, door extra reepjes te plaatsen of cores uit te schakelen. Dus vandaar dat ik ook niet zo veel aandacht schenk aan de niet technisch/meetbaar onderbouwde uitingen in reviews over dit onderwerp. Nvidia staat bekend om veel dingen maar vooral om geld te willen verdienen. Als ze weten dat (te) weinig VRAM leid dat ze door AMD platgestampt worden over de hele lineup dan gaan ze daar toch niet op alle kaarten, de afgelopen 3 generaties behalve de xx90 mee lanceren? Of ze willen de zoals je noemt trendbreuk echt gaan forceren. Zou ik bijzonder amicaal vinden als ze daarmee op deze manier mee gaan starten maar ik ken Nvidia al wat langer.
Persoonlijk vind ik zowel de technische als de bedrijfskundige achtergrond van dergelijke keuzes juist erg interessant. Ik deel je mening dat Nvidia er ongetwijfeld wel voor waakt zichzelf in de voet te schieten en de kantjes er niet teveel af te lopen. De prijsstelling hier kan ik daarom ook volledig begrijpen.

Tegelijkertijd is het ook duidelijk dat Nvidia is afgestapt van het bieden van een zeer aantrekkelijke midrange, naar een strategie waar men vooral het principe van upselling hanteert. Net als bij de McDonalds is alles behalve het XL menu niet de beste value, waardoor het extra verleidelijk is dus een upgrade te maken.

Ze kunnen het doen, ze zijn immers marktleider en hoeven niet per sé marktaandeel te winnen en de 4070 hier is daar een goed voorbeeld van. 12GB is gewoon het absolute minimum voor dit (prijs)segment als je van de prestaties uitgaat, als je wat langer met je GPU doet, of graag met texture packs speelt, houdt het niet over. Als ik nu voor de keuze zou staan, zou ik 'm zeker op m'n shortlist zetten, maar echt lekker zou het me niet zitten bij een 600€ GPU de minimum hoeveelheid RAM te krijgen voor 1440p met RT.

Het grote probleem voor de markt is eigenlijk nog niet eens zozeer dat Nvidia geen cadeautjes geeft, maar meer dat AMD gewoon geen enkele mogelijkheid weet te vinden (anders dan hard falende marketingslides) om er een goed product met een betere prijs tegenover te zetten. Maar in plaats daarvan hebben ze het spelletje juist meegespeeld door hun 7800XT als 7900XT op de markt te gooien en er nu tegenaan te hikken dat ze geen passende opvolger hebben voor de 6800XT.
We krijgen binnenkort de 4060 Ti 16GB dus dan kunnen we het mooi vergelijken. Verder verwacht ik geen schokkende verschillen. Bij pc gaming is het altijd een optie om je texture detail settings te verlagen. Het verhaal rondom The Last of Us Part 1 bleek een storm in een glas water en een kwestie van patchen, aldus Digital Foundry die patch 1.05 hebben getest.
Er zijn gewoon tests met dezelfde kaart met meer en minder vram hoor..
Hier bijvoorbeeld een test van dezelfde 3070 met 8 en 16gb vram.

Afhankelijk van of een spel die extra vram nodig heeft kun je zeker een duidelijk verschil zien.
Om nou te zeggen dat omdat game dev's lui zijn het een goede zet is van Nvidia om bepaalde kaarten daardoor uit te brengen met de weinig VRAM zodat de dev's harder gaan werken is wel een hele bijzondere redenatie/standpunt.
Het is gewoon jammer dat je bij een 600+ euro kaart niet eens 16gb eraf kan. Amd en Intel kunnen het wel, het is dus vooral jammer dat Nvidia dat dan niet doet, kan of wil.
De 6800 xt verstookt ook tot 100% meer dan de 4070. Zo verdien je toch wat terug....
Goed punt. Als je iedere dag minstens 4 uur games speelt, maakt dat op den duur wel verschil. Anders is het over 4 jaar gezien niet per sé significant, het is immers slechts zo'n 50 Watt.

Tenzij je ook werk doet en meerdere beeldschermen hebt aangesloten (met verschillende resoluties/refresh rates), de laatste high-end GPU van AMD die dat fatsoenlijk deed was de R9 Fury.
Bijna 100 watt eigenlijk, per uur dus (35cent per kwh) elke dag is dat jaarlijks 13 euro.
Game je dus 4 uur over 4 jaar is dat 200 euro
Dan haal ik liever de 6800 en die undervolt ik wel🤪
6800xt is al trager dan ga je die nog meer beperken? Tja koop dan een 3070 heb je hetzelfde tegen 100 euro goedkoper.
Nee, de 6800 maakt gehakt van die 3070 met 8gb . Maar het wordt misschien toch de 4070, de geforce kaarten doen het beter met bijv. Skyrim

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

nee hoor :
review: Nvidia GeForce RTX 4060 - De kleinste chip voor de grootste doelgroep

zelfs zonder raytracing scheelt dat maar een % of 5 zet je ratracing aan is het 10-15% voor die 3070 .
Dit zijn geen 4k kaarten en je komt amper 8+GB effectie gebruikte VRAM in 1440p tegen.
Skyrim met enb en mods kan tot dik 24gb nodig hebben. Btw, waar vind ik een 4070 voor 400e of minder ? Wel de 6800.....toedeloe🤪
Undervolten hoeft niet perse iets te beperken hoor.
Ik heb een tijdje terug een 6800xt gekocht en ben daar druk mee aan het undervolten gegaan.
Na flink wat testen zit ik nu met een undervolt van 1150mv naar 890mv.
Kaart verbruikt nu 200w onder load zelfde als deze 4070, en er is geen performance verlies.

Nou is dat natuurlijk niet helemaal eerlijk want je kan de 4070 waarschijnlijk ook wel undervolten, maar aangezien ik er geen heb kan ik dat helaas niet vergelijken.

3070 is overigens een waardeloos advies, dat is zo'n beetje de slechtste kaart van Nvidia die je momenteel kunt kopen. 8gb vram is een enorm nadeel voor de toekomst.
Niet voor niks dat je er helemaal mee dood wordt gegooid op vraag & aanbod terwijl er van de amd kaarten nauwelijks aanbod is.
DAt is louter omdat mensne kuddedieren zijn die amper voor zichzelf kunnen nadenken.
8GB voor een 3070 is genoeg. Oudere games kan je nog in 4k spelen maar voor nieuwe zal je al detail naar beneden moeten halen om 60fps te halen en dan geraak je niet aan die 8GB.

Nieuwe games die gaan uitkomen zullen zwaarder zijn, in 1440p zijn er amper games die zelfs op ultra boven de 8gb komen en die serieuze impact daarvan ondervinden. Meestal slechte ports die dat een maand of 2 later opgelost hebben.
Heb jij een 3070 8gb?
nee, 3080 en nu een 4090
Ok nou, als tweaker die wel een 3070 8gb heeft. het is enorm krap.
enorm krap voor wat? Op welke resolutie game je?
Zelfs als ik niet game maar gewoon aan het werk ben kan ik hem zo volblaffen
Misschien zou jij dan ook een kuddedier moeten worden want in dit geval heeft die kudde gewoon gelijk. ;)

8gb voor een 3070 is nu al nauwelijks genoeg, dat is al gebleken, zelfs op 1440p loop je tegen problemen aan.. Stapels video's op youtube over te vinden.

Misschien als je van plan bent de kaart maar een jaar of 2 te gebruiken dat het inderdaad niet zo veel uit maakt, maar zelf koop ik liever iets dat langer mee gaat (een jaar of 4-5).
Daar heb je uiteindelijk op de lange termijn namelijk profijt van.
stapels video's over te vinden die wat cijfers geven zonder te weten war ze mee bezig zijn. Hoeveel denken er wel niet dat allocated memory belangrijk is en niet effectief gebruikte. Indien 8gb nu echt al achterhaalt zou zijn op 1440p dan zou de prestatie van die kaarten er veel harder onder leiden dan wat we nu zien.

EN dat 4-5 jaar is absoluut geen argument. Niet enkel zal je kaart gewoonweg niet genoeg kracht meer hebben om 4kultra of zelfs 1440p ultra aan te kunnen, het is niet alsof vram gebruik zal exploderen de komende jaren . 8gb voor een 3070 is genoeg nu, en zal dat ook de komende jaren blijven.
Waarom een 3070, als je voor hetzelfde geld een rx 6800 met 16gb kan halen,🙄
https://youtu.be/Rh7kFgHe21k
De 3070 is een lachertje, totaal niet 1440p toekomstwaardig.

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

Omdat ik graag een stabiele gfx wil ;)
Heb nu de 5700XT draaien en doet dat 100% stabiel. Geloof geen hol van al die problemen. Noem die spellen eens, zal ik ze zelf testen. Maar goed , de rx 6800 kan straks je spel wel draaien, ipv een stabiele diashow..🤣😅😭
Grappig omdat de 3070 in zowat alle games nog 60+fps haalt op 1440p ultra
Spelontwikkelaars staan heus niet te springen om games uit te brengen die maar door pakweg 5% van de potentiële kopers gespeeld kunnen worden. Hoeveel mensen beschikken vandaag (en morgen) over >12GB?
62% gamed nog steeds op 1080p; slechts 3% in 4K. Ikzelf behoor met 3440x1440 tot een marginale groep van 1,70%
Idd daarom dat dit hele "8gb is te weinig om games te kunnen spelen" zo belachelijk als het maar groot is.
Aja, vandaar dat we nu al enkele spellen zien waar de 4070 verzuipt. Dit gaat alleen maar erger worden. 8gb is voor de losers...
LOL 4070 heeft 12gb
De 6900 Xt heeft 16GB, koop je voor hetzelfde geld en maakt gehakt van die 4070.
De 6800 non XT is tegenwoordig net zo snel als de RTX 3080. AMD heeft de drivers nu goed voor elkaar in ieder geval voor de 6000 serie. De 6800 gebruikt ook maar maximaal 250w en tijdens gamen vaak nog minder. Ook blijft deze kaart heel koel. Ik twijfel ook, want voor 649 euro kan ik een 6950xt asrock phantom gaming halen. Deze word alleen wel erg warm en is niet erg efficient. MSI heeft dit jaar nog de 6800 MSI Gaming Z Trio uitgebracht en die kost nu 499 euro. Ik denk dat ik voor die 6800 ga met het hele complete plaatje voor 1440p.
Nope in 4k is de 3080 sneller dan zelfs een 6800 xt, zet raytracing aan en het is een serieus verschil in elke resolutie. 1440p kan de 6800 idd goed aan (geen RT natuurlijk) 3080/6950/4070 scoren daar allemaal redelijk gelijkaardig in, de 4070 zal daar dan notg de beste zijn qua RT/DLSS3 die je toch games in die resolutie ultra kwaliteit + rt kan laten spelen. Maar als dat niet hoeft dan kan die 6800 eignelijk zo goed ls hetzelfde je geven tegen 150 euro minder.
Er zijn genoeg systemen die nog voedingen van het Windows 7 tijdperk hebben. Daar komt de oude connector en 50-100W verschil wel bij de overweging anders wordt de 300 euro upgrade een 500 euro upgrade.

En als je maar af en toe speelt is 1440p@120 op 27 of 32 inch ook niet echt relevant, 24 inch 1080p@60 is voor veel mensen genoeg zelfs om Doom Eternal even te volgen.

Ik heb persoonlijk ook al lang de DIY scene verlaten, een 3070 in een afgedankte Dell is genoeg om de spelletjes die ik gemist heb over de jaren op Steam te spelen, zelfs op het grote scherm (4K@60)

[Reactie gewijzigd door Guru Evi op 22 juli 2024 13:39]

50% meer, hoe kom je op 100%?
6800XT gebruikt 300 watt, 4070 gebruikt 200 watt, dat is dan toch 50% meer?
Ligt er maar net aan wat jij speelt, zie de side by side reviews op youtube.
Sterker nog, gewoon een RX6950XT in de uitverkoop op de kop tikken. Ik heb er in elk geval geen spijt van gezien de hedendaagse releases en prijs kwaliteit verhouding.
Maar wel Nvidia en dus fatsoenlijke support en bruikbaar in productivity.
Lijkt me geen moeilijke keuze.
De prijs van een nieuwe kaart moet eerst settlen, dus je kunt het niet vergelijken. Neem die 6800XT uit jouw voorbeeld, die moest niet lang na de introductie langere tijd rond de €1500! kosten.

Kijk, je kunt dus altijd cherrypicken op die manier, maar dat zou ik alleen doen als je nu perse een kaart moet hebben. Stel dat mijn huidige kaart vandaag het loodje legt, zou ik zeker eerder aan een 6800XT of een 6950XT denken dan aan een RTX4070, maar als mijn kaart volgende maand of later kapot zou gaan, zouden de kaarten weleens anders geschud kunnen zijn. Het ligt aan het prijsverloop en daar kun je nu nog niets zinnigs over zeggen.

Wat voor de RTX4070 spreekt is dat hij slechts één 8 pins powerconnector nodig heeft; ter vergelijking, mijn fabrieksovergeklokte GTX1080 heeft een 8pins en 6pins connector, hoewel de GTX1080FE ook één 8pins connector had.
Gamers kopen al jaren nvidia omdat amd nog steeds driverproblemen heeft.

Ik heb de 6800xt dezelfde dag van ontvangst teruggestuurd, daarna nog 3 andere modellen getest allemaal terug. 3070 gekocht (uit nood toen) 2 jaar lang 0 problemen mee gehad. Dat is dus zo'n 2700% beter dan al die 4 amd kaarten.
Vreemd, heb verschillende amd gpus gehad in het verleden en nog nooit zo,n drama meegemaakt als jij hier omschrijft. In tegendeel , bij mij had ik meer problemen met een nvidia kaart. Iets meer. Beide waren niet perfect. Reviewers hoor je er ook weinig over, games draaien. Vind het maar erg toevallig dat dat mij dan niet overkomt.

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

Drama... ze crashen gewoon niks drama. Slechte software misschien slechte hardware geen idee.

Als ik een kaart van 500-800 euro koop, installeer zelfs windows opnieuw en het eerste spel (gta 5 zelfs) wat ik start crashed na 5 minuten zonder error. En dat gebeurd 5x achter elkaar aan in 5 verschillende spellen zou je denken... misschien is er een ander onderdeel niet goed. Plep een 1060 erin, geen problemen. zelfde met een 3070 en 1080ti. 6800xt er in en ellende.

voor mij nooit meer, zelfs niet als ik ze gratis terug kan sturen.
Welke spellen, dude. Noem ze! Nog nooit zulke issues gehad, ook nu niet met 5700xt. Ben ik de uitzondering of jij? Net ff alle reviews gelezen hier van all 6800/xt kaarten. Geen hond klaagt over de drivers en/ of random crashes.

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

Sorry maar zulke verhalen geloof ik echt helemaal niks van, of je bent gewoon puur aan het liegen of je doet zelf iets waardoor je steeds problemen hebt
Ok ik lieg nu blij?
Bij veel tech youtubers lijkt het erop dat de ryzen 7800x3d tegenwoordig de standaard is om games te benchmarken. Wanneer gaat tweakers dit ook doen? Of zijn er (nog) geen plannen voor?
Zolang voor deze kaarten de Intel chip niet te langzaam is om een CPU bottleneck te kunnen vermijden, is het eigenlijk geen enkel probleem. Het zorgt er juist voor dat resultaten uit het verleden zich tenminste nog laten vergelijken die die uit deze testronde, wat welkom is voor het perspectief op pagina 5.
Maakt dit uit? Als een CPU de videokaart niet bottlenecked, boeit de processor toch niet? Zeker niet op hogere resolutie? Per processor zal er geen verschil in prestaties per videokaartprestaties zijn toch?
Welke dan specifiek?
Ik kijk tegenwoordig wat minder dus ben benieuwd.
"Wat krijg je voor Nvidia's adviesprijs?"

Een 4060 verkocht als 4080.

[Reactie gewijzigd door Vage_Karel op 22 juli 2024 13:39]

Volgens mij had de 4070 eigenlijk de 4060 moeten zijn, de 4080 is wel wat te sterk voor een 60 serie. Ook VRAM/BUS van 4070 zijn hetzelfde als de 3060, dus logischerwijs zou dat de verklaring zijn. Maar het slaat alsnog nergens op dat ze het zo inkrimpen. Ze hadden rustig een 4080 kunnen maken die iets beter was en zo ook alle modellen daaronder nog iets beter maken.
Nee dat zou je willen, de 4060 nu is een 15-20% sneller wat in lijn ligt met vorige genraties (3060-2060) een 4070 is 80-90% sneller.
Alle modellen zijn van naam/ plek veranderd nadat Nvidea de ''4080 12GB'' heeft omgedoopt tot de 4070ti.
de 4060 had gewoon een 4050(ti) moeten zijn. Stagnatie, de rouwe performance, zeker op 1440p is gewoon triest voor een nieuwe generatie. Heb zelf een 4070 en ben er erg tevreden mee, maar de prijs slaat nergens op. Had sowieso minstens 100 euro goedkoper gemoeten en had maximaal een 4060TI genoemd mogen worden.
Het is juist omgekeerd: nvidia wou de 4070 ti als 4080 12gb lanceren.
Dan zou er dus nog een mindere 4070 ti ondergekomen zijn en kon de rest ook meer naar boven nog getreokken worden.

Nogmaals tussen een 2060-3060 is er ook maar een 20-25% verschil, verwahcten dat de 4060 plots 50-80% beter doet is wat absurd. Enkel als er DLSS3 support is zal je in de buurt van zo'n waardes komen.

De prijzen zijn idd duur maar dat geld net zo goed voor AMD en zoalng mensen dat blijven betalen ...
Kan je nagaan hoe erg Nvidia ons wilde n##jen. Ze zijn wel geschrokken, na al die woedende kritiek.
Een heel stuk meer dan 15-20%, als je de juiste benchmarks maar pakt.

Kijk je echter naar een aantal reviews dan zie je dat de 4060 het niet zoveel beter doet dan de 3060, de 4060Ti is zelfs (Gamers Nexus bijvoorbeeld) vaak even snel als de 3060Ti (zelfs trager her en der). Vertrouw je op DLSS3, 1080p en Frame Generation, ja dan is het sneller.

De 4060 zit gewoon met een 128 bit geheugenbus en ondanks dat Nvidia zegt dat een extra pak L2 alles oplost, blijkt dit niet het geval.
Ik pak gemiddelde, ja als je cherry picked kan je meer vinden maar dat is reelijk zinloos.
EN de 4060 doet het wel zo goed als overal beter dan de 3060 zie gewon de tweakers review van de 4060 en dan heb je nog een pak andere voordelen/

EN gezien die 4060 geen 4k kaart is maakt die 128bit bus en 8gb weinig uit je ziet dat in vergelijking met AMD die niet significant beter scoren.
Alles onder de 4090 is overpriced troep.
Het is heel simpel, ze knijpen het aantal transistors, ze maken de dye kleiner, ze geven je een belachelijke busbreedte en doen er liever minder dan meer ram op. ze willen wel dat je betaald voor fake frames en hogere lag. Hoezo beter?
Al die frames zijn fake, wat maakt het uit als je niet het verschil merkt maar wel vloeiendere gameplay krijgt?
Ja, en als je schiet, schiet je te laat. Lekker dan, vloeiend mis schieten...lol
grappig dat je zo'n onzin kan uitkramen idd
Aja, wie wint een shooter? Diegeen met de laagste inputlag en een hoge refreshrate met echte beelden per seconde ... Heb het thuis weleens getest met twee systemen, identiek. De een met bedrade muis , de ander met draadloze. Diegeen met de bedrade muis won altijd. Terwijl mijn tegenstander beter was, ook hij kon niet winnen met se draadloE. Lag matters. Fake frames helpen daarin niet, integendeel, meer lag.

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

Daar dient nvidia reflex voor, en dit is enkel in competitive online fps ofwel een minieme minderheid van games/gamers.

LOL
Zelfs reflex maakt het niet beter als je ook fake frames gebruikt..whahahaha
zoals ik al zei je kent er niks van.
Soit wentel je gerust in je onwetendheid, ;)
Reflex verlaagd de lag, framegen en dlls verhogen de lag, netto is de lag hoger dan gewoon rauwe performance, zonder die fratsen.
Als je alleen reflex gebruikt, heb je idd winst. Maar we hebben het over framegen en dlls, icm reflex word dat nooit beter dan rauwe performance.
De review staan gewoon op Youtube, heb je die weleens gezien vriend?

Hoogmoed komt ten val...lol

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

en met reflex maakt dat verschil voor 99% van die die multiplayer spelen niks uit; enkele ms maken niet uit maar het is grappig dat dat het enigste is wat je tegen die klaart kan hebben.

De reviews staan idd op internet en dat toont aan dat met FG & SR zelfs een 4060 cyberpunk tegen 60+fps kan spelen, iets waar geen enkele andere kaart van amd zelfs maar in de buurt van komt zonder dubbel van prijs te zijn. En nee als je dan mist in cyberpunk is dat je eigen fout, niet de "lag" ;-)
Ja, en ik lees ook van echte gebruikers dat ze dat niu juist niet prettig vinden en het dus ook niet doen 60fps is te laag hoor ik.
IK heb witcher 3 NG en cyberpunk met DLSS3 en FG uitgeprobeerd en je ziet dat tijdens gamen niet.
EN dat was beide met een start framerate van onder de 60fps.

Het werkt gewoon goed en indien ondersteund kan dat een enorm voordeel zijn.
Aja, indien ondersteund. Al je oudere games gaan er dus nooit en never iets mee vooruit.
Jij vind het goed werken met een base fps onder de 60, anderen weer niet. Het blijft een twijfelachtig concept.

[Reactie gewijzigd door Madrox op 22 juli 2024 13:39]

Neen genoeg reviewers die het fantastisch vinden super resolution (wat ook al dlss2 en dus meer ondersteund word) kan games er effectief beter laten uitzien door bepaalde artefacten weg te werken.

Het IS gewoon een voordeel dat dat erop zit.
Tja, Nvidia doet ook aan krimpflatie.
Je betaalt wat meer en krijgt wat minder...
Waarom is die biosswitch opeens een ding? Zeker als minpunt in een review, waar dit opeens veel vaker voorkomt. Dat valt toch eerder onder 'nice-to-have'? :? Gaat iemand elke keer zijn kast openmaken om van profiel te wisselen? Of stelt ie gewoon even een profiel in in Afterburner? Dat laatste is toch wel iets simpeler en vrij te configureren.

[Reactie gewijzigd door Señor Sjon op 22 juli 2024 13:39]

Dat eerste is (imo) een stuk simpeler. Afhankelijk van je persoonlijke voorkeur stel je aan het begin, of hooguit na een week als je toch wat begint te irriteren aan de fans bijvoorbeeld, hem één keer in op een profiel, en dan blijf je er vanaf. Je gaat natuurljik niet afhankelijk van welk spel je speelt je PC openmaken en dat ding in een andere modus zetten, maar het geeft je wel de mogelijkheid je eigen voorkeur toe te passen zonder weer extra software te moeten draaien.

(Overigens zelf heb ik nog nooit echt reden gezien om iets anders dan quiet profiel te gebruiken).
Soms ben je iets te enthousiast met OCen en dan wil je kaart niet meer booten. Dan is het wel erg fijn dat je met een simpel schakelaartje naar een tweede BIOS kan wisselen, zodat je een known-good image kan terugbakken in de BIOS die je naar de mallemoer getweaked hebt.
Hoewel iedereen misschien wel in herhaling valt, vind ik het persoonlijk nogal vreemd waarom mensen die de prijs belachelijk maken meteen een negatieve beoordeling krijgen. De prijs gezien de prestaties is gewoon lachwekkend en eigenlijk ook direct bedroevend.

Bij voorgaande generaties zoals de 3070 was deze vergelijkbaar met een 2080-Ti. Terwijl bij de 4070 de prestaties vergelijkbaar zijn met de 3080 FE. Persoonlijk vind ik het nogal jammer en vreemd dat er geen 3080-Ti meegenomen wordt in de prestatiescore. Je gaat bijna denken dat men dit expres achterwege heeft gelaten.

Vergeet ook niet dat de adviesprijs van de 3070 oorspronkelijk €519,- was, ook al hebben ze dat in de EU verhoogt naar €549,-. De enige echte conclusie die men hier uit kan trekken is dat Nvidia maar door blijft gaan met het extreem verhogen van prijzen, maar steeds minder waar voor het geld bied.
De vraag is welke kaart is dan beter qua prijs|performance
Dat ligt natuurlijk aan je eisen en wensen. Wat heb je aan een kaart die makkelijk 60fps 4k haalt als je nog een 1080p monitor hebt. Gebruik je de kaart alleen voor gamen of wil je wat meer vram omdat je ook grafische zaken wilt gaan doen. Uiteindelijk is dit geen makkelijk vraag om te beantwoorden en puur afhankelijk wat je met de pc uiteindelijk gaat doen.

De hele 4xxx line-up van Nvidia is wat mij betreft slecht geprijst, vooral de low en midrange kaarten. Je bent in principe nog beter af om een high-end kaart te kopen dan de overpriced midrange varianten. Zelf zou ik eerder kijken naar een 2e hands 3070 Ti of een 3080. En een 6800Xt is ook een prima alternatief, welke als je die nieuw nog kunt kopen een prima prijs heeft.
2ehands is gokken en was altijd een optie daar veranderd niks aan deze generatie.

6800XT is 550 euro voor 90 euro meer (16% meer) heb je een 4070 in 1440p ultra met raytracing beschikbaar in 6 games en 9 games niet (wat dus de huidige stand van zaken is en dus gemiddelde gamen) zit je op 15% sneller. Of de prijs/performance is gelijk EN die 4070 is een pak stiller/zuiniger (en ebeter in al de rest zoals 3d modeling )

https://www.tomshardware....geforce-rtx-4070-review/4

Begin je met zaken als DLSS3 zelfs met FSR2 dan is die 4070 gewoon veel beter dan die 6800xt .
Je pakt ook direct de duurste 6800XT erbij, de meeste zijn ruim €100,- goedkoper. En dan vergelijken we het ook maar met een basis 4070 variant.

Raytracing brengt amper wat en daarvoor moet je veel te veel inboeten op performance, ook met DLSS3. De 4070 is inderdaad zuiniger, maar heeft wel minder Vram. Qua performance op 1440p is het prestatieverschil alleen op ultra settings 8%, op medium zelfs verwaarloosbaar.

Ik heb zelf een 3080 en wel geen DLSS3, maar ik vind DLSS2 persoonlijk al niet veel toevoegen. Zelfs met Quality settings is het amper interessant en kun je beter andere opties aanpassen om een goede framerate te krijgen en gewoon native 1440p gebruiken. Het is interessant als je echt een hoge framerate wil behalen en weinig geeft om kwaliteit, maar een native resolutie ziet er vele malen beter uit.

Nvidia pusht hun DLSS, omdat men liever leunt op softwarematige hulp dan gewoon zorgen dat de kaarten sneller en beter zijn. Scheelt hun weer wat marge en dan komt er meer geld in het laadje. Maar je hoeft niet te doen alsof er een wereld van verschil zit in DLSS en FSR. Beide kunnen niet tippen aan een native resolutie. Ik game liever zelfs 1440p native dan 4k met DLSS.
Dan heb je geen idee waar je het over hebt.
DLSS quality 4k = 1440p met nog wat verbeteringen dus ja dat zal er beter uitzien in zowat alle gevallen.

In sommige games zelfs beter dan 4k native.

https://www.youtube.com/w...=Mjg2NjY&feature=emb_logo

EN raytracing is wel beter hoor, je kan net zo goed beginnen om van ultra setting weg te gaan en te gamen in 720p en kijk alle kaarten presteren ver boven de 200fps en zijn dus gelijk.
Ik zeg niet dat raytracing niet beter is, maar het is het niet waard ten opzichte van het prestatieverlies. In ieder geval bij de meeste games niet, want het ligt er maar net aan hoe de game Raytracing heeft geimplementeerd.

Wat betreft DLSS quality 4k, bij erg snelle beelden treed er een bepaalde motion blur op die je bij native niet merkt. Dit is iets wat ik persoonlijk merk, nu is dat wel dlss2 zoals ik aangaf. Ik weet niet of je het zelf gebruikt en zo ja bij welke games, maar 4k native is in veel gevallen veel scherper. Zoals de video van jou aangeeft is dit ook heel erg afhankelijk van de game.
Tja, je kan hetzelfde argument gebruiken voor ultra settings. Je ziet dat niet/amper dat is gewoon excuses aanhalen omdat juist raytracing niet in je argument past.

EN nee hun mening is duidelijk dat DLSS er beter kan uitzien dan native omdat sommige image artifatcs die bij native optreden door DLSS weggenomen worden.

DLSS verbeterd ook constant dus als je ervaring met die een jaar geleden is heb je geen idee waar je over spreekt.Zie gewoon de conclusie daar zijn ze heel duidelijk in.

Gaan we dan naar 40xx dan kan dlss nog beter werken en heb je frame generation wat somige games speelbaar kan maken op resoluties die het "normaal" niet zou aankunnen.
Zelf wil ik gewoon op d eknop "play now" drukken. Ben de tijd voorbij dat ik het leuk vind om met tig settings te stoeien om het een fractie beter eruit te laten zien of een fractie sneller te laten werken. Nee, ik besteed mijn tijd liever aan het gamen zelf. De industrie schiet zijn doel voorbij, mensen wijken uit naar consoles en ik snap dat heel goed.
Het is gewoon een mening.
Dat gezeur over die prijzen begint oud nieuws te worden.
Het is Nvidia en inflatie en er is weinig concurrentie en die zijn ook niet goedkoop.
Wees blij dat je het kopen kunt. Je hebt gewoon keuze.
Misschien moet je eens gaan rekenen wat de inflatie werkelijk gedaan heeft, want dat is het meest slappe excuus wat ik telkens maar weer hoor. Zelfs met de hoge inflatie van de laatste jaren zijn dit soort prijsstijgingen vele malen hoger dan de inflatie. Als je uitgaat dat de 3070 in 2020 is uitgekomen met een adviesprijs van €519,- dan zal de adviesprijs incl. inflatie op dit moment €594,- zijn. Bedrijven willen graag nog wat extra winst maken, maar een adviesprijs van €669,- is wel heel erg fors.

Afgezien van de prijs zijn ook nog eens de prestaties een stuk minder gestegen als voorgaande versies.

Als de prijs hoog genoeg is kun je altijd wel wat kopen, ook in de tijd dat de grafische kaarten extreem duur waren kon je prima een grafische kaart kopen.
ls je uitgaat dat de 3070 in 2020 is uitgekomen met een adviesprijs van €519,- dan zal de adviesprijs incl. inflatie op dit moment €594,- zijn. Bedrijven willen graag nog wat extra winst maken, maar een adviesprijs van €669,- is wel heel erg fors.
Voor die adviesprijs hebben echter weinigen een 3070 kunnen kopen in 2020. Ik had een Suprim X voor net geen €700 terwijl ik later prijzen rond de 1300 heb gezien en deze 4070's zijn te koop ónder de door jou genoemde adviesprijs(namelijk €640). Deflatie? ;) Natuurlijk niet, maar adviesprijzen vertellen maar een miniem deel van het verhaal.

Als je vanaf de 10xx serie gaat rekenen dan wordt het misschien anders, maar dan tellen er dus ook flink veel jaren meer(inflatie) mee.

En over prestaties, ik heb inmiddels een 3090, en een 4070Ti die daar mee kan concurreren zegt toch dat er wel íets van vooruitgang in deze generatie zit. Misschien niet bij alle kaarten het gewenste niveau, dat ben ik met je eens. Ze zijn echter wel redelijk wat zuiniger en dat is voor sommigen ook veel waard.

[Reactie gewijzigd door MN-Power op 22 juli 2024 13:39]

Tja, waarom zou een high end kaart voor iedereen moeten zijn, is dat een verworven recht of zo.
Gaming op een PC is een privilege niet een recht.
Als je het niet kunt betalen, moet je er niet aan beginnen. Natuurlijk willen bedrijven winst maken.
Dan kunnen ze weer nieuwe dingen maken waarover je dan weer over de prijs kunt zeuren.
Btw. als je kijkt wat je met de huidige GPU`s van nvidia kunt doen op het gebied van productiviteit dan denk ik dat bijv. de 4090 het koopje van de eeuw is.
Een 4070 noem je een high end kaart? Voor de prijs lijkt het misschien wel zo maar producttechisch gezien hoort het gemoon een mid-range kaart te zijn. Het heeft in ieder geval wel de prestaties van een mid-range kaart.

Gaming op de pc is een privilege niet een recht, damn wat een onzinargument. Ik game al meer dan 30 jaar op de pc en om te gamen heb je helemaal niet veel bijzonders nodig. Dat bedrijven tegenwoordig alleen maar naar de winstcijfers kijken en niet producten ontwikkelen voor klanten maar voor hun aandeelhouders kun je proberen recht te lullen maar dat verlies je altijd. En ja er zijn ook veel mensen die denken dat ze altijd het nieuwste van het nieuwste moeten kopen en die komen bedrogen uit, maar sinds de 20xx series van Nvidia is het met de mid-range en low end kaarten erg slecht gesteld.
Het is absoluut een high end kaart dat er nog duurdere/ betere kaarten zijn doet daar niets aan af.
Als het niks bijzonders is koop je gewoon goedkope troep en ben je klaar.
Bedrijven zijn er niet voor jou maar voor zichzelf en de winst.
Get used to it.
Btw Gaming op een PC is nog steeds een privilege en geen recht. Gezien je reactie zal je dat wel niet bebrijpen.
En daar hebben we het, in plaats van een fatsoenlijke reactie moet er op het eind een persoonlijke sneer komen. Toch triest dat je je meteen op dat niveau moet verlagen om je statement duidelijk te maken.
Bedrijven zijn er niet voor jou maar voor zichzelf en de winst.
Get used to it.
Bedrijven hebben bestaansrecht omdat ze een service op product leveren waar mensen behoefte aan hebben. Als jij denkt dat bedrijven er zijn voor zichzelf en de winst dan is het misschien een idee om wat meer in te lezen in hoe bedrijven onstaan en functioneren. Dat aandeelhouders tegenwoordig belangrijker zijn dan andere aspecten in bepaalde bedrijven dat is wat anders.

De manier waarop je je reacties schrijft zegt mij echter wel genoeg, zo veel mogelijk schreeuwen maar niets op de inhoud.
Ik denk dat gamers moeten gaan begrijpen dat hard met hun voeten stampen niet veel indruk maakt bij bedrijven .
AI is tegenwoordig het ding, who needs gamers.
Btw. wat NV mij heeft gegeven op het gebied van productivity met de 4090 maakt die kaart het koopje van de eeuw.
En daar is zeker behoefte aan.
Superrelevant wel in de discussie waar deze kaart bij thuishoort. nVidia heeft zelf jarenlang het volgende model gehad:
50/60 = entry
70= mid range
80= top segment

Daar kun je lang of breed over lullen, maar dit zijn de feiten. Dat nVidia nu heel hard probeert om de consument die scheefgroei te verkopen door de prestatiewinst, maar dat is het fucking idee van hun product, elke generatie.
Je geeft met je laatste zin al toe dat het jezelf fixeren op nummers en prijs segmenten door NV al aktief de kop word ingedrukt.
Waarom zou je in het verleden blijven, model nummers zeggen niets en dingen veranderen.
En er stug aan vast blijven houden zinloos en overbodig.
En zoals ik al eerder zij het is zowieso zinloos want NV is geen bedrijf dat zit te wachten op wat zeurende gamers. Graag of niet.
Omdat marketing nu eenmaal zelf met die termen komt. En zeurende gamers (of gewoon voorzien van gezonde kritiek/observaties van de afgelopen vier jaar, het lef om dat als zeuren af te doen) of niet, dan gaat men vanzelf wel naar de concurrent. maar daar zit voor nvidia duidelijk het geld niet meer.

Want voor ons geld geldt immers ook: graag of niet.
Als je denkt bij de concurrentie wat beters te vinden , ga gerust je gang.
Dingen worden nou eenmaal duurder
Alleen was dat niet het punt. een 4070 is gewoon mid tier in de line up.
Dat is jou mening, NV denkt daar anders over......
Het is letterlijk nvidia die dit zegt he.
Precies.
Wie anders bepaald voor hun product wat ze er mee gaan doe.
Als je hie zo wat rondleest is dat wat mij betreft maar goed ook
En doe die prijs nu eens maal de huidige inflatiecijfer ten opzichte van toen, en dan kom je, verrek, aan een vergelijkbaar bedrag als nu gevraagd wordt. Mensen moeten eens stoppen met 1 op 1 te vergelijken met een paar jaar geleden, zelfs een fles 1.5 liter coca cola is bijna een euro duurder geworden sinds toen.
Verrek er zou hierboven maar een berekening gedaan zijn met de inflatie van de afgelopen tijd en dan kom je nog steeds onder de €600,- en vergeet niet dat men tijdens de Corona crisis en hoge inflatie tussendoor de adviesprijzen al met €30,- verhoogt heeft vanwege de hoge transportkosten en duurdere grondstoffen etc.

Ik vergelijk niet 1 op 1, misschien moet je zulke aannames lekker voor jezelf houden en maak zelf de berekening eens.

Daarnaast zijn ook nog eens de prestaties minder t.o.v. voorgaande series.

[Reactie gewijzigd door Andyk125 op 22 juli 2024 13:39]

Tja, en als ik 2 losse inflatie calculators gebruik dan zie ik dat een bedrag van 519 (of 549 zoals jijzelf aangeeft) in 2020 (toen de 3070 uit kwam) nu 645 (of 682) euro zou zijn. DUS zijn de prijzen nu in principe wel gelijk.
En dan krijg je bij die sites en calculators deze melding: De inflatie na 2022 is nog onbekend. Voor deze periode (1 jaar) is er gerekend met de inflatie in 2022. Omdat men cijfers van het CBS gebruikt.

Niet erg realistisch gezien de inflatie begin 2023 al gedaalt was en op dit moment bijna de helft is van het gemiddelde van 2022. De laatste maanden rond de 6% en in maart zelfs maar 4,4%. In 2022 was dit gemiddeld 11,6%. Ik vind het prima als je iemand probeerd te verbeteren, maar dan moet je wel de juiste cijfers gebruiken.

[Reactie gewijzigd door Andyk125 op 22 juli 2024 13:39]

De inflatie t/m juni 2023 is gewoon bekend.
Ja dat klopt, maar daar rekenen sommige inflatie calculators niet mee zoals ik aangegeven heb...
Wel apart dat de Asus Dual OC editie goedkoper is dan de "standaard" editie. Dan zou ik toch voor de OC editie gaan. En dan zijn de prijzen van de kaarten in deze review wat dichter bij elkaar.
Niet helemaal hetzelfde maar denk dat het voor de 4070 ook op gaat.
Ik kocht altijd dikke kaarten zoals Asus Strix, Gigabyte Aorus of MSI Gaming kaarten want dikke koeler ivm geluid en een OC, ect.

Vorig jaar met een 3070 bewust één van de goedkoopste die ik kon vinden gekocht en thuisgekomen met een Ventus X3 (die ook relatief licht en lang is net als de 4070 versie).

Ik draai met een undervolt en OC (2000Mhz+) in game onder de 200watt load. Daarbij is de kaart niet eens luid. Nu met 2x120mm Noctua er op al helemaal niet en temps blijven doorgaans onder de 70 graden 8)7

Imho is het bij de RTXxx70 kaarten helemaal niet nodig om de dikste kaart te nemen als je ‘gewoon’ wilt gamen zonder poespas en is een ‘budget’ kaart helemaal prima. Wellicht dat het bij RTXxx80- of 90 kaarten met een veel hoger TDP meer verschil maakt.

En qua biosswitch, met MSI Afterburner is een stil fanprofiel zo aangemaakt en idle hebben de meeste kaarten een 0RPM modus :)
Die extra toeters en bellen hebben altijd een marginaal effect op prestatie en vooral op prijs.. Ze proberen gewoon wat extra te verdienen en een lineup neer te zetten.
Mis in deze test toch echt wel de 4070 Founders Edition als vergelijkingsmateriaal. Nvidia gebruikt de best gebinde chips voor deze kaarten en dat is terug te zien in o.a. het verbruik. Het is altijd leuk om te zien hoe boardpartners zich op bepaalde vlakken onderscheiden van een FE kaart. Zowel positief als negatief.
Suc6 met het vinden van een 4070 fe model👍🙄😂
Wordt zoals gewoonlijk door Notebooksbilliger gewoon geleverd in Nederland, linkje is te vinden via nvidia.nl.
Ah, dus niet hier te krijgen ... Boeien dan
Prima kaart maar geen prima prijs.
Een inno3d kaart mag nooit de tag "excellent" krijgen.

Reden? Garantie(voorwaarden). Gaat de kaart defect? Dan ben je die 2 tot 3 maanden kwijt als deze opgestuurd' want de kaarten moeten worden opgestuurd naar china. Daarnaast weigeren ze in sommige gevallen kaarten te repareren terwijl ze binnen de de garantie vallen.
Maak garantie gevallen het probleem van de winkel, dáár heb je de overeenkomst mee. De winkel heeft namelijk de plicht jou een deugdelijk product te leveren.
De winkel zal de kaart gewoon naar de fabrikant opsturen. En je zal doen kaart gewoon 2 tot 3 maanden kwijt zijn. Bij MSI en Asus ligt dat op 1 tot 2 weken omdat een reparatie centrum binnen Europa hebben.

[Reactie gewijzigd door rigbuilder op 22 juli 2024 13:39]

Dat is onzin, had pas een kapotte Inno3D RTX 4090 en die was binnen 2 weken omgeruild (via Alternate)
Dit zijn ook afspraken die we hebben met winkels, er zijn natuurlijk uitzonderingen dat winkels. Opsparen tot ze sturen etc.
Ik kan vrij weinig zeggen over inno3d hun garantie praktijken. Ik heb zelf een gtx 1070 van inno3d wat destijds een van de goedkopere modellen was. Toch had deze een buitensporig goede overclock waardoor deze veel beter presteerde, de bouwkwaliteit is ook gewoon echt goed geweest. Daarnaast heb ik wel eens vragen gesteld en doorgaans krijg je dezelfde dag gewoon een reactie van inno3d en deze zijn zeer behulpzaam.

Daarnaast is het inderdaad zo in nederland dat de winkel verplicht is om jou een deugelijk product te leveren en binnen garantie tijd je te hulp te staan. Het risico op te lang durende reparaties zonder vervangend product zou dus relatief laag moeten zijn.

Ik meld dit gewoon even in de forum want ik zie vaak kritiek op Inno3d als een soort goedkoop budget merk maar de basis van deze kritiek is eigenlijk gewoon publieke perceptie. 9/10 keer zijn kaarten van de meeste merken gewoon degelijk in elkaar gestoken voor langdurig gebruik. Gigabyte is eigenlijk de enige die momenteel negatief nieuws heeft met scheuren in de pcb.
Ik ben het volledig met je eens, heb in de afgelopen jaren verschillende gpu modellen van Inno3d gebruikt (voor klant systemen) en ben er erg tevreden over, goede koeling erop die ook vaak stil is.
En een defect kan altijd, had toevallig in diezelfde week als een RTX 4090 van Inno3d defect ging, een kapotte RTX 4090 van MSI, dus ja daar is ook niks van te zeggen :)
Geld terugvragen dan als het te lang duurt: https://www.consumentenbo...%20op%20prijsvermindering.

Reparatie moet binnen een redelijke tijd gebeuren en 3 maanden is dat natuurlijk niet. Dan moeten ze je of leenapparatuur geven of je mag de koop ongedaan maken.

[Reactie gewijzigd door Barsonax op 22 juli 2024 13:39]

Inno3d heeft, volgens mij, ook een reparatie centrum in Nederland.

Edit: wellicht is dat enkel een "RMA" centrum.
2-3 maanden vind ik ook te lang!

@INNO3D

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:39]

Als dit 3 maanden duurt is dit aan de webwinkel.

Alles wat hier in ons centrum in Nederland aankomt, is huidig binnen 2,3 dagen behandeld.
dit kan een credit zijn of kleine reparaties.
Dat de winkel de videokaart naar fabrikant opstuurt moeten zij zelf weten. Jij krijgt binnen garantie meestal direct een vervangend product en bent dan dus sneller geholpen dan wanneer je de fabrikant direct contacteert, die in de meeste gevallen jouw product dan repareert en terugstuurt. Tevens heb je als consument/koper dan méér rechten, wanneer je de winkel het laat oplossen, denk aan geld terug als eea onoplosbaar blijkt of te lang duurt, of alternatief product, met al dan niet geld retour of juist erbij.

[Reactie gewijzigd door CH4OS op 22 juli 2024 13:39]

Als je voor mij de serial nummer hebt van je kaart toen en dan de datum hebt waar je de kaart hebt opgestuurd kan ik kijken welke datum deze bij mij is aangekomen, ik durf te wedden dat onze doorloop tijd kort is geweest. En vind ik het erg jammer dat je zo lang hebt moeten wachten, want we willen juist snel zijn,

( Daarnaast weigeren ze in sommige gevallen kaarten te repareren terwijl ze binnen de garantie vallen) dat gebeurt al helemaal niet hoe zouden we hiermee wegkomen?

[Reactie gewijzigd door INNO3D op 22 juli 2024 13:39]

Ik kan me nog goed herinneren een kaart van inno3d met een gesprongen cap, die vervolgens brandschade heeft veroorzaakt. Moest naar China toe 3 maanden lang geen reactie, defect teruggestuurd gekregen zonder reactie... Als er een rma centrum hier is bijgekomen dan is deze van 2021 of later.
Hey Rig,

Oké ja daar heb je gelijk in aankomende december is deze er 2 jaar. En garantie op een verbrande kaart hangt er een beetje vanaf wat de staat van de kaart zelf was en welke plek dit begonnen is op de kaart. Ik kan helaas over je geval niks zeggen in dit geval.

Ieder geval voor de toekomst nu weet je dat de rma snel is en zoals je ziet zijn we ook hier actief,
hopelijk brengt dit wat meer vertrouwen,
Noujs, zelf een Inno3d 760 gehad, en die was gewoon goed, nooit problemen mee gehad. Garantie afhandeling blijft altijd maar de vraag, bij andere merken kan het soms ook lang duren.

Op dit item kan niet meer gereageerd worden.