Door Willem de Moor

Redacteur

Nvidia GeForce RTX 3070 Ti Review

Meer cores en sneller geheugen

09-06-2021 • 15:00

123

Singlepage-opmaak

Conclusie

De theorie achter de 3070 Ti klinkt vrij logisch: activeer de volledige GA104-gpu zodat alle cores tot je beschikking staan en lever ze voldoende data aan met een rap geheugensubsysteem. Dat levert een videokaart op die met in essentie dezelfde gpu toch pakweg 10 procent sneller is dan de RTX 3070, zonder daar nieuw silicium voor te hoeven te maken.

Het prijsverschil van 100 euro op de adviesprijs is bijna 20 procent. Daarmee betaal je dus relatief veel voor die 10 procent extra, maar bedenk wel dat je, in onze testsuite van tien games, wél boven de grens van 60fps uitkomt op 4k Ultra. Dat kan net de doorslag geven.

Zo'n beoordeling op basis van adviesprijzen is echter een beetje academisch, want met de huidige malaise rondom voorraad en beschikbaarheid is de kans dat je een RTX 3070 Ti vindt voor een prijs die in de buurt van die 600 euro komt, vrijwel nul. Als we kijken naar de 3080 Ti, die een week voor de 3070 Ti werd geïntroduceerd, zou die kaart 1200 euro moeten kosten. In de praktijk staan de aib-kaarten voor pakweg het dubbele in de Pricewatch. Ook de RTX 3070, met zijn adviesprijs vanaf 519 euro, is niet voor minder dan 1000 euro te koop. De 3070 Ti gaat daar waarschijnlijk niet onder zitten op korte termijn, áls je er al een kunt kopen.

In een perfecte wereld met verkrijgbare kaarten zou de RTX 3080, die een adviesprijs van 100 euro extra heeft, een slimmer alternatief zijn. De prestaties zijn duidelijk een grotere stap beter dan wat tussen de 3070 en 3070 Ti zit, maar het prijsverschil zou relatief kleiner zijn. De praktijk leert echter dat ook deze kaart, als er ergens voorraad is, pakweg 1800 euro kost. Uit het rode kamp is de Radeon 6800 een vrijwel identiek scorende concurrent, maar ook die kaart is nauwelijks daadwerkelijk te koop.

Met de 3070 Ti dicht Nvidia weliswaar het gat tussen de 3070 en 3080 een beetje, en vergeleken met oudere generaties maakt Nvidia grote stappen. Vergeleken met de 2070 Super is de kaart 30 tot 50 procent sneller en vergeleken met de 1070 Ti verdubbel je je framerate minstens. Helaas zul je je oude kaart waarschijnlijk nog wel even moeten koesteren, want pas als - en dat is misschien meer een if dan een when - de prijzen weer normaliseren, kun je een upgrade overwegen.

Lees meer

Reacties (123)

123
116
61
14
0
25
Wijzig sortering
Prima kaartje als je er een weet te bemachtigen. Wat mij wel opvalt is dat de RTX 3000 serie enorm veel energie verbruikt vergeleken met AMD. De RTX 3070ti verbruikt zelfs meer energie dan de RX 6900XT voor beduidend minder performance. Laat vooral zien wat voor enorme stap AMD gemaakt heeft met de 6000 series.

Ik mis in deze review wel echt de vergelijking met de RX 6800. Gemiste kans.
Ik heb alleen testresultaten van de 6800 met de 21.2.2-driver (februari). De kaart staat inmiddels aan met de 21.5.2-driver (mei). Ik zal de 6800 toevoegen met de resultaten van de oudere driver; zodra het testen klaar is vervang ik ze door de nieuwe resultaten. Compromis, maar het beste wat ik kan doen op het moment.
Wellicht dan ook deze regel aanpassen bij het overzicht en de 6800 toevoegen in "Prestatiescore games", want toen ik dat las vond ik dat missen Een echte concurrent uit de rode hoek is er niet in dit segment: de 6800 XT is een brug te ver.
Overigens, kijkend naar de imaginary adviesprijzen, dan scheelt de 6800XT maar 4 tientjes met de 3070Ti.

Bij de scores van Assassin's Creed: Valhalla staat nu:
De 3070 Ti heeft in Valhalla een prestatiewinst van ruim 11 procent op de 3070 op 4k-resoluties, maar dat voordeel slinkt tot slechts een paar procent op lage resolutie, als de game meer cpu-gelimiteerd wordt.
Dat laatste lijkt echter niet te kloppen, want andere kaarten halen nog wel 50% tot 60% hogere framerates. De vraag is: welke bottleneck remt de 30xx kaarten op die lage resoluties?
scherp, ik heb het stuk in de prestatiescores even aangepast, en bij Valhalla beetje aangepast... ik denk namelijk dat er wel degelijk een bottleneck zit, als je kijkt dat de 3090 niet sneller is dan de 3080 (Ti) bv... ergens kunnen alleen de dikke Navi 21-kaarten performance vandaan halen, mss de mem-bandbreedte? Ben benieuwd wat de gewone 6800 doet hier...
Super! Dank voor de review! Wellicht ook interessant om in de toekomst te kijken wat de performance van verschillende kaarten is met oude vs nieuwe drivers.
Ik heb vorig jaar gedaan inderdaad: reviews: Tien maanden driverupdates getest - Welke winst kun je verwachten?
Heel lastig om conclusies eruit te trekken: het hangt nogal van de games en resoluties af wat drivers doen... dat gezegd hebbende, bij AMD leek er minder te verschuiven dan bij Nvidia (al kan dat natuurlijk ook weer per kaart verschillen....)
Is het wellicht een idee dit zelfde soort review te doen maar dan met VR?
De Nvidia Drivers sinds November 2020 schijnen een 'bug' te hebben waarbij PCVR toestellen vreemde 'hiccups' vertonen tijdens het spelen van VR.

Nvidia is er druk mee bezig, maar hun oudere drivers hebben deze problemen schijnbaar niet. Wellicht ook een test waardig...
Want waar Nvidia in 'monitor' performance vaak wel excelleren, lijkt het er op dat het in VR performance het er soms gigantisch op achteruit gaat...
Prima kaartje voor wat? De prijs?

Ik vindt het helemaal geen prima kaartje, de prijs/kwaliteit verhouding is hier ver te zoeken. Ook als je de huidige tekorten en prijzen niet in rekening neemt. Die 10% meer performance is gemiddeld, ik heb andere reviews gelezen en gezien waar men net 4% winst behaald.

De Readon 6800XT en 6800 zijn prijstechnisch veel interessanter. De XT is bij de adviesprijs maar €30,- duurder, maar je hebt wel een behoorlijke prestatie boost. Als je het gemis van de DLSS variant en raytracing buiten beschouwing laat dan is de 3070 Ti alleen maar goed voor Nvidia en de partners. Hopelijk is FSR van AMD straks ook echt interessant en doet het niets onder dan de dlss van Nvidia. En dan denk ik dat Nvidia echt aan de bak moet als de tekorten opgelost zijn.
Maar waarom zou je de huidige markt, dlss en Ray tracing buiten beschouwing laten als je gaat vergelijken?

Adviesprijzen zijn totaal nutteloos als criterium aangezien geen enkele kaart voor die prijs te krijgen is. Dlss en Ray tracing zijn juist 2 technieken waarvoor gamers een Nvidia kaart willen kopen en het nieuws rondom FSR is (vooralsnog) niet heel positief.

Dus stellen dat de AMD kaarten de betere keus zijn om vervolgens te stellen dat je voor die conclusie de realiteit buiten beschouwing moet laten heeft weinig zin volgens mij.

Als doorontwikkeling op de 3070 is deze Ti gewoon een prima upgrade.
Hoeveel mensen of games maken echt gebruik van raytracing? Ik ben absoluut een voorstander van deze techniek, maar de implementatie en de impact op de performance is nog te groot om hier daadwerkelijk gebruik van te maken. De alternatieven en huidige technieken doen qua belichting niet veel onder.

Adviesprijzen zijn niet nutteloos, omdat van zowel AMD als Nvidia de reference kaarten gewoon voor die prijs verkocht worden. Of je er een kunt bemachtigen is een ander verhaal. Ga je kijken naar de huidige prijzen dat is de 6800XT nog veel interessanter.

Ik laat de realiteit juist niet buiten beschouwing, dlss en raytracing zijn erg interessante technieken, maar een native resolutie draaien is nog steeds het beste. Dus als je met de 6800XT 10-20% meer prestatie hebt dan een 3070 Ti voor 30 euro meer dan is de realiteit gewoon dat je een veel mindere kaart krijgt voor je geld. Helemaal als de 3070 maar gemiddeld 10% minder presteert, maar wel 100 en op dit moment enkele hinderden euro’s goedkoper is en ook dlss heeft.

De 3070Ti is dus helemaal geen prima upgrade, maar gewoon een overtrokken 3070 die maar weinig prestatie winst boekt, voor veel meer geld.
Voor de prijs dat ik heb betaald voor de RTX 3070 TI kan ik echter net een 6700 XT krijgen. De 6800 XT is 330,- duurder.
AMD is goed bezig de laatste tijd, maar met dingen als Optix, RTX en DLSS loopt Nvidia mijlenver voor. AMD komt dan een tijd later met een alternatief, maar tegen die tijd hebben veel ontwikkelaars de oplossing van Nvidia al geïmplementeerd, die vaak ook nog eens beter werkt.

Dit is zeker niet zo'n makkelijke strijd als die ze met Intel voeren, dat mag duidelijk zijn.
Als AMD de groeicurve vast kan houden die ze afgelopen jaar hebben laten zien verwacht ik alleen maar goede dingen. FidelityFX is veelbelovend en voor een eerste generatie zeker geen tegenvaller.
Over de implementatie in games ben ik het met je oneens. Waar DLSS gebruik maakt van een zelflerende AI server bij Nvidia waar de ontwikkelaar gigantische datasets moet toeleveren om de AI te trainen, maakt AMD gebruik van een techniek die direct in de processing van de kaart plaatsvindt. Ik ben geen expert maar dit maakt het toch juist toegankelijker voor ontwikkelaars om voor FidelityFX te kiezen? Daarnaast ondersteunt FFX zowel AMD als Nvidia kaarten en beslaat dus een veel groter deel van de markt. Hoor graag of ik het bij het juiste eind heb. Ik leer graag :)

[Reactie gewijzigd door bjvdven op 22 juli 2024 13:32]

Waar DLSS gebruik maakt van een zelflerende AI server bij Nvidia waar de ontwikkelaar gigantische datasets moet toeleveren om de AI te trainen
Dat is sinds DLSS 2.0 niet meer het geval.

Het is inderdaad zo dat AMD's techniek ook op Nvidia kaarten gaat werken. Hoe waardevol dat is moet zich nog bewijzen.
AMD hoeft nu eigenlijk niet meer te doen dan zorgen dat er genoeg videokaarten worden geproduceerd. Dat wil nog niet vlotten. Volgens Jon Peddie Research is de meest recente verdeling 82% Nvidia en 18% AMD. Zie https://www.jonpeddie.com...ents-soar-once-more-in-q4
Om nog maar niet te spreken van de gebrekkige software support van AMD. Mijn 6900XT heeft veel last van microstutters in verschillende titels zoals BFV en PUBG. Dan moet ik mij door allerlei bochten wringen m.b.t. configuratie om dat te verhelpen.

Even snel een 3070 ingeprikt en alles werkt gewoon zonder problemen. Jammer, want AMD bied betere prijs/performance en performance/watt ratio's, alleen is mijn praktische ervaring dus anders.
Ik herken me hier dus helemaal niet in met mijn 6900xt. De kaart en software van AMD zijn prima, ik kan alle spellen (tot nu toe) spelen zonder enig probleem (incl. BFV en de bij mij niet aanwezige microstutters). Ik denk toch echt dat er (nog steeds) iets mis is met je systeem of instellingen (te ver overgeclocked ?). Maar hier hebben "we" het al over gehad op het forum :) .

Daarnaast, is het vermelden dat jouw 6900xt niet goed werkt nog wel relevant voor je ? Het lijkt een beetje een rare melding aangezien het lijkt dat je deze op 8 juni verkocht hebt, gezien je advertentie en kopersfeedback ? Als je problemen opgelost zijn met de 3070 prima toch, waarom dan AMD of hun software afkraken ? Je schreef zelf in de advertentie dat de kaart prima is maar teveel van het goede. Ik vraag me nu af het goede van wat... microstutters ?

Link : V&A aangeboden: AMD Radeon RX 6900 XT

Mensen zijn snel "overtuigd" van hun eigen gelijk. "Nee mijn voeding is niet te licht" (wel 100w onder het geadviseerde minimum of een 1000watt goldenpowermerk) of "nee mijn geheugen werkt prima en is het probleem dus niet" (staat alleen niet op de QVL). Ook de "nee ik heb een stabiele overclock en hebt met X of Y ook geen problemen alleen bij Z" (terwijl overclocken per definitie niet gegarandeerde resultaten oplevert) komt regelmatig langs. Dit zijn enkele voorbeelden die je zo op het forum kan vinden.

AMD is gewoon lekker bezig de laatste tijd wat goed is voor de concurrentie en dus voor ons als consument. Ik koop persoonlijk alle merken en fabrikanten en heb dan ook zowel 3DFX, Intel,cyrix AMD als nVidia gehad in het verleden (en heden) en kijk gewoon wat de beste "bang for buck" is op dat moment.

Overal is iets van te zeggen maar vaak liggen problemen toch echt bij de eindgebruiker. Ook ontbreekt bij mensen regelmatig de zelfreflectie en zie je veel "fanboy" gedrag wat jammer is.
En als laatste, problemen zijn een uitdaging waar we als tweakers groot mee geworden zijn, ook ik heb van alles liggen prutsen met soms een negatief of matig resultaat, dit is juist leuk en geeft voldoening als je het oplost. Merken afbranden omdat ze niet voldoen aan je eisen zonder enige vorm van onderbouwing/achtergrond is echter niet echt gewenst.

[Reactie gewijzigd door huubhuub op 22 juli 2024 13:32]

Na jaren nVidia, een 5700 gekocht, wilde toch weer eens AMD supporten.
Wat een ellende mee gehad.
Random gamestutters, lockups en blue screens, zelfs in Photoshop en 3D edit pakketten.
Bij gaming eens een lockup of screenfreeze, ja das niet fijn.
Maar tijdens mijn reguliere werk is het verschikkelijk.
Ook omdat er geen enkele relatie tussen de problemen bleek te zijn.
Soms al op de desktop, of tijdens een youtube terwijl er ook een game draait.
Dagen bezig geweest, allerhande fixes geprobeerd, zet dit aan, dat uit enz...
Alle fora afgestruind.
Schoon systeem, 6 verschillende drivers, iedere keer tot op registry niveau volledig verwijderd.
Begon zelfs te twijfelen aan mijn super stabiele 850 watt platinum voeding of mijn Mobo.
Dan liep het weer een halve dag goed, bam.. uit het niets.
Handoek in de ring gegooid, terug gestuurd.
Toen voor zelfde geld een iets minder snelle 2060 gekocht.
Driver geinstalleerd en het werkte weer allemaal zoals het hoort 24/7.
Geen enkele issue (tot op heden, afkloppen), super stabiel.
Ik was weer even klaar met AMD voor een paar generaties.
Offtopic:
Klopt de 5700 (vooral de XT) was een behoorlijke dramakaart, de hardware op zich was best goed maar de software in combinatie met die kaart was inderdaad om te huilen :P
Daarentegen waren bijvoorbeeld de 9700 pro , R9 serie en VII serie best prima kaarten en softwarecombinaties.
Hetzelfde geld voor nVidia, de geforece 3 was een topper maar de 4 en 5 heb ik best veel problemen mee gehad. Bij nVidia heb ik nog het meeste bang for buck gehad met de 8800 GTS 512.

Ontopic:
Mijn persoonlijke mening is dat op dit moment een 3070, 3080, 6800 en 6800 XT de beste prijs prestatie leveren met toch wel AMD iets meer in de lead. Het is absurd dat ik blij ben met een 6900xt van 1000 euro omdat dit de enige kaart is die ik voor msrp kon krijgen. Als je dit 2 jaar geleden zou zeggen (dat je dit van plan was) dan verklaarde ik je voor gek maar nu is het normaal geworden.

De 3070/80 Ti is gewoon te duur voor wat je krijgt. nVidia is de prijs aan het vragen die ze toch wel betaald krijgen. Dit vind ik niet echt netjes/ethisch van een bedrijf (ondanks dat een bedrijf bestaat om winst te maken zijn ze eigenlijk een soort scalpers geworden met de 1200 euro voor de 3080 Ti). AMD doet dit toch iets netter door gewoon "normale" prijzen te vragen (ook al is de leverbaarheid ruk).

[Reactie gewijzigd door huubhuub op 22 juli 2024 13:32]

Behoorlijk subjectief maar ik probeer het toch maar in perspectief te plaatsen (eenzijdige herkenning :P),

Ik als eindgebruiker ervaar deze problemen en ik ben niet de enige. Het internet staat er vol mee. Ja het is anekdotisch, so what. AMD staat bekend om driver problemen en slechte ondersteuning bij spellen, daar kun je gewoon niet omheen. Over fanboyism gesproken.

Hier kan ik wel "omheen" want het internet staat ook vol met fanboys die halleluja roepen over AMD. Het is een feit dat er voors en tegens zijn. Om op basis van jouw mening gelijk te roepen dat AMD slecht is omdat jij microstutters ervaart gaat mij te ver.

Verder zit de Radeon software vol met allerlei toeters en bellen zoals 'Anti Lag' en 'Radeon sampling' die het probleem alleen maar verergeren. Doe het er dan niet in. Op verschillende tech fora's is het eerste advies dan ook om al die 'extra' features van de software suite uit te zetten, mooi product.

Die toeters en bellen, zoals jij dit noemt, verergeren jouw problemen ? Hier insinueer je dat deze opties nutteloos zijn gebaseerd op, wederom, je eigen ervaring. De vraag is, is dit wel zo ? De opties werken voor andere prima. Als laatste hoef je deze opties niet eens te gebruiken. Ja ze zitten er in net zoals andere fabrikanten ook opties aanbieden, het blijven echter, zoals het woord zelf al aangeeft, opties. Daarnaast, sinds wanneer is alles wat op internet (en vooral op forums) staat waar ?

Verder zie ik niet in waarom het verkopen van een 6900XT relevant is in deze discussie, mijn persoonlijke ervaring wordt er niet beter of slechter van.

Dit is zeer zeker wel relevant omdat het nu lijkt of op elke post welke gaat over nVidia of AMD ik jouw, zeer uitgesproken, anti-AMD mening tegenkom. Dit terwijl je zelf in je V&A aangeeft dat de kaart prima is ? Als je zo nodig je mening wil geven over zaken welke niet goed zijn doe dit dan met onderbouwing zonder dat je verzaakt in het "AMD is slecht boehoe" verhaal.

[Reactie gewijzigd door huubhuub op 22 juli 2024 13:32]

Relax DiscoNootje,

Klopt dit is jouw mening, op zich ben ik het met de inhoud niet eens of oneens. Ik vind het alleen wel jammer hoe mensen een stelling poneren zonder onderbouwing maar met de stelling "ja maar half internet/4chan (of elk willekeurig forum) is het met mij eens".

Meningen mogen gedeeld worden maar blijf wel netjes en probeer niet zomaar te roeptoeteren.

[Reactie gewijzigd door huubhuub op 22 juli 2024 13:32]

Misschien omdat veel mensen dit niet gewenst en offtopic vinden ?
Niet echt relevant in een 3070 ti review topic.
Dit ligt daarom toch niet altijd en enkel alleen aan kaarten van Amd of software van Amd ?
Ik heb ook problemen gehad met kaarten van Nvidia hoor in het verleden software matig of hardware matig.
Soms geven drivers wel eens conflicten van andere hardware en dan los ik dit nogal veel op met drivers volledig verwijderen of terug gaan naar een vorige stabiele versie. Zo heb ik afgeleerd beta's te installen.
Wat mij wel opvalt is dat de RTX 3000 serie enorm veel energie verbruikt vergeleken met AMD.
Lijkt me wat overdreven. Als ik bij techpowerup kijk is de 3060Ti bijvoorbeeld efficienter dan de 6700XT.
Klopt. En die staat net 4% lager qua performance dan de 6700XT. Maar een 3070ti en een RX 6900XT verschillen dusdanig veel qua performance dat het kleine verschil in vermogen opmerkelijk is.
Het valt misschien meer op omdat de 6900XT in absolute zin ongeveer hetzelfde verbruikt als deze 3070Ti, terwijl de 6900 de top end is, maar de 6800 is duidelijk de meest efficiente kaart. Zullen ze wel gedaan hebben om de 6800XT minder in de weg te zitten qua performance.
Digital Foundry heeft die vergelijking opgenomen als je die wil bekijken: https://youtu.be/istn-taqPFY
Prima kaartje als je er een weet te bemachtigen. Wat mij wel opvalt is dat de RTX 3000 serie enorm veel energie verbruikt vergeleken met AMD. De RTX 3070ti verbruikt zelfs meer energie dan de RX 6900XT voor beduidend minder performance. Laat vooral zien wat voor enorme stap AMD gemaakt heeft met de 6000 series.

Ik mis in deze review wel echt de vergelijking met de RX 6800. Gemiste kans.
Hoe kom je überhaupt bij deze onzin ?
Dit is echt weer zo’n rood v groen reactie.

6900XT verbruikt rond de 400w, met powerspikes naar +600w.

[Reactie gewijzigd door Hackus op 22 juli 2024 13:32]

Sorry zal voortaan een bronvermelding bijsluiten. Info komt uit deze review en de review van techpowerup. Verbruik van zowel de 3070ti als rx 6900XT zitten rond de 300watt waarbij de 6900XT ongeveer gelijk presteert met 3080ti/3090. Meer nodig?
Sorry zal voortaan een bronvermelding bijsluiten. Info komt uit deze review en de review van techpowerup. Verbruik van zowel de 3070ti als rx 6900XT zitten rond de 300watt waarbij de 6900XT ongeveer gelijk presteert met 3080ti/3090. Meer nodig?
Kijk nog maar eens goed naar oa de powerspikes die ik benoem.
Om een 6900XT goed te voeden heb je echt een goede 850w voeding nodig, of zwaarder. Ik heb zelf een RTX3080 met 760w iON+, en dat gaat prima. Heb zat ruimte over qua wattage verbruik.

Zal je opweg helpen https://tpucdn.com/review...a/images/power-spikes.png

[Reactie gewijzigd door Hackus op 22 juli 2024 13:32]

Klopt. Powerspikes zijn behoorlijk maar niet enkel aanwezig bij de amd kaarten. Daarnaast verbruikt mijn kaart vaker 250w dan 300w. Maar volgens mij was dat niet het punt dat ik eerder maakte. Ik zei toen dat beide kaarten ongeveer 300w verbruiken en dat de 3070ti daar niet naar presteert. The Verge zegt zelfs dat de ti 30% meer verbruikt voor maar 10% extra performance. Zeker interessant te noemen toch? Beetje jammer dat je gelijk denkt dat ik team Red hier enorm zit te verdedigen. Heb zelf een 2070 en 3070 gehad en dat beviel prima.
Klopt. Powerspikes zijn behoorlijk maar niet enkel aanwezig bij de amd kaarten. Daarnaast verbruikt mijn kaart vaker 250w dan 300w. Maar volgens mij was dat niet het punt dat ik eerder maakte. Ik zei toen dat beide kaarten ongeveer 300w verbruiken en dat de 3070ti daar niet naar presteert. The Verge zegt zelfs dat de ti 30% meer verbruikt voor maar 10% extra performance. Zeker interessant te noemen toch? Beetje jammer dat je gelijk denkt dat ik team Red hier enorm zit te verdedigen. Heb zelf een 2070 en 3070 gehad en dat beviel prima.
klopt, mijn RTX3080 heeft spikes van 400w +-, dat is nog 200w minder dan 6900XT. Maar goed, het is een mooie opvolger van 2070 Super, met betere prestaties dan RTX2080Ti :)
Hoe kom je überhaupt bij deze onzin ?
Dit is echt weer zo’n rood v groen reactie
Genoeg reviews zeggen dit, maar het is een rood v groen reactie?

https://youtu.be/zC0TbZq_oIU?t=380
https://youtu.be/h3yJEy--Uyc?t=665
https://www.youtube.com/watch?v=dQJwjxUB0LU&t=589s

Zal wellicht niet altijd he geval zijn, maar dat het zo dicht of zelf over de 6900XT gaat voor beduidend minder performance is gewoon een feit

[Reactie gewijzigd door Sinester op 22 juli 2024 13:32]

[...]

Genoeg reviews zeggen dit, maar het is een rood v groen reactie?

https://youtu.be/zC0TbZq_oIU?t=380
https://youtu.be/h3yJEy--Uyc?t=665
https://www.youtube.com/watch?v=dQJwjxUB0LU&t=589s

Zal wellicht niet altijd he geval zijn, maar dat het zo dicht of zelf over de 6900XT gaat voor beduidend minder performance is gewoon een feit
ga maar een een 6900XT voeden met 750w voeding, dan spreek ik je later wel. Zie je topic met problemen dan wel verschijnen op GoT.
Vergeet niet dat het verbruik weer wat zal verbeteren, met nieuwe drivers, zoals dat altijd het geval is.
power spikes(20ms) van 620W(6900XT) v 350w (RTX3070Ti) denkt niemand aan....
Hoe kom je überhaupt bij deze onzin ?
Heb je dan wel een 6900xt? stock gebruikt mijne 250-280 watt (met +15% powerlimit)
Hoe kom je überhaupt bij deze onzin ?
Heb je dan wel een 6900xt? stock gebruikt mijne 250-280 watt (met +15% powerlimit)
Ik heb de afgelopen tijd 4 builds gemaakt met 6900XT, en zowel 5800X, 2x 5900X en 1 5950X.
Werken allemaal prima, mooie clocks en goede temps. niks afgeknepen, maar goed ingesteld.
twee AMD versies, en twee Sapphire Nitro+ OC.
(ik ben dus niet van het groene kamp te noemen, en heb mijn kennis niet van YouTube filmpjes :) )

[Reactie gewijzigd door Hackus op 22 juli 2024 13:32]

Het is een review, geen round-up.
Klopt! En wat doe je bij een review? Je bekijkt de waarde van het product vergeleken met soortgelijke producten van dezelfde prijsklasse. De directe competitie van de 3070 ti is de rx 6800.
Een vergelijking hoeft niet per se onderdeel te zijn van de review, dat is waar ik op doelde. Een vergelijking doe je in een round-up, daar is het immers een round-up voor, want dan leg je meerdere producten op de (pijn)bank. Bij een review bekijk je een product tot in de puntjes, daar hoeft niet per se een vergelijking met een andere videokaart bij in te zitten.

[Reactie gewijzigd door CH4OS op 22 juli 2024 13:32]

dus in jouw review lijst je de fps waarden op. En wat kan de lezer daar dan mee? Die zeggen niets zonder een vergelijking van een andere kaart op hetzelfde testsysteem.
Ik zeg dat in een review ga je de diepte in, daarmee hoef je niet per se een vergelijking te maken, dat is aan de reviewer. :) Een vergelijking zou ik echt niet missen oid. Bij een round-up verwacht ik wel onderlinge vergelijkingen, het is maar net hoe "strikt" je daar in zit, denk ik dan maar. :)
Het is ook best interessant dat deze nieuwe kaart niet direct sneller is als de RX6800, terwijl de 3070Ti bijvoorbeeld wel het mooie snelle GDDRX heeft. Er is toch ergens iets mis gegaan wat dat betreft. Qua prijs, wattage, performance etc is het gewoon allemaal niet overtuigend.
rsnubje Testlabcoördinator @bjvdven11 juni 2021 09:49
Inmiddels (gistermiddag) staan de resultaten van de 6800 met driver 21.5.2 erbij.
Meh }:O - 50% energieverbruik ingame erbij voor 10% prestaties bovenop de 3070 FE ... en dan toch 20% meer vragen. Als je deze tegenover elkaar zet in frames per watt (FPW) is het echt geen mooi plaatje

Goed dat de RX6800 toegevoegd wordt nog - niet omdat merk A beter is dan B, maar omdat die zowel in FPS als FPW aantrekkelijker is ... maar ook niet te verkrijgen dit jaar.

Nou dan gaan we van de vakantiecentjes dit jaar gewoon extra ver en lang weg, wel even lekker :Y) !

[Reactie gewijzigd door Cassius op 22 juli 2024 13:32]

Zelfs als het 20% meer kost, is het nog steeds een goede deal. Met de kanttekening dat je er één kan krijgen voor msrp. Ditzelfde geld net zo hard voor de 3080Ti.
Hoe is het dan een goede deal? De vergelijking van Cassius gaat toch nog steeds op voor alle kaarten op adviesprijs? Een vergelijking moet wel gebeuren met gelijke situaties, of alles op adviesprijs of alles op marktprijs.

[Reactie gewijzigd door Grozno op 22 juli 2024 13:32]

Omdat je een 3080 niet voor adviesprijs krijgt. Als je een 3080TI met adviesprijs kan kopen, ookal "betaal je er meer voor dan de prestaties waard zijn" is het een goede deal. Het is wat lastig uit te leggen. Maar dat is nu eenmaal de chip wereld waar we nu inzitten.
Dat iets ten opzichte van andere producten een relatief goede waarde heeft in de huidige markt, staat niet gelijk aan een goede waarde ten opzichte van de voorgaande markt. Daarnaast neem je nu ook aan dat we hier met goed fatsoen een 3070Ti kunnen krijgen voor de adviesprijs, wat nog te bezien valt.

De 3070Ti voor adviesprijs is dus niet de slechtste deal momenteel, maar nauwelijks een goede deal te noemen.

\\Edit, ter ondersteuning:
Gamers Nexus over de 3070Ti: https://www.youtube.com/watch?v=dQJwjxUB0LU

[Reactie gewijzigd door Grozno op 22 juli 2024 13:32]

Zelfs als het 20% meer kost, is het nog steeds een goede deal. Met de kanttekening dat je er één kan krijgen voor msrp. Ditzelfde geld net zo hard voor de 3080Ti.
Yep, veel mensen hebben niet door dat een RTX3070 gelijk presterend is aan RTX2080Ti. Dan moet men ook kijken naar de prijs bij uitkomen, toen en nu.


Door verschillende omstandigheden zijn veel hardware moeilijk verkrijgbaar.
Corona, chip tekorten Miners die ineens 90 stuks kopen voor hun miningtafel etc.

@willemdemoor jullie testen een Gigabyte GeForce RTX 3070 Ti Gaming OC 8G. Dat is niet zoals titel en foto laat zien Nvidia FE.
(tenminste die indruk word gewekt)

[Reactie gewijzigd door Hackus op 22 juli 2024 13:32]

Dat leggen we hier uit: we testen de kaart als stock en als we een foto van de GB-kaart gebruiken, leidt dat weer tot verwarring (we testen immers niet de aib-kaart hier)
Helemaal eens. Ik denk eerlijk gezegd dat we deze generatie kaarten beter kunnen vergeten. Tegen de tijd dat deze weer normaal verkrijgbaar zijn, zitten we bijna tegen een volgende release aan.

De 3000 kaarten zijn voor gamers echt een verloren generatie.
Fpw lijkt me een mooie metric om kaarten met elkaar te vergelijken.
Bedankt voor de mooie review! Qua prijs/performance in het huidige landschap is dit zo'n beetje de opvolger van de 2070 Super in de line-up, maar prijstechnisch meer de opvolger van de 2080 Super. Vreemde kaart, gezien die beide 2000-serie kaarten betere performance/watt boden, echter deze kaart het omgekeerde. Geen verbeteringen in het procedé nu de volledige GU104 is ingeschakeld, maar eventuele instabiliteit compenseren met domme voltages! Dat relatieve stroomverbruik.... is dit een Vega64 kaart in vermomming?

Echter, lieve auteur, ik mis iets heel belangrijks. Gezien de FE-edition kaarten nog het meest verkrijgbaar lijken (én heel gewild zijn qua looks) mis ik in deze review uitgebreide eyecandy-plaatjes, maar belangrijker nog de temperaturen/geluidsniveau van deze kaart. Zijn deze (net zoals de 3070) prima in orde, of hebben deze een duik genomen door het hogere verbruik?

Ook weten we ondertussen met z'n allen dat undervolten veel goeds brengt bij zowel RTX 2000 als 3000 series kaarten (met de vergelijkbare 3060Ti/3070 als uitschieter in posieve zin), én van de RX5000 en RX6000 serie. Wat mij betreft mag dit echt niet meer in een review ontbreken. Zeker bij deze kaart met obsceen stroomverbruik!

[Reactie gewijzigd door TheGreatAtuin op 22 juli 2024 13:32]

Komt de founders edition kaart dit keer wel beschikbaar voor Nederland?
Ben ik nou de enige die het allemaal niet meer zo boeit?
Er is toch niets te krijgen voor normale prijzen.
Ben je zeker niet de enige in. Ik snap dat Tweakers wel deze review online moet zetten (buiten sponsors etc om nog), alleen haal ik m'n schouders op en lees even de conclusie. Voorheen was ik wel geïnteresseerd in alle grafiekjes en fps-counters, maar wat voor nut heeft het? Enige dat ik hoop is dat m'n videokaart er niet ineens mee stopt, want dan heb je als PC-gamer echt een probleem.
Niet eens zozeer als gamer, zou niet weten wat ik in m'n PC zonder igpu zou moeten stoppen als mijn oude 1060 er nu ineens mee op zou houden :|
Founders Edition kaartjes zijn te krijgen voor normale prijzen. En nee, je hebt verre van een zekerheid dat je die bij de eerste drop die je meevolgt meehebt, maar een beetje opletten en het is verre van onhaalbaar.

Ik heb zelf sinds maart 5 FE's kunnen kopen (2 3070/1 3080/2 3090). Zonder bots, soms gewoon via smartphone. En nee die worden niet gescalpt - daar help ik anderen mee verder.
Sharing is caring: hoe/waar heb je dat gedaan?

Trouwens, waarom 5, daar maak je de krapte toch alleen maar groter mee? (ook al is het fijn te horen dat je niet scalpt, dat zullen we dan maar voor waar aannemen)
Sharing is caring: hoe/waar heb je dat gedaan?
Er zijn verscheidene discords, telegram groepen, Twitter accounts, ... waar FE drops worden aangekondigd. Als Belg kan je die dan kopen bij LDLC, als Nederlander bij NBB. Snel zijn is absoluut de boodschap en de slaagkans is verre van 100%, maar na een drietal keer zou je toch iets moeten hebben.
Trouwens, waarom 5, daar maak je de krapte toch alleen maar groter mee?
Omdat ik wel wat mensen ken die ook graag gamen voor een normale prijs...

En de krapte wordt er niet groter van he. 5 gamers die geholpen zijn en niet verder zoeken naar een kaartje.
Toch raar dat je dan een risico neemt van 5 dure kaarten te kopen om anderen te helpen ?
Als de prijs ineens inzakt zoals de prijs kan doen van crypto's ben je zwaar gejost om er niks op te verdienen :).
Je kon toch maar 1 kaart bestellen per klant om zo iedereen de kans te geven een kaart te kunnen kopen ?
Of je koopt op naam van een bedrijf veronderstel ik dan. Zodra ETH overstapt op POS zakt gans het kaarten gedoe in mekaar als pudding.
Toch raar dat je dan een risico neemt van 5 dure kaarten te kopen om anderen te helpen ?
Als de prijs ineens inzakt zoals de prijs kan doen van crypto's ben je zwaar gejost om er niks op te verdienen :).
Founders Edition kaartjes zijn niet duur, die gaan gewoon aan MSRP. Ik koop die ook niet zomaar om ze nadien door te verkopen - er zitten in mijn dichte kring al meer dan genoeg mensen die schreeuwen om een kaartje aan MSRP vast te krijgen.
Je kon toch maar 1 kaart bestellen per klant om zo iedereen de kans te geven een kaart te kunnen kopen ?
Of je koopt op naam van een bedrijf veronderstel ik dan. Zodra ETH overstapt op POS zakt gans het kaarten gedoe in mekaar als pudding.
Ik koop niet op naam van bedrijf neen.
Je hebt helemaal gelijk en ik snap ook niet waarom ze elke paar maanden een nieuwe versie uit brengen terwijl de kaartjes niet eens bestelbaar of leverbaar zijn.
Ze zijn leverbaar vanuit het standpunt van Nvidia, ze worden in grotere aantallen geproduceerd en verkocht dan eender welke vroegere reeks GPU's die Nvidia al op de markt heeft gebracht.
Die kaarten zaten waarschijnlijk al lang in de pijplijn. Het ontwikkelen duurt gewoon een tijd.
Het is mooi om te hebben voor als de boel ooit weer eens normaliseert
Sterkte aan mensen die momenteel een nieuwe PC willen/moeten bouwen, of aan first-time builders. Er is helemaal niets leuks aan nu een PC samenstellen.

Gelukkig zijn er genoeg games die op een aardappel draaien om nog een jaartje door te komen.
ik had dat sinds kerst willen doen; inmiddels half jaar later ... nog steeds buitensporige prijzen en nauwelijks aanbod. Leuk die nieuwe GPU's, maar aanbod haalt het niet met de vraag. Daarom nintendo switch gekocht (had dat eerder moeten doen :X) dan maar even geen FPS games meer :(
En er is altijd nog Google Stadia :)
Ik hoor ook veel goede dingen over GeForce Now van vrienden! Je kunt het een uur gratis uitproberen
Zelfs beter: je gratis account kan 1 uur per keer gamen. Na een uurtje stopt je spel en nadien kan je terug een uurtje gamen. Op zich wel rond te werken door kleine pauze in te lassen en terug in de queue te schuiven :).
lol ik kom niet eens aan 1 uur per dag gamen 😆
klinkt dus wel goed voor mij, hoe werkt het? 🙃
Op zich kan je gewoon GeforceNow downloaden en dan een Nvidia account aanmaken.
Je koppelt dan je Steam library en als je dan een game wil spelen dan start je die gewoon uit Geforce Now op. Gratis zit je denk ik op een uurtje FullHD 60FPS, wat echt wel dik ok is.
Latency is ook goed te doen.
De game die je wil spelen moet wel beschikbaar zijn op GeforceNow, anders ben je alsnog t haasje xD
Je kan ook gewoon op uw oude gpu gamen dan gezien geforce now niveau gtx1080 is.
Naar mijn mening is stadia niet voor bestaande pc gamers omdat je niet je eigen game library kan meenemen.
been there done that, voor mij niet meer, toch veel lag !
Grappig hoe dat zo verschilt. Hier op het limburgse platteland met ziggo is de latency tussen de 12 en 25ms. (Wat prima speelbare latency is voor de meeste games.)
Ik zie nog steeds geen enkele reden om mijn 2080Ti in te ruilen voor één van deze kaarten, ok ja de 3080Ti en 3090 persen veel meer fps uit maar eerlijk gezegd voor de huidige prijzen zit ik nog steeds zeer goed hoor.
Mooi nog even een jaartje wachten inderdaad :)
Wellicht komen ze met de 4-serie ook met een acceptabel stroom verbruik. Gaat deze serie ook helemaal nergens meer over.
Maar echt hoor, de 1650 kwam 2+ jaar geleden uit, en AMD heeft al bijna 4 jaar geen 75 watt kaart uitgebracht (rx 560)
Is dit nu een midrange kaart? Of hoe positioneert nvidia deze eigenlijk? Ik vond mijn 2070 al teringduur (bijna 450 euri) maar 619 of weet ik veel wat ze zich er nu voor vragen is toch echt belachelijk.
Vandaag de dag is een 1050ti (1 fan) ond de 300 en een 1050ti oc (2 fans) rond de 500. een 2060 zit op 600 en daar boven kom je op een kleine 900eu uit. Het is gewoon niet leuk meer zo.
Wel om te onthouden is dat de 1050ti nu voor 500 te verkopen is vanwege scalping en te kort aan kaarten. De 3070ti is 619,- van Nvidia zelf, zo de officiele prijs. Zo de vergelijking is niet helemaal juist. De 1050ti was voor de crisis te koop voor 150 euro,- wat een prima prijs is voor zn kaart.

Maar de prijs voor kaarten momenteel is belagelijk
De MSRP prijzen waren nog 'ok', imo, niet schitterend, maar wel een degelijke performance upgrade tov van vorige generaties. 3080 is ~50% (soms een stuk meer) sneller dan een 1080 Ti, 4 jaar later voor dezelfde MSRP.

Het eerste probleem is gewoon dat de huidige schaarste ongezien is (bestel maar eens een wagen, gigantische wachtijden ook door tekort aan chips).

Ik heb inmiddels 4 jaar geleden mijn RX 580 8GB gekocht en ik zou die vandaag de dag waarschijnlijk nog met lichte winst tweedehands kunnen verkopen als ik zo de prijzen zie op tweakers.
4 jaar later!
En ik heb hem notabene destijds al wat overpriced gekocht door de eerste (denk ik?) crypto mining boom.

Het tweede probleem is dat AMD en Nvidia het bewust vertikken om low end kaarten op de markt te brengen (een RX 580 killer, zeg maar). Nvidia komt nog het dichtste met de 330 dollar MSRP 3060. Dat zou ik mid range noemen. Maar MSRP lijkt dan ook meer en meer een leugen. Blijkbaar was er nogal wat geknoei met Nvidia en de 3080 'MSRP' omdat Nvidia in het begin de AIBs korting gaf op de chip en later niet meer.

Het meest trieste, vind ik dat veel reviewers hier in mee gaan. Als ik '3060 msrp' google zie ik een review die het omschrijft als een 'budget gpu' fucking 300+ knotsen voor een 'budget gpu'. Bitch please.
De hele range is naar boven geschoven. 'budget' is het vorige midrange, midrange is de vorige high end, de nieuwe high end is de vorige gestoorde categorie.

Laat ons hopen dat het beter wordt, ik zou alvast zeker niet upgraden vanaf een 2070. Heb het zelf wel gedaan vanaf mijn 580.
De xx70ti is in de regel wel high-end te noemen, of is in ieder geval de absolute top van de midrange. Zeker ook vanwege de ti toevoeging.

Traditioneel vormen de xx50 en xx60 kaarten de midrange en xx80 de high-end. Daar is natuurlijk nog de xx90 bovenop gekomen als "ultra high-end" ter vervanging van wat vroeger het SLI/X-Fire segment was. Daar gebruikte men twee kaarten in plaats van een enkele of had men een enkele, gigantische kaart waar dan twee GPU chips op zaten.

Low-end kaarten die je zonder externe voeding kan draaien lijken wel een zeldzaamheid geworden. Ik heb ook het gevoel dat de vraag naar high-end / premium producten de afgelopen 10 jaar exponentieel is toegenomen al dan niet door exponentieel toegenomen eisen (verviervoudiging van resolutie, minimaal stabiele 60 fps, liefst 100+, ultra high settings, geen stutters, etc.) waar review outlets graag op inhaken. Mede daardoor voelt het voor mij inmiddels ook alsof een xx70 kaart slechts midrange is, maar dat is enkel omdat men amper nog spreekt over wat er onder de xx60 range uitkomt. Als er überhaupt al iets voor op de markt wordt gebracht dankzij de chiptekorten.
Selling point van deze kaart is het stroomgebruik :+.

Edit:
Dit zou je misschien zelfs als positief kunnen beschouwen omdat miner liever een zuinige kaarrt hebben. Hoewel je dat misschien met undervolten kan bereiken.

[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 13:32]

Mining is niet het probleem van de schaarste, en tevens al zouden ze zo n kaartje scoren dan gaan ze die undervolten waardoor ze alsnog een zuinige kaart hebben.

Op dit item kan niet meer gereageerd worden.