Door Reinoud Dik

Redacteur

AMD Radeon RX 6600 XT Review

Dure mainstreamkaart

10-08-2021 • 15:00

180

Singlepage-opmaak

Conclusie

De Radeon RX 6600 XT is AMD's nieuwste videokaart als onderdeel van de RX 6000-serie op basis van de RDNA 2-architectuur. De kaart brengt deze generatie grafische kaarten naar een lager prijspunt, met een adviesprijs van 389 euro. De RX 6600 XT is gebaseerd op de Navi 23-chip die eerder dit jaar voor de laptopmarkt werd uitgebracht en moet als desktopkaart vooral gamers met een 1080p-scherm met hoge refreshrate aanspreken. Vanaf 11 augustus moet de RX 6600 XT in de winkels liggen. Dit zal enkel in de vorm van custom kaarten van de verschillende boardpartners zijn, aangezien AMD zelf geen referentiekaart voor de RX 6600 XT uitbrengt.

RX 6600 XT AIB's

Het probleem van de prijs

Om te beginnen met het grootste pijnpunt van de RX 6600 XT: de 389 euro die AMD noemt als adviesprijs, is vandaag de dag helaas nog steeds onhaalbaar. De straatprijs zal net als bij de RTX 3060, waartegenover deze nieuwe Radeon wordt geplaatst, fors hoger uitvallen. Als we desondanks de adviesprijs aanhouden, is duidelijk dat AMD meer durft te vragen voor de RX 6600 XT dan Nvidia doet met 349 euro voor zijn RTX 3060. Dat is begrijpelijk, want de kaart is 5 tot 10 procent sneller dan de RTX 3060 in games zonder raytracing. Die laatste technologie is een pluspunt van Nvidia's aanbod, al is de toegevoegde waarde op dit lagere prestatiepunt beperkter dan bij de high-end kaarten.

Flink minder geheugen

Een voordeel van de RTX 3060 ten opzichte van de RX 6600 XT is de grotere hoeveelheid geheugen. De RTX 3060 beschikt over 12GB vram, de 6600 XT met 8GB een derde minder. Voor een kaart gericht op 1080p is 8GB vram niet eens zo'n groot probleem, al kan de extra hoeveelheid videogeheugen ook zeker geen kwaad. Beide kaarten laten zien ook voor 1440p geschikt te zijn, mits er compromissen gesloten worden in de grafische instellingen. Omdat de RTX 3060 over de helft meer vram beschikt, hoeft specifiek de texture quality op die kaart minder snel een van die compromissen te zijn.

Concurrentie van zijn voorgangers

Vergelijken we de adviesprijs en prestaties van de RX 6600 XT met die van zijn voorgangers, dan maakt de nieuweling ook niet bijzonder veel indruk. De Radeon RX 5600 XT en RX 5700 kregen anderhalf tot twee jaar geleden adviesprijzen van respectievelijk 305 en 379 euro mee. Voor vrijwel hetzelfde (theoretische) bedrag krijg je anderhalf tot twee jaar later 20 tot 25 procent betere prestaties: verre van een grote generatiesprong. Ten opzichte van oudere populaire kaarten, zoals de GTX 1060 en RX 580, is de grofweg verdubbeling van je framerate op de RX 6600 XT een mooie vooruitgang, maar de kaart is ook fors duurder, in de praktijk al helemaal.

De grootste uitdaging van AMD met de RX 6600 XT zal dan ook niet de magere raytracingprestaties of de beperkte hoeveelheid vram betreffen. AMD moet pc-gamers met oudere mainstreamkaarten ertoe overhalen om fors meer te betalen voor een upgrade naar een nieuwe kaart uit hetzelfde segment. De prijsstijgingen zijn niet nieuw en het hogere segment is net zo goed aan dit verschijnsel onderhevig, maar in het mainstreamsegment telt elke euro dubbel.

Reacties (180)

180
179
57
1
0
96
Wijzig sortering
En nog steeds is er géén aanbod in de sub-300 euro markt. Gewoon van beide partijen niets van een nieuwe generatie, teleurstellend.

Wel goed voor de backlog, die games draaien op een aardappel, en zijn net zo leuk als de nieuwste triple-A titels. Zodra grafische kaarten weer voor een normale prijs te koop zijn, kunnen we beginnen aan de grafische pareltjes.

-Edit: nog even gecontroleerd. Zowel de GTX260, 560Ti, 960, 1660Ti die ik heb gekocht waren volgens de Pricewatch allemaal verkrijgbaar voor rond de 225-280 euro. Alleen de 1660Ti was een uitschieter naar 340 euro (en dat vond ik toen al duur!).
En in 2021 brengen ze kaarten voor het x60 segment uit met vanafprijzen rond de 350 euro, en vervolgens betaal je 150% MSRP... Dikke doei voor deze generatie ;(

[Reactie gewijzigd door Jeroenneman op 23 juli 2024 15:36]

Eigenlijk behoort deze kaart gewoon in het sub-300 segment, probleem is dat álle kaarten overpriced zijn door tekorten op dit moment :( en AMD (en Nvidia) dus makkelijk wegkomen met deze prijzen.
Deze kaart hoort niet te bestaan. En pci-e 8x kaart kan gewoon echt niet meer... Ook is de geheugen bus veel te slecht voor deze kaart. Hadden ze minder cores/units op de kaart gepropt en een betere geheugen bus hadden ze minder silicon nodig voor een beter presterende kaart en had hij goedkoper geweest. Het is gewoon een slecht product.

Vind het wel vermakelijk dat amd nu ze weer op prestatie pairity zijn de prijzen te hoog houden voor wat het is in vooral het budget segment is het erg. Beide deze kaart en de 5600x en de apu's zijn gewoon te duur.

[Reactie gewijzigd door computerjunky op 23 juli 2024 15:36]

En pci-e 8x kaart kan gewoon echt niet meer...
Want? Het gaat uiteindelijk toch gewoon om hoeveel prestaties je voor je euro's krijgt? Wat boeit een technisch detail als dit?
Hadden ze minder cores/units op de kaart gepropt en een betere geheugen bus hadden ze minder silicon nodig voor een beter presterende kaart en had hij goedkoper geweest
DM de engineers van AMD even, daar hebben ze vast niet over nagedacht...
De prestaties worden in bepaalde games alleen BEHOORLIJK gebottlenecked door die 8x tot op het punt dat de kaart dermate traag scoort dat de prestatie onder het punt ligt die de kaart zou moeten halen. DOOM is daar een voorbeeld van.
Ik vraag me af hoe groot die bottleneck dan maximaal kan zijn, aangezien in deze review is gebenchmarked dat je met PCIe 3.0 x8 al 99% van de performance haalt als van PCIe 4.0 x8. Zet je het in een PCEe 4.0-systeem, dan is er van een bottleneck dus echt geen sprake. En op 3.0 is met een verschil van hooguit procenten ook niet echt te spreken van 'bottleneck'. Die bandbreedte is dan wel zo ongeveer in lijn met wat de GPU ongeveer kan presteren.

Tuurlijk, ik snap ook niet waarom x16 hierop niet aanwezig is, maar het lijkt weinig verschil te maken.
Het is erg applicatie afhankelijk.

https://youtu.be/_tDYu5sBtFs?t=1197

Duidelijk te zien dat dat VER ondermaats is. En dan kan je zeggen dat moet je maar PCE-E4.0 nemen maar deze kaart gaat voor bijna 100% op systemen geprikt worden die niet de laatste generaties hardware hebben en dus PCI-E 3.0 en dus is het gewoon een zeer domme fout van amd en waarom? En de kans is groot dat dit soort games meer en meer gaan komen nu de nieuwe generaties games uit gaan komen di geschreven zijn met de nieuwe consoles en hardware in het achterhoofd.
Ik verwacht dat de Radeon RX 6600 XT €500+ gaat kosten, aangezien de goedkoopste Radeon RX 6700 XT €713 kost, en weet bijna wel zeker dat hij niet in de €300+ gaat kosten.

Het is echt triest, we kunnen nu al ruim een maand de nieuwste grafische kaarten kopen, en zijn nu bijna overal op voorraad bij de winkels en anders bij de leveranciers van die winkels, maar de prijs gaat zo goed als niet omlaag, ik denk dat we nu gewend moeten raken blijkbaar aan absurde hoge prijzen voor grafische kaarten, ook de rede dat ik nog steeds geen nieuwe grafische kaart gekocht heb, ze zijn gewoon veel te duur.
Overal word gewoon misbruik van gemaakt. Olie prijs s 7% gezakt maar de benzine prijs gaat vrolijk door omhoog. Het heeft echt niets meer met vraag en aanbod te maken gezien de prijsverschillen met andere landen hoger en hoger worden.
Ik kan niet wachten tot ik weer naar Duitsland kan voor al mijn boodschappen want ik gun ze in Nederland niets meer.
Overal word gewoon misbruik van gemaakt. Olie prijs s 7% gezakt maar de benzine prijs gaat vrolijk door omhoog. Het heeft echt niets meer met vraag en aanbod te maken gezien de prijsverschillen met andere landen hoger en hoger worden.
Ik kan niet wachten tot ik weer naar Duitsland kan voor al mijn boodschappen want ik gun ze in Nederland niets meer.
Ja klopt, het was eerst omdat er te veel vraag was, ik ben benieuwd wat nu de excuus is waarom de prijzen (na een maand dat ze te koop al zijn en op voorraad) nog steeds zo hoog zijn, en ben bang dat Intel hun grafische kaarten ook duur woorden, als ze ooit uit komen, maar de enigste rede dat brandstof zo duur is, is vanwege de regering, 95% wat jij betaal aan de pomp gaat rechtstreeks naar de regering.
Belastingen op brandstof is vast procentueel dus nee dat ligt niet bij de regering. De tarieven zijn namelijk niet gewijzigd het zijn de pomphouders die meer windt pakken en daar komt oom belastingen boven op ja maar de oorzaak van de prijzen ligt bij de pomphouders. Als de niet zouden graaien zouden we ook die extra belastingen niet hoeven betalen.
Ok ik was te hoog met procenten.
Meer dan de helft van wat je betaalt voor benzine, gaat naar het Rijk in de vorm van accijns en Belasting op de Toegevoegde Waarde (BTW). Het grootste deel van die BTW wordt geheven over de accijns, die meer dan de helft van de brandstofprijs uitmaakt. Belasting op belasting dus. Via deze belastingen betaal je voor het gebruik van een auto: als je niet rijdt, koop je ook geen brandstof. Overigens zijn diesel en LPG qua accijns ook in verhouding goedkoper.
https://www.anwb.nl/auto/autobelastingen/brandstofprijzen

Maar het meeste voor wat jij bepaald aan de benzinepomp gaat dus naar de regering en niet naar de pomp eigenaar.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 15:36]

Dat het meeste naar het rijk gaat doet er niet toe de oorzaak van onze ten opzichte van de olieprijs en prijs van de buurlanden ligt volledig bij de pomphouders.

Stel ik betaal aan de pomp 1,537 euro per liter benzine dan is accijnzen en btw zijn dan pakt de pomphouder dus 45 cent en gaat er 1,087 naar de staat.

Stel de pomphouder verhoogd de prijs naar 72 cent per liter dan is dat na accijnzen en btw euro. Ja er gaat dan betaal je ineens 1,864 euro per liter waarvan 1,144 euro accijns en btw.

Oftewel de BTW gaat maar met 5.76 cent omhoog terwijl de pomphouder 28 cent meer pakt. dat kan je ook nog procentueel uitrekenen maar ik denk dat je de oorzaak zo wel snaps. belastingen zijn zelfd bij een goedje waar we te veel belasting op betalen voornamelijk productprijs gerelateerd omdat een groot deel van de belasting vast is en niet mee schaalt.

Het is altijd benzineprijs gevraagd door de pomp houder + accijns + btw over de 2 samen. Zo komt de prijs tot stand en dus als de pomp de prijs verhoogd krijgt de overheid vooral meer door de btw maar dat is een feit bij alles. zo ook eten in de supermarkt of een concert kaartje of wat dan ook. De echte prijsverhoging komt door de verkoper van het product. We gaan immers niet ineens 30 cent meer accijns betalen.
Vergeet ook niet dat de wegenbelasting van Duitsland bij de brandstof zit (zo was het altijd), en toch was de brandstof goedkoper bij de pomp, dus ja nog steeds is de grootse rede voor de prijs van brandstof de schuld van de regering, aangezien we daar het meeste aan betalen.
De benzine die van olie gemaakt is waar wel de volle mep aan olieprijs voor betaald is moet natuurlijk ook eerst op.

Verder is er ook een vraag/aanbod markt voor benzine.

Met een globale economie speelt verder de raffinage capaciteit enorm in op het aanbod gedeelte. ( en dus de uiteindelijke prijs ). Raffinage capaciteit is krap, globaal gezien.

Verder transport etc.
Doom is de uitschieter in het verschil, met nog steeds een average framerate van 180fps. Dat zijn de soort situaties waarbij je eerder nog meer eyecandy aanzet en de FPS aan je reet kunen roesten.
De rest zit ergens tussen 0-5% : https://youtu.be/_tDYu5sBtFs?t=1250

En dit is getest op een Ryzen 5950X. Goeie kans dat de markt voor een 6600XT een tragere CPU heeft, zéker als ze een systeem met PCI-E 3 hebben. De CPU wordt dan sowieso meer een bottleneck en het verschil verdwijnt grotendeels.

Dit is een geval waarbij een reviewer met de beste setup inderdaad zo'n verschil kan opmerken in één specifieke game, maar het voor de doelgroep totaal irrelevant is.
Nog wel ja maar waar er 1 is kunnen er meer komen en dan zit je met een kaart opgescheept die niet in staat is bepaalde games fatsoenlijk te spelen.
De markt staat niet stil en nu we 2 consoles hebben met hoge bandbreedte en 10+ GB geheugen kan dit in de nabije toekomst toch wel problemen gaan opleveren.

En een pc met PCI-E 3.0 hebben betekend niet dat je een cpu bottleneck heb. Het kan ook juist het probleem vergrote maar dat zou getest moeten worden door iemand die de hardware heeft. Misschien is met een ryzen 3600x bijvoorbeeld het probleem nog veel extremer. Dat weten we niet tot het getest is.

Toekomst van deze aart is dus verre van duidelijk en ik beveel hem daarom af.
Het is een midrange kaart met voldoende VRAM voor zijn core. Ik begrijp echt niet waar je over zanikt, eerlijk gezegd. Zet deze naast een RTX2060 of een RTX3060ti en de balans is dikke prima of zelfs beter te noemen (6GB vs 8GB is veel meer impact, denk aan textures etc.), de prestatieverliezen vanwege pcie x8 zijn nagenoeg te verwaarlozen en waar ze er wel zijn is je FPS al meer dan hoog genoeg, zéker voor dit prijssegment.

De toekomst van deze kaart is heel duidelijk. 1080-1440p gaming en daar voldoet ie prima voor.

Is het een geweldig product, deze 6600xt? Nee, maar normaliter had deze ook voor rond de 230-260 euro in de markt gestaan, ook AMD wil een graantje van de schaarste meepikken. En voor een normaal MSRP zijn dit soort 'keuzes' ook heel gebruikelijk. Er is geen x60 die dat niet heeft gedaan... De 2060 die voor gelijke core perf als een 1080 toch 2GB VRAM moet missen bijvoorbeeld. Of een asymmetrische VRAM bus zoals op vele x60s van Nvidia de norm is. En die raken je performance ook, zo niet harder. Been there done that...

Je transplanteert nu de 10GB - RTX 3080 discussie naar het prestatieniveau van een 6600XT. Heb je ze nog op een rij verder? De 6600XT is geen kaart die over 5 jaar nog alle courante games lekker gaat draaien. Dan lever je inderdaad in omdat de core gewoon niet snel genoeg is. Dus daarom: het gaat om de balans.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:36]

dat jij het niet begrijpt is een jij probleem.

Het probleem is simpelweg dat er games zijn die gewoon NIET GOED gaan presteren op deze kaart en dus ver onder het prijspunt gaan zitten qua prestatie waardoor een oudere RX5700 beter presteert.

Als je dus deze kaart koopt en deze games speelt heb je dus een kaart met belabberde prestaties.

Misschien moet je je gewoon wat beter inlezen over het gevonden probleem ipv venten op het internet omdat je het denkt beter te weten.

De rest van je post lult dan ook gewoon om het probleem heen en blijkbaar weet je daar dus niets van af.

En nee je snapt duidelijk mijn hele punt niet qua geheugen. Die geheugen bus gaat gelimiteerd worden door de PCI-E bus en dat gaat problemen opleveren. Die kaart draait gewoon niet optimaal op PCI-E 3.0 8x en dat is toch het systeem waar deze kaart vaak op zal belanden. AMD heeft duidelijk gedacht dat iedereen al PCI-E 4.0 heeft of maar even een nieuwe pc koopt en dat is juist inhet segment waar deze kaart in gedropt word gewoon niet waar. heck ik heb een 6900 XT en ik heb nog PCI-E 3.0

Het gaat om balans zeg je maar ondertussen is de PCI bus te traag voor de kaart mooie balans. Van mij mag jij de kaart lekker kopen hoor maar ik raad het iedereen af.

[Reactie gewijzigd door computerjunky op 23 juli 2024 15:36]

Je hebt ondertussen met al je praatjes alleen nog DOOM kunnen vinden als voorbeeld, verder doe je een boel aannames over kennis van zaken maar ondertussen... 1 voorbeeld. Dat voorbeeld draait echter al op zo'n hoge FPS dat het er totaal niet toe doet.

Verder is het historisch allang bekend wat PCIE bottlenecking kan doen, en dat is... nagenoeg niets. 5% is een uitschieter. En dat is niet uniek voor deze 6600XT.

Maar omdat het jou zo om kennis van zaken gaat, zal ik je een mooie bron aanbieden.
https://www.techpowerup.c...i-express-scaling/26.html
Ik hoef denk ik niet toe te voegen dat een 3080 een tandje sneller is dan de 6600XT waar het hier over gaat.

En nu terug je hok in, jij. Je verkoopt onzin en dat verdient een correctie. Ik snap je punt prima; je hebt er geen.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:36]

Doom is als enige getest dat betekend niet dat er niet meer games zijn. Denk je echt dat reviewers de duizenden games die uit zijn gaan testen? het feit dat er maar 1 case gevonden is uit 10 games betekend niet dat het ook maar 1 game op de duizenden is al lijken jou hersenen zich wel zo te beperken.
Ik heb zelf deze kaart gelukig niet maar ik heb wel een aantal games waarbi ik verwacht dat ze hetzelfde probleem laten zien. Rage 2 bijvoorbeeld en games die beide vulkan en unreal engine 4+ gebruiken. maarja zover had jij ng niet eens nagedacht over de mogelijke oorzaken van dit probleem gezien jou manier van schijven.

En wat een houding heb jij zeg mijn god wat een persoontje moet jij in het echte leven zijn. Dat kleinerende bullshit kleuter gedrag heb je mij niet meer hoor maar je laat goed zien wat een persoon jij ben. valt niet mee re argumenteren en gaat uit zijn weg om anderen te kleineren of dat in ieder geval te proberen. Zielig niets meer niets minder.

Maar verkoop/adviseer jij lekker slechte kaarten aan mensen ik adviseer ze liever compleet en vertel ze over de mogelijke risico's. Gelukkig ben ik en anderen om mij heen niet afhankelijk van jou kennis van zaken want dan word het treurig. Zelfs de grote reviewers zijn het niet met je eens maarja wie zijn zij (behave mensen die het product daadwerkelijk getest hebben) als we jouw superieure mening hebben.

Bij deze einde ''discussie''. |:(
Al eens op de link geklikt of ga je nog steeds obv je eigen aannames door op de oude weg? Je 'verwacht' het ook elders. Dat is lekker betrouwbaar ;)

Daar worden al die engines namelijjk wel getest. Je moet niet zo zielig doen. Ik corrigeer je met een bron. Thats it. Maak het niet groter dan het is.

Ondertussen over tone of voice had ik een 'jij' probleem maar ondertussen weten we wel beter, gelukkig, wie er echt een heeft... Iets met de bal kaatsen ;)

[Reactie gewijzigd door Vayra op 23 juli 2024 15:36]

De 5950X is zowat de snelste consumenten-CPU die er is. Op nagenoeg elk andere CPU zullen games trager lopen. Misschien 0,5%, misschien 5%, misschien 20%. Afhankelijk van de andere CPU.

Het ding kost het dubbele van deze GPU. Als je eigenlijk op zoek bent naar een upgrade voor je huidige GPU in de categorie 200-400 euro, is de van je computer hoogstwaarschijnlijk ook een stuk ouder dan zo'n 5950X.

En nee, ik kan me écht geen scenario inbeelden waarbij een 3600X sneller is dan een 5950X. Écht niet. Dat is een van de pot gerukte, op niets gebaseerde veronderstelling.

De realiteit is dat dit een weliswaar meetbaar (op de meest bloedsnelle CPU), maar hoogstwaarschijnlijk irrelevant gegeven is voor de markt. De overlap van top-of-the-line CPU en budget GPU komt zelden voor. Net als dat je waarschijnlijk geen 8600k met RTX 3090 combineert.
In de meeste spellen zit je maar op 10fps verschil tussen een Ryzen 9 5950X en een Ryzen 5 5600X, soms heb je uitschieter maar niet met de meeste spellen, maar dat woord met 1440p al een stuk lager of zelf verwaarloosbaar, en met 4k al helemaal.

1080p/1440p
1440p/4k

En als je wat streamed en op YouTube zit en internet en je gamed er een hoop op, is het echt zonde voor je geld om voor een AMD Ryzen 9 5950X te gaan, de AMD Ryzen 9 5950X is bijna 3x zo duur.

AMD Ryzen 5 5600X €275
AMD Ryzen 9 5950X €797

Het is wat anders als je er mee gaat video renderen en en CAT en meer van dat soort dingen, maar als je het meeste doet wat ik boven geschreven heb is het zonde voor je geld om een AMD Ryzen 9 5950X te kopen.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 15:36]

Ik had het over oude systemen die zelfs geen PCI-E 4 doen. Een 5xxx Ryzen heeft weer een behoorlijke single-thread voordeel over de 2xxx of 3xxx reeks. Maar waarom zou je die nieuw kopen met een niet-PCI-E 4 moederbord?

De benchmarks die computerjunky aanhaalt worden allemaal op 1080p gedraaid, net waar het meer uitmaakt. De 6600XT wordt ook niet bepaald voor 4K ingezet. Ik weet ook best dat het op hogere resoluties minder meespeelt.

Je verdere argumenten zetten m'n punt alleen maar meer kracht bij: de benchmarks die computerjunky gebruikt om zijn verhaal aan te sterken hebben niks te maken met de doelgroep voor deze kaart en zijn argumenten.

Of je hebt een nieuwere CPU die PCI-E 4 heeft en het is geen probleem, of je hebt een ouder systeem met PCI-E 3 waarbij de CPU toch ook al geen krachtpatser meer is en de framerates waarbij het verschil zichtbaar zou kunnen worden niet eens op kan brengen.

De combinatie nieuwe supersnelle CPU én PCI-E 3 én deze kaart én een game die het verschil zou kunnen tonen is gewoon een randgeval dat er niet toe doet.

[Reactie gewijzigd door Arrigi op 23 juli 2024 15:36]

Aha ok, ja een Radeon RX 6600 XT met een AMD Ryzen 9 5950X koppelen is de grootse onzin die er is, dan ga een goedkopere Grafische kaart (dat hoort het te wezen) koppelen met een dure CPU, maar ach ik wil een goedkope CPU (AMD Ryzen 5 5600X) koppelen met een dure Radeon RX 6800 (XT), als de prijzen eindelijk wat lagen woorden, en meer richting de MSR zijn, omdat ik geen grafische werk doe en zo vind ik de AMD Ryzen 5 5600X meer dan snel genoeg.
Je doet net alsof er geen oplossing voor is...nml. gewoon de kaart in een PCIe 4.0 slot prikken, als je die extra performance in dat handjevol spellen toch nodig hebt.

Enne, 182fps gemiddeld. O o oww, wat verschikkelijk! lol

[Reactie gewijzigd door Madrox op 23 juli 2024 15:36]

Je mist net als die andere totaal het punt. mensen die een ''goedkope'' kaart kopen kopen juist geen nieuwe pc... Even in een PCI-E 4.0 slot stoppen kost wel even minimaal 400 euro meer. Als ze 400 meer uit hadden willen geven hadden ze beter een 6800 kunnen kopen. die heeft geen pci belemmering en dan hebben ze meer waar voor hun geld zelfs op PCI-E 3.0

Je suggestie slaat dus werkelijk nergens op.

En deze game heeft 182 fps ja maar dat is NU en bij DEZE game het sluit NIET uit dat er andere games zijn waar je MINDER fps haald en dus die dip krijgt. Jullie blijven je blind staren op 1 ding en zoeken werkelijk naar manieren om dit goed te praten terwijl het compleet scheef is.
Jij staart je blind op een bus width die voor dit prestatieniveau prima past bij het product ;) Jij bent degene die een enkele uitschieter de norm laat zijn voor wat de kaart in allerlei in jouw hoofd bestaande edge cases gaat doen.

Daarom is men het niet met je eens. Tests wijzen zelfs uit dat je ook met high end kaarten nog rustig met een oudere PCIE versie en x8 prima wegkomt, nu, gisteren, morgen en ook tien jaar geleden,.. En als je dan toch de PC gaat upgraden pak je je laatste 2-3% misschien nog mee. Het is niet zo ingewikkeld.
Deze game heeft dus een ver van ernstige bottleneck, daar zijn we het iig over eens. Dat er andere spellen komen die dit verschijnsel ook laten zien, is niet uit te sluiten maar ook niet dat dat een echte bottleneck gaat worden. Het druipt bij je af van aannames en bangmakerij, die eerlijk gezegd, tot nu toe, ongegrond lijken te zijn.

Nee, jij staart je blind op één game-engine, van één spel. Zo kan ik je ook wel helpen en zeggen dat het zéér wel mogelijk is dat deze engine zich nog verbetert met pcie-3. Ook dat kan je niet weerleggen maar schijnbaar niet aan gedacht.

Hoe veel breder wil je het hebben? Alle andere spellen laten zulke grote verschillen, ALLE andere spellen, honderdtallen waarschijnlijk. Breed genoeg?

[Reactie gewijzigd door Madrox op 23 juli 2024 15:36]

PCI-E 8x op een 4th Gen is even snel als een 16x op 3rd Gen PCI-E.
Das nog altijd verre van een bottleneck voor full-HD.
De meeste mensen die deze gpu kopen zullen alleen geen pcie 4.0 hebben en dus is er een bottleneck. En dan hebben we het nog niet eens over de problemen die 4.0 op veel systemen met zich mee brengt.
Ah bullshit, ik kan recente high-end kaarten draaien op veel oudere mobo's met maar PCI-e 2.0 en dan nog werkt het prima zonder merkbaar verschil. Dat er synthetische benschmarks zijn die het verschil aantonen is logisch maar in de praktijk boeit het weinig. Je staart je echt blind op die PCI specs, is niet relevant. (Dit staat overigens los van het feit dat deze kaart niet boeiend is en ik het absoluut zou afraden om deze te kopen voor de huidige prijzen.)

[Reactie gewijzigd door BruT@LysT op 23 juli 2024 15:36]

dan heb je dus duidelijk mijn eerdere post niet gelezen waarin een reviewer BEWIJST dat je verhaal dus niet waar is.
Lagere pci bus bandbreedte kan je prestaties op zeep helpen.

Iedereen die zegt van niet is blind voor feiten.

maar zal het nog een keer voor je linken:

https://youtu.be/_tDYu5sBtFs?t=1197
Kijk dan ook even verder naar https://youtu.be/_tDYu5sBtFs?t=1249
In 11 van de 12 games is het verschil tussen PCIe 3.0 en PCIe 4.0 5% of minder, en dus eerder verwaarloosbaar. Enkel in Doom Eternal is het verschil een gigantische 25%.

Het verbaast me trouwens waarom geen enkel moederbord de optie biedt om PCIe 4.0 lanes uit te splitsen naar meer PCIe 3.0 of zelfs 2.0 lanes. Ik heb een netwerkkaart en storage controller met PCIe x4 en x8 aansluiting, maar moet het doen met PCIe x1 slots, weliswaar met PCIe 4.0 dat die kaarten dan terugschakelen naar 2.0 :(
Het verbaast me trouwens waarom geen enkel moederbord de optie biedt om PCIe 4.0 lanes uit te splitsen naar meer PCIe 3.0 of zelfs 2.0 lanes. Ik heb een netwerkkaart en storage controller met PCIe x4 en x8 aansluiting, maar moet het doen met PCIe x1 slots, weliswaar met PCIe 4.0 dat die kaarten dan terugschakelen naar 2.0 :(
Ik durf zo niet te zeggen of dit überhaupt mogelijk is bij consumenten mobo's, maar zou dit mogelijk zijn dan zal het waarschijnlijk vrij duur zijn, omdat je dan aparte chips moet hebben die de lanes uit elkaar kunnen trekken qua bandbreedte. Daarnaast zal dit iets zijn waar weinig vraag naar zal zijn vanuit de consument. Ook dit maakt het duurder. Stel dat dit dan mogelijk gaat zijn, zal je dit alleen gaan zien op zeer dure moederborden en dan ben je mogelijk goedkoper uit door gewoon de onboard nic en storage controller te gebruiken of om een nieuwe PCIE 4.0 storage controller te kopen.
Tja wat mij betreft mag 5.0 er snel komen nog voordat ik mijn pc moet upgraden naar een 4.0 bord. Dan heb je veel minder lanes nodig en kom je met 20 lanes ineens heel ver.

en dat 11 van de 12 games het prima doen doet er niet toe. Als er in de toekomst nog meer games komen met dit probleem dan heb je dus een kaart die onder zijn kunnen presteert door een vreemde keuze van amd die naar van wat ik kan zien niet eens geld bespaard.
Ja want slechte 182 fps is een groot probleem 8)7
Waarom is de 5600x en 5600G te duur? ze staan aan dezelfde prijs als de 11600, is die dan ook te duur?
Als je kijkt naar de performance is de 5600G iets minder sterk kwa cpu dan de 11600 maar is kwa GPU buiten categorie, de 5600X is dan in meeste gevallen weer sneller dan de 11600 in cpu.

En dit alles met 10-20eur verschil dus peanuts en niet de moeite om op prijs te bekijken want neem al een ander moederbord of een verplichte high end koeler voor de intel om het maximum piek performance op te nemen en je zit al op exact dezelfde prijs..

(dit volgens de stats van tweakers review....)
De 11600 is te duur ja je kan net zo goed de 10600 kopen. De 5600x is ook gewoon te duur voor de prestaties die je krijgt net als de 5800x waar je beter een 10700k kan kopen qua prijs zeker nu upgradability een non issue is met een nieuwe socket en ddr5 op komst.

De 5600g is aanzienlijk trager (10-15%) voor mensen die later een dedicated gpu willen kopen wat ik dus niet aan kan raden. En diegenen die dat niet willen hebben de igpu waarschijnlijk helemaal niet nodig op de manier dat een gamer dat heeft of maakt de extra gpu snelheid ten opzichten van een 10400 niets uit voor hun usecase.

AMD is gewoon in de budget segmenten niet interessant in beide cpu en gpu land met de laatste generaties.
Nu ben je wederom alles naar pro intel aan het draaien zoals steeds in uw geval.
Dan kan je evengoed vergelijken met een veel goedkopere 3600 of zelfs massa 2dehands versies.

Met de 500 series amd moederborden zijn er meer features en keuzes op alle prijzen, dit is niet bij Intel.
Je geeft EOL platformen alsof AMD en Intel gelijk zijn, effe realiteit check, er is niks high end Intel....enkel AMD en als je nu een 6-8 core 3600-3700 koopt of een 5600 kan je nog wel even een kuch upgrade doen naar een 16core... dat is zeker een optie ook bij Intel?

Er is trouwens bevestigd dat er nog een update op komst is voor de 5000 series met vcache en ghz boost, dat is er zeker niet bij Intel op dit platform, dus het is zeker geen EOL, enkel dit Intel platform is zo dood als een pier, was al dood VOOR de release....

De alder lake is nog afwachten, maar als je graag fake news en theoretische benchmark schaling volgt doe gerust.... Hier moet je dan ook volledig alles opnieuw kopen. Dus die beslissing neem je pas tegen dit jaar, want als je denkt dat er veel alder lake op de markt zal zijn (paper launch) en dan nog eens alles van mobo en DDR5 tegen een betaalbare prijs... rarara it ain't going to happen. En als AMD zo onder de indruk was van de alder lake dan hadden ze hun 5000 upgrade wel van de planning gehaald en hun AM5 wel eerder gepushed want ook die staat al klaar en er is al productie op de 5nm.
https://www.gizmochina.co...pple-tsmc-5nm-chips-2021/

En als laatste nog effe een reality check voor de die hard intel fans, waaronder tweakers review site... kijk even naar top sales van de laatste maanden:
https://imgur.com/a/QM1KgFK

of naar de sales deze maand:
https://twitter.com/TechE...24520534986043394/photo/1
https://www.amazon.com/Be...Processors/zgbs/pc/229189

AMD: 4550, 87.5%, ASP: 320.33 (Euro)
Intel: 650, 12.5%, ASP: 229.89
AMD Revenue (Euro): 1'457'482, 90.7%
Intel Revenue: 149'427, 9.3%

niemand koopt intel cpu in BYO, als je hier dan komt prediken dat het de beste keuze omdat ze gelijke performance hebben in benchmarks met een tientje verschil of omdat beide EOL platformen zijn en de AMD te duur 8)7
Nu ben je wederom alles naar pro intel aan het draaien zoals steeds in uw geval.
En bij deze zijn we uitgepraat. Ik word doodmoe van dit boxjesplaatsen. Zoek maar iemand anders om daarmee lastig te vallen ik zeg toch ook niet dat jij alles pro amd praat. Je beschuldigd mij van bevooroordeeld zijn terwijl je zelf extremistischer hetzelfde doet. De groeten.

[Reactie gewijzigd door computerjunky op 23 juli 2024 15:36]

Ben nog lang niet uitgepraat. Snap niet goed waarom jij een videokaart "specialist" ben met al je opvattingen en aannames.
Blijkbaar snap je de videokaarten Tag net zo min als het probleem met deze videokaart. Geeft niet maar zeg dan gewoon niets.
Nog even voor de bevestiging, TPU heeft nu ook de 6600XT getest.

https://www.techpowerup.c...i-express-scaling/13.html

PCI 3.0 x8 is een compleet non-issue - sterker nog, zelfs met 2.0 kom je nog goed weg.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:36]

Tja toch apart dat ze totaal andere waardes halen. De 1080p fps is 10% lager enbdus totaal niet vergelijkbaar. Afwijkingen die zo groot zijn kan je niets mee en verdienen een hercontrole op een ander systeem. Ergens gaat er iets niet goed. Enige duidelijk verschil is 5800x vs 5950x en 4000 cl19 vs 3200 cl14.

Misschien is het dus de latency van 9.5 ipv 8.75 die de fps crippled maar de hogere bandbreedte van de 4000 cl19 set die de pci bus compenseert.
Maar zonder meer data en testen is dat lastig te zeggen.

https://m.youtube.com/watch?v=G6ncPetd6nk

Duidelijk nowhere near 200 fps.
Maar als je dan deze weer bekijkt dan is de fps weer torenhoog. En het verschil enorm:
https://m.youtube.com/watch?v=5sQoTbI_aFQ

In dit soort situatie zou ik maar wat graag 4 of 5 test systemen hebben en verschillende modellen van de kaart om dit dieper te testen. Beide de fps en de prestatie verschillen zijn groot tussen reviews.

[Reactie gewijzigd door computerjunky op 23 juli 2024 15:36]

Niet apart, dit is perfect in lijn met alle PCIE testjes ooit.

En niet nieuw. Maar op Youtube is men erg goed in spijkers zoeken op laag water want dat levert lekker veel clicks op.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:36]

Niet helemaal eens. Voor mij persoonlijk kan deze kaart bijvoorbeeld een interessante upgrade zijn zonder gelijk mijn mobo/cpu(4770k)/memory combo te moeten upgraden.

Tot op heden was de beste kaart icm voor mijn rig een GTX 1070, wellicht kan ik met deze kaart verdere upgrades nog iets langer uitstellen ;)

PS met deze kaart zou ik tevens waarschijnlijk weer MacOS kunnen draaien :9

[Reactie gewijzigd door DutchieSmokah op 23 juli 2024 15:36]

Als ze maar genoeg van deze kaarten leveren, komt er hopelijk wel wat meer beweging in de tweede hands markt.

Totdat de tekorten opgelost zijn is het gewoon niet zinvol om nieuwe kaarten te ontwerpen voor die prijsklasse.
Als ze maar genoeg van deze kaarten leveren, komt er hopelijk wel wat meer beweging in de tweede hands markt.
Die beweging komt er als het aan mij (en aan de prijs) ligt:

https://gpu.userbenchmark...AMD-RX-6600-XT/3634vs4117

De 6600 xt (8GB) is 2x sneller dan mijn RX 480 (4GB) en verbruikt marginaal meer stroom: +10W :)
Tja en die 480 8gb gaan op eBay nog steeds voor 275 euro 😎😅
Helemaal met je eens. Ik had mijn 1660 super voor ca. 240 euro gekocht en dat vind ik een prima maximale prijs voor een mainstreamvideokaartje. Ik hou hem daarom ook zo lang mogelijk tot ik een waardige opvolger voor ongeveer dezelfde prijs kan kopen. Waarschijnlijk moet ik dan wel lang wachten, maar dat is dan jammer.
De 2060 was ook al zo. Begin 2019 schreef Tweakers: Nog steeds geen budget-Turing. Het was al duidelijk dat NVIDIA graag de "RTX" feature voor dikke premium verkocht.

De 1600 serie vond ik persoonlijk niet zo'n sterke serie. Ik had eind 2015 een GTX970 gekocht voor ~350 euro incl. gratis leuke game + Asus muis. 3.5 jaar later komt de 1600 serie uit, en in perspectief met een GTX970 was dat de naam "upgrade" niet waard. De laatste sub-300 euro x60 kaart was de 1060 6GB. En dat is inmiddels ook al ruim 5 jaar geleden. Ik ben het met je eens dat het teleurstellend is..

Ik denk dat het ook een beetje komt omdat relatief nog maar weinig mensen zijn die een dedicated GPU vereisen. De integrated graphics zijn voor velen toereikend. Low-end GPUs maken kan bijan niet uit. Kaarten zoals de 1030 wordt lacherig over gedaan en krijgen bijzonder weinig aandacht.. Tevens, er zijn maar weinig mensen die een dedicated GPU in hun HTPC of kantoor PC stoppen voor betere media playback. Want een 1030 voegt weinig tot (haast) niets toe op een iGPU.

Dus focussen beide bedrijven op de kerndoelgroep gamers die als alternatief evenveel geld zouden spenderen aan een console (zeg 300 - 500 euro -- die prijzen kruipen ook omhoog!). De stelling dat je een PC hebt voor studie/administratie/werk, en een GPU daarop toevoegt voor gaming, rechtvaardigt dat waarschijnlijk voor velen...

Ik kijk nog graag terug op de tijd van een degelijke mid-high range GPU van 200 euro. Maar dan ga ik al 10 jaar terug.. :'(

[Reactie gewijzigd door Hans1990 op 23 juli 2024 15:36]

Chips zijn nou eenmaal complexer geworden de laatste 10 jaar. Het algemene oppervlak alleen al terwijl de wafers zelf nauwelijks goedkoper zijn geworden. Daardoor is qua resources zelf de GPU al prijziger. Stroomverbruik is omhoog gegaan ondanks het procede wat wel flink kleiner is geworden. Hierdoor zijn er ook betere VRM's etc nodig wat ook prijziger is. Zp zijn er nog meer verschillen wat het gewoon duurder maakt.
Gebruik hier eigenlijk nu een 3400G (Vega 11) en heb 3000-DDR4 op een stabiele 3200 OC draaien. Ik ben in de toekomst van plan om 3600-DDR4 stickjes te kopen zoals deze: pricewatch: G.Skill Ripjaws V F4-3600C14D-32GVK - x570 chipset, kan nog een kleine OC proberen natuurlijk. Maximale bandbreedte kan tot ~20% meer FPS opleveren, als ik de zoekresultaten op Google mag geloven. Voor mijn gebruik is dat voorlopig echt genoeg en kan zo prima wachten tot de tweedehandsmarkt voor GPU's stabiliseert. Echter kan je voor de prijs van die dingen ook een 1070ti of 1080 kopen inmiddels.

[Reactie gewijzigd door SkyStreaker op 23 juli 2024 15:36]

Beetje goed zoeken Hans. Ik heb van een Tweaker in 2019 (?) een GTX1660 voor €150 weten over te kopen. Dan is best een flinke upgrade over de GTX970 en 3,5GB vs 6GB memory voor een appel en een ei. Je moet natuurlijk wel vaak V&A in de gaten houden en helaas is dit sinds oktober vorig jaar niet meer realistisch..
En nog steeds is er géén aanbod in de sub-300 euro markt. Gewoon van beide partijen niets van een nieuwe generatie, teleurstellend.

Wel goed voor de backlog, die games draaien op een aardappel, en zijn net zo leuk als de nieuwste triple-A titels. Zodra grafische kaarten weer voor een normale prijs te koop zijn, kunnen we beginnen aan de grafische pareltjes.

-Edit: nog even gecontroleerd. Zowel de GTX260, 560Ti, 960, 1660Ti die ik heb gekocht waren volgens de Pricewatch allemaal verkrijgbaar voor rond de 225-280 euro. Alleen de 1660Ti was een uitschieter naar 340 euro (en dat vond ik toen al duur!).
En in 2021 brengen ze kaarten voor het x60 segment uit met vanafprijzen rond de 350 euro, en vervolgens betaal je 150% MSRP... Dikke doei voor deze generatie ;(
Een 6600XT is een opvolger van 5600XT, en haalt met RDR2 in 1080p 22fps meer. Wat gelijk is aan een RTX2070 Super. als ik het goed heb kwam de 5600XT voor $ 279.- begin 2020, en de 6600XT is $100.- duurder
Ik snap niet zo goed wat je hiermee wil verduidelijken?
Ik snap niet zo goed wat je hiermee wil verduidelijken?
Dat de GPU qua prestaties niet duur is. Met prestaties boven de RX5700XT.(1080-1440p)
[...]

Dat de GPU qua prestaties niet duur is. Met prestaties boven de RX5700XT.(1080-1440p)
Die 5700 is dan ook al ruim 2 jaar op de markt en was bij momenten verkrijgbaar voor onder de 300€ en je kreeg 3 gratis games erbovenop ! We spreken hier nog steeds over een MSRP prijs die opgegeven word van 389€ die uiteindelijk zal het dubbele worden en lang wachten. De Sapphire 580 RX kon je bv kopen voor 175€ ook met de 3 gratis games. De prijzen van videokaarten zijn gewoon absurd hoog mede dankzij mensen die redeneren zoals jij dat het nog meevalt. Nee het valt echt niet mee en is zwaar kut voor jongeren die hun vrije tijd willen vullen met een potje FPS games waar je een redelijk deftige kaart voor nodig hebt. Geen enkele werkgever bied me een loon aan van 1600€ MSRP en stort er 3200€ op mijn rekening :)
[...]

Die 5700 is dan ook al ruim 2 jaar op de markt en was bij momenten verkrijgbaar voor onder de 300€ en je kreeg 3 gratis games erbovenop ! We spreken hier nog steeds over een MSRP prijs die opgegeven word van 389€ die uiteindelijk zal het dubbele worden en lang wachten. De Sapphire 580 RX kon je bv kopen voor 175€ ook met de 3 gratis games. De prijzen van videokaarten zijn gewoon absurd hoog mede dankzij mensen die redeneren zoals jij dat het nog meevalt. Nee het valt echt niet mee en is zwaar kut voor jongeren die hun vrije tijd willen vullen met een potje FPS games waar je een redelijk deftige kaart voor nodig hebt. Geen enkele werkgever bied me een loon aan van 1600€ MSRP en stort er 3200€ op mijn rekening :)
We praten over de prijs bij op de markt verschijnen, niet wat ie ergens afgelopen periode heeft gekost.
Ook niet welke acties er toen aanhingen, Gewoon E459,- ten tijde van op de markt komen.
Moderne spelen vragen meer van de videokaart. ga maar eens met je RX580 RDR2 spelen, op 1080p haal je nog geen 40fps, net zoveel als de 6600XT op 4K haalt :)
MRSP van de RX580 was $250.- en dat is ook niet dubbel geworden,je fantasie is wel rijk zeg :P
Ah, weer iemand die niet snapt dat elke generatie altijd al sneller is geweest dan de generatie daarvoor.

Als we jouw methodiek aanhouden, dan kost een GPU over een paar jaar minimaal 1500 euro, want dan zal het basismodel net zo goed zijn als de RTX3090, en dus ook net zoveel mogen kosten.
Ah, weer iemand die niet snapt dat elke generatie altijd al sneller is geweest dan de generatie daarvoor.

Als we jouw methodiek aanhouden, dan kost een GPU over een paar jaar minimaal 1500 euro, want dan zal het basismodel net zo goed zijn als de RTX3090, en dus ook net zoveel mogen kosten.
Wat je niet wilt begrijpen, is dat je nu een RX6600XT kunt kopen, ipv 5700XT. Wat kostte een 5700XT ?
En dat een 6600XT de opvolger is van 5600 XT. Verder wordt alles duurder. Je kunt wel nagaan, dat je niet jaren achtereen voor €250,-
een nieuwe GPU kunt blijven kopen, die alsmaar beter presteert, en de prijs gewoon gelijk blijft.
De 6600XT komt voor hetzelfde bedrag op de markt als een RX5700 in july 2019.
En dat ligt aan wat? De inflatie?

Leuke middenklasser voor tussen de 2 en 300 zou ik verwachten. Hoezo moet dat omhoog schuiven dan? Zou verwachten dat ik steeds meer prestaties koop voor gelijk geld. Okay de software wordt dan ook wat zwaarder, nou en. Maar nu moet ik puur naar fps gaan kijken om te zien wat ik zou moeten betalen of wat een goede prijs is?
Wat je niet wilt begrijpen, is dat je nu een RX6600XT kunt kopen, ipv 5700XT. Wat kostte een 5700XT ?
En dat een 6600XT de opvolger is van 5600 XT. Verder wordt alles duurder. Je kunt wel nagaan, dat je niet jaren achtereen voor €250,-
een nieuwe GPU kunt blijven kopen, die alsmaar beter presteert, en de prijs gewoon gelijk blijft.

De 6600XT komt voor hetzelfde bedrag op de markt als een RX5700 in july 2019.


Toch bijzonder, aangezien dat precies is wat je jarenlang kon doen sinds de GTX260. Maar ik zal wel gedroomd hebben dat de GTX560, GTX960, GTX1060 en GTX1660 allemaal beter dan de vorige generatie presteerden, en toch dezelfde prijs hadden.
Wat je niet wilt begrijpen, is dat je nu een RX6600XT kunt kopen, ipv 5700XT. Wat kostte een 5700XT ?
En dat een 6600XT de opvolger is van 5600 XT. Verder wordt alles duurder. Je kunt wel nagaan, dat je niet jaren achtereen voor €250,-
een nieuwe GPU kunt blijven kopen, die alsmaar beter presteert, en de prijs gewoon gelijk blijft.

De 6600XT komt voor hetzelfde bedrag op de markt als een RX5700 in july 2019.


Toch bijzonder, aangezien dat precies is wat je jarenlang kon doen sinds de GTX260. Maar ik zal wel gedroomd hebben dat de GTX560, GTX960, GTX1060 en GTX1660 allemaal beter dan de vorige generatie presteerden, en toch dezelfde prijs hadden.
Een RTX3060 en RX6600 zijn alleen geen low-end kaarten.
Denk je dat de komende RTX3050 ook voor $159,- in de planken ligt, net als de 1650 Super ?
Zelfs je benoemde GTX560 was met $199.- Duurder dan 1650s. En de GTX1660 kwam uit voor $219.-
RTX2060 is al geen low-end kaart meer en kwam uit voor $349.-
RX6600XT kun je niet vergelijken met RX580/590 als je over de GTX1060/1660 praat
Een RTX3060 of 6600XT is net zo low-end/high-end als een GTX260/GTX560/GTX960 ooit was.
Er is toch wél een verschil en meteen een goede reden waarom het toch allemaal duurder gaat worden:
De kaarten die je noemt waren amper bedoeld voor 4k, alles wat nu komt en er al is moet 4k aankunnen en als het ff kan ook raytracing. De eisen worden hoger, wij willen meer en dat zal, en dat zie je nu al; meer gaan kosten.

Jarenlang kom de inflatie beteugeld worden, met steeds kleinere transistors o.a.. Dat proces gaat in verhouding steeds trager met als gevolg dat die's groter worden. En dus prijziger. Méér RAM onboard; helpt ook al niet.
Ik vermoed eigenlijk dat er bijna geen markt meer voor is. Voor games spelen op medium / low voldoet een geïntegreerde GPU al. Waarom zou je dan nog een losse low-end kaart kopen?
Tussen een IGP en een RTX3060/6600XT zit toch nog een wereld van verschil. Alleen moeten die kaarten een fatsoenlijke prijs krijgen, en niet vanaf 350+ euro.
Een RTX 3060 is geen low-end kaart. De meeste games draaien daarop op de hoogste instellingen. Vroeger kocht je een kaart voor €100, en dan kon je misschien net de nieuwste games draaien op medium met 30FPS.

Ik denk dat mensen die een videokaart kopen daar gewoon niet meer op zitten te wachten.

[Reactie gewijzigd door Wolfos op 23 juli 2024 15:36]

Als ik naar de 2dehands markt kijk, dan lijkt er echt wel een markt voor te zijn. Als je ziet wat voor hoge bedragen er gegeven worden voor eigenlijk oude hardware. Het blijft toch een relatief oude kaart zonder garantie. Je weet immers nooit zeker wat de vorige eigenaar er mee gedaan heeft.
Er is echt nog wel een markt voor. Ik denk dat de meeste mensen staan te springen om een kaart te kopen tussen de 200-300 euro, zoals dat mogelijk was met de 570 of 1060....
Die kaarten presteren vele malen beter dan een geïntegreerde GPU doet. Helemaal als ze weer kaarten in de range uitbrengen, vele jaren dat ze expres dat gat kunstmatig hebben gecreëerd.
Ik zou denken dat een beetje middenklasser qua GPU gezien tussen de 200 en 300 eurie zou kosten.

Mijn 1060 doet het nog leuk maar wordt een beetje net te traag geloof ik. Maar zie nu maar eens een upgrade te scoren voor dat geld.
Mwah een hele uitgebreide iGPU zoals in de 3400G of 5600G doet misschien niet onder voor een 1030gt, maar er zijn echt wel veel kaarten low-end gaming kaarten te noemen die sneller zijn.
Huidige IGPs vechten het uit met de GT 1030. Dat is nou niet bepaald een beest. Een RTX 3050(Ti) voor desktop zou echt wel nog op zijn plaats zijn, net als een RX6500(XT). En ga er maar niet van uit dat RDNA2 IGPs dat gat goed gaan dichtten. Al zijn ze 2x sneller (echt onwaarschijnlijk) blijft het gat met budget-class GPUs als de 50 serie van NV en 500 serie van AMD gewoon eenvoudig groot genoeg om hun een bestaansrecht te geven. Wat er vooral weer zal moeten gebeuren is dat de ruimte onder de €300 weer gevuld wordt. Dat gebeurt vanzelfs als de dit huidige tekort over is. Zou me niks verbazen als zowel de 3060 als de RX6600XT op termijn veel verder onder hun MSRP zakken da gebruikelijk. Misschien duurt het nog tot de volgende generatie, maar dit enorme tekort door cryptogekte gaat niet oneindig door.
De prijzen zijn vooral bizar tweedehands nu.

Dezelfde rx5700 (non xt) die ik voor 325 euro gekocht heb ik 2019 staat nu 600 euro op marktplaats.
Bitcoin is weer aan het stijgen dus de miners gaan ook weer los. Deze nieuwe kaarten zijn zeer efficient kwa mining performance per watt. Vergeet dus maar om hem voor de normale prijs ergens te vinden.
Ik zou het wel interessant vinden wat de 'Prestatie per Watt'-score zou zijn.

In langdurige game sessies tikt dat wel aan. 4u per dag in game, á 300W (6900XT) = 1.2kWh.
Dat enkel voor de kaart. Als ik mijn Steam gemiddelde neem, 120h/2weken = 72kWh * 0.25c = €18 per week om te gamen.

Stel de 6600XT is nét iets langzamer, maar vreet maar 160W in game, zou ik daar eerder naar neigen.
Ik mis daarom een beetje deze statistiek in de review.
Eh.. je kan je FPS limiteren, je kan je resolutie omlaag gooien.. je kan lichte games spelen, hij trekt echt niet elk gamende uur de volle 0.3 kWh uit de voeding!

Edit: het voelt alsof het een nadeel is dat een Porsche 911 zeg 1 op 10 loopt en een Clio R.S. wel 1 op 14 haalt, lijkt me toch ook alle 2 voor totaal andere doelgroepen met andere bedoelingen? 😅

[Reactie gewijzigd door GewoonWatSpulle op 23 juli 2024 15:36]

Wat ook kan schelen in stroomverbruik is je refreshrate lager zetten. Tussen 144hz of 60hz zit vaak zo'n 100watt of meer verschil.
Wat ook kan schelen in stroomverbruik is je refreshrate lager zetten. Tussen 144hz of 60hz zit vaak zo'n 100watt of meer verschil.
Wat ook kan schelen is een stoel kopen met pedalen en een generator eronder 8)7
Jij gamed 60 uur per week? ...
Ik kan dat wel eens aantikken ja. 2 weekenden volle bak gamen, en nog een paar avonden. Dan zit je er zo aan. Op het moment sta ik op 25H in afgelopen 2 weken. Het dan ook maar een rekenvoorbeeld.

Je zou maar een jong op je zolder hebben zitten die wel letterlijk iedere week 60 uur aantikt :)

Edit: Dit is ook verder totaal off-topic. Ik wil graag zien in de review wat de prestaties per Watt zijn.

[Reactie gewijzigd door D0phoofd op 23 juli 2024 15:36]

Je wordt op pagina 17 op je wenken bediend.

offtopic:
Met een kind dat 60 per week gamet lijken me die paar euro's aan stroomkosten me wel het minste probleem
Ruim 8 uur per dag dus. Het leven van een 15 jarige...
Doubtful, ik ken niet veel 15 jarigen die zelf de elektra moeten betalen...
Doubtful, ik ken niet veel 15 jarigen die zelf de elektra moeten betalen...
Ik ken wel veel 15 jarige die nooit hun pc afleggen en 24/7 laten draaien met de kaart waar ouderen hun krom voor gewerkt hebben. En ze zorgen er ook nog eens voor dat de oudjes zeer hoge elektriciteitsrekening erbovenop als geschenk terug krijgen :X
aaaah, de goede oude tijd.... :+
Tray energy drank, verzameling worstebroodjes en de hele dag geen zonlicht zien.
En als ik nu ga slapen ga ik nooit op tijd opstaan, dus we trekken nachtje door...
Als Eve in de achtergrond loopt, ik wel ja. Anders nooit niet. Maar dat is ook meer af en toe, nu bijvoorbeeld is het TEST bashen. Anders is die 12 uur ook de max per week.
Je kan van die 60uur per week ook uurtje gaan werken, dan heb je die 18€ alweer terugverdiend 😉
Een voordeel van de RTX 3060 ten opzichte van de RX 6600 XT is de grote hoeveelheid geheugen. De RTX 3060 beschikt over 12GB vram, de 6600 XT over slechts de helft.
Op de eerste pagina staat de 6600 XT in de tabel met 8 GB geheugen.

Wat is het nu, 6 GB of 8 GB?
Het is inderdaad 8GB, stond verkeerd geformuleerd in de conclusie, fixed.
Er staat ook nog TBP i.p.v TDP als ik het goed is, in de inleiding. waarbij alle kaarten op een rijtje worden gezet.
[...]


Op de eerste pagina staat de 6600 XT in de tabel met 8 GB geheugen.

Wat is het nu, 6 GB of 8 GB?
8GB, de 5600XT heeft 6GB Vram
Raar om te zeggen dat gamers zich richten op 1080p en daarom deze kaart uitbrengen, gamers spelen op 1080p omdat het gewoon nog niet soepel genoeg gaat met de kaarten van nu op hogere resoluties.

Niet andersom.

Speel nu zelf 1440p met een 3060 en dat gaat net, wel fijne resolutie voor gamen, maar als ik echt serieus in competitie zou spelen ging ik op 1080p spelen denk ik, nu wil het oog ook wat.
Monitoren worden ook niet goedkoper. Een 1080p monitor kost net zoveel als 10 jaar geleden, en als je een hogere resolutie wilt betaal je ruim het dubbele.

De ontwikkeling van mainstream monitoren staat eigenlijk volledig stil.

[Reactie gewijzigd door Wolfos op 23 juli 2024 15:36]

Onzin. Mijn 1080p gaming monitor was 200 euro voor een 75hz tn paneel nu heb je die al voor 100 high refresh is ook veel goedkoper geworden. Daarnaast zijn ze veel beter geworden. Ook grotere schermen zijn snel goedkoper geworden.
4K is anders flink omlaag gegaan. En dus heb ik er een gehaald. Geen spijt van, lekker veel ruimte, wel de scaling op max 125%.
Ik heb een heel nieuw systeem gebouwd, en alleen de gpu mis ik nog. Heb me pijlen gericht op een 6700xt ivm 34inch widescreen. Deze 6600xt zal net niet krachtig genoeg zijn voor de toekomst. Vind het knap hoe mensen het toch voor elkaar krijgen om een kaart te bemachtigen via AMD. Mij is het nog niet gelukt
Probeer anders een 3060, die komt regelmatig nog voorbij voor 600 euro. Vergelijkbaar met een 6700 XT.
Ja die hou ik ook in de gaten, van wat ik gelezen heb ligt de 6700xt tussen de 3060 en 3070. Via MP probeer ik het ook, maar wil eigenlijk niet meer dan 50 euro meer betalen dan de website prijs.
Dan kan je beter de 3060 TI halen die is sneller en kost vaak bijna even veel.
Zou iemand mij willen uitleggen waar 99p en 99,9p voor staan?
Staat op pagina 2, bij Testverantwoording.
In de grafieken op de volgende pagina's vind je telkens in eerste instantie gemiddelde framerates, oftewel het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin. Die kunnen immers tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.

De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametimemeting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.

Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.
Het heeft dus te maken met de rendertijd van het langzaamste frame, waarbij je de langzaamste 1% en 0,1% weglaat.
Pagina 2... ik heb mijn huiswerk dus niet goed gedaan 8)7 Dank voor de verwijzing.

Maar wat is nou precies het punt van het weglaten van de 1% langzaamste frames? Bij het meten van framerates worden toch ook niet de 1% laagste FPS weggelaten... Het zal vast een scheve vergelijking zijn maar wat mis ik hier?
Dit was voor mij eerlijk gezegd een prima kaartje geweest. Ik heb gewoon een full-time baan, ben recent vader geworden dus ik heb geen zeeën van tijd om te gamen. Voor de games die ik speel, Warzone, Apex, was dit meer dan voldoende geweest (overigens wel op 1440p).
Ik heb via een AMD drop een 6700 XT weten te bemachtigen, maar als ze deze hadden aangeboden was ik voor de 6600 gegaan.
Console 😉 staat binnen 15s aan en je kan ook spelen als die kleine in je armen ligt te slapen omdat ze anders ‘s nachts mama wakker houdt 😉
Voor Warzone en Apex? Dat is echt geen doen met een joypad en dan druk ik me nog erg positief uit. Knaagdier en ramplank.
Zo erg? Ik heb ook een PS5 en heb daar echt nooit problemen mee gehad. Enige minpuntje is de FOV in Warzone ;)
Deze kaart moet dus concurreren met de 3060 maar is iets sneller maar ook iets duurder?
Kan je dan niet beter direct voor de 3070 gaan?

Heb net een 3060 12GB gekocht. Teveel betaald maar ja met niks draait game ook moeizaam.

Toekomstig 4k gamen op hoge settings blijft toch nog voor de gemiddelde gamer ver weg als je kijkt wat je nodig bent . Komt nog eens bij dat veel games voor de pc dramatisch geoptimaliseerd zijn. Kijk naar rdr2, wat een drama. Op 1080p is het een groot blur of oversharpning festijn
AMD is nogal bezig om te cashen uit de huidige situatie met chiptekorten en te dure videokaarten. Wat natuurlijk begrijpelijk en hun goed recht is maar toch.

Het uitbrengen van alleen dure APU's zoals de 5600G en 5700G met matige grafische chips is ook zo'n voorbeeld. Waar is bijv. de 5300G voor zo'n 160 euro? Jammer want een APU koop je juist om een lekker goedkoop systeempje voor erbij in mekaar te zetten. :9
Inderdaad, AMD richt zich nu ook meer op mid-high range ipv low-budget wat ze eerst deden, goed recht dat geef ik toe, maar jammer dat de budget gamer nu niks kan kopen (qua pc gaming)
Ben zeer benieuwd waar Intel mee komt met hun gaming videokaarten :)
Zou zomaar de nieuwe budget koning kunnen worden _/-\o_
De eerste recente kaart die ik me van Intel kan herinneren (Xe) was alleen te gebruiken in Intel systemen. Misschien omdat het OEM only was. Dan zal Intel die truc moeten laten varen ook al willen ze Intel CPU's op de desktop zien.
Ik kan me niet voorstellen dat dit een hardloper wordt wanneer de marktprijs hiervan richting de 500€ of meer gaat. Tenzij je per sé direct een GPU nodig hebt zou ik m'n geluk beproeven om via de AMD website voor dat geld een 6700 of 6800 te bemachtigen, dan maar wat meer geduld ophoesten.

Op dit item kan niet meer gereageerd worden.