Eerste review van AMD Ryzen 7 5800X3D-cpu met 3D V-Cache verschijnt vroegtijdig

Techwebsite XanxoGaming heeft vroegtijdig een review van de AMD Ryzen 7 5800X3D-cpu gepubliceerd. De website test de processor onder meer in Geekbench en Cinebench 23, waarin de cpu iets lager scoort dan de Ryzen 7 5800X. De chip doet het wel beter in Blender.

XanxoGaming heeft naar eigen zeggen een AMD Ryzen 7 5800X3D weten aan te schaffen, merkt VideoCardz op. De processor zou al te koop zijn in Peru, hoewel deze officieel pas op 20 april uitkomt. De techsite zou eerder op een zwarte lijst gezet zijn door AMD, waardoor deze geen reviewsamples krijgt opgestuurd, maar ook geen embargoafspraken hoeft te volgen.

De Peruaanse techwebsite heeft de cpu getest op een Gigabyte Aorus X570 Master, draaiend op een bètabios met optimalisaties voor 3D V-Cache-cpu's. Daarbij draaide het testsysteem op Windows 10 met 16GB aan DDR4-3200-geheugen en een Nvidia GeForce RTX 3080 Ti Founders Edition.

De AMD Ryzen 7 5800X3D beschikt over 3D V-Cache, voor een totaal van 96MB aan L3-cache. Volgens AMD zou dat leiden tot prestatieverbeteringen van maximaal 15 procent in games, hoewel die prestatieverbeteringen niet per se zouden doorkomen in synthetische benchmarks. Daarbij heeft de 5800X3D iets lagere kloksnelheden dan de Ryzen 7 5800X.

Afbeeldingen via XanxoGaming

XanxoGaming publiceert onder meer tests in de Geekbench 5.4.4-benchmark, waarin de processor single- en multicorescores van 1639 en 10.498 haalt. Die singlecorescore ligt volgens de website iets lager dan de Ryzen 7 5800X, die een 1,9 procent hogere score van 1671 zou halen. De multicorescore ligt dan weer iets hoger dan de huidige 5800X, die 10.339 punten zou scoren.

In Cinebench 23 haalt de Ryzen 7 5800X3D single- en multicorescores van respectievelijk 1493 en 15.060. De website publiceert geen vergelijkingen, maar in eerdere tests van Tweakers haalt de Ryzen 7 5800X scores van 1.584 en 15.603. Verder scoort AMD's Ryzen 7 5800X3D 617 en 6506 punten in de ingebouwde CPU-Z-benchmark, wat lager zou zijn dan de i9-12900K-referentiegegevens. In Blender-benchmark doet de nieuwe Ryzen-cpu het 3,6 procent beter dan de 5800X, hoewel er ook weinig samples van die benchmark beschikbaar zijn.

De processor is nog niet getest in games, terwijl de processor juist voor dat gebruiksscenario gepositioneerd lijkt te worden door AMD. De website schrijft dat het binnenkort gamingprestaties van de chip zal delen, waarin de processor ook vergeleken zal worden met de Core i9-12900KF van Intel. AMD brengt de Ryzen 7 5800X3D op 20 april officieel uit. De processor krijgt een adviesprijs van 449 dollar.

Afbeeldingen via XanxoGaming

AMD Ryzen 7 5800X-cpu's
Model AMD Ryzen 7 5800X3D AMD Ryzen 7 5800X
Architectuur Zen 3 Zen 3
Cores/threads 8C/16T 8C/16T
L2-cache 4MB 4MB
L3-cache 96MB 32MB
Kloksnelheid 3,4GHz 3,8GHz
Turbofrequentie 4,5GHz 4,7GHz
Releasedatum April 2022 November 2020
Adviesprijs 449 dollar 449 dollar
Huidige prijs € 289,- € 215,05

Door Daan van Monsjou

Redacteur

07-04-2022 • 12:58

157 Linkedin

Reacties (157)

157
157
91
4
0
40
Wijzig sortering
Dus een gebande reviewsite en getest met een beta BIOS gaan wij hier bij tweakers als nieuwswaarde posten. Ik ben zwaar teleurgesteld. 8)7
Soms (vaak) zijn niet gebande websites onbetrouwbaarder.

Echte reviewers, dus reviewers die ook minpunten benoemen, worden bij sommige bedrijven op de zwarte lijst gezet.
Een goed voorbeeld daarvan is Linus. Linus heeft ooit wat minpuntjes over Apple genoemd en krijgt daarom geen reviewsamples meer van Apple.

Dus je moet je het omgekeerde afvragen, zijn reviewers die wel Apple samples ontvangen betrouwbaar? Die reviewers zijn echt super tevreden over Apple producten of ze zijn niet meer dan een PR-kanaal om hun 'rechten' te behouden.
Op zich hoeft dat 'gebanned' niet slecht te zijn, hardware unboxed is bijvoorbeeld gebanned door Asrock, maar heeft nog steeds goede reviews van hun producten, ook al krijgen ze geen samples meer van Asrock door de ban. Ze kopen de borden nu gewoon en testen ze alsnog.

Is misschien zelfs nog wel betrouwbaarder omdat ze nu niet afhankelijk zijn van 'gratis' samples, en dus ook niet verleid kunnen worden tot het doen van goede reviews om zo de stroom van gratis hardware op gang te houden.
Nou ja goede reviews...

Oh je bedoeld kwalitatief goede reviews van kwalitatief slechte producten? Dan zijn we het eens :+
Ik plaats er altijd grote vraagtekens bij als een relatief onbekende site 'op miraculeuze wijze' voor de release een chip weet te bemachtigen, en voor de officiele embargodatum een review online weet te gooien waarbij de processor ook nog eens alleen in het slechts denkbare daglicht (enkel synthetische benches) is getest.

Dus de primeur pakken, makkelijke headlines scoren over heel de wereld, en dan zeggen "ja euh de review met games komt nog, maar hier zie je hoe hij kak draait in Cinebench".

Dan vraag ik me af hoe die chip daar nou daadwerkelijk gekomen is en wat de geldstromen naar die site de afgelopen paar weken zijn geweest.

[Reactie gewijzigd door Boxman op 7 april 2022 13:05]

Blender BMW en Cinebench zijn geen synthetische benchmarks maar echte workloads. Games zijn juist geen goede benchmark voor een CPU omdat 9/10 keer de GPU de bottleneck is en reviewers meestal niet zo slim zijn om die bottleneck weg te halen, maar juist op 4K gaan testen waardoor iedere CPU hetzelfde resultaat haalt 8)7

[Reactie gewijzigd door Wolfos op 7 april 2022 13:17]

Met een high end gpu is het juist heel vaak de cpu die tegenwoordig de bottleneck is. Alleen bij 4k is het vaker de gpu maar bijna niemand gamed op 4k.

Als er iets is waar prestaties per core koning is dan is dat wel gamen.
Dat is enkel bij games die 200fps+ draaien dat de CPU de limiterende factor kan zijn op de GPU. Daar heeft dus niemand last/profijt van.
Nee hoor. Zat games die de 144 FPS niet eens aantikken en toch een cpu bottleneck hebben. Recentelijk overgestapt op een 32 inch 180 Hz paneel en was bang dat mijn fps zouden instorten maar mijn 9900k met all core turbo is nog altijd de bottleneck.

Edit : Typo's

[Reactie gewijzigd door computerjunky op 7 april 2022 21:12]

Snap de downvote niet zo, want volgens mij is dit wel waar.

Voorbeeld: Cyberpunk en MSFS zijn niet bepaald games die baat hebben bij een 32T CPU. Het is dan misschien niet zozeer de 1T performance die je bijvoorbeeld in CInebench meet, maar wel hoe pittig de CPU blijft boosten (en ook niet stallen :) ) als de belasting uitbreid naar 4 tot 12T. Het is juist de performance van paar cores/threads is waar alles om draait.

Daarintegen is het wel weer zo dat games die echt snel/competitief zijn, vaak op de game engine al zo geoptimized zijn dat ze 200fps+ halen met een goede CPU/GPU. Mensen die profijt hebben van een 200fps+ is nog vele malen meer niche dan 4K:
Van 4K (en niet te vergeten ultra-wides) zou ik juist zeggen dat dit steeds meer komt, omdat met upscaling, adaptive sync enz. er best mee te werken valt als je de schermruimte ook voor productivity wilt inzetten.
En dan zijn de 2 games die ik net benoem zijn zeer casual, en met 90fps + adaptive sync tech ook zeer goed te spelen. Ik zou dan eerder de CPU kopen welke een duidelijk hogere 1% minima heeft, dan beslissen op paar fps avg voordeel.

[Reactie gewijzigd door Hans1990 op 7 april 2022 21:08]

Persoonlijk draaide ik Battlefield 5 altijd op 160-200 FPS op mijn GTX 1070 maar bij de overstap naar de 6900XT kwam ik op over de 340 fps terecht met wat tweaks want standaard is de engine gelimiteerd op 200 FPS maar ik merkte het echt en mijn scores gingen serieus omhoog omdat ik toch net wat sneller was als de tegenstanders ineens. Met niet competitieve games merk je het verschil niet omdat je eigenlijk altijd wel sneller ben als de computer AI.
Verder zijn er denk ik best veel mensen die competitief baat zouden ebben bij een hoge refreshrate en fps maar laten we eerlijk zijn. veel van die tieners hebben niet even 3k liggen voor een high end gaming pc en spelen dus op een 6 jaar oude pc of ouder. (ergens maar goed ook anders kwamen mensen van mijn leeftijd er niet meer aan te pas. Hardware is ons laatste redmiddel om wat voorsprong te halen haha. Zo snel als in mijn tienerjaren ben ik al lang niet meer.

Het aantal mensen die dus baat hebben bij high refresh gaming is dus zeker wel groter als het aantal mensen die casual op 4 games (high refresh 4k is immers nog een illusie). Echter het aantal mensen die daadwerkelijk high refresh kunnen gamen blijft achter bij het aantal dat er baat bij heeft. Al is er wel een grote stap gezet met alle upscaling waar iedereen ineens 2x zoveel fps kan halen nu.
Ik heb persoonlijk een 144Hz monitor, en vandaar ik ook al 90fps + sync noemde, omdat dit wel een duidelijk verschil is met 60Hz. Wat mij betreft zijn dit soort monitoren al best wel betaalbaar. Misschien niet als je 1440p wilt hebben, maar op 1080p heb je al een leuk paneel voor ~200 euro. Ik telde in 2006 al 250 euro neer voor mijn eerste TFT desktop monitor, wat vergelijkbaar geld is.

Nu is het wel zo dat als je een X veelvoud over de refresh rate van je display gaat, dan gemiddeld genomen de frames wel een stuk jonger zijn. Ook dat geeft nog een klein verschil. Maar de frame time op 200fps zal gem. 5ms zijn, en op 340fps nog maar 3ms. Een verschil van 2ms. Dat is nog maar 5x zo klein als het verschil tussen 60Hz en 144Hz... (10ms). Op een reactietijd van 150-300ms in competitive gameplay, al erg klein..
Ja ik speelde bf5 320 fps op een 75 hz tot begin dit jaar en dat zag er goed snel uit en voelde goed. Enige nadeel was de tearing maar die zat in de onderste 5% waar je eigenlijk niet naar kijkt in een Shooter.
Niet als je high fps gaming doet. Zelfs met 144hz kan je dan nog wel eens tegen cpu limits aan lopen op bepaalde stukken van games waar de fps dan even lager is dan 144hz. Laat staan als je 240Hz of hoger wil gebruiken.

Oude games die nog zwaar op een of twee krachtige cores met veel cache leunen hebben ook baat bij snellere CPU's. RTS games ook veelal. Dus er zijn genog use cases te vinden voor een snellere cpu ookal heb je geen peperdure videokaart.

Ik ben zelf heel benieuwd naar Zen3X3D

Heb zelf wel wat games zoals Starcraft II, Risk of Rain, Mechwarrior Online en Stellaris die er baat bij kunnen hebben.
Volgens mij reageer je op de verkeerde persoon want je zegt eigenlijk precies wat ik ook zeg. :)

En zelfs games als battlefield en warzone zijn zwaar cpu bottlenecked wat toch wel wat modernere games zijn. Mijn 6900XT staat met mijn 9900k op all core 5.1 ghz op 1440p met settings om competitief (hoge textures rest laag) compleet uit zijn neus te eten ondanks dat het 1440p is.

[Reactie gewijzigd door computerjunky op 8 april 2022 00:52]

Ja dat denk ik ook.
Klopt warzone is een spel wat op 1440P met een 6800XT niet flat op 144FPS wilt draaien als je een 3600 (met tweaked memory) hebt met een 5600X met tweaks lukt dat wel bijna de hele tijd.
Steekt zijn 4K gaming handje op..

40"@4K@60hz >>> dan 27"@2K@144Hz.

Ik heb beide monitoren, oorspronkelijk de 40" voor productiviteit gekocht, 27"/144hz/hdr voor gamen. Uiteindelijk doe ik alles op die grote lap. En staat de 27" gewoon als secundair scherm met de pdfjes en andere dingen open. 144hz is leuk. 4K@40"is gewoon veeeeeeeeel leuker.
Is geen vergelijk.

Schijnbaar is het als met sex: Size matters. More.
Tja ieder zijn ding. Ik vind 60 fps echt haperen en stotteren aan alle kanten. Het is gewoon niet smooth.

Het gros heeft gewoon een 1080p paneel en een deel heeft 1440p en een fractie van de gamers heeft 4k.
Haperen en stotteren komt denk ik meer omdat je 1% en 0,1% lows ver onder je gemiddelde vallen. Als je gemiddeld 60 fps haalt en je lows zitten op 40 fps dan merk je dat wel ja. Zelf heb ik totaal geen last van 60 fps op m'n 60hz monitor. Gaat gewoon vloeiend, al merk je wel een verschil met een 120+hz scherm
Niet echt, 60 fps is gewoon niet smooth als je veel meer gewent bent. Die gaten tussen de frames ga je gewoon merken en dat ervaar je als judder/stotteren. De 1 zijn vloeiend is de ander zijn stotter feest. Mijn moeder vind 25 fps al vloeiend maar ik merk get verschil tussen 60 en 90 en ervaar het al een mega stap. tussen nde 90 en 120 is dat verschil weer minder merkbaar voor mij maar toch is 12 beter en 150 is weer beter. Boven de 150 moet ik zeggen dat iok er niet heel erg veel van merk ondanks dat mijn scherm tot 180 gaat.
Ik zie ook alleen maar gebroken beelden als ik terug ga naar 60 fps in een shooter. Dit is vooral waarneembaar bij bijv snel rond kijken en schakelen. Maar ook bij kleine bewegingen merk ik het.
Schijnbaar is het als met sex: Size matters. More.
Nope, de meeste 'sensoren' zitten vooraan :9 8-)
Als jij 40'' op tafel legt, krijg je wel aandacht hoor... Dan is 60Hz zelfs niet nodig.
Jongens, kunnen we het wel even on-toppik houden...
Dit is echt ongepast.


Ik dacht dat hier geen ;-) bij hoefde, dat spreekt toch wel vanzelf als je er niet overheen leest...

[Reactie gewijzigd door SCS2 op 7 april 2022 22:06]

Ongepast?
Hier gewoon een 55" op tafel liggen en gewoon 120Hz.
Ik kan zelf niet wachten op beeldschermen met displayport 2.0 zodat we het beste van beide krijgen, high resolution en high refresh rate
En een 1200 watt GPU voor de benodigde fps ;)
Perfect voor de transitie van gas naar elektrisch het huis verwarmen :+
Ja, moet alleen wel de Kwh prijs met 70% omlaag anders blijft het fors duuder.

En daarnaast heb je in de zomer een airco nodig voor je game room ook niet echt goed voor de transitie.
Mijn huidige kamer is 5x3 meter en een hoog dak van 4 meter en die verwarm ik met mijn 235 watt pc al in notime en is in de zomer 30+.

Maar misschien kan de EU de airco op de lijst van groene producten zetten ;)
Vanaf een gasprijs van ~2,30/m3 niet meer hoor. En als je boven de 10MWh electra per jaar komt, val je in een lager tarief voor de energiebelasting en is het nog sneller rendabel. PV op het dat komt ook neer op iets van 11 cent/kWh, oftewel een gasprijs van ~1,10 per kuub, waar veel mensen al ruim overheen zitten.

In de zomer is er ook een mega overschot aan electra produktie, zeker op de momenten dat je de airco nodig hebt. Als je dus kan vermijden dat het koelmiddel de atmosfeer in verdwijnt, maar het in milieu opzicht geen weinig uit los van de omgevingswarmte die het afgeeft, het kost alleen maar geld. De stroom is groen en niemand wil 't hebben op dat moment dus airco's zijn niet zo'n probleem. Je kan zelfs stellen dat als er PV in je buurt is, dat ze het stroom net zelfs ontlasten omdat dat overschot aan vermogen niet getransporteerd hoeft te worden.
Je kan niet alleen een gasprijs quoten. Je moet ook de daarbij horende kwh prijs quoten.

Zonnepanelen moet je als losse investering zien niet als compensatie voor. Die leveren namelijk ook geld op als je nog wel gas gebruikt.

En een airco voor warmte ga ik niet aan beginnen. Zonde van het geld.
Dat is waar. 9.77kWh/m3 gas. Die had ik als bekend aangenomen. Dat is niet bij iedereen zo. Wel moet je ook nog rekening houden met eventuele verliezen, maar bij warmteproduktie zijn die voor je PC redelijk verwaarloosbaar. Het systeem kan namelijk niet warmte afgeven aan iets anders dan de omgeving. Als warmte je gewenste eindprodukt is (ipv het doen van werk), gaat exergie immers niet op.

De berekening hierboven houdt wel rekening met die conversie, ook al heb ik die niet expliciet genoemd. 1,10 per kuub komt neer op ~11.2 cent/kWh, grofweg vergelijkbaar met de kWh prijs boven de 10MWh en ongeveer de prijs van een kWh bij de 'bulkaankoop' die de plaatsing van zonnepanelen met een levensduur van 15 jaar in een zekere zin is. Verder verdien je helemaal niets aan zonnepanelen, je stroom wordt er alleen goedkoper van, en dat doet het alleen zolang het je eigen verbruik kan verdringen, anders zijn de verdiensten veel lager en niet rendabel. Wat voor een verbruik je weet te verdringen met je zonnepanelen is dus wel degelijk de maatstaf van de economische rendabiliteit van PV. Verder is het maatschappelijk wenselijk om zoveel mogelijk overtollige PV produktie aan te wenden om warmte te creeeren, zeker omdat bestaande opstellingen daar veelal geen mogelijkheid toe hebben. Als je straks niet meer mag salderen, is een warmtebuffer een bijzonder aantrekkelijke optie om al je door PV opgewekte energie toch ten gelde te kunnen maken (het beste dmv een warmtepompboiler, maar zelfs een eenvoudig begin zoals een keukenboilertje helpt).

Zonnepanelen als investering is wel een illusie. Dat wordt in stand gehouden door de wetgever die salderen in stand houdt, maar dat is technisch niet vol te houden. Met trends in PV plaatsing is er bijvoorbeeld een schatting die stelt dat in 2030 dat alle NL daken vol liggen met PV. Zelfs als zo'n rapport er 20 jaar naast zit, blijft het uiteindelijke probleem bestaan. Netverzwaring of curtailing is noodzakelijk, en zelfs als het net zwaar genoeg is voor transport, moet er aan het eind van de dag nog steeds een afnemer zijn. Die is er niet als er zoveel PV is, en al helemaal niet als het tegelijkertijd waait. PV zuiver als investering gaat dus voorbij aan een technisch onhoudbare werkelijkheid. Dat de politiek door blijft gaan met het salderen is gevaarlijk voor de stabiliteit van het net. Waarschijnlijk zal het een keer echt mis moeten gaan (a la Italie) voordat dit doordringt in de a-technische psyche van de Haagse bestuurder. We hebben al een boel 'bijna' gevallen gehad, dus dat moment zit er wel aan te komen.

Airco voor warmte bij geringe Delta-T is juist zeer efficient. Het is namelijk een warmtepomp. Als de Delta-T laag gehouden kan worden, kunnen die juist zeer efficient verwarmen. Voor een groot gedeelte van het jaar dus wel degelijk aantrekkelijk. Het is nu nog geen goedkope oplossing voor momenten dat het echt koud is. Ook dat is echter niet meer waar bij een gasprijs van ~2,50, een airco haalt immers nog steeds een COP van boven de een, wat een elektrische kachel niet kan, die doet gewoon COP 1.0, dus op dat moment is een airco wel degelijk een redelijk economische keuze om mee te verwarmen.

Het komt er in praktische zin op neer - op het moment dat de gasprijs hoog genoeg is, is vanuit economisch oogpunt electrisch verwarmen steeds interessanter, zeker omdat bronnen als PV en wind per kWh lager uitkomen. Ook zijn fossiele bronnen die minder schaars zijn makkelijk om in te zetten voor electrische produkten omdat ze niet eenvoudig door het gasnet naar een CV ketel gebracht worden maar wel veel makkelijker geleverd kunnen worden aan elektriciteitscentrales, waar op dit moment ook gewoon nog ruime overcapaciteit van bestaat.

Reken gerust eens na hoe je kostenplaatje er uit ziet bij een gasprijs van 2,50, en wat het doet als je (een deel van je) warmte met een COP van boven de 1 kan winnen.
Het is inderdaad net als seks: Per persoon verschilt het, dus doe vooral wat voor jou fijn is. Dit bericht typ ik op mijn 1080p360Hz monitor die ik zelf het fijnste vindt.
"40"@4K@60hz >>> dan 27"@2K@144Hz."

Dat is toch wel erg kort door de bocht. Ik game zelf op een 32" 4K 60hz scherm en dat gaat voor mij prima. Maar ik speel dan ook geen online shooters, dan ben je gewoon volstrekt kansloos met je 60hz scherm. Single player rpg's zijn daarentegen natuurlijk prachtig op 4K als je genoeg gpu power hebt. Ik kan me echter ook voorstellen dat voor spelers die 120hz+ gewend zijn ook dan een 4k 60hz scherm te langzaam aanvoelt. Ik zag van de week een filmpje op Hardware Unboxed waar men aangaf dat men dan eigenlijk ook minimaal 90hz of nog liever 120hz wil hebben voor een ,naar hun mening, fijne speelbare ervaring.
Het is inderdaad een kwestie van gewenning. Toen ik overstapte op 144Hz op mijn main display zijn binnen kortste keren bijna nog een boel andere schermen vervangen (terwijl die het allemaal eigenlijk nog prima deden). Twee monitor, telefoon, homeoffice setup. Ik vind het erg fijn meer dan 60Hz te hebben. Maar dat zal ook wel weer per persoon verschillen. De oude displays zijn naar mensen gegaan die nog geen >60Hz ervaringen hebben gemaakt :P

[Reactie gewijzigd door Darkstriker op 7 april 2022 18:47]

een strootje kietelt harder dan een boomstam :Y)
Sinds ik 144Hz heb ervaren trek ik 60Hz niet meer. Ik aim nu voor minimaal 100 het liefst voor 120+.
Dus ik ben zelf heel benieuwd naar de nieuwe 5800X3D want ik heb nog wat oudere games die dat helaas niet halen met een 5900X.
Ik heb ook een 4K, maatje kleiner. Overweeg wel gewoon een tv als paneel te nemen, is wel een upgrade van de VESA arm nodig. Maar met een tv zou je toch ook 100Hz (niet geïnterpoleerd) kunnen draaien lijkt me?
Ik raad iedereen aan om de Steam hardware survey te lezen.

Helaas zijn de luidste stemmen op internet de minderheid met een PC van 3000 euro. Oh en Linux natuurlijk 8)7
Ik weet niet hoe accuraat die data nog is maar het is idd een redelijke indicatie. Velen hebben gewoon geen top end pc of zelfs mid range.
https://store.steampowere...e-Survey-Welcome-to-Steam

Cijfers bijgewerkt t/m maart 3022. Maar je ziet inderdaad een overweldigende meerderheid gamen op 1080p en een xx50 of xx60 kaart.
Die zijn hun tijd ver vooruit dan... :+
Ja, maar HL3 staat er nog niet tussen…
Hoezo gamed bijna niemand op 4K?
Waarschijnlijk omdat de meeste gamers geen geld hebben voor een 4k scherm , 4k high refresh een illusie is, en de meeste gamers geen geld hebben voor een 3000 kostende pc om een beetje fps te krijgen. Minder als 3% van de gamers gamed op 4k.
wow, en ik dacht dat 4K ondertussen wel richting standaard ging. Ik ben al tijden gewend om 4K te gamen op mijn PlayStation en PC.
Bijna 70% zit zelfs op 1080p nog en zelfs not een groter deel als 4k onder de 1080p.
Deze variant is volgens mij juist voor games bedoelt. Performance op andere gebieden zal waarschijnlijk iets lager zijn door de reductie in clocksnelheid.
Games hebben veel baat bij meer cache 3d renders een stuk minder.
Ik ben vooral geïnteresseerd in benchmarks voor compilers. Die hebben meestal veel baat bij extra cache.
Ik ook, ik vond overigens het verschil tussen de 3950x en 5950x erg klein en heb daardoor nog niet een upgrade gedaan. Denk dat ik op Zen 4 of 5 moet wachten voor een serieuze upgrade.

Edit:
Het is zo jammer dat er zo weinig reviews zijn die echt code compileren testen. Er zijn 101 game reviews van deze cpu's maar daar heb ik vrij weinig aan. Compilen van de Linux kernel of Chromium is ook maar een klein gedeelte. Pak naast c++ een paar andere grote talen zoals c# en Java.

[Reactie gewijzigd door Sp3ci3s8472 op 7 april 2022 15:46]

OpenBenchmarking heeft iig een paar, op heel veel CPU's, onder Linux:

https://openbenchmarking....build-linux-kernel-1.12.0
Die ken ik inderdaad, alleen zijn de resultaten niet echt consistent. Als de resultaten van Phoronix zelf komen dan zijn ze meestal goed alleen de andere resultaten niet echt. De 5600x zou het snelste zijn, de 5950x een heel stuk trager; hetzelfde voor de 3300x vs de 3950x.
https://openbenchmarking....32c77f745c10ed7f5#metrics
Klopt, zulke benchmarks zouden prettig zijn; maar voor CPU benchmarks zijn ze niet fantastisch. Het is dan handiger om het ook te combineren met memory speed, disk IO. Wellicht een gat in de mark of review sites die ik nog niet goed ken.
Zoek ook altijd naar goede compile en developer workload benchmarks.
Maar is niet echt veel terwijl de verschillen echt groot zijn. Maar is ook geheel afhankelijk van je workload. Onze grootste projecten zijn in angular en c#.

Wij benchmarken altijd daarom nieuwe generatie cpus met onze eigen projecten en indien voldoende winst worden alle developer systemen vernieuwd.

Bij alder lake waren dat de grootste winsten in jaren. Sommige projecten worden minuten sneller gecompileerd. Vooral heel veel winst in angular gehaald. C# was iets minder intressant.
omdat 9/10 keer de GPU de bottleneck is en reviewers meestal niet zo slim zijn om die bottleneck weg te halen
Dan vraag ik me af welke reviews jij leest, want elke pannekoek die ook maar iets van benchmarken afweet snapt dit en benchmarkt daarom 1080p, eventueel naast andere resoluties.

Verder is het natuurlijk een prima benchmark als de doelgroep van je review uit (deels) gamers bestaat... Hoe wil je de gaming-prestaties beoordelen als je dat niet benchmarkt? Je moet het benchmarken uiteraard wel goed doen, 20 CPU's die allemaal op 1% verschil van elkaar liggen is niet heel nuttig.
Dan vraag ik me af hoe die chip daar nou daadwerkelijk gekomen is en wat de geldstromen naar die site de afgelopen paar weken zijn geweest.
Lol... wie zou er geld steken in zo een kleine site, om een artikel te plaatsen wat helemaal niet echt negatief is over de CPU...
Dat je dat nog moet vragen nadat Intel nog geen 3 jaar geleden openlijk een bedrijf heeft ingehuurd om de 2700x in een zo slecht mogelijk daglicht te reviewen, wat ook een enorme rel teweeg bracht. Dit soort belangen bestaan, en dit soort belangen worden bespeeld.

Dat die site klein is maakt natuurlijk totaal niet uit als ze de primeur krijgen. Het is namelijk breed het internet over gegaan - het staat immers nu ook op de Nederlandse Tweakers, nietwaar?
Ja, maar er staat vrijwel niks negatiefs in de "review", alles wat er staat was al door AMD aangegeven.
Nee, hier zit Intel echt niet achter, dit heeft nul effect op de verkopen...
Maar er wordt nou net niet getest met games, hét beoogd gebruiksdoel van deze CPU. Op z'n minst vreemde omissie.
Testen in games neemt tijd in beslag, en blijkbaar was vroeg in het nieuws brengen belangrijker voor de site. Niks vreemd aan, we zien wel vaker dat er eerst een beperkte "hands-on" of "unboxing" uitgebracht wordt, en later pas de echte review met uitgebreide benchmarks.
Die tactiek wordt ook door grote kanalen zoals LTT etc gebruikt.
En hier resultaten van een game, van dezelfde website... blijkbaar klopt wat ik eerder aangaf, het duurt even. En nog postief voor de cpu ook..... toch geen doorgestoken kaart blijkbaar.
https://xanxogaming.com/n...-del-amd-ryzen-7-5800x3d/
Kudo's voor de follow-up _/-\o_
Dit gebeurt helaas regelmatig. Onbekende site krijgt een sample en denkt, laat ik onze hele reputatie verpesten door ons niet aan het embargo te houden.
Leuk korte termijn plan maar ze zullen nooit uitgroeien naar een grote site met samples van fabrikanten.
Ze kregen juist geen sample want staan al op de zwarte lijst van AMD. Dat maakt juist dat het er allemaal nog net wat wranger uit ziet.
Anoniem: 25604
@Boxman7 april 2022 17:00
Niet onbekend genoeg om niet door AMD als ongewenst te worden bestempeld.
Van tevoren een stukje nog uit te brengen hardware bemachtigen en zelfs te reviewen is niet vreemd, eerder standaard. Vaak kloppen de reviews ook nog.
Je kan twee kanten op redeneren met een site dat niet gedwongen is om zich aan NDA regeltjes te houden... haar reviews kunnen wel of niet objectief zijn. En masserende geldstromen zijn er bijna altijd wel, vermomd in meerdere vormen. Amper de moeite waard om vragen bij te stellen alsof het uiterst verdacht is...
Ik kan uit ervaring spreken dat een grotere Lx cache een fijne en vooral stabiele game ervaring geeft.
Ik hang nog steeds op i7 5775c, unlocked (max 4.4ghz mogelijk ivm L4) en met losse gpu gaat de 128mb L4 cache naar de cpu ipv igpu.
Resultaat: bijna geen lag spikes meer, had daarvoor een i7 4770k 4.7ghz en verschil duidelijk merkbaar, fps was ook hoger met de 5775c.
Een oc 5775c doet in gaming benchmarks ongeveer hetzelfde als een 8700k puur door die L4 cache van 128mb.
Ik ben best wel benieuwd of het mogelijk en nuttig zou zij wat HBM 3 geheugen als chiplet op de cpu te plaatsen. HBM 3 heeft al een doorvoer van 800+ Gbps wat behoorlijk snel is maar wel veel grotere hoeveelheden geheugen van 8gb of zelfs 16gb.
Wat zou zoveel snel geheugen gebruikt als cache doen voor de prestaties. Waar ligt de limitatie van meer cache vs prestatie. Het zou een interessante chips kunnen zijn voor gaming als dit werkt gezien je gewoon heel veel data dicht bij de cpu kan opslaan.

Deze 3d cache is toch vrij gelimiteerd qua grootte en 200Gbps trager maar mogelijk wel een betere latency. (Geen idee wat HBM3 latency is).

[Reactie gewijzigd door computerjunky op 7 april 2022 13:33]

Opgelet: alles wat hieronder staat zijn (vaag op feiten gebaseerde) aannames. Ik ontwerp geen chips/elektronica.

Het verschil zit'm voornamelijk in dat dit SRAM is. SRAM is sneller (lagere latency) máár neemt meer plaats in. Die latency doet het net goed voor zo'n cache. Alles dat erbuiten zit (videogeheugen, RAM voor je CPU, HBM ook) is allemaal DRAM. Hogere dichtheid maar heeft enkele nadelen zoals de hogere latency.

Net die latency zal het probleem zijn. HBM geeft dan wel heel hoge bandbreedte door zoveel extra verbindingen op korte afstand mogelijk te maken, maar het blijft gestapeld DRAM. Kleinere maar tragere geheugencellen.
Ik heb even lopen zoeken maar ik kan nergens de latency van HBM vinden. Die van ryzen 3 L3 cache is zon 11ns.
Ik meen te herinneren dat gddr6 rond de 65ns zit maar dit is compleet ander geheugen als HBM.

[Reactie gewijzigd door computerjunky op 7 april 2022 14:56]

Je begrijpt blijkbaar niet wat HBM memory is. HBM is net als je normale DDR4/DDR5 dimm dram. Het verschil is dat meer lagen cellen vertikaal gestacked is wat de dichtheid hoger maakt en inderdaad de fysiek afstand korter als je het in plaats van via traces van een moederbord als chiplet in je CPU plaatst. Het verschil in snelheid komt niet zozeer omdat de cellen sneller zouden zijn (het is immers een gewone dram cel die net zo snel zal zijn als op een DDR4 of DDR5 stickje) maar omdat de bus veel breder is gemaakt. Een bus breder maken is lastig (timing) als je "lange" traces op een MB hebt net als je bij DIMM's ziet. Dus juist die kort afstand door stacken en eventueel in de CPU als chiplet te plaatsen maakt een bredere bus mogelijk. Dus troughput wordt hoger latency is niet veel beter als wat je thuis hebt. Ik verwijs steeds naar DDR4 en 5, HBM is natuurlijk al duur en volgt wat dram techniek betreft natuurlijk de nieuwste productie processen op steeds kleinere nodes en steeds een beetje sneller dus laatste dram cellen in HBM kunnen natuurlijk best zo snel zijn als GDDR6. Maar het gaat om de essentie dat het om dram cellen gaat met hun eigen werkings wijze en beperkingen.

[Reactie gewijzigd door Leon Straathof op 7 april 2022 16:00]

11ns op L3 Cache ervaar ik als vreemd, als ik 4x8GB sticks heb die 7,78ns latency hebben. Het kan toch niet de bedoeling zijn dat de cache op een chiplet langzamer is dan je geheugen die je zelf plaatst? Ik zal vast iets missen/niet begrijpen, hoor het graag.
Welke sticks hebben 7.78ns latency. Dat is eigenlijk onmogelijk. Het snelste ram geheugen zit rond de 38ns (DDR4 4266 cl16 op een intel chip).

Cache geheugen kan je trouwen benchmarken:

https://www.guru3d.com/ar...en-7-5800x-review,20.html

Ik denk dat jij het over true latency van de sticks zelf heb maar je moet ook nog communiceren met de cpu en door de memory controller en over een stukje koper naar de cpu toe.
De internet latency zal in optimale conditie van de ram stick best die latency hebben als je DDR4 3600 CL14 hebt maar er is een langere complexere route nodig voor de communicatie en dat verlengt de latency significant.

Het is ergens dan ook een beetje vreemd dat ze dit true latency noemen omdat datzelfde setje DDR4 3600 CL14 op heeft op een Intel build een lagere latency als op een Ryzen build doordat AMD met chiplets werkt wat weer latency verhogend werkt.
Zelfs het gebruikte moederbord lijkt hier nog enigszins uit te maken door langere of kortere paden. Want ik heb eenzelfde pc gebouwd met identieke componenten en alleen een ander moederbord en daar was de latency 12ns hoger.

Al met al is 11ns voor L3 cache sneller in de praktijk.

edit : Even een screenshot van mijn ram geüpload voor je te vergelijking.

https://ibb.co/8dbhkkd

Op papier heeft mijn ram draaiend op 4000 cl17 een true latency van 8ns in werkelijkheid is de latency dus 38.3.

Overigens wel interessant om te zien hoeveel de L3 cache van zen 3 sneller is en dat de on die latencies elkaar dus niet veel ontlopen.

[Reactie gewijzigd door computerjunky op 7 april 2022 17:10]

Net die latency zal het probleem zijn.
Je vergelijkt nu alleen de latency van HBM en SRAM, maar dat is alleen relevant voor cache lookups die in beide gevallen succesvol zijn. Als HBM groter is scheelt dat cache misses die je op een kleinere cache hebt, en voor die cache misses is het verschil tussen HBM en je RAM het relevante deel.

Verder geen idee of HBM inderdaad zinnig is, zowel uit het oogpunt van prestaties als of het technisch mogelijk is.
In de Xilinx FPGA´s die ik verkoop met HBM2 heb je het over zo´n 90 - 120 klok cycles latency. Veel hoger dan deze cache iig. Als ik de Milan X latency bekijk zou je met HBM op het dubbele uitkomen.

Dan kijk je alleen nog maar naar de cycles en dan zal HMB3 op een veel lagere klok frequentie uitkomen wat dus weer in het voordeel van deze 3D cache werkt.

[Reactie gewijzigd door kdeboois op 7 april 2022 14:43]

Interessant. Misschien is het wel een potentiële oplossing voor grotere datasets die niet vaak nodig zin maar wel baat hebben bij 'dichter bij de cpu' te zijn en snel op te vragen zijn. Maar daar zou je dan echt een hele caching architectuur omheen moeten bouwen.
De LTT video van gisteren over de IBM Mainframe is wel interessant hiervoor. Daar gebruiken CPU’s ongebruikte L2 cache van andere CPU’s als L3 cache.

Verder gaan AMD en Intel verder met server CPU’s met HBM ontwikkelen maar dit is voor de huis tuin en keuken desktop voorlopig veel te duur.
Nou ja wat is te duur, mensen betalen ook 900 euro voor een 5950x terwijl ze alleen gamen en 1500+ voor een midrange gpu. Als een 8 core met HBM ook 900 zou kosten zie ik er wel markt voor en hoe meer je het kan schalen des te aantrekkelijker het word natuurlijk.

De gaming markt is vrij groot en wat mij betreft mag er wel een gaming specifieke lijn komen die minder presteert op alle andere vlakken die ik en velen met mij toch niet gebruiken. Maarja of amd en intel er hetzelfde over denken. Het gaat uiteindelijk om een kosten baten plaatje.
HBM zou veel te duur zijn.
Wat is te duur? Als 150 euro meer een 15% prestatiewinst zou halen zijn er gekken zat die het kopen. Ik heb liever een 8 core met betere prestatie per core dan een 16 of 32 core met minder prestaties per core voor gaming want in veel situaties is 15% meer prestaties per core gewoon 15% meer fps.
-> AMD gaf al eerder aan dat de scores in syntetische benchmarks lager zou uitvallen
--> krijgen enkel resultaten van syntetische benchmarks :)
Los van het betabios denk ik dat conclusies hieruit trekken sowieso wat voorbarig is :), zullen wel zien wat het geeft in de toekomst, als we dan ook effectief de testen krijgen in games + prod drivers en bios'en. Efin, ze hebben wel de primeur zekers

@Dennism hangt ervanaf hoe je dat bekijkt denk ik 😊, en onder enig voorbehoud ben ik daar inderdaad mis in.

[Reactie gewijzigd door Yoshi op 7 april 2022 13:46]

Dit zijn echter geen synthetische benchmarks, dit zijn productivity workloads.
We kunnen op de semantiek gaan van wat strikt genomen wel/niet als synthetisch 'telt', maar we weten denk ik allemaal wat het bedoelde onderscheid is in dit specifieke geval:

De 5800X3D is ontworpen specifiek met het oog op prestatieverbeteringen in games, niet in productivity of synthetisch.

Wanneer een productivity bench al dan niet als synthetisch telt, daar valt over te discussieren.

[Reactie gewijzigd door Boxman op 7 april 2022 13:42]

De 5800X3D is ontworpen specifiek met het oog op prestatieverbeteringen in games, niet in productivity of synthetisch.
Dat klopt voor zover ik weet niet helemaal, de 5800X3D is een afgeleid product van de Milan-X Sku's, Epyc cpu's met ditzelfde V-Cache, en die zijn echt niet ontworpen voor gaming performance, maar juist voor zakelijke productivity workloads die schalen met grotere caches.

Dat extra het vaak goed doet in games was bekend en natuurlijk een mooie bijkomstigheid, maar ervoor ontworpen is het voor zover ik niet, dat is volgens mij meer een marketing verhaaltje geweest.

[Reactie gewijzigd door Dennism op 7 april 2022 14:00]

Lees het zoals het er staat; de 5800X3D (lees; de gehele CPU, niet de onderliggende architectuur) is specifiek ontworpen en uitgebracht met het oog op prestatieverbeteringen in games. Dat is de doelgroep, dat is de insteek - dat is niet slechts het marketingverhaal. AMD wil matchen met Intel op gameperformance, en daarvoor is deze CPU ontwikkeld, uiteraard op basis van kennis en architectuur die ze in huis hebben.

Dat de onderliggende architectuur in andere producten voorkomt, neemt daar niks van weg. Zo heb je ook server GPU's die exact dezelfde chip gebruiken als de desktop-variant, waar de desktopvariant op games is toegespitst en rondjes fietst om de servervariant in expliciet die toepassing. Hier hetzelfde verhaal.
Zoals @Dennism zegt, AMD zet al sinds 2017 op 1 goede, modulaire architectuur. De Zen-core zit verpakt in blokjes van 4, dat noemen we een CCX. 2 CCXen samen zitten in een CCD. Meerdere CCDs konden aan elkaar verbonden worden voor meer dan 8 cores. In een CCD konden cores uitgeschakeld worden, als het er maar evenveel per CCX waren.

Gaandeweg zijn ze naar een architectuur gegaan waar een gedeelde chip enerzijds de verbindingen tussen CCDs verzorgde, anderzijds cache en verbindingen naar de rest van het systeem (zoals VCACHE).

Maar in de basis blijft het hetzelfde: een Zen-core is identiek van laptop tot 64-core Epyc. Die is niet toegespitst op low-power browsen of high-power simulaties. Andere voltages, ja. Maar ook weer niet zo anders: Een epyc 7763 met 64 cores zuipt ~260W. 100W daarvan is IO die, de resterende 160W is cores. 2,5W per core.
Modellen met minder cores hebben net meer power budget per core. Tot wel 20W voor 1 core!

Het is allemaal legobouwen met identieke bouwblokken. Afhankelijk van de eisen zitten er bouwblokken in met meer cache, meer onderlinge/externe verbindingen, meer of minder power per core. De specifieke integratie maakt het meer/minder geschikt voor een bepaald doel. Maar het zijn gewoon dezelfde blokjes.
Zoals ik tegen hem ook gezegd heeft, heeft hij een semantische discussie ingezet. Hoe de architectuur opgebouwd is, is voor mij geen nieuws. Dennism beargumenteert dat er geen sprake is van 'ontwerp', en daarmee dat geen enkele desktop-cpu in de Zen-architectuur ooit ontworpen is.

Mijn bewoording kan worden veranderd van 'ontworpen' naar 'geimplmenteerd', en dan blijft het punt alsnog bestaan.

Als er geen markt geweest was voor deze chips, en geen onderscheidend karakter was op de desktop-markt, had hij niet bestaan. Het onderscheidend karakter is er wel (+15% gaming performance, allegedly), dus is deze desktop-variant uitgebracht.
Het onderscheidend karakter is er wel (+15% gaming performance, allegedly), dus is deze desktop-variant uitgebracht.
Ik snap dan ook heel de discussie ook niet. De fabrikant zegt letterlijk dat je het verschil in games gaat zien, dan ga je dat toch uittesten of dat waar is of niet. Dat mensen hier hele verhalen komen uittypen om te zeggen dat het niks kan uitmaken in games en die tests niet nodig zijn 8)7
Voor zover mij bekend zit er qua ontwikkeling geen enkel verschil in de Zen 3 dies met V-Cache voor Milan-X en deze in de 5800X3D, maar komen ze van dezelfde wafers af. Voor zover ik begrepen heb bepaald enkel binning of een in Milan-X gebruikt kan worden (dit is prio #1, want meer marge) en zo nee, maar wanneer de die wel bruikbaar is, dan wordt het een 5800X3D, zodat ze alsnog verkocht kunnen worden.
Mijn punt gaat je voorbij. Er zit ook geen enkel verschil tussen de dies van bijv de RTX 3090 Ti en de Quadro RTX 6000.

Als er geen use-case voor die dies is op desktop-use, wordt er geen desktop CPU van gemaakt. De use-case was er wel (+15% allegedly in games), dus is de 5800X3D ontwikkeld.

Noem het zoals je wil, als je het op de semantiek wil spelen dat 'toepassen op een Desktop formfactor" niet 'ontwikkeld' of 'ontworpen' genoemd mag worden, is geen enkele Ryzen desktop-cpu ooit ontworpen geweest, omdat het altijd afgeleide is van de overkoepelende architectuur en dezelfde dies als server-CPU's geniet. Het is wel een beetje spijkers op laag water zoeken, imo.

Maar als ik je er echt een gigantische lol mee doe, wil ik het best anders noemen zonder dat mijn punt ook maar enigszins veranderd:

De implementatie van de (al dan niet afgekeurde) 3D-cache chiplets op desktop-niveau in de vorm van de 5800X3D, is specifiek met het oog op winst in gaming-performance gemaakt. Hij onderscheidt zich van de huidige line-up in gaming performance, dus kon het als standalone product worden uitgebracht. Dat is het doel ervan geweest, en zodanig is hij ook gemarket.
Op deze manier ben ik het wel met je eens. Het lijkt voor jou misschien een semantische discussie, maar het lijkt er wel op dat meerdere mensen het eens zijn dat die semantiek er heel erg toe doet. We zijn nerds :>

Ontwerpen neigt naar specifieke research in een domein omzetten naar een product. Dat is wat gebeurd is voor EPYC. Deze one-off Ryzen neigt eerder naar "het lijkt ook te werken voor een toepassing in die markt -> $$$". Net als de marketing rond "GameCache", die zat er toch al op.

Maar ja, ontwerpen kan je ook zien als de slechtste dies toch nog recupereren als goedkope CPUs. Of een chip met kapotte iGPU ontwerpen voor toepassingen met nood aan aparte GPU. Of het prototype voor een nieuwe cachetechnologie omzetten in een product voor de consumentenmarkt want gaming.
Ik koop een cpu die in alle scenario´s goed presteert, niet alleen in games. AMD brengt hier een cpu uit die slechter presteert dan de 5800X omdat ze de klokfrequentie hebben moeten verlagen. Ik vind dit een gemiste kans en Intel kan eens goed lachen.
Nee, Meer cache Hebben sommige game wat aan tot 15%
Maar dat gaat om elke runtime engine die data verwerkt waar de huidige cache grootes te klein voor zijn en dus stuk beter kunnen presteren met veel grotere cache. Dat zijn dus game die dat per case goed kunnen benutten, niet alle. Want voor die zijn de caches groot genoeg. Maar ook specifieke applicaties die grote data footprint hebben die ook enigzins shared of random benaderd worden in cache. Er zij algoritmes waar je de data juist in cahce moet hebben omdat wijd verspreide compute afhankelijkheden tussen verwerken van data is. En dan is rondspringen in de cahce niet zo hit als random acces naar trage memory. Wat ook kn gebeuren is dat de huidige compute algoritme geoptimaliseerd zijn voor huidige cache grotes dus bulk van de verwerkte data in chunks verdeeld worden zo groot als wat de caches nu zijn.
De 5800X3D is ontworpen specifiek met het oog op prestatieverbeteringen in games, niet in productivity of synthetisch.
Waarschijnlijk is de 5800X3D gewoon ontworpen als test-case voor de 3D cache, en toen AMD merkte dat dit voornamelijk prestatie-winst in games opleverde is men de markting naar die kant gaan richten.
In ieder geval is het volkomen logisch dat er codes zijn die reeds in de cache van de bestaande Ryzen 5800X passen en dan heeft het toevoegen van cache geen nut, de lagere kloksnelheden verklaren de rest.

Ik heb zelf inmiddels ook wat op Milan-X kunnen benchmarken, met precies dezelfde conclusie: Er is geen enkele garantie dat een code op een Milan-X sneller draait, maar bij codes die profiteren van de extra cache, kan de winst groot zijn, ik had een code die meer dan twee keer zo snel draaide.

Deze processoren moeten het dus hebben van een suite benchmarks waarover een gemiddelde berekend wordt. Het heeft geen zin om alleen naar Geekbench en Cinebench te kijken, dat is een te kleine set om ook maar enige uitspraak te kunnen doen over het totaalplaatje.
Dat ben ik ook zeker met je eens, maar neemt niet weg dat Cinebench (Cinema4D) en Blender geen synthetische benchmarks zijn, het zijn beide gewoon real world workloads, echter zijn het workloads die niet heel lekker lijken te schalen met cache en daarvoor wil je straks deze cpu's inderdaad niet hebben.

Net als dat je geen Milan-X neemt wanneer je workloads niet profiteren van de cache, dat is immers geld weggooien. Heb je echter workloads die wel profiteren van deze extra cache dan kan die winst inderdaad aanzienlijk zijn, waardoor je juist Milan-X wil hebben en het de meerprijs ruim waard is.

Verder denk ik niet dat deze CPU's het moeten hebben van een gebalanceerde suite aan benchmarks, dat zal vaak veel te nadelig zijn voor deze cpu's. Ik denk juist dat de gebalanceerde review suites mogelijk nog wel eens het beeld gaan laten zien dat wanneer je naar gemiddeldes gaat kijken deze 5800X3D het helemaal niet zo goed gaat doen.

Ik denk juist dat dit CPU's zijn die je alleen koopt met een zeer specifiek doel (i.e. je workloads kunnen de extra cache benutten), en dat wanneer je mixed loads draait een 5900X (bijvoorbeeld) die +- hetzelfde kost, de betere keuze gaat zijn, of dat je minder kan uitgeven aan bijv. een 5800X
Alleen de level 3 cache is hoger, de rest zijn deze beide processoren bijna identiek er zit nog een verschil in de mhz snelheid.De advies prijzen zijn ook van beide processoren hetzelfde.Ik geloof niet dat er in de toekomstige benchmarks veel veranderd zal worden, als ze deze processor gaan testen en ook op de synthetische benchmark zal niet veel verschil zijn.Deze nieuwere zal misschien minder wattage weggestoken omdat de mhz bij deze nieuwe chip lager liggen.
De enige test die iets zegt over het effect van de extra cache is dus de Blender test: een chip met 4% lagere turbo zet een prestatie neer die 3,6% beter is.

Opgeteld rond de 7% prestatieverbetering dus.

Ben benieuwd naar de overige testen!
Als AMD de claim van beste game processor waar wil maken moet dat flink beter. Kijk bijvoorbeeld naar deze review van eergister: https://www.youtube.com/watch?v=31R8ONg2XEU

Zelfs als we dan niet naar de 12900KS kijken, gaat AMD het mogelijk nog lastig krijgen de normale 12900K te verslaan, afgaande op hun eigen claim van gemiddeld 15% performance winst en lijkt hun claim van "The Worlds Fastest Gaming Processor" misschien iets te vroeg geclaimed.

Kijkende naar de prestaties in die review zijn dit de verschillen tussen de 5800X en de 12900K met DDR4

Kom je op de volgende cijfers:

Farcry 6 - 23% (Voordeel Intel)
Horizon Zero Dawn - 16% (Voordeel Intel)
RB6 Extraction - 1% (Voordeel AMD)
Watchdogs Legion - 26% (Voordeel Intel)
The Riftbreaker - 41% (Voordeel Intel)
Shadow of the Tombraider - 18% (Voordeel Intel)
Hitman 3 - 44% (Voordeel Intel)
Cyberpunk - 34% (Voordeel Intel)

De 5800X wint het in 1 game, maar in de andere games doet de langzaamste Intel 12900K configuratie het altijd 15% of meer beter, terwijl AMD 15% verbetering claimde tijdens hun presentatie.

En dat is tegenover de langzaamste 12900K configuratie, de 12900K met DDR5 en de 12900KS zijn beide nog sneller.
Qua prijs is de 5800x3d ook totaal niet vergelijkbaar met de 12900k of 12900ks.
Dat maakt natuurlijk voor de claim die AMD maakt niet uit, AMD claimt dat dit de snelste gaming processor ter wereld gaat zijn, sneller dus dan de 12900K, 12900KS, wat gezien de data en claims van AMD lastig lijkt te gaan worden.

Dat deze laatst genoemde cpu's duurder zijn heeft op die claim geen invloed.
De KS verbruik daarbij wel 275W. Doe daar nog een 3080 bij is nog eens 350W erbij. Nvidia en Intel gaan allebei de slechte kant op qua stroomverbruik. Ik hoop dat AMD die slechte trend niet volgt want voordeel dat ze hebben is hun lager verbruik zowel qua cpu als gpu. Dat moeten ze vasthouden. Ik wil geen oven in mijn huiskamer in de zomer. Al warm genoeg hier.
Dat klopt niet, de 12900KS verbruikt geen 275W tijdens gaming, net als dat de 12900K geen 250W verbruikt tijdens gaming. Je kan het verbruik tijdens een cinebench test niet gelijk stellen aan het gaming verbruik. Het blijft raar dat mensen denken dat het maximum verbruik (wat je vaak gemeten ziet in reviews), ook het sustained verbruik is in iedere mogelijke workload, terwijl dat simpelweg niet zo is).

Kijk bijvoorbeeld maar eens naar deze review: https://www.igorslab.de/e...d-really-frugal-part-1/9/ , waarbij het verbruik en efficiëntie van de 12600K/12700K en 12900K getest worden tijdens gaming, en je ziet direct dat ze over het algemeen efficiënter zijn dan de directe AMD tegenhangers in gaming (12900K is vrijwel altijd efficiënter dan de 5900X/5950X, de 12700K verslaat de 5800X en 5600X in efficiëntie en de 12600K is ongeveer gelijk aan de 5600X qua efficiëntie.

En ja, ik verwacht dat AMD die trend ook gaat volgen, de geruchten gaan dat AMD's volgende generatie een TDP krijgt van 170W, tegenover 105W nu, daar AMD's PPT (maximale verbruik bij stock settings) normaal gesproken 35% hoger is dan het TDP, zou dat betekenen dat AMD's volgende generatie cpu's op stock 229W mogen verbruiken, waar dat nu 142W is.

[Reactie gewijzigd door Dennism op 7 april 2022 18:56]

Watchdogs Legion - 26% (Voordeel Intel)
Laat de winst van de 5800x3d ten opzichte van de 5900x nu net geen 40% zijn volgens AMD's eigen benchmarks, dus mogelijk net boven de 40% ivm de 5800x.

In hun benchmarks vs de 12900k (met ddr5) houden ze het op een tie voor die game. De ks is maar marginal sneller.

farcry 6 gaven ze ook ook 20% winst aan ivm met de 5900x, en zeggen ze in die game en in tombraider ~10% sneller te zijn als de 12900k.

(ik geloof dat AMD's benchmarks gemaakt zijn met de 6900xt, dus met een nvidia kaart zoals HWU kan het weer iets anders zijn)

Juist in de games waar AMD het nu minder doet ten opzichte van intel is de kans groot dat AMD de meeste winst pakt omdat deze cache precies het zwakke punt voor games van AMD's chips aan pakt: geheugen latency, en precies in die games waarbij de gebruikte GPU's nog niet aan hun max zitten.

De 15% gemiddeld van AMD is overigens vs de 5900x, en niet de 5800x

[Reactie gewijzigd door Countess op 7 april 2022 17:58]

We zullen het zien, ik verwacht in ieder geval uitgaande van de beschikbare data dat AMD het lastig gaat krijgen om hun claim 'World Fastest Gaming CPU" op 20 april waar te maken. Nu zullen er vast games zijn die ze gaan winnen al dan niet in combinatie met de 6900XT, maar ook de 5900X zit over het algemeen gezien momenteel niet binnen 15% van de 12900K in de verschillende games.

Misschien trekken ze echter een konijn uit de hoed en verrassen ze iedereen met de 5800X3D en 6950XT combo die alles wint, zelfs wanneer de 6950XT gepaired wordt met een 6900XT of 6950XT.
Je staart je iets te veel blind op die 15%. Die 15% is vooral zo laag omdat er ook veel games zijn die niet CPU limited zijn, en waar dus weinig tot geen winst in te behalen valt voor een CPU (maar waarin intel nu dus ook niet sneller is als AMD, of hooguit marginaal).
In de games waar nog wel winst te behalen valt voor de CPU zal de winst vaak veel hoger zijn als die 15%.
Het punt is natuurlijk dat die 15% het enige data punt is dat we nu officieel hebben, al zijn het cijfers van een fabrikant. Waardoor je er wel mee moet rekenen tot de onafhankelijke reviews van de geijkte cpu reviewers komen.

En als AMD dan zegt gemiddeld winnen we 15% gemeten over een set games en je ziet dat in reviews met een redelijk brede set games Intel een gemiddeld grotere marge heeft dan de 15% die AMD claimed kan dat een probleem zijn voor AMD (volgens mij zit de Hardware Unboxed review op gemiddeld 21% hoger voor Intel).

Er zullen immers games zijn waar AMD meer dan 15% zal winnen, zoals je terecht aangeeft, maar als het gemiddelde resultaat 15% of lager is, zoals AMD claimed lijken ze het momenteel niet te halen op basis van de beschikbare review data van de onafhankelijke reviews. Eigenlijk moeten we dus hopen dat AMD de 15% gemiddeld gedownplayed heeft en er in de praktijk boven zit.
Het punt is natuurlijk dat die 15% het enige data punt is dat we nu officieel hebben, al zijn het cijfers van een fabrikant.
Dat is dus niet waar.

AMD heeft ook de benchmark scores waar die 15% op gebaseerd is laten zien. In dat zelfde slidedeck hebben ze de 5800x3d vergeleken met de 5900x, en met de 12900k.

Van de 6 games die ze benchmarkte was de score vs de 12900k gelijk in 3 games, ~10% sneller in 2, en ~20% in 1 van de games. Daar gaat de 12900ks niks wezenlijks tegen inbrengen.
[...]

Dat is dus niet waar.
Misschien bedoel jij het anders dan is ik, maar ik bedoel dat de CES 2022 presentatie, waar die 15% aan e orde kost, het enige datapunt is dat we hebben aangezien er nog een geen officiële onafhankelijke reviews zijn.

Probleem echter dat de nieuwe data van HWU niet volledig strookt met de AMD CES data claims.

Kijkende naar: https://www.techspot.com/...1/2022-01-03-image-42.jpg en https://www.techspot.com/...1/2022-01-03-image-44.jpg

Zij hebben 3 tests die overeenkomt met HWU, Far Cry, Watchdogs en Tombraider

AMD zelf stelt +40% in Watchdogs, +20% in Far Cry en +10% in Tombraider over de 5900X
AMD zelf stelt Tie in Watchdogs, +10% in Far Cry en +10% in Tombraider over de 12900X

Helaas verteld AMD niet wat ze testen (avg of 1% low), maar wel waarmee ze testen:
RSK-106 en RKS-107: https://cdn.wccftech.com/...-04_21-51-44-1480x833.png Ze testen dus niet, zoals ik (en volgens mij jij ook) zou verwachten met een 6900XT, maar met een 3080, daarnaast testen ze de 12900K met DDR5, waar HWU beide varianten test.

Nu deze data vergelijken met de HWU data:

De HWU testdata is als volgt:

Far Cry (High Preset, zelfde als AMD, dus zou vergelijkbaar moeten zijn)
5900X - 111 FPS (1% low) 127 (avg)
12900K (DDR4) 134 (1% low) 157 (avg)
12900K (DDR5) 143 (1% low) 170 (avg)

Dit geeft voor 1% lows:

5900X = 1 - 12900K (DDR4) = 1,21 - 12900K (DDR5) = 1,29
Intel loopt dus afhankelijk van configuratie 21% en 29% voor.

AMD zelf claimed dat de 5800X3D 20% sneller is dan de 5900X in deze titel, en de 12900K met 10% verslaat. Kijk je naar de data zou dat niet kloppen, als de 5800X3D inderdaad +20% zou zijn zoals AMD claimed, wordt de 12900K (DDR4) niet verslagen en ook de 12900K (DDR5) niet als je kijkt naar 1% lows.

Dit geeft voor avg:

5900X = 1 - 12900K (DDR4) = 1,24 - 12900K (DDR5) = 1,33
Intel loopt dus afhankelijk van configuratie 24% en 33% voor.

AMD zelf claimed dat de 5800X3D 20% sneller is dan de 5900X in deze titel, en de 12900K met 10% verslaat. Kijk je naar de HWU data zou dat niet kloppen, als de 5800X3D inderdaad +20% zou zijn zoals AMD claimed, wordt de 12900K (DDR4) niet verslagen en ook de 12900K (DDR5) niet als je kijkt naar avg, de 5800X3D moet de 5900X dus met meer verslaan dat AMD claimed, of ze verslaan volgende deze onafhankelijk review data de 12900K niet.

Watchdog Legion (Very High Preset, mogelijk niet hetzelfde als AMD, dus mogelijk kleine verschillen)
5900X - 85 FPS (1% low) 119 (avg)
12900K (DDR4) 103 (1% low) 139 (avg)
12900K (DDR5) 126 (1% low) 164 (avg)

Dit geeft voor 1% lows:

5900X = 1 - 12900K (DDR4) = 1,21 - 12900K (DDR5) = 1,48
Intel loopt dus afhankelijk van configuratie 21% en 48% voor.

AMD zelf claimed dat de 5800X3D 40% sneller is dan de 5900X in deze titel, en de 12900K tied. Kijk je naar de data zou dat niet kloppen, als de 5800X3D inderdaad +40% zou zijn zoals AMD claimed, wordt de 12900K (DDR4) ruim verslagen, echter de 12900K (DDR5) niet als je kijkt naar 1% lows, al kan dit kleine verschil in de preset zitten (high bij AMD, HWU test met very high). Echter voor de eindconclusie zal iedereen kijken naar de data van de onafhankelijke reviewers en niet die van AMD.

Dit geeft voor avg:

5900X = 1 - 12900K (DDR4) = 1,17 - 12900K (DDR5) = 1,38
Intel loopt dus afhankelijk van configuratie 17% en 38% voor.

AMD zelf claimed dat de 5800X3D 40% sneller is dan de 5900X in deze titel, en de 12900K tied. Kijk je naar de data zou dat kloppen, als de 5800X3D inderdaad +40% zou zijn zoals AMD claimed, ze verslaan de 12900K (DDR4) ruim en hebben een tie / zeer nipte win binnen de error marges met de 12900K (DDR5) met 38% t.o.v. de geclaimde 40%. Dit lijkt dus ook te beantwoorden wat AMD test, avg en niet 1% lows.

Ik heb helaas geen tijd de 3de game ook nog te checken, maar als je naar de AMD en HWU data kijkt tussen deze 2 verschillende games zie je dat AMD's data voor avg framerate lijkt te kloppen met hun claim voor Watchdogs Legions, maar bij Far Cry 6 niet helemaal overeen komt met wat AMD claim qua nummers.

[Reactie gewijzigd door Dennism op 8 april 2022 19:27]

HWU test niet met de ingame benchmark. ze hebben voor elke game een vast scenario wat ze aflopen.
Ik weet niet of AMD de ingame benchmark gebruikt of niet, maar wat ze ook gebruikt het zal nooit exact het zelfde zijn als wat HWU gebruikt.

Dat betekend dat HWU een realistische beeld zou moeten geven... maar ook dat hun resultaten alleen 1 op 1 te vergelijken zijn met HWU resultaten en nergens anders mee.
Als AMD de in game benchmark gebruikt, of een heel ander map als HWU gebruikt dan is het onvermijdelijk dat er verschillen zullen zijn, verschillen die anders kunnen uitpakken op andere CPU's.

HWU zal dus echt eerst de 5800x3d moeten testen in hun benchmark suite voor je die cijfers kan gebruiken.

De enige cijfers die we hebben, van mensen die het echt kunnen weten, zijn die van AMD, en die van CapFrameX.

[Reactie gewijzigd door Countess op 9 april 2022 01:05]

https://twitter.com/CapFrameX/status/1512151405615849477 Inmiddels hebben ze tomb raider ook eens gedraaid - op achterlijke lage settings. Maar goed, je moet de CPU de botttleneck maken..

In hun specifieke test beweren ze dat de 12900K 190fps haalt, de 12900KS 200 en de 5800X3D 220fps. Da's 10% sneller. Maar kan heel goed cherry picking zijn.
Dat is wel een interessante, alleen testen ze helaas wel op settings die je heden ten dage voor hardware in deze prijsklasse eigenlijk niet meer serieus kan nemen als realworld workload. Dat je de cpu de bottleneck 'moet' maken ben ik dan ook niet met je eens, uiteraard wil je dat de cpu de bottleneck is, in een cpu test maar zodra je settings gaat testen die 'niemand' daadwerkelijk gaat gebruiken ga je het doel voorbij.

Ik zelf hou eigenlijk 1080P high tegenwoordig wel aan als minimale resolutie voor producten in het highend segment, en zelf dan denk ik dat er verhoudingsgewijs maar weinig gamers zijn die een 12900K of 5800X3D zullen kopen, met GPU uit een vergelijkbaar marktsegment (ultra highend) en dan op 1080P non ultra gaan gamen, dat zal waarschijnlijk vrijwel alleen in de E-Sport en / of VR niche voorkomen.

En als je dan 1080P high (of hoger) test en in bepaalde testen is er geen cpu bottleneck, dan is dat ook waardevolle data, dan weet je immers als aspirant koper dat je als op die settings (of hoger) wil spelen, deze cpu's voor jou weinig zin hebben, wat soms budget technisch heel prettig kan zijn ;) Blijft er bijvoorbeeld meer over voor een betere GPU of een beter scherm.
Enige wat ik persoonlijk jammer vindt omdat ik het gebruik is het missen van AVX-512 ondersteuning.
Geen probleem voor 90% van de gebruikers maar goed, wel handig voor toekomst bestendigheid

[Reactie gewijzigd door stewie op 7 april 2022 13:53]

Mwah, zelfs Intel gaat AVX-512 niet op alle processoren ondersteunen, of zelfs niet op alle cores binnen een processor. Daarnaast heeft Intel's AVX-512 implementatie als nadeel dat het zoveel warmte genereert dat de processor omlaag klokt tijdens AVX-512 workloads. Veel mensen vinden dit ongewenst.

Het is daarom maar zeer de vraag of de AVX-512 instructies veel toekomst hebben.
Het is 100% de toekomst, je kan er gewoon niet omheen.
Zelfs intel kan er om heen aangezien ze het voor ADL af laseren van zelfs de P cores.

Er zitten wat interessante functies bij AVX512, maar het hele 512bit gedeelte is voor niemand buiten wetenschappelijke applicaties gedraaid op supercomputers interessant.
Hopelijk komen die paar functies naar een AVX256 v2.0 ofzo.
Verandert niet het feit dat alle toekomstige cpu's het zullen hebben, of je het leuk vindt of niet..
De wereld stopt niet, en leuk over wat je nu vind van wat intel "NU DOET" ze gaan het samen met AMD gewoon doorvoeren in al hun chips...

[Reactie gewijzigd door stewie op 7 april 2022 17:24]

Dat betwijfel ik. AVX256 is al bijna niet interessant voor de desktop. zelfs zo veel jaar na introductie niet.

[Reactie gewijzigd door Countess op 7 april 2022 20:56]

Kijk lekker naar de roadmap, het is niet te stoppen.. (Dag)
Is maar net wat je doet. Als 99% gamer heb ik er helemaal niets aan. En de paar games die een AVX instructie gebruiken gebruiken nog een hele oude.
Tegen de tijd dat 512 in games gebruikt word staan alle huidige computers in het museum als dat al ooit gebeurd.
Games, lekker belangerijk.
Minder dan 5% van PC's worden daarvoor gebruikt :|
ik trek je exacte cijfers in twijfel maar je hebt een punt... het overgrote deel van PC's wordt gebruikt voor office taken en browsen, en die hebben dus al HE-LE-MAAL niks aan AVX256 laat staan AVX512.
Gebaseerd op ?

En als je zo gaat redeneren dan word het over grote deel alleen gebruik voor mail, browsen en wat text verwerken. Dat kan je prima op een dual core zonder AVX...

En ik denk dat het gros van de mensen die zelf een pc bouwen gamen heel belangrijk vinden en alle andere zaken bijzaak zijn.

[Reactie gewijzigd door computerjunky op 7 april 2022 17:14]

"scientific simulations, financial analytics, artificial intelligence (AI)/deep learning, 3D modeling and analysis, image and audio/video processing, cryptography , ... ;)
Als de prijs vergelijkbaar is zou ik altijd voor diegene met meer cache gaan. Die is in theorie altijd sneller, maar veel is afhankelijk van je workload. Hoe minder cache, hoe meer er moet geswapped worden bij grote berekingen. Hoe meer cache, hoe sneller grote instructies kunnen uitgevoerd worden. Althans dat is wat ik er van onthouden heb door de jaren heen. Voor huis/tuin keukengebruik zal dit echt niet veel uitmaken. Een voor games is het toch nog voornamelijk de gpu die het em moet doen. Uiteraard heeft het geen nut om een i3 met een 3090ti te gaan pairen uiteraard. Maar als je een 2000 of 3000 reeks heb, of iets recents van amd hebt, dat in combinatie met een "recente" i7 of 3700x of hoger reeks, dan zal het verschil marginaal zijn. Deze cpu is volgens mij toch eerder voor de zwaardere workloads zoals videoprocessing en dergelijke. Moest ik mijn 3700 upgraden naar een 5800 en deze is marginaal duurder dan ga ik toch voor deze. Maar je zou het verschil moeten kunnen zien met een 5900 of 5950. En dan pas kan je bepalen wat het beste is voor jouw gebruik
Niet dus, het hangt compleet af van wat je met je pc doet. 8x 32kb kan sneller zijn als je applicatie geen cache gebruikt maar je daardoor wel een paar honderd mhz meet hebt en dat is hier dis ook het geval.
Dat klopt in een zekere zin wel.

Kennen we allemaal de Intel Celeron 300A (t/m 433A) CPU’s nog? Deze kwamen stock met een fsb van 66MHz en 128kb on-die L2 cache. Deze CPU’s stonden bekend om hun overklokbaarheid en heeft Intel destijds, door enthousiastelingen, flink wat geld door de neus geboord.

Een 300A outperformed zowat iedere Pentium II uit hetzelfde tijdperk, ongeacht de lagere hoeveelheid L2 cache, door simpelweg de FSB te verhogen van 66MHz naar 100MHz. Dit was een overclock van 50%! Voor de prijs van een 300A tov een Pentium II op 350/400MHz was dat natuurlijk een groot verschil! Daarbij draaide de cache ook nog een stuk sneller, waardoor die voorsprong groter werd.
Stukje historie

Ik zie nu een beetje dezelfde discussie oplaaien. Maar dan tussen AMD en Intel. Ergens hoop ik een beetje dat AMD zichzelf in games flink kan gaan bewijzen, zodat Intel nog harder z’n best moet gaan doen. Concurrentie zorgt voor interessante ontwikkelingen. Daarbij komt nog het stukje dat game engines daadwerkelijk geoptimaliseerd moeten zijn om efficiënt gebruik te kunnen maken van zoveel cache.

Ik ben heel erg benieuwd wat dit gaat brengen!
Persoonlijk zijn er maar 2 zaken die mijn boeien. Streamen en gamen. De rest zal me een zorg zijn als dat die paar keer dat ik dat doe wat trager is of zelfs de helft trager.

Momenteel lijken nvidia en intel streamen beter voor elkaar te hebben qua cpu x264 en nvnenc en heb ik de hoop opgegevben dat AMD nog iets daat doen voor streamen met mijn peperdure 6900XT. De eerste de beste kans dat ik krijg om hem vaarwel te zeggen pak ik dan ook. Amd heeft het helaas af laten weten qua gpu features. Cpu daarintegen moeten we nog zien tegen de tijd dat ik mijn cpu vervang. Miscchien al volgende generatie want ik ben best vaak cpu bottlenecked en misschien pas bij 14xxx/8xxx in 2023.
Copyright 2021? Zou dit een Ryzen 7 5800 (zonder x) zijn met X3D erop geplakt? Of misschien een engineering sample?
Hou er ook rekening mee dat productie vaak maanden voor introductie al begint, zo zou volgens de geruchten massa productie van deze cpu's in november 2021 begonnen zijn zie o.a. deze Tweet van bekende leaker Greymon: https://twitter.com/greymon55/status/1450407844516298755
Ben ik van op de hoogte, was meer zo dat op de processor zelf copyright 2021 staat en op de doos copyright 2022
Tweakers, verloopt jullie NDA dan gewoon op 20 april? Voeg dit effe toe aan het artikel aub. Heel relevant als je zo'n post uit Peru samenvat.
De NDA datum valt vaak ook onder NDA.
De techsite zou eerder op een zwarte lijst gezet zijn door AMD, waardoor deze geen reviewsamples krijgt opgestuurd, maar ook geen embargoafspraken hoeft te volgen.
Maw een volledig onafhankelijke tech-site die echte onafhankelijke reviews kan plaatsen? _/-\o_
Je hebt ergens wel een punt... _/-\o_

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee