Door Willem de Moor

Redacteur

Cinebench 20, raytracing en energie

Nieuwe benchmarks op een rij

02-04-2019 • 06:00

90

Multipage-opmaak

Inleiding: benchmark-update

In de afgelopen maanden zijn er diverse nieuwe benchmarks verschenen die vooral voor al dan niet toekomstige eigenaren van RTX-videokaarten interessant zijn. Ook als je de kat uit de boom kijkt en je nog niet aan raytracingkaarten hebt gewaagd, zijn de benchmarks van games die deze relatief jonge techniek ondersteunen, interessant. Nvidia is namelijk van plan raytracing ook naar kaarten te brengen die daarvoor geen specifieke hardware aan boord hebben.

We hebben raytracing, en de anti-aliasingtechniek dlss die daarmee hand in hand gaat bij Nvidia, getest op de diverse games die dat momenteel ondersteunen: Battlefield V, Metro Exodus en Shadow of the Tomb Raider. We hebben ook Futuremarks nieuwste uitbreiding Port Royal voor raytracing getest. De kaarten die we hebben getest, zijn de Founder's Editions van de RTX-serie. Van AMD zijn vooralsnog geen kaarten beschikbaar die de techniek ondersteunen.

Naast de raytracingtests voor videokaarten hebben we ook een oude belofte ingelost. Sinds enige tijd waren de meetinstrumenten om het opgenomen vermogen van processors te meten stuk. We hebben inmiddels nieuwe en betere meters gekocht en hebben alle courante processors in ons magazijn met deze nieuwe meters getest. Voortaan kunnen we dus weer opgenomen vermogens in onze processorreviews opnemen en als voorproefje hebben we een overzicht voor je gemaakt.

Over processors gesproken: dé standaardbenchmark voor processors, Cinebench, is sinds kort in versie 20 beschikbaar. We zaten al sinds 2013 op R15, maar hebben nu eindelijk een vernieuwde benchmark, die vooral voor processors met veel cores betere resultaten oplevert. Ook daarvan hebben we een lijst met alle resultaten tot dusver samengesteld en deze benchmark zullen we, naast Cinebench R15, in toekomstige reviews hanteren.

Cinebench 20 running

Raytracing met RTX-kaarten

Inmiddels is er een handjevol benchmarks voor raytracing beschikbaar. Battlefield V ondersteunt de techniek al enige tijd en ook voor Shadow of the Tomb Raider is sinds kort een patch uit om raytracing mogelijk te maken op RTX-kaarten. Verder heeft Futuremark in zijn 3DMark-suite een raytracingbenchmark in de vorm van Port Royal opgenomen en ook Metro Exodus heeft inmiddels ondersteuning voor de belichtingstechniek. We hebben die benchmarks dan ook op onze vier RTX-kaarten, de RTX 2060, 2070, 2080 en 2080 Ti, gedraaid en bekijken de resultaten.

Port Royal

We beginnen met de nieuwste uitbreiding op 3DMark: Port Royal. De benchmark maakt gebruik van Microsofts DirectX-raytracingimplementatie om schaduwen en reflecties te genereren binnen een scène van 2560 bij 1440 pixels. 3DMark hanteert voor de score een vermenigvuldigingsfactor van 216 maal de framerate. In de resultaten geven we zowel de score als de bijbehorende framerate.

  • 3DMark Port Royal
  • 3DMark Port Royal - FPS
  • Aantal RT-cores
3DMark Port Royal
Videokaart Gemiddelde futuremark 3DMark-punten in 3DMarks (hoger is beter)
RTX 2080 Ti FE
8.203
RTX 2080 FE
6.099
RTX 2070 FE
4.863
RTX 2060 FE
3.849
3DMark Port Royal - FPS
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
38,0
RTX 2080 FE
28,2
RTX 2070 FE
22,5
RTX 2060 FE
17,8
RT-cores
Videokaart Gemiddelde aantal in x (hoger is beter)
RTX 2080 Ti FE
68
RTX 2080 FE
46
RTX 2070 FE
36
RTX 2060 FE
30

Met het huidige aanbod aan RTX-kaarten produceer je geen speelbare framerates met Port Royal, maar als we enkel naar de scores kijken, zien we steeds een sprong van ongeveer 25 procent van de 2060 naar de 2070 en 2080. De 2080 Ti maakt een grotere sprong van 35 procent. Gezien het aantal RT-cores in de kaarten is dat niet helemaal logisch, aangezien die oplopen van 30 in de 2060 naar 36 in de 2070, 46 in de 2080 en maar liefst 68 in de 2080 Ti. De RTX 2070 scoort in Port Royal dus ruim 26 procent beter, met maar 20 procent extra RT-cores.

Daaruit zou je kunnen concluderen dat de 2060-kaart bovenmatig wordt afgeremd door het geringe aantal RT-cores. Kijken we naar het verschil tussen de 2070 en 2080, dan heeft de RTX 2080 bijna 28 procent meer RT-cores aan boord, wat aardig overeenkomt met de prestatiewinst van ruim 25 procent. Meer RT-cores lijkt, tenminste in Port Royal, relatief minder op te leveren. De 2080 Ti scoort immers maar 25 procent beter dan de gewone 2080, maar beschikt wel over bijna 48 procent meer RT-cores. We kijken hoe dat bij echte games zit.

Battlefield V

Battlefield V was de eerste game die Nvidia's raytracing ondersteunde, maar in onze benchmarks blijkt die implementatie nog niet honderd procent foutloos. Met de 2080 Ti in het testsysteem konden we weliswaar raytracing inschakelen, maar de benchmark werd steevast zonder RT gedraaid. We hebben dan ook enkel de resultaten van de RTX 2080, 2070 en 2060.

1080p Ultra

  • RTX 2060
  • RTX 2070
  • RTX 2080
Battlefield V (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2060 FE
108,8
2060 - Medium RTX, Dlss aan
79,1
2060 - High RTX, Dlss aan
78,1
2060 - Ultra RTX, Dlss aan
72,2
Battlefield V (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2070 FE
122,2
2070 - Medium RTX, Dlss aan
88,8
2070 - High RTX, Dlss aan
88,0
2070 - Ultra RTX, Dlss aan
82,3
Battlefield V (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 FE
144,4
2080 - Medium RTX, Dlss aan
96,6
2080 - High RTX, Dlss aan
95,0
2080 - Ultra RTX, Dlss aan
83,4

We willen vooral de invloed van raytracing op de prestaties bekijken, dus hebben we voor Battlefield V drie rt-niveaus vergeleken met de prestaties zonder raytracing ingeschakeld. De raytracingniveaus van Battlefield V zijn Low, Medium, High en Ultra, en we hebben de eerste drie getest. Om databasetechnische redenen noemen we die in de grafiek echter Medium, High en Ultra. Op 1080p haal je ook met de RTX 2060 nog prima speelbare framerates en dat geldt uiteraard ook voor de 2070 en 2080.

Het valt op dat er tussen de Medium en High-instellingen van raytracing in BF V nauwelijks verschil in prestaties is waar te nemen. De hoogste kwaliteit raytracing legt nog zwaarder beslag op de gpu; je bent een derde van je framerate kwijt met raytracing. Ook op lagere niveaus haal je nog flink lagere framerates. De cijfers voor de RTX 2060 en RTX 2070 zijn procentueel vrijwel gelijk, maar met de RTX 2080 zakken de scores relatief nog verder in. Waar je zonder raytracing nog op een 144Hz-scherm kunt spelen, haal je met raytracing dik veertig procent minder fps.

We hebben van acht scènes screenshots gemaakt met de verschillende raytracingniveaus. Zo kun je zelf beoordelen welke effecten de techniek heeft en of je dat de extra belasting waard vindt. Om raytracing helemaal uit te schakelen, moet het spel opnieuw worden gestart, wat het onmogelijk maakt om een identiek screenshot vast te leggen.

Je kunt met de slider de RTX-niveau's Low en Ultra met elkaar vergelijken of op de foto's klikken voor een grotere versie en alle RTX-instellingen met elkaar vergelijken.

Battlefield V RTX Low 1Battlefield V RTX Medium 1Battlefield V RTX High 1Battlefield V RTX Ultra 1

Battlefield V RTX Low 2Battlefield V RTX Medium 2Battlefield V RTX High 2Battlefield V RTX Ultra 2

Battlefield V RTX Low 3Battlefield V RTX Medium 3Battlefield V RTX High 3Battlefield V RTX Ultra 3

Battlefield V RTX Low 4Battlefield V RTX Medium 4Battlefield V RTX High 4Battlefield V RTX Ultra 4

Battlefield V RTX Low 5Battlefield V RTX Medium 5Battlefield V RTX High 5Battlefield V RTX Ultra 5

Battlefield V RTX Low 6Battlefield V RTX Medium 6Battlefield V RTX High 6Battlefield V RTX Ultra 6

Battlefield V RTX Low 7Battlefield V RTX Medium 7Battlefield V RTX High 7Battlefield V RTX Ultra 7

Battlefield V RTX Low 8Battlefield V RTX Medium 8Battlefield V RTX High 8Battlefield V RTX Ultra 8

Bij Metro Exodus is het iets makkelijker om iets over de kwaliteit te zeggen, maar bij Battlefield moeten we toegeven dat we het erg moeilijk vinden om iets zinnigs over de screenshots te zeggen. De hogere raytracingniveaus leveren over het algemeen iets helderdere plaatjes op, maar trek vooral je eigen conclusies.

Metro Exodus

Metro Exodus ondersteunt sinds medio februari ook raytracing, maar biedt, anders dan Battlefield V, de optie om dlss aan of uit te zetten. Dat biedt een mooie gelegenheid om niet alleen de impact van raytracing, maar ook die van dlss versus reguliere anti-aliasing te meten. We splitsen de metingen in High en Ultra RTX; beide instellingen hebben we met dlss aan en uit gebenchmarkt.

High RTX

  • Metro Exodus - 1080p Ultra
  • Metro Exodus - 4k Medium
  • Metro Exodus - 4k Ultra
Metro Exodus - 1080p Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
101,0
RTX 2080 FE
81,0
RTX 2070 FE
64,0
2070 - High RTX, Dlss aan
61,0
RTX 2060 FE
55,0
2070 - High RTX, Dlss uit
55,0
2060 - High RTX, Dlss aan
52,0
2060 - High RTX, Dlss uit
45,0
Metro Exodus - 4k Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
68,0
RTX 2080 FE
64,0
2080 Ti - High RTX, Dlss aan
60,0
2080 - High RTX, Dlss aan
46,0
RTX 2070 FE
44,0
2080 Ti - High RTX, Dlss uit
40,0
2070 - High RTX, Dlss aan
37,0
RTX 2060 FE
36,0
2080 - High RTX, Dlss uit
30,0
2070 - High RTX, Dlss uit
24,0
Metro Exodus - 4k Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
2080 Ti - High RTX, Dlss aan
52,0
RTX 2080 Ti FE
50,0
2080 - High RTX, Dlss aan
40,0
RTX 2080 FE
39,0
2080 Ti - High RTX, Dlss uit
36,0
2070 - High RTX, Dlss aan
32,0
RTX 2070 FE
31,0
RTX 2060 FE
26,0
2080 - High RTX, Dlss uit
26,0
2070 - High RTX, Dlss uit
21,0

Ook Metro had problemen met sommige kaarten in combinatie met raytracing en dlss, reden dat niet alle RTX-kaarten in elke grafiek voorkomen. Dat gezegd hebbende, zien we dat de RTX 2060 met raytracing en dlss ingeschakeld maar een paar procent lager scoort dan zonder beide RTX-technieken, maar als je dlss niet laat helpen, zakken de scores wel behoorlijk in.

De RTX 2070 op 1080p zakt ook een procent of vijf in fps als je raytracing en dlss inschakelt en zit op het niveau van een 2060 als je dlss uitschakelt met raytracing ingeschakeld. Op beide 4k-resoluties scoort de 2070 geen zinnige framerates meer; daarvoor moet je naar de 2080 overstappen. Dan nog kun je niet meer dan 4k-Medium spelen, want ook de 2080 komt met raytracing en dlss ingeschakeld niet hoger dan 46fps: bijna dertig procent lager dan de 64fps zonder beide technieken. Op 4k-Ultra haal je bij de RTX 2080 opvallend genoeg een iets hogere framerate met raytracing en dlss ingeschakeld, maar met nauwelijks 40fps is dat voor de meeste gamers te weinig.

De RTX 2080 Ti haalt op 4k-Medium nog redelijke scores, en met raytracing en dlss ingeschakeld blijft er nog een verdienstelijke 60fps over. Dat zakt in tot 40fps als je dlss uitschakelt, wat een aardige lans breekt voor dlss. Op 4k-Ultra komt ook de RTX 2080 Ti niet tot soepel speelbare framerates, hoewel ook nu de scores met raytracing en dlss ingeschakeld iets hoger zijn dan zonder.

  • Metro Exodus - 1080p Ultra
  • Metro Exodus - 4k Medium
  • Metro Exodus - 4k Ultra
Metro Exodus - 1080p Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
101,0
RTX 2080 FE
81,0
RTX 2070 FE
64,0
2070 - Ultra RTX, Dlss aan
58,0
RTX 2060 FE
55,0
2060 - Ultra RTX, Dlss aan
49,0
2070 - Ultra RTX, Dlss uit
49,0
2060 - Ultra RTX, Dlss uit
40,0
Metro Exodus - 4k Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
68,0
RTX 2080 FE
64,0
2080 Ti - Ultra RTX, Dlss aan
54,0
RTX 2070 FE
44,0
2080 - Ultra RTX, Dlss aan
41,0
RTX 2060 FE
36,0
2080 Ti - Ultra RTX, Dlss uit
34,0
2070 - Ultra RTX, Dlss aan
33,0
2080 - Ultra RTX, Dlss uit
25,0
2070 - Ultra RTX, Dlss uit
21,0
Metro Exodus - 4k Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
50,0
2080 Ti - Ultra RTX, Dlss aan
48,0
RTX 2080 FE
39,0
2080 - Ultra RTX, Dlss aan
36,0
RTX 2070 FE
31,0
2080 Ti - Ultra RTX, Dlss uit
31,0
2070 - Ultra RTX, Dlss aan
29,0
RTX 2060 FE
26,0
2080 - Ultra RTX, Dlss uit
23,0
2070 - Ultra RTX, Dlss uit
21,0

We kunnen de kwaliteit van het raytracen nog verder omhoog draaien naar Ultra, en we beginnen weer met de RTX 2060 en 2070 op 1080p. Die eerste zakt iets verder, van 55 naar 49fps met dlss ingeschakeld en 40fps met dlss uitgeschakeld. Met raytracing op de hoge stand was dat nog respectievelijk 52 en 45fps. De RTX 2070 zakt van 64 naar 58 en 49fps, tegen 61 en 55fps. Met dlss ingeschakeld kun je dus net zo goed de raytracingkwaliteit opschroeven tot het maximum, want erg veel snelheid scheelt dat niet.

Als we kijken naar 4k-resoluties, te beginnen met Medium-settings, dan zakken we met de RTX 2070 van een nauwelijks speelbare 44fps naar een niet speelbare 33fps of zelfs 21fps met dlss uitgeschakeld. Voor de 4k-Ultra-settings blijft er minder dan 30fps over, hoewel het verschil tussen raytracing in- en uitgeschakeld opnieuw zeer gering is. Met andere woorden, waarom zou je het niet aanzetten?

Kijken we naar de kaarten als de 2080 en 2080 Ti met meer rt-cores, dan beginnen we in Metro op 4k-Medium al met nauwelijks speelbare framerates van net boven de 60fps, maar met raytracing en dlss aan incasseert de RTX 2080 een enorme prestatiehit van 64 naar 41fps en de RTX 2080 Ti zakt van 68 naar 54fps, een iets minder dodelijke klap, maar nog altijd een vijfde minder. Kijken we naar 4k-Ultra, dan zakt de 2080 Ti nauwelijks als je raytracing en dlss inschakelt, en de gewone 2080 zakt iets meer, maar weer niet schokkend.

Dlss uitschakelen en vertrouwen op de traditionele anti-aliasingtechnieken is in alle gevallen af te raden, maar raytracing kun je gerust aanzetten. Met niet te gek veel details krijg je er bij sommige kaarten zelfs prestatiewinst bij, zoals je aan de 4k-Medium-prestaties van de 2080 en 2080 Ti kunt zien.

Screenshots raytracingniveaus

Bij Metro Exodus kunnen we raytracing wel on-the-fly aan- en uitzetten, dus kunnen we de twee geteste niveaus High en Ultra direct vergelijken met screenshots met raytracing uitgeschakeld.

Je kunt met de slider RTX-niveau's vergelijken of op de foto's klikken voor een grotere versie.

Metro Exodus RTX uit 1Metro Exodus RTX High 1Metro Exodus RTX Ultra 1

Metro Exodus RTX uit 2Metro Exodus RTX High 2Metro Exodus RTX Ultra 2

Metro Exodus RTX uit 3Metro Exodus RTX High 3Metro Exodus RTX Ultra 3

Metro Exodus RTX uit 4Metro Exodus RTX High 4Metro Exodus RTX Ultra 4

Bij de eerste screenshots vallen de verschillen wel mee. Het water ziet er zonder raytracing ook prima uit, maar met raytracing zijn de reflecties in dat water, bijvoorbeeld van de truck, wat realistischer. Ook je wapen en de tank zijn iets beter belicht en de streep zonlicht ziet er eveneens wat beter uit.

Afgezien van de lichtval op de muur rond het gat is het verschil in het tweede screenshot niet groot, maar in de derde reeks zijn er flinke verschillen, bijvoorbeeld met de schaduwen op je wapen, de belichting van de kade en de reflecties in het water.

Ook in het vierde screenshot zijn grote verschillen in belichting en lichtval te zien, waarbij de 'geraytracete' versies veel realistischer ogen. Vanuit tactisch oogpunt zijn de donkere schaduwgebieden echter misschien minder handig…

Shadow of the Tomb Raider

Ook Shadow of the Tomb Raider kreeg onlangs een update om raytracing in te schakelen en net als in Metro kun je ook in Shadow dlss in- en uitschakelen. Tomb Raider kent net als Battlefield V drie niveaus van raytracing en we bekijken die weer met ons kwartet kaarten. Op 1080p Ultra draaiden de 2080 en 2080 Ti niet zonder problemen, maar op 4k hebben we eindelijk een resultaat met alle vier de kaarten bij elkaar.

1080p Ultra

  • Medium RTX
  • High RTX
  • Ultra RTX
Shadow of the Tomb Raider (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
146,0
RTX 2080 FE
127,0
RTX 2070 FE
99,0
2070 - Medium RTX, Dlss aan
95,0
RTX 2060 FE
90,0
2070 - Medium RTX, Dlss uit
88,0
2060 - Medium RTX, Dlss aan
79,0
2060 - Medium RTX, Dlss uit
73,0
Shadow of the Tomb Raider (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
146,0
RTX 2080 FE
127,0
RTX 2070 FE
99,0
RTX 2060 FE
90,0
2070 - High RTX, Dlss aan
71,0
2070 - High RTX, Dlss uit
68,0
2060 - High RTX, Dlss aan
59,0
2060 - High RTX, Dlss uit
56,0
Shadow of the Tomb Raider (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
146,0
RTX 2080 FE
127,0
RTX 2070 FE
99,0
RTX 2060 FE
90,0
2070 - Ultra RTX, Dlss aan
68,0
2070 - Ultra RTX, Dlss uit
64,0
2060 - Ultra RTX, Dlss aan
57,0
2060 - Ultra RTX, Dlss uit
53,0

De RTX 2060 zakt van 90fps zonder raytracing ingeschakeld naar achtereenvolgens 79, 59 en 57fps, met respectievelijk raytracing op Medium, High en Ultra. Tussen High en Ultra zit dus weinig verschil, maar de stappen van raytracing inschakelen op Medium en vooral de stap van Medium naar High geven flinke prestatieverliezen. De prestatieverschillen tussen de scores met dlss in- en uitgeschakeld zijn niet zo groot als bij andere games.

Als we naar de RTX 2070 kijken, is er nog maar nauwelijks verschil tussen raytracing uitgeschakeld en de laagste stand daarvan. We zakken van 99 naar 95fps, een verschil van maar vier procent. Als we raytracing opschroeven naar High, zakken we wel behoorlijk in framerate, tot 71fps, ofwel bijna dertig procent minder dan zonder. Met raytracing op de hoogste stand zakken we nog wat verder in framerates, maar dat is net als bij de RTX 2060 maar een klein verschil.

4k-Medium

  • Medium RTX
  • High RTX
  • Ultra RTX
Shadow of the Tomb Raider (DX12) - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
2080 Ti - Medium RTX, Dlss aan
81,0
RTX 2080 Ti FE
79,0
RTX 2080 FE
65,0
2080 Ti - Medium RTX, Dlss uit
65,0
RTX 2070 FE
52,0
2070 - Medium RTX, Dlss aan
52,0
RTX 2060 FE
44,0
2070 - Medium RTX, Dlss uit
40,0
2060 - Medium RTX, Dlss aan
35,0
2060 - Medium RTX, Dlss uit
25,0
Shadow of the Tomb Raider (DX12) - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
79,0
RTX 2080 FE
65,0
2080 Ti - High RTX, Dlss aan
61,0
RTX 2070 FE
52,0
2080 - High RTX, Dlss aan
49,0
2080 Ti - High RTX, Dlss uit
46,0
RTX 2060 FE
44,0
2070 - High RTX, Dlss aan
39,0
2080 - High RTX, Dlss uit
35,0
2070 - High RTX, Dlss uit
28,0
2060 - High RTX, Dlss aan
26,0
2060 - High RTX, Dlss uit
19,0
Shadow of the Tomb Raider (DX12) - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 2080 Ti FE
79,0
RTX 2080 FE
65,0
2080 Ti - Ultra RTX, Dlss aan
59,0
RTX 2070 FE
52,0
2080 - Ultra RTX, Dlss aan
47,0
RTX 2060 FE
44,0
2080 Ti - Ultra RTX, Dlss uit
44,0
2070 - Ultra RTX, Dlss aan
37,0
2080 - Ultra RTX, Dlss uit
34,0
2070 - Ultra RTX, Dlss uit
27,0
2060 - Ultra RTX, Dlss aan
25,0
2060 - Ultra RTX, Dlss uit
18,0

Over de prestaties van de RTX 2060 en 2070 zullen we wat korter zijn bij deze 4k-Medium-instelling. Die zakken voor de RTZ 2070 van een bijna acceptabele 52 naar 37fps op de hoogste stand, hoewel er geen prestatiehit is als je raytracing aanzet op de laagste stand. Dat is bij de 2060 wel anders; die zakt van een al erg lage 44 naar 35fps met Medium-raytracing ingeschakeld en als je naar High- of Ultra-raytracingmodus schakelt, hou je minder dan dertig frames per seconde over.

De RTX 2080 zet dan zonder raytracing op 4k-Medium een redelijk nette 65fps neer, maar met raytracing ingeschakeld op High en Ultra dipt dat onder de 50fps. De Medium-settings draaiden niet op ons systeem. Het uitschakelen van dlss in combinatie met raytracing doet de framerates bij de RTX 2080, anders dan bij de goedkopere kaarten, wel flink inzakken.

Bij de 2080 Ti zien we met raytracing ingeschakeld een iets hogere score voor Shadow dan zonder, maar dan moet je wel op het laagste niveau blijven. Als je raytracing naar High of Ultra schakelt, hou je nog maar ongeveer 60fps over. Ook voor deze kaart geldt dat je dlss maar beter kunt inschakelen als je nog framerates wil overhouden, want met gewone aa zakken de prestaties flink in.

Screenshots raytracingniveaus

In Tomb Raider kunnen we ook weer schakelen tussen diverse raytracingniveaus en de techniek kan ook on-the-fly uitgeschakeld worden. We hebben weer drie screenshots van verschillende scènes gemaakt met raytracing uit, op het laagste, midden- en hoogste niveau. Daarnaast hebben we screenshots met dlss in- en uitgeschakeld, zodat je het verschil in klassieke anti-aliasing en anti-aliasing door een neuraal net kunt bekijken.

Je kunt met de slider RTX-niveau's vergelijken of op de foto's klikken voor een grotere versie.

Shadow - RTX uit 1Shadow - RTX Medium 1Shadow - RTX High 1Shadow - RTX Ultra 1

Shadow - RTX uit 2Shadow - RTX Medium 2Shadow - RTX High 2Shadow - RTX Ultra 2

Shadow - RTX uit 3Shadow - RTX Medium 3Shadow - RTX High 3Shadow - RTX Ultra 3

In Tomb Raider zien we een interessant fenomeen als we raytracing op High of Ultra zetten. In de eerste reeks screenshots heeft het gebladerte nog schaduw met reguliere belichting en Medium-raytracing, maar op de hogere niveaus zijn die schaduwen weg. Datzelfde schaduwgedrag zien we in de tweede reeks screenshots. In de laatste serie is het effect minder uitgesproken, maar de schaduwen van het gebladerte die over de schaduw het hek vallen, zijn ook daar behoorlijk minder.

Dlss-vergelijking

Je kunt met de slider dlss vergelijken of op de foto's klikken voor een grotere versie

Shadow - dlss uit 1Shadow - dlss aan 1

Shadow - dlss uit 2Shadow - dlss aan 2

Shadow - dlss aan 3Shadow - dlss uit 3

Als we de screenshots met dlss versus geen dlss vergelijken, valt de enorme hoeveelheid vervaging op. De afbeeldingen met dlss hebben elk randje verloren, waardoor alles een beetje te zacht en bijna onscherp oogt. Uiteraard kan dat nog verbeteren als het trainingsmodel van het neurale net nog beter wordt, maar vooralsnog is het een nogal overdreven effect.

Opgenomen vermogen processors

De energieloggers die we sinds begin 2018 in gebruik hadden, hebben eind vorig jaar min of meer de geest gegeven; we vertrouwden de gemeten vermogens niet meer. We hebben daarom diverse nieuwe meters besteld en deze uitgebreid getest. Uiteindelijk hebben we gekozen voor een DT3010-spanningsmeter, die spanning en stroom kan meten met een resolutie van 50mV en 50mA, en twee keer per seconde data logt. Daarmee kunnen we niet alleen spanning en stroom, maar ook vermogen en verbruik meten en loggen. De meter kan maximaal 300V en belangrijker, 100A meten. Bij een spanning van 12V kan een processor dus 1200W trekken voordat deze meter de geest geeft, dus voorlopig zitten we goed verwachten we.

We meten met de DT3010 het vermogen dat aan de processor wordt geleverd door de 8pins-eps-connector af te tappen. Zo isoleren we het vermogen dat aan de processor wordt geleverd en meten we dus enkel wat de cpu verbruikt, zonder de rest van het platform te hoeven meenemen. Ongeacht of we dus een eenvoudig of een uitgebreid moederbord, of twee of vier geheugenmodules gebruiken, kunnen we de vermogens van de processors met elkaar vergelijken.

We meten het idle-verbruik in watt door gedurende vijf minuten enkel de desktop te tonen en het gemiddelde opgenomen vermogen over die vijf minuten te berekenen.

Voor loads kijken we allereerst naar Cinebench R15, waarbij we het piekvermogen noteren dat we tijdens de multithreadedtest meten. Daarnaast berekenen we het gemiddelde vermogen tijdens een enkele multithreaded Cinebench-run en we berekenen, in combinatie met de tijd die de benchmark duurt, hoeveel wattuur het de processor vergt om de test af te ronden. Dat laatste geeft ons een prestatie-energie-indicatie. Ook voor onze 4k-rendertest in Premiere meten we het gemiddelde opgenomen vermogen tijdens de benchmark, naast het gemiddelde opgenomen vermogen gedurende de render.

Idle zijn Intels processors voor de lga1151-socket het zuinigst, gevolgd door AMD's Zen-processors. Daarbij zijn de Threadrippers opvallend genoeg zuiniger dan de gewone Ryzen-processors, maar het verschil in de eerste en tweede generatie is wel mooi te zien. Intels hedt-processors zijn allesbehalve zuinig, wat waarschijnlijk aan de monolithische opbouw te danken is. Als we naar de verbruikscijfers idle kijken, relevant als je je computer de hele dag laat aanstaan, verstoken de meeste processors gedurende de meetperiode van 5 minuten ruim minder dan een wattuur, hoewel de lga2066-processors aanzienlijk minder zuinig zijn.

  • Cinebench, gemiddeld
  • Cinebench max
  • Cinebench Wh

In Cinebench vragen de processors met meer dan tien cores meer dan tweehonderd watt piekvermogen tijdens de test, maar ze zijn uiteraard wel een stuk sneller klaar met de render. Dat zien we terug in het vermogen in wattuur dat elke test vergt, hoewel Intel met zijn hedt-processors nog altijd meer vraagt dan AMD met de Threadrippers. We hebben dat al eerder gezegd bij de introductie van Ryzen, maar het blijft opvallend dat de power-performanceverhouding bij AMD beter is dan bij Intel.

  • Premiere, gemiddeld
  • Premiere Wh
  • Premiere tijdsduur
Premiere Wh (tijd)
Processor Gemiddelde tijd berekend vanuit seconden in tijd in seconden (hoger is beter)
Pentium G4560
47m5s
Athlon 200GE
46m35s
Athlon 220GE
44m15s
Pentium Gold G5400
43m29s
Athlon 240GE
43m22s
Core i3-8350K
25m20s
Core i7-6700K
19m1s
Ryzen 3 2200G
18m14s
Core i5-8600K
18m4s
Core i5-8400
17m49s
Threadripper 2990WX
15m49s
Core i7-8700K
15m49s
Ryzen 7 2700X
15m29s
Core i7-8700
14m53s
Core i7-7820X
13m17s
Threadripper 2970WX
12m56s
Core i7-9700K
12m37s
Core i9-9900K
12m28s
Threadripper 1920X
12m17s
Ryzen 5 2600
12m1s
Ryzen 7 2700
11m59s
Core i9-7900X
11m58s
Threadripper 1950X
11m49s
Core i9-7980XE
11m37s
Threadripper 2920X
11m28s
Threadripper 2950X
11m5s
Ryzen 7 1800X
11m
Core i9-9980XE
10m21s

In Premiere lijken de twee nieuwere mainstream-Threadrippers 2950X en 2920X niet geweldig te scoren; ze vragen meer vermogen dan de WX-modellen en bijna net zoveel als Intels 9980XE. Ze zijn echter een stuk sneller klaar met de test dan de WX-modellen en maar iets langzamer dan de 9980XE. Toch zijn het de zuinige Zen-varianten die de beste prestaties per watt leveren.

Cinebench 20

Maxon heeft eindelijk, na bijna zes jaar, een nieuwe versie van Cinebench uitgebracht. De R15-release die we nog altijd gebruiken, en voor de vergelijkbaarheid van oude resultaten nog enige tijd naast de nieuwe versie blijven gebruiken, stamt uit september 2013. In processorland is in de tussentijd het nodige veranderd. In september 2013 bracht Intel zijn Ivy Bridge-generatie uit en was het aantal cores voor desktops, zelfs high-end desktops, beperkt tot 4 en 6 hyperthreadingcores. AMD zat rond die tijd met Piledriver-processors eveneens op 4 cores.

Inmiddels zijn we dus bijna zes jaar verder en is het processorlandschap behoorlijk veranderd. Mainstreamprocessors zitten op 8 fysieke cores en het hedt-platform van Intel is gegroeid naar 18 cores, terwijl AMD er in zijn grootste processors zelfs 32 propt. De oude Cinebench R15 schaalde niet lekker mee met dergelijke krachtige processors en dus heeft Maxon een nieuwe versie, die volgens eigen zeggen acht keer keer zo zwaar is en bovendien meer geheugen vergt.

We hebben deze R20-versie van Cinebench losgelaten op vrijwel alle processors die we in ons magazijn hebben en de resultaten in onderstaande grafiek verwerkt. Uiteraard hebben we daarbij gecontroleerd of dat consistente resultaten oplevert. Met voldoende koeling bleek dat geen probleem; laptops en processors met ontoereikende koeling kunnen echter wel throttlen.

We hebben de maximale turbofrequenties van de processors en het aantal threads in de data opgenomen. Voor de singlethreadedresultaten kun je van die hoogste frequentie uitgaan, maar voor de multithreadedtest klokken de cores uiteraard een stuk trager.

De singlethreadedscores schalen, zoals we van Cinebench gewend zijn, netjes met de kloksnelheid, met een enkele afwijkende volgorde, meestal waar het een afwijkende of oudere architectuur betreft. Ook zien we dat de moderne Intel-processors iets hogere scores bij gelijke klok realiseren dan die van AMD, maar een groot verschil zit er niet tussen.

Bij de multithreadedresultaten zien we iets betere schaling. Zo scoort de Threadripper 2990WX bijna 22 procent hoger dan de 2970WX, waar dat bij Cinebench R15 iets minder dan 18 procent was.

Kijken we naar de scores per smt- of hyperthreadingcore van respectievelijk AMD en Intel, dan kunnen we nog een aantal interessante observaties doen. We hebben de all-coreturbo's van de processors en het aantal cores en threads vergeleken met de scores. Daaruit volgt een score per smt- of ht-core per gigahertz. Die komt voor de Threadripper smt-cores op ongeveer 112 punten per gigahertz en voor de AM4-processors op gemiddeld 125 punten per gigahertz. Veel AMD-processors zonder smt hebben we niet in ons lijstje, maar de Zen-cores in de 2200G zonder smt scoren ongeveer 93 punten per gigahertz.

Bij Intel komen we op 130 punten per gigahertz voor de hedt-processors en de overige op Skylake-gebaseerde processors met hyperthreading. Intel heeft echter ook flink wat aanbod zonder hyperthreading en die scoren om en nabij de 100 punten per gigahertz.

  • Cinebench R15 1T
  • Cinebench R15 nT
Cinebench R15 1T
Processor Gemiddelde cinebenchies in Cinebench-punten (hoger is beter)
Core i7-9700K
210
Core i9-9900K
210
Core i7-8700K
202
Core i9-7900X
196
Core i9-7980XE
194
Core i7-7820X
194
Core i7-8700
185
Core i5-8600K
181
Ryzen 7 2700X
179
Core i3-8350K
173
Core i7-6700K
170
Core i5-8400
170
Threadripper 1920X
167
Ryzen 7 2700
167
Threadripper 1950X
167
Ryzen 7 1800X
162
Ryzen 5 2600
162
Core i3-8100
155
Pentium Gold G5400
153
Ryzen 3 2200G
149
Pentium G4560
148

Voor zover we die hebben, hebben we ook de Cinebench R15-resultaten op bovenstaande processors ter vergelijking opgenomen.

Opgenomen vermogen

We vroegen ons ten slotte af of processors, vooral de high core count-modellen, ook zwaarder worden belast. Zoals je op de vorige pagina kunt lezen, gebruiken we namelijk Cinebench R15 in onze metingen voor opgenomen vermogen. We hebben daarom gecontroleerd of een AMD- en een Intel-processor, de 2990WX en 9980XE, significant meer energie verstoken met Cinebench R20 dan met R15.

Het tegendeel lijkt eerder waar, hoewel het verschil miniem is. Zowel de 2990WX als de 9980XE verstookt namelijk een watt minder met Cinebench R20 dan met R15. De benchmark is wel veel zwaarder, want de 2990WX doet over de multithreaded test 33 seconden in R20 en maar 9 seconden in R15. Voor de 9980XE is de tijd toegenomen van van 15 naar 40 seconden.

Lees meer

Reacties (90)

Sorteer op:

Weergave:

Mooi dat jullie verbeteringen doen aan de tests en ook toegeven dat de vorige metingen niet betrouwbaar waren. Is alleen jammer dat het zo lang heeft geduurd en dat er geen waarschuwing of iets bij stond dat de metingen niet betrouwbaar waren.

Helaas komen nu een aantal van dezelfde fouten die toen al waren aangegeven nu weer terug en is ook deze meting met de nieuwe apparatuur niet betrouwbaar. :X Waarom wordt er niet goed onderzoek van te voren gedaan? Zelfs met maar enkele minuutjes onderzoek was het al mogelijk om iets veel beters te bedenken en te zien dat dit hem niet was.

De foutjes die er de vorige keer ook al inzaten:
We meten met de DT3010 het vermogen dat aan de processor wordt geleverd door de 12pins-peg-connector af te tappen
Er bestaat niet iets als een 12 pins PEG connector, dit is al meermaals aangegeven, deze fout stond er de vorige keer ook al in. Een PEG connector heeft 6 of 8 pinnen, geen 12. Daarnaast krijgt de CPU natuurlijk sowieso niet stroom van een PEG connector maar van een 8 pins EPS connector en/of 4 pins ATX12V connector.
Zo isoleren we het vermogen dat aan de processor wordt geleverd en meten we dus enkel wat de cpu verbruikt, zonder de rest van het platform te hoeven meenemen.
Ook dit klopt niet, want het verlies van het VRM en verlies in kabels neem je ook mee.
Ongeacht of we dus een eenvoudig of een uitgebreid moederbord, of twee of vier geheugenmodules gebruiken, kunnen we de vermogens van de processors met elkaar vergelijken.
Daarmee klopt deze uitspraak dus ook niet. Het verlies van het ene VRM is namelijk zeker niet hetzelfde dan de andere en ook het verlies in de kabels van de voeding kan al verschil maken (er vanuit gaande dat de meter niet gekoppeld is aan het moederbord).

Het grootste probleem is echter dat jullie gewoon een ongeschikte meter hebben gekocht. Een sample rate van maar twee maal per seconde is gewoon veel maar dan ook echt veel te weinig om maar ook een enigszins betrouwbare meting te doen van een CPU of videokaart. Het verbruik van beide componenten wisselt namelijk zo snel dat je van alles mist. Daarnaast is een resolutie van 50mV en 50mA natuurlijk ook veel te ruim. Bij 12V is 50mA al 0,6 watt. Hoe wil je dan een idle meting kunnen doen als het verbruik van een CPU nu al onder de 1 watt zit?

Ik zou dan ook adviseren om deze apparatuur maar niet te gebruiken en eerst eens onderzoek te gaan doen, voordat er weer geld wordt weggegooid aan iets waarbij vooraf al duidelijk is dat het niet gaat werken.
Het grootste probleem is echter dat jullie gewoon een ongeschikte meter hebben gekocht. Een sample rate van maar twee maal per seconde is gewoon veel maar dan ook echt veel te weinig om maar ook een enigszins betrouwbare meting te doen van een CPU of videokaart.
Nee, daar zit u fout. Bij een zware belasting als Cinebench is het verbruik van een processor vrijwel de gehele periode constant (mits koeling goed is en dergelijke). De frequentie van de meting is alleen belangrijk als het verbruik sterke wisselingen heeft, wat het tijdens zo een test dus niet (veel) heeft.

Als je de ideale meter zou hebben zullen de grafieken voor waar belasting in wordt weergegeven nauwelijks anders, processoren die nu al naast elkaar staan zullen misschien handje wisselen (als dat uberhaubt al zo dicht bij elkaar zou komen), maar dan zie je als lezer nog steeds twee processoren die ongeveer het zelfde gebruik hebben...

Het is wel belangrijk dat de tests lang genoeg duren vergeleken met de sample rate. Een test van 5,0 seconde zou bv met een sample rate van 0,5 seconde een gemiddelde fout geven van pakweg 5%* (*aangenomen blokgolf). Bij 25 seconde is dit nog maar een schamele 1% wat ik voor dit soort grafieken (die bedoeld zijn voor een algemeen beeld) en het doel wat deze grafieken hebben (algemeen beeld van verbruik tijdens belasting weergeven) geen probleem.

Kritiek die ik wel heb is idle verbruik grafiek. Het is hierbij een stuk nuttiger (voor de doelgroep) om het verbruik van het systeem (evt inc een subset aan componenten) te meten in idle.
Hoe weet je zeker dat het vermogen van de CPU alleen maar uit die 6/8 pins EPS connector komt?
Er zit ook nog een ATX connector op en het zou me niets verbazen als die ook energie levert aan de CPU.

En er zitten nog wel andere hiaten in de meting.
De meter die jullie gebruiken (en eigenlijk elke stroom meter die geen Hall effect sensor gebruikt) zal een shunt gebruiken.
Zo'n shunt introduceert een spanningsval, want dat is hoe je de stroom meet.
Hierdoor komt er een lagere spanning op je mainboard waardoor de stroom toeneemt (om hetzelfde vermogen te leveren) en dus de efficiëntie afneemt (verliezen kwadratisch met de stroom)
De verliezen in de gebruikte VRM op je mainboard zullen groter zijn als de pieken groter zijn.

Eigenlijk zou je de ATX voeding moeten aanpassen zodat de sense-lijn waarop de spanning geregeld wordt, pas na de shunt gepakt zal worden. Dan regelt de ATX voeding zelf wel dat de spanning naar het mainboard constant is, ongeacht de spanningsval over de shunt.
Waarschijnlijk gebruiken ze een 100A/75mV shunt, maar met dergelijke stromen zal er ook nog het nodige in de kabel en connector verloren worden.
Dus je zit zo op een paar % spanningsval. (en dus paar % hogere stroom en dus kwadraat van die toename aan vermogens verlies)

Dus zoals ook al door anderen benoemd, meet je dus nu niet het vermogen van de CPU, maar CPU + VRM modules en door de plaatsing van de shunt meet je eigenlijk ook nog de extra inefficiëntie van de VRM + connector weerstand + verliezen over de PCB sporen die je krijgt door een grotere stroom die nodig is voor hetzelfde vermogen.

Je zou voor de gein eens 2 van deze meters na elkaar kunnen zetten om een idee te krijgen van het verschil met of zonder meter ertussen.
Uiteraard moet je de meetwaarden van de 2e meter gebruiken. De eerste hoeft niet eens actief te zijn.
De gemeten vermogens zouden hoger moeten zijn als je er een 2e meter tussen plaatst, terwijl je de directe verliezen van de eerste meter niet eens mee neemt en alleen indirect meet.

Voor max. belasting gedurende langere tijd zal het met gebruik van hetzelfde mainboard wel bruikbaar zijn voor de onderlinge vergelijking (afhankelijk van de interne werking van de meter), maar voor erg wisselende belasting kun je hier weinig mee.
De idle metingen zullen vrijwel niets zeggen omdat je alleen maar meet aan de 6/8 pin connector.

Als ik mij niet vergis, heeft Intel zelf ooit ook eens een tool uitgebracht om de interne registers van de CPU uit te lezen en zodoende het energieverbruik van de CPU te kunnen uitlezen.
Alle stroom die de CPU neemt gaat wel door de 4 en/of (dubbele) 8 pins connector dat is het probleem niet.
Bij een zware belasting als Cinebench is het verbruik van een processor vrijwel de gehele periode constant (mits koeling goed is en dergelijke). De frequentie van de meting is alleen belangrijk als het verbruik sterke wisselingen heeft, wat het tijdens zo een test dus niet (veel) heeft.
Het verbruik van de CPU zou best wel eens vrij constant kunnen zijn bij Cinebench, bij een constante temperatuur, dat klopt. Echter hier wordt niet het verbruik van het CPU gemeten. Er wordt namelijk achter een schakelend VRM gemeten en dat is alles behalve constant.

Daarnaast is Cinebench verbruik natuurlijk alles behalve interessant. Zo'n meting is leuk als erbij voor vergelijking, maar voor de rest natuurlijk niet echt nuttig. Niemand draait immers Cinebench 24/7. :p
[...]

Het verbruik van de CPU zou best wel eens vrij constant kunnen zijn bij Cinebench, bij een constante temperatuur, dat klopt. Echter hier wordt niet het verbruik van het CPU gemeten. Er wordt namelijk achter een schakelend VRM gemeten en dat is alles behalve constant.
Klopt als je afzonderlijke signalen pakt, maar over een gemiddeld tijd bestek (wat zo een meter meet lijkt me) is het toch vrijwel constant als de belasting gelijk blijft.
Daarnaast is Cinebench verbruik natuurlijk alles behalve interessant. Zo'n meting is leuk als erbij voor vergelijking, maar voor de rest natuurlijk niet echt nuttig. Niemand draait immers Cinebench 24/7. :p
Ik denk toch dat dit wel belangrijk is. Het maximum getrokken vermogen tijdens load is voor meerdere dingen zeer interessant. Om er een paar te noemen: voorzienings componenten keuze (bv voeding en koeling) en voor het vergelijken van verbruik tov verzet werk.

[Reactie gewijzigd door blauwe eend op 23 juli 2024 17:56]

maar over een gemiddeld tijd bestek (wat zo een meter meet lijkt me)
In de tekst staat dat hij 2x per seconde meet, en dat is niet continue of gemiddeld. Continue meten kan ook niet btw zolang je digitaal meet. Ik ben het met The Mask eens dat een samplefrequentie van 2 veel te laag is om een volledig / juist beeld te krijgen.

Het is wel voldoende om een beeld te krijgen, maar de vraag is hoe nauwkeurig het is.
In de tekst staat dat hij 2x per seconde meet, en dat is niet continue of gemiddeld. Continue meten kan ook niet btw zolang je digitaal meet. Ik ben het met The Mask eens dat een samplefrequentie van 2 veel te laag is om een volledig / juist beeld te krijgen.

Het is wel voldoende om een beeld te krijgen, maar de vraag is hoe nauwkeurig het is.
Ja het mag en kan hoger, maar nee het is niet nodig voor de nauwkeurigheid van deze metingen (onder belasting die >30sec duren), zoals ik het uitgelegd in de post van mij iets naar boven:
Een test van 5,0 seconde zou bv met een sample rate van 0,5 seconde een gemiddelde fout geven van pakweg 5%* (*aangenomen blokgolf). Bij 25 seconde is dit nog maar een schamele 1%...
Om een voorbeeld te geven hiervan: stel je hebt een grafiek van vermogen over tijd (=verbruik). Dan wil je om het verbruik te bepalen eigenlijk een integraal nemen van die grafiek over het tijdsbestek vd belasting. Op de middelbare school leren ze de leerlingen voor dat ze integralen leren het benaderen van een oppervlakte onder een grafiek met blokken waarbij de hoogte van zo een blok bv de begin waarde vd grafiek is, op de plek waar het blok begint (er hier zijn meerdere mogelijkheden voor wat voor waarde je kan nemen. Bv gem van begin en eind kan ook). Op deze manier benader je de oppervlakte maar maak je 'meet' fouten waar je teveel of juist te weinig meet.
Als je de blokken (bij de meter dus sample frequentie) oneindig klein maakt dan heb je als het ware een integraal. Dus hoe kleiner hoe preciezer, maar vanaf een bepaald punt is de extra nauwkeurigheid die je krijgt (voor de totale oppervlakte) nagenoeg verwaarloosbaar.
Dus ondanks dat 2x per seconde heel er langzaam klinkt is het toch voldoende voor de metingen die gedaan worden (zo neem ik aan). Het is in dit geval waarschijnlijk belangrijker (heeft meer invloed) dat de gemeten waarde nauwkeurig is, dan dat deze waarde vaker gesampled wordt.
Ik weet van zeer nauwkeurige metingen van een 8700k dat die tot 130 watt verstookt voor een paar milliseconde, stock. Dat is ver boven de tdp van 95 watt van die cpu.

Je vergelijking met de blokken gaat niet op - met "een blok onder de grafiek" meet je ook de tijdsduur van hoe hoog een bepaalde waarde is. Dat gebeurd in die 2x per seconde niet. Dat is te vergelijken met 2x per seconde een blok meten met een lengte van 1 microseconde en dan de bovenkanten van die blokjes (meer paaltjes) met een lineaal en potlood aan elkaar verbinden. Een benadering van het verbruik dus.

Maargoed, wat ook kan is dat de meter 1000 hz meet en het display 2x per seconde update met het gemiddelde van 500 metingen. Daar wordt de meting een stuk nauwkeuriger van.

Edit: dit board ondersteund een a/d sampling rate van 1,25 mhz. Meer dan voldoende, als ze dat gebruiken iig.

[Reactie gewijzigd door SpiceWorm op 23 juli 2024 17:56]

Je vergelijking met de blokken gaat niet op - met "een blok onder de grafiek" meet je ook de tijdsduur van hoe hoog een bepaalde waarde is. Dat gebeurd in die 2x per seconde niet. Dat is te vergelijken met 2x per seconde een blok meten met een lengte van 1 microseconde en dan de bovenkanten van die blokjes (meer paaltjes) met een lineaal en potlood aan elkaar verbinden. Een benadering van het verbruik dus.
Mijn voorbeeld klopt wel want ik beeld die benadering waar jij het over hebt uit. Dat is precies wat een A/D converter doet; de waarde nemen van één punt en aannemen dat voor de sample periode die waarde constant is (er zijn ook ander soorten A/D die misschien een andere benadering doen).

Wel top dat je even heb opgezocht wat de werkelijke sampling rate is.
Ik heb gezegd dat de sampling rate 'hoog genoeg' was, maar in werkelijkheid met alle ruis en wisselingen vandien.. Eigenlijk klopt het dus niet wat ik zei, voor een echt nauwkeurige meting. Er is namelijk wel kans dat die eene meetwaarde opeens somehow Lager is en dat wil je voorkomen.

Toch denk ik dat mijn uitleg best wat heeft bijgedragen. Blijkt dus gewoon foutief in 't artikel of er werd niet de daadwerkelijke sample rate bedoeld.
Dat is precies wat een A/D converter doet; de waarde nemen van één punt en aannemen dat voor de sample periode die waarde constant is (er zijn ook ander soorten A/D die misschien een andere benadering doen).
Nou, een adc neemt niet aan dat de samplewaarde constant blijft tot de volgende meting. Die doet gewoon een meting en rapporteerd die en wacht op een vervolgopdracht.

De interpretatie is aan de programmeur/software die de gegevens verwerkt. Ook meet een adc geen tijd of tijdsduur.
rsnubje Testlabcoördinator @-The_Mask-2 april 2019 11:19
Ligt er maar net aan hoe nauwkeurig je wilt meten. Het is op dit moment niet interessant om te meten welke spikes in power, ookal is het een fractie van een seconde, een processor heeft. Daar heb je overigens veel duurdere apparatuur voor nodig en dat is voor wat er getoond wil worden niet van toepassing.

Als je dit echter relateerd aan voedingen en eerder nog videokaarten dan processors overigens, is het wel interessant om te zien wat voor spikes er plaatsvinden.

Als minimaal wordt er echter 1W genoteerd omdat het bekend is dat de meter niet nauwkeurig genoeg is om zo laag goed te meten.
Het is op dit moment niet interessant om te meten welke spikes in power, ookal is het een fractie van een seconde, een processor heeft.
Precies meten is altijd interessant. Het maakt je meting namelijk gewoon een stuk betrouwbaarder. Daarnaast is het ook nogal raar dat je van te voren al weet dat je meting onbetrouwbaar is en daarnaast moet je dan ook nog een waarschuwing plaatsen dat de meting niet bepaald precies is en ook dat staat nogal dom.
Daar heb je overigens veel duurdere apparatuur voor nodig en dat is voor wat er getoond wil worden niet van toepassing.
Volgens mij kan het juist en goedkoper en veel preciezer. Maar het is in dit verhaal niet duidelijk hoe er precies wordt getest. Dus hoe ziet de opstelling er precies uit en wat is er exact allemaal gebruikt?
Uiteindelijk hebben we gekozen voor een DT3010-spanningsmeter, die spanning en stroom kan meten met een resolutie van 50mV en 50mA, en twee keer per seconde data logt.
Is immers niet meer dan een vage omschrijving, maar zelfs daaruit zijn al duidelijk problemen te halen.
Als minimaal wordt er echter 1W genoteerd omdat het bekend is dat de meter niet nauwkeurig genoeg is om zo laag goed te meten.
Precies omdat zoals gezegd gekozen is voor ongeschikte apparatuur.
rsnubje Testlabcoördinator @-The_Mask-2 april 2019 11:43
Omdat je iets anders wilt meten, wilt het niet meteen zeggen dat het onbetrouwbaar is. Dat is weer een heel ander verhaal. Daarnaast gaat toch nooit iemand aan jouw standaard voldoen. Daar is teveel tijd en geld voor nodig.

Denk ook niet dat het goedkoper kan dan deze meter en wil je het echt goed doen, koop je een datalogger en daarvan een juiste vinden is toch echt niet goedkoop, niet als je milliseconden wilt meten.
Daarnaast gaat toch nooit iemand aan jouw standaard voldoen. Daar is teveel tijd en geld voor nodig.
Zo fout. Maar dat weet je zelf ook wel, daarom reageer je ook niet inhoudelijk omdat je bang bent dat ik met iets veel betrouwbaarder kom dat ook niet stukken goedkoper is. Is jammer dat er een aantal mensen zijn die liever hun eigen hachje redden dan dat hun fouten toegeven en wel hun best gaan doen om een goede testmethode te maken. Want ik heb al heel vaak zo veel verbeteringen voorgedragen en elke keer blijkt maar weer dat men het gewoon serieus niet wil. Je geeft hier weer het perfecte voorbeeld.
Denk ook niet dat het goedkoper kan dan deze meter en wil je het echt goed doen, koop je een datalogger en daarvan een juiste vinden is toch echt niet goedkoop, niet als je milliseconden wilt meten.
Als je alles van te voren altijd en elke keer al afschiet of zegt dat het niet bestaat zonder ook maar een beetje onderzoek te doen dan zal inderdaad denken dat het niet kan nee. :X

[Reactie gewijzigd door -The_Mask- op 23 juli 2024 17:56]

rsnubje Testlabcoördinator @-The_Mask-2 april 2019 11:55
Kom maar met iets dat goedkoper en preciezer meet dan de meter die we nu gebruiken. En frequenter, zoals je zelf al aangaf. Ik neem aan dat je hebt opgezocht wat de huidige meter kan en kost?

Je maakt zelf een paar statements zonder ook maar iets aan referentie te geven, of een degelijk voorbeeld. Je argument dat je vaak verbeteringen voordracht gaat voor dit onderwerp niet op, dus laat maar horen!

En natuurlijk zoals al vaker aangegeven, bij andere productgroepen, het moet wel realistisch zijn wat tijdsinvestering en geld betreft. Je kunt daarvan zeggen dat we het niet serieus willen nemen, maar als we een week moeten doen over bijvoorbeeld een voeding testen, krijg je vrij weinig meer gedaan daarnaast.
Ik zei "volgens mij kan het goedkoper" en daarbij vroeg ik hoe de opstelling er precies uitzag omdat het nu nogal vaag is. Op het moment dat het duidelijk is hoe de opstelling er precies uitziet en wat er allemaal precies gebruikt wordt kan er aangegeven worden hoeveel goedkoper en preciezer het kon.
En natuurlijk zoals al vaker aangegeven, bij andere productgroepen, het moet wel realistisch zijn wat tijdsinvestering en geld betreft. Je kunt daarvan zeggen dat we het niet serieus willen nemen, maar als we een week moeten doen over bijvoorbeeld een voeding testen, krijg je vrij weinig meer gedaan daarnaast.
Al mijn voorstellen zijn altijd zeer realistisch geweest. Alleen jullie kiezen er voor om er niks mee te doen of zijn er zelfs niet eens in geïnteresseerd.

Jullie kiezen er voor om liever de waarheid te verdraaien. Serieus een week testen voor één voeding? Elke keer als ik voorstellen doe zijn die juist gericht op veel betere meting (veel huidige metingen van voedingen, videokaarten, CPU's slaan namelijk de plank flink mis bij Tweakers/HWI, voor wie dat nog niet wist) terwijl er niet meer tijd in gaat zitten. Enkele maanden geleden heb ik dat er nog specifiek bijgezegd, maar ik neem aan dat ook daar weer niks mee gedaan is? Er moet echt worden afgestapt van het idee dat kwantiteit belangrijker is dan kwaliteit.

[Reactie gewijzigd door -The_Mask- op 23 juli 2024 17:56]

rsnubje Testlabcoördinator @-The_Mask-2 april 2019 14:31
Verdraaien zou ik niet zeggen, mijn probleem is voornamelijk dat ik van heel weinig iets heb meegekregen mbt jouw 'feedback' op de meeste tests.

Ik wil altijd kijken wat de mogelijkheden zijn mbt aandachtspunten die jij aangeeft, maar ik moet daarbij altijd rekening houden met haalbaarheid en in veel gevallen, als ik het wil, het kost veel geld en/of tijd en van hogerop of de redactie ziet het niet zitten, kan ik veel proberen, maar dan gaat het niet door.

Wat betreft je laatste zin, dat ging erover dat we beter veel tijd konden stoppen in 1 of 2 benchmarks, voor zover ik me kon herinneren. Ik begrijp dat kwaliteit boven kwantiteit moet staan, maar dat gaat natuurlijk weer compleet de andere kant op.

[Reactie gewijzigd door rsnubje op 23 juli 2024 17:56]

Verdraaien zou ik niet zeggen, mijn probleem is voornamelijk dat ik van heel weinig iets heb meegekregen mbt jouw 'feedback' op de meeste tests.
En waarom is dat dan? Overleggen jullie nooit onderling en/of wordt er niks opgeschreven en wordt alles weer vergeten? Als alles netjes ergens is verzameld moet het ondertussen een flinke waslijst zijn.
Ik wil altijd kijken wat de mogelijkheden zijn mbt aandachtspunten die jij aangeeft, maar ik moet daarbij altijd rekening houden met haalbaarheid en in veel gevallen, als ik het wil, het kost veel geld en/of tijd en van hogerop of de redactie ziet het niet zitten, kan ik veel proberen, maar dan gaat het niet door.
Ik ben er vrij zeker van dat er nog nooit een kostenraming is gemaakt van één van mijn voorstellen of überhaupt serieus over is gebrainstormd.
Wat betreft je laatste zin, dat ging erover dat we beter veel tijd konden stoppen in 1 of 2 benchmarks, voor zover ik me kon herinneren. Ik begrijp dat kwaliteit boven kwantiteit moet staan, maar dat gaat natuurlijk weer compleet de andere kant op.
Het ging niet over een reductie van de huidige ~70 tests bij videokaarten naar één of twee. Het ging wel over een flinke reductie, maar dan omdat er zoveel nutteloos en dubbel spul tussen zit. Bij een videokaart test is het niet interessant om een videokaart test elke game met allemaal verschillende instellingen te testen waardoor je zonder te overdrijven op zo'n 70 uitkomt. Nu heb je iets van 70 verschillende tests die allemaal grove meetfouten bevatten. Doe je iets van 20/25 verschillende tests heb je nog steeds een heel ruim aanbod en kun je ook tijd besteden aan kwaliteit.

Maar nu terug naar de huidige nieuwe verbruikstests. Er is nog geen antwoord gegeven over hoe de opstelling er precies uitziet. Een goede testmethode moet altijd open en duidelijk zijn. Zelfs de best mogelijke test is niks waard als het voor niemand duidelijk is hoe er is getest.
rsnubje Testlabcoördinator @-The_Mask-3 april 2019 10:22
Niet alles hoeft op papier te staan. We hebben het vaak genoeg over dingen die jij gezegd hebt, maar soms is het zoveel dat ik ook niet alles mee krijg en een hoop is ook gebeurd voordat ik betrokken was bij tests ontwikkelen. Verder maak je een hoop aannames die kant noch wal slaan mbt dit onderwerp.

Verder wil ik aanraden om even het genoemde type stroommeter te googlen. Als je weet hoe zo'n ding werkt, hoop ik dat je snapt dat dat niet veel ingewikkelder wordt dan dat. Er gaat stroom in, er gaat stroom uit en ergens daar tussenin zegt hij hoeveel.
Vanzelfsprekend heb ik dat als eerste gedaan, maar er is meer spul wat de naam DT3010 draagt.

Daarnaast van het apparaat waar het dan denk ik omgaat is amper iets te vinden. Gaat dan om dit ding? https://nl.aliexpress.com...ad-Alarm/32827325908.html
https://www.youtube.com/watch?v=QuXEGWcyrJY

Maar dan nog is het niet duidelijk hoe het is aangesloten. Dat is nogal belangrijk, denk alleen maar terug aan hoe jullie aan aantal jaar geleden de PSU tester hadden aangesloten. Ook is er helemaal niks te vinden over de betrouwbaarheid van de meter. Is ook niet duidelijk hoe lang de test wordt uitgevoerd.
rsnubje Testlabcoördinator @-The_Mask-3 april 2019 11:45
Ja dat is de juiste. De meter zit op een aparte voeding die alleen de 8pin EPS van stroom voorziet, zodat hij alleen die kabel(s) meet en niet van de rest van het moederbord.
Is het niet een idee om TheMask een keer uit te nodigen om mee te helpen met een test. Het bespreken van de haalbaarheid van zijn voorstellen gaat face-to-face waarschijnlijk een stuk beter dan via verhitte discussies online. Gewoon kopje koffie erbij en als tweakers onder elkaar kijken of het beter kan?
rsnubje Testlabcoördinator @Ballondier3 april 2019 10:13
Die kans heeft hij bij zowel Tweakers als Hardware.Info gehad. Ik was er niet bij, dus ik kan er verder niks over zeggen.
Ehhh. Ik ben bij beide geweest. Bij HWI was je er gewoon bij, toen heb ik jullie PSU tester juist aangesloten. Bij Tweakers was je er niet bij, het was namelijk de dag voordat het bekend werd dat de Persgroep HWI had overgenomen. Tweakers was positief naar het gesprek, maar uiteindelijk stelden ze het continue uit om uiteindelijk helemaal niet verder te gaan. Zoals ik al zo vaak heb aangegeven men wil gewoon niet.
rsnubje Testlabcoördinator @-The_Mask-3 april 2019 11:10
'Was er bij" is denk ik niet helemaal de juiste bewoording. Ik liep toen nog stage zover ik me kan herinneren, laat staan dat ik er bij betrokken was.

Ik vind het wel prima zo, dit leidt nergens meer toe, behalve een hoop betichtingen.
twee metingen per seconden bij processoren die op GHz werken?
Hoef ook allemaal niet zo precies te zijn maar je hebt wel gelijk, maar ik denk tevens om apparatuur te kopen die echt alles kan meten ook een prijskaartje aanhangt.Hoeveel gebruik de processor bij volle belasting en hoeveel in idle, bij gebruik van beter meetapperatuur zou je dat idd preciezer kunnen meten.Maar vergeet niet wij zijn hobyisten.Nu effen ontopic die rtx 2080 ti heeft de meeste cores en is dus het snelste van alle videokaarten.Als ie niet zo duur was had ik er allang eentje gekocht.
Maar het ziet er met rayte tracing best wel allemaal goed uit, al zie ik zelf bijna geen verschil, het licht er ook aan wat voor een items in een spel rayte tracing gebruikt word
Het grootste probleem is echter dat jullie gewoon een ongeschikte meter hebben gekocht. Een sample rate van maar twee maal per seconde is gewoon veel maar dan ook echt veel te weinig om maar ook een enigszins betrouwbare meting te doen van een CPU of videokaart.
Als je lang genoeg meet en de meetfrequentie is niet in sync met de load zou het in de buurt moeten komen toch?
mogelijk, maar waarom de gok nemen als er veel betere meters zijn? Als ik naar deze test van Anandtech kijk schat ik hun sample rate op minimaal 500 per seconde (en misschien zelfs wel 2000) https://www.anandtech.com...r-than-expected-tdp-turbo
Cinebench R20 is gebouwd op Intel technologie. Dat alleen al is redden om r20 niet te gebruiken als benchmark in CPU reviews. Niet zonder dikke disclaimer erbij tenminste.

Maar Intel heeft ook een geschiedenis van het manipuleren van benchmark door via shell companies benchmark bedrijven te kopen, en vervolgens de benchmarks naar hun hand te zetten.

Dat samen is toch echt meer dan genoeg reden om als review site niks te maken te willen hebben met r20 zou ik zeggen.

https://www.maxon.net/en/products/cinebench-r20-overview/

r20 incorporate the latest rendering architectures, including integration of Intel's Embree raytracing technology


Edit: omdat het blijkbaar minder algemeen bekend is als ik dacht, hier nog wat bronnen van intel's misdragingen uit het verleden

voorbeeld sysmark 2001 vs sysmark 2002 (sysmark is van BEPCO, waar intel weer eigenaar van is)

http://www.vanshardware.c...0Presentation%20FINAL.pdf

lees met name pagina 9 even.
alle tests die AMD won in de 2001 versie, waren in de nieuwe versie ineens vervangen door kopieën van de paar tests die intel kon winnen.

en voor je gaat roepen AMD propaganda ofzo:
https://en.wikipedia.org/wiki/BAPCo_consortium

intel is hiervoor door de FTC zelfs schuldig bevonden en beboet, en heeft uiteindelijk een settlement getroffen.

en in 2012 zijn nvidia AMD en VIA allemaal opgestapt uit BAPCo vanwege sysmark 2012. intel had dus, ondanks dat de andere meededen aan het consortium, nog steeds een veel te dikke vinger in de pap. zo veel dat de andere volledig het vertrouwen erin hebben opgezegd. Dus ook 10 jaar later was intel nog niet te vertrouwen met benchmarks.

dus ja, ook nu ben ik extreem argwanend als Intels naam word genoemd in combinatie met een benchmark, zeker eentje zo populair als cinebench.

[Reactie gewijzigd door Countess op 23 juli 2024 17:56]

Dat is natuurlijk een beetje spijkers op laag water zoeken. Cinebench is namelijk helemaal niet gebouwd op Intel technologie, Cinema4D heeft echter wel de Intel Embree Raytracing technologie opgenomen, maar dat is wat anders als dat het hele pakket daarop gebouwd zou zijn. Net zoals dat zoveel commerciële software technologie of code optimalisaties van Intel, AMD of andere partijen opneemt om zo de software zo optimaal mogelijk te laten presteren. Ze vermelden dit trouwens ook gewoon netjes op de website.

Embree Raytracing is trouwens opensource, dus als je wil kan je zo de code nalopen.

Verder denk ik dat je juist dit soort software wil gebruiken als benchmarks. Het laat immers beter zien wat je realworld mag verwachten van de processors die worden getest. En het feit is dat veel software geoptimaliseerd is voor of Intel, dan wel AMD, soms voor beide, of juist voor Nvidia. En dat mag juist best naar voren komen in reviews.

Je zou er weinig aan hebben als er alleen maar met (niet optimaliseerde) synthetische benchmarks getest zou worden. Nee, ik zie liever zoveel mogelijk benchmarks die afgeleid zijn, of nog liever volledig uitgevoerd in software die zo te koop is (of vrij te gebruiken). Je moet namelijk een cpu kopen die het best presteert met de workload (of workloads) die jij als koper wil gaan draaien, daar heb je immers het meest aan.

[Reactie gewijzigd door Dennism op 23 juli 2024 17:56]

Dat is natuurlijk een beetje spijkers op laag water zoeken.
Nee dat is het zeer zeker niet. alles behalve.

Veel verder als een audio plugin voor CS:GO, een unreal light rederer voor level editing (die trager is dat dat zelfde met een GPU doen), en wat plugins voor populaire pakketten heeft embree het nog niet geschopt. de gebruikers aantallen zijn dus klein en op geen enkele manier representatief voor het overgrote deel van de 'realworld' workloads.

Dat intel het nu probeert te verheffen tot industry standaard benchmark middels cinebench is dus gewoon een enorm kwalijke zaak.

zoals ik zei MINIMAAL een dikke disclaimer.
[...]


Nee dat is het zeer zeker niet. alles behalve.
Zonder onderbouwing is dat het wel, je hele post komt over als een insinuatie dat Maxon oneerlijke resultaten zou laten zien in Cinebench R20 die niet overeen zouden komen met Cinebench4D performance. Het komt op mij een beetje fanboy achtig over helaas.
Veel verder als een audio plugin voor CS:GO, een unreal light rederer voor level editing (die trager is dat dat zelfde met een GPU doen), en wat plugins voor populaire pakketten heeft embree het nog niet geschopt. de gebruikers aantallen zijn dus klein en op geen enkele manier representatief voor het overgrote deel van de 'realworld' workloads.
Voor zover ik kan vinden is Embree al meerdere releases voor bepaalde zaken de default in Cinema4D. Hier heb ik uiteraard naar gezocht toen Cinebench R20 uitkwam en Intel Embree benoemd werd.
Dat intel het nu probeert te verheffen tot industry standaard benchmark middels cinebench is dus gewoon een enorm kwalijke zaak.
Hier zou een bron toch wel op zijn plaats zijn.

Een disclaimer is er trouwens al, de Maxon pagina benoemd Embree zeer duidelijkop diverse plekken, waaronder de product pagina van Cinebench R20.

[Reactie gewijzigd door Dennism op 23 juli 2024 17:56]

Het komt op mij een beetje fanboy achtig over helaas.
Wat fanboy is is niet minimaal argwanend zijn als de naam intel word genoemd bij een nieuwe versie van een benchmark die bij praktische elke CPU review word gebruikt, zeker gezien hun gedocumenteerde gedrag uit het verleden (inclusief veroordelen door de FTC!).

Dit is helemaal geen aantijging tegen Maxon, maar tegen intel.
Hier zou een bron toch wel op zijn plaats zijn.
hoezo bron? Je wilt ontkennen dat Cinebench bij bijna elke CPU review tevoorschijn word gehaald?
Een disclaimer is er trouwens al,
bij elke benchmark natuurlijk, niet weggestopt op hun website.

[Reactie gewijzigd door Countess op 23 juli 2024 17:56]

Wat fanboy is is niet minimaal argwanend zijn als de naam intel word genoemd bij een nieuwe versie van een benchmark die bij praktische elke CPU review word gebruikt, zeker gezien hun gedocumenteerde gedrag uit het verleden (inclusief veroordelen door de FTC!).

Dit is helemaal geen aantijging tegen Maxon, maar tegen intel.
Argwanend is prima, maar een op feiten gebaseerde onderbouwing zou wel prettig zijn, niet wat onderbuik gevoelens gebaseerd op een zaak met haar oorsprong in 2002? (even uit mijn hoofd was dat het jaar dat de sysmark zaak startte, even er van uitgaande dat je daar naar hint).

Dat dit volgens jou tegen Intel is en niet tegen Maxon is vreemd. Maxon geeft immers de software uit waarvan jij lijkt te claimen of in ieder geval te naar te hinten dat deze geen eerlijke weergave van resultaten zou geven. Dat zou, mocht het waar zijn, Maxon minimaal medeschuldig maken. En daarmee dus ook zeker een aantijging richting Maxon.
hoezo bron? Je wilt ontkennen dat Cinebench bij bijna elke CPU review tevoorschijn word gehaald?
Dat wil ik zeker niet ontkennen, maar daar doelde ik dan ook niet op. Ik zou graag een bron van het feit dat jij claimt dat Intel hier als een soort van "Evil genius" Maxon voor haar karretje probeert te spannen en dat Maxon hier ook aan mee zou doen doormiddel van het uitbrengen van Cinebench R20
bij elke benchmark natuurlijk, niet weggestopt op hun website.
Dat lijkt me vrij voorbarig, zeker in deze situatie waar er, voor zover ik kan oordelen, er geen enkel bewijs is van van het feit dat hier iets niet haak zou zijn met de Cinebench R20 resultaten. Laten we eerst afwachten, zonder vooraf te oordelen, of er daadwerkelijk wel iets mis is met Cinebench R20.

Ik zou namelijk zelf verwachten dat hier wel een aantal partijen, waaronder AMD zelf, direct op in gegaan zou zijn. Van bijvoorbeeld Embree kan immers de source code zo bekeken worden. Waardoor het vrij makkelijk zou moeten zijn om eventuele bewuste sabotage in Embree door Intel aan het adres van AMD aan te tonen.

Zelfs de FTC vond het afdoende dat Intel enkel wanneer zijzelf adverteerden met Sysmark resultaten ze een disclaimer (of link naar een disclaimer, Intel.com/benchmark) moeten plaatsen. Mocht er in de toekomst blijken dat er iets niet klopt aan Cinebench ben ik het zeker met je eens dat een disclaimer (of zelfs het liefst schrappen van de benchmark door de reviewers), maar dan zie ik dit wel graag eerst aangetoond worden en niet bedacht op basis van vooroordelen.
Ik zou graag een bron van het feit dat jij claimt dat Intel hier als een soort van "Evil genius" Maxon voor haar karretje probeert te spannen
Voor het aanbieden van gratis software en tech support om je product te pushen hoef je echt geen evil genius te zijn hoor. is al jaren en dag standaard procedure bij nVidia bijvoorbeeld. afkijken is dus voldoende.
Mocht er in de toekomst blijken
Dan is het al veel te laat. Daarbij twijfel ik er heel sterk aan of dat wel gaat blijken. ze gaan het echt niet nogmaals zo blatantly obvious maken als met sysmark 2002.

maar zelfs als intel het meest vertrouwde bedrijf ter wereld was dat nog nooit iets fout had gedaan, dit is gewoon een klassiek gevalletje belangen verstrengeling.

Zoals ik in de andere reactie ook zei het is niet slager keurt zijn eigen vlees misschien, maar wel een slager die zelf een deel van de meetinstrumenten mag leveren.

En als je cinebench r20 nou alleen wil gebruiken om een indicatie te krijgen hoe Cinema4D zou presteren, prima.
Maar Cinebench word voor veel meer als dat gebruikt, en dat wist intel heel goed toen ze met Maxon in zee gingen. en daar ligt mijn probleem,

[Reactie gewijzigd door Countess op 23 juli 2024 17:56]

Ik heb geen verstand van de laatste testmethoden, maar het gebeurt al meer dan 20 jaar dat bepaalde tests bepaalde hardware voordelen geeft. Bij software is het bijvoorbeeld in recente tijden zo dat als een processorfunctie niet aanwezig is er andere code wordt uitgevoerd die typisch trager is. Als Intel dus een nieuwe instructieset of uitbreiding heeft en AMD heeft die (nog) niet, dan scoort Intel beter in een synthetische test waar dit in is opgenomen. Het gaat niet alleen om de code, maar vooral ook om de compiler. Intel heeft speciale compilers en compiler extensies.

Daarom zijn echte applicatiebenchmarks veel interessanter. Dan zie je hoe snel je game of bestandscompressie wordt. Mits die toepassing tijdens het testen niet al verouderd is.

Intel toont op hun site allerlei open source benchmarks waaruit zou blijken dat de compiler sneller is dan gcc, maar in real world tests - in applicaties die weinig of geen speciale instructiesets kunnen gebruiken en char data dominant is - ligt het voordeel eerder bij niet-Intel compilers. Het is niet zo moeilijk om een compiler te optimaliseren voor benchmarks.
Misschien moet je ook even met feiten komen in plaats van een heel relaas houden over het manipuleren van Benchmarks zonder enkele bron of vorm van bewijs.

Zoals ik het zie is Maxon een top bedrijf die wel iets meer doet dan enkel de benchmarker maken. (meerder c4d licenties hier!). Beetje kansloos om dan met zo'n ongegronde reacties geplust te worden terwijl je enkel een "onderbuik gevoel" hebt.

Ja Intel heeft net als Amd wel eens het een en ander naar buiten gebracht qua Benchmarks wat niet met de realiteit leek te kloppen. Maar jij spreekt over Maxon, die daar verder niets mee te maken heeft en een maker is van 3D pakketten.
Die AMD pro render in al zijn pakketten ondersteunt?
Oh wacht ze werken samen met zowel AMD als intel, nu moet er wel hele dikke disclaimer bij staan. :')
Die AMD pro render in al zijn pakketten ondersteunt?
word pro render gebruikt in de r20 cinebench?
Misschien moet je ook even met feiten komen in plaats van een heel relaas houden over het manipuleren van Benchmarks zonder enkele bron of vorm van bewijs.
sorry ik ging er vanuit dat dit al algemeen bekend was.
voorbeeld sysmark 2001 vs sysmark 2002 (sysmark is van BEPCO, waar intel weer eigenaar van is)

http://www.vanshardware.c...0Presentation%20FINAL.pdf

lees met name pagina 9 even.
alle tests die AMD won in de 2001 versie, waren in de nieuwe versie ineens vervangen door kopieën van de paar tests die intel kon winnen.

en voor je gaat roepen AMD propaganda ofzo:
https://en.wikipedia.org/wiki/BAPCo_consortium

intel is hiervoor door de FTC zelfs schuldig bevonden en beboet, en heeft uiteindelijk een settlement getroffen.

en in 2012 zijn nvidia AMD en VIA allemaal opgestapt uit BAPCo vanwege sysmark 2012. intel had dus, ondanks dat de andere meededen aan het consortium, nog steeds een veel te dikke vinger in de pap. zo veel dat de andere volledig het vertrouwen erin hebben opgezegd. Dus ook 10 jaar later was intel nog niet te vertrouwen met benchmarks.

Dus ja, ook nu, elke keer als intel's naam word genoemd bij een benchmark gaan mijn nekharen recht overeind staan.
Zoals ik het zie is Maxon een top bedrijf die wel iets meer doet dan enkel de benchmarker maken
De beschuldiging hier is niet aan het adres van Maxon maar aan Intel. Omdat ze al veroordeeld zijn voor het rechtstreeks manipuleren van benchmarks gaan ze nu subtieler te werk, en bieden hun technologie en expertise aan aan bedrijven die populaire benchmarks maken.

[Reactie gewijzigd door Countess op 23 juli 2024 17:56]

Sorry ik ging er vanuit dat dit al algemeen bekend was.
voorbeeld sysmark 2001 vs sysmark 2002 (sysmark is van BEPCO, waar intel weer eigenaar van is)

http://www.vanshardware.c...0Presentation%20FINAL.pdf

lees met name pagina 9 even.
alle tests die AMD won in de 2001 versie, waren in de nieuwe versie ineens vervangen door kopieën van de paar tests die intel kon winnen.
Ik denk dat dit redelijk algmeen bekend is inderdaad, in ieder geval onder Tweakers. Ik denk echter ook dat velen er niet op zitten te wachten iedere keer oude koeien uit de sloot te halen. Ik zie liever nieuwe voorbeelden dan oude koeien als ik eerlijk mag zijn.
intel is hiervoor door de FTC zelfs schuldig bevonden en beboet, en heeft uiteindelijk een settlement getroffen.
Volgens mij klopt dit niet en is Intel nooit veroordeeld en ook niet beboet door de FTC. Ze hebben wel een schikking getroffen.

Zie bijvoorbeeld deze quotes van Anand over de schikking:
ntel and the FTC have reached a settlement ahead of what would have been next month’s court hearing. With this settlement the FTC is agreeing to drop the case in return for a series of prohibitions and requirements placed upon Intel to maintain and enhance the competitive environment in the CPU and GPU markets. However true to their word, the FTC did not push for any fines – this is a settlement of actions, and not one of greenbacks.

The resulting settlement is, in the FTC’s words, “not punitive but rather remedial.” Going in to the suit the FTC was not asking for a fine or some other method of punishing Intel, and nothing like this is in the final settlement either.
De beschuldiging hier is niet aan het adres van Maxon maar aan Intel. Omdat ze al veroordeeld zijn voor het rechtstreeks manipuleren van benchmarks gaan ze nu subtieler te werk, en bieden hun technologie en expertise aan aan bedrijven die populaire benchmarks maken.
Zoals al aangegeven, volgens mij zijn ze helemaal niet veroordeeld. Echter is het overduidelijk dat er met sysmark wat zaken gedaan zijn die niet door de beugel kunnen. Verder is dit natuurlijk wederom weer een beschuldiging van je zonder onderbouwing aangaande Cinebench.

Laten we eerst een zien of er wel sprake is van zaken die niet kloppen voordat we beschuldigingen als feiten gaan wegzetten zoals jij nu probeert te doen. Als er zaken met Cinebench R20 niet kloppen dan zal dat snel genoeg aan het licht komen verwacht ik, de community is daar nu een stuk scherper op dan decennia geleden, van Embree is de source beschikbaar en er zijn genoeg partijen die Intel maar wat graag op zulke fouten zouden willen betrappen.

[Reactie gewijzigd door Dennism op 23 juli 2024 17:56]

Volgens mij klopt dit niet en is Intel nooit veroordeeld en ook niet beboet door de FTC. Ze hebben wel een schikking getroffen.
De FTC vond ze schuldig en heeft een boede opgelegd. Intel was het daar niet mee eens en heeft de boeten aangevochten. De rechter heeft nooit uitspraak gedaan omdat ze samen een settlement hebben getroffen, maar dat claimed ik ook niet.
Ik zie liever nieuwe voorbeelden dan oude koeien als ik eerlijk mag zijn.
niet verder gelezen ofzo? in 2012 was opnieuw een vergelijkbare situatie. dus 17 jaar gelden was intel fout, 7 jaar geleden was intel fout. maar vandaag zijn ze ineens de goedheid zelve, precies nu AMD (net als 17 jaar geleden) ze het vuur aan de schenen legt? kom nou.
Als er zaken met Cinebench R20 niet kloppen dan zal dat snel genoeg aan het licht komen verwacht ik,
Daar twijfel ik dus sterk aan. ze gaan niet nog een keer zoals met sysmark 2002 de scores ineens met 20% veranderen van de ene op de andere versie. Maar elke keer een paar procentjes zie ik ze makkelijk doen en niemand dit het hard kan maken. het feit dat dat MOGELIJK is zou al voldoende moeten zijn.

Het feit is gewoon dat ze niet te vertrouwen zijn, en niet eens omdat het intel is, maar omdat ze het onderwerp van de test zijn.

het is niet slager keurt zijn eigen vlees misschien, maar wel een slager die zelf een deel van de meetinstrumenten mag leveren.

en bij dit soort conflict of interest hoort gewoon een disclaimer, bij de benchmarks zelf.

[Reactie gewijzigd door Countess op 23 juli 2024 17:56]

De FTC vond ze schuldig en heeft een boede opgelegd. Intel was het daar niet mee eens en heeft de boeten aangevochten. De rechter heeft nooit uitspraak gedaan omdat ze samen een settlement hebben getroffen, maar dat claimed ik ook niet.
Misschien even de quote lezen die ik post? Zie het dik gedrukte.
Intel and the FTC have reached a settlement ahead of what would have been next month’s court hearing. With this settlement the FTC is agreeing to drop the case in return for a series of prohibitions and requirements placed upon Intel to maintain and enhance the competitive environment in the CPU and GPU markets. However true to their word, the FTC did not push for any fines – this is a settlement of actions, and not one of greenbacks.

The resulting settlement is, in the FTC’s words, “not punitive but rather remedial.” Going in to the suit the FTC was not asking for a fine or some other method of punishing Intel, and nothing like this is in the final settlement either.
Volgens deze quote, van Anand, heeft de FTC in tegenstelling tot wat jij beweerd geen boete ge-eist, Intel is ook niet in beroep gegaan daartegen, het is niet eens tot een zaak gekomen. Er een schikking gekomen voordat de zaak in eerste instantie gediend heeft.
niet verder gelezen ofzo? in 2012 was opnieuw een vergelijkbare situatie. dus 17 jaar gelden was intel fout, 7 jaar geleden was intel fout. maar vandaag zijn ze ineens de goedheid zelve, precies nu AMD (net als 17 jaar geleden) ze het vuur aan de schenen legt? kom nou.
Ik zeg nergens dat Intel de goedheid zelve is, ik ga mijn handen niet voor ze in het vuur stelen. Ik ga ze echter ook niet veroordelen voordat de feiten bekend zijn. En dat is gewoon zo jammer, laat de feiten spreken, niet de onderbuik. Dat is nu juist exact wat ik bedoelde met Fanboy (of in dit geval misschien beter gezegd anti-fanboy gedrag). Volgens mij is er in 2011 / 2012 ook geen actie van de FTC geweest, terwijl juist toen (volgens mij nu nog steeds trouwens) Intel onder de afspraken in de schikking onder een vergrootglas lag m.b.t. Sysmark / Bapco waardoor Intel onder de voorwaarden van de schikking met de FTC tot 10 jaar na de schikking volgens mij jaarlijks geaudit zal worden door een partij aangesteld door de FTC om te kijken of de schikking nageleefd wordt.
Dat AMD, Nvidia en Via uit Bapco gestapt zijn snap ik wel, Intel had een sterke stem, waardoor even uit mijn hoofd, het geen dat AMD en Nvidia graag wilden, namelijk dat sysmark ook zou gaan schalen met GPU prestaties er niet in kwam.
Daar twijfel ik dus sterk aan. ze gaan niet nog een keer zoals met sysmark 2002 de scores ineens met 20% veranderen van de ene op de andere versie. Maar elke keer een paar procentjes zie ik ze makkelijk doen en niemand dit het hard kan maken. het feit dat dat MOGELIJK is zou al voldoende moeten zijn.
Twijfel is prima zoals al aangegeven, ik ga ook niet zeggen dat ik 100% overtuigd ben, maar tot het tegendeel bewezen is blijft het onzinnig om beschuldigingen te uiten alsof het feiten zijn.

En laten we eerlijk zijn, als optimalisaties e.d. een probleem zijn bij benchmarks kunnen we beter helemaal niet meer benchmarken, je wil namelijk juist zoveel mogelijk real world resultaten zien. Je wil als consument niet je aankopen baseren op volledig synthetische testjes. Nee, als jij een gamer ben wil je weten hoe de games die jij speelt presteren op de hardware die jij gaat mogelijk gaat kopen en daarop je keuze baseren. Net als wanneer zakelijk bijvoorbeeld veel Adobe software gebruikt je wil weten hoe bepaalde hardware met Adobe presteert Iedere game is voorzien van optimalisaties voor Nvidia en / of AMD en mogelijk dat AMD en Intel er ook aan de cpu kant aan meewerken. En ook bij veel software zijn Intel en AMD (en mogelijk ook Nvidia) betrokken bij de ontwikkeling en optimalisatie. Dat is gewoon logisch. Dat je dit dan mogelijk ook terug gaat zien in tests gebaseerd op software die dagelijks gebruikt wordt is ook volkomen logisch en daar zou ook geen enkel probleem mee moeten zijn. Ik zou bijvoorbeeld liever zien dat AMD ook hard zou gaan pushen voor meer optimalisatie, in plaats van dat we zouden moeten gaan stampvoeten wanneer Intel of Nvidia software optimaliseren zodat deze daadwerkelijk beter presteert.

Het wordt imho pas een probleem wanneer benchmark resultaten niet overeen komen met real world resultaten van de software waarop ze gebaseerd zijn en je dus bijvoorbeeld betere resultaten ziet in een benchmark die je bij daadwerkelijk gebruik van de software niet kan reproduceren.

[Reactie gewijzigd door Dennism op 23 juli 2024 17:56]

DXR is cool, maar RTX is veel te langzaam ervoor. De RTX versnelling voor DXR is zo zwak dat het 25-50% performance kost en je bijna het verschil niet ziet. De technieken die het vervangt zijn al heel goed, soms zelfs beter. In tomb raider bijvoorbeeld worden alle schaduwen ongedetailleerd vanwege het gebrek aan rays. In Metro wordt het af en toe zo donker dat je niets meer ziet. Alleen in battlefield is het effect iets beter dan screen space reflection.

Daarnaast is het DLSS filter van RTX lelijker dan wanneer je zelf de resolutie verlaagt naar een setting met dezelfde snelheid. DLSS is alsof je beeld in het water heeft gelegen. Alles vervloeit. Grassprieten vloeien in elkaar over en textures zien er uit alsof ze op 'low' staan. Zie bijvoorbeeld Anthem: https://cdn.knightlab.com...00-11e9-8106-0edaf8f81e27

[Reactie gewijzigd door lordawesome op 23 juli 2024 17:56]

Inderdaad, snap sowieso niet de reden om met DLSS te gaan testen als het de image quality alleen maar negatief beïnvloed voor een kleine fps winst.
Waarom gebruiken jullie Blender niet voor benchmarks?

Het kan zowel de CPU als de GPU gebruiken voor renders.
Het is opensource, dus als er een keer wat vreemde resultaten zijn dan kun je zelf een kijkje in de code nemen.
Het is Nederlands, best iets om uit te dragen als Nederlandse tech site lijkt me.

Laatst een artikel over Maxon en de Windows store,dat geneuzel heb je dan niet meer.
Ik verwacht dat dit te maken heeft met de tijdsduur, Blender zie ik vaker gebruikt worden voor duurtesten of bijvoorbeeld eventuele throttling te testen, terwijl cinebench juist een relatief snelle test is. Ook heeft Blender volgens mij geen score, wat het soms lastiger te vergelijken maakt, zeker als verschillende testers verschillende scenes gebruiken. Terwijl cinebench resultates makkelijker te vergelijken moeten zijn. Neemt niet weg dat je Blender natuurlijk wel kan gebruiken voor een zelfde soort test, ik verwacht echter dat bovenstaande een beetje redenen zijn waarom Cinebench de industrie standaard lijkt te zijn.

Dat windows store verhaal is al teruggedraaid trouwens.
Je kan toch gewoon de tijd die de render duurt meten? Is gewoon scriptable.

Voor nu.
Dat kan uiteraard, en je ziet dat ook redelijk veel gebeuren. Ik zie juist regelmatig dat zowel Cinebench en Blender gebruikt worden. Tweakers gebruikt Blender ook regelmatig bijvoorbeeld in laptop reviews. Ik dat ze elkaar prima kunnen aanvullen en het niet direct iets is waarbij je of de een of de ander zou moeten gebruiken.
Sterker nog, de tijdsduur staat bovenaan in het ‘render result’ venster.
Ik kan me voorstellen dat de UI minder accuraat is dan de interne counter, vandaar.
Blender heeft sinds september ook een aparte benchmark: https://opendata.blender.org/
We gebruiken Blender ook voor cpu-benchmarks naast Cinebench en voor laptops als duurtest/throttling..
Ik zet wat vraagtekens bij de idle waarden van de CPU's. Waarom zou een Threadripper 1920X 2,1 watt meer verbruiken in idle dan een Threadripper 1950X? En zou een ryzen 7 2700x inderdaad ruim 2 maal zoveel verbruiken als een ryzen 7 2700?. Wie kan me de verschillen uitleggen?
Niet alle silicon is gelijk, met een beetje geluk of ongeluk krijg je een betere of slechtere chip. Daarnaast kan er altijd een kleine variatie in meetwaarden zitten.
Wanneer je hogere snelheden wil halen moet er vaak een hoger voltage op de chip, het verbruik (en warmteontwikkeling) neemt dan meestal niet lineair toe maar exponentieel.
Geen idee of dit de reden is voor de meetwaarden die jij opmerkte maar het kan meespelen.
Er gaat wel meer mis precies. Neem bijvoorbeeld de Athlon 200GE. Deze heeft precies met 2 threads gedraaid in plaats van 4. Verschil tussen de 220GE en de 240GE is belachelijk groot in Cinebench r20

200GE (3.2) Single: 238 Multi: 436
220GE (3.4) Single: 322 Multi: 852
240GE (3.5) Single: 332 Multi: 885

De singlecore score van de 200GE is te laag gezien de verdere schaling.
De multicore score van de 200GE is veel te laag gezien het allemaal 2C4T modellen zijn.
Leuk dat je dat allemaal vindt, maar wat zijn je bronnen/tests?
Graag delen.
Dit lijkt aangepast of ik mis iets.
Is inmiddels aangepast
Ik zet ook zeker mijn vraagtekens bij idle power waardes. Threadripper is bij alle andere bronnen zeker niet zuinig in idle:
Bijvoorbeeld Anandtech en Tom's hardware en ons eigen tweakers forum:

https://www.anandtech.com...1950x-and-1920x-review/19

On the whole, Threadripper is a hungry chip even at idle. Most of the power here is being consumed by the memory controller and PCIe bus to keep the GPU ticking over with a static display. The fact that the 1950X running DDR4-3200 memory is pulling another 13W+ from the CPU shows how much of an impact the memory controller has on total power consumption. For all the chips, we’re recording sub 2W power draw from the cores."
Hou er wel rekening mee dat dit een review is van een jaar geleden, nieuwe bios versie's e.d kunnen dit soort zaken zeker veranderen. Tweakers heeft dit in dit geval recent getest. Ook test Tweakers op andere manier dan Anand. Tweakers test met fysieke meet apparatuur, terwijl Anand test met software.

Verder geeft Anand ook nog het volgende aan:
Normally this way of reading the power consumption can be a smidge inaccurate compared to more invasive methods
Ook zijn de Threadrippers die hier zuinig zijn de Threadrippers uit de 2de generatie. Verder is het maar de vraag of Tweakers het geheugen ook buiten spec draait op DDR4-3200 (AMD's spec is DDR4-2666 bij Threadripper generatie 1). Verder kan er ook nog verschil zitten in het aantal geplaatste modules tijdens deze test wat ook weer verschil kan maken. Kortom vrij veel variabelen wat vergelijken met andere tests lastig maakt tot Tweakers deze meet methode daadwerkelijk gaat inzetten in reviews.
Ai, als iemand die ook groot plezier heeft met gamen zonder RTX ... overtuigt dit niet om te denken "Poah een Raytracing kaart, das mien plezier"!

Soort non-stop *meh* gevoel bij bijna alle screenshots ... en dan zou je er honderden euro's extra voor betalen :? ? Nah.

Tof dat Tweakers.net probeert bij te blijven met zijn benchsuite(s)!

[Reactie gewijzigd door Cassius op 23 juli 2024 17:56]

Sterker nog, ik vind de screenshots aan de "low" kant beter. Behalve bij Shadow of the Tomb Raider, daar voegt het wel mooiere schaduw toe aan planten en de grond. Planten zien er daar minder "plastic render" uit.

[Reactie gewijzigd door Hijdaar95 op 23 juli 2024 17:56]

Dat idee had ik ook bij bepaalde screenshots, maar de kracht zit hem natuurlijk ook niet in screenshots maar bewegende beelden. Ook zijn de omgevingen niet helemaal identiek, vooral bij BF5 met de rook is het soms lastiger om het te vergelijken. Toch zie je qua belichting wel een beter resultaat, al is het minimaal.

Hoewel het wat lastiger is had ik liever filmmateriaal gezien met de verschillen. @Hijdaar95 Het is ook moeilijk vergelijken of het de moeite waard is gezien alle screenshots met raytracing zijn. Je hebt geen enkel vergelijkingsmateriaal wanneer raytracing wordt uitgeschakeld.

Ik vindt het in ieder geval een goede ontwikkeling toch zijn de verschillen nog niet zo groot, gezien men nog steeds limieten heeft voor het gebruik van raytracing. Men noemt het wel raytracing maar in de werkelijkheid is het meer raytracing "light". Bij BF5 bijvoorbeeld gebruikt men boundry boxes voor de rays en de aantal rays zijn ook beperkt. Dit is goed duidelijk bij de low en ultra screenshots, waarbij het vuur niet reflecteert op het wapen.
Ik denk als ik het inderdaad zelf zie dat het upgraden van de GTX 10 series naar RTX 20 niet het grote geld waard is momenteel, denk alleen als je een nieuwe grafische kaart koopt dat dan een leuke bonus is om te hebben
Dat gevoel bekruipt me in deze fase van raytracing dus ook. Wellicht is wordt dit in de toekomst beter wanneer het meer naar lifelike gaat. Maar op dit moment kan het mij aan mijn reet roesten het toegevoegde 'realisme' van de lichtval.
Ik heb een 2080 gekocht omdat ik met hoge FPS op 1440p wou kunnen gamen. Veel keus heb je dan niet.
Momenteel zou ik als gamer geen RTX kaart aanschaffen. In ieder geval niet voor de raytracing functionaliteit.

Als game ontwikkelaar ben ik wel enthusiast over deze technologie. Het kan namelijk ontzettend veel tijd schelen bij het afstellen van belichting wanneer je meteen de resultaten kunt zien. Nu duurt dat vaak uren.
Het zal wel aan de kleine screenshots liggen maar ik zie amper verschil. In de meeste screenshots ziet RTX er naar mijn idee op low nog beter uit ook.
Ik had hetzelfde gevoel. Precies of er meer details zijn. Je ziet dat goed in Battlefield - Rookpluimen en Exodus - shot met kasten en bed... waar precies meer potten en kannen staan...

Heel raar eerlijk gezegd.
Met shaders kun je dicht in de buurt komen van iets dat er gewoon goed uitziet - zeker bij snelle actie (zoals BF) zul je niet echt aandacht besteden aan of bijv. de reflecties in het water kloppen. Met raytracing is het - en corrigeer me als ik het mis heb - zowel een correctere representatie van hoe het in het echt zou werken, en eenvoudiger qua implementatie. Maar het zou me niet verbazen als ze zeer geavanceerde technieken verwerkt hebben in de raytracingtechnologie om het op een normale framerate werkend te maken.

Ik zou wel een vergelijking willen zien met bewegende beelden.
Waarom niet getest met een GTX 1080ti? Dat had nou aangetoond hoeveel verschil in fps dat uitmaakte. Hoef ik niet zo n dure RTX kaart te kopen voor raytracing.
GTX 1080ti is even snel als een RTX2080 zonder TI.. 10 series kan alleen geen RTX raytracing.
Dat is DirectX Raytracing, een softwarematige implementatie, waar kaarten uit de GTX20xx serie raytracing hardwarematig ondersteunen.
Als ik het allemaal goed heb begrepen kun je het principe wel enigszins vergelijken met met de anti-aliasing varianten FXAA en MSAA, waarbij de eerste softwarematige anti-aliasing toepast op het gerenderde frame (post-processing), en de tweede het al implementeerd tijdens de rendering van het frame. Maar of dit ook het verschil is tussen hard- en softwarematige raytracing durf ik niet met 100% zekerheid te stellen...
Als er interesse vanuit Tweakers is kan ik wel eens met m'n Titan RTX langskomen voor een bench.
Mijn aandrader als je RTX wilt gebruiken in BFV, zet het op low, alles ziet er stukken beter uit en de impact is minimaal in vergelijking met de rest.

Op dit item kan niet meer gereageerd worden.