Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Willem de Moor

Redacteur componenten

Cinebench 20, raytracing en energie

Nieuwe benchmarks op een rij

Cinebench 20

Maxon heeft eindelijk, na bijna zes jaar, een nieuwe versie van Cinebench uitgebracht. De R15-release die we nog altijd gebruiken, en voor de vergelijkbaarheid van oude resultaten nog enige tijd naast de nieuwe versie blijven gebruiken, stamt uit september 2013. In processorland is in de tussentijd het nodige veranderd. In september 2013 bracht Intel zijn Ivy Bridge-generatie uit en was het aantal cores voor desktops, zelfs high-end desktops, beperkt tot 4 en 6 hyperthreadingcores. AMD zat rond die tijd met Piledriver-processors eveneens op 4 cores.

Inmiddels zijn we dus bijna zes jaar verder en is het processorlandschap behoorlijk veranderd. Mainstreamprocessors zitten op 8 fysieke cores en het hedt-platform van Intel is gegroeid naar 18 cores, terwijl AMD er in zijn grootste processors zelfs 32 propt. De oude Cinebench R15 schaalde niet lekker mee met dergelijke krachtige processors en dus heeft Maxon een nieuwe versie, die volgens eigen zeggen acht keer keer zo zwaar is en bovendien meer geheugen vergt.

We hebben deze R20-versie van Cinebench losgelaten op vrijwel alle processors die we in ons magazijn hebben en de resultaten in onderstaande grafiek verwerkt. Uiteraard hebben we daarbij gecontroleerd of dat consistente resultaten oplevert. Met voldoende koeling bleek dat geen probleem; laptops en processors met ontoereikende koeling kunnen echter wel throttlen.

  • Cinebench 20 - Multi
  • Cinebench 20 - Single
Cinebench 20 - Multi
Processor in punten (hoger is beter)
Threadripper 2990WX
11.793
Threadripper 2970WX
9.682
Core i9-9980XE
8.856
Core i9-7980XE
7.902
Threadripper 2950X
7.168
Threadripper 1950X
6.708
Threadripper 2920X
5.817
Threadripper 1920X
5.445
Core i9-7900X
5.226
Core i9-9900K
4.950
Core i7-7820X
4.211
Ryzen 7 2700X
4.022
Core i7-9700K
3.675
Ryzen 7 1800X
3.595
Ryzen 7 2700
3.506
Core i7-8700K
3.442
Ryzen 5 2600
2.837
Core i5-8400
2.295
Core i7-6700K
2.155
Core i7-4790
1.982
Core i5-8600K
1.981
Core i3-8350K
1.608
Ryzen 3 2200G
1.369
Pentium Gold G5400
895
Athlon 240GE
885
Athlon 220GE
852
Pentium G4560
851
Athlon 200GE
811

We hebben de maximale turbofrequenties van de processors en het aantal threads in de data opgenomen. Voor de singlethreadedresultaten kun je van die hoogste frequentie uitgaan, maar voor de multithreadedtest klokken de cores uiteraard een stuk trager.

De singlethreadedscores schalen, zoals we van Cinebench gewend zijn, netjes met de kloksnelheid, met een enkele afwijkende volgorde, meestal waar het een afwijkende of oudere architectuur betreft. Ook zien we dat de moderne Intel-processors iets hogere scores bij gelijke klok realiseren dan die van AMD, maar een groot verschil zit er niet tussen.

Bij de multithreadedresultaten zien we iets betere schaling. Zo scoort de Threadripper 2990WX bijna 22 procent hoger dan de 2970WX, waar dat bij Cinebench R15 iets minder dan 18 procent was.

Kijken we naar de scores per smt- of hyperthreadingcore van respectievelijk AMD en Intel, dan kunnen we nog een aantal interessante observaties doen. We hebben de all-coreturbo's van de processors en het aantal cores en threads vergeleken met de scores. Daaruit volgt een score per smt- of ht-core per gigahertz. Die komt voor de Threadripper smt-cores op ongeveer 112 punten per gigahertz en voor de AM4-processors op gemiddeld 125 punten per gigahertz. Veel AMD-processors zonder smt hebben we niet in ons lijstje, maar de Zen-cores in de 2200G zonder smt scoren ongeveer 93 punten per gigahertz.

Bij Intel komen we op 130 punten per gigahertz voor de hedt-processors en de overige op Skylake-gebaseerde processors met hyperthreading. Intel heeft echter ook flink wat aanbod zonder hyperthreading en die scoren om en nabij de 100 punten per gigahertz.

  • Cinebench R15 1T
  • Cinebench R15 nT
Cinebench R15 1T
Processor in Cinebench-punten (hoger is beter)
Core i7-9700K
210
Core i9-9900K
210
Core i7-8700K
202
Core i9-7900X
196
Core i7-7820X
194
Core i9-7980XE
194
Core i7-8700
185
Core i5-8600K
181
Ryzen 7 2700X
179
Core i3-8350K
173
Core i7-6700K
170
Core i5-8400
170
Threadripper 1920X
167
Threadripper 1950X
167
Ryzen 7 2700
167
Ryzen 5 2600
162
Ryzen 7 1800X
162
Core i3-8100
155
Pentium Gold G5400
153
Ryzen 3 2200G
149
Pentium G4560
148
Cinebench R15 nT
Processor in Cinebench-punten (hoger is beter)
Threadripper 2990WX
5.133
Threadripper 2970WX
4.361
Core i9-9980XE
3.716
Core i9-7980XE
3.342
Threadripper 2950X
3.184
Threadripper 1950X
3.020
Threadripper 2920X
2.613
Threadripper 1920X
2.420
Core i9-7900X
2.211
Core i9-9900K
2.033
Ryzen 7 2700X
1.835
Core i7-7820X
1.761
Ryzen 7 1800X
1.630
Ryzen 7 2700
1.569
Core i7-9700K
1.497
Core i7-8700K
1.436
Core i7-8700
1.397
Ryzen 5 2600
1.265
Core i5-8600K
1.019
Core i5-8400
969
Core i7-6700K
884
Core i3-8350K
679
Core i3-8100
601
Ryzen 3 2200G
579
Pentium Gold G5400
399
Athlon 240GE
388
Pentium G4560
378
Athlon 220GE
376
Athlon 200GE
357

Voor zover we die hebben, hebben we ook de Cinebench R15-resultaten op bovenstaande processors ter vergelijking opgenomen.

Opgenomen vermogen

We vroegen ons ten slotte af of processors, vooral de high core count-modellen, ook zwaarder worden belast. Zoals je op de vorige pagina kunt lezen, gebruiken we namelijk Cinebench R15 in onze metingen voor opgenomen vermogen. We hebben daarom gecontroleerd of een AMD- en een Intel-processor, de 2990WX en 9980XE, significant meer energie verstoken met Cinebench R20 dan met R15.

Het tegendeel lijkt eerder waar, hoewel het verschil miniem is. Zowel de 2990WX als de 9980XE verstookt namelijk een watt minder met Cinebench R20 dan met R15. De benchmark is wel veel zwaarder, want de 2990WX doet over de multithreaded test 33 seconden in R20 en maar 9 seconden in R15. Voor de 9980XE is de tijd toegenomen van van 15 naar 40 seconden.

Lees meer

Reacties (90)

Wijzig sortering
Mooi dat jullie verbeteringen doen aan de tests en ook toegeven dat de vorige metingen niet betrouwbaar waren. Is alleen jammer dat het zo lang heeft geduurd en dat er geen waarschuwing of iets bij stond dat de metingen niet betrouwbaar waren.

Helaas komen nu een aantal van dezelfde fouten die toen al waren aangegeven nu weer terug en is ook deze meting met de nieuwe apparatuur niet betrouwbaar. :X Waarom wordt er niet goed onderzoek van te voren gedaan? Zelfs met maar enkele minuutjes onderzoek was het al mogelijk om iets veel beters te bedenken en te zien dat dit hem niet was.

De foutjes die er de vorige keer ook al inzaten:
We meten met de DT3010 het vermogen dat aan de processor wordt geleverd door de 12pins-peg-connector af te tappen
Er bestaat niet iets als een 12 pins PEG connector, dit is al meermaals aangegeven, deze fout stond er de vorige keer ook al in. Een PEG connector heeft 6 of 8 pinnen, geen 12. Daarnaast krijgt de CPU natuurlijk sowieso niet stroom van een PEG connector maar van een 8 pins EPS connector en/of 4 pins ATX12V connector.
Zo isoleren we het vermogen dat aan de processor wordt geleverd en meten we dus enkel wat de cpu verbruikt, zonder de rest van het platform te hoeven meenemen.
Ook dit klopt niet, want het verlies van het VRM en verlies in kabels neem je ook mee.
Ongeacht of we dus een eenvoudig of een uitgebreid moederbord, of twee of vier geheugenmodules gebruiken, kunnen we de vermogens van de processors met elkaar vergelijken.
Daarmee klopt deze uitspraak dus ook niet. Het verlies van het ene VRM is namelijk zeker niet hetzelfde dan de andere en ook het verlies in de kabels van de voeding kan al verschil maken (er vanuit gaande dat de meter niet gekoppeld is aan het moederbord).

Het grootste probleem is echter dat jullie gewoon een ongeschikte meter hebben gekocht. Een sample rate van maar twee maal per seconde is gewoon veel maar dan ook echt veel te weinig om maar ook een enigszins betrouwbare meting te doen van een CPU of videokaart. Het verbruik van beide componenten wisselt namelijk zo snel dat je van alles mist. Daarnaast is een resolutie van 50mV en 50mA natuurlijk ook veel te ruim. Bij 12V is 50mA al 0,6 watt. Hoe wil je dan een idle meting kunnen doen als het verbruik van een CPU nu al onder de 1 watt zit?

Ik zou dan ook adviseren om deze apparatuur maar niet te gebruiken en eerst eens onderzoek te gaan doen, voordat er weer geld wordt weggegooid aan iets waarbij vooraf al duidelijk is dat het niet gaat werken.
Het grootste probleem is echter dat jullie gewoon een ongeschikte meter hebben gekocht. Een sample rate van maar twee maal per seconde is gewoon veel maar dan ook echt veel te weinig om maar ook een enigszins betrouwbare meting te doen van een CPU of videokaart.
Nee, daar zit u fout. Bij een zware belasting als Cinebench is het verbruik van een processor vrijwel de gehele periode constant (mits koeling goed is en dergelijke). De frequentie van de meting is alleen belangrijk als het verbruik sterke wisselingen heeft, wat het tijdens zo een test dus niet (veel) heeft.

Als je de ideale meter zou hebben zullen de grafieken voor waar belasting in wordt weergegeven nauwelijks anders, processoren die nu al naast elkaar staan zullen misschien handje wisselen (als dat uberhaubt al zo dicht bij elkaar zou komen), maar dan zie je als lezer nog steeds twee processoren die ongeveer het zelfde gebruik hebben...

Het is wel belangrijk dat de tests lang genoeg duren vergeleken met de sample rate. Een test van 5,0 seconde zou bv met een sample rate van 0,5 seconde een gemiddelde fout geven van pakweg 5%* (*aangenomen blokgolf). Bij 25 seconde is dit nog maar een schamele 1% wat ik voor dit soort grafieken (die bedoeld zijn voor een algemeen beeld) en het doel wat deze grafieken hebben (algemeen beeld van verbruik tijdens belasting weergeven) geen probleem.

Kritiek die ik wel heb is idle verbruik grafiek. Het is hierbij een stuk nuttiger (voor de doelgroep) om het verbruik van het systeem (evt inc een subset aan componenten) te meten in idle.
Hoe weet je zeker dat het vermogen van de CPU alleen maar uit die 6/8 pins EPS connector komt?
Er zit ook nog een ATX connector op en het zou me niets verbazen als die ook energie levert aan de CPU.

En er zitten nog wel andere hiaten in de meting.
De meter die jullie gebruiken (en eigenlijk elke stroom meter die geen Hall effect sensor gebruikt) zal een shunt gebruiken.
Zo'n shunt introduceert een spanningsval, want dat is hoe je de stroom meet.
Hierdoor komt er een lagere spanning op je mainboard waardoor de stroom toeneemt (om hetzelfde vermogen te leveren) en dus de efficiëntie afneemt (verliezen kwadratisch met de stroom)
De verliezen in de gebruikte VRM op je mainboard zullen groter zijn als de pieken groter zijn.

Eigenlijk zou je de ATX voeding moeten aanpassen zodat de sense-lijn waarop de spanning geregeld wordt, pas na de shunt gepakt zal worden. Dan regelt de ATX voeding zelf wel dat de spanning naar het mainboard constant is, ongeacht de spanningsval over de shunt.
Waarschijnlijk gebruiken ze een 100A/75mV shunt, maar met dergelijke stromen zal er ook nog het nodige in de kabel en connector verloren worden.
Dus je zit zo op een paar % spanningsval. (en dus paar % hogere stroom en dus kwadraat van die toename aan vermogens verlies)

Dus zoals ook al door anderen benoemd, meet je dus nu niet het vermogen van de CPU, maar CPU + VRM modules en door de plaatsing van de shunt meet je eigenlijk ook nog de extra inefficiëntie van de VRM + connector weerstand + verliezen over de PCB sporen die je krijgt door een grotere stroom die nodig is voor hetzelfde vermogen.

Je zou voor de gein eens 2 van deze meters na elkaar kunnen zetten om een idee te krijgen van het verschil met of zonder meter ertussen.
Uiteraard moet je de meetwaarden van de 2e meter gebruiken. De eerste hoeft niet eens actief te zijn.
De gemeten vermogens zouden hoger moeten zijn als je er een 2e meter tussen plaatst, terwijl je de directe verliezen van de eerste meter niet eens mee neemt en alleen indirect meet.

Voor max. belasting gedurende langere tijd zal het met gebruik van hetzelfde mainboard wel bruikbaar zijn voor de onderlinge vergelijking (afhankelijk van de interne werking van de meter), maar voor erg wisselende belasting kun je hier weinig mee.
De idle metingen zullen vrijwel niets zeggen omdat je alleen maar meet aan de 6/8 pin connector.

Als ik mij niet vergis, heeft Intel zelf ooit ook eens een tool uitgebracht om de interne registers van de CPU uit te lezen en zodoende het energieverbruik van de CPU te kunnen uitlezen.
Alle stroom die de CPU neemt gaat wel door de 4 en/of (dubbele) 8 pins connector dat is het probleem niet.
Bij een zware belasting als Cinebench is het verbruik van een processor vrijwel de gehele periode constant (mits koeling goed is en dergelijke). De frequentie van de meting is alleen belangrijk als het verbruik sterke wisselingen heeft, wat het tijdens zo een test dus niet (veel) heeft.
Het verbruik van de CPU zou best wel eens vrij constant kunnen zijn bij Cinebench, bij een constante temperatuur, dat klopt. Echter hier wordt niet het verbruik van het CPU gemeten. Er wordt namelijk achter een schakelend VRM gemeten en dat is alles behalve constant.

Daarnaast is Cinebench verbruik natuurlijk alles behalve interessant. Zo'n meting is leuk als erbij voor vergelijking, maar voor de rest natuurlijk niet echt nuttig. Niemand draait immers Cinebench 24/7. :p
[...]

Het verbruik van de CPU zou best wel eens vrij constant kunnen zijn bij Cinebench, bij een constante temperatuur, dat klopt. Echter hier wordt niet het verbruik van het CPU gemeten. Er wordt namelijk achter een schakelend VRM gemeten en dat is alles behalve constant.
Klopt als je afzonderlijke signalen pakt, maar over een gemiddeld tijd bestek (wat zo een meter meet lijkt me) is het toch vrijwel constant als de belasting gelijk blijft.
Daarnaast is Cinebench verbruik natuurlijk alles behalve interessant. Zo'n meting is leuk als erbij voor vergelijking, maar voor de rest natuurlijk niet echt nuttig. Niemand draait immers Cinebench 24/7. :p
Ik denk toch dat dit wel belangrijk is. Het maximum getrokken vermogen tijdens load is voor meerdere dingen zeer interessant. Om er een paar te noemen: voorzienings componenten keuze (bv voeding en koeling) en voor het vergelijken van verbruik tov verzet werk.

[Reactie gewijzigd door blauwe eend op 3 april 2019 07:56]

maar over een gemiddeld tijd bestek (wat zo een meter meet lijkt me)
In de tekst staat dat hij 2x per seconde meet, en dat is niet continue of gemiddeld. Continue meten kan ook niet btw zolang je digitaal meet. Ik ben het met The Mask eens dat een samplefrequentie van 2 veel te laag is om een volledig / juist beeld te krijgen.

Het is wel voldoende om een beeld te krijgen, maar de vraag is hoe nauwkeurig het is.
In de tekst staat dat hij 2x per seconde meet, en dat is niet continue of gemiddeld. Continue meten kan ook niet btw zolang je digitaal meet. Ik ben het met The Mask eens dat een samplefrequentie van 2 veel te laag is om een volledig / juist beeld te krijgen.

Het is wel voldoende om een beeld te krijgen, maar de vraag is hoe nauwkeurig het is.
Ja het mag en kan hoger, maar nee het is niet nodig voor de nauwkeurigheid van deze metingen (onder belasting die >30sec duren), zoals ik het uitgelegd in de post van mij iets naar boven:
Een test van 5,0 seconde zou bv met een sample rate van 0,5 seconde een gemiddelde fout geven van pakweg 5%* (*aangenomen blokgolf). Bij 25 seconde is dit nog maar een schamele 1%...
Om een voorbeeld te geven hiervan: stel je hebt een grafiek van vermogen over tijd (=verbruik). Dan wil je om het verbruik te bepalen eigenlijk een integraal nemen van die grafiek over het tijdsbestek vd belasting. Op de middelbare school leren ze de leerlingen voor dat ze integralen leren het benaderen van een oppervlakte onder een grafiek met blokken waarbij de hoogte van zo een blok bv de begin waarde vd grafiek is, op de plek waar het blok begint (er hier zijn meerdere mogelijkheden voor wat voor waarde je kan nemen. Bv gem van begin en eind kan ook). Op deze manier benader je de oppervlakte maar maak je 'meet' fouten waar je teveel of juist te weinig meet.
Als je de blokken (bij de meter dus sample frequentie) oneindig klein maakt dan heb je als het ware een integraal. Dus hoe kleiner hoe preciezer, maar vanaf een bepaald punt is de extra nauwkeurigheid die je krijgt (voor de totale oppervlakte) nagenoeg verwaarloosbaar.
Dus ondanks dat 2x per seconde heel er langzaam klinkt is het toch voldoende voor de metingen die gedaan worden (zo neem ik aan). Het is in dit geval waarschijnlijk belangrijker (heeft meer invloed) dat de gemeten waarde nauwkeurig is, dan dat deze waarde vaker gesampled wordt.
Ik weet van zeer nauwkeurige metingen van een 8700k dat die tot 130 watt verstookt voor een paar milliseconde, stock. Dat is ver boven de tdp van 95 watt van die cpu.

Je vergelijking met de blokken gaat niet op - met "een blok onder de grafiek" meet je ook de tijdsduur van hoe hoog een bepaalde waarde is. Dat gebeurd in die 2x per seconde niet. Dat is te vergelijken met 2x per seconde een blok meten met een lengte van 1 microseconde en dan de bovenkanten van die blokjes (meer paaltjes) met een lineaal en potlood aan elkaar verbinden. Een benadering van het verbruik dus.

Maargoed, wat ook kan is dat de meter 1000 hz meet en het display 2x per seconde update met het gemiddelde van 500 metingen. Daar wordt de meting een stuk nauwkeuriger van.

Edit: dit board ondersteund een a/d sampling rate van 1,25 mhz. Meer dan voldoende, als ze dat gebruiken iig.

[Reactie gewijzigd door SpiceWorm op 5 april 2019 11:56]

Je vergelijking met de blokken gaat niet op - met "een blok onder de grafiek" meet je ook de tijdsduur van hoe hoog een bepaalde waarde is. Dat gebeurd in die 2x per seconde niet. Dat is te vergelijken met 2x per seconde een blok meten met een lengte van 1 microseconde en dan de bovenkanten van die blokjes (meer paaltjes) met een lineaal en potlood aan elkaar verbinden. Een benadering van het verbruik dus.
Mijn voorbeeld klopt wel want ik beeld die benadering waar jij het over hebt uit. Dat is precies wat een A/D converter doet; de waarde nemen van één punt en aannemen dat voor de sample periode die waarde constant is (er zijn ook ander soorten A/D die misschien een andere benadering doen).

Wel top dat je even heb opgezocht wat de werkelijke sampling rate is.
Ik heb gezegd dat de sampling rate 'hoog genoeg' was, maar in werkelijkheid met alle ruis en wisselingen vandien.. Eigenlijk klopt het dus niet wat ik zei, voor een echt nauwkeurige meting. Er is namelijk wel kans dat die eene meetwaarde opeens somehow Lager is en dat wil je voorkomen.

Toch denk ik dat mijn uitleg best wat heeft bijgedragen. Blijkt dus gewoon foutief in 't artikel of er werd niet de daadwerkelijke sample rate bedoeld.
Dat is precies wat een A/D converter doet; de waarde nemen van één punt en aannemen dat voor de sample periode die waarde constant is (er zijn ook ander soorten A/D die misschien een andere benadering doen).
Nou, een adc neemt niet aan dat de samplewaarde constant blijft tot de volgende meting. Die doet gewoon een meting en rapporteerd die en wacht op een vervolgopdracht.

De interpretatie is aan de programmeur/software die de gegevens verwerkt. Ook meet een adc geen tijd of tijdsduur.
Ligt er maar net aan hoe nauwkeurig je wilt meten. Het is op dit moment niet interessant om te meten welke spikes in power, ookal is het een fractie van een seconde, een processor heeft. Daar heb je overigens veel duurdere apparatuur voor nodig en dat is voor wat er getoond wil worden niet van toepassing.

Als je dit echter relateerd aan voedingen en eerder nog videokaarten dan processors overigens, is het wel interessant om te zien wat voor spikes er plaatsvinden.

Als minimaal wordt er echter 1W genoteerd omdat het bekend is dat de meter niet nauwkeurig genoeg is om zo laag goed te meten.
Het is op dit moment niet interessant om te meten welke spikes in power, ookal is het een fractie van een seconde, een processor heeft.
Precies meten is altijd interessant. Het maakt je meting namelijk gewoon een stuk betrouwbaarder. Daarnaast is het ook nogal raar dat je van te voren al weet dat je meting onbetrouwbaar is en daarnaast moet je dan ook nog een waarschuwing plaatsen dat de meting niet bepaald precies is en ook dat staat nogal dom.
Daar heb je overigens veel duurdere apparatuur voor nodig en dat is voor wat er getoond wil worden niet van toepassing.
Volgens mij kan het juist en goedkoper en veel preciezer. Maar het is in dit verhaal niet duidelijk hoe er precies wordt getest. Dus hoe ziet de opstelling er precies uit en wat is er exact allemaal gebruikt?
Uiteindelijk hebben we gekozen voor een DT3010-spanningsmeter, die spanning en stroom kan meten met een resolutie van 50mV en 50mA, en twee keer per seconde data logt.
Is immers niet meer dan een vage omschrijving, maar zelfs daaruit zijn al duidelijk problemen te halen.
Als minimaal wordt er echter 1W genoteerd omdat het bekend is dat de meter niet nauwkeurig genoeg is om zo laag goed te meten.
Precies omdat zoals gezegd gekozen is voor ongeschikte apparatuur.
Omdat je iets anders wilt meten, wilt het niet meteen zeggen dat het onbetrouwbaar is. Dat is weer een heel ander verhaal. Daarnaast gaat toch nooit iemand aan jouw standaard voldoen. Daar is teveel tijd en geld voor nodig.

Denk ook niet dat het goedkoper kan dan deze meter en wil je het echt goed doen, koop je een datalogger en daarvan een juiste vinden is toch echt niet goedkoop, niet als je milliseconden wilt meten.
Daarnaast gaat toch nooit iemand aan jouw standaard voldoen. Daar is teveel tijd en geld voor nodig.
Zo fout. Maar dat weet je zelf ook wel, daarom reageer je ook niet inhoudelijk omdat je bang bent dat ik met iets veel betrouwbaarder kom dat ook niet stukken goedkoper is. Is jammer dat er een aantal mensen zijn die liever hun eigen hachje redden dan dat hun fouten toegeven en wel hun best gaan doen om een goede testmethode te maken. Want ik heb al heel vaak zo veel verbeteringen voorgedragen en elke keer blijkt maar weer dat men het gewoon serieus niet wil. Je geeft hier weer het perfecte voorbeeld.
Denk ook niet dat het goedkoper kan dan deze meter en wil je het echt goed doen, koop je een datalogger en daarvan een juiste vinden is toch echt niet goedkoop, niet als je milliseconden wilt meten.
Als je alles van te voren altijd en elke keer al afschiet of zegt dat het niet bestaat zonder ook maar een beetje onderzoek te doen dan zal inderdaad denken dat het niet kan nee. :X

[Reactie gewijzigd door -The_Mask- op 2 april 2019 11:51]

Kom maar met iets dat goedkoper en preciezer meet dan de meter die we nu gebruiken. En frequenter, zoals je zelf al aangaf. Ik neem aan dat je hebt opgezocht wat de huidige meter kan en kost?

Je maakt zelf een paar statements zonder ook maar iets aan referentie te geven, of een degelijk voorbeeld. Je argument dat je vaak verbeteringen voordracht gaat voor dit onderwerp niet op, dus laat maar horen!

En natuurlijk zoals al vaker aangegeven, bij andere productgroepen, het moet wel realistisch zijn wat tijdsinvestering en geld betreft. Je kunt daarvan zeggen dat we het niet serieus willen nemen, maar als we een week moeten doen over bijvoorbeeld een voeding testen, krijg je vrij weinig meer gedaan daarnaast.
Ik zei "volgens mij kan het goedkoper" en daarbij vroeg ik hoe de opstelling er precies uitzag omdat het nu nogal vaag is. Op het moment dat het duidelijk is hoe de opstelling er precies uitziet en wat er allemaal precies gebruikt wordt kan er aangegeven worden hoeveel goedkoper en preciezer het kon.
En natuurlijk zoals al vaker aangegeven, bij andere productgroepen, het moet wel realistisch zijn wat tijdsinvestering en geld betreft. Je kunt daarvan zeggen dat we het niet serieus willen nemen, maar als we een week moeten doen over bijvoorbeeld een voeding testen, krijg je vrij weinig meer gedaan daarnaast.
Al mijn voorstellen zijn altijd zeer realistisch geweest. Alleen jullie kiezen er voor om er niks mee te doen of zijn er zelfs niet eens in geïnteresseerd.

Jullie kiezen er voor om liever de waarheid te verdraaien. Serieus een week testen voor één voeding? Elke keer als ik voorstellen doe zijn die juist gericht op veel betere meting (veel huidige metingen van voedingen, videokaarten, CPU's slaan namelijk de plank flink mis bij Tweakers/HWI, voor wie dat nog niet wist) terwijl er niet meer tijd in gaat zitten. Enkele maanden geleden heb ik dat er nog specifiek bijgezegd, maar ik neem aan dat ook daar weer niks mee gedaan is? Er moet echt worden afgestapt van het idee dat kwantiteit belangrijker is dan kwaliteit.

[Reactie gewijzigd door -The_Mask- op 2 april 2019 12:09]

Verdraaien zou ik niet zeggen, mijn probleem is voornamelijk dat ik van heel weinig iets heb meegekregen mbt jouw 'feedback' op de meeste tests.

Ik wil altijd kijken wat de mogelijkheden zijn mbt aandachtspunten die jij aangeeft, maar ik moet daarbij altijd rekening houden met haalbaarheid en in veel gevallen, als ik het wil, het kost veel geld en/of tijd en van hogerop of de redactie ziet het niet zitten, kan ik veel proberen, maar dan gaat het niet door.

Wat betreft je laatste zin, dat ging erover dat we beter veel tijd konden stoppen in 1 of 2 benchmarks, voor zover ik me kon herinneren. Ik begrijp dat kwaliteit boven kwantiteit moet staan, maar dat gaat natuurlijk weer compleet de andere kant op.

[Reactie gewijzigd door rsnubje op 2 april 2019 14:32]

Verdraaien zou ik niet zeggen, mijn probleem is voornamelijk dat ik van heel weinig iets heb meegekregen mbt jouw 'feedback' op de meeste tests.
En waarom is dat dan? Overleggen jullie nooit onderling en/of wordt er niks opgeschreven en wordt alles weer vergeten? Als alles netjes ergens is verzameld moet het ondertussen een flinke waslijst zijn.
Ik wil altijd kijken wat de mogelijkheden zijn mbt aandachtspunten die jij aangeeft, maar ik moet daarbij altijd rekening houden met haalbaarheid en in veel gevallen, als ik het wil, het kost veel geld en/of tijd en van hogerop of de redactie ziet het niet zitten, kan ik veel proberen, maar dan gaat het niet door.
Ik ben er vrij zeker van dat er nog nooit een kostenraming is gemaakt van één van mijn voorstellen of überhaupt serieus over is gebrainstormd.
Wat betreft je laatste zin, dat ging erover dat we beter veel tijd konden stoppen in 1 of 2 benchmarks, voor zover ik me kon herinneren. Ik begrijp dat kwaliteit boven kwantiteit moet staan, maar dat gaat natuurlijk weer compleet de andere kant op.
Het ging niet over een reductie van de huidige ~70 tests bij videokaarten naar één of twee. Het ging wel over een flinke reductie, maar dan omdat er zoveel nutteloos en dubbel spul tussen zit. Bij een videokaart test is het niet interessant om een videokaart test elke game met allemaal verschillende instellingen te testen waardoor je zonder te overdrijven op zo'n 70 uitkomt. Nu heb je iets van 70 verschillende tests die allemaal grove meetfouten bevatten. Doe je iets van 20/25 verschillende tests heb je nog steeds een heel ruim aanbod en kun je ook tijd besteden aan kwaliteit.

Maar nu terug naar de huidige nieuwe verbruikstests. Er is nog geen antwoord gegeven over hoe de opstelling er precies uitziet. Een goede testmethode moet altijd open en duidelijk zijn. Zelfs de best mogelijke test is niks waard als het voor niemand duidelijk is hoe er is getest.
Niet alles hoeft op papier te staan. We hebben het vaak genoeg over dingen die jij gezegd hebt, maar soms is het zoveel dat ik ook niet alles mee krijg en een hoop is ook gebeurd voordat ik betrokken was bij tests ontwikkelen. Verder maak je een hoop aannames die kant noch wal slaan mbt dit onderwerp.

Verder wil ik aanraden om even het genoemde type stroommeter te googlen. Als je weet hoe zo'n ding werkt, hoop ik dat je snapt dat dat niet veel ingewikkelder wordt dan dat. Er gaat stroom in, er gaat stroom uit en ergens daar tussenin zegt hij hoeveel.
Vanzelfsprekend heb ik dat als eerste gedaan, maar er is meer spul wat de naam DT3010 draagt.

Daarnaast van het apparaat waar het dan denk ik omgaat is amper iets te vinden. Gaat dan om dit ding? https://nl.aliexpress.com...ad-Alarm/32827325908.html
https://www.youtube.com/watch?v=QuXEGWcyrJY

Maar dan nog is het niet duidelijk hoe het is aangesloten. Dat is nogal belangrijk, denk alleen maar terug aan hoe jullie aan aantal jaar geleden de PSU tester hadden aangesloten. Ook is er helemaal niks te vinden over de betrouwbaarheid van de meter. Is ook niet duidelijk hoe lang de test wordt uitgevoerd.
Ja dat is de juiste. De meter zit op een aparte voeding die alleen de 8pin EPS van stroom voorziet, zodat hij alleen die kabel(s) meet en niet van de rest van het moederbord.
Is het niet een idee om TheMask een keer uit te nodigen om mee te helpen met een test. Het bespreken van de haalbaarheid van zijn voorstellen gaat face-to-face waarschijnlijk een stuk beter dan via verhitte discussies online. Gewoon kopje koffie erbij en als tweakers onder elkaar kijken of het beter kan?
Die kans heeft hij bij zowel Tweakers als Hardware.Info gehad. Ik was er niet bij, dus ik kan er verder niks over zeggen.
Ehhh. Ik ben bij beide geweest. Bij HWI was je er gewoon bij, toen heb ik jullie PSU tester juist aangesloten. Bij Tweakers was je er niet bij, het was namelijk de dag voordat het bekend werd dat de Persgroep HWI had overgenomen. Tweakers was positief naar het gesprek, maar uiteindelijk stelden ze het continue uit om uiteindelijk helemaal niet verder te gaan. Zoals ik al zo vaak heb aangegeven men wil gewoon niet.
'Was er bij" is denk ik niet helemaal de juiste bewoording. Ik liep toen nog stage zover ik me kan herinneren, laat staan dat ik er bij betrokken was.

Ik vind het wel prima zo, dit leidt nergens meer toe, behalve een hoop betichtingen.
twee metingen per seconden bij processoren die op GHz werken?
Hoef ook allemaal niet zo precies te zijn maar je hebt wel gelijk, maar ik denk tevens om apparatuur te kopen die echt alles kan meten ook een prijskaartje aanhangt.Hoeveel gebruik de processor bij volle belasting en hoeveel in idle, bij gebruik van beter meetapperatuur zou je dat idd preciezer kunnen meten.Maar vergeet niet wij zijn hobyisten.Nu effen ontopic die rtx 2080 ti heeft de meeste cores en is dus het snelste van alle videokaarten.Als ie niet zo duur was had ik er allang eentje gekocht.
Maar het ziet er met rayte tracing best wel allemaal goed uit, al zie ik zelf bijna geen verschil, het licht er ook aan wat voor een items in een spel rayte tracing gebruikt word
Het grootste probleem is echter dat jullie gewoon een ongeschikte meter hebben gekocht. Een sample rate van maar twee maal per seconde is gewoon veel maar dan ook echt veel te weinig om maar ook een enigszins betrouwbare meting te doen van een CPU of videokaart.
Als je lang genoeg meet en de meetfrequentie is niet in sync met de load zou het in de buurt moeten komen toch?
mogelijk, maar waarom de gok nemen als er veel betere meters zijn? Als ik naar deze test van Anandtech kijk schat ik hun sample rate op minimaal 500 per seconde (en misschien zelfs wel 2000) https://www.anandtech.com...r-than-expected-tdp-turbo
Cinebench R20 is gebouwd op Intel technologie. Dat alleen al is redden om r20 niet te gebruiken als benchmark in CPU reviews. Niet zonder dikke disclaimer erbij tenminste.

Maar Intel heeft ook een geschiedenis van het manipuleren van benchmark door via shell companies benchmark bedrijven te kopen, en vervolgens de benchmarks naar hun hand te zetten.

Dat samen is toch echt meer dan genoeg reden om als review site niks te maken te willen hebben met r20 zou ik zeggen.

https://www.maxon.net/en/products/cinebench-r20-overview/

r20 incorporate the latest rendering architectures, including integration of Intel's Embree raytracing technology


Edit: omdat het blijkbaar minder algemeen bekend is als ik dacht, hier nog wat bronnen van intel's misdragingen uit het verleden

voorbeeld sysmark 2001 vs sysmark 2002 (sysmark is van BEPCO, waar intel weer eigenaar van is)

http://www.vanshardware.c...0Presentation%20FINAL.pdf

lees met name pagina 9 even.
alle tests die AMD won in de 2001 versie, waren in de nieuwe versie ineens vervangen door kopieën van de paar tests die intel kon winnen.

en voor je gaat roepen AMD propaganda ofzo:
https://en.wikipedia.org/wiki/BAPCo_consortium

intel is hiervoor door de FTC zelfs schuldig bevonden en beboet, en heeft uiteindelijk een settlement getroffen.

en in 2012 zijn nvidia AMD en VIA allemaal opgestapt uit BAPCo vanwege sysmark 2012. intel had dus, ondanks dat de andere meededen aan het consortium, nog steeds een veel te dikke vinger in de pap. zo veel dat de andere volledig het vertrouwen erin hebben opgezegd. Dus ook 10 jaar later was intel nog niet te vertrouwen met benchmarks.

dus ja, ook nu ben ik extreem argwanend als Intels naam word genoemd in combinatie met een benchmark, zeker eentje zo populair als cinebench.

[Reactie gewijzigd door Countess op 2 april 2019 11:54]

Dat is natuurlijk een beetje spijkers op laag water zoeken. Cinebench is namelijk helemaal niet gebouwd op Intel technologie, Cinema4D heeft echter wel de Intel Embree Raytracing technologie opgenomen, maar dat is wat anders als dat het hele pakket daarop gebouwd zou zijn. Net zoals dat zoveel commerciële software technologie of code optimalisaties van Intel, AMD of andere partijen opneemt om zo de software zo optimaal mogelijk te laten presteren. Ze vermelden dit trouwens ook gewoon netjes op de website.

Embree Raytracing is trouwens opensource, dus als je wil kan je zo de code nalopen.

Verder denk ik dat je juist dit soort software wil gebruiken als benchmarks. Het laat immers beter zien wat je realworld mag verwachten van de processors die worden getest. En het feit is dat veel software geoptimaliseerd is voor of Intel, dan wel AMD, soms voor beide, of juist voor Nvidia. En dat mag juist best naar voren komen in reviews.

Je zou er weinig aan hebben als er alleen maar met (niet optimaliseerde) synthetische benchmarks getest zou worden. Nee, ik zie liever zoveel mogelijk benchmarks die afgeleid zijn, of nog liever volledig uitgevoerd in software die zo te koop is (of vrij te gebruiken). Je moet namelijk een cpu kopen die het best presteert met de workload (of workloads) die jij als koper wil gaan draaien, daar heb je immers het meest aan.

[Reactie gewijzigd door Dennism op 2 april 2019 09:31]

Dat is natuurlijk een beetje spijkers op laag water zoeken.
Nee dat is het zeer zeker niet. alles behalve.

Veel verder als een audio plugin voor CS:GO, een unreal light rederer voor level editing (die trager is dat dat zelfde met een GPU doen), en wat plugins voor populaire pakketten heeft embree het nog niet geschopt. de gebruikers aantallen zijn dus klein en op geen enkele manier representatief voor het overgrote deel van de 'realworld' workloads.

Dat intel het nu probeert te verheffen tot industry standaard benchmark middels cinebench is dus gewoon een enorm kwalijke zaak.

zoals ik zei MINIMAAL een dikke disclaimer.
[...]


Nee dat is het zeer zeker niet. alles behalve.
Zonder onderbouwing is dat het wel, je hele post komt over als een insinuatie dat Maxon oneerlijke resultaten zou laten zien in Cinebench R20 die niet overeen zouden komen met Cinebench4D performance. Het komt op mij een beetje fanboy achtig over helaas.
Veel verder als een audio plugin voor CS:GO, een unreal light rederer voor level editing (die trager is dat dat zelfde met een GPU doen), en wat plugins voor populaire pakketten heeft embree het nog niet geschopt. de gebruikers aantallen zijn dus klein en op geen enkele manier representatief voor het overgrote deel van de 'realworld' workloads.
Voor zover ik kan vinden is Embree al meerdere releases voor bepaalde zaken de default in Cinema4D. Hier heb ik uiteraard naar gezocht toen Cinebench R20 uitkwam en Intel Embree benoemd werd.
Dat intel het nu probeert te verheffen tot industry standaard benchmark middels cinebench is dus gewoon een enorm kwalijke zaak.
Hier zou een bron toch wel op zijn plaats zijn.

Een disclaimer is er trouwens al, de Maxon pagina benoemd Embree zeer duidelijkop diverse plekken, waaronder de product pagina van Cinebench R20.

[Reactie gewijzigd door Dennism op 2 april 2019 10:11]

Het komt op mij een beetje fanboy achtig over helaas.
Wat fanboy is is niet minimaal argwanend zijn als de naam intel word genoemd bij een nieuwe versie van een benchmark die bij praktische elke CPU review word gebruikt, zeker gezien hun gedocumenteerde gedrag uit het verleden (inclusief veroordelen door de FTC!).

Dit is helemaal geen aantijging tegen Maxon, maar tegen intel.
Hier zou een bron toch wel op zijn plaats zijn.
hoezo bron? Je wilt ontkennen dat Cinebench bij bijna elke CPU review tevoorschijn word gehaald?
Een disclaimer is er trouwens al,
bij elke benchmark natuurlijk, niet weggestopt op hun website.

[Reactie gewijzigd door Countess op 2 april 2019 12:00]

Wat fanboy is is niet minimaal argwanend zijn als de naam intel word genoemd bij een nieuwe versie van een benchmark die bij praktische elke CPU review word gebruikt, zeker gezien hun gedocumenteerde gedrag uit het verleden (inclusief veroordelen door de FTC!).

Dit is helemaal geen aantijging tegen Maxon, maar tegen intel.
Argwanend is prima, maar een op feiten gebaseerde onderbouwing zou wel prettig zijn, niet wat onderbuik gevoelens gebaseerd op een zaak met haar oorsprong in 2002? (even uit mijn hoofd was dat het jaar dat de sysmark zaak startte, even er van uitgaande dat je daar naar hint).

Dat dit volgens jou tegen Intel is en niet tegen Maxon is vreemd. Maxon geeft immers de software uit waarvan jij lijkt te claimen of in ieder geval te naar te hinten dat deze geen eerlijke weergave van resultaten zou geven. Dat zou, mocht het waar zijn, Maxon minimaal medeschuldig maken. En daarmee dus ook zeker een aantijging richting Maxon.
hoezo bron? Je wilt ontkennen dat Cinebench bij bijna elke CPU review tevoorschijn word gehaald?
Dat wil ik zeker niet ontkennen, maar daar doelde ik dan ook niet op. Ik zou graag een bron van het feit dat jij claimt dat Intel hier als een soort van "Evil genius" Maxon voor haar karretje probeert te spannen en dat Maxon hier ook aan mee zou doen doormiddel van het uitbrengen van Cinebench R20
bij elke benchmark natuurlijk, niet weggestopt op hun website.
Dat lijkt me vrij voorbarig, zeker in deze situatie waar er, voor zover ik kan oordelen, er geen enkel bewijs is van van het feit dat hier iets niet haak zou zijn met de Cinebench R20 resultaten. Laten we eerst afwachten, zonder vooraf te oordelen, of er daadwerkelijk wel iets mis is met Cinebench R20.

Ik zou namelijk zelf verwachten dat hier wel een aantal partijen, waaronder AMD zelf, direct op in gegaan zou zijn. Van bijvoorbeeld Embree kan immers de source code zo bekeken worden. Waardoor het vrij makkelijk zou moeten zijn om eventuele bewuste sabotage in Embree door Intel aan het adres van AMD aan te tonen.

Zelfs de FTC vond het afdoende dat Intel enkel wanneer zijzelf adverteerden met Sysmark resultaten ze een disclaimer (of link naar een disclaimer, Intel.com/benchmark) moeten plaatsen. Mocht er in de toekomst blijken dat er iets niet klopt aan Cinebench ben ik het zeker met je eens dat een disclaimer (of zelfs het liefst schrappen van de benchmark door de reviewers), maar dan zie ik dit wel graag eerst aangetoond worden en niet bedacht op basis van vooroordelen.
Ik zou graag een bron van het feit dat jij claimt dat Intel hier als een soort van "Evil genius" Maxon voor haar karretje probeert te spannen
Voor het aanbieden van gratis software en tech support om je product te pushen hoef je echt geen evil genius te zijn hoor. is al jaren en dag standaard procedure bij nVidia bijvoorbeeld. afkijken is dus voldoende.
Mocht er in de toekomst blijken
Dan is het al veel te laat. Daarbij twijfel ik er heel sterk aan of dat wel gaat blijken. ze gaan het echt niet nogmaals zo blatantly obvious maken als met sysmark 2002.

maar zelfs als intel het meest vertrouwde bedrijf ter wereld was dat nog nooit iets fout had gedaan, dit is gewoon een klassiek gevalletje belangen verstrengeling.

Zoals ik in de andere reactie ook zei het is niet slager keurt zijn eigen vlees misschien, maar wel een slager die zelf een deel van de meetinstrumenten mag leveren.

En als je cinebench r20 nou alleen wil gebruiken om een indicatie te krijgen hoe Cinema4D zou presteren, prima.
Maar Cinebench word voor veel meer als dat gebruikt, en dat wist intel heel goed toen ze met Maxon in zee gingen. en daar ligt mijn probleem,

[Reactie gewijzigd door Countess op 2 april 2019 15:50]

Ik heb geen verstand van de laatste testmethoden, maar het gebeurt al meer dan 20 jaar dat bepaalde tests bepaalde hardware voordelen geeft. Bij software is het bijvoorbeeld in recente tijden zo dat als een processorfunctie niet aanwezig is er andere code wordt uitgevoerd die typisch trager is. Als Intel dus een nieuwe instructieset of uitbreiding heeft en AMD heeft die (nog) niet, dan scoort Intel beter in een synthetische test waar dit in is opgenomen. Het gaat niet alleen om de code, maar vooral ook om de compiler. Intel heeft speciale compilers en compiler extensies.

Daarom zijn echte applicatiebenchmarks veel interessanter. Dan zie je hoe snel je game of bestandscompressie wordt. Mits die toepassing tijdens het testen niet al verouderd is.

Intel toont op hun site allerlei open source benchmarks waaruit zou blijken dat de compiler sneller is dan gcc, maar in real world tests - in applicaties die weinig of geen speciale instructiesets kunnen gebruiken en char data dominant is - ligt het voordeel eerder bij niet-Intel compilers. Het is niet zo moeilijk om een compiler te optimaliseren voor benchmarks.
Misschien moet je ook even met feiten komen in plaats van een heel relaas houden over het manipuleren van Benchmarks zonder enkele bron of vorm van bewijs.

Zoals ik het zie is Maxon een top bedrijf die wel iets meer doet dan enkel de benchmarker maken. (meerder c4d licenties hier!). Beetje kansloos om dan met zo'n ongegronde reacties geplust te worden terwijl je enkel een "onderbuik gevoel" hebt.

Ja Intel heeft net als Amd wel eens het een en ander naar buiten gebracht qua Benchmarks wat niet met de realiteit leek te kloppen. Maar jij spreekt over Maxon, die daar verder niets mee te maken heeft en een maker is van 3D pakketten.
Die AMD pro render in al zijn pakketten ondersteunt?
Oh wacht ze werken samen met zowel AMD als intel, nu moet er wel hele dikke disclaimer bij staan. :')
Die AMD pro render in al zijn pakketten ondersteunt?
word pro render gebruikt in de r20 cinebench?
Misschien moet je ook even met feiten komen in plaats van een heel relaas houden over het manipuleren van Benchmarks zonder enkele bron of vorm van bewijs.
sorry ik ging er vanuit dat dit al algemeen bekend was.
voorbeeld sysmark 2001 vs sysmark 2002 (sysmark is van BEPCO, waar intel weer eigenaar van is)

http://www.vanshardware.c...0Presentation%20FINAL.pdf

lees met name pagina 9 even.
alle tests die AMD won in de 2001 versie, waren in de nieuwe versie ineens vervangen door kopieën van de paar tests die intel kon winnen.

en voor je gaat roepen AMD propaganda ofzo:
https://en.wikipedia.org/wiki/BAPCo_consortium

intel is hiervoor door de FTC zelfs schuldig bevonden en beboet, en heeft uiteindelijk een settlement getroffen.

en in 2012 zijn nvidia AMD en VIA allemaal opgestapt uit BAPCo vanwege sysmark 2012. intel had dus, ondanks dat de andere meededen aan het consortium, nog steeds een veel te dikke vinger in de pap. zo veel dat de andere volledig het vertrouwen erin hebben opgezegd. Dus ook 10 jaar later was intel nog niet te vertrouwen met benchmarks.

Dus ja, ook nu, elke keer als intel's naam word genoemd bij een benchmark gaan mijn nekharen recht overeind staan.
Zoals ik het zie is Maxon een top bedrijf die wel iets meer doet dan enkel de benchmarker maken
De beschuldiging hier is niet aan het adres van Maxon maar aan Intel. Omdat ze al veroordeeld zijn voor het rechtstreeks manipuleren van benchmarks gaan ze nu subtieler te werk, en bieden hun technologie en expertise aan aan bedrijven die populaire benchmarks maken.

[Reactie gewijzigd door Countess op 2 april 2019 12:02]

Sorry ik ging er vanuit dat dit al algemeen bekend was.
voorbeeld sysmark 2001 vs sysmark 2002 (sysmark is van BEPCO, waar intel weer eigenaar van is)

http://www.vanshardware.c...0Presentation%20FINAL.pdf

lees met name pagina 9 even.
alle tests die AMD won in de 2001 versie, waren in de nieuwe versie ineens vervangen door kopieën van de paar tests die intel kon winnen.
Ik denk dat dit redelijk algmeen bekend is inderdaad, in ieder geval onder Tweakers. Ik denk echter ook dat velen er niet op zitten te wachten iedere keer oude koeien uit de sloot te halen. Ik zie liever nieuwe voorbeelden dan oude koeien als ik eerlijk mag zijn.
intel is hiervoor door de FTC zelfs schuldig bevonden en beboet, en heeft uiteindelijk een settlement getroffen.
Volgens mij klopt dit niet en is Intel nooit veroordeeld en ook niet beboet door de FTC. Ze hebben wel een schikking getroffen.

Zie bijvoorbeeld deze quotes van Anand over de schikking:
ntel and the FTC have reached a settlement ahead of what would have been next month’s court hearing. With this settlement the FTC is agreeing to drop the case in return for a series of prohibitions and requirements placed upon Intel to maintain and enhance the competitive environment in the CPU and GPU markets. However true to their word, the FTC did not push for any fines – this is a settlement of actions, and not one of greenbacks.

The resulting settlement is, in the FTC’s words, “not punitive but rather remedial.” Going in to the suit the FTC was not asking for a fine or some other method of punishing Intel, and nothing like this is in the final settlement either.
De beschuldiging hier is niet aan het adres van Maxon maar aan Intel. Omdat ze al veroordeeld zijn voor het rechtstreeks manipuleren van benchmarks gaan ze nu subtieler te werk, en bieden hun technologie en expertise aan aan bedrijven die populaire benchmarks maken.
Zoals al aangegeven, volgens mij zijn ze helemaal niet veroordeeld. Echter is het overduidelijk dat er met sysmark wat zaken gedaan zijn die niet door de beugel kunnen. Verder is dit natuurlijk wederom weer een beschuldiging van je zonder onderbouwing aangaande Cinebench.

Laten we eerst een zien of er wel sprake is van zaken die niet kloppen voordat we beschuldigingen als feiten gaan wegzetten zoals jij nu probeert te doen. Als er zaken met Cinebench R20 niet kloppen dan zal dat snel genoeg aan het licht komen verwacht ik, de community is daar nu een stuk scherper op dan decennia geleden, van Embree is de source beschikbaar en er zijn genoeg partijen die Intel maar wat graag op zulke fouten zouden willen betrappen.

[Reactie gewijzigd door Dennism op 2 april 2019 14:56]

Volgens mij klopt dit niet en is Intel nooit veroordeeld en ook niet beboet door de FTC. Ze hebben wel een schikking getroffen.
De FTC vond ze schuldig en heeft een boede opgelegd. Intel was het daar niet mee eens en heeft de boeten aangevochten. De rechter heeft nooit uitspraak gedaan omdat ze samen een settlement hebben getroffen, maar dat claimed ik ook niet.
Ik zie liever nieuwe voorbeelden dan oude koeien als ik eerlijk mag zijn.
niet verder gelezen ofzo? in 2012 was opnieuw een vergelijkbare situatie. dus 17 jaar gelden was intel fout, 7 jaar geleden was intel fout. maar vandaag zijn ze ineens de goedheid zelve, precies nu AMD (net als 17 jaar geleden) ze het vuur aan de schenen legt? kom nou.
Als er zaken met Cinebench R20 niet kloppen dan zal dat snel genoeg aan het licht komen verwacht ik,
Daar twijfel ik dus sterk aan. ze gaan niet nog een keer zoals met sysmark 2002 de scores ineens met 20% veranderen van de ene op de andere versie. Maar elke keer een paar procentjes zie ik ze makkelijk doen en niemand dit het hard kan maken. het feit dat dat MOGELIJK is zou al voldoende moeten zijn.

Het feit is gewoon dat ze niet te vertrouwen zijn, en niet eens omdat het intel is, maar omdat ze het onderwerp van de test zijn.

het is niet slager keurt zijn eigen vlees misschien, maar wel een slager die zelf een deel van de meetinstrumenten mag leveren.

en bij dit soort conflict of interest hoort gewoon een disclaimer, bij de benchmarks zelf.

[Reactie gewijzigd door Countess op 2 april 2019 15:39]

De FTC vond ze schuldig en heeft een boede opgelegd. Intel was het daar niet mee eens en heeft de boeten aangevochten. De rechter heeft nooit uitspraak gedaan omdat ze samen een settlement hebben getroffen, maar dat claimed ik ook niet.
Misschien even de quote lezen die ik post? Zie het dik gedrukte.
Intel and the FTC have reached a settlement ahead of what would have been next month’s court hearing. With this settlement the FTC is agreeing to drop the case in return for a series of prohibitions and requirements placed upon Intel to maintain and enhance the competitive environment in the CPU and GPU markets. However true to their word, the FTC did not push for any fines – this is a settlement of actions, and not one of greenbacks.

The resulting settlement is, in the FTC’s words, “not punitive but rather remedial.” Going in to the suit the FTC was not asking for a fine or some other method of punishing Intel, and nothing like this is in the final settlement either.
Volgens deze quote, van Anand, heeft de FTC in tegenstelling tot wat jij beweerd geen boete ge-eist, Intel is ook niet in beroep gegaan daartegen, het is niet eens tot een zaak gekomen. Er een schikking gekomen voordat de zaak in eerste instantie gediend heeft.
niet verder gelezen ofzo? in 2012 was opnieuw een vergelijkbare situatie. dus 17 jaar gelden was intel fout, 7 jaar geleden was intel fout. maar vandaag zijn ze ineens de goedheid zelve, precies nu AMD (net als 17 jaar geleden) ze het vuur aan de schenen legt? kom nou.
Ik zeg nergens dat Intel de goedheid zelve is, ik ga mijn handen niet voor ze in het vuur stelen. Ik ga ze echter ook niet veroordelen voordat de feiten bekend zijn. En dat is gewoon zo jammer, laat de feiten spreken, niet de onderbuik. Dat is nu juist exact wat ik bedoelde met Fanboy (of in dit geval misschien beter gezegd anti-fanboy gedrag). Volgens mij is er in 2011 / 2012 ook geen actie van de FTC geweest, terwijl juist toen (volgens mij nu nog steeds trouwens) Intel onder de afspraken in de schikking onder een vergrootglas lag m.b.t. Sysmark / Bapco waardoor Intel onder de voorwaarden van de schikking met de FTC tot 10 jaar na de schikking volgens mij jaarlijks geaudit zal worden door een partij aangesteld door de FTC om te kijken of de schikking nageleefd wordt.
Dat AMD, Nvidia en Via uit Bapco gestapt zijn snap ik wel, Intel had een sterke stem, waardoor even uit mijn hoofd, het geen dat AMD en Nvidia graag wilden, namelijk dat sysmark ook zou gaan schalen met GPU prestaties er niet in kwam.
Daar twijfel ik dus sterk aan. ze gaan niet nog een keer zoals met sysmark 2002 de scores ineens met 20% veranderen van de ene op de andere versie. Maar elke keer een paar procentjes zie ik ze makkelijk doen en niemand dit het hard kan maken. het feit dat dat MOGELIJK is zou al voldoende moeten zijn.
Twijfel is prima zoals al aangegeven, ik ga ook niet zeggen dat ik 100% overtuigd ben, maar tot het tegendeel bewezen is blijft het onzinnig om beschuldigingen te uiten alsof het feiten zijn.

En laten we eerlijk zijn, als optimalisaties e.d. een probleem zijn bij benchmarks kunnen we beter helemaal niet meer benchmarken, je wil namelijk juist zoveel mogelijk real world resultaten zien. Je wil als consument niet je aankopen baseren op volledig synthetische testjes. Nee, als jij een gamer ben wil je weten hoe de games die jij speelt presteren op de hardware die jij gaat mogelijk gaat kopen en daarop je keuze baseren. Net als wanneer zakelijk bijvoorbeeld veel Adobe software gebruikt je wil weten hoe bepaalde hardware met Adobe presteert Iedere game is voorzien van optimalisaties voor Nvidia en / of AMD en mogelijk dat AMD en Intel er ook aan de cpu kant aan meewerken. En ook bij veel software zijn Intel en AMD (en mogelijk ook Nvidia) betrokken bij de ontwikkeling en optimalisatie. Dat is gewoon logisch. Dat je dit dan mogelijk ook terug gaat zien in tests gebaseerd op software die dagelijks gebruikt wordt is ook volkomen logisch en daar zou ook geen enkel probleem mee moeten zijn. Ik zou bijvoorbeeld liever zien dat AMD ook hard zou gaan pushen voor meer optimalisatie, in plaats van dat we zouden moeten gaan stampvoeten wanneer Intel of Nvidia software optimaliseren zodat deze daadwerkelijk beter presteert.

Het wordt imho pas een probleem wanneer benchmark resultaten niet overeen komen met real world resultaten van de software waarop ze gebaseerd zijn en je dus bijvoorbeeld betere resultaten ziet in een benchmark die je bij daadwerkelijk gebruik van de software niet kan reproduceren.

[Reactie gewijzigd door Dennism op 2 april 2019 16:21]

DXR is cool, maar RTX is veel te langzaam ervoor. De RTX versnelling voor DXR is zo zwak dat het 25-50% performance kost en je bijna het verschil niet ziet. De technieken die het vervangt zijn al heel goed, soms zelfs beter. In tomb raider bijvoorbeeld worden alle schaduwen ongedetailleerd vanwege het gebrek aan rays. In Metro wordt het af en toe zo donker dat je niets meer ziet. Alleen in battlefield is het effect iets beter dan screen space reflection.

Daarnaast is het DLSS filter van RTX lelijker dan wanneer je zelf de resolutie verlaagt naar een setting met dezelfde snelheid. DLSS is alsof je beeld in het water heeft gelegen. Alles vervloeit. Grassprieten vloeien in elkaar over en textures zien er uit alsof ze op 'low' staan. Zie bijvoorbeeld Anthem: https://cdn.knightlab.com...00-11e9-8106-0edaf8f81e27

[Reactie gewijzigd door lordawesome op 2 april 2019 10:59]

Inderdaad, snap sowieso niet de reden om met DLSS te gaan testen als het de image quality alleen maar negatief beïnvloed voor een kleine fps winst.
Waarom gebruiken jullie Blender niet voor benchmarks?

Het kan zowel de CPU als de GPU gebruiken voor renders.
Het is opensource, dus als er een keer wat vreemde resultaten zijn dan kun je zelf een kijkje in de code nemen.
Het is Nederlands, best iets om uit te dragen als Nederlandse tech site lijkt me.

Laatst een artikel over Maxon en de Windows store,dat geneuzel heb je dan niet meer.
Ik verwacht dat dit te maken heeft met de tijdsduur, Blender zie ik vaker gebruikt worden voor duurtesten of bijvoorbeeld eventuele throttling te testen, terwijl cinebench juist een relatief snelle test is. Ook heeft Blender volgens mij geen score, wat het soms lastiger te vergelijken maakt, zeker als verschillende testers verschillende scenes gebruiken. Terwijl cinebench resultates makkelijker te vergelijken moeten zijn. Neemt niet weg dat je Blender natuurlijk wel kan gebruiken voor een zelfde soort test, ik verwacht echter dat bovenstaande een beetje redenen zijn waarom Cinebench de industrie standaard lijkt te zijn.

Dat windows store verhaal is al teruggedraaid trouwens.
Je kan toch gewoon de tijd die de render duurt meten? Is gewoon scriptable.

Voor nu.
Dat kan uiteraard, en je ziet dat ook redelijk veel gebeuren. Ik zie juist regelmatig dat zowel Cinebench en Blender gebruikt worden. Tweakers gebruikt Blender ook regelmatig bijvoorbeeld in laptop reviews. Ik dat ze elkaar prima kunnen aanvullen en het niet direct iets is waarbij je of de een of de ander zou moeten gebruiken.
Sterker nog, de tijdsduur staat bovenaan in het ‘render result’ venster.
Ik kan me voorstellen dat de UI minder accuraat is dan de interne counter, vandaar.
Blender heeft sinds september ook een aparte benchmark: https://opendata.blender.org/
We gebruiken Blender ook voor cpu-benchmarks naast Cinebench en voor laptops als duurtest/throttling..
Ik zet wat vraagtekens bij de idle waarden van de CPU's. Waarom zou een Threadripper 1920X 2,1 watt meer verbruiken in idle dan een Threadripper 1950X? En zou een ryzen 7 2700x inderdaad ruim 2 maal zoveel verbruiken als een ryzen 7 2700?. Wie kan me de verschillen uitleggen?
Niet alle silicon is gelijk, met een beetje geluk of ongeluk krijg je een betere of slechtere chip. Daarnaast kan er altijd een kleine variatie in meetwaarden zitten.
Wanneer je hogere snelheden wil halen moet er vaak een hoger voltage op de chip, het verbruik (en warmteontwikkeling) neemt dan meestal niet lineair toe maar exponentieel.
Geen idee of dit de reden is voor de meetwaarden die jij opmerkte maar het kan meespelen.
Er gaat wel meer mis precies. Neem bijvoorbeeld de Athlon 200GE. Deze heeft precies met 2 threads gedraaid in plaats van 4. Verschil tussen de 220GE en de 240GE is belachelijk groot in Cinebench r20

200GE (3.2) Single: 238 Multi: 436
220GE (3.4) Single: 322 Multi: 852
240GE (3.5) Single: 332 Multi: 885

De singlecore score van de 200GE is te laag gezien de verdere schaling.
De multicore score van de 200GE is veel te laag gezien het allemaal 2C4T modellen zijn.
Leuk dat je dat allemaal vindt, maar wat zijn je bronnen/tests?
Graag delen.
Dit lijkt aangepast of ik mis iets.
Is inmiddels aangepast
Ik zet ook zeker mijn vraagtekens bij idle power waardes. Threadripper is bij alle andere bronnen zeker niet zuinig in idle:
Bijvoorbeeld Anandtech en Tom's hardware en ons eigen tweakers forum:

https://www.anandtech.com...1950x-and-1920x-review/19

On the whole, Threadripper is a hungry chip even at idle. Most of the power here is being consumed by the memory controller and PCIe bus to keep the GPU ticking over with a static display. The fact that the 1950X running DDR4-3200 memory is pulling another 13W+ from the CPU shows how much of an impact the memory controller has on total power consumption. For all the chips, we’re recording sub 2W power draw from the cores."
Hou er wel rekening mee dat dit een review is van een jaar geleden, nieuwe bios versie's e.d kunnen dit soort zaken zeker veranderen. Tweakers heeft dit in dit geval recent getest. Ook test Tweakers op andere manier dan Anand. Tweakers test met fysieke meet apparatuur, terwijl Anand test met software.

Verder geeft Anand ook nog het volgende aan:
Normally this way of reading the power consumption can be a smidge inaccurate compared to more invasive methods
Ook zijn de Threadrippers die hier zuinig zijn de Threadrippers uit de 2de generatie. Verder is het maar de vraag of Tweakers het geheugen ook buiten spec draait op DDR4-3200 (AMD's spec is DDR4-2666 bij Threadripper generatie 1). Verder kan er ook nog verschil zitten in het aantal geplaatste modules tijdens deze test wat ook weer verschil kan maken. Kortom vrij veel variabelen wat vergelijken met andere tests lastig maakt tot Tweakers deze meet methode daadwerkelijk gaat inzetten in reviews.
Ai, als iemand die ook groot plezier heeft met gamen zonder RTX ... overtuigt dit niet om te denken "Poah een Raytracing kaart, das mien plezier"!

Soort non-stop *meh* gevoel bij bijna alle screenshots ... en dan zou je er honderden euro's extra voor betalen :? ? Nah.

Tof dat Tweakers.net probeert bij te blijven met zijn benchsuite(s)!

[Reactie gewijzigd door Cassius op 2 april 2019 08:56]

Sterker nog, ik vind de screenshots aan de "low" kant beter. Behalve bij Shadow of the Tomb Raider, daar voegt het wel mooiere schaduw toe aan planten en de grond. Planten zien er daar minder "plastic render" uit.

[Reactie gewijzigd door Hijdaar95 op 2 april 2019 09:15]

Dat idee had ik ook bij bepaalde screenshots, maar de kracht zit hem natuurlijk ook niet in screenshots maar bewegende beelden. Ook zijn de omgevingen niet helemaal identiek, vooral bij BF5 met de rook is het soms lastiger om het te vergelijken. Toch zie je qua belichting wel een beter resultaat, al is het minimaal.

Hoewel het wat lastiger is had ik liever filmmateriaal gezien met de verschillen. @Hijdaar95 Het is ook moeilijk vergelijken of het de moeite waard is gezien alle screenshots met raytracing zijn. Je hebt geen enkel vergelijkingsmateriaal wanneer raytracing wordt uitgeschakeld.

Ik vindt het in ieder geval een goede ontwikkeling toch zijn de verschillen nog niet zo groot, gezien men nog steeds limieten heeft voor het gebruik van raytracing. Men noemt het wel raytracing maar in de werkelijkheid is het meer raytracing "light". Bij BF5 bijvoorbeeld gebruikt men boundry boxes voor de rays en de aantal rays zijn ook beperkt. Dit is goed duidelijk bij de low en ultra screenshots, waarbij het vuur niet reflecteert op het wapen.
Ik denk als ik het inderdaad zelf zie dat het upgraden van de GTX 10 series naar RTX 20 niet het grote geld waard is momenteel, denk alleen als je een nieuwe grafische kaart koopt dat dan een leuke bonus is om te hebben
Dat gevoel bekruipt me in deze fase van raytracing dus ook. Wellicht is wordt dit in de toekomst beter wanneer het meer naar lifelike gaat. Maar op dit moment kan het mij aan mijn reet roesten het toegevoegde 'realisme' van de lichtval.
Ik heb een 2080 gekocht omdat ik met hoge FPS op 1440p wou kunnen gamen. Veel keus heb je dan niet.
Momenteel zou ik als gamer geen RTX kaart aanschaffen. In ieder geval niet voor de raytracing functionaliteit.

Als game ontwikkelaar ben ik wel enthusiast over deze technologie. Het kan namelijk ontzettend veel tijd schelen bij het afstellen van belichting wanneer je meteen de resultaten kunt zien. Nu duurt dat vaak uren.
Het zal wel aan de kleine screenshots liggen maar ik zie amper verschil. In de meeste screenshots ziet RTX er naar mijn idee op low nog beter uit ook.
Ik had hetzelfde gevoel. Precies of er meer details zijn. Je ziet dat goed in Battlefield - Rookpluimen en Exodus - shot met kasten en bed... waar precies meer potten en kannen staan...

Heel raar eerlijk gezegd.
Met shaders kun je dicht in de buurt komen van iets dat er gewoon goed uitziet - zeker bij snelle actie (zoals BF) zul je niet echt aandacht besteden aan of bijv. de reflecties in het water kloppen. Met raytracing is het - en corrigeer me als ik het mis heb - zowel een correctere representatie van hoe het in het echt zou werken, en eenvoudiger qua implementatie. Maar het zou me niet verbazen als ze zeer geavanceerde technieken verwerkt hebben in de raytracingtechnologie om het op een normale framerate werkend te maken.

Ik zou wel een vergelijking willen zien met bewegende beelden.
Waarom niet getest met een GTX 1080ti? Dat had nou aangetoond hoeveel verschil in fps dat uitmaakte. Hoef ik niet zo n dure RTX kaart te kopen voor raytracing.
GTX 1080ti is even snel als een RTX2080 zonder TI.. 10 series kan alleen geen RTX raytracing.
Dat is DirectX Raytracing, een softwarematige implementatie, waar kaarten uit de GTX20xx serie raytracing hardwarematig ondersteunen.
Als ik het allemaal goed heb begrepen kun je het principe wel enigszins vergelijken met met de anti-aliasing varianten FXAA en MSAA, waarbij de eerste softwarematige anti-aliasing toepast op het gerenderde frame (post-processing), en de tweede het al implementeerd tijdens de rendering van het frame. Maar of dit ook het verschil is tussen hard- en softwarematige raytracing durf ik niet met 100% zekerheid te stellen...
Als er interesse vanuit Tweakers is kan ik wel eens met m'n Titan RTX langskomen voor een bench.
Mijn aandrader als je RTX wilt gebruiken in BFV, zet het op low, alles ziet er stukken beter uit en de impact is minimaal in vergelijking met de rest.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True