Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Door Willem de Moor

Redacteur componenten

Intel i9-9900K en i7-9700K Review

Zijn dit de beste gameprocessors?

Conclusie: 14nm maximaal opgerekt

Intel heeft met zijn refresh van de Coffee Lake-generatie weer even wat ademruimte gecreëerd in afwachting van succes met de 10nm-generatie. Eigenlijk is Coffee Lake Refresh nog steeds een opgepoetste Skylake-processor, maar dan wel met flink verbeterde transistors. En we mogen ook de ingebouwde, hardwarematige bescherming tegen kwetsbaarheden als de diverse Spectre- en Meltdown-varianten niet wegvlakken.

Omdat de Coffee Lake Refresh-processors, met de eerste lichting in de vorm van de i9-9900K, de i7-9700K en de i5-9600K, van zwaar geoptimaliseerde 14nm-processors gebruikmaken, kan Intel de kloksnelheden nog iets verder opschroeven zonder de tdp al te zeer op te rekken. Dat resulteert in een mainstreamprocessor die de 5GHz op de turbostand met een of twee cores kan aantikken. De jubileumprocessor 8086K kon dat weliswaar ook al, maar dat betrof een beperkte oplage met bijbehorende meerprijs.

Dat wil niet zeggen dat je voor acht cores en zestien threads, een punt waar AMD met zijn Ryzen-processors overigens vorig jaar al was aangeland, niet flink in de buidel moet tasten. De 9900K kost in het gunstigste geval 488 dollar, terwijl zijn voorganger, de 8700K, 359 dollar kost. Als je die vergelijking niet eerlijk vindt, rekenen we met de 9700K versus de 8700K en dan kost die eerste nog altijd 374 dollar. Op papier maar iets meer, maar daar lever je dan wel hyperthreading voor in. Bovendien: de prijs die Intel hanteert, is niet de prijs die je betaalt. Door de schaarste aan 14nm-productie betaal je inmiddels voor de 8700K een kleine 500 euro, en de 9900K en 9700K staan voor respectievelijk 650 en 550 euro in de preorder. Voor AMD's concurrenten als de 2600X en 2700X betaal je ongeveer 220 en 320 euro. Dat is de helft van het geld, maar daarvoor lever je tien tot twintig procent prestaties in. Het is maar net waar je prioriteiten liggen.

Het geeft overigens wel te denken, want Intel zit inmiddels op ongeveer gelijke core count met AMD, en de ipc-prestaties zijn aardig naar elkaar toegetrokken. Intels grote voordeel is de hogere kloksnelheid van zijn processors, maar als AMD overstapt naar 7nm-Zen2-cores, wordt dat een interessant gevecht in 2019. We hopen dat AMD in ieder geval voor zijn mainstreamplatform AM4 niet voor hogere aantallen cores en threads kiest, want zoals je aan de meeste praktijktests en games kunt zien, profiteert lang niet alle software daarvan. Sterker, je kunt in veel gevallen misschien beter hyperthreading uitschakelen of de 9700K in plaats van de 9900K kopen.

Hoe het ook zij, Intel heeft voor de gewone desktopmarkt de prestatiekroon nog altijd stevig in handen en met een nieuwe Z390-chipset die de Z370-vergissing moet doen vergeten, staat er een prima, maar behoorlijk prijzig platform voor de veeleisende gebruiker en gamer.

  • Intel Core i7-9700K
  • Intel Core i9-9900K
 

Laagste prijzen voor: Intel Core i7-9700K Boxed (SRG15/SRELT))
Winkel Beoordeling Prijs Totaal

RedShell.nl | zakelijk

Score: 4 (17)

€ 290,40

€ 290,40

Kostenoverzicht

Productprijs € 290,40
Opsturen vanaf € 250,- excl. btw € 0,-
iDEAL € 0,-
Totaal € 290,40

Bekijk

Azerty

Score: 5 (1891)

€ 299,-

€ 299,-

Kostenoverzicht

Productprijs € 299,-
Pakketpost Nederland (afhankelijk van productcategorie) € 0,-
iDeal € 0,-
Totaal € 299,-

Bekijk

Coolblue.nl

Score: 5 (677)

€ 299,-

€ 299,-

Kostenoverzicht

Productprijs € 299,-
Verzending € 0,-
iDeal € 0,-
Totaal € 299,-

Bekijk

Amazon.nl

Score: 3 (288)

€ 299,-

€ 299,-

Kostenoverzicht

Productprijs € 299,-
Opsturen € 0,-
iDEAL € 0,-
Totaal € 299,-

Bekijk

Megekko

Score: 5 (3546)

€ 299,-

€ 302,95

Kostenoverzicht

Productprijs € 299,-
Pakketpost € 3,95
iDeal € 0,-
Totaal € 302,95

Bekijk

 

Laagste prijzen voor: Intel Core i9-9900K Boxed
Winkel Beoordeling Prijs Totaal

HardwareWebwinkel.nl

Score: 5 (48)

€ 346,70

€ 351,65

Kostenoverzicht

Productprijs € 346,70
Pakketpost 0-30 kg € 4,95
iDeal € 0,-
Totaal € 351,65

Bekijk

Reichelt

Score: 4 (4)

€ 345,-

€ 351,95

Kostenoverzicht

Productprijs € 345,-
Opsturen (Variabel afhankelijk van gewicht) € 6,95
iDEAL € 0,-
Totaal € 351,95

Bekijk

Megekko

Score: 5 (3546)

€ 349,-

€ 352,95

Kostenoverzicht

Productprijs € 349,-
Pakketpost € 3,95
iDeal € 0,-
Totaal € 352,95

Bekijk

Azerty

Score: 5 (1891)

€ 359,-

€ 359,-

Kostenoverzicht

Productprijs € 359,-
Pakketpost Nederland (afhankelijk van productcategorie) € 0,-
iDeal € 0,-
Totaal € 359,-

Bekijk

Xstra Digital Storage

Score: 2 (18)

€ 361,05

€ 361,05

Kostenoverzicht

Productprijs € 361,05
Pakketpost € 0,-
iDeal € 0,-
Totaal € 361,05

Bekijk

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Reacties (306)

Wijzig sortering
Voor AMD's concurrenten als de 2600X en 2700X betaal je ongeveer 220 en 320 euro. Dat is de helft van het geld, maar daarvoor lever je tien tot twintig procent prestaties in.
Glas is halfvol/halfleeg, het is maar hoe je het opschrijft, het is 'slechts' 10-20% voor ruim de helft van de prijs. Het is dan geen kwestie van prioriteiten, immers 'beste =! snelste'.

Zeker als je aspect 1080ti meeneemt, of 4k gamen (of zelfs 1440), natuurlijk leuk dat op 1080 een CPU beter presteert, maar wat is het effect dan nog op 4k? Als een 1080ti op 4k dezelfde framerate haalt op beide CPU's, is dan bij default de AMD niet beter qua prijs? Of als je helemaal geen 1080ti hebt, maar een simpelere 1060 of 580? Beste is dit geval is slechts 'de snelste' in de situatie dat jij uitsluitend 1080p speelt op een high-end videokaart, welk ver van z'n bottleneck zit. Overige gevallen.. niet zo eigenlijk.
10-20% is nog erg hoog geschat. Er zijn taken waarvoor dat geldt maar bij gaming is het hooguit 10% (gemiddeld over een aardig aantal populaire spellen) als je goede RAM gebruikt. Wil je gaming met zo'n hoog mogelijke FPS en gebruik je een €500-1000 kostende grafische kaart met een 1080p monitor die een hoge RR heeft (erg niche)? 8700k of wachten op Zen2.
Wil je pure multithread? Threadripper.
Wil je beide en heb je niet al te veel te besteden? Zen2.
Wil je beide en interesseert het je niets of dat je €300-400 meer of minder besteedt. 9900k.
Dat vat het volgens mij goed samen.

Maar goed, de 9900k is niet de beste voor gaming hoe je het wendt of keert. Het haalt ook niet de hoogste (of meest consistente) FPS met gaming, die 8700k krijg je op 5,3 GHz geklokt als je een gouden sample hebt, opp 5,1 GHz. als je een beetje geluk hebt, die 9900k blijft steken op 5,0 GHz. tenzij je nog eens €300-400 extra besteedt aan de koeler. Zie Hardware Unboxed. Die twee extra kernen geven ongeveer 25% meer vermogen, dat maakt verschil bij het overklokken. Het gaat om details maar het is Intel die begint met te muggenziften over details. :P
10 a 20% lager performance tijdens gaming is ook geen probleem, zolang je je maar een stabile hoog genoege FPS haalt. Stel dat een spel op deze intel proc, 140 fps haalt en op een amd proc maar 120 fps. Toch geen probleem? fps word voornamelijk bepaald door een GPU dus je kunt altijd beter prestaties neerzetten met een AMD + betere GPU dan een duurdere intel + mindere GPU.
10 a 20% lager performance tijdens gaming is ook geen probleem, zolang je je maar een stabile hoog genoege FPS haalt. Stel dat een spel op deze intel proc, 140 fps haalt en op een amd proc maar 120 fps. Toch geen probleem
Eens.

De FPS wordt door beide bepaald maar veel vaker is de grafische kaart de grootste bottleneck.
Zeer terechte opmerkingen.
Daarnaast is al bewezen dat de 2700x op hogere resoluties zoals 1440p inloopt op de Intel processors, waarmee uitsluitend 1080p vergelijkingen geen compleet beeld van de prestatieverhoudingen geven.

Dat de Intels de betere gaming CPU zijn zolang de meeste games nog single thread optimized zijn is duidelijk, maar deze review is voor wat betreft de vergelijking met de concurrentie gewoon niet compleet.

Dat is des te meer belangrijk omdat we hier praten over high end parts die ook een high end prijskaartje hebben. Deze worden over hat algemeen meer gekocht door publiek wat ook meerdere monitoren en/of hogere resolutie monitoren (duurder) aanschaft.
Nee, die 2700x loopt niet in. De videokaart bottleneckt gewoon het geheel waardoor de snellere intel processor zijn "voordeel" niet kan tonen.

Zonder bottleneck bij de videokaarten zou het verschil net zo groot zijn.

1080p geeft juist wel een goed beeld van de prestatieverhoudingen. Je vergelijkt immers 2 processors, en niet 2 systemen.

Dat gezegd hebbende, zonder te gamen op 1080p of op hogere resoluties maar dan met een deftige SLI setup zul je weinig voordeel hebben aan de Intel processors.
En 1080p gamers hebben natuurlijk geen 2080ti of 1080ti. Dus die worden ook gewoon op 1080p gebottlenecked en zullen niks merken van een 9700k of 9900k tov een 2700x. Wel in hun portemonnee.

Je zegt het goed dat enkel de sli gebruikers hier wat aan hebben. Dat zijn er natuurlijk maar heel weinig en dat werkt ook niet in 2/3 van de titels.

[Reactie gewijzigd door lordawesome op 19 oktober 2018 16:23]

Ik heb een vriend welke competitief speelt in o.a. BF4 en die speelt uitsluitend in 1080p en heeft de RTX2080TI in bestelling staan. Er zijn inmiddels al 1080p schermen welke meer dan 200fps kan weergeven..

Daarnaast wil ik aan het eind van het jaar een nieuw systeem in elkaar zetten. Mijn monitor (HP2475LP) is al ruim 12 jaar oud en ondanks mijn GTX1070 speel ik nog steeds op 1080x1200..

Mijn nieuwe monitor wordt zeer waarschijnlijk de Acer X34P (3440x1440) omdat 4K schermen vaak nog beperkt zijn tot 60fps. De 4K monitoren welke wel over de 100fps gaan, kosten dan ook direct 2500 euro..
Een competitieve gamer lijkt me ook een uitzondering.

En op 3440x1440 kom je met een 1070 weer eerder op de gpu limiet dan de cpu bottleneck. Daar komt bij dat jouw oude 1920x1200 scherm waarschijnlijk maar 60hz kan weergeven.
Dat gezeur over 1080p vs 4K moet maar eens een keer de wereld uit, weet niet wie dat in de laatste jaren verzonnen heeft maar je hebt net zoveel CPU kracht nodig als dat je hoogst mogelijk minimum FPS wilt behalen. (Athans voor gros van de games als je een beetje je grafische settings terugschroeft)

Genoeg mensen die onderhand 120/244hz monitors hebben, en dan willen mensen (Vaak competitief) ook die FPS behalen, dus dan schroef je de graphics wat terug en dan kom je al gauw bij die CPU bottleneck.

Tuurlijk ligt het aan de game, als je naar CSGO o.i.d. kijkt dan haal je volgens mij met een average CPU al gauw de 300+

Er zijn ook andere benefits van een zo snel mogelijke processor, namelijk frametimes, load times, e.d. Assets die uit een gecomprimeerd bestand zo snel mogelijk het geheugen in moet worden geperst. (Tja, vaak zijn engines zo slecht dat je game letterlijk stalled als er iets niet snel genoeg kan worden ingeladen.

Frametimes kunnen ook veel voordeel geven, zeker als je meerdere cores hebt die dan voor andere (achtergrond) taken kan worden gebruikt, maar ook pure per core speed helpt daarbij.

[Reactie gewijzigd door Marctraider op 20 oktober 2018 18:41]

Vergis je niet dat er mensen zijn die dan wel op 1080p gamen op een 144hz scherm.
Als je dat aantal frames wilt benaderen en op ultra wilt gamen zit je wel degelijk vast aan dat soort high end kaarten.
Je kan ook stellen dat als je een PC hebt met een 1080TI erin, het prijskaartje van je setup vast redelijk naar de €2k gaat. Dan is een €300 duurder ineens slechts 15% van je budget, en dat levert je dus ruwweg 15% betere prestaties op.

En het blijft toch eenvoudiger nu een wat overgedimensioneerde CPU te kopen, en dan over paar jaar je GPU te kunnen upgraden zonder dat er verder wat hoeft te veranderen.
Dit is ook het euvel waar ik mee zit; high end systeem op het oog van meer dan €2500 en dat is even zonder CPU en een moederbordje voor beide van €150-€200. Als ik kijk dan is het verschil voor mij bij een 2700x vs i7/i9 van nu, dan kom ik op een verschil van 5-8% uit op de totaalprijs en levert dus die 10-15% prestatiewinst op (op 1080p iig). Hierbij ook meerekenend dat Ryzens voor zover ik kan vinden meer baat hebben bij sneller dan langzamer geheugen, en dit kost natuurlijk ook weer wat extra. Nadeel is alleen dat ik niet echt goede benchmarks op 1440p kan vinden.
[...]

Glas is halfvol/halfleeg, het is maar hoe je het opschrijft, het is 'slechts' 10-20% voor ruim de helft van de prijs. Het is dan geen kwestie van prioriteiten, immers 'beste =! snelste'.

Zeker als je aspect 1080ti meeneemt, of 4k gamen (of zelfs 1440), natuurlijk leuk dat op 1080 een CPU beter presteert, maar wat is het effect dan nog op 4k? Als een 1080ti op 4k dezelfde framerate haalt op beide CPU's, is dan bij default de AMD niet beter qua prijs? Of als je helemaal geen 1080ti hebt, maar een simpelere 1060 of 580? Beste is dit geval is slechts 'de snelste' in de situatie dat jij uitsluitend 1080p speelt op een high-end videokaart, welk ver van z'n bottleneck zit. Overige gevallen.. niet zo eigenlijk.
Ik snap dat soort redenaties op het moment dat je net je eerste computer bouwt en een stukje ervaring mist. Echter iedereen die wat langer mee loopt weet dat in de regel de gpu ontwikkeling vele malen sneller gaan dan de cpu ontwikkeling. Wat nu een 1080Ti prestatie heeft wordt, als het een beetje mee zit, over een jaar of 3 jaar midrange performance.

Daar komt bij dat je een gpu vrij eenvoudig kunt vervangen. Dus wanneer je nu het geld niet (over) hebt voor die 1080Ti dan wacht je gewoon op die upgrade over 3 jaar. In een half uurtje heb jij een nieuwe videokaart in je systeem zitten. Met een beetje geluk kun je je oude videokaart verkopen op vraag & aanbod. Voor een cpu platform gaat dat niet op. Al kun je een snellere cpu plaatsen, bij Intel meestal niet, dan is dat een heel gedoe voor relatief beperkte winsten. Vaak moet je bovendien een nieuw moederbord met daarbij ook nieuw ram en dan wordt het niet alleen een tijdrovende maar ook een dure grap.

Derde punt is dat je helemaal geen gebalanceerd systeem wil krijgen. Uiteindelijk is je spelplezier afhankelijk van stabiele framerates. Een systeem waarbij de gpu en cpu nek aan nek gaan kent helaas veel framedrops. Alleen op het moment dat je cpu altijd wat extra ruimte over heeft om die extra explosie te verwerken krijg je die soepele gameplay. Ik heb dit zelf heel erg gemerkt in de game Rainbow Six Siege op mijn 2500K. Met mijn 660Ti speelde de game eigenlijk soepeler dan op mijn GTX 1070. Via een frametime analyse kwam ik erachter dat mijn 140+ fps bij bepaalde acties (inslaan van een raam, granaat die af ging, enz) heel kort inzakte naar 29 fps. Op de 660 Ti gebeurde dit niet omdat de maximale framerate daar veel lager lag door de 99% belasting van die tragere videokaart. Vervolgens had de cpu ruimte over en was de impact van dezelfde actie minder dramatisch. De tijdelijke oplossing was hier natuurlijk een framerate limiter (van 80 om precies te zijn). Pas na een upgrade naar een 8700K kon ik die ophogen naar de gewenste 120 FPS.

Tot slot nog over 4K. Persoonlijk, dit is dus een mening, heb ik liever 120 fps soepele gameplay dan <50 fps op 4K. Je ziet dat zelfs met de aller duurste kaarten er nog diverse games zijn die 4K gewoon niet soepel draaien. Bovendien zitten de meeste 4K monitoren op 60 Hz. Al met al geeft 4K dus een achteruitgang in de soepelheid van je games. (Ja een 4K tv heb ik al wel vanaf 2015, een video heeft een vaste framerate).

Maar goed ieder mag zijn voorkeur hebben. Toch komen we dan weer op het tweede punt. De videokaarten van nu zijn nog niet zo geschikt voor 4K, met Turning is het weer een stuk beter geworden, dus waarom zou je op basis van die ongeschiktheid jezelf voor de gek gaan houden door te doen alsof de cpu niet uit maakt? We weten allemaal dat het een kwestie van tijd is voor mid-range 4K op 60 fps draait en high-end daar dik boven zit. Maar anno 2018 is dat nog niet zo ver. Dit is precies de reden dat vroeger toen 1280x1024 de meeste voorkomende resolutie was de cpu reviews vaak op 800x600 hun tests uitvoerde. Op die manier kun je een klein beetje in de toekomst kijken.

TLDR:
-Een soepel systeem heeft een gpu die altijd 99% is belast en een cpu die wat ruimte over heeft
-Een cpu platform koop je in de regel niet voor nu, maar om een jaar of 5 mee te doen.
-Een gpu is zo vervangen en heeft vaak een goede restwaarde
-Het is nog iets te vroeg voor 4K, zeker voor main stream (geen goede monitoren, hele dure videokaarten nodig)
-Nu gaan testen in 4K geeft een vertekend beeld

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 02:17]

Voor 160~170 euro heb je een 2600 van AMD, die je zo kan opklokken naar 2600X prestaties. Is het vermelden waard, want bij Intel betaal je extra voor oc chips, bij AMD krijg je het gratis.
Als tweakers op 4K of 2k had getest dan was duidelijk geworden dat de 2700x even snel is.4k wordt steeds meer mainstream.

Review met 1080, 1440 en 4K:
https://www.google.nl/amp...-core-i7-9700k/page4.html
Mag hopen dat die benchmarks volgend jaar herhaalt gaan worden. De games in de benchmarks waren al uit voordat Ryzen op de markt was.

Denk ook niet dat het helemaal eerlijk is om een i9 tegenover een Ryzen 2700 te zetten. Pak dan een Threadripper. https://www.youtube.com/watch?v=zd7Sn80Og40 de verschillen zijn zo een stuk kleiner, enkele FPS, soms ~10 en Battlefield doet het zelfs beter op AMD. In de benchmarks van Tweakers verschilt het soms wel 50fps of meer.

Ik bedoel als we toch niet naar ~200 euro verschil in prijs kijken. Het beste van Intel tegenover de middenmoot van AMD zetten, lekker eerlijk. Ook Tweakers doet dus lekker mee met de pro-Intel benchmarks. Beetje jammer.
200 euro prijsverschil, plus de rest wat in het moederbord/platform gaat zitten. De TR4 moederborden aanbod is stuk beperkter en zijn ook prijzig.

Echter ben ik wel met je eens dat het ook interessant is hoe deze nieuwe i9 processor de markt erboven het moeilijker gaat maken. Hebben de low core-count HEDT van Intel en AMD (alles tot 10 a 12 cores) nog wel zin? Waarschijnlijk wel in termen van PCI-e I/O en memory bandwidth, maar niet in rauwe CPU kracht.

Vooral gezien de prijs. Een 2950X systeem heb je voor 900+300 euro basis, en deze 9900K zou 500+130 euro moeten kosten (CPU + moederbord). De 2950X is 50% sneller in MT benchmarks zoals CineBench, maar levert weer wat in met single-core prestaties. Zelfs al zou een 9900K systeem 600+200 kosten, dan heb je alsnog dezelfde prijs/performance verhouding als een 2950X.
Natuurlijk heb je wel minder performance, maar ik denk dat er best veel mensen zijn die zich afvragen wat ze met 16 cores moeten.
Logische conclusie is dan: als we de 1950X / 2950X een prijs/performance monster vonden, dan zouden we dat eigenlijk ook van de 9900K moeten vinden.
Of het betekent dat HEDT processors/platformen en bijbehorende 9900K overpriced zijn...
Het is ook niet eerlijk om de i9 9900K van 649 euro tegenover een Ryzen 2700X van 318 euro te zetten. Echt een zwaar belachelijke vergelijking eigenlijk als je het mij vraagt. Naar prijs wordt toch niet gekeken door Tweakers.net, dus dan maakt het ook geen bal meer uit dat de Threadripper slechts 100 euro duurder is. Die benchmark die ik linkte was op de Threadripper 1950X, niet de 2950X.

Single core performance doet er elk jaar weer wat minder toe. DICE en EPIC laten zien dat optimaliseren voor de CPU's belangrijker is dan de single threaded performance. BF1, al enige tijd uit voordat Ryzen/TR uberhaupt in het vizier kwamen, en AMD schopt ineens kont met ~10-20FPS meer. Frostbite is niet eens geoptimaliseerd voor Ryzen/TR en maakt vooralsnog gebruik van zijn Bulldozer optimalisaties. Het zal mij niets verbazen dat straks met BF5, AMD ineens de vloer aanveegt met Intel.

Mensen vroegen zich 10 jaar geleden ook af wat ze met 4 cores moesten.
Het gaat om een vergelijking tussen de topmodellen van AMD en Intel voor de mainsteam market. ThreadRipper is HEDT, dus da's niet mainstream..

Het is ook niet eerlijk om een Vega64 tegenover een RTX2080TI te zetten als je kijkt naar het prijs verschil. Echter ook hier betreft het de twee snelste producten van AMD en Nvidia.

Hoewel games steeds beter meerdere cores weten te gebruiken, zorgt het gebruik van meer cores (en daarmee meer threads) ook nog eens voor extra synchronisatie overheid. Daarbij moet je er dan ook nog zorgen dat de game niet toevallig twee virtuele cores van een enkele fysieke core pakken, want dan doen ze elkaar vertragen. Je ziet dat zelfs terug komen in de benchmarks tussen 9700K en de 9900K.. Maar alle games vinden hogere frequenties fijn en daar heeft Intel nog steeds een flinke voorsprong..
het gaat over value for money. niet top model tot top model. Dan kun je een Toyota Igo vergelijken met een met de goedkoopste Rolls royce.
In 4K even snel, maar dat laat tweakers helaas niet zien:
https://www.google.nl/amp...-core-i7-9700k/page4.html
De 1920X is 420 euro. Samen met een moederbord van 300 euro, kom je het dichts bij de 650 euro + 130 euro van de 9900K. Dan krijg je 12 amd cores vs 8 intel cores.
Waarom is het oneerlijk? Lijkt me nuttige vergelijking?
Omdat de ene CPU top of the end is bij Intel, de andere van AMD is meer een middenmoot (Threadripper zit er nog boven).
Buiten dat die van AMD maar 318 euro kost tegenover een CPU van Intel die 649 euro kost.

Alles behalve een eerlijke vergelijking. De 2700 is de i7 tegenhanger, niet de i9 tegenhanger.
"i9" zegt natuurlijk niks, intel plakt dat op een 28 core xeon.

Op het consumentenplatform zijn de 9900k en de 2700x de high end oplossing, daarbij allebij 8 cores met HT, lijkt me voor velen een logische, valide en interessante vergelijking. (vergelijken mbt doelgroep, platform en cores)

Jij vergelijkt op prijs, ook een valide vergelijking, maar dat maakt bovenstaande niet ineens oneerlijk.
Oke, dan vergelijk ik het anders.

De i9 is een rebranded Xeon, wat bedoelt is voor HEDT. De 2700X is niet voor HEDT, de 2700X is de tegenhanger van de i7.

De i9 dient daarom vergeleken te worden met de performance tegenhanger van de tegenpartij, de Threadripper.

Zo kan je ook claimen dat de 2700X de i3 helemaal kapotmaakt. Net zo'n eerlijke vergelijking. Die is de helft van de prijs van de 2700x, wat de helft van de prijs is van de i9. Zo houd je de prijs vergelijking ook lekker in stand.
Je snapt er geen bal van. Deze i9 is geen rebrand van Xeon, ze hebben in deze de i9 aanduiding misbruikt voor de desktop consumenten markt.

Deze i9 heeft niets te maken met de Xeon rip-off i9's. Die hebben een volledig andere architectuur.
zie m'n andere reply op jouw reactie :p
Ik ben van mening dat menig Tweaker in zekere zin geobsedeerd is door benchmarks van een enkel component, maar zijn pc vooral gebruikt om mee te gamen en daarbij te weinig naar het grotere plaatje kijkt.
Uiteraard gebruikt Tweakers daarom altijd een pakkende 'clickbait' titel waarin het woord 'gamen' staat, omdat het artikel daardoor veel meer gelezen wordt.

Dat gezegd hebbende, is het onzinnig om de verschillen tussen processoren op 1080p medium uit te vergroten en daarmee een statement proberen te maken welke CPU je moet gebruiken om mee te gamen. Natuurlijk kun je daarmee processoren beter vergelijken, aangezien je zoveel mogelijk een CPU bottleneck creëert. In de praktijk is vrijwel nooit de CPU de bottleneck voor gamen maar de GPU.

Als je Intel met AMD vergelijkt, dan presteren de Intel processoren in de meeste games iets beter. Dit komt doordat de meeste games nog altijd DirectX11 als API gebruiken. Daardoor komt verreweg de meeste last op 1 core, en is na 2 cores de meeste winst van nog meer cores weg. Voor dit soort games telt als je alleen naar de CPU bijdrage kijkt alleen de kloksnelheid vermenigvuldigd met IPC. (Intel heeft momenteel een redelijk vergelijkbare IPC maar kan iets hogere kloksnelheden aanbieden.)
In feite is het voor DX11 games dan ook onzin om een CPU te gebruiken met meer dan 4 cores, aangezien het vrijwel niks oplevert. (en meestal is 2 cores al zat)

Nu komen er mondjesmaat wel meer titels die DirectX12 gebruiken. In meer of mindere mate heeft een ontwikkelaar tijd gestoken in het effectiever parallelliseren van de workload. Bij Assassin's Creed Odyssey zie je daar volgens mij het effect van. Dan zie je ook direct dat de Ryzen 2700X beter presteert dan de i5 8600K, vanwege meer cores. M.i. is de verwachting dat de komende jaren steeds meer titels DX12 zullen gebruiken.
Het gevolg? Nog minder last van een CPU bottleneck dan nu het geval is en dus is de CPU in feite nog minder belangrijk dan de GPU.

Ik ben daarom van mening dat als je een nieuwe PC wilt bouwen, je gezien de huidige prijzen sowieso beter een AMD CPU kan kopen. In de benchmarks presteren die weliswaar iets minder, maar in de praktijk gamed men met een nieuwe PC niet op 1080p medium maar al snel op 1440p of 4K op liefst Ultra (ervanuit gaande dat je met mooie graphics wil gamen en dus een redelijke videokaart aanschaft (>GTX 1060, >AMD RX 480).
Het punt waarop 1440p ultra of 4K ultra het nieuwe 1080p medium is, ligt minstens 5 jaar in de toekomst.
Tegen die tijd is je huidige i7 9900K een fractie waard van wat ie nu waard is, en had je beter het geld wat je nu bespaart kunnen gebruiken voor de aankoop van een stuk betere PC (of alleen de GPU!!) dan.

Kortom, als gamer boeit de CPU vrijwel niets en kun je beter een AMD CPU kopen en die honderden euros die bespaart besteden aan een high end GPU.
Assassin's Creed Odyssey draait alleen op DX11, de DX12 vermelding in de minimum specs was een foutje van Ubisoft ;).

Het aantal games dat DX12 ondersteund is letterlijk op je handen te tellen; https://en.wikipedia.org/...s_that_support_DirectX_12 . Dit is overigens niet vreemd want bij DX12 is het 'bare metal' concept van Mantle voortgezet waarbij de ontwikkelaar vooral zelf veel werk moet verrichten. DirectX was altijd succesvol omdat het een semi kant en klare trukendoos was. Die rol is Nvidia aan het overnemen met hun Gameworks en zo lang Gameworks geen DirectX12 pushed zal je dus weinig DirectX12 titels zien. Aangezien Nvidia op DirectX11 een enorme voorsprong op AMD heeft zal Nvidia DirectX12 voorlopig niet pushen.

Ik zou er dus niet op rekenen dat DX12 de komende 5 jaar een succes wordt. We mogen blij zijn als het 'succes' van DX10 wordt geëvenaard. Als ik me niet vergis heb ik destijds uiteindelijk 4 games gespeeld op DX10 (speciaal vista voor geinstalleerd); World in Conflict, Crysis, Just Cause en Far Cry 2. Daarna kwam DirectX11 alweer om de hoek kijken.

Dat even los van 550 euro voor een 8700K vs 300 euro voor een 2700X. Dan is de 2700X wel erg verleidelijk ja...

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 02:58]

Gameworks is alweer verleden tijd toch?! Zie er nooit meer iets van, developers hadden er geen zin in. Slecht voor nvidia's reputatie eveneens.

Is het niet simpelweg dat er nog gigantisch veel mensen op oudere pc's gamen, en alleen nieuwere gpu's dx12 ondersteunen?
Waarom een groot deel van de potentiële kopers van je game buitenspel zetten? Lekker bij dx11 houden is een stuk makkelijker.
Ik zat naar de testen te kijken, daarna even de prijzen er bij gezocht. En wat is de AMD Ryzen 2700X een beest van een processor wanneer je de performance en prijs naast die van de twee Intels legt. Je moet echt een steekje los hebben wil je een i7-9700K kopen en een i9-9900K is eigenlijk gewoon economisch onverantwoord wanneer je die naast een 2700X legt. Chapau voor AMD zeg.
Gemiste kans om Threadripper mee te nemen. In de prijsklasse van die 9900k koop je bijna een 2950X. De 2700x kost ook 200 euro minder, dus prijsrange als argument maakt niet zoveel uit. Die 2950x maakt gehakt van die 9900k in de meeste benchmarks (behalve games als ik ze snel naast elkaar zet). Dus in games is de 2950x gewaagd aan de 9900k en als je je PC na het gamen wilt gebruiken voor iets anders dan lijkt de keuze me duidelijk.
De 9900K kost nu 650 euro.
De 2950X kost 900 euro + 200 meer voor het moederbord.
De 1920X kost 420 euro + 200 meer voor het moederbord. Hiermee komt het totaal wel op hetzelfde als de 9900K. In games zal hij niet winnen, maar met 12 cores met HT in workloads waarschijnlijk wel.
Mijn redenatie was:

2700x+mobo = 400 euro
9900k+mobo = 750
2950x+mobo = 1000 euro

Verschil tussen 2700x (wel in test) en 9900k (uiteraard in test) is groter dan 2950x+mobo. Die 9900k is niet gemaakt om alleen de 2700x concurrentie te geven. Threadripper zit ook duidelijk in het vizier.
Moah, de 2950x kost 900 euro en het moederbord minstens 300 euro, dat is 1200 euro in totaal, niet 1000.

pricewatch: AMD Ryzen Threadripper 2950X
Snap niet waarom je geminned wordt, de prijs is bijna hetzelfde.
Dit zijn over het algemeen toch al wel wat oudere spellen lijkt het. Die minder gebruik maken van meer cores/hyperthreading.

Is er ook een test gedaan met CPU heavy spellen zoals battlefield? Ik zou het mooi vinden als er als Battlefield V uitkomt over een paar weken een update komt om de benchmarks daarvan ook mee te nemen. Dat lijkt mij een toonaangevend spel en zal voor veel mensen uitmaken.

[Reactie gewijzigd door n3othebest op 19 oktober 2018 16:27]

Game sectie:

Bij aanschaf van een I9 9900k of 9700K zit je in het top segment qua aankopen. Het is dan onrealistisch om op 1920×1080 te testen op CS na. Bij CS zou je met deze CPU's zelfs nog 2560 x 1440 willen testen om te zien of daar de benodigde fps geleverd kan worden voor 144/240 HZ monitors voor de serieuze spelers.

De gehele gametest sectie is zinloos, het test niet waar deze CPU's voor bedoeld zijn en waar ze voor gebruikt gaan worden.

Rest:

Waarom worden er geen threadrippers meegenomen in de testen? Gezien het prijs plaatje zitten er diverse in het vaarwater van de i9's.

[Reactie gewijzigd door Ashilh op 19 oktober 2018 15:45]

Eigenlijk is het nog steeds een no-brainer...het geld wat je bespaart door AMD te nemen ipv Intel kun je in je GPU stoppen, en dat compenseert ruim voor de 15% verlies in CPU performance.

Je zou namelijk voor het prijsverschil bvb een GTX1080 kunen nemen ipv een GTX1070, en geld overhouden voor extra geheugen.

Is geld geen probleem dan heeft Intel de kroon in handen. Prijs/prestatie is nog steeds stevig in handen voor AMD.
Yep, het is een no-brainer. Intel is duidelijk op alle vlakken beter. En ja, nu chargeer ik uiteraard, want dat is niet zo. Tegelijk als we uit gaan van de doelgroep gamers, en we kijken hier naar de gameprestaties, dan is het natuurlijk wel heel makkelijk om te stellen dat deze I9 een stuk duurder is, dat vaak niet nodig is, en dus AMD betere prijs kwaliteit heeft. Dezelfde resultaten tonen echter ook aan dat bij deze setups de i5-8600 ook prima mee kan komen met de Ryzen, en op zijn minst erg vaak de Ryzen verslaat. En de Intel is toch echt goedkoper. Dus je kan zeker niet stellen dat prijs/prestatie stevig in handen is van AMD.
No-brainer? Zie ik toch anders; ik heb jaren (voor mijn huidige i5) AMD gehad, maar die hadden als nadeel dat ze meer stroom kostten en ze produceerden ook een hoop meer herrie, omdat ze meer koeling nodig hadden. Dat vind ik dus ook belangrijke afwegingen als ik een processor uitzoek. Maar goed, als je idd alleen naar prijs kijkt...
De huidige generatie Ryzens gebruikt nauwelijks meer stroom. En de stock koeler is ook enorm veel beter dan die van Intel dus stock zouden ze zelfs stiller moeten zijn.

Als je naar een third party koeler kijkt dan zijn die vrijwel altijd stil genoeg ongeacht welke CPU je er dan op zet.
Als je echter kijkt naar de I5s en de I7-8700k, die bij iig deze game benchmarks alsnog sneller zijn dan de Ryzen, dan verbruiken die heel veel minder stroom. Dat is geen klein verschil.
Dat heeft meer te maken met dat meer cores meer stroom gebruikt. Vandaar dat de i9 ook zoveel gebruikt. Het enige is dat de geteste games daar nog geen gebruik van maken in tegenstelling tot iets als Battlefield.
Meer gigahertzen verbruiken ook meer stroom natuurlijk. Punt is uit deze benchmarks blijkt dat Intel bij gelijke prestaties significant minder stroom verbruikt. Uiteraard kunnen andere benchmarks een ander beeld geven.
Als de processor warm wordt (bij intensief gebruik, dus gaming), dan staat de koeler vol te blazen. En ik heb er zelfs speciale silent 3rd party koelers voor uitgezocht, maar toch... als ze de heel tijd vol gas staan en met een andere processor hoefde dat niet meer...
Maar goed tijden veranderen en producten ook, dus tijd om bij een volgende aanschaf mijn standpunten te heroverwegen. Thanks voor de toelichting!
Eigenlijk is het nog steeds een no-brainer...het geld wat je bespaart door AMD te nemen ipv Intel kun je in je GPU stoppen, en dat compenseert ruim voor de 15% verlies in CPU performance.
Nee, je koopt gewoon de Intel, en de beste GPU.
Prijs/prestatie is nog steeds stevig in handen voor AMD.
Kan, maar prijs/prestatie is een compromis, en niet iedereen heeft daar zin in.
Nergens in de conclusie de misleiding rond de TDP van deze processors, maar als bonus de zin "...kan Intel de kloksnelheden nog iets verder opschroeven, zonder de tdp al te zeer op te rekken."

Seriously?

Kom op zeg, een overschrijding van 50 procent tdp is absurd te noemen. Het is des te meer opmerkelijk dat juist in de conclusie van t.net over AMD 2700x het volgende staat:

"Dat Ryzen 2 vaak iets minder zuinig is dan Ryzen 1, kan voor sommigen nog wel een minpuntje zijn."

Ik zal graag willen weten of de auteur ook van mening is dat de TDP overschrijding en het verbruik van Coffee Lake vergeleken met Skylake voor sommigen nog wel een minpuntje kan zijn.

[Reactie gewijzigd door garf75 op 19 oktober 2018 16:17]

Kun je ook aangeven waar je deze "misleiding" ziet? Ik krijg het idee dat je TDP verward met verbruik, dit is echter zeker niet zo. TDP zegt iets over de warmte afgifte (en dus benodigde koelcapaciteit) bij het uitvoeren van een bepaalde workload op een bepaalde snelheid.

Zo is bij Intel de TDP waarde bepaald doormiddel van een complexe, all core workload op baseclock. Waarmee Intel dus aangeeft dat wanneer je de CPU koelt met een koelsysteem dat (in dit geval bij de 9900K en de 9700K) 95W aan warmte kan verwerken Intel de base clock garandeert. Dit kun je gewoon nakijken op bijv. Intel ARK (hier de 9900K) https://ark.intel.com/pro...-16M-Cache-up-to-5-00-GHz-

De opgegeven TDP waarde zegt weinig over het daadwerkelijke verbruik wat jouw post wel lijkt te suggereren, dat verbruik kan (en zal, zeker bij overclocks) meer zijn dan de opgegeven TDP waarde.Wat opzich ook logisch is, bij een forse overclock zal je ook een koeler nodig hebben die meer hitte kan verwerken dan 95W.
Je reactie is inhoudelijk wel correct maar juist de manier waarop Intel de TDP berekent is een rookgordijn optrekken voor de consument. Je legt het eigenlijk prima uit. Ook AMD maakt hier -zij het in mindere mate- schuldig aan. Het zou mooi zijn als dit soort onzin van beide fabrikanten aan de kaak wordt gesteld door de onafhankelijke journalistiek, zoals ik mag verwachten van tweakers.net. Dat is mijn eerste punt.

Het tweede, waar de auteur naar mijn mening schuldig aan maakt, is het bagatelliseren van het stroomverbruik van de i9 9900k door doodleuk te zeggen dat het TDP niet al te zeer wordt opgerekt. Mogelijk, mogelijk heeft hij gelijk als je de documentatie van Intel erbij pakt maar met logisch denken kan je niet anders tot de conclusie komen dat je als de stroommeter 138w aangeeft je of misleid wordt of er wel heel ruim met de marges van de TDP wordt omgegaan.

Daarom mijn niet zo subtiele verwijzing naar de review van AMD 2700X, want hier wordt niet eens de vergelijking gemaakt tussen de voorganger van de 9900K. Het is simpelweg meten met twee maten waarbij het stroomverbruik van Intel onder de mat wordt geveegd. 140W om net even wat beter te zijn in games op 1080p dan AMD? Ik zou tot een hele andere conclusie komen.

Verder is er zoveel mis met deze conclusie dat ik het overlaat aan mijn medetweakers die het meeste al hebben gezegd.

[Reactie gewijzigd door garf75 op 19 oktober 2018 18:55]

Ik ben het met je eens dat het mooi zou zijn wanneer alle fabrikanten eenduidig zouden zijn in het bepalen van TDP. Dat Intel een rookgordijn opwerpt, ik weet niet of ik het daar mee eens ben, ik vind eigenlijk de Intel definitie vrij helder en logisch. Of AMD zich hier in mindere mate schuldig aan maakt vind ik lastig te beoordelen, Intel publiceert de definitie in ieder geval bij de processor specs, AMD lijkt dat niet te doen, die lijken alleen een waarde te vermelden zonder aan te geven hoe deze berekend is ( Zie bijv https://www.amd.com/en/products/cpu/amd-ryzen-7-2700x en dan onderdaan bij de specs).

Computerbase heeft dat dan wel weer opgesnord en die geven aan dat TDP bij AMD het volgende is (Google translate vertaling uit het duits, kan dus wat ongelukkig zijn)
"The TDP is a strict measure of the thermal power dissipation of an ASIC that defines the minimum cooling system to achieve the specified performance"
En dit zou de formule zijn waarmee AMD het TDP berekent voor de 2700X:
The TDP is calculated using a formula that takes into account two characteristics of the CPU and cooler as well as the environmental conditions: the maximum allowed CPU temperature, the thermal resistance of the cooler and the temperature of the cooling air.
104,76 Watt = (61,8 °C – 42,0 °C)/(0,189 °C/W)

Al met al zeker door dit niet te vermelden bij de specificaties vind ik dit nu niet echt transparanter dan de Intel definitie moet ik eerlijk zeggen.
Het tweede, waar de auteur naar mijn mening schuldig aan maakt, is het bagatelliseren van het stroomverbruik van de i9 9900k door doodleuk te zeggen dat het TDP niet al te zeer wordt opgerekt. Mogelijk, mogelijk heeft hij gelijk als je de documentatie van Intel erbij pakt maar met logisch denken kan je niet anders tot de conclusie komen dat je als de stroommeter 138w aangeeft je of misleid wordt of er wel heel ruim met de marges van de TDP wordt omgegaan.
En dit moet je dus juist niet doen, TDP als waarde van verbruik gebruiker, TDP is geen verbruik. Ik ben het trouwens met je eens dat het lijkt of ze dit in de review ook enkele malen doen (gezien de comment over TDP oprekken).

Het is vrij simpel,. Intel meet en specificeert TDP op de base clock, daar dat de snelheid is die ze garanderen bij een worst case workload qua klokssnelheid. In deze review zie je inderdaad dat onder Cinebench het verbruik de 138W aantikt (de Ryzen 2700X tikt daar trouwens de 141W aan qua verbruik). Echter die cinebench runs zullen niet op baseclock gedaan zijn, maar op maximale snelheid. Daar dit niet op baseclock is gemeten kan er dus ook geen relatie gemaakt worden met het TDP, het TDP zegt immers enkel wat over "een complexe all core workload op baseclock" in de Intel specificaties.

Ik heb de review (en conclusie) nog niet genoeg in detail gelezen om te bepalen over er zaken "onder de mat geschoven" worden. Maar als ik zie dat de 9900K schijnbaar +- net zoveel verbruikt (138W voor de 9900K, 141W voor de 2700X) als de 2700X onder hoge load (cinebench) vind ik dat nog niet eens zo heel slecht.
toch wel weer typisch aan tweakers.net dat de power metingen op niks trekken...

Tom's en anandtech geven een heel ander beeld van de nieuwe i9 heethoofden...

wie zullen we dan geloven?
https://www.tomshardware....-9th-gen-cpu,5847-11.html
https://www.anandtech.com...-9700k-i5-9600k-review/21
Valt zo snel gekeken te hebben niet direct iets over te zeggen daar ze allemaal voornamelijk met andere software testen en de workload een flinke invloed heeft op het verbruik (denk bijv aan wel / geen AVX, wel of niet alle cores belast e.d.) als je naar de grafieken kijkt.

Wat ik wel zie ik dat Tom dit nog in de tekst heeft staan, volgens mij zonder grafiek.
We measured 137W (232W) during the Cinebench test
137W stock en 232W (overclocked)
Die 137W komt vrijwel overeen met het resultaat in de Tweakers review gemeten in Cinebench(138W)

Als we dus enkel op dat ene regeltje af gaan daar dat voor zover ik kan zien de enige meting is met eenzelfde applicatie als workload lijken de metingen van Tom en Tweakers vrijwel gelijk te zijn in die applicatie.
Dank voor de verhelderende reacties: met name de link naar Anandtech heb ik met veel interesse gelezen. Ik quote even:

In this case, for the new 9th Generation Core processors, Intel has set the PL2 value to 210W. This is essentially the power required to hit the peak turbo on all cores, such as 4.7 GHz on the eight-core Core i9-9900K. So users can completely forget the 95W TDP when it comes to cooling.
Bovenstaande illustreert precies waarom ik zo graag zou willen zien dat er bij de conclusie dit wordt meegenomen. Juist dat de auteur het presteert om te zeggen dat Intel de TDP niet al te veel oprekt kan mogelijk waar zijn, maar daar heeft de consument niets aan. Feit blijft dat als je niet investeert in een koeling die veel meer aankan dan de 95W TDP de i9 9900k ver achterblijft.
Ik quote nogmaals Anandtech:

Focusing on the new Intel CPUs we have tested, both of them go beyond the TDP value, but do not hit PL2. At this level, the CPU is running all cores and threads at the all-core turbo frequency. Both 168.48W for the i9-9900K and 124.27W for the i7=9700K is far and above that ‘TDP’ rating noted above.

Met bovenstaande zou de auteur op z'n minst moeten adviseren om flink te investeren in een goede koeling wil je de potentie van de i9 unlocken.
Het gaat me niet om die metingen van de 12v onder load, die zijn duidelijk. De idle metingen zijn belachelijk. Bij cinebench staat gemiddeld. Toon dan ineens een verbruik van de gehele benchmark.

Als er moeite gedaan wordt om een chart van dit te brengen dan kan je op zijn minst ook de moeite doen om het geheel systeem verbruik in een chart vergelijken te brengen.

Nu krijg je daar een top chart alsof dit de gehele conclusie is en de rest kan je nergens degelijk vinden.

Wat heeft de gemiddelde lezer aan deze verbruiksmetingen? niks...
Ik krijg het idee dat je TDP verward (sic) met verbruik ... TDP zegt iets over de warmte afgifte
Leg uit. Hoe is het, zonder kwakzalverij, mogelijk om bijv. 145 Joules per seconde aan warmte af te geven, als het verbruik niet 145 Joules per seconde is? Waar komt die energie vandaan? Perpetuum mobile? Of als er energie verdwijnt, waar blijft die? Zwart gat?

Voor iedereen die liever wetenschap gelooft dan kwakzalverij: De "P"in "TDP" staat per definitie gelijk aan verbruik; namelijk het aantal Joules per seconde (P) volgens ontwerp (D) dat wordt omgezet van elektrische naar warmte-energie (T).

De reden dat een CPU tijdelijk meer kan verbruiken dan het opgegeven 'TDP', is als er temperatuurverschillen zijn tussen delen in de CPU onderling en mogelijk de koeling; dan is er nog een 'energiebuffer' voorhanden waarin tijdelijk extra warme opgeslagen kan worden, waardoor tijdelijk de 'thermal power' groter is, namelijk exact gelijk aan het tijdelijk groter verbruik.

Bij maximale entropie (alle onderdelen even warm) is Max TDP dus per definitie (!) exact gelijk aan max verbruik.

[Reactie gewijzigd door kidde op 19 oktober 2018 21:37]

Dat klopt uiteraard, maar dat is totaal niet waar ik op doel of aangeef. Wat ik aangeef is dat het opgegeven TDP in de specs niets zegt over het verbruik in een compleet andere situatie maar enkel over die specifieke geteste situatie en dan primair over de warmte afgifte, dat die warmte afgifte vrijwel gelijk zal zijn aan het verbruik in die geteste situatie is uiteraard logisch als je naar de natuurkundige wetten kijkt.

Een CPU met een gespecificeerd TDP van 95W gemeten op baseclock tijdens een complexe all-core workload om even bij de Intel definitie te blijven kan best een verbruik hebben van zoals hier gemeten bijvoorbeeld 138W tijdens een Cinebench run en nog steeds een kloppende 95W TDP in de specificaties.

En in dat opzicht is de "TDP = verbruik" statement die men vaak maakt zeer verwarrend en gewoonweg niet kloppend.
best een verbruik hebben van zoals hier gemeten bijvoorbeeld 138W (Joule warmte per seconde afvoeren - Ed) tijdens een Cinebench run en nog steeds een kloppende 95W TDP in de specificaties
Kan 138 Watt warmte afvoeren maar is daar _niet_ voor ontworpen? En de spec zegt terecht 90?

Serieus, wie houdt u hier voor de gek? ;)

Die 138 is natuurlijk de maximale TDP.

Een formule 1 auto kan misschien max 3 liter brandstof per minuut aan hitte afvoeren, als Intel dan zegt dat het TDP 2 liter per minuut is, dan kan dat als de auto max 200 rijdt, maar is nog steeds totale misleiding. Want de ontwerpers hebben echt wel voor 3 ontworpen.
Ik weet niet waar je nu exact op doelt, maar voor mij is het vrij simpel:

Als laten we zeggen, in dit geval, de 9900K op base clock tijdens een "complexe all core workload" zoals door Intel gespecificeerd niet aan de TDP specificaties van 95W zou voldoen ben ik het direct met je eens dat het in dat geval misleiding is. Echter niemand hier toont aan dat deze specificatie niet klopt, het enige dat aangegeven en geroepen wordt dat bij all-core workloads op boostclocks hoger dan de baseclock, of zelfs (heftige) overclocks het verbruik hoger is dan het TDP dat Intel opgeeft in de specificaties, maar dat is volkomen logisch, maar betekent niet dat de specificaties van Intel niet kloppen.

Het is imho juist volkomen logisch dat Intel het TDP specificeert op de kloksnelheid die ze garanderen en waar je ze wettelijk gezien ook aan kan houden.
Is er niet ook nog de efficiency factor? Niet ALLE elektrische energy word toch omgezet in warmte? Er word in de chip namelijk ook nog een hoop werk verricht, dus volgens mij klopt het niet dat "Totaal verbruik = warmte"

Kan het mis hebben, is alweer tijdje geleden dat ik thermodynamica gehad heb
[...]
De "P"in "TDP" staat per definitie gelijk aan verbruik; namelijk het aantal Joules per seconde (P) volgens ontwerp (D) dat wordt omgezet van elektrische naar warmte-energie (T).
... onder specifieke omstandigheden (all core workload, baseclock). Als die omstandigheden anders zijn kan het verbruik ook anders (bijvoorbeeld hoger) zijn dan de TDP. Dat heeft verder niet zo veel met zwarte gaten of perpetuum mobile te maken ;)

Wat bedoel je met Max TDP?
Intel adviseert gewoon een koeler die een TDP van 130watt aan kan. Dus wat dat betreft gaat je verhaal niet op. (Doen ze natuurlijk niet in ARK, maar in verschillende reviews kun je het terugvinden)
Dat is ook logisch, nogmaals het door Intel gespecificeerde TDP wordt bepaald op de baseclock, met een zware all core workload, niet op een boost clocke (of overclock). Wat opzich ook logisch is daar baseclock de waarde is die Intel garandeert dat de CPU die kloksnelheid haalt bij iedere workload mits je een koeler gebruikt die gespecificeerd is om miminaal het gespecifieerde TDP te kunnen koelen.

Wil je kunnen genieten van zo hoog mogelijke (All-Core) boostclocks of wil je gaan overklokken zal je een zwaardere koeler nodig hebben (wat bij boostclocks denk ik best een 130W capabele koeler zou kunnen zijn, voor overklokken zou ik een koeler pakken die nog wat hoger gaat). Het is imho dus ook logisch dat Intel een zwaardere koeler dan een koeler die 95W kan verwerken aanraad, dat maakt het echter nog niet onwaar dat om de gegarandeerde specificaties te bahalen je slechts een koeler nodig hebt die 95W kan verwerken zoals de officiële specificaties aangeven. Het een sluit het ander niet uit. En daarom is het just zo jammer dat waardes als "TDP" vaak verkeerd gebruikt worden en te vaak worden uitgelegd als "TDP = verbruik".

[Reactie gewijzigd door Dennism op 19 oktober 2018 19:16]

Dat is juist krom, ze adviseerden dus 95watt én 130watt koelvermogen. Niet wat jij min of meer beschrijft, 95watt koelvermogen en 130watt piek verbruik.

Welke koeler hebben we nou nodig Intel? 95watt of 130watt. Het is gewoon 130watt, want dan doet de chip hetzelfde als in de meeste reviews. En die 95watt staat heel mooi op de doos, maar daar houd de functie van die vermelding ook wel op.

130watt vind ik trouwens niet schokkend veel voor een high-end product, vergeet niet dat hier vrolijk een 300watt GPU naast word gehangen dus ik snap ook niet dat ze hier rooskleuriger voor de dag willen komen. Dat is helemaal niet nodig.
Ik vind de dtp van amd in deze vergelijking heel slecht en vooral als ie onder full load staat, daar is intel beter en dus ook zuiniger.Buiten dat vind ik dat amd met sommige dingen vergelijkingen op een zeldzaam moment beter is dan het intel geweld, maar de overall conclusie is toch dat intel weer sneller is
en ook nog cache geheugen aan de cores gehangen zodat deze sneller zijn.Dus nog toch weer een nieuw platvorm gebaseerd op het oude en dus op een paar punten verbeterd.Ze zitten nog altijd met een bus snelheid van 100 mhz die door de multiplier opschroeft word tot een respectabele snelheid.
zouden ze daar geen anderer techniek voor in de plaats kunnen vinden door middel van r&d.
Ik dacht dat amd daar een trukje voor had wat betrefd de bussnelheid.Processor van intel gebasseerd op de ringbus technologie op de processor toegepast wat vroeger amd had met de videokaarten.
Ik ben ben benieuwd wat 2019 gaat brengen door deze processor reuzen.!?
En natuurlijk ook de nieuwere platforms.

[Reactie gewijzigd door rjmno1 op 19 oktober 2018 21:01]

En de nieuwe cpu's van Intel worden ondanks de gesoldeerde tims, gigantisch heet ten opzichte van de voorgangers.
Het opgegeven tdp slaat dus helemaal nergens op.
Een waarschuwing erbij dat je voor deze 9e generatie processor een aanzienlijk betere koeling moet hebben dan voor de laatste paar spirituele voorgangers lijkt me ook wel op zijn plaats. Veel echt stille en ook de beter betaalbare luchtkoelers zullen het niet (lang) volhouden met een 9900K die 138W verstookt in Cinebench. Voor een gemengd gebruik PC met bijvoorbeeld softwareontwikkeling en/of content creation een technisch minpunt in zo'n build dat je weer op moet lossen. Zeker nu videokaarten zich vaak (geheel) stil kunnen houden als daar minder van gevraagd wordt.
Er wordt zelfs geadviseerd voor waterkoeling omdat de temperatuur bij de 9900k, zelfs op stock en gesoldeerde TIM de pan uitrijst.
Dat kan ook niet anders met zoveel vermogen op een relatief klein oppervlak.

Met een AVX belasting is het helemaal een noodzaak omdat het verbruik dan naar 205W (@stock) en 250W (all-core @ 5GHz) gaat.
Het is het vermelden waard dat een Ryzen 2700x alleen 140W verbruikt wanneer alle overclock opties zijn ingeschakeld. Zonder PBO verbruikt deze een stuk minder, zonder al te veel verlies in snelheid.

Ik hekel daarom ook de vermogens meting in deze en voorgaande reviews, want het geeft een beeld alsof de Ryzen CPU's minder zuinig zijn, terwijl het tegendeel waar is zodra je een kleine slag terug gaat in kloksnelheid en spanning.
Bij een cpu van 600 pop kan er ook nog wel een redelijke koeler bij toch :p Denk niet dat dat echt een issue is voor de meeste kopers.

2700x doet ook 140 watt dus daar geldt jouw argument net zo hard voor.

[Reactie gewijzigd door maratropa op 19 oktober 2018 19:33]

Denk juist van wel. Voor die 600 euro heb je een 2600x of 2700x van AMD, met een moederbord (ook al is het niet de beste die er voor is) EN een after market cooler (met de stock cooler als back-up). Dat in ruil voor grof weg 10% verminderde prestaties, gemiddeld, in real world scenario's.
Als je het maar weet dan zal het bij meer dan 90% van de potentiële kopers geen probleem zijn inderdaad. Wel uitdagend in een gaming HTPC, stille gemengd gebruik PC, of portable LAN party build.
140watt tegenover een 105watt tdp, of 200+watt tegenover een 95watt tdp.

Het gaat er om dat Intel overduidelijk paniekvoetbal aan het spelen is.

[Reactie gewijzigd door Batauwer op 20 oktober 2018 14:50]

Een waarschuwing erbij dat je voor deze 9e generatie processor een aanzienlijk betere koeling moet hebben dan voor de laatste paar spirituele voorgangers lijkt me ook wel op zijn plaats. Veel echt stille en ook de beter betaalbare luchtkoelers zullen het niet (lang) volhouden met een 9900K die 138W verstookt in Cinebench. Voor een gemengd gebruik PC met bijvoorbeeld softwareontwikkeling en/of content creation een technisch minpunt in zo'n build dat je weer op moet lossen. Zeker nu videokaarten zich vaak (geheel) stil kunnen houden als daar minder van gevraagd wordt.
Hier maak je toch een denkfout. Ik heb mijn 8700K zonder GPU uitgemeten als 222W (flinke overclock met 1.45v en dan Prime95 met AVX op small ftt) en dat werd gekoeld door een pricewatch: Scythe Mugen 5 PCGH Edition welke op maximale rpm van 800 zelfs op 20 cm afstand zonder kast niet hoorbaar is. (De PCGH editie is extra stil). Het ding lag hier letterlijk twee weken op mijn bureau.

Die 138W die tweakers meet is dus totaal geen probleem voor een Scythe mugen.


De vraag is vooral hoe goed de cpu nu zijn hitte overdraagt want ik liep zelf tegen het probleem aan dat de 8700K 95 graden werd terwijl de baseplate van de koeler dan pas op 38 graden zat (IR meter). Volgens de geruchten is dat nu beter, maar heb het nog niet (goed) getest gezien.

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 03:05]

Voordat je mij een denkfout toeschrijft misschien eerst een een 9900K onder diezelfde cooler prikken op een soortgelijke overclock en voltage, want het gaat mij om het grote relatieve verschil tussen de twee. Nu vergelijk je een zwaar overclockte 8700K met een stock 9900K. Belangrijk daarbij is dat jij die koeler niet hebt aangeschaft om op basis kloksnelheid te kunnen draaien. Een prijswinnende (onze favoriet, gold award) Scythe Mugen 5 van 1 kg, 155mm hoog en welke meer dan 50 euro kost is bepaald niet de meeste koelers ook. Wel meteen een heel goed koopadvies voor een stille build wanneer je deze koeler kwijt komt in de behuizing. Iets als dit had in de review niet misstaan.
Al het opgenomen vermogen wordt omgezet in warmte wat afgevoerd moet worden door de heatspreader van de cpu, naar de baseplate van je koeler, naar de lucht in je kast, naar buiten je kast. Dus zodra jij meet 138W en weet je dat je 138W aan warmte af te voeren hebt en is de interne temperatuur, voltage en frequentie van de cpu daarbij irrelevant.

Maar jij bedoelt wellicht wat gebeurd er als je de 9900K ook extreem gaat overvolten? Ik heb al ergens 250W voorbij zien komen, dus die gaat er nog een paar stappen overheen. Hoe dan ook gaat de PCGH niet meer geluid produceren omdat hij maximaal 800 rpm draait. De vraag is alleen of de cpu dan onder de 100 blijft, dat zal afhangen van de nieuwe STIM.

Maar goed ,an sich snap ik ergens je punt wel. Toch denk ik niet dat we veel problemen gaan zien met de genoemde 138W. Vergeet niet we hebben jaren lang cpu's gehad die naar standaarden van nu ook niet bepaald zuinig waren. Een i7 920 had een standaard tdp van 130W om maar wat te noemen en dat was dan voor 2.67 GHz daar waar tweakers hem flink hoger clockten. Ik stop meestal een pricewatch: Cooler Master Hyper TX3 Evo in budget builds, de laatste een 4670K en dat kleine towertje kan al behoorlijk wat warmte afvoeren.

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 13:33]

Ik heb vrijveel van die eerste generatie i7's vroegtijdig moeten dumpen.
Na een paar jaar bureaugebruik werkte die stock koelers niet goed meer en niet de CPU, maar
andere componenten dicht bij de CPU begonnen de geest te geven. De netwerk, geluidskaart -of eerste PCI-E slot.
Aanvullend, wederom de merkwaardige keuze om wel 7zip Compressie maar geen Decompressie op te nemen in de benchmark-suite, terwijl historisch gezien Intel beter is in compressie en Ryzen 1 in decompressie juist de vloer aanveegde met zelfs de 8c/16t Skylake-X. Dit heb ik bij de Threadripper 2990WX review, toevallig van dezelfde auteur, ook al opgemerkt. Blijkbaar is hier niets mee gedaan, ongeacht de grote hoeveelheid kritiek bij die review.
Het is eigenlijk best simpel;

[b]8700k 88w (die size 151mm²)
6 core - 12 thread
14,66W per core / 2 threads

9900k 138w (die size 177mm²)(+17% groter))
8 core - 16 thread
17,25W per core / 2 threads

9900k 2,59W meer per core / stock
17% van 88W = 14,96W[/b]


Het TDP neemt dus met gelijke hoeveelheid toe, zelfs ietsje meer. Maar zit in verhouding hetzelfde als met de 8700K aangezien beide processors op 14nm zijn gemaakt. De 9900k heeft 2 cores en 4 threads meer plus een ongeveer 17% groter oppervlak.

Of zie ik nu iets over het hoofd? :?
Inderdaad. Valt me overigens steeds vaker op dat je hier naar de comments scrolled voor de correcte informatie of feiten die de auteur over het hoofd ziet ....
Yup, Als ik redacteur dhr. Willem de Moor zie dan gaat bij mij weer automatisch de alarm af. Ik heb al vaker kritisch over hem uitgelaten. Niet persoonlijk op hem bedoelt maar als redacteur werk! Hij zet te vaak consumenten op het verkeerde been met zijn “reviews”. Dit moet echt meer benadrukt worden en lezers moeten kritisch blijven op redacteuren. Review en conclusie tweakers onwaardig en volstrekt raadsel waarom hij nog steeds op die positie zit. Lees maar eens 10 voorgaande “reviews” van hem door, dan zie je duidelijk een patroon. Maar Tweakers Pricewatch verdienmodel zal er absoluut niet rauwig zijn om hem. En ik denk nog steeds dat het daaom te doen is. Je slacht je grootste broodheer niet af.
Hij zet te vaak consumenten op het verkeerde been met zijn “reviews”
Zegt de AMD fanboy over de relatief postieve reviewer van een Intel product...

Er is genoeg schande te spreken over Intel, bv. schandalig dat een i7 model geen hyperthreading meer heeft. Dat de prijzen van de jaar oude i7-8700K (die wel hyperthreading heeft) met ruim €100 zijn gestegen sinds begin september.

Dat Tweakers niet meer de kwaliteit reviews en artikelen plaatst zoals vroeger wisten we allemaal al, dat is echt niet alleen bij Intel producten... Ik zie die zelfde dedicatie echter niet bij AMD reviews waar Willem de Moor zich niet negatief uitlaat over de CPU, maar wel weer als hij zich negatief uitlaat over een AMD CPU... Frapand...
Het is een processortest, op 4k gaan we meer de videokaart testen, die is dan de bottleneck
Op 1080p is de cpu de bottleneck: de gpu kan het dan wel bijhouden...
Gooi er voor de gein dan eens een Core i3-8100 en Ryzen 3 2200G in. Merk je dan op 1440p en 4k nog het verschil met een 9700K of 9900K i.c.m. een RTX 2080?
Ik snap de gedachte wel, maar mensen die deze processor aanschaffen gamen doorgaans niet op 1080p. Beantwoord dan in ieder geval de vraag hoe het verschil zich manifesteert op 1440p en 4k.

Ja, ik kan zelf ook wel bedenken dat het verschil dan kleiner is, maar hoeveel kleiner? Geen idee, want dat is niet getest. Er staat zelfs ' is dit de beste game processor?' in de titel, test dan ook op verschillende game situaties. Beantwoord dan de vragen of men met een hogere resolutie ook echt wat heeft aan deze processor.

Edit, vooral een reactie op het artikel.

[Reactie gewijzigd door hrichard op 19 oktober 2018 15:47]

We gaan een aantal benchmarks inplannen om extra tests met gaming te doen.
Voorstel:
8700K
9700K
9900K
2700X
Met een 2080 (Ti?) op 1080, 1440 en 4k
Welke games?
F1 2018
Shadow of the Tomb Raider
Battlefield 1
Assassins Creed: Odyssey
Wolfenstein II: The New Colossus
Acceptabel?
Wat je ook in die lijst zet, het is nooit goed genoeg ;).

Dat gezegd hebbende zou ik gewoon in de eerste plaats vasthouden aan wat we al 20 jaar doen bij het testen games met processoren; testen met de allersnelste gpu verkrijgbaar met daarbij een abnormaal lage resolutie zodat de potentie van elke processor goed kan worden uitgelicht. Natuurlijk neem je directe concurrenten mee; 2600X, 2700X, 8600K, 8700K, 9700K, enz.

Wil je dit uitbouwen naar de 'realistische' toepassingen? Pak dan 1440P erbij

Wil je de reviews moderniseren? Ga dan aub frametimes vermelden, zie https://techreport.com/re...look-at-game-benchmarking

Wil je een nuttiger beeld creëren voor je lezers? Pak dan de populairste cpu's erbij waarvan mensen gaan upgraden. Dat zijn op dit moment de 2500K, de 4670K, de 6700K, de 1600X/1700X.

Maar onthoud, al is je review kwalitatief nog zo goed, er zijn altijd mensen die er wat op aan te merken hebben. Wellicht is dat af te vangen met (beter) uitleggen hoe en waarom je test. Wat al zou helpen als ik thuis diezelfde benchmarks ook makkelijk kan draaien. Daarvoor moet ik eerst weten wat jullie precies gedaan hebben.

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 03:14]

Ik ben het helemaal eens met de i5 2500K en je zou er dan ook het topmodel van die tijd, de 2600K bij moeten doen. Toch twee behoorlijk populaire modellen, met ook nu nog veel gebruikers.

Was Ryzen niet zo'n succes geweest, dan had ik nog steeds de 2500K in mijn main rig gehad en pas geüpgraded naar de eerste mainstream 8 core 16 thread Intel.
Abnormale lage resolutie?

Ik denk dat 1080p medium tegenwoordig prima is, zolang je maar niet GPU bound bent.
Dat bijv. een 8700k sneller is dan een 2700X kan op dit moment wel zo zijn, maar mocht er een game komen die core-limited wordt dan kan dat opeens anders zijn. Abnormaal lage resoluties zeggen dus niks over game performance in de toekomst.
De buren hebben in januari nog een vergelijk gedaan met een I5 2500K t/m I5 8600K met een 1080Ti videokaart. In battlefield 1 op Ultra was het verschil in frame rate was 100%

https://nl.hardware.info/...080-ti-battlefield-1-dx12
De buren hebben in januari nog een vergelijk gedaan met een I5 2500K t/m I5 8600K met een 1080Ti videokaart. In battlefield 1 op Ultra was het verschil in frame rate was 100%

https://nl.hardware.info/...080-ti-battlefield-1-dx12
Die review heeft totaal geen nut omdat een 2500K stock op 3.3 GHz (3.4-3.7 boost) loopt maar in de praktijk op 4.8 GHz wordt gedraaid.

[Reactie gewijzigd door sdk1985 op 30 oktober 2018 00:45]

De rest is toch ook getest op stock? Als je de 2500K en de 8600K beide gaat overclocken zal het verschil dan niet gelijk blijven? Battlefield 1 draait op mijn 2500K op 4.5GHz met een RX580 nog vlotjes.
Dan ga je er vanuit dat beide cpu's relatief evenveel zijn over te clocken en dat bovendien die meerwaarde lineair doorschaalt. Beiden is helaas niet het geval. De 2500K is relatief hoger te clocken en er zijn bij gaming altijd zogenaamde diminishing returns, dat wil zeggen de fps stijgt minder naar mate je meer rekenkracht toevoegt. Dus om daar iets over te zeggen moet je echt een 2500K op hogere snelheden mee nemen in je test.

Je zou zelf kunnen kijken wat er gebeurd met je fps wanneer je de 2500K terug op stock zet.
Oh doe s.v.p. ook de Core i7-6700K er bij ! _/-\o_
OK,6700K erbij, en dan sluit ik het lijstje, moet een beetje behapbaar blijven :)
Dus:
8700K
9700K
9900K
6700K
2700X
Met een 2080 (Ti?) op 1080, 1440 en 4k
Welke games?
F1 2018
Shadow of the Tomb Raider
Battlefield 1
Assassins Creed: Odyssey (optioneel)
Wolfenstein II: The New Colossus

Persoonlijk vind ik de 2080 gek zat, maar Ti kan natuurlijk ook.
Ik zou graag willen weten wat het maximale mogelijk is van CPU en GPU qua FPS op 1440p en 4K.
De 9900K OC op 5.2Ghz met 2080 TI OC met bovenstaande games lijkt me een echte test.
Zo kunnen wij vergelijken of het wel de moeite is om bvb van een 6700K OC met 1080 TI OC te upgraden.
Dan wordt het op een gegeven moment geen processorreview meer, maar een zoektocht naar optimale hardware voor spel X. Er is een afweging tussen tijd die we in benchmarks kunnen steken en het nut van die benchmarks. Dan komt er zoeken naar beste mem-settings bij, welke games kies je (de verkeerde, want er is altijd iemand die een andere game wil dan we getest hebben) etc. Op een gegeven moment zijn we dan weken of maanden bezig met de benchmarks :)
Topper! Ik ben echt blij dat die CPU er nog bij past. _/-\o_ Wat games betreft heb ik geen voorkeur.
Het maakt niet uit hoeveel games je er tegen aan gooit. Met de huidige testmethode heeft dat gewoon weinig nut. Jullie zullen toch eerst de testmethode volledig op de schop moeten gooien omdat die totaal niet overeenkomt met de praktijk.

Het is al zo vaak uitgelegd maar zolang je games niet test onder de zwaarste momenten, maar gewoon een willekeurig moment neemt en ook nog eens veel te kort test blijft het een test die totaal niet klopt met de praktijk. Om maar een van de problemen aan te halen die jullie hebben.
Zou graag zien dat Ashes of the Singularity ook word gebruikt in de benchmarks, gezien die heel goed geoptimaliseerd is met DX12 en multi core work loads.
Heh jammer, stiekem hoop ik dat het lijstje toch niet dicht is ;).
Ik zou het heel interessant vinden om de 8350K (=7600k) in het lijstje te zien, welke overgeklokt is naar 4.7GHz.
Dat kunnen ze vrijwel allemaal zonder instabiel te worden en met een redelijk voltage (1.3V of minder).
Nu de prijzen zo hoog zijn bij Intel, kan dat voor de gamer met een budget een betere keuze zijn.
Ik verwacht zelf dat het verschil met de 9900k op stock dan slechts iets van 10% is en dat voor 1/3 van de prijs.
Dus 4 intels vs maar 1 amd, ben ik de enige die dit een beetje raar vindt? Het idee is leuk, maar waarom niet iets uitgebreider met ook de lage klasses cpu van beide merken om het gelijk goed te doen?

Dan weten we gelijk of die hogere klasse cpu's nou echt het verschil maken.
Ik zou graag een game benchmark willen zien ter vergelijking met amd waar kloksnelheden gelijk zijn
Zou de 6700k vervangen voor de 7700k wat tong echt meer tot voor kort DE game cpu was.
de 2080 is gewoon een 1080ti...
Denk dat de i7 4790k een cpu is die nog meer gebruikt wordt op dit moment :)
Goeie! Misschien ook een idee om er een wat oudere i7 4 core 8 thread in te gooien? Een i7 4770k of een 6700k. Ik ben serieus benieuwd.
Kan de Intel Core i7-6700K erbij?
Goed idee.

Een 1800x, 1700 of 1600 zou ook goed zijn voor de vergelijking.

Waar zit het kantelpunt, welke processor kun je (minimaal) kiezen zodat je maximaal geld over houdt voor een gpu?

Odyssey zou ik persoonlijk helemaal niet testen, waardeloos geoptimaliseerd spel en zegt helemaal niets over de kwaliteit van de hardware. Ik zou die inruilen voor bijvoorbeeld far cry 5.
Zouden jullie bij OC ook een 2700X met minimaal 3466Mhz geheugen willen meenemen?, intel ook met hogere geheugen snelheid.

Assassins Creed kan van mij weg vallen omdat de game engine waardeloos is, neem games met een betere game engine mee, misschien wat oudere games maar wel representatief voor de toekomst.
OK, Odyssey weg, kijken of we en Ryzen 1 erbij kunnen doen, en we zullen kijken om ook wat rapper geheugen te doen. Let wel, het begint een beetje een tall order te worden, da's niet in drie dagen in te plannen qua testcapaciteit. Maar we zetten het op de planning!
Te begrijpen, wij tweakers vragen allemaal nogal veel.
Acceptabel nou nee de consument heeft klein deel een 2080TI
dus een 1060 .
Ik ga CPU aankoop niet beslissen door bench setup met Gkaart ver boven budged.
Omdat dat niet realistisch is voor budget beperkte koper die geen €1500 GPU matchen met hun CPU.

En allemaal games die niet relevant zijn voor mij.
Maar hoe moet ik nu een processor kiezen voor een nieuwe 4K gaming rig? Dan kan ik dus het beste een i3 of Ryzen 3 kopen en het bespaarde geld aan een RTX 2080ti besteden?
Kijk naar de benchmarks op 1080p en je weet het antwoord. 4K of 1080p maakt voor de CPU eignelijk niet uit dus als de CPU op 1080p de gewenste FPS haalt haalt die dat zo goed als zeker ook op 4K.

Maar ik zie een i3 nog niet zo snel de 100+ FPS aantikken in de meeste spellen.

En je bent natuurlijk in de toekomst in het nadeel als er meer games komen die gebruik maken van meer cores zoals Battlefield.

[Reactie gewijzigd door n3othebest op 19 oktober 2018 16:19]

Een snelle CPU geeft meer frametime vrij voor GPU aandeel.
Dus je hoeft niet de beste maar wel een rond of tegen de de high-end.
dat geld meer als de cPU load in 10% is dan maak iets mindere CPU niks uit.
Voor lichte games onder 10% wordt resultaat vlak.
voor CPU last van 30% zal langzamere CPU dat aandeel stuk duidelijker afsnoepen van GPU aandeel en dus CPU aandeel vergoten en dus wat lagere FPS geven.
Het effect van midrange GPU is daar ook wat groter.
Wat is eigenlijk de reden dat je nog win10 1709 gebruikt?
Omdat we niet om de haverklap alles opnieuw kunnen testen om een nieuwe driver of Windows-versie te gebruiken. We willen de versies in de vergelijkingen namelijk gelijk houden. Als we elke elke review de nieuwste drivers van dat moment en nieuwste Windows willen gebruiken, zijn we overal twee weken te laat mee.
Wel eens gecontroleerd of je niet te veel verschillen krijg als gevolg van patches voor spectre / meltdown / l1tf, of bijv. kernel / scheduler aanpassingen voor nieuwe procs? Als ik aan AMD TR onder Linux denk bijv. daar zag je behoorlijke verschillen in de tests.
1080p is niet het sterkste punt van AMD volgens mij
IPC en klok is net wat minder dan intel tegen hangers dus is intel in cpu afhankelijke settings bij tophigh-end gkaart wat sneller.
Belangrijk als online hectische esport bunny hop shooters speeld.

Offline SP sandbox adventures of RPG slow pace games op 4K maakt het stuk minder uit.
Ik snap dat 1080p wordt gekozen omdat daar de CPU de bottleneck vormt, maar wat voor veel mensen interessant is, is de vraag: Kan ik beter meer geld stoppen in een betere GPU of in een betere CPU en waar ligt het omslagpunt?

Iemand die geinteresseerd is in de 2700X of 9900k en kaarten als de 1080 Ti zal meestal niet op 1080p spelen. En hoewel het goed is om te weten dat de 9900k de snelste game-CPU is, is het veel interessanter om te weten hoeveel je daarvan merkt in de praktijk en of je er niet beter af bent om niet voor de snelste CPU te gaan en het op deze manier uigespaarde geld in een GPU upgrade te steken. Of juist niet. Een test/review die hier inzicht in geeft zou erg leuk zijn.
In de sub titel van deze review lees ik de vraag "Zijn dit de beste gameprocessors?". En vervolgens wordt deze vraag nergens concreet beantwoord. Het is geen open vraag, dus het is een ja of een nee. Ik ben erg benieuwd hoe Intel zich verhoudt tot AMD met deze nieuwe processors. Zeker ook gezien de recente berichtgeving waaruit naar voren kwam dat Intel aan oneerlijke benchmarks doet. Misschien is het goed om concreet de vraag uit de sub titel nog te beantwoorden en om ook nog in te gaan over welke processor waar het best tot zijn recht komt.
Het antwoord is ja. Zo simpel is het. Maar goed, je betaalt ook aanzienlijk meer voor die gemiddeld 10-15% die je aan game prestaties inboet met Ryzen.
Is dat zo? Voor alle games ouder dan Ryzen/TR hebben we het over FPS verschillen ver voorbij de 144. Dat boeit dus geen bal meer voor het gamen.

Ik zou even wachten op een game van deze generatie, dit jaar zijn er nog bar weinig AAA titels uitgekomen.

Hier wordt het topsegment van Intel vergeleken met de middenmoot van AMD, logisch dat je dan de indruk krijgt dat: Ja, Intel is beter voor gamen.

Pak een goed geoptimaliseerde game zoals BF1 en het beste van AMD, de Threadrippers. En AMD haalt gewoon meer FPS.

De review van Tweakers is pro-Intel, geen eerlijke vergelijking, totaal geen objectieve review. Een CPU van 318 euro tegenover een CPU van 649 euro zetten, uhuh. Terwijl je dus een Threadripper 1950X kan halen voor 762 euro.

Momenteel lijkt het er sterk op dat als je echt de beste CPU voor gamen wilt hebben, dat je daarvoor bij AMD moet aankloppen :)
1 game zegt natuurlijk niet zo veel.. Threadrippers er bij als vergelijking was wel leuk geweest, maar het lijkt me volstrekt logisch om de high end amd consumenten cpu tegenover die van intel te zetten. Hadden ze de 2700x maar weg moeten laten in de review?
Intel is maar deels verantwoordelijk voor zijn prijzen, en al helemaal niet voor die van AMD ;)

Er valt vanalles op die 9900k aan te merken, maar niet dat het niet de allround snelste keuze voor de doelgroep is..
Ze hadden de 2700x inderdaad beter weg kunnen laten. Het is niet de tegenhanger van de i9. Deze review doet AMD alleen maar schade. Dat terwijl AMD gewoon een waardige tegenhanger in zijn assortiment heeft zitten, nu wordt AMD weggezet als waardeloos.

Tweakers doet nu exact hetzelfde waar ze enkele dagen geleden nog een nieuws bericht over gepost hebben. nieuws: Intel krijgt kritiek op Core i9-9900K-test die AMD-processors benadee...

De Intel marketing machine doet zijn werk goed. Ik ben er een beetje verbaast over dat Tweakers daar niet doorheen prikt. Willen we weer zo veel vooruitgang als de ~5 jaar voor dat AMD met Ryzen kwam? Elk jaar blij zijn met een paar % performance verbetering. Tweakers doet gewoon mee aan het AMD zwart maken, en dat vind ik eigenlijk niet kunnen. Sterker nog, Tweakers moet zich schamen.
Ze hadden de 2700x inderdaad beter weg kunnen laten. Het is niet de tegenhanger van de i9. Deze review doet AMD alleen maar schade. Dat terwijl AMD gewoon een waardige tegenhanger in zijn assortiment heeft zitten, nu wordt AMD weggezet als waardeloos.

Tweakers doet nu exact hetzelfde waar ze enkele dagen geleden nog een nieuws bericht over gepost hebben. nieuws: Intel krijgt kritiek op Core i9-9900K-test die AMD-processors benadee...

De Intel marketing machine doet zijn werk goed. Ik ben er een beetje verbaast over dat Tweakers daar niet doorheen prikt. Willen we weer zo veel vooruitgang als de ~5 jaar voor dat AMD met Ryzen kwam? Elk jaar blij zijn met een paar % performance verbetering. Tweakers doet gewoon mee aan het AMD zwart maken, en dat vind ik eigenlijk niet kunnen. Sterker nog, Tweakers moet zich schamen.
Huh wat? AMD levert notabene speciale software bij Threadripper die er voor zorgt dat je de helft van je cores niet kunt aanspreken zodat je geen last meer hebt van de inter-core latencies. Dat geeft al aan dat die cpu lijn totaal niet is bedoelt om mee te gamen...

AMD is verder heel duidelijk geweest in zijn lineup. Ze hebben letterlijk op slides gezet hoe elke cpu is gepositioneerd. De hoogste gaming cpu die ze nu hebben in de 2700X en die was volgens de slide nieuws: Presentatie van AMD Ryzen 2000-processors op 12nm verschijnt online met $369 dollar de tegenhanger van de $370 dollar kostende 8700K van Intel. Dat is geen toeval, dat is bewuste positionering van AMD.

Daar is verder niets mis mee, dat is zelfs een geweldige vooruitgang. Vergeet niet dat AMD jaren lang niet verder kwam dan cpu's van pak hem beet maximaal 150 dollar. Alleen nu heeft Intel een cpu uitgebracht welke simpelweg nog hoger is gepositioneerd, maar die NIET binnen HEDT valt. Dat is heel slim want daar heeft AMD simpelweg geen antwoord op.

Dit is een situatie die AMD zelf heeft gecreerd
. Ze kwamen vorig jaar met de 1800X welke boven het duurste aanbod van Intel zat. Intel positioneert zichzelf als premium werk dus die zullen ongetwijfeld direct aan een $499 kostende tegenhanger begonnen zijn. Die tegenhanger komt nu op de markt. Dat AMD ondertussen in haar refresh de eigen $499 cpu is 'vergeten' werkt marketing technisch in het voordeel van Intel. Bij dit soort tests zie je dan dat AMD trager is. De 'fout' ligt hier bij AMD zelf, niet bij tweakers. AMD heeft zelf het $499 segment opgezocht om het vervolgens na een jaar weer te laten vallen en dus volledig open te laten voor Intel.

AMD lijkt overigens de prijzen nog iets te hebben verlaagd dus die spelen gewoon weer de underdog kaart met de value for money propositie. Met de huidige prijzen van Intel zal dat ongetwijfeld voor meer volume zorgen. Het hoeft dus niet heel problematisch te zijn...

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 02:36]

Het blijft uiteraard een kat en muis spel tussen Intel & Amd.
De 1800x was destijds wel het paradepaardje van AMD en in feite heeft Intel eigenlijk al daar een antwoord op gegeven door soortgelijks een gepimpte 8700k ala 8086k uit te brengen.

In die zin is de 9900k ook geen tegenhanger meer, maar gewoon iets dat boven het aanbod van AMD geplaatst moet worden, zowel qua prijs als prestatie.
Ik lees daar veel discussie over, maar mij lijkt het pragmatisch/logisch om te bekijken wat het marktaanbod op het moment van uitbrengen is.
Wanneer je dat in ogenschouw neemt, dan zie je ook een aardige tendens naar meer cpu/cores voor een lagere prijs.

In januari 2017 bracht Intel de 7700k uit als topmodel voor de desktop markt.
Enkele maanden later sprong AMD met zijn Ryzen cpu's weer in de markt en schoot in een keer raak wat betreft multicore prestaties,
Prijstechnisch werd de 1700x daar tegenover geplaatst en voor een premium was er ook de 1800x verkrijgbaar, dat net dat beetje meer prestatie bood.
Het kaf van het koren zeg maar.
Om daar tegengewicht aan te bieden reageerde Intel (in paniek), door de 8700k reeds 9 maanden na de 7700k uit te brengen.
Prijstechnisch werd deze tussen de 1800x & 1700x geplaatst, die toen al aardig in prijs waren gedaald.
Amd op zijn beurt reageerde weer door (in mei 2018) de 2700x uit te brengen en kreeg daarmee weer een multicore voorsprong in handen.
En zoals je al genoemd hebt, voor eenzelfde prijs als de 8700k.

Op dit moment komt Intel weer met een reactie, door nog meer cores erbij te plaatsen en de kloksnelheid verder op te schroeven.
Bekijk je de adviesprijzen dan is de 9700k tegenover de 2700x gepositioneerd en bevindt zich de 9900k op de eenzame troon.

Maar je kan er met zekerheid vanuit gaan, dat het niet voor lange duur zal zijn.
Het is mogelijk dat AMD een troef achter de hand heeft gehouden in de vorm van een 2800x.
En zo niet dan zal Zen2, dat gepland staat voor 2019, een reactie zijn op de 9xxxk serie van Intel.
De kans bestaat dat AMD dan met nog meer cores voor de desktop markt komt en zal naargelang de prestaties tegenover de dan geldende prijzen van wederhelft Intel positioneren.
Het zou mij niet verbazen als er dan ook een Ryzen 3900x verschijnt :)

[Reactie gewijzigd door CMT op 20 oktober 2018 08:11]

De 9900k is voorzover ik weet gepositioneerd als desktop cpu op het consumenten socket 1151 platform. Wat jij ook verder vindt, dan is 1 van de logische cpu's om hem mee te vergelijken de 2700x

Daarbij, prijs/prestatie wint de 2700x gemakkelijk, dus zo oneerlijk is de vergelijking niet. Puur kijkend naar snelheid is de 9900k gewoon de sneller cpu.

Threadrippers had ik ook graag gezien! Maar het zijn gezien het platform niet de logische cpu's om de 9900k mee te vergelijken. Op dit moment wel qua prijs, maar wat als de 9900k nu daalt naar 400 euro en de threadrippers duurder worden?

Allround winnen Threadrippers het ook niet van de 9900k gekeken naar de doelgroep van het 1151 platform.
Waar het gepositioneerd wordt...

Van amd.com:
AMD Ryzen™ Threadripper™ is a high-performance gaming processor
Volgens mij adverteren AMD en Intel deze CPU's op dezelfde manier.
https://www.amd.com/en/pr...ocessor-bigger-better-2nd

https://newsroom.intel.co...-gen-intel-core-i9-9900k/
Intel heeft het bij z'n HEDT platform ook over gaming natuurlijk, dus dat bewijst niks.

socket TR4 is tegenover 2066 gezet, AM4 tegenover 1151..

De prijzen van TR4 en 1151 groeien op dit moment wat naar elkaar toe, dus vergelijken is logisch en interessant maar geen reden om in de war te raken.
Ik denk dat de meeste gamers toch op 1440p games veel spelen, daarbij is er veel meer een GPU limiet dan een CPU limiet. Veel reviews gaan daarom juist terug naar 1080p zodat dit andersom zit: meer CPU limiet dan GPU limiet.
Ga ik toch kijken naar 1440p gamen dan scheelt een R7 2700X hooguit 5% t.o.v. de 9900k, zie: Techpowerup: game tests 1440p.

Wat ik zou doen als ik een nieuw 1440p gaming systeem zou bouwen op dit moment is een R7 2700X kiezen, en het geld dat je bespaart (ruim 300 euro) steken in een zwaardere GPU.

Wat betreft de vraag wat "de beste" game processor is op dit moment: ja dat is dan een 9900K, maar voor veel teveel geld.
Intel gooit dit op tekorten in productie capaciteit, dus de eerder vermelde prijs van ongeveer 450 euro wordt hij voorlopig niet.

[Reactie gewijzigd door Jorn1986 op 19 oktober 2018 23:18]

Ik denk dat de meeste gamers toch op 1440p games veel spelen, daarbij is er veel meer een GPU limiet dan een CPU limiet. Veel reviews gaan daarom juist terug naar 1080p zodat dit andersom zit: meer CPU limiet dan GPU limiet.
1440P is momenteel bij steam gestagneerd qua groei. Marktaandeel is nog zeer laag:
1920 x 1080 62.06%
1366 x 768 13.51%
2560 x 1440 3.59%
1600 x 900 3.53%
1680 x 1050 2.56%
1280 x 1024 2.07%
3840 x 2160 1.32%
In steam.... waar grotendeel van de PCs Dota 2 en CS:GO speelt met low-end pc's.
De populairste videokaart in diezelfde steam charts is een GTX 1060 dus dat valt best wel mee.
Hmmm interessant! :)
Het is eigenlijk wel weer jammer dat er dan geen verdere differentiatie is in de Steam charts naar mid-range, high-end systemen en hardware enthusiasts wat betreft gebruikte schermresolutie.
Ik denk namelijk nog steeds dat als iemand het geld over heeft voor een i9 9900k op dit moment eerder in het rijtje high-end systemen en hardware enthusiasts zullen zitten, en deze doelgroep toch eerder richting 1440p of zelfs 4k als resolutie gaan, waarbij veel meer GPU kracht nodig is.
Eigenlijk heb je hier best een vreemde redenering naar mijn mening. Ze zetten juist, binnen het consumenten segment de toppers van Intel tegenover de topper van AMD binnen dat segment. Threadripper is niet echt een consumenten cpu, maar een HEDT cpu. en juist bij gaming zal die Threadripper het vaak minder doen dan de 2700X. Objectief zou ik juist zeggen dat ze juist de correcte cpu's tegenover elkaar zetten (al had van mij de 2600X er ook nog wel bij gemogen). AMD kan bij Threadripper wel adverteren met "gaming cpu", maar dat is imho slechts marketing.

Ik zie eigenlijk niet hoe deze review "Pro" Intel is, slechts in absolute zin doet Intel het iets beter. Pak je prijs / performance is het juist meer een affiche voor AMD imho. Nee, ik vind deze review eerder gunstig voor AMD's Ryzen consumenten platform dan voor Intel.

[Reactie gewijzigd door Dennism op 19 oktober 2018 21:03]

Intel heeft de beste CPU voor gaming. Zo moeilijk is dat toch niet? Best bang for buck? Zeker niet! Maar dat is weer wat anders.
In 1080p... Ik kan mij voorstellen dat iemand die zoveel geld uit zou geven aan een processor, en een degelijke koeloplossing, niet met een heel degelijke videokaart op 1440p of 4k zit te gamen. Dan is het verschil nog veel kleiner of zelfs helemaal weg. Daar betaal je dan wel een paar honderd euro extra voor.
Dat betwist ik ook niet ;)

Sterker nog, ik speel met veel plezier op een 2700X op 4GHz met een 1070Ti op 1440p en dat loopt als een spoortrein :)
Maar dan is het antwoord toch niet simpel weg ja?

Dat ligt aan de rest van de setup en eisen van de betreffende persoon.
Niet helemaal. Een CPU benchmark is pas effectief als de beperking niet bij de videokaart ligt, dan kan je onderlinge verschillen in kaart brengen. Dat doe je niet op 1440 en 4K want dan verschuif je de beperking naar de videokaart.
Het einddoel is tonen hoeveel verschil er in de ideale situatie is tussen de processoren.
Ja, maar wat probeer je dan aan te tonen. Omdat er zo goed als geen performance verschil is op een steeds meer gangbare resolutie ( zeker onder dit doelpubliek) test je dan maar op één lage resolutie. Dat is alsof je een 4x4 wagen en een Lexus enkel gaat vergelijken op een veldweg om dan te zeggen dat de 4x4 wagen sneller rijdt. En waarom worden er anno 2018 nog altijd geen benchmarks gedaan met gaming + streaming simultaan?
En waarom worden er anno 2018 nog altijd geen benchmarks gedaan met gaming + streaming simultaan?
O.a. Gamernexus heeft die gedaan. Tegenwoordig kun je echter hardware matig streamen, via Intel Quickpatch, NVENC, enz.
Ja, maar wat probeer je dan aan te tonen
Je brengt het verschil tussen processoren in kaart. Vergelijk het met de topsnelheid van een Fiat Panda en een Ferrari. Je weet dat de ene afhaakt bij 150 en de andere bij 330 echter op de snelweg rijden ze in de praktijk bij benadering even snel.

Dit is iets dat al circa 20 jaar in cpu benchmarks voorkomt puur omdat dit de enige manier is om in te schatten hoe jou cpu gaat presteren bij een toekomstige snellere gpu die nu nog niet bestaat maar ongetwijfeld gaat komen.
Deze vergelijking gaat niet op. Als je een Fiat vergelijkt met een Ferrari vergelijk je 2 afgewerkte producten, en geen afzonderlijke onderdelen. Door het feit dat de 9900K + koeler maar liefst 355 euro duurder is heeft een nieuwe PC bouwer dat budget over om extra te spenderen aan een betere GPU. M.a.w. dat is het prijsverschil tussen een RX 580 en een 1080TI.

Neem daar dan nog de zekerheid bij dat de 9900K nooit geüpgraded kan worden en je dus volgende keer met 100% zeker mobo+CPU moet upgraden, terwijl de kans reëel is dat de X470 AM4 socket volgend jaar Ryzen 3xxx CPU's gaat ondersteunen, dan is de Ryzen 2700X toch duidelijk de winnaar.

Voor mij is dit de fout die zoveel reviewers maken. Wanneer men 2 testsystemen gebruikt, probeert men deze zo goed mogelijk te evenaren op gebied van specs, en niet op prijs. Terwijl in realiteit de aankoopprijs voor 90% van de populatie echt wel van belang is. Daarom lijkt me het niet slecht om een 3e testsysteem te gebruiken op platform A dat evenveel kost als het testsysteem op platform B. Want uiteindelijk moet je een review toch beschouwen als een soort van aanbeveling voor de consument. En in de conclusie zou ik moeten lezen "Alleen iemand die goed zot is zal 355 euro meer uitgeven aan een CPU op een 'end of life' platform, die nauwelijks sneller is." Want dat is de ECHTE conclusie.

Mensen geven vaak het argument, "De consument die deze CPU koopt, zal deze toch altijd combineren met een top of the line GPU." en dat is gewoonweg niet waar. Er zijn genoeg mensen die bij de samenstelling van een PC best wat meer uitgeven aan geheugen, moederbord aan CPU met als doel deze een jaar of 3-5 te behouden en nadien alleen de GPU te upgraden. Want begrijp me niet verkeerd, de 9900K combineren met de RX 580 zal voor de meeste gamers voldoende performance opleveren op 1080p en 1440p.

[Reactie gewijzigd door JRMBelgium op 20 oktober 2018 05:26]

Deze vergelijking gaat niet op. Als je een Fiat vergelijkt met een Ferrari vergelijk je 2 afgewerkte producten, en geen afzonderlijke onderdelen. Door het feit dat de 9900K + koeler maar liefst 355 euro duurder is heeft een nieuwe PC bouwer dat budget over om extra te spenderen aan een betere GPU. M.a.w. dat is het prijsverschil tussen een RX 580 en een 1080TI.

Neem daar dan nog de zekerheid bij dat de 9900K nooit geüpgraded kan worden en je dus volgende keer met 100% zeker mobo+CPU moet upgraden, terwijl de kans reëel is dat de X470 AM4 socket volgend jaar Ryzen 3xxx CPU's gaat ondersteunen, dan is de Ryzen 2700X toch duidelijk de winnaar.

Voor mij is dit de fout die zoveel reviewers maken. Wanneer men 2 testsystemen gebruikt, probeert men deze zo goed mogelijk te evenaren op gebied van specs, en niet op prijs. Terwijl in realiteit de aankoopprijs voor 90% van de populatie echt wel van belang is. Daarom lijkt me het niet slecht om een 3e testsysteem te gebruiken op platform A dat evenveel kost als het testsysteem op platform B. Want uiteindelijk moet je een review toch beschouwen als een soort van aanbeveling voor de consument. En in de conclusie zou ik moeten lezen "Alleen iemand die goed zot is zal 355 euro meer uitgeven aan een CPU op een 'end of life' platform, die nauwelijks sneller is." Want dat is de ECHTE conclusie.

Mensen geven vaak het argument, "De consument die deze CPU koopt, zal deze toch altijd combineren met een top of the line GPU." en dat is gewoonweg niet waar. Er zijn genoeg mensen die bij de samenstelling van een PC best wat meer uitgeven aan geheugen, moederbord aan CPU met als doel deze een jaar of 3-5 te behouden en nadien alleen de GPU te upgraden. Want begrijp me niet verkeerd, de 9900K combineren met de RX 580 zal voor de meeste gamers voldoende performance opleveren op 1080p en 1440p.
Gevaar van de anologie is dat iemand er heel serieus op in gaat. Maar goed redenaties zoals die van jou doen mij een beetje oud voelen. Ik krijg daarvan de neiging om dingen te gaan roepen als daar heb je een millenial die voor elke scheet een gouden plak van excellentie wil ontvangen :P .

Wat jij uiteindelijk zegt te willen is dat een reviewer jouw precies gaat voorkauwen hoe een component gaat presteren in een systeem zoals jij dat zou bouwen. Daarbij moet die reviewer rekening houden dat jij het oke vindt om bijvoorbeeld 300 euro uit te geven aan een RX 580, terwijl jouw beste vriend het liever op 230 euro houdt voor een 1060 3GB en oom Kees net de loterij heeft gewonnen en een 2080 Ti erbij zit. Het liefst dan ook nog even testen met 8, 16, 32, 64, 128 GB ram en dan ook nog even testen wat er gebeurd als je nu 1x 16 GB ram reepje gebruikt zodat jij later nog 16 GB kunt bij prikken. Dan mis je namelijk die dual channel bandbreedte en het is voor jouw toch wel heel fijn om van te voren even te weten hoe dat gaat presteren. Voor mij is dit soort redenaties de definitie van absurdheid, doe zelf eens wat moeite... We leven in een tijd dat je elk onderdeel dat je aanschaft binnen 14 tot 30 dagen terug kunt sturen. Pakt het niet lekker uit, stuur het dan terug!

Testen zoals jij dat wenst is een onmogelijkheid. Er moet dan zoveel worden getest dat het onleesbaar wordt. Bovendien krijg je dan hele nietszeggende resultaten. De resultaten op de hogere resoluties verklappen dit al, elke cpu dezelfde gemiddelde fps. Op basis daarvan zou je dan concluderen dat elke cpu even goed is. Iets dat absoluut onjuist is, getuige de verschillen op de lagere resoluties. Die verschillen ga je terug zien in andere toepassingen, andere games, combinaties met andere videokaarten, enz. Het is juist essentieel dat die verschillen worden blootgelegd. Aangezien bij een pc de prestaties altijd wordt beperkt door de bottleneck kun je dan ook niets anders doen dan bottlenecks wegnemen. In het geval van een cpu test dus ruim voldoende geheugen, de snelste videokaart die je kunt vinden, het liefst een wat te lage resolutie, enz.

De duiding van heb bovenstaande kun je vervolgens zelf uitvogelen. Immers de videokaarten reviews worden op dezelfde manier gemaakt (met de aller snelste cpu) en ergens ligt voor jouw budget daar een kruispunt.

Wil je klagen over de manier hoe tweakers test, helemaal prima. Tweakers doet namelijk 7 jaar na het aantonen van het belang van frametimes helemaal niets met frametimes https://techreport.com/re...look-at-game-benchmarking . De gemiddelde frames per seconds zijn soms nets zo weinig zeggend als de fps bij hoge resolutie.

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 13:50]

Waarom dan niet 720p, of een nog lagere resolutie.

Als 1080p is gekozen omdat dit de meest voorkomende resolutie is vind ik dat nog al een rare keuze, gezien de CPU's zelf al 550+ euro kosten.
Ik betwijfel ten zeerste dat iemand die zoveel geld voor een CPU over heeft nog gebruik maakt van 1080p.

(Uiteraard kan ik het wat betreft het gebruik van 1080p mis hebben, maar dan nog, waarom niet een lagere resolutie?)
Ik betwijfel ten zeerste dat iemand die zoveel geld voor een CPU over heeft nog gebruik maakt van 1080p.

(Uiteraard kan ik het wat betreft het gebruik van 1080p mis hebben, maar dan nog, waarom niet een lagere resolutie?)
Tja ik heb zelf een 8700K met een GTX 1070 en dan kom je toch echt op 1080P, of in mijn geval 2560x1080 uit. Op 2560p zou ik in Ghost Recon wildlands bijvoorbeeld maar 40 fps halen: https://www.techpowerup.c...st_Recon_Wildlands/5.html

Om Wildlands op 60+ fps te spelen zou ik moeten upgraden naar een 1080 Ti a 700 euro en dan nog een 1440P scherm aanschaffen wat ook snel 300 euro wordt. Dus dat 'geintje' kost vervolgens 1000 euro. Dat is een gigantische stijging ten aanzien van de kosten van mijn originele systeem, ook al was de cpu 405 euro. Zonder videokaart, reeds in 2016 gekocht, zat ik op 1200 euro en dan had ik een hele luxe be quiet kast.

Als die 1080 Ti performance op 400 euro zit praten we weer verder. Als je tegen die tijd ineens 1440p op 60-100 fps kunt spelen dan valt het te overwegen. Maar het zit er dik in dat tegen die tijd de games ook weer zwaarder zijn geworden en je dus alsnog net tekort schiet.

[Reactie gewijzigd door sdk1985 op 20 oktober 2018 13:50]

Maar waarom dan een i7 8700k kopen. Had je net zo goed een i5 8600k kunnen kopen voor 300 euro, bespaar je 175 euro die je bij je videokaart had kunnen leggen....

(Uitgaande van de huidige prijzen.)

Tevens speel ik zelf op 1440p (144hz) met een 5820k en een Fury en (in de games die ik speel) zit ik eigenlijk altijd wel op of boven de 60fps. (AA uit, in de meeste games.)
Dat zou ik normaal ook doen, geloof dat er 1 game was in de reviews waarbij de 8700K betere frame times had. Alleen de 8600K kwam wat later pas op de markt (en kreeg ik de BTW terug dus die 400 euro incl btw was niet zo'n probleem).
Dus leg je een resolutie beperking op wat ook niet eerlijk is of wel?
Je verschuift het op in het voordeel van Intel ook wel.
Nou ja, als een CPU op een bepaalde resolutie er niet toe doet kan dat ook een prima conclusie zijn toch? Uiteindelijk gaat het om het gamen, niet om de CPU.
My point exactly!
Met het prijs verschill tussen de twee kan je dit gemakkelijk goed maken door sneller RAM en/of GPU te kopen.

Maar de 9900K is idd de betere gaming CPU, Al maakt het op 1440p & 4k minder uit.

[Reactie gewijzigd door Jonathan-458 op 19 oktober 2018 16:40]

De vraag moet dan niet zijn of het de beste is maar of het de snelste is.
Het antwoord is eigenlijk nee. De kosten staan niet in vergelijking met de prestaties.

Op ruwe prestatie gebied haalt Intel het meeste binnen, maar als je gaat kijken naar performance/cost is AMD hier echt wel de winnaar, en niet zo'n klein beetje ook.
dat is maar hoe je er naar kijkt. als je no 15 tot 30% meer fops uit dezelfe gpu haalf betekend dut dat je later pas je gpu goeft te upgraden. Dit bespaard geld en dat bedrag moet dus van je cpu afgetrokken worden.
Dit betekend ook dat je je cpu dus langer mee gaat en je die later hoeft te vervangen om je volgende gpus niet te bottlenecken. Wederom een besparing die je van je cpu prijs af moet halen...

Als je cpu dus maar 4 jaar ipv 5 jaar mee gaat bespaar je dus 25% van 300 euro 75 euro dus.
als je gpu 4 ipv 3 jaar mee gaat met een gpu prijs van 450 euro (mijn 1070) bespaar je dus 150 euro.
kortom een besparing van 225 euro wat je dus eigenlijk van je cpu prijs af kan trekken en dan is het verschil ineens niet meer zo groot.
En dan heb ik het nog niet eens over het feit dat je met een ryzen een 1080 nodig heb met veel games dezelfde prestatie te krijgen als een 1070 met een intel cpu. het verschil in die gpu prijs moet je ook in de gaten houden.
En dan is er nog het verschil in stroomverbruik van snellere gpu's.
in het totale plaatje kan 1 duurder onderdeel op de lange termijn beter uitvallen.
Ik zou graag game benchmarks willen zien waar bijde gelijk geklokt zijn,
Performance is gerelateerd aan IPC en klok. Zo als het in de praktijk ook gebruikt wordt. AMD Zen is nog vers 2gen en is er dus nog ruimte voor verbeteting in IPC en klok schaling waarbij iNtel 14+++ zwaar door ontwikkelde proced is.
Bij intel zet het met IPC en klok ceiling wel goed.
AMD loopt daar iets in achter maar omdat beide is tikt het net wat harder aan.
Ik denk zelf wel dat de 9900K wel de beste gameprocessor is, ondanks het gesjoemel door PT. Maar als we het dan over de prijs gaan hebben denk ik wel dat je beter voor een 2700 of 2700X kan gaan.
Hij is de betere game-cpu (op resoluties waar de CPU echt belangrijk is, dus 1080p en lager). Maar als je 300 euro bespaard door voor AMD te gaan kun je van je RTX2080 een RTX2080Ti maken. Daar zit veel meer prestatiewinst, zeker op hogere resoluties.
Of je kiest gewoon beide. Ik heb inmiddels een RTX 2080 Ti aangeschaft en ik heb geen zin om daarna te gaan beknibbelen op een processor. Bovendien zal ik met toekomstige kaarten minder last hebben van een bottleneck op hogere resoluties.
op hogere resoluties gaat je toch geen last hebben van CPU bottlenecks.

En de meeste mensen hebben geen ongelimiteerd budget.

[Reactie gewijzigd door Countess op 19 oktober 2018 17:45]

Niet helemaal waar. er zijnnog zat games waar er ook op 4k gewoon een 15 +% verschil in fps zit.
hert hangt dan veel meer van de game af maar laten we eerlijk zijn single gpu 4k ultra is een nogo in veel games 1080p en 1440p is waar nu de prio ligt.
Volgens mij moet je heel goed zoeken om iets te vinden met 15% verschil op 4k.
Nee hoor ongeveer een derde van de games bij reviews in 4k heeft nog altijd voordeel bij een intel chip.
Blijkbaar is er toch iets wat er bij de amd chips gewoonj niet helemaal goed gaat.
Heb nog altijd niet uit kunnen vinden waarom of wat er aan de hand is met de ryzen chips.
net als dat ik er nog altijd niet uit ben waarom de threadripper 1950 in sommige games fors sneller is als beide de intel en de ryzens.
Blijf het allemaal een apart verhaal vinden maar ja nummers liegen niet. wel hoop ik door de prijzen van intel dat amd met ryzen 3 eindelijk de mhz omhoog weet te pompen en de dingen waar het nu helemaal fout gaan in de prestaties op weet te lossen want per mhz zijn ze al sneller als intel ze weten alleen de hoge clocks niet te halen.
Het mooie is dat CPU langer mee gaat en vaker van gpu gewisseld wordt de CPU vooral nog niet releasde games zal zien.
Daarbij huidige geteste games er nogal al tijd uit zijn. En voor mij al verleden tijd zijn.
Daarbij gaat mij om meer de singleplayer games.

Om verschillende use cases van gamers te dekken zou je.
Games kiezen op
Online
eSports
Dat zijn de use cases waarbij wel met oude games gespeeld wordt en waar multithreading het slechts is en vooral esports oudere games gangbaar zijn.
Ook de barginbin gamer die koop kaskrakers als paar jaa uit zijn.

Voor sequel gamer heb online en singleplayer
De preorder gamer die vooral de nieuwste games speeld.

Ik val in de gamer die de nieuwste singleplayer games op PC speeld.
Online doe ik op PSN waar hardware redelijk gelijk getrokken is en cheater arm.

Voor mij is op PC 1440p en 4 K belangrijker. Dan is Gkaart belangrijker maar 2080 is ver buiten budged
Sorry maar zowel bij de ultra als bij low settings is het verschil tussen amd en intel cpu's duidelijk te zien. Ik speel ook sp als prio maar wel alles op ultra en je krijgt gewoon fors meer fps uit jezelfde gpu met een intel cpu.
Dus nee ik heb de 144 tot 240 fps echt niet nodig maar het gaat mij dan ook om het punt dat ik met mijn huidige setup nu nog 100+ fps kan halen en over 3 jaar misschien nog 65 fps en dat nog altijd genoeg is. Waar met een amd cpu je waarschijnlijk u 85 haalt wat meer als voldoende is maar over 3 jaar nog maar 55 fps wat nog speelbaar is maar niet optimaal.
Mijn systeem gaat dus langer mee en dat bespaard geld.

1000 euro over 3 jaar of 1300 over 4 jaar. de op het oog duurdere optie is dus gewoon goedkoper en je krijgt meer prestatie uit je gpu upgrade.

en ja op hogere resolutie is de gpu belangrijker als op 1080p maar het verschil kan nog altijd oplopen tot wel 25% fps wat een fors nummer is en veel geld waard is als je dat moet boosten met een gpu upgrade. dus het is nog altijd de betere keuze.
4k gamen zie ik nog als een niche want de meeste zijn gewoon niet speelbaar op 4k tenzij je alle settings fors naar beneden schoeft wat eigenlijk het hele nut van 4k overboord gooit. Want wat heb je nou aan een 4k reso met low settings. dan ziet 1080p op ultra er beter uit.
Nee hoor ongeveer een derde van de games bij reviews in 4k heeft nog altijd voordeel bij een intel chip.
zeker niet met consequent 15+% verschil zoals je eerst zei. uberhaupt met 15% is zeer schaars (zoals ik zei).

Het is eerder met 1-5%. ruim binnen de 'who cares' marge dus.

[Reactie gewijzigd door Countess op 22 oktober 2018 10:43]

Zoek even de review van gamernexus op of andere erkende tech sites en je zal verbaast zijn hoeveel het nog scheelt. Ik dacht zelf ook dat het minder zou zijn. Maar het gat is best fors en scheelt bijna een GPU generatie.
De enige 4k test die gamers nexus deed in de 9900k review was F1, waar Ryzen al boven de 200 FPS zit (op 4k dus!). dat zit weer diep in het 'who cares' gebied.

bij de rest maakte het blijkbaar zo weinig uit dat het niet interessant was.

hier worden wel een aantal games op 4k getest
https://www.techspot.com/...-core-i7-9700k/page4.html

van de 9 games er slecht 1 waarbij er een verschil boven de fout marge zit , en is het alsnog ver onder de 10%.

[Reactie gewijzigd door Countess op 22 oktober 2018 17:23]

Wat de top fps NU zijn vind ik niet relevant. Wat de fps over 4 jaar doen vind ik zeer relevant. Of ik nou over 4 jaar alleen maar voor 500 een gpu hoef te kopen of ook nog 700 kwijt ben voor een cpu geheugen en ram omdat de cpu het niet bij kan benen.
hoe nieuwer de game hoe beter het ryzen het doet over het algemeen.
Daar is echt geen enkel bewijs voor.
Ik heb heel wat benchmarks bekeken en er is er niet 1 waar je dit mee kan bevestigen.
Tuurlijk zijn er enkele uitschieters maar dat amd het beter doet bij nieuwere games is echt geen bewijs voor.
Sterker nog uit mijn eigen tests blijkt dat veel moderne games nog altijd niet met meer al 4 threads overweg kunnen.
trouwens 700 euro voor cpu moederbord en ram?

bij intel ja, maar niet bij AMD. als je al een AM4 bord en geheugen hebt kan er straks gewoon een zen2, en mogelijk zelfs zen 3 in straks.
of je heb ff geduld, wacht tot AM5 er is met DDR5 en kan de komende jaren ook weer vooruit, en koop je helemaal aan het einde nog even de laatste upgrade op AM5.

en wat bedoel je met 'moderne games'? nieuw uitgekomen games op een engine van 5 jaar geleden is niet een moderne game.
laat de tijd eerst maar eens uitwijzen of een nieuwe zen in een oud bord niet gewoon de prestatie van jou nieuwe cpu limiteert. Tot die tijd zal ik idt aan niemand adviseren.
Noem me meer als 1 op de 30 games die dan wel een nieuwe engine gebruikt? ik ken ze namelijk niet.
Mag ik je geldboompje dan lenen? Ik spendeer het merendeel van mijn geld aan leuke dingen zoals vakanties ;)

Maar even serieus, op een gegeven moment loop je gewoon tegen een punt aan dat de prijs/kwaliteit verhouding niet meer te doen is. Leuk dat jij 5/10 FPS meer hebt dan iemand met een i7 8xxx maar zijn die 5/10 FPS het nu echt waard? De 2080TI is dan een veel betere investering (hoewel de prijs erg hoog is) maar ik wil eerst Ray Tracing benchmarks zien voordat ik mijn trouwe 1080TI de deur uit doe. Anders wacht ik op de 3xxx series die waarschijnlijk volgend jaar al uitkomen (gezien Nvidia dan waarschijnlijk op 7nm kunnen bakken)
Veel mensen denken alleen korte termijn. wat is NU het goedkoopste.

Ek heb in 2012 dit systeem gebouwd en was bijna 2200 euro kwijt.
Iemand anders die ik ken heeft tegelijkertijd een goedkoper systeem gebouwd en was maar 1850 kwijt.

Resultaat hij had een goedkopere gpu een goedkopere cpu en moest ram opnieuw kopen omdat zijn oude ram niet meer verkrijgbaar was extra kosten 140 euro aan ram.

Toen werd het 2013 en 2014 en 2015 en 2016 en de fps begonnen nu toch wel tegen te vallen.
Nieuwe gpu dan maar kaching 450 euro voor een 970. ondertussen was hij dus al 2300 kwijt maar zijn fps waren nu dan ook beter als mijn fps ondanks dat mijn cpu veel sneller is.
Toen werd het eind 2017 enmoest ook ik er aan geloven na 7 en een half jaar.
nieuwe gpu dan maar 465 euro voor een gtx 1070 oc.
Ik ben dus ondertussen 2665 kwijt.
nou wil die vriend zijn pc upgraden maar helaas zal hjj er al aan moeten geloven want zijn cpu moet vervangen worden want die kan echt geen 1080 handelen en dus ook zijn ram wat nog ddr3 is en ook zijn moederbord.
kosten al snel 600 euro en dan heeft hij nog steeds de oude gpu maar is ondertussen al wel 2750 kwijt met de helft van de fps die ik haal.

Moraal van het verhaal als mensen eens leerde lange termijn denken is dat wat nu goedkoop is misschien helemaal niet zo goedkoop.

Overigens is de wijze les nu wel geleerd en gaat hij voor een lange termijn systeem.

[Reactie gewijzigd door computerjunky op 20 oktober 2018 17:35]

Je kan beginnen door je oude onderdelen te verkopen? Als hij zijn ''goedkope'' GPU enz gewoon verkoopt dan verdiend hij minstens 1/3 van zijn investering terug. Jij niet, jij moet doorborduren met je ''oude'' maar dure GPU zonder DX12 support. (dat doe ik tevens zelf ook. Ik ben van de 580 naar de 780 en vervolgens naar de 1080TI gegaan. Echter heb ik wel de neiging om dit keer wel meteen direct te upgraden naar een 2080 als Raytracing serieus een goede toevoeging is verkoop en verkoop ik mijn 1080TI)

Verder geloof ik er niks van dat een PC uit 2013 (Socket 1155 neem ik aan?) vervangen ''moet'' worden. Je kan ook gewoon slim zijn en een 3770K 2e hands kopen en deze dik overklokken. Dat heb ik ook gedaan (ik begon met een i5 2500 die ik vervolgens voor een mooi bedrag heb verkocht) en er is werkelijk geen 1 game die mijn CPU naar 100% pusht. (op max settings) Ik ga hem dit jaar nog delidden om er nog wat extra performance uit te persen en ik denk dat ik tot 2020 tot en met 2022 met deze machine game. Daarna kijk pas weer naar een nieuw systeem en zal ik wss weer een ''mainstream'' game PC bouwen en deze continue upgraden en verkoop ik de onderdelen die ''niet meer zo top of de line zijn''

Mijn moraal, denk na waarom je iets MOET hebben. En denk na wat de beste strategie is, zo hou je een hele hoop knaken over en kan je ze besteden aan iets wat wel je leven verbeterd (zoals EEN RGB SYSTEEM!!!!!!!)

[Reactie gewijzigd door rickboy333 op 20 oktober 2018 19:45]

tja dat kan ik ook als ik uiteindelijk upgrade en krijg er meer voor als voor zijn amd systeempje omdat het sneller is.
en ik heb inmiddels een nieuwe gpu zoals aangegeven.
Dx12 is echter compleet irrelevant als je een high end cpu heb. Sterker nog het kan je prestaties zelfs onderuit halen ipv verbeteren op een high end setup.

wat betreft ray tracing denk ik dat dit echt een feature is die pas over 3 jaar echt zijn intreden doet op grote schaal omdat veel games die nu in ontwikkeling zijn het gewoon niet gaan gebruiken met uitzondering van een paar titels waar nvidia flink geld in pompt.
zo lang amd dat niet gaan ondersteunen zullen game makers altijd nog backwards compatible moeten blijven developen en is het voor hun misschien de moeite niet. dat is een beetje het probleem met veel van de tech van nvidia. doordat het zo gesloten is is de overstap minder interresant omdat je maar een deel van de markt bediend met je tech ondanks dat nvidia nu zelfs goedkoper is met videokaarten in elke range als amd.

Ik heb de 3770k en die heb ik overclocked en toch is hij merkbaar een bottleneck voor mijn gpu in sommige games.
Als ik van 4,6 naar 4,7 ghz ga gaat mijn fps omhoog echter is voor een overclock boven de 4,6 ghz een dermate hoog voltage nodig dat dit niet oneindig stabiel of haalbaar is qua temps.

of een game je cpu wel of niet naar 100% pushed is dan ook helemaal niet relevant. er is blijkbaar iets anders aan de hand anders haald de 9900k niet zoveel meer fps in games als de 2700x die ook nooit naar 100% gaat maar toch veel trager is.
Veel andere optimalisaties in nieuwere intel chips of andere features blijken toch echt belangrijk.
je 1080TI met een 2500k is dan ook zeer zeker niet optimaal.
Sterker nog met een 1060TI loop je al tegen problemen aan te hikken en haal je minder fps dat dat je kan krijgen met dezelfde kaart en een betere cpu.

[Reactie gewijzigd door computerjunky op 21 oktober 2018 03:28]

Volgens mij twijfelde niemand eraan of dit de beste game processoren zouden worden, de vraag was alleen met hoeveel marge

De test die Intel heeft laten doen, liet een 50% verschil zien, wat natuurlijk belachelijk is.
Die test is gelukkig opnieuw en wat eerlijker gedaan en toen was het verschil nog maar 10-20%

Ook het antwoord dat intel op hun praktijken had... 8)7
Is de RedBull van Max de snelste boodschappenwagen? Ja.
Kan je je geld beter ergens anders aan uitgeven als het je om boodschappen doen gaat en je geen ongelimiteerd budget hebt? Ook ja.
Het antwoord zou juist NEE moeten zijn. Voor het prijsverschil kun je een betere GPU kopen wat naar mijn mening nog steeds een grotere invloed heeft op de resultaten dan het kleine prestatieverschil van de veel duurdere CPU.
die vervolgens nog harder gevottlenecked word door je cpu. je koopt dus een 1080 en je krijgt een 1070 omdat je cpu hem in de weg licht.
slecht advies wat mij betreft.
je kan beter een tragere gpu kopen en een betere cpu zo bezuinig je op je gpu en kan je in de toekomst goedkoper je gpu upgraden omdat je pc het aan kan.
Die bottneck zal er vooral komen als je nu lowbudged of midrange CPU ipv highend desktop CPU koopt aan je 3080ti.
En oude crap multithreaded games blijf spelen.

Een goede 2de of derde met betere prijs verhouding zal in de toekomst geen problemen veroorzaken.

Vooral omdat men multithreaded gaat sowieso niet alle treads 100% kan benutten en dan klok er minder zal toe doen maar juist die 8 cores. En in heden is intel door scheve vraag en aambod on aantrekkelijker met hoge prijs.
Ik how mijn CPU heel lang dus de games van nu zijn niet relevant mijn CPU za
De next next gen van AMD en nV en intel gpu nog meemaken.

Misschien is AVX512 van Hedt belangrijker dan prehistorische games die aan cpu klok hangen
Als nu al bewezen is dat een game beter draait met een high end intel vs high end amd en dezelfde kaart dan is het verschil in de toekomst alleen maar groter.
Dus tenzij je de 2700x een budget of mid range cpu noemt is het u al huilen met de pet op als je naar de fps kijkt.

Amd heeft gewoon issues met hun chip. Per mhz zijn ze sneller maar in totaal laat veel van het design net als de fx serie te wensen over.
Als amd een 5 ghz chip weet te lanceren lopen ze rondjes om intel heen omdat ze tot wel 17% sneller zijn per mhz alleen de mhzen niet omhoog weten te krijken.

Als prio 1 gamen is ben je gewoon niet slim bezig als je niet investeerd in een goede intel cpu.
Prijs prestatie gewijs hoef je (nog) geen 8 core processor te verkiezen boven een 6 core processor. Hierbij is de discussie over de performance van Intel processoren versus AMD processoren weer een andere die ik hier maar laat liggen.

Om eerlijk te zijn is om deze vraag tot subtitel te promoveren wat mij betreft een verkeerd accent. Misschien is ze retorisch bedoeld geweest, want uit de tests kan ieder zijn conclusie trekken. Die twee cores extra (Intel 8c versus Intel 6c) leveren op zijn best een marginale verbetering op. Om eerlijk te zijn heb ik daar eigenlijk geen testresultaten voor nodig. We mogen al blij zijn als 4 cores fatsoenlijk door een game worden geadresseerd. Zonder de absolute prestaties van deze Intels te willen bagatelliseren zie ik nog geen toegevoegde waarde voor 8 core versus 6 core, en misschien zelfs versus 4 cores voor games.

De gebruikstoepassingen liggen wat mij betreft in het parallel multicore solven van Eindige Element vraagstukken of het doorrekenen van frames in een visualisatie. Daar zou ik deze 8 core monsters wel eens op getest willen zien. Maar ja, die vraag stellen trekt wat minder aandacht vermoed ik, Tweakers zou met dergelijke test wel het pro publiek weer wat meer aan zich kunnen binden.
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True