Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD Ryzen Threadripper 1950X met 16 cores komt in augustus uit voor 999 dollar

Door , 175 reacties, submitter: Juicie

AMD brengt begin augustus zijn eerste Ryzen Threadripper-processors uit: de 1950X en 1920X. Het topmodel heeft 16 cores en 32 threads en kost 999 dollar. De tweede uitvoering heeft 12 cores, 24 threads en krijgt een adviesprijs van 799 dollar.

Het duurste model van AMD's high-end desktopprocessor krijgt een kloksnelheid van 3,4GHz met een boost naar 4GHz. De goedkopere 1920X heeft een kloksnelheid van 3,5GHz met eveneens een boost naar 4GHz. Beide processors maken gebruik van de nieuwe TR4-socket en moeten op moederborden op basis van het X399-platform geplaatst worden. Dat platform biedt vierkanaals-ddr4-ondersteuning en 64 pci-e-lanes.

AMD heeft nog geen europrijzen bekendgemaakt. Omgerekend inclusief btw zou de adviesprijs van de Threadripper 1950X uitkomen op ongeveer 1059 euro. De omgerekende prijs van de Threadripper 1920X is zo'n 847 euro. AMD zet de processors tegenover de Intel Core i9-7900X. De Intel-processor heeft 10 cores op 3,3GHz met een boost naar 4,5GHz.

Aan de hand van CineBench R15 laat AMD de prestaties van de Threadripper-processor zien. Het topmodel met 16 cores scoort in de multicorebenchmark 3062 punten en de 12-core-versie is goed voor 2431 punten. In de door AMD uitgevoerde test haalt de Intel Core i9-7900X een score van 2167 punten.

AMD-ceo Lisa Su geeft de nieuwe details over de Threadripper-processors in een video, waarin ook de beschikbaarheid van de Ryzen 3-processors wordt aangekondigd. Vanaf 27 juli zijn de goedkoopste Ryzen-processors tot nu toe verkrijgbaar. Het gaat om de Ryzen 3 1300X en de Ryzen 3 1200. Beide zijn quadcores zonder smt, dus met maximaal vier threads. Prijzen heeft AMD echter nog niet bekendgemaakt.

Hoewel AMD nu meer details heeft gegeven over de Threadripper-processors, volgt de officiële introductie pas eind deze maand. Tijdens een evenement op Siggraph op 27 juli zal AMD zowel Ryzen 3 en Ryzen Threadripper als zijn Radeon RX Vega-videokaarten aankondigen.

Processor Cores/threads Kloksnelheid/turbo Prijs
Ryzen Threadripper 1950X 16/32 3,4/4GHz $999
Ryzen Threadripper 1920X 12/24 3,5/4GHz $799
Ryzen 3 1300X 4/4 3,5/3,7GHz nnb
Ryzen 3 1200 4/4 3,1/3,4GHz nnb

Julian Huijbregts

Nieuwsredacteur

13 juli 2017 16:37

175 reacties

Submitter: Juicie

Linkedin Google+

Lees meer

Reacties (175)

Wijzig sortering
Erg cool om te zien dat AMD een die heeft ontwikkeld die doodleuk op de stock clocks blijft lopen ongeacht het aantal dies dat ze aan elkaar plakken.

Daar kan Intel een puntje aan zuigen. AMD heeft nu eindelijk een chip op de markt met een dikke marge, terwijl die ook nog eens super concurrerend is. Meesterlijk.

Intel moet het nu kennelijk hebben van modder gooien als je hun laatste press release slides bekijkt. Denigrerend wijzen naar AMD Ryzen Threadrippers als 'met lijm aan elkaar geplakte' Ryzen dies, waarbij de lijm daadwerkelijk een beter middel blijkt te zijn dan alles wat Intel tot nu toe heeft weten te produceren.

[Reactie gewijzigd door Vayra op 13 juli 2017 16:54]

Het is natuurlijk leuk in benchmarks hoog te scoren, het gaat einde van de rit altijd om de praktijk.

Puur op cinebench gaat de prijs/performance bij de Threadripper en 1800x netjes gelijk op ($500/1600, $1000/3100 - afgerond), maar het is uiteindelijk de praktijk waar het z'n $1000 daadwerkelijk waard moet worden. Veel is nu best geoptimaliseerd voor Intel, AMD moet ook daar een flinke inhaalslag doen om dat op gelijk niveau te krijgen.
Dat moet van 2 kanten komen, als AMD marktaandeel terug krijgt zullen software ontwikkelaars de boel ook beter optimaliseren voor AMD. En als je een grote speler op grafisch gebied zoals Adobe achter je weet te scharen dan kom je al een heel eind. Als AMD en Adobe een beetje samenwerken aan de optimalisatie van Ryzen en Threatripper dan is er voor een groot deel van de heavy users geen reden om nog voor Intel te kiezen aangezien je voor de zelfde prijs een ~25 tot 30% snellere cpu krijgt bij AMD. Ik moedig het alleen maar aan want op deze manier komt er weer wat leven in de brouwerij.
Punt met adobe is dat het weinig met intel optimalisatie te maken heeft, meer met algemene multicore optimalisatie. Voor alles behalve Premiere wil je eigenlijk op dit moment 4-6 hoog geklockte cores. Premiere schaalt nog wat door maar dat houdt over het algemeen bij de 10 cores ook wel op. Voor Adobe software zijn deze cpu's uberhaupt niet de beste keuze, tenzij je echt multitask scenario's hebt.

Daarbij is alles wat goed parallel te draaien is ook goed op de gpu te zetten, wat je ziet bij Premiere en nu ook AE.

Singlecore, zij het prima en absoluut gezien vaak voldoende, blijft gewoon een puntje voor AMD waardoor je vaak met desktop interactie net wat achter intel uitkomt. Die hoge turbo's van intel zijn in veel zaken toch bepalend.
Adobe is vergeleken met Davinci Resolve zeker niet geoptimaliseerd voor multi-core. Adobe is een beetje een lui bedrijf geworden wat betreft software optimalisatie. Davinci Resolve daar in tegen probeert bij elke nieuwe gratis update alle mogelijke situaties (single, muli core en GPU) te verbeteren.
Adobe werkt voorzover mij bekend nog steeds niet met multi GPU opstellingen.
Ja van resolve hoor ik ook dat het qua multicore beter schaalt, idem met veel gpu's.
Premiere kan wel meerdere gpu's gebruiken met exporteren.
Exhibit A: bepaalde tools in LR6. ;)
Photoshop:
"I did some more research to find out what filters and operations exactly would benefit from a multicore CPU. It seems like only a couple of blur and sharpen filters support multicore CPUs (and rendering 3D of course). All the major tasks you are doing in PS are only related to the single-core performance of your CPU."

Affinity Photo:
traag met laden raw bestanden, maar dat wordt beter met elke beta.

[Reactie gewijzigd door Tourmaline op 13 juli 2017 20:28]

Ja en toen Intel jarenlang in de benchmarks goed scoorde had niemand het over hoe ze in de praktijk zouden presteren.

Het valt me op dat het altijd in het negatieve van AMD word uitgelegd.

Wanneer Intel een bug in de CPU of de chipset heeft maakt niemand zich druk maar als AMD een keer een bug heeft word AMD meteen omlaaggepraat alsof het bij AMD aan de lopende band zou gebeuren.
Ach zie het maar zo, Intel heeft jarenlang niet hoeven innoveren door gebrek aan fatsoenlijke concurrentie. De benches en bugs werden daardoor niet breed uitgemeten. Nu er wel een bedreiging is zie je de fanboys van beide zijden alles aangrijpen om de discussie te winnen.

Gewoon wat afstand nemen en lachen ;)

Uiteindelijk zorgt goede concurrentie van AMD voor goedkopere Intel processors, je zou verwachten dat de Intel fanboys daar blij van worden. :+
Smile and wave boys, smile and wave. ;)
Niet vergeten dat ontwikkelaars ook geld kosten.

Als je bezig bent met rendersoftware en/of 3d applicaties en/of whatever else takes a lot of time, dan is een PC die een taak in de helft van de tijd afrondt, zéér aantrekkelijk...

Die mannen # vrouwen achter deze PC's komen echt hun bed niet uit voor minder dan 50¤ per uur (eerder het dubbele danwel veelvoudige). Als je dan ook maar één uur per dag kunt besparen hiermee, dan is dat goud geld!
Daar kan Intel een puntje aan zuigen.
Dat hebben ze al gedaan in 2005 met de Pentium D en Extreme Edition.
En drie keer raden wat het commentaar was vanuit het rode kamp..... vergelijkbaar met "met lijm aan elkaar geplakte CPU"
Ja maar dat was behangplaksel vergeleken met de epoxy die nu gebruikt wordt.
De zen architectuur zit inderdaad erg leuk in elkaar.

Maar de epyc chips lopen allemaal een stuk lager? Of bedoel je alleen Ryzen/Threadripper?
Of bedoel je dat hij niet throttled?
De 'plakband' is de inter-core communicatie. AMD gebruikt hiervoor de Infinity Fabric: http://wccftech.com/amds-infinity-fabric-detailed/

Deze bus zorgt voor de communicatie tussen de dies in als ik het goed heb. AMD wil deze ook inzetten tussen GPU's in en kan behoorlijk hoge bandbreedtes halen. Zolang dit niet de beperkende factor is, is dat prima. Intel zit dan volgens de eerder genoemde press releases te zeuren dat AMD het niet netjes doet met 'lijmen' en maar wat aan elkaar plakt, maar vergeet niet dat Intel gewoon letterlijke 2 aparte plakken silicium op een socket heeft geplakt onder de heatspreader: https://tweakers.net/ext/f/0X0mkCOh8M87KigfraQO9Taq/full.jpg

Dus om nou te zeggen dat Intel het altijd zo netjes deed... mwah, nee. Ik weet niet wat ze hedentendage gebruiken, maar het zal me niks verbazen als er pci-e lanes worden gebruikt voor de interconnects tussen cores, of weet iemand hier meer van?
Intel gebruikt ring bus maar maar gaat over naar 2D mesh interconnect.

http://www.anandtech.com/...20x-and-i7-7800x-tested/5
Jup dat waren de eerste quad cores als ik me niet vergis.
dat deden ze al met hun eerste "dualcore"

AMD kwam uit met de Athlon X2, en intel wist niet wat ze overkwam en plakte letterlijk 2 Pentium4 cores op 1 socket.
dat gecombineerd met een FSB van 800Mhz waar ook de core communicatie overheen ging, zorgde ervoor dat de Pentium D serie echt niks in te brengen had tegen de Athlon X2
Ha kijk het was zelfs eerder :+
Ik denk dat Vayra verwijst naar het feit dat Xeon CPUs met een hoog aantal cores lagere maximum boost clock speeds krijgen naarmate er meer cores worden benut.
Ja ik zie dat ze beide hoe meer cores hoe lager de klok.
Van 4 cores i5 tot Platinum Xeon.
Bij Zen wild de klok niet zo maar in de threadripper lijn komt dat terug hoe meer cores hoe lager de klok.

Dat RyZen 5 niet gretig is met klokken ligt meer aan RyZen 8 core dies die ze gebruiken.

Ryzen 5 zijn de mindere 8 core dies met wat cores uitgeschakeld.
iNtel 4 cores zijn apparte chip tov hun 8 cores dus heb je daar te maken met goede yield en bin exemplaren.
Bij AMD zijn het de mindere chips.

Bij veel meer cores gaat TDP een veel grotere rol spelen waar men klok beperkt wordt door TDP.
32core Epyc zal daarom niet een al te hoge klok hebben. En dat zal bij 16core TR ook al rol spelen.

Waar AMD last heeft van slecht OC baar in 4 core producten zal dat bij TR en Epyc steeds kleinere handicap zijn tot niet relevant meer.
Ik denk dat ze hiermee echt goed gaan scoren op de servermarkt. Ze hebben een efficiëntere hyperthreading, meer cores, goedkoper en ook nog is zuiniger + meer IO opties.

Heb trouwens ook recente marketing presentaties gezien waar Intel heel erg focust op AMD trashtalken, inclusief een stukje over gaming ge-quote van wccftech op slides voor server chips 8)7 . Dat betekent gewoon dat de dreiging reëel is en dat Intel erg druk is voor een antwoord.
Concurrentie is goed, ondanks het moddergooien wordt Intel nu gemotiveerd om met grotere stappen te komen.

Je noemt een 'dikke marge', heb je hier onderbouwing voor? Ik vind het namelijk moeilijk te geloven dat deze nieuw architectuur nu al een grote marge kan hebben. Tenzij alle R&D niet meegenomen is.
Zover bekend heeft Ryzen een zeer en zeer lage uitval wat betreft dies
Daar kan Intel een puntje aan zuigen. AMD heeft nu eindelijk een chip op de markt met een dikke marge, terwijl die ook nog eens super concurrerend is. Meesterlijk.
Er zijn nog geen cijfers maar het zou inderdaad erg raar zijn als er met een cpu van bijna duizend dollar geen winst wordt gemaakt. Of de cpu tak van AMD nu zwarte cijfers gaat schrijven zal vooral afhangen van het volume.
Intel moet het nu kennelijk hebben van modder gooien als je hun laatste press release slides bekijkt. Denigrerend wijzen naar AMD Ryzen Threadrippers als 'met lijm aan elkaar geplakte' Ryzen dies, waarbij de lijm daadwerkelijk een beter middel blijkt te zijn dan alles wat Intel tot nu toe heeft weten te produceren.
Als je kijkt naar Intels recente 7800/7820X met de daarbij behorende 2 core boost naar 4.5 GHz dan is het erg waarschijnlijk dat de aflopende frequenties zoals we die bij de Xeons kennen een kunstmatig iets is. Intel heeft nadat AMD zowel de servermarkt als de high-end markt verliet min of meer zijn eigen plan kunnen trekken. Het kan haast niet anders dan dat Intel hier op blijft reageren en dat is goed, het heeft alleen wel veel en veel te lang geduurd.

Als je kijkt naar de beperkte 'sprong' in kaarten als de GTX 1080 in combinatie met de gigantische toename van de winst van Nvidia, dan kan het niet anders Nvidia de boel kunstmatig aan het vertragen is om zo meer winst te genereren. Engineered gains heb ik dat al eens op het forum genoemd; hoe kun je met een zo goedkoop mogelijke chip je klanten toch nog zo ver krijgen dat ze upgraden. Dus ook daar is nog werk aan de winkel voor AMD.

[Reactie gewijzigd door sdk1985 op 14 juli 2017 03:51]

Dit zijn namelijk echt chips waar heavy gamers behoefte aan hebben. Threadripper gaat voor professioneel werk worden gebruikt, niet voor 4k gaming oid..
Waarom niet voor beide? Je kan toch een CPU willen hebben waar je én goed op kunt werken, en mee kan gamen?
Technisch gezien kan je prima gamen met een 16C/32T chip. Er is niets anders aan als een Ryzen uitvoering met bijv. 4C/8T. Het verschil is dat je echter zoveel cores hebt dat een game deze niet allemaal weet te gebruiken en je soms beter af zult zijn met een lager instap model.

Echter een hardcore gamer zal meer baat hebben bij een 4/8C chip met een zo hoog mogelijke kloksnelheid, ipv 3.4Ghz base. Uiteindelijk telt een hogere IPC gewoon meer in games (snellere respons) dan 32 threads waarvan nog niet eens 1/3de ingezet kan worden.

Tja en met workloads, denk bijv aan video encoderen, HD video's in elkaar prakken, dan zijn 32 threads gewoon erg lekker in combinatie met veel geheugen en een flinke SSD. :) Ik zit heel erg te kijken om een goed AMD workstation in huis te halen. Gewoon omdat ik vanalles met m'n PC doe en dat het hebben van veel cores gewoon fijn is.
Nú nog wel, als games fatsoenlijk multi-core worden dan kan je ze wel gaan gebruiken. Vooral bij physics kan dit baat hebben later.

Let wel dat de gpu dan ook wat krachtiger moet zijn..

[Reactie gewijzigd door Nox op 13 juli 2017 21:08]

Ja maar over Multicore in games word a sinds de Phenom T1100 generatie gesproken en is gewoon nog steeds een drama.
Klopt, al sinds dual core er is wordt daar over gesproken maar devs bleven achter lopen met multithreaded engines. Nu er in de moderne consoles ook steeds meer multicore chips komen en de ipc niet verbeterd is de enige uitweg multithreaded engines om meer power uit de chips te halen.

Nu met directx12 en Vulkan loont het wel om meer cores te hebben, al is meer dan 8 overkill omdat je bij 6 cores op de max zit. Dus nog steeds niet infinite scalable, maar al een hele vooruitgang tov singlethreaded games.
Tuurlijk, maar voor gamen is Threadripper gewoon overkill, dus als je het niet voor werk nodig hebt heeft het geen zin om het voor games te kopen. (of je moet gewoon van je geld afwillen)
Ik heb zelf een tijdje terug een 16 core Xeon workstation gebouwd met goedkope tweedehands Xeons, en ja daar game ik ook op, maar de CPU power wordt alleen echt gebruikt als ik met Adobe of Cinema 4D werk.
Ik heb het idee dat trouwens Premiere met exporteren naar bijvoorbeeld H.264 wel gewoon alle cores maximaal belast. After Effects doet met renderen bij mij tussen de 30 en 60 procent, maar met het background renderer pro script kun je meerdere render-processen tegelijk draaien en dan kan ik de CPU wel maximaliseren (Adobe heeft al een aantal versies geleden zijn eigen verouderde multicore rendering functionaliteit uit After Effects gesloopt en nog altijd is daar niks voor in de plaats gekomen).
Daarom zei ik dus ook, "Je kan toch een CPU willen hebben waar je én goed op kunt werken, en mee kan gamen?" ;)

@Zameya zegt verder ook dat een Threadripper niet voor 4k gaming gebruikt gaat worden, maar voor zover me bekend is komt het vanaf 4k toch sowieso voornamelijk neer op de GPU, dus waarom niet, zou ik zeggen. Als je een uitmuntende werk PC wil hebben waar je ook prima op kunt gamen, en helemaal op 4k, lijkt een Threadripper of zijn Intel variant mij een uitstekende keuze.

Om het argument kort en bondig samen te vatten: Het ene hoeft het andere niet uit te sluiten. Dat is namelijk wat ik een beetje proef in de reacties.
Je bedoeld tegelijk werken én gamen, én samen met de rest van je familie die allen met hun eigen andere game allemaal tegelijk draaien op jouw pc ;-)
Alsof een gamer een CPU van 999 dollar nodig heeft. Games zijn in dit geval totaal niet relevant.
Je snapt er niks van. Deze cpu is absoluut niet bedoeld voor gaming. En de workloads in servers zijn niet vergelijkbaar met gaming.

Jouw reactie slaat als een tang op een varken voor dit artikel.
Is anders perfect voor een spelletje schaak:

http://www.hardware.fr/ar...ecs-stockfish-komodo.html

Zoals je ziet kan een quadcore echt niet meer.... :P
Als jij de stockfish 8 engine draaiende op mijn quadcore i5 3570k kan verslaan, dan wil ik wel op jou wedden bij de volgende wereldkampioenschappen :)
Waarom is het "gelukkig" dat Intel vooralsnog hogere single threaded performance heeft? Daar wordt niemand behalve de aandeelhouders van Intel beter van. Hopen dat het beter gaat met AMD is niet alleen voor fanboys, want heel veel mensen zien in dat dit goed is voor de markt.

En als het eerste en enige voorbeeld dat je noemt "games" is zit je duidelijk niet in de doelgroep voor deze CPU. Ook bij Intel heeft het namelijk weinig tot geen zin om voor 6-cores of 8-cores te gaan als je wilt gaan gamen.

Gebruik je echter wel een programma of toepassing die 32 threads kan benutten, dan is dit natuurlijk geweldig voor deze prijs. Al helemaal als je dat vergelijkt met de laag geklokte en dure 16core Xeon's. Zoals het er nu uit ziet gaat Intel mee met AMD en gaan ze ook meer cores voor een enigszins normale prijzen aanbieden (ze al begonnen). Dus een Intel fanatiekeling zoals jijzelf zou hier ook blij mee moeten zijn.
Als aanvulling op de 2e alinea. De i7-7700K is sneller dan de de nieuwe X299 plaform 6-Core/12-Thread met 27/30 geteste games. Zelfs wanneer de laatste is overgelocked (en meer verbruikt) is en de 7700K niet overgeclocked!

Zie Hardware Unboxed's benchmark: https://youtu.be/PKX9Bcxnd7U

[Reactie gewijzigd door zeadope op 13 juli 2017 20:02]

Mooie AMD fanboi ben jij. Gelukkig heeft Intel vooralsnog veel hogere single threaded performance, en dus 95% van de cpu bound games daar lekker snel op draaien ;-)
Die "veel" hogere single threaded performance is er niet meer, dat was nog voor de tijd dat Ryzen released was. Wellicht moet je je even inlezen voordat je zo'n typische fanboy reactie van een 12 jarige typt. (note: ik heb zelf een i7 :+)
Ja iNtel schalen goed op klok. Maar met klok schaalt TDP nog harder mee. en dat is maal aantal cores. Blijkt ook nog dat AVX512 ook slok op lusten dus down klokken om de TDP binnen de marge te houden. Uiteindelijk kom je op punt bij 16 cores dat TDP te hoog wordt. En dan maakt het klok beperking van zen minder uit.

Voor Ryzen 5 is duidelijk manco als je wilt gamen op 144hz bunny hoppen online.
Maar voor een 16Core TR heb je door meer cores eerder een TDP limiet. Waar iNtel dus ook tegen aanloopt.
Dat ga ik lig niet Oc' en.
Een 8c i7 SkylakeX ook niet. Want iNtel was al gretig met de klok.
De gebruikte screenshot met de CPU ranking ziet er indrukwekkend uit - AMD scoort bijna 3x zoveel punten als de eerstvolgende intel CPU met 12 cores. In ieder geval totdat even gekeken wordt waarmee de vergelijking nu gemaakt wordt...

De intel CPU op de tweede plaats (De X5650) heeft een oorspronkelijke introductiedatum van 2010. Destijds had deze CPU inderdaad een introductieprijs die overeen kwam met de huidige prijs van AMD's 1950X ($996 tegen 999$) maar als je nu even Googled vindt je deze zelfde CPU voor 100-200 euro over de toonbank gaan.

Voor wie dus enkel naar de balkjes in de grafiek kijkt en daarvan onder de indruk is: Kijk ook even wat nu precies vergeleken wordt met elkaar. Een zeven jaar oude CPU tegen een state-of-the-art CPU zetten is niet helemaal een eerlijke vergelijking.

[Edit 13-07-2017 19:42]:
Ik denk dat een kleine aanvulling / verduidelijking bij deze post nodig is. Bovenstaande relaas was voornamelijk bedoeld als waarschuwing bij het interpreteren van de grafiek in dit artikel daar deze grafiek vrij eenvoudig verkeerd gelezen kan worden. Voor de goede orde dus een paar aanvullingen:
  • Zoals anderen reeds gemeld hebben: De afbeelding geeft de standaard output van CineBench R15 weer.
  • Deze output bevat oude CPU modellen en kan daarom een vertekend beeld geven als men verwacht dat dit een vergelijking is van dezelfde generatie CPU's.
  • Anderzijds is dit ook geen marketing "truc" van AMD om middels wat creatieve cijfers een zeer rooskleurig beeld van de werkelijkheid weer te geven.
Kortom: Gebruik deze grafiek niet als leidraad om te bepalen wat de prestaties van Ryzen zijn in vergelijking met recente Intel modellen. AMD heeft met Ryzen een prima product neergezet welke geen creatieve weergave van prestaties nodig heeft om als interessant uit de bus te komen.

[Reactie gewijzigd door Excirial op 13 juli 2017 19:44]

Die screenshot is van het standaard resultaten display van Cinebench, dat kun je diegene die de screenshot geplaatst heeft niet kwalijk nemen. Die vergelijkingsgetallen worden door Cinebench geleverd. Ik vermoedt dat zolang er geen update van de benchmark komt (Cinebench 16 misschien) dat deze getallen niet vervangen zullen worden door die voor meer recentere processoren.
Ik heb zo een paar X5675s steken en ik je verzekeren dat die 1950X de vloer veegt met mijn systeem.

Ja, de X5675 of x5650s zijn goedkoop 2de hands te kopen voor 100 a 150 euro maar je vergeet:

De Intel x5675 haalt een multibench score van 12.000
De Intel Core i9-7900X doet 34.326
De AMD 1800x doet 21616. Laten we het verdubbelen naar 40.000 voor de x1950.

M.a.w, deze dure top modelen halten eventjes 2 tot 4 maal de performence tegenover een X5675.

Als je dus een systeem bouw met een dual X5675, dan ben je
a) 200 a 300 euro aan de dubbel CPUs kwijt.
b) 200 euro minimaal aan een server board waar een AMD board goedkoper zal uitvallen
c) meer geld omdat je een PSU moet hebben dat dual lines heeft.
d) specifiek DDR3 Registered ECC geheugen. Kan je nu kopen voor goedkoop maar die zuipen energie.

En ondanks dat ben je nog altijd trager uit. Maximaal 24.000 vs 40.000 performance.

En ik spreek uit ervaring als ik zeg, dat die AMD een beest van een CPU is. Kijkt naar zijn Dual x5675...

En enorm goed geprijsd. Zo een CPU in consumenten hardware is uniek!
In het filmpje wordt vergeleken met de snelste i9 van dit moment i9-7900x.
Maar daar is die nog maar net sneller, met die render ook nog maar net (1-2s).

[Reactie gewijzigd door rootpowered op 13 juli 2017 17:13]

i9-7900x = $ 999 cinebench R15 2167
Threadripper 1950x = $ 999 cinebench R15 3062

't is maar wat je net noemt (40% sneller)
Het is ook maar net waar je het in vergelijkt. Leuk, al die cores, maar single threaded is de Zen architectuur weer minder, daar scoort Intel momenteel juist goed mee.

Meer cores wil neit zeggen dat de performance dan ook exponentieel toeneemt.
Lekker boeiend. Als je naar een HEDT-systeem als Threadripper of i9 kijkt voor single core performance heb je er gewoon helemaal niks van begrepen, of je hebt gewoon het financiële comfort om geen ene f*ck te geven.

Juist hier krijg je te maken met specifieke use case scenario's die bepalen welk platform het beste is en dat zal in het ene geval AMD zijn, in het andere geval Intel, maar dat hangt van je applicaties en werklast af. Voor professionele workloads kan ik je verklappen dat juist single core performance in de meeste (dus niet alle...) gevallen niet echt heel boeiend is.
3D renderen is vak apart.
Het modelleren kan je i7 6core pakken
En renderen op 16core TR. of Epyc met wat meer cores

Workstation & Renderfarm

Bij i9 heb je wel wat minder PCI-e Lanes maar kan je wel AVX512 toepassen.

Maar ja met een naam als Thread Ripper wat grote hint is dat je computer power afhankelijk is van goede SMP schaling.
Dat kan allemaal wel, maar het gaat hier om een CPU die specifiek bedoelt is voor zware multithreaded taken. Wat maakt het in die sector nou uit dat de single thread performance iets onder zou doen aan intel. Als mijn primaire taak 3d rendering zou zijn, dan is de keuze toch heel makkelijk? Je hoeft als consument echt niet zo moeilijk te redeneren. Wat is het beste voor wat ik doe? Zie resultaat -> klaar. En dan gewoon fabrikant bias, gevoel en emotie etc. helemaal uit je hoofd zetten, alsof het niet bestaat. Zo maakt een mens de juiste keuze, maar is voor velen blijkbaar onmogelijk.
Voor bijv een pure reken of renderserver heb je gelijk, maar zo snel je op de pc daadwerkelijk gaat werken dan maakt de singlethreaded snelheid heel veel uit bij heel veel dingen, zelfs bij renderen, afhankelijk van engine/scene/setup etc.
Voor duidelijk te merken is een 33% verschil wel relevant een 15% al stuk minder.

Groot verschil , in "Cijfer neuken" of "onwerkbaar vs werkbaar."
5 % vs 50% beter.

Al die huidige CPU zijn goed geschikt voor gamen. Er is er natuurlijk maar 1 die troon heeft in bepaalde toepassing.
Tja, waarom zou je dan als consument een i9 of threadripper nodig zijn, als het toch allemaal zo moeilijk is?
Gezien het om CineBench gaat in deze discussie hebben we daar juist niks mee te maken ;)
Want je koopt een 20-32 thread CPU om zijn single threaded performance. 8)7 8)7
Ja want je koopt een 12/16 core cpu met dubbel de threads vanwege de single-thread performance 8)7
Nou in mijn geval.
4 cores nu geen SMT lage klok lage IPC
Naar 16c met SMT.

Als er iets van SMP schaling is wordt het exponentieel.
IPC x klok gaat het om subtiel verschil 10 a 25%
In mijn geval met 1440p meer 10%

Single core cq single thread performance is redelijk goed voor Zen het is iNtel haald er ietswat meer stock en OC klok uit.

Power user gebruik je software dat nogal compute power nodig heeft en die software zal uiteraard SMP geoptimaliseerd zijn omdat vereiste is om moderne multi core CPU goed te benutten.
Dat niet alleen, het AMD platform biedt meer PCI-lanes.
Wat leuk is voor de mensen met veel extra kaarten in hun systeem.
voor de rest is dit nutteloos.

Ik val in de eerste categorie
tot vorige week had ik 2 raid controllers + 2 gpu's + netwerk kaart zitten.
Tijdelijk gedowngrade om wat fondsen vrij te maken en kan nu nog maar 1 raid controller en 1 quad port netwerk kaart plaatsen.
Dat en ik heb minder tijd door de bouw van mijn huis dat al mijn vrije tijd op slorpt + 2 jobs

[Reactie gewijzigd door Xeon_1 op 13 juli 2017 17:12]

Je koopt dan ook een CPU van 1000 dollar, ik mag wel hopen dat je dan wat PCI lines plant te gebruiken. Het liefst heb je alle bandbreedte voor je videokaart, daar gaan er al 16. Een nette netwerkkaart en geluidskaart erbij en je zit al over de lanes die Intel biedt, laat staan in een multiGPU scenario.
Een Intel x9xx heeft precies genoeg PCI-E lijnen voor twee PCI-E x16 GPU's, een M. 2 PCI-E x4 SSD en nog wat PCI-E x1 of x2 insteekkaarten zoals een geluidskaart en netwerkkaart. Verwar deze CPU's niet met de consumenten lijn van Intel x7xx en lager, dat is een heel ander platform met veel minder lanes.
Ja een goed deel is dan wel chipset ipv cpu maar goed, dat maakt voor veel dingen niet uit ook.
De 7900X heeft van zichzelf 44 PCI-E lanes. Dat is tot dusverre wel de enige chip in de lineup omdat de rest niet verder komt dan 28, maar dat ene duurste type met zijn 44 lanes heeft er wel echt ruim voldoende voor dual GPU en extra's...
Precies. Ik ben dan ook benieuwd of we ooit eens een review krijgen met benchmarks met bv. een 6850/6900K, een 7900K en de 1950/80x met SLI en/of CF (of expl. multi adapter voor dx12) al dan niet gecombineerd met een aantal insteekkaarten. Zit zelf nu met een 6850K en SLI (+nog een aantal PCIe-kaarten) en op 5K hebben die extra lanes op dit platform bij een paar tittels echt geholpen om een (flink) hogere framerate te halen.

[Reactie gewijzigd door edward2 op 13 juli 2017 21:02]

Goh het HEDT is voor vrijwel iedereen nutteloos en bedoelt voor powerusers, niet voor de average gamer.. Er zijn ook maar weinig mensen met een 6900k of 6950X..
PCI lanes worden ook gebruikt voor bijvoorbeeld NVME disken, sata. Een enkele NVME neemt al 4 lanes in beslag. Elke USB3 poort pikt ook een lane in, evenals SATA. Dan zijn die 64 lanes best wel op te krijgen, ook zonder SLI GPU.
Yep, op CPU bench heeft de Core i9-7900 ~ 22K punten,
https://www.cpubenchmark.net/high_end_cpus.html
En de snelste Intel Xeon heeft ~ 25K punten (en die kost 2700 euro per stuk!).
.
AMD heeft nu een processor met een snelle architectuur, met veel cores op een relatief hoge kloksnelheid. Voor een scherpe prijs.
.
Intel mag nu weer vanuit zijn luie stoel aan de bak gaan... :P

[Reactie gewijzigd door Geekomatic op 13 juli 2017 23:32]

Dan gok ik dat threadripper 1950x ergens rond de 30.000 uitkomt.
Maar ga je die 40% ook in real world toepassingen halen?
Vind jij renderen een real world toepassing?
Renderen is toch vooral een GPU-taak?
Ligt aan de render engine. Er zijn sinds een aantal jaar inderdaad ook engines op de markt die op GPU's werken, maar bijvoorbeeld standaard ingebouwde renderer in Cinema 4D is een CPU renderer.
Denk jij dat alle benchmarks een afspiegeling zijn van wat je in de praktijk weet te behalen? Het is leuk als je in een benchmark 40% sneller bent, maar als je in het dagelijkse leven geen snelheidsverschil kunt waarnemen is het maar de vraag wat die 40% waard was.
Die 40% moeten we nog maar zien, maar dat is niet zo relevant. Als een gelijkgeprijsde CPU beter scoort in het renderen van 3d materiaal (bv. in Blender), en dat is toevallig jouw core business, dan is dat voldoende om je keuze te kunnen maken. Wel of geen 40%... 5% lijkt mij dan ook al voldoende (zeker als we de prijs/prestaties zouden vergelijken met een gelijk geprijsd intel systeem).
Deze chips zijn niet voor de gemiddelde klojo met Microsoft Word, een paar tabjes in Chrome en af en toe een spelletje. Deze zijn voor zware calculaties, rendering, virtualisatie, toegang tot veel externe bronnen als PCIe SSD’s, speciale controllerkaarten, compute kaarten etc. Dus ja, je kan wel degelijk een dergelijke processor nodig hebben.
Dat is nu eenmaal hoe Cinebench in elkaar zit. AMD vergelijkt ook gewoon met de i9-7900X, zoals genoemd in de tekst :)
In het grafiek staat bij x5650 ook foutief "12C/24T"; voorzover ik weet heeft de mijne toch echt maar 6 cores die 12 threads tegelijk aan kunnen.

http://ark.intel.com/prod...66-GHz-6_40-GTs-Intel-QPI

Indd ernstig krom om het met zo'n oude cpu te vergelijken!
(-zou er niet stiekem een andere cpu, met daadwerkelijk 12 cores bedoeld worden?)
AMD vergelijkt zijn CPU score niet met wat er in de grafiek staat maar met het systeem wat er naast staat (Intel i9) Wat voor de rest in de grafiek staat is irrelevant en is een standaard database van Cinebench met wat scores er in die er altijd staat.
Het geteste systeem wat de 12t/24c aangeeft is een dual socket moederbord waar dus twee van deze X5650 processoren opzitten.
Zal een dual socket zijn. Mijn 5650 scoort 645
Daarnaast mis je ook nog verdere informatie van hoe alles in elkaar zit (setup en dergelijke). De screenshot geeft met de score alleen een indicatie van dat hij snel is. Maar hoeveel sneller dan intel nu op dit moment is met dezelfde prijs is nog niet af te leiden.

P.s. Helaas is dit een standaard truc en zie je dit te vaak.
Als het niet eerlijk lijkt hadden ze het niet naar buiten durven te brengen. Maar kom op, iedereen weet toch (niet alleen in de IT) dat dergelijke vergelijkingen onbetrouwbaar zijn en je het beste kan wachten op meerder onafhankelijke reviews?

Van de andere kant, als AMD geen benches had getoond was men daarover weer achterdochtig geweest.
Nee dat doet AMD niet, zoals boven je gezegd word is dit waarmee CineBench je CPU vergelijkt.

Als je het filmpje kijkt zie je dat AMD met het nieuwste van het nieuwste vergelijkt van Intel, 0 jaar later dus en veel beter (in CineBench)...
Dat doet AMD niet, dat doet ChineBench. Dat is hierboven ondertussen al 5 keer aangegeven. Bekijk het filmpje anders even, ik vermoed dat al je vragen daar beantwoord zullen worden :)

Ontopic: Ik had hier al op gehoopt! Lijkt erop dat AMD een goed doordacht product voor High Performance heeft gelanceerd! De Intel introductie van de High Performance systemen (2 generaties door elkaar, kind off) lijkt op een verdedigings strategie richting AMD. Heerlijk! Hoop dat we dit een paar jaar zo houden, en dat AMD weer wat marktaandeel kan terugveroveren! Alleen maar goed voor de consument.
Omdat het daar niet mee vergeleken wordt. In hun presentatie vergelijken ze het met de net uitgebrachte Intel 8 en 10 core die gelijk zijn in prijs of meer kosten.

Cinebench laat gewoon standaard die cpus zijn.

[Reactie gewijzigd door Sp3ci3s8472 op 13 juli 2017 17:51]

Omdat de maker van cinebench r15 die cpu's erin heeft gezet en AMD niet een nieuwe benchmark heeft geschreven...
Hoe staat deze tov intel? Prijs/prestatie?
i9-7900x = $ 999 cinebench R15 2167
Threadripper 1950x = $ 999 cinebench R15 3062

Lijkt me duidelijk(in cinebench)
Je hebt niets aan die cinebenchscores. Je moet testen in de software zelf, dan scoort intel vaak vrij hoog, misschien heeft AMD dat voor veel software nu gelijk getrokken. Cinebench verteld je dat meer cores een hogere cinebenchscore geeft, ik vind het eigenlijk een nietszeggende test tegenwoordig. Je kan als individu van te voren al zeggen welke processor beter scoort in cinebench. Dan kunnen ze beter gewoon een 3dmax en een cad programma testen, wat dichter staat bij zakelijke gebruikers om maar wat te noemen. En iets met een SQL databse of programeer-achtig iets ofzo, een praktijktest.

[Reactie gewijzigd door govie op 13 juli 2017 17:52]

Threadripper 1950x ~ Ryzen 7 1700 x 2 lijkt me een redelijke schatting. Hiervan zijn voldoende benchmarks beschikbaar.

Intel vergelijkt hun eigen XEON 8 core ook met een op 2,2 GHz terug geklokte Ryzen 7 cpu.
Je schiet er niks mee op. Als mensen veel gebruik maken van softwaregroep X, dan moet je ook beoordelen op de prestaties in softwaregroep X. Niet een random getal gebaseerd op vooral het aantal cores van een processor zoals bij cinebench het geval is, het is nietszeggend.
Ik dacht 3 maanden geleden ook dat AMD de perfecte match was voor Solid works 3d cad en wat blijkt, Intel stak AMD nog steeds naar de troon ondanks minder cores. Laat mooi zien dat e.e.a. redelijk afhankelijk is van hoe goed de prestaties zijn in softwaregroep X zelf en niet zozeer een algemeen voorspelbaar testje, waarin meer cores altijd wint.

[Reactie gewijzigd door govie op 13 juli 2017 19:40]

Welke intel vs. welke AMD, welk type geheugen ?
Prijs wil ook nog wel eens belangrijk zijn.
In de afgelopen 3 maanden is er een hoop gebeurt.
Maar dat verandert niet mijn stelling over het weinige nut van de cinebench t.a.v. de meeste toepassingen die mensen thuis of op hun werk gebruiken.
Dat weten we nog niet, aangezien deze pas in augustus uitkomt.
Het is dus wachten op (real-life scenario) benchmarks en wat de prijs van de vergelijkbare Intel CPU is. Daarnaast is CineBench R15 een synthetische benchmark.
Edit: Ik denk dat AMD het beter gaat doen dan Intel, net als bij Ryzen (Zonder 'Threadripper').

[Reactie gewijzigd door Dyon_R op 13 juli 2017 16:45]

en wat de prijs van de vergelijkbare Intel CPU is
of wat de performance van een gelijkgeprijsde Intel CPU is :)
Cinebench is op zich een real life benchmark (want gewoon een bepaalde 3d scene gerenderd in de c4d renderer), alleen behoorlijk gelimiteerd en gedateerd. Het geeft eigenlijk alleen een idee van hoe een cpu presteert in "embarrassingly parallel" taken, iets wat de meeste zaken niet zijn.

CB hoeft zelfs voor renderen niet altijd meer representatief te zijn, het hangt ook af van de engine en het soort scene etc.
Ben benieuwd wat ze met gaming gaan doen, en of er meer cores kunnen met games.
Niks, dit zijn chips die niet voor gaming bedoeld zijn. Ja, het kan wel, maar dat is vooral voor je E-Peen.

Er zijn weinig tot geen games die gebruik maken van 24 threads. Althans: het probleem met games is dat alle informatie van de threads uiteindelijk naar één thread moet worden gepompt die de 'algehele controle' houd. Dit maakt dat single-thread performance tot een bepaalde hoogte bepalend is voor gaming performance.
Nou kan wel games met weinig objecten zoals boks sport spel in 3D first person.

Maar Arma waar ook elke kogel van 20mm gatling gun gesimuleerd wordt met ballistic.
Dan heb je paar honderd objecten die de breedte in kunnen gaan.
Deze engines passen vaker de DataOriented design toe voor een Entity component System.

In games waar er vooral veel van iets zijn en veel soorten objecten is zo een systeem efficienter.
En kan je per componentsystem de breedte in.

Er zullen dus games zijn die niet kunnen schalen ivm er te weinig te paraleliseren is.

Maar er zijn genoeg games die zeer sequentiele architectuur aanhouden en veel paralleliseerbare mogelijkheden niet benutten.
Andere games zijn gewoon te licht en hoeven niet de breedte in.
Zelfs dan moeten games hier nog gebruik van maken. Dat dit nu maar mondjesmaat gebeurt is omdat men bij het ontwerpen van dergelijke sub systems altijd een extra requirements mee krijgt in de hardware waar het op moet kunnen draaien. Heel lullig gezegd is het een simpele business case: pak de steam hardware survey erbij en bepaal de grootste massa die je wil bedienen. Alles wat daar buiten valt (zowel naar beneden als naar boven) kost meer dan het ooit gaat opleveren.

Voor parallellisatie kunnen (en worden) taken ook uitbesteed aan de GPU.

Arma 3 gebruikt overigens slechts twee cores en is een schoolvoorbeeld van een engine die niet met de tijd is mee gegaan.
nou vrij weinig denk ik. Zal net zoveel performance opleveren als een goede quadcore met 3,4GHz. Vrijwel alle paralleliseerbare dingen in games worden door de GPU gedaan. Voor de rest is 4 threads meer dan afdoende en heb je meer aan hogere clockspeeds.
Voor de huidige games wel maar in de toekomst zal je meer hebben aan meer cores. De huidige consoles zijn ook al 8 core cpus. Kwestie van tijd voordat er genoeg 4+ core cpus op de markt zijn en engine makers betere ondersteuning inbouwen.

Was met de core2duo en core2quads ook zo. Toen riep ook bijna iedereen koop een duo want net zo snel maar goedkoper. Een paar jaar later was die duo in games niet meer vooruit te branden terwijl de quads het nog prima deden.

Aangezien je tegenwoordig prima 5 jaar met een cpu kan doen als je voornamelijk games speelt is een 8 core op termijn waarschijnlijk helemaal geen slechte keuze.
Het is niet dat we octacores pas sinds gisteren hadden, de 6 en 8 core CPU's zijn al jaren en jaren op de markt, ook voor PC games (non-console) is daar amper tot geen mutli-core optimalisatie geweest.

En genoeg gamedevelopers hebben toegang tot de verdeling van de cijfers, als daar nog steeds het grootste deel op een 4 core zit, waarom focus op 6 of 8 cores, als je met 4core altijd goed zit? Elke keer bij multicore AMD's was het hetzelfde verhaal, kleine 10 jaar geleden al met de X6, later met de FX, wacht maar tot er Multi-core support komt.

Kan best dat het nu wel gaat veranderen, maar bv een Steam domineert de 2 en 4 cores met bijna 90% nog steeds en daar zie ik niet snel verandering in.
Er is al een hoop veranderd. Een quadcore is tegenwoordig met een hoop spellen geen overbodige luxe meer.
Is gewoon de absolute ondergrens tegenwoordig. Het is met het oog op de toekomst niet meer dan verstandig om te kijken naar meer cores op je CPU dan 4 stuks, en dan natuurlijk het liefste tegen de hoogste kloksnelheden; daar zit de sweetspot voor degenen die én willen produceren op hun PC, maar ook games willen spelen.
Het gaat erom wat is mainstream. Dat is belangrijk want voor de meeste games geld.
AI & Physic zijn fixed loads. Dus meestal niet instelbaar en dus gericht op mainstream target.
Er zijn uitzonderingen.
BattleField 2 had bot.
Aantal instelbaar was maar ook AI slider.
Sommige gpgpu physx enable games hebben wat physX setting.

Mainstream is uiteraard nogal fuzzy kreet.
De ene dev richt zich op zo brede publiek mogelijk. Dus lichte game.
Andere eisen 4core
Minder mainstream gericht kunnen 4 core laten zweten en voorbij de 4 threads benutten.

Doordat AMD voor minder meer cores bied en iNtel daar in meegaat.
Zal dat de verschuiving van mainstream voorbij quadcore stuk meer gaan stimuleren.
Maar dat heeft zijn tijd nodig.
Ondertussen zullen met de tijd meer dev engine treadpool geschikt maken voor veel meer threads.
En met DX12 & Vulkan kan ook de render component van de engine de breedte in.

Maar ja dat heeft zijn tijd nodig.

Waar i920 en PhenomII X4 965 nogal future proof zijn. En tot heden bruikbaar voor games.
Zou ik iig weer voor zo veel mogelijk cores gaan. Ook voor games.
In mijn geval 2018 tot 2026 games.
ook voor PC games (non-console) is daar amper tot geen mutli-core optimalisatie geweest.
Huh wat? Veruit de meeste games schalen netjes tot 8 cores of meer. Al zeker 5 jaar schalen games gewoon met het beschikbare aantal cores mee (als de power nodig is). Sinds het Unreal Engine 3 tijdperk, schalen de games netjes mee. CryEngine schaalt, Unity schaalt sinds een jaar of 2 netjes. Hero, Rage, Frostbite.

Al die engines schalen al jaren netjes naar de beschikbare cores en je hebt zo dik 90% van de games te pakken. Unity was als veelgebruikte engine eigenlijk de enige grote achterloper.

Het is Tweakers, toch jammer elke keer 10 jaar oude opmerkingen voorbij te zien komen.
Schalen mee, staat dat gelijk aan optimalisatie? Bijzonder, 10 jaar geleden was dat niet, vandaag de dag denk ik ook nog niet.
Dan moet je zelf ook niet overdrijven. Ja de engines scalen over meerdere cores. Dat is echter slechts de helft van het verhaal. De optimalisatie om daadwerkelijk de game goed te verdelen over de vele cores blijft nog achter bij de mogelijkheden. Pak een willekeurige recente AAA titel en vergelijk de belasting op een tweede monitor terwijl je aan het spelen bent. Het kost weinig moeite om te zien dat hier nog erg veel winst te behalen valt.

Ook niet gek, het is vele malen moeilijker programmeren. En als je de afweging moet maken tussen betere performance op de low end machines versus slechtere efficiëntie op 8+ cores dan zal men altijd voor het eerste gaan zolang duo en quad core nog het gros van hun afzetmarkt is.
Het plafond is qua snelheid allang bereikt Zelfs intel weet zijn CPU's al tijden niet echt verder te pushen of je moet 100 MHz op een nieuwe generatie veel vinden. De volgende stap gaat echt de breedte in ook wat betreft games. En net als bij de omschakeling van single naar dual en van dual naar quad cores zal het niet supersnel gaan, maar heb je een multicore cpu dan zal je echt wel langer profijt ervan hebben.
Daarnaast zijn alleen hexa en octa cores bij Intels hele dure lijn en op de FX8350 na een compleet gefaalde tijd van AMD te vinden. Ryzen doorbreekt die barriere en Threadripper schaalt het op. Is het nu interresant voor een gamer? Nee maar over een paar jaar echt wel, maar Threadripper is ook niet gemaakt voor de gamer maar voor de prosumer en die hebben hele andere eisen dan gamers op dit moment.
Onzin, Intel heeft totaal geen prikkeling gehad om grote stappen te maken. Met de huidige line up van AMD komt daar hopelijk verandering in!
Niet specifiek gemaakt voor de gamer, maar het HEDT platform wordt wel geprofileerd door beide partijen als CPU's die het beste van twee werelden (werk/games) bieden.
Eens en voor degenen die er graag nog wat cijfers bij zien kan ik het volgende filmpje aanraden: https://youtu.be/PKX9Bcxnd7U
Voor de rest is 4 threads meer dan afdoende en heb je meer aan hogere clockspeeds.
Uitzonderingen daargelaten is dit helaas nog steeds het geval, maar ik verwacht met de huidige ontwikkelingen in de processormarkt dat het niet lang meer zal duren voordat developers volle bak gaan inzetten op goede multithreaded support.

Battlefield 1 bijvoorbeeld (als uitzondering) liep als dikke kak op mijn i5 4670K 4,6GHz (4 threads) met GTX1060, maar toen ik overstapte op een i7 4790 (8 threads, lagere clocks) en omwille van geld de GTX1060 heb vervangen door een GTX970 loopt alles nu als veel beter dan voorheen met mijn 144Hz monitor. 70-80 fps maakte plaats voor 120+.

[Reactie gewijzigd door TheTinusNL op 13 juli 2017 17:12]

helaas heeft bf1 maar een beperking van 12 threads, opzich is het meer dan genoeg, maar dat viel me gewoon op dat hij bij mij niet meer dan 12 threads kan gebruiken
Het gaat niet om wat cores met games doen, maar wat games met de beschikbare cores gaan doen. De bestaande en toekomstige games zouden geoptimaliseerd moeten worden om met meerdere beschikbare cores om te gaan. Op het moment zie je nog steeds dat het niet uitmaakt of je 4 of 8 cores tot je beschikking hebt, als een game maar geprogrammeerd is om optimaal met 1 tot 4 cores om te gaan dan blijven hoe dan ook de andere 4 cores beschikbaar en levert geen extra prestaties
Tenzij je er meer naast doet, zoals streamen, maargoed dat is een hand vol mensen.
Idd, iemand die een AMD Threadripper of zijn tegenhanger de Intel i9 gaat kopen, doe het niet zodat die kan gamen, maar omdat die (veel) zwaardere applicaties wilt draaien en waarschijnlijk meerdere applicaties (AutoCAD, Photoshop etc) wilt draaien dan alleen Mickeysoft office open hebben en tegelijkertijd wilt surfen en muziek luisteren, dat kan in principe ook met een E8400 CPU (wordt wel steeds moeilijker :X ) ook.
Er zijn games die meerdere threads gebruiken, denk maar watch dogs 2. Voor de launch van ryzen was het gewoon niet nodig omdat de meeste pc gamers toch vaak een i5 of max i7 (beide quad cores) hadden. Nu met ryzen wordt en dalijk coffee-lake, en natuurlijk skylake-x/threadripper, wordt het voor developers interessanter om voor meerdere cores te developen.
Ik denk dat dat dus aardig tegen gaat vallen. Sommige processen kun je niet verder uit paralleliseren. Laat dat nu net de kracht zijn van een CPU synchrone rekentaken achter elkaar uitvoeren.

Meer dan 4 threads gaat niet ineens een snelheidswinst oppeveren als de workload dit niet kan hebben. We zullen dus eerst moeten wachten op engines die fatsoenlijke schaalbaarheid hebben en daar ook fatsoenlijk geheugen bij aan kunnen spreken.
We zien ook steeds meer dingen naar de GPU verschuiven, juist om de reden dat die veel berekeningen parallel uit kunnen voeren. Dat kan nu dus ook steeds meer op de CPU.
Nee want de hoeveelheid cores die zelfs een instap GPU hebben (IGP) zijn al tig keer hoger dan die van een CPU. Daarnaast heeft de architectuur van een CPU een compleet andere pijplengte en een langere doorlooptijd. Een workload die op GPU te paralleliseren is kan je niet op CPU draaien dat geeft vertraging van heb ik jou daar.

Ja het is beter te doen met 4 dan met twee, maar nog steeds kost het dermate veel tijd dat je het niet op CPU wil doen.
En hoe zit dat dan met physics? Die draaien zowel op de GPU (physx) als op de CPU (o.a. havok) prima. Physx draait ook op de CPU echter gebruikt deze daar maar 1 core, terwijl dat prima schaalbaar is over meerdere cores (= gebrekkige implementatie).
Goed punt. Daar is nog niet echt een consensus over. Punt is alleen het volgende:
Supersonic Sled is the only test that uses physX out of your list.

In most "physX" situations, it's handled on the CPU, but that's because most physX games do not use much physX effects. You can do a search for a list which has a 100 or more games and all but about 17-20 of these games do not have GPU accelerated physX.

Unless the games uses physx heavily, the CPU handles it just fine. On these games that uses physX heavily, they usually give you an option to use advanced PhysX or PhysX in general. In these games, you will want your graphics card to handle the physX, or not use the advanced physX options. The CPU will not be strong enough in almost all these situations.
Bron: http://www.tomshardware.co.uk/forum/303753-33-nvidia-physx

Ja het kan, maar handig is het dus niet. Met threadripper is de bar voor "if your cpu is strong enough" wel hoger, maar het hangt nog steeds af van de implementatie en die is, zoals je zelf ook aangeeft, single-core based.
Maar dat gaat over physx. Ik weet niet hoe het met de overige physic engines zit, maar Havok is al tijden multicore, alleen het jammere is dat Havok zo goed als gekilled is door Microsoft.
http://www.neogaf.com/forum/showthread.php?t=55011

Ik vermoed dat consoles hun physics ook gewoon via de cpu cores laten afhandelen, en aangezien die al tijden 8-cores hebben is het een kwestie van tijd (...wat tevens het probleem -en kip-ei verhaal is, uiteraard).
Physics is heel breed begrip.
Gravitatie.
Die enkele afgeschoten sniper bullit external balistics.
Cloth physics
Fluid physics rook water etc.
Destructie gegenereerd of fixed
Particles
Dat kan allemaal in effect physics uitvoering.
Of complexere interactieve gameplay physics.
een deel is dus slecht parraleliseerbaar en de meer finegrain type physics juist redelijk tot goed parralelliseerbaar.
Juist omdat het veel verschillende onderdelen zijn kun je deze dus makkelijk over meerdere cores verdelen, je hebt namelijk veel van de door jou genoemde zaken tegelijk. Lijkt mij dan, iig.
Moeten ze wel eerst voor programmeren/optimaliseren en ik denk dat AMD ons de consument alleen maar aan het verwennen zijn, als zij niet met de Ryzen 3, 5, 7 en Threadripper mee kwamen dan had Intel waarschijnlijk tot 2020 nog steeds ons 6 - 8 core 4Ghz CPU aangeboden.
Als ik CPU koop is niet voor de games van nu maar vanaf nu tot ergens in de toekomst.
Dat kan 5 tot 10 jaar zijn.
Als games van nu zo belangrijk vind.
Use case is clan gamer die 1 a 3 jaar dezelfde game online grijs speeld en regelmatig upgrade binnen 2 jaar. Tja dan kijk je hoe je favo game prestreerd.
Ben benieuwd wat ze met gaming gaan doen, en of er meer cores kunnen met games.
Niks, geen een spel werkt met meer dan 4 cores, het is 2 of 4 cores waar spellen gebruik van maken, op 1080P is de Intel Core i7-7700K zelfs vaak een stuk sneller, omdat CPU snelheid het belangrijks is in spellen op die resoluties en absoluut niet de cores, en op 4K zijn ze gelijk, en gaat het puur om de GPU.

https://www.youtube.com/watch?v=x4qmyaAC-Y4

https://www.youtube.com/watch?v=f3QDk2VCa-8

[Reactie gewijzigd door AmigaWolf op 14 juli 2017 01:37]

Bedoel ook in toekomstige spellen nu heb ik ook een 4820K met 4 cores goed genoeg voor mij.
De Frostbyte engine van BF ondersteund anders meer als 4 cores, vandaar dat processoren met meer cores het erg goed doen in die game, zelf de oude AMD FX processoren doen het goed in die game door de 8 cores

er zijn vast nog meer engines die meerdere cores ondersteunen, en toekomstige gaan dat zeker doen
De Frostbyte engine van BF ondersteund anders meer als 4 cores, vandaar dat processoren met meer cores het erg goed doen in die game, zelf de oude AMD FX processoren doen het goed in die game door de 8 cores

er zijn vast nog meer engines die meerdere cores ondersteunen, en toekomstige gaan dat zeker doen
En toch gebruik hij maar max 4 cores en niet meer, of het staat dan uit, of hij ken niet meer dan 4 cores hebben, en ik denk het laatste.

Aangezien je dat in alle reviews zie, dat de i7 7700 net zo goed doet als een CPU met veel meer cores in de spel.

[Reactie gewijzigd door AmigaWolf op 14 juli 2017 13:30]

Ik wacht de onafhankelijke reviews wel even af. Met benchmarks van de bedrijven zelf heb ik niet zoveel mee.
Ik meen dat AMD het tot nu toe niet overdreven heeft met Ryzen maar de slimme consument wacht inderdaad op de onafhankelijke review. Pre-orders zijn al helemaal van de zotte.
Nou het is wel duidelijk en ook te verwachten dat 16c TR het in Cinebench goed zal doen.
Ben meer benieuwd wat C++ compiler doet MSVS 2017
Met Threadripper.
het grappige vindt ik nog dat mensen hier reffereren naar games, zelfs als het gaat om xeons of epycs,
dat is tweakers anno 2017.
Nou deel van de power users gamen ook.
lig als ik voor ThreadRipper ga 12 of 16Core zal die ook games te verwerken krijgen.
aan een 32" 1440P scherm en de G-kaart vind ik veel belangrijker voor gamen dus met RX Vega zou dan er goed bij passen.
ik doel meer op de groep die zegt dat A slecht is vanwegen de single thread perf, dat het aantal cores overbodig is, omdat game b het toch niet gerbuikt, en je met cpu c meer uit dat spel haalt.

ik heb zelf ook een hedt platform waar ik af en toe op game, en ja mijn single thread perfomance is denk ik een stuk lager dan de meeste hier,
Ja inderdaad.
Maar ik ben al blij dat het weer eens een keer niet over telefoons gaat .......
IDD, zelfs BF1 met 64 spelers zal een 7700k gemiddeld op 60% lopen. als je denkt daar een 10-16 core nodig voor te hebben,.... ben je niet tweakerwaardig lol

[Reactie gewijzigd door A87 op 14 juli 2017 00:35]

Buiten dat zal bf1 niet meer dan 12 cores in bruik nemen, en dan is bf1 best multicore geoptimaliseerd
Ik dacht meer aan een Ryzen INTELripper
njah zou meer Intelcracker heten dan
Bye bye intel. Hier kunnen ze qua prijs/prestaties niet tegen op. Ideale processor voor een rendernode. Zie hier hoe Intel weggevaagd word:

i9-7900x = $ 999 cinebench R15 2167
Threadripper 1950x = $ 999 cinebench R15 3062

[Reactie gewijzigd door bones op 13 juli 2017 18:31]

Tuurlijk kan Intel daar wel tegen op. De vraag is vooral: willen ze dat wel? Voor hen is het belangrijk dat AMD een mooi deel van de markt in handen blijft houden. Mocht AMD te klein worden, dan zal Intel ook aan steeds meer regels onderworpen worden voor hun marktdominantie.

Wordt AMD te groot, dan laat Intel gewoon zijn eigen prijzen dalen, het is niet alsof er geen marge zit op Intel CPUs.
Ik denk niet dat Intel zich zorgen maakt om die regeltjes die bij een monopoliepositie horen, hoor. Weet je die boete nog van meer dan een miljard euro? Nou, die hebben ze gewoon betaald. Business as usual. Monopolieregels zijn niet anders voor een bedrijf. Niet leuk, maar de consument heeft toch geen keuze, dus eigenlijk ook niet zo relevant.
Natuurlijk maken ze zich daar wel zorgen om. In de jaren 90 stond Apple op het punt om overkop te gaan en te verdwijnen. Wetgevers waren er toen al over aan het nadenken om Microsoft te verplichten zichzelf op te splitsen. MS en Bill Gates hebben daarop geïnvesteerd in Apple en de terugkeer van Steve Jobs zodat ze ook hun eigen bedrijf konden redden.

Hier kan hetzelfde gebeuren. AMD kan je de afgelopen jaren moeilijk een gezond bedrijf hebben genoemd. Als dat overkop zou gaan bestaat de kans dat Intel zichzelf had moeten opdelen om te mogen overleven. Wees er maar zeker van dat ze dat wel erg vinden.
maar met x299 laat Intel nu wel duidelijk merken zowel op consument als op server platform dat ze niet weten wat ze in de strijd kunnen gooien, ze waren hier totaal niet op voorbereidt.
het is al vrij duidelijk dat AMD dit jaar de winaar is, mischien dat ze volgend jaar dichter naar elkaar weer toe groeien, of dat Intel AMD weer eens voorbij streeft
over 5 jaar is dit mainstream shit voor 200 euro.. op zich grappig hoe snel alles gaat.

Verbaasd mij nog hoe lang QUAD core het nog doet

[Reactie gewijzigd door A87 op 13 juli 2017 22:35]

mij absoluut niet.

feit is, overgrote deel van pc gebruikers gamed op 1080p.

daar heb je niet meer dan een simpele quadcore 3Ghz, 4GB ram en een R9 280x voor nodig, en dat is dan eigenlijk al overkill, afhankelijk van je instellingen natuurlijk.

heel simple.....er is altijd een soort van "sweet spot" / standard, wat de meeste mensen wel hebben op dat moment....4 vs 8GB ram, 1 a 2 vs 3 a 4GB GPU ram, etc etc, de standard schuift steeds een beetje op.

wat vorig jaar high end was, is het jaar erna, of 2 jaar, high midrange, omdat er beter en snellere versies uit zijn gekomen
overgrote deel van de pc gebruikers gamed niet!
4gb ram voor een huidig spel is echt aan de krappe kant.

2 jaar ? uhm X79 uit 2012 blaast nog steeds intels mainstream er ver uit, dit puiur op basis van mogelijkheden op het platform zelf(denk aan 40 pcie lanes ), en de ondersteuning voor 12 core, 24 threads xeon.
tuurlijk x79 is opgevolgd voor x99, en deze zomer voor x299 , maar 2 jaar ? echt niet
mij absoluut niet.

feit is, overgrote deel van pc gebruikers gamed op 1080p.

daar heb je niet meer dan een simpele quadcore 3Ghz, 4GB ram en een R9 280x voor nodig, en dat is dan eigenlijk al overkill, afhankelijk van je instellingen natuurlijk.
Veelgemaakte denkfout. Op een hogere resolutie, 4K heeft 4x meer pixels, moet de videokaart veel harder aan de bak. Je bent hierdoor juist sneller gpu limited. Met andere woorden; zolang het overgrote deel op 1080p blijft hangen heb je juist meer aan extra processor kracht.
interssant voor ons want wij hebben een parallel overstromingsmodel in de maak. Ik zou dit wel eens willen proberen. wel even goed investeren in goed gebeugen, en goede ram is ook duur.


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*