Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Willem de Moor

Redacteur componenten

Threadripper 1950X, 1920X en X399

AMD's zestienkoppige monster

Door , 219 reacties

Conclusie: de snelste, voor nu

Voordat we naar een conclusie toewerken, moeten we een bekentenis danwel belofte doen. De door ons gebruikte benchmarks zijn vooral bedoeld voor een gemiddelde quadcore en zijn prima bruikbaar voor processors met twee tot acht cores. Met een core of tien tot straks achttien is een singletasked workload echter niet de meest realistische. Omwille van de tijd en om te kunnen vergelijken hebben we ook dit keer onze standaardbenchmarks uitgevoerd, maar op een later tijdstip willen we zeker kijken naar workloads waarbij de processor diverse taken naast elkaar moet uitvoeren. We denken aan video renderen of transcoderen en gelijktijdig gamen, maar input is uiteraard welkom.

Dat gezegd hebbende, als we naar de huidige resultaten kijken, is Threadripper nog niet de klapper die het beloofde te worden. In sterk multithreaded benchmarks, met het imposante resultaat van Cinebench voorop, verplettert Threadripper alle concurrentie. Dat geldt niet alleen voor de 1950X, maar ook de 1920X weet de duurdere 7900X van Intel geregeld bij te benen of voorbij te streven. Intel blijft een duidelijk voordeel hebben bij software die minder goed in threads is op te delen of die veel informatie tussen cores en caches deelt. Dan zijn er nog legio problemen met software die simpelweg primair voor Intel-architectuur is geoptimaliseerd of die niet lineair met het aantal cores schaalt.

In sterk multithreaded benchmarks verplettert Threadripper alle concurrentie

In ongeveer veertig procent van de benchmarks is de 1950X sneller dan de 7900X van Intel en dan hebben we opgenomen vermogen en games niet meegerekend. Op het gebied van games is Threadripper trager, maar in een vervolgreview moeten we zien hoe dat zit met 4k-gaming en gelijktijdige workloads. Het TR4-platform is ook iets minder zuinig dan Intels X299-platform, hoewel het verschil voor ons gevoel nog wel wat minder kan worden op iets volwassener platforms. Desalniettemin kunnen we Threadripper moeilijk als gameplatform aanraden, hoe graag AMD dat ook doet. Gaming is nu eenmaal een lucratieve markt, maar als je niet tegelijk streamt, converteert en opslaat, ben je ons inziens beter én goedkoper uit met een rappe quadcore. De gamemodus met alternatief geheugenbeheer geeft je lang niet zoveel betere prestaties als gewoon sneller geklokt geheugen.

Met andere woorden: de 1950X en de 1920X zijn geduchte concurrenten voor Intels high-end platform, met als snelste exponent momenteel de i9-7900X. De mate van concurrentie is wel sterk afhankelijk van je gebruik; renderen schaalt beter dan Photoshop op zestien cores en voor puur gaming hoef je lang niet zo diep in de buidel te tasten als voor X299- of X399-systemen. De 1920X kost 799 dollar en de 1950X kost 999 dollar, net als de i9-7900X. Voor beide platforms heb je een over het algemeen vrij prijzig moederbord nodig, en beide gebruiken quadchannelgeheugen en worden natuurlijk liefst uitgerust met een stevige videokaart. Totdat Intel met zijn serverchips voor het X299-platform komt, is AMD in ieder geval wat coreaantal, en daardoor in multithreaded applicaties, de nieuwe baas in cpu-land en dat is voor het eerst in een lange, lange tijd.

Reacties (219)

Wijzig sortering
De door ons gebruikte benchmarks zijn vooral bedoeld voor een gemiddelde quadcore en zijn prima bruikbaar voor processors met twee tot acht cores. Met een core of tien tot straks achttien is een singletasked workload echter niet de meest realistische. Omwille van de tijd en†om te kunnen vergelijken hebben we ook dit keer onze standaardbenchmarks uitgevoerd, maar op een later tijdstip willen we zeker kijken naar workloads waarbij de processor diverse†taken naast elkaar moet uitvoeren. We denken aan video renderen of transcoderen en gelijktijdig gamen, maar input is uiteraard welkom.
Gelet hierop vind ik dat je voorzichtig moet zijn met je conclusies. 1 zin verder staat dat "Threadripper nog niet de klapper [is] die het beloofde te worden", maar dat is toch te snel geconcludeerd.

De conclusie van HWI is daarom wat evenwichtiger:
Mission accomplished AMD! Door de bank genomen mogen we concluderen dat voor workloads waar high-end desktop systemen ťcht voor bedoeld zijn, AMD na ruim 10 jaar eindelijk weer kan claimen de snelste processor ter wereld te hebben. De circa § 1000 kostende AMD Ryzen Threadripper 1950X weet in alle volledig multi-threaded content creation workloads het eveneens circa § 1000 kostende topmodel van Intel, de Core i9 7900X, achter zich te laten. De prestatieverschillen kunnen aanzienlijk zijn; 38% in Cinebench 15, 19,6% in Blender, 11,9% in Premiere Pro, 17,9% in x264 - en, minder spectaculair, 5,9% in Excel. In dergelijke benchmarks zet de zo'n 200 euro goedkopere Ryzen Threadripper 1920X zoals door AMD beloofd in de regel op zijn†minst prestaties neer die vergelijkbaar zijn met die van Intel. Het Intel-platform is duidelijk sneller in (oudere) single-threaded workloads, maar wie als content creator een systeem samenstelt voor videobewerking op (semi)professioneel niveau, 3D-rendering, number crunching of andere zware workloads, zal daar in de regel minder aan tillen. Als AMD ook in single-threaded Intel had kunnen verslaan, zou het feest helemaal compleet zijn - maar dat is niet het geval.
Wij sluiten toch af met grofweg dezelfde gedachte?
Totdat Intel met zijn serverchips voor het X299-platform komt, is AMD in ieder geval wat coreaantal, en daardoor in multithreaded applicaties, de nieuwe baas in cpu-land en dat is voor het eerst in een lange, lange tijd.
Bij workloads met veel multithreading is Threadripper koning, er zijn alleen weinig situaties waarin hij compleet tot zijn recht komt.

[Reactie gewijzigd door WoutF op 10 augustus 2017 20:49]

Ik ben wel eens benieuwd naar de vergelijking met Capture one Pro als ik naar andere vergelijkingen kijk schaalt deze voor software een stuk beter met meerdere cores dan Photoshop. wellicht dat een export hierin niet veel zoveel extra tijd vergt als andere tests en wel twee programma's met dezelfde functionaliteit naast elkaar neerzet.
Photoshop schaalt in het algemeen niet zo goed met multi-core omdat nog veel van Photoshop's functies nog gewoon single core zijn. Er zijn een handjevol multicore functies.Daarnaast ligt het ook aan de functie/plug-in wat het mest gebruikt wordt: geheugen of processor. Vandaar dat de resultaten enorm kunnen verschillen.

In het algemeen kun je dus stellen dat Photoshop niet zo goed schaalt, tot ongeveer 4 cores, afhankelijk van de functies die je gebruikt.

Adobe is een beetje lui met optimaliseren. Ze adviseren bij elke versie dan ook wer een flinke pc/mac met veel geheugen en multi core.

Denk hierbij ook aan Lightroom, waarbij veel klachten zijn over trage functies.

[Reactie gewijzigd door Tourmaline op 11 augustus 2017 08:38]

Of bijvoorbeeld een Davinci Resolve, ook aan pakket wat goed met een hele bult aan cores om weet te gaan.
als ik een groot formaat foto eddit, (1-10 Gigapixel)
trek ik hier 20 xeon cores 40 threads helemaal vol met photoshop.

met kleinere afbeeldingen is dat inderdaad niet te zien, en dat is ook duidelijk terug te vinden in de forums van Adobe.

het edditen van grote fotos, heeft baat bij veel, en snel ram geheugen, alswel flink veel CPU power.
ik denk dat dat een goede onderschijd had kunnen maken.
NIet alleen mulltithreading: Programmeurs moeten bijvoorbeeld vaak hele lappen code compileren. De compiler, GCC in ieder geval is singlethreaded, maar als je bijvoorbeeld een Linuxkerneltje compileert draaien er zo tientallen compilers tegelijkertijd. Idee om op te nemen in de benchmarksuite?

Verder zou ik denken aan simulatiesoftware, dat is typische software die je op een powerdesktop draait.
Het is alweer een aantal jaar geleden dat ik het heb gebruikt maar in Gentoo zou je met emerge een middelzwaar pakket kunnen laten compilen, die verdeeld de workload automatisch over verschillende threads.
Bij workloads met veel multithreading is Threadripper koning, er zijn alleen weinig situaties waarin hij compleet tot zijn recht komt.
Er zijn ook maar weinig situaties waarin je zo'n processor koopt.

Het gaat erom dat de processor beoordeeld wordt voor het doel waarvoor hij wordt gemaakt en gekocht. De prijs/performance verhouding van ThreadRipper is voor zware multicore workloads gewoon beter dan bij Intel. Dat AMD daarin geslaagd is, met bovendien een veel lager R&D budget vind ik absoluut een klapper.
Er zijn ook weinig situaties waarin een desktop processor 1000,- euro kost.
Maar voor die situaties waarin je dat geld uitgeeft heb je daar ook wel een bepaald doel mee.

Een compute GPU beoordelen op game capaciteiten is ook niet logisch.
Er zullen vast wel mensen zijn die deze CPU's kopen om enkel te gamen, maar dat heeft denk ik minder met prijs/kwaliteit te maken en meer met het openen van een kast en te laten zien dat je de grootste pe...eh, CPU hebt.

Het is goed om te kijken naar nieuwe manieren dit soort CPU core monsters te gaan testen, misschien een workload met virtualisatie waarbij je op een desktop een klein bedrijf kunt simmuleren? Genoeg IT'ers die lokaal een VM draaien om eens wat te kunnen testen.
Ik vraag me nog steeds af waarom cinebench en blender als benches gebruikt worden.
Beide hebben de mogelijkheid tot distributed rendering (net zoals povray)
Is het dan niet goedkoper om een berg "oude" machines aan te schaffen deze in een netwerk te plaatsen en aan te zetten wanneer je de (final) rendering gaat uitvoeren?
Wat ik tot nu toe merk is dat de modelers van cinema 4D, blender, dassault solidworks en autodesk inventer puur single threaded zijn en dat dit ook niet veranderd. Dus lijkt mij de volgende opzet voor renderen het beste. Een modeler machine met een bv ryzen of 7700k, en daarnaast een render farmpje voor de final rendering. Hierdoor snel voor algemeen werk en supersnel voor render werk. Tuurlijk is het stroom verbruik hoog tijdens de render slag maar deze duurt hierdoor kort en je zet ze toch weer uit als het gedaan is. Tijdens het normale werk (modeling) heb je hierdoor juist minder verbruik dan je zou hebben gehad met een full-blown render + modeler machine.

Is dit niet 1 van de redenen waarom Pixar met render farms werkt?

Nu voel je wel aan dat licenties het verhaal gaan bepalen. Aangezien de "oude" render farms uit steeds minder machines bestaan, zal de inkomsten van deze bedrijven ook steeds minder worden, en dat gaat natuurlijk ergens wringen. De profi database markt heeft dit opgelost door licenties per core te gaan vragen. Geen idee of dit ook voor de renderers in de toekomst gaat gelden.
Ik doe zeer veel met 3d studio max animaties en qua rendering is juist multithreaded enorm handig qua rendering snelheid. Had eerst een renderfarm van 6 dualcores, en heb die vervangen voor 2 quadcore rendernodes. Veel sneller en goedkopere running costs.

1x een threadripper is veel efficienter dan 3x een 7700k rendernode. Zowel qua stroomverbruik als aanschaf.
Ik heb vorige jaar een dual xeon e5-2680 (16core) gebouwd voor minder dan 1000 euro gebouwd, werkt perfect als webserver(storage)/renderserver, zou dat niet iets voor jou zijn? Die scoort 2000 in Cinebench (Threadripper 2500 of zo).
Zijn dat die oudere xeon processors van 100 eur op ebay? Heb daar wel eens naar gekeken maar moederborden waren lastig te vinden.

Maar qua renderingpower is het super natuurlijk een score van 2000+
Wanneer je 1 systeem hebt met 8 cores of 2 systemen met 4 cores en alle andere factoren zouden gelijk zijn dan is het systeem met 8 cores nog altijd sneller door de kleinere overhead die dat systeem heeft.

Jij spreekt evenwel van een berg oude machines, met andere woorden: systemen die per clocktick een stuk langzamer moeten zijn. Om de snelheid van deze 32 threads te benaderen ga je dan los over de 40 threads moeten gaan. Allemaal systemen die apart van voeding voorzien moeten worden, die allemaal hun eigen OS moeten draaien. Die allemaal gemonitored moeten worden. Allemaal opgezet moeten worden en geconfigureerd moeten worden.

Neen, ik denk echt niet dat dat in de long term goedkoper of eenvoudiger is dan 1 krachtig systeem neer te zetten.
Wat ik tot nu toe merk is dat de modelers van cinema 4D, blender, dassault solidworks en autodesk inventer puur single threaded zijn en dat dit ook niet veranderd.
Bij modeling heb je idd meer baat bij een stevige FireGL of Quado videokaart.
Maar rendering en simulatieberekeningen zijn wel degelijk multithreaded. Bij een quadcore scheelt het echt al bakken tijd tov dualcore.
Is het dan niet goedkoper om een berg "oude" machines aan te schaffen deze in een netwerk te plaatsen en aan te zetten wanneer je de (final) rendering gaat uitvoeren?
Dat kun je uitrekenen ;)
Tel daarbij natuurlijk ook de complete machine- en stroomkosten mee en het onderhoud ervan.
Daarbij: er worden heel vaak testrenders gedaan. Dan helpen extra cores heel veel. Niks frustrerenders dan lang wachten voordat je weer verder kunt. Dus ook je workflow is ermee geholpen, niet alleen de final render.

[Reactie gewijzigd door Fireshade op 11 augustus 2017 12:13]

De circa § 1000 kostende AMD Ryzen Threadripper 1950X weet in alle volledig multi-threaded content creation workloads het eveneens circa § 1000 kostende topmodel van Intel, de Core i9 7900X, achter zich te laten.
mmmmm... maar de het (de) sleutel woord(en) zijn "volledig multi-threaded content creation workloads" en dat doen maar heel weinig mensen. Voor de meeste gebruikers zullen de meeste cores gewoon uit hun neus lopen te peuteren.

Als je dat evenwichtig noemt.... okay. Ik persoonlijk heb nog nooit mijn PC naar de 100% load op alle cores weten te brengen met 'volledig multi-threaded content creation workloads'. Ik kan slecht aannemen dat dat voor jouw dagelijkse kost is omdat je dat als benchmark ziet, Persoonlijk (en met mij de meeste mensen) zou ik veel meer meer hebben aan een quad core 5 ghz CPU dan aan een 16 core machine die langzamer loopt.
Helemaal waar, maar de realiteit in de informatica is dat kloksnelheid een doodlopende weg is. Programmeurs is decennia verteld dat ze hun software niet hoeven te optimaliseren omdat computers steeds sneller worden, maar dat gaat anno 2017 niet meer op. De enige bereidbare weg naar meer rekenkracht is meer kernen. Dat software die niet kan gebruiken is geen reden om de doodlopende weg te bewandelen, programmeurs moeten een schop onder hun luie reet krijgen om hun software te paralleliseren.
Tijdens mijn studietijd (TUE INF/91) was er in het curriculum al volop aandacht voor parallellisme.
Software ontwikkelaars, die zich hierin, zeker na de algemene beschikbaarheid van multi-cores, niet verdiept hebben, zijn misschien idd lui of niet bevlogen genoeg. Bovendien zal een deel van de programmeurs afvallen, omdat het schrijven van niet-triviale, multi-threaded software te complex voor hen is.
Klopt, in de academische informatica is al heel lang aandacht voor parallelisering, omdat men daar wat meer aandacht voor grote computers had waar sneller meerdere processoren in zaten, en omdat men verder vooruit kijkt. Toch heb ik ook tijdens mijn studie vaak grafiekjes gezien hoe de wet van Moore softwareoptimalisatie overbodig maakte.

Het echte probleem zit 'm vooral in het bedrijfsleven: Trage programmeertalen en mensen van de straat plukken en een cursus programmeren geven. Dan vooral de boodschap dat snelheid te koop was.
Als latency belangrijk is paralleliseren altijd een probleem. Best avoided.
Dat lijkt me evidente onzin. Stel je maakt een webserver en die maakt geen gebruik van threads. Gebruiker A downloadt een groot bestand van de webserver. Gebruiker B kan dan pas bediend worden als gebruiker A klaar is. Door threading of parallelisering via meerdere processen kan gebruiker B een lage latentie worden geboden.

Maar stel er zijn inderdaad situaties waarbij parallelisering ongewenst is, wat verandert dat aan de kwestie dat tijdens softwareontwikkeling te weinig naar parallelisatie wordt gekeken?
Ik heb het over latency van geheugen en processing speed - bijvoorbeeld in games. Parallelisering heeft twee problemen:

1. Caching. Als thread-1 data verander want thread-2 mee bezig is moet de data via L1/L2/L3 verschoven worden tussen de cores.
2. Race Conditions. Elke thread moet rekening houden met de feit dat een ander thread net bezig mag zijn met zijn variablen.
Ik zou het geen problemen, maar uitdagingen noemen, beiden zijn door goed programmeren te ondervangen. Het eerste door de gegevens waar de code op werkt op voorhand over de beschikbare rekenkernen verdelen, het tweede door fijnmazige locking of het gebruik van atomaire processorinstructies (cmpxchg en dergelijke).
Jaren lang heb ik met financieel data gewerkt en zulke systemen gebouwd. Jij moet per slot van rekening peaks van 400k+ message per seconden verwerken. Zonder delay.

Wij hebben compare-en-swap geprobeerd, maar als het fout ging had jij plotseling hoog latency. Debugging was enorm complex, kost veel tijd en Intel had de antwoorden ook niet, vooral omdat de onderliggende O/S ook nog van alles aan het doen ben. Functies zoals cmpxchg werkt niet over multiple cpus, dus is dat niet eens een optie voor threadripper. De oplossing die wij koos was core-binding en functie scheiding in de architectuur.

Een mogelijke oplossing ligt in de control protocol van QPI of infinity-fabric en de dynamic process core binding van een O/S.
Dat cmpxchg niet op meerdere processoren werkt, daar heb ik nog nooit van gehoord. Sterker nog, de heapmanager van Free Pascal, een compiler waar ik aan gewerkt heb, gebruikt ze en ik heb die met eigen handen lopen optimaliseren en debuggen op systemen met vier Piledriver-processoren (dat is 64 kernen per machine).
Ik heb begrepen dat qua performance is cmpxchg net zo duur in cycles als een 'lock xchg', want de proc moet zeker zijn dat de data niet op een ander L1 cache op een ander cpu wordt geupdate. En dat is slecht voor latency.
Dat is op zich juist. Het voordeel is dat de cmpxchg atomair is: Tussen de cmp end de xchg in kan een andere kern de data niet wijzigen. Dat betekent dat je geen semafoor of kritieke sectie nodig hebt om dat te voorkomen: Een system-call stukken minder efficiŽnt met alle gevolgen voor latentie van dien. cmpxchg en lock xchg zijn beiden gereedschappen die gebruikt kunnen worden om code threadsafe te maken, zonder de kernel van het besturingssysteem erbij te betrekken. Ze zijn vergeleken met systemcalls relatief goedkoop, vergeleken met gewone instructies behoorlijk duur.
Het vreemde is dat bij Hardware.info (zelfde uitgeverij) wel een genuanceerder verhaal staat.

https://nl.hardware.info/...rug-in-de-lead-conclusien

Uit grafieken daar blijkt dat je beter een Ryzen kunt kopen en met je zult besparen makkelijk een 1080 kunt betalen.

Persoonlijk denk ik dat doelgroep voor Threadripper bij beroepsmatige Adobe creative suite gebruikers zit.

Wel jammer heb nieuwsgierig maar threadripper uitgekeken.
Als je heel eerlijk bent dan is die intel processor gewoonweg sneller, die threatripper heeft gewoonweg meer cores zodat ie meer rekenkracht op de software kan doen die puur om rekenkracht vraagt.
Maar het is wel een goede processor ik geloof dat amd nog nooit zo kortbij is geweest kwa performence.
Maar met de games moet ie afhaken, maar laten we eerlijk zijn misschien is bij sommige games speciale software aanwezig voor de intel processor waardoor desbetreffende game misschien sneller de processor kan benaderen.
Het is allemaal maar een miniem verschil ze verlopen elkaar niet veel.
ik vind dat amd gewoonweg goed bezig is maar intel processor met weinigere cores even snel of iets sneller.Amd is nog nooit zo kortbij met de performance geweest.
Amd ga zo door.
Als je heel eerlijk bent dan is die intel processor gewoonweg sneller, die threadripper heeft gewoonweg meer cores zodat ie meer rekenkracht op de software kan doen die puur om rekenkracht vraagt.
Volgens de huidige performancemetingen zou Intels single threaded performance inderdaad nog iets groter moeten zijn. Een kanttekening die we hierbij kunnen maken dat het heel waarschijnlijk is dat de testsoftware geoptimaliseerd is voor Intel. Gewoonweg omdat dit het meest waarschijnlijk is door de overhand die Intel op de markt heeft. Het lastige is dat die invloed van die optimalisatie bijna niet is te kwantificeren. Het argument is bij een prestatieverschil AMD ten opzichte van Intel dus te gebruiken om dit verschil te vergoelijken. Hierop kan je kritisch zijn. Maar omdat we niet weten hoe groot dit effect is kunnen we het argument ook niet diskwalificeren. Eigenlijk lastig.

We kunnen dus bijna niet zeggen dat processor zus sneller is dan processor zo. De snelheid wordt bepaald door een samenspel van processor, omliggende hardware, OS, drivers en de applicatie zelf. Voor een toepassing specifiek voor die applicatie kan een benchmark worden gedraaid. Voor dat platform en die applicatie is dan een snelheid af te geven. Dit is dan ook wat sites als tweakers heel verdienstelijk doen. Een bak aan informatie over vele performances en evenzovele toepassingen is alleen een moeilijk verhaal om te vertellen. Daarom voelen sites zich verplicht om het voor hun lezers nog eens samen te vatten in een conclusie. Op die richtlijnen in die conclusie is altijd wel wat af te dingen. Overal zijn uitzonderingen te verzinnen. Zo zal er een oude single thread toepassing zijn te vinden die sneller loopt op Threadripper, en andersom is er misschien een multicore toepassing die extreem is geoptimaliseerd voor Intel.

In die discussie over de conclusies van tweakers en hardwareinfo vind ik dit ook zo opmerkelijk. Beide conclusies houden wat mij betreft evenveel steek, en zouden misschien eerder observaties moeten worden genoemd. Ook op dezelfde manier zijn ze wat speculatief (tweakers door haar uitspraak over de overall performance te definitief te maken, hardwareinfo net zo goed door net zo definitief te zijn over de singlecore performance).

Ik heb wel eens een discussie gehad hoe je dan toch neutraal performance kan meten van grafische kaarten, want hierbij speelt die software optimalisatie volgens mij nog meer. Zelf had ik toen ook zoiets van: " alleen meten met games die niet specifiek voor AMD of nVidia zijn geoptimaliseerd." Dat klinkt heel mooi, maar is denk ik bijna niet uitvoerbaar. Ik vermoed dat deze optimalisatie polarisatie in processorland nog niet zo extreem is. Met een goede generieke benchmark, met een zo simpel mogelijke code, zou dan toch een eerlijke uitspraak over de processor performance moeten zijn te doen? Dan denk ik aan programma's als Wprime, Superpi, er zijn er vast al weer betere die redelijk droog de hardware performance meten, zonder toeters en bellen.

Maar eigenlijk is zo'n laatste meting een beetje academisch. Uiteindelijk wil je gewoon een processor die past bij je behoeften. En is de vraag voor een performance bij een of twee specifieke toepassingen het enige wat telt. Wat ik super vindt is als ik zie hoe AMD in een voor Intel geoptimaliseerde softwarewereld tegenwind zulke prestaties neerzet. En dat is ook de voorlopigheid in deze discussie. Wat kan er nog gebeuren, zodra de software optimalisatie voor AMD op gang komt. Omdat de klanten dat gaan eisen. Naar dat laatste ben ik best benieuwd. Wat dat betreft zouden we met een aantal synthetische benchmarks en toepassingen nu een nulmeting moeten doen, en die over 2 of 3 jaar op dezelfde hardware als nu, maar wel met up to date software van dat moment nog een keer gaan meten. Misschien dat we dan die optimalisatie factor wat beter kunnen vastpinnen. Misschien.

edit: typo's

[Reactie gewijzigd door teacup op 12 augustus 2017 11:35]

En mensen die veel C++ compileren... Ben nu mijn project, Krita, aan het optimaliseren voor heel veel cores, maar dat wordt door Intel gesponsord :-)
Er zijn geen miljoenen coders in een markt als Europa.

Gebruik je Intel compiler?
Had ooit eens gelezen dat Freebsd onder apple efficienter loopt omdat Intel Apple hielp en ze Intel compiler gebruikten.
Krita wordt veel gecompileerd door anderen. Voor Linux wordt gebruik gemaakt van gcc, voor macOS cland, en voor Windows mingw. Geen Intel compiler dus. Ik neem aan dat Intel wel helpt bij het ontwikkelen van elk van deze projecten, maar dat kan ik niet met zekerheid zeggen.

Er zijn zat mensen die programmeren en renderen. En er zijn er ook zat die een centrale computer gebruiken om dat voor hun te doen. Ik neem aan dat Boudewijn van Krita het dus wel lokaal doet, en daarbovenop C++, dus zeker wel houdt van meer cores.

Misschien een beetje niche, maar het is dan ook een serie niche processoren vandaag de dag.
Je hebt wel primair twee grote groepen.

Kantoor/werkplek automatisering en gamers en wat er tussen in zit.

Specifiek hardware voor grafische werk en programmeurs is er niet echt meer.

Vroeger zag je in grafische industrie veel Apple en CGI.

Speciale hardware voor digitizer (cad/cam).

Maar op tijd kritische zaken na voldoet alles wat je kunt kopen voor rond de 1000 euro tegenwoordig.

Maar als ik een kernel of iets ander compile (LAMP) ga ik er niet op wachten. Of het 30 minuten of 10 minuten maakt mij niet uit. Langer compiler forceert je om wat beter over je keuzes (modules, compiler opties etc..) na te denken en te onderzoeken.
Nee, icc heeft altijd wat moeite gehad met sommige van onze dependencies -- VC en G'Mic. Die zijn heel gevoelig. Maar Intel geeft ons nu daadwerkelijk wat geld om Krita beter te laten werken met heel veel cores :-).
HWI heeft de laatste tijd wel betere reviews dan Tweakers. Wordt het misschien eens tijd om daar te gaan neuzen.
Kan prima op allebei rondneuzen. Beperk jezelf niet te veel
Helemaal met je eens, daarnaast moet er nog veel geoptimaliseerd worden mbt tot software. De laatste jaren was het vrijwel alleen Intel.

zie bijvoorbeeld de winst van optimalisaties voor Ashes of the Singularity.

Daarnaast 64 PCI-E Gen3 lanes dit betekend dus dat vrijwel elke configuratie op maximale snelheid kan werken.

*Off Topic*
Epyc zal enorme positieve verandering brengen op de server market en voor gpu powered onderzoek met 128 lanes vs Intels huidige max van 44.

[Reactie gewijzigd door Jonathan-458 op 10 augustus 2017 20:51]

Gelet hierop vind ik dat je voorzichtig moet zijn met je conclusies. 1 zin verder staat dat "Threadripper nog niet de klapper [is] die het beloofde te worden", maar dat is toch te snel geconcludeerd.
Je haalt dat stuk ook wel uit zijn context zo. De hele zin is namelijk:
Dat gezegd hebbende, als we naar de huidige resultaten kijken, is Threadripper nog niet de klapper die het beloofde te worden.
Inderdaad, waardeloze benchmarks en review IMO. Een CPU met 16 cores en 32 threads en die NIET testen met benchmarks die alle cores/threads gebruiken .....
We hebben genoeg benchmarks gedraaid die alle cores belasten hoor, kijk nog maar even goed.
Sorry dat ik zo uit de hoek kom maar ik vind dit echt een bekrompen reactie. Er is een heel team aan het werk welke hun best doen om een review als deze te schrijven en te publiceren met daarin gewoon netjes de multi threaded benchmarks en dan kom je met zo een reactie. Echt jammerlijk.
Exact, je gaat een Porsche ook niet primair testen in kleine straatjes.
Nieuwe tijden en nieuwe hardware vragen om nieuwe benchmarks en methodes.
Valt me op dat de reviews op tweakers altijd erg Intel minded zijn. Zelfs als de concurrent (AMD) beter presteert, goedkoper is en een betere buy, kun je tussen de regels door lezen dat er richting Intel wordt gehint. Jammer. Dit vind ik tweakers behoorlijk te kort doen. Lees altijd graag op tweakers, maar in de processorstrijd tussen Intel en AMD lees ik een vooringenomen mening, danwel mogelijk sponsoring?!?!?

Ik heb Vooralsnog alleen Intel machines thuis, 4x, omdat ze destijds gewoon beter waren dan AMD.
Echter, AMD is nu gewoon een veel betere koop. En al dat gelul over Intel beter in gaming.....
Als je nu werkelijk kijkt wat zo'n beetje alle recenties zeggen, dan is AMD gewoon beter voor gaming.
Ze halen in een aantal spellen duidelijk minder frames/sec maar nog altijd dermate veel dat de gameplay niet wordt gestoord. Dat gezegd, blijkt ook uit al die reviews, dat de gameplay op de Ryzen AMD's gewoonweg beter is. Geen gestotter, zoals wel vaak bij de Intel's voor komt. Ook bij het hoogste segment Intel's.

AMD (zeker Ryzen) is nu gewoonweg de beste koop. En met de Threadrippers heb je nu niet alleen een vette game-bak, maar ook nog eens een monster van een workload machine !!!

AMD heeft nu zeker de kroon overgenomen van Intel, daarom wordt mijn volgende systeem een Ryzen of een Threadripper. Ik hoop dan ook dat AMD nu een keer wordt erkend in deze prestatie en niet weer wordt geboycot door Intel.

Intel die het vuur van AMD in zijn nek voelt en krampachtig allerlei energie slurpende kookplaten uitbrengt die de competitie aan moeten gaan. Ze zijn misschien iets sneller in sommige benchmarks, maar tegen welke kosten. De aanschaf prijzen zijn achterlijk hoog en het energie verbruik is nog belachelijker. Daarnaast kinderachtige anti reclame maken om AMD zwart te maken. Threadripper zou een aan elkaar gelijmde processor zijn..... Kom op Intel. Nu zak je erg laag. En als er iemand een geplakte processor heeft uitgebracht, dan zijn jullie het wel. Of is jullie chip ineens ook gesoldeerd aan de cover? Nee he, daar zit een laag koel pasta tussen... tssssss. pot verwijt de ketel.

Dit is btw geschreven op mijn Intel I7 laptop die hier voor voldoet.

Thumbs up for AMD !!!!
Er zijn (vooral) games waar het verschil tussen een 7900x en een Threadripper meer dan 100 fps is, ook in veel desktop applicaties komt de 7900x of zelfs een 7700k beter uit de bus. Ik denk dat dit de voornaamste reden is om de nuance duidelijk te blijven aangeven. Stel je voor dat jij toevallig die game speelt en nu leest dat de Threadripper x% beter presteert dus beter is. Dan koop je toch echt de verkeerde processor als je de Threadripper koopt.

Mensen die deze processor daadwerkelijk kopen zullen een specifieke workload hebben en zullen dus goed moeten afwegen of ze veel cores nodig hebben, of veel snelheid per core nodig hebben. En in dat opzicht is de 7900x vs Threadripper erg mooi in balans.
Waarom mogen wij reviews van de t-netcrew eigenlijk niet beoordelen? dan hadden jullie meteen een beeld hoe goed de review was.
Ik vind het jammer dat ik nergens power consumptie terug vindt tijdens het benchmarken. Ik heb een vermoeden dat dit een stuk lager is op de Threadripper processors.

Ook wil ik er op wijzen dat voor een pro gerichte processor niet echt veel prosumer producten worden ingezet om te benchen, om er een aantal op te noemen The Foundry Nuke & Modo, Blackmagic Fusion, Autodesk Maya, Autodesk Alias, Avid Media Composer, Side Effects Houdini, Pixologic Zbrush.
Is een 1440P en 2160P test voor een dergelijke CPU niet een beter vergelijk dan 1080P voor dit segment?

[Reactie gewijzigd door Apoca op 10 augustus 2017 15:49]

Nee. De resolutie verhogen resulteert in een gpu-bottleneck.
het doel van een benchmark voor een CPU is te zien wanneer de CPU pas gaat bottlenecken.
Daartoe zorg je ervoor dat de GPU het makkelijk heeft, dus lagere resolutie.
Aan de andere kant is het niet een afspiegeling van realistisch gebruik. Waar ik een beetje mee zit is dat de voorspellende waarde nog niet aangetoond is. Je forceert lagere resoluties om de onderlinge verschillen tussen de cpu's te zien en dan is de implicatie 'deze CPU is sneller in games, dus als je deze haalt kun je langer GPU gelimiteerd/kan je langer met je CPU doen.' Maar is dat ook zo? Zijn CPU's die het beter doen op lage resolutie van de games van nu ook de CPU's die het beter doen op normale resolutie van de games van morgen? En zijn de verschillen dan nog wel significant of staat bijvoorbeeld 20% performancewinst vandaag gelijk aan 2% morgen?

Op het gebied van GPU's weet ik in ieder geval dat keer op keer gebleken dat een GPU die op moment van uitkomst sneller is niet per se 3 jaar later nog steeds sneller is.

Als ik het zo teruglees eigenlijk best interessante vragen, misschien eens een uitzoekprojectje van maken..! Kan vast met een van de vele benchmarkdatabases.

[Reactie gewijzigd door SpankmasterC op 10 augustus 2017 17:02]

Is al eens voor je gedaan:
https://www.youtube.com/w...EWPMD53htI7UwMFKs0JlOURyN

De grap is zelfs dat de destijds vergruisde FX8350 uit eindelijk (hetzij na pas 4 jaar) de 2500k verslaat in gaming...
Dank je voor het delen, leuke video om eens te zien!
In feite doet een cpu het niet beter op verschillende resoluties (in ieder geval geen significant verschil). Onafhankelijk van de resolutie kan je cpu bijvoorbeeld 100 fps halen. Op 360p haalt je gpu bijvoorbeeld 400fps. Resultaat: je cpu kan je gpu niet bijhouden en het blijft bij 100fps.
Op 4K kan je processor dat nog steeds, maar kan je videokaart slechts 20fps halen. Resultaat: je gpu houdt je cpu niet bij en resulteert in 20fps.

Enneh, dan nog een punt: als we het hebben over realistische taken, dan kunnen alpe gamebenchmarks bijna het raam wel uit. Een threadripper koop je niet voor het gamen ;)
(okť, misschien dat je 'm koopt voor bepaalde taken en omdat je 'm dan toch al hebt, er ook op gaat gamen)

[Reactie gewijzigd door ikverhaar op 10 augustus 2017 17:46]

Waar het om gaat is dat de lagere resolutie gebruikt wordt om iets te zeggen over toekomstige gaming prestaties, maar zoals aangehaald in het filmpje is dat achteraf wellicht een dubieuze conclusie die eigenlijk helemaal niet zo triviaal is.

Het blijkt namelijk zo te zijn dat ten tijde van de 2500k en direct concurrent fx8350 op de lagere resoluties de 2500k overal met volle overtuiging won... 4 jaar later had de fx8350 de 2500k echter ingehaald en zelfs voorbijgestreefd, hetzij marginaal en over een tijdsbestek van 4 jaar. Toch geeft het aan dat testen op lagere resolutie om zo een cpu bottleneck te creŽren en die waarden gebruiken voor uitspraken over de toekomst dus niet zo triviaal zijn...
Ik vind van wel, zie voor meer details op 1440p bijvoorbeeld: http://www.guru3d.com/art...pper_1950x_review,21.html

Wel apart dat de verschillen bij Guru3D op 1080P gemiddeld gezien minder groot lijken te zijn dan het beeld wat op Tweakers naar voren komt?
Omdat Tweakers, net zoals bij Ryzen 3, weer met trager geheugen werkt. Op deze pagina, reviews: Threadripper 1950X, 1920X en X399 - AMD's zestienkoppige monster, zie je dat de performance net zoals bij GURU3D rond de 115-120fps zit. Het is raar dat gaming mode en 3200MHz niet als basis zijn gebruikt voor de gaming benchmarks.

Dat is hetzelfde als een sport auto kopen en dan een uitgebreide test schrijven over hoe snel die is en hoe die rijdt. En op het einde van de review nog zeggen: "ow ja, er zit ook nog een sport modus op". En dan kort benoemen dat de acceleratie en topsnelheid van de auto beter zijn dan zonder sport modus.

[Reactie gewijzigd door Fleximex op 10 augustus 2017 16:40]

Alle tests van Tweakers zijn voor zover ik kan zien gedaan met de stock waarden van die fabrikant opgegeven heeft voor het platform, AMD ondersteund voor Threadripper officieel dan ook maar DDR4-2667 ( Zie https://www.amd.com/en/pr...-ryzen-threadripper-1950x > specifications en dan memory uitklappen).

Het is dan dus ook niet raar dat 3200Mhz niet als basis is meegenomen, want dat is een geheugen snelheid die volgens de fabrikant (AMD in deze) buiten spec is (en dus een memory overclock is) terwijl Tweakers aangeeft alle tests op stock specs gedaan te hebben. 3200Mhz neem je dus bijv. wel mee bij specifieke overclock testen, maar bij stock tests is 2667 (2666) het meest logisch.
Misschien niet bij Tros Radar maar we zitten hier bij tweakers en mogen toch verwachten dat er technische grenzen worden opgezocht bij dit soort tests en niet vanilla doorsnee zaken.
wat is dat toch altijd met dat geheugen gezeik sinds de ryzen cpu. ja ryzen heeft blijkbaar baat bij sneller geheugen, maar dat betekent toch niet dat we nu ineens het zo snelst mogelijk geheugen bij een amd cpu moeten testen om maar een zo hoog mogelijke score te halen.

ik ken genoeg Tweakers, en ja ook actieve Tweakers in praktijk, en die draaien toch bijna allemaal gewoon stock geheugen omdat ze die snelheidswinst niet belangrijk genoeg vinden om te gaan kloten met instellingen. Persoonlijk denk ik dat het merendeel van de gebruikers het geheugen standaard laten draaien, zeker het merendeel van de bedrijven die deze cpu zullen aanschaffen zullen het geheugen gewoon stock laten draaien. dus gewoon heel reeel en logisch dat stock snelheden die door amd ondersteunt worden gebruikt worden.
Vandaar ook dat je het meeneemt bij eventuele overclock tests, echter als je stock tests draait (die trouwens bij zo'n beetje iedere review gedraaid worden, zie ook de andere reviews online) zul je ook de stock waardes moeten testen anders is het geen stock test meer.

Daarnaast test Tweakers wel met DDR4-3200, maar dan op deze pagina die daar specifieke tests voor doet: reviews: Threadripper 1950X, 1920X en X399 - AMD's zestienkoppige monster

[Reactie gewijzigd door Dennism op 10 augustus 2017 21:09]

Misschien niet bij Tros Radar maar we zitten hier bij tweakers en mogen toch verwachten dat er technische grenzen worden opgezocht bij dit soort tests en niet vanilla doorsnee zaken.
Ahhh, als jij de hele dag staat te renderen of te compileren heb je een punt. De meeste tweakers doen dat niet en dat staan 14 cores niets te doen.
Ik ben van plan om het toch ook gewoon op stock te draaien mogelijk alle sloten gevuld. Dan stock performance voor mij net wat relevanter
Met een core of tien tot straks achttien is een singletasked workload echter niet de meest realistische.
Toch zijn dit soort single task workloads bij het testen van een desktop processor imo wel relevant. Gemiddeld desktop werk is nou eenmaal niet zo CPU intensief dat je daadwerkelijk tien of meer cores kunt inzetten, waardoor deze extra cores ook geen voordeel bieden.

edit: Het is inderdaad wel waar wat RGAT hieronder stelt dat deze CPU's ook niet voor gemiddeld desktop werk bedoeld zijn. Het is op zich wel nieuw dat ze dankzij de hoge klokfrequentie ook voor single-tasked/-threaded werk niet echt onderdoen voor high-end desktop CPU's met minder cores.

[Reactie gewijzigd door Bigs op 10 augustus 2017 15:18]

Maar dit soort CPU's zijn niet voor gemiddeld Office/Outlook/Internet Explorer/Edge werk, erop testen zit de doelgroep dus niet op te wachten en voor de rest is het ook niet erg interessant aangezien elke CPU tegenwoordig Internet Explorer wel kan draaien...
Doelgroep is niet kantoor of gaming, dus testen op beide is nutteloos.
doelgroep zal ook gezien de prijs idd niet standaard gebruiker zijn. Die heeft aan een goedkope cpu tegenwoorid zelfs genoeg.

Wat mij wel opvalt in de resultaten is dat 16 cores of 4 cores niet betekend 4x zo snel. In het algemeen zie ik dat het maar 2x zo snel is.

Dat zie ik bijv bij photoshop benchmarks. Begint er dus steeds meer op te lijken dat de software niet maximaal gebruik kan maken van de cpu, of vergis ik me hier in ?
Al die pixels moet Photoshop van disk c.q. uit RAM halen, en dat gaat niet sneller met meer cores.

Dat is meteen de reden voor die quad DDR4 bus: ThreadRipper, maar ook de nieuwe Intels hebben hťťl veel geheugenbandbreedte nodig om alle cores aan het werk te houden. Het is dan ook jammer dat AMD 2 lege dies heeft gebruikt in plaats van extra cache.
CPU hebben een bijzondere eigenschap prefetch. CPU haalt cacheline op 64bytes prefetcher haalt de volgende cache line. Dus als je deze optimalisatie toe past als je structs memory aligned in array zet.
Dan zijn de caches goed gevuld.
Als je de data opsplits in 512K memory aligned array per thread kunnen de 512K L2 door prefetch gevuld worden. Je krijgt het effect dat Memory goed gebufferd wordt als cache presteerd. En mogelijk cache line sharing mijd. Bij iNtel kan 1MB Array pools toepassen.
Houd wel in dat je algehele software moet engineren naar optimale memory acces paterns en dat is lastig.
Hoe onafhankelijk de data tranform gedaan kunnen worden hoe beter je kan schalen. Helaas is dat meest ideale situatie. Wat niet altijd haalbaar is.
Ik ben inmiddels al weer 18 jaar geleden afgestudeerd bij de vakgroep beeldverwerking van de TU Delft, en dat onderwerp kwam daar al voorbij. Prefetchers had je toen ook al. Ze zijn wel iets slimmer maar nog steeds niet perfect.

Het probleem is dat veel beeldbewerkingsoperaties (zoals bijvoorbeeld Sharpen) werken op de omgeving van een pixel. Z'n linker- en rechterbuur staan waarschijnlijk in dezelfde cache line. Z'n boven- en onderbuur staan in een andere cache line. En die kan op dezelfde cache locatie gemapt zijn!

Dit is een patroon waar prefetchers erg slecht tegen kunnen. Het wordt nog erger als je een RGB triplet gebruikt. 3 is geen macht van twee; dat is additioneel problematisch voor prefetchers.

Opsplitsen in 512kB delen is pijnlijk aan de randen van die delen. Je kunt niet besluiten om daar dan niet te smoothen; dat levert opvallende artefacten in je plaatje op. Dus dan moet je over de grens van die twee delen heen werken. Dat compliceert het algoritme nogal - je moet bij elke pixel uitrekenen waar de buur-pixels in het geheugen liggen, en dus moet je bij elke pixel checken of die in de buurt van een 512 kB grens zou liggen. Dat levert je een branch (jump) in je code op. Weg snelheidswinst!
Ze hadden gigapixel foto moeten edditen, dat satureert al je cores en ram.
Dan heb je meteen een goede benchmark
Anders zou dat ding nog 2x zo duur worden ongeveer, dan kan je dus beter een Epyc kopen.

En vast niet helemaal waar, omdat een die met puur cache geheugen je misschien met paar metaal lagen minder kan, en misschien ook nog wel wat andere lagen niet nodig hebt. Maar uiteindelijk gaat het niet heel veel uitmaken of je een die vol met cache geheugen gooit of er een processor ook op maakt.
Voor 4 actieve dies is er het Epyc platform.
Dan hadden ze van DDr af moeten stappen en rambus XDR 2 moeten gebruiken dan was de bandbreedte veel hoger en goedkoper dan DDR4
Dat is waar, Amdahl's Law zegt dat voor ieder probleem dat een concurrent oplosbaar gedeelte en een single-threaded gedeelte heeft, het single-threaded gedeelte uiteindelijk de oplossnelheid zal domineren, dus dat uiteindelijk meer cores minder effect zullen hebben.

In de praktijk betekent dit voor Photoshop bijvoorbeeld dat ondanks dat je de foto netjes in stukjes kan knippen en dan iedere core op een klein stukje van de foto kan laten werken wat in theorie erg schaalbaar klinkt, blijkt dat het proces van de foto opknippen het langs duurt, of het in het geheugen laden van de foto, of het weer inelkaar zetten van het resultaat, etc..

Dat is de theoretische limiet, in de praktijk blijkt ook nog dat het moeilijk is voor software ontwikkelaars om code te schrijven dat werk effectief verdeelt over cores, zelfs als dat in theorie goed mogelijk zou moeten zijn. Zo zou het opknippen of assembleren van die foto langer kunnen duren dan in theorie mogelijk puur omdat de programmeurs niet hebben ontdekt hoe ze dat efficient kunnen doen, of de taal/compiler/operating system niet mee werkt.

[Reactie gewijzigd door d-snp op 10 augustus 2017 16:01]

Ja als je software kan optimizen tot 50 : 50 Sequencial : concurrent
zal twee cores op die 50 :25 dus winst van 25%
10 cores 50: 5 is 45%
Outsourced naar Gpgpu heb je harde grens van tegen de 50% los van enig overhead kom je daar ook met 1000 gpu cores niet aan. dus minder dan 2x sneller zal het max kunnen worden. met overhead en SMT mekaar wat in de weg zit zal het stuk minder zijn. 50: 50 single thread is dus ramp.
ongeveer 1/3 aandeel:
36 : 64. 16core 32threads 36: 2 max theoretische ideale 62%. 2,63 dat valt tegen
Dat valt tegen
20: 80 met 20Threads 20: 4 is 76% 4,17x valt tegen in verhouding met zoveel cores.

Je ziet dat sequentieel enkele procenten een grote invloed hebben in neer halen van SMP schaling.

Je ziet dat sequentieel aandeel liefst minder dan 1/(n-core of nThreads)

1/33 : 32/33 32threads is 2/33. 93,9% verbetering 16,5 sneller nice nou begint het er op te lijken.
Nou, je kan ze wel degelijk zeer goed voor kantoor/bedrijf gebruiken.
Gewoon virtuele werkplekken (kvm/qemu) maken, daar kan je wel een paar van kwijt
op deze CPU's ..

Dus 1 kast voor 10, 20 30 werkplekken..
Dat is echter een hele andere workload dan waar het over ging ;)
Verder zouden de meesten daar een Xeon/Opteron voor pakken.
Dan zou ik de Epyc pakken...

Je had het over de standaard dingentjes (office, inet ect)
en een kantoor omgeving...
ideaal dus.. 1 computer voor meerdere werknemers tegelijk..

maar snap wat je bedoeld.. ;)
Daar zet je toch niet direct consumenten hardware voor in? Deze hardware is leuk voor virtuele homelabs e.d., dat zeker.

Maar zakelijk gezien zou ik niet snel een productie server draaien op hardware als deze tenzij downtime geen issue is. Geen idee of deze Łberhaupt al gecertificeerd / officieel supported is. En bij issues of downtime wil je zakelijk niet direct met een hobby bob configuratie zitten. Dan kun je imho beter kijken naar een oplossing op basis van de komende HP / Dell Epyc servers of servers gebaseerd op Intel Xeon. InitiŽle hardware kosten zijn zakelijk normaliter het issue niet (tenzij je voor hele kleine klantjes werkt, maar die hebben ook geen 30 virtuele werkplekken nodig), beheersbaarheid, betrouwbaarheid, compatibiliteit en TCO over de levensduur (meestal een jaar of 5) zijn in de regel een stuk belangrijker.

Denk trouwens bij dit soort setups ook aan de licensing, zijn de werkplekken gebaseerd op Linux uiteraard geen issue, maar Windows desktop OS VDI licensing is heel ander beestje en zeer kostbaar vergeleken met bijv. een RDS server opstelling. Iets dat veel partijen vergeten, redelijk wat VDI oplossingen die ik in het wild tegenkom binnen het MKB zijn licentie technisch niet in orde en dat is een groot risico voor de betreffende bedrijven mochten ze een audit krijgen.
Host je het op Azure zijn alle licentie issues verdwenen en wordt het niet gebruikt staat het uit kost het niks.
MKB Onprem heeft zijn tijd gehad.
Das veel te kort door de bocht, al ben ik het met je eens dat voor redelijk wat MKB bedrijven Cloud de oplossing kan zijn, zijn er echter nog zat MKB bedrijven die geen toegang hebben tot snelle internet verbindingen (Cloud direct al geen optie meer) of snelle internet verbindingen zijn veel te duur. Helaas gaat de aanleg van Breedband op veel bedrijven terreinen een stuk trager dan in woonwijken. Daarnaast zijn er ook nog steeds software implicaties lang niet alle software kan of mag (licentie technisch gezien) in een cloud omgeving draaien, wel iets om rekening mee te houden. Ook zie je nog andere limitaties, denk bijv. aan WMS systemen met scanning of andere latency gevoelige toepassingen. Mag de latency vaak niet meer dan 10MS zijn tussen scanner en WMS server dat kun je ook niet zomaar in een cloud gooien. Maar denk ook bijv. aan productie faciliteiten die aansturing nodig hebben, dat zet je ook niet zomaar in de cloud. Je wil niet dat je productie stil komt te liggen omdat er even geen internet meer is.

Cloud is een zeer mooie vooruit gang, en moet je zeker niets links laten liggen maar het is zeker nog niet in alle gevallen een werkbare oplossing. Voordat alles de cloud in kan gaan we nog wel een paar jaar verder zijn. (heb je echter een MBK bedrijfje dat alleen bureau werk doet in bijv Office met een afdoende snelle internet verbinding, dan ja, kijk direct naar de cloud).

Licentie issues heb je trouwens nog steeds, ook in Azure, tot begin dit jaar mocht je Windows 10 VDI niet eens legaal hosten in Azure. Dit mag nu wel, echter heb je Windows 10 Enterprise volume licenties nodig met SA, of Windows 10 E3 of E5 subsciptions. Alle andere versies zijn nog steeds een No-Go.
Intellectueel eigendom weerhoudt veel ondernemingen er van om vol in te zetten op cloud gebruik. Juridisch zijn er ook nog wel wat plooien glad te strijken. Zelfs al gaat het niet eens over internationaal cloud gebruik, waarbij je te maken kan hebben met de rechtspraak van het land waar de cloud servers staan. Ook het goed juridisch afdekken van het stallen van IP gevoelige informatie bij een nationale service provider. Hoe is die juridische verantwoordelijkheid van die service provider precies te omschrijven? Hoe hoog moet een boete op nalatigheid worden zodra een service provider een lek naar IP-gevoelige informatie heeft laten ontstaan? En hoe kwantificeer je een dergelijke boete?

Licensering van VDI omgevingen is inderdaad ook een dikke trade off aan het worden van virtualisatie. Gebruik je bijvoorbeeld nVidia GRID kaarten dan wordt per gebruiker van die acceleratie resource door nVidia een licentie gevraagd voor de resource balancing software om de belasting van gebruiker mee te balanceren met de andere belastingen van die GRID kaart. een licentie dus voor een propertie die in de beleving van velen nog niet eens bestaat. Verder kan het even office toevoegen op een VDI server, zodat je gebruik kan maken van de in office ingebedde procedures om word documenten in PDF te vertalen, ook een dure aangelegenheid zijn. Een server licentie van een office produkt is niet mals. Ik heb geen getalsvoorbeelden, maar onze IT afdeling moest hiervan slikken.

edit: typo's

[Reactie gewijzigd door teacup op 12 augustus 2017 17:07]

Goede post, kleine kanttekening:
Een server licentie van een office produkt is net mals. Ik heb geen getalsvoorbeelden, maar onze IT afdeling moest hiervan slikken.
Aangaande Microsoft Office is er geen "server licentie voor Office producten" van de standaard Office suite (MS Office standaard of ProPlus), wel moet ieder apparaat dat kan verbinden met de VDI farm voorzien zien van een MS Office volume licentie (Standaard als op de farm Office Standaard geÔnstalleerd staat, ProPlus als op de farm ProPlus geÔnstalleerd staat, retail / OEM versies mogen niet) of in het geval er Office 365 gebruikt wordt een Office 365 licentie (ProPlus, E3 of E5, andere Office 365 licenties mogen niet) aanwezig zijn voor iedere gebruiker die kan inloggen op de VDI farm. Heb je Office licenties met SA kan dit enigszins anders zijn (iets voordeliger afhankelijk van de usecase). De kosten hiervan kunnen inderdaad wel even slikken zijn voor een IT afdeling (en de eindverantwoordelijke) zeker als je in het verleden de meer voordelige OEM / Retail versie's gebruikte.
Die nuancering mis ik dus duidelijk. Dank je voor het invullen, zit nog te weinig bovenop het nieuws hiervoor. Die volume licentie is begrijp ik dus een licentie naast die van de licenties van de Office Software zelf. Mogelijk valt die VDI oplossing in een Enterprise nog wel goed in te kaderen, vooral omdat de gebruiksbehoefte voor en na een overgang waarschijnlijk gelijk blijft (mijn werkgever heeft een Enterprise contract). Wel zal na vervanging van een klassieke VPN omgeving voor een nieuwe VDI omgeving de definitie van het begrip "organisatie" gaan schuiven. Kijkende naar mijn werkgever gaan co-producers via VDI in onze ontwerpdatabase werken. Ook remote interactie met klanten gaat onherroepelijk groeien. Op middellange termijn zullen de licentiekosten voor mijn werkgever dus onherroepelijk gaan stijgen. Hopelijk kan dit perspectief nog wat coulance bewerkstelligen bij het opnieuw vaststellen van het Enterprise contract.
Vandaar dat het hele vdi/rds ook langzaam uitsterft. Je kunt beter gewoon je bring your own gebruikn met office licenties uit o365. En dan zorgen dat alles true cloud is heb je de licentie problemen niet.
Vandaar dat het hele vdi/rds ook langzaam uitsterft.
Nee, zeker niet. VDI komt pas net op gang. Met wat ik hierboven ook al zei is de opleukfase van VDI nu wel voorbij. We betreden nu de afsaaifase ;). Nu raken we geconfronteerd met de best wel prijzige serverhardware en de behoefte aan redundantie hiervan (wie maalt er om redundantie bij discrete clients?, veel verder dan een paar spares komt dat niet) en licenties voor begrippen die tien jaar terug nog niet bestonden.

Kijk je vanuit het licht dat VDI technologie in staat is om iedere cliŽntconfiguratie af te dekken, en de toegang hiertoe te flexibiliseren, is deze technologie een gamechanger. Vergelijk VDI daarom niet met het cloud based aanbieden van services en opslagcapaciteit. Het is dan ook begrijpelijk dat hardware en software producenten wat nerveus met deze ontwikkeling omspringen en wat aan het knoeien zijn met hun licentieopbouw. Een ding kan ik wel voorspellen. Die licentieopbouw zal nog flink gaan schuiven. Over drie jaar is deze niet meer hetzelfde.

En om deze reactie nog maar weer even in het on-topic domein te trekken. VDI is een belangrijke invloed die de vraag naar multicore processoren zal doen toenemen. Misschien dat AMD met Steamroller te vroeg heeft geschoten, maar vanuit deze hoek kan AMD net precies boven op de golf uitkomen, als ze zich goed bij OEM's positioneert, en ook een antwoord op Grid klaar heeft (weet ik eigenlijk niet eens). Threadripper en Epyc kunnen veel meer in een behoefte voorzien dan de voorgangers van AMD hebben gedaan. Ondanks het beperkte succes van deze eerdere multicore generatie heeft AMD hiermee wel een behoorlijk track record in multicore opgebouwd. Kunnen we misschien toch vaststellen dat de ontwikkeling die met Steamroller is ingezet uiteindelijk een goede is geweest.
Ehmm ja, in vdi draai jij grote hoeveelheden applicaties, ik zie alle bedrijven daar issue mee hebben. En in th end is vdi nog steeds duurder. We werken allemaal mobiel dus 2x kosten een laptop en 1 vdi.

Nee vdi werkt alleen in domme setups zoals fabrieks pc. Als je bij grote klanten gaat kijkn over het zelfde issu te duur voor goede performance. En te gevarieert voor shared vdi.
Als je je chrome processen kunt spreiden over je cores, kan dat sowieso al veel versnelling opleveren bij mensen zoals ik die graag die middelmuisknop gebruiken.
Dit. Hoop dat hier binnenkort support voor komt in terms of tooling. Ik vind het heel goed dat chrometabs onafhankelijke processen zijn, maar vreet soms veel cpu op een enkele core. Dat zou echt een geweldige toevoeging zijn op het volledig gebruik van al je cores bij soortgelijke processor units.
Goed dat AMD Intel weer eens wakker maakt. We hadden die i9 nooit gezien als Ryzen en Threadripper niks was geworden.

Volgende systeem wordt zeker een Threadripper _/-\o_
Even wachten totdat Intel haar nieuwe lijn introduceert, dan zal AMD de prijzen omlaag gooien van de threadrippers, worden leuke koopjes tegen die tijd.
Waarom? De i9-7900X is even duur als de 1950X. Voor de doelgroep die dit soort processors gaat gebruiken wint de 1950X in eigenlijk alle relevante benchmarks van de i9. Intel zal eerder de prijzen moeten verlagen.
https://www.google.nl/amp...e-lake-release-date%3famp

Hij bedoeld even wachten op de infroductie van intel's Coffee Lake 8th gen processoren aanstaande 21 augustus. Deze zullen weer 30% sneller dan de Kaby lake 7th gen (onderandere i9 7900X). Als we intel geloven.

Er bestaat een goeie kans dat intel dan op alle vlakken weer het snelste is en de prijs gelijk trekt met die van de threadrippers. Dus om dan weer aantrekkelijk te zijn voor consumenten zal AMD de prijs iets omlaag moeten gooien.

[Reactie gewijzigd door SpitfireNL op 10 augustus 2017 16:21]

Hou er rekening mee dat die 30% is t.o.v. Kaby Lake (i7 7700K) met 4C8T, terwijl de Coffee Lake i7 8700K 6C12T lijkt te gaan worden., waar de 30% winst dus voornamelijk zal zitten in het feit dat er 2 cores en 4 threads extra aanwezig zijn. en 30% verbetering in IPC zou mij zeer zeer vreemd lijken.

Coffee Lake is ook geen HEDT release zoals deze en zal dus ook niet direct met deze cpu's gaan concureren, wel gaan ze concurreren met de Ryzen 3 t/m 7 range.

De i9 range is geen KabyLake, maar Skylake-X en die range is wel een directe concurrent voor Threadripper echter gezien de resultaten zal het daar Intel zijn die de prijzen wat omlaag zal moeten bijstellen om competitief te blijven.
De i9s zijn nog gebaseerd op Skylake, niet op Kaby Lake. Voordat we een i9 Coffeelake gaan zien zijn we weer een jaar, misschien 2, verder.
Volgens nieuwssites zullen de coffeelakes al deze kerst beschikbaar zijn.
De cannonlakes waarschijnlijk Q2 2018.

Intel heeft geen reden meer om hun kaby -en skylakes nog verder uit te melken aangezien de concurrentie van AMD en zullen dus de coffee en cannonlakes snel de markt op willen pushen om weer de snelste processors op de markt te hebben.
Sky en Kaby Lake uitmelken? De meeste procs van het X299 platform komen pas eind september op de markt.
Dat is niet de hedt van coffeelake en die 30% prestatie verbetering komt door her aantal cores met 33% te verhogen.
Dat kan. Maar dan gaat het niet om Threadrippers maar om Ryzen 3, 5 en 7 waar de prijzen van omlaag gaan.
Er bestaat een goeie kans dat intel dan op alle vlakken weer het snelste is en de prijs gelijk trekt met die van de threadrippers
Daar geloof ik weinig van, zelf nu Intel niet de snelste is doen ze niks aan hun prijzen, als ze weer op alle vlakken de snelste zijn gaan ze echt niet op het zelfde prijs niveau als Ryzen zitten

Maar we kunnen altijd hopen
Ik denk dat het nog steeds wat vroeg is om die reactie van Intel al vast te pinnen. Ik kan mij niet aan de indruk onttrekken dat de verandering die door AMD met Ryzen en Threadripper wordt veroorzaakt door Intel nog niet helemaal is verwerkt. Bij Ryzen zou je nog hebben kunnen zeggen dat Intel de kat uit de boom kijkt en de verandering in de markt afwacht. Nog steeds dekt dit argument de lading. We hebben nog maar net een tweede kwartaal afgesloten. De prijs van die i7-7700K zakt al wel wat, maar dit komt mogelijk door het uitkomen van de snellere broertje i7-7740K in februari. Misschien verwacht Intel dat met wat prijs-tuning de effecten van het arriveren van concurrent AMD te kunnen neutraliseren.

Het uitgeven van van de nieuwe multi-core processoren (i9-7940X, i9-7960X en i9-7980XE) lijkt een reactie. Maar in hoeverre was dit al gepland? Maar denk ook eens aan een Intel Core i3-8300. Hoe lang zal die al op de plank hebben gelegen. Misschien het verschijnen van deze processor nog veel duidelijker aan te merken als een reactie op de consumenten versies van de Ryzen serie. Voor een leek blijft Intel een heel sterk merk. Hoe goed het verhaal van AMD ook is valt nog te bezien of die informatie goed bij de niet ingevoerde computerkoper binnen gaat komen. Reclame maken lijkt mij voor AMD ook een verstandige zet.
De i9 12 core kost 20% meer voor 20% meer cores tov 10core
Maar kom je op 16 cores is de klok stuk lager en de 18 nog lager maar met dubbele prijs voor 8 core meer en lagere klok extra minder bang for tha buck.
Op stock klok krijg je dus wat minder vanaf i9 16 core de performance gain los van COre schaling zal met de i9 16 en 18core stuk minder zijn. Deze hebben echt een dieshrink nodig 10nm
tegen deze prijzen voor mij niet.
Goedkoopste cpu 900§
Moederborden zullen wel ergens rond de 500§ kosten al is er nog geen enkel dat me iets meer waarde geeft ten opzichte van mijn vorig skylake systeem > wacht wel op de workstation bordjes die wel boven de 750§ zullen zitten zucht.

En de vega gpu gaat ook 600§ (bron) kosten maar is trager dan een 1080ti , en deze zal nog wel in prijs klimmen zoals alle kaarten tegenwoordig (koop ik liever een 1080ti voor dat geld)

Zal wel gamen op 1 van vm servers daar zitten nog een paar oude 290x's in

Ik mis de tijd dat je voor 1000§ een een top of the line moederbord had en een deftige cpu die ook nog eens goed overklokte (x58 era)

Nu ben je dat geld al alleen kwijt aan een cpu die enkel in server omgevingen tot zijn recht komt en voor de rest wat achteraan / midden zit te bengelen.
Ik weet niet over welke tijd je het hebt, de Intel top cpu's hebben altijd 1000 euro gekost, en overklokken gaat nog steeds prima als je geen gekke overdreven resultaten verwacht.
Is dat zo?
https://tweakers.net/pricewatch/540205/intel-core-i7-6950x-(boxed)/specificaties/ vanaf 1487 euro

En verder aankomende cpu's
Processor Architectuur C/T Kloksn./turbo2/turbo3 L3-cache Pcie-lanes Geh. Tdp Prijs
Core i9-7980XE Skylake-X 18/36 2,6GHz/4,2GHz/4,4GHz 24,75MB 44 ddr4-2666 165W $1999
Core i9-7960X Skylake-X 16/32 2,8GHz/4,2GHz/4,4GHz 22MB 44 ddr4-2666 165W $1699
Core i9-7940X Skylake-X 14/28 3,1GHz/4,3GHz/4,4GHz 19,25MB 44 ddr4-2666 165W $1399
Core i9-7920X Skylake-X 12/24 2,9GHz/4,3GHz/4,4GHz 16,5MB 44 ddr4-2666 140W $1199
Core i9-7900X Skylake-X 10/20 3,3/4,3/4,5GHz 13,75MB 44 ddr4-2666 140W $999
Intel Core i9-7920X met twaalf cores komt beschikbaar op 28 augustus
Zoals ik al zij, ''de Intel top cpu's hebben altijd 1000 euro gekost''
Goed ze zijn er bij de laatste generatie idd vanafgestapt, waarschijnlijk wegens gebrek aan concurrentie en de aankomende zijn inderdaad duurder, daar had ik het ook niet over. Xeon_1 wil graag voor 1000 euro een ''deftige'' basis, dat kan nog steeds, er is minder verschil met het i7 920 tijdperk dan hij verondersteld.
Neemt niet weg dat de 920 een prachtige cpu was, die ze in dit tijdperk wat duurder hadden gemaakt aangezien hij eigenlijk net even te goedkoop was gezien de rest van de line-up.
Ja maar ipv extreem edition is dat een een uitgebreide i9 lijn beworden.
1000$ van toen gaat ook inflatie over en $ § conversie van heden hogere $ overheen.
En dan is vroeger met sterkere § moeilijk te vergelijken met sterkere $ van nu.
De 12 core kan je zien al de extreem edition ouwe styl.
De stap van 8 naar 10 zou 12 logische stap zijn. Gezien die wel in de planning zat en de 14 16 18 achteraf er bij zijn gehaald uit Xeon stal.
De intel top cpu was generaties lang 999,- ongeacht de inflatie. als AMD er niet was geweest met de threadripper hadden we inderdaad nooit een 14, 16 en 18 core gehad deze generatie. De 12 core misschien wel, dat valt ook te zien aan hoe buiten de boot hij nu valt, wat niet het geval had geweest als de 14+ core varianten er niet waren. De 12 core heeft een lagere clock dan de 14 core?? daar kan je uit opmaken dat die gepland was als topmodel met als verkooppraatje ''extra cores''
Gekost is relatief dan ;)
De 6950X ligt sinds 2 juni 2016 in de winkels!
I7 920 klokte even goed als al de andere I7's van die generatie en koste rond de 300 a 400 §
Van 2,66ghz naar 4,2ghz (waar die van mijn geduurende 5 jaar heeft op geleefd tot dat de voeding besloot het moederbord te roosteren )

Onderstaande is tegen over huidige intel chips en is de reden waarom thread ripper intersant was voor mij
En bijkomend voordeel de goedkoopste had alle features van de duurste op core count na (4 ten opzichte van 6), dus niet heel dat minder pcie / memory gedoe)
Toen kon je ook nog overklokken zonder een X/K cpu nodig te hebben
En de vega gpu gaat ook 600§ (bron) kosten maar is trager dan een 1080ti , en deze zal nog wel in prijs klimmen zoals alle kaarten tegenwoordig (koop ik liever een 1080ti voor dat geld)
En AMD houdt je ook zeker niet tegen om dat te doen. De X399 chipset ondersteund zowel SLI als Crossfire indien nodig.

Threadripper based plankje plus enkele of dubbele 1080 TI gaat dus prima samen :)
Dat is gelukkig waar.
enkel nog wachten op een plankje waar ik zonder problemen een stuk of 5/6 expansion cards kan in stekken die meer als 1X zijn.

Kort een lijstje wat ik had in mijn oud X58 systeem (dood).
sound card (pci)
1 gfx card 4870x2 en dan een 7950
1 quad port ehternet
1 raid controller
1 infiniband controller

in mijn ontmanteld en bijna volledig verkocht z170 systeem
2 280x kaarten
2 raid controllers (na een paar nare ervaringen met onboard raid zit nu alles op dedicated controllers)
1 single port ethernet kaart (pcie 1X)

zou de ehternet cards willen vervangen door een 10gbit kaart
Of dit bord in een threadripper variant.
pricewatch: Asus X99-E-10G WS
De highend AMD X399 plankjes hebben een behoorlijk rijke uitrusting en gaan niet onderdoen voor vergelijkbare Intel X299 plankjes.

Als voorbeeld neem ik de Zenith Extreme van Asus:

* Geintegreerde 802.11ad Wifi controller
* Losse 10Gbit Aquantia netwerkcontroller kaart (voor op de PCIEx x4 poort)
* 1Gbit Intel netwerkcontroller onboard
* 4x PCIEx x16, 1x PCIEx x4, 1x PCIEx x1

Die 4 PCIEx x16 poorten vul je dan bijvoorbeeld met

2x Geforce 1080 TI (van een willekeurig merk)
2x LSI 9210 8i HBAs

Zoek vervolgens een kast erbij die groot genoeg is om te vullen met 16 HDDs en je hebt een vervanger van zowel je z170 en X58 waar je de komende jaren zeker mee vooruitkan :)

[Reactie gewijzigd door mindcrash op 10 augustus 2017 21:52]

Die 2x 8i HBA's kun je nog prima samenvoegen in een enkele LSI 16i kaart. Dan heb je ook nog een snel PCI-E slot over voor de infiniband controller. In zo'n opstelling heb je ook echt profijt van het grote aantal PCI-E lanes. Zeker met nog een of meer NVMe SSD's om van op te starten...
Het is even wachten totdat software en drivers de zaak hebben geoptimaliseerd voor amd. Dan verwacht ik dat de benchmarks het beter gaan doen.

En de prijs van amd is zoiezo aantrekkelijk!

[Reactie gewijzigd door itlee op 10 augustus 2017 16:25]

Hallo tweakers,

Ik vind dat het eens tijd worden dat jullie je testmethodiek eens aan gaan passen. Dit is weer een mooi voorbeeld hoe het niet moet.

Het grote voorbeeld wat ik wil noemen is de gamebenchmarks. Deze worden zoals altijd weer op 1080p met de highest end videokaart getest om de cpu bottleneck te vinden. Resultaat, AMD scoort iets minder door de iets lagere IPC. Maar wat maakt het uit of een spel op 120 FPS draait of 140 FPS draait? Hoeveel procent van de eindgebruikers zullen hier baat bij hebben? Het enige wat ik me kan bedenken zijn de gebruikers die een dure 144 Hz monitor hebben die op 1080P draait. Helaas zijn de monitoren bedoeld voor shooters waar je toch al meer dan 140 FPS haalt omdat deze spellen veel meer op de videokaart leunen.

Wat ik wil zien in de volgende review die jullie gaan maken is het volgende.

Benchmark een processor waar het nut van alle cores ook daadwerkelijk gebruikt gaan worden. Ga eens een twitch stream opzetten, benchmark de boel eens, en ga eens naar de framedrops kijken en nog belangrijker, hoe de eindgebruiker op twitch je stream ervaart.

Probeer eens meerdere taken tegelijk te doen, ga eens video encoden op de achtergrond en vervolgens een game draaien. Iets waar meerdere cores van belang zijn.

Wat mij wel in de resultaten opviel waren de prestaties van de 1950x niet letterlijk 2x zo hoog lagen als de ryzen 1800x. Zouden hier misschien nog optimalisatie problemen zijn waardoor de volledige rekenkracht van de threadripper niet volledig tot zijn recht komt?
Staat een stukje hierover in het artikel zelf:
Voordat we naar een conclusie toewerken, moeten we een bekentenis danwel belofte doen. De door ons gebruikte benchmarks zijn vooral bedoeld voor een gemiddelde quadcore en zijn prima bruikbaar voor processors met twee tot acht cores. Met een core of tien tot straks achttien is een singletasked workload echter niet de meest realistische. Omwille van de tijd en om te kunnen vergelijken hebben we ook dit keer onze standaardbenchmarks uitgevoerd, maar op een later tijdstip willen we zeker kijken naar workloads waarbij de processor diverse taken naast elkaar moet uitvoeren. We denken aan video renderen of transcoderen en gelijktijdig gamen, maar input is uiteraard welkom.
Eigenlijk maakt het heel de review irrelevant. De testsuite is niet geschikt voor het onderwerp, en dat geven ze dus zelf al toe.

Ik vind het ook teleurstellend dat ze niet op tijd zijn begonnen met het samenstellen van een geschikte testsuite en bewust toch een ongeschikte testsuite hebben ingezet.

Het is niet zo alsof deze proc uit te lucht komt vallen. CPU's met meer dan 4/8 cores zijn ook niet nieuw. Bij de Ryzen was eigenlijk al duidelijk dat de benches niet geschikt waren, en het is jammer dat er toen al geen lichtje is gaan branden.
Het voelt dan ook alsof deze review zo snel mogelijk naar buiten gebracht moet worden zodat er in ieder geval iets staat, wat er staat maakt dan niet uit. Een slechte bekentenis erbij en alles 'lijkt' weer goed.
Voor de echte in-depth reviews van hardware moet je dan ook niet (meer) bij Tweakers zijn imho.

Deze review is dus totaal irrelevant. Als ik in de markt was voor deze processor dan ga ik niet gamen op 1080p of andere lage workload uitvoeren. Dan koop ik hem omdat mijn renderprogramma alle 16 cores kan benutten.

De tendens is dan helaas de afgelopen tijd ook hetzelfde. Hardware krijgen, review pushen, comments vol krijgen met opmerkingen..
Introductie alinea klopt niet he. Fysiek waren de Pentium I en II slot 1 modellen groter.
Dat was het PCB waar deze op gesoldeerd waren, maar de CPU die zelf niet. Slot 1 en Slot A (de eerste AMD K7's!) waren eigenlijk kleine moederbordjes met de CPU's en cache chips los naast elkaar.

Zie hier de P2 Die https://upload.wikimedia....um_II_400_SL357_SECC2.jpg

En hier de AMD Athlon K7 slot A versie Die
https://upload.wikimedia....ns/e/e7/Slot-A_Athlon.jpg

Zoals je ziet hebben beide boards de cache chips dus niet geintegreerd maar er naast zitten waardoor het groter lijkt totdat je de koeler er af haalt.
Dat weet ik wel maar dat is de threadripper natuurlijk ook zo onderhand. 4 dies op een moederbordje met infinity fabric channels, het is alleen allemaal een stuk eleganter. Punt blijft, ik kocht toentertijd een CPU die groter in de hand lag dan dat ik vandaag een threadripper kan kopen. ;)
Ja en nee. Deze zaten op een PCB insteekkaart gesoldeerd met de PCB waren ze inderdaad groter. Maar de CPUs zelf waren niet zo groot.
Slotmodellen had ik ook aan gedacht ja, maar da's natuurlijk niet echt eerlijk. Da's 60% leeg pcb en een boel passieve rotzooi erop :) Grootste socketed dan :)
Introductie alinea klopt niet he. Fysiek waren de Pentium I en II slot 1 modellen groter.
Dat meld je hier https://gathering.tweakers.net/forum/list_messages/1676681
"Spel- en tikfoutjes - en dus *geen* andere foutjes - deel 44"
zolang nvidia's drivers nog steeds een duidelijke bug hebben met ryzen in combinatie met dx12 (tot 25% performance verlies wat er niet is in dx11 of met AMD GPU) zou ryzen cpu's niet getest moeten worden in dx12 met een nvidia GPU.

of wel testen, maar dan ernaar zowel de resultaten in DX11 met een AMD GPU van de zelfde games.

Want op deze manier ontstaat een enorm vertekend beeld dat AMD veel slechter is in games dat het in werkelijkheid is.
Ik heb er al eens wat over gelezen maar is het dan ook echt een bug of een probleem met de drivers, ik kan nergens een reactie van nvidia zelf vinden nog op de nvidia forums.
ik ga er maar even vanuit dat het een bug is. er is geen goede reden waarom een game ineens ~25% prestaties verliest als je ryzen in dx12 gebruikt maar dat niet is als DX11 word gebruikt, of een intel cpu, of een AMD GPU.

ik heb ook niet gehoord dat nvidia dit officieel heeft erkent als probleem, maar de tests zijn overduidelijk.

het is niet in elke game even erg, maar tombraider heeft er last van, total war warhammer, en ook rocket league (dx9)
Vreemd.

Als ik zo naar de tests van Guru3D kijk kan de Threadripper 1950X de Intel 7900X aardig bijhouden in DX12 games in combinatie met een Geforce 1080, bijvoorbeeld in Rise of the Tomb Raider.

Ook deze opmerking op dezelfde pagina is wellicht interessant:
Right before testing Ryzen 3 and Threadripper a new game patch was issued and kicked in. Ryzen perf is going up and up and up and up with each new patch (great to see). We still need to re-test Ryzen series 5 and 7 but as you can see, the immense gap has pretty much been closed with merely game engine optimizations.
Het kan dus ook aan specifieke multithreading optimalisaties in de game engine liggen... en niet perse aan de drivers.
1 2 3 ... 6


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*