Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

YouTubekanaal LinusTechTips publiceert enkele benchmarks Threadripper 1950X

Door , 123 reacties, submitter: leon14

YouTubekanaal LinusTechTips heeft enkele benchmarks van een AMD Threadripper 1950X gepubliceerd. Hoewel er beperkende factoren aan de tests zitten, valt er desalniettemin een indicatie te vinden van de prestaties.

LinusTechTips heeft vier verschillende testopstellingen om context te bieden. Naast het Threadripper-systeem, in de vorm van een kant-en-klare Alienware-desktop, zet hij een Intel X299-systeem met een Intel Core i9-7900X, een Intel Z270 met i7-7700K en een AMD X370 met een Ryzen 7 1800X. Zo tracht hij de Threadripper met zijn dichtstbijzijnde Intel-concurrent te vergelijken en met de beste processoren die AMD en Intel nu al bieden. Een belangrijk punt is wel dat de systemen grotendeels dezelfde specs hebben, maar dat het werkgeheugen van het Threadripper-systeem op 2666MHz draait terwijl dat van het Intel X299-systeem op 3200MHz draait.

De Amd Ryzen Threadripper 1950X is een 16-core, 32-thread cpu met een L2- en L3-cache van samen 40MB en een kloksnelheid van, in het geval van de Alienware-pc, 3,6GHz. In de officiele AMD-aankondiging van de processor wordt echter gesproken van een snelheid van maximaal 4GHz. Verder heeft hij 64 pci-e 3.0-banen, wat ondersteuning biedt voor drie videokaarten op de volledige pci-e 3.0-snelheden naast alle andere nodige hardware zoals m.2-ssd's. De cpu moet 999 dollar gaan kosten, ongeveer hetzelfde als de Intel-cpu waar hij tegenover staat.

In gaming is te zien dat de verschillen tussen het X299 en het Threadripper-systeem in deze tests te verwaarlozen zijn. Daar houdt het echter niet op. De Z270 en X370-systemen presteren ook min of meer op hetzelfde niveau als hun nieuwere tegenhangers. In een synthetische gamingbenchmark komt wel een verschil naar buiten: met name in het meest cpu-gerichte onderdeel van 3DMark heeft de Intel Core i9-7900X een voordeel. In Cinebench heeft de AMD-cpu echter weer een flinke voorsprong en hetzelfde kan gezegd worden voor renderingtests in Blender.

Een laatste noot die bij de resultaten gezet moet worden, is dat er het een en ander mis was wat betreft de temperaturen bij de Threadripper. De cpu zelf gaf melding van load-temperaturen die opliepen tot 92 graden celsius. Mogelijk was er ook sprake van thermal throttling, wat zou betekenen dat de cpu onder betere omstandigheden beter zou kunnen presteren. Dat is enigszins opvallend, omdat de processor watergekoeld is bij de Alienware.

De Threadripper-cpu is vanaf 10 augustus verkrijgbaar. Dan is ook de 1920X te koop, die 200 dollar goedkoper is en 12 cores en 24 threads heeft. Eind augustus volgt ook de 1900X, met 8 cores en 16 threads. Tot slot is er nog de uitgelekte 1920, waarvan geen releasedatum bekend is. Tweakers werkt intussen ook aan een review van de 1950X en 1920X, die op de releasedatum online gaat.

  1900X 1920 (onofficieel) 1920X 1950X
Socket TR4 TR4 TR4

TR4

Cores/threads 8/16 12/24 12/24 16/32
Kloksnelheid 3,80GHz 3,20GHz 3,50GHz 3,40GHz
Boostsnelheid 4,00GHz 3,8GHz 4,00GHz 4,00GHz
Xfr-snelheid 4,20GHz ? 4,20GHz 4,20GHz
L3-cache ? 32MB 32MB 32MB
TDP ? 140W 180W 180W
Adviesprijs 549 dollar ? 799 dollar 999 dollar
Verkrijgbaar 31 augustus ? 10 augustus 10 augustus

6 augustus 2017 12:24

123 reacties

Submitter: leon14

Linkedin Google+

Reacties (123)

Wijzig sortering
Helaas zijn de gaming benchmarks op 4k resolutie getest en dus eigenlijk waardeloos, het is immers een GPU bottleneck.
Gaming en HEDT... ik snap dat de commercie het pusht, maar het slaat helemaal nergens op. Er komen nu JUIST meer cores beschikbaar op het mainstream platform met Ryzen en zelfs met Coffee Lake. Dat was voorheen zo ongeveer de enige reden om voor gaming naar HEDT te kijken.

En als het je om content creation naast je gaming gaat, dan zit je helemaal niet op die 2 FPS verschil te azen en is die ook niet relevant want je gebruikt die cores dan voor je stream oid en dat belang weegt veel zwaarder. Dus linksom of rechtsom zijn dit vooral vrij waardeloze opmerkingen - een beetje kuddegedrag omdat een paar streamers iets roepen over Threadripper, en kenmerkend voor de beperkte kennis.

TR is gewoon Ryzen met een andere clock en meer cores. Als je weet dat Ryzen een lichte bottleneck vormt op 1080p met deze GPU, dan weet je ook hoe zich dat verhoudt tot TR. Verder durf ik te betwijfelen of je op een HEDT platform uberhaupt nog kijkt naar 1080p en vanaf 1440p zijn de verschillen met Intel zo klein dat het te verwaarlozen valt.

De echt relevante workloads zijn de Cinebench en Blender achtige applicaties, die geven de totale performance van de CPU goed weer en ook de verhouding tot de Intel evenknie wordt daar duidelijk. Aangezien Intel op deze core counts (veel) lagere baseclocks neerzet als TR lijkt het me een duidelijk verhaal :) Zelfs voor gaming...

De ironie wil dat het spannendste aan de Threadripper versus Intel strijd nu eigenlijk de game benchmarks van Intel zijn - en dan met name een game op vier cores NAAST andere workloads. Dat zijn de echt relevante benchmarks in dit segment, de praktijksituaties van bijvoorbeeld een streamer, of een zware multitasker. Van TR weten we al genoeg omdat het gewoon 4x Ryzen dies zijn, maar Intel heeft een minder efficiente 'ringbus' ipv Infinity Fabric en verliest meer kloksnelheid zodra de actieve core count omhoog gaat. Het is dus vooral kijken naar hoe en wanneer de Intel inkakt, een scenario dat alleen wordt getriggerd met verschillende workloads die naast elkaar draaien.

[Reactie gewijzigd door Vayra op 6 augustus 2017 13:25]

ps heren laat hardware.info en vooral die linustechtips links liggen als het om cpu hardware gaat..
Er is maar 1 site waarvan de eigenaar zo slim is geweest om de studies te doen om te snappen hoe het nu wel werkt.
Nu is het zo dat je blij mag zijn dat je ongeveer 20% op school kunt leren, de rest moet je leren bij de asic fabrikanten zelf. De flow van software en hardware die benodigd is om een chip te designen is zo duur dat de uni's etc ook daar niet het geld voor hebben. (minimaal benodigde studie is HTS electronica, HTS technische computerkunde of hogere (uni) natuurkunde,
en psychologie voor hulp om de motivatie weer op gang te helpen als het team de design-win niet heeft behaald).

Kleine uitleg waarom deze sites niets snappen van IC ontwikkeling is. Het leek voor een auteur van hardware.info slim om een test te doen waarbij twee verschillende cpus, die voor verschillen frequentie waren ontwikkeld op de zelfde frequentie te laten lopen om zo de IPC en het stroom verbruik te vergelijken... KAN NOOIT!!! Elke chip wordt bij aanvang ontwikkeld met een target klok frequentie in gedachte. Of die behaald wordt is dan nog maar de vraag ivm temps. Een intel chip op 2.4Ghz of dezelfde voor 3.5Ghz zijn niet te vergelijken op dezelfde frequentie.

Kleine verkorte uitleg waarom niet.
Elke digitale chip bestaat uit twee delen. Het blok met combinatorische logica (and, or, nand, nor, xor, inverter, etc) en daarom heen de flipfloppen (8 flipfloppen maken een byte register). Tweede blok is daaraan nauw verbonden en heet de clock-tree. Voorbeeldje.. ik heb een blok met 2 input registers en een output register. Wat de functie is, is in dit voorbeeld niet belangrijk maar stel je telt de twee waarden met een logische and op. Als je nu per bit van de input register naar het output register de tijd die nodig is om door de combinatorische logica te komen (rippelen) bekijkt, zul je een bit vinden die het kortste duurt en een bit die het langste duurt. Uit deze twee tijden kun je de maximale clock waarop dit blok kan lopen berekenen. Stel het blok haalt 1.5GHz. Nu is de target 4.5Ghz. Wat nu.. dan kun je (als een van de mogelijkheden) 3 blokken er in stoppen en deze interleaved gebruiken, waardoor het lijkt of je een blok hebt dat op 4.5Ghz loopt. Als de target 3Ghz zou zijn geweest, had ze er waarschijnlijk maar twee ingebouwd.

Maar nu over stromen. Je kunt de stromen in pakweg 2 soorten verdelen. Schakelstromen die door de clock geiniteerd worden en de wel bekende lekstromen die niet afhankelijk zijn van de frequentie. Nu hebben we een cpu die 3 blokken bevat en een cpu die 2 blokken bevat. Welke zal nu het minste verbruiken bij 3Ghz.

De schakelpiekstromen die er zijn wanneer er een klok komt zijn niet geheel linear met de frequentie. Dit komt door afvlakking van de signalen door capaciteiten die steeds meer effect hebben bij hogere frequenties. Dus een schakelpiek stroom van een blok op 1Ghz zal iets lager zijn dan die van hetzelfde blok op 1.5GHz. Nu wordt dit verschil pas echt veel als je in de buurt komt van de maximale klok waarop de FET gespecificeerd is. 1Ghz en 1.5Ghz liggen nog zo ver van het maximale af dat een schakelpiek bij een frequentie van 1GHz nog nagenoeg gelijk zal zijn als die van 1.5Ghz.

Als we nu kijken naar 2 blokken op 1.5GHz dan heb je dus 3 Ghz aan schakelpiek stromen. Kijken we naar de 3 blokken dan zie je dat deze nog maar op 1GHz lopen en dus ook 3 Ghz aan schakelpiekstromen genereerd. Dus wordt het grootste verschil gemaakt door de lekstromen. En wat zal dus nu de uitkomst zijn. De cpu met 2 of die met 3 blokken? rara, tuurlijk die met 3 blokken gebruikt meer.

Nu een ander fabeltje wat ik veel hoor is mijn cpu crashed op temperatuur.. KAN NIET als hij werkelijk crashed op temperatuur, wordt de smelt temperatuur van het silicium bereikt en dan start de cpu nooit meer op. Alle crashes gebeuren door TIMING!!!!
Eerste timing probleem wat je kunt krijgen is niet afhankelijk van de temperatuur, nl. hoogst mogelijk klok is behaald van een combinatorisch pad.
De twee andere reden zijn afhankelijk van temperatuur.
- De 2de reden is door Clock-skew tussen clock-tree en het combinatorische deel. Als je door temperatuur een verschil in vertraging krijgt in de clock tree t.o.v. de floppen dan zal op een gegeven moment deze zover uit elkaar lopen dat de setup-en-hold tijden niet meer behaald worden.
- De 3de reden is door de flanktijden van de digitale signalen. Een digital signaal zal een steeds lange tijd nodig hebben om van de "0" naar de "1" stijgen als een geleider heter wordt (weerstand wordt hoger). Als je te ver gaat haal je de "1" niet meer op tijd voordat de klok komt (de bekende oogpatronen) dan zegt hij ook crash. (geld ook voor "1" naar "0" natuurlijk)

Als je naar de AMD kijkt loopt deze vast door, of een combinatorisch pad of clock-skew. Aangezien beter koelen geen resultaat verbetering opleverd. De Intel lopen vast door, of wederom clock-skew of door het niet behalen van de oogpatronen. Aangezien deze tot wel 5.8Ghz geklokt kan worden m.b.v. stikstof koeling. Dit betekent NIET dat intel het wel goed gedaan heeft aangezien met normale koeling dit nooit mogelijk is. De padden zijn onzinnig kort.

AMD kan dus het gelukt hebben dat de niet hogere clock door clock-skew komt. Dit is in vergelijking tot het andere probleem vrij (eenvoudig) op te lossen door het beter routen van de twee blokken (combinatorisch en de clock-tree) zodat deze evenveel vertragen oplopen bij hogere temperaturen en beide weer gelijk lopen. Mocht het komen door een combinatorisch pad dan zullen ze de VHDL moeten aanpassen om het langste pad wat korter te maken, wat veel meer tijd kost.

Intel daarin tegen heeft ook een fout gemaakt (zoals bijna alle asic bedrijven, ook AMD (zie buldozer cores op 6.2Ghz op youtube). Bij aanvang van een design wordt geschat wat de specs zijn van de FET (transistors) die over tig jaar gebruikt gaan worden om het design te produceren. Voor mijn pensioen was de vuist regel dat 1/6 a 1/5 van het totalen stroom verbruik van een gate (zie wiki) ongeveer de lekstromen waren. Dat is niet beter geworden maar veel slechter, waarbij intel en andere dachten deze wel beter zouden zijn. Hierdoor genereerd de asic veel meer warmte dan toen gepland was en waardoor de frequentie niet op de target frequentie kan lopen. Intel had verwacht de huidige asics op +/- 5.5GHz te kunnen klokken vandaar de korte combinatorische padden. Alleen, als je korte combinatorische paden maakt zul je meer floppen nodig hebben dan wanneer je het design had gemaakt met combinatorische padden die wat langer waren. Minder floppen, minder ruimte, en minder stroom verbruik.

Nu lees ik ook dat mensen tegenwoordig de volgende beste man als referentie gebruiken LINUSTECHTIPS... nauw ff kijken.. toen ik hem hoorde kletsen vroeg ik me echt af wat voor een diploma die gup heeft, skateboarden?..., hij lult leuk maar weet niks.
Vraag die gup maar eens over VHDL, verilog, setup en hold tijden, clock skew, langste combinatorische pad, antenne effecten, pad limited design, etc... denk dat hij nog nooit een stepper machine van dichtbij heeft gezien laat staan met cadence, synopsys of mentor graphics hun tools heeft gewerkt. Dus als je pro amd bent vooral naar hem luisteren hij wordt door amd betaald.

LINUS vroeg zich af waarmee intel nou bezig is, die zijn de weg kwijt.. uhm dubbele lus ombouwen naar matrix misschien?, en dat is heel veel werk voor een 18 core cpu. Het meest knappe daarin is dat alle latencies vanuit welke core dan ook gelijk zijn. Dat is erg veel werk om goed te krijgen bij het routen van de netlist. Vandaar dat deze 18 cores cpu al bijna volledig klaar was anders kunnen ze deze nooit zo snel op de markt brengen.

Ik was zwaar, zwaar teleur geteld door AMD... een 4 cores CPU en infinityfabric (verbeterde hyperbus en dat is dan weer een bus die gebaseerd is op de EV6 bus van digital). is dat alles? Een clustered CPU? ow nee ook de stempel is uitgevonden. Alle nadelen van een multi socket mainboard komen hiermee ook te voorschijn. Als AMD een uniform memory blok had gemaakt dan hadden ze pas echt een troef in handen, dan hadden ze hetzelfde kunnen doen wat een z mainframe ook kan, nl nagenoeg realtime tread verplaatsen. Iets wat intel eigenlijk niet nodig heeft maar wel doet om warmte te spreiden. Vandaar dat je in je taskmanager de cpu load ziet wandelen van core naar core. AMD kan het ook maar dan binnen 1 CCX.
Voorbeeldje problematiek van gepartitioneerd geheugen. Ik heb 128GB memory en ik laad een 100GB database in het geheugen.. dat wordt partitioneren dus. Nu, ik ben een device dat data genereerd voor de database. Er wordt een tread gedispatched op een van de CCXen. Kan ik van te voren weten welke records deze tread gaat updaten/vullen? nee, afhankelijk door het externe device. Dus op het ene moment gaat het snel (record bevindt zich binnen het geheugen blok van de CCX waar de tread draait) en dan weer langzaam als het record zich bevindt in het geheugen van de andere CCX. Indien tread verplaatsing mogelijk was kon je eenvoudig de tread verplaatsen, maar dat gaat nu niet door, of gaan we de opcodes halen via infinityfabric of gaan we het programma verplaatsen naar de juiste CCX?

Dan over PCIe. AMD heeft geen 64 lanes PCIe nee wat ze hebben is 4 x 16 PCIe dat is NIET hetzelfde. De achtergrond van PCIe is hetzelfde als ethernet nl point to point met een switch topologie. Vraag je netwerk deskundige maar eens wat hij liever heeft, 4 switches met 12 porten non blocking waarbij de up/down link ook nog voor andere zaken gebruikt worden dan interconnect tussen de 4 switchen, of een 48 ports non blocking switch. Voorbeeldje fileserver 4 dikke hba's erin flink wat array's eraan en dan krijg je te horen, tja merk A wil dat alle ssd's in array x en y geupdate worden met nieuwe firmware alleen moet je wel de disken leeg voordat je de update doet ivm corruptie kans van de data. Dus de systeem beheerder brengt de array's offline. Hierdoor wordt alle info van deze arrays naar de overige arrays verplaatst. Dus alle data weer over infinityfabric. Das met PCIe 3.0 x16 nog niet zo'n probleeem maar met 4.0 x16 zitten we al behoorlijk dicht bij de huidige infinityfabric snelheid. Dus zal amd weer aan infinityfabric moeten sleutelen. Wat nou niet echt eenvoudig is vandaar dat de cpu makers liever niet te veel veranderen aan die externe bussen. Kijk maar eerns naar het verleden. Intel laat QPI ook liever met rust en hoelang hebben de fsb niet gehad. Vandaar dat het voor mij niet zo raar is dat ze met crossfire support stoppen, zet er maar eens 4 in crossfire en kijk wat er gebeurd.

AMD cpu's zijn in alles goed dat ook via een distributed netwerk afgehandeld kan worden, zoals VM's die binnen een CCX vallen (hiervoor hebben wij ze in bestelling, office VM's), render programma's (cinebench, blender) waaronder ook vele filters voor foto en video bewerking vallen, en compressie tools. Eigenlijk alle programmas waarbij een grote bewerking opgesplitst kan worden in meerde delen waarbij de kleine delen onderling weinig of geen communicatie nodig hebben. Voor de mensen die graag renderen, als je modeler programma de scene kan uitschrijven naar povray maak dan gebruik van distributed povray op school of je werk want dan staan alle machines parallel en lijk je een 100% schaling te krijgen. 1400 dual core PC's (op de uni) zijn sneller dan wat je ooit thuis kunt aanschaffen.

Dan voor de game specialisten onder ons.. Ik heb voor de grap tombraider op een 40 cores 80 treads dual socket e5-2679 gestart. en daarbij zie je wat ik al verwachte, ook deze game heeft 1 tread die vele malen groter is dan de rest van de treads. Alle overige treads verdelen zich tot semi ruis op de rest van de treads. Nu snappen mensen dus misschien waarom het slim is om 1 core veel harder te laten lopen dan de overige cores. Nu hebben de meeste programma's behalve de hierboven beschreven programma's een langst lopende tread die de totale performance van het programma bepaald. Het is dus handig dat je 1 snellere core hebt om zo deze bottleneck zo lang mogelijk te vermijden. Nu moet het natuurlijk wel zo zijn dat je genoeg cores hebt dat de overige treads niet zo veel cpu gebruik veroorzaken dat deze treads de bottleneck gaan vormen. (alle cores lopen dan tegen 100% load)

Dan prijzen, in de server markt wordt veelal een licentie per core gevraagd. Al was de 10 cores intel 5000 euro duurder zijn wij nog steeds goedkoper uit met de 10 cores van intel voor onze database dan met de 16 core TR van AMD. Aangezien de licentie 1100 euro per core per jaar is. En de performance tussen deze twee cpu's nagenoeg gelijk is.

Vraag me af hoe lang het duurt voordat rendering software hetzelfde licentie systeem zullen overnemen.

Nu hoor ik ook veel mensen zeggen, dan moeten ze maar beter multi treaded software schrijven. Niet alle zaken zijn te verdelen over meerdere treads. Het kan zo zijn dat een calculatie pas kan starten als de vorige calculatie klaar is aangezien het antwoord nodig is voor die opvolgende calculatie. Wat als nu dit altijd zo is zoals bij de modelers van dassault solidworks of autodesk inventer. (ps kom niet aan met verschillende views, dat die wel op meerdere treads kunnen dat is logisch). Die jongens worden pas echt blij met een 1 core CPU op 50GHz.

De huidige benchmark cijfers zeggen alleen iets over de ruwe core snelheid maar nog niets over de rest. Dus voor de juiste info zie anand als hij de benches klaar heeft. Hij heeft technische computerkunde gestudeerd en aangezien die dat nog leuker vond dan zijn website onderhouden, heeft hij een baan bij apple op de apple arm afdeling. Ps de domme commentaren die je vindt over hij is pro intel kan nooit kloppen. Aangezien apple een arm gebruikt en ook intel arm's mag ontwerpen en produceren. Wat denk je dat apple doet als zij er achter komen dat hij onderwater met intel aan het praten is. Intel heeft goud over voor info over de A10. Denk dat hij dat wel uit zijn hoofd laat aangezien de juridische afdeling van apple gehakt van anand zal maken.

Dus anand en biased nee niet naar intel wel naar apple.

my2cents (asic designer)
Hulde voor dit. Dus je denkt dat Intel's nieuwe mesh meer toekomstvast is dan AMD's Infinity Fabric?
Dit dus. Ik wou net echt exact hetzelfde typen.
Zoveel informatie / desinformatie rondom dit onderwerp pf :) thx voor het verhelderende stuk.

Nu de vraag als je puur voor gaming gaat, wat is dan interessant om te kopen
Een veel goedkopere cpu. Omdat zoals al staat in dit stuk er voornamelijk 1 thread wordt belast, heb je bij gaming veel meer aan een hoge clockspeed en ipc dan aan veel cores. Als je de hoogste framerates wil behalen, is op het moment de 7700k van intel de beste cpu (als je ten minste voldoende gpu kracht hebt) als je echter geen 200fps hoeft te halen is een 7600k een stuk goedkoper en ook ruim voldoende. Ik voorspel dat games op termijn wel meer gebruik gaan maken van high thread cpu's, maar ze zullen altijd baat hebben bij 1 snellere thread. Bovendien denk ik dat het nog wel even duurt voordat de octacores echt een voordeel opleveren ten opzichte van quadcores in pure gaming. (Ik heb nog weinig gekeken naar de ryzen 3 quadcores, dus heb daar niks over gezegd.)
Ik heb de rest van je verhaal niet gelezen, maar in de tweede alinea ga je al de fout in. Twee cpu's op dezelfde frequentie testen is zeker wel nuttig. Een cpu turboot tegenwoordig met een of meerdere cores. Als je cpu's zou vergelijken zonder de klok vast te zetten weet je niet hoe snel de cpu draaide. Als je vervolgens weet wat de maximum overklok is, kun je als overklokker uitrekenen wat je prestatiewinst zal zijn en daarop je aankoop baseren.

[Reactie gewijzigd door nzweers op 7 augustus 2017 10:58]

werkelijk?

Ken je de AMULET ontwikkeling van professor Furber?
https://en.wikipedia.org/wiki/AMULET_microprocessor

Dit is een voorbeeld waarbij snelheid een functie is van het design, en je kan de clock moeilijk vastzetten aangezien het een asynchroon ontwerp is.
Hehe... Eindelijk iemand die wel achtergrond informatie heeft. Volgens mij is dit waar intel het meest bang voor is. Wij noemde dit ook wel een rippel cpu. Het ziet er naar uit dat fujitsu hiermee bezig is en wat ik aan berichten hoor, ook nog aan het lukken is ook. Of het ook voor main stream cpu's is weet ik niet maar het is een mooi staaltje van techniek.
Allereerst hartelijk dank voor je zeer expertise kijk op dit onderwerp! Het was erg interessant om te lezen en ik denk dat maar weinig mensen net zoveel afweten over dit onderwerp als jij. Er zijn echter een aantal opmerkingen die ik wil plaatsen:
LINUSTECHTIPS... nauw ff kijken.. toen ik hem hoorde kletsen vroeg ik me echt af wat voor een diploma die gup heeft, skateboarden?..., hij lult leuk maar weet niks.
Linus is een youtuber die begonnen is als inkoper van watercoolingonderdelen en systeembouwer bij NCIX (Soort Pardigit/MyCom) in Canada en heeft intern het NCIX YouTube kanaal ontwikkeld. Daarnaast runde hij LTT en hij is na verloop van tijd NCIX ontstegen en voor zichzelf begonnen. Kortom, hij heeft geen hoge opleiding.
Dus als je pro amd bent vooral naar hem luisteren hij wordt door amd betaald.
Linus wordt door verschillende fabrikanten gesponsord. Zowel AMD als Intel hebben hem gesponsord, echter wanneer dit is gebeurd dan wordt dit uitdrukkelijk vermeldt in de video. Ja hij krijgt daardoor ook veel sample hardware binnen waardoor hij dit soort reviews kan doen, echter de resultaten die hij hier uithaalt worden onafhankelijk van sponsoring gemaakt. Dit heeft hij zelf regelmatig benadrukt omdat hij een onafhankelijk oordeel essentieel beschouwt voor de geloofwaardigheid van zijn reviews.
LINUS vroeg zich af waarmee intel nou bezig is, die zijn de weg kwijt
De video in kwestie gaat in op de product launch van Skylake X en met name Kaby Lake X.

De Kaby Lake X processers zijn vrijwel identiek aan de Kaby Lake varianten alleen omgebouwd voor het X299 chipset. Vervolgens worden alle voordelen van het X299 gedeactiveerd bij deze chips. Er is veel verwarring ontstaan bij de lancering van Skylake X en Kaby Lake X en wat dat betreft geef ik hem gelijk.

Wat betreft je opmerking dat AMD geen 64 PCIe lanes ter beschikking heeft maar 4x 16 lanes neemt het feit niet weg dat als je het totaal optelt dat AMD er (misschien wel aan elkaar geknoopt maar toch) 64 heeft en Intel 44 op het topmodel en 28 op de andere Skylake X processors.

AMD heeft op het moment aantrekkelijke producten voor de prijs en daar kunnen we ze dankbaar om zijn. Ze zijn eindelijk weer concurrerend met Intel op de consumentenmarkt. Linus mag dan wel geen diepgaande kennis hebben op technisch vlak, maar hij kijkt dan ook niet technisch naar een product. Hij is meer gefocust op wat voor zijn kijkers interessant is en op het moment is AMD met threadripper wel aan het concurreren op de consumentenmarkt.

Nogmaals bedankt voor het verdiepende inzicht dat je met je achtergrond hebt kunnen geven.

[Reactie gewijzigd door HarmFull op 8 augustus 2017 09:39]

Het klopt dat ze 64 lanes hebben. Wat ik begrepen heb van PCIe is dat devices regelrecht met elkander zouden kunnen communiceren zonder een nadelig effect te hebben op de data paden van de cpu cores. En dat is volgens mij niet het geval. Neem je bv twee kaarten van x8 dan kunnen deze wel met elkander communiceren indien op dezelfde CCX aangesloten zijn. De CCX heeft dan alle bandbreedte nog steeds voor zichzelf. Dus het aantal was niet mij issue maar eerder het principe dat de cpu cores de load gaan merken indien twee x16 devices met elkaar willen communiceren. Hoe erg dat is, is nog maar de vraag, en zal afhankelijk zijn van de applicatie. Het kan dus nog steeds heel positief uitvallen.

Het is zeker dat AMD een positieve verandering brengt voor ons als consument, ook kijkende naar de prijs. Want als je bekijkt wat de gemiddelde marge is op een PC tov de marge die intel op zijn cpu's zet is natuurlijk buiten proporties. (de heren van de webwinkel mogen volgens mij blij zijn met 10% marge, en intel gooit het ding een aantal keer over de kop, tot bijna het absurde aan toe).
2 kleine opmerkingen:
Van TR weten we al genoeg omdat het gewoon 4x Ryzen dies zijn
2x Ryzen, niet 4x :) (er zitten wel 4 "Dies" in de package, maar 2 ervan zijn loze dies).
maar Intel heeft een minder efficiente 'ringbus' ipv Infinity Fabric
Intel heeft vanaf Skylake-X geen Ringbus meer, maar een Mesh Network voor de cores. Zie http://www.anandtech.com/...20x-and-i7-7800x-tested/5
jup 4 dies is voor AMD Epic.
Het zijn ook geen uitgeschakelde dies maar gewoon dummies (structurele redenen waarom die erop zitten)

[Reactie gewijzigd door Clemens123 op 6 augustus 2017 13:54]

Hoi! Semi-leek hier: Betekend dit dat de 2 dummy dies nooit gebruikt worden?
Inderdaad, dat is het ding van een dummy. Het lijkt op een die, maar er zitten geen transistors in, en hij kan dus ook nooit gebruikt worden om te rekenen.

De 2 extra dies zijn enkel om hitte en druk over de chip te verdelen. Het zijn dus ook niet (zoals eerdere geruchten zeiden) eigenlijk 4 die processors met 2 gedeactiveerd, er zijn gewoon maar 2 echte dies.
Weer wat geleerd! Dank. Ook @kyoshosan hierboven!

[Reactie gewijzigd door Vayra op 7 augustus 2017 09:28]

*Hier als je de reacties niet in achterste boven volgorde hebt staan.

[Reactie gewijzigd door Canule op 7 augustus 2017 18:31]

Intel heeft geen ringbus meer maar een mesh..
op dit moment gamen volgens steam meer dan 95% van de mensen op 1080p.

kijk je dus naar 1440p of 4k dan zit je in een droom en niet de realiteit. 1440p en 4k zijn compleet irrelevant voor gamers aangezien maar een fractie daarop gamend en een 1000 euro kostende game monitor kan of wil betalen.


http://store.steampowered.com/hwsurvey/

het beeld vertekend iets doordat er best veel mensen met een multi monitor 1080p setup zijn maar je kan er vanuit gaat dat het merendeel gewoon gamed op een enkel scherm omdat veel games gewoon geen support hebben voor deze setup.
1000 euro voor een game monitor? Ik heb 449 euro betaald voor m'n Dell S2417DG, 1440p 165hz G-sync scherm! Heb em al zien voorbij gaan aan 399 Eur.
als je ips wilt is 't meer, maar voor iets boven de 700 heb je 'n mooie predator. Ik ook. Lekker man. ook 1440 en 165 als je wilt, maar die van mij draait gewoon op 144
Ik heb dezelfde Dell en ik moet zeggen, een goede kwaliteit tn zoals deze is echt heel weinig mis mee. Ik wou zelf heel lang geen tn omdat ik slechte schermen met afgrijselijke kleur afwijkingen zodra je niet loodrecht op het scherm keek van vroeger gewend was, maar dit scherm ziet er echt prima uit wat mij betreft. Er zullen vast mensen zijn die wel echt liever een IPS willen, maar met de loterij op veel IPS monitoren om geen erge glow te krijgen, de lagere prijs van de Dell en de snellere responstijden denk ik dat veel mensen die misschien denken IPS te willen het eigenlijk echt eens in het echt zouden moeten gaan bekijken.
1440p valt best nog mee hoor, dat is wat mij betreft een sweetspot bij een 27inch scherm. Is/was goed te doen met een oude 2e hands 290x en een i5 2500k (die is vervangen voor een 6700k)
1440p en 4k zijn compleet irrelevant voor gamers aangezien maar een fractie daarop gamend en een 1000 euro kostende game monitor kan of wil betalen.
Je weet dat we het hier ook over een CPU van 1000 euro hebben? Het gaat er helemaal niet om welk percentage van alle gamers op een bepaalde resolutie spelen; voor de relevantie van deze tests gaat het erom welk percentage van de gamers met een budget van (ruwe schatting) boven de 3000 euro voor hun computer op die resoluties spelen.
1080p op een 16 core CPU met een GTX 1080TI is als scheuren in een Ferrari in de eerste versnelling. Ja, de AMD processoren zullen bij 150-200+ beelden per seconden het af laten weten van de Intel processoren. Dit heeft voor nu allemaal nog te maken met slechte optimalisatie in games voor het gebruik van meer dan 4 cores. Elke quadcore processor welke per core meer kan doorvoeren zal dit duel dan winnen. Hebben we iets aan die data?
ja we hebben iets aan die data.

In combinatie met game bench data weten we dat gamers beter een snellere per core prestatie cpu kunnen kopen.

je zou zeggen dat game devs er ook wat aan hebben maar die lijken er al 10 jaar lak aan te hebben.
Wanneer dit enkel gebeurt bij zeer hoge framerates dan is deze data net zo irrelevant als het feit dat deze CPU's 3/4e van de cores niets staan te doen en dus waarschijnlijk in de toekomst, wanneer er betere optimalisaties zijn voor multicore er waarschijnlijk een hogere prestatie te halen is op de TR.

Het is dus net zo irrelevant dat een 16 core betere multicore prestatie levert dan een quad core.

Je ziet de singlecore prestaties en je weet dat die bij een 7700k beter is dan de TR. Je weet dat games voor nu niet veel meer gebruiken dan 4 cores, dan is het wel logisch dat de 7700K dus altijd sneller is wanneer niet meer dan de 4 cores wordt gebruikt. Met gamebenchmarks cripple je de raw power van de TR aangezien je in die benchmarks maar feitelijk een kwart van de power gebruikt.

Tevens ben ik van mening dat je eigenlijk altijd een GPU bottleneck moet hebben, je betaalt niet voor niets zoveel geld voor zo'n GPU.

Als laatste ben ik nog heel nieuwsgierig hoe een game als Star Citizen (wanneer alle optimalisaties voor multicore zijn doorgevoerd) zich verhoudt op ene Ryzen of TR tegenover een 7700K

[Reactie gewijzigd door DarkSand op 8 augustus 2017 14:32]

Volgens mij gaat het hier om een relatieve vergelijkingstest dus als alle systemen diezelfde bottleneck hebben kun je wel iets zeggen over de relatieve prestaties wat de bedoeling was van deze test naar mijn idee.
De bedoeling van de test was om een idee te geven van de verhoudingen tussen de verschillende cpu's. Als je dat gaat testen op een 4k systeem ben je niet de cpu's aan het testen maar de gpu. Geen wonder dat er bij de vier systemen nauwelijks verschil te zien is want ze gebruiken allemaal dezelfde gpu. Beetje nietszeggende test op deze manier. Maar een gaming-benchmark op een TR systeem is sowieso al een bijzonder fenomeen; ik verwacht niet dat veel mensen een TR systeem gaan kopen om enkel op te gamen. Dat zou heel veel geld uit het raam gooien zijn.
Je hebt gedeeltelijk gelijk, maar tegelijkertijd: als dit echt een test was van de GPU, waarom zitten er dan verschillen in de 4K benches op dezelfde GPU?

;)
De verschillen zijn dermate klein dat je die met het blote oog niet zult zien. En de test was uitdrukkelijk niet bedoeld om de gpu te testen, maar door de testopzet komt het daar wel op neer.
In 3DMark TimeSpy (CPU) is de Intel Core i9-7900X veel sneller, en in CINEBENCH R15 is de AMD Ryzen Threadripper 1950X veel sneller.

Maar in spellen maakt het geen bal uit aangezien geen enkel spel gebruik maakt van meer dan 4 cores.

[Reactie gewijzigd door AmigaWolf op 7 augustus 2017 04:29]

En wat toon je dan aan met een test waarbij je de GPU wegcijfert? Iedereen loopt altijd moord en brand te schreeuwen over synthetische tests die niets zeggen over praktijk situaties, maar als er vervolgens een hypothetisch scenario wordt bedacht om gaming benchmarks te draaien die een verschil in CPU prestaties zichtbaar maken is dat opeens een goede manier van testen? Op basis van een realistisch scenario was je gewoon tot de conclusie gekomen dat dit soort CPU's allemaal overkill zijn voor gaming. Misschien niet de conclusie die je lezers willen zien, maar wel zo correct.
Helemaal eens met het laatste stukje van je comment. En je wilt dit aan je lezers laten weten zodat ze niet veel te veel geld het raam uit gaan gooien. Helaas denken nog hele volksstammen dat hogere cijfertjes betere prestaties in gaming leveren.
Dat kan je dus helaas niet. Als de GPU de bottleneck is kan misschien een i5 ook al voldoen. En dat terwijl er van deze CPU's wel meer verwacht wordt dan een i5. Maar voor gaming zijn deze CPU's totaal niet interessant.
Ik denk dat dat appels met peren vergelijken is die threadripper is wel goed en ja je kan ermee gamen waarom altijd die intel chip naar voren duwen (ik heb zelf ook een intel chip).
Dus met andere woorden intel is weer beter dan die threadripper, het is altijd hetzelfde gelijk.
Kijk eens goed naar die benchmarks ikd die intel beter dan die threadripper nee toch.
Met sommige dingen load rendering en alles wat erbij komt kijken is ie sneller.
Weet je hoeveel die i9 wel kost, ik ben echt nooit van plan om een chip te kopen die 2000 euro kost.
Die threadripper hebben ze wel goed gemaakt, hij kan tegen het intel geweld opboksen en op sommige punten wint die ook nog.En waarom op 4k kunnen spelen niet elk mens in nederland heeft 4 k, je kan de kwaliteiten toenamen van 4 k bijna niet zien.
En trouwens het is meer gpu power wat je dan nodig hebt.
En die server processor hebben ze ook goed gemaakt.
Amd is gewoonweg beter bezig nu en ja ze zijn altijd goedekoper geweest.
En ja ze hebben het top segment wat al jaren door intel is gedomineert.
Ze zijn gewoonweg terug gekomen, en er zijn altijd mensen die dat graag thuis hebben staan.
Wat heeft intel de laatste jaren gepresteerd wees een eerlijk meer cores en hogere level 3 caches hebben ze hun systemen sneller laten maken..
Maar met een geheel nieuw concept wat amd nu gepresteerd heeft zijn ze niet gekomen.
En eindelijk is er weer concurrentie.
amen _/-\o_
Petje af voor amd jongens
Sorry maar wat heb je hier ingodsnaam aan? Wat is het nut van een relatieve vergelijkingstest? Hier kun je totaal niks uit concluderen anders dan "ja we weten niet hoe goed de CPU's zijn want de GPU is de beperkende factor in een CPU vergelijking" 8)7 Om maar te zwijgen van het feit dat we een CPU aan het benchen zijn in games die totaal niet voor gaming is ontwikkeld.
Maar goed het is AMD/Ryzen/Threadripper dus het moet allemaal goed en positief zijn. Waag het niet om kritiek te uitten want dan krijg je meteen 0 en -1 reps. Het feit dat Milanees allemaal 0's krijgt voor een terechte opmerking spreekt boekdelen over hoe biased de Tweakers community is geworden.

[Reactie gewijzigd door Tim2010 op 6 augustus 2017 12:47]

Ik heb persoonlijk meer aan benchmarks die dichter bij mijn reŽel gebruik aanleunen (4k) dan iets wat minder of totaal niet voorkomt. Wat heb ik aan de prestaties bij 800x600, 640x480,... als we dan toch bezig blijven? Hoeveel mensen gaan dergelijke HEDT systemen combineren met een 1080p scherm bvb?

Je kunt dat overdreven positief vinden en aansluitend "waardeloos" maar dan is dat voor uw rekening. Ik stel mij eerder vragen bij mensen die zoveel waarde hechten aan het hypothetisch geval dat ze bepaalde randapparatuur zouden hebben of zelf zouden downgraden.

Ik ken zo ongelooflijk veel mensen die een Intel kopen want de game prestaties zijn beter en ze zitten dan met een 4K scherm ergo situatie waar het niet eens van tel is.

[Reactie gewijzigd door simplicidad op 6 augustus 2017 13:23]

Wat heb ik aan de prestaties bij 800x600, 640x480,... als we dan toch bezig blijven?
Dit is met name een CPU test, waarvoor de ingestelde resolutie volstrekt irrelevant is. Met een dergelijke resolutie ben je gewoon de GPU aan het benchen aangezien daar de bottleneck zal liggen terwijl de CPU loopt te idlen, en dus niet interessant als de CPU de focus van de test is. Ook jij hebt hier dus niets aan, tenzij jouw grafische kaart setup exact overeenkomt met de testopstelling.

Veel interessanter is het om te weten wat de theoretische bovengrens is in framerate aan de CPU kant. Vervolgens kun je de resolutie afstemmen op de door jouw gewenste framerate.
Je kunt niet op 4K gaan benchen als de GPU de limiterende factor is bij zo'n resolutie. Daar haal je totaal geen informatie uit over hoe goed de CPU is. Je kunt het zoveel goed proberen te praten als je wilt maar 4K is nog steeds niet een resolutie waarbij de GPU niet de limiterende factor zal zijn, bij 1080p heb je dat wel (al zijn er inderdaad nog games waar nog steeds de GPU limiterend zal zijn) en daarom moet je gewoon op 1080p gaan testen (ook omdat 1080p "de standaard" nog is), tuurlijk je mag 1440p en 4K ook erbij doen (zoals veel respectabele review websites doen) om te laten zien dat het op de hogere resoluties niet uitmaakt, maar een echte review laat zien wat de verschillen zijn als de GPU/andere onderdelen niet de beperkende factor zijn.
Als je geen gaming benchmarks wilt doen, prima want het is immers niet een CPU voor de mainstream gaming markt dus niemand zal je dat kwalijk nemen. Maar als je gaming benchmarks gaat doen dan moet je het gewoon eerlijk en goed doen, en niet wat je beter uitkomt met de marketing want dit is gewoon pure marketing en daarom dus waardeloos.

[Reactie gewijzigd door Tim2010 op 6 augustus 2017 13:37]

Je kunt niet op 4K gaan benchen als de GPU de limiterende factor is bij zo'n resolutie. Daar haal je totaal geen informatie uit over hoe goed de CPU is.
Je haalt wel naar boven dat het niet uitmaakt wat voor CPU je hebt in deze situatie. Dat op zich is toch ook een waarneming die potentiele kopers moet interesseren?
Ja dat het nu nog niet van tel is dat klopt maar als je ziet hoe snel Nvidia evolueert en er al 4K 144hz schermen in de maak zijn dan kan het binnen 2 jaar WEL al van tel zijn. Dan zijn ineens die 1080p benchmarks wel interessant om te laten zien waar de limieten van de cpu liggen tegenover de gpu.
Het is in principe zelfs niet relevant of de opmerking juist of mis is, zo lang ze on topic is verdient ze een +1 (net zoals mijn reactie een 0 verdient wegens off topic, het moderatiesysteem is namelijk niet de topic van dit artikel)
Treadripper en gaming lijkt me ook geen hele nuttige combinatie?. Misschien dat het voor streamen nut heeft? (realtime x264 outzenden vanaf cpu), maar die doelgroep lijkt me vrij beperkt.

7700K is gewoon de beste keuze als je op lage resolutie heel veel fps wilt halen; clocksnelheid is koning.
Nog wel maar ook Intel komt niet verder dan hun huidige snelheid. Welke trouwens al bewezen werd in de tijd van de Pentium 4. Dat je op een gegeven moment naar meer cores moet gaan. Nu is de koek ook op bij quadcores buiten IPC verbeteringen om dus de stap zal worden om naar nog meer cores te gaan.
Nieuwe engines maken hier ook al gebruik van ook al is het nog niet gigantisch maar de verschuiving naar 4+ cores is al begonnen.
Denk dat intel met de komende mainstream 6 cores daar opzich wel goed op inspeelt. Ik zelf zou als opvolger van mijn 4790k ook een >4 core kopen overigens. Vond toen de tijd de stap naar X99 te duur.
Ook mijn idee. Overal wordt geroepen: "Voor gaming is alles hoger dan i5 7600K overkill". Maar nu die betaalbare processoren met veel threads er zijn, kan het niet lang duren voor ook spellen er gebruik van gaan maken. Misschien is wel een probleem dat het dan lastiger wordt om PS en XBox versies te maken van die spellen.
Beide consoles hebben een 8 core processor, dus het lijkt mij, zolang we niet meer dan 8 cores/threads gaan gebruiken in games, geen probleem.
Waardeloos is te veel gezegd. Ook als de CPU het grootste deel van de tijd beperkt wordt door de GPU blijven er momenten dat de CPU bepalend is. Door een snelle GPU te nemen op lage settings vergroot je dat effect verder uit.

De andere kant van het verhaal is dat je dan wel test met een vrij onrealistisch scenario. Je kan natuurlijk stellen dat het een betere manier van testen is, maar je loopt ook het risico dat de onterechte conclusie getrokken wordt dat de langzaamste CPU geen optie is voor gaming.
Weet je, er zijn altijd klachten. Ofwel omdat er net geen 4k is meegenomen terwijl mensen die dit soort CPUs gaan kopen toch echt niet meer op 1080p gaan gamen en nu men met 4K resultaten afkomt klaagt men weer omdat je op de GPU bottleneck zit.

Laat ons eerlijk zijn. Dit soort CPUs zijn op dit moment niet eens bedoeld voor gamers. De meeste games kunnen geen gebruik maken van zovele threads/cores. Bij voldoende CPU power gaat de bottleneck trouwens altijd bij de GPU gezocht moeten worden.
En testen op 720p geeft nuttige resultaten wou je zeggen? 1440p of hoger is wat mensen hier op gaan spelen. Dan is het ook realistisch om die te testen. Als je wil weten hoe sterk de CPU is dan kijk je maar naar non-gaming benchmarks.
Helaas zijn de gaming benchmarks op 4k resolutie getest en dus eigenlijk waardeloos, het is immers een GPU bottleneck.
Wat ik altijd verbazingwekkend vind is dat mensen weer wat roepen zonder hun uitspraak te controleren.

Zowel de Threadripper als de i9 gebruiken beide dezelfde GTX 1080 Ti Founders Edition tijdens de Tombraider test. Kan jij dan verklaren waarom de Treadripper PC duidelijk slechter presteert dan de i9 met DX12? 5%+ verschil is toch significant te noemen in de wereld van GPUs.

En testen op 4k is niet vreemd als je gemiddeld 60+FPS haalt met de game. Zeker niet omdat de geteste Alienware PC geleverd werd met twee GTX 1080 Ti kaarten. 4k gamen wordt steeds interessanter als je niet te zware games neemt.

Als je het filmpje had gekeken dan had je gehoord dat de koeling behoorlijk bagger is van de Alienware PC. Verder zijn de enige verschillen dat de i9 een sneller geheugen type gebruikt, een andere SSD en natuurlijk een ander moederbord. Het zou me niets verbazen als we straks meer test cases hebben, we minder verschil zullen zien tussen dergelijke game tests...

En zoals andere ook al opmerkte, de Threadripper is niet voor de meeste gamers. Een van de weinige games die er baad bij zou hebben is waarschijnlijk Supreme Commander: Forged Alliance met grote maps en veel spelers of iets als Ashes of a Singularity: Escalation (aan de andere kant een 1800X vs een 6900k is nog steeds Intel in het voordeel voor deze game).
Kan jij dan verklaren waarom de Treadripper PC duidelijk slechter presteert dan de i9 met DX12?
ja, nvidia heeft een driver probleem in dx12 (en dx9) met ryzen CPU's.
pak je een AMD GPU of een intel cpu, of gebruik je dx11, en het probleem is weg.

en zijn een paar games die dit duidelijk laten zien, waaronder tombraider, maar ook rocket league(dx9) en ook total war warhammer. maar alleen in dx12 mode.

en juist in games verliest intel performance met de skylake-x architectuur ivm de normale skylake. het mesh netwerk heeft een veel hogere latency als het oude ringbus ontwerp. als 3200mhz geheugen word gebruikt is de latency van intel maar 20% lager als die van AMD tussen CCX's, maar dan zonder het voordeel van AMD binnen de CCX (wat ongeveer de helft is van intels mesh).

[Reactie gewijzigd door Countess op 6 augustus 2017 23:23]

Dus als je momenteel de snelste videokaart wil gebruiken bij toekomstige spellen, koop dan geen AMD CPU?
nee, je wacht ff tot nvidia eindelijk een keer zijn shit op orde heeft in dx12.
Die rendertest daarentegen is wel mooi om te zien hoeveel sneller dat is op 32 threads.
Maar niet veel software die huis tuin en keuken gebruikers dagelijks gebruiken hebbend aar profijt van lijkt me.
Ook niet veel huis tuin en keuken gebruikers zullen een 16c 32t CPU van om en nabij §1000 kopen :+
Niet als je een 4K scherm hebt.
De geteste CPU is zeer waarschijnlijk een pre production sample die dell heeft geleverd aan deze reviewers. Als ik het LTT filmpje bekijk Dan is de plastic mold rond de CPU blauw in plaats van oranje. De retail versie scoort beter volgens het YouTube filmpje in deze Reddit thread.

https://www.reddit.com/r/...hmark_leaksreleases_with/
Ik vind dit erg onhandig van AMD om 1 bepaalde reviewer een andere NDA te geven dan alle andere reviewers.
Dan krijg je een fake exclusiviteit, de andere reviewers zijn pissig er over en misschien zullen ze minder vriendelijk zijn in hun reviews, daarnaast is de bepaalde review compleet nutteloos, zowel average als minimum FPS zijn geen goede indicatie van CPU performance..

Beter is frame times, spikes, minimum 0.1% frametimes etc.

Maargoed.. AMD maakt natuurlijk een heel goed product nu, laten we hopen dat deze exclusieve onzin niet backfired.
Om de 1 of andere reden ligt Linus heel goed bij AMD ondanks dat al zijn systemen Intels zijn, ook op LTX had hij de primeur om de X51 + Vega te tonen en te benchen, dat kun je niet als je niet goed ligt bij de makers.
Dat komt omdat Linus heel normaal is en gewoon doet waar hij zin in heeft. Hij word doorgaans door die gehele club gerespecteerd en mag ook dingen op beurzen uitvreten zonder problemen.

En hij zegt altijd wat hij denkt en dat is het voornaamste

[Reactie gewijzigd door FrontlineCoder op 6 augustus 2017 13:47]

> en mag ook dingen op beurzen uitvreten zonder problemen.

Als je met "zonder problemen" bedoelt dat ie regelmatig shit laat vallen (iets waar Linus bekend voor is) :p

OK, ik verdraai je woorden iets, want ik begrijp ook wel dat je bedoelt dat de bedrijven hem geen problemen geven (ik geloof dat bedrijven vaak een extra product gereserveerd houden als ze er een naar Linus sturen omdat ze weten dat hij nog wel een wat laat vallen)
Deze benchmarks zijn door Alienware toegestaan, niet door AMD zelf.
En zijn conclusie is niet al te positief over het Alienware product...
Meer media aandacht, lijkt briljant te werken. Als donderdag overige sites een review van Threadripper mogen publiceren hebben ze weer aandacht voor Ryzen.
Hoe kunnen ze onvoldoende koeling in zo'n bakbeest van een kast nalaten? En luidruchtig!
Zo zonde. En voor dat geld!

Niet dat ik het zou willen betalen, sowieso betaal je je aan ready-made een breuk.
Als je weet hoe lego werkt kun je altijd beter zelf bouwen. Zeker als je bouwtopics hier post en advies krijgt. Ik wacht in spanning af, want hoewel ik het niet echt nodig heb.. 32 threads.. KOM OP MAN !
Gaat mijn tweakers hartje sneller van kloppen. :9~

[Reactie gewijzigd door MrMonkE op 6 augustus 2017 13:22]

Koeling kan ook nog gewoon een bug zijn. Volgens mij had Ryzen ook zoiets bij Launch, dat de gerapporteerde temperaturen 20c hoger waren dan de daadwerkelijke temperaturen.

Ik verwacht eigenlijk eerder dat dit een bug is dan dat een OEM als Dell (eigenaar van Alienware) loopt te rommelen met koeling in een product waar ze flink op in willen zetten (als de geruchten juist zijn heeft Alienware namelijk Threadripper exclusiviteit als OEM tot 2018)
Misschien heb je een punt maar ik schat Linus TechTips wel zo hoog in dat zij dit zouden onderkennen en benoemen, dus ik vrees toch dat het klopt. De tijd zal het leren.
Linus had al in de video gezegd dat het waterkoelsetje dat erin zit gewoon niet goed was.
klopt, kennelijk is goed luisteren tegenwoordig ook al lastig.
Heb er ff naar gekeken, en inderdaad goed lijkt het niet. Die cooler lijkt niet eens speciaal designed voor TR daar hij niet eens de hele heatsink raakt. Nu is dit te verwachten met aftermarket coolers die al op de markt zijn en een socket TR4 mountbracket krijgen, maar bij een volledig OEM systeem zou je toch verwachten dat de koeling ook volledig ontwikkeld is voor het systeem waarin deze gebruikt gaat worden. Dit lijkt helaas niet zo te zijn :(
klopt, dit is ook door Jay2cents aangehaald. fr mounts die er nu zijn lopen over de CPU heen ipv eromheen. Plus dat er momenteel nog geen waterkoelblokken zijn die de hele CPU afdekken. Niet echt ideaal dus. Ze lijken er wel binnenkort aan te komen. Die tests zullen veel meer zeggen betreffend temeperaturen en behaalde snelheden.
als je asus hebt is dit sowieso al het geval in ieder geval bij de oudere platen, om OC te beperken bij de meeste mensen was de cpu standaard +10 graden warmer dan daadwerkelijk geval was (imo een goede keuze om gezeik te voorkomen)
dit is een post preduction model dus er is nog ruimte voor change
Pre production, als ik het goed hebt :P
Post is er na, toch?
Die kaart die hij heeft is preproduction. Dat zegt hij nog in die video
Mijn tweaker hartje denkt gewoon k oc mijn 3770k naar 4,8 ghz als ik het nodig heb en dan be ik voor de meeste software gewoon even snel en voor veel games en software gewoon sneller.

Het bespaarde geld stop ik lekker in andere gadgets.
De test werd gedaan met 2666MHz DDR4.. is het niet zo dat Rizen juist voordeel heeft bij snel DDR4 geheugen?

[Reactie gewijzigd door maniak op 6 augustus 2017 13:05]

Dit is waarschijnlijk wat Alienware beschikbaar heeft gesteld en waar ze het dus mee moeten doen. Daar ze waarschijnlijk aan de beschikbaar gestelde configuratie hardware matig niets mogen veranderen.

Dat kan dus ook betekenen dat Alienware configs met DDR4 2666 gaat verkopen, anders hadden ze er wel ander geheugen in gezet, of dat de TR geheugen controller mogelijk wat gevoeliger is dan Ryzen en dat mogelijk ook hier er nog enige tijd overheen gaat voordat de geheugen compatibiliteit op orde is via bios updates. De overige reviews zullen dat wel laten zien komende week verwacht ik.
Ik snap gewoon niet hoe Alienware een PC die ruim 4000 dollar moet gaan kosten voorziet van maar 2666MHz DDR4 geheugen.
Ik zit trouwens net even te kijken en AMD geeft zelf een max van 2666 (2667) op voor Threadripper (https://www.amd.com/en/pr...-ryzen-threadripper-1950x).
Dit is dus de stock snelheid voor Threadripper en er dus gewoonweg niet overklokt is op het testsysteem. Ik meende gelezen te hebben dat AMD met Threadripper ook de stock memory speed zou gaan verhogen, maar dat lijkt dus niet zo te zijn.

Neemt niet weg dat er mogelijk wel systemen komen met hogere memory snelheden, maar ik kan me goed voorstellen dat een Pre-Productie systeem als deze op "safe" staat.

[Reactie gewijzigd door Dennism op 6 augustus 2017 13:17]

Volgesmij is het zo dat RAM officieel maar tot 2666 gaat, en het overclocken niet "officieel" supported is maar hij dus wel tot 3200 oid zou kunnen gaan.
Dat zal bij losse mobo's en cpu's inderdaad het geval zijn, OEM's bieden echter in de regel niet al te veel overklok opties, als ze het al doen. Dan kun je uiteraard in sommige gevallen nog wel met software aan de gang maar ook dat is vaak niet optimaal.

Linus geeft bijv in de eind conclusie van dit filmpje al aan dat deze Alienware vrijwel geen opties heeft tot overklokken.
Ja klopt, dit moederbord was niet echt top of the line... :(
Kan niet wachten op de "custom benchmarks" met de top mobo's en beste onderdelen :)
Overklokken zou het koelsetje niet trekken, doet de review vermoeden...
Voor het overklokken van het geheugen is het waterblok op de CPU natuurlijk niet direct van belang.

Verder uiteraard gelijk, dat koelsetje komt niet echt goed voor de dag. Slechte zaak dat Dell / Alienware daar niet wat meer werk van gemaakt heeft.
Moet je dan ook niet de CPU mee overklokken? Het is al heel wat generaties geleden dat ik geheugen heb geoverklokt, maar toen der tijd werkte dat zo...
Dat kan al zeer lang individueel van elkaar (of uiteraard beide).
Nope CPU en MEM kan je separaat overclocken.
alienware is altijd al veel te duur geweest voor mid range hardware dus het verbaasd mij niets. Net als apple hardware.
omdat ook de MB nieuw is en net als Ryzen er updates nodig zijn om geheugen beter te laten draaien. Op LTX zag je ook dat Linus ander geheugen erin probeerde te proppen, maar dt het systeem vervolgens niet opstarte. BTW, ook Intel had in het verleden last van 1st relaeases.Gewoon 1-3 maanden geduld hebben en het ziet er beter uit...
Het is gewoon duur, voor het Alien symbool op de case, de vorm van de case en het pure metaal van de case (de case weegt zwaar). Daar voor betaal je veel geld. Mss rond de 2000 dollar.
En AMD zal er ook wat % voor willen denk ik. Het is hetzelfde met auto's. Je betaald meer voor het merk/merknaam dan de inhoud. (http://financieel.infonu....etalen-voor-het-merk.html)
Ik denk dat het weinig uitmaakt aangezien TR quad channel geheugen heeft en Ryzen dual.
ja, maar TR heeft twee keer zoveel memory controllers, en kan ook meer geheugenbanken tegelijk aanspreken. Een R7 zou zijn geheugen op 5222MHz moeten laten draaien voor dezelfde bandbreedte van TR op 2666MHz
2666*2 = 5332 MHz :+

In theorie heeft TR 2x de bandbreedte t.o.z. Ryzen.
In de praktijk moeten we nog zien. Meestal is dat niet helemaal het geval.
Benchmarks mogen deze week vrijkomen.
Maar is het vermoeden dan niet zo dat Coffee Lake gehakt gaat maken van Threadripper dit najaar?
Want de huidige Threadrippers zijn uitgebracht om te concurreren met Kaby Lake, toch?

[Reactie gewijzigd door SpitfireNL op 6 augustus 2017 14:10]

Coffee Lake is geen directe concurrent voor Treadripper, Coffee Lake gaan Kabylake opvolgen en concurreren met Ryzen net als dat Kaby Lake dit nu doet.
Toen LTT vorige week de CineBench score al mocht tonen waren sommige review sites al niet echt tevreden, dat ze voor die benchmarks nu ook een voorsprong krijgen zal nog minder in de smaak vallen.
toch is het krom dat ze een strikt embargo beleid hanteren.. en dan 1 uitzondering maken?!
toch is het krom dat ze een strikt embargo beleid hanteren.. en dan 1 uitzondering maken?!
Krom, nee hun goed recht. AMD beslist zelf hoe ze hun product releasen, hoe unhappy andere reviewers daarmee dan ook mogen zijn.

Laten we wel wezen, het filmpje van 7:23 waarin ook nog eens behoorlijk wat reclame zit, is zeer zeker geen goede/complete review. Maar iets wat andere 'reviewers' wel vaak zo verkopen (Tweakers i'm looking at you!), er komt een uitgebreidere review van LTT, maar gezien LTT zal dat ook niet echt diepgaande stof zijn. Dat geeft anderen de mogelijkheid om dat nog wel te leveren op het moment dat de NDA gelicht wordt voor de rest van de wereld.

LTT kijk/luister ik de laatste tijd veel, zeer vermakelijk. Ze hebben soms hele interessante diepgaand stukken, maar het is meestal gewoon licht verteerbaar spul.
Mwah, dat weet ik niet. Vergeet niet dat het jaaaren andersom is geweest. De gerespecteerde websites en bladen kregen dibbs. Nu YT ineens groter is en meer ogen trekt is men ineens bitter. Beetje hypocriet.
AMD is wel weer goed aan de weg aan het timmeren.
het hoeft van mij ook niet perse sneller. net zo snel voor een veel lagere prijs is ook al prima. ik denk overigens dat die thread-ripper cpu's in de toekomst wel prima zullen schalen door de hoeveelheid cores. maw wellicht meer future proof.
Opnieuw opvallend dat je bij een stijging van 4 naar 16 cores in DX11 nog altijd min of meer dezelfde fps ziet. Zelfs in DX12 is het verschil verwaarloosbaar. Sinds dit jaar zijn er steeds meer games die daadwerkelijk 4 cores vol krijgen. Die observaties bij elkaar genomen impliceert eigenlijk dat vooral een 5 core leuk is voor gamers, 4 voor de game en 1 voor de randzaken.

[Reactie gewijzigd door sdk1985 op 6 augustus 2017 15:54]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*