Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Verpakking Arctic Freezer 50 TR wijst op komst Threadripper-cpu met 64 cores

De verpakking van de Arctic Freezer 50 TR-koeler wijst op de komst van een Threadripper-processor met 64 cores. Volgens de verpakking is de koeler geschikt voor processors met 32 en 64 cores. De koeler komt 'begin november' op de markt.

De Arctic Freezer 50 TR werd deze week officieel aangekondigd. De koeler is specifiek bedoeld voor Threadripper-cpu's en beschikt over een ontwerp met twee torens met twee fans. Vlak na de aankondiging van de koeler verschenen er foto's van de verpakking op de website van Arctic, waarop staat aangegeven dat de Freezer 50 TR in staat is om cpu's met 32- en 64 cores kan koelen. Hiermee lijkt de koeler te wijzen op de komst van een cpu met 64 cores in de Threadripper-serie. De koeler lijkt specifiek bedoeld te zijn voor hedt-processors, dus lijkt het onwaarschijnlijk dat hiermee een Epyc-cpu bedoeld wordt.

De verpakking van de Arctic Freezer 50 TR

Onlangs verschenen er ook aanwijzingen dat de Threadripper-variant met 24 cores de 3960X zal heten, schrijft VideoCardz. Zo verscheen er een benchmark-run van Ashes of the Singularity waarin de 3960X wordt genoemd. Als dit waar blijkt te zijn, en AMD zijn huidige naamschema aanhoudt, kan dit mogelijk ook wijzen op de komst van een 64-core-cpu; een 3970X zou dan 32 cores krijgen, een 3980X heeft mogelijk 48 cores, en een mogelijke 3990(W)X kan dan 64 cores bevatten.

Ook deelde @Komachi_Ensaka via Twitter informatie uit een Ryzen Master-update, waaruit blijkt dat de derde generatie Threadripper-chips een tdp van 280W krijgen. Het lijkt hierbij om een variant met 32 cores te gaan. Opvallend is dat de Arctic Freezer-koeler een tdp van 250W noemt.

Duitse techsite Hardwareluxx plaatste deze week een review van de Arctic Freezer 50 TR, maar hiervoor gebruikte de site een 2970WX met 24 cores. In de review zijn de prestaties van de koeler vergelijkbaar met die van de Noctua NH-U14S TR4. De Arctic Freezer 50 TR moet 60 euro gaan kosten.

Door Daan van Monsjou

Stagiair nieuwsredactie

17-10-2019 • 17:13

41 Linkedin Google+

Reacties (41)

Wijzig sortering
Er vanuit gaande dat de 64-core threadripper per core dezelfde performance heeft als de huidige top end threadripper, ga ik iets zeggen waarvan ik nooit dacht dat ik het ooit zeggen zou:

Wat moet je in godsnaam met zoveel rekenkracht in een desktop? Is het niet kosten- energie- en herrie- efficiënter om voor een rackmount met epyc te gaan en die ergens in een bezemkast te stoppen? (Met ventilatie naar buiten)
64 core Threadripper is een Workstation CPU met als doelwit hetzelfde marktsegment die nu dual socket highend workstations koopt.

Typische workloads zijn simulaties en rendering.

Voordeel van workstations is dat je al die resources lokaal ipv remote hebt. Je hebt het letterlijk onder je bureau staan, wat veel researches graag hebben als ze hun modellen nog aan het verfijnen zijn. Laat je toe snel te itereren. Eens die modellen verfijnd zijn, laten ze die dan wel los op grotere server farms.

Voordeel van Threadripper tov EPYC is ook kloksnelheid.
EPYC is gemaakt om in een rackserver te passen en heeft eigenlijk een redelijk constrained power budget om zowel qua koeling als stroomverbruik zeer efficient te zijn en zich gedeisd te houden. Dat resulteert in kloksnelheden die zich op het efficientste stuk van de frequency/watt curve bevinden.
Bij Threadripper kunnen ze efficientie uit het raam gooien en de kloksnelheid zo hoog jagen als de silicon toe laat, een Threadripper koelen is immers veel simpeler omdat je meer ruimte hebt en omdat je workstation systeem zich niet moet houden aan het power en cooling budget van een server rack. Dat resulteert in nog betere performantie voor hetzelfde aantal cores.
met als doelwit hetzelfde marktsegment die nu dual socket highend workstations koopt
Sterker nog, met 128 threads lijkt het me ook waarschijnlijk, dat (kleinere) bedrijven die kleine clusters draaien, dat (Intel?) clustertje kunnen vervangen door 1 computer. Voor de huidige Threadripper las ik al dat dit soms gebeurde, met het dubbele aantal cores kan dat nog beter.

En dan te bedenken dat de komende generatie AMD-processoren (wss. server core in 2020 of 2021) ook nog eens 4 threads per core kunnen gaan draaien...
Mijn dochter studeert geofysica, ik dacht toen ze dat zij ,leuk, totdat ze om een computer vroeg voor haar studie, en dat werd een 2990WX met 128GB ECC, plus een Quadro P5000, en nog klaagt ze dat vooral haar CPU te langzaam is.
En de 2990WX gaf de beste prijs/prestatie verhouding toen ik hem kocht, beter dan 1 of 2 socket Epyc met een lagere klok.

Maar ook andere simulatie software en Rendering kunnen bijna altijd meer cores gebruiken, dus ja er is zeker wel een niche markt voor een TR workstation met veel cores.
En tot voor kort had ze weinig interesse in computers en zeker dingen als CPU's, nu is ze opeens een expert in high-end CPU's/GPU's, en als er een 64 core TR komt zie ik de bui al hangen. :'(
Hopelijk niet aan de Universiteit van Groningen? :P

Serieus: is het niet interessanter om voor zulk werk met distributed computing te gaan werken?

[Reactie gewijzigd door TimMer op 18 oktober 2019 01:48]

Absoluut, maar er is nog geen goed geteste software-oplossing voor die de precisie van je berekeningen onder alle omstandigheden garandeert en voldoende gebruiksvriendelijk is. Veel universiteiten hebben gewoon een clustertje beschikbaar voor dit soort berekeningen. Aan de Universiteit Utrecht kun je bijvoorbeeld Cartesius van SURFsara gebruiken. Onderzoeksgroepen kopen hiervoor CPU-minuten in. Het is echter gebruikelijk om een groot aantal kleine analyses te draaien om je model te verifiëren - en dat is vaak trial and error. Het is in dat geval omhandig als je eerst 15 uur moet wachten voordat een of andere astrofysica-batch klaar is. Prijs en wachttijd zijn belangrijke argumenten om toch een workstation onder handbereik te hebben.

Studenten hebben die schaal zelden nodig - misschien een keer tijdens hun scriptie. In die situatie kun je ook CPU-minuten aanvragen via je professor. Maar wat als je kleinere analyses op een 'beperkte' dataset wil doen voor een vak, of je je code nog moet debuggen? Dan laat je je hoog-efficiënte dual-core i7 maar een paar nachtjes rekenen.

Ik ben niet voldoende bekend met de Geofysica, dus ik kan niet inschatten of zo'n monsterlaptop 'leuk en handig' is, of daadwerkelijke noodzaak. Maar het is wel een vakgebied waarbinnen die rekenkracht van pas kan komen.

[Reactie gewijzigd door Archent op 18 oktober 2019 15:06]

Ik denk dat RAM en mogelijk ook permanente opslag de echte oorzaak zijn. Dat loopt naar mijn gevoel tegenwoordig zwaar achter op de flops.
ZIjn die 3D inversie problemen vnl. rekenkracht gelimiteerd of geheugen bandbreedte gelimiteerd (zoals CfD werk)? In dat laatste geval presteert n Epyc nameijk veel beter ondanks de lagere kloks.
Draait ze de boel verder onder een of andere linux distro? Had vernomen dat de windows scheduler en de threadrippers niet bepaald de beste maatjes zijn als het op serieus werk aankomt
Ze gebruikt Debian, en dat draait idd een stuk beter dan onder Windows, en hoewel ze heeft heel veel geheugen nodig, heeft ze niet extreem geheugen bandbreedte nodig, daar al de cores op nagenoeg 100% draaien, ook scheelde het behoorlijk in prestaties toen ik een cpu/gpu waterkoeling set bij haar installeerde, was ik wel meteen weer €500 armer. |:(
Wat moet je in godsnaam met zoveel rekenkracht in een desktop? Is het niet kosten- energie- en herrie- efficiënter om voor een rackmount met epyc te gaan en die ergens in een bezemkast te stoppen? (Met ventilatie naar buiten)
20 jaar geleden: Wat zou je in godsnaam met 16 Gigabytes aan geheugen in een thuiscomputer doen?!
Vandaag: 16 is de standaard.

Met zoveel cores kunnen we eindelijk verwachten dat daar ook gebruik van gemaakt gaat worden na verloop van tijd. Zoals je eerst ook niets was met 8 threads of meer want alles was single of dual threaded, misschien quad-threaded. Tegenwoordig heb je met een oude 8core bulldozer betere performance in BFV dan met een i5 4670k, puur door de extra threads.

[Reactie gewijzigd door Tokkes op 17 oktober 2019 19:35]

Als je me in de jaren 90 had verteld dat we zoveel opslag geheugen kregen was ik al blown away. Laat staan die snelheden van mn m.2 ssd ding, die had onze gezins 486 meerdere keren per seconde verwerkt en then some... laat staan de 4tb schijf die ik erbij heb....
Ik denk handig voor freelancers die realtime dingen moeten bereken of bijna realtime zoals fluid simulaties voor CGI. Dus die dus niet steeds hun zooi willen offloaden op een server. Bijvoorbeeld een FX artist wilt de mogelijkheid hebben om veel iteraties te kunnen maken. En om dan bij elke verandering steeds een server in te schakelen bevordert niet de snelheid. En voor freelancers is misschien een Epyc servertje erbij te duur.
Goed punt, voor render previews en simulatie trial-and-error werk is het zeker nuttig. Wanneer je tevreden bent met je project gaat de boel als nog naar een server maar die is dan waarschijnlijk meteen een weekendje zoet, bij die toepassingen. (Of voor de freelancer, niemand raakt de pc aan in het weekend... :9 )
Waarom zou het kostenefficienter zijn om een 2e pc, rack + bezemkast in te zetten voor iets wat in een desktop kan? Scheelt je ook netwerkapparatuur, licenties, monitor etc.
Omdat server hardware doorgaans betrouwbaarder is, en probleemloos 24/7 kan staan stampen zonder dat je er last van hebt. 64 core threadripper op 100% load zal de ruimte waar hij in staat flink opwarmen en zonder dure waterkoeling setup word het oorverdovend. Als je aan het renderen / compileren bent is je systeem hoe dan ook minder stabiel. Je kan niet even rebooten, gamen of wat dan ook, want een crash = 2 uur rendertijd verloren. (En je game zal niet bepaald stabiel lopen, dikke cpu of niet alle I/O word gewoon gedeeld)

Ik ben er zeker van dat 64 core threadripper economisch alleen logisch is voor "omdat het kan" en hele specifieke situaties. (Het is wel geniaal, maar niet per se nuttig)
250 watt voor een desktop is niks bijzonders, een 1080ti trekt dat, en als de koeling goed is is dat prima te doen qua geluid. Een cpu koeler heeft daarnaast meer ruimte voor heatpipes.
Ik neem aan dat de threadripper processoren en moederborden ook gewoon superstabiel zijn. Waarom raak je 2 uur rendertijd kwijt als je systeem crashed? Slaat hij tussentijdse voortgang niet op?

Ik denk dat het er maar helemaal om gaat wat je behoefte is, je workload en je situatie. Ik ben het met je eens dat de meeste consumenten hier geen workload voor hebben, maar is dit voor consumenten?
Zelf heb ik een desktop staan uitgerust met een 1950x 16-core Threadripper, Deze gebruik ik voor mijn werk. Hiermaak ik 3D modellen op en techniche tekeningen. Vooral de multi-core performance was voor mij belangrijk i.v.m. renderingen maken en veelzijdig multitasken met live-texture's i.c.m. adobe pakket.

Nu heeft deze 'slechts' een TDP van 180W maar mijn NZXT kraken 360mm moet er soms wel aan trekken als die tot het gaatje geknepen word. Idle zit die vaak rond de 45 graden. Load rond 70. :/

De stabiliteit verbaast mij tot nu toe, soms staat die dagen non-stop te renderen en het is mij nog nooit gebeurd dat deze onderbroken werd (1,5 jaar in gebruik) Echter, mocht een rendering onderbroken worden, moet je helaas wel opnieuw beginnen, deze voortgang is niet op te slaan en van veel factoren afhankelijk.

Nu moet ik wel eerlijk zeggen, dat ik niet zal upgraden naar een Threadripper met nóg meer core's. Enkel als de single-performance ook verbeterd word het misschien nog interresant.

Threadrippers zijn altijd al voor de niché gebruikers geweest, zeker niet gericht op gamers aangezien veel game's nogsteeds niet optimaal multi-core implementeren. (nou kun je wel game-mode aanzetten op de Threadripper, maar dat is niet veel meer dan 8 core's gewoon uitschakelen :? ...)
Ik denk dat deze chip ook gewoon een bepaalde e-penis aantrekkingskracht heeft maar er zijn wel workloads te bedenken waar het zin heeft en waar je niet perse een server erbij wil;

- Kernel compilatie
- High-end virtualisatie
- Rendering workloads
- Taken met bizar veel IO (alhoewel je dan wel ook een server nodig heb)
Al die taken zijn perfect voor een server. Taak naar de server, laptopje dicht, en in een stille ruimte een boek kunnen lezen. Perfect.

En als je echt serieus bezig bent dan heb je een workstation met een niet-idiote TDP waar je je werk op kan doen terwijl je renderfarm / compilatieserver zijn ding doet. High end virtualisatie zou ik sowieso niet op een desktop willen draaien, want dat gaat 9/10x over langlopende taken en testen waarbij je graag volledig de beschikking hebt over je workstation zonder te moeten vrezen dat restarts en crashes je VM's offline halen.

Héél misschien voor sterk parallelle (research) taken maar dan denk ik eerder aan gpu acceleration...
je kan ook dat werkstation in een kast in de garage steken en dan laptopje dicht met een boek lezen :)

kijk eens naar kost van een TR 64 vs Epyc 64 core 1P vs Epyc 64core 2P dan is de keuze snel gemaakt. Komt er nog bij dat de TR hogere base clock en turbo heeft vs EPYC. (Allee toch diegene die in de gewone handel te krijgen zijn want er zijn Epyc 64core in de server wereld met hogere TDP en clock maar niet beschikbaar in retail)

tegenwoordig hebben veel graphic design firma's allemaal zulke WS staan onder hun bureau. Ze doen lokale rendering om daarna te uploaden naar server farm.

trouwens GPU rendering is ook niet ideaal, X86 instructies blijven bestaan en identiek en dikwijls voldoende krachtig. GPU rendering is al eens vaker onderhevig aan volledige sw vernieuwing wegens nieuwe gpu core/architectuur
Wat moet je in godsnaam met zoveel rekenkracht in een desktop?
Hele specifieke zaken, maar veel waar @MiesvanderLippe het over heeft zou je kunnen offloaden naar servers. Ik zit bv. te denken aan een setup met veel schermen (6+) met hoge resolutie waarvan de software instances die er op draaien veel rekenkracht vergen. Maar dan nog zou je in veel van die situaties mogelijk voordeliger uitzijn met meer dan 1 werkstation. Het gaat imho heel erg liggen aan de prijs en de mogelijkheden van de moederborden...
Als dat ding idle zuinig genoeg is dan is het wel leuk, ook voor de gemiddelde desktop gebruiker, om zo veel power beschikbaar te hebben.

Aan de andere kant weten we ook dat niet elk programma parallel kan draaien en dat als desktop gebruiker ook altijd genoeg single threated performance wilt hebben.
Ik gebruik Houdini voor sims en renders. Meer cores, meer iteraties. Meer iteraties = meer beter. Volgende week zou ik blij zijn met 512 cores, de week daarna zou ik er meer willen. Rekenkracht is niet alleen nodig voor de laatste sim/render die je 2 dagen laat draaien met je monitor uit. GPU opslag is om te janken. Geen geld voor een farm vol met EPYCs EN ook nog eens eten.

Weet niet hoe ze dit flikken in een professionele productie omgeving. Misschien dat iedereen daar op een stack epyc servers zit, daar weet ik niets van. Zat freelancers die hier onwijs blij mee zijn. Houdini iig multithread als een God en AMD kan wat mij aangaat niet genoeg cores in deze dingen proppen.
Unreal engine laen compilen terwijl je aan het gamen bent. (Lukt ook op een x3900 duurt alleen iets langer)
Dat is ook alleen maar voor de heb. Als je serieus een game ontwikkelt en prijs / toekomstproofing / stabiliteit belangrijk voor je zijn test je je game op een systeem dat alleen typische achtergrondtaken draait die je gebruikers ook zouden hebben, en is je CI server in 5 minuten klaar met je compilatie + unit tests.

Leuk om thuis aan je vrienden te laten zien, wel een case met een window en 100W aan RGB nemen he O-)
Gaat ook niet om testen maar om compile tijd. Unreal compile actie duurt gemiddled 2-4 uur op een i7. En dan kun je zelf niks meer.

Op mijn 3900 kan ik nu gamen terwijl hij compiled in background
Een CI server draait ook de compile taken. En met server-level hardware is die compilatie ook veel sneller. Enterprise-level SSD's met NVMe access zorgen ervoor dat de source files snel worden ingelezen; tussenresultaten kunnen in RAM/file cache blijven, en de massieve hoeveelheid cores zorgen ervoor dat er veel files tegelijk gecompileerd kunnen worden.
Ja allewn ben ik dan veel duurder uit en kan ik verder niks met die server.

Met mijn desktop kan ik gewoon gamen en compilen
Ik heb thuis ook een threadripper!

Al bijna 6 jaar oud!

Hij heet Ozzy en rukt alle loszittende draadjes uit je (be)kleding! :P >(^.^)<
Wat moet je in godsnaam met zoveel rekenkracht in een desktop?
$ sudo emerge -DNuv world

Ed: Op hoge framerates niet aan te raden voor mensen die last hebben van epilepsie...

[Reactie gewijzigd door kidde op 18 oktober 2019 03:27]

Ik heb een overstromingsmodel dat geimplementeerd is voor parallelle processing, dwz cores worden aan het werk gezet. Dus mij lijkt het wel. Maar dat is geen alledaagse toepassing natuurlijk. Er zal ook wel geen alledaags prijskaartje aan hangen.
Heb nu een dubbele Xeon in mijn desktop puur voor 3D rendering. Met totaal 32 cores ziet windows 64 cores (in hypertreading). Op het moment dat ik ga renderen staan alle cores vol op 100% het huis te verwarmen. 3D renderen wordt vaak nog gewoon op de CPU gedaan. Het komt wel steeds meer om op de GPU te renderen maar vooralsnog zijn er minder render-opties dan op de CPU. In mijn geval gaat renderen op een 1080 GTX bijna net zo snel als op de CPU, echter kan ik dan helemaal niks meer doen tijdens het renderen. Windows wordt bagger traag als je de GPU op zijn knieën drukt. Als ik op de CPU render, merk ik eigenlijk weinig vertraging in Windows als je de prioriteit op laag zet. Dan kan ik naast het renderen rustig nog een 3D applicatie starten, After effects werk doen of audio nabewerking.

Voor mij geeft meer cores dus echt een veel betere workflow.

[Reactie gewijzigd door satoer op 18 oktober 2019 15:16]

Volgens Amdahl’s law is 64 cores nog altijd interessant (als de software ermee overweg kan uiteraard), 128 ook nog, 256 cores lijkt de limiet te zijn. Het probleem is dat je bij iedere taak altijd een stuk code hebt dat je niet parallel kan programmeren, je kan zoveel cores toevoegen als je maar wil om het parralel stuk te versnellen, op een gegeven moment krijg je die extra cores niet meer belast omdat je continu zit te wachten op dat stuk code dat door een single core moet.
Probleem is dat de single core performance met moeite nog stijgt, daarom ook dat we nu op multicore inzetten maar het einde komt al aardig in zicht. Het enige wat ik als vervolg kan bedenken is cores gaan toevoegen die zich op een specifieke taak richten, een dedicated core voor integer berekeningen (ik zeg maar wat) die doordat hij enkel en alleen voor die taak ontworpen is deze veel sneller kan uitvoeren om zo die single core performance terug een boost te kunnen geven.
Als je honderden cores hebt kan je natuurlijk aan branch prediction gaan denken, dan maakt het niet uit wat de uitkomst van je nog niet afgeronde (langzame) singlecore berekening word. Minder efficiënt maar als het om (tijd) performance gaat is dat een optie.
Nee, een rack server is niet energie efficiënter dan een enkele CPU. En ook voor 64 cores zijn dezelfde use cases als voor de 32 cores, het rekenwerk zal bij een goede scaling maximaal 50% sneller zijn. Dit betekent dat mijn videootje twee keer sneller gerenderd is. (JAY, tijd is geld!). Even buiten je eigen wereldje denken, dan ga je datgene waarvan je dacht dat je het nooit zeggen zou snel terug nemen. Dit zelfde principe gaat trouwen ook gelden voor de eerste CPU met 1024 cores ;)

[Reactie gewijzigd door dezwarteziel op 20 oktober 2019 09:58]

De hele wereld weet dat een 64 core threadripper mogelijk is, en iedereen verwacht dus dat die een keer komt. Als ik een CPU koeler op de markt zou moeten brengen zou ik er voor de zekerheid ook vast 64 cores opzetten.
Baat het niet, het schaadt ook niet. Het enige echt belangrijke is die 250watt.
Komen er 64 core threadrippers met een TDP tot 250 watt, heb je alvast een product op de markt. Hebben ze een TDP hoger dan 250 watt, ben je ingedekt. Komen ze helemaal niet, niets aan de hand. Niets te verliezen dus.

[Reactie gewijzigd door locke960 op 17 oktober 2019 20:19]

Binnen 5 jaar hebben consumenten pc’s 1024 threads
Waar heb je dat voor nodig? Vraag en aanbod vult dat op den duur wel.
Intel word de nieuwe underdog
Toch jammer dat games zo achterblijven in hun multithread optimalisatie. Stel je voor dat een beetje game zo'n processor echt kan benutten. Erg leuk ook voor VR lijkt me.
Dat komt omdat games voor consoles gemaakt worden en dus op de rekenkracht van AMD Jaguar cores uit 2013 bouwen. Verder is het voor de CPU vaak wachten op invoer van de gebruiker, er valt in dat geval dus weinig te scalen. Er gaat ongetwijfeld wat veranderen in games die voor de PS5 en Xbox Scarlet gemaakt gaan worden.
Niet echt, cloud is erg hip, maar ook daaraan zitten genzen en beperkingen, het zal nooit de enkele en enige waarheid zijn. Dedicated hardware zal er altijd blijven.

[Reactie gewijzigd door dezwarteziel op 20 oktober 2019 10:05]

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Sport

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True