Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Willem de Moor

Redacteur componenten

Waar gebruik jij je multicoreprocessor voor? Help ons cores aan het werk zetten

20-10-2017 • 19:00

262 Linkedin Google+

Zo rond 2005 introduceerden AMD en Intel hun eerste dualcore-processors en niet lang daarna kwamen de fabrikanten met quadcores op de markt. Het heeft jaren geduurd voor vier cores fatsoenlijk konden worden benut en nog steeds zijn er tal van applicaties die liever een hoge kloksnelheid van één core hebben dan vier trager geklokte cores.

Dat heeft AMD en Intel niet in de weg gestaan om steeds meer cores in processors te stoppen. Na het twijfelachtige succes van AMD met zogenaamde octacore-processors in de FX-serie zijn de Ryzen 7-processors echte octacore-processors inclusief smt, zodat je over maar liefst zestien threads beschikt. Ook Intel heeft, weliswaar in de hedt- of enthousiast-serie, al langere tijd zes en acht cores in het assortiment en sinds de Broadwell-E-generatie uit 2016 zijn er zelfs consumentenprocessors met tien cores.

In 2017 is het hek van de dam en hebben zowel AMD als Intel processors uitgebracht, respectievelijk in de Threadripper-serie en de Skylake-X-serie, met maximaal zestien of zelfs achttien cores. Nu zijn die prima te testen met synthetische benchmarks als Cinebench, video-encoding of Blender, maar het is moeilijk een 'normale' workload te vinden die dit soort cpu's het vuur aan de schenen legt.

Een van de weinige scenario's die AMD en Intel aanhalen om hun monsterprocessors aan de man te brengen, is 'megatasking', waarbij verschillende veeleisende toepassingen tegelijk worden uitgevoerd. Favoriet daarbij is het tegelijk opnemen en transcoderen van een videostream tijdens gamen. Onze ervaring is dat Twitch en consorten weliswaar erg populair zijn, maar het aantal populaire streamers gering en nauwelijks voldoende om de introductie van dergelijke processorlijnen te rechtvaardigen. Bovendien is transcoderen op de gpu een heel stuk praktischer aangezien het veel minder belastend voor het systeem is.

Onze vraag is daarom: wat doen onze powerusers met processors met meer dan acht cores? Waarom hebben jullie gekozen voor een cpu met tien of meer cores, wat levert het op, welke software profiteert daarvan? Zijn er speciale softwarepakketten die jullie hobbymatig draaien, of wellicht voor werk, die echt profijt hebben van zoveel threads?

We hopen met jullie input een test op te zetten waarin we dit soort cpu's het echt moeilijk kunnen maken. En te kijken of dat nou een ander beeld schetst dan een synthetische test als Cinebench. Beloftes kunnen we daarbij niet doen - niet elk stuk software leent zich goed voor benchmarking - maar we stellen alle input zeer op prijs. Heb je suggesties hiervoor? Laat ze dan vooral achter in de reacties.

Lees meer

Reacties (262)

Wijzig sortering
Development: Meerdere vagrant boxes, meerdere docker containers. Realtime watchers van SCSS / JavaScript code die bij elke wijziging gerecompiled wordt. Het compileren van meerdere docker containers dmv docker-compose.

Best wat scenario's waar (in combinatie met een gruwelijk snelle SSD, want anders helpt het niet) meer cores, best wat meer plezier brengen.
Nu ben ik toch wel benieuwd waarom / voor welk project je realtime naar scss en JavaScript code kijkt. En ook wat er precies gecompiled moet worden aan JavaScript code?
Een JS6 Transpiler is heel gewoon tegenwoordig (of van TypeScript naar JS6 naar JS5).

Of iedereen dit compileren noemt weet ik niet. Wel wil ik dit graag in de benchmark zien.

[Reactie gewijzigd door rbroen op 21 oktober 2017 09:43]

Het is wel zo single threaded als de pest.
Tenzij je er meerdere tegelijk draait.
Ik zou ook heel graag benchmarks zien met betrekking tot het runnen van een groot aantal docker containers, draaien van compilers (upon file change). Een ander ding wat je zou kunnen doen als je echt een CPU de nek om wil draaien is WebStorm met alle javascript inspections draaien in een groot javascript/typescript project (hint 100% cpu load :P ).
Worden dit soort zaken op ten duur niet te veel OS afhankelijk om het degelijk te testen EN te vergelijken?
Daar komt nog bij dat er naar mijn ervaring nog steeds een hoop geoptimaliseerd wordt.
Worden dit soort zaken op ten duur niet te veel OS afhankelijk om het degelijk te testen EN te vergelijken?
Daar komt nog bij dat er naar mijn ervaring nog steeds een hoop geoptimaliseerd wordt.
Als de insteek is om te testen of 16 cores sneller zijn dan 8 cores (en zo ja, of het twee keer zo snel gaat of slechts een beetje scheelt), dan maakt dat toch niet uit? Ook de vergelijking van 16 AMD cores vs. 18 Intel cores heeft geen enkele last van jouw bedenkingen. Het is een andere vraag hoe representatief het is (ik heb geen idee hoeveel mensen Webstorm gebruiken en behoefte hebben aan alle inspections?), maar in principe zie ik geen reden waarom het een slechte benchmark zou zijn.
Het runnen van een paar willekeurige docker containers heeft imho weinig zin omdat je niet weet wat er precies gebeurt op welk moment (en hoeveel resources vraagt dat). Je wilt voor een goede test juist een voorspelbare en constantere belasting. Willekeurige workloads kun je niet herhalen waarbij je een objectief resultaat houdt.
Het is wel makkelijker als je 1 groot systeem in docker containers draait (docker-compose).
Hiermee heb je wel losse containers, maar die hangen allemaal aan elkaar en je hoeft maar 1 ingang te gebruiken. Dus daar zet je een bepaalde load op.
Maak het nog groter en gebruik een autoscaling platform, dan heb je extra load dmv monitoring en extra containers te starten.

Mijn idee: test dit met tweakers.net zelf :*)
Je hebt dan een aparte container voor: database, backend, frontend, proxy/load balancer, etc.
Maak de omgeving na in docker containers en voer een loadtest uit. 8-)
‹berhaupt kun je haast niet genoeg cores hebben voor compileren.
* TD-er werkt al jaren op een dual-socket Xeon met elk 6 cores + multithreading en dat is wel heel fijn.

En ook processing van data (werk nu in de big data) trekt nogal wat van de CPU's met vele tientallen threads. Kortom een rekenkundig probleem omzetten in een bandbreedte probleem :)

Maar nu met docker/Vagrant omgevingen is meer resources ook wel fijn, al heb je daar ook andere resources voor nodig zoals veel geheugen.
In elk geval fijn dat 64 GB RAM of meer, tegenwoordig niet zo gek (duur) meer is ;)
Ram is tegenwoordig juist extreem duur. Of heb je het over 10 jaar geleden 64GB?
Er staat een knipoog achter...
Was meer dat het niet zo gek veel meer is, dus mensen kijken niet heel vreemd op als je ettelijke tientallen GB's RAM wilt.
En het is nu wel duurder dan een jaar geleden, maar nog steeds best wel betaalbaar.
Van de week een 5-tal servertjes op 't werk binnen gekregen waar in totaal ruim een halve TB aan RAM in zit Maar als je dat per CPU-core rekent zit je nog maar op 2 - 4 GB per core.
We hebben ook veel oudere servers staan die veel meer RAM per core hebben. (7 jaar oud met 96 GB)
Extreem? Het kost ~150 voor een setje van 64GB RAM, zelfs ECC/DDR4 is maar ~3-400 voor een setje van 4x16GB.

Dat is de kost van een enkele Intel of een halve Xeon processor.
§150 voor 64gb? Je betaalt nu §150 voor 16gb ddr4.
Iets wat een jaar geleden §70 was.
Stel je eens voor dat een quad core i7 volgend jaar §700 kost ipv §350.
Je kunt wel degelijk 64GB vinden rond $150 - zoals hier, en een reeks andere winkels ook, zelfs Dell vraagt maar $220 voor een setje. Weet niet waarom Europa enorm duurder zou moeten zijn.

[Reactie gewijzigd door Guru Evi op 3 november 2017 00:48]

Dat zijn DDR3 RDIMM's van een onbekend merk.

Het goedkoopste setje van 64gb ddr4 is in de pricewatch op dit moment §520
Tja het is maar wat je gewend bent. Ik kan mij een rekening herinneren van fl 16.000,00 voor een geheugen uitbreiding van 4 naar 16 kilobyte op een Apple ][. Netto 12288 bytes ! Hier een kleine beschrijving.

Vroegah!
Vandaar ook de vraag of hij het over vroeger had.
Ik wil dolgraag wat ram bijprikken maar dat is nu echt niet te doen.
Het valt mij op dat steeds meer een issue van vraag en aanbod speelt. Heb je een xeon uit de serverserie kun je voor een prikkie geheugen kopen (kijk maar eens bij serverhome). Een portable is ook nog te doen. heb je daaarentegen 2400 geheugen nodig dan zit je nu weer aan tot 10E / Gb ..
NIet alleen Apple hoor, 4114 en 4116 chippies waren gewoon zo duur !? Wel kon je toen beter het vliegtuig pakken naar de US als je wat geld wilde besparen..
Real-time SCSS watchers zijn echt de hemel
Ik gebruik liever de watcher in de phpstorm/intelij ide, die draait als hij de focus verliest of als je saved. Krijg je tenminste de errors meteen in je ide te zien :)
Ik vind phpstorm een fantastisch pakket qua werking, maar ik krijg het idee dat je niet genoeg cores kan hebben voor dat programma :X.
Goed idee. Tweakers zou als benchmark een script kunnen opzetten dat bepaalde grote repos van GitHub release na release bouwt en runt, tegelijkertijd. Bedenk dat de benchmark wel geautomatiseerd moet zijn, maar ook een simulatie van realistische load. Dan zou het script achter elkaar aan verschillende Docker containers kunnen starten die elke een eigen git checkout, compile, deploy en run doen en dat een paar keer achter elkaar. Dit voor verschillende soorten ontwikkelaars: Linux kernel bouwen, website bouwen, java app bouwen, etc.
Schaakprogramma's :-)

Moderne schaakprogramma's (b.v. het opensource Stockfish, en commerciŽle Komodo en Houdini) halen vrijwel 100% CPU belasting ongeacht het aantal cores dat je ertegenaan gooit. Er loopt momenteel een schaaktournooi tussen schaakprogramma's (TCEC genaamt) waar de programma's draaien op een 22-core machine. In de finale wordt met 44-cores gespeeld.
Nice, ik speelde vroeger veel online schaak met mijn engine tegen iemand anders zijn engeine. Dat was kicken. In die tijd was houdini het beste, nu is de opensource stockfish het sterkste. Is ook wel leuk dat de gratis opensource software het beste is.
Groot C++ project compilen vanaf SSD. Bijvoorbeeld Chrome.

Daar ga je het nut van multi-core echt goed zien.
Probeer een workload te maken waarbij je meerdere applicaties aan het werk zet. Ik gebruik OBD om gameplay van Minecraft op te nemen en de server waarop ik dat doe draait op dezelfde machine. Blender, waar al mee wordt gebenchmarkt, gebruik ik ook voor editing en tijdens het renderen speel ik gewoon door.

Dat is ook het soort workload waarvoor je een multicore (6+ cores) voor aanschaft. Ik heb die Ryzen 7 niet gekocht vanwege zijn geweldige IPC, dan had ik wel voor Intel gegaan.

Een goede test zou in mijn ogen het volgende zijn:

Render een 4K video in Blender, render dus een film die je bij alle tests kunt inzetten als extra workload. Draai dan eens een benchmark van een game en kijk dan naar de resultaten. Je zou het kunnen standariseren omdat iedere processor die je test dezelfde video voor zijn kiezen krijgt. De output van de gamebenchmarks zegt dan iets over wat een processor allemaal tegelijk kan afhandelen. Of render die Video en draai eens PCMark.

Ik mis dit heel erg. Alle benchmarks testen ťťn ding tegelijk. Leuk dat je weet hoe BF1 draait op een i7-8700K maar ik als Youtuber wil ook graag weten hoe BF1 draait wanneer ik mijn video aan het renderen ben. Want ik wil wel mijn volgende video alvast kunnen opnemen met OBS. Een i7-8700K zou weleens door de mand kunnen vallen en misschien weet ik dat een R7 1800X de betere keuze zal wezen.

Doe zoiets eens want steeds meer mensen doen meerdere dingen tegelijk maar je komt er pas achter hoe hardware presteert wanneer je het al hebt aangeschaft want de tests zeggen er niets over.
+3 voor deze reactie. Als mede YouTuber ben ik nagenoeg dagelijks video's aan het renderen en uitzoeken en monteren. Zelf gebruik ik Vegas Pro 14. Deze trekt mijn CPU niet helemaal vol maar wel behoorlijk. Kan ik daarnaast nog een instantie van Vegas openen en tegelijk monteren bijvoorbeeld? Of 1080p Twitch streamen naast een montage? Solo is inderdaad leuk, maar multi-processoren zijn gemaakt voor multitasking. Test dat dan ook. :)
Sinds wanneer wil ik een +3? Als er ooit een doel was geweest op Tweakers wat ik niet nastreef dan is het dat wel.

Maar goed, voor jouw beeld is het misschien handig om te weten dat "en" als verbinding tussen twee quotes met een hoofdletter begint en eindigt met een dubbele punt. En "Als dat je Nederlands schrijft" serieus?

Facepalm.gif
Ik gebruik vooral alle cores om mee te draaien met WCG, World Community Grid, hierbij stel je eigenlijk je pc beschikbaar voor onderzoek naar geneesmiddelen/ziektes, voor partijen die zelf daar geen geld / rekenkracht voor hebben. En dan kun je je aansluiten bij een team en voor iedere taak voltooid levert dat jou en je team punten op.
Mooi streven. Alleen hoe weet je zeker dat jou rekenkracht alleen daarvoor wordt gebruikt en niet ondertussen ook gebruikt wordt om te hacken, bitcoins the minen of zelf vereiking? Vooral voor medicijnen vindt ik het nogal dubieus want is er een vak waar veel geld in wordt verdient dan is dat wel in de farmaceutisch industrie.
Ik heb zo geen ervaring met WCG, wel met Berkeley's tegenhanger BOINC. SETI en EINSTEIN.

Je ziet welke taken uitgevoerd worden, de resultaten hiervan en alles is openlijk inzichtbaar (tenminste bij de 2 groepen waar ik meehielp). Het werkt wel op basis van vertrouwen, maar de community is dusdanig actief en groot dat je er als partij echt niet mee wegkomt als je botweg een beetje bitcoins gaat lopen mijnen.
WCG draait ook in Boinc.
Er wordt in die tak inderdaad veel verdient maar het kost ook heel veel geld. Hoeveel van hun patenten/ideeŽn komen tot een medicijn? Weinig.

On topic.
Ik heb zelf maar een i7 Quadcore HQ en gebruik deze voornamelijk voor meerdere VM's, testopstellingen van verschillende server toepassingen, onderzoek, compilen. Fotobewerkingen als amateur fotograaf.
Meer cores kunen helpen om het een beetje in goede banen te leiden, zeker als je meerdere standaard VM's hebt die je altijd al opzet en daarnaast dan je extra dingen om te testen. Meer RAM en cores maken het geheel soepeler.
Er wordt in die tak inderdaad veel verdient maar het kost ook heel veel geld. Hoeveel van hun patenten/ideeŽn komen tot een medicijn? Weinig.
Je comment is dubbel te interpreteren, als in er komen weinig medicijnen uit voort, dus het heeft toch geen zin..

Echter is juist fundamenteel onderzoek essentieel om uberhaupt uiteindelijk tot nieuwe medicijnen te komen. Ik denk dat je dit ook bedoelt. Hoe meer rekenkracht er beschikbaar is (juist ook voor academicie), hoe beter.

Ik vind persoonlijk folding@home een fijn platform om je overige clocks nuttig in te zetten. Daar kun je ook zien aan welk onderzoek je specifiek bijdraagt (zoals fayt64 hieronder ook al heeft aangegeven).
Je hebt gelijk. Ik heb het niet goed geformuleerd. Ik bedoelde inderdaad dat onderzoek heel belangrijk is. Dat lang niet alle potentiŽle ideeŽn/patenten daadwerkelijk tot een medicijn worden gemaakt. Er zit zoveel onderzoek in en dus geld. Dat vergeten mensen wel eens. Zeker omdat ze voor een patent maar een jaar of 10/15 hebben. Daarin moet alles onderzocht en gemaakt worden. Als het goed is hebben ze maar een jaartje of 4/5 om echt te verkopen en hun geld terug te verdienen.
zelf vereiking?
CPU's gebruiken om zelf in een boom te veranderen? Moet kunnen!
je bent al een stukje boom haha
Omdat ze gewoon open zijn in wat je doet met welk onderzoek en je kunt kiezen wat je wel en niet doet
De bedrijven misschien wel, de universiteiten waar verreweg het meeste onderzoek gedaan wordt zitten vaak best krap bij kas.
Enig idee waar ik daar meer informatie over zou kunnen vinden?, zou handig zijn als er een soort van index is waar je uit kunt kiezen.
Ik zou mijn PC wel beschikbaar willen stellen, krachtig zat en meestal zo goed als idle.
https://www.worldcommunitygrid.org en dan kun je je aansluiten bij een team, ik zit bij Xtreme systems http://www.xtremesystems.org/forums/forum.php

Meer info? Stuur ff een pb
Waarom zit je daar en niet bij DPC?
Draai al jaren voor Extreme Systems, geen idee verder haha
Dankjewel, ik zal het zodra ik weer thuis ben even nakijken
Volgens mij zijn veel tweakers bekend met distributed computing. Google even naar "Dutch Power Cows" voor meer informatie (Belgen ook van harte welkom natuurlijk). T.net en DPC hebben al talloze jaren veel overlap, daarom heeft T.net bijvoorbeeld ook deze smiley: }:O
Ja vroeger ook aan meegedaan. Totdat ik uitrekende hoeveel me dat aan stroom kostte. :X

En tegenwoordig moet je nadenken over het nut versus de co2 uitstoot die je extra doet. Ik heb geen PV op mijn dak..
Dan heb ik er langer aan meegedaan. Ik stopte toen ik de stroomrekening kreeg :+
Een soort subgroup discovery? Hier ook zoiets waarbij de data beschikbaar gesteld wordt en jij als data analist bepaalde berekening uit kan voeren om zo bepaalde subgroepen te vinden waarmee bijvoorbeeld artsen betere beslissingen kunnen maken gegeven een bepaalde situatie.

Afhankelijk van de berekening en de hoeveelheid data kan je daar menig cpu (of supercomputer) wel een tijdje zoet mee houden ;) .
Voorbeeldje van zo'n dataset over bloedtransfusies: https://www.openml.org/d/1464.
Voorbeeldje of iets neurologisch: https://www.openml.org/d/1471.

Hoef je niet eens dokter te zijn om bij te dragen aan medisch research :+ .
Heb alleen een quad core en zet deze in voor Rosetta@Home. Veel overeenkomsten met WCG. WCG heeft ook niet medische toepassingen. Dat zou voor mij de enige reden zijn om extra cores te willen.
OGR :+

Al de rest gaat de gpu op, veul schneller jah :Y
Ja en die draait mee.op GPU Grid of staat te minen haha
Vega doet het goed op RC5 :+ de rest is voor de volgende Stampede *O*
Dat doe ik ook. Heb te veel vrienden, familie en collega's verloren aan ongeneeslijke ziektes.
Voor mij een reden om regelmatig te upgraden qua cpu / gpu: niet alleen komen er steeds meer cores (dus meer parallelle taakverwerking), maar door verkleining scheelt het ook telkens elektriciteitskosten.
De punten etc. zijn een leuke bijzaak.

Hoe zeker weet je dat die rekenkracht daarvoor gebruikt wordt? Er worden regelmatig medisch wetenschappelijke artikelen geplaatst (o.a. bij WCG), waarin de progressie van deze onderzoeken beschreven worden. Alle data is beschikbaar voor elke wetenschapper op aarde, dus maximale opbrengst van kennisdeling.
In mijn geval profiteer ik van meer cores in Digital Audio Workstations, DAW's. Vooral als ik bezig ben met masteren van tracks in Cakewalk Sonar en ik een hele band op losse tracks hebt kan het nogal oplopen met effecten en VST's. Hoe meer cores en memory hoe makkelijker dit gaat zonder clickjes en pops en traaglopen.
Hoe meer cores je hebt hoe meer (virtuele) instrumenten je inderdaad kan draaien. Alhoewel voor mij 4 cores ruim voldoende is.

[Reactie gewijzigd door juanita op 20 oktober 2017 23:14]

Ik zit vaak met het lagen van effecten per kanaal dat 4 cores te snel vol is. Ik wil graag naar 16 cores. 2x 8
Ik ook. Cubase based DAW hier.
Een paar 'stomme dingen' die m.i. allemaal helemaal niet CPU-gelimiteerd zouden moeten zijn maar het in mijn praktijk toch zijn?

-Animeren van 60.000 datapunten in SVG met d3.js voor een belangrijke presentatie, (ed: en daar een video-caputere van). Mijn octacore laptop met 16GB (volgens mij) is hier meerdere malen op vastgelopen, alle 16 'ht-kernen' richting 100% benut door Firefox / Chrome. Omdat het de nacht voor de deadline was dit geprobeerd op te lossen door een kap los te halen, ventilator over ijsblokken blazen en laptop op de kant. Op verzoek kan ik een vergelijkbare animatie beschikbaar stellen (met 'geanonimiseerde' data); op een 'mindere computer' bijna gegarandeerd 6 minuten zichzelf kapotrekenen en dan crashen.
-Met een Java-programma op zoek gaan naar 'feature importances' in een csv-dataset (via de web interface 'voor dummies' en / of mensen die geen Javaans spreken). Gaat best snel, maar alles is meegenomen en houdt alle kernen aan de gang. De dataset was nog niet super groot. Hier een web-applicatie 'voorspel-service' mee bouwen,
-De genoemde Jetty / WAR service met curl (naar localhost) via REST een aantal voorspellingen laten maken om te zien welke succesvol zijn (want de JSON-uploadfunctie werkte niet :( ), bij 500 000 loopt 'ie vast? Op verzoek kan ik hiermee helpen.
-Met Haskell oplossen van problemen van 'Project Euler'.
Sommige problemen was mijn thuis-CPU (een zeer bescheiden 10 jaar oude 4850e) een kwartier bezig, dat moet sneller kunnen! Weet alleen niet of GHC het goed kan verdelen? Programma's (voor Windows7 gecomileerd) lever ik graag aan. Wel vooral voor de hobby overigens...
-De koning der taken, eindbazen: 'emerge -DNauv world', met --funroll-loops natuurlijk en -O3, het hoeft tenslotte niet te werken, toch?

En in de buitencategorie, voorportaal van de hel en keizer der taken:
-Uberhaupt f...ng Excel draaiend houden met een hoop data, of het uberhaupt zo ver krijgen dat een groot bestand wordt opgeslagen. Trouwens ook met Access een meervoudige JOIN-query van enige omvang uitvoeren, maar ik weet niet of die CPU gelimiteerd is.

-Sowieso, per definitie, de "CPU-inbrand" test en grondlegger van alle huidige gedistribueerde rekenprojecten (gewoon sentimenteel?): prime95.exe. Waarom? Nou ja, omdat prime95.exe natuurlijk! What else?! --> O ja, en jij daar achter het beeldscherm, ja jij ja, zoals je dit nu leest, kan de eerste zijn om Mersenne no. 50 (jubileum-Gouden-Mersenne) te vinden! En dus iets te weten dat nog niemand ter wereld weet!

[Reactie gewijzigd door kidde op 20 oktober 2017 21:13]

Vind je Python niet fijner voor ProjectEuler? Haskell is een nuttige taal maar algoritmische optimalisaties zijn toch wel een uitdaging met functioneel programmeren. En de PE opgaven waren toch al niet makkelijk.
Zeker weten is Python fijner ;) Maar het idee van Haskell willen leren is dat je Haskell gebruikt, dus in dit geval was ik op zoek naar praktijk-oefeningetjes voor functioneel programmeren. Als het er om gaat om alle kernen van je CPU bezig te houden, neem ik aan dat dit u met Python ook gelukt is? ;)
Nou met PE is de grap dat het met een single core zou moeten kunnen. ;)
Maar voor distributie van taken over meerdere kerne is functioneel programmeren natuurlijk ideaal. Met een beetje handigheid en zelf-discipline kan je in Python trouwens ook aardig wat functioneel programmeren.
Veel mensen gebruiken project Euler juist om een nieuwe taal te leren of zien het als uitdaging om het zichzelf moeilijk te maken. Zo las ik dat iemand de problemen weet op te lossen met cmd-line scripts.
Telt de 5960X?

Indien ja: Premiere Pro en After Effects.
Ik heb met de 5960X nog steeds niet het gevoel dat ik beter moet hebben.

Mijn andere pc is een 3930k en die gaat ook nog vlotjes mee.

Voor after effects loop ik vooral tegen de limiet van mijn geheugen (16gb)
Pr pro en Ae schalen eigenlijk helemaal niet zo heel lekker met veel cores..
Klopt , maar toch is het voor mij fijn dat ik ten alle tijde reserves heb.
Vooral tijdens met exporten i.c.m. Grading, filters, effects en optical flow zie ik meestal wel een gebruik van +- 90%
Hangt erg af van welke edits je gedaan hebt.
Heb vaak in afobe media encoder dat me 40 threads vol komen te zitten
Mijn desktop is een simple quadcore, maar mijn server is een dual Opteron 6276 met in totaal 24 cores.

Er zit 64GB ram in + 12 x 2TB disks in verschillende raid configs, alles zit bij elkaar in een Coolermaster stacker.

Hier draai ik mijn thuis domein op, dus verschillende VM's, een x aantal als standard servers die altijd actief zijn, zoals DC, DNS, DHCP etc etc en ook nog resources genoeg hebben om wat te spelen met Linux ditributies.
Dit draai ik allemaal op VSphere 6.5.

Dit alles heb ik gedaan puur uit ruimte besparing, zodat ik nog maar 1 system nodig had om alles tegelijk te draaien ipv van meerdere kasten nodig te hebben om die resources bij elkaar te krijgen.
Zou je qua energieverbruik een hoop van deze taken (die je 24/7 hebt draaien) niet beter door een NAS kunnen laten uitvoeren?. DNS, DHCP etc zijn niet bepaald CPU heavy.
klopt helemaal, maar het is dan ook niet alsof ik voor die dingen een aparte VM laat uitvoeren.

bovendien had ik een erg geode deal wat betreft componenten.

cpu's : 60 euro total
ram: 80 euro total
mobo: 50 euro
disks: meeste had ik al
kast: 60 euro geloof ik.

en als ik een NAS had genomen, had ik toch weer met meer dan 1 system gezeten, dus ja...:)
Kijk dat is financieel een prima deal. Feitelijk is een 8 core Ryzen (of 8700k) qua performance vergelijkbaar met je huidige hardware. Stroomverbruik doelde ik vooral op, al kun je aardig wat energie verstoken wil je eea terugverdienen.....
ja, daar heb je wel gelijk in, maar als ik nu een ryzen 7 system zou samenstellen voor hetzelfde doel, ga ik al snel richting de 1000 euro.

ik ben dan wel meer futureproof, maar weet je, het is maar een thuis domein en wat spelen met VM's, dus al die nieuwe features en snelheid, dat heb ik helemaal niet nodig.

eigenlijk is dit systeem al zwaar OP voor waar ik het voor gebruik.

ook staat het niet 24/7 aan, is niet nodig, het staat aan als ik thuis ben, meer niet, dus uiteindelijk komt dat neer op misschien 8 uur per dag...max. dus energiekosten vallen op zich wel weer mee.

misschien dat ik het uiteindelijk zo doe dat ik overga op SSD's, en de HDD's in een NAS doe inderdaad, en een ISCSI configuratie opzet voor de storage, maar voorlopig nog even niet nodig, dus......en een NAS voor 12 x 2TB......dan zou ik moeten kiezen tussen een belachelijk dure NAS vanwege het aantal disks...of overgaan op grotere disks, en een iets goedkopere NAS....nog steeds allebei prijzig......de eerste gedachte achter mijn server was....zo goedkoop mogelijk :)

[Reactie gewijzigd door Pim0377 op 20 oktober 2017 22:43]

Zou me niets verbazen als dat systeem idle al 150 - 200 Watt trekt. Die opterons zijn niet heel erg zuinig en ook hdd's zijn niet heel zuinig en schijven downspinnen in RAID config is vaak ook geen goed idee.
Als je dan nagaat dat elke Watt die je een heel jaar lang gebruikt toch zo'n kleine 2 euro kost, dan zit je met 200 Watt continue op 400 euro per jaar aan energiekosten.
zie reactie van mij hierboven
Heb een 6950X. Ik gebruik voornamelijk Z-Brush, Unreal Engine 4, Photoshop en Maya. Het liefst allemaal tegelijkertijd ook. In de intel extreme monitoring tool kun je mooi zien hoeveel cores gebruik zijn over een periode van 1 uur. Ik zie regelmatig minuten lang de volledige 10 cores benut worden.

Vooral Z-Brush benut de 10 cores volledig wanneer deze beschikbaar zijn.
Zbrush schaalt 4R8 schaalt in mijn ervaring nog steeds ontzettend slecht. Bijna alles gebeurt single threaded.
Als ik aan het remeshen ben gebruikt hij mooi 10 cores. Tijdens modellen niet.
1 2 3 ... 15

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True