Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 142 reacties
Submitter: witeken

Intel komt in maart 2016 met vier nieuwe Broadwell-E-processors waarvan het krachtigste model over tien cores gaat beschikken. Dat claimt een Taiwanese technologiesite. De Core i7 6950X zou op 3GHz gaan werken.

De Taiwanese site Xfastest, die vaak Intel-informatie vroegtijdig en correct publiceert, toont specificaties van de vier Broadwell-E-processors die volgend jaar maart moeten verschijnen. Het gaat om de Core i7 6950X met tien cores en 25MB L3-cache, de Core i7 6900K met acht cores en 20MB cache en de Core i7 6850K en Core i7 6800K, met beide zes rekenkernen en 15MB L3-cachegeheugen.

Volgens het gerucht werken de processors in combinatie met Intels bestaande LGA2011-v3-socket, iets dat bij eerdere geruchten al naar voren kwam. Toen werd al bericht dat Broadwell-E gecombineerd zou worden met het X99-platform van Haswell-E, maar ook dat er processors met zes en acht cores zouden komen. Of het nieuwe gerucht over een 'decacore' klopt, moet dan ook nog blijken.

Broadwell-E is het komende high-endplatform van Intel, voor onder andere overklokkers. De processors worden ten opzichte van Haswell-E op 14nm in plaats van 22nm geproduceerd en krijgen ondersteuning voor ddr4-2400-geheugen.

  Cores/threads Kloksnelheid L3-cache Socket
Intel Core i7-6950X 10/20 3GHz 25MB LGA2011-v3
Intel Core i7-6900K 8/16 3,3GHz 20MB LGA2011-v3
Intel Core i7-6850K 6/12 3,6GHz 15MB LGA2011-v3
Intel Core i7-6800K 6/12 3,4GHz 15MB LGA2011-v3

 
Moderatie-faq Wijzig weergave

Reacties (142)

Waarom hebben de nieuwe processoren steeds meer cores? Ik ga er van uit dat de meesten die deze processoren kopen vooral mensen zijn die vaak niet meer dan 2 cores benutten. Uiteraard vallen gamers daar ook onder, omdat games vaak niet meer dan 2 of zelfs 1 core kan benutten. Er zijn uitzonderingen maar ze zijn wel zeldzaam.

Voor de gemiddelde gamer zou in deze reeks processoren de op 3.6 GHz geklokte "Intel Core i7-6850K" het meest krachtig zijn neem ik aan?

Ik vraag mij af of ze met dezelfde setup ook een 2-core versie kunnen maken die veel sneller zou zijn voor gaming.
Grappig dat dit soort vragen en discussies continue opnieuw worden gevoerd bij:

- meer geheugen sinds de pc zijn entree maakte
- meer camera megapixels
- hogere dpi op beeldschermen en mobiele devices
- hogere kloksnelheden en snellere cpu's in het algemeen
- meer cores

Meer is bijna altijd beter. De discussie is helemaal niet relevant of de gemiddelde gebruiker het vandaag nodig heeft. De hardware loopt bijna per definitie voor op wat software gebruikt (met nadruk op BIJNA, niet altijd dus). Software developers gaan vanzelf mee met wat de hardware aankan.

Leidend in deze is dus de hardware ontwikkeling, en NIET de software. Hardware wordt niet ontwikkeld om aan software eisen te voldoen, het is andersom: software wordt ontwikkeld op wat de hardware aankan.

En uiteraard wordt verreweg de meeste mainstream software ontwikkeld op mainstream hardware en niet op een hexa-, octa-, of decacore. Maar wat nu bleeding edge is (octa, decacores), wordt over een aantal jaar mainstream. De veeleisende software zoals CAD- en wetenschappelijke software daarentegen wacht niet totdat het mainstream is, die worden al jarenlang steeds verder geoptimaliseerd voor meerdere cores en zullen er nu al (of heel snel vanaf nu) gebruik van kunnen/gaan maken.

[Reactie gewijzigd door InflatableMouse op 13 november 2015 09:38]

Leidend in deze is dus de hardware ontwikkeling, en NIET de software. Hardware wordt niet ontwikkeld om aan software eisen te voldoen, het is andersom: software wordt ontwikkeld op wat de hardware aankan.
Helaas leidt de beschikbaarheid van hele krachtige hardware tot hele luie programmeurs. Er wordt niet meer geoptimaliseerd en niet meer nagedacht. Applicaties worden even in elkaar geknutseld, met vette libraries, zware database engines en domme queries. Als de performance dan tegenvalt, dan worden gewoon even de hardware requirements naar boven bijgesteld. Gewoon omdat het kan. De kunst van het slim programmeren verdwijnt hiermee. De hardware leveranciers vinden het wel best, want weer een excuus om de volgende generatie aan de man te brengen.
"hele luie programmeurs" of gewoon onder tijdsdruk gedwongen tot "goed genoeg" programmeurs? Tuning kost tijd en die tijd wordt de programmeur vaak niet gegunt, dan is het (ver)kopen van wat zwaardere hardware een snelle\betere oplossing. Beter voor de leverancier .... :)
Het is dat de kennis verdwijnt, of in ieder geval geen gemeengoed meer is. In plaats van uit ervaring te beginnen met een geschikte oplossing, is nu extra werk achteraf nodig om er nog wat van te maken en is de kennis niet beschikbaar.

Het netto effect is dat de argumenten "tijdsdruk" en "goed genoeg" altijd extra duur zijn en een slechtere kwaliteit oplevert. Een soort van devolutie waar ik mij zeker bij nieuwere generatie ontwikkelaars dood aan erger.

Het is tegenwoordig modern en hip om vrijwel geen basis kennis meer te hebben. Maar wel iedere keer de nieuwste uit nood geboren architectuur, taal/feature/lib te gebruiken omdat "iedereen/Microsoft dat doet".

Niet realiserende dat het iedere twee jaar weer een andere mix is omdat het toch ** weer ** niet werkte zoals gehoopt. Ik ben zelf het gevecht beu en de domheid zat, en zal daarom waarschijnlijk het vak verlaten. Er is geen beginnen aan als tijdens een opleiding een hoop al verkeert is ingestampt en de percepties enorm ver van realiteit afliggen.

[Reactie gewijzigd door TheCodeForce op 13 november 2015 18:16]

Ach, kom. Het is volgens mij een vrij simpele rekensom: een uur van een progremmeur is duurder dan een extra core, dus - dan maar slordigheid, het kost minder. Combineert het met dommigheid en onkunde bij management, korte termijn denken enzo, en ja, je krijgt dit. Het is niet alleen de programmeurs aan te rekenen, al was code vroegah wel wat vaker liefde werk dan vandaag. Maar het is gewoon vaker zo dat de prioriteiten anders zijn en gaan zitten vrutten en optimaliseren omdat dat leuk is (wees eerlijk) is niet altijd nuttig.

En daarbij: zorg eerst dat het werkt, DAN optimaliseren-als dat Łberhaupt nodig is.

Maar goed, als je echt liefde werk wilt doen, ga aan een open source project bijdragen. Als je het goed doet is de kans op een leuke baan groot EN vaak kun je dan rekenen op meer vrijheid en de mogelijkheid om het 'betrr' te doen. Want programmeurs weten het altijd beter, toch?
Daar zit zeker wat ik. Maar ik denk eigenlijk niet, dat deze reeks CPUs hieraan bijdraagt. Bovendien blijven er softwaretoepassingen die zelfs op een processor met 10 cores nog langzaam runnen. Optimalisatie van simpele dingen wordt wel vaker achterwege gelaten. Aan de andere kant maakt dat programmeren ook toegankelijker voor mensen die niet even geniaal zijn met code, algoritmes en wiskunde, maar misschien wel zelf een goed idee hebben.

[Reactie gewijzigd door Darkstriker op 13 november 2015 12:12]

Dit was 20 jaar geleden al zo. Ik herinner me nog een interview met Sid Meijer , gewoon op papier.. hij vertelde dat de meeste programmeurs lui waren. Vind je een foutje, dan herstel je dat niet , maar schrijf je er een bruggetje omheen en je begint opnieuw. Dus.. zo de bedenker van Civilisation, Pirates! en Railroad Tycoon had je voor de gemiddelde spellen veel meer floppy's nodig dan voor zijn spellen.

Of hij gelijk had? Geen idee, maar ik waardeerde wel dat hij bij veel spellen de esentiele data in gewoon Engels in z'n programmatuur zette zodat je heel makkelijk zelf iets kon finetunen, door gewoon een of andere waarde te veranderen.
Waar haal je deze informatie vandaan? Heb je hier concreet cijfermateriaal voor? Dit klinkt in mijn ogen eerder als giswerk.
Als je bovendien denkt dat "slim programmeren" de toekomst van software is, dan ben je volgens mij verkeerd. Alles wordt steeds meer en meer overgenomen door computers - inclusief het bouwen van software. Dat gebeurt inderdaad nu ook al en vaak moet men de afweging maken tussen (tijds)winst bij de ontwikkeling van de applicatie en het verschil in prestaties dat verkregen zou kunnen worden wanneer men handmatige codering verkiest boven code generatie. Als die er al is - er zijn genoeg voorbeelden waarbij de computer het namelijk beter weet dan de mens: denk bijvoorbeeld aan optimalisaties aangebracht door een compiler.

Handmatig code programmeren is slechts een stap in de bestaansgeschiedenis van software ontwikkeling. Wanneer assembly-talen verdrongen werden door programmeertalen, zullen de assembly-programmeurs ook vast gedacht hebben dat dit meer inefficiŽnte software als gevolg zou hebben. Als je hardware echter zodanig krachtig wordt, is dit verschil in efficiŽntie echter verwaarloosbaar: het zou niet meer kosteneffectief zijn om verder te optimaliseren.
Persoonlijk geloof ik dat in de toekomst software modelling nog belangrijker gaat worden, en dat er verschillende onafhankelijke software pakketten makkelijker "geassembleerd" zullen kunnen worden om een product op maat te verkrijgen.
Je hebt ongetwijfeld een punt, maar de plaats om dit te doen is een beetje gek. Dit artikel gaat over een nieuwe high-end consumer cpu (typische doelgroep zijn gamers/tweakers die zo ong. het snelste willen hebben of de zwaardere workstation gebruikers die InflatableMouse beschrijft). Je beklag over sommige programmeurs is wellicht terecht, maar zou net zo goed kunnen in heel veel andere artikelen over CPU's. Maar ook RAM (want lui programmaren kan net zo gemakkelijk hebben op onzorgvuldig gebruik van geheugen), of grafische kaarten (indien je games/3d developed), of harde schijven, of moederborden, of innovaties in routers, of internetbandbreedte, of ...

Wellicht dat een artikel/forum/thread over programmeren een betere plek is?
En hoeveel "normale" mensen gaan gebruikmaken van meerdere cores. Er zijn nog steeds recente games die voornamelijk op 1 core leunen. En wat heeft het nut om je browser dan wel mail programma op 10 cores te laten draaien? Genoeg software wat 6 cores gebruiken kunnen ook prima overweg met 18 cores of 24. Of zelfs 2x24.
En hoeveel "normale" mensen gaan gebruikmaken van meerdere cores. Er zijn nog steeds recente games die voornamelijk op 1 core leunen.
Het LGA2011 platform is uberhaupt niet gericht op Sjaak en Hennie die wat browsen en spelletjes spelen. Die zullen dan ook niet gauw een losse cpu van >§1000, zoals deze i7-6950X, aanschaffen.

LGA2011 is meer voor hobbyisten met centen, en (semi-)professionals waar tijd geld is, en zo'n cpu zichzelf (i.c.m. schaalbare software) terugbetaald.

[Reactie gewijzigd door SirNobax op 13 november 2015 11:51]

Leidend in deze is dus de hardware ontwikkeling, en NIET de software. Hardware wordt niet ontwikkeld om aan software eisen te voldoen, het is andersom: software wordt ontwikkeld op wat de hardware aankan.
Helaas is dit fout. In jouw visie heeft Intel een soort glazen bol die de volgende 10 jaar voorspelt. Dit is gewoon niet zo.

Intel neemt input van meerdere hoeken bij het kiezen wat ze in hun volgende CPU's stoppen:
- input van klanten (wij willen feature X/Y)
- input van software (we zien dat S/W heel vaak dit doet, dus als we onze CPU zo aanpassen dan kan dit sneller)

Met andere woorden: software leidt wel degelijk de hardware roadmap. Alleen is het in mindere mate de consumenten markt.
Intel zal zeker input aannemen, maar ook kijken hoe ze zoveel mogelijk kunnen verdienen en volgens mij is dat op dit moment een vertragende factop voor desktop systemen...
Inderdaad! Nieuwe toepassingen met stem herkenning, gezichtsherkenning en zo gebruiken steeds meer CPU kracht - je ziet op mobiele platformen dat het eigenlijk niet snel genoeg kan zijn. Op de desktop zou ik ook graag meer scores willen - allerhande toepassingen, van video bewerking en foto editing tot gewoon zwaar multitasken houden mijn vier cores vaak genoeg allemaal bezig en ik zou graag naar 8 cores gaan. Maar Intel is goed in het uitmelken en dwingt je dan gelijk naar een veel duurder platform 😠
Juist steeds meer high-end spellen zijn multi threaded omdat daar de echte performance winst te behalen valt. Ook steeds meer editing applicaties die in de professionele sectoren gebruikt worden zijn multi threaded. Deze processoren zijn juist de manier om performance winst te behalen. De moderne spellen maken nu al goed gebruik van vier cores en lopen daar soms al tegen een limiet aan.
Zie deze review van Fallout 4: http://www.techspot.com/r...t-4-benchmarks/page5.html
Een i3 is ondanks zijn snellere cores niet voldoende meer. Een i5 levert echt flinke winst op met z'n extra cores, zelfs al zijn ze per stuk trager.
Een i3 6100 haalt minimaal 69 fps en dat is niet voldoende?
En dat is 1 game. Genoeg games(redelijk recent) die nog steeds voornamelijk 1 core leunen.

[Reactie gewijzigd door loki504 op 13 november 2015 09:36]

Genoeg games(redelijk recent) die nog steeds voornamelijk 1 core leunen.
Maar straks als DirectX12 de nieuwe standaard is zullen de games beter gebruik maken van meerdere cores, omdat de workload van de DirectX12 runtime en drivers zich beter over alle cores kan spreiden. Hierdoor heeft hebben de cores, ook als het maar eentje is, die de gamecode verwerken veel minder overhead.
Zullen of kunnen? Ik heb eerder mooie verhalen over dx gehoord. En wat games kunnen en wat ze wouden doen(ze roepen al jaren dat ze ht gaan ondersteunen). Maar tot de dag van vandaag zijn er nog bar weinig games die gebruik maken van games. Ik wil het eerst zien en dan geloof ik pas die mooie beloftes.

En dan hebben we nog steeds geen 10 cores cpu nodig. Misschien over 10/20 jaar als ze niet meer sneller kunnen(en dus maar meer cores er in stoppen).

[Reactie gewijzigd door loki504 op 13 november 2015 10:39]

Het verschil tussen DX12 en alle voorgaande versies is juist dat ze zwaar hebben ingezet op betere / snellere verwerking. Niet zozeer op vernieuwing van de graphics zelf.
Wat ik tot nu toe gezien heb ziet er best wel goed uit qua prestaties.

Uiteraard moeten we het allemaal nog gaan meemaken, maar als die synthetische benchmark in 3dMark ook maar voor 50% representatief is dan komen er leuke performanceverbeteringen aan. Ook voor al bestaande hardware. Dat is het allermooiste.
ja alleen de vraag is hoe gaan devs er mee om. er zijn nu ook al zo veel games die in onze ogen al zo slecht zijn geoptimaliseerd. het kan ook gewoon zijn dat e nog slechter gaan doen. want hey dx12 lost het wel op.
net zoals hardware 90% van de "software problemen" heeft opgelost.

eerst zien dan geloven. dat betekent niet dat ik dx12 niet toejuich _/-\o_
Tja, DX12 gaat slechte programmatuur zoals laatst het debacle met die nieuwe batman game niet oplossen natuurlijk.
De nieuwe Fallout valt me ook zwaar tegen wat prestaties betreft en wat je op het scherm te zien krijgt.

Alles valt en staat met correcte implementatie. Maar ik verwacht wel een paar juweeltjes naast de onvermijdelijke wanprestaties.
69FPS is genoeg voor de gamer die een standaard 60Hz 1080p scherm heeft.
Maar de gamer die §1000 over heeft voor een processor heeft waarschijnlijk ook een monitor met een hogere resolutie en refreshrate.
Klopt. Maar dan kan je alnog beter een i7 6700k kopen met 2 980ti/titan-x. Haal je meer fps als die 10 core cpu met 2 titan-x er in.
De i3 is juist wel voldoende. Sterk genoeg om een AMD 8-core te kloppen zie ik. Ook zie je hier dat HT zijn werk doet; de Pentium G3258 op 4.5Ghz word nog steeds verslagen door de i3, met ruime cijfers.

Als je alleen naar boven kijkt is idd allles algauw onvoldoende; kijk je verder dan zie je dat het best wel meevalt. De i3 is voldoende, alles daarboven is beter en alles daaronder matig.
2011 v3 is voornamelijk voor zware servers en workstations. Als consument heb je de 1151 die nieuw is. 2011 socket is nooit voor doorsnee consument geweest.(als eerst ddr4)Tenzij ze 1000+ euro kunnen betalen voor alleen de cpu.

Maar er zijn scenarios te bedenken waar je echt wel 10 core cpu's kan gebruiken(er bestaan al 24 core cpu's voor(al niet meer onderhand).
Socket 2011 en 2011-3 zijn ook bedoeld voor mensen met een quad gpu setup ivb met de beschikbaare lanes.
Euh, nee daar zijn ze niet voor bedoeld, dan zou Intel er te weinig van kunnen verkopen om het interessant te maken.

Ja, je kunt ze voor gaming gebruiken, maar ze zijn bedoeld voor zware workstations om zwaar rekenwerk te doen. Veel moeilijke sommetjes op data doen. En dat kan in de industrie van alles zijn.
Volgens mij zijn deze minder bedoeld voor echt zware workstations, maar eerder workstations in kleinere bedrijven / thuis omgeveving waar mensen graag eens willen wat renderen enzo :) de grotere bedrijven zullen wel xeon cpu's gebruiken.
Euh, nee daar zijn ze niet voor bedoeld, dan zou Intel er te weinig van kunnen verkopen om het interessant te maken.

Ja, je kunt ze voor gaming gebruiken, maar ze zijn bedoeld voor zware workstations om zwaar rekenwerk te doen. Veel moeilijke sommetjes op data doen. En dat kan in de industrie van alles zijn.
Je spreek je zelf een klein beetje tegen, ja ze niet voor specifiek gaming ontworpen maar zijn daar prima geschikt voor om niet te bottelnecken op een quad Gtx980ti bevoorbeeld.

Ik ben het met je eens dat het niet de insteek van intel is om ze als ''Game'' cpu te verkopen.
Zelf gebruik ik een i7-3930K naast game ook voor virtualisatie waar ze meer voor bedoeld zijn.
Klopt. Maar welke doorsnee consument heeft quad gpu setups?

En gaming op een quad gpu setup gaat ook niet lekker. Dus kom je op rendering uit.
Of een DAW bijvoorbeeld. Des te meer threads, des te meer voices (vst synth bijvoorbeeld). Ik ben van een wat oudere i7 naar een snellere i5 gegaan (iets met upgraden en budget-blah), maar ik merk een downgrade als het gaat om "realtime" audio/muziek productie.

Deze 20 threads kan ik persoonlijk zeker allemaal benutten!!
Ja maar dat is ook workstation doeleinden. En dat zij ik ook zware servers en workstations. De doorsnee consument heeft niets aan een workstation. Die hebben meer baat bij 2/4 snelle cores.
Was enkel ter aanvulling. Je had het over rendering. Ik dacht, ik vul het ff aan met realtime-stuff.

DAW's zijn tegenwoordig vrij goed met het toewijzen van meerdere cores aan vst's bijvoorbeeld.
Oke had ik niet helemaal begrepen :)

Aanvulling is altijd welkom.
Klopt. Maar welke doorsnee consument heeft quad gpu setups?
Ik ken wel een aantal mensen die een quad gpu opstelling hebben, waaronder ik zelf ook met 2stuks r9 295x2 en een i7-3930k.
En gaming op een quad gpu setup gaat ook niet lekker. Dus kom je op rendering uit.
Bron ?
Wand dat gaat prima hier op 7680x1440.

[Reactie gewijzigd door dylan111111 op 13 november 2015 09:59]

http://www.tomshardware.c...ter-crossfire,2995-7.html

Micro stutter gaat omhoog en warmte/energie verbruik. En prijs per fps gaan allemaal omhoog.

En tuurlijk als je 7680x1440 wil gamen zal je wel moeten maar ideaal is niet niet.
Sorry maar die bron is hopeloos verouderd. AMD had ooit problemen m.b.t crossfire. Echter heeft AMD die sinds de r9-290(X) opgelost. Nu loopt de communicatie tussen de GPU's vele malen beter omdat er meer bandbreedte is. In games met hoge resolutie is dat ook zeker terug te zien.

https://community.amd.com...ulti-gpu-gaming-with-xdma

[Reactie gewijzigd door holhuizen op 13 november 2015 14:58]

Ach laat ze lekker, ook multicore cpu`s gaan wel degelijk nut hebben.
Als ik zie wat hoe cpu hongerig Warhammer vermintide is bijvoorbeeld. Om niet afhankelijk te zijn van Nvidia of AMD gaan veel spel ontwikkelaars met physics op de cpu werken.

Daarnaast komt DX12 er straks aan en word er veel meer uit multicore cpu en gpu gehaald.
De tijd dat een I5 de beste keus was voor gaming is langzaamaan voorbij.
Uuuh.

Als je wil gamen pak je toch gewoon een socket 1151 processor.

Dit zijn de echte werkpaarden, voor videobewerking en dergelijke.
Ook voor development zijn ze erg prettig. Wij kunnen bijvoorbeeld alleen een commit maken als alle unit-test slagen (anders moet je shelven ipv een commit doen). MSTest kan test parallel draaien en de 5960X icm met een Samsung SM951 SSD is een erg prettige combinatie.

Ook doen wij veel (analysis) cube development en ook dan is een stevige processor erg prettig.
Je generaliseert nogal met de nieuwe processoren hebben steeds meer cores. Volgens mij zijn er ook gewoon nieuwe skylake i3 en pentium processoren beschikbaar met 2 cores. Ik heb er juist zoeen gekocht voor mijn desktop.

Deze nieuwe processoren hebben inderdaad een leuk aantal cores. Dat kan heel handig zijn voor zwaar rekenwerk. Ik gebruik graag een 32 core machine om tegelijk 3 sommen te draaien die elk 10 cores draaien. Op zo'n i7 in een desktop zou ik zo'n som dus prima kunnen draaien.
Denk dat je even goed naar de socket moet kijken dit zijn niet de mainstream cpu's. Deze zijn voor een andere doelgroep bedoeld.
Zo zeldzaam zijn games niet die meerdere cores gebruiken. Zeker niet recente titels. Battlefield 3 was al geschreven met multi cores in gedachten en dat is al een oudere titel. Maar al heb je een oudere game die maar 1 core gebruikt, dan is het nog steeds 1 core voor het spel, 1 core voor windows en taken.
Wat je zegt klopt niet echt. Een paar jaar terug kon je inderdaad met 1 core nog wel wegkomen. Nu starten een hoop games niet eens meer op als je maar 1 core hebt. 2 is he tminimum maar de meesten presteren op z'n best bij 4. DIt hangt af van de videokaart ook die je gebruikt en of dus de bottleneck per core bereikt wordt. Multicore wordt nu steeds belangrijker omdat de huidige consoles al hun threads over 6 a 7 beschikbare cores verdelen en de OS op 1 a 2 cores laten draaien. Het wordt juist langzaam een nadeel dat de huidige midrange CPU's maar 4 cores hebben tot hun beschikking.
Omdat het lastiger en lastiger is om puur op core sneller te gaan. De rek is er een beetje uit en is men destijds begonnen met simpelweg 2 cores te gebruiken.
Je argumentatie ging toen ook op, de eerste dual cores hadden vrij weinig nut omdat de software niet aangepast was. De eerste quadcores hadden hetzelfde probleem etc .

Overigens als gamer heb je wel degelijk baat bij een quad core vs dual core. 10 cores zal je nu nog niet veel aan hebben maar de markt volgt wel mee.
Bijna alle (echte) games zijn nu multicore hoor, dat is al zo sinds de introductie van de nieuwe consoles, zo zeldzaam is het zeker niet. Hell, ik kan me geeneens bedenken welke AAA game uit 2015 niet multicore is. Alleen oude games en wellicht indie games gebruiken maar 1 a 2 cores.In feite, er zijn games uitgekomen die geeneens (zonder third party patching) kunnen draaien op dual cores (Dragon Age: inquisition bijv.). Nu, anno 2015, een dual core maken die 'sneller' is voor games is een beetje mosterd na de maaltijd van een paar jaar geleden. Vooral wanneer je met meer cores veel meer winst (theoretisch) kan behalen. Met DX12 op de horizon en de nieuwe consoles, is multicores dan ook het antwoord.

Ik denk dat Intell nu ook weer begint met het verder uitbreiden van zijn arsenal, soort van pre-emptive strike tegenover de komende Zen cores. Ze zorgen alvast dat de lat weer hoog gezet wordt (ala 980 Ti geval, als die een maand na de Fury X was gekomen, zou de Fury X stukken beter uit de verf zijn gekomen als hoe het nu is gegaan). Al met al, een zeer goede ontwikkeling dus.
Voor de gemiddelde gamer zou in deze reeks processoren de op 3.6 GHz geklokte "Intel Core i7-6850K" het meest krachtig zijn neem ik aan?
De gemiddelde gamer kan beter een i5 (of i7) op socket LGA1151 halen. Wat Intel "mainstream" noemt is voor gaming in de meeste user cases meer dan voldoende.

Dat is qua prijs vs performance verhouding een veel zinnigere uitgave. Het bespaarde geld kan dan eventueel in een sterkere of extra GPU gestoken worden.

Voor gaming is het HEDT LGA2011-v3 platform niet echt zinvol tenzij je meer dan 2 GPU's wilt gebruiken of door een overvloed aan geld niet aan een budget gebonden bent.
Ik vraag mij af of ze met dezelfde setup ook een 2-core versie kunnen maken die veel sneller zou zijn voor gaming.
Ook games worden steeds meer multithreaded. Zeker aangezien de huidige consoles octacores hebben, en ze core for core behoorlijk underpowered zijn.
Bovendien staat DX12 nu wel echt voor de deur. Waarbij DX12 flinke optimalisaties heeft met betrekking tot multithreading.

Aangezien de meeste gamers hun platform (CPU+moederbord+RAM) minder regelmatig updaten dan de GPU('s) is het zinnig daarbij een beetje rekening te houden met wat de toekomst mogelijk biedt. Waar een dual core een tijd geleden nog redelijk future proof was, hoef je dat nu niet echt meer te verwachten.

Dan daarbij, een dual core past niet echt bij het HEDT LGA2011-v3 platform. Dat platform is bedoeld voor zeer high end werkpaarden. Er zijn nog steeds behoorlijk goed presterende dual cores te verkrijgen voor LGA1151.

[Reactie gewijzigd door houseparty op 13 november 2015 16:37]

Ik vermoed dat dit Xeons zullen zijn, voor de servermarkt dus. Die zullen zeker wel baat hebben bij extra cores.

Het is niet makkelijk om een snellere 2-core te maken met dezelfde setup, er is pas een overstap gemaakt naar multicore toen het simpelweg ophogen van de frequentie moeilijker werd. Tegelijkertijd is de performance per kloktik ook weer belangrijk gaan worden, die was door de focus op kloksnelheid langzamer omhoog gegaan.
Gamers hebben er zeker wel baat bij. Een console heeft een 8 core op 1.6ghz en meestal draaien console games op 30hz. Om dat op 60 tot 144hz te laten draaien heb je een zeer rappe 8 core cpu nodig.

Daarnaast gebruiken mantle, dx12 en vulkan gewoon alle beschikbare cores.

De meeste 8-10 core kopers zullen serieuze gamers zijn. Een professional kon namelijk altijd al een xeon met lage kloksnelheid en hoge core count kopen.
Complete onzin dat PC games op dit moment meer dan 4 cores nodig hebben om 60-144 fps te halen.. Je kan verschillende processoren ook niet zomaar 1 op 1 gaan vergelijken qua cores en kloksnelheden.. Een budget i3 dualcore levert al gelijke prestaties als die 8-core in consoles..
Dat kun je wel roepen, maar je geeft zelf al aan dat een i3 dualcore slechts een console evenaart. Volgens die stelling heb je 4x zoveel cores nodig om van 30hz naar 120hz te komen, oftewel een 8 core.
Ik denk dat jij in de war bent met de GPU (videokaart).. De CPU (processor) heeft weinig tot niks met maximaal haalbare Hz (fps) te maken..

Hier draait een i5 3570K (al iets oudere 4-core) met een 980Ti gewoon op 144Hz..
Virtualisatie.
oke mooie ontwikkeling maar waarom socket 2011 en niet 1151 zodat ik mijn skylake systeem eventueel een update kan geven?

p.s. zo jammer dat ik dan weer gedownmod word alleen omdat ik me afvraag waarom dit voor een verouderd platform word geproduceerd?

[Reactie gewijzigd door copywizard op 13 november 2015 09:16]

Ander type platform :). High end vs mainstream.
Opvolger voor Skylake wordt Kaby-lake op LGA 1151 :). Daarna komt Cannonlake nog op LGA 1151.

Mainstream / Consumer platform:
LGA1155 (Sandy bridge, Ivy Bridge)
LGA1150 (Haswell, Broadwell)
LGA1151 (Skylake, Kabylake, Cannonlake)

High-end / Workstation plaform
LGA 1366 (I7 9xx etc, al valt deze ook in main-stream)
LGA 2011 (Sandy bridge-E, Ivy bridge-E met X79)
LGA 2011v3 (Haswell-E, Broadwell-E met X99)

LGA 2011v3 heeft Quad channel DDR4 en LGA 1151 heeft dual channel DDR3/4. Ook beschikt LGA 2011v3 over meer PCI-e lanes (tot 40, waar LGA1151 tot 20) voor meer GPU's en andere PCI-e zaken etc.

Als 3 of 4 videocards ten volle wil gebruiken, zul je naar het X99 platform moeten gaan :).

[Reactie gewijzigd door Epsilon op 13 november 2015 09:33]

dankje dat is duidelijk uitgelegd
Ik vermoed omdat je het verkeerde socket heb gekozen. 1151 is voor de mainstream consument. En laten we eerlijk zijn welke mainstream consument heeft 1000 euro over voor een cpu.
Die 6850 lijkt me ander een best leuke CPU voor high-end gaming (dual 980 Ti oid). Ik schat een euro of 5 a 600 dat ie zal kosten als de topper(x) weer op 1 k gaat zitten.
Die 6850 6/12 biedt in tegenstelling tot een i7 4/8 wel echt meerwaarde t.o.v. een i5 4/4. Nette clocks (er zal nog wel een turbo bovenop komen) en 50% meer cores! (of je dat de prijs waard vind is een ander verhaal)
omdat 1151 met dual channel misschien wat krap is met 10 cores. en omdat 1151 niet bedoeld is voor de -E varianten.
Geheugen bandbreedte waarschijnlijk. 2011 ondersteund twee QPIs naar geheugen.
p.s. zo jammer dat ik dan weer gedownmod word alleen omdat ik me afvraag waarom dit voor een verouderd platform word geproduceerd?
Een paar redenen:

- Omdat Intel nu al een paar jaar de processors met -E suffix op het HEDT platform uitbrengt, wat een ander socket gebruikt dan wat Intel mainstream noemt.
- Omdat het min of meer Xeon-afgeleide processors voor consumenten betreft, en Xeon hetzelfde socket gebruikt als HEDT.
- Omdat Intel altijd redelijk open is (en/of lekt) wat betreft z'n roadmaps en dit dus geen nieuwe informatie is. (Zie bijvoorbeeld hier, hier, etc.)

Het X99 platform is duidelijk verouderd als Intel pas in 2016 Broadwell-E released. Het staat overigens nog niet geheel vast of ze bij de launch van Broadwell-E een nieuwe chipset voor HEDT LGA2011 releasen. Waarschijnlijk is het niet, maar je mag hopen dat ze hun lesje met X79, wat bij de release van Ivry Bridge-E ook duidelijk verouderd was, geleerd hebben. De mogelijkheid bestaat dat ze omdat Broadwell-E vertraagd is (net zoals Broadwell) de chipset voor Skylake-E (welke afaik origineel volgend jaar al op de planning stond) naar voren schuiven voor Broadwell-E. Al blijft de vraag hoeverre dat mogelijk is aangezien Skylake-E met een nieuw socket voor HEDT gepaard gaat.

Voor wat betreft een update van je Skylake systeem zul je moeten wachten opde verwachte Skylake refresh (Kaby lake).
Super vet dat het zo snel gaat. Alleen nu moet Windows en andere deverlopers het nog gaan ondersteunen. Zelf heb ik de 5820K 6 core. Werkt als een zonnetje waar ik sommige programma's wordt hij niet 100% benut.
Sommige programma's gebruiken hem niet 100%? Ik denk dat je eerder een enkeling kan noemen die het wel weet te benutten.

Verder gaat het echt zo snel? Zelfs een Intel Core 2 Quad Q9550 @ bus 1600 MHz core 3400 MHz en 8GB DDR2-800 CL5 uit 2008 krijg ik amper aan het zweten met moderne games of ontwikkel werkzaamheden.

Heb enkel nog een nieuw systeem, met Intel Core i7 3770S, gekocht omdat ik graag een ITX kast wilde bouwen, niet omdat ik de power zocht.

[Reactie gewijzigd door GewoonWatSpulle op 13 november 2015 09:10]

Verder gaat het echt zo snel? Zelfs een Intel Core 2 Quad Q9550 @ bus 1600 MHz core 3400 MHz en 8GB DDR2-800 CL5 uit 2008 krijg ik amper aan het zweten met moderne games of ontwikkel werkzaamheden.
Wacht maar totdat je aan de slag gaat met audio- en videoprocessing. ;)

Het is inderdaad zaak dat er zo snel mogelijk geoptimaliseerd gaat worden voor multicore processing; het heeft weinig zin om hardwarematig uit te breiden als de software niet meegroeit.
Ik wacht er op, maar tot die tijd merk ik geen verschil tussen een CPU uit 2008 en ťťn uit 2012, ook mijn laptop met een Intel Core i7 4710HQ uit 2014 zit grotendeels van de tijd niks te doen in games.
Dan gebruik je het simpelweg gewoon niet. De moderne games gebruiken het wel degelijks. Maar als je videokaart de bottleneck is moet je CPU constant op je videokaart wachten. Deze factor laat jij nu achterwege. Stel voor de videokaart is niet de bottleneck, dan wordt je CPU dat. Je laptop zal vast geen Titan X er in hebben zitten. Maar met een GTX970M in mijn laptop en 2x 970 in mijn desktop zie ik het CPU gebruik echt wel enorm toenemen in free roaming games.
Precies, dat is geen normale situatie, met een enkele GTX 970 doen de door jouw gestelde problemen zich nauwelijks voor.

Mijn laptops heeft overigens een GTX 860m dus logisch dat die de bottleneck vormt maar dan nog is er geen game veel meer dan ~40% CPU trekt en in vergelijking met mijn Q9550 die piekt dan rond de ~70% maar zit gemiddeld ook niet ver boven de 50%.
Speel maar eens 64speler BF4 op grotere maps. Dan zie je zeker wel het CPU gebruik omhoog schieten. Ook met een enkele 970m in een laptop zie ik in veel moderne games het gebruik aardig omhoog gaan. Je hebt simpelweg ewoon niet de GPU die dat nodig gaat hebben nog. De gedachte dat de CPU en met name het aantal cores niets uit maakt is achterhaald. Nu de games geprogrammeerd worden voor de PS4 en Xbox one met hun 8 cores gaat die belangrijker dan ooit worden.
[...]

Wacht maar totdat je aan de slag gaat met audio- en videoprocessing. ;)

Het is inderdaad zaak dat er zo snel mogelijk geoptimaliseerd gaat worden voor multicore processing; het heeft weinig zin om hardwarematig uit te breiden als de software niet meegroeit.
Videoprocessing begint ook steeds meer voordeel te krijgen van de GPU.
Maar toegegeven, dat is op dit moment eigenlijk ook het enige (video rendering) waarbij mijn CPU-koeler het druk krijgt in de PC, dus meer CPU-power zal nog steeds helpen :)
Ik ben het helemaal met je eens TimMer. Ik heb zelf een i7-4930K met 6 cores (12 incl HT). Als ik aan het gamen ben en ik stream tegelijkertijd op Hitbox (720p) en dan ook nog eens lokaal op mijn SSD op 1440p voor YouTube, dan wil het nog wel eens gebeuren dat de CPU de 100% aan tikt (wat niet echt wenselijk is :)).
inderdaad. 10 cores is dan nog erg krap.
heb zelf laatst een rack vol servers geplaats voor extra render power.
waarom een uur per seconde video render wachten als dit ook in een paar minuten kan
Lijkt mij heel erg sterk. Volgens mij doe je er niet gewoon heel veel mee. Zodra ik heavy photoshopping ga doen krijg ik mijn Sandy bridge geclocked op 5ghz. Cinema4D utilized het 100% en de meeste games beginnen ook steeds me de cores vol te gooien waaronder de open world games. Over muziek productie dan nog niets gezegd. Ik juich dit alleen maar toe.
Echter is een Core i7 een stuk zuiniger dan een Core 2 Quad.
Dat is waar, maar toch niet goedkoper. Want het verschil is minder dan 75 euro per jaar met mijn gebruik (enkele tot 12 uren per week) en de investering van een i7 upgrade set zou toch al snel ~ 400 euro met zich meebrengen.
Erg afhankelijk van de spellen die je speelt dan. CS:go, Bf (en eigenlijk alle frostbyte titels) en vrijwel alle mmos of spellen zoals total war benutten een (zwaardere) CPU zeer goed.
Counter Strike: Global Offense is een low-end game, die prima draait op een instap i3 en een instap Nvidia Geforce 730. Bij BattleField 2 (non-Frostbyte) kan ik geen verschil vinden tussen de twee CPU's en snelheid.
Om het nog even te benadrukken: die spellen benutten een zware CPU beter. CS:GO op 300fps op hoge settings (minus wat veel mensen doen schaduwen e.d.) vereist een snelle i5 of i7. waarom 300fps? nou ja, alles draait om snelheid dus hoe meer hoe beter. ja, bf2. dat spel komt ook uit een tijd waar multi core cpu's net een beetje door begonnen te breken. BF3 van een x4 955 BE naar een i5 3570k verdubbelde mijn framerate in dat spel op dezelfde grafische kaart.
Denk dat het eerder aan jou ligt dan aan de cpu. Maar een gtx-970/r9 290/390 aan een C2Q hangen gaat je cpu toch echt wel zweten. Draai maar eens bf4 64player map. Gaat je cpu niet in dank afnemen. En het is logisch dat je gpu de "bottleneck" is bij een game(tenzij vsync aanstaat). Je gpu wil immers zoveel mogelijk fps halen.
Dat dacht ik ook voordat ik het zelf uit probeerde maar uit de opstelling Q9550 @ 3.4 GHz en i5 4690 @ 4 GHz + GTX 970 @ 1.25 GHz kwam als gemiddelde afwijking 3% uit en in een enkel geval richting de 10%.

Vind ik anno 2015 ruim 400 euro (cpu, mobo, mem) uitgeven het niet waard t.o.v. het oude beestje wat het nog prima doet uit 2008.
Ben het totaal niet met je eens. Maar goed dat mag. 3% verschil zie ik echt niet met een 970. Vaak genoeg zit er al een veel groter verschil tussen een i5 6600 en een i5 4690. Laat staan 1 die enkele jaren ouder is.
Je hoeft het ook niet eens te zijn maar uit mijn test resultaten komt nauwelijks verschil naar voren, voornaamste wat ik zie is een minimum framerate die stabieler/hoger.

Ook op bijv. de 3dmark site zie je ~ 9500 scores met een Q9550 (@ 3.4) vs. ~ 11500 met een i7 4770 (@ 3.4) wat een verschil is van 20%, maar zo'n groot verschil heb ik zelf niet gezien in de games die ik getest heb.

Lang verhaal kort gemaakt: ik ben totaal niet onder de indruk van de ontwikkelingen op CPU gebied en deze decacore heeft nul toegevoegde waarde voor 99.7% van de consumenten.

Off-topic: Ik zie liever dat ze het moederbord eens verder gaan opschonen, de nieuwste Exynos en Qualcomm hebben een alles-in-ťťn SoC en het moederbord bestaat nog steeds uit tientallen losse chips.
Dan probeer maar eens 60 fps te behalen bij Assassin's Creed Unity op high settings (1080p), met die Intel Core 2 Quad Q9550. Dat gaat je gegarandeerd niet lukken. Een i5-4590 heeft al zo'n 90% load op alle cores bij AC: Unity op 60 fps high settings (1080p) (textures op ultra, FXAA enabled).

AC: Unity draait overigens prima op de juiste hardware. Ik draai hem locked 60 fps met een i5-4590 en GTX 970.

[Reactie gewijzigd door dusty-2011 op 13 november 2015 21:54]

Zo snel?

Eerder zo langzaam.

6-cores hebben we al sinds Nehalem. Dat is 2011!

AMD moet echt met iets goeds komen, want de mainstream i7 lijn zit nog steeds op 4 core/8threads. Iets wat mijn 920 ook heeft. Uit 2011...

We hadden allang op de 12 cores moeten zitten qua enthousiast en 8 voor de mainstream i7's.
[...] want de mainstream i7 lijn zit nog steeds op 4 core/8threads. Iets wat mijn 920 ook heeft. Uit 2011...
[...]
De i7 920 komt uit begin 2009 (of misschien zelfs eind 2008)
Maar we zijn al wel een heel stuk verder hoor. Kijk maar eens hoeveel die 920 verbruikt in vergelijking met wat moderne i7's nodig hebben voor hetzelfde werk.
Want? Merk je dat dat nodig is dan?
Meer cores (en memory) multitasked een stuk fijner :) :)
Oh? Ik heb nog nooit problemen gehad met multitasken op mijn quadcore i5. Ook nooit de behoefte gehad aan meer cores.
Ieder zijn eigen workload, na een tijdje staan hier 40+ tabs open in Edge, als je daarnaast nog een VMware sessie draait is meer alleen maar beter :)
Omdat jij het niet nodig hebt heeft niemand het nodig?
Ik kan het af met een fiat punto dus waarom ze vrachtwagens produceren?

Sommige mensen kunnen altijd wel extra performance gebruiken, voor het encoden van films of virtualisatie bijvoorbeeld

[Reactie gewijzigd door the-dark-force op 13 november 2015 12:46]

Dat zeg ik helemaal niet. Ik geef enkel aan dat de generalisering 'multitasken gaat beter op meer cores' onzin is.
Je wilt zeker producten in markten hebben waar je kunt profileren.
Deze processor lijkt voor alledag zwaar overkill, maar daar is die niet voor bedoelt. Je hebt het hier over servers en workstations. De software die daar gebruikt wordt maakt in de regel gebruik van meerdere cores.
Een ander voorbeeld waar bedrijven maar ook instellingen mee aan de slag gaan zijn virtuele workstations (thin client of zero client). Je zou meerdere virtuele werkplekken kunnen creŽeren en beheren vanaf een kleine server.

En je betaalt inderdaad de hoofdprijs voor een dergelijke processor, maar in het bedrijfsleven wordt het al gauw peanuts. Een gemiddelde werknemer kost al gauw §50.000 en als je een beetje serieuze studie hebt gehad dan is het al gauw +75k.
Investeringen zijn relatief en helemaal afgezet tegen de kosten van de gebruikers.
Amd gaat met zen terug naar 2/4/6 cores. De reden is dat 90% van de mensen niet meer dan 2/4 cores gebruiken. En mensen hebben meer baat bij snellere cores ipv meer cores.
een consumenten 8 core van Zen komt er ook, maar wel alleen voor de echte high end (maar wel nog op de zelfde socket als de andere)
Oke dacht gelezen te hebben bij 6 te stoppen.
AMD speelt ook niet echt meer mee in het high-end segment en probeert nu naar mijn idee vooral zo generiek mogelijk te zijn omdat de verkopen slecht gaan.
Ze kunnen wel weer bulldozer afgeleiden gaan maken maar niemand zit te wachten op energieslurpende cpu's met minder performance dan een 4770
Wie zich met virtualisatie bezig houdt zal meer cores wel kunnen waarderen maar gaat nu geen heethoofd van amd aanschaffen om 24/7 te draaien aangezien je aan stroomkosten meer kwijt bent als dat je aan aanschafkosten bespaart.
Dan kan je de cpu dus nog meer tegelijk laten doen :)
Is dit niet een relatieve lage klok? AMD had bij diverse multicores altijd het probleem dat er een lagere CPU snelheid achter hing, waardoor games die verre van optimized waren voor 6+ cores juist slechter liepen dan mening andere 4core op hogere kloksnelheid. Geen idee of dit bij intel ook het probleem is, maar ik heb lange tijd flinke overklok erop moeten gooien toen ik van een x6 naar een 8core ging die dus op een lagere klok zat.

Natuurlijk zat games die ook profijt hebben, maar er zijn nog genoeg games die ik speel die verre van geoptimaliseerd zijn (en nooit zullen worden), dat een hogere cpu klok altijd de betere keuze was (Rift bv).

[Reactie gewijzigd door SinergyX op 13 november 2015 09:09]

Toch is die lage klok niet zo dramatisch. Deze CPU's zijn natuurlijk niet gericht op gamen, maar op werkstations. Wat mij betreft hadden ze de e's dan ook Xeons genoemd. (ook het Xeon socket: 2011-3)
Veel werkstations hebben ook baat bij hoge clocks. Er zal hier ook wel een turbo op zitten van 3,5ghz ofzo lijkt me, is dat al bekend?
Volgens de bron: http://www.xfastest.com/thread-165075-1-1.html
Ondersteunen al deze CPU's turboboost.
Gelukkig klokt deze lijn tot nu toe altijd makkelijk 50% erbij.

Waarschijnlijk iets met default stroomverbruik ofzo. Komen ze er gunstig uit in benchmarks.
Het was meer dat AMD niet veel kon doen per clocktick in vergelijking met Intel. Ooit in het begin van de Pentium 4 serie was die andersom. Intel had een 2400mhz cpu en de AMD XP serie kon met minder MHZ het qua snelheid toch bijbenen.
Ik snap best dat mensen de huidige games erbij halen om aan te tonen dat meerdere cores niet nodig zijn.

Een PC doet echter meer dan alleen die game draaien. Er draaien tig processen op de achtergrond die allemaal hun moment afwachten om uitgevoerd te worden. Windows zorgt, als het goed is, ervoor dat al deze taken gewoon door blijven gaan, terwijl jij je alleen met je game hoeft bezig te houden.

Dat jij dat niet terug ziet in de benchmarks kan vele oorzaken hebben. Als ik bench dan bench ik met een PC die helemaal "werk klaar" is, dus met alle beveiligingssoftware, programma's, drivers , automatische updates, netwerkverbindingen, etc ect die ik nodig heb om ook gewoon op mijn pc te kunnen werken. Een realworld setting dus.

Ik kan mij voorstellen dat als ik een review zou schrijven, dat ik dan het beste/maximale uit de game wil halen en dus een superschone Windows install gebruik met zo min mogelijk zooi erop om te benchen.

Al die zooi die ik op mijn PC heb kan braaf door werken op de achtergrond terwijl ik er niets van merk tijdens het gamen/video-/photo editen of wat dan ook. Mijn mail programma draait ook de hele dag, mijn realtime backup's draaien op de achtergrond door etc etc.

Focus je niet alleen op wat je game doet met je CPU, maar zie het als 1 systeem die van alles doet zonder dat je er erg in hebt. Ik zeg niet dat het wereldschokkend zal zijn (de huidige CPU's zijn behoorlijk snel en kunnen een hoop tegelijk verwerken) maar kijk iets verder dan wat je op je beeldscherm ziet.
Klopt, dan erbij, mensen denken van hť, ik heb nog zoveel % van de CPU over dus het is geen bottleneck, maar velen dingen zijn niet (goed) multi-threaded of een van de threads houdt de andere tegen omdat er veel op die ene thread gebeurd, wat dus vaak bij games het geval is.
Of een ander component is te traag waardoor CPU gebruik meevalt.

Maar wat ze vergeten is dat taakbeheer lang niet alle ''spikes'' laat zien van CPU verbruik, je kan alsnog misschien 50% gebruiken in een spel, maar als plots iets anders de resources nodig heeft of het spel heeft kortstondig zelf meer processing kracht nodig dan kan er zomaar een schok optreden omdat er heel kort de 100% aangetikt wordt, en dat is vooral in games negatief.

Houd F5 maar eens ingedrukt op taakbeheer, je krijgt meteen een heel ander beeld, alhoewel het extra pollen van de hardware op zich ook al extra processing met zich mee brengt, is het wel een zelfde soort gedachte, de CPU doet vele malen meer dan dat je eigenlijk te zien krijgt in die seconde.

Had zo'n discussie ook al een keer met iemand gehad die vond dat ik met het livestreamen iets te onzuinig was met de bitrates en daardoor het encode profiel voor x264 op "very-fast" heb staan, en hij adviseerde om een veel zwaarder encode profiel te gebruiken omdat ik toch genoeg % CPU vrij had (vaak 40-60%) om zo bandbreedte te besparen.
Maar hij vergeet dat ook al is er nog zoveel vrij, des te meer load erop komt des te minder ruimte er is voor pieken op te vangen, en dat is direct merkbaar tijdens het spelen, ook met het "very-fast" encode profiel.

In dat geval is meerdere cores dan een spel gebruikt wel handig, vooral als je multi-tasked, maar de meerdere cores moeten niet de snelheid van single-threaded performance gaan benadelen, helaas is dit met de 5960X versus de 4960X wel het geval, de 4960X is iets of wat vlotter op single-threaded, maar het ligt maar net maar waar je prioriteiten liggen, overigens is het verschil erg klein, de 5960X is wel sneller dan de 3960X op dat gebied.

Maar in de meeste gevallen kun je met de echt zware games nog gewoon met een goede quad i5 of i7 uit te voeten als je verder niks of weinig tegelijk doet.
Ook bij een vergelijking van een nieuwer platform met een ouder platform (X99 vs X79) moet je oppassen dat je niet puur en alleen naar de kale CPU kijken, maar naar hoe het hele systeem presteert. Het is immers zo sterk als de zwakste schakel.

Dat is ook de reden dat een 5960X in vrijwel alle benchmarks de hele top beheerst.
(niet allemaal, maar wel die voor mijn multimedia bewerkingen belangrijk zijn)

Single core interesseert mij dus echt werkelijk helemaal niets :D , omdat de applicaties waar ik mee werk wel mutithreaded zijn en het ingezet wordt wanneer het kan. Het profijt die ik bij bijvoorbeeld Premiere Pro/Lightroom/Photoshop/encoderen/decoderen krijg, weegt niet op tegen welke singlecore benchmark prestatie dan ook.

Ik kan mij voorstellen dat anderen dat wel boeiend vinden, maar voor mijn dagelijkse werkzaamheden heb ik er niks mee :) Daar telt alleen hoe lang ik moet wachten tot ik eindelijk verder kan :D
Daarom, het gaat ook erom wat je ermee doet, en in dit geval is het alleen maar fijner om zoveel brute kracht met veel cores te hebben, in de professionele markt wachten ze hier met smacht om, alhoewel waarschijnlijk in meer gevallen op de Xeon versies.
Klopt, alleen die 12/24 core Xeons kan je niet of nauwelijks op hun staart trappen en kosten klauwen vol met geld meer. Als je in dezelfde range kijkt naar 8 core Xeons, dan hebben die echt het nakijken. Zie geen meerwaarde daarin voor mij.

Grotere bedrijven zullen voor dit soort werkzaamheden "gewoon" een renderpark inzetten. Daar kan geen werkstation tegen op :)
Helemaal gelijk heb je! ;)
Trouwens, met Xeons kan je wel CPU's linken, misschien is dat wel iets voor renderparken, maar daar heb ik geen kennis van.

[Reactie gewijzigd door CriticalHit_NL op 13 november 2015 18:55]

Let wel! De snelheid per core is wel lager.. meer cores mag leuk lijken, maar voor oa gaming is de snelheid per core minstens zo belangrijk..
Opzich heb je voor nu gelijk volgensmij, maar dat ligt ook helemaal aan hoe het spel geprogrammeerd is en of er directx 12 of niet is gebruikt?
Ja en nee... Een spel is nooit 100% multithreaded. Er is namelijk een maximum hoeveelheid threads waarbij het initiŽren van een thread ook weer CPU kost.
Ongelooflijk. Lekker voor het zware multicore werk. Wat ik mij afvraag, ik zie 2011V3. Deze werkt dan waarschijnlijk niet op mijn X79 2011 bordje uit +- begin 2012?

*ninja-edit:*

https://en.wikipedia.org/wiki/LGA_2011 Sandy Bridge-E, Ivy Bridge-E ondersteunt de X79 dus.

[Reactie gewijzigd door NeFoRcE op 13 november 2015 09:37]

Nee, ook Haswell past niet op X79 (socket 2011), die werkt, net als deze Broadwell-E op X99 (socket 2011-V3)

Quote van Wikipedia:
"Updated socket generations are physically similar to LGA 2011, but the used electrical signals and ILM keying prevent them from being backward compatible with older CPUs"

[Reactie gewijzigd door frankyboy707 op 13 november 2015 09:38]

Ik zie het, verkeerd onthouden, haha. correctie doorgevoerd!
Dus die CPU's kunnen op de huidige Haswell-E X99 borden geprikt worden?
De geruchten gaan wel ja.
Kunnen deze en vooral de Core i7-6950X overgeklokt worden zodat de kloksnelheid hoger ligt of zijn dit vaste en dus niet aanpasbare processors?

Wel leuk om te zien hoe snel het gaat voor de gemiddelde consument. In de IT wereld heb je al processors met 12 cores/24 threads.

Ik ben best wel benieuwd of je straks ook kan toewijzen welke programma's welke cores mogen aanspreken. Ik werk vaak met geluidsbewerking en merk met mijn huidige systeem (MSI GP60) dat bij hoge bitrate dat er gekraak te horen is. Simpelweg omdat het te zwaar is voor de processor.

Met 10 cores/20 threads moet het meeste werk heel soepel verlopen en zelfs denk ik dat 4K rendering ook mogelijk is. Full HD rendering van een filmpje van 10 min met een dualcore CPU heeft bij mij 6 uuur geduurt (was met een laptop van 2012)

Het is nu afwachten of ze in Łberhaupt uitkomen en wat de reviews zijn
FHD filmpje van 10 minuten exporteren zou op een i7 5960X volgens mij binnen 2,5 minuten kunnen.
Tot nu toe lijkt het bij mij 1:4 te zijn (1 minuut renderen/encoden/exporteren per 4 minuten film)
Heb nog niet met echt 4K bron materiaal kunnen werken maar ik zou verwachten dat het dan 1:1 zou moeten zijn gezien het aantal pixels, maar pin mij er niet op vast :)
(geen trailers maar echte 4K beelden van een 4K prosumer camera)

Hang uiteraard van een hoop factoren af:

- Hoeveelheid RAM geheugen
- Welke videokaart
- Bronmateriaal en zijn FPS
- Welke FX (CUDA/OpenCL enabled)
- Pre rendering files gebruiken ja/ nee
- Bit depth
- Rendering quality
- Aantal video lagen
- Schrijfsnelheid exporteer doelstation
- Locatie cache bestanden
- en nog zo'n tig afhankelijkheden
voor games is de markt nog steeds geoptimaliseerd voor 4 cores, dus ik (en mag ik aanraden, alle gamers) halen een nieuwe CPU pas als we weten waar de volgende sweet-spot komt te liggen qua optimalisatie voor games. Er zijn nu al 6-8 en incomming 10 cores... dus wat gaat het worden? Zou me ook niets verbazen als we nog een tijd op de 4 cores blijven steken qua gaming.
Dat hangt sterk van van de beschikbare engines. Er is nog geen engine op de markt die effectief meer dan 4 cores aanspreekt. Het is erg lastig een schaalbare engine te maken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True