Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties

Toekomstige moederborden met pci-express 4.0 zullen net als bij de huidige pci-e 3.0-standaard maximaal 75 watt leveren via het slot. Eerder kwam naar buiten dat dit driehonderd watt of zelfs meer zou zijn, maar dat berust op een misverstand.

Richard Solomon, vice-president van de pcie special interest group, zei in een interview met Tom's Hardware afgelopen weekend dat pci-express 4.0 'minimaal driehonderd watt kan leveren' en dat dit ook vierhonderd of vijfhonderd watt zou kunnen zijn. Solomon deed die uitspraak nadat de interviewer een opmerking maakte over de aanwezigheid van veel powerconnectors op een prototype van een AMD-servermoederbord met pci-express 4.0.

De uitspraak waar veel media, waaronder Tweakers, over schreven blijkt te berusten op een misverstand, iets wat onder meer tweaker -The_Mask- al direct vermoedde. De pcie-groep heeft contact opgenomen met Tom's en aangegeven dat de interviewer 'onjuiste informatie' te horen heeft gekregen. Met het genoemde vermogen zou gedoeld zijn op het uitbreiden van de standaard om certificatie van pcie-apparatuur met een grotere stroomhonger mogelijk te maken.

De pci-e 3.0-standaard schrijft een maximaal verbruik van driehonderd watt voor en daardoor krijgen sommige gpu's, zoals de dubbel uitgevoerde Radeon Pro Duo, geen officieel certificaat. Dergelijke videokaarten zijn voorzien van meer stroomaansluitingen, zo heeft de genoemde Radeon-kaart drie 8-pins-connectors.

Pci-express 4.0 krijgt met 16GT/s per lane een tweemaal zo grote bitrate als versie 3.0 van de standaard. De snelheidsverdubbeling werd al in 2011 vastgelegd. Volgens de planning moeten de specificaties voor de nieuwe standaard in 2017 rond zijn. Het kan dan nog enkele jaren duren voordat de techniek daadwerkelijk op grote schaal gebruikt zal worden.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (90)

Dit lijkt me logisch aangezien 300W leveren op een lage spanning over traces op het moederbord toch een uitdaging zou zijn. Zeker als een moederbord meerdere 16x sloten heeft zou dit de kosten van een moederbord sterk laten stijgen.

Wellicht zou je dan moederborden hebben gekregen met power connectors vlak naast de sloten om de traces zo kort mogelijk te houden. In dat geval kan je evengoed de power connectors rechtstreeks op de kaart aansluiten.
Zie ook het voordeel niet. Direct op de voeding aansluiten met (relatief) goedkope kabels en connectors lost het 'probleem' prima op, en houd niet alleen mobo kosten lager maar je vermijdt ook hoog-ampère baantjes die haast alleen maar kunnen storen en smeltgevoelig zijn.
alleen zijn de connectors op voedingen niet aan en uit te schakelen zoals je misschien wel op je moederbord zou kunnen implementeren om hot-pluggable kaarten te maken
hot-pluggable grafische kaarten die >75W gebruiken? In welke situatie zou dat nuttig zijn dan? Ik zie niet echt waar de vraag vandaan zou komen, zeker niet gegeven dat Windows nogal eens problemen heeft met interferentie van andere / oude drivers.
Het hoeft natuurlijk geen grafische kaart te zijn :)
Sure, maar zijn er echt zoveel kaarten die >75W gebruiken?
ja ik vind het ook een beetje magertjes.
Met andere woorden er kunnen dan alleen uitgefaseerde kaarten erin of kaarten die al zowiezo een gpu die-shrink hebben gehad.
Of althans kaarten die weinig wattage weg stoken.
Of het worden sleuven voor een m2 erin te laten plaatsen waar dus geen videokaart inkomt dat zou ook kunnen.
Of je moet net als alle andere highend kaarten dus extra stroom geven van de voeding.

[Reactie gewijzigd door rjmno1 op 26 augustus 2016 15:55]

er zijn zogenaamde GPGPU's die berekeningen doen ipv beeld naar een monitor sturen. grafische kaarten zijn misschien de enige breed bekende toepassing van pci-express sloten, maar dat wil niet zeggen dat ze niet voor iets anders gebruikt kunnen worden in datacentra of workstations.
Om nou je banen via het moederbord te laten lopen (en alle nadelen vandien) puur alleen omdat je er dan softwarematig invloed op zou kunnen (om hotplugs mogelijk te maken bijv) lijkt me wat overkill. Het lijkt mij dan logischer om een voeding te hebben die een soortvan USB aansluiting heeft en dan dat soort opties dan kan bieden.
Het is prima mogelijk om de kaart en uit voeding te schakelen met een externe connector. Dat doet niet af aan het hot-pluggable concept.

De voeding vanaf een molex op een grafische kaart zou in het ergste geval middels een relais gestuurd kunnen worden door het mobo.
De voeding hoeft hiervoor zelf niet te schakelen.

Ik ben overigens benieuwd tot hoever de voeding een acuute belasting van het systeem met een extra 75 Watt+ aan kan zonder een voltage-dip te krijgen.
Je zou de connectoren prima op de rand aan de voorzijde van het bord kunnen monteren en over de achterzijde van het moederbord dikkere kabels direct naar het slot van de kaart. Is optisch een stuk mooier dan die bungelende kabels voor je kaarten langs ;-)

Eigenlijk hetzelfde als de 4-pins connector die je nu voor de CPU gebruikt :-)
Er zeker een charme zit in het zo veel mogelijk "elimineren" van kabels,
Ik zou zelf vanuit distributie eerder verwachten dat centraal een krachtig voedingspunt op het mobo aanwezig zou zijn die al dan niet met kabels naar bijv. grafische kaarten zou gaan.

Ruis is waarschijnlijk een factor die er voor zorgt dat dit niet gewenst is,
Een tweede factor zou denk ik de onbetrouwbaarheid van kabels zijn t.o.v. banen op het mainboard.
Ik snap niet zo goed waar de angst vandaan komt. Er zijn toch al jaren 8 pins cpu connectoren die 200+W kunnen leveren ten behoeve van overclocken??? Op basis daarvan zie ik geen reden waarom 200+W naar een gpu, met een aangepast slot, een probleem gaat opleveren.

Persoonlijk lijkt een +- 150W PCI-E slot mij wel erg handig. Er is dan een veel breder scala een videokaarten dat geen losse voeding meer nodig heeft. Ook handig voor de OEMs. Scheelt weer in de assemblage kosten.

[Reactie gewijzigd door sdk1985 op 25 augustus 2016 18:42]

je kan de power connectors dichter bij de pci sloten plaatsen, maar de traces in het pci slot blijven veel te klein voor die lage spanningen en hoge stroom, de enige manier zou zijn door de pci sloten langer te maken en de power traces dikker.
De connector zelf is het echte probleem. De pinnen daarin zijn gespecificeerd op 2 of 2,5 Ampere. De stroom door een printplaat is wel te regelen door dikker koper of kortere traces.

Edit, bij nader inzien is dat wat je bedoeld. Zag het alleen niet direct vanwege de iets aparte benaming die je gebruikt.

[Reactie gewijzigd door Jessper op 25 augustus 2016 11:10]

En daarvoor zijn er dus Power planes in Mobo's.
Dit lijkt me logisch aangezien 300W leveren op een lage spanning over traces op het moederbord toch een uitdaging zou zijn. Zeker als een moederbord meerdere 16x sloten heeft zou dit de kosten van een moederbord sterk laten stijgen.

Wellicht zou je dan moederborden hebben gekregen met power connectors vlak naast de sloten om de traces zo kort mogelijk te houden. In dat geval kan je evengoed de power connectors rechtstreeks op de kaart aansluiten.
Als de power connectors zo dicht bij de pci sloten zitten kunnen ze net zo goed gewoon op de kaart zitten, scheelt meteen een duurder moederbord ;)

Daarnaast leek mij 300watt al heel erg sterk per pci slot :+
dan zou je een 2100 wat voeding moeten hebben voor als je 7 videokaarten wilt gebruiken.
wat overgens ook nog eens enorm hoog is en je dan al 1 groep nodig hebt voor je pc alleen van 16A
Dat is iets overdreven. Als je het hele vermogen van de voeding zou gebruiken dan pak je net iets meer dan 9 ampère. In de praktijk zal dat niet het geval zijn en kom je op minder uit. dan zou een ampère of 7 a 8 realistischer zijn. De gemiddelde magnetron verbruikt meer en die heeft ook geen aparte groep.
dat hangt ook af van wat voor magnetron je hebt.
maar 16A is een vrij hoge richtlijn waarbij sommige gebruikers soms wel last van kunnen hebben als ze op maximaal vermogen spelen of een bitcoin miner draaien.
Maximaal vermogen gamen op 3600W (230V * 16A)?. Ik weet niet wat voor een zieke gaming setup ze dan hebben, maar volgens mij zijn er niet eens voedingen met dat vermogen. De enige voedingen die ik in de pricewatch kan vinden zijn servervoedingen, en die zul je dus niet zo snel terug vinden in een game pc of bitcoin miner.
Maximaal vermogen gamen op 3600W (230V * 16A)?. Ik weet niet wat voor een zieke gaming setup ze dan hebben, maar volgens mij zijn er niet eens voedingen met dat vermogen.
Je hoeft natuurlijk niet een enkele voeding te gebruiken. En je hoeft natuurlijk ook niet gebruik te maken van een enkele groep. ;)

[Reactie gewijzigd door The Zep Man op 25 augustus 2016 11:41]

Dat snap ik, maar zelfs als je een dikke gaming setup zou hebben met Titan Z's zou je nog 8 Titans op één groep kunnen zetten. Als je zoveel geld in de la hebt liggen heb je ook wel geld om je stroomvoorziening op orde te krijgen.
dan heb je 3 1200 watt voedingen nodig die via een controller allemaal op 1 MB worden aangesloten.

maar dan is je setup ook echt overkill verwacht dat je dan 7x 24GB+ TITAN kaarten hebt draaien die op maximale preformance bitcoins minen.
No hp dl785 g6 omgebouwd tot workstation.
Komt dicht in de buurt van 3600watt
Hou er rekening mee dat het theoretisch maximale vermogen van de voeding niet het opgenomen vermogen is. In de praktijk ligt dat meer tussen de 50 en 60 procent.
Er zit 6x 1200w in genoeg marge
Ik mag hopen dat je niet de meest obscure chinese budgetvoeding hebt; je mag 80-95% verwachten.
Nee, de meeste servers hebben flink wat marge qua voedingscapaciteit. Als een server out of the box al 95% van de beschikbare capaciteit benut dan is het snel over als je er een keer een paar disks bij hangt. Bij een server is de marge doorgaans zo'n 50%.
Bij een zelfbouw workstation/game pc zou ik overigens ook niet 80 tot 95% van de voeding willen uitnutten want dan heb je echt belachelijk weinig marge. Condensatoren worden na verloop van tijd minder en daarmee gaat het wattage waarop de voeding de boel stabiel kan houden ook steeds meer omlaag. Ik zou daarom zeker niet meer dan 70% van het vermogen willen uitnutten.
Hier hebben ze ook een hele mooie tool die rekening houd met de mages: http://powersupplycalculator.net/

[Reactie gewijzigd door Chatslet op 25 augustus 2016 17:29]

Een gemiddelde magnetron die met 800 watt kan verwarmen heeft een nominale stroom van 10 ampère dus dat is niet heel erg zeldzaam. Doorgaans zit de magnetron niet op een eigen groep dus ik vraag me af waar die dedicated 16 ampère groep richtlijn voor een PC vandaan komt. Kun je daar wat meer over vertellen?
jah ..; grapjas

een 800 watt magnetron heeft welgeteld .. .lees goed .. 4 ampere nodig

de berekening ampere volt en watt is nog altijd=
WATTuur = Volt * Ampere

dus ampere = wattuur/voltage

een 10 ampere magnetron verbruikt 2200 watt per uur, en zo'n sterke magnetrons hebben we niet, de aller krachtigste blijven op 1500watt steken.... (een goeie 7 ampere)
Bogy, Als magnetrons 100% efficiënt zijn en al het opgenomen vermogen uitsluitend gebruiken voor het verwarmen en er ook in de lucht en gebruikte materialen geen enkel verlies op treed en de netspanning maar 200 volt is dan heb je volkomen gelijk. In alle andere gevallen kun je beter terug naar school gaan.

Nou ja, voor deze keer dan. Een magnetron zet ongeveer 50 a 60 procent van de opgenomen energie om in microgolf straling. De rest wordt als warmte door het ventilatierooster naar buiten geblazen. Van die microgolf straling zal ongeveer 80% daadwerkelijk je eten verwarmen. Dan hebben we nog de voeding van de magnetron, dat zijn magnetisch gekoppelde spoelen waar ook het nodige energieverlies in de vorm van warmte optreed. Ik zou zeggen, zoek je schooldiploma op en plaats hier een bestelling: http://www.papiervernieti...0-papiervernietigers.html

[Reactie gewijzigd door Chatslet op 25 augustus 2016 13:37]

een magnetron van 800watt die 2000 watt verbruikt?

dat moet je mij toch eens uitleggen, en vooral, je moet eens uitleggen hoe die dingen nog een certificaat krijgen; want voor zover ik weet is het weergegeven getal; bv 800 watt, het opgenomen vermogen (dit staat achterop je magnetron op de sticker van verbruik/voltage/hz/serienummer)

dat hierop wat speling kan zitten is normaal, maar het dubbele lijkt me toch wel wat vergezocht.., dus mijn diploma hoeft niet verscheurd te worden, dit is perfect in orde, misschien moet jij dat van jou maar eens bekijken, en nadenken of je nog we goed kan tellen ofzo...

ik weet btw ook wel dat een magnetron meer dingen doet dan alleen maar hoogspannign sturen naar zijn 2.4ghz antenne; het glazen bord moet draaien, er moet een lampje branden, er zit een microcontroller in die je display enzo beheerd; maar laat ons nu niet overdrijven en doen alsof dit samen 100'en watts verbruikt, ik denk dat je al blij mag zijn als al die dingen samen 20 watt verbruiken; die lampjes zijn bv meestal maar 5 watt gloeilampjes, electronica verbruikt nooit veel, de afzuiging zal zo'n 10 watt verbruiken mss, en dan is er nog 5 watt over voor de motor te laten draaien die het bord rondjes laat maken zodat je voedsel overal warm wordt en niet op 1 plek.
er zal bovendien idd wel wat overhead zijn op de microgolf-generator, maar vergeet niet dat we ondertussen al vele jaren en vele generaties verder zijn met die dingen en dat die dus al vele optimalisaties hebben gehad waardoor ze A) preciezer stuk gaan (planned obsolescense) en B) energievriendelijker zijn (lagere overhead).

op een 800watt microwave zal je dus een nominaal verbruik mogen rekenen van ... 800 watt... en zo'n 700 zal ervan uiteindelijk in de opwarming van je voedsel terechtkomen...
wil je toch de andere kant uitrekenen; dan zal je 800watt- voedselopwarmer, zo'n 900-950 watt verbruiken

een van de redenen waarom men bv noteert hoeveel het toesel verbruikt en niet hoeveel watt er door de microgolf-generator gaat, is omdat binnenhuis-otnwerpers het anders te moeilijk krijgen om met al die toestellen nog te kunnen berekenen hoeveel elektriciteit ze nu eigenlijk gaan verbruiken en hoe zwaar een stroomkring belast zal worden (waarbij dus mogelijk stoppen gaan springen als men de microwave gebruikt, samen met de oven, net wanneer de diepvries opspringt)

[Reactie gewijzigd door bogy op 25 augustus 2016 21:09]

Fabrikanten zetten er 1000W op in plaats van, zeg 800W, omdat de consument hoger = beter heeft geleerd voor magnetrons. Net als voor stofzuigers.
Hoppa: https://en.wikipedia.org/...e_oven#Heating_efficiency

Bogy haalt de dingen een beetje door elkaar. Opgenomen vermogen is niet gelijk aan het effectieve vermogen waar mee wordt verwarmd. Een gloeilamp zoals we die vroeger hadden produceert ook minder licht dan dat het aan vermogen op neemt. Daarom werden die dingen ook loei heet en geeft een led lampje van 4 watt tegenwoordig net zoveel licht als een gloeilamp van 60 watt

[Reactie gewijzigd door Chatslet op 26 augustus 2016 14:07]

> een 10 ampere magnetron verbruikt 2200 watt per uur
ik neem aan dat dit een grap is.
Wellicht leuk om even de blog van MUX te lezen…

mux' blog: De power factor uitgelegd

[Reactie gewijzigd door Habana op 25 augustus 2016 17:12]

Op wisselspanning heb je naast watt ook nog VA. Ik weet t niet zeker, maar volgend mij zit er verschil in.
neen, watt en va zijn gewoon waarden, hoe die tegenover elkaar staan ligt vast..

is zoals oppervlakte en de zijden van een rechthoek... die dingen liggen ook vast, en ongeacht hoe de waarden ook veranderen, de formule blijft hetzeldfe, en als je 2 waarden hebt, kan je altijd de derde onbekende berekenenen (bv met de lengte en de totale oppervlakte kan je ook de breedte berekenen van een rechthoek 'opp=lengte x breedte, dus breedte = oppervlakte / lengte)
Wat was 't verschil nou? Watt is 1 joule per seconden. Grofweg v*a, maar niet 't zelfde als V*A. 't is ook veels te warm om dat uit te zoeken nu.
Sterk versimpeld, VA is de aansluitwaarde en Watt is het daadwerkelijk opgenomen vermogen.

Het verschil tussen de VA en Watt nominaal ingangsvermogen heet de powerfactor. De Pf varieert tussen apparaten en met de belasting van een apparaat.
Het verschil tussen in- en uitgangsvermogen is de efficientie.

Voor mijn magnetron is dat 1680VA (240V 7A), 1450W nominaal ingangsvermogen en 900W nominaal uitgangsvermogen.
Dus bij het berekenen of een groep groot genoeg is om die magnetron aan te kunnen sluiten ga je uit van 7A. De Nuon komt bij je langs voor die 1450W, want dat is wat er wordt verbruikt. Je broodje bapao moet op 53s, want zo lang duurt dat met 900W.
Je herhaalt letterlijk wat Admiral Freebee al zegt.... :|
In dat geval kan je evengoed de power connectors rechtstreeks op de kaart aansluiten.
Als de power connectors zo dicht bij de pci sloten zitten kunnen ze net zo goed gewoon op de kaart zitten
Precies wat jij zegt. USB-c 20V met 100 Watt is al een uitdaging. Laat staan wat er op een moederbord zou gebeuren als er 300W geleverd kan worden.
Printbanen zo dik als installatiedraad 2.5mm2 idd- dat krijg je dan. 8)7
eerder baantjes van 4mm aangezien die 300w over 12 volt zou lopen :)
Nee dat 300W verhaal gaat denk ik vooral op voor een externe bus. Externe GPU's bijvoorbeeld, zijn in opkomst als combinatie met een laptop of ander mobiel systeem.
Ik snap niet waarom PCI-SIG constant met dergelijke uitspraken komt die elkaar tegenspreken. Ik heb rev 0.7 van de 4.0 standaard maar kan die helaas niet uitlekken, gelukkig heeft iemand wel rev 0.3 van de standaard uitgelekt, die is hier te vinden.

https://doc.xdevs.com/doc...ev0.3_February19-2014.pdf

Hoofdstuk 7.8.9 Slot power capabilities op bladzijde 630 wordt er wel degelijk gesproken over een slotpower limit van 300W en zelfs register flags die slotpower over 300w aangeven.

Zoals ik al bij het vorige bericht aangaf, ze zijn nog bezig met een nieuwe connector welke dit alles mogelijk moet maken, over die connector is op dit moment helemaal niks bekend. Misschien dat ze zichzelf in aan het dekken zijn voor het geval dat later blijkt dat het eigenlijk niet zo'n goed idee is (toegegeven toen ik het eerst hoorde was ik redelijk sceptisch maar goed er zijn mensen op deze aardkloot die vele malen slimmer zijn) maar PCI-SIG is in zijn documentatie en zijn berichtgeving tot nu toe over 2 dingen zeer duidelijk geweest:

1. Er komt een nieuwe connector,
2. We werken eraan om hogeren stromen mogelijk te maken.

[Reactie gewijzigd door SizzLorr op 25 augustus 2016 14:29]

Interessant document en inderdaad lijken ze daar Power Slot Limits te suggereren van meer dan 300W. Dat is ook echter anders te interpreteren door het zinnetje 'or by other means'. Slot Power Limit Value lijkt te gaan om power via het slot én peg-connectors.
In combination with the Slot Power Limit Scale value, specifies the upper limit on power supplied by the slot (see Section 6.9) or by other means to the adapter.
In sectie 6.9 is ook niets terug te vinden over slots die meer dan 75W leveren, daar worden alleen slots genoemd die 40W, 25W en 15W leveren, met twee verschillende form factors.
rev 0.3 is alweer uit 2014 en destijds leefde dit nog niet. Destijds werd er eigenlijk alleen maar gekeken naar mogelijkheden om de snelheid te verbeteren. Ondertussen is er redelijk wat veranderd in de computer wereld, Next Generation Form Factor (NGFF) is een grote rol gaan spelen en men is ook beter na gaan denken over cost efficiency. PCI-e biedt nu ook veel beter power efficiency en powermanagement mogelijkheden. Wat ik wil zeggen dat de standaard is geëvolueerd naar iets wat veel meer is dan wat er op eerste instantie werd beoogd.

Ook al is dat nog niet officieel vastgezet in een concrete standaard, de signalen waren wel dat de nieuwe connector vermogens van 300w of meer mogelijk zou maken. Ik denk persoonlijk ook dat daar de verwarring van Sollomon zelf vandaan kwam.

Hoe dan ook, er komt een nieuwe connector, daar is PCISIG zeer open over geweest. Wat die connector kan is voor mij nu ook een mysterie.
1. Er komt een nieuwe connector,
2. We werken eraan om hogeren stromen mogelijk te maken.
Een nieuwe connector zat ik dus ook aan te denken.
Al met al vind ik het wel sportief dat tweakers hun fout aangeven. Vond het ook al zeer onwaarschijnlijk en anders heel slecht voor het moederbord.
Prima maar eigenlijk doornormaal. Dit is geen roddel/sensatie blad, het is niet de bedoeling dat tweakers ons "bullshit" voedert :D. We zitten al vol genoeg met oude-wijven-fabeltjes.
Ik vond die 300w ook aal gek klinken en dacht dus ook dat het wel een foutje zou zijn. Hier is dus de bevestiging.
Wat ik mij nu afvraag, of dat het nu wel verstandig is om mijn 980 Ti te verkopen en het even te doen met een 960 totdat de 1080 Ti uitkomt. Als het verdubbeld wordt, zullen de huidige videokaarten naar alle waarschijnlijkheid wel weer goed overtroffen worden zodra in 2017 de nieuwe versies komen. Of heb ik dit nu verkeerd? Ik zit namelijk erg in twijfel.
volgens mij is de pci-e bandbreedte nog niet echt een bottleneck, dus daar zou ik het niet op laten hangen.
De high-end videokaarten worden juist zuiniger, laatste jaren. Ik zie niet gebeuren dat een volgende generatie die trend uit het raam gooit en opeens 400W wil gebruiken, terwijl de vorige grens van 300W door meeste luxemodellen niet eens gehaald werd.

Los daarvan, zoals in het artikel zelf al wordt aangegeven, zou je nu al gerust een high-end gaming videokaart kunnen maken die meer dan 300 W trekt, zoals de Radeon Pro Duo doet, maar dat doet ook niemand ;)
Het gaat mij om de bandbreedte. Mijn 980 Ti kan overigens aardig wat verstoken met een flinke OC (1540 / 8600).
Ah. Dit artikel ging enkel over stroomverbruik/stroomlevering, vandaar mijn verwarring.

Het verschil in bandbreedte tussen PCIe v3 x16 en x8 blijkt voor de 1080 geloof ik nog altijd maar 2-3%, in allerlei benchmarks. Dus ik heb de indruk dat daar nog niet echt een plafond is bereikt.
Ok dus ik kan nog wel met een gerust hart de 1070 kopen. Ik twijfelde namelijk enorm ivm nieuwe technologie op PCI - E gebied, net zoals ik twijfel of ik nog wel een overstap zal maken van Core i5 3570k naar core i5 6600k. Thanks voor dit bericht.
Nou, van een 3570k naar een 6600k is vrij zinloos. Laat het eens 15% winst zijn in games, dan is het veel. Zelfde hoeveelheid threads... dat is geld weggooien.
Welke game belast een fatsoenlijk processor eigenlijk 100%? Dat zullen er denk ik niet veel zijn.
Nee het is nog steeds vooral zo dat games leunen op één core die veel moet doen. Zelfs recentere titels schalen dan wel mooi over vier cores, maar er blijft een afhankelijkheid van single threaded prestatie voor bepaalde zaken. Laat je daar eens 15% winnen. Het is meer van belang als je op hogere FPS wil spelen, ook, want dat belast de CPU rustig 1,5 keer zoveel van 60 > 120 fps. Maar ook dan is van Ivy naar Skylake de grootste onzin. Ga je over naar een i7, dan kan ik me er nog wat bij voorstellen voor 8T. Maar met Zen voor de deur...

[Reactie gewijzigd door Vayra op 25 augustus 2016 11:05]

In dit verhaal geef je eigenlijk al aan waar de winst zit. Single threaded is Skylake een flink stuk sneller. Je gaat dit in aardig wat games, met name die slecht scalen, merken. Bovendien is die extra power natuurlijk heel goed voor je frame times. Dat laatste verbetert je spelervaring.

De tijden dat je echt meer dan 50% prestatie winst ziet binnen hetzelfde prijssegment zijn al jaren voorbij. De laatste klapper was 2011 met Sandy Bridge (en die haalde dat percentage al niet). Dus ik kan me prima voorstellen dat als je net een beetje tekort komt je toch het platform gaat upgraden.

[Reactie gewijzigd door sdk1985 op 25 augustus 2016 18:51]

Zover ik altijd begreep is het niet een zozeer het spel wat zefl een last uitoefend op een processor, maar ook de 3d kaart die mogelijk niet voldoende instructies krijgt om optimaal te werken. (MAW de 3d kaart heeft de instructie al afgehandeld en zit te wachten op de volgende, maar de cpu is nog niet zo ver)

Ik bedoel dat het zinloos is om een 1070 te koppelen aan een i3 processor. Hiermee zal je dus niet alle potentie uit de 3d kaart kunnen halen. (hier een stuk over gelezen met tests, maar kan zo even niet de link terugvinden)
Dat is eigenlijk een andere omschrijving van hetzelfde. Uiteindelijk komt het erop neer dat een tragere CPU een bottleneck kan vormen. De grap is wel dat juist een i3 eigenlijk prima presteert zelfs icm een 1070, want de cores zelf zijn vrijwel dezelfde alleen iets lager geklokt dan bij een i5, en je hebt er maar twee van. De meeste games draaien nog steeds op één zware thread (en dus core) en een lichtere ernaast. Nieuwere engines schalen wel beter over quad cores, maar ja, als je 4 cores hebt op 50%, dan zijn 2 cores op 100% load natuurlijk net zo snel. En als ik naar mijn eigen i5 3570k kijk, dan is dat het beeld dat overheerst. 4 cores aan het werk, maar zelden boven de 80%. En ik draai games niet op 60, maar 120 fps, wat per definitie al veel zwaarder op de CPU leunt (elk frame vraagt CPU tijd).

Hoe dan ook, de CPU is tegenwoordig alleen in specifieke situaties nog een bottleneck. Denk aan: MMO's met veel spelers op het scherm (elke speler vergt CPU kracht, elk bewegend object ook), oude games die single threaded zijn, en strategie, 4X, en games met veel physics berekeningen. Juist de games die op de GPU heel zwaar zijn, zullen ook van de CPU minder vragen, omdat de GPU er geen hoge framerate door kan persen - kortom in de meeste games lost het probleem zichzelf op.

[Reactie gewijzigd door Vayra op 25 augustus 2016 15:06]

Vayra:

Just Cause 3: Gebruikt op men Workstation ( Dual Xeon x5675 3GH > 12 cores/24 threads ) rond de 12 threads ( tussen 20 en 45% gebruik per thread ).

World of Warships, idem. Gebruikt 12 threads ( 80% gebruik / thread ). Maar lijkt me slecht programmeer werk eerder omdat het gebruik te "perfect" is.

Er zijn games dat veel threads gebruiken. Voordeel is dat je niet CPU limited word en andere zware taken kan uitvoeren in de achtergrond. ;).

[Reactie gewijzigd door Wulfklaue op 25 augustus 2016 11:18]

World of Warships, bitcoin mined ernaast dan, no way dat die 12 threads voor 80% gebruiken zelfs unoptimized.
Mja, dat een engine threads 'kan gebruiken' zegt niets over hoe goed de engine met meer threads werkt. Leuk, dat je 12 cores aan het werk hebt op 20% load, maar vrij zinloos, en er is ook een fenomeen op Intel CPU's waarbij de load gelevelled wordt tussen cores, en threads 'core hoppen' van de ene naar de andere. Dus er lijkt een boel actief maar dat is eigenlijk die ene thread die van core naar core springt. Tegelijkertijd is de single threaded prestatie gebonden aan clocks, dus ben je altijd nog beter af met een hoger klokkende i5 of i7 quadcore voor gaming.
Vayra: Het is geen thread jumping bij Just Cause 3. Kan je makkelijk zien aan het gebruik.

En sorry maar die verhaaltjes dat je beter af bent met een hogere geklokte i5/i7 ben ik al lang beu. Over het algemeen geeft een hogere geklokte i7 een 30% winst per core. Maar ik merkte al lang op men "oude" 4770 dat de meeste games, niet eens 70 a 80% gebruikte van de core. Vaak is de grafische kaart eerder de bottleneck.

Voor gamers, dat één ding doen, is een i5/i7 genoeg, en so be it. Maar ben geen puur gamer. En meer cores = veel meer belangrijker hier. Het feit dat sommige games meer cores gebruiken dan de default 1/2/4 is mooi meegenomen.

In praktijk op single core gebruikende games is er geen spat verschil tussen bijvoorbeeld een 4770 ( op 3.9Ghz ) en een x5675 ( op 3GHz ), ondanks de "snellere" core. Je moet echt gaan kijken naar oooo, ik heb 3 of 5fps meer in een game. Het maakt vaak niets uit.

Waar het wel een enorm verschil maakt is simpel genoeg: Multitasking. Vooral als je compilers draait op de achtergrond, enorm wat development tools draait en tegelijk zit te gamen. Soms zit ik te gamen op 1 scherm, dan nog vaak in window mode en niet full screen, te programmeren & compile op ander scherm ( of video bewerking of andere toestanden ), en heb dan nog youtube of andere streaming open op 3de scherm.

En trust me, DAN ga je op een 4770 wel het verschil zien met FPS drops en andere toestanden. Workstation user != Game user. ;)

One size does not fit all. :)
Yea ... can you screenshot laten zien. 1 CPU, 12 threads. 80% ... Hebben meer mensen over geklaagd. Nu ja, maakt me niet uit. Spel draait perfect op 60fps, zakt nooit weg, terwijl er andere zaken actief zijn ( compilers enz ).
Ik vind 15% best veel, en je kan niet enkel aan de threads zien wat je winst is. 6600k is een (3 jaar?) nieuwere technologie. Een upgrade is daarom best logisch, plus de support van DDR4, wat je eigenlijk ook in je performance winst mee moet rekenen.

[Reactie gewijzigd door Genshurino op 25 augustus 2016 11:06]

DDR4 is in sommige gevallen zelfs trager. Een upgrade is niet logisch. 15% is niets, zeker niet als dat in meer dan driekwart van alle games niet eens merkbaar is. En op een GTX 1070 al helemaal niet. En drie jaar vooruitgang? Drie jaar stilstand ja, er is geen concurrentie en het is bizar als je twee keer voor een vrijwel gelijke i5 gaat betalen.

Maar goed, lichtjes offtopic :P

[Reactie gewijzigd door Vayra op 25 augustus 2016 11:09]

Als je DDR3 of 4 op gelijke clock snelheden hebt maakt het niks uit en is DDR3 beter als je 0,31 nanoseconds een issue voor je zijn qua latency. Maar de potential voor DDR4 is hoger op ieder vlak. Dit zal zeker ook de toekomst zijn op moederborden en daar helpen de lagere volt's zeker.

Inderdaad.. driekwart van de games, betekent dus dat je bij 25% van de games wel verschil merkt. Zeker als je een 1070 heb zal dit percentage hoger zijn omdat je zwaarder wil gamen.

Indeed offtopic, maar hoort wel een beetje bij een moederbord discussie imo :+
is een (3 jaar?) nieuwere technologie
Alleen is in de laatste jaren de performance van CPU's niet echt omhoog gegaan maar is de focus voornamelijk op lager verbruik en de iGPU's gefocust.
Hoeveel games maken eigenlijk op dit moment effectief gebruik van meer dan 4 threads? Voor tweakers die parallel compileren of VMmetjes draaien is het natuurlijk wel fijn maar anders snap ik ook niet zo goed wat de meerwaarde er voor is. Dan heb je bij games meer aan een betere turbo frequentie.
Als een enkele videokaart 300 watt nodig heeft, zou dit dan niet gewoon een design fout zijn?
We praten hier over unieke 300-500W via een PCIe slot levering.

De gangbare limitatie van 75 watt per PCIE-slot is simpel te verklaren, vanwege het power design van menig huidig (zelfs high-end) moederbord. Op die manier is 300-500W direct daarop aangesloten niet te bewerkstelligen. Thermisch gezien wordt het voor een mobo ook lastiger. Meer Watt betekent ook vaak meer warmte. Apart van moederbord componenten die dit soort power wel of niet aankunnen en ontwikkelde warmte die in een gesloten systeemkast afgevoerd moet worden, is deze ideologie nu nog toekomstmuziek. Moederbord formfactor power design limieten nekken ons altijd zoals bij huidige single/multiple GPU setup's het geval is.

Voor de toekomst denk ik dat hoger wattage voor grafische kaarten niet uitgesloten zal zijn.
Denk eens aan de externe modellen die aan laptops bevestigd worden. Of aan een gemoduleerd systeem. Dan gaat het hele verhaal 300W tot 500W of hoger op Pcie met een externe PSU voor GPU wel op. Een hoge bandbreedte tussen een enkele krachtige GPU en de rest van het systeem is dan waardevoller.

ASUS ROG XG2 External Graphics Card:
https://www.youtube.com/watch?v=rs_Ky4yCz0k

Tegen die tijd kunnen we ons huis in de winter met een goed computer systeem verwarmen. :+
Wauw, roepen hard dat hij minimaal 300 Watt zou gaan ondersteunen en misschien wel tot 500 Watt zou gaan! Wat jammer dat dit zo wordt gebracht. Ik had het wel leuk gevonden, bye bye 6 en 8 pins connectoren.

[Reactie gewijzigd door Boost9898 op 25 augustus 2016 12:50]

Niks bye bye, die zouden dan gewoon op je moederbord moeten zitten.
En Tweakers riep dit toch net zo hard?
De vraag die ik eerder stel is waarom is die 6pin en 8pin soms in combinatie nodig. Als je ziet dat bij linustechtips de MSI vortex uit elkaar gehaald is geweet en die psu's met een simpel draadje power krijgen...

+ hoort er niet bij maar een oplossing voor doorhangende kaarten! Steuntje if een versteviging die je invijs zoals je jet vijsje van moederbord invijst en zo steun geeft (plat latje ofzo die dan 90 lipje heeft dan dan invijst met moedebord vijsje)
maar dat berust op een misverstand.
Denken we zelf niet meer na voordat we iets publiceren?
Meer lijkt me ook niet nodig. Nvidia Volta gaat nog eens 33% minder verbruiken dan de huidige Pascal kaarten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True