Pci-e 4.0-kaarten hebben mogelijk geen aansluiting op voeding nodig - Update

De socket van de nieuwe pci-express-standaard moet ten opzichte van zijn voorganger ten minste vier keer zoveel vermogen hebben. Dat zou betekenen dat pci-express 4.0-videokaarten in de toekomst potentieel geen directe aansluiting op een voeding behoeven.

Update 25 augustus: De pci-express 4.0-standaard zal net als pci-e 3.0 maximaal 75 watt leveren via het slot op het moederbord. Uitspraken dat de nieuwe standaard 300 watt of meer zou leveren blijken onjuist te zijn.

Het originele artikel:

In een interview met Tom's Hardware zegt Richard Solomon, vice-president van de pci special interest group, dat pci-express 4.0 straks minimaal driehonderd watt kan leveren, maar dat zou ook nog vierhonderd of vijfhonderd watt kunnen zijn. Het onderwerp kwam ter sprake, toen het Tom's Hardware opviel dat een eerder getoond AMD-servermoederbord, dat van een vroege versie van pci-express 4.0 gebruikmaakt, beduidend meer powerconnectors aan boord heeft dan gangbaar is.

Het bord heeft vier achtpins- en twee zespins-connectoren in aanvulling op de bestaande moederbord- en processorconnectoren. Onduidelijk is of dit ontwerp blijvend zal zijn en consumenten straks zelf dus ook zes extra kabels naar hun moederbord moeten laten lopen.

Pci-express 3.0, momenteel de nieuwste beschikbare standaard, levert maximaal 75 watt. In de praktijk valt nu te zien dat alleen vrij bescheiden lowend-videokaarten uit de voeten kunnen met alleen het vermogen dat de pci-e-3.0-slot heeft. Alle andere kaarten hebben bijval van de voeding nodig. De genoemde driehonderd watt zou genoeg zijn om de krachtigste videokaarten van dit moment te draaien zonder extra stroomaansluitingen. Eerder was al bekend dat pci-express 4.0 een tweemaal zo grote bitrate zal hebben als 3.0: 16GT/s.

Door Mark Hendrikman

Redacteur

22-08-2016 • 09:16

170

Reacties (170)

170
166
77
6
2
59
Wijzig sortering
Anoniem: 105188 22 augustus 2016 17:23
PCI-e 4.0 krijgt een geheel nieuwe connector welke mechanisch nog wel backwards compatibel is. Deze nieuwe connector moet het mogelijk maken om de hoge stromen te vervoeren. Een van de grote problemen waar ze nu nog mee zitten is dat hotswap zeer lastig is als er zoveel vermogen op een kaart staat, dit is belangrijk voor datacentra.

Versie 0.7 van de specificaties is vlak onlangs nog verstuurd naar alle deelnemers, ze willen nog een intermediare versie 0.9 uitbrengen waarin alles nog verder is uitgewerkt en daarna gaan ze begin 2017 over naar versie 1.0.

http://www.kitguru.net/co...-to-be-finalized-by-2017/

Ze willen de huidige connector uitfaseren voor iets nieuws, versie 4.0 krijgt sowieso via een revisie een andere connector. Versie 5.0 zal niet meer backwards compatibel zijn. Ze willen een nieuwe (flexibele) connector om nieuwe Next Generation Form Factor (NGFF) computers toe te staan. Denk aan plaats je GPU op een positie die jij wil maar ook aan single-board computers zoals de rPI waar simpelweg geen ruimte is voor een hele PCI-e connector.

Naast de nieuwe PCI-e specificaties komen ze dan ook met een nieuwe OCuLink specificaties, PCI-e out-of-the-box genaamd. Deze zal PCI-e verlengen naar buiten het moederbord voor opslag arrays en andere apparaten binnen de computerkast maar ook apparaten buiten de kast. Het ziet er voorlopig nar uit dat OCuLink de nieuwe standaard zal zijn voor 5.0.

http://www.tomshardware.c...d-express,news-53720.html

http://www.eetimes.com/do..._id=1326922&page_number=2

Overigens zijn er al bedrijven die PCI-e 4.0 (rev 0.7) producten op de markt hebben, zoals Mellanox en Synopsys. Daarnaast zijn er bedrijven die hun eigen PCI-e over fiber of copper oplossingen hebben, zij vechten allemaal voor hun stukje in de standardisatie taart.

[Reactie gewijzigd door Anoniem: 105188 op 22 juli 2024 19:26]

Anoniem: 582487 22 augustus 2016 10:03
mijn eerste vraag na het lezen van de titel en de begin kop.

300-500 watt vermogen leveren uit een PCI-E slot... HOE warm gaat dat wel niet worden?
ik bedoel door een kabel OK... maar door de dunne lasjes op een mobo?
am I missing the upswing to this?

het lijkt me dat dit soort dingen tochwel redelijke belasting zijn op het moederbord..
'even' een SLI setup van een 1080 via je mobo laten lopen.. zou ik niet heel veilig achten.
een voeding is ervoor gemaakt om constant een 'hogere' spanning te krijgen.. maar een moederbord 2x of meer de wattages verhogen... lijkt me tochwel dat dan de componenten en zelfs de slots een stuk warmer worden??

hoe willen ze dat oplossen?
Nee jij mist niks, het artikel is onzin.

Het moederbord daar op de foto bewijst dat ook nog eens doordat geen enkele stroomconnector bij de PCI Express sloten zit. Dus meer dan 75W zal het echt niet zijn, dat is al 300W voor alle drie PCI Express sloten opgeteld.

300W is al 25A, al je er vanuit gaat dat het allemaal door de 12V geleverd moet worden, nu is dat overigens niet zo. Max is namelijk 5,5A voor de 12V en de rest is 3,3V, dus zou je op max 22A voor de 12V uitkomen, mits de videokaart niet meer verbruikt dan de standaard.

22A kan overigens nog wel net geleverd worden door een 6 pins PEG connector normaal gesproken, ook al is die voor maar 75W gespecificeerd. De 6 pins PEG connector op het moederbord in het artikel zal dan ook wel hiervoor bedoeld zijn.

De overige vier 8 pins EPS connectors zullen wel bedoeld zijn voor beide CPU's en beide geheugensloten. Een 8 pins EPS connector voor 8 reepjes geheugen en een extreme CPU zal wel wat weinig worden, daarom zal het moederbord wel twee per CPU en bijbehorend geheugen hebben.

Dan is er nog één 6 pins PEG over, maar die zal ook wel een functie hebben. Alle EPS connectors en de bovenste PEG connector (onder op de foto) zitten iig duidelijk rond de CPU en het geheugen en zijn dus duidelijk niet bedoeld voor de PCI Express sloten. Met misschien uitzondering van de onderste (bovenste op de foto) 6 pins PEG connector.

[Reactie gewijzigd door -The_Mask- op 22 juli 2024 19:26]

Kijken en bergrijpen is een vak appart.
Er zitten wel dergelijk stroom connectors bij de pcie
Tegen woordig kunnen ze sporen van 1000um in de binnenste layers laten lopen
Ik zat te denken aan 4x 8pins voor de respectieve memblocks, en 2x 6 pins voor de 2 cpu`s. (elke geheugen module een eigen stroombron, hotpluggable ?)
Of de 2 zwarte 8pins alleen voor het memblock wat er naast ligt en de witte 8pins + de 2 witte 6pins voor de memblocks + cpu`s geshared.

En dan alleen de ATX voor de PCIexpress poorten.

Dus niet de hoeveelheid aansluitingen voor de hoeveelheid watts die geleverd worden maar alleen maar om de hoeveelheid sporen op het MB te kunnen besparen, dus alleen om het MB makkelijker te kunnen inrichten/ontwerpen.

Of het artikel onzin is ? Het MB dat men laat zien is imho niet de juiste om het artikel te bevestigen.
Misschien is er een voedingsstandaard op komst die meer 8 pins connectoren voor servers voorschrijft, vanwege toekomstige compatibiliteits waarborgen. (dan zegt het helemaal niks meer over wattages)

[Reactie gewijzigd door enchion op 22 juli 2024 19:26]

Buiten het feit dat kabels een beetje lastig zijn om bij het pci-e slot te krijgen ( grote graka's ) denk ik wel dat je verder gelijk hebt, ( ook al zijn de sloten op het plaatje geen pci-e sloten, maar pci sloten :) Het lijkt het me ook totaal onzinnig om 6 kabels op het mobo te moeten aansluiten om je graka van stroom te voorzien. Ik vind 2 al te veel eigenlijk.
Zeker als ze dan ook nog eens "verplicht" aangesloten moeten zijn omdat anders je bord niet boot. :?

lijkt mij idd een onzin artikel, of het is niet compleet

[Reactie gewijzigd door micla op 22 juli 2024 19:26]

zijn gewoon pcie sloten hoor kijk nog maar eens een keer goed naar het lipje
De kabel wordt niet warm. Kijk eens naar een stekkerdoos, als je daar 3000watt "doorheen jaagt" is de kabel ook niet warm, enkel het apparaat wat de stroom verbruikt.
Het gaat ook niet om de hoeveelheid vermogen, maar de hoeveelheid stroom. Bij 12V is de stroom natuurlijk vele malen hoger dan bij 230V. 300 tot 500W door een PCI Express slot is ook totale bullshit en hele slot zou in rook opgaan bij 12V. Daarvoor heb je een volledig ander slot nodig en moet alles opnieuw ontworpen worden, waardoor PCI Express ook niet meer backwards compatibel zou zijn. Dit allemaal gaat niet bebeuren, PCI Express 4.0 blijft backwards compatibel en dit artikel is totale onzin.

Ze denken bij de PCI-SIG er misschien aan om kaarten van 400W of 500W ook te certificeren. De max is nu 300W, videokaarten die meer dan 300W verbruiken voldoen niet aan de standaard en mogen dus geen PCI Express logo dragen. Bij de PCI Express 4.0 standaard denken ze er dus over op deze waarde op te hogen naar 400W of zelfs 500W. Dit betekend echter wel dat de videokaart dus extra stroomaansluitingen gaat krijgen. Zoals een derde PEG connector, welke je overigens soms al eens ziet bij extreme videokaarten.

Met een ophoging tot 400 of 500W kunnen dual GPU videokaarten zoals de R9 295X2 en Titan Z ook officieel de PCI Express standaard dragen, daar voldoen ze nu niet aan met hun verbruik van zo'n 500W.
Wat je zou kunnen doen, is het slot verlengen en in het verlangde stuk dikkere connectoren te zetten... op die manier zou je enigzins backwards compatible kunnen zijn en toch meer stroom kunnen leveren aan de kaart.

Dat gezegd hebbende, denk ik niet dat moederbord fabrikanten hier echt op zitten te wachten. want ALLES in hun ontwerp moet helemaal aangepast worden door die hogere stroom vraag...

Lijkt me dus inderdaad logischer als ze alleen de certificatie aanpassen, en misschien zelfs in overleg met de ATX werkgroep de 6 pins naar 100W verhogen en de 8 pins naar 200W.
Gezien de draaddiktes zit dat ruim in de huidige standaard als mogelijkheid.

*edit*
Bovenstaande wordt trouwens door veel overclockers al gedaan, door de bios van de grafische kaart te flashen voor net wat meer stroom.

[Reactie gewijzigd door Anoniem: 668692 op 22 juli 2024 19:26]

Langere videokaart is niet goed mogelijk. Je zit met het lipje achter een PCI Express slot, dus dan moet je een gat voor laten. Daarnaast is er gewoon geen ruimte voor dat achter het PCI Express slot bij veel moederborden. Simpelweg omdat veel moederborden niet langer zijn en veel videokaarten zijn ook gewoon niet lang.

Neem bijvoorbeeld een videokaart als Fury X, zo'n 275W max, maar bijna niks langer dan een PCI Express slot door het HBM geheugen. Dat zal met Vega, de nieuwe kaarten die binnen enkele maanden verschijnen van AMD, niet anders zijn. Deze gebruiken HBM2, wat ook kleine high-end videokaarten mogelijk maakt. Generatie daarna met PCI Express 4.0 zal niet anders zijn anders zijn, ook HBM2 of zelfs HBM3 en dus een kort PCB.
Technisch zou het dus mogelijk zijn.

Maar of het practisch is: Nee absoluut en daarom zullen de fabrikanten er ook niet in mee gaan!
Technisch gezien moet 500W door een normaal PCI Express slot ook wel kunnen. Je hebt alleen supergeleiding nodig. :p
Of een hogere spanning, met 80V is 500W nog steeds 6,25A :+
Mee eens, 300watt is 25A. Normaliter moeten wij 4-6 mm2 kabels gebruiken voor dit soort stroom, laat staan een pci slot.....
Of een pcb trace :X
Die PCI express connectoren zouden misschien nog geredesigned kunnen worden om er 25A over te krijgen, maar PCB traces van tientallen mm breed en bijhorende clearances zijn gewoon niet realistisch.
Clearance (en creepage) is gerelateerd aan spanning, niet aan stroom.

Met deze pcb trace calculator kom ik uit op 33 mm trace breedte; dT = 10 °C, 2 oz/ft2 copper. Indien de trace in één van de buitenste layers (dus de onderste of bovenste laag van het moederbord) mag zitten is het 13mm. Best wel te doen, maar het is ook wel weer aan de hoge kant als je bedenkt hoe volgepropt die moederboarden zijn.

Een wat praktischere redenatie: wat is er mis met een kabeltje?
Helemaal juist en wat ik bedoel! Clearances zijn er overigens ook om andere redenen dan doorslag (waar spanning idd doorslaggevend is). Inductieve effecten zijn bijvoorbeeld net wel gerelateerd aan stroom. Ook zijn er fysieke clearances voor zowat van alles, zeker op de top layers.
Thnx voor de extra info! Wist ik niet ☺️
300 tot 500W door een PCI Express slot is ook totale bullshit en hele slot zou in rook opgaan bij 12V.
Nounou...

De huidige PCI-express connectors zijn gespecced voor 1.1Ampère per pin, en een PCIe x16 slot telt 164 pinnen. Met 50% power pins en 50% gnd pins zou je 82 * 1.1 * 12 = 1082W kunnen leveren met de huidige fysieke PCIe sloten. De notie dat hoog vermogen niet door zo'n slot zou kunnen is dus... pessimistisch.

Natuurlijk is het meerendeel van de pinnen in de huidige PCIe slots nu gereserveerd voor data en ground, en slechts 5 pinnen voor +12V waarmee je op zo'n 75W komt. Maar er zijn verschillende dingen waarmee ze dat kunnen oprekken:
  • De zes ongebruikte pinnen inzetten voor +12V (dit alleen al zorgt voor een verdubbeling van het huidige vermogen!)
  • Een uitbreiding op het slot maken met extra voedingspinnen (zoals bv 64-bit PCI, of VLB)
  • Voor PCIe 4.0 de pinnen zwaarder uitvoeren waardoor ze meer stroom aankunnen
  • De vier +3.3V pinnen gebruiken voor +12V (na negotiation tussen moederbord en kaart)
  • Een aantal van de ground pinnen gebruiken voor +12V (na negotiation)
  • Een hoger voltage gebruiken, bv +24V ipv +12V voor alle voedingspinnen (na negotiation)
  • Stroom laten lopen door de data traces; de data traces zijn differentieel, en de signalen zou je met een pulstransformator er uit kunnen halen terwijl er toch voedingsstroom doorheen loopt. Met 64(!) data traces kan dat veel opleveren (vergelijk Power-Line Communication)
Dit zijn (met uitzondering van de eerste twee of drie) allemaal vrij ingewikkelde oplossingen, maar als de PCI SIG gemotiveerd genoeg is zijn ze allemaal mogelijk. Dus als de PCI SIG 300 of zelfs 500W uit zo'n slot wil halen, dan zie ik weinig reden waarom dat niet mogelijk zou zijn.
Daarvoor heb je een volledig ander slot nodig en moet alles opnieuw ontworpen worden, waardoor PCI Express ook niet meer backwards compatibel zou zijn.
Ehm, een anders slot (met bv extra pinnen) kan prima backwards compatible zijn.
Dit allemaal gaat niet bebeuren, PCI Express 4.0 blijft backwards compatibel en dit artikel is totale onzin.
Als je het niet erg vind dan plaats ik meer vertrouwen in Tom's Hardware die de vice-president van de PCI SIG quote, dan in een random tweaker ;)

Begrijp me niet verkeerd, het is goed om kritisch te zijn, ik snap je scepticisme, en ik ben ook niet 100% overtuigd. Maar het artikel per direct afdoen als "totale onzin" vind ik nogal naïef.
Ze denken bij de PCI-SIG er misschien aan om kaarten van 400W of 500W ook te certificeren. De max is nu 300W, videokaarten die meer dan 300W verbruiken voldoen niet aan de standaard en mogen dus geen PCI Express logo dragen. Bij de PCI Express 4.0 standaard denken ze er dus over op deze waarde op te hogen naar 400W of zelfs 500W.
Nee. Het artikel is er heel duidelijk over, volgens de PCI-SIG krijgen PCIe 4.0 kaarten 300W+ vanuit de connector:
When we asked the PCI-SIG, we received the news that for the first time, PCIe will get a massive power increase at the connector. Solomon [PCI-SIG VP] couldn't recall the exact ceiling because member companies have proposed several options. Solomon stated that the minimum would be 300W, but the ceiling “may be 400 or 500W."
De kabel wordt niet warm. Kijk eens naar een stekkerdoos, als je daar 3000watt "doorheen jaagt" is de kabel ook niet warm, enkel het apparaat wat de stroom verbruikt.
Uiteraard komt 99% van de warmte als het goed is uit je apparaat wat het stroom verbruikt, maar vergis je niet dat de kabel ook warm kan worden. Als jij een haspel gebruikt en daar 3600watt (dat is doorgaans de max) door heen wilt jagen, raad ik je toch ook echt aan die netjes volledig af te rollen :)

Daarnaast is 3000watt @220v maar 13A oid en 3600Watt ongeveer 16A. Terwijl 300watt @12v (wat pcie4.0 dus zou moeten kunnen) wel 25A. Niet echt een vergelijking dus :) Watt maakt niks uit namelijk het gaat om de Amperes.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:26]

Haha, ja, m'n schoonvader dacht eens dat dat onzin was... nou, daar is hij snel op teruggekomen toen z'n haspel was gereduceerd tot een smeulend hoopje plastic.
Volgens mij heeft die haspel meer te maken met een magnetisch veld wat er word opgewekt doordat je snoer in een haspel opgerold ligt, op een moederbord heb je daar minder last van.
Klopt inderdaad. door de spoelvorm. Echter komt dat niet door de doorstroom van de elektriciteit. Dat zal in dit geval dus niet van toepassing zijn op een mobo.
Volgens mij heeft die haspel meer te maken met een magnetisch veld wat er word opgewekt doordat je snoer in een haspel opgerold ligt
Nee, daar heeft het helemaal niks mee te maken. Het heeft puur en alleen te maken met het feit dat de kabel warm wordt door de ohmische weerstand.

Omdat in de fasedraad en de nuldraad in een kabel de stroom de tegenovergestelde kant op gaat produceren deze twee draden een exact tegenovergesteld elektromagnetisch veld. Wanneer de kabel opgerold is op een haspel heffen deze twee velden elkaar op.

Zie ook dit antwoord op electronics.stackexchange.com.
Zeker niet. In mijn studentenhuis destijds was er een tekort aan wandcontactdozen. Volgens de stekkers op de tafelcontactdozen kan er maximaal 16A bij 250V doorheen, ofwel van 4000 moet je alle apparaten aftrekken.

Bij een belasting van meer dan 3000 watt werden de kabels wel degelijk warm. Vooral van de wat oudere tafelcontactdozen konden de kabels erg warm worden. Soms zelfs zo warm, waardoor ik wel twijfelde of ik die 16A wel goed had gelezen.
Een wandcontactdoos wordt met 2,5 mm^2 aangesloten waar 16A doorheen mag, maar veel tafelcontactdozen hebben 1,5 mm^2 waar maar 10A doorheen mag. Als je zo'n tafeldoos in de muur prikt en daar andere tafeldozen op aansluit dan wordt dat snoer wel warm als je totaal 16A trekt. Hij zal niet direct doorsmelten omdat er een veiligheidsmarge in zit, maar erg veilig ben je niet bezig.
Op de stekkers van de tafelcontactdozen staat toch echt 16A bij 250V. Geen idee hoe dik de bekabeling is, ik mag er als consument toch vanuit gaan dat die 16A wel klopt en dat ze geen onzin neerzetten.
Alle ampères zijn bij 230v.
1,5 mm2 is voor 10A-16A. Er mag dus 16A doorheen, maar als je dat te lang doet zal de draad toch warm worden of smelten. 2,5 mm2 is voor 16A-20A. Er mag dus ook 16A doorheen en dan zal de draad niet (echt) warm worden. Ect. Bij een haspel met een dunne draad dikte moet je bij maximaal vermogen van het snoer de haspel afrollen, omdat de warmte niet kwijt kan. Dus als je een dikkere draad hebt hoef je die minder af te rollen bij het zelfde vermogen.
Ik heb wel meegemaakt dat mensen elektrische kachel van 3000W op een 1 mm2 kabel aansluitten. De kabel werd erg warm maar smeltte gelukkig niet.
Warm worden klinkt mij ook best wel twijfelachtig in de oren.
@Brompot: Zo ver ik weet mag in nederland alleen verlichting op een 16A groep worden aangesloten met een 1,5mm^2 kabel, voor de rest is 2,5mm^2 verplicht.

Overigens wordt het gebruik van veel verlengsnoeren vaker ontraden.
Met 3000W kan de kabel best warm worden, sluit eens (op eigen risico :-) )een kacheltje van 3kW aan op een niet volledig uitgerold haspeltje aan. Dan warmt de 230V snoer op....maar wat is warm?
Ligt aan de lengte en dikte van de kabel. De afstand op een mobo is niet heel groot. Dus dikte van de aders hoeft niet extreem.
Lengte telt niet mee voor hoe warm de kabel wordt, mits afgerold. Voor PCB traces is dikte juist zeer belangrijk bij zulke stromen.
Volgens mij wel hoor, hoe langer de kabel des te groter de weerstand.
En ook hoe langer de kabel, wat de hitte verspreid. Temperatuur op elk punt blijft gelijk want die is dus afhankelijk van de weerstand per meter.

[Reactie gewijzigd door Cilph op 22 juli 2024 19:26]

Pff op dergelijke oppervlakten is de dikte van de trace erg belangrijk. Zeker met stromen van max zo'n 25A

Gelukkig is dat niet wat er bedoelt wordt en is dit artikel een beetje onhandig opgesteld.

Zo bijzonder zijn die extra power connectoren helemaal niet. Dat is gewoon voor CPU en geheugen. Waarom zouden ze anders zo geplaatst zijn? Ik zie er geen 1 bij de pcie poorten zitten.

Daarnaast, wat moet een serverbord met GPU's van dat kaliber met een dergelijke kleine spacing? Dat pas helemaal niet. Volgens mij worden er hier heel veel dingen door elkaar gehaald.
Haspel altijd uitrollen bij zware apparaten kan ik je uit eigen ervaring vertellen.
Is afhankelijk van hoe dat vermogem geleverd wordt. Bij 230v wordt het niet snel warm, maar bij bijv 12v in een auto lopen er veel grotere stroomsterktes doorheen en kunnen sommige dingen loeiheet worden. Bijv voor het aanleggen van audio spul heb je een serieuze stroomkabel nodig voor 400 watt rms, terwijl er thuis bij 230v makkelijk een gourmetstel of 2 van 2000 watt elk op een dun draadje in de muur kan staan.

Dus, het zou goed vrij warm kunnen worden op dat mobo, maar ik neem aan dat ze daar wel rekening mee houden in het uiteindelijke ontwerp van de lanes.
ik denk dat je mn comment verkeerd gelezen hebt.

´300-500 watt vermogen leveren uit een PCI-E slot... HOE warm gaat dat wel niet worden?
ik bedoel door een kabel OK... maar door de dunne lasjes op een mobo?´

zoals -the_mask- al aangeeft.. zullen de kaarten gewoon een stekker krijgen.. omdat ze NOOIT alle power uit het mobo kunnen trekken met 12v rails..

dus dit artikel is niet helemaal duidelijk laten we maar zeggen ;) want zoals IK het hier persoonlijk lees.. (correct me if i'm wrong) gaan ze dus alles uit het pci-e slot trekken zonder externe stekker.. die kaarten met dual gpu en dat soort 'extreme features' tochwel nodig zullen blijven hebben (8 pins of zelfs 2x8 pins connector)

[Reactie gewijzigd door Anoniem: 582487 op 22 juli 2024 19:26]

Niet om je ongerust te maken, maar het volledige vermogen dat je voeding van je computer kan leveren (in sommige gevallen al meer dan 1000W) loopt ook voor een deel over een printplaat binnen in de voeding.
Maar dat is een enkelzijdige printplaat voor groot vermogen. Geen 4 laags pricisie printplaat.
De meeste low-end en mainstream voedingen gebruiken een enkellaagsprintplaat, de high-end exemplaren gebruiken vaak wel meer zijden. Soms boven en onder, maar soms ook een laag er tussenin.

Voor de rest wel met je eens overigens. In voedingen zitten hele dikke sporen, soms ook nog versterkt met een extra draad die op het spoor is gesoldeerd. Bij moederborden zal dit niet gebeuren, dat maakt ze extreem duur.
Helemaal eens.
Voedingen gebruiken ook vaak een dikkere koperlaag, net om de breedte van de traces iets te kunnen beperken. De lengte ervan wordt ook zo kort mogelijk gehouden, net omdat traces sowieso resistief zijn en dus opwarmen. (Vgl met alomtegenwoordige trace calculators)

Ook worden vermogen dragende traces fysiek gescheiden van digitale logica om inductieve ( maar ook capacitieve) effecten onder controle te houden.
Dit lijkt me heel moeilijk te combineren met meerlaagse PCB's, componenten met fijne pitch, efficiënt gebruik van (duur) oppervlak en supersnelle databussen. (Aka een modern moederbord)

[Reactie gewijzigd door the_stickie op 22 juli 2024 19:26]

Ze kunnen net zo goed het moederbord er geschikt voor maken, technisch helemaal geen probleem. Honderd Ampere kan ook, geen enkel probleem, zolang de engineer het maar weet.
Wat is de meerwaarde? Dan moet dat vermogen eerst naar het moederbord. Moet je daar waarschijnlijk een extra stekker in doen. Nogal een omweg, extra contacten die extra weerstand opleveren en dus verlies.
Ik gok meer vrijheid voor cable management voor custom solutions (servers bijvoorbeeld), bijvoorbeeld alle voedingskabels op 1 plek, direct naast de voedingen.

Ik zou ook wel graag gewoon 1 grote rij connectoren hebben aan de onderkant van m'n MB, en laat ze dan ook maar een powered sata variant bedenken.
Ik hoop dat deze nieuwe 4.0 standaard wel backwards compatible is met 3.0. Het zou toch jammer zijn als je een nieuw bord koopt en je al in het bezit bent van een stevige grafische kaart, dat deze niet meer zou werken.
(wat een keurige layout van dit AMD bord trouwens. Kunnen veel plankboeren nog iets van leren :) )
Het is meer dat je huidige grafische kaart het niet zal ondersteunen, die heeft niet voor niets zijn poweraansluitingen.
Maar wat weerhoud het er dan van om die 6/8pins van je moederbord te verplaatsen naar je GPU? lijkt mij dat er gewoon een instelling zal zijn in de bios die je mobo op pci-e 3.0 zal zetten en dus niet meer als 75w door je pci-e slot zal laten lopen. En de rest direct uit de voeding trekt via de 6/8pins zoals nu het geval is.
Anoniem: 334725 @loki50422 augustus 2016 10:14
Dat is niet nodig omdat een GPU zelf bepaalt hoeveel hij trekt uit het moederbord. Als het moederbord geen pcie 4 ondersteunt gaat de kaart op pcie 3 werken(of niet omdat hij dan niet genoeg stroom krijgt)
Voor zover ik nu begrijp wordt de voornaamste verandering dat ze nu PAM4 in plaats van PAM2 over de signaallijnen gaan gebruiken. Dus in plaatst van alleen '0' en '1 nu '0', '0.33', '0.66' en '1'. Hierdoor kan je twee keer zoveel data over de lijnen krijgen.
Aangezien 0 en 1 ook in de verzameling [0, 0.33, 0.66, 1] zitten, verwacht ik backwards compatibility.
Dacht dat het 00, 01, 11, 10 was en niet 0, 0.33, 0.66 en 1. De opmerking dat 0 en 1 ook in die verzameling zit gaat dus niet op.

Wat ik begrijp uit wat artikelen is overigens dat backwards compatibility mogelijk moet zijn.
Nee, MeMoRy heeft gelijk. PAM4 is pulse amplitude modulation, dus de pulshoogte heeft 4 verschillende waardes: 0%, 33%, 67% en 100%. Daarmee kun je dus 2 bits oversturen, oftewel 00 tot 11.

Voor de backwards compatibility stuur je tijdens de setup dus 01 en 10 over, en kijk je of de andere kant dat snapt. Snapt de andere kant alleen 00 en 11, dan is dat dus de oude PCIe 3.0 en moet je elke byte dus als 8 in plaats van 4 pulsen verzenden.
oftewel 00 tot 11.
00 tot en met 11. Anders kom je toch net iets tekort. ;) :P
Ik denk dat de training iets anders zou zijn. Want de oudere borden werken met een simpele threshold detectie op ~50%. 01=33% en 10=66% zitten daar onder een boven, dus zullen gedetecteerd worden, zij het waarschijnlijk met een hoge error rate.
De training van PCIe is sowieso best complex, al vanaf versie 1
Ik heb het even nagezocht. PCI-e heeft een TX spec van 800 mV verschil tussen 0 en 1, maar een RX spec van tenminste 175 mV. De threshold is dus niet de 50% die je aanneemt; een signaal wat op 400mV binnenkomt is foutief.

En daarmee zie je ook hoe je 4 bits kunt verzenden: Als het verschil tussen 00 en 11 800 mV wordt, dan kun je op 233 en 467 mV ook nivo's 01 en 10 kwijt, en dat zijn stappen van meer dan 175 mV. Zelfs oude receivers kunnen nivo's 10 en 01 uit elkaar houden, in de afwezigheid van ruis.
PCI-e is van 1.0 tem 3.0 backwards compatible geweest, ik zie niet in waarom ze daar van zouden afstappen: de formfactor is helemaal niet de beperkende factor.
Dat een PCI 4.0 misschien straks 300Watt of meer kan leveren is dat dan totaal over alle PCI Slots gerekend of per Slots ?
Per slot. Ze gaan nu toch ook uit van 75w per slot en niet over alle sloten.
Lijkt me niet, met 4 videokaarten kan ik dus 1200w aan stroom (excl cpu) door het moederbord heen trekken ? :+
tja, we zullen zien. Er zullen vast MB's komen die het kunnen. waarom niet? Het is alleen maar stroom. Goede baantjes en verbindingen aanleggen, verder niets.
Tja, voor 50A zou je toch echt een baan van 8,6cm breed moeten maken...
http://www.4pcb.com/trace-width-calculator.html
je kunt er ook een hele layer voor pakken.
tja, we zullen zien. Er zullen vast MB's komen die het kunnen. waarom niet? Het is alleen maar stroom. Goede baantjes en verbindingen aanleggen, verder niets.
"Het is alleen maar stroom"
1200w is niet niks, dat kan niet met een "Baantje" .
Met mijn 2 "oude" R9 295x2 is het al een uitdaging een goede voeding te vinden.
Laat staan als je er 200w meer door heen gaat trekken.
Het is zeker niet niks, maar het blijft stroom.
En banen of baantjes, ach, het is maar wat je referentiepunt is :)

Misschien begrijp ik je verkeerd, maar vergelijk je nu een voeding die niet genoeg kan leveren met banen waar stroom doorheen gaat?
Ik snap wat je bedoeld, we hebben alle 2 alleen er een ander beeld van ;)
Misschien begrijp ik je verkeerd, maar vergelijk je nu een voeding die niet genoeg kan leveren met banen waar stroom doorheen gaat?
Ik probeer de vergelijking te schetsen tussen "dikke" pci express kabels en "Lijntjes/banen/etc" op het moederbord. Die "dikke" pci express kabels werden al iets warm bij het renderen van die 2 R9 295x2, ik kan me niet voorstellen dat het goed gaat komen als dat door het moederbord heen gaat.
je kunt hele brede banen maken op je MB, of je pakt zelfs een hele layer
En waar kan dan de warmte naar toe die daar van af komt ?
Laat staan dat het allemaal op een extended atx moederbord past.

Ben benieuwd wat het nou uiteindelijk word met 4.0 :)
welke warmte? Stroom alleen genereerd geen warmte. Stroom door weerstand genereerd warmte. ik neem aan dat zo'n koperen laag niet veel weerstand heeft.

En het past zelfs op een mITX board. Dan heb je ook maar 1 PCIe sleuf.

Maar, euh, ze zullen er vast over nagedacht hebben ;)
Zo'n koperen laag heeft ook weinig weerstand. Maar als je er 50A doorheen jaagt dan ga je het echt wel merken.
ligt aan de dikte van de laag ;)
Ja dat is wat ze willen. ja 300w over alle sloten verdeelt over 4 sloten kom je weer op 75w wat we nu hebben. Dus schieten we er niets mee op.
75W is alleen voor x16 lane videokaarten en alleen na 'onderhandeling'. Anders is het 25W voor full-height kaarten en 10W voor half-height.

https://en.m.wikipedia.org/wiki/PCI_Express
Mij lijkt dat de stroomtoevoer verdeeld wordt over meerdere sloten. De PCIe sloten kunnen het in ieder geval aan. Of de moederbord het aan kan zal hoogstwaarschijnlijk per moederbord afhankelijk zijn. Er zijn maar weinig situaties waar je het hele bord vol gooit met extreem verbruikende insteekkaarten zoals videokaarten, dus weinig reden voor de meeste moederborden om dat standaard te ondersteunen. Waarschijnlijk kom je dan al aansluitingen voor de stroomtoevoer te kort. Persoonlijk verwacht ik dat de meeste goede moederborden dan tot 2x300 standaard zullen ondersteunen, zodat een systeem met 2 krachtige videokaarten (2x een Titan X bijvoorbeeld) en een dikke voeding al ingedekt zijn. Ben je extremer van plan dan zal je een moederbord moeten nemen die veel aan kan, maar besteed je zoveel geld aan videokaarten dan is een dure moederbord ook logisch.
Zou wel handig zijn.
Iemand een idee wanneer dit terug te vinden is op onze moederbordjes?
Geeft dit niet meer kans op defecte moederborden ivm stroompieken.
http://media.bestofmicro.com/0/3/605235/gallery/01_w_600.png

Volgens deze roadmap ergens in 2017. Dit zal dan ook met op zijn vroegst cannonlake serie zijn van Intel.

Ligt er helemaal aan hoe ze het gaan regelen. Als ze gewoon 6/8 draadjes "extra" door het mobo laten lopen van goede kwaliteit is er niets aan de hand. Het loopt nu ook door 6/8 draadjes. Gaan ze 300w door 1 draadje laten lopen kan het problematisch worden. Maar dan hebben reviewers weer een extra iets om te reviewen.
dat extra iets was al een issue met de 480 van AMD. die trok veel te veel uit de PCI-E en sloopt moderborden.
Heb je ook een bron van je beweringen? Want tot nu toe heb ik dat nog niet gehoord.

En de hele reden dat je 480 eventueel je moederboard sloopt is omdat pci-e 3.0 daar niet op berekent is. Dat wil niet zeggen dat de nieuwe 4.0 dat niet kan. Een budget Ikea stoel is bv ook berekent op 150 kilo draagvermogen. Dat wil niet zeggen de Ikea stoel van 150 euro ook maar max 150 aan kan..
Er zijn op reddit diverse berichten van dode moederborden. Zonder uitzondering allemaal budgetborden mar dat is juist de markt waar amd op richt. En op zich is het niet raar als je 20~30% over de limiet gaat op een budgetbord dat er dan wel iets plof zegt.
Als jij met 130kg op een stoel gaat zitten die is berekend op 100 zal je de pootjes ook wel zien doorbuigen. En na een poosje zit je gewoon op de grond.

[Reactie gewijzigd door flippy op 22 juli 2024 19:26]

Die dode borden kunnen ook gewoon netjes binnen spec overleden zijn. Wat ik me herinner van het hele 480-stroom-debacle was dat Ome Tom met een high-speed oscilloscoop ging kijken naar de maximale belasting, en toen uitkwam op een max van 150 W, en een gemiddelde van 82 W. Die 150 W is maar gedurende 1 frame gemeten, dus dat is geen (grote) bedreiging voor je mobo, zoals ze zelf ook zeggen.

Inmiddels heeft AMD zelf al een update uitgebracht die je stroomverbruik wat omlaag brengt, dus het probleem zou niet meer mogen voorkomen.
Dit idd. en op reddit zijn er van zowel groen als rood fanboys die alles opblazen.(ik ben beetje amd fanboy) Er zijn nog meerdere kaarten die precies dezelfde 'issues' hadden of nog steeds hebben, daar maakte niemand zich zo druk om.

Volgensmij alleen bij moederborden goedkope merk(loze) moederborden van meer dan 10 jaar oud dat je geringe kans hebt op pech. In die systemen lijkt het me sowieso niet logisch om nog een 480 te gaan plaatsen omdat ik verwacht dat die sockets ongetwijfeld de 480 keihard bottle necken. Maar dat is dus nu sowieso verholpen.
Hoho, jij geeft AMD de schuld, je kan het ook anders zien. Stel je koopt een moederbord van 7 tientjes, verwacht je dan top kwaliteit? Nee.

Wanneer er dus een lange tijd flinke druk op de lijntjes staat kunnen die springen als het soepkwaliteit is.
Maar als er afspraken zijn gemaakt om 75W te ondersteunen. Dan houden die mobo zich netjes aan de afspraken. Maar AMD zelf is buiten de 75W afspraken gegaan. Daar kan je mobo fabrikanten toch niet de schuld van geven?

En uiteraard zijn budget planken het eerst die kapot gaan. Alleen had AMD op safe moeten spelen en er een 6p stekker bij moeten doen. En de rx 470 zonder moeten geven,
jazeker geef ik amd de schuld, die breken de specificaties, niet het moederbord.

ook voor 7 tientjes verwacht ik dat het moderbord de specs kan leveren die op papier staan, als ik dan ineens een kaart gebruikt die dat met 30% overstrijd kan je natuurlijk niet het moederbord de schuld geven.

[Reactie gewijzigd door flippy op 22 juli 2024 19:26]

Plekjes doen niet zo heel veel(binnen limieten natuurlijk, bliksem is ook een soort piek) . Het gaat vooral om de gemiddelde stroom die over een lijn gaat. De weerstand van de traces moet dan zodanig laag zijn dat de kaart het merendeel van de energie opneemt. Dat doe je door de traces dikker/breder te maken en dat zorgt er ook voor dat de warmtecapaciteit veel hoger word wat meer stroom aankan.

Nadeel? Moederbord gebruikt meer ruimte voor deze power traces wat er voor zorgt dat er minder spul op je pcb kan. Meer gaat het niet kosten(pci-e slot misschien iets)
Op zich wel, maar dan ben ik wel benieuwd of alle moederborden nog alle grafische kaarten kunnen ondersteunen. Als wel, dan wordt het waarschijnlijk lastiger om goedkopere borden te fabriceren (omdat elk bord wel die aansluitingen moet hebben en 300+ watt veilig over het bord moet kunnen leiden). Als niet, dan heb je minder upgrade mogelijkheden en moet je ineens ook je mobo upgraden als je besluit toch een dikkere GPU te willen.
Ook vraag ik me af of je ook per se alle connectors op het moederbord aan moet sluiten en of dat straks betekent dat je geen voeding meer kunt gebruiken die niet zoveel connectors heeft (omdat je toch maar een zuinig kaartje hebt en dus geen dikke PSU nodig).
Zou wel handig zijn.
Iemand een idee wanneer dit terug te vinden is op onze moederbordjes?
Geeft dit niet meer kans op defecte moederborden ivm stroompieken.
Handig? Nou lijkt mij totaal niet.. Ik wil niet permanent 6 kabels aan mn mobo te hoeven hangen. Zeker niet als ik er helemaal geen gebruik van maak ( geen dedicated graka b.v. ) Ik plug de kabels liever in naar behoefte.. en dan gewoon op mn graka..
Het zou toch kunnen dat je die alleen moet aansluiten als je een extra grafische kaart gaat gebruiken.
Hopelijk worden er tussenstukjes meegeleverd bij nieuwe moederborden.
Anders ben je verplicht om een nieuwe voeding te kopen.
Dit zet een eerste stap in het opvullen van de ruimte die benodigde is om de snelheid van 3D Xpoint-geheugen (volgend jaar eerste producten) te benutten:

16 lanes * 16 GT/s * 8/10 / 8 = 25,6 GB/s

Dat is ongeveer 35x de snelheid van SATA-600.

Maar de 'belofte' van 3D Xpoint is '1000x' de snelheid. Laten we nu eens voor de voorzichtigheid 100x nemen, dan hebben we nóg een generatie verder Pci-express nodig om de snelheid van dat geheugen te kunnen benutten.

Ik blijf me verbazen over hoe groot de sprong in snelheid van geheugen is die door Intel en Micron is bereikt. Dat gaat jaren duren eer de rest van de PC mee gaat in die snelheid.

[Reactie gewijzigd door paknaald op 22 juli 2024 19:26]

Er is bandbreedte en er is latency... XPoint en soortgenoten beweren de latency te verlagen, niet de bandbreedte te verhogen...
Xpoint doet beide.
De 1000x gaat over de write durability, de performance zou 4x hoger liggen volgens de (mogelijk niet geheel onafhankelijke) beweringen van Intel&Co.

Voor zover ik weet is 3D-Xpoint geheugen een vervanging van normaal DIMM geheugen.
Het is nog maar de vraag of je controller/bridge met 25,6GB/s data daar vandaan kan halen want die zit er nog tussen in.

https://en.wikipedia.org/wiki/3D_XPoint
http://wccftech.com/intel...crease-conventional-ssds/
ik hoop dat ze dan wel rekening houden met de lagen van het bord, zoveel power zal meer slijtage opleveren. Een voeding is gemakkelijker te vervangen dan een moederbord.
Slijtage alleen door stroom? Dan heb je een slecht moederbord gemaakt. Als je alles voldoende dimensioneerd is het geen enkel probleem.
Dat is zijn punt toch ook? Hij heeft het echter over lagen (met koperbaantjes), en jij over dimensies...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:26]

Hij heeft het over meer slijtage, er is dus nu al slijtage? Er is helemaal geen slijtage want ze ontwerpen het natuurlijk zo dat het kan. Als je door bestaande moederborden 300watt jaagt ipv 75 watt. Ja, dan heb je slijtage. Maar dat doe je niet. En bij moederborden die dit gaan ondersteunen zullen ze daar vast wel over nagedacht hebben.

Met alles goed dimensioneren bedoel ik dus de afmetingen van de koperbanen. Als je die groot genoeg maakt heb je nauwelijks weerstand dus nauwelijks warmte ontwikkeling, dus geen slijtage waarvan de boel kapot gaat.
Maar dat zegt hij toch ook :P Hij wil dus ook dat er genoeg 'bandbreedte' is voor de stroom om geen slijtage te hebben, en jij zegt precies dat :P
Bij slijtage heb je het over slijten. Het dunner worden van baantjes, etc.
Zelfs als koper warm wordt slijt het niet.
Alleen bij oververhitting zal koper eventueel door kunnen branden.
En dat kan je amper slijtage noemen.
Het is gewoon het verkeerde woord.
Koper slijt zeker als je er hoge stromen doorheen jaagt, ook al wordt het niet te warm.

https://en.wikipedia.org/wiki/Electromigration

Kortgezegd botsen langskomende elektronen met de koperatomen in het draadje en dat gaat een keer in de zoveel tijd een keer mis waardoor het hele atoom verschuift. Meer stroom betekent meer elektronen en dat betekent meer verschoven atomen, tot je draadje op een bepaald moment kapot gaat.

Dit is een van de redenen dat chips niet het eeuwige leven hebben. Nu hebben we het hier over powerlanes en ik weet niet hoe relevant het in dat geval is, maar slijten zonder oververhitting gebeurt dus zeker wel.
ja joh. je weet toch. al die elektronen die langsracen, daar slijten de paden van. Zeker in de bochten, als ze de weg proberen af te snijden: daar rijden ze de hele berm aan gort :Y)

Maar idd, juiste dimensionering lost alles op. Wel een uitdaging om alles passen te krijgen op hetzelfde formaat PCB.
En dan hebben we het nog niet eens over de nieuwe uitdaging van het layouten van de PCIe4 lanes. Gezien de PAM4 is het allemaal nog ruisgevoeliger...
Denk dat jij eerder je moederbord vervangt vanwege een nieuwe CPU dan dat jij je moederbord moet vervangen omdat die kapot is vanwege het extra stroom trekken..
Dus eigenlijk wordt gewoon de stroomafsluiting verplaatst. Waar je het eerst direct op de videokaart aansloot, sluit je het nu op het moederbord aan. Daar zijn er vervolgens directe verbindingen die het alsnog op de juiste manier bij de videokaart krijgen.
kunnen ze beter gewoon een 2e 20 pins aansluiting toevoegen die alle power geeft voor GPU/CPU
dat is dan ook gelijk weer ruimte besparend omdat ze anders gewoon die kleine pluggen ergens neer-kwakken waar het voor een gamer/modder ongemakkelijk geplaatst is vanwege airflow
https://www.youtube.com/watch?v=YDCMMf-_ASE

tl;dr
Kabel management maakt voor de temps niets uit, zelfs niet in de kleinste kastjes.

[Reactie gewijzigd door acst op 22 juli 2024 19:26]

kan het nu niet kijken heb nu maar 512kb/s internet (vakantie)
Komt er op neer dat het voor temps niet uit maakt.
Zolang maar niet 4 dozen van je waterbloks er in stopt. Een t-schirt een kerst muts en de doos voor cpu koeler er in stopt.

Dus kabel management is voor de looks. Maar niet voor de temps.
Precies wat ik ook dacht. In zijn huidige vorm lijkt het mij vooral een verplaatsing van het probleem. Gaan we ooit naar een uitgebreidere connector op het moederboard, dan zie ik het voordeel misschien wel, want dan reduceer je het naar 1 kabel naar het moederboard, maar dan met meer adertjes. Zoals de oplossing er nu uitziet lopen er gewoon hetzelfde aantal kabels door mijn kast, zo niet meer (want: hoeveel moet je er aansluiten om te zorgen dat je zeker weet dat je MB genoeg stroom heeft? Je wilt natuurlijk niet te weinig geven...).
Is het niet dodelijk om 300 watt (aan warmte) extra door je moederbord heen te blazen , dan werk ik persoonlijk de kabel wel weg :)
Je jaagt dan ook geen warmte door het bord maar gewoon stroom.... Pas wanneer die gebruikt wordt om berekeningen uit te voeren wordt het omgezet in warmte. Dat is nogsteeds gewoon in de GPU.

Ik ben het met je eens dat het erg twijfelachtig is deze stroom gewoon door het moederbord te laten lopen, waar het eigenlijk niets doet. Ik zie geen enkele toegevoegde waarde aan het verplaatsen van de 6/8 pins connectoren naar het moederbord. Het resultaat is dat de voedingen nogsteeds dezelfde berg aansluitingen moeten hebben, de bekabeling nogsteeds een zootje is maar het nu op het moederbord aangesloten wordt (wat hierdoor weer een stuk ingewikkelder en dus duurder wordt) in plaats van de grafische kaart.
Wel kosten, geen baten, dus verspilling.
Het is nu lastig in VGA kaart design dat er stroom input van twee kanten verwerkt moet worden, een beetje uit de poort en de rest uit de stekker: het is goed dat er nu een keuze voor het een of het ander gemaakt wordt, al had het wat mij betreft ook alle stroom uit de stekker en alleen data naar de poort mogen zijn..
Lastig is inderdaad een verkeerd woord, want er zijn geen kaartproducenten die er moeite mee hebben. Nodeloos omslachtig, houtje-touwtjeoplossing of permanente workaround zijn wellicht betere termen.
want er zijn geen kaartproducenten die er moeite mee hebben.
AMD had er toch wel degelijk een probleempje mee. Gelukkig met software op te lossen, maar een enkele bron maakt het wel makkelijker.
Geen idee of het waar is, maar ik zou juist denken dat dat het ontwerp eenvoudiger maakt. Je wilt de energievoorziening meer verspreid hebben zodat er minder concentratie van stroom op de kaart is, waardoor er minder warmte gegenereerd wordt. Doordat er een deel stroom vanaf het moederbord en een deel vanaf de PCI-e power connectors komt heb je dat vanzelf al. Dan kun je er met de plaatsing van de componenten rekening mee houden zodat ze bij beide stroombronnen gecontentreerd zijn.
Ben het niet met je eens.

Het ziet er mooier uit. Zolang ze alles maar bij elkaar houden. Gewoon boven/onder de 24pins aansluiting op je moederbord.(en dan direct achter je kast weg werken) En ja ik ben er 1 die het gelijk zou kopen als ik die GPU kabels op het mobo kon krijgen.
Hoe meer ze alles bij elkaar houden, hoe ingewikkelder het moederbord wordt.

De extra aansluitingen voor stroom voor de GPU zullen zo dicht mogelijk bij de PCI-e sloten geplaatst moeten worden. Zo niet dan betekend dat extra banen op het moederbord. En als die extra banen enkele honderden watts moeten vervoeren zijn dat ook geen simpele, dunne baantjes.
Waarschijnlijk zal er dus een extra laag (of zelfs meerdere) aan het bord toegevoegd moeten worden. Kosten: In de tientjes.

Ofwel: Ben je bereid om ieder bord wat PCIe-4 ondersteund een paar tientjes duurder te laten worden? Wetende dat borden op dit moment vanaf een paar tientjes te koop zijn betekend dat een prijsverhoging van tientallen procenten. Alleen maar om 2 kabeltjes weg te werken...... Daar zijn eenvoudigere en goedkopere oplossingen voor.
Het is momenteel alleen maar gissen of het duurder wordt of zoja hoeveel. En de moederborden die ik koop zijn al tussen de 150-200 euro en daar kunnen ze vast wel een paar baantje bij plakken.
Huh...stroom door een moederbord heen jagen?....Volgens mij werkt het iets anders...
Het moederbord biedt een spanning aan (U of Volt). De kaart gebruikt een bepaalde stroom (I of Ampere). Door de stroom die loopt wordt het warm (U*I)

Je kunt dus niet een bepaalde stroom aanbieden, maar je biedt spanning aan
Het verbruik van de kaart bepaalt hoeveel stroom er gaat lopen..

[Reactie gewijzigd door veltnet op 22 juli 2024 19:26]

Ofwel: Zodra de kaart er om vraagt zal de stroom door het moederbord lopen.
Wat is daar anders aan dan wat ik zei?

En nog belangrijker: Dat betekend nogsteeds dat het moederbord in staat moet zijn om die paar honderd watt te leveren en dus in staat moet zijn die te vervoeren.....
Kan wel hoor,het bestaat. Een spanningsbron met een enorm hoge interne weerstand kan je gebruiken als stroombron. Omdat de Rload de Rtotaal dan nauwelijks meer beinvloed blijft I=U/R vrijwel constant.
Excuus, typefout het is vermogen is inderdaad U*I ipv I*R
Warmte ontaat alleen als er weerstand is. Een heel klein beetje weerstand is er altijd wel, met een klein beetje warmte tot gevolg. Je krijgt alleen teveel warmte als je de koperbanen te smal en/of slechte verbindingen maakt. Dus genoeg brede koperbanen en goede verbindingen, dan heb je nergens last van. Ik bedoel: die stroom gaat ook door het PCB van je GPU. Dus het kan allemaal.
Die warmte komt niet vrij in je moederbord, maar in de insteekkaart. Het moederbord vervangt alleen het koperdraadje.
Die 300 watt aan warmte zal dan nog altijd door de videokaart gemaakt worden, niet door de kabel. Of een kabel dus geïntegreerd is in het moederbord of los hangt zal daar vrijwel geen verschil in geven. Er is altijd wel iets aan warmte dat ontstaat door inefficiëntie van de stroomdoorvoer, maar dat is niks vergeleken de warmte die de videokaart zal maken, ook zal daar vast en zeker rekening mee gehouden zijn door de interne verbindingen dik genoeg te maken en de af te leggen afstand zo klein mogelijk te houden. Niks om je zorgen om te maken.
Leuk dat je dan geen extra kabel(s) aan de grafische kaart hoeft aan te sluiten, maar de eisen van een moederbord aan een voeding wordt dan aanzienlijk hoger zonder dat je het daadwerkelijk hoeft te gebruiken.
Natuurlijk kan het allemaal netjes geregeld worden hard-en software matig, zodat een voeding met minder vermogen gebruikt kan worden als de vermogens eisen van de pci-express kaarten niet alles nodig hebben. Maar mensen zijn geneigd om naar eisen van alle componenten te kijken en dat dan op te tellen. Dus dat je een systeem hebt die max 350 watt nodig heeft, een voeding van 800+ watt krijgt. Terwijl een voeding van 450 watt zou volstaan.
Waarom wordt de eis hoger? De CPU voeding die nu door je moederbord loopt is waarschijnlijk ook met een maximum van hebikjoudaar en mensen blijven hun voeding selecteren op de cpu, niet op het moederbord.

PCIe 4.0 is een doorgeefluik, geen component.

[Reactie gewijzigd door Anoniem: 524287 op 22 juli 2024 19:26]

Klopt wat je zegt, maar de voedingen die tegenwoordig voor een "kaal" systeem worden gebruikt kunnen het vermogen van de max pci-express 3.0 wel leveren. Als het pci-express 4.0 veel meer kunnen eisen, gaan fabrikanten zichzelf in dekken door hogere vermogens eisen aan hun bordjes te plakken. Voor 2 pci-express 4.0 sloten wordt dat dan 6*75=450 watt extra.
Ik zeg dus niet dat het nodig is en een beetje verstandige systeem bouwer weet er wel raad mee, maar fabrikanten dekken zich graag in. Kijk maar naar de voedings eisen die de grafische kaarten hebben. Daarom denk ik dat het kan gebeuren.
Prima toch? Ver van de max van een voeding afzitten heeft toch een hogere rendement? En wordt minder warm?
Juist niet. Een voeding behaalt zijn opgegeven rendement geloof ik rond de 80% belasting en hoger.
Volgens de 80+ certificaten hebben de meeste voedingen een parabolische rendementen waarbij het hoogte punt tussen de 50 en 80% belasting zit (verschilt per voeding). Dus als je in verhouding een lagere belasting hebt, is de efficiëntie gelijk of minder. Hierdoor heb je een gelijk of meer warmte productie. Dus is duurder voor het gebruik en duurder voor de aanschaf.

Op dit item kan niet meer gereageerd worden.