ASUS toont moederbord dat 250W aan videokaart kan leveren via PCIe x16-slot

ASUS heeft een moederbord getoond dat 250W kan leveren via het PCIe x16-slot. Zo kan het moederbord instapvideokaarten voorzien van elektriciteit zonder extra kabels te gebruiken. Het gaat vooralsnog om een prototype.

In een video op het Chinese platform BiliBili laat ASUS zien hoe het bedrijf een deel van het PCIe x16-slot heeft aangepast om het extra vermogen mogelijk te maken. Het gaat om het kleinste deel van het slot, aan de kant van de beeldaansluitingen. Hier heeft ASUS de 12V-pinnen dikker en breder gemaakt, waardoor de PCIe x16-aansluiting meer vermogen kan leveren, legt IT Home uit. Dat extra vermogen komt via een extra 8-pinsvoedingsaansluiting in het moederbord. Het gaat dus niet om een extra slot zoals bij het BTF-concept, maar om een aanpassing van het bestaande slot.

Met een vermogen van 250W is het concept vooral bedoeld voor low- en mid-endvideokaarten waarvoor dan geen extra voedingskabel nodig zou zijn, zoals een Nvidia RTX 5060 Ti. Die videokaarten zouden dan echter wel specifiek aangepast moeten zijn voor ASUS' concept. Het is niet duidelijk of ASUS van plan is om het systeem op de markt te brengen.

ASUS toont moederbord dat 250W kan leveren via PCIe x16-slotASUS toont moederbord dat 250W kan leveren via PCIe x16-slotASUS toont moederbord dat 250W kan leveren via PCIe x16-slot

Door Hayte Hugo

Redacteur

19-09-2025 • 21:12

69

Reacties (69)

Sorteer op:

Weergave:

Ze maken de bestaande 12V pins in het slot breder wat geen probleem geeft met bestaande kaarten omdat de pennen direct naast elkaar zitten.

Ook aan de GPU kant is de enigste aanpassingen dat de 2/3 individuele pads 1 grote pad wordt wat sommige fabrikanten al jaren lang doen en wat tot nu toe ook nooit een probleem was.

Deze oplossing lijkt dus volledig backward en forward compatibel te zijn zolang de kaart niet meer stroom trekt dan geleverd kan worden
Dit zou van mij best in de pci-e v6.x standaard mogen. :)
Die is al in januari 2022 geïntroduceerd, en 7.0 is net in juni geïntroduceerd. De volgende is 8.0 die op de planning staat voor 2028.

Het idee is me niet ongenegen, want de standaard van het slot loopt hopeloos achter qua power-delivery en lijkt bijna uitsluitend gefocust op data-throughput en signal-integrity, mogelijks bewust.

Ik vraag me af wanneer we terug interne kaarten gaan krijgen met een externe voeding zoals de voodoo 5 6000
Punt is natuurlijk wel dat het moederbord dan weer 250 watt extra moet leveren, dus gaat daar weer een kabel extra op...
Klopt en vaak waren het de moederbordfabrikanten die er op tegen waren, maar nu komt Asus er dus zélf mee, dan heb ik liever dat het optioneel in de standaard zit zodanig dat je niet afhankelijk bent van 1 vendor voor beide componenten, waardoor je meer keuzevrijheid krijgt om een cleanere case te bouwen en de losse 12VHPWR/12V-2x6 te vermijden bij minder power-hungry kaarten.
Waarom wil je die mijden?

Asus verplaatst hem nu overigen. Hij zit gewoon op de rand van je mobo zoals je in de laatste foto kunt zien.
Asus gebruikt een traditionele 8-pin die al jaren gebruikt wordt en zijn betrouwbaarheid meer dan bewezen heeft. Bovendien kan je van aan de zijkant van je moederbord veel mooier kabels wegwerken dan dat ze aan de bovenkant van je grafische kaart in een rare hoek uitsteken.
Dat maakt niet uit 12vhp connector heeft ook totaal geen issues.


Probleem is de Electronica Er voor of er tussen. Als ze bij je 8pin connector alles samen gaan solderen zonder balance Heb Je Zelfde probleem.
Eerlijk gezegd lijkt mij het idee van een externe voeding voor de video kaart helemaal niet zo'n slecht idee. De externe voeding kan dan precies afgestemd worden op de eisen van de video kaart. Ipv twee 12 volt lijnen kan er dan ook voor gekozen worden om 24 v naar de grafische kaart te sturen. De voeding van de PC kan dan eenvoudiger omdat deze dan veel minder stroom hoeft te leveren via de 12 volt lijnen.
Ik zat even met “okee, en hoe doen we dat met spanningsverschillen en aarde”, maar als je die pinnen op de kaart gewoon weg laat en alleen de datalijnen gebruikt, is het verder dus gewoon een los gevoed onderdeel wat met de PC communiceert.

Geen gek idee, zo’n externe voeding. Steek er een stevige stekker op en je kan er zo een dik vermogen naar toe jagen. Intern kan je dan af met een leuke 6-700W of mogelijk nog minder.

Je zou zelfs kunnen gaan kijken naar mogelijkheden de GPU pas - letterlijk - aan te zetten als je hem nodig hebt en voor de rest gebruik je die van je CPU.
Vooral dat laatste lijkt me een heel goed idee
Het is zeker niet onbegrijpelijk dat de focus ligt op signaalintegriteit en throughput en dat stroomvoorziening achterloopt. Sowieso wordt signaalintegriteit steeds lastiger met hogere throughput, maar als je er ook nog allemaal stroomlijnen naast hebt lopen die spontaan meer of minder stroom vervoeren (doordat de speler rondkijkt en één specifiek deel van de scène vol zit met particle effects, bijvoorbeeld), dan wordt het nóg veel lastiger. Je krijgt allemaal problemen met inductie enzo die niet meewerken. Dat is altijd wel een beetje een grote reden geweest waarom we het met een losse kabel doen.

Maar goed, lastig betekent nog niet onoverkomelijk.
De "PCI-e" standaard is verdeeld in verschillende documenten, waar iedereen het meestal over heeft is de "Base Specification" die het protocol beschrijft.

Een wijziging als dit zou dan in de "Card Electromechanical Specification" komen waar de connectors, maten van de kaarten enz. beschreven staan.
En geen smteltende kabels meer.
Het zou een mooie oplossing voor mid-range kaarten zijn, maar voor vervanging van 12VHPWR of 3x 8pin, zou ik iig een grotere voorstander zijn van EnergyEdge™ X-treme connector die in een redelijk compacte connector, die 500W per 2x (plus en min) 2x3 pinnen doet, dan zou je met een connector van 3~4cm 1000W kunnen doen.

Die zou dan wel achter de kaart vergrendeling moeten komen te zitten, maar dat zou als ze samen met hun concurrenten daar een standaard voor kunnen maken, en zouden we van al die kabels en vooral van die vreselijke 12VHPWR af kunnen zijn.
Ik zie het nut niet echt? Behalve esthetisch.. lijkt mij vragen om problemen qua hitte op een klein contact vlak.
Het BTF-concept is het een goed alternatief voor de geplaagde 12VHPWR connector. Omdat hier gebruik gemaakt wordt van een groot contact oppervlakte met (potentieel) veel klemkracht en zelfs veerkracht. Nog even los van de cosmetische bonussen. Beetje hoe het ging met de vroegere computers met een 'power backplane'. Dus dat idee doet ook nog wat goeds.

Dit concept is met de huidige PCI-E pin formaat c.q. design specs inderdaad vragen om problemen. Leuk dat ze een concept slot hebben ontwikkeld maar zo lang je de kaart zelf niet aanpast. waarbij waarschijnlijk 'backwards compatibility' in het geding komt heb je er niet zo veel aan.

ASUS gaat in zijn eentje ook niet de PCI-SIG overtuigen. Dus als ze dit concept op de markt willen brengen dan is deze niet compatible met de PCI-E standaard.
Wat ik tot nu toe gezien heb van het BTF concept is dat de 12VHPWR naar de achterkant van het moederbord wordt verplaatst. Het is dus een misvatting dat dit een goed alternatief is.
De situatie wordt op deze manier alleen erger, want met BTF heb je dus te maken met een extra overgang van PCB naar PCB + 12VHPWR connector erbij.
Het probleem van af fikkende connectoren is is die te lage spanning van 12V voor enorme wattages.

Waar enorme stromen moet verdelen over veel kabels. Tijd voor 48V gevoede standaard voor g-kaarten.
Ik ook niet. Sterker nog, men creëert hiermee een extra 'point of failure' door de connector van de GPU naar het moederbord te verplaatsen om het dan via het PCIe slot te kunnen voeden.
Met een BTF videokaart geldt hetzelfde overigens, omdat de PCIE 8-pin of 12VHPWR connector dan aan de achterkant van het moederbord is verplaatst / verborgen.

Vanuit een technisch oogpunt is BTF gewoon een slechte uitvinding.
Ik kan mij voorstellen dat men het mooi vind om geen kabels in zicht te hebben, maar men zou er ook goed aan doen om eens hard achter de oren te krabben of dit wel een verstandige weg is i.v.m. de veiligheid.
Ik neem aan dat je met 'een extra point of failure' refereert naar op het moederbord.

Qua technisch design lijkt mij een BTF of via een het PCIe slot juist beter.

Ik heb vaak zat cases gehad en zien langskomen waar de stroomkabels naar de GPU onder mechanische stress werden gezet door het zijpaneel.

Er bestaan uiteraard GPUs waar de stroomkabels er onder een andere hoek in komen, maar ik zou liever het op deze manier oplossen.
Inderdaad, maar dat is het ook nou juist. Op deze manier verplaats je het probleem alleen maar.
En door de connector onderin of aan de achterkant te verplaatsen is de kans op het teveel verbuigen van de kabels nog groter. Heel waarschijnlijk gaat men proberen om de stekker aan de onderkant (te) strak te buigen om het door de doorvoer op de bodem te krijgen..tja wat is dan beter?

Bovendien is het niet wenselijk om veel stroom door een relatief lange afstand door het PCB te laten lopen.
Het is lastig om voldoende dwarsdoorsnede oppervlak van de koperbanen te krijgen in mm2 = extra warmte, extra spanningsval.
En die extra dikke koperbanen in het moederbord gaat het bord ook duurder maken.
Het lijkt me vooral ruk dat je ook aan een compatible gpu vast zit
? Waarom zou je niet gewoon alsnog een standaard dGPU kunnen gebruiken?
Omdat op standaard kaarten de contactpunten in het pcie slot en pcb met de lijnen niet zijn ontworpen daarvoor. Die hebben allemaal een eigen functie en daar zit bij de powerdelivery een maximum van 75 watt aan.
en dat kan dan toch prima werken, zolang die kaart niet meer dan 75 watt uit die zelfde pinnen vraagt?

zie ook reactie hier Switching Power in 'ASUS toont moederbord dat 250W aan videokaart kan leveren via PCIe x16-slot'

[Reactie gewijzigd door JWL92 op 20 september 2025 02:00]

Dat zijn maar weinig kaarten die aan 75 watt genoeg hebben.
En dan plug je dus gewoon die extra 6 of 8 pins in die die kaart vereist die uit je voeding komt?!
Alle huidige kaarten hebben genoeg aan 75W via het PCIe slot aangezien dat het maximum is wat dat slot kan leveren.....
gelukkig kost een beetje high end bord gewoon 1k nu
Het is geen standaard het lokt je naar sub lijn asus mobo en asus slot compatible g-kaart. En daarmee enorme reductiekeuze in g-kaarten en ook mobo’s.
Eigenlijk heb ik nooit begrepen. Waarom er geen kabels via een gootje in de cooler ( voorkant, zij kant, ging met een los koppelstukje op het einde van kabel van max 8 cm. Dan kan je met minimaal zicht de gaten. Door naar de achterkant. En koppel daar de psu op koppelstuk.
Dat de kabels smelten bij videokaarten hebben we al eerder gezien maar nog niet bij moederborden.
Voornamelijk esthetisch ja, ook minder kabels te ontkoppelen/koppelen bij vervanging GPU, mits je bij low-power GPU's blijft.

Mag aannemen dat ze dit systeem hebben getest tot tenminste 250w (hopelijk ook wat overhead).

Anders gemakkelijke garantieclaim toch? ;)
Precies, zo denk ik er ook over, want bij 250 Watt gaan hier toch aardige stromen lopen.
En je hoeft dan maar een slecht contactje te hebben en de boel wordt heet of brandt weg.

Ik ben technisch gezien geen voorstander van dit soort oplossingen.
Werkt wel hoo, maar ik ben er toch erg voorzichtig mee. Heb ndertussen al zat mobo's gezien met geblakerde connectoren...
Leuk idee, dit maakt een strak cable management een beetje gemakkelijker. Een kabel naar het moederbord gemakkelijker minder zichtbaar te maken dan een kabel naar de zijkant van een GPU. Ook bij SFF builds zou dit het verschil kunnen maken dat je een bepaalde GPU net wel nog gepropt krijg in die superkleine kast.

Maar... aangezien de GPU's zelf moeten aangepast zijn hiervoor zie ik dit geen lang leven beschoren. Een handjevol moederborden en GPU's van asus zal dit misschien krijgen en dan sterft het wellicht een stille dood wegens weinig interesse.
Als PC-bouwer zou ik dit ook niet met open armen ontvangen. Geheid dat er mensen zijn die na een jaar of twee een nieuwere/betere/andere videokaart in het systeem willen prikken. Vervolgens krijg je een mailtje of telefoontje in de strekking van: "Ik heb een nieuwe videokaart maar hij doet het niet!".

Leveranciers zullen niet op dat soort support-tickets zitten te wachten. Dat wordt dan een bijlage bij de PC of factuur met waar de consument op moet letten. Een bijlage die in veel gevallen terzijde geschoven wordt, waarna je alsnog een support ticket hebt. Een kabel in de videokaart is dan intuïtiever.
Je bedoeld het niet kunnen openen van een support ticket voor je consumenten PC met 1030/3050 zonder extra kabel en dan een 5060 Ti met 2 aansluitingen? Want dat is het probleem al jaren bestaand. En dan een nieuwe voeding kopen en er achterkomen dat de fabrikant een extra kort model ingebouwd had een en reguliere ATX voeding net niet past. Probleem van alle tijden.
Zouden er veel mensen zijn die niet zelf hun PC bouwen maar wel zelf een videokaart upgraden? Bij OEM builds heb ik dit soort fratsen mee gemaakt maar daar zou de eigenaar van de PC nooit zelf zijn kast openen.

ASUS richt zich hier eigenlijk wel op de DIY consument doordat die kabelmanagement belangrijk vinden. Als ze het in hun pre-builds stoppen zal de GPU mogelijk nooit vervangen worden. Dus of het echt een groot probleem zal zijn betwijfel ik.

Ik ben het wel eens dat een merk afhankelijke standaard meestal maar kort op de markt beschikbaar is. Als het populair is komt er een concurrerende standaard op de markt.
Wat ik bedoel: in dit geval gaat er géén kabel naar de videokaart. Bij het vervangen van de originele videokaart hoeft de eigenaar van de PC geen voedingskabel los te halen. Alleen een paar schroefjes los, kaart vervangen en een paar schroefjes vast.

Er is dus ook geen onbewust signaal dat de nieuwe videokaart wel een voedingskabel (of twee) nodig heeft. Als leverancier ben je al gauw een kwartier kwijt aan analyse, communicatie en administratie zonder dat het iets oplevert.

Als de eigenaar van de PC wel een kabel moet loshalen, is er een moment van nadenken, handleidingen opzoeken, kijken naar de kabels naar de voeding. Veel grotere kans dat het probleem zichzelf dan oplost lijkt me.
Als de eigenaar van de PC wel een kabel moet loshalen, is er een moment van nadenken, handleidingen opzoeken, kijken naar de kabels naar de voeding
want dit speelt allemaal niet bij t loshalen van de GPU zelf? :X
Maar welke leverancier levert er consumenten support? Vaak komen mensen met dit soort zaken bij de verkoper van de gekochte upgrades.
Als ze nou de stroom van het slot ernaast, onder de videokaart, zouden halen, dan zou het én strak én extra stevig zijn. Daar kan ik nu toch niets mee, want er zit een dikke videokaart boven.
Zat ik ook aan te denken, maar er moet dan minimaal ergens 500 watt door t moederbord gaan. Dat zijn hele brede traces of anders worden die gloeidraadjes
Maar... aangezien de GPU's zelf moeten aangepast zijn hiervoor zie ik dit geen lang leven beschoren. Een handjevol moederborden en GPU's van asus zal dit misschien krijgen en dan sterft het wellicht een stille dood wegens weinig interesse.
Dat is inderdaad een reëele kans helaas. Maar aangezien dit in het PCIe slot zelf zit, kan het ook zijn dat de PCIe standaard in de toekomst wordt aangepast om deze standaard gangbaarder te maken.

Al met al zal het er dus vanaf hangen hoe de industrie erop reageert. Het heeft in mijn ogen veel potentie, maar als deze standaard niet wordt vastgelegd denk ik inderdaad niet dat het een lang leven is beschoren.

En zelfs al wordt het vastgelegd, dan zal het zichzelf nog steeds moeten bewijzen. De 12VHPWR/12v-2x6 is immers ook vastgelegd als standaard, maar vanwege alle problemen is hij nog niet echt populair. Alleen Nvidia houdt er krampachtig aan vast, maar alle AMD kaarten, op de Asrock Taichi na, komen gewoon met de ouderwetse PCIe 8-pin kabels.
Coole innovatie! Maakt cable managment voor low/medium power builds een stuk makkelijker. En daar bovenop scheelt het hoeveel stroom er over de externe kabels hoeven te komen.
En daar bovenop scheelt het hoeveel stroom er over de externe kabels hoeven te komen.
Dat extra vermogen komt via een extra 8-pinsvoedingsaansluiting in het moederbord.
Nog wel, maar het opent een verder pad voor een gestandardizeerde 12V only connector die dit gelijk gaat ondersteunen. Het is begrijpelijk dat je dit niet in een keer gaat doen.
Videokaarten gebruiken al heel lang alleen 12V, die zijn het euvel niet om 12VO op de desktop te ondersteunen en één kabeltje minder voor sommige kaarten zet niet veel zoden aan de dijk. Het gaat juist om de andere hardware die we maar laten ronddobberen met 5V en 3.3V die uit de PSU moeten komen. Voor servers is 12VO al een hele tijd een standaard, maar op de desktop blijft het een kip-en-ei verhaal.

[Reactie gewijzigd door MneoreJ op 19 september 2025 21:56]

Denk dat het eerder legacy is voor diversen chips op mobo die 4 en 3,3v nodig hebben.

Meeste mobo zal er BEC die 12v naar 5v en liniaire stab dicht bij die chips geïmplementeerd zijn 3,3 of wat ever dat type chip nodig heeft.

Er zitten veel diverse utility chips op mobo die geen 5V of 3,3V zijn maar wat anders nodig hebben.

Nic en sound chips etc. Dan hangt het vanaf of hun regulator de 5V of 3,3 pakt om 1,8 met lineair regulator of 12V switching regulator pakt.
De 12VO basis connector ondersteund 216 tot 288 Watt voor het moederbord en vereist minimaal 1 extra connector voor de energievoorziening van de CPU. Dat zijn al minimaal 2 kabels.

https://edc.intel.com/content/www/xl/es/design/products-and-solutions/processors-and-chipsets/alder-lake-s/atx12vo-12v-only-desktop-power-supply-design-guide/2.11/dc-connectors/

Die standaard heeft al moeite om aan te slaan. Ze gaan geen connector maken die 750+ watt doet. Het drama van nvidia met hun 600W connector is al erg genoeg.
12VO moet je niet willen. Het is voor de consument een hele slechte ontwikkeling en voor fabrikanten een top ontwikkeling. Je maakt je product life span alleen korter door een multi functioneel product te introduceren die dus op nog meer vlakken kan falen. PSU kan je tenminste vervangen als hij de geest begeeft, moet maar 1 cap het begeven en je kan een nieuwe moederbord kopen.
PSU kan je tenminste vervangen als hij de geest begeeft, moet maar 1 cap het begeven en je kan een nieuwe moederbord kopen.
en die PSU hoef je niet te kopen? 8)7
Alle mobo hebben 12v caps die kunnen falen meer qualiteit afhankelijk van component.

De standaard mobo hebben 5v 3,3v caps erbij aan de ingang. Naast dat veel meer chips zijn die geen 3,3v of 5v gebruiken dus die 5v en 3,3 komt ook 1st regulator naar ander spanning tegen. En in zo een geval kan ipv 5v naar 1,8 bijvoorbeeld 12v naar 1,8 dat zal dan switching regulator zijn dus vierkantige SMD spoel blokjes in de buurt van de chip.
Alleen verschuif je de fail rate van je onderdelen die nu onafhankelijk van elkaar actief zijn allemaal op 1 product.

Dat je moederbord ook spanning regelt is helemaal irrelevant dat je dadelijk een 1 in all solution hebt. Als er ook maar iets faalt ben je de klos. Voor een Enterprise entity is het niet zo boeiend, die hebben wel het kapitaal om onderdelen voor garantie aan te bieden en er wat nieuws in te stoppen. Wat dan voor je gemiddelde consument?

Soms moet je het niet willen, we hebben diverse voorbeelden in de PC markt die ook geen goed idee zijn achteraf maar op papier wel. Sommige oplossingen zijn ook niet te doen voor een consument.
Ik denk dat jij het niet snapt. Die 3,3 en 5V is ouwe legacy meuk uit tijd dat utility chips 5V en 3,3V nodig hadden. In heden heb zelf hier zulke chips dat is groot deel van STM32 lijn. Flight controllers voor drones.

Die 5v is ook bekend bij mij TTL spul. ik heb in design van my 5v TTL ram select chip misbruikt met open collector uitgangen. Soort hack toegepast. Dat houd in je kan die uitgangen kortsluiten. Waar output OR effect krijgt.

Deze chip generatie van 20 a 30 jaar oud op node die 5v gebruikt 3,3V is misschien nog enigszins gangbaar. Waar sommige mobo die rail nog gebruiken.

Geen idee of realtec of nic chip 3,3 v toepassen. Maar dieshrink bepaald Vcc van chip en 3,3V en 5V is 1 van de 20+ variaties. Die oude chips konden mogelijk mee weg van voeden van af PSU. Moderne utiliteit chip niet. Dus op mobo heb je veel extra chips elk met hun eigen lokale power plane en dus dc/dc converteringen en stabilisatie in de buurt. En de 12V is power transport om die afstand psu naar mobo te overbruggen. Lokaal wil je eind spanning round trip in pcb zo kort mogelijk. Wat ook EMF requierment is.

Het maakt niet uit of je psu 12v 5 3,3 in naar 1,8V chip

Of psu 12v naar 1,8V chip gaat. Het is andere dc/dc implementatie die anders ingesteld is voor andere input voltage.

Dc/dc power management van utiliteits chips en addon features zoals sound en nic chip usb chips etc is in verhouding tot cpu en mem en pci lane routing verre van complex. En geen probleem voor mobo design team.

Mijn achtergrond is electronic en heb mij heden verdiept in DC/DC maar ook DC/CC voor Led driving. En zelf wel lang geleden F/I converter PCB en laser aansturing PCB designed dat was in 80286 tijd perk onder dos.

Ik weet dus hoe het mogelijk is dat LED driver aan CR2032 kan hangen of 3fase voeding. Ik weet chip daarvoor. In de automotive heb je ook 12V 24v LED is dan ook geen probleem.
PCIe slot kan max 75W (volgens de PCI spec). Extra pins/dikkere paden kan dat verhogen, maar .. waarom? Extra connectors werken beter, je hoeft maar een keer aansluiten.
Dus je reduceert niet het aantal benodigde kabels, maar je verplaatst ze. Sowieso ook maar afwachten op welke modellen dit komt. Je betaalt vast meer voor zowel je moederbord als voor je GPU.

Ps, mid-end is als een twee-onder-een-kap tussenwoning, dat segment bestaat niet.
"instapvideokaarten" schud hoofd..

tot aan de 2080ti / titan RTX was het voor ruim 20 jaar normaal dat het topmodel gewoon 250W trok..
en nam elke generatie de prestatie toe met zo'n 40% ZONDER de prijs en het stroomverbruik met nog meer te verhogen!

250w zou het MAXIMALE moeten zijn wat topmodellen gpu trekken.. een instapmodel zou net als nog niet zo lang geleden rond de 100-120w moeten trekken en midend rond de 150-180w

(kijk maar historisch) de meeste topmodellen vanaf de 200 series tot de 2000 series.. gebruiken 250w (een enkele keer zelfs 220/230w) en dat is inclusief de (wat toen een hele dure kaart was) titans..

de meeste middelmodellen (wat nu een x70 is) rond de 150w

en de meeste budgetmodellen (wat nu rond een x60 is) rond de 100w

[Reactie gewijzigd door DutchGamer1982 op 20 september 2025 12:59]

Ik verbaas met je mee.

Ik herinner me nog dat je op die 250W van een "midrange kaart" 2 volledige computers, incl crt schermen, kon laten draaien. Een Intel 386DX33 met shopping 8MB ram en Tseng ET4000AX of zo :)

De stroom honger is al wel langer aan de gang. Toen de ati X800 nog top end was, had je sub 100W en de toprange Nvidia Ti4800 trekt binnen spec van de AGP sloten niet meer dan 65W. Maar laatste jaren is het extreem geworden.
Zo kan het moederbord instapvideokaarten voorzien van elektriciteit zonder extra kabels te gebruiken.
Dat extra vermogen komt via een extra 8-pinsvoedingsaansluiting in het moederbord.
Mooie marketing.
Dat zijn de woorden van tweakers. Ik kan niet zien hoe asus het zegt want ik kan geen Chinees en de video werkt niet (vermoedelijk ook in het Chinees).

Ik vermoed dat men bedoeld dat de videokaart zelf geen extra kabel nodig heeft. :)
Ik vermoed dat men bedoeld dat de videokaart zelf geen extra kabel nodig heeft. :)
toch noemt Tweakers hier juist ook in de 1e zin al t moederbord.
Goed concept dat er geen kabels meer nodig is. Bij High-End helaas nog geen oplossing hiervoor.
Waren er vroeger geen 75 watt kaarten zoals de gtx 750 ti?
zeker dergelijke 60-90w kaarten bestonden in de meeste generaties ook al zou ik kaarten in dat segment meer "office gpu" noemen en de x60 de onderkant van budgetgaming.
en die onderkant zat vaak al dichterbij 100-120w..


doet niet af dat 250w heel lang is geweest (meer dan 2 decennia) wat de high end kaarten van elke generatie gebruikten.. en dat de powercreep sinds de 3000 serie compleet mesjogge is geworden... zoveel zelfs dat ze nu 250w "instap" noemen...,


Om te kunnen reageren moet je ingelogd zijn