De EU legt al lang verplichten op, in eerste instantie op tranformatoren zowel extern en intern waar een PSU onder valt. Gaat met name over sluimerverbruik en te behalen effecientie.
Zie bijvoorbeeld:
https://ec.europa.eu/info...xternal-power-supplies_en
Maar ook specefiek inzake computer bestaat er al lang EU regelgeving
https://eur-lex.europa.eu...T/?uri=CELEX%3A32013R0617
Om specifiek naar je vraag inzake regelgeving inzake grafische kaarten te gaan zal ik even quoten
(20)
‘Discrete Graphics Card’ (dGfx) means a discrete internal component containing one or more graphics processing units (GPUs) with a local memory controller interface and local graphics-specific memory and falling into one of the following categories:
(g)
G7 (FB_BW > 128 (with FB Data Width ≥ 192-bit));
‘Frame buffer bandwidth’ (FB _BW) means the amount of data that is processed per second by all GPUs on a dGfx, which is calculated using the following formula:
frame buffer bandwith = (data rate x data width) / (8 * 1000)
Wat neerkomt dat een grafische kaart in de zwaarste categorie volgens EU regelgeving 122 kWH per jaar mag verbruiken indien het 1 kaart betreft. Iedere additionele kaart in G7 categorie mag maximaal 72 kWH per jaar verbruiken. (kijk naar de tabel vanaf 2016, andere tabel was tussen 2013 & 2016)
Uiteraard is er een probleem, dat zijn limieten waar pakweg een Dell zich aan moet houden, consumenten die zelf bouwen hebben geen flauw idee dat die regelgeving bestaat. En voor iemand "en wat met consoles" roept, ook daar bestaat die regelgeving al lang. En ja ook servers hebben regelgeving.
Even terug naar de praktijk, het aantal consumenten dat daadwerkelijk over een desktop beschikt is klein, het aantal daarvan dat over discrete graphics beschikt is nog kleiner & het aantal dat over een GPU beschikt die 400+ Watt piekvermogen vraagt nog veel kleiner.
Het idle is veel belangerijker omdat computers bijna continu draaien maar zelden vol belast worden en daar word gigantisch veel winst op geboekt, niet zozeer vanuit regelgeving maar omdat de meerderheid met laptops rondlopen welke op batterijen werken. Sluim verbruik is nog belangerijker omdat dit over 24/24 7/7 gaat alsook over alle toestellen dus ook je oplader van je gsm.
Wat betreft een aansluiting die 600 Watt kan leveren, liever 1 aansluiting dan 2/3 aansluitingen. Het is niet omdat dit soort vermogen geleverd kan worden dat iedereen een 500 Watt GPU gaat kopen. Maar nu komt je PSU wel met meerdere aansluitingen, meestal dan ook nog voor minstens 2 GPU's maar in de praktijk gebruikt niemand ze allemaal (uitzondering daar gelaten), dat is gewoon verspilling van materialen wat geld kost alsook onnodige belasting van milieu.
Daarnaast ook niet te vergeten dat GPU kaarten met USB-C uitgangen bestaan waar met USB PD spec 100 Watt geleverd kan worden volgens de huidige standaard of 240 Watt in de nieuwe standaard (wat niet wilt zeggen dat je effectief dat vermogen moet opvragen). Dat kan zowel voor beeldschermen als VR headsets dienen maar dan moet de GPU wel die power kunnen opvragen voor het ze kan doorgeven. Dat zou op zich geen slechte ontwikkeling zijn, de PSU van een desktop is veel effecienter dan van een beeldscherm alsook kan later de PSU van het beeldscherm eventueel achterwege gelaten worden.
Echter met USB-C in het achterhoofd blijft er geen "extra power" voor de GPU over, dat is ook logisch want je moet het ook nog gekoeld krijgen.
Wat datacenters betreft, die kijken naar de verbruik per performance welke AMD/Nvidia echt wel naar een zo goed mogelijke performance per Watt duwen. Datacenters zijn een veel grotere afnemer van high end graphics dan die kleine niche groep die een 3090 rtx koopt. Ook al zijn discrete GPU's momenteel moeilijk leverbaar, het is en blijft een kleine markt die daadwerkelijk dat soort producten koopt. Vraag maar na in een winkelstraat wie er allemaal een dikke GPU heeft, de absolute meerderheid zal je aankijken alsof je Chinees praat.