Gerucht: Nvidia GeForce RTX 50- en AMD Radeon RX 8000-gpu's krijgen GDDR7-vram

Nvidia's komende RTX 50-videokaarten en AMD's RDNA 4-tegenhangers krijgen mogelijk GDDR7-geheugen. Dat meldt Chinese techwebsite MyDrivers. Onlangs kondigde Cadence al aan dat het verificatietools voor GDDR7-geheugen heeft uitgebracht.

MyDrivers schrijft dat GDDR7-vram zijn debuut maakt met Nvidia's GeForce RTX 50-serie, merkt ook TechPowerUp op. Die gpu's zouden op zijn vroegst tegen het einde van 2024 verschijnen, claimt de Chinese techwebsite. AMD's concurrerende Radeon RX 8000-serie zou mogelijk ook GDDR7-geheugen bieden. Daarmee zouden de videokaarten geheugenbandbreedtes van 36Gbit/s per pin bieden, wat met een 256bit-geheugenbus neerkomt op 1,15TB/s.

De GDDR7-specificatie is nog niet formeel gemaakt door standaardenorganisatie Jedec, hoewel er al wel wordt gewerkt aan dergelijk geheugen. Cadence, een bedrijf dat software en hardware maakt voor het ontwerpen van chips, kondigde onlangs al aan als eerste fabrikant verification solutions voor GDDR7-geheugen te bieden. Daarmee kunnen bedrijven al GDDR7-geheugen testen voor hun producten. De tools kunnen volgens Cadence alle nieuwe features in de GDDR7-specificatie simuleren.

Het halfgeleiderbedrijf bevestigde dat GDDR7 onder meer gebruikmaakt van pam3-encoding voor dataoverdracht. Dat is in tegenstelling tot het gebruik van pam2-encoding uit GDDR6 of pam4 in GDDR6X. Met pam3 worden drie spanningsniveaus gebruikt voor de transmissie van het signaal. Daardoor is het mogelijk om meer bits te verzenden per klokcyclus, zonder dat de kloksnelheid daarvoor verhoogd moet worden. Cadence stelt dat pam3 hierom een aanzienlijk hogere datarate biedt ten opzichte van pam2, terwijl de signaalruisverhouding beter is dan bij pam4. Verder krijgt GDDR7 onder meer vier verschillende read clock-modi, waarmee fabrikanten het stroomverbruik kunnen afstellen en optimaliseren.

Samsung zei in oktober al te werken aan GDDR7 en deelde soortgelijke details over de geheugenstandaard. Dat bedrijf zei ook GDDR7 pam3 zou ondersteunen en meldde ook dat de standaard doorvoersnelheden tot 36Gbit/s per pin kan bieden. Ter illustratie: de GDDR6-specificatie biedt officieel bandbreedtes van 16Gbit/s per pin, hoewel er inmiddels ook GDDR6- en GDDR6X-chips met snelheden tot 24Gbit/s beschikbaar zijn.

Door Daan van Monsjou

Nieuwsredacteur

09-03-2023 • 10:36

91

Lees meer

Reacties (91)

91
91
22
1
0
47
Wijzig sortering
Tijd dat er weer wat betaalbare producten komen. Al deze leuke nieuwe standaarden en componenten zijn grappig, maar gewoonweg buiten bereik van 98% van de markt.

Is het nog wel mogelijk om gewoon een degelijk 200-250 euro kaartje te produceren? Misschien moet daar is weer een innovatieslag in komen.
Eerdere generaties hadden ook vaak nieuwer geheugen, een nieuw procedé en andere upgrades. Heel lang maakte dat de kaarten niet heel veel duurder, generatie op generatie. Volgens mij was het prima mogelijk om flink te blijven verbeteren met soortgelijke prijsniveaus als we eerder zagen.

Het is meer het stadium van kapitalisme waar we in zitten, waar groei alles is, maar steeds lastiger wordt als een bedrijf al het redelijke al deed. Er moet continu meer naar de eigenaren dan het vorige jaar, en als al het vet al was weggesneden dan kun je alleen nog snijden in het vlees oftewel de kernpropositie: de kwaliteit van het product omlaag, het loon voor de werker omlaag, of de prijs van het product moet omhoog. Dat is dus als gezonde winst en voortbestaan niet meer het doel zijn, maar winstmaximalisatie boven alles.

Zelfs met de overschotten die Nvidia heeft willen ze nog amper prijzen verlagen. Het is geen kostenprobleem of noodzaak, maar hebzucht en marktmacht. De GPU-makers weten dat zij de chips maken waar heel de wereld iets mee wil, van gaming tot leermodellen tot crypto (hoewel dat deel nu flink minder relevant is). Dit wordt getemperd door onze keuzes als afnemers, dus hoe langer wij de kaarten laten liggen hoe meer deze woekerprijsstrategie vertraagd kan worden (omkeren lijkt me te optimistisch, maar vertragen wellicht).
Een van de redenen waarom capitalisme gedoemd is om te ontploffen eens in de zoveel tijd, zo dan niet permanent. Geld ook voor alle andere oplossingen hoor, maar toch :p
Het probleem is ook dat er geen nieuwe concurrenten zijn, omdat de technologie ook een stuk complexer is dan vroeger.

Hopelijk kan de komst van Intel er voor zorgen dat Nvidia en AMD hun prijzen wat drukken
Innovatie kost geld en is dus nooit goedkoop/in het lagere segment te vinden. Dat je de producten uit het topsegment niet kunt betalen geldt net zozeer voor smartphones, TV's, auto's en noem maar op. Geduld moet je hebben, tegenwoordig heeft zelfs een bijstandmoeder een >30" platte TV die begin van de eeuw nog tienduizend euro kostte.

Wacht nog even en je kunt een RTX 3050 die nu 300 kost wel voor 250 op de kop tikken, daarmee heb je een kaartje waar je best even mee vooruit kan.
Zo....
Jij kunt vooruit met weinig.
En ook nog best wet even...toe maar.
Zo, lekker denigrerend zeg. Niet iedereen kan of wil een xx80 of xx90 kaart betalen. Zelfs het middensegment 60/70 waar kaarten tegenwoordig 500 kosten is velen te duur. Je leeft in een land waar een miljoen mensen onder de armoede grens zitten tegenwoordig.

Als jij een laag budget hebt, kun je met een 3050 kaart best je komende jaren op 1080 @60 fos spelen op acceptabele settings.

En trouwens ik heb het niet eens over mezelf.. |:(
Precies, of koop een 6600XT/6650XT, dat is eigenlijk een stuk beter dan een 3050. Of koop een 2ehands 2070super en je kunt ook heel aardig alle games spelen. Onlangs nog de laatste drie Tombraider games gespeeld met 120fps op een LG OLED TV met een 2070super, alles op ultra, HDR etc. draait prachtig op 1080p. Ik ben het er helemaal mee eens dat na 25 jaar videokaart ervaring je nu ook ziet dat het allemaal extreem overkill begint te worden en dat heeft uiteraard een meerprijs, het is gewoon elitaire hardware geworden. Daarbij komt ook nog eens bij dat ik de nieuwste games helemaal niet geweldig vind om te spelen. Dat is natuurlijk persoonlijk, maar waarom zou je niet gewoon tevreden kunnen zijn met een 1080p 60fps videokaart en medium settings. Volgens mij wordt het speelplezier daar helemaal niet veel minder van. En ik weet heel goed hoe het is om het beste van het beste te hebben, maar toch kan ik nu ineens prima accepteren dat ik nog met een 2070super zit te gamen.
Je brengt het als een advies.
Waar jij het over hebt kon 7 jaar geleden al.
Dus enige spot is op zijn plaats.
Ik heb even opgezocht wat ik destijds betaald heb voor mijn videokaarten:
2012: Sapphire HD7870Ghz edition €309
2017: MSI RX480 Gaming X (8Gb) €295
Eind 2022: MSI HD6650XT Gaming X €339

Kaarten die allemaal zowat in het 1080p/60-100fps gebied zaten bij launch. Gezien de inflatie vind ik dit niet zó duur.
Zoals eerder aangehaald, betaal je exponentieel meer alles daarboven. Voor 1440p betaal je zo’n €150 meer (6750XT), en voor 4K betaal je al helemaal de hoofdprijs.
Precies dit, je hebt nogsteeds een hele capabele videokaart voor rond de 300 euro, zeker als je naar de 2ehands markt zou kijken. Het is voornamelijk een gevoelsmatig probleem dat er nog zoveel beter en nieuwer te krijgen is, maar de noodzaak voor die veel beter hardware is minder, en daarom ook exponentieel duurder.
200-250 wuro kaart zal niet meer komen. Dit ivm cpu juist een igpu heeft die nagenoeg net zo sterk is.
Lichterlijk gechargeerd: ik heb ook gehoord dat de RTX 60 serie van Nvidia GDDR8-vram zal hebben!

Ik loop nooit zo warm voor dit soort geruchten, net als het aankondigen dat men iets aan gaat kondigen. daar zijn fabrikanten heel goed in.
Waarschijnlijk eerder GDDR7X ;) en dan GDDR8 voor de RTX70 serie :P
De oplopende naamgeving per generatie wordt wel verschrikkelijk repetitief. Misschien tijd dat ze gaan overstappen naar hexadecimalen. Dat past ook beter bij de achtergrond van hun doelgroep.
Alsjeblieft niet... dit is een van de weinige gebieden waar nog fatsoenlijk doorgenummerd wordt. Ik haat het als iets eerst Windows 3 dan Windows 95/98/ME of 2000 dan XP/Vista, dan met Windows 7 de nummering door te zetten. Aaargh! |:( |:( |:( |:(
Ik verwacht wel wat anders met de "10080" kaart of zo.
Vertel dat Intel gelijk ook even.
Maar bij lauch blijkt dat alleen de RTX7x90 kaart GDDR8 heeft.
Waarschijnlijk loopt dat niet zo snel als je kijkt hoe lang een generatie GDDR mee gaat. En als een artikel er niet interessant uitziet voor jou dan hoef je het toch niet te lezen? Andere mensen vinden het weet we boeiend. Tweakers houdt in de gaten hoeveel een artikel wordt geleden en in elke categorieën die vallen. Dus ze weten waarschijnlijk wel dat er een groot genoeg publiek is voor dergelijke artikelen.
Voor bedrijven is het natuurlijk fijn dat ze dan 2 keer in het nieuws komen en ik snap dat Tweakers het ook wel post. Maar erger me er soms ook aan.
je haalt de woorden uit mijn mond :P

Overigens wel als ik de technische gedeelte goed lees, is de datasnelheid en dergelijke ten opzichte van GDDR6 op papier bijna 3x zo snel en heeft ook minder kloksnelheid nodig om dit aantal Gbit/s te behalen.

ik zie wel nuttige info hierin, en denk dat dan mijn tijd word om mijn huidige pc te gaan upgraden rond deze tijd.
Want ten opzichte van mijn eigen huidige beest (11 jaar oud!) met een 1070 GTX van Nvidia en heb ik de 2e generatie I7 ( op een oude MO: PCI-express 2.0/DDR3 RAM geheugen 8)7 ).
Kortom daar zit helemaal een wereld van verschil in, ik zeg kom maar op met die GDDR7.

[Reactie gewijzigd door Dento86 op 22 juli 2024 16:55]

Het lijkt me evident dat de 5x serie een verbetering zal zijn tov. de 4x serie.
Naast dat de prijs hoog zal zijn, lijkt het mij zeer aannemelijk dat de RTX 5080 en 5090 zo veel stroom zullen vreten als een verwarming, dat je weer een nieuwe case moet kopen wil je deze grafische kaarten gaan gebruiken. Ik ben heel erg bang dat Nvidia langzamerhand van het gamen wilt weglopen en alleen de grote kasten voor werkdoeleinden wilt villen met deze kaarten.

Daarnaast komt het ook dat de game industrie de afgelopen jaren uitermate teleurstellende prestaties levert. Menig game zou wel op een mindere grafische kaart kunnen spelen mits de game geoptimaliseerd is.
Dit is voor mij de reden geweest om niet meer in een game pc te investeren. Het is te duur geworden en het vreet gewoon te veel stroom. Sinds ik een ps5 heb trekt het me ook steeds minder. Ik vind het heel rustigevend werkend dat wanneer ik een spel speel op de ps5 ik niet rekening hoef te houden of het spel wel of niet goed draait. (op uitzonderingen na)
Begrijp ik volkomen, het is dat ik mijn PC ook voor andere doeleinden gebruik buiten gamen waar het handig is om wel wat grafische kracht te hebben, Daarnaast vind ik het draaien van mods in aantrekkelijk en ik heb een aanzienlijke hekel aan het idee dat je 50 tot 60 euro per jaar kwijt bent puur om online te spelen.
Veel gamers vinden die 50-60 euro dan weer prima omdat je toch elke maand 2 games er bij krijgt. Het ligt er aan hoe je er in staat.
Helemaal mee eens, maar ik heb een xbox series x en een gaming pc en ik gebruik mn xbox series x niet meer juist, om jouw argument. Ik vind de spellen niet goed werken. b.v. Plague Tale dipt af en toe gewoon echt tot lage fps op de xbox, terwijl mijn gaming pc dit prima aankan.

Helaas zijn de xbox series x en de ps5 inmiddels alweer ver achterhaald als het om grafische power gaat.
2 miljard omzet per kwartaal geven ze even aan AMD/Intel? Ze verdienen het meeste op mid/low range kaarten. Niet zozeer door de prijs per product maar door er veel te verkopen. De high end markt is vrij niche.

De PC gaming markt is enorm en groeit alleen maar. Dus nee, ik denk niet dat Nvidia daar straks verdwijnt.
De kasten zullen met split airco worden uitgevoerd beetje gamen kost dan 3kw/h op 8k 360hz.
Maar dat gaat je wel weer in je stookkosten schelen. Gas is duur tegenwoordig :+
Gerucht? Is het niet gewoon een normale optelsom?
Misschien is het ook geen verkeerd idee om vaker 2e handse videokaarten te kopen.
als je geduld hebt is dat heel voordelig. Speel gewoon de spellen van 2 jaar geleden op kaarten van toen en je betaald amper de helft of zelfs nog minder
Lijkt erop dat er elk half jaar nieuwe kaarten op de markt gaan komen :P
En dat terwijl de vorige generatie net redelijk verkrijgbaar is.
Tis niet dat ik het niet zou kunnen betalen maar dit gaat allemaal wel heel erg snel.
Ik hou het voorlopig nog wel bij mijn 3080TI.
En ben het wel met Vulcanic eens dat er ook betaalbare/goedkope terug mogen komen. Als ik zie hoe de prijzen omhoog zijn geschoten word niemand blij van.
De huidige generatie is nog niet eens volledig uitgerold. Dit gaat over kaarten voor eind 2024 of begin 2025.
Marketing: Maakt de nieuwe generatie de oudere generatie volledig obsolete? Dan zou ik gewoon het nieuws van 2021 blijven volgen wat de FPS in games veranderen echt niet... even los van evil-game-producer-update-fucks (maar ook dan geldt, die game veranderd niet, tenzij je hem update/wilt updaten).
En juist door DIE marketing worden wij als consument gek gemaakt ;)
we wachten wel weer op het prijskaartje om hyped te worden :O
Waarschijnlijk de 5090 voor €2500 euro en de 5080 voor €1500... Als we geluk hebben is misschien een 5060 te koop voor €800
Vergeet niet het stroomverbruik. Nvidia zal waarschijnlijk een nieuwe voedingspecificatie uitbrengen zodat je je powersupply op 2 verschillende groepen tegelijk aan kan sluiten aangezien een enkele groep niet meer voldoende gaat zijn.
Speelt dit probleem niet met name in de VS? Volgens mij kan een groep in Europa veel meer hebben.
In de VS Speelt dat nu al ja. Maar dat is toch bizar voor woorden dat 1500 watt niet genoeg is? PC's zijn de afgelopen jaren echt te veel gaan verbruiken. Videokaarten van 450 watt en CPU's van 300 watt gaat mij persoonlijk te ver.
Dus die keus ligt gewoon bij jou en mij als consument, jij wil het niet wil ivm verbruik dan koop je kaart niet?

Mij maakt het niet uit en ik koop de kaart die het snelste is/binnen mijn maximale budget ligt?
Maar stel je wilt een bepaalde grens halen qua prestaties.

Je wilt wel iets op je energiegebruik letten en vervangt enkel je GPU elke 5~6 jaar.

Je gaat niet 400euro neer tikken voor een GPU die ongeveer zoveel stroom gebruikt en dezelfde prestaties heeft. Omdat je een XX50 enkel aan je stroomgebruik eis voldoet.

Ik zit zelf altijd op de XX70 lijn. Waarbij het verschil tussen de 1070 en de 3070 qua energieverbruik een flinke sprong gemaakt heeft. Maar wil een beetje toekomstbestendig iets kopen dat ik niet na een jaar of twee al geen meer AAA-spellen kan spelen omdat de GPU te sloom is moet ik al snel gaan voor een XX70. Heb ik dan echt keus? Of heb ik schijnkeus?

Je zou kunnen zeggen je kunt ook niet gamen. Maar ja dat is krom.

Hetzelfde geld voor CPU's blijf je in dezelfde lijn is het energieverbruik zoveel hoger.

En de M-series is leuk van Apple en energiezuinig, wat heel gaaf is. Maar ik kan er niet leuk mee gamen. Want ontwikkelaars compileren bijna nooit hun voor de M-series.

Dat geeft mij het gevoel dat als ik een beetje leuk wil gamen en dan ook de nieuwste games wil kunnen spelen moet ik elke 5~6 jaar een nieuwe GPU kopen in de XX70 lijn om voor mij het gevoel te geven dat ik niet onnodig nieuwe GPUs moet kopen. Waardoor ik in mijn optiek een schijnkeuze heb.
Heb even de transistor count opgezocht van de 1xxx serie en de 4xxx serie om te laten zien hoe absurd complex die dingen geworden zijn 3 generaties verder:
1080 heeft ~7 miljard transistoren
4080 heeft ~46 miljard transistoren

Maar je verwacht wel dat ze dezelfde prijs hebben en hetzelfde verbruik? Moet je ze beide eens (fysiek) naast elkaar houden, dan zie je dat die laatste gewoon veel meer kaart is voor ... jaja ... veel meer geld!

De standaard wat high-end is schuift gewoon op en wordt hoger en dus duurder en idem met het verbruik. Een 4080 heeft dus niks te maken met 3080/2080/1080 muv de naamgeving.

PS heb bewust de 1070 niet als voorbeeld gebruikt want dat is een gehandicapte 1080 dus heeft net zo veel transistoren maar veel minder actief in gebruik!

[Reactie gewijzigd door watercoolertje op 22 juli 2024 16:55]

Ik vraag me af of je wel zo in 'tiers' moet denken. Ik denk eerder dat je moet denken als consument: Ik wil prestatie X bij kwaliteit Y en Resolutie Z (bijv. 144FPS in 1440P bij high kwaliteit) en dan moet vanwege die eisen genoegen nemen met een bepaald verbruik, en je koopt dan het tier kaart dat past bij je eisen. Dat kan nu een x70 kaart zijn, of een x80, maar misschien is dat bij de volgende generatie juist wel de x60 kaart

Of andersom, je wil als consument een maximaal verbruik van X Watt, dan dan moet je genoegen nemen met de performance die daar op dit moment bij hoort en het tier kaart waar op dat moment dat verbruik toepasselijk is.
Doe ik dus ook niet en wat ik heb undervolt ik extreem. Mijn 6950XT verbruikt nog maar 120 watt vs de 284 watt stock.
Ja ben het wel enigszins met je eens. Al is het wel wat genuanceerd. Op een gegeven moment loop je toch tegen de grenzen aan wat je kan aan performance per watt. Dan resteert niks dan er meer energie doorheen te rammen.

Of dat moment al is aangebroken is natuurlijk de vraag.

Met deze prijzen en het verbruik ben ik eigenlijk meer gaan kijken naar consoles. Dat is allemaal nog relatief schappelijk aan hardware.
In principe maak je de performance per watt net slechter door er meer energie doorheen te rammen.

De vernieuwde productietechnieken leveren niet noodzakelijk evenveel winst meer op. Architecturale updates kunnen dat misschien niet compenseren. Dan kan je grotere chips maken (kost meer) en/of er meer energie in pompen, zolang het maar gekoeld kan worden.

AMD is sinds 2017 een weg ingeslagen van kleinere modules die samengeplakt worden. Nog steeds veel chipoppervlak, maar niet noodzakelijk met de kostnadelen van het in 1 plakje te doen.

Apple maakt trouwens ook enorme chips, maar focust wel op energie-efficiëntie.
Gezien je de power draw van de 4090 met 45% kan verlagen voor minder dan 10% prestatie verlies zijn we daar nog lang niet aangekomen. De huidige generaties zijn gewoon als 6 jaar lang belabberd afgesteld in de fabriek.
Voelt een beetje als een Ferrari met begrenzer op 130 km/uur omdat hij anders teveel benzine slurpt. Ben je dan alleen maar patser/trots of gewoon gek op Ferrari-rood?
Een eerlijkere vergelijking is dat die Ferrari nog steeds 290 Km per uur gaat maar doet wel bijna 2x zo lang met de tank benzine doet.
Dat is een veel interessanter product voor de massa. En je kan altijd nog een andere tune in die Ferrari doen waardoor hij 330 Km per uur gaat en benzine slurpt. Denk alleen dat zo goed als niemand dat zal doen.
Daar ben ik het niet mee eens dan moet je slimmer omgaan met de middelen die je hebt daar zijn genoeg voorbeelden van. Zie Bv Vega 20 vs RDNA1 en 2 of Zen 2 vs Zen 3. En als ik mij niet vergis Kepler en maxxwel of wat Intel met 14nm heeft laten zien.

Allemaal voorbeelden hoe je met hetzelfde productie process maar een efficiëntere architectuur toch betere performance per watt kan halen.

Nu gooien ze er 100watt extra tegen aan voor die laatste 5-10% performance dan moeten we gewoon niet willen en is ook niet nodig. Ik heb zelf veel. Liever een 100 watt lager verbruik.
De vraag is dan natuurlijk ook of PC onderdelen teveel zijn gaan verbruiken (dit klinkt zo nogal arbitrair, en zal mogelijk voor iedereen anders zijn), of dat een deel van de klanten in het hogere segment zoveel performance verbetering verwacht / vereist ten aanzien van de vorige generatie dat dit hoge verbruik nu eenmaal nodig is om die prestatie verwachtingen / vereisten in te kunnen lossen. Dit zal voor de gamer niet altijd het geval zijn (maar die kan, wanneer hij deze eisen niet stelt kiezen voor een model dat minder verbruikt), maar voor mensen die hun geld verdienen met kaarten als een 4090 bijvoorbeeld mogelijk wel. Want hoewel verbruikt stijgt, stijgt over het algemeen de efficiëntie van cpu's en gpu's nog steeds (wanneer de stock settings gerespecteerd worden, daarbuiten is het natuurlijk 'all bets are off').

Ik kan me namelijk niet direct voorstellen dat een AMD of Nvidia in hun handjes zitten te wrijven wanneer het verbruik gen on gen weer omhoog moet om bepaalde doelen te halen. Ik denk dat die liever ook gewoon die prestaties zouden leveren bij hetzelfde of lagere verbruik als de voorgaande generatie, maar dat dit zeker bij de hoogste segment producten simpelweg niet altijd gaat.

[Reactie gewijzigd door Dennism op 22 juli 2024 16:55]

Je kan gewoon je videokaart underclocken en power cappen hoor. Ik draai mijn 3090 ook op max 250 watt. Is veel efficienter (meer performance) dan de midrage kaarten uit die generatie op dat wattage.

Je hoeft niet mee te doen aan de wattage gekte. GPUs en CPUs worden nog steeds efficienter qua performancer per watt.

[Reactie gewijzigd door PjotterP op 22 juli 2024 16:55]

Dat weet ik doe dat al jaren.
Ik heb voor mijn 6950XT 220, 120 en een
90 watt profiel ipv de stock 284 watt. Waarnij het 220 watt profiel ongeveer net zo snel is als stock.
Of een nieuwe kast specificatie waar je 2 PSU's in kwijt kan zodat de GPU een dedicated PSU kan hebben :+
Danz al je alsnog, in de VS, een tweede groep moeten hebben de hoeveelheid PSU's doet daar niets aan af.
Dat ligt maar net aan hoe het huis gebouwd is. Toen ik daar woonde hadden wij een ouder huis met 110v, 15a groepen. Hier kon je maximaal ~1400watt in pluggen voor de breaker popte, dan zit je in dit voorbeeld al behoorlijk dicht tegen het max aan dat het niet meer op een groep past.

Maar nieuwere huizen hebben vaak groepen met hogere amperage (20a en 30a met ~1800watt en 2600watt resp.). Dat zou nog redelijk makkelijk uit kunnen, zeker bij 30a. En anders speciale 220v groep leggen (in de US komt er wel 220v het huis binnen, maar op de outlets zit maar 110v, tenzij het een speciale groep is voor bijvoorbeeld wasmachine, droger of HVAC).
Grapjas, die kasten bestaan allang, inclusief doorluskabels zodat beide PSU's tegelijk ingeschakeld worden. Met enige vorm van schaamte beken ik schuldig te zijn aan het ooit bouwen van zo'n monster. :+
dit moet uit het SLI tijdperk komen
nog even en er komt een stekkerblok in je kast zodat je daar je psu's op kunt aansluiten.
(met haspeltje naar je meterkast voor wat krachtstroom natuurlijk)

[Reactie gewijzigd door Dom op 22 juli 2024 16:55]

dat ik hier zelf niet aan heb gedacht lol.
PDU voor in je case, de volgende stap!
Ze zouden ook gewoon CCS-Combo Type2 kunnen gebruiken ;)

Overigens is het in de VS met hun 120V-16A-max-per-stopcontact eerder een probleem dan hier. Ons driefasen/240V stelsel bied een hoop voordelen om de vermogens relatief laag te houden ipv gelijk 48A aansluitingen of gekke dingen als 180-graden-vs-120-graden gedraaide woningen (want dat is zowaar een verschil in verschillende soorten huizen daar). Hoewel hun hele grid driefase is, krijgen huizen eigenlijk altijd maar één fase, die bovendien 'gesplitst' wordt. Echter dit is zelden een PC probleem tenzij je heel specialistisch werkt, maar eerder een waterkoker/fornuis/wasdroger (die soms op gas zijn daar...)/auto probleem, waar de vermogens dus vrij snel vrij absurd worden.
Voor de fornuis/wasdroger etc was er in mijn ervaring vaak een speciale groep die niet gesplitst is en gewoon 220v/230v op staat. Waterkokers daar zijn wel een stuk trager dan hier omdat die inderdaad wel gewoon 110v uit de normale stopcontact pakken.

Wasdroger op gas is trouwens (i.i.g. waar ik woonde) eerder regel dan uitzondering, heel vreemd haha.

[Reactie gewijzigd door !GN!T!ON op 22 juli 2024 16:55]

Met een schakelende voeding (zoals in een PC) komt daar nog een probleem bij t.o.v. een waterkoker. Een schakelende voeding is geen ohmse belasting en belast de zuivere 60Hz sinus met harmonischen.

Een 16A automaat met een 15A ohmse belasting (waterkoker) zal prima gaan.
Een 14A schakelende voeding trekt de automaat waarschijnlijk onderuit (omdat de hele sinus maar deels belast word en door hoger harmonische op het net door het "schakelen")
Eerste videokaart op krachtstroom!
Stroomverbruik is deze generatie anders beter dan de vorige generatie. Je hebt nu voor een high-end systeem nauwelijks nog een 1000Watt voeding nodig, terwijl ik 10 jaar terug toch echt nog 1200Watt nodig had voor SLI / Crossfire setups :P
Oke, de MSRP voor 5080 zou zijn 1600 euro en straat prijs 2500 euro.... :P
Per mm2 chipoppervlakte :+
Voor de 4090 is dat 608 geloof ik, word dan 972.800 euro. Word zelfs Nvidia te gortig
Je vergeet de inflatie mee te tellen...
Nice! mss dan de moeite voor mijn 3080ti, te upgraden naar een 8000serie.
Met pam3 worden drie spanningsniveaus gebruikt voor de transmissie van het signaal.
Is het dan nog wel digitaal, of is dit weer een analoog signaal? Het blijft een blokgolf gok ik, een kenmerk van digitaal.
Digitaal = vrij vertaald ‘discreet, telbaar’ (van het woord ‘digit’ wat ‘vinger’ betekent, daar kun je ook op tellen namelijk :+). 3 spanningsniveaus is net zo goed telbaar als 2, dus digitaal :Y)

Op dit item kan niet meer gereageerd worden.