'Volgende generatie Nvidia RTX-videokaarten krijgt monolitisch chipontwerp'

YouTuber Moore’s Law Is Dead claimt dat de volgende generatie Nvidia RTX-gpu’s een monolithisch chipontwerp zal hebben. De claims komen overeen met die van YouTuber RedGamingTech die stelt dat de RTX 50-gpu's dubbel zo snel zullen zijn als de RTX 40-gpu’s.

Moore’s Law Is Dead claimt dat Nvidia geen risico wil nemen met het ontwerp van videokaarten en daarom opnieuw voor een monolithisch chipontwerp kiest. Deze productiemethode kost volgens de YouTuber meer in vergelijking met die van chiplets, maar zou volgens Nvidia dan weer betrouwbaarder zijn. Nvidia zou de komende jaren ook meer willen inzetten op de ontwikkeling van AI-software om zijn videokaarten performant te houden.

De claims van Moore’s Law Is Dead liggen in lijn met die van YouTuber RedGamingTech. Die claimt eveneens dat de consumentenversies van de volgende generatie gpu’s over een monolitisch chipontwerp zullen beschikken en dat er duchtig gesleuteld wordt aan de onderliggende architectuur. Nvidia zou zijn focus op raytracing en pathtracing richten, maar ook werk maken van een denoise-accelerator.

RedGamingTech meent dat de volgende generatie Nvidia-videokaarten gebruikmaken van PCIe 5.0 en dat de gpu’s geproduceerd zullen worden op een 3nm-chipprocédé van TSMC. Er zal ook gebruik worden gemaakt van GDDR7-geheugen. Dat werd eerder ook al beweerd door de redactie van de Chinese techwebsite MyDrivers. Volgens RedGamingTech zouden RTX 50-gpu’s gemiddeld dubbel zo snel zijn als de RTX 40-gpu’s. Al moeten deze laatste claims volgens de YouTuber niet te letterlijk genomen worden.

Door Jay Stout

Redacteur

09-04-2023 • 12:06

171

Lees meer

Reacties (171)

Sorteer op:

Weergave:

Dat zijn echt 2 Youtubers die je met zo'n berg zout moet nemen dat je op moet passen dat je geen vergiftiging krijgt. Totaal niet serieus te nemen en jammer dat ze nog steeds als bron gebruikt worden. Gevalletje als je maar genoeg onzin de lucht in slingert is er vanzelf wel een keer wat waar...

Edit: typo.

[Reactie gewijzigd door computerjunky op 23 juli 2024 09:22]

More's Law is Dead zegt er keurig bij hoe serieus je een bepaald gerucht moet nemen. Het probleem is mijn inziens niet MLID, maar websites die die geruchten overnemen en de informatie hoe serieus het gerucht is weglaten.
More's Law is Dead zegt er keurig bij hoe serieus je een bepaald gerucht moet nemen.
Dat is natuurlijk heel makkelijk wanneer hij zelf de geruchten uitvindt.
Het probleem met MLID is dat hij al meermalen betrapt is op het verwijderen van oudere content wanneer bleek dat hij grandioos de mist in ging. Daarnaast is het maar de vraag hoeveel van die geruchten echt van hem zijn, het komt bijvoorbeeld ook vrij vaak voor dat een van de bekende twitter leakers een leak heeft en dan vlak daarna heeft MLID er ook ineens een flimpje over.

Daarnaast is ook het trackrecord wat hij wel heeft redelijk spotty, een boel komt niet uit, het lijkt een beetje op het gezegde als je maar genoeg stront tegen een muur gooit, blijft er vanzelf wat plakken. Schieten met hagel dus vaak.

Uiteindelijk zie ik MLID vooral als entertainment, en daar issie best goed in, maar ik neem hem niet te serieus zolang zijn foutmarge redelijk groot blijft.

[Reactie gewijzigd door Dennism op 23 juli 2024 09:22]

Het probleem met MLID is dat hij al meermalen betrapt is op het verwijderen van oudere content wanneer bleek dat hij grandioos de mist in ging.
Dat wordt overal gezegd maar ik heb daar nooit iets van bewijs van gezien. Hij ontkent het zelf dan ook.

Verder is het goed om te bedenken dat AMD, Intel en Nvidia nu ook nog niet weten hoe de nextgen producten eruit gaan zien. Ze hebben vaak meerdere ontwikkelteams die relatief onafhankelijk van elkaar werken.

Dat een cpu of videokaart dus niet zo snel is als eerder gedacht, bewijst niet dat een gerucht 'niet waar' bleek, en bewijst niet dat MLID de boel loopt te flessen.

Je moet het meer zien als een update van waar de fabrikant op dit moment mee bezig is. Waar soms echt rommel tussen zit. Maar als hij aangeeft dat verschillende bronnen hetzelfde aangeven, dan kan je er wel redelijk vanuit gaan, dat op dit moment, de stand van zaken is.
[...]

Dat wordt overal gezegd maar ik heb daar nooit iets van bewijs van gezien. Hij ontkent het zelf dan ook.
O.a. deze redditor heeft een korte verzameling uiteen gezet met enkele video's die gedelete zouden zijn:

https://www.reddit.com/r/..._law_is_dead_past_claims/

Daarnaast was er niet al te lang geleden ook een spreadsheet in een van de hardware reddits waar de trackrecords van een aanzienlijk deels van de leakers werden bijgehouden. Ook daar kwam MLID niet heel best uit. Waar sommige leakers op 90-95%+ zaten en dus heel accuraat zijn, zat MILD op +-50%ish.

Wat echter niet wegneemt dat zijn video's best goed entertainment zijn, daarom kijk ik ook vrijwel al zijn filmpjes en podcasts, ik neem het echter niet aan als 'waarheid' of zelfs 'betrouwbaar' tenzij andere bronnen zijn leaks ondersteunen.

[Reactie gewijzigd door Dennism op 23 juli 2024 09:22]

Ik heb MLID regelmatig gekeken rondom releases van nieuwe videokaarten (vooral met RTX 3000 en de RX 6000 series), maar dat "ik", "ik", "ik" gehalte begon me een beetje te irriteren.
Thanks dit lijkt mij wel duidelijk aantonen dat deze video's verwijderd zijn.
Ik ken de bronnen niet, maar de kans dat dit bericht klopt is zo goed als 100%: het heeft intel 4 jaar gekost om als antwoord op zen2 zelf met een chiplet ontwerp te komen, dat nvidia nu in 1 generatie als reactie op amd met een chiplet ontwerp komt zou erg snel zijn.

Daarnaast geeft als qua knowhow gewoon een enorme voorsprong, want ze werken al bijna 10 jaar toe naar de chiplet techniek die ze nu hebben: zen1 had dan wel geen chiplets, van in het begin van het zen redesign waren chiplets het doel waar naartoe gewerkt werd.

De grote vraag voor gpus is of het hele ontwerp modulair kan: chiplets worden nu enkel gebruikt voor de geheugencontrollers, maar de gpu zelf is nog monolitisch. Ik hoop dat and die ook modulair kan maken, want dat opent echt fantastische wegen voor de schaalbaarheid van gpus.
Dat nvidia nu in 1 generatie als reactie op amd met een chiplet ontwerp komt zou erg snel zijn.
De stap naar chiplets is niet vanwege AMD. De reden is de yield van monolithische ontwerpen op EUV technologie, als je vele miljarden transistoren hebt. Dat probleem speelt al langer - NVidia heeft natuurlijk al lang in de R&D afdeling lopen experimenteren met chiplets.

AMD en NVidia zitten natuurlijk met dezelfde problematiek - zelfde ASML EUV technologie, zelfde soort chips (GPU), vergelijkbare aantallen transistoren. AMD durfde het risico aan, NVidia twijfelt nog. Maar die zullen ook wel overgaan. Als niet nu, dan wel met de 60x0 generatie.
NVidia heeft natuurlijk al lang in de R&D afdeling lopen experimenteren met chiplets.
Heb je daar een bron voor?

En sorry hoor, maar jawel: andere fabrikanten gaan deze richting enkel en alleen uit omdat AMD het doet: AMD heeft namelijk het zware werk gedaan om het werkend te krijgen en nu blijkt het te werken waardoor AMD op termijn simpelweg een gigantisch voordeel heeft: zoals je zegt weet iedereen dat chiplets je yields exponentieel verbeteren, maar dan moet je het wel werkend zien te krijgen.

Dat laatste stukje is het harde werk, en AMD is de enige waarvan we weten dat ze die investering al gedaan hebben. Als jij een bron hebt die aantoont dat nVidia daadwerkelijk geld heeft geïnvesteerd modulaire chipontwerpen, dan zie ik dat graag.
Als jij een bron hebt die aantoont dat nVidia daadwerkelijk geld heeft geïnvesteerd modulaire chipontwerpen, dan zie ik dat graag.
Right, want dat zijn dingen die Nvidia gewoon publiekelijk deelt, hun exacte R&D budgetten van elk jaar voor elke afdeling.

Algemeen genomen zijn multi-die oplossingen niks nieuws in de halfgeleider industrie. Je hebt de Pentium D natuurlijk gehad, maar voor allerlei toepassingen wordt multi-die al decennia toegepast.

Overigens exponentieel betere yields klinkt goed, maar het is dus vooral (theoretisch) exponentieel minder yield loss. En of dat helemaal waar is hangt af van hoe robuust een ontwerp is. En zit je yield op 50%, dan haal je met twee chiplets een yield van 75%. Dat is een hele vooruitgang! Zit je yield op 98% en wordt het 99%, dan kan je je afvragen of het echt de nadelen waard is.
Right, want dat zijn dingen die Nvidia gewoon publiekelijk deelt
De claim wordt gemaakt, ik vraag een bron, en jouw reactie is dat ik onredelijk ben om die bron te vragen?

"Sissors, ik arresteer je want je hebt iemand vermoord, meekomen naar het bureau!"
"Hoezo, waar is je bewijs?"
"Ja, hallo, een moordenaar loopt toch niet te koop met bewijs dat hij iemand vermoord heeft, dus je bent echt onredelijk om mij om dat bewijs te vragen!"
Zoals ik al schreef, met common sense kom je een heel eind. Het is een techniek die in zijn algemeenheid al decennia lang in de halfgeleiderindustrie wordt gebruikt, en specifiek voor processoren dus ook al lang geleden is gebruikt. En natuurlijk, specifiek de chiplets zoals AMD ze gebruikt zit echt wel innovatie en ontwikkeling achter. Dat wil ik zeker niet ontkennen, en uiteraard zitten er verschillen in efficientie tussen verschillende ontwerpen. Maar laten we niet doen alsof het Nvidia 10 jaar zou kosten om ook chiplets te kunnen maken.
Zoals ik al schreef, met common sense kom je een heel eind.
Intel had dus geen common sense? Intel had letterlijk niets, nul, geen plannen voor modulaire chipontwerpen toen AMD met Zen2 kwam en hen in het meest lucratieve segment (serverchips) totaal van de kaart veegde. Slechts nu, 4 jaar later, zullen ze met een antwoord komen maar de specs en benchmarks zien er niet goed uit. De reden: intel heeft niets geïnvesteerd in deze techniek, AMD heeft dat inmiddels zo'n tien jaar lang wel gedaan.

Als jij vermoed dat nVidia slimmer is dan Intel dan is het heel simple: bewijs het. Want als nVidia modulaire chips kon maken, waarom doen ze het niet? je bespaart er echt gigantische bedragen mee.
Intel heeft al eerder multi-die oplossingen gemaakt! Dat is niet nieuw. En zou best kunnen dat een Nvidia er opnieuw pas naar is gaan kijken nu AMD er een product mee heeft (net als dat iedereen naar de concurrentie kijkt), maar dat ze er niet naar kijken is gewoon geheel onlogisch.

Maar goed, als je voor alles waterdicht bewijs wil hebben, dan had dit hele artikel niet moeten bestaan.
je bespaart er echt gigantische bedragen mee.
Nee. Dat is dus niet zo. Of beter gezegd, dat ligt helemaal aan de algehele setup. Des te slechter de yields zijn van een product, des te meer geld je ermee bespaard. Zijn de yields goed? Dan kost het alleen maar geld vanwege de overhead. Oké bijkomend voordeel vooral als je kleinere oplages hebt, is dat je één masker set kan hebben voor de chiplet, en die kan je combineren tot verschillende producten. Tegelijk heeft Nvidia zulke oplages dat een masker setje meer of minder wel te overzien is.
Nee. Dat is dus niet zo. Of beter gezegd, dat ligt helemaal aan de algehele setup. Des te slechter de yields zijn van een product
Ook dit klopt niet.

Wat je zegt is het primaire doel van modulaire chips, maar je vergeet het secundaire voordeel om de prijs te drukken: hoe kleiner je chips, hoe minder verspilling je per wafer aan de rand hebt.

[Reactie gewijzigd door kiang op 23 juli 2024 09:22]

Dat klopt, al helpt het weer niet dat dat sowieso niet de beste chips zijn, maar goed, tegelijk kan je daardoor wel weer fijnmaziger kiezen welke chips je beste zijn. En dat is een voordeel ja als je kleinere chiplets kan gebruiken. Tegelijk laten we wel wezen, jij had het over gigantische bedragen, pakken we deze erbij: https://www.silicon-edge....p/resources/die-per-wafer. Een AD104 die is ruwweg 20mm x 15mm, en uiteraard 300mm wafer. Dan kunnen er 190 uit één wafer gehaald worden. Maken we hem uit twee chiplets, zoals een high-end AMD processor, dan zit je op 394 dies (10mm x 15mm). Dat is 3.6% meer wat je uit een wafer haalt. En alle beetjes helpen, maar nu reken ik ook met nul overhead voor de extra connecties die nodig zijn, en laten we wel wezen, 3.6% meer uit een wafer halen is niet een gigantische besparing. Halveer je chiplet size nog een keer, kom je op net boven de 6% meer.
AMD? Het zware werk voor chiplets? En de enige?

Het idee stamt uit de jaren 70 voorzover ik weet. En voor moderne ontwerpen kun je naar IBM's Power8 kijken van 10 jaar geleden, die had ook al gestapelde cache. 16 MB per chiplet, 128 MB totaal per CPU. Zelfs de Pentium Pro had 2 cache chips in Socket 8, in 1995.

Vergeet niet, chiplets zijn een oplossing wanneer je dies te groot worden. De Pentium Pro was gemaakt op 500 nm, 306 mm2 die size. Dat was veel groter geworden als de L2 cache op dezelfde die had gemoeten.
Het zware werk voor chiplets?
Zeker wel, er zijn nadelen verbonden aan een modulair ontwerp, als dat niet zo was dan was elke multi-core CPU gewoon een modulair ontwerp waarbij elke core een aparte chiplet was., met gedeelde caches ook een eigen chiplet en de IO ook weer een eigen chiplet. Dan heb je namelijk de allerkleinste chiplets en de allerhoogste yields. Als het allemaal zo makkelijk is zoals jij nu poneert, waarom doet men dit niet?

Het gestapelde cache wat je overigens aanhaalt is op geen enkele manier te vergelijken emt de aanpak van AMD: het is 1 ding om cache te stapelen, het is een heel andere tak van sport om je ALUs aan elkaar te koppelen met goede schaling.

Ik vindt het frappant dat je nu gaat doen alsof het allemaal zo makkelijk is: Intel heeft JAREN problemen gehad van idioot slechte yields op 10 nm, het was zo erg dat ze gedurende een jaar enkel 10 nm chips uitbrachten zonder IGP, en enkel low-end dual cores: de yields lieten niets groter toe. Als, zoals jij claimt, alles zo makkelijk is, waarom maakten ze niet gewoon kleine chiplets zodat ze 10nm 8 core CPUs konden lanceren?

Antwoord: het is wel degelijk zwaar werk.
Enigzins waar, maar dat zware werk is dus niet door AMD gedaan - dat was mijn punt, en daarom gaan mijn voorbeelden over eerder niet-AMD werk.

En natuurlijk worden er ook al decennia "ALU's" (cores) gekoppeld, door ongeveer iedereen. Dat waren multi-socket oplossingen. Wat AMD nu specifiek doet is meerdere chiplets in één socket plaatsen, maar ook dat is niet uniek. Alweer: Intel deed het eerder.

Zoals je terecht zegt: er zijn nadelen aan verbonden, en het is engineering om te bepalen of de voordelen opwegen tegen de nadelen. Maar het is dusdanig gangbaar dat NVidia het idee ook kent.
Maar het is dusdanig gangbaar dat NVidia het idee ook kent.
Het idee kennen en er wat mee doen en ervaring opbouwen en hebben zijn andere dingen. Wederom: kijk naar Intel en hoe ze totaal buitenspel gezet zijn door AMD in de servermarkt. Dat is 100% dankzij AMD's chiplets en hoe goed ze de schaling gekregen hebben.

[Reactie gewijzigd door kiang op 23 juli 2024 09:22]

Hou er ook rekening mee dat er over het algemeen een verschil zit in wat de meeste leakers, zeker vroeg in het proces bedoelen met performance, dan wat gamers en andere consumenten bedoelen met performance.

'Leaker performance' is vaak de verwachte toename in TFLOPS die geleaked wordt. Een 2x toename in TFLOPS betekent echter niet dat de FPS in games ook met 2x toeneemt, zakelijke workloads ineens 2x zo snel gaan.
De consument verwacht echter 'real world performance' en die is niet 1:1 converteerbaar met de 'leaker performance' die je over het algemeen genoemd ziet worden door leakers.De meeste leakers wagen zich immers niet of pas heel laat (lees enkele dagen tot weken voor release) aan werkelijke performance nummers, en zelf dan zijn ze vaak niet heel 'to the point', omdat ze zelf vaak ook gewoon niet zeker zijn van de echte performance.

Kijk bijv. naar de meer recent uitgekomen RX7900XTX, daar zag je constant geruchten van 2.5 tot zelfs 3x meer performance. ten opzichte van de 6900XT bij de bekende leakers (waaronder de 2 hier genoemd in het artikel).

Wat ook ongeveer wel klopt kijkende naar de TFLOPS, 61,42 voor de 7900XTX en 23.04 voor de 6900XT, ofwel de 7900XTX heeft 2,66 zoveel TFLOPS dan de 6900XT heeft.

Kijk je echter naar de real world performance, bijvoorbeeld in gaming, zie je dat de 7900XTX 'maar' zo'n 40-50% sneller is afhankelijk van de geteste games en de verdere configuratie.
daar zag je constant geruchten van 2.5 tot zelfs 3x meer performance. ten opzichte van de 6900XT bij de bekende leakers (waaronder de 2 hier genoemd in het artikel).
MLID heeft nooit 2,5 tot 3x meer perf geclaimed. Tot 80% was zijn bewering (volgens mij de hele tijd).
Dat klopt niet, zie bijv. https://preview.redd.it/d...a34682c69a7c042c5e9578138

Let wel dat hij daar 90-130% raster performance verbetering claimt, geen theoretische increase in TFLOPS zoals gebruikelijk voor veel leakers, dit is een gaming performance increase claim dus. Om 90-130% performance in gaming te winnen heb ga je normaal gesproken veel meer nodig hebben dan 2.5-3x het aantal TFLOPS, dus eigenlijk claimt MLID nog stuk meer in deze leak dan ik hierboven aannam.

Hij zet er gelukkig nog wel een note naast dat dat er 'kleine' meningsverschillen zijn tussen zijn bronnen, maar hij geeft die 90-130% aan de andere kant wel een 'high confidence' mee, wat wel bedoeld is om vertrouwen te scheppen in zijn leaks.

[Reactie gewijzigd door Dennism op 23 juli 2024 09:22]

Zoals je zelf al zegt staat er een waarschuwing bij niet te hoge verwachtingen hiervan te hebben omdat zijn bronnen verschillen. Ik heb zeker niet constant hier voorspellingen van gezien van mild.

Ik ben altijd uit gegaan van 70 tot 80% sneller dan last gen. Maar dat hebben ze ook niet gehaald.

Ik vind dit niet echt bewijs dat hij zou liegen oid of opzettelijk de boel zou flessen iig.
'Volgende generatie Nvidia RTX-videokaarten krijgt monolitisch chipontwerp'
Ag, niks ten nadelen van Tweakers, maar Tweakers doet met zo'n titel natuurlijk net zo hard mee.
Dat is naar mening wel ten nadele van Tweakers.net, en terecht ook.
Ik snap niet dat je als nieuwssite uberhaupt een Youtuber als bron wilt nemen.
Tijden veranderen en tweakers is mee veranderd. En als het niet klopt,
de huidige jongeren zijn wel gewend aan dit soort dingen.
Mocht je benieuwd zijn naar wat een monolitisch chipontwerp is. Tweakers heeft hier recent een artikel over geschreven waarin ze dit uitleggen.
Traditioneel hebben chips een zogeheten monolithisch ontwerp, waarbij alle verschillende aspecten zijn verwerkt op een enkel plakje silicium, oftewel een die. Denk daarbij aan de cores, de cache, geheugencontrollers, PCIe-lanes en noem maar op. In het verleden was die aanpak prima, maar nu de industrie afstevent op steeds kleinere productieprocessen, stijgen de kosten van grote dies. Daardoor wordt het steeds minder economisch om grote chips te fabriceren.
https://tweakers.net/reviews/9912/2/chiplets-de-grote-toekomst-van-kleine-chips-wat-zijn-chiplets-en-wat-zijn-de-voordelen.html

Dat dit meer kost maar betrouwbaarder is, lijkt te indiceren dat NVIDIA een capaciteitsprobleem heeft. Het kiest immers voor een duurdere fabricage om meer te kunnen produceren.
Mocht je benieuwd zijn naar wat een monolitisch chipontwerp is. Tweakers heeft hier recent een artikel over geschreven waarin ze dit uitleggen.


[...]

https://tweakers.net/reviews/9912/2/chiplets-de-grote-toekomst-van-kleine-chips-wat-zijn-chiplets-en-wat-zijn-de-voordelen.html

Dat dit meer kost maar betrouwbaarder is, lijkt te indiceren dat NVIDIA een capaciteitsprobleem heeft. Het kiest immers voor een duurdere fabricage om meer te kunnen produceren.
De kans is juist groter dat een chip een defect heeft wanneer hij groter is. Het is dus productie technisch minder betrouwbaar.

Stel je kunt 100 chips uit één 'wafer' snijden maar in 10% zit een klein defect, dan heb je 90 werkende chips en dus 90 GPU's. Nu ga je kleinere chiplets gebruiken; 10 per GPU ofwel 1000 per wafer. Bij dezelfde defecten gooi je dan opnieuw 10 chips weg. Vervolgens heb je er dan 990 over. genoeg voor 99 GPU's. Daarom kunnen chiplets in theorie goedkoper zijn.

Verder maakt Nvidia behoorlijk wat winst dus de noodzaak om voor de technisch suboptimale oplossing te gaan (hogere latency bij meerdere chiplets) is er nóg niet geweest.
Excuses, ik had me onduidelijk uitgedrukt en wilde vooral snel extra duiding geven voor het artikel. Kleinere die size (bijvoorbeeld bij chiplets) leiden inderdaad tot hogere yields. Met het capaciteitsprobleem bedoelde ik vooral het vertraagd op de mark kunnen brengen bij lancering.
Deze productiemethode kost volgens de YouTuber meer in vergelijking met die van chiplets, maar zou volgens Nvidia dan weer betrouwbaarder zijn.
Wel vind ik bovenstaande quote uit het artikel nogal onduidelijk. Een goed chiplet ontwerp is volgens mij niet minder betrouwbaar dan een monoliet. Of doelen ze hier op de mindere bandbreedte en latency. Wat voor professionele toepassingen als machine learning de grootste bottleneck is.
Van wat ik begreep uit het filmpje is dat inderdaad wat vreemd omschreven, maar bedoeld Nvidia daarmee hun 'time to market', dat hebben ze nu, volgens degene die MLID gesproken zou hebben in ieder geval, tot in de puntjes voor elkaar. Terwijl dat bij een (gehaaste) overstap naar chiplets meer risico's met zich mee brengt voor Nvidia, iets waar dat contact op op hintte dat AMD daar last mee gehad heeft bij de GPU's, waardoor de 7000 serie vertraging zou hebben opgelopen en meer kinderziektes zou hebben dan dat je normaal bij een monolitisch ontwerp proces ziet dat men door en door kent.
De duiding die werd gegeven werd ging niet richting capaciteitsproblemen, maar naar latency issues en vertragingen met het op de markt krijgen van de chips, waarbij AMD's problemen met chiplets bij GPU's als voorbeeld gegeven werd.

Juist als je capaciteits problemen zou hebben wil je liever chiplets produceren, immers je yields zijn bij kleinere chips veel groter en dus krijg je meer uit dezelfde wafer allocatie, terwijl monolitische dies over het algemeen kampen met meer defecten, want ze zijn over het algmeen groter, waardoor je sneller moet knippen en ook meer dies zal hebben die helemaal niet te gebruiken zijn.
daar boven op omdat wafers rond zijn en chips vierkant kun je uit een wafer veel meer snijden met kleine chiplets dan met monolith.
Of heeft de prijsstelling van afgelopen generatie kaarten zo omhoog gebracht dat als de nieuwe duurdere kaarten op de markt komen, dit hopelijk voor de consumenten niet NOG duurdere kaarten wordt, maar dat het huidige (ook al veel te hoge prijspijl) blijvend is.
Denk eerder dat Nvidia dit doet omdat ze gezien hebben dat we wij gewoon 2000 euro of meer neerleggen voor een snelle kaart ;-) Waarom zou je je dan druk maken over goedkopere oplossingen?

Maw: de beer is los.

[Reactie gewijzigd door Madrox op 23 juli 2024 09:22]

Zou dit ook kunnen leiden tot koelere chips en daar bij kleinere coolers ? Of gaan we meer warmte zien ?
YouTuber Moore’s Law Is Dead claimt
And I'm out... Waarom blijven mensen die gast serieus nemen? Heeft het veel vaker fout dan juist, en verwijdert dan alle videos en posts waar hij het verkeerd heeft. Er is echt geen reden om te geloven dat hij bronnen heeft.
"Volgens RedGamingTech zouden RTX 50-gpu’s gemiddeld dubbel zo snel zijn als de RTX 40-gpu’s"

Nou, dan staat ons nog wat te wachten!
Dit roept men iedere keer en het is iedere keer niet waar gebleken.
Dubbel zo snel, driedubbel de prijs?
Vrees van wel als het zo doorgaat :|
En daarnaast nog dubbel zoveel verbruik :9~
Ben benieuwd wat voor gigantische PSU's we tegen die tijd nodig gaan hebben.
Niet zo groot denk ik, mijn 4070 Ti gebruikt maar 155 Watt met een power limit van 55% en daarmee lever ik maar 5% FPS in.

RTX 4000 kaarten zijn belachelijk efficient.
En op standaard instellingen, zoals de meesten hem gebruiken?
220-240 zo'n beetje.
En gebruik je dan dlss? Want juist dan word het zuiniger. Minder fraai ook.
Minder fraai zie je niet als je op een normale afstand van je scherm zit, 90cm met een 27 inch scherm.
Dus die glitches vallen niet op?
Ik heb vernomen dat de PSU's een soort van Obelisk ontwerp gaan krijgen. Door de wattages te bundelen kan hij dan in een piek vorm komen om de ongelooflijke hoge vraag van de RTX grafische kaarten kunnen voorzien.

Indien je zo een PSU hebt zal je ook op piek momenten een opspinnende zoemtoon horen zodat je weet dat het wattage gebundeld wordt
Zal mijn tesla suit alvast uit de kast trekken om mijn PSU een boost te geven. Werkt bij tesla coils ook prima.😁
Wesley.K is een Tesla Trooper?
Sinds de geallieerden hebben gewonnen ben ik met pensioen. Time to "charge up" once again, comrade.
Als je het wattage beperkt niet groter. Dan pak je wel de efficiency (performance per watt( verbeteringen mee. Niemand dwingt jou om een 3090 of 4090 op meer dan 250 watt te draaien. Dat is feite ook wat ze met de rtx quadro / A series workstation /server gpus doen. Zelfde chip, andere drivers en ECC ipv non-ECC memory, met teruggeschroefd wattage en daardoor efficient. Maar dat kan je zelf dus ook doen met de consumer GPU.

[Reactie gewijzigd door PjotterP op 23 juli 2024 09:22]

En ik ben benieuwd wat voor gigantische portemonnees we nodig gaan hebben.
Ze zouden met GPU's eigenlijk hetzelfde moeten doen als wat ze nu met TV's doen en er een maximaal verbruik aan moeten hangen vanuit de overheid.
De overheid kan dan beter pushen dat men efficiëntere en veiligere PSU's gebruikt dan een limiet op het wattage dat een onderdeel of de PC in zijn geheel mag gebruiken.

In mijn huis staat bijvoorbeeld het volgende aan:
- Koelkast 24/7
- Router 24/7
- Modem 24/7
- Wasmachine om de paar dagen
- Licht doe ik sporadisch aan en dan zijn het ledlampen.

Verder gebruik ik niet heel veel andere elektrische apparaten in huis en als ik het niet gebruik staat het uitgeschakeld en/of gaat zelfs de stekker uit de muur. Mijn verbruik is lager dan het gemiddelde van een 1-persoons huishouden als ik de Vattenfall app mag geloven en dat met een overclockte gaming PC van enkele jaren oud.

Daarnaast is het de vraag wat je ermee bereikt, als iemand aan 3D-rendering doet, hoeveel uur langer moet deze PC renderen als je een theoretische grafische kaart van 500 watt halveert naar 250 watt omwille wetgeving?

Nu is 250 > 500 watt momenteel niet een performance increase of decrease van x2, maar je hebt uiteraard niet alleen een videokaart in je machine zitten. Hoeveel elektriciteit bespaar je uiteindelijk op korte- en lange termijn? Naar mijn idee, als je überhaupt al iets bespaart afhankelijk van hoeveel uren je per dag dit op volle toeren draait, zal dat niet bijster veel zijn.

Er zal wellicht een punt komen in de toekomst dat computeronderdelen veel- en veel efficiënter omgaan met het wattage gebruik dat het halveren hiervan niet een decrease van 5-15% performance geeft zoals nu maar daadwerkelijk 50%. (Al zal deze watt-to-performance efficiëntie redelijk ver in de toekomst liggen vermoedelijk aangezien dit niet de hoogste prioriteit heeft bij de race om performance.)

Daarbij zal het gros van de bevolking überhaupt niet de meeste energie slurpende grafische kaart aanschaffen, als je de Steam Survey van maart 2023 bekijkt:
https://store.steampowered.com/hwsurvey/videocard/

Dan zie je dat het percentage van de Steam-gebruikers die de survey indient de volgende kaarten heeft:
4090 = 0,25%
4080 = 0,19%
3090 = 0,45%
3080 = 2,62%
(De nieuwste AMD RX 7900 zie ik er niet tussen staan)

Dat is totaal 3,51%, nu zal dit in de werkelijk rond de 5%~ liggen want niet iedereen participeert met de Steam survey, maar hoe zou dit zich vertalen naar bevolkingsgetallen in Nederland bijvoorbeeld? Maximaal 100.000 man of zelfs stukken minder dan dat? Naar mijn idee is dat behoorlijk verwaarloosbaar.

Als je echter dan kijkt naar cijfers van hoeveel mensen een TV heeft in huis:
In 2018 heeft 96% van de Nederlandse huishoudens een TV in gebruik.

Dus lijkt mij behoorlijk zonde van het tijd- en geld van de overheid om zich hiermee te bemoeien op dit moment.
Je beperkt het nu tot renderen. Gaming doe je niet sneller, je zit nog steeds uren aan de buis gekluisterd.
En voor diegene , die echt renderfarms nodig heeft, waren er altijd al professionele videokaarten.

Feit is dat het verbruik omhoog kruipt, telkens wat meer. Waar leg je de grens?
Ik beperk het niet, ik geef enkel een voorbeeld aan van een doorlopende activiteit waarin de GPU maximaal benut wordt.

Bij gamen is dit afhankelijk van een hoop factoren, waaronder het type engine, optimalisaties, het type spel en/of dit spel meer gebruikmaakt van de CPU of GPU.

Ik zie bijvoorbeeld een 4090 niet volledige wattage trekken als je een pixelgame als Vampire Survivors of Stardew Valley speelt, bij grafisch renderen kan je daar echter wel vanuit gaan. Ja er zijn spellen waarbij dit wel het geval is, maar de catalogus van games is zo breed dat je niet kan garanderen dat een game het uiterste uit de kaart perst, ook al zijn dit games die de GPU zwaarder belasten.

Het enige waarin een dergelijke grens nut heeft is als je persoonlijk kosten wilt besparen, maar goed wie koopt een hyperdeluxe grafische kaart voor duizenden euro's om deze terug te brengen naar het niveau van (veel) goedkopere kaarten?

Voor mensen die op de hoogste kwaliteit en resolutie willen gamen zijn grafisch krachtige kaarten bijna de enige gangbare optie en betalen daar dan ook voor, iemand die op 1080p speelt heeft vrij weinig aan zo'n grafische kaart.

Daarnaast als ik nu minder verbruik dan de gemiddelde 1-persoonshuishouden, waarom zou ik niet maximaal mogen genieten van een grafische kaart waar ik 2000+ euro voor betaal? Terwijl anderen één of meerdere televisies, spelcomputers, recorders, niet zuinige lampen en allerlei andere elektrische prullaria de godganse dag aan hebben?

Het enige waar ik het mee eens ben is dat ik graag op 100-200 watt dezelfde prestaties behaal als de huidige kaarten die momenteel oplopen tot 400+ watt, maar er komt uiteindelijk ook een punt waarin AMD, maar met name Nvidia gaat inzien dat daar ook een grens aanzit.Dus dat gaat nog wel wat jaartjes duren voordat we zulke efficiënte kaarten gaan zien.

Maar los hiervan gaat het om een handjevol mensen in Nederland die überhaupt zo'n kaart energie slurpende grafische kaart bezitten, de overheid erbij roepen om een niche-product te limiteren in zijn kunnen zal enkel maar onnodig belastingverspilling zijn.

Die gaan dan rustig roepen dat een product die meer dan xxx watt gebruikt je xx percentage extra belasting over moet betalen, denk dat niemand daar met de huidige prijzen op zit te wachten dat ze dit OOK verder gaan uitbuiten.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 09:22]

Maar goed dan dat het een niche product is. Stel je voor dat dit mainstream zou zijn, wat dan?
Hoe gaan we ooit klimaat neutraal worden? Oja, iedereen behalve die paar die het zich kunnen veroorloven om lekker te stoken. Klasse justitie?
wat los je met een verbod op dan? krijg je gewoon weer SLI opstellingen, of onbedoelde bij-effecten zoals supercomputers die opeens illegaal zijn, en je weervoorspelling voor komende week niet meer klopt, of bedrijven die 3km over de grens gaan zitten.

de markt lost het probleem zelf al grotendeels op door (redelijk) vaste formfactors en connector standaarden, waardoor er steeds meer performance uit een vaste x-y-z dimensie en aansluiting A of B geperst wordt, en dat alleen haalbaar is door efficienter om te gaan met energie.

Ieder z'n hobby of (bedrijfsmatige) noodzaak om high performance te draaien toch? Er is al belasting betaald over het inkomen waarmee de kaart aangeschaft wordt, btw over de kaart, en belasting op energie. en dat laatste is al sturend op onnodig verbruik voorkomen.

quote rijksoverheid: De overheid wil dat u zuiniger en efficiënter omgaat met energie. Daarom heft de overheid belasting over het verbruik van elektriciteit en aardgas. Door de belasting wordt de totaalprijs van energie hoger. Een hogere energieprijs kan mensen stimuleren minder energie te gebruiken.
Wat los je op met een max gebruik op tv's? Hetzelfde als op computer onderdelen. Moeten ze efficiënter beleid voeren en R&D in een andere richting sturen. Zou zeker geen slecht idee zijn als we toch minder moeten gebruiken met z'n alle. Mijn bak pakt piek al meer dan 700 watt dan nog de monitor erbij.
PC’s, zelfs met een hongerige 4090 er in, verbruiken veel minder dan de gemiddelde droger/vaatwasser/elektrische oven enzovoorts. Ook maar verbieden?
Hoezo? Niemand verplicht je zo'n slurper te kopen.
Overbodig. Verbruik is nu al een dubbel probleem voor GPU's: je moet stroom aanvoeren en hitte afvoeren. Beide is al een tijdje niet meer zo makkelijk.

Afgezien daarvan, dan krijgen we gewoon een GTX 5091 EU-edition, met simpelweg een andere boost clock limiet in firmware. Hardwarematig identiek, en elke tweaker kan 'm flashen met de non-EU firmware. Netto resultaat: de 5091 wordt 5% duurder dan de 5090 doordat de EU de marktsegmentatie voor NVidia gaat doen, en grijze import illegaal wordt.
Een maximum verbruik zou dan per performance klasse moeten zijn. Oftewel eigenlijk performance per Watt. Een kleine klasse C TV verbruikt veel minder dan een grote klasse A TV bijvoorbeeld.

En ondanks dat de verbruiken bij sommige topkaarten hoog zijn, de performance per Watt is flink beter dan alles ervoor. Een 4070ti verbruikt ongeveer tweederde van een 3090, maar performt bij eigenlijk alles beter. Enige nadeel is minder geheugen. En een 3090 is voor de komende jaren ook nog ruim goed genoeg.

Bovendien als we alle kaarten verplicht krap aan sizen kan je elke 2 jaar een nieuwe kopen. Ook dat kost energie(zeker als je alle transport slagen inclusief grondstoffen meetelt). En dan heb ik het nog niet over de rest van de milieu impact.
Doen ze dat nog niet in Nederland dan?
Oja, want de vrij markt heeft de natuur totaal in de hand. Geen vervuiling etc.etc. 8)7
Shell, Total , Apple , microsoft, ja die gaan onze problemen oplossen |:(
Een corporate state, dat is het helemaal. De grote bedrijven, die weten wat goed voor ons is. Echt, word eens wakker.

Je vergeet ff voor het gemak dat wij onze regering zelf gekozen hebben.

[Reactie gewijzigd door Madrox op 23 juli 2024 09:22]

Ik heb niet op een partij gestemd die momenteel onze regering vormt, dus je kunt mij niet in de schoenen schuiven er zelf voor gekozen te hebben.
Ik ben ook gewoon wakker, kom zelf eens uit je arrogante roes.
Jij denkt dat wat wij hier doen, globaal ook maar iets uitmaakt?
Het welvarende deel van de wereld is niet zo groot, de rest heeft het druk met belangrijke zaken, zoals eten voor hun kinderen.
Alle fossiele brandstoffen gaan gewoon opgebruikt worden in andere delen van de wereld.
Kerncentrales zijn een prima oplossing, maar dat is jarenlang tegengehouden door dezelfde groep mensen. Daardoor draaien er nu reactoren met haarscheurtjes vrolijk verder omdat deze niet vervangen zijn in het verleden omdat kernenergie weg moest in de toekomst.
Allemaal door dergelijke "idealisten" in de politiek en volk dat teveel welvaart heeft genoten om nog een beetje realistisch naar het totaal te kijken.

Ik zou zeggen, los eerst samen eens de armoede op in het grootste deel van de wereld, maar dat wil men eigenlijk stiekem niet omdat er wanneer dat gebeurt, geen moderne slaven meer zijn om het werk dat welvarenden niet willen doen, uit te voeren.
Heb ik vaker gehoord en keer op keer niet waar wat zich vertaalt in 30% verbetering in praktijk, de marketingmachine draait weer op volle toeren merk ik.
de marketingmachine draait weer op volle toeren merk ik.
Nvidia heeft nog geen aankondiging gedaan, geen marketing maar een YouTuber met een bedenkelijke reputatie.
Klopt maar ook dan, Nvidia gaat dat niet zo snel doen, deze bedrijven zijn er om wist te maken.
Ik ga ervan uit dat Tweakers vooronderzoek doet voordat er iets geplaatst wordt op de frontpage, het is hopelijk geen Facebook hier alhoewel ik dat steeds meer ga betwijvelen.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:22]

Dubbel zo snel zou gerust kunnen, maar dan alleen op hele, hele specifieke toepassingen, bijvoorbeeld rendering.

Dat zegt niet dat we straks in games dubbel zo'n hoge framerate kunnen verwachten.
4000 euro gpus :p
Dat RTX 50 serie sneller is mag ik wel hopen, maar Nvidia kennende gaat deze performance niet voor niks komen. Als de 5090 2x zo snel is voor 3000 euro, dan hebben we er niet zoveel aan.

De prijzen zijn aan Jensen om te bepalen, dus het kan alle kanten op, maar ik houd mijn hart vast...
2 keer zo snel, 2 keer het verbruik en dat voor 2 keer zo veel.

NVidia, the way it's meant to be played paid!
4090 is ongeveer 80% sneller dan 3090 en trekt minder stroom. 4080 is ongeveer 45% sneller dan 3080 en trekt minder stroom. Dus ik weet niet goed waar je het over hebt.
RTX 4000 kaarten zijn belachelijk efficient vergeleken met de 3000 serie.
Dat zijn ze niet. Ze zijn enkel efficient wanneer je ze tweaked en wanneer je de silicon lotery wint. Hierboven gaf je het aan dat de 3xxx serie inefficient is maar daar kan je hetzelfde doen.

[Reactie gewijzigd door Hakker op 23 juli 2024 09:22]

4000 serie heeft een beter power design vergeleken met 3000 serie, met de 3000 serie heb je grotere FPS drop als je extreem gaat undervolten.
Ook ongetuned is een stock 4090 veel efficiënter dan bijvoorbeeld een 3090 of 3090 Ti, en datzelfde zie je eigenlijk door een hele stack gereleased tot nu toe. De RTX 4080 is efficiënter dan de RTX 3080 en de RTX 4070ti is efficienter dan de RTX 3070ti

Ga je zelf tunen dan neemt die efficiëntie alleen maar toe, maar ook stock zijn deze kaarten efficienter dan de voorgaande generatie op dezelfde positie in de stack.
Je hebt het fout op twee vlakken : Vergelijkbare kaarten op 4000 trekken minder stroom (4080 trekt 280W, 3080 trekt 330W; 4090 trekt 380W, 3090 ti trekt 450W), en ze hebben veel minder erge transient power spikes.

Ten tweede is wat je zegt nog steeds meer efficiënt. Ze zijn voorbij hun piek efficiëntie geclockt, maar het is enorm eenvoudig om MSI afterburner of vergelijkbaar te downloaden en een power limiet aan te zetten.

Met dezelfde stroomvoorziening draait 4000 heel wat sneller dan 3000. Dat is de definitie van veel efficiënter te zijn.
Mjah, daarom heeft de 4090 ook vier PEG stekkers nodig ...lol.
Belachelijk, zo efficient en toch weer meer juice nodig. Tja.

[Reactie gewijzigd door Madrox op 23 juli 2024 09:22]

Ik kap ermee, wat je blijft bashen, vast een AMD fanboy.
Nee, dit is algemeen. Wij pronken graag met hoe efficient iets is. Echter, als je het krachtiger maakt, gaat het verbruik in totaal toch omhoog. Maw: een kaart trekt 300 watt uit de muur, maar gebruikt daar 270watt van. 90% efficient dus. Nu kom je met een nieuwe kaart die 400watt uit de muur trekt en die kaart gebruikt er 380watt van. 95% efficient! Hoera! Ewww, die nieuwe kaart verstookt wel 25% méér! 100watt méér.

Efficiency is een mooi gegeven, maar het zegt niets over zuinigheid. Dat laatste, is natuurlijk erg belangrijk.
Vooruitgang is als we dezelfde of meer performance halen met minder verbruik. Zolang we de efficiency misbruiken om meer performance te genereren zitten we op de verkeerde weg. We verstoken al teveel.
Je helpt je verhaal niet echt door de wet van behoud van energie strak te vergeten. Een GPU die 300W trekt zet 300W elektrisch vermogen om in 300W warmte. Die warmteproductie is 100% efficient.

Het bijkomende effect zijn FPS. Maar dat kun je niet uitdrukken in een percentage. 60 FPS/300W is geen 20%.
binnenkort voor maar 3999 :+
Zou wel handig zijn als het typenummer ook gelijk de prijs zou zijn. RTX5090 voor 5090 euro.
Nee hoor, zal gewoon als adviesprijzen vergelijkbaar met de 40xx serie zijn, inflatie in acht nemend.
Net als ik al weken aan het twijfelen ben om te upgraden... Nu ik dit lees dan wacht ik maar gewoon rustig af op de volgende generatie GPU's. Bedankt!
Zo denk ik al jaren :+
Loopt allemaal nog prima denk ik de rest van het jaar.
Voorheen deed ik om de generatie een upgrade maar tegenwoordig denk ik dat twee tot drie generaties overslaan ook prima is. Zeker met de langzame ontwikkelingen op console gebied.
Ja m'n 2080 ti doet het eigenlijk nog prima en gamen doe ik bijna nooit meer. GPU gebruik ik eigenlijk alleen maar om AI bewerkingen te doen maar alsnog is upgraden zo verleidelijk.
Uiteindelijk kan je dan blijven wachten, want elke volgende generatie wordt krachtiger vergeleken met de huidige generatie. Ik zou gewoon de knoop doorhakken en een videokaart kopen wanneer je die nodig hebt.

Zelf wilde ik een lange tijd terug een nieuwe build samenstellen met een i7 8700K en een GTX 1080(Ti), op dat moment had ik een i7 3770 en een GTX 680. Toen gebeurde er iets en bleef ik het maar uitstellen en uitstellen. Nu zit ik met een 5900X en een 6900XT.

Stel we zouden bijvoorbeeld opnieuw een mining bubbel krijgen (kans is klein, dat even buiten gelaten), dan worden de videokaarten weer schaars en duurder. Dan kan je met je geld minder videokaart kopen.
Die bubbel is er al een beetje en heet (o.a) Stable Diffusion en AI, ik vermoed dat dat de nieuwe cash cows worden voor GPU's. (plaatjes genereren met je GPU, of andere AI toepassingen)
Het was ook maar een voorbeeld om te geven, dat videokaarten in de toekomst weer duurder kunnen worden :)
Ik wil niet te veel informatie vrij geven maar ik heb vernomen dat de RTX 6000 serie nóg krachtiger is.
En ook verbruikt hij nóg meer!
Ik wacht al 25 geduldig op een geschikt moment om mijn Diamond Stealth + Voodoo kaart te upgraden. Wéér dacht ik dat dit een mooi moment was... En dan lees je dit. Ik wacht wel weer even :+
Dan heb.ik de perfecte opvolger voor je https://youtu.be/-aMiEszQBik
Die DX12-2-Glide wrapper werkt nog prima! :+
5700xt nog op 3440 1440, alles draait nog prima. Ultra nee! Wel degelijke graphics
Same here, zat ook te twijfelen een high end aan te schaffen voor VR, beter even wachten denk ik..
Ik hoef voorlopig ook niet aan upgraden te denken, heb onlangs mijn 1070 vervangen met een 4070 Ti.
Dan kan je jaren wachten en krijg je nooit een nieuwe GPU, ben je een nieuwe GPU nodig koop hem dan.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:22]

Dat is heel verstandig. Op die manier hoef je nooit geld uit te geven want er staat altijd wel weer een volgende generatie op stapel die nog beter dan de vorige is. Wat een hele dure hobby kan zijn wordt zo juist een hele goedkope hobby.
Dan kun je wel blijven wachten, want de 60xx hebben ze ook al in de pijpleiding zitten. De 50xx generatie zal pas eind volgend jaar verschijnen, en dan weer eerst de 5090 etc.
Ik ben zelf altijd al een pc gamer geweest maar ik vind de prijzen voor een gamepc nu toch echt te hoog in vergelijking met een console. Als je de pc puur voor gaming zou kopen althans.

Tegenwoordig is de PS5 eindelijk goed verkrijgbaar tegen een normale prijs (550). Omdat ik toch een couch gamer was en single player games speel, heb ik besloten om een PS5 te kopen. Geen moment spijt van gehad. Werkt perfect op mn LG C2, de controller is geweldig, en minder gedoe. Ik speel alles op 'performance' mode om toch 60fps te spelen. Je levert dan wel in op de resolutie (doorgaan speel je dan op 1440p ipv 4k. Ik heb zelf de 55 inch versie van de LG. Eigenlijk is het dan een kwestie van niet al te dicht op je scherm zitten, dan is alles scherp genoeg voor een esthetisch mooie ervaring. (3-4m bij 1440p op 55 inch. Ik ben zelf redelijk perfectionistisch als het gaat om het creëren van de optimale ervaring gezien de middelen die je hebt).

Ook kan je, als je de disc versie van de PS5 hebt, alle games gewoon via marktplaats voor een paar tientjes kopen. En als je er klaar mee bent, kan je het verkopen.

Tenslotte is alles natuurlijk plug en play, is een game direct opgestart, vaak zelfs nog in memory, lekker vanaf de bank. Minder tijd kwijt zijn aan gedoe met je pc, en meer aan waar het mij daadwerkelijk om ging: games spelen.

Ik raad het iedereen aan!

[Reactie gewijzigd door MishaT op 23 juli 2024 09:22]

Tsja, ieder z'n voorkeur. Mijn redenatie is dat ik m'n PC toch al heb, dus die 550 koop ik liever een 3060Ti voor. Bovendien je zou eigenlijk toch ook wel die €1000 voor je TV mee moeten rekenen. En als je niet alleen woont, de prijs van een extra TV zodat je partner/huisgenoten/kids ook iets kunnen doen op het moment dat jij aan het gamen bent?

Wat betreft controllers, die kun je ook op de PC aansluiten, maar toetsenbord en muis ondersteuning voor games op consoles? Geen idee hoe goed dat tegenwoordig is, maar sowieso wil je dan achter een bureau ipv op de bank zitten.

De kosten van games kun je volgens mij tegen elkaar wegstrepen, PC games zijn vaak zoveel goedkoper dat dat de doorverkoopprijs compenseert?

En wat betreft plug en play... Tsja, in de tijd dat mensen te lui zijn om op te staan om de verwarming hoger of lager te zetten of de lichten aan te doen heb je misschien een punt, maar voordat ik mijn biertje heb ingeschonken is mijn spel al opgestart. En wat je bedoel met 'gedoe met je pc'?

Fijn dat je zo blij bent met je console, maar met mij zijn er net zovelen die zweren bij een PC. Het enige wat een console heeft wat een PC niet heeft zijn exclusives, al lijkt dat langzaam aan te verschuiven met top titels als Horizon en God of War.
De meeste exclusives zijn op de PC te vinden. Ondanks dat er veel spellen inmiddels ook op de consoles verschijnen.
Of:

Consoles en PC's hebben beiden hun geweldige aspecten O+
Grappig: ik was het helemaal met je eens en toen ik voor mijn VR games (andere speel ik niet) eens "wat meer" wilde dan de stand-alone Quest2 was de keus snel gemaakt voor een PS5+PSVR2 combo. Wel even €1200 incl. horizon: call of the mountain, maar dan heb je ook wat - dacht ik!
Helaas: ik speel lopend/staand en heb i.t.t. 2D gamers geen TV in de VR kamer en die ook niet nodig gehad, het beeld staat uiteindelijk al op je hoofd. Maar in tegenstelling tot de geruchten waar je eaalleen monitor/TV nodig had bij de eerste setup, werkt de PSVR2 niet goed zonder scherm: de gedefinieerde vrije ruimte waarin je speelt lijkt langzaam te verplaatsen (drift), tot je een muur o.i.d. raakt, wat me met een Quest2 niet gebeurde. Ik denk dat Sony de TV ook als ijkpunt gebruikt tijdens het gamen. De Sony speelde echter niet met de oude monitor samen die ik had (dell 2405) 1980x1200 was kennelijk te lastig... Alhoewel hij al was ingericht met een andere monitor, kwam hij toch zonder blikken of blozen nog even met "Zet je VR bril af en volg de instructies op de monitor"!
Dus dan nog een TV erbij... ik heb hem vrolijk teruggestuurd en bekijk nu een zelfbouw PC (voor 4K gaming) rond een AMD 7900 XT voor zo'n €1400.- (kast, MB, 32GB ram, 5600X, etc.)
Jammer.. Ik speel ook zeer veel VR en ik heb net een 4090 gekocht (1800 euro). Vrienden verklaarden me voor gek dat ik beter een PS5 + PSVR2 kon kopen.

Ik zie daar ook wel voordelen in, de PSVR2 heeft een veel beter scherm. Maar is wel weer draadgebonden wat als Quest 2 speler een stap terug voelt.

Als Rift speler dacht ik nooit dat dat uitmaakte maar daar ben ik allang alweer van teruggekomen, draadloos is zo fijn. Drift heb ik inderdaad nooit last van op de Quest. Op de rift vreemd genoeg wel ondanks de 4 vaste sensoren die ik had, raakte hij toch af en toe de tracking kwijt.

Ook zit je met met PS5 natuurlijk best beperkt in de games die je kan spelen. Ik speel veel flight simulator 2020, en ook andere geweldige games als HL: Alyx (en de diverse user-content mods daarvan), de Half-Life 2 community VR remake die geweldig is, en nog veel meer dat niet op een PS5 te krijgen is. Bovendien doe ik zelf VR ontwikkeling met Unity. Dus er was gewoon geen keuze.

Maar de hoge prijs van de 4090 stak me wel en ik voel me er wat beter bij nu ik hoor dat het gras daar niet veel groener is, nog buiten het feit dat hij me evenveel zou kosten als de 4090 als ik de verkoop van mijn oude 3080Ti (600 euro) meereken.

Ik hoop wel dat de Quest 3 snel komt. Na het gebruiken van de Pico 4 en de Vive Focus 3 (de laatste op een evenement) moet ik zeggen dat een sprongetje in de specs inmiddels toch wel aardig nodig begint te worden.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 09:22]

Ik denk dat ik ook "even" ga wachten op de Quest3. Wat me ook ergerde was inderdaad de kabel: ik speel bij voorkeur staand en dan is zo'n ding simpelweg lastig. Het voordeel van de kabel, dat de batterij niet zo snel leegloopt heeft Sony keurig opgevangen door de batterijlevensduur van de controllers zo kort te maken... ik begrijp niet dat er mensen zijn die dat prefereren over een -OK wegwerp- batterij die >10x zo lang meegaat.
Daarentegen is Horizon call of the mountain, waar ik de demo van speelde ongever net zo'n verbetering over de Quest2 als de Quest2 over google cardboard - man wat een beleving! Dat beeld is weleswaar geen HDR maar toch al zoveel mooier. Planten die bewegen als je ze "aait", het water door je handen in het water in de boot, fantastisch en bijna de €1200+TV die Sony ervoor wil hebben. Maar het is een lineair verhaal: heb je het gespeeld kun je met moeilijker settings, maar het complete verhaal blijft denkelijk gelijk.
Die batterijen hoef je niet eens weg te werpen. Ik heb gewoon oplaadbare in de Quest 2 zitten.

Ik snap het ook niet, een batterij vervangen is veel fijner dan zo'n ding op moeten laden op het moment dat hij leeg is. En de ruimte voor een AA batterij heb je toch in de handgreep want die moet een minimale grootte hebben. Dus klikklak en weer verder spelen.
offtopic:
PS wel toepasselijke nick heb je :+


Dat Horizon klinkt wel goed ja, maar ik moet zeggen dat de PC ook veel mooi spul heeft als je gewoon draadloos streamt naar de Quest 2. Half-Life Alyx natuurlijk in het bijzonder. Is het echt zoveel beter dan dat?

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 09:22]

Hoi, nick past hier goed... ik erger me altijd kapot aan dingen die vaker aan de lader liggen dan ze in gebruik zijn, Applewatch is b.v. niets voor mij.
Ik heb half-life nooit gespeeld, bij gebrek aan PC/console. Het blijft zeker een kwestie van smaak, maar ik vermoed (puur buikgevoel) dat het verhaal van Horizon en de VR ervaring beter is dan half life. Half life biedt denkelijk langer speelplezier en wat minder linear verloop.

Nog een vraagje: ik speel met de gedachte een game PC om de 7900XT te bouwen (momenteel ongeveer €1400, kast BeQuiet 500 dx + MB ASUS TUF Gaming B550-plus+ 32 GB RAM (DDR4)+Gelid cooler+ 5600X processor, oude SSD Be Quiet 650W). Ik hoef geen raytracing, maar de Nvidia drivers schijnen wel beter voor VR... suggesties?

[Reactie gewijzigd door batteries4ever op 23 juli 2024 09:22]

Geen idee, sorry. Ik heb al jaren geen AMD videokaart meer, omdat ik ook wel eens gewoon game en dan wil ik wel raytracing. Daar is Nvidia gewoon de beste in, zelfs nu AMD weer een beetje ingelopen is qua performance.

Maar zou je nu nog wel voor AM4 gaan als je nu een nieuwe PC koopt? Ik heb nu ook AM4 maar daar heb ik al 3 verschillende processoren in gehad. Als je nu nog een AM4 koopt dan is het zeker de laatste. Ik zou gewoon voor AM5 gaan als je nu nieuw koopt.

Ik heb zelfs ook maar PCIe 3.0 waardoor mijn 4090 een beetje geremd wordt, maar volgens reviews schijnt dit maar 1-2% te zijn dus de kosten van een upgrade wegen er nog niet tegenop. Dit laat ik dus maar een paar maandjes liggen tot de prijzen wat gezakt zijn. Maar als ik dit mobo niet al had dan had ik zeker geen AM4 genomen nu. Ik heb zelf een 5800X3D trouwens. Erg fijn voor flight simulator in het bijzonder.

Maar over AMD kaarten in combinatie met VR heb ik gewoon 0,0 ervaring, sorry.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 09:22]

OK, wat betreft MB en zo: ik stop het geld zoveel mogelijk in de videokaart, bij 4K gaming is de 5600X/MB/RAM maar zelden de beperkende factor lijkt me. Die 1.2% is voor PCI3.0, vrij verwaarloosbaar, en mijn totale PCIe4.0 MB+processor+Ram kost maar €330 of ... als het tijd wordt voor een nieuwe videokaart kan dat spul zo naar mijn neefje of zo.
Een vergelijkbare setup met AM5/DDR5 kost me snel €200 meer, zeg €500 dus ik kan na 3/5 van de tijd upgraden - dus eerder naar DDR6 o.i.d.: veel meer performance per € dan een DDR5 systeem.
Ja maar als je gaat upgraden met AM5 dan kan je je processor en geheugen alvast houden natuurlijk.

En zal DDR6 echt zo snel komen?
Ik ben van plan een jaar of 5 met deze kast te doen. zou ik DDR5 nemen dan zou dat een jaar of 7 moeten worden voor dezelfde kosten/jaar ... in die tijd hebben we vast wel DDR6 of DDR7. Mocht vanwege mijn Quest5VR bril met 8K resolutie een nieuwe videokaart nodig hebben dan moet de hele PC de vuilnisbak in en er is niet al te veel op tegen de "RTX 6080" in een PCIe 4.0 MB te prikken, dat kost me eventueel die 1.2% van jouw performance. .
Alleen zo jammer dat je op de PS5 alleen ps5/ps4 games kunt spelen, terwijl mijn steam/gog/egs library toch aanzienlijk is. Had graag gezien dat je op de xbox series X gewoon windows kon draaien, met wat extra geheugen, en dan eventueel een extra offset prijs vanwege het gemis van kopen van xbox games.
En dan 8K gaming? 4K @ 120fps?

Volgens mij komen we op het punt dat er nauwelijks meer praktische winst te behalen is. Meer fps en hogere resolutie zijn voor de gemiddelde gamer gewoon echt niet nodig/het geld waard. Zeker niet als dan ook nog de electriciteits rekening significant hoger wordt.

Liever 2x zo zuinig dan 2x zo snel, en haal dan ook direct wat van de prijs af zodat een midrange kaart weer 'gewoon' rond de €300 kost.
Nee joh, dan kan je 60 FPS op 1440p spelen bij nieuwe spellen. En dat is een beetje serieus, en beetje niet serieus van mij.

Aan de ene kant worden spellen steeds mooier, en daarom steeds zwaarder. Tegelijkertijd zijn er ook gewoon erg gebrekkige optimalisaties, waarbij GPU, CPU, VRAM, etc gigantisch hoge eisen krijgt, en het spel zelf? Ziet er niet slecht uit, maar daar houdt het ook bij op.
Tsja, ik speel al bijna 10 jaar op 1440, eerst met m'n 1060 nu met m'n 3060Ti. OK, niet alles staat op Ultra of very high, maar je moet wel verdomd goede ogen hebben (en niet echt in je game zitten) wil je dat verschil kunnen zien.

En als je echt geoptimaliseerde games wil moet je op consoles gaan spelen ;)
Klinkt als een Ryzen 5600 met een rx6600 8-)

Als de 4060 en straks de 5060 van Nvidia nou ook lekker zuinig zijn...

[Reactie gewijzigd door roffeltjes op 23 juli 2024 09:22]

Nouja, ik heb liever 2x zo snel en net zo 'zuinig'. Ieder zo zijn/haar/het wensen. Voor VR is die extra kracht echt wel gewenst.
Ik zal te oud zijn - en google geeft geen goed antwoord - vandaar toch mijn vraag: Wat is een monolitisch chipontwerp?
Wat is een monolitisch chipontwerp?

Een monolithisch chipontwerp is een methode voor het ontwerpen en fabriceren van geïntegreerde schakelingen (IC's), waarbij alle componenten van een circuit, zoals transistoren, weerstanden, diodes en andere passieve elementen, worden geïntegreerd op één enkel stuk halfgeleidermateriaal, meestal silicium. Dit type ontwerp staat in contrast met hybride of modulaire benaderingen, waarbij verschillende componenten afzonderlijk worden geproduceerd en vervolgens op een gemeenschappelijk substraat worden gemonteerd.

Monolithische chipontwerpen bieden over het algemeen een hogere dichtheid van componenten, wat kan leiden tot een betere prestatie, een kleiner formaat en een lager energieverbruik. Dit type ontwerp is de basis geweest voor de enorme vooruitgang in de halfgeleiderindustrie, die wordt beschreven door de wet van Moore, waarbij het aantal transistors op een geïntegreerde schakeling ongeveer elke twee jaar verdubbelt.

Het ontwerpen en produceren van monolithische chips is echter complex en vereist geavanceerde technologieën en processen, zoals lithografie, chemische dampafzetting (CVD) en etsen. Dit kan leiden tot hogere kosten en langere ontwikkeltijden, maar de voordelen op het gebied van prestaties en miniaturisatie wegen meestal op tegen de nadelen. (bron chatgpt)

[Reactie gewijzigd door Henk- op 23 juli 2024 09:22]

Ze mogen binnenkort wel 8K of 4K 400 fps monitoren uitbrengen om deze kaarten relevant te houden :+
Nee hoor, de extra kracht kan dan voor nog meer detail, betere belichting en betere physics gebruikt worden, zelfs op 1080p hebben we nog steeds geen photorealistische games in realtime, laat staan 4k. Het draait niet altijd om nog hogere resoluties, 8K is echt onzin op ern doorsnee monitor.
Ik weet dat 8K onzin is.. maar 200+ hz op een monitor ook. En de 5% games die zo een dergelijke kaart nodig hebben (voor lighting, physics) zijn het denk ik ook niet waard. Degene die nu een 3080 of beter/nieuwer hebben zitten met 4K 60 fps en 1440p 144 fps wel een flinke tijd goed.

Wat willen ze met een 50 of 6090 gaan goedpraten? Een 4K 200+ hz of dus die belachelijke 8K (dat bij de 3090 al eens is aangehaald).

[Reactie gewijzigd door jellybrah op 23 juli 2024 09:22]

Physics en details zijn nog heel veel verbeteringen in te brengen, realtime raytracing zijn we ook nog langer niet. Naast natuurlijk dat we nog ver weg zijn van de kracht van een 4090 op mobile scale, en dan bedoel ik dus smartphone niveau, niet laptop en vooral wat betreft prijs. Voordat we 4090 power hebben op 1050 prijsniveau zijn we wel weer 10 jaar verder. En daarvoor moet dus wel ook steeds een betere snellere highend verschijnen.

Op dit item kan niet meer gereageerd worden.