Nvidia GeForce RTX 4080 Super met AD103-gpu verschijnt in PCI-database

Er is een onaangekondigde GeForce RTX 4080 Super-videokaart van Nvidia verschenen in de PCI ID Repository. Deze videokaart zou beschikken over een AD103-gpu. Er gaan al langer geruchten rond over de komst van een RTX 4080 Super, naast een RTX 4070 Super.

De Nvidia GeForce RTX 4080 Super verscheen onlangs in de PCI ID-database, merkte techwebsite VideoCardz op. Uit de listing blijkt dat de videokaart een AD103-gpu krijgt. Dat is de chip die ook wordt gebruikt in de gewone RTX 4080, die Nvidia vorig jaar uitbracht.

Mogelijk krijgt de Super-variant wel iets meer CUDA-cores, hoewel dat niet wordt vermeld bij de PCI ID Repository. Nvidia deed eerder iets soortgelijks in de GeForce RTX 20-serie. Het bedrijf bracht toen een RTX 2080 Super met 3072 CUDA-cores uit, ten opzichte van 2944 cores in de gewone RTX 2080. Beide varianten hadden in dat geval een TU104-chip.

Verder staat in de listing dat de RTX 4080 Super een device-ID van 2703 krijgt, wat suggereert dat het een videokaart voor desktops betreft. De gewone RTX 4080-desktop-gpu heeft het apparaat-ID 2704, terwijl de laptopvideokaarten hogere cijfers als ID's hebben.

De PCI ID-database wordt onder meer bijgehouden door maintainers op basis van gpu-drivers, naast individuen die gpu's kunnen inschrijven op basis van leaks of eigen kennis. De RTX 4080 Super is ditmaal ingediend door T4CFantasy, de beheerder van de TechPowerUp-gpu-database. PCI ID-listings van deze gebruiker zijn in het verleden regelmatig correct gebleken.

Er gaan al langer geruchten rond over de komst van een GeForce RTX 4080 Super, hoewel de vermeende specificaties verschillen. Leakers stelden eerder dat de videokaart een AD102-gpu zou krijgen, die ook wordt gebruikt in de RTX 4090 voor desktops. Betrouwbare leaker kopite7kimi zei deze week dat Nvidia overweegt om onder meer een AD103 voor de videokaart te gebruiken. Nvidia zou ook met een GeForce RTX 4070 Super komen. Wanneer de twee Super-videokaarten uitkomen, is nog niet bekend. Bronnen van VideoCardz verwachten dit jaar geen nieuwe videokaartreleases van Nvidia meer.

Nvidia GeForce RTX 4080 Super PCI ID Repository

Door Daan van Monsjou

Nieuwsredacteur

26-10-2023 • 13:52

91

Lees meer

Reacties (91)

91
91
34
2
0
38
Wijzig sortering
Er is natuurlijk een groot gat tussen de
4080 1200 euro
4090 1800 euro
om te vullen kan gerust een super en ti 1400 & 1600 euro
Als ik die prijzen zo zie waan ik me terug in Coronatijd waar ik voor m'n 3060Ti €700 betaalde. GPU's die meer kosten dan een zeer fatsoenlijke/bovengemiddelde game PC zelf... |:(

Weer typisch zo'n moment dat ik begin te twijfelen of ik nu echt zo arm ben dan ik dit niet wil/kan betalen of dat de wereld gewoon helemaal gek geworden is.

Het is natuurlijk relevant tech nieuws, maar ik kan me niet aan het gevoel onttrekken dat zelfs een site als Tweakers hiermee voor het karretje van de industrie gespannen wordt in de normalisering van op deze manier geprijsde goederen.

Hetzelfde als met smartphones, inmiddels zijn we daar de €2000 barrière al door, en dan gaat het niet eens om een speciale Gukki of Prata versie.

Hoe kunnen we terug naar een wereld waarin het meer gaat over degelijke producten met een normale prijs voor de normale mens, ipv ons blind te staren op het equivalent van een Ferrari of Lamborgini?
Tja in 1995 bedroeg een modaal salaris 1716 euro, nu is dat 3395 euro. Dat betekent niet persé dat iedereen rijker is geworden, alles wordt duurder.

Wil je het op jezelf betrekken kijk dan of je onder of boven modaal zit. Een gemiddeld huishouden zit tegenwoordig op 75k+. Met kinderen onder de 18 zo ver ik weet 90K. Dat zijn de consumenten waar je tegen moet 'concurreren' voor 'schaarse goederen'.

Met lenen heeft het allemaal niet zo veel te maken. Een high-end computer kan best een modaal maandsalaris kosten, ook in 2023.
Bruto idd.
En eind jaren 90 had ik ook de eerste high end geforce 256 ddr die rond de 1000 gulden was.
Dus op zich zijn de prijs nu nog niet eens heel gek.
Met een 4060 of 4070 kan je ook prima 1440p gamen.
Wat me verbaasd is dat tegenwoordig iedereen ook op ultra settings moet gamen.
Vroeger keek je op jouw resolutie wat je allemaal aan kon zetten. Nu moet ineens alles maximaal
Klopt we zijn een tijdje verwend omdat games niet zo snel zwaarder werden maar de hardware wel veel beter werd. Daardoor kon je ineens ultra textures op midrange kaarten draaien.
Laten we alsjeblieft stoppen met het normaliseren van de prijzen. Onze salarissen zijn niet evenredig gestegen met inflatie sinds 1995 en de prijs van videokaarten (en moederborden) zitten daar ver boven. Adviesprijzen en daarachter met inflatiecorrectie van high-end kaarten waren ongeveer als volgt:

95-00: 300usd (600usd)
00-05: 500usd (700usd)
05-10: 600usd (800usd)
10-15: 650usd (850usd)
15-20: 700usd (850usd)
Nu: 1500usd

Dat is bijna een verdubbeling in twee generaties. Een deel daarvan is schaarste maar de marktmanipulatie en het spelen op crisis sentiment van consumenten legt Nvidia geen windeieren. Het ziekste van die groei is dat het in 95-15 vrij stabiel klom maar ook gepaard met exponentieel groeiende technologische vooruitgang en ELK jaar een nieuwe gen waarmee de oude alweer kom halveren in prijs. Stel je voor dat je de RTX3080 in 2021 al kon kopen voor 350 euro omdat er een gelijkwaardige refresh uitkwam of een 4000 serie die 90% winst boekte. Zo was bijna elk jaar toen.
Ik keek gister voor de grap even door mijn oude boekhouding. In 2011 kocht ik twee HD6970’s om in SLI te zetten. Dat waren op dat moment de beste kaarten voor de prijs. Was 550 euro kwijt voor twee highend kaarten. Bizar. Heb nu heel wat meer betaald voor mijn 4080 bij launch 😂 letterlijk alles in het leven is duurder geworden. Maar ik ga niet klagen. Had het ook liever anders gezien maar goed wie niet.
Als we eerlijk zijn was de HD6970 met een MSRP van 350 ook neergezet als een HD5870 refresh en was de HD6990 vooral de high-end/enthusiast kaart ;). Maar ik snap de pijn. In 2006 betaalde ik 463 euro voor een X1900XTX, zegmaar de RTX4090 van toen. Mijn laatste aankoop was een GTX1060 voor 380 euro in 2018. Weiger nog langer te zwichten voor de om zeep geholpen markt. Overigens denk ik dat we best wel reden hebben juist om te klagen. Juist het er niet tegen verzetten en in slaap sukkelen door de wedging die is gebeurd in de welvaartsgroepen heeft hiervoor gezorgd.

Dat we niet op straat leven met onze salarissen en 'slechts' 50% koopkracht verlies indiceert nog steeds een verschuiving, totdat we met onze modale inkomens over 10 jaar net genoeg verdienen om brood op de plank te krijgen en dat dan al bijna genormaliseerd is etc. Er is genoeg geld en welvaart in de maatschappij om de koopkracht van de bottom 99% de vervijfvoudigen. Daar moeten we ons hard voor maken m.b.v. een hervorming van het belastingstelsel.

[Reactie gewijzigd door Chrono Trigger op 24 juli 2024 04:40]

De HD6990 was gewoon mijn config op 1 kaart. Dus twee HD6970 in CFX op 1 kaart. Ik wilde destijds gewoon twee losse kaarten. Dan had je dus idd highend voor 550. Maar ja tijden zijn behoorlijk veranderd en als je kijkt wat een 4080 nu doet qua performance is dat natuurlijk ook bizar veel beter dan toen. Amper nog te vergelijken.
Het is sowieso gek geworden.

Maar vergelijken met vroeger kan niet. Er is niet alleen inflatie, maar de standaard van de gamer is ineens bizar omhoog gegaan.

Met een midrange kaart kon je geen 1 setting op ultra zetten met 1024x768 en 120 fps.
Zelfs met de snelste kaart lukte dat maar amper. en werd er nog eens sli uitgevonden om 2 kaarten te koppelen.
Dus je vergelijkt een tijd waarin 1440p ultra 120fps zogenaamd normaal is. Terwijl dat vroeger max 60fps was en alles op Medium.
Als mensen het te duur vinden koop je toch maximaal een 4060 en game je met lagere settings en accepteer je 30-60fps.

[Reactie gewijzigd door KappeNou op 24 juli 2024 04:40]

Modaal klinkt leuk, maar ongeveer de helft van de mensen zit daar dus (ruim) onder, bovendien zegt een bruto salaris vrij weinig over je vaste lasten en kosten voor levensonderhoud, zeker met de huidige inflatie. Maargoed, als je idd een partner hebt die net zoveel verdient blijft er redelijk wat over.

Hier in Spanje, waar die salarisen die je noemt ongeveer de helft zijn, kosten deze kaarten (en andere tech) wel hetzelfde, dat maakt een high-end PC dus relatief twee keer zo duur en twee keer zo lang sparen.

Maar een verdubbeling van je salaris in 30 jaar staat toch niet in verhouding tot een verdubbeling van de prijs van videokaarten in 5 jaar? Nog afgezien dat inflatie betekent dat je er ondanks je dubbele salaris qua koopkracht op achteruit bent gegaan.

Maar of je het kan en wil betalen is een ding, wat ik bedoelde is dat ik zie dat bedrijven het nieuws en de berichtgeving sturen naar de duurste modellen, nog ongeacht te prijs. Eerst komt de xx90 uit, dan de xx80 en ruim een half jaar later komt pas de xx60 voor de 'echte' gamers uit.

Maargoed, misschien ben ik ook wel gewoon te blij met m'n 3060Ti en kan ik me niet voorstellen waarom je in de 4K 120 fps hype mee zou gaan ook al zou je het kunnen betalen.
Wat mee speelt is dat er een nieuw segment is ontstaan; het enthusiast segment. Dan moet je denken aan de Titan kaart (2013). De Geforce GTX Titan was $999 en de GTX Titan Z was $2999. Tegenwoordig valt de 4090 onder dat enthusiast segment en wordt de Titan naam niet meer gebruikt.

Daarnaast hebben we een prijsverhoging van MSRP ook gezien na de eerste mining hype. De RTX 2xxx serie was an sich technisch prima maar niet echt voordelig. De RTX 3xxx zou weer goedkoper worden (met 720 dollar voor de 3080) maar we weten hoe dat is afgelopen.

De vraag is wat er gaat gebeuren met de 50 series. Maar nu alles flink duurder is geworden en de salarissen aan het stijgen zijn wordt de kans steeds kleiner dat we weer een x80 kaart voor onder de $800 kunnen kopen.
Toch zie je wel dat de prijs performance echt heel erg achteruit is gegaan. Want van wat ik me kan herinneren kon de Titan alle games voluit draaien. Dat gaat nu zelfs voor de 4090 niet meer op. Dus als zelfs de enthusiast kaart nu in best wel wat scenarios net genoeg is qua performance, zegt dat in mijn ogen nog meer over hoe gigantisch hard de prijzen zijn gestegen ten opzichte van wat je er voor terug krijgt.
Een boel daar van is ook optimalisatie en de crappy console ports die een 4090 nog kunnen laten zweten. Zie Cities Skylines 2 bijvoorbeeld. Menig 4090 trekt single digit framerates in het menu en dat ligt echt niet aan die kaart.
kan ik me niet voorstellen waarom je in de 4K 120 fps hype mee zou gaan ook al zou je het kunnen betalen.
Het is niet een hype en er is wel iets meer aan de hand dan alleen maar de resolutie en fps natuurlijk.
Ik wil niet zeggen dat de evolutie naar steeds realistischer beelden niet ook min of meer opgedrongen wordt door de hele industrie maar het is wel een ontwikkeling die al vanaf de allereerste games bezig is.

Die prijs/kwaliteit verhouding van GPU's is gewoon scheef getrokken door het mining gebeuren, Corona en het feit dat er technisch het e.e.a. veranderd is aan de kaarten zelf. Maar het blijft gewoon een afweging van wat je aan performance wilt en wat je daarvoor wilt betalen.
Uhhh nee dat is 2x modaal: https://www.loket.nl/kb/wat-is-het-modaal-salaris/
Jan Modaal verdient 40.000 euro bruto per jaar. Dat is 3.333 per maand. Netto maakt dat ongeveer: 32.164* per jaar en 2.680 per maand.

[Reactie gewijzigd door bhartman op 24 juli 2024 04:40]

Je verwart een huishouden met een persoon. In een huishouden wonen meerdere personen. Daardoor is het modale salaris van een huishouden hoger dan dat van een persoon. De groep huishoudens met kinderen is daar weer een subset van, die nog wat meer inkomen heeft.
In een huishouden wonen meerdere personen.
Niet dus.
En het aantal eenpersoonshuishoudens stijgt alleen maar.
Kinderen zijn amper nog te betalen. Deze generatie 30 jarigen moeten het echt met de scraps en afgekloven botten doen van Gen X en de boomers. Met deze trend kan misschien nog 5% van de kinderen nu überhaupt dromen om ooit een huis te kopen.
De groep huishoudens met kinderen is daar weer een subset van, die nog wat meer inkomen heeft.
Huishoudens met kinderen hebben meer inkomen?
Maar nóg meer uitgaven, per saldo is dat dus alsnog een stuk minder.
Verwar modaal inkomen niet met gemiddeld inkomen. Modaal inkomen is vastgesteld op 79% van het gemiddelde. Nou is het gemiddelde wat scheef door een aantal enorme uitschieters (de mensen die miljoenen maken), dus het mediane inkomen is misschien een betere maatstaf en dat komt op zo'n 90% van het gemiddelde inkomen uit.

Modaal inkomen zoals het CBS dat berekent is puur een boekhoudkundige exercitie waar politici om vroegen als een streven om te zorgen dat mensen daar een mooi leven hebben en zoveel mogelijk mensen daaraan komen. Het is geen gemiddelde als we het over modaal inkomen hebben in Nederland. Al is een modaal wel een statistische term, de meest voorkomende waarde in een reeks.

Een huishouden van 90K zou ongeveer overeenkomen met tweeverdieners die allebei een mediaan inkomen hebben tegenwoordig (mogelijk alweer iets eronder).
Het staat je volledig vrij voor een goedkoper alternatief te gaan.
High end is wat de naam doet vermoeden, nou eenmaal niet voor iedereen.
Heb je het geld en het er voor over dan is het misschien wat voor jou.
Het is niet verplicht of zo.
Het gaat niet om mij, dit is gelukkig wel een aspect van het leven waarbij ik prima in staat ben om voor mezelf te bedenken wat ik waarom hoeveel waard vind (en of ik het kan betalen zonder geld te lenen)

Ik maak me zorgen over de maatschappij: Je gaat compleet bij aan m'n punt dat er tegenwoordig een onevenredige hoeveelheid aandacht is voor 'high-end' producten waarmee dit soort genormaliseerd wordt.

Kijk eens hoe beïnvloedbaar mensen zijn. Hoeveel mensen zitten er nu hoe diep in de schulden omdat cryptos zo genormaliseerd werden? Hoeveel mensen denken nu dat ze een xx80 of xx90 kaart of een Ultra Pro Gamer telefoon van €1000+++ nodig of moeten hebben om erbij te horen? Hoeveel mensen hebben daar een lening of krediet voor afgesloten, wat sommigen gewoon niet kunnen veroorloven.

Tweakers is (of was) een tech site waar mensen er niet voor schromen om zelf met een schroevendraaier aan de haal te gaan of zelf met een tubetje lijm (nep) diamandjes op hun kast plakken om deze op te pimpen. Dat is het soort nieuws wat ik wil zien, maarja, dat levert DPG niet genoeg bezoekers op.

Het is net als de kanker die clickbait is. Sorry voor de woordkeuze, maar het is nu eenmaal de perfecte metafoor omdat het iets is dat zo succesvol is en zo hard groeit dat het alles uiteindelijk kapot maakt.
Ik zou me niet te veel zorgen maken als ik jou was.
Schiet je niets mee op.
En een ander kan het niets schelen.
Mij kan het wel wat schelen. Ik heb namelijk exact dezelfde bedenkingen als @Alxndr.

Voor mij mag iedereen doen met zijn geld wat die wilt en ik weet ook perfect wat ik kan doen.

Het probleem is dat alles duurder en duurder wordt. Er zijn geen goede GPUs meer te vinden in de lage prijsklasse. Je kan geen goede GPU meer vinden voor 150 à 200 euro. Waarom zijn die niet goed? Omdat alle developers hun games testen op een RTX 4090 en dan wat proberen te optimaliseren naar beneden toe. De kloof tussen een goedkope kaart en de duurste kaart en het verschil in prijs, performance en performance/prijs is gewoon te groot en onredelijk geworden. Dit trekt letterlijk de markt stuk.

Nu heb je Ferraris en Lamborghinis en Fiat Pandas, maar de autosnelwegen die gebouwd worden hebben vanaf vandaag een minimumsnelheid van 200 km/u. Wel, dan zoeken de mensen alternatieve wegen. Als die Ferraris en Lamborghinis niet gemaakt zouden worden, of geen stukken van mensen hadden gekost, dan hadden de autosnelwegen nu ook geen minimumsnelheid gehad van 200 km/u.
Leuk je mening hier over te horen.
Kan me er alleen niet in vinden.
Waarom?
Ik vind de prijs van het verleggen van grenzen geen enkel probleem.
Daar word door jouw en de meeste anderen hier anders over gedacht.
Ik vind dat raar op een site die tweakers heet.

[Reactie gewijzigd door brugj03 op 24 juli 2024 04:40]

Daar word door jouw en de meeste anderen hier anders over gedacht.
Ik vind dat raar op een site die tweakers heet.
Huh?! Het is toch "Tweakers" en niet "Cashgrabbers" of "Richers"/"Rijkaards" of "Wealthiers" of ... :? ;)

[Reactie gewijzigd door MattiVM op 24 juli 2024 04:40]

Jammer, dat je geen grenzen wil verleggen, je ziet dat veel hier.
Je zult zien dat de prijzen nu nog acceptabel zijn, het word alleen maar duurder.
Jammer dat het van "evolueren" naar "het verleggen van grenzen" is gegaan. Het gaat hier inderdaad om het verleggen van grenzen maar het gaat niet meer over het evolueren van de technologie zodat we elke 2 jaar meer performance krijgen voor hetzelfde geld (+inflatie).
Vergeet dus niet dat die "grenzen verleggen" momenteel aan het plaatsnemen is voor niet alleen de maximum grens, maar ook voor de minimum grens. Het zal dus alsmaar moeilijker en moeilijker worden voor véél mensen om het geld te hebben en dus nog interesse te hebben in, en plezier te vinden in het bouwen van computers en het spelen van games op een PC.

Jammer dat jij onze boodschap zo te zien niet begrijpt. :'(
:)

[Reactie gewijzigd door MattiVM op 24 juli 2024 04:40]

Onze boodschap....toe maar.
Btw. De 4090 is ongeacht de prijs een enorme stap voorwaarts.
Net zoals amd x3d.
Misschien herken je innovatie wel gewoon niet.
Moeten mensen dan met een normaal loon paar jaar sparen voor een gpu's om een spelletje te spelen ?
Je kan grenzen verleggen maar de portemonee moet mee willen :)
Nog duurder en de pc markt stort volledig in.
Ik denk dat je het mis hebt.
Daar laat ik het maar even bij.
100% eens met je lap tekst !
Sociale media is zowat het vergif van de jeugd, die alles normaal doet lijken.
Vaak vergeten mensen dat influencers youtubers, hun spullen gratis krijgen om er reclame voor te maken.
Net hetzelfde met cryptomunten, idd clickbait titels en sponsored.
De fake sociale media kijk eens hoe goed ik het heb, maar in werkelijkheid kan ik je geen 500€ cash tonen. Mensen moeten eens kijken wat er op het einde van de maand overblijft van hun loon, moet je kopen op krediet dan leef je ver boven je stand :)
Als je kijkt naar de grafiek van prijzen dan waren de 900, 1000 en 3000 series (los van COVID) best redelijk geprijsd, terwijl de 2000 serie redelijk duur was. Maar zelfs vergeleken met de 2000 serie is de 4000 serie echt door de stratosfeer gegaan.
En dan hebben mensen nog niet eens door dat de onderliggende GPU-chip tier eentje is opgeschoven. Wat jij koopt als een 4060 is wat analoog is aan een 3050, de 4070 chip is analoog aan een 3060Ti, enz.
Smerig trucje.
Dat is gewoonweg niet waar. Ik heb 1200 betaald voor mijn 2080 TI en nu 1800 voor m'n 4090 en ik vind dat geen extreem prijsverschil, gezien hoe de economie nu veranderd is en hoeveel minder geld waard is geworden.

Ben zelfs blij dat ik nog rap een high end systeem in elkaar heb kunnen steken want naar mijn vermoeden gaat dat de komende jaren alleen maar moeilijker worden.

[Reactie gewijzigd door BlueHulk op 24 juli 2024 04:40]

Helemaal mee eens.
Ik heb het idee dat het niet goedkoper gaat worden.
Nou is het ook wel zo dat het level op dit moment erg hoog ligt.
Je kan een duurdere prijs enkel en alleen aanhouden als er verkoop blijft zijn !
En de verkoop gaat erop achteruit.
Ja, zelfs zo erg dat er kaarten niet meer mogen worden verkocht aan china.
Het gaat beter dan ooit en jij komt aan zetten met achteruit.
Waar haal je het vandaan.
Ja, zelfs zo erg dat er kaarten niet meer mogen worden verkocht aan china.
Het gaat beter dan ooit en jij komt aan zetten met achteruit.
Waar haal je het vandaan.
Denk dat je voornamelijk de AI varianten bedoeld en niet de gaming gpu's ?
De ban op verkoop aan china gaat hem voornamelijk over AI.
De verkoop in pc hardware is ronduit slecht te noemen !
Snap niet waar jij het vandaan haalt dat het beter dan ooit gaat ?
Je vindt een prijsverschil van 33% niet extreem? De inflatie was vorig jaar dan even wel dubbele cijfers, maar als je naar de laatste 5 jaar kijkt...

En je bedoelt dat het de komende jaren duurder gaat worden? Moeilijk associeer ik met het niet kunnen krijgen van kaarten zoals tijdens corona, nu is er eerder een overschot, alleen blijven ze aan de nieuwe 'normale' prijzen vasthouden.

We zullen zien, ik sla over het algemeen 2 generaties over, dus ik ben pas bij de 6000 series weer toe aan een upgrade. En ik denk/hoop dat tegen die tijd AMD en zelfs Intel heel serieuze concurrenten zijn geworden wat als het goed is de prijs naar beneden zal drukken...
Dat bedoel ik zeker.
Het gaat alleen maar duurder worden.
De investeringen moeten worden terugverdiend.
Dat jij iets extreem vind is maar een mening, dat zal niets veranderen.
Ik vind dat niet extreem als je ook ziet wat voor prestaties er uit gehaald kunnen worden.

Specifiek voor VR maakt de kwaliteit die ik ervaar wel een veel grotere sprong dan 33%, dus dat kan ik wel slikken. Neem daar dan nog bij dat geld 20% minder waard is geworden, en dat de functionaliteiten van een grafische kaart veel ruimer liggen dan voorheen (AI etc) en dan is 33% erbij eigenlijk te verwaarlozen.

Als een grafische kaart nu enkel kon dienen voor grafische toepassingen dan zouden de prijzen inderdaad te hoog liggen, maar nu.. Denk niet dat er nog veel dalingen gaan komen.
Tja een smartphone van 200 doet ook alles hoor en 1 van 400 doet het bijna even goed als die van 1000.

Als je niet de nieuwste games op 4k ultra 120fps wil spelen kan je ook goed uit de voeten met een gpu van 4-500 euro.
Ik ben wel benieuwd of het 4090 performance zal hebben met bijvoorbeeld minder videogeheugen.
Betwijfel het, er is 30-35% verschil tussen 4080 & 4090 als super +10% is en TI +20% (tov de gewone 4080) is er nog genoeg extra performance om mensen naar 4090 te laten gaan.
Het verschil is nog veel groter, de 4090 bevat 60% meer hardware wat draait op dezelfde klok.
Het theoretische verschil kan dus 60% zijn. Mits aangestuurd door een CPU die er nog niet is.
Betwijfel of er een cpu bottleneck is misschien on
Sommige slecht geoptimaliseerde games?

In 4k ultra gaming met dxr is de cpu load niet zo hoog

[Reactie gewijzigd door k995 op 24 juli 2024 04:40]

Een cpu bottleneck is 1 een slecht geoptimaliseerde game een ander.
Er zijn veel variabelen. Zoals de architecture van de gebruikte cpu. En de refresh en resolutie van je monitor.
Er is altijd een bottleneck, anders zou je die 60% gewoon halen.
die 60% is puur theoretisch, als je ziet naar transistors is het 40% meer, komt al aardig ind e buurt van 30-35% sneller.
Absoluut niet theoretisch, in pro apps word die 60% ruim gehaald.
Transistors zeggen niets, behalve dat de overhead bij de lagere modellen groter is.
In de zin van je hebt gewoon een minimum aantal nodig voor een goede werking.
Je zal zien dat alles schaalt op die transistor count hoor, dat is immers wat je nodig hebt. Core config, sm count is allemaal rond die 40% groter.

Daarbij in iets als blender is die echt geen 60% sneller hoor op gpu render.
Totaal andere ervaringen mee.
Genoeg benchmarks en reviews die dat aantonen.

Die 60% lijkt me eerder als de 4080 te weinig geheugen heeft.
Hij is gewoon meer dan 60% sneller, bij apps die optimaal gebruik maken van de hardware.
L
Welke app dan bijvoorbeeld?
Het is niet een cpu bottleneck, anders had die kaart het in 4k wel beter gedaan. Nvidia heeft gekozen voor een redelijk inefficiënte manier om meer performance te krijgen en dat is de kaart zo groot mogelijk maken.
Als je meer info wil dan raad ik je aan het Nvidia of het CJ Radeon nieuwsdiscussie topic eens door te spitten.
De 4090 is 60% tot 70% sneller met pro apps.
Zelf getest, draait alleen op de Gpu dus geen cpu bottleneck in deze toepassing.
Games zijn een heel ander verhaal.
Kaarten worden altijd zo groot mogelijk binnen het beschikbare budget.
Gpgpu aps zijn veel makkelijker om te schedulen.
Nee, er word niet om gescheduuld of wat dan ook.
De hardware performt gewoon naar zijn kunnen, omdat het alleen op die specifieke hardware draait.

[Reactie gewijzigd door brugj03 op 24 juli 2024 04:40]

Ja, want bepaalde delen van de gpu worden niet gebruikt met gpgpu werk (dus meer power budget over voor de delen die je wel gebruikt) en het werk wat gescheduled wordt is veel consistenter dan bijvoorbeeld bij een spel, wat er voor zorgt dat je cache hit ratio veel beter is.
Daarnaast zijn er genoeg tests die laten zien dat de 4090 op hoge resoluties geen cpu bottleneck heeft. Gpu's van de huidige architectuur van Nvidia schalen gewoon erg slecht voor spellen als ze groter zijn dan de 4080.

Ik stop in ieder geval met de discussie, op het Nvidia topic staat het beter uitgelegd door mensen met meer kennis dan ik. Je kan daar beter eens kijken.
De power limit is alvast niet 60% hoger, 320W vs 450W. Dat zou anders 518W moeten zijn. Eigenlijk nog hoger omdat je met meer hitte op hetzelfde oppervlak, je toch snel meer warmte krijgt zonder extreme en onpraktische soorten koeling. Met hogere temperatuur komt ook net wat hogere stroomsterkte, al het andere gelijk. Zo gekeken is de 4090 'maar' 450W van de 530W die je nodig zou hebben voor 1-op-1 bekeken 60% hogere performance.

Blijft toch al gek veel energieverbruik voor een videokaart, liever lager dan hoger, maar ergens gaan al zulke factoren gaan meespelen. En dat gaat vast op meer plekken zo zijn, PCI-E latency, driver kernel calls, niet alles schaalt perfect mee op multicore CPU, er zijn in zoiets complex als een PC overal wat kleine bottlenecks, maar hoe hoger je komt met een bepaald onderdeel, hoe meer die kleine beetjes toch een totaalbeeld gaan beïnvloeden.
Ooit van overhead gehoord, ik denk dat dat precies is wat je bedoeld.
Het is een andere, veel kleinere chip, dus neen. Dit is de chip die vroeger gewoon de 4070 genoemd werd.
Niet normaal.. Voor dat geld heb je ook een Iphone voor.. 8)7
Wat mij betreft maakt het niet uit of het te snappen is of niet zo lang er maar gewoon een tabelletje komt met prestaties, geheugen en prijzen kan je toch kiezen welke bij je past?
Ja vind ik ook hoor. En dan kan je als consument zelf een keuze maken hoeveel geld je uitgeeft voor welke prestaties.
Vreemd dat nVidia nu opeens AD103-GPU gaat inzetten en dit AD102-GPU niet meer te komen. Ik denk dat nVidia de 4090 wil behouden als de AD102-GPU
Dus... Voor de 20xx waren wel Super kaarten... Voor de 30xx waren geen Super kaarten... En nu wel weer ineens? Sla mij maar dood. Ik snap de benamingen echt niet meer. Dan wel, dan niet, dan weer wel. Gaan we straks ook weer SLI terug krijgen?
Ik wacht nog altijd op de terugkeer van Hybrid-SLi, maar ja, dat zal ook wel nooit gebeuren.
Of de (niet-officiële) SLi bridges om een nVidia gpu met een AMD gpu samen te laten werken (neem dit met een korreltje zout, want dit werkte maar bij twee nVidia gpu's en één AMD gpu, de 9800XT).

V.w.b. de benamingen van nVidia, daar snappen ze bij nVidia zelf ook niet veel van. Of ze doen het erom.
Was dat niet met de 2xxx serie, dat de 2080 Super beter presteerde (in de praktijk) dan de 2080 Ti ?
Heb daar verschillende draadjes over gezien op HardOCP en Reddit, al kan ik ze niet echt terugvinden.
Wat valt er te snappen.
Het is maar een naam om te duiden in wat voor klasse hij valt.
Verder is google je vriend.
Misschien komt er meer bij kijken dan je als consument van bewust bent/kan zijn, iets met prestaties/yields/optimalistaties ofzo?

Ik bedoel dat ze bijvoorbeeld pas achteraf zien dat er gaten in de prijs en/of prestatie range ontstaan die ze linksom of rechtsom kunnen vullen? Of dat een bepaalde optimalisatie zoveel winst biedt dat het een nieuwe variant rechtvaardigd.

Daarbij vind ik het wel vreemd dat in zovele jaren nog niemand ooit heeft ontdekt of gelekt waar Ti en Super voor staan. Of zou het er echt alleen maar aan liggen met welk been de naamgever die dag uit bed gestapt is?

Je opmerking over SLI past hier niet bij, dat is niet een variant op een model maar een functie?
4070 super met 16GB geheugen zou mij wel passen als de prijs er ook naar is dan.
Pas op: off-topic miereneukerij

Als je zo expliciet het type chip in de titel en de intro van het artikel noemt, waarom staat de verklaring/reden pas helemaal aan het einde van het artikel?

Zeker als je wel direct meldt dat het dezelfde chip is als in de normale variant gebruikt wordt en dat ze de vorige keer ook gedaan hebben. Dat je dezelfde chip voor hetzelfde model (maar een andere variant van dat model) is toch zo logisch dat je niet anders verwacht?
Zolang Nvidia zijn prijs/prestatie verhouding niet verandert, maakt het mij niet uit wat ze uitbrengen.
Ik ben het helemaal zat met de laatste en deze generatie en dan vooral de prijzen. De moed zakt me in de schoenen als ik een pc build wil maken voor recente games (lees: Starfield) op medium/high 1080p zonder FRS/DLSS. Paar jaar geleden kon je een middenmoot GPU halen voor 250/300€ en nog redelijk meekomen. Als je nu iets redelijks wilt zit je al meteen op ~€500/600. Om nog maar te zwijgen over optimalisatie voor pc games. Ik blijf wachten tot er weer goede betaalbare alternatieven zijn. En misschien wordt het zelfs gedag zeggen tegen pc gaming en een PS5 halen dan maar.
Zo langzaam maar zeker ben ik een beetje de weg kwijt geraakt en zou ik op dit moment niet meer weten wat nu de meest geschikte videokaart zou zijn. Enerzijds dat Nvidia dan zo knoeit met b.v. nu weer Super versies met denkelijk weer dezelde gpu's als in b.v. 'hogere' versies. Anderzijds dat ook fabrikanten dan weer met tig verschillende uitvoeringen komen en hun eigen ding doen voor zover dat mag van Nvidia.

Maar ja, we klagen wel met zijn allen ( inclusief mijzelf ) maar toch blijkt dat nog genoeg mensen ook die veel te dure videokaarten kopen. En tja zo lang als er vraag blijft lachen fabrikanten zich kapot en blijven woekerwinsten maken. Of ze verschuilen zich onder de noemer inflatie om vervolgens hun prijzen te verdubbelen en blijkbaar hun eigen inflatie percentage handteren.
Is het een soort tik-tok cyclus met TI en -Super achtervoegsels?

GTX 10x0 generatie kreeg TI-kaarten
RTX 20x0 generatie kreeg Super kaarten
RTX 30x0 generatie kreeg TI kaarten
RTX 40x0 generatie krijgt weer Super kaarten?

Ik word net gewezen op de RTX 4060TI en RTX 2080 TI én Super.

Lekker duidelijke naamgeving weer :+
Ik ben er voor dat we Ultra en GT weer gaan terugkrijgen!

[Reactie gewijzigd door sapphire op 24 juli 2024 04:40]

40XX had ook Ti kaarten hoor. Sterker nog, er zijn geruchten dat er deze generatie zelfs een 4070 Ti Super zou uitkomen.
De 20 series had de Super en de Ti variant. 2080 Super en 2080 Ti.
Ik heb een 4070Ti ?
De 1030 was/is een GT kaart :P, al staat het er wel voor ipv achter. Dat is volgens mij de huidige ultra-low-budget kaart.
Ik zie het als een low power kaart.
De mijne had ook geen ventilator. Perfect voor een htpc.
Ja de 1030 was een perfecte HTPC kaart.

Ik zou graag weer een 4030 / 5030 kaart zien die niet geoptimaliseerd is voor gaming maar 4K120Hz HDMI 2.1 met alle denkbare video codecs voor het afspelen van HDR10, HDR10+, HLG en Dolby Vision licence.

Instant buy.
Super kaarten maakt NVIDIA enkel als ze het gevoel hebben dat hun niet-Super kaarten niet kunnen concurreren met AMD's aanbod. Dan schakelen ze een tandje bij op hun chip productie en boosten de performance van iedere tier iets en noemen dat dan Super.
Ik ben er voor dat we Ultra en GT weer gaan terugkrijgen!
En GTS, GTO en GTX dan?

8800 GTS
7900 GTO
7900 GTX
Is het een soort tik-tok cyclus met TI en -Super achtervoegsels?

GTX 10x0 generatie kreeg TI-kaarten
RTX 20x0 generatie kreeg Super kaarten
RTX 30x0 generatie kreeg TI kaarten
RTX 40x0 generatie krijgt weer Super kaarten?

Ik word net gewezen op de RTX 4060TI en RTX 2080 TI én Super.

Lekker duidelijke naamgeving weer :+
Ik ben er voor dat we Ultra en GT weer gaan terugkrijgen!
RTX 4080 Super Ti Ultra edition

Op dit item kan niet meer gereageerd worden.