Gerucht: Nvidia brengt begin 2024 verbeterde GeForce RTX 4080 uit met AD102-gpu

Nvidia komt 'begin 2024' met een verbeterde versie van de GeForce RTX 4080. Dat beweert leaker MegasizeGPU. Het zou gaan om ofwel een RTX 4080 Ti, of een 4080S. Waar het origineel een AD103-gpu heeft, bevat deze naar verluidt de AD102 van de RTX 4090.

De tgp van de gpu moet volgens MegasizeGPU onder de 450W blijven. Dat is minder dan de tgp van de RTX 4090, al wordt het stroomverbruik waarschijnlijk wel hoger dan de 320W van de 4080. Hoeveel CUDA-cores de videokaart bevat is nog onbekend. De originele RTX 4080 heeft 9728 cores en de 4090 16384, dus het aantal cores bevindt zich vermoedelijk ergens daar tussenin. Verdere specificaties worden niet genoemd, al vermoedt VideoCardz dat de kaart ook qua geheugencapaciteit tussen de 4080 en 4090 in zal liggen. Dat zou betekenen dat de gpu 20GB aan GDDR6x-geheugen krijgt, en een 320bit-geheugenbus.

Volgens de leaker bevindt de krachtigere 4080-gpu zich in dezelfde prijsklasse als het origineel. Die had ten tijde van zijn release een adviesprijs van 1469 euro. MegasizeGPU weet niet of het de 4080S of Ti betreft. Aangezien Nvidia al enige tijd gestopt lijkt te zijn met het aanbieden van 'Super'-varianten van zijn videokaarten, lijkt het echter waarschijnlijker dat het hier gaat om een RTX 4080 Ti.

Nvidia Geforce RTX 4090 Nvidia GeForce RTX 4080S/4080Ti
(onbevestigd)
Nvidia GeForce RTX 4080
Gpu Ad102-300 AD102 AD103-300
Architectuur Ada Lovelace Ada Lovelace Ada Lovelace
Procedé TSMC's 4N TSMC's 4N TSMC's 4N
Die-oppervlakte 608mm² 608mm² 378,6mm²
Transistors 78 miljard 78 miljard 45,9 miljard
CUDA-cores 16384 ? 9728
Geheugencapaciteit 24GB GDDR6 20GB GDDR6 (?) 16GB GDDR6
Geheugenbus 384bit 320bit (?) 256bit
Tgp 450W <450W 320W
Adviesprijs
(bij introductie)
1949 euro ? 1469 euro
Release 12 oktober 2022 'Begin 2024' 16 november 2022

Door Kevin Krikhaar

Redacteur

07-10-2023 • 13:13

76

Reacties (76)

76
76
53
0
0
13
Wijzig sortering
Zouden ze hiervoor al die tijd afgekeurde AD102 chips hebben opgespaard en die nu inzetten voor de 4080ti?
Oprechte vraag: waarom zouden ze afgekeurde producten willen gebruiken in een product met toch wel eerder premium prijs?
Omdat de chip (in dat geval) afgekeurd is om een 4090 te zijn, stel 10% van de cores is defect, dan is die afgekeurde chip nog steeds veel beter dan een niet afgekeurde 4080 chip!

Dit is ook niks nieuws dat gebeurd al 10tallen jaren met cpu's en gpu's.

Zolang het voldoet aan de opgegeven specificatie maakt het niks uit in ieder geval dus zonde om weg te gooien, anders waren GPU's nog duurder.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:39]

Maar er staat in de specs dat beide 78 miljard transistors zal hebben, dus dezelfde hoeveelheid cores als de 4090. Wat zou er dan van de 4090 chips "afgekeurd" moeten zijn dat wel bij de 4080S gekeurd zou worden?

Volgens mij is dit gewoon een manier van Nvidia om hun TSMC contract vol te krijgen.

[Reactie gewijzigd door MrFax op 22 juli 2024 14:39]

Bart ® Moderator Spielerij @MrFax7 oktober 2023 17:09
Het chipontwerp (AD102 in dit geval) heeft 78 miljard transistors. Dat wil niet zeggen dat ze allemaal werken. Sterker nog, ze zullen in praktisch geen enkele chip allemaal werken. Chips hebben best wel wat redundantie in het ontwerp, omdat er veel transistors niet zullen werken.
Ze hebben evenveel transistors omdat het dezelfde chip (AD102) is, waarvan alleen een deel niet werkzaam zal zijn. Hij gaat niet evenveel werkende cores hebben als de 4090. Net als dat al jaren gebeurt bij verschillende producten die dezelfde chip gebruiken.
Nog even toegevoed: AD102 word in de 4090 ook niet volledig benut. Een volledig werkende AD102 zou 18432 CUDA-Cores hebben. Daarom gaan er ook zo nu en dan geruchten over een RTX 4090 Ti die nog net iets meer dan de chip benut.
Ze hebben niet evenveel cores. De 78 miljard transistors zijn niet allemaal actief. Dit is al hoe het decennia gebeurd voor GPUs waar 1 chip veel SKUs krijgt afhankelijk van de yields dus ik vind het wel een beetje een vreemde comment. De 4090 zelf is al een afgekeurde chip waarvan maar 88% actief is.

De chips met geen of amper defecten worden natuurlijk verkocht voor professionele doeleinden onder de vorm van A6000 en L40 voor bakken geld. Het idee dat Nvidia dit doet om het contract vol te krijgen is daarom wel lachwekkend in combinatie met de recente AI boom. Als ik zo hoor dan moet je tot H2 2024 wachten voor sommige producten bij Nvidia omdat ze niet genoeg kunnen leveren. Als het niet hoeft dan gaan ze echt geen chips verkopen als 4080Ti of 4090 hoor.

[Reactie gewijzigd door napata op 22 juli 2024 14:39]

Inderdaad evident als je het zo stelt... Bedankt voor de info!
Omdat slechts een deel van de gpu is afgekeurd. Als deze wordt uitgeschakeld, kan de gpu nog prima presteren verder. Het zou zonde zijn als wat verder prima kaarten zijn zou worden weggegooid.

Anders gezegd: stel je hebt een fabriek die identieke stalen staven maakt in drie formaten: 1 meter lang, 2 meter lang en 3 meter lang. De 3 meter lange staaf is van betere kwaliteit wegens de grotere lengte. Tijdens de fabricage buigt een deel van de drie meter lange staaf. Deze kan je weggooien, of je kan er twee staven van 1 meter van maken, van dezelfde hogere kwaliteit (met meerprijs).

[Reactie gewijzigd door Shoarmadad op 22 juli 2024 14:39]

Je hebt chips waar bijv 2 lijntjes niet op werken, de rest wel.
De chip werkt gewoon, alleen niet op 4090 niveau.
Door de chip te 'knijpen' kan je hem alsnog inzetten , om een goedkopere kaart, of om een nieuw tussenmodel te creeren.
Zo hoef je minder 'afgekeurde' chips weg te gooien en vergroot je je opbrengst(winst).
Dit is altijd al een ding geweest bij de CPU en GPU makers.

Bij veel CPU's word dat ook gedaan. Bij intel heb je bijvoorbeeld de i3 i5 i7 en i9 in een bepaalde serie.
En binnen die series heb je ook nog bijvoorbeeld de voor overclocking geschikte varianten. Deze zijn bijvoorbeeld bovengemiddeld goed geproduceerd.

Als er een core, cache of een ander deel niet werkt, dan word de chip geconfigureerd naar een lager model waarbij wel aan de specificities voldaan kan worden.

Moet je maar eens kijken naar de die size (de werkelijke grootte van de chip) van verschillende modellen binnen een serie. Veel uit dezelfde serie zijn bijzonder identiek.
Denk dat je het niet echt als afgekeurd product moet zien maar meer dat b.v. een chip dan minder presteerd in een bepaalde klasse. Of in geval van cpu's dat bepaalde cores dan niet of minder presteren en dan uitgeschakeld worden. Dat heeft voor de rest dan geen invloed op de rest van zo'n chip en ergens ook prima dat die chips dan niet in de e-wast terecht komen.

Qua prijzen, tja, dat is een heel ander verhaal en ben ik direct met je eens dat prijzen wel heel premium zijn geworden.
Dat heet `bining`,er is niets echt afgekeurd, de chip is niet helemaal goed voor een bepaald product type.
Voor een lager product voldoet ie prima.
Ja, dat klinkt logisch. Na ruim een jaar zullen ze best veel AD102 chips hebben die niet 100% zijn.
Het kan ook andersom zijn: na 1 jaar zijn ze veel meer bekend het productieproces waardoor ze deze iets kunnen versnellen. Hierdoor wordt de productie van de 4090 chip goedkoper maar een bijwerking hiervan is dat je ook meer kans hebt op afgekeurde chips. Deze kun je dan mogelijk nog als 4080ti verkopen.
Lijkt me niet waarschijnlijk, de AD102 van een 4090 is al niet een complete AD102. Lijkt me sterk dat er zo veel nog slechtere AD102's zouden zijn voor een hele 4080 Ti lijn. Zullen wel een aantal zijn, maar zullen sowieso goeie chips moeten gebruiken om de verkoop op lange termijn vol te houden.
Er zijn best wel wat kaarten op AD102 gebaseerd, enkel zijn de meeste niet voor consumers, maar voor workstations of servers. Het kan dus best dat er een hele hoop zijn die ook nét niet voldoen voor een 4090 en ze dan maar beslist hebben om een ruime marge er onder te nemen om toch zoveel mogelijk chips te recycleren zonder in het vaarwater van de reguliere 4080 te komne
zeker, de winst moet gemaximaliseerd worden voor de aandeelhouders! dus niet de afgekeurde 4090 chips in een 4080 maar opsparen en met een aantal cores uitgeschakeld tegen een topprijs op de markt brengen (doen ze al jaren).
Krijgen we eind 2024 niet een 5000 serie van Nvidia?

Normaal gesproken brengen ze een Ti versie 1 jaar na originele release uit (met uitzondering van de 2000 serie die nog een Super variant hadden naast de Ti) dus dan lijkt mij dat dit of een hele late release is of de nieuwe generatie wordt een jaar uitgesteld.

Wat heb ik gemist?
Wat ik gelezen heb is de 5000 serie pas ergens in 2025 geplanned.
Sommige zeggen zelfs begin 2026.
Yep. Dacht gelezen te hebben dat Nvidia zei maart 2025. Eind maart is het altijd.
We zien wel wat ze gaan doen.
Nvidia heeft geen haast nu Amd en Intel niks tegenover ze hebben.
Amd gaat denk ik ook zo lang uitstellen, want ze moeten hun energieverbruik echt op orde hebben.
Geruchten zijn dat de 50 serie uitloopt tot de eerste helft van 2025.
Infeite dus een soort RTX 4080Ti.. Als ze hem op de markt zetten voor +/- € 1500 gaat ie voor geen meter verkopen.. De RTX 4090 kan je namelijk al voor slechts een paar honderd euro meer krijgen en blijft dan gewoon de keuze voor mensen die zo belachelijk veel geld voor een videokaart over hebben.. Als de RTX 4080 rond de € 1000 had gezeten had ik hem nog wel willen overwegen als opvolger van mijn huidige RTX 3080 10GB (in 2020 gekocht voor € 849), maar voor de huidige prijzen echt niet.. Ik wacht nu wel gewoon op de Nvidia 50-serie die hopelijk ergens eind 2024 komt en hopelijk wel weer een betere prijs/prestatie verhouding biedt.. Dan upgrade ik meteen ook de rest van mijn PC weer, want mijn huidige Intel i7 10700K met 32GB 3600Mhz DDR4 RAM is dan ook niet snel genoeg meer.. We zien rond die tijd wel wat dan de beste keuze is..
Je kan ook overwegen om de volgende generatie voor AMD te gaan. Als het goed is, is het hoogste model helaas wel de 8700 XT. Die zal dan hopelijk rond de prestaties van de 7900 XT en de 7900 XTX zitten.
Alleen als die hun Raytracing prestaties en FSR kwaliteit flink verbeteren.. Tot die tijd ben ik een sucker voor de Raytracing en DLSS features van Nvidia.. Ik zou b.v. Cyberpunk 2077 nu ook al wel met Pathtracing willen kunnen spelen, maar heb geen zin om € 1800+ voor een RTX 4090 te moeten betalen (ook al zou ik dat makkelijk kunnen)..
Zijn die features echt belangrijk voor je? Ik vind persoonlijk van niet, maar dat zegt natuurlijk ook niks over jou benodigdheden. Zelf vind ik eigenlijk ook dat de 4090 niet sterk genoeg is om degelijke frames te genereren om native Raytracing te kunnen supporten. RDNA4 zou flinke verbeteringen moeten mee brengen wanneer het komt op raytracing performance, al moet je het ook met een korreltje zout nemen.

Welke versie van DLSS gebruik je, of ga je gebruiken?
Ja.. Ik geniet echt van dat soort vooruitstrevende nieuwe grafische technieken in games.. Één van de redenen waarom ik op de PC game en niet op een console.. Cyberpunk 2077 had ik al genoemd, maar b.v. ook Control, daarin is de Raytracing echt geweldig mooi en zeker een belangrijke toevoeging.. DLSS gebruik ik al een tijdje.. Moet ook wel aangezien mijn (38" widescreen) monitor een resolutie heeft van 3840x1600, dat trekt een RTX 3080 10GB zonder DLSS niet als je ook zaken als Raytracing wilt gebruiken.. Draai Cyberpunk nu met DLSS op balanced en wat andere tweaks met alleen raytraced reflections aan met gemiddeld 70-80 fps.. Ziet er mooier uit dan native zonder raytraced reflections imho..
Daar ben ik zeker mee eens dat ray tracing, en willicht uiteindelijk ook path tracing, er mooi uitziet. Al is fsr en dlss gelijk aan elkaar wanneer het komt op performance. Met visuals heeft dlss wel de overhand.
Ligt aan het spel, ratchet and clank draait max settings zonder dlss en met ray tracing gewoon boven de 60fps op een 4090. Boeit het trouwens als je dlss nodig zou hebben voor Ray tracing? Zie je niet enorm veel van.
Dat is zeker waar, afhankelijk van de game, de resolutie, settings en de fps dat je wilt behalen. DLSS boeit niet perse, maar wel als je het op 1080p laat draaien. Want het ziet er dan een stuk minder uit in vergelijking met native. Al maakt het bij 1440p en vooral 4k niet veel uit.

[Reactie gewijzigd door kyrillajax op 22 juli 2024 14:39]

Nvidia heeft maanden geleden al bevestigd dat 50 series pas in 2025 komt.
Dat heb ik dan gemist.. Als dat waar is moet ik dus nog ruim een jaar met mijn huidige RTX 3080 10GB doen helaas.. Nu al 3 jaar oud en in 2025 dus ruim 4 jaar.. Het is niet anders.. Een 4080 of 4090 vind ik gewoon te duur op dit moment.. Kan het wel betalen maar heb het er niet voor over, en wil ook gewoon niet het gevoel hebben dat ik zulk prijsbeleid ondersteun door het toch maar te kopen.. Mezelf dwingen om geduld te hebben, al zou ik b.v. heel graag Cyberpunk 2077 nu met volledige Pathtracing etc aan willen kunnen spelen.. Dat zit er nu helaas niet in met fatsoenlijk speelbare fps..
Ik sta er precies zo in . :)
Hopelijk drukt dit dan weer de prijzen van de 4080 en 7900 XTX.. die prijsdalingen gaan tergend langzaam, terwijl dit soort kaarten gewoon rond de 800 euro horen te kosten.

Gelukkig houdt m'n 1080 Ti het nog vol. Ik dacht toentertijd (2017) dat het heel veel geld was, maar de prijs/prestatieverhouding is in al die jaren supergoed gebleven. Dat doet Nvidia nooit weer, dat is duidelijk.
Ik heb precies hetzelfde. Ik kocht toen inderdaad een 1080ti voor 749 euro via nVidia zelf. Iedereen in mijn kring verklaarde mij voor gek. Zo veel geld voor een videokaart. Belachelijk. Paar jaar later: ze hebben een x070 gekocht voor meer dan +1000 euro ten tijde van de lock down. "Tja je moet wat he!" "Was een goeie prijs, de rest was veel duurder"

Ikzelf weiger nu dus echt gewoon een pc te bouwen. Ik kocht altijd semi-high end moederborden van rond de 250 euro. Die kosten nu 600. Ik koester voorlopig maar mijn AM4 1080ti. Ik kan hun opvolgers gewoonweg niet veroorloven.

Op deze manier gaat de pc wereld echt naar de knoppen.
Er is echt geen enkele reden om die moederborden te kopen. Bijna elk van de moederborden rond 200-250 nu kan een 7950X zonder problemen runnen.
En voor 100-125 euro kon je een degelijk AM4 moederbord kopen welke probleemloos een high-end Ryzen kon draaien...
Dat kon eigenlijk altijd wel of je moest echt heel goedkoop kijken, maar dan kijk je meestal niet naar zo'n dure processor.

Maar dat is dan wel een beetje appels en peren met elkaar vergelijken. Als je nu een Porsche rijd en je kijkt voor een andere, ja maar een Seat rijd ook op 4 wielen.

Ik heb zo mijn redenen om een bepaalde serie te kopen. Maar als ik van Asus de ROG series pak: Hero, Extreme, Formula etc. Dan wil ik voor een "upgrade" niet kijken voor een Prime editie. Niet dat het slecht moederbord is, maar het is niet de serie waar ik naar kijk.
Wat voor redenen, behalve de looks dan? Die moederboorden doen zo wat niks die de goedkopere ook niet kunnen.
Een Porsche doet ook niets meer dan een Seat ook doet. Defeats the point.

Iemand maakt een keuze en verwacht dan ook redelijker wijze eenzelfde produkt terug te kunnen kopen in dezelfde prijs klasse.

Inflatie is dan wel een puntje die je meeneemt in je budgetering. Echter als je voor 200k een Porsche gekocht hebt dan verwacht je een paar jaar later voor rond diezelfde 200k een Porsche te kunnen kopen en niet een Seat.

[Reactie gewijzigd door Black_Swan op 22 juli 2024 14:39]

Gaat mij een beetje voorbij wat je met je voorbeeld wilt. Een Porsche rijd wel degelijk anders dan een Seat een heeft een bepaalde ervaring qua luxe. Een Asus Hero, behalve looks, verschilt in gebruikservaring niks tegen de TUF op een paar hele kleine niche dingen na die voor 99.9% mensen irrelevant zijn.

Maar ja, doe je ding.
Tip: leg elke maand €25 apart voor bijvoorbeeld een nieuwe videokaart. Dan heb je altijd wat geld apart staan om continu je pc te blijven upgraden.

Op deze manier heb je elke 6-8 jaar een nieuwe high-end pc. Een periode die zo'n pc qua prestaties prima kan volhouden.
Ben met je eens.
Momenteel is de rx6600xt ongeveer even snel als je 1080ti.
3060ti is wat sneller.
Dus je kan nog prima mee.
En idd pc markt is nu echt veelste duur.
Zeker met prijzen als 2000 euros voor de 4090.
749 is nog belachelijk hoog.
Toen was het inderdaad veel geld, maar nu valt het best nog wel mee. Vergeet niet, dat die kaart toen de beste gaming GPU was! Om nu de beste te hebben moet je x2,6 keer zoveel neerleggen. 8)7
Ik heb destijds een GTX 1080 (non-TI) gekocht voor €620 (en dat vond ik al enorm véél toen), als ik nu een GPU zoek voor die prijs, dan kom ik misschien net aan de minimumprijzen voor een RTX 4070!!!
Kun je nagaan wat ze eraan verdienen. Heb alsnog wel een 4090 gekocht. Die is echt niet meer waard dan 500-800 euro. En dan verdien ze er nog genoeg aan.
Dat mag je hier niet zeggen. Hier hebben ze medelijden met grote bedrijven en praten ze iedere prijsverhoging goed.

- ja maar, inflatie
- ja maar, corona
- ja maar, ontwikkelkosten

Een soort van stockholmsyndroom.
Och wat een onzin. Deze hele thread staat vol met mensen die afgeven op de prijs. En die worden ook niet gedownvote. De review van de nieuwe iPhones idem dito.
Dat ligt er ook een beetje aan wat je er mee doet. Als het puur voor de games is vind ik het zelf nogal een belachelijk bedrag voor een kaart.

Maar wanneer je bijvoorbeeld 3D rendert met de GPU in V-Ray/KeyShot/RedShift/Corona etc etc dan zie je dat de 4090 enorm veel sneller is dan veel kaarten uit de 'pro' serie die makkelijk 3x zoveel kosten. Kortom, dan is het ineens een goedkope kaart die de 2K zeker wel waard is.
Als je daar dan ook je geld mee verdient wel ja, anders is het alsnog niet rendabel. Als je geld verdient met Youtube of iets dergelijks kan een 2000 euro videokaart waarschijnlijk ook wel gerechtvaardigd worden. Het is daarom ook niet gek om te zien dat veel Youtubers waar gamen hun core business is gemakkelijk dit soort prijzen kunnen veroorloven. Ik gok dat dat ook deels ten grondslag ligt aan de extreme prijzen, er bestaan tegenwoordig meer en meer mensen die koste wat het kost het beste kopen omdat het onderdeel is van hun verdienmodel. Ik denk zelfs dat die generatie wel 10.000 euro voor een videokaart wil neerleggen als het niet anders is. Echt gekkenwerk, maar het is blijkbaar haalbaar voor genoeg mensen tegenwoordig. Hierdoor hebben mensen met een lager budget wel mooi het nakijken. Ik verwacht dat over 10 jaar de gewone burger niet meer instaat is om een high-end game pc te bouwen, dat wordt voor de eliten. Wij moeten maar gewoon consoles gaan gebruiken.
Ik heb zelf ook 0 budget dus ben het helemaal met je eens. Maar wat moet je aan de andere kant met de duurste kaart uit een serie als je gamed. Wat moet je met een 24 cores CPU als de meeste games max 4 threads gebruiken?

Schijnbaar hebben aardig wat mensen het goed en ik begrijp ook nog wel dat een GPU een vrij complex stukje techniek is (geworden). Ik noemde renderen als voorbeeld omdat je daarbij nou net wel 100% CPU + 100% GPU voor kan gebruiken en dus alles meteen tijdwinst is. Ik denk dat het minen van crypto vooral de oorzaak was van de wat belachelijke prijzen. Daarbij heeft NVidia nogal een monopoly positie wanneer je meer met je GPU doet dan gamen. Of het nu om AI gaat of renderen, dat werkt allemaal (veel) beter op een NVidia kaart omdat ondersteuning voor AMD hardware minimaal is.

Op een forum waar ik actief ben van render software vragen veel mensen wat advies over hun aan te schaffen hardware en zeker bij bedrijven worden er dan nogal eens 'workstations' aangeraden door hun leveranciers. Dat is nou echt geld wegpissen want dat resulteert in een veel langzamere computer voor hetzelfde of meer geld. Die groep kan echt beter gewoon een game PC kopen.

Verder wijs ik mensen vaak ook op het feit dat een tweedehands 3090 nog steeds een ontzettend interessante kaart is om te renderen. Qua prijs ongeveer gelijk aan een 4070 maar dubbel zoveel geheugen en dubbel zoveel CUDA cores waar het allemaal om draait, dan weet ik het wel.
Je hebt hopelijk het besef dat je dan mede verantwoordelijk bent voor de belachelijke prijzen.

Als je er werkelijk wat aan wilt doen moet je ze niet kopen...
Snijd nVidia zich niet hiermee in zijn vingers? Ik heb een RTX 4090 (Een GIGABYTE GeForce RTX 4090 24GB Gaming OC) eveneens met een AD102-GPU. Mijn videokaart heeft mij €1.869,00 gekost.

Ik kijk uit naar de benchmarks met de nieuwe RTX 4080 met AD102-GPU. Ik wilde in eerste instantie voor een RTX 4080 16GB kiezen, maar omdat ik standaard op 4K resolutie speel met een 32-inch 144Hz refresh rate is de RTX 4090 24GB voor mij de beste keuze.

De reguliere 4080 met AD103-GPU is niet overal snel net onder de 130 fps voor 4K met 144Hz

[Reactie gewijzigd door Van der Berg op 22 juli 2024 14:39]

Niet echt 4080 €1200 4090 €1700 en nu de 4080Ti voor b.v. €1400 met prestaties die netjes tussen de 4080 en 4090 in liggen. Jij mag nu dus wat fijn verdeeld kiezen.
Snijd nVidia zich niet hiermee in zijn vingers?
Zou een bedrijf bewust een product op de markt brengen met de wetenschap dat het verlies gaat veroorzaken?
Ze hebben dit altijd al gedaan om van hun minder efficiënte chips af te komen. Bovendien is het voor kopers meer keus en voor velen verleidelijk om voor een beetje meer geld meer prestaties te kunnen krijgen.

Ik ben persoonlijk helemaal niet nieuwsgierig nar de benchmarks omdat de prijzen al een tijd veel te hoog zijn. Ik vond de €900+ voor mijn 3080 al behoorlijk over de grens van wat ik normaal zou willen betalen, maar mijn 1070 voldeed gewoon niet meer voor de nieuwere games na mijn overstap naar 1440p.
Er is een enorme onbalans tussen de drang/push naar 'betere' graphics en de prijs die dat moet kosten.

Ik begrijp ook niet goed waarom je uit zou kijken naar die benchmarks als je al een 4090 hebt. De 4090 blijft de betere keus. Je wordt er zeker niet vrolijker van als zou blijken dat je misschien met een jaar geduld een betere koop had kunnen doen.
Lijkt me sterk als ze mensen kunnen overhalen bijna 2k te betalen voor 1 gpu. Volgens mij doen ze het vanuit hun optiek vrij goed ;)
Nee, ik verwacht dat ze de de chips dumpen door alsnog een 4080Ti uit te brengen. Het is al weer bijna tijd voor de RTX 5xxx launch.
Snijd nVidia zich niet hiermee in zijn vingers?
Nee want je blijft het toch wel kopen :+
Zou mooi zijn als de gewone 4080 dan langzaam onder de 1000 euro zakt. Het is een fantastische kaart, met relatief laag stroomverbruik en vanwege de grootte uitzonderlijk stil. Enige probleem is de prijs.
Reken er maar niet op. De 4080 is nog steeds 1200 euro en de 4090 1700 euro. Dat is een gat van 500 euro. Het is dus veel realistischer dat hij of 1400 of 1500 word afhankelijk van of hij dichter bij de 4090 of 4080 zit.
Ik ben aan het overwegen een nieuwe videokaart (4080/7900xtx performance klasse) te kopen. Wilde wachten tot er meer nieuws was uit beide kampen over de volgende generatie.

Als dit gerucht waar is, doet dat voor mij eigenlijk Nvidia nu al afvallen. De performance in ray tracing bench’s is in het voordeel van Nvidia maar niet echt van zo’n niveau dat het “lekker speelt” op 4K. Verder is de performance van de 7900xtx vergelijkbaar volgens mij, maar voor een betere prijs.

Ik hoop dat AMD details/geruchten over de volgende generatie ook snel naar buiten komen, en te weten te komen of de verwachting is dat deze “baanbrekend” zal zijn of een kleine evolutie. Als het meer een refresh is zoals nu voor de 4080, dan probeer ik een 7900xtx op de kop te tikken op Black Friday.
7900XTX is een stuk sneller dan 4080, behalve in raytracing.
Het is niet eens trading blows, hij is gewoon consequent een stuk sneller. Maar zonder raytracing dus. Ik hecht daar ook geen waarde aan dus dan is de keuze snel gemaakt.
De laatste keer dat ik een AMD kaart in een van mijn systemen heb gehad is 20 jaar geleden ofzo :)

[Reactie gewijzigd door NosferatuX op 22 juli 2024 14:39]

Of deze kaart interessant is zal voornamelijk afhangen van de prijs positionering. De koelers van de 4k serie spreken mij enorm aan omdat ze lekker koel zijn. Dat de backplates zo groot zijn vind ik niet erg want ik heb toch genoeg ruimte in mijn pc kast.

Als de prijs te hoog is wacht ik wel op de 5x serie om echt weer een upgrade te maken ten op zichte van de 3080 ;-)
Vaste prik en al jaren hetzelfde verhaal.

Eerst een xx90, later een xx80ti op basis van dezelfde chip.

Niet heel verrassend dus dit.
Dan kunnen ze meteen DP 1.4 en HDMI 2.1 toevoegen.

Op dit item kan niet meer gereageerd worden.