Gerucht: Nvidia wil RTX 40 Super-videokaarten introduceren op CES

Nvidia zou RTX 40 Super-videokaarten willen introduceren op de CES. Dat stelt kopite7kimi, een leaker die al vaak juiste details over productaankondigingen van Nvidia heeft gedeeld. Het bedrijf heeft nog niet gereageerd op de geruchten.

Leaker kopite7kimi verwees op X naar de Consumer Electronic Show nadat hij een vraag had gekregen van een andere X-gebruiker. De leaker vermeldde geen verdere details. Volgens de redactie van VideoCardz zal Nvidia geen stand hebben op de CES. Het bedrijf zou wel aparte persvoorstellingen willen houden in de omgeving van de beurs om daar mogelijke aankondigingen mee te delen.

Enkele weken geleden is er nog een onaangekondigde GeForce RTX 4080 Super-videokaart opgedoken in de PCI ID-database. Uit die listing bleek dat de videokaart over dezelfde AD103-chip beschikt als de reguliere RTX 4080. Vermoedelijk krijgt de Super-variant van deze kaart meer CUDA-cores, maar dat kon niet bevestigd worden aan de hand van de listing uit de PCI ID-database. Nvidia zou ook met een RTX 4070 Super komen. Over deze kaart zijn nog geen details bekend.

De Consumer Electronic Show vindt plaats van dinsdag 9 januari 2024 tot en met vrijdag 12 januari 2024 in de Amerikaanse stad Las Vegas.

Nvidia RTX 4080
Nvidia RTX 4080

Door Jay Stout

Redacteur

07-11-2023 • 11:36

86

Lees meer

Reacties (86)

86
86
37
2
0
38
Wijzig sortering
Ik zou liever zien dat nVidia wat gaat doen aan het energieverbruik dat elke generatie groter wordt. Maar ik weet ook dat zo'n verandering meer dan een refresh vereist. Wellicht hebben ze een richting als destijds bij Maxwell nodig om dit voor elkaar te krijgen. Eerst een energiezuinigere architectuur (Zoals bij Maxwell) en daarna een kleiner productieproces. (Zoals bij Pascal)
TDP wilt niet zeggen dat die kaart het ook gebruikt. Mijn 4090 gebruikt minder stroom dan m'n 3080 deed. Maar ondertussen pompt het wel makkelijk twee keer zoveel frames naar m'n monitor.
Nee hoor, voor die energieverlaging is helemaal niets nodig aan design wijziging. Sterker nog, daar hoeft NVidia helemaal niets voor te doen. Klok zelf je kaart lager; de 40x0 serie doet het uitstekend op iets lagere clocks. Het verbruik zakt veel sneller dan de prestaties.
Ter info: CES is vanaf 9 januari t/m 12 januari 2024.
Inderdaad, ik heb de data toegevoegd aan het artikel. Bedankt :)
Anoniem: 574346 @lodu7 november 2023 12:00
dank. dit soort info zou toch bij het artikel horen zou je zeggen.
Dit ligt natuurlijk wel in de verwachtingen aangezien NVidia een bepaald patroon doet volgen met het uitbrengen van kaarten.

Nu begrijp ik wel dat dit een beetje een 'deze kaart is niet voor jou' verhaal is maar de huidige NVidia kaarten zijn echt te gek voor woorden. Ze hebben een enorm formaat waarbij transport van desktop kasten met dergelijke kaarten erin soms tot schade van de kaarten lijdt. De kaarten verbruiken ook een enorm vermogen. Een i9 Proc met een 4080 kan meer dan een Kilowatt per uur verbranden bij intensief gebruik.

Begrijp mij niet fout; de prestaties zijn erna en ik begrijp dat slechts een bepaalde marge aan mensen deze producten zal gebruiken. Maar ik denk dat het langzaamaan tijd wordt dat er gekeken wordt naar het optimaliseren van kleinere vormfactors en een lager vermogen met dezelfde prestaties. Ik begrijp dat dit ook enigszins gedaan wordt maar ik zie eigenlijk liever dat bedrijven zoals NVidia een paar jaar daar de volledige focus op leggen in plaats van dikkere kaarten met meer prestaties en verbruikt vermogen.

Ik ben in die zin ook wel een beetje benieuwd naar deze 'Super' kaarten. Sorry als dit een beetje als een rant over komt overigens, zo is het niet bedoeld.
De 4060 is dezelfde prestaties voor een lager vermogen dan de 3060. Daar werden ze juist flink op bekritiseerd.
Komt dit dan ook niet door de manier van kijken? Dat veel gamers liever een 4060 hadden gezien met meer kracht voor hetzelfde vermogen dan een 3060?
In dat geval is misschien de mentaliteit verkeerd van de consument. Ik denk dat een 4060 die hetzelfde kan dan de 3060 voor minder vermogen juist een goede vooruitgang is.
De 4070 heeft ongeveer de zelfde prestaties als de 3080 voor bijna de helft aan verbruik
maar wel voor dezelfde prijs ook, en dat is wat voor veel mensen een beetje tegenviel: dat je van 1 generatie naar de volgende geen extra performance kreeg als je hetzelfde bedrag uitgaf.
Zeker, ik ben er totaal geen voorstander van. Het is meer ee bevestigende reactie op @Auredium
Maar ik denk dat het langzaamaan tijd wordt dat er gekeken wordt naar het optimaliseren van kleinere vormfactors en een lager vermogen met dezelfde prestaties. Ik begrijp dat dit ook enigszins gedaan wordt maar ik zie eigenlijk liever dat bedrijven zoals NVidia een paar jaar daar de volledige focus op leggen in plaats van dikkere kaarten met meer prestaties en verbruikt vermogen.
Dat doet nvidia nu al, ik ben er geen voorstander van. Mijn desktop verbruikt zo'n 500 watt under full load, en het zou mooi zijn als dit 300 wordt in de toekomst, maar dat is voor mij geen moeten. Ik game bijna nooit, en als ik game dan wil ik goede prestaties.
En nu hopen dat de 4070 in prijs gaat zakken door de komst van de Super, maar hoop is (en vooral bij NVidia) vaak uitgestelde teleurstelling :9
Ik denk dat een RTX 4070 Super in de plaats komt van de RTX 4070 en dat ze tussen nu en jan'24 de voorraden zullen gaan minimaliseren zodat er weinig RTX 4070 kaarten met korting verkocht hoeven worden.
Ik had bijna de knop voeg toe aan de winkelmand ingedrukt maar wacht nu toch maar weer op de RTX 4070 Super en speel nog even op mijn antieke GTX 1060......
Dan houden ze maar 1 kaart over met 12GB, ik denk dat de 4070 iets van 499 wordt, de 4070 Super 699, de 4070 Ti vervalt, de 4070 Ti Super 16GB wordt dan 899 en de 4080 vervalt en de 4080 Super 1099.
De SUPER kaarten zouden dezelfde prijs krijgen als de voorgangers, een 4070 SUPER voor 699 euro zou echt nog belachelijker zijn dan de huidige prijzen, 700 euro voor een midrange kaart is veel teveel, 600 euro is eigenlijk al teveel.
Er zijn al diverse vergelijkingen gegeven, bijvoorbeeld op basis van verbruik en die-size. Over meerdere generaties op de lange termijn blijft het verbruik voor elk segment ongeveer gelijk. In dat opzicht scoort een 4060 eigenlijk als een typische x050-kaart. Er was dus vooral kritiek op dat die kaart qua prijs wél gewoon in de x060-regio zit, of zelfs daarboven.
Dat is niet waar, de 3060 was bij de release twee keer zo duur als een 4060. Dat is vaak het probleem met dit soort welles/nietus discussies. Er wordt altijd informatie weggelaten om de discussie te 'winnen'.

[Reactie gewijzigd door ABD op 27 juli 2024 23:23]

En hoe maakt dat mijn stelling onwaar? Ook bij de 3060 was de die-grootte en het verbruik vergelijkbaar met eerdere x060-kaarten.

Daarnaast werd 3060 uitgebracht in een uitzonderlijke periode, dus dat verklaart de extreem hoge prijs. Uitschieters zijn er altijd - en uitschieters naar boven krijgen dan ook diezelfde kritiek.

[Reactie gewijzigd door bwerg op 27 juli 2024 23:23]

Je benadrukt notabene met het woordje wel met een accent op de 'e' dat de prijs hetzelfde was. Terwijl de 3060 bij de release het dubbele kostte van de 4060. Je moet zelf weten hoe je dit wil zien, maar in mijn ogen maak jij keuzes om feiten weg te laten om je gelijk te halen.
Als je naar de hardwareprijzen kijkt ligt er in 2021 over de hele linie een extreme piek naar boven. Natuurlijk reken ik dat niet mee als ik het heb over de prijs van de x060-regio "over meerdere generaties op de lange termijn".
Ik denk dat een 4060 die hetzelfde kan dan de 3060 voor minder vermogen juist een goede vooruitgang is.
Dat is ook een vooruitgang. Je moet het echter geen 4060 noemen. Een naam als 3060 v2 zou dan beter zijn zodat het duidelijk is dat het een verbetering is van de huidige 3060.

[Reactie gewijzigd door 3raser op 27 juli 2024 23:23]

Dat is niet te doen. Een 40x0 heeft de Ada Lovelace architectuur, een 30x0 niet. Eventueel noem je't een 3660 - dat hebben we eerder gezien met de 1660. Die 1660 was ook gebaseerd op de 20x0 serie, niet de 10x0 serie.
Qua prestaties en verbruik zou dit in voorgaande generaties altijd gewoon een 4050 genoemd worden. Een kaart die wat beter presteert dan zijn voorganger bij gelijkblijvend energieverbruik wordt doorgaans als de opvolger gezien, en zo verhoudt deze kaart zich tot een 3050. Een opvolger met gelijke prestaties en een significant lager verbruik is veel minder gangbaar als opvolger.

[Reactie gewijzigd door bwerg op 27 juli 2024 23:23]

In dat geval is misschien de mentaliteit verkeerd van de consument.
Als je iets nieuws koopt ter vervanging van wat je al hebt, vind ik dat je er wel op vooruit moet gaan.

Voor mij is een lager energieverbruik leuk maar zeker niet de reden om goed werkende producten te vervangen. Zeker niet als ik 2MWh per jaar overheb aan energie :)
De kritiek komt op de prijs die hoger is.

Men verwacht ook een lagere prijs.
Wat ze dan beter hadden kunnen doen is een balans vinden tussen beide.
Dus iets minder vermogen, maar wel iets meer prestaties. Wellicht dat dat tot minder kritiek zou leiden.
Ze zijn juist super efficient. Zeker in vergelijking met AMD. En ook in vergelijking met de vorige generatie Nvidia. Wat je leest zijn vooral de extreme situaties. Mijn 4090 verbruikt over het algemeen zo rond de 350 watt en is daarmee veeeel sneller dan mijn oude 3090 die meer verbruikte. En als ik framerate limits instel als 120 fps of 240hz gaat het verbruik nog verder omlaag.
Dat verbruik ligt dan voornamelijk bij de i9 processor. Mijn 4090 komt niet boven de 320W verbruik uit en m'n 7800X3D ook niet boven de 150. Of je staart je blind op de TDP, maar zelfs die is 450W geloof ik.
Ik weet dat ik hier ga nitpicken (en volledig off-topic), maar ik denk toch dat het waardevol is omdat ik merk dat het toch een struikelblok is voor velen. Een watt is gedefinieerd als een joule per seconde, een kilowatt per uur is dus een indicatie van hoe snel het verbruik van iets veranderd, niet het effectieve verbruik van een apparaat. Juister is dus om te zeggen: een kilowattuur per uur, of simpelweg: een kilowatt.
Op Videocardz staat de vermoedelijke 4090 Ti bracket, die is echt asociaal groot haha
https://videocardz.com/ne...-is-now-available-on-ebay
Kilowatt is overdreven. Dat haalt een RTX 4090 en een i9 9900k op 5ghz ook nog niet.
De prestaties zijn er inderdaad naar en met een 4070 is het wel best zuinig. 4080 en 4090 zijn echt al dikke kaarten die voor mijn gebruik licht overkill zijn en te duur voor m'n portomonee. Maar vroeger ging men SLI of Crossfire aan de slag om zo'n prestaties te krijgen en dat was je ook een smak geld en stroom kwijt.

Voor mezelf heb ik genoeg aan een tweedehands 3080 voor 1440p gaming. Die heb ik vorige week nog voor 395euro kunnen scoren. Een 4070 was een stuk zuiniger, maar bijna 300euro duurder in aankoop. Met mijn 10 uurtjes gamen per week, kan ik de meerprijs niet terug verdienen :P
Vrijwel alle productontwikkeling, zeker elektronica, verloopt in cycli waarbij men eerst focust op meer performance om daarna diezelfde performance (of meer) op een efficiëntere manier te bereiken. Die efficientieslag kan dan leiden tot producten met dezelfde performance en een lager energieverbruik (zie 4060/4070 kaarten tov de 3000-reeks) een nog iets betere performance tegen een vergelijkbaar energieverbuik als de vorige generatie of een nieuwe top-of-the-line performance met weer wat meer energieverbruik. En bij vrijwel alle performance-lijnen neemt het energieverbruik exponentieel toe richting top-of-the-line performance vanwege zaken als warmteontwikkeling e.d. Kortom, volgens mij volgt de ontwikkeling van GPU's gewoon de normale trend die we ook bij CPU's, geheugen en andere hardware zien, alleen is stijgend energieverbruik nou eenmaal inherent aan snellere/betere elektronica.

Het is helaas wel zo dat GPU's van alle componenten nu eenmaal de grootste energievreters zijn, dus die springen er momenteel behoorlijk uit. Uiteindelijk zal de wal het schip hier wel keren, want uit een typisch stopcontact/groep komt in Europa maximaal 16Ax230V = ca 3600W en de meeste mensen sluiten daar niet alleen de pc maar ook hun monitor en alle accesoires op aan (boxen, race-stuur, etc). Als je nog een beetje marge wil houden dan zou een PC eigenlijk niet meer dan 1600W mogen vragen tijdens piekvermogen en we gaan al aardig in die richting met de huidige generatie CPU's en GPU's voor high-end systemen. Er zit dus nog een heel klein beetje rek in, maar ik denk niet dat we GPU's gaan zien die meer dan circa 800W op piekvermogen gaan vragen. Ik denk dat de top van de 5000-reeks straks misschien wel tegen dat getal aan gaat zitten, maar de generaties daarna zullen vanzelf meer op efficientie gaan focussen want er zit gewoon een praktische grens aan wat aan typische PC-gamer uit zijn stopcontact kan halen.
Prijzen lijken ook weer te zijn gestegen, misschien om ze met black friday weer te doen zakken?
Zo gaat het ieder jaar helaas....
Ja dat is zo :)
Er zijn al tal van dingen beschreven ivm fake black friday deals of cyber monday.
Vaak gaat het om valse kortingen, waar idd de prijs door de winkels opgedreven word om nadien de opgedreven prijs in korting om te zetten.
Net zoals je goed moet opletten met hoge kortingen op verouderde spullen die tegen eind ondersteuning aanlopen enzo. Ik koop dan ook het vaaks wanneer er geen kortingen zijn en baseer mij op de prijsgrafieken of als er gratis games gegeven worden :)
Volgens mij was er tegenwoordig een regel dat het alleen een Black Friday deal mag zijn als de prijs meer dan een maand geleden hoger was. De prijsstijgingen van vooral de 4090 zijn dan te laat.

Sowieso doet Black Friday de afgelopen jaren weinig met de prijzen van GPU's, meer klein spul.
1 + 1 = 3. Nu wachten op de technische details en de prijs voordat er verder wat zinnigs over te zeggen is.
Ik heb bijna wekelijks in de plaatselijke arcadehallen in de jaren 80 de opkomst van games zoals DigDug, Galaga, Centipede, Zaxxon, Donkey Kong Junioren Pac-Mans meeemaakt en vele munten verstookt!
Ik heb zo'n beetje alle consoles van Sony (Tot aan de Vita) , Microsoft en Nintendo thuis gehad of heb ze nog steeds.
Ik heb talloze GPU's versleten, van 3dFX, Diamond, Nvidia, Ati en AMD.
In de jaren 2000+ heb ik mooie trends kwa prijzen voor computeronderdelen meegemaakt. Web- en fysieke winkels zoals Funprice, Mycom, FasCom, Paradigit, Gistron, Digitique... Moederborden, GPU's werden voor normale prijzen verhandeld en werden beter maar ook goedkoper.

En tegenwoordig moeten wij het doen met "verbeteringen" zoals "zelfde prestaties met minder verbruik maar tientallen procenten duurder". ಠ_ಠ
Ik vraag mij oprecht af hoe het kan dat men bereid is om een GPU aan te schaffen ter waarde van een (maandelijkse) minimumloon voor zulke "verbeteringen".

Die gedachte/mening zal wel aan mijn leeftijd liggen.

In ieder geval: Een ding weet je vrijwel zeker bij Nvidia: Van duurder naar duurderder! En ze worden geadopteerd door een horde mensen die verbeteringen zien in technieken zoals DLSS of whatever die het gebrek aan verbetering in pure performance maskeren.

[Reactie gewijzigd door Obfzk8R op 27 juli 2024 23:23]

Ik volg hier je mening voor de volle 100% :)
Zelf ben ik ook wat van de oudere generatie en bouw dus ook mijn eigen pc's sinds 1999.
Iedere 6 maand of bij iedere nieuwe generatie GPU's veranderde ik dan ook, dit heeft me véél geld gekost en vaak véél frustratie. Vaak loont het niet eens meer de moeite om tegenwoordig te upgraden tegenover de prijs die je ervoor moet uitleggen. Voor 600€ had je top high end in 2008, tegenwoordig is dat minimum 1800€ en bij introducite zelfs makkelijk boven de 2K. Maar ik merk steeds meer op dat de jeugd dit compleet normaal vind die prijzen ? Tegenwoordig kan je dus ook makkelijk 2 generaties gpu's overslaan om enig nut te hebben op gebied van vooruitgang vs kostprijs aanschaf.
Nog eventjes zo doorgaan en pc gaming is voor velen niet meer betaalbaar, dit is nu al op het randje !
Och, ik ben van de generatie dat een 386 nog 3100 gulden koste. En daar zat dan een mager VGA kaartje in en geen geluidskaart. Ik verdiende toen 6,50 gulden per uur in mijn vakantie-baantje, reken maar uit. Wat dat betreft is het allemaal nog steeds veel beter en goedkoper :P

[Reactie gewijzigd door uiltje op 27 juli 2024 23:23]

De ontwikkelingen op het gebied van GPU's zitten tegenwoordig vooral aan de AI/ML kant van het spectrum. De ontwikkelingen daar gaan zo hard dat de 4090 zelfs niet meer naar China geexporteerd mag worden: https://www.tomshardware....ions-starting-november-17

Door de grote vraag naar dit soort GPU's stijgen de prijzen ook. En een paar jaar geleden was de vraag hoog ivm het crypto-minen.

Dat staat eigenlijk allemaal los van de ontwikkelingen in de game wereld, maar omdat GPU's dus steeds breder ingezet worden dan alleen gamen, is de game-wereld daar wel de dupe van.

En zolang consumenten het blijven betalen heeft Nvidia geen reden om de prijzen te verlagen. Het zal Nvidia namelijk een worst wezen of een GPU gebruikt wordt voor gamen, minen of AI/ML.
Je overdrijft nogal... Als je het hebt over een maandloon dan heb je het over de 4090 en die biedt absoluut niet de "zelfde prestaties".
Verder wel eens dat het erg duur is allemaal. Ik ben zelf daarom voor het eerst in lange tijd weer naar AMD overgestapt. Die zijn ook duur maar toch wat beter te doen en de 7900XT bevalt tot nu toe prima.
Tja, van RTX 3090 naar 4090 was toch echt een 75-100% upgrade in raster performance voor dezelfde wattage. Dat vind ik toch wel goed genoeg om gewoon te upgraden. Als de "leaks" kloppen en de 5090 een 50-75% sprong in performance maakt, koop ik die ook gewoon vrolijk weer.

Ik wil het niet revolutionair noemen, maar het zijn wel echt hele grote sprongen. Groot genoeg voor mij om dat geld uit te geven bij iedere launch.
Hoewel ik je sentiment volledig snap (ik heb ook dat upgrade-traject doorlopen met de eerste 3dfx Voodoo 2 SLI, daarna nvidia-kaarten, etc), moet je je ook realiseren dat de gevoelsmatige voortgang van volwassen producten nu eenmaal steeds wat minder wordt. Zo was de stap van een 486 naar Pentium 166 Mhz enorm, had je om de twee jaar zo'n beetje een verdubbeling in prestatie/frequency van zowel CPU als GPU en geheugen, dus kon je door regelmatig te upgraden enorme sprongen maken in je beleving. Zo was de stap in Quake 2 van software-rendering op 800x600 naar hardware-rendering op 1024x768 echt enorm met de Voodoo 2 SLI opstelling (ondanks dat dat als knulletje op de middelbare school toen ook als een rip uit mijn lijf voelde ;-)) en de stap die ik bij de twee of drie systemen die ik daarna had was een beetje vergelijkbaar.

Tegenwoordig voelt de sprong van een 3000-reeks kaart naar een 4000-reeks kaart een stuk kleiner, maar dat komt volgens mij ook omdat je het afzet tegen de 'beperkte' gevoelsmatige sprong die je dan meestal maakt in resolutie (bv van 2560x1440 naar 4K), picture quality (ray-tracing) en refreshrate en dan voelt een uitgave van € 4000,- of meer naar een nieuw systeem ineens een veel minder goede deal.

Kijk bijv ook naar de smartphone markt: de stap naar de eerste iPhone was gigantisch, de paar generaties erna waren steeds een stuk sneller/dunner/mooier, maar tegenwoordig is het verschil tussen generaties zo ongelooflijk klein dat ik echt niet meer de behoefte hebt de nieuwste en duurste te moeten kopen.
Het plan is (lijkt me) om dit te positioneren tussen bestaande kaarten in. Dus de 4070 Super tussen de 4070 en 4080 in, en de 4080 super tussen de 4080 en 4090 in. Prima plan, maar doet dit dan wellicht ook nog wat met de prijzen van de 4070 en 4080? Ik heb voor eind dit jaar mijn zinnen gezet op wat nieuws, maar als deze kaarten nog wat positiefs kunnen betekenen voor de prijzen van de bestaande kaarten dan wacht ik daar graag op.
Of de non supers gaan er helemaal uit. Gebeurde dat ook niet bij de 20xx serie?
Ik heb hier en daar een mix van gerucht/vermoeden/speculatie/hoopboodschap opgevangen, zijnde dat de Super refreshes aan dezelfde prijs zullen verschijnen als de kaart waarvan ze een refresh zijn, en dat de oude modellen dan een beetje in prijs zullen zakken. Dus de 4080 Super zal de prijs overnemen van de 4080 dus rond de 1200 EUR, en de 4080 zal dan in prijs dalen naar rond de 1000 EUR; De 4070 Ti Super zal de prijs overnemen van de 4070 Ti en rond de 850 EUR zijn en de 4070 Ti zal dan dalen naar 700, en de 4070 Super zal dan rond de 600 EUR zijn en de 4070 daalt dan naar 500. De 4060 modellen zouden dan ook in prijs dalen.

Hierdoor zou Nvidia tegemoet kunnen komen aan de veelvoudige klachten van consumenten en verkopers dat de huidige kaarten wat te duur zijn, en tegelijk ook een iets beter product aanbieden aan de prijzen die ze nu hanteren.
Het ontwerp van hoe de SUPER labels op de verpakking komen is inmiddels gelekt:
https://videocardz.com/ne...ak-hints-it-might-be-real
Volgens leaks heeft de 4080 Super maar 5% meer cores en dat het voor de rest precies hetzelfde is, TDP, nog steeds 16GB VRAM, nog steeds 256 bit bus width en nog steeds op de AD103 die. Zoveel meer performance gaan ze er volgens mij zeker niet uit krijgen. De 4070 Ti Super ( rare naam ) of de 4070 Super kan wel wat zijn, maar dan ligt het helemaal aan de prijs.
Echt zo jammer dat Nvidia heeft besloten om deze 4080 generatie op de AD103 chip te zetten ipv op de AD102 chip (zoals gebruikelijk).
Hierdoor blijft er een enorm gat bestaan tussen de 4080 (Ti / Super) en de 4090, simpelweg omdat laatst genoemde stomweg 50% meer geheugenbandbreedte heeft en 50% meer Cuda cores heeft.
Voorgaande generaties, zoals de 1080, 2080 en 3080 gebruikte wel de 102-chip waardoor het gat tussen de snelste 80-kaart en de snellere 90-kaart erg klein werd.
Echt zo jammer dat Nvidia heeft besloten om deze 4080 generatie op de AD103 chip te zetten ipv op de AD102 chip (zoals gebruikelijk).
De 3080, 3080 Ti, 3090 en 3090 Ti gebruiken allemaal de GA102. Verder waren er geen Super kaarten in de 3000 series. De 2080 en 2080 Super gebruiken beide de TU104.
De 2080Ti gebruikt wel de TU102 en komt daarmee kwa performance dicht in de buurt van de (in dit geval) Titan.
Op de 10-series zie je de 1080 op een GP104, maar de 1080Ti op een GP102. Hierdoor komt ook de 1080Ti kwa performance dicht in de buurt van de Titan X.

Een 4080Ti zonder AD102 is bijna de naam 4080Ti niet waard, omdat deze met 50% minder resources dan de 4090 aanzienlijk langzamer blijft dan de 4090.
Ja.. maar dit is geen Ti
I love my 4090 :)
Rendering beast.

Nu is een project op 1 dag gerenderd tov 4 dagen op 2080ti :)

Op dit item kan niet meer gereageerd worden.