Releasedatum RTX 5070 Ti bevestigd door MSI

MSI Frankrijk heeft de releasedatum van de Nvidia GeForce RTX 5070 Ti bevestigd. De grafische kaart komt op 20 februari om 15.00 uur op de markt. Dat blijkt uit een countdown op de website van MSI.

De countdown lijkt intussen offline te zijn gehaald. De datum en het uur komen wel overeen met vermeldingen bij de Franse retailer TopAchat, die op moment van schrijven wel nog online staan. Beide sites bevestigen zo eerdere geruchten dat de RTX 5070 Ti op 20 februari wordt uitgebracht.

De RTX 5070 Ti wordt uitgerust met een GB203-chip voorzien van 8960 CUDA-cores en 16GB GDDR7-geheugen op een 256bit-geheugenbus. Het stroomverbruik komt uit op 300W. In tegenstelling tot eerdere berichten zal Nvidia geen Founders Edition uitbrengen van de RTX 5070 Ti. Alle kaarten zullen afkomstig zijn van boardpartners als MSI en ASUS. De Europese adviesprijs begint bij 889 euro, al zullen custom modellen vermoedelijk duurder uitvallen.

De nieuwe gpu volgt de RTX 4070 Ti op en moet qua prestaties in de buurt komen van de RTX 4080 Super. De exacte prestaties zullen rond de lancering bekend worden gemaakt. Eerder bracht Nvidia de high-end RTX 5090 en RTX 5080 uit. Deze zijn sinds 30 januari verkrijgbaar. De reguliere RTX 5070 zonder Ti-suffix staat eveneens gepland voor februari, maar een exacte datum is nog niet bekend.

Nvidia's GeForce RTX 50-line-up
Videokaart RTX 5090 RTX 5080 RTX 5070 Ti RTX 5070
Architectuur Blackwell Blackwell Blackwell Blackwell
CUDA-cores 21.760 10.752 8960 6144
Boostclock 2,41GHz 2,62GHz 2,45GHz 2,51GHz
Geheugen 32GB GDDR7 16GB GDDR7 16GB GDDR7 12GB GDDR7
Geheugenbus 512bit 256bit 256bit 192bit
Geheugenbandbreedte 1792GB/s 960GB/s 896GB/s 672GB/s
Tgp 575W 360W 300W 250W
Interface PCIe 5.0 x16 PCIe 5.0 x16 PCIe 5.0 x16 PCIe 5.0 x16
Releasedatum 30 januari 2025 30 januari 2025 20 februari 2025 februari 2025
Adviesprijs 2369 euro 1190 euro 889 euro 654 euro

Door Andrei Stiru

Redacteur

11-02-2025 • 10:45

123

Lees meer

Reacties (123)

123
122
37
4
0
78
Wijzig sortering
Gelukkig: heel langzaam maar zeker komen we dichter bij de release van de normale kaarten: 5070 (non-Ti), 5060 Ti en de 5060. Kaarten voor de normale gamer met een normaal budget (rond de prijs van een console).

Het zou tech media sieren als ze zich eens wat minder door de marketing tsunami zouden mee laten slepen, maar hun eigen koers zouden varen: geef tech producten aandacht gebaseerd op de realiteit, bijvoorbeeld de steam hardware survey. Als je het aantal high-end gebruikers (xx70 Ti equivalent en hoger) bij elkaar optelt, wat voor marktaandeel hebben we het dan over? 5-10%?

Ik snap dat er niet geschreven wordt over kaarten die er nog niet zijn, maar als straks de hele cyclus achter de rug is denk ik dat 80% van het nieuws is gegaan over dat wat slechts 10% van de mensen koopt. Dan ben je toch geen consumenten tech medium meer maar enkel leesvoer voor de kids van mensen die in de Quote500 staan?

Anyway, ik wacht rustig nog twee jaar op de 6060 (Ti) of AMD's of Intel's equivalent, tot die tijd perst mijn 3060 Ti er nog zonder problemen minimaal 300 miljoen pixels per seconde uit. :Y)
Hmmm, normale kaarten? Laten we even eerlijk zijn dat je qua "tier" gelijk lijkt te hebben, maar qua kosten echt niet meer. Dit zijn *80-prijzen, zelfs al reken je de inflatie mee. En dan niet zomaar *80 prijzen, maar ook eigenlijk minder waar voor geld:

- Deze kaarten zijn eigenlijk geen/amper generationele uplift als je de performance van de bekendgemaakte specs doorprojecteert op wat de halo-producten doen. In vergelijking met de 40xx series win je niks in performance per watt, en vaak zelfs niet eens gewoon qua performance. Op wat competenties na (die gezien het feit dat games óók voor consoles ontwikkeld worden mogelijk niet eens nuttig zijn) koop je niks meer nu, dan je zou kopen als je de oudere kaart kocht. Ik vindt het juist goed dat hierdoor óók de "halo" kaarten gereviewed worden, ze geven een goed beeld van wat zou kunnen (nog géén volle path tracing, en een steeds lagere resolutie native rendering, wat leuk is als je niet gevoelig bent voor upscaling...)

- De partlist van de kaarten is wat gek. Gezien de ontwikkeling van schermtechnologie (en om op jouw betoog door te gaan: de meeste mensen kopen geen losse GPU, maar een systeem waar een inzit) zijn we alleen al aan framebuffer meer kwijt, nu 10bit kleurkanalen steeds meer mainstream worden, en 1440p ook. Daarnaast draait ín het VRAM eigenlijk steeds meer. Niet alleen textures, shaders, en framebuffer, maar ook diverse AI modellen. 16GB is genoeg voor óf een LLM, óf game, óf iets anders. Leuk dat nVidia allemaal demo's geeft waarbij LLM's >IN< games een rol spelen, maar dat ga je niet werkend krijgen op het schaarse vram wat nVidia in deze GPU's zet. Ze zullen dus vrij snel oud worden (hoewel LLM's wel steeds efficiënter worden), of ingehaald worden door NPU's (AMD met de Ryzen AI Max NPU's heeft absurd goede SOC's in de markt die bovendien met unified memory en een "gewone" 256bit bus eenvoudig met absurde hoeveelheden geheugen kunnen worden uitgerust, en Apple doet iets soorgelijks met de M-Soc's, GDDR7 is leuk maar soms is kwantiteit ook een must). Zolang nVidia met deze kleine geheugenpools blijft focussen op add-in kaarten denk ik dat je óf snel oude GPU's hebt, óf jezelf in de weg zit.

Ik heb vóór de crypto boom een 3090 gehaald, en die kostte me toen €1300. Kijk ik nu op de tweedehands markten staat hij er voor €1250 of meer (even verder kijken dan de NL-se markt, waar hij voor €850-900 gaat). Voor een bijna 5 jaar oude kaart absurd natuurlijk. En dat komt meer vanwege het feit dat nVidia niet echt graag meer consumentenproducten maakt. De hele 50 serie is daar getuige van: de high end kaarten bieden niks boven de vorige generatie, de low-end kaarten lijken zowaar wat slechter te zijn zelfs, en dat komt allemaal omdat de marge op game kaarten laag is. Om een bekende youtuber te citeren:

"stel ik ben Jensen, ik heb m'n leren jasje aan, en haal een 300mm waver uit m'n oven die ik moet huren bij TSMC, ik kan hem óf in dure datacenter/AI SKU's verwerken, óf in een paar gamerdingen, waarbij gamers sowieso niet een vriendelijke markt is, goh, wat zouden m'n aandeelhouders leuk vinden?"
En toch vind Nvidia het blijkbaar belangrijk genoeg om er een nieuwe lijn voor op te zetten!
Daar wordt ook het nodige in geïnvesteerd, dus mag je verwachten dat ze daar ook winst uit halen.

Als ze niets willen verkopen, kunnen ze beter niet een nieuwe lijn optuigen...dat is voordeliger!
En toch vind Nvidia het blijkbaar belangrijk genoeg om er een nieuwe lijn voor op te zetten!
Daar wordt ook het nodige in geïnvesteerd, dus mag je verwachten dat ze daar ook winst uit halen.

Als ze niets willen verkopen, kunnen ze beter niet een nieuwe lijn optuigen...dat is voordeliger!
Als ze daarin echt een keuze hadden weet ik het nog niet... Hoe dan ook, ze hebben niet echt een keuze:

1 - AI is een goudmijn momenteel, met de nadruk op momenteel, wanneer (niet als, want; dit tempo blijft niet voor eeuwig) de enorme vraag naar hun producten voor AI scherp afneemt (of zelfs stopt) hebben ze hun traditionele klanten ineens weer keihard nodig en dat gaat moeilijk/niet lukken als die grotendeels/allemaal naar een andere producent moesten overstappen omdat je al een tijd gestopt bent met dat product

2 - aandeelhouders weten bovenstaande ook wel, diversifiëren heeft ook daar dus de voorkeur

Ze halen er inderdaad genoeg winst uit, al snel een meer dan gezonde 50% - 60% winstmarge, maar ten opzichte van de geschatte +/- 1000% winst [uiteraard niet marge, want dat kan niet] (je leest het goed en het is ook geen typfoutje; duizend procent) op AI producten is het 'kruimelwerk'. ;)

[Reactie gewijzigd door HuisRocker op 11 februari 2025 17:04]

Hoi, je kunt niet meer dan "naderend tot 100%" winstmarge hebben. Tientje inkoop en 100 verkoop is 90% winstmarge.
Ik heb daar het woord 'winst' (zonder -marge, ik weet dat het max. 100% is) vergeten te plaatsen, bij deze aangepast, dankjewel! :)
Iets anders rekenen geeft het werkelijke resultaat weer:
€20 verkoop = 100% winst
30 = 200%
40 = 300% enzovoort.
Dus: €10 inkoop en €100 verkoop is 900% winst.
"stel ik ben Jensen, ik heb m'n leren jasje aan, en haal een 300mm waver uit m'n oven die ik moet huren bij TSMC, ik kan hem óf in dure datacenter/AI SKU's verwerken, óf in een paar gamerdingen, waarbij gamers sowieso niet een vriendelijke markt is, goh, wat zouden m'n aandeelhouders leuk vinden?"
Wat natuurlijk nergens op slaat. Kijk eens naar het marktaandeel van nvidia. Dat zit rond de 80%, de gpus zijn niet aan te slepen. Ze voldoen blijkbaar structureel beter aan de vraag dan AMD en Intel.
De hele 50 serie is daar getuige van: de high end kaarten bieden niks boven de vorige generatie,
Juist de 5090 presteert beter dan de 4090 met meer geheugen en meer cores. Efficiency wordt soms bekritiseerd, maar het performance level van een 5090 haalt een 4090 niet. Ook op 70% power limit en 400W vermogen presteert de 5090 beter dan een 4090 welke dan op 100% power limit staat.
13% winst, een 5090 tov een 4090. Dat is de meerprijs niet waard, zeker niet als hij een pak luider is dan de 4090 (belangrijker voor mij dan stroomverbruik.)
Ik zie bij Tweakers in de 5090 review op de 4k resolutie waar ik op speel, zowel als gemiddelde gaming score als voor specifiek games die ik speel of wil gaan spelen zoals cyberpunk, black myth, avatar, forza, rond de 27-38% vooruitgang ten opzichte van de 4090.
En ik gok dat je niet helemaal de doelgroep bent van de 5090 als stilte tijdens gamen/renderen/llm'en belangrijker voor je is dan prestaties, hoewel er vast nog wel wat stillere (lc/aio) kaarten aankomen dan het referentiemodel.
Ik zou je gelijk geven als AMD niet gewoon bijna dezelfde prijzen per performance vragen. Duidelijk is onze verwachting van significant meer performance voor evenveel geld onrealistisch, en ja dat was te verwachten en is heel normaal.
Wat dacht je? Dat we voor prijzen van 2015 GPUs gewoon objectief betere GPUs op 2023 nodes zouden krijgen?
En toch vind ik het nieuws over de 5090 een stuk interessanter dan over de 5070. Als ik kijk waar ik reviews van heb gelezen (of voornamelijk van heb gekeken) is dat voornamelijk van de 5090 en heb ik in dit geval de 5080 eigenlijk een beetje aan mij voorbij laten gaan. Dit terwijl er geen haar op mijn hoofd er aan denkt om ooit een 5090 te gaan halen of überhaupt een XX90 serie. Helemaal omdat ik momenteel een 4080 heb, maar vind het gewoon vele malen leuker en interessanter om over het beste te lezen wat de markt te bieden heeft. Net zoals ik veel reviews kijk van mensen die First Class reizen in het vliegtuig, terwijl ik toch eerst de staatsloterij moet winnen om ooit in aanmerking te komen om dat te kunnen betalen.

En ik acht de kans toch best groot dat ik hierin niet de enige ben die het leuker vind om het meest high-end te zien dan de kaarten die ik zelf thuis ook kan hebben. Daarvan wil ik alleen weten of die beter is dan mijn versie en of het de moeite waard is die te kopen. De rest interesseert me bijzonder weinig tot het moment ik ook echt van plan ben iets nieuws te kopen.
Natuurlijk is het interessant, maar ben je het niet met me eens dat het een overvloed is?

Ik zou nooit zeggen dat ze het er niet over moeten hebben, maar we leven in de tijd van de aankondiging van de aankondiging van het launch event, wat - hoe onverwacht 8)7 - een paper launch blijkt te zijn.

Misschien ben ik (met m'n lagere buitenlandse inkomen) ook wel gewoon te zuur omdat ik dit nooit zal kunnen betalen, maar ik zou graag zien dat tech nieuws meer nieuws en minder hype is.

Maarja, hypes en clickbait werken nu eenmaal, net als microtransacties. Dat wil niet zeggen dat het eigenlijk gewoon opgeklopte en gebakken lucht is waar niemand wat echt wat aan heeft en we eigenlijk gewoon vanaf zouden moeten?
Ik ben er dan wel een die zeker niet wil worden doodgeslagen met reviews van spullen die slechts door rijken of gekken (die ten koste van alles hun geld erdoorheen jagen voor een GPU o.i.d.) worden gekocht. Ik vind PC-gaming leuk en ben daarom eigenlijk voornamelijk geïnteresseerd in dingen die ik enigzins verantwoord aanschafbaar vind voor die hobby. Ik doe daarom ook liever elk jaar of om de twee jaar een upgrade van wat componenten dan een onderdeel wat in theorie 4 jaar zou mee kunnen gaan. (Maar dat in de praktijk overigens vaak tegenvalt).
Ik heb liever een review van een betaalbare GPU i.c.m. een beetje moderne resolutie, die de performance in games behandelt, waardoor ik kan beslissen of ik upgrade wil doen.
En ik weet vrijwel zeker, dat als ik mijn interesse in PC's zou verliezen, een site dat dure hebbedingetjes (zoals een RTX xx90, xx80, xx70ti of een horloge van €20.000) reviewt mij een stuk minder zal boeien. Ik heb een goed inkomen, maar ik kan het echt niet goedpraten in mijn hoofd om een GPU aan te schaffen dat 10% meer frames tevoorschijn tovert, maar meer kost dan de AOW van menigen hier in Nederland.

[Reactie gewijzigd door Obfzk8R op 11 februari 2025 19:17]

Wel bizar dat geheugen bandbreedte van mijn "öude" 3080ti nog zo'n beetje tussen de 5080 en de 5070ti in hangt. Wat op hogere resoluties zonder alle nVidia toeters en bellen meestal een goede indicatie van het aantal fps is. Ook het aantal cores is nauwelijks omhoog gegaan zie ik.
Hebben ze de vorige generatie nog een aardige goede stappen gezet met optimalisaties.
Deze generatie spreekt me minder aan.
I agree, het zou de nieuws mediums goed doen om af te vragen waarom en voor wie ze een bepaald product hypen.
Ik volg je volledig, maar je vergeet wel de economische markt-werking. Eerst worden de mensen met geld bediend, zij die "premium" willen betalen om het beste, het nieuwste, ... te kunnen bezitten. De grotere marges op deze producten betalen mee voor de ontwikkelkosten. Nadien komen de goedkopere versies/ producten trapsgewijs op de markt, want de "gewone" man wil graag hetzelfde als de rijken. Dit zie je goed bij de auto's: de eerste "SUV's" waren grote dure modellen (X5, Q7), nadien kwamen de kleinere betaalbare modellen. Bij de elektrische wagens zie je een gelijkaardig verloop: eerst de dure grote modellen. En nu beginnen de meer betaalbare modellen te komen. Je wil het (als bedrijf) echt niet omdraaien, want bvb. de verkoop van de (toen populaire) Tesla Model S kelderde bij de lancering van de Model 3.
De use case voor gpu's een stuk uitgebreider dan eerder dus je kan niet meer spreken van kaarten die 1 consumentenmarkt bedienen. PC gaming heeft ontzettend veel terrein aan consoles verloren en je ziet dat het gros van de games geoptimaliseerd wordt voor consoles, met pc als een nagedachte. Daarnaast is door de komst van Steam de hardware performance ook lang niet zo belangrijk meer omdat veel indiegames prima lopen op verouderde hardware. Op gamers richten is financieel gezien gewoonweg niet interessant meer, het is 10% van de afzetmarkt voor Nvidia.
PC gaming is juist sterk gegroeid waarbij de console markt is gestagneerd. Het totale aantal pc gamers wereldwijd (inclusief China) is tegenwoordig gigantisch. Daarom zie je Microsoft en Sony ook steeds meer van hun games op PC uitbrengen.

Steam kan zich in haar eentje al meten met Xbox en PlayStation bij elkaar opgeteld voor wat betreft aantal gamers. De meest recente cijfers van maandelijks actieve Steam gebruikers stammen uit 2021 en komen uit op 132 miljoen (dat zijn al meer maandelijkse actieve Steam gebruikers dan er überhaupt PS5-consoles zijn)

Van concurrent gebruikers zijn wel recente cijfers en dat is sinds die tijd doorgestegen en piekt nu op bijna 40 miljoen - als je die cijfers doortrekt zou dat op zo'n 180 a 190 miljoen maandelijks actieve gebruikers duiden).

Triple A games worden steeds duurder om te maken en dus boren ze de PC markt aan om voldoende afzet te hebben.

[Reactie gewijzigd door DLSS op 12 februari 2025 07:40]

Ook de tech media laat zich gewoon leiden door wat clicks en views oplevert.. En het mag dan maar door een kleine minderheid echt gekocht worden, dure exlusieve producten leveren denk ik wel veel meer clicks en views op, en dus inkomsten voor die media.. Wij de kijkers zijn er infeite dus gewoon zelf de oorzaak van dat de media en content-creator aandacht vooral daar naartoe gaat.. Vergelijk het met hele dure auto's b.v., een video of artikel over een Ferrari trekt gewoon veel meer aandacht dan één over de nieuwste VW Golf, ondanks dat veel meer mensen een Golf kopen dan zo'n Ferrari.. En zelfs als er aandacht over die Golf is gaat het in veruit de meeste gevallen over de duurste GTI or R uitvoering, niet de basis.. Het is ook gewoon allemaal onderdeel van de marketing, van het kapitalistische systeem.. Het draait allemaal om geld verdienen..
Jammer voor de 'normale' gamers: al deze kaarten, op de 5070ti na, hebben een absurd lager hoeveelheid ram die onvoldoende is om de nieuwste games te spelen: zelfs niet op de hoogste settings verbruikt Indiana Jones al gewoon 15GB vram. Wil je een game spelen die in 2027 uitkomt, dan wordt het echt een drama met een 12GB kaart, laat staan de 5060 die volgens mij amper 8GB krijgt.

Om dan nu 500€ uit te geven aan een 5060 ti is dan ook een idioot slechte deal.
Ik zal Indiana eens proberen als ik weer eens een maandje een gamepass abo neem, maar tot nu toe is er geen enkel spel wat ik niet gewoon op m'n 8 GB kaart heb kunnen spelen (op een resolutie van 1440x3440 welteverstaan.)

Je noemt settings al: die zijn er om aan te passen. Als je geen 'high end' kaart hebt, hoe kom je dan op het idee dat je wel 'high' (of ultra) instellingen zou moeten kunnen gebruiken? Of 100+++ fps mag verwachten (frame generation daargelaten).

Als je dat echt zo belangrijk vind, moet je gewoon dieper in de buidel tasten. Niet leuk, niet eerlijk, niet.... je kan er van alles van vinden, maar spellen draaien gewoon nog steeds prima op oude(re) hardware. Denk er eens goed over na: zouden de spellenmakers 90% van de markt links willen laten liggen?

Dit is eigenlijk precies wat ik bedoelde met mijn reactie: mensen zijn (dankzij de marketing hypes) het gevoel met de realiteit compleet verloren. Het is alsof je een kind vraagt wat ie wil worden: beroemd (influencer)! rijk (prof-voetballer)!. Totdat ze volwassen worden en beseffen dat je van onhaalbare doelen en dromen helemaal niet gelukkig wordt.

Ik durf er gif op in te nemen dat ik ook nieuwe AAA spellen die over twee jaar uitkomen gewoon prima op mijn dan 6 jaar oude videokaart icm 7 jaar oude CPU, kan spelen. Voor de laatste keer: het gaat om realistische verwachtingen: gooi de instellingen omlaag totdat je - voor jou! - acceptabele framerates haalt.
Sta even stil bij wat je zegt: jij zegt dus dat het volkomen normaal en acceptable is dat een splinternieuwe gpu van 500€ geen nieuwe games kan spelen op high, en dat je maar gewoon een low/medium preset moet gebruiken, want anders had je maar 1500€ moeten uitgeven.

Sorry, maar als je dat daadwerkelijk verdedigt dan sta je niet aan de kant van de consument.

[Reactie gewijzigd door kiang op 11 februari 2025 16:36]

Dat is altijd al zo geweest hoor. Zeker in de tijden van Half Life of Crysis kon je enkel mee met de laatste, nieuwste kaarten die, teruggerekend, evenveel zoniet meer kostten.

Consumenten zijn veel te verwend geweest en denken dat ze met een budget kaartje van 600 euro t laatste nieuwe op ultra kunnen spelen.

Dat is een beetje belachelijk.
Crysis was prima te spelen op de toenmalige high end kaart, de GeForce 8800GT. Deze kaart had een prijs rond de $225, met inflatie is dit equivalent aan $340 vandaag.

De 5080 heeft een msrp van €1200.

Als je hetzelfde spelletje wil doen met de ultra high end: de 8800 GTX kostte $600, met inflatie $900. De 5090 heeft een msrp van €2300.

En om jou een plezier te doen heb ik het alleen maar over de msrp: de reële prijs is nog even 50% hoger vandaag, terwijl de 8800 prijzen die ik noem de echte prijzen waren.

I rest my case.
Rest jij je case maar, want hij is foutief.

Een 8800 GTX had zeer veel moeite om Crysis te draaien, laat staan op full ultra.

Zie hier oa een post daarover:
https://www.techpowerup.c...cs-fix-for-crysis.107853/

Dus nee, met een budgetkaartje kan je niet mee op het allerhoogste.

Best is gewoon leren omgaan met deze realiteit.
Als je de eerste reactie daar leest, zie je dat hij speelt op een resolutie van 1920x1200. Dat was het equivalent van 4K tegenwoordig. Crysis was bovendien zo in de markt gezet dat de beste settings gedacht waren voor (high-end) hardware van de toekomst. De poster in kwestie speelt het op een budget GPU van de toekomst, ongeveer gelijk aan de high-end ten tijde van de release van Crysis.

Op een CPU die sowieso niet bekend stond om z'n single core snelheid, juist dat waar Crysis tevens van afhankelijk was. Iets wat daar eveneens duidelijk wordt, aangezien hij aangeeft dat de resolutie geen impact heeft op z'n prestaties.

Prima te spelen destijds betekende eerder "draait tussen de 30 en 60 fps" en in het geval van Crysis, niet op ultra, maar op medium, want ultra was helemaal niet gedacht voor GPU's toentertijd.
Vlak voor de 8800gt hadden we de 8800 gts 640 mb. Die was een stuk duurder. Overigens alsnog niet snel genoeg, had hem zelf.
Ik speelde Crysis op mijn radeon hd 5770 die ik voor 50 euro had gekocht tweedehands. Had nog wel een oude monitor met een lage resolutie, dat hielp natuurlijk. Die kaarten koste rond de 130 euro nieuw.
Voor de ene helft geldt: Wiens brood men eet, diens woord men spreekt.
Voor de andere helft, en tevens die eerste helft, geldt dat iedere vorm van info engagement en clicks genereert, en dus tevens inkomen. Zelfs als je neutraal verslag doet van de door de fabrikanten de wereld ingeslingerde bite-size informatie, speel je hun spelletje dus al mee. Maar tegelijkertijd moet je wel, want als je daar info laat liggen, loop je daar niet alleen traffic mis, maar zak je ook in de rankings.

Ik vind het ook niks. Maar het is helaas hoe het internet werkt tegenwoordig.
De 5070 is geen normale kaart want deze heeft dezelfde performance als een 4090! :+
Het is sarcasme. Daarom staat de emoji erbij. Natuurlijk heeft de 5070 geen 4090 performance. Hoe graag Jensen het ons ook wil laten geloven.
Voor 889, laten we zeggen dat dit onder “normale omstandigheden” voor board partners een prijs van rond de 1000/1100 betekent, met de prestaties van een rtx 4080 super.

Kortom: we krijgen een 4080 super, voor ongeveer dezelfde prijs als een 4080 super, maar die heet dan een rtx 5070 ti.

Je verzint het niet.

[Reactie gewijzigd door FrankoNL op 11 februari 2025 10:52]

Helaas van de 4080 (super) is er bijna geen stock meer
Inderdaad.
Ik had al dit voorgevoel en heb tussen september en november all de nodige stukken besteld om mijn PC samen te stellen.
AMD 7800X3D in september voor 376€ en Gigabyte RTX4080 Super OC voor 1009€.

Als ik die prijzen nu zie...

Gigabyte RTX5080 OC voor 1999€, AMD 7800x3D 519€....

Er waren in november nog redelijk wat RTX4080 kaarten over maar ik vermoed dat deze zijn vooral zijn opgekocht voor het maken van pre-builds gezien de te verwachten tekorten aan de nieuwe 5000 series.
Bij Alternate zijn nog redelijk wat 4080 super kaarten te vinden, maar startend aan 1500€...
Voor 1000€ moet je het nu doen met een 4070TI.
Het is nu echt wel een slechte periode om een gpu te kopen. Hopelijk is er snel genoeg voorraad van de 50 reeks en komen de prijzen snel terug rond msrp.
Omdat nvidia expres gestopt is met het maken van de 40xx kaarten ja.
Ik verwacht hem ook dat hij verkocht wordt als "dikke/ snelle kaart van rond de 1099" lekker psycholisch alsof het nog een scherpe deal is. Het is uiteraard absurd.
Voor ongeveer dat bedrag heb ik destijds een 3080ti kunnen scoren (MSI Suprim)
How times have changed..
Scoren?

Ik zou dat geen score willen noemen, dat is echt pure diefstal voor een grafische kaart. Alles boven de 600 euro voor een redelijke kaart is echt absurd en idioterie.

Voor een x-tal jaar geleden zouden we het er nooit voor hebben gehad, en nu ook niet. Puur en enkel omdat er een aantal zaken mee spelen zoals mining etc, en scalpers de kudde schapen hebben gek gemaakt. Moeten wij er voor boeten? Nou nooit van mijn leven.
Dat is voor iedereen natuurlijk anders waar het max van je budget ligt. Ik vond het persoonlijk een score omdat ze niet kort daarvoor voor minstens 300 meer over de toonbank gingen.

Vroeger vond ik 600 ook wel veel voor een GPU (Hallo GTX 1070) Maar toen was ik een jaar of 17-18 en moest ik het van de stufie doen door even een tijdje niet uit te gaan.

Met nu een prima betaalde baan in de IT, vind ik zon uitgave eens in de zoveel jaar niet zo'n groot probleem als je kijkt hoeveel plezier/usage je er uit haalt.
Het verschil is dat er van de 5070 Ti geen Founders Edition komt, dus ik gok dat de goedkoopste modellen ook wel ongeveer vanaf die prijs beginnen. Op release van de 5080 waren er ook board partners die voor 1190 Euro aanbod hadden (met erg weinig voorraad).
Heb je daar voorbeelden van? Want de grote jongens hier in Nederland (Megekko, Azerty, Alternate) begonnen met prijzen van €1599 voor de goedkoopste 5080. Ik heb de allereerste prijzen gezien op Megekko op 30 jan 15:00, en de mid-tier modellen (denk aan MSI Gaming Trio, ASUS TUF Gaming) hadden prijzen van €1849 en €1999. Inmiddels zijn ze zelfs wat gestegen. Ja, hier en daar zijn ze goedkoper te krijgen (de allereerste 5080's op Coolblue zaten rond de €1399-1499), maar ook die prijzen zijn wat gestegen.

Het is allemaal nog vér boven de adviesprijs. Heb geen enkele AIB's gezien met een adviesprijs van ~1200 euro.
Dag 1 op amazon.nl, daar heb ik geen screenshots van gemaakt. De prijs is nu ook hoger daar.
Mij krijgen ze niet van mijn 3090 af. Ik zie nog steeds geen betere kaart die goedkoop is. Misschien over 5 jaar ofzo een 6090 kopen ofzo (wanneer de 90xx serie uit is).
ik heb ook een 3090. dat was destijds de enige kaart met een respectabele hoeveelheid vram voor de prijs.
Als ik nu nog 4080's en 5080's voorbij zie komen met 16gb vram vraag ik me wel af wie hier in investeert.

Zeker als ik iets met mods of iets in vr speel ga ik nu al regelmatig over die 16gb heen. Laat staan in nieuwere games die ook steeds meer op vram lijken te gaan leunen, wat de komende jaren alleen maar meer en meer wordt.

Als ik de prijzen en de specs van nu zie, ben ik blij dat ik voor de 3090 ben gegaan als vervanger van de 1080TI, welke ook voor liep in zijn tijd en uiteindelijk een geweldig duurzaam presterende kaart is gebleken.
Op deze manier kan ik deze hele onzin generaties overbruggen.
Ik heb hem zelfs 2e hands gekocht, helemaal goedkoop dan.
Enige wat ik merk (op Debian) dat de driver versie wat achterloopt en idle trekt ie dan wel 75 watt ofzo. Komt ook doordat ik op een 4k scherm zit met fractional scaling....
Wel eens een 40xx meegenomen van het werk om te kijken of het uitmaakt, die gebruikte wel minder in idle.

Ach, dan maar hopen dat de zon schijnt.
Precies. Die ene gloeilamp zal ook niet het verschil maken
De 7900XTX is significant sneller en kost rond de 900 euro.
Niet helemaal waar natuurlijk. Er staat een andere cijfercombinatie. En de marketing afdeling heeft flitsende visuals gemaakt die in het teken staan van snelheid en efficientie. Maar wel speciaal voor deze serie. Die inderdaad overigens eigenlijk precies hetzelfde is. Dus het verschil zit hem in .. veelal marketing.
Je vergeet de scalperprijs, die massaal via de backend alles leegkoopt. Dus als je even de scalper belasting erbij optelt, zitten we tussen de 1100 en 1300, afhankelijk van de uitvoering.
Kortom: we krijgen een 4080 super, voor ongeveer dezelfde prijs als een 4080 super, maar die heet dan een rtx 5070 ti.
Op raster prestaties zal het inderdaad ongeveer gelijk liggen, maar het paradepaardje van deze generatie is frame gen en daar is de 5070Ti met DLSS4 ondersteuning een stuk beter in. Dus helemaal 1 op 1 is het natuurlijk niet.
Nou, ik zie geen 4080 super te krijgen voor 889, allemaal een paar 100 euro meer.
Onderschat het vele snellere geheugen en nieuwe architectuur niet, wat dus voor een snellere kaart kan zorgen, en zo te zien verbruikt de 5070ti ook wat minder.
De zeer gelimiteerde voorraad kwam toch door Chinees nieuwjaar ? Geloof dat dat inmiddels is afgelopen dus zou deze kaart dan geen paper launch hebben?
De zeer gelimiteerde voorraad kwam toch door Chinees nieuwjaar ? Geloof dat dat inmiddels is afgelopen dus zou deze kaart dan geen paper launch hebben?
Het gaat er bij mij echt niet in dat je vanwege het nieuwjaar geen voorraad hebt opgebouwd. Normaal gesproken produceer je een product maanden van te voren om een voorraad op te bouwen. Als het toch klopt hebben ze nu een inhaalslag te maken voor de 5090 en 5080 dus dan zal de 5070ti zeker geen prioriteit hebben en ik zou dan ook gewoon een paper launch verwachten.

[Reactie gewijzigd door Beakzz op 11 februari 2025 11:13]

Het blijft koffiedik kijken vrees. We zullen het wel zien. Vraag me alleen af of nvidia met nog een paper launch van deze kaart zichzelf niet in de vingers snijdt tenzij er ineens voorraad komt van de 5080 en 5090. Blijf het een vreemde gang van zaken vinden. Maar goed, zoals gezegd we wachten het af
Productie van half- en eindfabricaat plus het hele distributieproces vergen maanden voorbereiding. En Chinees nieuwjaar duurt kennelijk 2 weken (net even opgezocht) dus het is een known issue voor iedere producent dat 2/52e deel van het jaar er minder geproduceerd kan worden.

Maar dit is allemaal met de veronderstelling dat China daadwerkelijk alle productie stillegt in deze periode. Is dat ook zo of draaien bepaalde fabrieken gewoon door?

Maar goed, een multinational als Nvidia die al jaren ervaring heeft met internationale productie en distributie. Die een release plant rond Chinees nieuwjaar. En die feestperiode vervolgens de schuld geeft van de slechte voorraad bij release. Waardoor prijzen enorm stijgen door schaarste.... die liegt. Glashard. Ze zijn niet achterlijk daar, in tegendeel.....
en moet qua prestaties in de buurt komen van de RTX 4080 Super
Ah, net zoals de 5080 dus? :P
En vergeet niet de 5070(non ti) met 4090 prestaties... ik krijg het gevoel dat er ergens iets niet helemaal klopt.
Of je bent aan het trollen of je hebt (nog steeds) niet door welke zin na die claim kwam.

De 5070 heeft 4090 prestaties met Frame Gen 4x. Met andere woorden de prestaties van de kaart zijn niet op het niveau van de 4090, met (AI) software weten ze de frames op te krikken.
O ik weet heel goed dat ze appels met peren aan het vergelijken waren. Het is net zo'n correcte vergelijking als "deze nieuwe VW Up is net zo snel als de Porsche 911 GT3 (met aangetrokken handrem).

[Reactie gewijzigd door Neelon op 11 februari 2025 12:06]

Ja en nee, ik ben het met je eens dat het misleidend is voor mensen die er geen verstand van hebben.

Dat gezegd hebbende denk ik wel dat framegen heel veel doet voor de ervaring, nadeel is alleen dat je een redelijke basis framerate nodig hebt. Dus waar de techniek goed is om van 60 fps naar 240 te gaan, is het minder geschikt om van 20 naar 100 te gaan.

Dus het is niet zo dat je ineens Path tracing op 4k kan aanzetten met een 5070, een 5070ti zou dit wel moeten kunnen als hij op 4080super niveau zit (met dlss performance en frame gen).
En dat is het hele punt, het is misleidend. Mensen die er verstand van hebben, hebben dat soor marketing fratsen niet nodig, die hebben door dat het geen eerlijke vergelijking is.
-wat dus nog steeds niet dezelfde performance is.

Framegen zorgt voor meer latency en er zijn al meerdere videos van de grotere tech kanalen waarin ze laten zien dat de beeldkwaliteit bij MFG gewoon slechter is. Het is niet 1:1 te vergelijken.

Op die manier kan ik net zo goed zeggen dat mijn RTX 2070 Super gelijk presteert aan een RTX 4080 omdat ze op 4K gelijke framerates hebben (mijn kaart met upscaling en de 4080 native resolutie)
Ja dat is precies dezelfde vergelijking en daarmee sla je de spijker op zijn kop.

Maar blijkbaar verkoopt deze marketing onzin wel.
Maarja, als ik als gebruiker het verschil tijdens spelen van het spel toch niet zie, maar wel betere framerate heb, wat zal het mij dan een zorg wezen? Let wel, veel van dit soort vergelijkingen worden uitgevoerd met side-by-side vergelijkingen EN dat je je daar puur op concentreert, en niet met de game zelf bezig bent.
Precies. Dat is leuk voor games maar in 3d software zal dat niks betekenen.
Natuurlijk was het weer MSI. :P
Dat lijkt toch vaak wel de AIB te zijn waar informatie uitlekt. Ergens is het ook opvallend dat nu MSI geen Radeon meer doet, er opeens minder over RDNA4 lijkt te lekken.
Gigabyte heeft er ook een handje van om vanalles te lekken, maar vaak omtrent CPU’s
De 5070 Ti zal wel redelijk scoren...
Vergelijk hem met de 4070 Ti Super....
Cuda cores: 8448 -> 8960 (+6 %)
Geheugen bandbreedte: 672 -> 896 (+33 %)

Waarschijnlijk 15-20% betere performance?
Tegen ongeveer dezelfde MSRP (mits je hem kan vinden).
Wel 16GB, wat eigenlijk het minimum is voor een 70-series kaart in 2025.

De 5070 zal wel een teleurstelling worden.
Vergelijk deze met de 4070 Super:
Cuda cores: 7168 -> 6144 (-15%)
Geheugen bandbreedte: 504 -> 672 (+33%)
Minder cores, maar meer geheugen bandbreedte.
Lijkt alsof Nvidia Hiermee aanstuurt op minder rasterizing en meer frame gen en upscaling
En dat met 12GB. Dit is eigenlijk een 60-series kaart

[Reactie gewijzigd door GarBaGe op 11 februari 2025 11:12]

Helemaal mee eens.
De nieuwe gpu volgt de RTX 4070 Ti op [...]
Nvidia heeft zelf bij het verschijnen van de 4070 Ti Super gezegd dat de Ti Super de vervanger is van de 4070 Ti en daarbij ook nadrukkelijk dat dit voor de 4070 Super niet gold. De 4070 kreeg als enige een officiële prijsverlaging. Tweakers zou er dan ook goed aan doen om in artikelen zoals deze niet meer de vergelijking te maken tussen de 4070 Ti en de 5070 Ti.
Nouja, die nieuwe neural net texture compression technieken kunnen dus rustig zorgen dat de nieuwe GAMING kaarten niet zoveel geheugen nodig hebben, en dus 12GB genoeg zou zijn tegenover 24/32GB zonder de compressie.
Was na de 5080/5090 launch wel een beetje klaar met Nvidia eigenlijk, minimale verbeteringen tenzij het stroom verbruik flink omhoog gaat. Weinig vram op de 5080. Uiteindelijk maar voor minder een 7900xtx besteld, wel klote dat ik dan lokaal geen Cuda kan gebruiken voor productivity tenzij ik mijn laptop open klap.

Ook hier zijn de prijzen gewoon te hoog eigenlijk voor wat ze leveren.

[Reactie gewijzigd door Sn0wblind op 11 februari 2025 13:06]

Verstandiger om te wachten op de supers.
Zijn de kinderziektes er uit en kosten lager + sneller.
Maarja, dan kun je net zo goed wachten tot de 60xx serie....
Ik zie nog steeds geen reden om mijn 3090 van hand te doen. Als ik zie dat alleen de 5090 leuker is, maar dan moet mijn airco wel heel hard gaan blijven; Hopende dat de zekering er niet uitslaat.

Nee, deze release lijkt weinig te hebben voor het gepeupel.
De 3090 is nog prima mede dankzij de 20gb aan vram. Lekker wachten op de 60 series.
24 GB zelfs, al merk ik dat leukere AI projectjes niet passen. Denk er soms sterk aan eentje bij te kopen via MP ofzo.
Zaken als Comfy UI met flux zouden wel mooi moeten draaien op 24gb vram toch?
Net ja. Maar ik doe meer dan alleen plaatjes genereren. Maar flux draaide zeker heel netjes. Daar doe ik wel ineens lang over één plaatje. Waar ik met SD1.5 ongeveer een halve seconde doe ofzo, is dat met flux gelijk 20 ofzo.
Heb zelf een flow draaien welke images uitpoepen zeer gecontroleerd maakt in comfy ui met zaken als face detection, controlnet etc. Heb het toch vlot draaiien op een rtx4090 van werk. Flux based uiteraard met allerlei lora's.

Dan nog zaken als llama lokaal draaiende. Niet echt het gevoel dat 24gb echt te krap is voor de meeste doeleinden
Bijna 900 euro voor een kaart uit het middensegment? 8)7

Laat de videokaarten maar even 2 generaties gaan. Dit gaat echt helemaal nergens over.
En reken maar dat daar nog even ruim 300 euro overheen gaat gezien de 5080 / 5090 Launch :P
Ik heb nog een ASUS GTX970 STRIX gekocht voor ik geloof € 310 begin 2015, net voordat de eerste prijssprong kwam en hij naar iets van € 370 ging. Even snel inflatie corrigeren en een X70 kaart, toen mooi midrange, zou nu zo'n €410 moeten kosten.

Bij de release van de RTX series is de hele rits in mijn herinnering 1 slot opgeschoven, de X70 had de prijs van de X80 gekregen, maar had ook serieus meer performance dus voor hetzelfde geld kon je een soortgelijke sprong als altijd maken per generatie maar 'moest' je een 1060ti of 2060ti kopen.

Kijk ik nu naar de huidige prijzen, dan kan ik rond de €400 à €450 een 4060ti kopen.
Los van de relatieve performance increase per generatie moet ik concluderen dat een 'middensegment' kaart nog altijd vrijwel hetzelfde kost als 10 jaar geleden gecoriggeerd voor inflatie. Ja de 'top of the line' kaarten zijn significant duurder geworden, maar dat maakt voor de gemiddelde gamer geen drol uit.

Op dit item kan niet meer gereageerd worden.