Europese webwinkel noemt mogelijke releasedatum Nvidia GeForce RTX 5070 Ti

Europese webwinkel Proshop noemt de mogelijke releasedatum van de GeForce RTX 5070 Ti in een listing. De videokaart komt volgens de retailer beschikbaar op 20 februari. Nvidia zelf heeft die releasedatum nog niet bevestigd.

De vermeende releasedatum van de Nvidia GeForce RTX 5070 Ti verscheen bij een listing van een ASUS Prime-videokaart, merkte VideoCardz als eerste op. De webwinkel noemt specifiek een release op 20 februari om 15.00 uur.

Het is voor het eerst dat die datum wordt genoemd; Nvidia heeft vooralsnog alleen bekendgemaakt dat de RTX 5070 Ti in februari op de markt komt, maar meldde daarbij geen concrete datum. Het is niet bekend of Nvidia's GeForce RTX 5070 tegelijk met de 5070 Ti op de markt komt. De Europese webwinkel noemt geen releasedatum voor die videokaart.

Nvidia kondigde zijn GeForce RTX 50-videokaarten eerder deze maand aan tijdens de CES. De RTX 5090 en 5080 verschijnen op 30 januari in de winkels, terwijl de lager gepositioneerde RTX 5070 en 5070 Ti dus later volgen. De gpu's beschikken over een nieuwe Blackwell-architectuur en bieden nieuwe features als DLSS 4.

Nvidia GeForce RTX 5070 Ti-releasedatum bij Proshop

Nvidia's GeForce RTX 50-line-up
Videokaart RTX 5090 RTX 5080 RTX 5070 Ti RTX 5070
Architectuur Blackwell Blackwell Blackwell Blackwell
CUDA-cores 21.760 10.752 8960 6144
Boostclock 2,41GHz 2,62GHz 2,45GHz 2,51GHz
Geheugen 32GB GDDR7 16GB GDDR7 16GB GDDR7 12GB GDDR7
Geheugenbus 512bit 256bit 256bit 192bit
Geheugen
bandbreedte
1792GB/s 960GB/s 896GB/s 672GB/s
Tgp 575W 360W 300W 250W
Interface PCIe 5.0 x16 PCIe 5.0 x16 PCIe 5.0 x16 PCIe 5.0 x16
Adviesprijs 2369 euro 1190 euro 889 euro 654 euro

Door Daan van Monsjou

Nieuwsredacteur

22-01-2025 • 17:30

66

Lees meer

Reacties (66)

Sorteer op:

Weergave:

Als ik even advocaat van de duivel mag spelen, dan denk ik dat nvidia zo min mogelijk slots van TSMC wil gebruiken voor 50 series, aangezien ze veel grotere marges hebben door AI blackwell te gebruiken voor AI workloads in datacenters.

Ik denk net genoeg om niet de PC markt compleet te verliezen aan AMD.. Mocht de AI hype ooit opdrogen, wat zo te zien nog wel even gaat duren aangezien Trump juist heeft gezegd dat er 500 miljard geinvesteerd gaat worden in AI, ik denk dat een aanzienlijk percentage daarvan in de zakken van NVidia beland.
Trump ... heeft gezegd dat er 500 miljard geinvesteerd gaat worden in AI
Kunnen ze fijn extra chipmachines bij de data centra zetten 😉
Geef mij maar een of twee project DIGITS. Ik noem ze NVIDIA Cuties. Ze werken op je bureau als data center / cloud gpu.

[Reactie gewijzigd door djwice op 22 januari 2025 18:38]

dat begint bij 3000 USD heb ik dat correct gevonden?
Klopt en dan heb je 128GB geheugen in je videokaart en 250 TeraFlops FL16 berekeningen of 500 TOPS, of 1 Peta int4/TensorFloat8 berekeningen per seconde.

1 Peta = 1000 x 1 miljoen x 1 miljoen berekeningen per seconde.

Dat is voor LLM heel snel, en je kunt door de 128GB grote modellen gewoon draaien.

En je kunt er goed modellen lokaal op trainen, ook modellen voor muziek en beeld generatie.

En je kunt er twee koppelen.
Mooi spul dus. En er zit GPU virtualisatie in; je kunt hem dus door verschillende stukken software tegelijk laten gebruiken zonder dat ze elkaar in de weg zitten.

Ter vergelijking een CoPilot+ laptop - gebouwd het uitvoeren van AI modellen - heeft 45 TOPS, de Apple M4 Max heeft 39 TOPS, deze NVIDIA is dus minimaal 11x sneller en heeft veel meer geheugen voor de GPU. En veel betere ondersteuning in de Ai community voor het draaien en trainen van modellen.

Maar wel 3.6x trager dan een 5090 die 900 TeraFlops FL16 berekeningen per seconde kan doen. Maar wel weer 4x zo veel geheugen als een 5090.
Dus eigenlijk ongeveer een 5070 TI met 16 zo veel geheugen, plus data center features.

[Reactie gewijzigd door djwice op 23 januari 2025 00:32]

Kan je er ook op gamen?
Weet ik niet, ik denk dat ze dat wel GFORCE NOW toevoegen, hij is bedoeld alls lokale cloud GPU, dus zie het als gamen met de NVIDIA cloud, maar dan lokaal.

Maar wat dacht je van code hulp modellen van 48GB, die draaien hier gewoon op, dus zeer goede code hulp functie.

[Reactie gewijzigd door djwice op 23 januari 2025 00:36]

Dus ~2200 euro voor 120GB geheugen en software :Y)
Dan snap ik wel dat Nvidia niet teveel wil verkopen. Dan zou ik als Nvidia ook liever die DIGITS verkopen :Y)
Bijna goed

5070 Ti heeft 16GB.
Dus 112GB VRAM + software en een usb aansluiting voor €2111,- ;)

Tja, voor bepaalde AI-trainingen heb je 42GB of meer nodig, dus de 5090 met 32GB (in de 2Gbit modules) is net te krap. Er komt vast een 3Gbit module versie later dit jaar, dan (pas) is de 48GB precies goed op de 5090.

Vaak is de computer niet meer de bottleneck, maar de hoeveelheid geheugen en de geheugen bandbreedte.

[Reactie gewijzigd door djwice op 23 januari 2025 18:14]

Je had het over 16x meer geheugen.... 128/16 is 8GB voor de 5070ti :+

Ging dus uit van verkeerde data.

En snap dat er markt voor is hoor. En dit isndevelopment materiaal, geen game station dus snap waar de prijs weg komt en dat het een prima investering kan zijn dan.

Maar snap ook dat Nvidia liever die versie verkoopt dan een reguliere 5070ti
Jep, ik ook. Ze manipuleren de markt ;)
Bijna goed. Nvidia wilt natuurlijk de AI capabele kaarten zo duur mogelijk houden voor de daarvoor beoogde doelgroepen. Dat verklaart het nog groter wordend prijsverschil tussen de 5080 en de 5090. AI moet maximaal uitgemolken worden.
Ik denk net genoeg om niet de PC markt compleet te verliezen aan AMD..
Je bent je bewust van de huidige cijfers in de GPU-markt? NVIDIA heeft momenteel 80-90% van de markt in handen. Ik vind het absurd om te denken dat NVIDIA zo'n market share moedwillig zou laten dalen tot 55-60% (even een aanname gebaseerd op jouw gebruik van ''net genoeg'') puur vanwege hogere marges in andere gebieden.

Gebaseerd op de RTX 50 prijzen (die ''redelijk'' competitief zijn vergeleken met RTX 40) doet NVIDIA de druk op AMD juist nog verder opvoeren - en daar zullen ze de volgende generaties van profiteren, gezien de alsmaar dalende revelantie (lees: market share) van AMD in de GPU-markt.

[Reactie gewijzigd door IlIlIllII op 23 januari 2025 10:03]

Hoezo is dat absurd? De TSMC capaciteit is beperkt. NVidia moet kiezen hoe ze die inzetten. Een 50x0 GPU wafer is mischien $10.000 waard, een Blackwell AI wafer misschien $25.000. Dan gooi je dus $15000 winst weg door een wafer met GPU's te maken.

Is AMD pesten op de GPU markt dat waard? Welnee. NVidia heeft veel meer belang om AMD op de AI markt buiten te houden, en dat is dus een tweede argument voor meer AI chips. Daar heeft NVidia nu de properietary standaard in handen (CUDA) waar ze op de GPU markt vooral met DirectX te maken hebben.
Dan gooi je dus $15000 winst weg door een wafer met GPU's te maken.
En da's precies het punt waarop je net iets verder moet denken - naar mijn mening. Ja, je kunt kijken naar meer winst op korte termijn, maar de gevolgen op lange termijn zijn niet te negeren. Als NVIDIA haar marktaandeel in de GPU-wereld laat terugzakken zal de winst in dat gebied natuurlijk afnemen en de positie van AMD en Intel versterken. Dus het is vooral een vraag van verhoudingen. Tuurlijk zal NVIDIA extra inzetten op AI bij TSMC, maar zodanig dat het een groot effect heeft op de huidige GPU-markt? Kijk even naar de afgelopen 10 jaar I guess. NVIDIA is al jaren marktleider en tóch komt het elke generatie met nieuwe features, ondanks hun positie.
Nopen. GPU's zijn geen markt waar je een lock-in hebt. Gamers kunnen prima elke keer opnieuw kiezen. Dus 1 keertje een sale missen heeft geen structurele consequenties voor NVidia. Al helemaal niet gezien hun technologische voorsprong.
Dan hoop ik dat de RTX 40 serie prettig in prijs gaat dalen, haal ik die 👍
Waarschijnlijk niet want productie is al heel erg veel verminderd, dus waarschijnlijk is er weinig om de in korting te zetten. +Waarschijnlijk zijn de 50 series gelijk uitverkocht en worden de 40 series nog gebruikt, vooral de 4060.
Dat was niet het geval bij de 30 serie of de 40 serie.

Er zijn al maanden geruchten dat nvidia de productie van de meeste 40 kaarten heeft verminderd of gestopt.

Stock bij nederlandse webwinkels voor deze kaarten lijkt in de 1 of 2 digits per kaart te zijn.

Kans is groot dat de 50 reeks zeer beperkt beschikbaar wordt bij release in Europe (omdat veel stock naar de VS gaat door aankomende tarifs), tegen dat die goed beschikbaar zijn zullen alle 4070+ kaarten wel weg zijn.
Ik ben ook zeer geïnteresseerd maar zie de prijzen alleen maar stijgen als ik me concentreer op de goedkopere uitvoeringen van de RTX4070ti super. Verder als ik zie dat ze voor een tweede handse 4070ti super nog durven te vragen :?
Denk dat het toch een 5070(ti) gaat worden.
Een Ti is onbetaalbaar. Nooit van mijn leven ga ik €800 voor een videokaart neerleggen. Enige betaalbare(en dan nog) vind ik de 5070 ook al kan je er niet deftig 4K op gamen maar so be it. Nvidia moet maar zijn prijzen laten dalen.
Dan hoop ik dat de RTX 40 serie prettig in prijs gaat dalen, haal ik die 👍
De vraag is .. haal je een RTX5070Ti in huis of een RTX4080 en gaat deze laatste wel effectief in prijs dalen ? Straks weer een scenario van tekorten en de prijzen stijgen weer .. 8)7
2369 euro, ik kan me niet herinneren dat grafische kaarten in het verleden zo extreem duur waren. Volgens mij begonnen die enorme prijsstijgingen vooral toen bitcoinfarming populair werd. Of doordat Nvidia steeds groter werd. En mensen maar klagen over de prijs van de PS5 Pro...
Bitcoinfarming in combinatie met schaarste en logistieke problemen door corona toen. Kaarten gingen toen weg voor 2x de adviesprijs geloof ik. Pas in de loop 2022 trok het bij als ik me goed herinner.
> ik kan me niet herinneren dat grafische kaarten in het verleden zo extreem duur waren.

Laten we inflatie ook niet vergeten, het feit dat we allemaal meer verdienen, Nvidia met een monopolie op high end kaarten omdat AMD vrijwillig ervoor kiest om niet te concurreren, en dat video kaarten vroeger toch wel echt bagger waren

> En mensen maar klagen over de prijs van de PS5 Pro

Toch wel justified hoor. Je kan een PS5 kopen voor 450 euro. Wil je 5 meer frames per seconden of ray tracing dan is het toch gek om 400 euro _meer_ te betalen?
Inflatie heeft nog nooit invloed gehad met de tech sector. Want productie wordt sneller goedkoper dan de inflatie kan inhalen.

Probleem is nu dat we tegen de limieten aan gaan lopen van het verkleinen van de prodece. Niet elk jaar een nieuwe gpu, niet de grote stappen van vroeger. En de 5090 is 30% sneller voor 30% meer transistoren en 40% meer stroom.... En dus ook duurder om te maken.
Vroeger had de GPU boven de x080 modellen een "Titan" naam, maar tegenwoordig is dat dus de x090 geworden. Titan modellen waren ook al extreem duur. Dit is een halo product. Dat het duur is, is een feature. "Kijk eens wat ik heb".
Ligt het aan mij of is de rek er een beetje uit bij Nvidia? Zover ik het nu kan zien is de 50-serie niet fundamenteel beter dan de 40 serie. De snelheidswinst zit 'm zo te zien vooral in meer cores met ditto energie verbruik. Ik ben wel benieuwd naar de uiteindelijke benchmarks en dan voornamelijk de performance-per-watt en de performance-per-euro.
Ach, zo hebben we wel vaker generaties gehad die niet zo'n grote sprong waren. De RTX 20-serie was (bij launch in ieder geval) ook niet echt beter dan de GTX 10-serie. Ik ben er niet enorm rouwig om. Geeft AMD en Intel de kans om aan te haken, want die waren architectureel wel in het nadeel de afgelopen generatie.
De kracht zit in AI dat gaat belangrijker worden in de toekomst, DLSS4 bijvoorbeeld en laat nou net de 5 serie meer RT cores hebben.

Pathtracing gaat ook belangrijk worden waar deze kaarten veel beter in zijn.

[Reactie gewijzigd door mr_evil08 op 22 januari 2025 19:45]

Het gaat erom dat momenteel het verschil minimaal is.

Het verschil tussen een RTX5080 en RTX5070Ti is duidelijk klein.

Maar ook het verschil tussen een RTX5070Ti en een RTX4080 .. en dit zijn de nog betaalbare GPU's.

Want een RTX4090 en RTX5090 zijn qua prijs en performance van een geheel andere categorie .. dat zijn dan ook eitelijk zowat de Titan's.

Denk dat veel mensen nu zitten wachten op een RTX5080 Ti/Super 24Gb vram of al aan het uitkijken zijn wat de RTX60reeks gaat brengen ..
Ik zou even wachten op benchmarks voordat je conclussie,s trekt.
Niemand heeft getest wanneer AI erbij wordt gehaald zoals DLSS4, zeer waarschijnlijk worden de verschillen groter.

De 5 serie heeft een stuk meer Tensor en RT Cores

[Reactie gewijzigd door mr_evil08 op 23 januari 2025 09:12]

Dat moet nog maar blijken, er zijn nog geen serieuze benchmarks.

Verder RT en Pathtracing leuk... laatst Hogwarts Legacy gespeeld met RT op Ultra, gaat prima maar vind het niet perse beter, vooral de RT lag viel mij op in dat spel, het duurde even voordat het RT gedeelte correct werd (werd laatst ook beschouwd in video van Unboxed @ youtube).
Laatst ook Diablo 4 geprobeerd, maar niet te spelen op een RX-7800XT, het ziet er daar wel mooier uit dan bij Hogwarts bv, maar slecht geprogrammeerd? Had om de zoveel seconden ineens massive "lag" en daarna weer een paar seconden niet.

(zonder FSR overigens).
Dat komt omdat game,s er nu nog weinig mee doen.
Dit zeggen we nu al 4 jaar... De kans dat we deze generatie kunnen overslaan zonder ons als te druk te maken om RT lijkt me aanzienlijk...
Dat is raytracing en geen pathtracing.
AI lijkt mij ook het selling point voor deze generatie.
Misschien toch maar een 4060/70/80 in huis halen nu ze er nog zijn, de adviesprijzen voor de 50 serie liggen een paar vleugjes buiten mijn budget
De grote stappen zie je bij nieuwe architecturen en node upgrades. Gezien dit vrijwel dezelfde node is zie je ook geen grote stappen in performance.
Gelukkig zijn de grafische sprongen in games de afgelopen jaren ook steeds kleiner geworden waardoor het allemaal best te doen is op oudere/goedkopere kaarten. Ik denk dat het tijd wordt dat wij als consumenten dit ook zo gaan beseffen en de bewustwording creëren dat we helemaal niet meer het nieuwste en beste perse nodig hebben.
Nee is juist toegenomen door raytracing en pathtracing.

Regelmatig lopen we tegen vram limieten aan omdat Nvidia weigert om meer toe te voegen, hierdoor verouderen kaarten snel.

Check de 4060 8gb vs 16gb variant maar, de performance verschillen zijn gigantisch(ook 1080p wordt 8gb erg krap).

De 5080 is al verouderd als die uitkomt, deze kaart had 24gb moeten hebben.

Ja neural texure compression waar Nvidia aan werkt is mij bekend.

[Reactie gewijzigd door mr_evil08 op 22 januari 2025 19:40]

Ik vind Ray Tracing vooralsnog een hele grote flinke gimmick en al helemaal de meerprijs van tussen de €1.000,- á €2.000,- tussen de beste en één na beste kaart niet waard.
Klopt, echter bij pathtracing gaat dat veranderen.
890 euro voor een 5070ti? Moet niet gekker worden.
Als je veel video's bewerkt dan kom je al snel bij Nvidia uit.
DaVinci en PremierPro zijn dol op veel Cuda cores en veel geheugen.
Dat weten ze bij nVidia ook en dan kunnen ze de prijzen omhoog krikken.
Bereid je dan maar voor op launch, als je dacht dat dat duur was.
Die advies prijzen gaan sowieso 200 tot 300 omhoog let maar op xD
Adviesprijs blijft wel hetzelfde, tenzij de dollar/euro koers drastisch schommelt. De marktprijs zal natuurlijk wel stijgen vanwege de grote vraag.

Alhoewel alleen de 5090 interessant is en echt een performance sprong gaat maken (lees 33%).
De 5080 gaat geen eens sneller zijn dan de huidige 4090, dus daar verwacht ik geen grote vraag naar.
De 5070ti wordt vergeleken met de 4070ti, maar een vergelijking met de 4070ti super is correcter, en die heeft al een 256bit geheugenbus.

Ik hoop vooral dat Intel snellere videokaarten op de markt gaat brengen en AMD scherper gaat concurreren in prijs :)
Iedere generatie dezelfde strategie bij Nvidia. Kaarten zijn al heel duur en worden alleen maar duurder door tekort. Hierdoor kunnen ze het maximale vragen en kijken wat de gek ervoor geeft. Na maanden is het maar hopen dat de prijs richting msrp gaat. Nu zij de enige partij zijn die high end kaarten maken vraag ik me af hoe dit zal verlopen.
Ik had anders verwacht; het grote geld voor nvidia zit in datacentrum/AI etc.

Die consument kaartjes staan niet in vergelijking.

Daarom had ik verwacht dat nvidia de marges zou minimaliseren; en zo AMD/Intel ondermijnen.

Blijkt maar weer dat ik een waardeloze bedrijfsleider zou zijn :+
Waarom zouden ze dan de kaarten goedkoper maken?

Ik zou (vanuit winstmaximalisatie-oogpunt) de consumenten-gpu markt pappen en nathouden en de rest van de capaciteit volledig gebruiken voor professionele toepassingen (datacentra/ai).


Dan heb je
Gaat dus een paper launch worden zonder voorraad, dus eigenlijk zegt die datum helemaal niets.
Juist enkele selecte winkels krijgen wat stock en that's it. Nadien kan het wachten en de miserie beginnen van belachelijke prijzen.

Misschien tegen de zomer fatsoenlijk leverbaar? Wie zal het zeggen.

https://extreme.pcgamesha...5090-5080-bekommt.657609/
Had de 4070 Ti ook geen advies prijs van 900-ish? En uiteindelijk was ie toch 1050.

Op dit item kan niet meer gereageerd worden.