Door Tomas Hochstenbach en Reinoud Dik

GeForce RTX 5060 Ti 16GB Round-up

Eerste kaarten van ASUS, Gigabyte, INNO3D en Palit

19-04-2025 • 06:00

147

Singlepage-opmaak

Conclusie

In deze round-up hebben we zes RTX 5060 Ti's getest en besproken die voor ons beschikbaar waren. ASUS, Gigabyte en INNO3D stuurden ons hun custom modellen toe voor een vergelijking, naast de kaart van Palit die we via Nvidia ontvingen. Uit onze tests blijkt dat alle modellen goed presteren en allemaal redelijk dicht in de buurt van elkaar zitten qua prestaties.

Van de geteste RTX 5060 Ti's zijn de twee modellen van ASUS overtuigend de stilste. Zelfs op hun Performance-bios produceren deze kaarten nog relatief weinig geluid. In het geval van de Prime OC komt dat door de combinatie van een behoorlijk grote koeler en gpu-temperaturen die iets hoger oplopen dan de concurrentie. Dat laatste moet je wel in perspectief zien, want de 65 graden van de Prime OC onder belasting is voor een gpu nog altijd een keurige temperatuur. Gigabyte zet met zijn Gaming OC ook een goede score neer in onze geluidstest.

De beschikbaarheid van de RTX 5060 Ti komt momenteel nog op gang, en van slechts de helft van de geteste kaarten is op het moment van schrijven een prijs bekend. De INNO3D Twin X2 is de enige RTX 5060 Ti die voor de opgegeven adviesprijs van 459 euro beschikbaar is. Tenzij je per se de allerlaagste geluidsproductie wilt, is de Twin X2 al een interessante optie voor wie een RTX 5060 Ti overweegt. Omdat op het moment van schrijven de prijzen van lang niet alle RTX 5060 Ti's bekend zijn, reiken we op dit moment nog geen awards uit. Deze round-up zullen we op een later moment bijwerken met meer geteste videokaarten, waaronder modellen van MSI die helaas vertraagd waren.

Redactie: Tomas Hochstenbach, Reinoud Dik Testlab: Joost Verhelst Eindredactie: Monique van den Boomen

Reacties (147)

147
146
33
1
0
103
Wijzig sortering
@Tomas Hochstenbach en @Trygve
Mooie review! Een in het oogspringende curiositeit:

Hebben jullie een verklaring voor het hoge idle verbruik van maarliefst 19W voor het lager geklokte PRIME tegenover slechts 12W van het hoger geklokte TUF Gaming? Je zou juist het omgekeerde verwachten!

review: GeForce RTX 5060 Ti 16GB - De eerste kaarten van ASUS, Gigabyte, INNO...

Voor productiviteitsgebruikers zonde van al die verloren idle watts...

Terwijl de GTX 1060 Ti 6GB met gemeten 5W (single monitor) tot 6W (multimonitor) zoveel zuiniger was idle, ondanks dat het op dinossaurier wafers uit het pleistoceen stamt.

https://www.techpowerup.c...-geforce-gtx-1060/24.html

Waar intel in hun eerste debuut gpu A770 een hoog idleverbruik had, heeft nu hun tweede kaart B580 keurig laag idleverbruik.

[Reactie gewijzigd door SambalSamurai op 19 april 2025 15:29]

Dankje! :) De opgegeven kloksnelheden gaan over de maximale clocks en maken voor de idle-test dus niet uit omdat alle kaarten zich dan terugklokken. De exacte/volledige reden van de 7W verschil durf ik zo niet te zeggen maar vermoedelijk speelt het verschil in stroomvoorziening en het verschil in powerconnector hier een rol.

Wat betreft Intel is er idd een mooie stap gezet. Let wel op dat Arc B-kaarten alleen zo'n laag idleverbruik kunnen halen als het systeem ASPM 2.0 ondersteunt en heeft ingeschakeld. Zonder die functie verbruikt hij idle ~35W zoals zijn voorganger. Zie ook: review: Intel Arc B580 - Grote stap voor Intel, kleine stap voor gamers
Dank voor je reactie en achtergrond over ASPM 2.0!

In twee andere uitgebreide deep dive tests is de idle verbruik van beide Asus kaarten hetzelfde! Verschil van <1W dwz verwaarloosbaar kleine afrondings foutmarge of meetfout toleratie.

Deze mysterie groeit over die 7W hogere verbruik van jullie PRIME kaart dat alleen in Tweakers review naar voren komt, maar elders dus Niet:


PRIME: 10W single, 12W multi monitor
https://www.techpowerup.c...60-ti-prime-16-gb/42.html

TUF: 9W single, 12W multi monitor
https://www.techpowerup.c...5060-ti-tuf-16-gb/42.html
Ik heb op dit moment nog een Rtx 3080 10gb. Buiten eventueel meer vram , zijn dit soort moderne mid range kaarten een upgrade voor mij met gaming taken ?
Eerder een downgrade, volgens Techpowerup is de RTX 3080 in Raster gemiddeld zo'n 10-20% sneller dan de 5060Ti
Tja... de RTX3080 is wel een kaart die nieuw nog steeds boven de 1000 euro kost en het dubbele aan stroom verbruikt. Als je een gamer bent die veel speelt is de RTX3080 zelfs dus tweedehands niet aan te raden. Ga dan voor een 9070 van AMD
Volgens mij is de 5060Ti 16Gb verreweg de beste kaart die al binnenkort onder de 500 euro aan te schaffen is (maar dan ligt ook aan de lage dollarkoers) Zelfs de 9060 van AMD zal daar waarschijnlijk boven blijven hoewel de AMD bullshit afdeling het waarschijnlijk deze wel een MSRP geeft van onder de 500 euro ?
Nieuw boven de €1000? Die kaart is al 2 jaar ofzo EOL, dus die nieuwprijzen slaan kant nog wal.
Tja, ik had wat andere situatie in gedachten. Hij kan dan beter z'n 3080 houden natuurlijk. Ook omdat als ik zo V&A nou zie dat die nou niet bepaald makkelijk te verkopen is. Het ging mij hier om dat er meer is om te kijken bij een videokaart dan alleen de snelheid. 320W lijkt me een flinke herrie maken of niet? Zeker met een jaren ouwe videokaart.
Het ligt aan de koeler, denk ik. Mijn vorige kaart was een 3080, en dat was een van de stilste kaarten die ik ooit heb gehad.

Overigens heb ik het idee dat mensen stroomkosten extreem overschatten. 320W is echt niet het einde van de wereld; je belast je GPU immers niet constant voor 100%, en een alternatief verbruikt ook altijd stroom.

Maar goed, laten we het worstcasescenario nemen waarin de GPU wél 100% van de tijd 100% belast wordt (wat met gamen vrijwel onmogelijk is). Dan is het verschil met de 9070 dus 100 watt.

Ik betaal momenteel 24 cent per kWh, maar laten we uitgaan van een duurder stroomcontract van 30 cent per kWh.

Dat kost je dus 3 cent per uur extra in een fictief worstcasescenario. Stel dat je ook nog eens extreem veel gamet – 20 uur per week, elke week van het jaar, vijf jaar lang.

Dan kost het je over vijf jaar tijd in een wordt case scenario dus: €156 (corectie dank axe77) - Voor een kaart die meer dan 1000 euro kost is dat niet extreem.

In een realistischer scenario zit je waarschijnlijk ver onder de €100 (correctie, dank aan axe77). Op Independer zie ik lagere prijzen, maar laten we uitgaan van 25 cent per kWh. Het realistische verschil in gemiddeld stroomverbruik ligt vermoedelijk dichter bij de 70 watt. Stel dat je 10 uur per week gamet, 50 weken per jaar — dat lijkt realistischer. Dan kom je uit op 1,75 cent per watt = €8,75 per jaar = €43,75 over 5 jaar.

Maar goed, los daarvan: zeker voor de 9070 gaan als je de keuze hebt. Dat is gewoon een veel betere kaart 😅

[Reactie gewijzigd door DLSS op 19 april 2025 16:31]

Volgens mij moet je de komma 1 plaats naar rechts verschuiven, dus €156,- over een periode van 5 jaar ;)
Excuses, klopt. Dank voor de corretie. Ik heb mijn conclusie wat aangepast want écht verwaarloosbaar is dat niet. Als is het alsnog niet echt een krankzinnig bedrag voor een worst case scenario bij een 1000 euro kaart. Je zit in de praktijk vermoedelijk ver onder de 100 euro.

Ik heb het even nagerekend voor iemand die 50 van de 52 weken per jaar 10 uur per week gamed met een realitische prijs van 25 cent per kWh. Dan kom je uit op 43,75 per 5 jaar

Nou is het zo dat de 9070 sowieso al de betere keuze is, maar wellicht kan je die ~43,75 euro over 5 jaar?) meenemen in de vergelijking als de kaarten die je vergelijkt dichter bij elkaar zitten.

[Reactie gewijzigd door DLSS op 19 april 2025 16:59]

Ik kwam bij 3 uur gamen per dag en 26 cent uit op 220 euro. Reken daar je bij dat een derdehands kaart nauwelijks restwaarde meer heeft dan zit je toch al gauw op 400 euro aan extra kosten
3 uur per dag, 365 dagen per jaar bedoel je?

In een realistischer scenario, met die kWh-prijs, krijg je het volgende:

3 × 365 = 1.095 uur per jaar × 70 watt (nog aan de hoge kant, maar een realistischer praktijkverschil als de maximale TDP van de verschillende kaarten zo'n 100 watt verschilt — ervan uitgaande dat je vooral zware games zoals Cyberpunk 2077 speelt) = 76,65 kWh × €0,26 = €19,30 per jaar.

[Reactie gewijzigd door DLSS op 19 april 2025 16:57]

Nee het verschil is hoger dan 70 watt ... 160 watt minder tov 320W bij de 3080 wat bij 1095 uur uitkomt op 175.2 kWh x 0.26 = 45 euro per jaar en dus in 5 jaar op 220W Plus dat je dus een huidige nieuwe kaart nadien nog wel iets van 200 euro op kan leveren. Hoewel bij de 3080 nu de verkoopwaarde in % nu al lager ligt? 370/1000 = 37% < 200/500 = 40%
De 3 uur per dag was een ruwe inschatting op wat ik anderen zien doen. In de weekenden waarvan bijna de helft in de weekenden. 1 uur per dag klinkt wat ongeloofwaardig.

[Reactie gewijzigd door AtariXLfanboy op 19 april 2025 16:45]

Maar dat verschil komt in de praktijk niet eens uit op 70 watt, hoor. Die 100 watt zie je alleen als je volle bak benchmarks draait. Sterker nog: zelfs bij 3DMark zit mijn 4090 niet eens constant aan zijn maximale TDP.

Daarnaast:
  • Je zit in veel games regelmatig in menu’s om je wapens aan te passen of je personage te customizen (of wat dan ook). In menu’s verbruik je veel minder stroom.
  • Je bent in veel games regelmatig CPU-bound, waarbij je GPU moet wachten op de CPU. Je GPU verbruikt dan meestal veel minder dan zijn maximale TDP.
  • Je staat bij veel online games geregeld in de wachtrij voor een match, waarbij je GPU niet op volle toeren draait.
  • Het is waarschijnlijk ook niet zo dat je alleen zware RT games als Cyberpunk 2077 speelt, waarbij de RT-cores worden aangesproken, maar ook lichtere multiplayergames of indie-titels. In dat soort games gebruikt je GPU waarschijnlijk nog niet de helft van zijn capaciteit.
Overigens zou ik altijd een framecap aanraden. Framerates die boven de verversingssnelheid van je scherm uitkomen, zijn verspild. Zelfs mijn RTX 4090 cap ik doorgaans op 72 of 144 fps. Als je dat doet wordt het verschil nog kleiner.

(Los van de stroomkosten scheelt het ook warmte wat beter is voor de levensduur van je GPU, en vermoedelijk droogt je koelpasta minder snel uit waardoor je die niet zo vaak hoeft te vervangen).

Neem de proef op de som, zou ik zeggen: installeer GPU-Z op je eigen pc en kijk wat het stroomverbruik is tijdens je gameplaysessies. Je zult zien dat je het gros van de tijd ruim onder de maximale TDP zit.

[Reactie gewijzigd door DLSS op 19 april 2025 16:57]

Maar die 5060Ti zou dan wel altijd aan z'n maximale TDP zitten? Want we hebben over het verschil tussen die twee
Tja Framecap is een optie uiteraard, maar om al bij de aanschaf rekening houden lijkt me ook wel wat mal.
Ik heb beide videokaarten niet dus uitproberen gaat lastig. En de koelpasta lijkt me een argument extra om geen tweedehands 3080 te kopen eerlijk gezegd.

[Reactie gewijzigd door AtariXLfanboy op 19 april 2025 17:10]

Ik was de 3080, met een maximale TDP van 320 watt, aan het vergelijken met de 9070 die je hierboven noemde, met een maximale TDP van 220 watt.

Bij volle belasting is het verschil bij die twee dus 100 watt. Bij lagere belasting schaalt dat verschil mee. In de praktijk is het verschil gemiddeld waarschijnlijk zo'n 50 watt, als je echt al die punten hierboven meeneemt waarop je ver onder max tdp kan zitten. Ik reken met 70 watt om aan de veilige kant te zitten.

Zelfs een iets zwakkere kaart zoals de 5060 Ti haalt trouwens bij lange na niet constant zijn volledige TDP, ook niet in zware games zoals Cyberpunk 2077 zonder framecap. Maar het verschil in verbruik zal uiteraard wel groter zijn dan met de 9070.

Als je kunt kiezen tussen een tweedehands 3080 en een nieuwe 5060 Ti, zou ik inderdaad ook voor de 5060 Ti gaan.

Het prestatieverschil is klein, de 5060 Ti heeft meer features en is een stuk zuiniger. Het scheelt misschien geen 220 euro, maar toch mooi meegenomen.

Als je dit interessant vindt, moet je echt even GPU-Z downloaden op je eigen pc. Het is superleuk om mee te klooien, vind ik persoonlijk. Ik heb uiteindelijk mijn kaart zelfs een undervolt gegeven 😅.

[Reactie gewijzigd door DLSS op 19 april 2025 17:32]

Nee aangezien je op mijn vergelijk tussen de 5060ti en 3080 reageerde zonder daar de 9070 te noemen is dit gewoon nonsens. Mag ik je cursus 'begrijpend lezen' aanbevelen? En een cursus 'normaal reageren' ipv dat kinderachtige geframe alsof ik dit soort basisdingen niet zou begrijpen? Categorie 'Tweakerkleuter' dit :D
En oja undervolten voor de tigste keer op dit forum is iets wat je systeem onstabiel kan maken en vaak dus niet aan te raden is. En tja er zullen wel tig 'Testimonials' zijn dat goed gaat, maar in de praktijk valt dat nogal eens tegen heh!

[Reactie gewijzigd door AtariXLfanboy op 19 april 2025 17:34]

Mijn reatie ging over het verschil in stroomverbruik en dat ik vind dat dat in zijn algemeenheid vaak wordt overschat, ik haalde de 9070 en 3080 al rekenvoorbeeld naar voren omdat je schreef:
Tja... de RTX3080 is wel een kaart die nieuw nog steeds boven de 1000 euro kost en het dubbele aan stroom verbruikt. Als je een gamer bent die veel speelt is de RTX3080 zelfs dus tweedehands niet aan te raden. Ga dan voor een 9070 van AMD
Ik noem trouwens ook constant de RX 9070 in die post, en niet de 5060 Ti, toch?

Voor mij was dit gewoon een amicaal gesprek eerlijk gezegd. Ik las de frustratie oprecht niet in je reacties. Mijn excuses als ik je geagiteerd heb – dat was niet de bedoeling

[Reactie gewijzigd door DLSS op 19 april 2025 17:47]

Jij reageerde in eerste instantie op een reactie van mij op :
"Eerder een downgrade, volgens Techpowerup is de RTX 3080 in Raster gemiddeld zo'n 10-20% sneller dan de 5060Ti"
Nergens heb ik het voor de 9070 uitgerekend, want die vond ik dus ook al de betere keuze.
Het zij je vergeven ;) O-) Fijn Pasen!
Ik ging in op
Als je een gamer bent die veel speelt is de RTX3080 zelfs dus tweedehands niet aan te raden. Ga dan voor een 9070 van AMD
Twee high end kaarten van twee verschillende generaties vond ik een interssant voorbeeld. Het maakte niet zo veel uit welke specifieke kaarten ik precies vergeleek – Ik wilde graag een gesprek over de stroomkosten en dat ik vind dat die soms wat overschat worden.

Achteraf gezien had ik beter de 5060 Ti kunnen nemen, en ik heb daarnaast jouw reacties niet helemaal goed ingeschat. Ik denk dat ik er te vlug er overheen heb gelezen. 😅

Fijn dat we er in elk geval uitgekomen zijn 👍. Geen kwade intenties. Jij ook een fijn Pasen!

[Reactie gewijzigd door DLSS op 19 april 2025 18:01]

En oja undervolten voor de tigste keer op dit forum is iets wat je systeem onstabiel kan maken en vaak dus niet aan te raden is. En tja er zullen wel tig 'Testimonials' zijn dat goed gaat, maar in de praktijk valt dat nogal eens tegen heh!
Ik raadde het niet aan; ik wilde alleen zeggen dat ik het zo leuk vond om met GPU-Z te klooien (voor de hobby), dat ik mijn kaart zelfs een undervolt heb gegeven. Overigens kan ik net as die andere tweakers bevestigen dat ik er geen problemen heb ervaren (je moet gewoon niet op het randje gaan zitten), maar dat staat er verder los van.
Ik kan je zeggen dat ik daadwerkelijk tweakers gekend heb die verkondigden dat ze geen probleem hadden met een overclock hadden terwijl dus dat wel het geval was. Vaak simpelweg zo narcistisch dat ze de fout altijd bij iets zoeken waar ze zelf geen invloed op hebben. Ik vind zowel underclock als overclock lastig in hardwarediscussie te betrekken om dat vaak zo cherrypicking is (met oa kersenplukker gamers Nexus) dat ik daar liever niet op inga. In die trant was die opmerking bedoeld

[Reactie gewijzigd door AtariXLfanboy op 19 april 2025 18:56]

Kan je niet zo zwart op wit zeggen.

De 5070 Ti bijvoorbeeld is zeker wel 30% beter dan de RTX 3080. Vooral op 4K vanwege het verschil in VRAM.

Hoe kan het dan zo zijn dat de 5060 Ti 30% onder de RTX 3080 ligt?

Het verschil tussen de 5070 Ti and 5060 Ti is toch niet ~60%?

Ik dacht dat de 5060 Ti 16GB dus op gelijke hoogte zou zitten als de RTX 3080?
Het verschil tussen de 5070 Ti and 5060 Ti is toch niet ~60%?
Dat zit hij volgens Techpowerup dus wel, met de 5060Ti als reference zit de 5070 Ti op 160% gemiddelde framerate op 1080p.

Het is de laatste jaren met Nvidia nogal een ding dat de xx60 kaarten niet meer zo competitief zijn als vroeger. Toen hadden ze de beste price/performance en was het verschil met de xx70 nog gering, nu zit er een vrij enorme performance gap tussen maar betaal je er ook gelijk een smak meer voor.

[Reactie gewijzigd door Richardus27 op 19 april 2025 19:34]

Jemig. Ik zit erover na te denken om te upgraden van RTX 3080 naar de 5070 Ti.

Dacht eerst aan de 5080 maar vanwege de 16GB VRAM voor die prijs toch maar aan het azen op de 5070 Ti.
Van mijn 3080 ben ik overgestapt op de 5070. +2Gb Vram, lager stroomverbruik en dus koeler in de zomer.
En ook nog eens 20% sneller.

Heb juist de keuze op de 5070 laten vallen omdat hij nu onder MSRP zat en ik geen zin had om die nieuwe absurde prijzen te betalen.
Wederom een mooi voorbeeld en bevestiging dat mijn aanschaf afgelopen oktober van de 7800 xt een goeie was, qua prijs scheelt het 50 euro, maar prestaties zijn in meeste gevallen 10-15% hoger.
Dat lijkt mij niet voldoende. Met een GPU wil je toch graag een significante verbetering zien voordat je honderden euro’s stuk slaat.
Ik ben altijd wel gewend dat de volgende generatie gelijk of beter is dan de vorige xx70 kaarten. Maar deze 5060ti is maar iets beter dan de 3070 en minder goed dan de 4070. Lijkt wel als of ze stil staan bij nvidia en/of achterlijke prijzen vragen zoals de 5080...
Ze verkopen nogtans als zoete broodjes, zelfs aan die belachelijke prijzen. Waarom zou Nvidia moeite moeten doen?
Als je compleet het stroomverbruik en de aanschafprijs negeert heb je gelijk. Maar dit is simpelweg de snelste gpu onder de 500 euro nieuwprijs.

[Reactie gewijzigd door AtariXLfanboy op 19 april 2025 13:57]

Aha met fors meer stroomverbruik (260W) is die Raster idd wat sneller en RT wat langzamer dan de 5060Ti. Je hebt gelijk
Ik kan echt janken. Ik heb een 3070 en ik heb afgelopen winter mn hele platform van een update voorzien met als hoop een leuke vooruitgang te kunnen boeken voor netto 600 euro (met verkoop van die 3070)

De goedkopere kaarten bieden geen vooruitgang, de midrangekaarten bieden weinig vooruitgang ten opzichte van het geld en topkaarten, houd maar op.

Als mijn GPU het begeeft, stop ik met gamen.
Oei dan ben je nog wel even zoet denk ik;-). Want denk niet dat hij snel defect gaat. Maar ik ervaar tegenwoordig dat je prima kan gamen op mindere hardware. Zoals mijn rx6800 en mn Asus rog ally z1. Ja de settings staan lager. Maar heb er niet minder plezier door. Net bijv gestart met Spiderman remaster op de rog. Ziet er vet uit en vraag mij dan ook af of zon highend kaart het voor mij waard is ( 5070 en hoger)
De games die ik speel, gaan op 4k60 prima, desnoods met een instellinkje lager. Dus geen noodzaak in die zin. Maar wel jammer, had graag aan de nieuwere games begonnen.
Ik heb een 3060ti en zou er amper 15-20% op vooruit gaan, je 3080 is heel wat sneller zolang je geen fake frames gaat genereren waardoor je weliswaar een hogere fps ziet maar tegelijk extra input lag krijgt en mogelijk ook artifacts op je scherm.
En dus nieuw nog 1000 euro kost en 320W verbruikt. Ik zou ook tweedehands ver van de 3080 wegblijven. Dan kun je waarschijnlijk beter een nieuwe 9070XT kunt kopen. Dat er al 28 3080 videokaarten in V&A staan lijkt me ook een teken dat deze kaart niet echt een aanrader is.
Het was destijds natuurlijk een fantastische kaart. 350-400 tweedehands ja die nieuwe van €800 zal daarvoor hopelijk beter zijn
320W is voor mij geen fantastische kaart. Zelfs niet voor 100 euro tweedehands ;-) Maar dat heeft ook met de extra herrie te maken natuurlijk en dat derdehands natuurlijk nog weer lastiger door te verkopen is dan tweedehands.
Gast welke herrie waar heb jij het allemaal over
Ventilators die 320W warmte af moeten voeren maken herrie. Wist je dat niet?
Jij bent echt een AMD fanboy. Je recommend constant alleen maar een AMD kaart aan.

Mijn CPU fan op een AMD CPU is luider dan mijn RTX 3080 tijdens het gamen.

Gaat dus prima. AMD maakt ook mooie kaarten, maar hun ray tracing performance is gewoon slecht. De nieuwe 9070XT zit qua ray tracing performance op het niveau van een RTX 3080. Een kaart van 2 gens terug….
AMD Fanboy? Wat verfrissend om dat eens te horen :D :D :D
De enige AMD videochips in mijn huis zijn een 780m in een 7940HS MiniPC en een AMD GPU in een Xbox Series X. Verder heb ik ff zien... GF2MX, GF4200ti, GF6200 GF7nogiets, GF9600 , GF650ti , GF960, GF1030, GF1660S , GF4060 , Tegra in een ShieldTV ... dus 11 Nvidia GPU's in der loop der jaren gebruikt. Waarvan dus er nog 4 gebruikt worden.
De Ryzen 5800X3D en i5 6600 worden gekoeld door een waterkoeler en een 5600X door een net zo prettige Artic Freezer luchtkoeler. Geen van deze cpu's komt uit boven de videokaarten onder load terwijl ik dus toch vrij zuinige GPU's gebruik.
Als ik hier de RT benchmarks vergelijk van de nieuwe AMD kaarten doen ze daarbij niet veel onder tov Nvidia kaarten van ongeveer dezelfde prijs. Vergelijk de 5060Ti maar eens tov 7800XT
De 9070 is in de 1080p , 1440p , 4k DXR gameprestatie index van tweakers sneller dan let wel de 3090FE.
Als ik nu een videokaart van rond de 600 euro zou kopen zou het toch echt AMD worden.
review: Nvidia GeForce RTX 5060 Ti - Haalt de lat, maar die lag niet hoog
(maar budget is meestal 300-400 euro nu en ik heb tot volle tevredenheid een 4060. Die blijft nog jaren zo)

Edit : Vergeet ik nog de WII die ik laatst voor de controller in de kringloopwinkel heb gekocht. Nouja dat is een ATI GPU ;)

[Reactie gewijzigd door AtariXLfanboy op 19 april 2025 19:22]

Tja dan moet je zelf op zo'n laptopchip gaan gamen: verbruikt niks en hoor je niet

Sorry maar je klinkt alsof een 3080 jou ooit iets heeft aangedaan ;-)
Er is nog een hele wereld tussen laptopchip en bakovengpu hoor :D

[Reactie gewijzigd door AtariXLfanboy op 19 april 2025 20:37]

Niet echt, buiten dat je met frame generation begint (wat goed werkt in tegenstelling tot wat de "fake frames" meute ervan beweert).
Qua gewone performance is de 5060 ti iets trager,raytracing ongeveer gelijk, met raytracing en iets als SR quality en Frame generation zal je een pak sneller zijn.

Als je die 3080 voor eend eftige prijs kan verkopen misschien? anders lijkt me niet waard voor enkel frame generation extra
Met het hoge stroomverbruik is 'goedkoop is duurkoop' een gezegde die mij op lijkt te gaan voor een tweedehands 3080 waar er inmiddels 28 van in V&A staan tussen de 400 en 450 euro. Tja, als je sporadisch de computer aanzet om te gamen misschien of zelf de stroomrekening niet hoeft te betalen mischien een interessante kaart, Maar er zijn iig aardig wat Tweakers die er nu al van af willen komen. Geen wonder : 320 watt
Hij heeft een 3080, idd die zal duurder om te draaien zijn.
Die vervangen echter zal wat kosten, laagste pprijs is 360 euro, nieuwe 5060 ti is 470 dus een 100 euro extra.

160 watt meer 1 uur gamen per dag = 800kwh aan 0.5 euro? Dus een 40 euro
Met frame generation ed misschien de moeite , als je die aan die prijs kwijt geraak
Tja voor mij is 1 uur gamen per dag 'sporadisch gamen' ;-) Maar je maakt een miscalculatie voor je punt : 1 uur elke dag gamen is ongeveer 58.4kWh * 26 cent (flink gezakt kan weer omhoog) = 15 euro ... Dus 45 euro voor 3 uur gamen per dag. 5 jaar dus ca 225 euro. Hoewel de meeste gebruikers de videokaart korter zullen gebruiken voor intensieve taken lijkt me dat nog niet echt te veranderen als je ook een kaart enigszins in waarde laat dalen omdat ie al langer in gebruik is.
Ik zou dan toch echt eerder voor een nieuwe 9070 gaan die 220W verstookt en 670 euro kost of als je dat geld niet hebt dus iets minder prestaties met de 5060ti. De 9070 en 9070XT zijn echt ongunstig voor de 2e hands hoger prijs segment kaarten.
(Ik had de 3080s in V&A onder de 400 euro niet zo snel gezien)
sja hoezo werkt dat goed als je base frame goed is ja maar zo niet dan heb je niets aan de fake rames zoals terecht word aangegeven en dat terwijl ja dan het meeste baat ervan zou hebben

daarom zeer goed en terecht dat de fake frame meute dat beweert
Neen dat is gewoon onzin van mensen die iets irrationeel tegen technologie hebben.
Ik heb cyberpunk 2077 op 4k/path tracing gespeeld met zowat elke mod die het mooier maakt.

Op mijn 4090 gaf dat een 30-35fps met RR, met SR (quality) gaf dat een 40-45 fps en met FG een 60-65 fps of perfect speelbaar. Niet mogelijk in die kwaliteit zonder dlss .
Het werkt redelijk goed, maar niet perfect, er zal ook met het transformer model ghosting zijn met hoge base-framerates waarbij MFG niet eens gebruikt wordt maar enkel zoiets als DLAA wat de hoogste vorm van beeldkwaliteit van DLSS moet voorstellen. Dat is erg makkelijk te zien in een titel als GTA V Enhanced waar de achterkant van de auto gewoon aan het ghosten is met hoge framerates.Overigens ook zeer makkelijk te zien dat er image-warping plaatsvindt met beweging van een HUD element die beweegt over een oppervlak met verticale lijnen zoals in Half-Life 2 RTX met een redelijke base-framerate van rond de 60.Het is beter dan spelen met lag, maar dergelijk lage framerates gaan geen heel fatsoenlijke beeldkwaliteit leveren bij snellere bewegingen, niet alles zal direct opvallen maar er zijn zeker wel storende aspecten die duidelijk wel opvallen.

Zoals hier ook te zien valt, het is echt niet feilloos:Niets onzin dus dat nergens op gebaseerd is maar daadwerkelijke feiten.

Je wint speelbaarheid maar mist beeldkwaliteit, hierom zal een 5060/5070 er altijd slechter uitzien dan een 4080/4090 in dit soort situaties, betreft de 3080 kan ik wel voorstellen dat er wat te winnen valt op VRAM gebied betreft textures en meer VRAM ruimte voor RT zaken maar je levert gewoon performance in op base-framerates in rasterization in de meeste titels met de 5060ti.

Dat Raytracing met alle toeters en bellen zonder DLSS lastig realtime goed te doen is, ja akkoord, daar moet je consessies voor doen, maar we moeten niet claimen dat het een perfecte beeldkwaliteit levert zoals rasterization dat altijd heeft gedaan ongeacht de performance vergeleken met de image-scaling trucjes van DLSS en geïnjecteerde frames.
Je gaat er verkeerdelijk vanuit dat rasterization "een perfect beeld" oplevert.
zelf al beschouw je iets als AA als normaal (en niet ook gewoon een fake beeldverbeteraar) dan nog heeft zowat elke engine en game zijn imperfecties , in sommige gevallen lost iets als SR die op.

Zie je dat? In gewone gameplay niet, ingezoomed en stilgezet of vertraagd als iemand je erop wijst wel, maar niemand gamed zo. Je merkt dus die imperfecties niet, niet diegene die er altijd inzitten, niet diegene die soms door DLSS of FSR veroorzaakt worden.

Wat je wel direct opvalt is dat ipv 35 fps je 60 fps hebt en dat je gaat van iets dat eigenlijk onspeelbaar is (1% zit dan op 20 fps wat echt wel opvalt) naar iets wat perfect speelbaar is.
Raster, geeft ten alle tijde, een perfect beeld, maak een screenshot en je zal nooit ergens ghosting te zien krijgen of beelden die verbogen zijn van de realiteit door snelle bewegingen dan wel wazigheid van de textures op de grond in een race-game i.v.m. hogere snelheden.

En dan hebben we het over motion-blur technieken en andere post-processing technieken uitgeschakelt die dergelijke verwaziging kunnen bewerkstelligen in traditioneel raster. AA is hierbij volledig irrelevant voor het produceren van een pixel-perfect beeld zoals het bedoelt was om te renderen in de eerste plaats, dus als er kartelrandjes zijn so-be-it het is wel pixel-perfect beeld zonder ghosting maar zelfs al zou je MSAA/TAA/SMAA/FXAA gebruiken dan nog krijg je geen ghosting zoals DLSS dat doet én dat is het verschil.

En dat voorbeeld bij GTA V Enhanced is wel zéér merkbaar, daar hoef je het beeld echt niet voor stil te zetten, het is alsof je een oud spel aan het spelen bent met zo'n overdreven snelheideffect.

Verder ga ik er niet op in.
Nogmaals : elke engine op de wereld heeft wel wat issues, laat staan de implementatie. Er bestaat niet zoiets als "een perfect" beeld.

YouTube: Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs...

YouTube: DLSS 4 is now BETTER than Native... HUGE quality improvements!

Dlss ziet er in sommige gevallen gewoon beter uit,gelijkaardig in anderen en soms idd slechter.
geen van de 3 gaat de doorsnee gamer merken tijdens het spelen .
Dus we gaan nu TAA gebruiken als excuus dat DLSS er beter uit ziet? Zo werkt het niet.

Vergelijk het dan maar met DSR resoluties zoals 4K of 5K op een 1080P/1440P monitor, ja de performance kost is hoger maar het ziet er zéér veel beter en scherper uit dan zo'n traumatische ervaring als TAA maar zoiets als MSAA heeft ook al tijden veel performance en VRAM gekost voor een zeer goede beeld kwaliteit zonder ghosting in oudere titels.

En dat DLSS een betere texture filtering kan bewerkstelligen dan native heb ik het even niet over, dat is niet waar we het over hadden, het gaat om de ghosting, die is afwezig zolang je geen motion-blur of andere post-processing technieken gebruikt die het beeld vertroebelen. DLSS kan ghosting nergens volledig voorkomen omdat deze werkt met data uit andere echte frames zonder dat deze daadwerkelijk op de correcte manier gerenderd wordt.

Als men het niet zou merken, dan zou het geen hot topic zijn denk ik zo met een dergelijke hoeveelheid klachten hierover in de media en mensen die het krampachtig proberen te verdedigen. ;)
Moest je het zo hard merken zouden niet zoveel mensen het gebruiken .

Nogmaals voor de doorsnee gebruiker zie je dat echt niet. En ja YouTubers moeten content verkopen en zo een polemiek rond “fake frames” doet dat. Dat je ingezoomd op stilstaande zelf amoer verschil ziet en dat ze al de voordelen dan wegmoffelen hoort daarbij.
Haha dus dit is zeker ook content verkopen?

YouTube: RTX 5060 Ti 8GB - Instantly Obsolete, Nvidia Screws Gamers

Sorry, maar het zijn de feiten aan de man brengen, iets waar bepaalde mensen met een rooskleurig brilletje nogal last van hebben om dat te verwerken, daarbij vertrouw ik YouTubers met echt diepte-kennis zoals GamersNexus meer dan andere willekeurige personen. Maar goed, ook deze video kan je niet omheen. ;)

Fijne pasen.
Dat heeft er weinig mee te maken, maar idd : doen alsof een !gb vram kaart onbruikbaar is is gewoon klikbait. Voor de meeste gamers is die perfect bruikbaar niet iedereen speelt immers op 4kultra en louter de meeste vragende games.

Maar ik weet dat nuance deze tijd niet meer bestaat.
De video van HardwareUnboxed legt het haarfijn uit, maar nu is ineens je cherry-picked reviewer van je eerdere post opeens een clickbaiter? ;)

En hij is niet de enige reviewer, elke zelf-respecterende reviewer zegt dit inmiddels en ze spreken ook de waarheid en onderleggen dit met feitelijke informatie, men wilt anderen behoeden voor een echte miskoop.

Hij onderlegt gewoon de feiten met overduidelijke onspeelbaarheid in de recentere titels met duidelijke videobeelden dat het verschil écht enorm is, je krijgt nog eens veel minder waar voor je geld ook nog eens en dat wil je bij deze gaan verdedigen dat we dit moeten accepteren en dat als iets goeds moeten zien en dat DLSS het allemaal wel gaat oppoetsen wat overduidelijk in de video te zien is dat het dit niet gaat trekken i.v.m. zijn gebrekkige geheugencapaciteit?

Je argumenten raken kant noch wal en dat is overduidelijk en dat je zie nu zelf ook wel, zelfs in 1080P kan de 8GB kaart letterlijk niet meer meekomen en dat een spel zoals Indiana Jones letterlijk crashed op Ultra instellingen op 1080P terwijl overduidelijk de GPU core krachtig zat is om dit wel te verwerken zoals het 16GB model haarfijn laat zien.

En de titels waar de 8GB kaart wel werkt op 1080P met hoge instellingen zijn de framepacing/times en inconsistenties en ook average framerates lachwekkend slecht. Je mag van x60 class kaarten tegenwoordig, zeker voor die prijs, minimaal redelijke 1440P prestaties verwachten, 1080P zou in de meeste gevallen geen obstakel meer mogen zijn.

Sorry hoor, maar je hebt het hier toch niet bij het rechte eind. ;)

[Reactie gewijzigd door CriticalHit_NL op 21 april 2025 20:27]

Grappig het ging over dlss en omdat je duidelijk geen argumenten hebt verander je naar of 8gb genoeg is?

Ik herhaal gewoon de feiten : elke game is speelbaar op 1080p met 8gb vram, de overgrote meerderheid van games zelfs op de hoogste settings zelfs op 1440p en zelfs 4k, met dlss zelfs de meeste.

Snap je eigenlijk dat er mensen zijn die niet in 4k ultra de laatste juist uitgebrachte aaaa titel spelen?

[Reactie gewijzigd door k995 op 21 april 2025 23:56]

Dus je gaat nu als excuus verzinnen dat de kaart prima capabel is zolang je maar op facebook zit?

Sorry, voor die prijs is het echt zijn geld niet waard, deze argumenten komen nergens dat snap je zelf ook wel, de video van HardwareUnboxed gaat hier keihard tegenin.

Maar goed, iedereen kan duidelijk het bewijsmateriaal zien zoals ik het gepost heb en hun conclusies trekken. ;)
Ik herhaal : Grappig het ging over dlss en omdat je duidelijk geen argumenten hebt verander je naar of 8gb genoeg is.

En blijkbaar blijf je verder gaan over 8gb en nog beweren en doen alsof jij voor iedereen eventjes kan beslissen , ik denk dat iedereen wel zelf zijn vestand kan gebruiken en naar zijn eigen situatie kan kijken en niet iemand nodig heeft als jou met zo een enorme bias om eventjes te zeggen welke kaarten wel geschikt zijn. Maar ach ja mensen zelf laten beslissen is zo niet meer van deze tijd he?
nee dat is dus BS sorry maar er zijn reviewers zolas linus tech tips die aangeven dat MFG dus allen zinvol is bij base framerate van 60 of hoger

en die heeft zeker niet iets tegen de technologie
Probeer het gerust zelf uit en zie dat dat compleet onzin is n de meeste gamls.
nvm

[Reactie gewijzigd door atthias op 21 april 2025 15:46]

zou je een 550 watt Voeding kunnen gebruiken met deze kaarten?
Als ik zo kijk houdt dat niet heel veel marge over, zeker als je rekening houdt met degradatie van de voeding. Zou zelf dan niet lager gaan dan 650w
Ik zie niet echt de noodzaak om zwaarder te gaan. De GPU trekt nog geen 200W en zal in de basis veruit de grootste belasting in je systeem zijn. Met een kwalitatieve voeding mag dat nooit een probleem worden. Ik heb vandaag voor mijn huidige GPU ook een voeding die zelfs onder de opgegeven spec zit van de fabrikant van de GPU en nog nooit een probleem gehad met de stroomtoevoer naar mijn PC.
Then I stand corrected. Zie nu zelf ook dat ik niet bijster veel stroom verbruik als ik mijn mobiel en camera niet in de usbc poortjes heb zitten.
Een beetje afhankelijk van welke CPU je hebt, en ervan uitgaande dat het een beetje fatsoenlijke voeding is: Geen enkel probleem. Ze verbruiken ~150W. Laten we het ruim nemen en zeggen 200W. Dan heb je dus nog 350W over voor de rest van je PC. Gebruik je een i9 ernaast, dan kan dat weleens krap worden. Maar bij een normale CPU zou dat geen probleem moeten zijn.

(Ik heb een tijd zonder enig probleem met een RTX3070 en een 550W voeding gedraaid, die GPU verbruikt een ~70W meer dan deze. Wel was dat met een 3700X, die 65W gebruikt. Maar dan heb je zat marge).
Hangt af van merk/type en de rest van het systeem. Een 550W voeding van een beetje kwaliteit trekt dit makkelijk, maar als het een heel belabberd model is dan wil je mogelijk even checken of hij genoeg ampere op 12V kan leveren. (Bij een twijfelachtige PSU zou ik trouwens geen videokaart van €500+ inbouwen, maar dat terzijde)
Elke 550W certified Bronze PSU lijkt me voldoende? Zelfs een niet al te gek oude 450W Bronze PSU moet kunnen als er niet gek veel hardeschijven ed inzitten (of bv 64Gb of meer DDR5 geheugen) dacht ik zo. Bij de aanschaf van nieuwe PSU zou ik iig dan wel voor op z'n minst 550W Bronze gaan iig. Maar om er speciaal dus een nieuwe voor aan te schaffen lijkt me wat overdreven.
P.S. Vergeet hierbij niet dat ook USB3 en 4 apparaten zonder aparte stroomvoorziening flink stroom kunnen verbruiken!
Draai zelf met een amd 5800x en rx6800. Die samen komen niet boven de 400watt uit met alle hardware er omheen. Die 6800 piekt op 220 watt. Dus denk dat t prima kan
Ja, mijn zoon heeft een 450w Antec voeding met een gloednieuwe 5060ti. Op normale instellingen trekt de kaart in games nog geen 140w en is zelfs 450w genoeg om prima stabiel te draaien. Heb hem wel gezegd dat hij met overklokken moet wachten totdat hij een zwaardere voeding heeft.
Ergens las ik of zag ik (videoreview grafiek) dat de Piekbelasting van de 5060 Ti (10milliseconde) 284 Watt bedroeg gemeten, bij een langdurige belasting van 200 W.

De voeding slaat als het goed is Direct af vanaf de eerste milliseconde van de Overbelasting beveiliging, het heeft geen vooruitblikkend vermogen. Dus je rekenwaarde is 285 Watt!
Volgens mij hoef je bij piekbelasting geen rekening te houden met dat de voeding gemiddeld bij Bronze 80% van die 550 watt levert. Dan heb je nog 265 watt over voor de rest en 165 watt is voor een AMD systeem met niet al te gek veel geheugen ook voldoende lijkt me.
Volgens mij snap jij niet helemaal waar de 80 Plus certificering voor staat, kort gezegd staat deze voor hoe efficiënt een voeding de stroom uit je stopcontact weet om te zetten naar stroom voor je PC. Dus bij een voeding van 80 Plus Bronze 550W zal deze bij een belasting van 400W rond de 480W uit het stopcontact trekken.
Maar in zo'n voeding zitten condensators en dus kan een kortstondige piekbelasting best hoger zijn dan de rating. De rating is wat zo'n voeding voor langere tijd stabiel kan leveren. Volgens mij lijk jij het dus niet helemaal te snappen?
"De rating is wat zo'n voeding voor langere tijd stabiel kan leveren"

Nee, de rating zoals jij het noemt staat voor de efficiëntieslag die een voeding heeft voor het omzetten van stroom vanuit je wcd naar je PC componenten, vaak is dit van AC naar DC. Hoe lang een voeding stabiel stroom kan leveren heeft hier echt niks mee te maken.
Je snapt het blijkbaar niet wat ik in simpel Nederlands probeerde uit te legde. Want dat is in weze hetzelfde. En het ging hier over 'piekbelasting' dwz weer in simpel Nederlands een kortstondig extra vraag aan extra stroom en die heeft dus weinig met die rating te maken.
Volgens mij zei jij dat een 80 Plus bronze voeding bij piekbelasting maar 80% van de 550 Watt kan leveren en dat is gewoonweg niet correct, dat is in weze iets totaal anders als wat ik omschrijf waar de 80 plus certificering voor staat.
Lees het nog eens ... Ik heb het niet gewijzigd, maar nu snap ik het misverstand. Het gaat er dus juist om dat inderdaad om dat de piekbelasting en de rating twee verschillende dingen zijn. Dus als even de videokaart er boven zit geen probleem zal zijn als het een redelijke kwaliteit voeding is.
Verder negeerde ik eigenlijk de informatie uit dat 'ergens gelezen' want daar kan ik weinig mee. Handige youtubers willen iig nogal eens wat rotzooien voor de sensatie. Als de voeding werkelijk uitschakelt door de te lange hoge piekbelasting dan is dat een fout in de videokaart. Niet in de keuze van de voeding, want dan denk ik dat ook iets zwaardere voedingen ermee in de problemen kunnen komen.
Het gaat er dus juist om dat inderdaad om dat de piekbelasting en de rating twee verschillende dingen zijn.
Dat is exact wat ik zeg, dat piekbelasting niks te maken heeft met de certificering maar alles met de gebruikte componenten binnen een voeding. Zijn we het in ieder geval eens, je rekensom bracht me even in de war vandaar :+
Tja ik was met wat te veel reacties achter elkaar bezig LoL
Ik zou het niet doen, zelfs als het net zou kunnen. Je wil het ding niet jaren lang constant op zijn tenen laten lopen. Ik heb genoet vrienden gehad met PSU proberen om zelf nooit op een PSU te bezuinigen.

Overigens heb je nog een klein beetje extra voordeeltje als je een PSU neemt met wat meer ademruimte. Ze werken namelijk meestal efficiënter met een wat lagere belasting. (Al wordt stroomkostenbesparing bij PC componenten vaak wel overdreven)

[Reactie gewijzigd door DLSS op 19 april 2025 15:04]

Het werkt andersom, het optimale punt van de curve zit op ongeveer 50% van de maximale belasting. Echter grotere voedingen zijn in de regel onzuiniger onder lage loads.

Daarnaast kunnen de meeste voedingen meer belasting aan dan geadverteerd, een logisch gevolg van silver/gold/etc certificering.

Tot slot zijn helaas de a-merken alles behalve probleemvrij. Zie bijvoorbeeld Seasonic.

Los hiervan is een 550W voeding icm een 5060 Ti al overkill. Je zou afhankelijk van de cpu zelfs met 350W weg kunnen komen.
Mijn 7090 gre die goedkoper was dan deze nieuwe generatie blijft de betere keuze. Ik vind de prestatie sprong zo tegenvallen bij de midrange kaarten van nvidia. Net als de Xtx voor 4K (24 gb) een prima keuze blijft in het hogere segment , zeker nu deze voor €850 te krijgen is en je rt niet zo belangrijk vindt.

[Reactie gewijzigd door no_way_today op 19 april 2025 06:57]

Dlss 4 is wel een grote meerwaarde voor deze kaarten. Fsr4 haalt dat in maar zit koet op de 7000 kaarten van AMD
Maar de 7090 heeft gewoon meer fps dan de kaarten 60ti met dlss4. Neem aan dat dat gewoon aanstaat in de tests.
In puur raster is de 7900 gre een 20% sneller
Met raytracing zijn ze gelijk.

7900gre heeft enkel fsr 3, wat een stuk achterloopt op dlss4 je kan dus voor een gelijkaardige beeldkwaliteit Balanced upscaling op de 5060ti gebruiken terwijl je bij de 7900 dan quality(een hogere meer imact volle) moet gebruiken.

Tel daarbij ray recontruction, reflex en de 5060 ti zal een pak beter scoren en meer fps en vleibaarder spelen in iets als cyberpunk met path tracing aan dan een 7900gre.
Tel daarbij ray recontruction, reflex en de 5060 ti zal een pak beter scoren en meer fps en vleibaarder spelen in iets als cyberpunk met path tracing aan dan een 7900gre.
Waarom zou je path tracing aanzetten met een kaart zoals een 5060 Ti? Dat is meer iets voor een 5080/5090.
Omdat dat de beste graphics geeft en de 5060 ti met dlss kan dat perfect aan hoor.
Volgens mij alleen met MFG aan. Ieder z'n smaak hoor maar ik speel liever met minder input lag.
Gewoon 2x is meer dan genoeg en input lag? Hoe hoog denk je dat die dan is als die stoort in een single player game?
DLSS staat natuurlijk niet aan in de meeste vergelijkende performance tests want dan zou je appels met peren vergelijken. DLSS verhoogt de performance significant.
@Tomas Hochstenbach en @Trygve Is het een idee om in de benchmarks ook de gemiddelde score van de 5070, 5080, 5090, 7090, etc. te zetten we ook in deze round-up kunnen zien hoe de verschillende 5060 Ti's zich verhouden met de andere kaarten? Nu moet je steeds wisselen tussen 2 artikelen (deze en die van de 5060 Ti zelf) om een volledig beeld te krijgen.
De prestatiescores van andere kaarten staan er normaal ook bij, daar was iets misgegaan. Heb de grafiek nu aangepast, alle andere kaarten zouden na een cache refresh moeten verschijnen!
@Tomas Hochstenbach / @Trygve / @rsnubje Ik heb zelf een x570 moederbord en ben wel benieuwd hoe deze kaart, of zelfs twee van deze kaarten het doen in PCIe.
En of het uit maakt of je een 3700X hebt of een 5700X3D of een 5800X3D.

En dan met name in AI modellen.
Is een enkele 5070 TI - 16GB VRAM in een PCIe 4.0 dan nog steeds sneller of heb je meer aan 2 x 5060 TI - 16GB VRAM in deze context.

Ongeveer energieverbruik, vergelijkbare prijs, meer geheugen, geen voeding wissel¹ en wellicht minder bottlenecks van de bus?

note
¹ Ik gebruik nu een 2070S met 2x 8 (6+2) pins stroomconnector en de 5060 TI heeft slechts 1x 8 (6+2) pins connector nodig terwijl de 5070 TI een nieuw type stroomconnector gebruikt.

[Reactie gewijzigd door djwice op 19 april 2025 23:25]

Wat ik mis in deze review AI-perspectief voor de gewone tweaker.
Met 16GB VRAM wordt lokaal draaien eindelijk haalbaar.
En voor ±€920 bouw je zonder moeite een 32GB VRAM stack.
Combineer dat met voldoende DDR5 en je schuift direct richting instap-pro terrein.
Misschien nog een aanvulling op de AI benchmark van afgelopen week?
Het missen van dual bios is voor 99% van de gebruikers van deze range kaarten echt geen gemis, en geen kermisverlichting zie ik juist ook als een plus punt. Dus zo kijkende zijn juist de palit en inno3D de betere keuzes omdat ze bijna 100 euro goedkoper zijn voor de doorsnee gebruiker die naar een 5060-ti zitten te kijken.
Daarom voor de inno3d gekozen als opvolger van men 3060ti.. En met deze kaart hoef ik geen geld te steken in nieuwe voeding
Zelfde keuze zal ik misschien ook maken voor mijn rtx2060super, welle ook een palit of inno3d was, kan het me ff niet herinneren, was in ieder geval het goedkoopste merk toen ik em kocht en had er toen nog nooit van gehoord, maar nooit spijt van gehad, 6 jaar later draait die nog steeds goed. Helaas dat de 5070-ti's nog net ff wat te duur zijn.
Ik blijf het veel geld vinden. 500 euro voor een midrange kaart.
Ik kan me nog herinneren dat ik de GTX 1660 ti voor 299 kocht
Midrange? De 70 serie is de midrange..
De 60 serie is nooit de midrange geweest. Ik herinner me nig in 2019 dat de goedkoopste 2060super nog steeds 370 euro was (want die heb ik toen gekocht, en dat was toen nog zelfs met een black friday aanbieding), dus bijna 6 jaar later, dan is 460 euro, voor een ti versie, rekeninghoudend met oa inflatie, helemaal niet eens zo raar. Kijk naar wat een fles coca cola 6-10 jaar geleden kostte en vergelijk die met nu, dan valt het allemaal wel mee.
Klopt mijn fout. Ik bedoelde een instap kaart
Wel jammer dat een 3060ti in oc variant niet meegenomen is...


Om te kunnen reageren moet je ingelogd zijn