Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 4070 Ti Review

De gedegradeerde 4080

04-01-2023 • 15:00

281

Singlepage-opmaak

Conclusie

Als derde lid van Nvidia's RTX 40-familie brengt de RTX 4070 Ti alle features van de Ada Lovelace-architectuur naar een lager prijspunt. Wat prestaties betreft valt de nieuwe kaart tussen de RTX 3090 en RTX 3090 Ti in, wat de topmodellen van de vorige generatie Nvidia-kaarten zijn.

Tegenover de RX 7900 XT moet de RTX 4070 Ti het afleggen; de AMD-kaart is gemiddeld 10 procent sneller zonder raytracing. Met gebruik van raytracing is de RTX 4070 Ti juist 15 procent sneller dan de RX 7900 XT en in dat scenario is hij zelfs nipt sneller dan de RX 7900 XTX. Ook deze keer blijft raytracing dus een troefkaart voor Nvidia, maar als we dit buiten beschouwing laten, is de prijs-prestatieverhouding van de RTX 4070 Ti gelijk aan die van de iets duurdere RX 7900 XT.

Van de nieuwe generatie videokaarten is de GeForce RTX 4070 Ti de eerste kaart die een adviesprijs van minder dan 1000 euro meekrijgt. Voor veel mensen is een dergelijk bedrag voor wat uiteindelijk toch een midrangechip en een weinig indrukwekkende hoeveelheid videogeheugen is, nog steeds een vreemde gewaarwording. Positief is in ieder geval dat er nu meer keus is rond het prestatieniveau van de RTX 3090 Ti, een kaart die ook na alle prijsdalingen nog voor meer over de toonbank ging dan wat de RTX 4070 Ti moet gaan kosten.

Een grote vernieuwing brengt de RTX 4070 Ti in zowel prestaties als features dus niet, maar vermoedelijk zullen meer gamers geïnteresseerd zijn in deze kaart dan in de (nog) duurdere modellen van de RTX 40-serie. Wel blijft het afwachten waar de prijzen van de verschillende RTX 4070 Ti-kaarten in de praktijk op uit zullen komen. De goedkoopste uitvoeringen moeten vanaf 910 euro in de winkels liggen, maar bij onvoldoende beschikbaarheid kan dit bedrag nog wel wat hoger gaan liggen.

Reacties (281)

281
273
105
10
0
132
Wijzig sortering
Ik snap nog steeds niets van Nvidia en wat ze met de prijsstellingen van deze kaarten willen bereiken. De cryptogekte is voorbij, mensen moeten veel geld betalen aan vaste lasten, die ook de komende tijd maar blijven stijgen. En men verwacht nog steeds dat er veel mensen zullen zijn die €1000,- gaan neertellen voor een "midrange" kaart?

Ja een mid-range kaart, want dat is het gewoon. Als men graag een high-end kaart wil maken van de xx70 serie, dan moeten ze niet ook nog met een xx80 en xx90 en Ti versies komen. Het is mooi om te lezen dat de prestaties van deze kaart vergelijkbaar zijn met die van een 3090Ti, maar niet voor deze prijs. Juist in deze tijd willen mensen waar voor hun geld, gamen voor een goede prijs/kwaliteit. Zolang men niet met een veel goedkopere 4060 of zelfs een 4050 komt die prestaties hebben rond de 3080, zie ik de verkoop aantallen van de RTX 4xxx serie somber in.
Ja een mid-range kaart, want dat is het gewoon. Als men graag een high-end kaart wil maken van de xx70 serie, dan moeten ze niet ook nog met een xx80 en xx90 en Ti versies komen.
Of iets een midrange kaart is wordt bepaald door de vraagprijs. Gezien de $799 is dit duidelijk geen midrange kaart. Performance per dollar heeft daar niets mee te maken. Performance eigenlijk ook niet, al zou dat wel zo zijn dan praten we hier over 3090 performance dus ook dat is geen midrange...
Ik snap nog steeds niets van Nvidia en wat ze met de prijsstellingen van deze kaarten willen bereiken. De cryptogekte is voorbij, mensen moeten veel geld betalen aan vaste lasten, die ook de komende tijd maar blijven stijgen. En men verwacht nog steeds dat er veel mensen zullen zijn die €1000,- gaan neertellen voor een "midrange" kaart?
Ik vermoed dat ze willen voorkomen dat alles direct uitverkoopt en ze nog wat overproductie van de 3xxx reeks kwijt moeten. We zagen namelijk precies dat effect bij de RTX 2xxx launch die ook net ná een crypto hype lag. Toen waren er enorme overschotten waar Nvidia nog vanaf moest.

Verder denk ik dat we het er wel mee eens zijn dat deze kaart geen $799 kost om te maken. Dus wanneer Nvidia het inderdaad volledig verkeerd in schat staat het ze vrij de prijs van deze kaarten te halveren. Maar ik zou daar niet op korte termijn op rekenen, misschien dat er over 4-6 maanden een prijsverlaging komt van 100-200 dollar. Mits er overschotten ontstaan.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:33]

Of iets een midrange kaart is wordt bepaald door de vraagprijs.
Als nvidia nu een 4060 voor 499 uitbrengt is 't wel degelijk een midrange kaart toch?
Ik snap best dat je 't over historische prijzen hebt hoor maar het is triest dat midrange, in ieder geval voor deze generatie, dus 799 is.

Verder ben ik het wel met je eens maar, zoals ik in een andere reactie al aangaf, veel mensen wachten al zo lang.
De pandemie / crypto maakte de 30 serie onbetaalbaar waardoor de 40 serie nu ook voor dergelijke prijzen in de markt wordt gezet.
En ondanks dat ik 1500 euro voor een 4080 best kan betalen vertik ik 't gewoon om mijn 1080 te vervangen voor die prijs.
Hopelijk zijn de meeste mensen net zo koppig en geduldig zodat nvidia eindelijk eens wakker wordt.
Tja alles is natuurlijk subjectief en ieder heeft zo zijn eigen referentie punt. Ik loop al lang mee, mijn eerste pc was een 486. Dus ik kom uit de tijd dat je nog in de bibliotheek een game kon lenen en dan op de achterkant moest kijken of hij wel ging werken omdat je C schijf maar 100 MB was en je maar 8 MB ram had en of je wel de juiste soundblaster en 3dfx kaart had. Dus mijn perspectief is wellicht 'raar'.

In het 'moderne' tijdperk, wat dus voor mij al heel wat jaren geleden begon, waren de x70 en x80 serie altijd high-end. De x5 en x6 waren midrange. Later zijn daar de enthusiast kaarten bijgekomen; de titans en de x90. Ik ga een x70 Ti dus geen midrange kaart noemen, het klopt historisch niet en ook niet met de $799.

Zoals bevestigd door Nvidia zou deze kaart een 4080 worden. Een 4080 die nipt sneller is dan de 3080 en effectief in dollars op hetzelfde prijspunt zit als wat 2 jaar geleden de bedoeling was. Is dat iets om enthousiast van te worden? We krijgen op dit moment in het beste geval wat in 2020 de bedoeling was, alleen is het nu 2023. Ik denk dat veel mensen op meer hadden gehoopt.

We hebben overigens nog helemaal geen x70 MSRP gezien want er is nog geen 4070 aangekondigd (zonder Ti). De RTX 3070 zat op $499. Ik ben benieuwd welk prijspunt de RTX 4070 gaat krijgen. Ik verwacht $599 gezien de hyperinflatie.

Zelfde voor @Cid Highwind . Ik vind het prima dat mensen voor mij bizarre bedragen aan videokaarten willen uitgeven maar dat maakt een x70 kaart geen midrange kaart. Dat zijn ze nooit geweest.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:33]

In het 'moderne' tijdperk, wat dus voor mij al heel wat jaren geleden begon, waren de x70 en x80 serie altijd high-end. De x5 en x6 waren midrange. Later zijn daar de enthusiast kaarten bijgekomen; de titans en de x90. Ik ga een x70 Ti dus geen midrange kaart noemen, het klopt historisch niet en ook niet met de $799.
Dat is echt de grootste kul die er is en als je al werkelijk zo lang mee loopt weet je dat zelf ook wel. De X80 serie is gewoon omhoog geschoven naar de X90 serie kaarten en de X70's naar de X80 serie. En de prijzen zijn daarmee gewoon een volledige tier omhoog gegaan. Als je alleen maar namen gaat lezen tuin je daar wel in ja.

Want laten we daar eens een voorbeeld van "vroeger" bij pakken. De GTX280. Dat was op basis van de GT200 met een die size van 576mm2. De klassieke NVIDIA "big die" dus. De GTX260 had overigens ook diezelfde die, maar dit blijkt historisch gezien een uitzondering. De die shrink introduceerde de GTX275, maar alles bleef hetzelfde.

Volgend voorbeeld:
GTX480: 529mm2
GTX470: 529mm2
Beide de big die CPU's dus
Na de 600 serie waarbij NVIDIA al eens een poging deed om kleine GPU's te verkopen voor de hoofdprijs (GTX680 iemand) kwam de 700 serie.
GTX770 kreeg de kleinere die, de GTX780 (en varianten) waren de enige met de big die. Dus nu deelt de X70 ineens de die met de X60 GPU. Het performance verschil werd ook groter tussen de X70 en die X80 vergeleken met de vorige 2 generaties.
GTX770 294mm2
GTX780(Ti) 561mm2
En toen kwam die fantastische truc, ze introduceerde de Titan serie onder de noemer, meer DPFP en meer geheugen. In het geval van de 700 serie was het nog waar ook. Ik heb hier dankbaar gebruik van gemaakt. Maar dat was snel over.
Want de 900 serie kwam uit en NVIDIA dacht, laten we de 980 ook gewoon naar de kleinere die degraderen.
NIet alleen de GTX970, maar ook den 980 had nu ineens ook de kleinere die. Met als grap dat de prijs gewoon hetzelfde bleef vergeleken met de vorige generatie. Weer een ronde marges opkrikken dus.
Wat eigenlijk de 980 kaart zou moeten zijn was nu ineens een 980TI en de TITAN was een verkoop truc geworden. Want de enige reden waarom je hem zou moeten kopen bij die prijs, de DPFP units, waren er uit gesloopt. Naja praten we het maar weer goed met wat extra geheugen.

De 2000 generatie was hetzelfde, alleen verhoogde ze de prijzen nog maar eens. Dat werd toen, enigszins terecht overigens, geaccepteerd want zelfde de mid-sized die (de TU104) was al vrij groot met 545mm2 en de big die was helemaal idioot groot met 754mm2. Maar wat ze toen wel heel slim hebben gedaan is de prijs van de 2080 weer iets verhogen (699 naar 799) om een soort van nieuwe grens te stellen aan wat een XX80 GPU zou mogen kosten.
De 30 serie was niet anders, behalve dat ze de titan omdoopte tot 3090(Ti) wat op zich fair was aangezien het niet echt meer de titan was zoals ooit bedoelt. Maar zeker de 3090Ti was gewoon een domme grap met 2000 dollar MRSP.
En toen kwam de 40 serie, waar NVIDIA nog maar eens een stap verder wilde.
De 4090 is de enige met de big die, de 4080 16GB kreeg, zoals de laatste generatie de mid die. Maar ze dachten, laten we nog een stap verder gaan een een 4080 introduceren met een kleine die, die ze ook handig dezelfde naam hebben gegeven als de mid-sized die van de vorige generaties. Ze introduceerde dus een AD103, die in de vorige generaties meer een 104 die was.
Want laten we even een simpele vergelijking maken tussen bijvoorbeeld de 40 serie en de laatste betaalbare (als je het zo mag noemen) 900 generatie, voordat ze echt in hoog tempo met namen begonnen te kloten, en de 40 serie.

GTX460, GF104, 332mm2, 229$
GTX470, GF100, 529mm2, 349$
GTX480, GF100, 529mm2, 499$

GTX960, GM206, 227mm2, 199$
GTX970, GM204, 398mm2, 329$
GTX980, GM204, 398mm2, 529$
GTX980Ti, GM200, 601mm2, 649$

en kijk dan nog eens naar de 40 serie en hoe NVIDIA ze gepositioneerd heeft

RTX4070Ti, AD104, 294mm2, 799$ (en dit had dus een 4080 moeten worden, en daar zit de crux)
RTX4080, AD103, 378mm2, 1199$
RTX4090, AD102, 608mm2, 1599$

Het is gewoon ordinaire shrinkflation, of name inflation(?). Net hoe je het wilt zien. Ze hebben heel handig de namen omhoog geschoven en daarmee ook de prijzen ook. Want als je werkelijk gaan kijken naar de positionering van de chips over de jaren hee,n dan zie je dat er steeds kleinere dies in hoger gepositioneerde kaarten zijn gebruikt. Daar bovenop hebben ze de namen steeds verder omhoog getrokken, alsof er dus iets compleet nieuws geïntroduceerd werd; een hele nieuwe GPU "tier". En daarmee dus de prijzen hebben verhoogd.

En dat heeft ook zijn effect gehad op NVIDIA als bedrijf. Er mag ook wel gezegd worden dat ik als (ex) NVIDIA aandeelhouder daar een hoop geld aan verdiend heb. Want ik zag bij de introductie van de 600 serie voor mijn ogen gebeuren, het hele verhaal hier boven is daar werkelijk begonnen als je het mij vraagt. Daarna begon de winst, en vooral ook de winstmarge, van NVIDIA explodeerde. Zeker bij de server/cloud/HPC afdeling, maar relatief net zo hard bij de consumenten afdeling. Het is een slim spel en blijkbaar trappen er genoeg mensen in.

Tl;dr Ik ben het echt totaal met je oneens en NVIDIA speelt gewoon het klassieke shrinkflation spelletje.

Edit: Spelling. Te veel die en (GPU) "die" achter elkaar.

[Reactie gewijzigd door Thekilldevilhil op 22 juli 2024 13:33]

[...]


Dat is echt de grootste kul die er is en als je al werkelijk zo lang mee loopt weet je dat zelf ook wel.
Tl;dr Ik ben het echt totaal met je oneens en NVIDIA speelt gewoon het klassieke shrinkflation spelletje.

Edit: Spelling. Te veel die en (GPU) "die" achter elkaar.
Pardon? :X

Volgens mij zijn wij het helemaal niet zo oneens. Dat Nvidia een zo goedkoop mogelijke chip inzet zijn wij het over eens. Dat werd voor mij duidelijk bij de Geforce 600 reeks, dat was de eerste keer dat Nvidia flink geld begon te verdienen op hun gaming tak. Daarvoor kwam de winst vooral van de quadro kant, aldus hun jaarcijfers.

Maar Nvidia heeft destijds ook een video laten zien waarbij ze laten zien hoe ze nieuwe kaarten testen. Ze virtualiseren een kaart fysiek volledig; elke shader is een aparte pc/asic in een grote kamer. Daarmee tunen ze de boel tot ze een zo goedkoop mogelijke kaart te pakken hebben voor het gewenste prestatie niveau. Hoe beter de architectuur, des te compacter de chip. Dus ook Nvidia zal het niet met je oneens zijn.

Echter dat verandert voor mij niets aan mijn punt. Een kaart van $799 is geen midrange kaart. Een x70 was vroeger geen midrange kaart en is dat voor mij nu nog steeds niet. Hoe duur de hardware intern is om te maken heeft daar voor mij niets mee te maken. Een Cornetto is minstens net zo goedkoop om te maken als een willekeurig ijsje van de Lidl, echter dat maakt de Cornetto geen budget ijsje. Daar zijn ze te duur voor. Het heeft voor het midrange stempel wat mij betreft dan ook geen zin om naar oppervlaktes te kijken. Verder prima dat je laat zien dat we $500 dollar vroeger al high-end vonden. Dat is het referentiepunt waar ik op doelde en wat blijkbaar niet overkwam.

Tldr; Of iets midrange is wordt wat mij betreft bepaald door het prijspunt en $799 kun je geen midrange meer noemen, ook niet met de huidige inflatie.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:33]

Dus als ik een fles wijn van ca. 2 euro verkoop voor 50 euro (net als een concurrerende fles van 50 euro), is het plots "even high-end" te noemen? Dat is natuurlijk gewoon onzin.

Naast het prijspunt bepaalt namelijk ook de kwaliteit of het prestatieniveau van het product zelf of het high-end, mid-range of budget is. Een GTX680 was destijds ongeveer de snelste kaart die je kon krijgen en kostte ca. 500 euro, als je nu de snelste kaart wilt (de 4090) betaal je gewoon 2000+ euro. Dat is x4 voor hetzelfde prestatie-segment, of nog steeds x3 als je hetzelfde segment qua naamgeving wilt aanhouden (de 4080 is ook 1500+ euro, en is zelfs bijlange na niet de snelste kaart). Dergelijke stijgingen zijn zelfs met de huidige historische inflatie gewoon niet te verklaren. Dus: Een cash-grab van nVidia, niets meer niets minder.

Dat een RTX 4070 Ti de prestaties van de vorige high-end ongeveer evenaart, maakt het nog niet automatisch een high-end kaart in de huidige tijd. Ook de GTX 1070 was destijds ongeveer even snel als de GTX980, zonder dat daar een gigantische prijsstijging bij kwam kijken. Historisch gezien komen bij een nieuwe serie hardware altijd hogere prestaties naar een lager prijspunt. Dat is sinds de RTX2000-serie minder en minder het geval, hogere prestaties kosten gewoon meer en alle series (van xx90 tot xx60) kruipen een segment omhoog wat hun kostprijs betreft.

En ok, de kaarten worden nog steeds telkens (een pak) sneller, maar als nVidia daar vanaf nu ook steeds een prijsstijging aan zal koppelen zitten we tegen 2030 met een xx90-kaart van 10.000+ euro. Dit spelletje moet ooit eens gaan stoppen, of zelfs de xx50-kaarten worden onbetaalbaar |:(

(En natuurlijk zal het pas stoppen als mensen collectief beslissen dat deze prijzen exorbitant zijn, en dus even geen GPU's meer kopen. Dat lijkt een beetje wat nu aan het gebeuren is met de gigantisch dalende vraag, deels door de slechte economische situatie maar zeker ook wel door de steeds hogere prijzen. We kunnen maar hopen dat nVidia het snel voelt, en terug naar beneden moet schuiven.)
Dus als ik een fles wijn van ca. 2 euro verkoop voor 50 euro (net als een concurrerende fles van 50 euro), is het plots "even high-end" te noemen? Dat is natuurlijk gewoon onzin.
Dat is letterlijk hoe het met dat soort producten werkt. Een cornetto ijsje kost maar een paar cent om te maken. Het is product placement.

Uiteindelijk bepalen de klanten welke prijzen acceptabel zijn. Bij die mining hypes blijkt steeds dat er een behoorlijke bereidheid is tot het kopen van kaarten met veel n hogere prijzen dan we gewend zijn.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:33]

486 ? Ik had als eerste een 286 ....voel me ineens stokoud haha
Of iets een midrange kaart is, wordt bepaald aan de rangorde binnen de serie. Dit is een kaart uit de hogere midrange (xx60/xx70).

Dat de midrange van een nieuwe generatie qua prestaties aan de high-end van de vorige generatie komt is historisch gezien de norm. Dat noemt men vooruitgang.
dat een 4070 TI beter presteert dan een 3070 TI lijkt me vrij duidelijk, maar de MSRP die 200 euro omhoog gaat refereert dat dit een high range prijs is voor mid range prestaties, want deze prestaties meet je in dezelfde serie 40xx en niet met een 20xx of 30xx het enige wat we met die series kunnen vergelijk is wat prijs/prestatie is veranderd.
Anoniem: 63072 @sdk19855 januari 2023 11:57
Ik snap de kopers niet als ik op de verschillende fora kijk naar de setups.

Zo koop ik zelf altijd de snelste kaart die op een moment verkrijgbaar is en die gebruik ik tot deze niet meer voldoet voor nieuwe spellen en nieuwe schermen. Op dat moment koop ik wederom de snelste kaart. Dat lijkt door de prijs vooraf een hele dure optie, maar doordat ik een RTX 2080Ti had, kon ik de hele RTX 30 serie en RX6000 serie overslaan. IVm met monitor upgrade nu nieuw gekocht.

Als ik dan zie dat mensen met 2560x1440@60Hz monitoren dit soort kaarten kopen dan vraag ik mij af of zij van plan zijn om een monitor update te doen. Ik weet uit ervaring met bouwen van PCs voor anderen namelijk dat voor die refresh en resolutie een RX6750XT voor ca €450 alles speelbaar maakt, als je wat meer eisen hebt een 6800XT voor € 800 headroom biedt voor de toekomst. Prijs/performance is deze 4070Ti dan misschien wel beter, want de 6800XT is nieuw te duur voor een vorige generatie kaart. Maar als je het verschil in performance nooit gaat zien omdat je 1440p@60 speelt, dan blijft het geldverspilling.

En als je een klein gokje wil wagen, dan kan je teede hands een goedkopere 6800XT kopen voor. Die kaarten zijn niet dusdanig oud dat je een significant beperkte verwachte levensduur hebt.

Om maar niet te beginnen op de hele volksstammen die veel te dure kaarten kopen voor 1080p@60 of 1080p@75 schermen die schering en inslag zijn. Als je PCI-E 4.0 heb voldoet een RX 6650XT dan prima en voor een PCI-E 3 systeem wellicht een RX 6700XT.

[Reactie gewijzigd door Anoniem: 63072 op 22 juli 2024 13:33]

Anoniem: 25604 @sdk19855 januari 2023 07:50
Verder denk ik dat we het er wel mee eens zijn dat deze kaart geen $799 kost om te maken.
Hey hey hey, hey hey, hey hey!! Volgens The GodForceFather wel! En die heeft geen belang erbij dat de prijzen niet gerechtvaardigd en onderbouwd zijn en als wolkenkrabbers de lucht in schieten! O-)

Maar gelukkig hebben we Patje Da Singer nog, die een ander liedje zingt! (Als het hem uitkomt O-) )

Wij consumenten moeten geloof hebben in wat Patje Da Singer, Mama Lisa en The GodForceFather Jensen vertellen. En vooral blijven doorgaan met het aanschaffen van artikelen voor deze absurde (Zei ik dat nou hardop?) prijzen. 8)7

[Reactie gewijzigd door Anoniem: 25604 op 22 juli 2024 13:33]

@Trygve noemt het anders toch echt een midrange chip hierboven. Historisch gezien zijn de xx70(ti) kaarten ook altijd midrange kaarten geweest, dus we mogen aannemen dat Nvidia het ook zo ziet. Dan ben je denk ik toch in de minderheid met deze evaluatie.
Ik denk wel dat er een kern van waarheid in zit, dat Nvidia momenteel bewust de prijs van deze generatie hoog houdt en begint met het uitbrengen van de high end en zo zijn weg naar beneden vindt (in zowel de productrange als in prijspunt).
Of ze daar mee wegkomen hangt in grote mate af van de vraag of mensen warm lopen voor deze kaarten met bijbehorende prijzen, zo simpel is het. Als dit verhaal (bewust hoge prijzen tot de oude voorraad op is) gemeengoed wordt onder kopers zal het effect zijn dat velen de kat uit de boom gaan kijken om over 6 maanden potentieel 50% op de prijs te besparen.
Uiteraard mikt Nvidia met deze prijzen sowieso al op de vermogende consument, dus wellicht hopen ze dat bij hen de gedachtegang performance, at any cost zal zijn.
Of iets een midrange kaart is wordt bepaald door de vraagprijs.
Dat wordt bepaald door de marketing afdeling van Nvidia. Er is 1 low-end kaart, 1 mid-range, de rest is high-end of "enthousiast".
Plus dat ze nog met vrachten 3xxx kaarten zitten die ze aan de straatstenen ook niet kwijt kunnen omdat ze nu nog steeds hetzelfde of meer als 2 jaar terug kosten.

Als je nog een relatief moderne kaart hebt en je laat RTX lekker uit staan, dan heb je ook bijzonder weinig redenen om up te graden. Mijn 2080Ti houdt het nog prima vol bij alle games, ook met hogere resoluties.

Lekker laten liggen deze hele serie, misschien tonen ze bij de 5 serie aan dat ze iets geleerd hebben ;)
Indrukwekkend. Dan had ik mijn 3080 moeten verkopen en een 2080Ti moeten halen dan. Wat moeten ze geleerd hebben dan? Dat jij ze boycot? Ik vermoed dat je wereldvreemd bent. Mompelt iets over stakeholdersmodel bij een beursgenoteerde bedrijf en aandeelhouders tevreden stellen enzo.
Hij is niet wereldvreemd...hij is realistisch.
Jouw kaart de 2serie en die je nu hebt 3serie zijn niet energie zuinig
Punt is.. hoofdprijs betalen van een product.
Winst maken prima...maar niet zoals het nu gebeurt.
Reageer dan in ieder geval inhoudelijk op wat ik meld, jou reactie slaat kant noch wal.
Dan had ik mijn 3080 moeten verkopen en een 2080Ti moeten halen dan.
Eh hoezo???
Ik vermoed dat je wereldvreemd bent.
Nergens voor nodig om op de man te spelen ;)

Ik maak gewoon een realistisch punt. Het zal mij als consument een rotzorg wezen of ze aandeelhouders of wat tevreden moeten stellen. Dat moet de AH ook en een pak melk kost in 2023 ook niet ineens 3 EUR ...

Het gaat hier over de schandalige manier dat Nvidia zaken wil doen. Dat jij het allemaal normaal vind, tjah. Je bent wat dat betreft wel zwaar in de minderheid denk ik.
Ik moet het wel op de man spelen. Want ik vermoed dat je niet weet hoe de wereld in elkaar steekt. Aantal verkopen is niet belangrijk. Zodat de kwartaalcijfers van een onderneming groeit, interesseert het de aandeelhouders geen drol of jij ze nou koopt of niet. Dat terzijde heeft nvidia met de meeste technologieen gewoon een monopoliepositie. Alleen maar omdat jij en een paar anderen geen nieuwe kaart kopen, sinds de 2xxx-serie, en ze boycot vanwege de prijs betekent dat helemaal niks. 0.0.
Gewoon lekker op dezelfde manier doorgaan, jij komt er wel ;)
Prettige dag.
Idem. Heel veel succes toegewenst met je boycott! Gewoon doorzetten hé. Niet opgeven!!
Komt helemaal goed! XD
Wereldvreemd? Ze raken die krengen aan de straatstenen niet kwijt.
Niet mee eens heb mijn RTX 3080 verkocht en ingeruild voor 4080 omdat ik de prestaties op 4k vond tegenvallen. Ik heb in meerderheid van de games instellingen terug moeten schroeven om boven 60 fps te blijven. Ik speel dan ook geen kiddy games zoals fortnite, maar echt de zwaardere games.
Ik speel dan ook geen kiddy games zoals fortnite, maar echt de zwaardere games.
Fortnite is een verschrikkelijk zware game na de laatste grote update.
Zet alle toeters en bellen open en deze game krijgt zelfs jou dikke 4080 op de knieën ;)
De game is van engine gewisseld. En het is nog steeds dezelfde lelijke game( ok iets minder lelijk nu)met een verschikkelijk kiddy achtige stijl. Ik geloof je meteen als je zegt dat hij grafisch nu zwaar is. Waarom zou je dat doen voor een game als fortnite. Waarom zou je een game als fortnite zo veranderen dat hij grafisch minder toegankelijk is terwijl de stijl van fortnite niet veranderd is. Sla mij maar lek.
Dat is wat ik bedoelde met kiddy. Games die door jonge ukkies gespeeld worden. Geen verhaal hebben en alleen maar zo toegankelijk mogelijk gemaakt wordt zodat jongeren dit massaal kunnen spelen. Fortnite is dan uitzondering maar alle andere kiddy games zoals overwatch eb apex legends zijn in mijn ogen ook de moeite niet waard. Zoals Ludwig trouwens ook al zei 99% speelt niet op die instellingen dus is het dan ook de moeite waard dat te implementeren. Zodat zelfs een RTX 4090 het niet kan draaien DIKKE NEE dus

[Reactie gewijzigd door xChArGe_NL op 22 juli 2024 13:33]

Persoonlijk spreekt die stijl mij enorm aan, maar goed das maar net waar je van houd.

Inhoudelijk ben ik het volledig met je eens verder, ik snap de aanpassingen binnen Fortnite eigenlijk ook niet zo goed. Het merendeel van de kinderen speelt toch op een console of op een 1080P systeem, uitzonderingen daargelaten natuurlijk.
Ik heb eergisteren mijn 4090 mogen ontvangen. Warzone 2 alles op ultra met 140+ FPS steady.
Fortnite daarentegen, alles ultra, met geluk nog 40FPS. Het is weliswaar voor kinderen, maar daar zitten effecten in waar Warzone van kan dromen.
fortnite een kiddie game noemen vind ik een beetje kort door de bocht. Het is populair bij de kids ja, maar het is wel een game die technologisch gezien best wel vooruitstrevend is.

Sinds de meest recente patch support voor lumen en nanite, twee bleeding edge technieken die je in zo goed als geen ander spel terug vindt en als je gebruik maakt van die feature mag je met een flinke pc aankomen. Jouw RTX 4080 haalt op 4K epic in die kiddie game met lumen en nanite aan maar 45 fps hoor ;)

https://www.techspot.com/...-xtx-vs-geforce-rtx-4080/

dus ik denk dat het grootste deel van de games die jij speelt een stuk lichter zijn dan fortnite kan zijn met alle toetere en bellen aan. Of jij moet altijd op 45 fps gamen met je 4080, dat kan natuurlijk

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:33]

Anoniem: 25604 @youridv15 januari 2023 08:18
Precies! Ik ben ook geen Fortnite speler, maar het is wel de eerste game die volledig gebruik maakt van de zwaardere Unreal 5 engine.
Maar het is nou eenmaal leuk voor sommigen om hun aversie voor bepaalde games "objectief" te uiten wanneer het ff kan.
99% van de spelers speelt niet op deze instellingen, die in de realitieit alleen goed werken bij benchmarks. 1080 comp settings of de standaard instellingen, is waar de kids op spelen.
Dat kan goed zijn, maar dat interesseert mij niet zo veel.

Wat mij interesseert aan fortnite zijn nieuwe ontwikkelingen in de unreal engine die in fortnite geshowcased worden.

Als je fortnite als esport ziet dan kun je inderdaad beter optimale settings voor competitive play instellen.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:33]

lol, ya lost me at pubg een kiddy game noemen... Grafische stijl = totaal niet gelijk aan wat voor publiek het speelt. Ook overwatch is echt geen kiddy game, een mp shooter met een van de hogere skill curves die je kunt vinden in een spel.
Een sp game als CP vergelijken met een mp shooter, is ook appels en peren. Je mag de ene game leuker vinden dan de ander, maar graphics definiëren echt niet welk publiek er op af komt. Dat is de gameplay voornamelijk. overrigens, CP is echt niet zo hoogstaand als dat je doet overkomen, het ziet er wel ok uit, ik vind het ook leuk om te spelen maar hoogstaand? nee hoor.
Technologisch vooruitstrevend bedoel ik mee dat het op de nieuwste versie van de unreal engine draait en twee leuke nieuwe technieken pioniert omtrent belichting en resource loading. Lees je maar eens in over bijvoorbeeld nanite. Ontzettend gave tech

de raytracing implementatie van fortnite is ook technisch beter dan die van cyberpunk, die zich op raytracing vlak niet echt heel erg onderscheid van de andere rtx/dxr games

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:33]

Ah oke, persoonlijk vind ik een techniek die het oer oude probleem van LOD’s, pop in etc oplost een heel stuk interessanter dan wat leuke textures, maar dat ben ik.

Dat je niet weg bent van de style, kan ik me goed voorstellen, ik ook niet

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:33]

Onzin: het enige wat er midrange aan deze kaart is is het nummer!
Voor jou was alles OK geweest als de kaart de 4080 zou heten: ironisch genoeg is dat precies hoe hij oorspronkelijk heette... en dan de 4080 de 4085 o.i.d. noemen?
Deze kaart is bij rasterization de 6e kaart ooit en bij raytracing de 4e met allen 3090, 4080 en 4090 boven zich. Weet je wat tegenwoordig mid range is: de 3060 of zo, ik denk dat als je op steam o.i.d. gaat kijken je daar ergens als gemiddelde beland. Een groot deel van de spelers zit nog op een 1070 o.i.d.
Eigenlijk vind ik de prijs helemaal niet zo slecht... voor de prestaties, niet voor een xx70 kaart.

[Reactie gewijzigd door batteries4ever op 22 juli 2024 13:33]

Ik denk dat de gemiddelde speler eerder in de buurt van een gtx1060 / Rx 570 zit.. De wereld is fors groter dan Nederland.
https://store.steampowered.com/hwsurvey/videocard/ valt tegen (ja is niet 100%, maar wel een goede indicatie)
Ja, je zou eigenlijk de data moeten exporteren om te weten wat het gemiddelde is, maar ik vind iig dat er altijd opvallend veel low-end gpu's en apu's instaan ;)

Wereldwijd is het gemiddeld sws geen 1070.


China, Rusland & Afrika zijn overigens volgens mij op Steam behoorlijk ondervertegenwoordigd, dus hoewel dit een leuk beeld geeft van "het westen" en ik het altijd interessant vind, is het ook niet echt het laatste woord als het over wereldwijde cijfers gaat =)
is het ook, en dat is ook wel logisch gezien het over grote deel van de planeet niet de luxe heeft voor high end current gen kaarten :) (zelfs als dit alleen het westen is)
Hoezo snap jij er niets van? We doen het zelf, we betalen het gewoon. Dan zou je als bedrijf toch gek zijn daar geen gebruik van te maken?

Ik snap niets van de klagende reaguurders hier. De oplossing is simpel, niet kopen.

Ter nuance snap ik prima dat je het niet leuk vindt als je er perse één wil hebben, maar als je er dan toch één koopt voor volgens jezelf teveel geld, doe je zelf mee aan die gekte. Ik doe niet mee, ik speel de komende jaren gewoon nog met mijn high-end systeem uit begin 2017 tot die op is. Daarna koop ik een machine van de vorige generatie, misschien (deels) 2ehands of desnoods een spelcomputer. Resultaat: ik hoef me niet te ergeren.
Makkelijk praten he voor anderen, ik heb niet een kaart gekocht voor dat geld. Waarom is het niet te snappen dat mensen klagen? Je kunt ook gewoon klagen omdat een bepaalde trend je niet aanstaat, dat heeft niets te maken met het feit dat je zelf zo'n kaart moet aanschaffen.

Ik heb vorig jaar 2e hands een kaart gekocht terwijl ik daarvoor een GTX970 had sinds 2013. Een van de laatste serie kaarten die nog enigsinds betaalbaar waren, net zoals de 10xx dan.
Volgens mij snap je mijn bedoeling niet. Je doet het zelf, zowel het tegen je zin in toch betalen van die volgens jou te hoge prijs en je humeur erdoor laten verpesten.

Daarnaast houdt men totaal geen rekening met de enorme inflatie, dat heb ik niet eens genoemd. Na inflatiecorrectie valt de prijs van deze kaart best wel mee vergeleken met wat de 3080 en de 6950XT kosten momenteel, kaarten met ongeveer dezelfde performance.

Kom nog iets bij ook. Ik kom hier al bijna 25 jaar en dit gezannik over geld en de macht van merk X is al zo oud als dat Tweakers is. Alleen destijds werd er veel strenger gemodereerd, dus vaak waren dergelijke niets bijdragende posts snel weg.

[Reactie gewijzigd door ABD op 22 juli 2024 13:33]

Wat heeft mijn humeur er mee te maken, helemaal niets dus.

Die inflatie onzin weer, ga eens het internet op en bereken het eens. Ik heb mijn GTX 970 gekocht in 2013 voor €364,-. Met alleen de inflatie zou deze kaart in 2023 maar €424,- zijn. Waar komt die andere €576,- dan vandaan?

Je kunt de kaarten niet vergelijken, maar je kunt al zien dat de verhouding compleet scheef zijn. De enige reden dat Nvidia dit kan doen is door de extreme vraag paar jaar geleden mede door de crypto gekte en het gebrek aan concurrentie.

Toch grappig dat je zit te zeuren over mensen die klagen en je zelf niets anders doet dan zeuren over mensen die klagen. Waarom nem je uberhaupt die moeite om er op te reageren, ik ga mijn mening echt niet aanpassen omdat jij vindt dat ik dit niet mag zeggen op dit platform.
Nvidia en AMD werken inmiddels samen inplaats van tegenelkaar. Zie de gecreeerde schaarste en deze gelijke ontwikkelingen.

De 4080 12gb word een 4070 ti terwijl het gewoon een 4070 is.

De nieuwe 7900xt is eigenlijk een 7800xt.

[Reactie gewijzigd door SactoriuS op 22 juli 2024 13:33]

Leuk man, die nieuwe performance per watt overzichten.. Zal Nvidia etc blij mee zijn, want dan lijkt het toch nog heel wat qua "verbetering".. Logisch dat een nieuwe snellere generatie videokaarten minder stroom nodig heeft om dezelfde prestaties neer te zetten, duh.. Laat eens een overzicht zien van prestaties per euro, de zogenaamde prijs/prestatie verhouding.. Als je die zou zien in verhouding met vorige generaties dan schieten de tranen in je ogen..
Zo was de azijn lekker :D?

Ik vind het juist een hele knappe prestatiewinst van NVidia, framerate en energieverbruik onder load zijn aanzienlijk verbeterd.

Gemiddeld bv 4070ti vs 3080fe, meer dan 20% FPS winst ingaming, terwijl energieverbruik rond de 20% ook nog eens afneemt! Voor hen die veel gamen of andere GPU intensieve zaken is het wel zeker interessant om die winst te pakken en je oude 30xx series kaart te verkopen.

[Reactie gewijzigd door n00bs op 22 juli 2024 13:33]

Zal allemaal wel.. Hij is ook 20% duurder dan de 3080, dus wat dat betreft is de vooruitgang is 0,0..
Dan valt de prijs dus nog allemaal mee en is het niet zo overdreven als velen stellen.
Note: ik vind zelf de prijs veel te hoog om uit te geven. Maar in verhouding tot de 3080 is het de betere koop en zeker dan nog de energietarieven erbij genomen...
We zijn ruim 2 jaar en een generatie verder, naast die zogenaamd betere efficiëntie hadden we ook wel flink betere prestaties mogen zien voor hetzelfde geld als de vorige generatie.. Dat is het probleem nu, die krijg je niet.. Ja, als je evenredig of zelfs meer geld neerlegt ervoor.. Een RTX 4080 kost nu gewoon doodleuk 2x zoveel als de 3080 bij launch, voor 40-45% meer prestaties.. Dat is een achteruitgang in prijs/prestatie met een factor 2..

Ik koop al meer dan 25 jaar losse videokaarten en zulke extreme prijsstijgingen van één generatie op de andere heb ik nog nooit meegemaakt.. Zelfs de prijsstijgingen van de 20-serie na de 10-serie van Nvidia waar iedereen zich zo druk om maakte in 2018 waren kinderspel vergeleken wat er nu gebeurt met de adviesprijzen van de 40-serie.. En dan gaan sommigen het nog proberen goed te praten ook.. 8)7

[Reactie gewijzigd door Inflatable op 22 juli 2024 13:33]

Heb je gezien wat er buiten de videokaartenmarkt wel gebeurt? ik betaal in 2 jaar bij de supermarkt ~60% meer voor mijn boodschappen. Energierekening in 10 jaar, 10x gestegen!!! zo kan ik nog wel doorgaan.

Invloeden op de wereldmarkt, immigraties, covid, ukraine, energietransitie, het kost allemaal bakken met geld en overal zie je die rekening terug!
Overdrijven is ook een kunst.. In 2021 was de inflatie op jaarbasis nog geen 3% en in 2022 rond de 9%.. Wat bovendien hoofdzakelijk lag aan de stijgende gas- en olieprijzen vooral in de 2e helft van 2022 die nu dus alweer flink gedaald zijn naar waarden van voor februari 2022.. Dan kom je dus uit op een gemiddelde inflatie van zo'n 6% sinds 2020.. De inflatie is dus geen rechtvaardiging van de veel hogere adviesprijzen van de nieuwe generatie videokaarten t.o.v. de prijzen in 2020..

Dat supermarkten ook misbruik van de situatie maken geloof ik trouwens wel.. Even snel Googlen en je vindt artikelen over record omzetten en winsten bij o.a. Jumbo en AH in 2022.. Met marges tot wel 13% hoger.. Goh, verrassend..

[Reactie gewijzigd door Inflatable op 22 juli 2024 13:33]

Je vergeet de dollar euro koerst. Ik heb gezien hoe de we binnen 1 jaar tijd van 1 euro = 1,20 dollar naar 1 euro = 0,96 dollar zijn gegaan. Dat is ook een mooie 20% afname.

Misschien moet Europa zelf eens wat innovatiever worden en eigen producten gaan maken zodat we niet zo afhankelijk hoeven te zijn van andere landen. Wie weet doen we het ooit eens zo goed dat onze producten gekocht worden in plaats van andersom.
Zolang ondernemers en CEO's hun rug rechthouden en zich niet blindstaren op de geldzak bij invasieve overnamens is er nog hoop. Tegenwoordig is er telkens minder Hollands glorie wat grote internationale impact heeft. Shell, Philips, Unilever, Stern, om er maar een paar te noemen.
Mijn energielasten bij zelfde verbruik was 10 jaar geleden 25 euro pm, nu 250pm, gelukkig prijsplafond.
Elk jaar overstappen leverde altijd veel leuke acties op! Dus nee is niet overdreven. Idem niet voor mijn boodschappen. Ik doe boodschappen bij de AH en koop zoveel mogelijk bonussen. Ik zie het aan wat ik betaal voor dezelfde artikelen.

Ook de inflatie die je aanhaalt klopt niet. Dat is ook vaak genoeg met onderbouwing onderuit gehaald. Die inflatie ligt echt veel hoger.
Welke bonus?bonus uit eigen broekzak ja.
AH is de duurste winkel.
Dat is de hele marketing truc, een hoge range kaart voor absurd bedrag verkopen zodat de "mid range" ten opzichte van vorige generatie veel goedkoper is en beter presteert. deze kaart had gewoon een 4080 moeten zijn gezien deze prijs, en idem bij de vorige generaties deze prijzen zijn relatief gezien door team groen slim bedacht maar goedkoop is het niet.
Tsja voor 100 euro kocht je vorig jaar ook 120 dollars. Het gaat nu weer iets betere kant op (106 dollar) maar in oktober kreeg je nog maar 96 dollar voor 100 euro. Als we dat even mee rekenen valt het wel mee met hoeveel duurder hij is. Onze munt is ook gewoon enorm in waarde gekelderd.
Het bittere is dat je dus in plaats van een normalisatie van de prijs na de cryptoboom en chiptekorten, geen daling krijgt maar simpelweg een verdere opslag. Je zou zeggen dat het in het slechtste geval tegen elkaar weg te strepen zou zijn, maar hier kunnen zelfs de tankstations nog een puntje aan zuigen.
Alleen over het afgelopen jaar is de inflatie al hoger dan 20%, dus dan valt die prijsverhoging nog wel mee.

Overigens was de in werkelijkheid 3080FE veel duurder, dan wat jij beweert. De 3080FE zat gemiddeld boven de 1000, zeker bij de release.
Erg jammer dat er nauwelijks sprake is van een sprong op het gebied van prijs-prestatie die je met de introductie van een nieuwe generatie videokaarten mag verwachten.

Kosten per frame op 4K, MSRP (US dollar):

4070Ti: 9,19 dollar per frame.
3070Ti: 10,34 dollar per frame.

Kortom, een bijna gelijke procentuele toename van frames voor iedere geïnvesteerde dollar.

Bron: review Hardware Unboxed.
Dus in principe bijna een 3090Ti, maar dan verbruikt hij tot 40% minder. Ik vind dit tot nu toe de meest interessante 4000 kaart.
De tot nu toe minste slecht geprijsde ja, maar dat is ook niet zo moeilijk met een schandalig te dure 4080 en 4090.. Het is nog steeds maar amper 20% meer prestaties dan mijn RTX 3080 die ik in 2020 kocht voor 800 euro, maar dan wel doodleuk nu voor ongeveer 200 euro meer.. Dat is dus nog steeds een achteruitgang qua prijs/prestatie verhouding.. Deze hele nieuwe 40-serie generatie is wat dat betreft één grote teleurstelling en in feite een klap in het gezicht van PC gamers.. Maar het was wel te verwachten natuurlijk dat een bedrijf als Nvidia misbruik zou proberen te maken van de in 2021 ontstane situatie op de videokaart markt.. Dit is een beetje dezelfde situatie als met de 20-serie, alleen nog veel erger.. Hopelijk corrigeert de markt de boel in de loop van 2023 (verkopen die zwaar tegenvallen) en wordt Nvidia gedwongen met een goedkopere volgende generatie te komen, net als na de 20-serie met een 30-serie die een veel betere prijs/prestatie verhouding had... En voorlopig ook even geen (Covid19) crisis meer en/of crypto mining hype die de boel helemaal over de zeik helpen..
Dan heb je heel veel geluk gehad met je 3080. De meeste varianten haalden zes maanden geleden het dieptepunt van 900 euro. Rekening houdend met zo'n 5% inflatie heb je nu dus voor minder euros, toch 20% meer frames. Nee het is geen gigantische knal voorwaarts, maar heel slecht vind ik het ook niet.
15% inflatie over twee jaar, niet over zes maanden.
Belachelijk hoog door ECB monetair wanbeleid en het al jarenlang niet meenemen van huizenprijzen in het inflatiegetal. Daarnaast nog een dikke 20% verlies in waarde van euro ten opzichte van de dollar. Maak het niet mooier dan dat het is :)
Tot eind 2020 kon je de 3080 gewoon voor normale prijzen kopen.. Ok, je moest er wel wat moeite voor doen en uitzoeken welke waar geleverd werd etc want de vraag was toen al groter dan het aanbod, maar het kon wel.. Enige geluk dat ik had was dat ik het op tijd gedaan heb, want vanaf eind december 2020 begin 2021 gingen de prijzen de lucht in..

Grootste oorzaak? Zie de Ethereum koers rond die tijd..
Je kan hem zelfs vandaag de dag nog niet voor msrp kopen, dus wat vind je dan een normale prijs?
Rond de 800 euro.. Voor een custom AIB model.. Dat heb ik er ook voor betaald in december 2020..
Dat is zeker een normale prijs inderdaad. Al moet ik zeggen dat ik je opmerking verkeerd had gelezen en dacht dat het om eind 2021 ging.
Eind 2020 was de kaart nog niet zo lang uit en was het vooral het probleem dat je hem in zijn geheel bijna niet kon kopen. Als dat wel lukte bij een winkel was de prijs inderdaad vaak nog normaal. Om dan te zeggen dat je hem "gewoon" kon kopen vind ik zelf dan wat overdreven. Al is het zeker mogelijk dat je daar wat geluk mee hebt gehad en dan kan ik me voorstellen dat je dat als gewoon hebt ervaren.
De prijs was toen nog gewoon normaal, dat bedoel ik.. Niet de gekte en waanzin waarin we vanaf begin 2021 leefde en waar Nvidia nu op verder probeert te borduren met hun schandalige adviesprijzen voor de nieuwe 40-serie..

Ik mag hopen dat hun verkopen compleet instorten in 2023.. Dat ze flink moeten zakken met hun prijzen terug richting het oude normaal.. Dat je 2e helft 2023 een nieuwe RTX 4080 kan kopen voor minder dan €1000,-.. Omdat de verkopen erg tegenvallen en Nvidia met een RTX 4080Ti komt die ook rond de 1400 gaat kosten.. Daar hoop ik op.. De 4090 zal ook wel zakken in prijs zodra ze met een nog snellere 4090Ti ofzo komen.. Er is nog enige hoop dat we deze generatie wel voor veel redelijkere prijzen kunnen gaan kopen, maar veel zal dus gaan afhangen van de verkoopcijfers.. Hopelijk gaan de meeste kopers ook weer normaal doen en hun verstand gebruiken..
4070 ti is toch een 200-300 euro goedkoper al de ongeveer hetzelfde presterende 3090 en 3090 ti die na de zomer voor ongeveer 1200-1400 euro over de toonbank gingen. Ik zou bijna zeggen... koopje. :)
Dat is misschien nog wel het tragische van het hele verhaal. Echter kost een 3090Ti tweedehands je momenteel minder geloof ik. Dat is meer een discussie korte vs. lange termijn natuurlijk.
Blijft dat deze kaart nog steeds geen echte goede prijs/kwaliteitverhouding heeft.
Ik begrijp de prijsstelling van Nvidia gewoon niet.
Een 3090 staat in de pricewatch voor € 1652,-
Deze kaart heeft dezelfde prestatie en kost € 1000,-
Dan klopt er toch iets niet.
MSRP is 1000 euro, in de winkel is af te wachten.
3090 heeft ook 1100 euro nog gekost toen de prijzen niet absurd hoog waren.
MSRP is 1000 euro, in de winkel is af te wachten.
3090 heeft ook 1100 euro nog gekost toen de prijzen niet absurd hoog waren.
Maar dat was wel pas september/oktober/november 2022, toen de RTX3000 reeks al 2 jaar oud was.
Pas in juni beginnen de prijzen terug te gaan naar war ze ooit startte, vergelijken toen er crypto gekte en schaartste was nu is wat absurd een 3080 kostte 2000 euro op de piek. Duurder dan een 4090 nu.
vergelijken toen er crypto gekte en schaartste was nu is wat absurd
Maar prijzen van aan het begin van een generatie vergelijken met die van aan het einde van een generatie is ook niet direct heel representatief he.
Je bedoelt op hetzelfde moment? Lijkt me wel de manier om te vergelijken, de naam geving van kaarten is maar indicatief en los en eerder waar ze in het aanbod passen en niet iets vastliggend.
Ook redelijk belangrijk is het verschil in VRAM. allebei GDDR6X, alleen 12 vs 24 GB
Ik weet niet of ze de prijzen zomaar mogen doen kelderen zonder gezeik van overheden over price gauging / misbruik van machtspositie. Dus dan maar zo.
als je deze voor 1000 kan krijgen tenminste,
Een 4070 Ti heeft 12GB, een 3090 24GB, zo zijn er nog wel meer verschillen.

En de prijs in prijs die de verkoper stelt, niet Nvidia. Die kan er voor vragen wat deze wil.
De 3090 wordt al lang niet meer gemaakt en is niet meer relevant. De webshops die nu nog met onverkochte kaarten zitten hadden ze misschien beter met een flinke korting kunnen verkopen voor de 4000 serie lanceerde.
De 3090 heeft 24 GB. Dat was voor ons bedrijf reden om daarvoor te kiezen; onze AI trainingsdata past niet meer in 12 GB.
Beetje vreemd om dit aan te halen als er geen voorraad is bij anders shops. Slechts 1 aanbieder, allen een vage amazon marketplace verkoper. Je kan pas vergelijken als er een stuk of wat fatsoenlijke winkels dezelfde kaart aanbieden.
Een gebruikte 3090Ti kost op dit moment €1100 niet €800.
Echter kost een 3090Ti tweedehands je momenteel minder geloof ik
Logisch ook, al kost de 4070ti 300 euro meer, dat kan nooit lang duren eer je dat terugverdient hebt.
Nou dat duurt wel ff hoor! Er zit een kleine 78 Watt verschil onder load tussen die twee kaarten. Bij een gemiddelde prijs voor energie van 76 cent per KWh, moet je dus 394,74 kWh verstoken voor je het verschil eruit hebt. Dat betekent dat je 5060,73 uur moet gamen. Zelfs als je elke dag van het jaar 3 uur zit te gamen dan ben je nog bijna een jaar of 5 bezig.

Edit: rekenfout gemaakt in het verschil in verbruik, mijn welgemeende excuses! Dat is 171,81 W en niet 78 Watt... Dus dan kom je op 2296,54 uur!! Excuses!

[Reactie gewijzigd door Julian op 22 juli 2024 13:33]

Daar komt ook nog bij dat we nu een plafond hebben en dat stroom voor onder de 10cent gaat op de "markt".
Je mag die 5k uur op ze minst verdubbelen.
Aja helemaal niet aan gedacht! Het prijsplafond is 40 ct / kWh. Dan moet je dus 9615,38 uur gamen om het verschil eruit te halen! Met elke dag 3 uur gamen dus een jaartje of negen.

Nog even voor de duidelijkheid de berekening:
  • 300 euro verschil.
  • Prijs per kWh 40 ct / kWh.
  • Verschil in gebruik onder load: 78 W
  • Aantal kWh te verstoken voor het prijsverschil: 300 / 0,4 = 750 kWh.
  • Aantal uren gamen voor je dat helemaal verstookt hebt: 750000 Wh / 78W = 9615,38 h
Edit: rekenfout gemaakt in het verschil in verstookt vermogen, dat is 171,81 Watt en niet 78 Watt. Dus dan kom je op 4365,29. Excuus!

[Reactie gewijzigd door Julian op 22 juli 2024 13:33]

Het prijsplafond geldt (vooralsnog) alleen voor 2023, dus vanaf 2024 moet je weer met de reguliere prijs rekenen (wat die dan ook moge zijn). Maar ik denk dat je dan alsnog op iets van 6 jaar uitkomt.
Plus dat die warmte in de winter niet weggegooid is maar er voor zorgt dat je minder hoeft te stoken.
Of 's zomers extra moet koelen...
Het is alleen niet fair om de prijsplafond prijs te gebruiken, omdat heel veel huishoudens dik boven die 2900 kWh zullen zitten, zeker wanneer je luxe producten gaat gebruiken zoals een high end game PC. Een game PC met 3090Ti en een behoorlijke CPU verbruikt per jaar al 500 kWh wanneer deze 3 uur per dag gebruikt wordt. Je modem/router combo verbruikt al snel dik 175 kWh per jaar.

Voor luxe producten zal je toch echt de gewone prijs moeten berekenen, want het plafond is echt niet dekkend.

Daarnaast moet je ook kijken naar idle verbruik, wat bij de 3000 series bijna 10-15W hoger ligt.
Ik was contractloos en heb nu stroom van Tibber, in de nachtelijke uren krijg ik zelfs geld toe(!) als ik stroom ga verbruiken. Hoe rekent dat voor jou?
https://tibber.com/nl

[Reactie gewijzigd door j4ck1nth3b0x op 22 juli 2024 13:33]

Haha dat is wel nice. 's Nachts geld toe? Je zou denken dat dat juist overdag is als alle zonnepanelen overuren draaien...? In elk geval leuke tip, ik ga ernaar kijken!

Maar zoals iemand anders ook al zei, soms is het juist prima om veel energie te verbruiken, b.v. in de winter is het productief om restwarmte te produceren... Ik heb ook wel eens in de winter toen mijn vloerverwarming het een tijdje slecht deed wat lopen minen.
Waar haal je 78W vandaan? In de review gaat het om bijna 200W verschil.
Kuuuut je hebt gelijk rekenfout in het verschil! Ik zal de posts aanpassen. Het verschil is 171,81 W onder load volgens pagina 16 van de review. Excuses!
Wilde ik altijd al ff doorrekenen. Mooi dat je het gedaan hebt.
Mensen onderschatten de terugverdientijd van zuinige(r) toestellen. Vaak moet je het eigenlijk vooral uit principe doen (voor het milieu) in plaats van voor het geld.
Het gaat niet alleen om de uren dat je gamed. Het gaat om alle uren dat de computer aan staat. Bij mijn zoon staat de computer gemiddeld zeker 6 uur per dag aan als hij dagelijks naar de opleiding gaat. Inmiddels zit hij in het 3e jaar en staat de computer gemiddeld zeker 10 uur per dag aan. Met 6 uur per dag maak je die 2296,54 uur in net iets meer dan een jaar.
Best lekker als je een 3090TI 2e hands kan kopen voor 619 euro. dat zie ik dus never niet gebeuren!
Dat is toch logisch? Je kan nooit meer tweedehands vragen als wat een vergelijkbare kaart qua prestaties nieuw kost.
Die minder kosten komen vaak uit mining rigs. Die zou ik niet willen.
De meest interessante kaart van deze hele generatie tot nu toe wat mij betreft.
Ik zie het wel somber in voor de prijzen van de 4060(TI) en non-TI 4070.
Ik vind dat het allemaal beter overkomt dan het eigenlijk is.
Ik vond hiervoor de 7900xt een absurd slechte kaart qua prijs/performance. Maar deze 4070ti laat de XT uitzien als een goede kaart. 8)7
Gebaseerd op de die-oppervlakte is dit een xx60, hoe je er ook naar kijkt:
  • verhoudingsgewijs: de 4070 ti is ongeveer 45% van de xx90 kaart, net zoals de 3060 tov de 3090.
  • In absolute waarde: de 4070 ti is ongeveer 295mm^2, de 3060 276mm mm^2 (de 3070 was 392mm^2)
Dat, plus het feit dat nVidia eerst probeerde dit onding als een xx80 te verkopen.
Dat, plus het feit dat hij duurder is dan de RTX 3080 bij launch.

Nee, dit is niet iets interessant. Dat je het overweegt zegt vooral iets over de abominabele staat van de GPU-markt en de oneindige hebzucht van nVidia, een klantonvriendelijk bedrijf dat helaas zo goed in marketing is dat ze hun klanten in het gezicht trappen en hun fans dan om meer vragen.

[Reactie gewijzigd door kiang op 22 juli 2024 13:33]

Qua chipoppervlak zit de kaart tussen de 3060 en 3070 in. Wat betreft de bus heeft deze kaart weliswaar de bus van de 3060, maar veel meer cache, wat ervoor zorgt dat hij presteert als een kaart met een grotere bus. Dus ik vind deze kaart het meest vergelijkbaar met een 3060 Ti.
Qua chipoppervlak zit de kaart tussen de 3060 en 3070 in
...Sorry, maar hij is 6% groter dan de 3060, en 25% kleiner dan de 3070. Dan zeggen dat hij 'er tussen zit' is technisch waar, maar een onzinargument.

Het is een xx60 klasse chip.
Bij de 3060 Ti is ongeveer 20% van de shaders uitgeschakeld, terwijl dat niet het geval is is voor de 4070 Ti.
[...]


...Sorry, maar hij is 6% groter dan de 3060, en 25% kleiner dan de 3070. Dan zeggen dat hij 'er tussen zit' is technisch waar, maar een onzinargument.

Het is een xx60 klasse chip.
Nvidia simuleren hun kaarten fysiek om zo een bepaald prestatie niveau te behalen met een zo klein mogelijke kaart. Ze hebben hier weleens een filmpje van laten zien. De boel draaide in een ruime kamer en elke shader was een losse computer/asic. Hoe beter de architectuur is gelukt, des te kleine de kaarten. Uiteindelijk wordt het performance target bepaald door de concurrentie en bij gebrek daar aan door hun eigen doelstellingen. Dat laatste om de vervang markt in leven te houden.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:33]

Voordat je dit de meest interessante 4k kaart noemt, zou je eens de review van Gamer's Nexus moeten zien op YT. De prijs/prestatieverhouding tov de 3080/3090Ti is ronduit schokkend. Vergelijkbare prestaties maar dan 40% duurder. Deze GPU wordt in alle reviews (terecht) afgefakkeld behalve op Tweakers.

[Reactie gewijzigd door Anoniem: 238040 op 22 juli 2024 13:33]

Wat een uitgebreide review was die van Tweakers: 5 volle minuten...
Tot nu toe wel, maar dat hangt natuurlijk compleet van je eisen/verwachtingen af. Voor mij (en de meeste mensen) is de sweet-spot toch altijd het xx60 model.

Met de huidige prijzen verwacht ik dat veel mensen zelfs voor een xx50 kaart zullen gaan, puur omdat ze voor een GPU niet meer willen betalen dan wat een console kost.
Ja dit is op zich een prima kaart. De 3070Ti bood ten tijde van release ook performance die ongeveer gelijk was aan het flagship model van de vorige generatie(de Titan RX geloof ik?) en koste bij release ook ongeveer 900 euro.

Het enige wat een beetje blijft bijten is dat de 3070 Ti natuurlijk zoveel koste omdat we midden in de crypto boom zaten. Het was toch wel fijn geweest als de prijs van de 4070 Ti een beetje meer richting de 750 euro van de 2070 super was gekropen.
Nee hoor, afhankelijk van waar je kijkt is het de performance van een 3080 tot iets onder 3090 , enkel raytracing komt in de buurt van 3090 ti .
Ik sla deze hele generatie over denk ik, al was ik anders van plan. Heb destijds een 3070 gehaald voor 700 euro, dan kan ik nu 1000 gaan betalen voor een 4070 die 30% sneller is? Een paar jaar later?
upgraden van de 970 naar de 1070 was het ook niet waard, van de 1070 naar de 2070 ook niet, van de 2070 naar de 3070 ook niet. Het gat is in sommige van die gevallen groter dan hier, maar upgraden naar dezelfde kaart, maar dan 1 generatie nieuwer, is het eigenlijk nooit waard

ik snap dat het feit dat deze kaart flink duurder is dan zijn voorganger zout op de wonden strooit, maar de specifieke upgrade die jij had willen doen, is nog bijna nooit een goed idee geweest vanuit een value for money perspectief
Uitzonderingen zijn situaties waarin jij een specifieke game speelt waar je huidige kaart niet genoeg geheugen voor heeft, maar de nieuwe wel, waardoor de performance toename voor jou veel groter is dan de gemiddelde toename over meer games.
Een andere is wanneer de nieuwe kaart een nieuwe feature heeft die jij per se moet hebben.
Volgensmij is de DX12 support van de 770 volgensmij nihil? en die van de 970 is prima. Dus dat is een uitzondering

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:33]

De tijd dat je elk jaar moest upgraden omdat de games zoveel zwaarder werden, is naar mijn gevoel ook voorbij. Graphics zijn nog altijd leuk, maar ik heb de indruk dat tegenwoordig die vooruitgang wat stilgevallen is en meer terug naar gameplay wordt gekeken. VR daarbuiten gelaten, want dat is een geval apart.
Had ik ook al opgemerkt. Dat komt volgens mij omdat de meeste games voor 2020 consoles worden ontwikkeld.

Zodra de Xbox X2 uit komt (gokje voor naam) gaan game devs weer iets nieuws uit de kast toveren. Ik vermoed een focus op raystracing. Heel mooie tech maar voorlopig zie ik games er niet echt mooier van worden buiten wat weerspiegelingen in het water.

Het zal tot 2025/2026 duren voordat we een echte nieuwe raytracing boost gaan zien. Beetje wachten tot consoles nieuwe GPU’s gaan krijgen.

Alle kaarten die nu 1.5 a 2x de performance van consoles hebben zijn gewoon extreem duur.
Ik denk dat dat meerendeels komt omdat videokaarten simpelweg boven 1080p en 1440p uitgestegen zijn. Zolang je nog geen 4K monitor hebt, duurt het heel lang voordat je rekenkracht te kort komt.
Klopt, maar het feit dat de nieuwe generatie nu zo enorm veel duurder is (in sommige gevallen prijs gewoon verdubbeld, zoals bij de 3080->4080) maakt het alleen maar nog veel slechter..
Ja klopt, dat is inderdaad zwaar klote.

Simpelweg vraag en aanbod helaas. 2 jaar lang hebben nvidia’s klanten voor veelvouden van de adviesprijzen kaarten besteld. Daar krijg je prijsstijgingen van
Van een gtx970 was een behoorlijke sprong voor mij naar een 1070, was sneller dan een gtx980ti.
Maar het is misschien persoonlijk.
Een behoorlijke sprong zal het best zijn geweest, maar dat is het van een 3070(ti) naar een 4070ti ook en was het van de 2070 naar de 3070 ook, maar ik ben niet van mening dat de sprong groot genoeg is voor de prijs die je betaalt, gegeven wat je al hebt. Weer een nieuwe GPU kopen en er dan maar 50% ofzo op vooruit gaan, dat zou ik nooit doen

Ik heb nu een GTX 1080 en voor minder dan een 100% fps improvement hoef ik geen andere videokaart. De goedkoopste videokaart die mij dat kan bieden is de AMD RX 6800. Daar begin ik het pas interessant te vinden. Mijn GTX 1080 heeft na 6,5 jaar dienst zijn aankoopprijs wel gecompenseerd wat mij betreft.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:33]

Zit precies in hetzelfde schuitje als jij en ga ook wachten. Mochten nvidia en AMD bij de volgende generatie nog steeds hun verstand kwijt zijn, zal ik, met pijn in het hart, afscheid nemen van deze hobby. Dit voelt echt als geldklopperij en ben niet van plan daar aan mee te werken.
Ze hebben hun chip bestellingen al naar beneden bijbesteld omdat niemand deze generatie koopt. Tja heel vreemd voor deze prijzen 🤣
En je kunt dan altijd nog overstappen op indy games. Zijn er genoeg van en zijn vaak beter dan triple A games.
Same here, was van plan een upgrade te doen dit jaar, maar zal nog wel wat jaartjes proberen uit te zingen met m'n 2070. Speelt voorlopig nog "goed genoeg". Deze belachelijke prijzen gaan er hopelijk vanzelf weer uit, eens ze de boel totaal niet meer verkocht krijgen. Want als de miners er niet op springen, die paar early adopters die er alles voor over hebben, gaan volgens mij je winkel niet lang laten draaien. Volgens mij proberen ze gewoonweg zo hoog mogelijk, om te zien wie het er nog voor over heeft.

En anders, een mens mag altijd hopen :)
Heb destijds een 3070 gehaald voor 700 euro, dan kan ik nu 1000 gaan betalen voor een 4070 die 30% sneller is? Een paar jaar later?
Nee bijna 40% op 4k Ultra en alle lagere settings bijna 50% sneller! Hoe kom jij aan 30%?

[Reactie gewijzigd door watercoolertje op 22 juli 2024 13:33]

Sowieso slaat deze kaart nergens op, check GamersNexus bijv. met uitgebreide analyses en de conclusie bij 23:57 min is duidelijk.
De kaart op zich is weinig mis mee, de marketing/naamgeving en prijsstelling van deze kaart/Nvidia daarentegen (wat GN ook ongeveer zegt)...

[Reactie gewijzigd door TiezZ_BE op 22 juli 2024 13:33]

Ja precies, maar dat is waar het om gaat lijkt me ook. :)
Idem hier, net voor de GPU-crisis een 3070 voor 685 kunnen krijgen. En ik heb geen games waar ik op 1440p al concessies moet doen. Sterker nog, 90% draait gewoon op 4K met 60fps of meer. Bottleneck bij mij is nog eerder mn 9700k.

Ik speel met deze tot ie uit elkaar dondert en dan is het de vraag wat ik dan doe.
Daarnaast is je kaart ook niet echt verouderd lijkt me.
Nouja, ik loop in bijv. Forza Horizon al tegen memory issues aan…
Je bent echt helemaal leip als je deze prijzen betaald voor een GPU. Dit zou maximaal een 600 euro kaart moeten zijn.
De RTX 3070Ti was 619,-.. Een prijs van €699,- had ik nu acceptabel gevonden.. Misschien zelfs iets daarboven nog.. Maar geen dik 900 bijna 1000 euro.. Dat had de 4080 hooguit mogen kosten.. De normale prijsontwikkeling van videokaart adviesprijzen tijdens launch van de afgelopen 20 jaar in acht genomen, incl de inflatie..
Het enige hoe we deze bedrijven kunnen stoppen is door gewoon het niet te kopen. Helaas zijn er teveel mensen met te groot ego om deze producten te kopen.
Op welke manier heeft het met een te groot ego te maken?
Mensen die zo n product kopen willen hun aankoop kunnen waarmaken. Als iedereen nu gewoon goede 2e hands deals koopt of de oudere generatie koopt kunnen deze bedrijven er niet meer mee weg komen.

Niemand heeft een 4070ti nodig die op 1080p gamed. Dit kan je met een 6600xt van AMD doen voor 350. Toch zullen mensen nvidia kopen of nu de nieuwste AMD omdat de beste is.

Kijk naar de niieuwe processoren. Koop gewoon b550 van amd met een 5600 en je bent klaar. Toch willen de mensen teveel spenderen aan hardware die ze niet tot volledig benutten.

Ik draai alweer mijn oude 1080ti op 3440 1440 resolutie. Ik dacht dat dit de generatie was dat ik voor 600 euro een flinke upgrade kan kopen. Dit kan helaas niet.
Waar denk je dat die tweedehands deals vandaan komen? Precies, van de kopers van 40x0 kaarten, diegenen die jij afbrandt. Of van mining rigs, in welk geval de resterende levensduur een stuk onzekerder is.
De hele 6000 lijn van AMD is nu goed betaalbaar. 350 euro voor een 6600xt of 420 eu voor 6700xt is meer dan genoeg voor de meeste gamers. Mensen willen persee nvidia omdat de naam het is.

Als je geen fanboy zou zijn dan zou je kiezen wat het beste js voor je geld.

Amd 6000 lijn is nu een prima product om te kopen.
Ik vind dat maxxilopez een goed en helder punt heeft.
Wij / meesten onder ons branden nvidia vanaf de 2 serie al af.er lopen teveel mensen met een brainfart rond of ze hebben een gat in de hand!
De prijs is te hoog en niet weggelegd voor de gamers.
Wat vroeger tussen de 400/500 was is nu 1000/2000.
Als dan het kwartje niet valt....heb ik er geen goed woord voor over.
Het heeft niks met ego te maken. Ik zelf heb een 1440p(144hz) monitor en wil zo hoog mogelijk fps hebben en dat zonder sync opties. Ik zit niet te wachten op freesync,gsync,fsr en of dlss want dat is vragen naar latency, helemaal met shooters. Dus laat de kaart maar lekker raw renderen niks beters dan dat! (ofc, met een 200fps lock om tearing en coilwhine tegen te gaan.)

Dan kom ik al snel tot een conclusie dat ik voor een 4080 moet gaan. Helemaal als ik na de 2dehandse markt kijk, dan wordt de keuze alleen maar makkelijker erop: Ik zie 3080 kaarten (zowat) voor de nieuwprijzen weg gaan en een 3090ti doet het ook niet veel beter. Ze vragen voor een 3090ti al gauw 1100 euro dan heb ik zoiets van; dan leg ik die 300 euro extra er ook nog wel bij voor een 4080.

Dan heb ik hem nieuw, langere garantie termijn, meer performance en de volgende upgrade kan ik iets langer uitstellen.

AMD is geen optie dat heeft zo zijn redenen...

[Reactie gewijzigd door Jeroentjeeuh op 22 juli 2024 13:33]

Je bent gewoon anti AMD.
Dat klopt maar dat heeft heel wat redenen.

1. Heel wat jaren terug met crossfire setjes lang wachten op drivers met nieuwe game releases.
2. Heel jaren terug was er altijd wel wat met de drivers aan de hand. (zowel single als crossfire)
3. 290x reverence die met release de geest gaf (95graden was volgens AMD geen enkel probleem,jaja.)
4. 5700xt release en begin jaar was zo dramatisch met de drivers.
5. 6900xt microstutters op warzone caldera en zeer minimaal op warzone 2
6. 7000 serie temp problemen. Laat staan wat er nog meer aan de hand is maar wil er niks mee te maken hebben en wil het ook niet weten ook. Zoveel problemen al met AMD gehad dat ik AMD nu ontwijk.

Leuk dat AMD goed geprijsd is maar ik kijk verder dan dat.
Klopt niks van...dat jij er last van hebt...ligt meer aan de systeem van jouw kant.
Amd is al beter met updates voor video drivers.
Micro stuttering is niet alleen video kaart..gebeurt ook met nvidia.
aahh, welles en nietes discussie en vingertje wijzen naar de concurrent, there we go...

Forums staan roodgloeiend met microstutters hoe kan je zoiets tegen spreken ? Naja, het zal. En het betreft alleen warzone andere games draait een AMD kaart gewoon perfect.

Ik kan je zeker gelijk geven dat AMD (idd) een stuk beter is geworden kwa uitbrengen van drivers dat was vele jaren terug wel anders.

Toevallig zelfde discussie ook op hardware.info gehad, en zelfs ''Astennu'' (nogal een bekende amd fanboy) bevestigde dat ook. Door te tweaken is het probleem te verhelpen.

[Reactie gewijzigd door Jeroentjeeuh op 22 juli 2024 13:33]

Die microstutters moet je me toch eens uitleggen dan. Speel al lange tijd Warzone en daar heb ik nog nooit last van gehad op mijn 6900xt.
Gewoon zoals het er staat microstutters. Vooral met Warzone caldera (season 5) is het echt heftig en duidelijk te zien als je een stukje rond loopt, je ziet gewoon haperingen. Al is het bij warzone 2.0 wel een stuk minder en lastiger te zien maar het is er wel.

Google maar eens of kijk eens op Reddit, het is een bekend probleem.

FIX:WARZONE STUTTERS GONE - Caldera FPS FIX for 6900 XT!
https://www.youtube.com/watch?v=oxvUVcgBfDI&t=1s

[Reactie gewijzigd door Jeroentjeeuh op 22 juli 2024 13:33]

En hier kan je het fixen op een nVidia kaart. https://www.youtube.com/watch?v=UglRvf96lXQ
Dat Warzone zeker in 1.0 een slecht geoptimaliseerde game is weet ik wel. Maar het is echt zeker geen algemeen AMD probleem. Een vriend van mij heeft op zijn 3080ti veel meer problemen ervaren. Zeker in het begin.
Als je de zoekopdracht voor nVidia doet krijg je ook zat resultaten op Reddit en fora.

[Reactie gewijzigd door xSNAKEX op 22 juli 2024 13:33]

AMD is geen optie dat heeft zo zijn redenen... *Kuch* microstutters met warzone *kuch* Geen zin om telkens te tweaken met een AMD kaart, altijd het zelfde liedje.
Een beetje achterhaald. Maar je hebt zo'n aversie van AMD kaarten, maar wel een genoeg hands-on ervaring om nu te kunnen roepen: "altijd het zelfde liedje"
Borrelt de vraag in mij op: Als je je eigen reactie terug leest... krijg je dan niet de neiging om jezelf naar beneden te modden?
Praat je nvidia nouw goed ?
Of lees ik het verkeerd?

[Reactie gewijzigd door noway op 22 juli 2024 13:33]

900euro, en dan heb je slechts de ref. Kaart zonder rgb. 3rd party kaarten zullen al rap naar de 1200euro gaan
Vergeet niet dat Nvidia dit de 4080 noemde en vergelijk hem met de 3080 ... dan ziet het er al veel redelijk uit. Maar omdat nvidia ook een ander 4080 had met een totaal andere chip begonnen mensen daarover te piepen. Hadden ze de 4080 de 4085 genoemd dan hadden meer mensen gezegd dat deze prijzen aan de hoge kant zijn, maar niet onredelijk... Bekijk de prestaties en de prijs, vergeet het nummer en kijk dan of je deze kaart goed vind of niet.
Hij is nog niet eens 20% sneller op 4K resolutie dan mijn 3080 maar wel rond de 200 euro duurder, hoezo ziet dat er dan wel redelijk uit?!? Dat is totaal geen vooruitgang qua prijs/prestatie.. Eerder een achteruitgang..

Deze nieuwe generatie brengt helemaal niks "redelijks" qua prijs/prestatie.. De 4080 16GB is wel 40-45 sneller en had een interessante upgrade kunnen zijn vanaf de 3080, maar niet voor 2x zoveel geld, een prijsverhoging van 100% dus voor 40-45% meer prestaties.. Ook dat is een achteruitgang qua prijs/prestatie met een factor 2.. Zeer zeer teleurstellend allemaal..

Het probleem zijn de prijzen, die veel te hoog zijn.. Had je een 4090 voor 1400-1500 euro gehad, een 4080 voor 800-900 en een 4070Ti voor +/- 700, dan was bijna iedereen heel enthousiast geweest over deze nieuwe Nvidia generatie videokaarten denk ik.. Nu totaal niet..
Mijn woning zou ook maar 2 ton moeten zijn, betaal je ook 3x meer voor :+
Gelukkig is een videokaart geen 1e levensbehoefte zoals een woning.. Dat is inderdaad een ander probleem, specifiek in Nederland vooral..
Ook woningen in de meeste omringende landen bij de grote steden zijn idioot hoog!
Het wordt pas leuk als je b.v. in het oude Oost Duitsland gaat wonen of ergens ver weg op het platteland van Frankrijk of Spanje. Zo ver kan je in Nederland helemaal niet van de Randstad wonen...
Waarom wordt geluidsproductie niet meegenomen want dat vind ik juist zeer belangrijk.
Geluidsproductie en performance na een flinke power limit drop. Ik zie ook niets vermeld over wel of geen achterlijke 12V PWHR connector. Of weer gewoon good old 8-pins connectors.

Ben benieuwd of deze met een 70% power limit nog redelijk presteert.
In het filmpje zie ik een 12 pin aansluiting.
Omdat we die dan ook ergens mee moeten vergelijken. :)

In deze review vergelijken we de 4070 Ti met andere GPU's, niet met andere videokaarten met dezelfde GPU. Als we zo'n roundup publiceren testen we uiteraard wel op geluid, temperatuur en kloksnelheid, zouden de kaarten onderling vergeleken kunnen worden.
Dat vind ik inderdaad ook wel van belang als je een videokaart test.. Voor mij altijd een belangrijk punt waar ik zelfs bereid ben extra voor te betalen, een stillere videokaart (op full load vooral tijdens gamen)..
Klopt. Het zou niet de eerste keer zijn voor mij dat ik een kaart terug stuur vanwege het geluid. Mijn laatste retour was een Gigabyte Geforce RTX 2070 Windforce 2X 8G in 2020. tevens mijn laatste kaart met een Nvidia chip erop. Vreselijk!
Nvidia is niks mis mee, tussen de fabrikanten zit nog behoorlijk verschil welke cooler ze erop plakken daar is AMD niet beter in.
We weten toch allemaal dat deze kaart boven de €1000 gaat zijn in de bekende webshops?
Uiteraard. De $999 RX7900XTX kost in Nederland rond de €1600.
Gaat helemaal nergens meer over.
nee, de officiele 7900XTX MSRP prijs van 999$ zoals AMD hem aangeeft in presentaties geeft 1136.84eur exclusief verzending. Dit is met $/euro conversie en taxen. De MSRP prijs is 999$ omdat er regios zijn in US die geen taxen hebben en/of verschillende taxatie heeft.

Stop toch gewoon met die belachelijke FUD. :O

Deze kaart was sinds launch in december tot kerst elke namiddag na 16h te koop: https://www.amd.com/en/direct-buy/5722619500/be

De MSRP prijs van 4070Ti Reference (die helaas niet bestaat is AIB only) is 799$ dus in theorie zou deze 999eur kosten.
De MSRP prijs van 4080 reference (vlot verkrijgbaar) is 1199$ en is dus 1399euro

[Reactie gewijzigd door d3x op 22 juli 2024 13:33]

De eerste staan er al op, op één na allemaal boven de €1000.
Misschien komt er nog een €910,81 versie (met huidige wisselkoers + 21% belasting).

En wat is er in jouw mening belachelijk aan klagen over hoge prijzen? Kun je dat echt niet over je kant laten gaan?
er zijn oplossingen om kaarten te kopen aan de MSRP (mits omzetting Euro en TAX) als iedereen stopt met die WEB scalping te kopen zakken ze vanzelf (mooi voorbeeld de 4080 launch)

En over mijn kant laten gaan, je zit hier op tweakers... het is hier tegenwoordig een boeltje zielige zieltjes die voor niks moeite willen doen. (eigen aan bepaalde leeftijdsgroepen, nu veelal uitbundig aanwezig hier op de site onder de noemen "tweaker")

[Reactie gewijzigd door d3x op 22 juli 2024 13:33]

Dat ben ik helemaal met je eens.
Er is geen shop in Nederland die hem heeft.
Heel eventjes vandaag, is nu alweer weg.
Mooi dat ik nu duidelijkheid heb. Voor mij is de 7900 XT duidelijk een slimmere keus maar ik wacht even wat de driver optimalisaties gaan doen de komende maanden. Mocht er een 4070 TI voor onder de 950 euro te koop komen blijft dat een slimme keus, maar ik ben bang dat dat niet snel gaat gebeuren. 1060 euro voor een 7900 XT is dan een veel betere investing.
1009 voor een XT xfx merc van een goede verkoper op Amazon.nl
Is dat beter dan een AMD reference card?

Edit: never mind, die XFX merc kaarten zijn ENORM groot....

[Reactie gewijzigd door Tadango op 22 juli 2024 13:33]

Anoniem: 25604 @Tadango5 januari 2023 08:26
die XFX merc kaarten zijn ENORM groot....
Ze zijn meetsal wel lang, dat klopt. Maar sinds de RX5700XT wil ik geen andere merken meer dan XFX. Stabiele, stille kaarten! Ik heb nu een RX6800XT van XFX. Voor andere mensen heb ik wel een kaarten van Asus en Gigabyte ingebouwd. Mua...
En als je een beetje gemiddelde behuizing hebt, past de kaart er prima in. Liever dat dan zo'n dikke 3 slots baksteen zoals de RTX 4090.

[Reactie gewijzigd door Anoniem: 25604 op 22 juli 2024 13:33]

310 - 315mm max in mijn kast, dus dat is geen optie. Ze hebben ook een hele dunne compacte maar dat zal voor geen meter koelen denk ik. Dan liever voor een paar euro een meer 1 direct van AMD....
Anoniem: 25604 @Tadango5 januari 2023 08:36
Mijn zoon heeft een RX6700XT, XFX Radeon RX 6700 XT QICK 319 Ultra, sinds april 2021. Niet dik, onhoorbaar en blijft absoluut koel. Ik heb wel vertrouwen in de koelings-oplossing van XFX.
Nvidia brengt geen Founders Edition op de markt. Wat is dan de exacte (type omschrijving oid) kaart die tweakers heeft getest?
De hint zit hem opzich in de foto en de video, maar het is een Gigabyte Gaming OC.

Op dit item kan niet meer gereageerd worden.