Gerucht: Nvidia brengt geannuleerde RTX 4080 12GB als RTX 4070 Ti uit

Nvidia-leaker kopite7kimi stelt dat de reeds geannuleerde GeForce RTX 4080 met 12GB geheugen omgedoopt wordt tot de RTX 4070 Ti. De specificaties van de videokaart blijven hetzelfde; Nvidia zou alleen de naam veranderen.

De Nvidia GeForce RTX 4080 met 12GB geheugen werd halverwege oktober geannuleerd, wat volgens de fabrikant met de verwarrende naam te maken had. Kort daarna werd er op basis van anonieme bronnen al beweerd dat Nvidia de geannuleerde RTX 4080 zou omdopen. Met het oog op de kritieken op de kaart als 'veredelde RTX 4070' is het niet verrassend dat de fabrikant inderdaad voor die benaming zou kiezen, wat de doorgaans goed geïnformeerde leaker kopite7kimi onderstreept.

De vermeende GeForce RTX 4070 Ti zou net als de geannuleerde kaart beschikken over 7680 CUDA-cores, een 2,6GHz-boostkloksnelheid en 12GB GDDR6X-geheugen. Ook de tbp van 285W en de 192bit-geheugenbus met een doorvoersnelheid van 21GB/s blijven van toepassing. Over de prijs en releasedatum van de vermeende 4070 Ti wordt nog gespeculeerd. De geannuleerde RTX 4080 12GB had een adviesprijs van 1099 euro, wat een prijsindicatie is voor de betreffende videokaart.

Nvidia GeForce RTX 40-kaarten
Videokaart RTX 4090 RTX 4080 Vermeende RTX 4070 Ti*
Architectuur Ada (TSMC 4N) Ada (TSMC 4N) Ada (TSMC 4N)
CUDA-cores 16.384 9728 7680
Boostsnelheid 2,52GHz 2,51GHz 2,61GHz
Geheugen 24GB GDDR6X 16GB GDDR6X 12GB GDDR6X
Geheugenbus 384bit 256bit 192bit
Tbp 450W 320W 285W
Releasedatum 12 oktober 2022 November 2022 Onbekend
Adviesprijs 1959 euro 1469 euro Onbekend

* Nvidia heeft de RTX 4070 Ti vooralsnog niet aangekondigd. De informatie in deze kolom is gebaseerd op de specificaties van de geannuleerde RTX 4080 12GB.

Door Yannick Spinner

Redacteur

09-11-2022 • 12:14

252

Reacties (252)

252
251
123
12
0
81

Sorteer op:

Weergave:

1100 voor een 70 series kaart. Oh AMD, ik hoop echt dat je kaarten totale bangers zijn en de nieuwe price for performance kings zijn. Nvidia is helemaal doorgedraait zonder een fatsoenlijke competitor.
Zijn ze ook. Desondanks zie je hele legers van nvidia-fans die luidop de vraag moeten stellen of het überhaupt waard is om AMD te kopen als je voor een gelijke prijs 30% meer non-RT performance en dezelfde RT-performance krijgt, ook al gebruiken ze bvb geen CUDA.

Altijd maar klagen dat AMD met een goed geprijsd alternatief moet komen en als het er is, hopen dat nvidia de prijs verlaagt. Als ze dat dan niet of nauwelijks doen, tóch nvidia kopen.
Eerst de benchmarks maar eens afwachten van AMD. Echt duidelijk waren ze daar niet over in de presentatie.
Ik vergelijk RTX3000 met RX6000 in dit geval. Die prijzen zijn bekend, de prestaties ook. Rond 700 euro kan je een RX6900XT kopen óf een RTX3070(Ti).
RX6900XT is gewoon ~25-30% sneller in games vergeleken met de Ti. RT gelijkaardig of de AMD iets sneller. Zal je ook weer wel uitzonderingen op vinden, maar dat is de trend.

Dan is het enige argument nog niet-game-toepassingen, afhankelijk van de workload.

Ik vind 30% sneller voor dezelfde prijs toch écht een groot verschil.
Als ze inderdaad ongeveer dezelfde RT performance bieden is dat voor gamers natuurlijk de moeite waard.

Alleen qua compute is het nog steeds een no-brainer om voor Nvidia te gaan. Bij Blender benchmarks bijvoorbeeld heeft zelfs Intel een veel betere prijs/prestatie verhouding dan AMD terwijl een RTX 3060 met gemak de duurste AMD kaart verslaat.
Dan snap je wel dat in dat segment AMD geen optie is.
Ja, áls je dat gebruikt. Ik noem het nog specifiek. Er is ook een legertje dat daar dus niks mee doet, maar tóch extra geld uitgeeft want ja he, ik ga toch geen AMD-kaart kopen.
Tja, die hou je altijd wel. Mensen zijn niet snel geneigd om naar een ander merk te gaan, zeker zolang Nvidia voordelen op zich heeft. Maar als de prijs/prestatie verhouding echt een stuk beter is zullen de meeste kopers uiteindelijk toch wel over gaan. Kijk bijvoorbeeld naar Ryzen, toen Intel z'n productieproblemen had. Genoeg mensen die bij Intel bleven, maar het marktaandeel AMD is in een paar jaar verdubbelt.
Genoeg mensen die bij Intel bleven, maar het marktaandeel AMD is in een paar jaar verdubbelt.
Dat komt ook omdat AMD heel lang het lagere segment heeft genegeerd met de 5000 series, de 5600X is lang het goedkoopste model uit de reeks geweest, maar kostte de eerste 1.5jaar na release bijna 300 euro.

Waar Intel wel genoeg aanbod had met de 10 en 11 serie in de vorm van een I5-1x400 voor onder de 200 of I3's voor nog minder.

Pas ruim ná dat Intel met de 12 serie op de markt kwam en daarmee wel het lagere segment ging bedienen vond AMD het pas nodig een 5600 non X en 5500 uit te brengen waarmee AMD weer aanwezig was in het 100-200 euro segment. Zo zie je maar, ook AMD is geen liefdadingsinstelling ondanks dat dat door sommigen mensen bijna beweerd wordt af en toe, ook zij zullen de prijzen net zo goed hoog willen houden als er geen relevante concurrentie is in een segment; en daarin geef ik ze overigens geen ongelijk.

Ik vind het argument dat sommige mensen blind bij Intel bleven ondanks dat AMD de betere keuze was daarom echt te makkelijk, het is immers AMD die er zelf voor gekozen om 1,5 jaar (!) totaal geen aanbod te hebben onder de 300 euro.

[Reactie gewijzigd door !mark op 26 juli 2024 19:29]

Ik zit niet alleen met grote ogen naar die prijzen te kijken :| , maar ook het verbruik: 450W die een 4090 verstookt, en dan de rest van de PC nog. Dan lijkt een console toch een betere optie tegenwoordig, en dit soort kaarten alleen nog voor de echte game-PC die-hards.
Tja, je hebt wel gelijk :) Nvidia is gwn super nice :)
AMD is niet gek. Die zien dat consumenten nog steeds bereid zijn veels te betalen voor hun GPU. AMD gaat er niet heel veel onder zitten met de prijs. Die willen ook een dikke winstmarge houden. Als ze zorgen dat er een moi aanbod is van GPU's dan verkoopt het wel.
Het interessante is dat AMD juist ver onder nvidia kán prijzen, aangezien de chiplet aanpak in de productie van hun 7000 serie kaarten aanzienlijk goedkoper is t.o.v. de monolitische aanpak van nvidia.

Dus als AMD het echt slim wil spelen, dan gaan ze ver onder nvidia zitten qua prijs. Dan houden ze genoeg marge over, terwijl nvidia veel minder omlaag kan in prijs (verhoudingsgewijs) én wint AMD mindshare als de benchmarks en stabiliteit goed blijken te zijn.

Mindshare = market share in deze industrie. Ik ben erg benieuwd wat AMD gaat doen deze generatie, en hoe nvidia daar op zal reageren :)

Edit: verbeterde leesbaarheid

[Reactie gewijzigd door CelisC op 26 juli 2024 19:29]

De huidige aangekondigde prijzen vallen maar iets onder die van Nvidia. De snelste aangekondigde AMD GPU wordt tegenover de 4080RTX gezet en kost maar net iets minder.
Vergeet ook niet dat het ook beter presteert dan de 4080 16GB, terwijl die 200 dollar goedkoper is.
Dat weten we nog niet, dat is een aanname welke je maakt.
200 euro minder, ongeveer 16.67%. Dat is inderdaad in eerste instantie niet de scherpe prijs waar we op hopen. We missen nog wel echte prestatie vergelijkingen tussen de RX 7900 XTX en de RTX 4080.
Persoonlijk verwacht ik dat, in een gezonde markt, de prijzen na ongeveer 1-3 maanden zouden moeten zakken, omdat de eerste paar maanden oneerbiedig gezegd een uitmelk periode vormen van de early adopters.

Daarnaast hebben we het hier over de halo producten van nvidia en AMD, die zijn hoofdzakelijk gericht op de enthousiastelingen en eventuele professionele gebruikers. Dit is een groep die sowieso meer over heeft voor een kaart, dus ik snap dat AMD daar toch van wil profiteren.

De echte 'strijd' zal in het middensegment plaats moeten vinden als AMD de gemiddelde gamer wil bereiken. Op het moment van schrijven is er nog niets bekend over eventuele RX 7600 XT(X) en RX 7700 XT(X) (en alle variaties op de X'en en T'tjes). Dat lijken mij de kaarten te zijn waar AMD écht de gemiddelde gamer kan bereiken. Ik ben benieuwd of ze dat gaan doen!
Heeft de gemiddelde gamer echter een nieuwe kaart nodig? Met een GTX 1080 kan ik nu nog redelijk meekomen op 4K (niet alles ultra, maar wel redelijk mooi). Zeker met 1440p of 1080p en tevreden met medium graphics heb je zeker geen generatie 3000 of 4000 nodig.
Dikke winstmarge zit er niet echt meer in, ik verwacht echt dat de nieuwe GPU's gewoon zoveel duurder zijn om te fabriceren, met een normale winstmarge. Onderschat niet hoeveel duurder het produceren van CPU's/GPU's geworden is.
Als deze voor 1100 euro uitkomt en de 7900 XTX voor 1000 euro moet maar net onderdoen voor de 4080 denk ik dat AMD er toch echt serieus wat onder zit.
Maar we weten nog niets over de werkelijke performance van zowel deze 4070ti, de 4080 als de 7900 XTX, dus tot die tijd blijft het gissen. Over de 4080 zullen snel genoeg de waarheid weten, de 7900 XTX zal nog even duren, en de 4070ti zal nog langer duren (en het zou me dan niets verbazen als Nvidia toch de advies prijs wat aanpast naar wat de 7900XT(X) zal doen.
reken maar 1250 voor de rx 7900xtx.
Zwakke euro tegenover dollar en 21% btw die we nog erbij moeten rekenen.
Welke zwakke Euro :? Op moment van typen 1:1!
Vind je dat niet zwak?
Normaal is het tussen de 1,10 en 1,20. En als euro sterk is zelfs 1.20+.
En USA prijzen zijn excl btw.
Dus wij moeten 1000 pakken + 21% btw. Kom je op 1210 uit.
Als het 1,20 is dan kom je ongeveer hetzelfde uit en blijft het 1000 euros hier kosten.
Lastig te zeggen zonder echte benchmarks. De cijfers van fabrikanten kloppen meestal wel, maar tonen een best case scenario.
Volgens mij zit AMD er juist wel ver onder met een prijs van 899 en 999 US voor 7900XT en XTX.

Als de prijs performance klopt met wat ze beweren dan zal Nvidia toch wel vrij snel dalen met de prijzen.
De kaarten ben ik niet bang voor bij amd... de drivers daar gaat het in kamp rood helaas vaak mis. Denk als ze dat een keer strak krijgen dat het voor veel mensen een no brainer wordt.
Alex van LTT heeft recent een challenge video gedaan om een AMD kaart een maand lang te gebruiken. Nadat hij hem in zijn PC heeft gestoken, was hij de challenge uit het oog verloren en was hij zelfs vergeten dat er een AMD kaart in zat. Tot en met de 5xxx reeks waren AMD drivers inderdaad niet de beste, maar de huidige drivers zijn volledig herschreven en zijn een enorme verbetering.

Video hier, ze beschrijven de situatie tijdens de eerste 4 minuten.
Als Linux gebruiker vind ik de verschillen alleen maar nog veel duidelijker. Ik herinner me de fglrx tijd. AMD kaarten waren eigenlijk gewoon onbruikbaar. OpenGL ondersteuning hadden ze nauwelijks (ook niet op Windows). Je kon er niets mee. Uiteindelijk werd het omgegooid en gingen ze naar nieuwe drivers, maar heel lang was het alsnog drama. Nvidia daarentegen had wel wat gedoe met hun proprietary drivers, maar in games had je nooit te klagen. Dingen als Optimus waren wel lastig, en de drivers zijn nog steeds niet geweldig als je 3 beeldschermen hebt, vooral als ze niet dezelfde refresh rate hebben.

AMD is tegenwoordig juist best fijn. Fatsoenlijke Wayland support, wat bij Nvidia nog niet echt een ding is. Ik kan op allerlei rare manieren beeldschermen met verschillende specificaties mixen, en de desktopervaring is gewoon feilloos, in tegenstelling tot Nvidia met hun wat rare multimonitor problemen. En in games ook allemaal prima te doen.

Nvidia werkt altijd wel, maar niet altijd zo goed als zou moeten. Het is 95% goed en 5% heel erg jammer. AMD werkte vroeger praktisch niet. Maar tegenwoordig is AMD echt heel fijn. Nvidia heeft wel wat meer features, zoals CUDA, DLSS, en betere raytracing.

Maar ja, ik merk wel dat ik vooral driverkwaliteit achterna ga. Dat is waarom ik ooit Nvidia wilde. Hun drivers waren gewoon beter. En dat is waarom ik nu AMD heb. Hun drivers zijn gewoon beter.
Kan prima, het is een stigma wat ze hebben inderdaad, en daar moeten ze vanaf komen.

Toevallig heb ik laatst een radeon WX voor een automatisering show ingezet.
Na windows update alles down, wat bleek de driver was niet ondersteund meer....
Wat zoek werk later, blijkbaar wel die van de gamer kant (adrenaline), dus die maar gepakt... Maar wel raar dat mijn gehele kaart ineens niet meer door windows gezien werd na een windows update.

Kortom je koopt een pro kaart, en vervolgens moet je de adrenaline drivers erbij pakken om de boel draaiend te houden.
Dat is een enkel geval, maar voor mij genoeg om te weten dat ik thuis er niet 1 hoef.
Dit is een faal van MS, en niet van AMD.

De versienummers van de AMD drivers beginnen met het jaartal, die van MS met 30 of zelfs nog hoger. Herinstalleer die driver, gooit windows zijn "driver update" er stug weer overheen.

Enige manier om dit te omzeilen is de driver te updaten, windows update hem laten overschrijven, rebooten, en "roll back driver" te doen. Alleen dan "skipt" die hieroverheen.

Het is een bekend probleem, maar ik vind het een MS probleem hier.
Eens, maar met Nvidia had ik het niet.
Dus dan kies ik in dit geval liever Nvidia, ook al is het de schuld van MS.

Lullig voor AMD helaas.

En laat ik duidelijk zijn, ik vind Nvidia zeker een minder bedrijf.
Hierbij gaf hij ook aan dat voor productivity tasks AMD totaal niet nuttig is in de huidige markt.
Heeft AMD net zoiets als Nvidia's Gamefilter? Dat is een feature wat ik dus altijd wel gebruik.
Kan ik beamen. Ikzelf had een RX 580 (tussendoor 1070) en nu een 6900 XT. Software nu is behoorlijk verbeterd. Veel bijkomen features die ook werken ipv dat de boel zichzelf sluit als je een toggle schuift. :D recent ook gekeken naar 'undervolt' hoe dat handmatig kan, maar ook hierin zijn standaarden in de software mogelijk. Erg fijn. :)

Ik heb zelfs ook de stats counter als standaard ipv de veelgebruikte msi afterburner+riva. Scheelt ook weer wat software op je systeem.
Ik weet niet hoelang jij geen AMD hebt gehad, maar ik heb toen mijn 1080 verkocht en bij uitgave een 6800XT gehaald.
Ik merk niets meer of minder problemen dan bij NVDIA.
Ok.
Ik gebruik zelf al heel lang geen AMD meer voor mijn pc's.
Toevallig op werk wel weer en daar liep ik al meteen tegen issues aan.

1 zwaluw maakt nog geen zomer ;)
Dat werkt natuurlijk beide kanten op. Allemaal anekdotisch bewijs. Maakt ook eigenlijk niet uit, je eigen ervaring zal leidend zijn.

Maar van een slecht imago is lastig af te komen, ook als dit imago niet terecht is.

Zelf nooit echt problemen gehad met AMD (iig niet meer of minder dan met nVidia of Intel), dus ik koop merendeel van mijn leven eigenlijlk al voornamelijk AMD. De enige uitzondering is onze Surface tablet, die draaide toen exclusief met Intel.

Ik doe dit voornamelijk omdat ik liever de underdog steun dan de 'grote boze bijna monopolist', ook als de prijs / perfomance soms net iets onderdoet, wat maar zéér zelden lijkt te zijn.
1 zwaluw maakt nog geen zomer ;)
En 1 loslopende rat betekent nog geen zinkend schip... :9
Precies, mijn zwaluw opmerking verwijst ook naar beide kanten ;)
Dat is echt een verhaal van vele jaren geleden.
Het blijft rondgezongen worden, vaak door mensen die er geen enkele ervaring mee hebben.

De laatste paar jaar is het juist Nvidia die vaker driverproblemen heeft.
Hetgeen dat Nvidia wel heeft is heel veel eigen proprietary technieken. AMD maakt meer gebruik van open standaarden.
Nouja, als je zelf de open standaard bedenkt, is het dus niet zo dat je meer gebruik maakt van open standaarden, maar maak je gebruik van proprietary technieken die je toevallig beschikbaar stelt voor iedereen.
Mijn laatste 2 gpu zijn AMD (Vega 64 en 6800XT), allebei zo stabiel als wat. Geen driver issues gehad.
Kan me nog anders herinneren met Fermi en Kepler.
1100 voor een 70 series kaart.
Dat is juist waarom hij geannuleerd werd. Ze zullen echt niet zo dom zijn om alleen de naam te veranderen en niet de prijs te verlagen, zeker nu amd met een kaart op dat prijspunt komt die behoorlijk wat sneller gaat zijn dan deze.
Nvidia denkt:
Ik ben prestatie koning, dus ze betalen wel.
Ik ben ray tracing koning, dus ze betalen wel.
Zij zijn dikke Nvidia fanboys, dus ze betalen wel.
Na deze 3 punten, waarom zal Nvidia prijs verlagen.

Ik zelf denk dat de 4070ti straks voor 800-900 dollars word verkocht.
En vroeger was een gtx770ti maar 250 euros. En gtx970ti was 350 euros en 300 dollars. :D
Vroeger waren GPU chip dies ook maar een fractie van het formaat en zijn de grondstoffen alleen maar de lucht in gegaan.
Het is probleem is dat de meeste software nog geschreven is voor nvidia. AMD is helaas altijd de underdog. Zo wel qua cpu als qua gpu. Hopelijk veranderd dit, ik zie steeds meer AMD gezien intel afgestoten word door veel partijen, en met de komst van apple's M1, is er ook steeds meer non nvidia software.

Hopelijk word de markt wakker
AMD is niet heel veel goedkoper. Ze weigeren zelf hun prijzen te verlagen. Het kleine beetje wat AMD onder Nvidia geprijst zit is de meeste mensen het risico niet waard.
€600 is een beetje :?
600 euro voor vergelijkbare prestaties? ohhhh, je zit appels met peren te vergelijken..
Als die RX7900XTX vergelijkbare prestaties heeft als de RTX4090, ja, dan heb je gelijk, maar dat heeft die bij lange na niet, die is waarschijnlijk vergelijkbaar met de RTX4080 (hoop dan voor AMD dat die beter is, maar dat weten we nog niet, van zowel de RTX4080 niet als de RX7900xxx versies).
Als die RX7900XTX bv vergelijkbaar presteert als de RTX4070ti, wat ik niet verwacht, ik verwacht een stuk beter, dan is AMD dus waarschijnlijk duurder.
Hij bedoeld vorige generaties.
Deze generatie is het verschil wel opmerkelijk groot.
Maar AMD heeft gezegt dat de RX7900XTX concurent is van de RTX4080, en niet van de 4090.
Dus dan schilt het 200 dollar en is sneller dan de 4080.
Alleen ray tracing is AMD nog steeds langzamer.
Daar moeten ze bij de volgede reneratie echt een inhaal werk maken, want steeds meer games hebben nu ray tracing. En ik wil die eye candy ook opgegeven moment.
Ik denk niet dat ik met de 7000 generatie veel ray tracing ga zien. Ik ga voor de RX 7700, en denk dat de ray tracing nog niet sterk genoeg is om mee te spelen.
Volgende generatie gpu wil ik wel ray tracing spelen, dus AMD moet echt even hard werken voor RT.
Nvidia komt ondertussen met 3de gen RT meuk, als Google het goed heeft hebben we sinds de introductie van RT (4 jaar geleden ondertussen) wel geteld 47 supported titles waarvan het er maar 10 echt goed toepassen en er al een 4090 nodig is om cp2077 enigszins acceptabel te spelen op RT (welke ook al weer 2 jaar uit is).
RT is leuk voor de marketing maar staat nog in zijn kinderschoenen, kan goed begrijpen dat AMD hier ook niet de prio legt en liever de rest eerst op orde krijgt.
Wacht sowieso tot minimaal next gen aangezien ik voorlopig nog goed zit met mijn 6800XT
De RX 6600 is inmiddels flink in prijs gedaald, terwijl de RTX 3060 nog steeds op hetzelfde prijsniveau zit.
En ook RX 6700 (50) XT kaarten zijn flink gezakt, dus nog steeds meer bang for the buck bij AMD :)
Waarom zou AMD ook? We hebben het de laatste 22 jaar wel gezien, ze zijn een meme geworden ermee. Zelfs als Radeon een beter product in de markt zet (vaker voor gekomen) blijft men Nvidia kopen en zien ze Radeon alleen als concurrent die Nvidia de prijzen doet verlagen zodat ze net iets goedkoper die GeForce kaart kunnen scoren.
AMD zet zich nu gewoon prijs/kwaliteit in de markt, waarom undercut doen dat toch niet overtuigd tot overstappen.
Snap ook gezeik niet over AMD drivers, heb nu een 6800xt en hiervoor vega64 (gtx960 en gtx470 als goed herinner daarvoor), heb persoonlijk meer problemen gehad met Nvidia dan AMD. En enige rariteiten die ik nu ervaar is dat profiel niet altijd op slaat bij AMD.
Wel weer typerend trouwens, AMD komt niet gehoopt 4090 beater voor minder geld en mensen zeuren alleen maar. We vergeten die door gebrande connectors vrij snel zie ik.
Er zijn natuurlijk optimalisaties, maar zoveel zal het toch niet maken voor wie de software geschreven is? Een Intel CPU heeft ook wat sterke en zwakke kanten tov een AMD CPU, maar ik geloof niet dat een programma ineens 30% sneller is als hij geschreven wordt voor een AMD CPU.
Betreft CPU is het verschil inderdaad minimaal en wordt het vaak overdreven. Moet zelf echter wel erkennen dat, als altijd AMD fan, in de tijd van phenoms en bulldozer, ondanks dat mijn geregistreerde performance met AMD regelmatig beter was, mijn ervaring met intel wel aanzienlijk 'smoother' voelde.

Betreft GPU maakt het soms echter wel echt bakken verschil. Lang niet altijd hoor en er zijn zelfs enkele titels/applicaties welke juist beter draaien op AMD GPU's, maar er zijn ook echt wel games waar je met een Nvidia gewoon 30% meer FPS krijgt dan met een AMD terwijl het in andere games gelijk op kan gaan.

Toch zijn dit maar enkele games, lang niet allemaal. En nu AMD echt weer competitie voert met de top-dogs, is het natuurlijk ook een stuk optimalisatie van drivers e.d. zaken, waar dit destijds minder verschil maakte omdat ze toch de 'bang voor buck' route bewandelden, moeten ze om met de top-dogs mee te doen, natuurlijk ieder procentje optimalisatie winnen waar het kan.
De bulldozer kostte wel wat tuning om goed te krijgen, maar heb hem toch zo'n 6,5 jaar als primaire game-machine gebruikt. Er was 1 game die gewoon niet er op wilde blijven draaien, Wolfenstein the new order(zwart beeld spontaan en je had het idee dat je je processor doodskreten hoorde schreeuwen door je speakers heen waarna het compleet vastliep, scheen na een jaar ofzo pas gepatched te zijn).

Qua aanzienlijk smoother, was idd soms wel bezig met settings in sommige games om gestotter eruit te krijgen, en andere games draaiden dan weer belachelijk goed.
Kijk alleen al naar de support van OpenCL vs CUDA. Nvidia heeft zijn zut flink liggen doorpushen (en OpenCL performance op de eigen kaarten gehandicapt).
OpenCL zit daardoor in een neerwaartse spiraal. Users gaan waar de support zit en de support gaat waar de users zitten.
En je kunt wel stellen dat de performance van OpenCL achterligt, en daardoor minder in trek, maar dat is niet gek door jaren nalatigheid door de community.
AMD draait de Vulcan driver, en er is een hoop geoptimaliseerd voor Vulcan, en dat gaat in een rap tempo de goede kant op! 8-)
Nou, de kans dat AMD kaarten met vergelijkbare performance voor de helft aanbied als de Nvidia equivalenten is ... vrij klein - ze verlagen dan simpelweg hun eigen winst, due sik zou op zijn best 255 lagere prijzen verwachten, die dan door nvidia ook weer gevolgd worden. Pas als Nvida/AMD hun kaarten niet verkocht krijgen is er een stimulans met de prijs naar beneden te gaan.
So far lijkt AMD de topmodellen voor 900-1000 euro/dollar in de markt te zetten, dus ja, de enige redenen om dit te kopen zijn omdat
- je fanboy bent.
- het spel dat je 90% van de tijd speelt alleen Nvidia-optimized is
- je geld teveel hebt, en daar de absoluut duurste hardware voor moet kopen, omdat cool.

Ik denk dat de meeste 'fanboys' overigens vooral aan lip service doen, en nooit dit speeltje kopen, maar gewoon met een 4050 Ti kaart zitten... Want NVidia is da best, je weet zelluf!
De enige reden? we weten nog niets over de daadwerkelijke prestaties van al die nieuw aangekondigde kaarten, we weten alleen de prestaties van de 4090 op dit moment. Dus er valt nog helemaal niets te zeggen over of je nu wel of niet de AMD of Nvidia moet kopen. Een reden om een Nvidia kaart te kopen kan ook zijn omdat de gewenste AMD kaart (net) te lang is om bv in je (mini)kast te stoppen, ik weet bv dat helaas de 6800/6900's (net) niet in een NUC 11/12 Extreme passen, waar de 3080/3090 dat nog (net) wel doen, tja, dus al zou ik de 6800/6900 willen dan kan dat niet.
Of je hebt in het verleden dermate slechte ervaringen gehad met AMD dat je terughoudend bent om nu over te schakelen.

Ik zit in dat laatste geval.

De 2 keren dat ik in het verleden een AMD kaart heb gekocht waren de drivers om te huilen. Dit vertaalde zich in CTD's, texture-issues, etc etc...
Ik heb gelezen dat ze hun DX11 drivers volledig van scratch hebben herschreven en dat het nu "heel wat beter is".

Dus ja, ik zou de sprong naar "Team Red" wel terug durven wagen :)
Als we kijken naar de geheugen-bus is het meer een 4060 Ti maargoed.
Een 4060 Ti voor 1100 EURO idd ...... echt wtf.
pc masterrace .... ooit wel, tegenwoordig koop je een console met vergelijkbare gfx voro de prijs van een toetsenbord :X de huidge en vorige generatie GPU's zijn qua prijzen 'toch niet normaal'?

//edit; niet alles zo letterlijk nemen, maar er zijn voldoende toetsenborden te koop voor de prijs van een xbox

[Reactie gewijzigd door himlims_ op 26 juli 2024 19:29]

PC Masterrace... ik heb onlangs overwogen, zou ik geen Xbox kopen ipv mijn GPU te upgraden?

Maar dan bedenk ik:

- Ik speel liever met toetsenbord en muis
- Heb mn hele leven PC games gespeeld, dus er hangt ook wel een soort nostalgie aan vast voor mij.
- PC heeft zoveel meer keuze qua games, en krijgt ook veel Playstation exclusives tegenwoordig zoals God of War en Horizons.
- Heel veel goede deals qua games
- Ik heb maar 1 TV, dus dan is het elke avond vechten met mn vrouw, gamen of kijken?

Ik blijf dus toch maar liever bij PC. En eigenlijk is de enige boosdoener de GPU's. Want er zijn qua CPU's, moederborden en cases meer en betere keuzes dan ooit! Echt ZO frustrerend.

[Reactie gewijzigd door lazershark op 26 juli 2024 19:29]

De Xbox X is idd sowieso goedkoper. Bij een PC heb je natuurlijk de extra flexibiliteit. Je kan hem immers ook nog gewoon als pc gebruiken ;-)

Voor €1000 heb je best wel een PC die op 1080p meekan met Xbox kwaliteit. Een Amd 6700XT overtreft de Xbox X en dan heb je nog €500 euro om de rest aan te kleden.

Ik kom op € 976,92.
wenslijst: Xbox X equivalent

Je kan kritiek hebben op de I3 CPU is maar eigelijk kan die CPU best goed mee in games dankzij de hoge single core performance en komt met een degelijke koeler. (bron)

[Reactie gewijzigd door Coolstart op 26 juli 2024 19:29]

Om op xbox qualiteit te gaan spelen hoef je zeker niet de duurste grafische kaart te kopen.
Je zou best wel een goed koper kaartje kunnen kopen, maar ja het blijft nog steeds duur op dit moment.
AMD komt nu met hun nieuwe lijn op de proppen, die is redelijk wat goedkoper.
Dit is voor de xbox one mischien zo, maar om series S settings op 1080 te spelen heb je toch echt wel een gpu nodig die ongeveer evenveel als de console kost, zoals bijvoorbeeld de rx 6600 xt. Voor series X settings op 4k heb je ook iets van een rx 6800 of 6800 xt nodig. 3x raden hoeveel die kost...

Het is al de afgelopen paar generaties zo dat consoles aan het begin van de cyclus meer performance per dollar bieden en dan in de loop van tijd ingehaald worden. Dat is nou eenmaal wat gebeurt als je op grote schaal chips af neemt die bij introductie current gen zijn.
Nee mijn 6700xt gaat qua frames toch echt de PS5 en Xbox voorbij soms het dubbele. Het is dat pc gamers het niet accepteren als een game een diashow wordt daar hebben consol gamers geen probleem mee, die happen dat als zoete koek. Als de graphics er maar goed uit zien. En die 4K resolutie is niet meer dan upscaling.

https://youtu.be/BbNDLwR-vBI

[Reactie gewijzigd door Bintzak op 26 juli 2024 19:29]

Probleem met dit argument is dat als je een videokaart hebt die tegenwoordig niet meer meekan (GTX 970 of R9 280 b.v) je niet veel keus meer hebt. Ten tijden van de 10 kaarten kon je voor €300 een upgradtje doen en zo jaren mee gaan. Nu moet je of voor low end kaarten gaan of centen uitgeven, of een tweede hands kaart kopen (met alle gevolgen van dien als die kapot gaat).
Dit vind ikzelf een heel goede beredenering want ik denk er exact ook zo over.

... op deze manier stimuleer je indirect de aanschaf van de veel economischere console ...

Ik voer een eigen groothandel en ik zou het niet over mijn hart kunnen verkrijgen om de burger 'moedwillig' een poot uit te draaien. Ik durf te stellen dat mijn bedrijfsvoering stukken beter is dan die van Nvidia.

Wat ik ga denken is dit: {vanuit mijmeringen}
Na elke generatie zullen de kaarten steeds minder aftrek krijgen. Er gaat een bloeihandel ontstaan in oudere 30 serie chips en hiermee heb ik een pittig punt te pakken. De 40 serie zal wel eens ten onder kunnen gaan aan de prijs. De afname van die kaarten zal zelfs kunnen gaan stagneren en zo werkt Nvidia zichzelf in de sloot en zal AMD zegenvieren als een God. Van smeltende plugs tot kaarten van kilo's zwaar tot en met de belachelijke prijzen; Nvidia, je bedrijfsvoering is in een woord samen te vatten: greediness.

Ik hoop dat AMD slim is en hier op in gaat spelen. Voor AMD liggen de kaarten zeer eenvoudig. Door 25% van de prijs af te snoepen die Nvidia hanteert maken ze nog steeds flink winst en ik ben geen fan van welk kamp dan ook, maar ik heb mijn peilen op AMD gevestigd.

Ik ben ronduit teleurgesteld in Nvidia om hun klanten zo hard te pakken terwijl iedereen het al moeilijk genoeg heeft. Ik neig naar het woord sadisme. :/

[Reactie gewijzigd door jimh307 op 26 juli 2024 19:29]

Naast sadisme heb je ook narcisme.
Nee, dat is het niet

Door extra kracht bij te zetten wil ik duidelijk maken dat ik beslist niet gediend ben van de praktijken van Nvidia.

Zou ik narcistisch zijn geweest; dan hield ik mijn kennis voor me en zou ik ook gaan voor maximale winst. Ik vind dat iedereen recht heeft op eerlijke informatie en die verstrek ik al talloze keren op tweakers.

Dat ik een eigen accugroothandel in de run heb wil ik niet zeggen dat ik zo min mogelijk informatie geef om flink winst te maken. Dan kost het maar 1% winst; ik geef de informatie over accu's kosteloos en met liefde. Als je dit nog niet wist kun je zo'n uitspraak niet rechtvaardigen.

Maar je mag denken wat je wilt.
Oh ik doelde niet op jou. Wellicht heb ik dat indruk gewekt? nVidia praktijken gaan wel sowieso richting sadisme. Energierekening stijgen en helaas stijgen het verbruik ook. Ik betwijfel het dan ook dat ze wat beter aan de efficiëntie gaan doen. Maar eerst de 12VHPR problemen fixen. En ipv dat ze RTX30 prijzen verlagen, blijven ze deze juist hoog houden zodat het 'goedkoper' uitziet omdat de RTX40 te hoog is geprijsd. Ik hield een bepaalde 3080 al weken in de gaten en deze is JUIST weel duurder geworden. Bij Azerty stond het aantal op 105 stuks bij de leverancier en nu op 4 stuks en de prijs van deze 3080 is meer dan €2000. Waanzin gewoon. Het is deze:
uitvoering: PNY GeForce RTX 3080 12GB XLR8 Gaming REVEL EPIC-X RGB

nVidia zelf bestaat uit sadisme en narcisme.
Ben het hier roerend mee eens
Je kan een consolse ook aan je PC monitor hangen, heb ik ook gedaan, Xbox en Pc achter dezelfde monitor, hoef ik niet om TV te vechten ;) Wel een monitor met audio en 2xHDMI anders werkt het niet.....
Helemaal mee eens, en daar naast is er een ander probleem met die geweldige console en dat is dat deze over een paar jaar niet meer nieuw is en de nieuwe games er niet meer voor uit komen. Dan moet je dus een nieuwe console kopen om de nieuwe games te kunnen spelen en vaak de oude console behouden om de oudere games te kunnen spelen (al is de backwards compatibility tegenwoordig wel een dingetje bij sommige consoles echt goed werkt het meest al niet)

Ook moet je niet vergeten dat een PC veel meer dingen kan dan een console, want even een natuur filmpje kijken op de console... of toch even die aankoop van een nieuwe game op amazon of ebay regelen is niet echt een ding op de console omdat het een erg onhandige user input heeft en de browser op zo'n ding niet echt van updates wordt voorzien zeker niet na een paar jaar als er een nieuwe console op de markt is. Even een stukje code schrijven en die op een micro controller zetten zodat je je oude deurbel van nieuwe features kunt voorzien, succes met je console. Om over emulatie van andere systemen zonder je garantie te verspelen maar niet te spreken, en natuurlijk regio beperkingen buiten beschouwing gelaten want ook dat is vaak een probleem consoles.

Daar naast heb je met een PC ook de keuze om bijvoorbeeld meer aan de audio te besteden, of toch voor meer aan de opslag of juist de form factor aan te passen, etc, etc... En ook is het helemaal niet vreemd om vandaag iets te kopen en over een paar maanden of jaren te besluiten dat onderdeel te vervangen voor een nieuwere betere versie omdat de nieuwe mogelijkheden van dit nieuwe onderdeel de software die je gebruikt nog veel beter zullen maken.

Is de PC beter dan de console, op vrijwel alle manieren ja de PC is beter. Het enige waar ik toch echt moet zeggen dat de console beter is is als je kleine kinderen alleen een paar games wil laten spelen en niets anders, Internet uit op de console, een aantal disks er naast en laat de kleine maar gaan. Je hoeft je geen zorgen te maken over dingen waar de kleine niet bij mag en zelfs als ze rare settings aan passen is een factory reset een optie wat bij een PC toch echt een stuk lastiger is.
En de hele spellenbibliotheek is speelbaar op 1 apparaat, zelfs games ui 1999 draaien nog met een paar patches.
Yup. Ik blijf voorlopig ook bij pc, maar dat wil niet zeggen dat de consoles daar niet wat aan zouden kunnen doen. Een xbox met een 120 euro windows 11 app en mouse + keyboard support zou echt als warme broodjes gaan. Ik vraag me af waarom microsoft het niet doet...
Plus met een PC heb je gewoon totaal zelf de keuze op welk prestatieniveau je gaat zitten. Met een console staat het prestatieniveau voor de gehele levensduur van de console vast.

Als je de gpu in de PS5 wil nabootsen dan koop je 2e hands een 2080 super voor ongeveer 250-300 euro en dan zit je ook op hetzelfde niveau.

Net zoals al meer wordt gezegd hier, je hoeft helemaal geen 4070ti of 4090 te kopen, maar je kan het wel, dat is het mooie aan een pc.
Je kan je playstation ook aansluiten aan een monitor, scheelt weer vechten ;)

maar als je het te duur vind worden, kun je altijd een gpu van een medetweaker overkopen.
bizar dat gpu van 1 generatie ouder nu zoveel kosten als dat ze vroeger nieuw waren |:(
Goede overweging voor mij was de prio anders

De Xbox is veel goedkoper qua aanschaf, zelfs als je er nog een extra 4K-tv bij koopt
Dan zit ik rond de 1200 euro. Ik heb er GamePass bij voor 3 jaar (gedeeld met een vriend van me) dus kost me maar 90 euro.

Sinds de release van Xbox Series X is mijn PC niet meer mijn primaire gaming device. Ondanks mijn grote Steam-library en de enorme diversiteit qua games op PC.
+ Gratis games op PC :)
Web based bedoel je? O-)
Je kan via Epic Games store ook wel legaal heel wat gratis games krijgen. Elke week staan er 2 games gratis.

Ik heb gratis reeds GTA V, CIV 6, en talloze andere games gekregen. Meestal zijn het kleinere onbekende games, maar af en toe zit er wel een klepper tussen.
Die console kan ook op je monitor aangesloten worden he.
Gewoon allebei doen! PS5 en Game PC 8-)
er zijn voldoende toetsenborden te koop voor de prijs van een xbox
En voor €15 heb je een Logitech K120 die kwalitatief net zo goed is (en misschien wel langer mee gaat). Hoef je ook geen batterijen te wisselen want hij gaat gewoon met een kabel naar je computer. Ideaal! :+

[Reactie gewijzigd door Wolfos op 26 juli 2024 19:29]

Dit is erg off-topic, maar mechanische tobo's hebben keiharde voordelen:
- NKRO (N-key rollover)
- +/- 100 miljoen aanslagen per switch (eg. cherry mx brown keys) vs. de 'luttele' 5 miljoen van een membraam tobo
- switches naar smaak voor gemak/comfort/prestaties
- repareerbaarheid d.m.v. het kunnen vervangen van switches (ja evnt. met soldeerwerk, maar het kan en ze zijn slechts 1 eur/stuk online)

[Reactie gewijzigd door Litanic op 26 juli 2024 19:29]

Ik snap wat je bedoeld maar vergelijkbare gfx is het echt niet met de huidige kaarten. Console loopt altijd achter op grafisch vlak. Qua prijs is het wel een stuk aantrekkelijker om console te kiezen.

[Reactie gewijzigd door Enyalios2011 op 26 juli 2024 19:29]

De GPU in een Xbox Series X en PS5 zijn vergelijkbaar met een RX 6700XT of RTX 3060, die toevallig ook net geen 500 euro kosten (nog steeds). In die prijsklasse zijn er van de nieuwe generatie nog geen videokaarten. Een RTX 4080/4090 of RX 7900XT(X) zijn een stuk geavanceerder dan de huidige console generatie, maar kosten een veelvoud.

Dus nee voor het geld loopt een console momenteel echt niet achter.
Je loopt achter, de 3060 zit meer rond de 400. Een XsX is nu nog 500 maar gaat straks ook omhoog, waarschijnlijk naar 550 waar de PS5 al zit.

Zelf heb ik een 3070 die nu rond de 600 zit. Dat is dus qua prijs meer vergelijkbaar dan die 3060. Daarmee draai ik Control momenteel rond de 60 fps met alle settings maximaal inclusief alle raytracing opties op qhd (wel met dlss). De XsX draait op diezelfde resolutie op 30 fps in rt mode. Goed, door dlss niet helemaal een eerlijke vergelijking, maar de console komt er dus niet heel erg goed af in die vergelijking.

Goed, de pc is natuurlijk nog steeds een klap duurder want met alleen een gpu kun je niet gamen, maar het is dus zeker niet zo dat de prijs van een console gelijk is aan alleen al een gelijk presterende videokaart.
Je zet de AMD GPU van de XsX wel op om te verliezen als je gaat vergelijken met ray tracing en DLSS. In plaats van een console vs pc vergelijking is dat een vergelijking tussen Nvidia en AMD. Ik moet Control op 1080p zetten met mijn RX 6700XT om de hogere niveaus van ray tracing in te schakelen en 60 fps te halen. Het is al een tijdje geleden, denk ook niet dat dat met alle ray tracing aan was. Dan was mijn RX 6700XT ook heel duur vergeleken met een RTX 3060, maar ik heb veel meer games zonder ray tracing en op pc kun je nu af en toe DLSS vervangen door FSR 2+ (en in mei 2021 kon je geen RTX 3060 krijgen voor €480 zoals ik mijn videokaart bij AMD heb kunnen kopen).

Betreft die prijzen, ik zie toch nog veel RTX 3060's voor meer dan €400, de RX 6700XT is ook niet te krijgen voor minder dan €450. Als de prijs van de XsX nu boven de €500 gaat omwille van inflatie, daar zijn videokaarten toch ook niet immuun voor. Ik zei toch ook niet dat een nieuwe console exact evenveel kost als een gelijkaardige videokaart, alleen dat die niet achter loopt voor het geld. Met een RTX 3060 van €400 ben je (zoals je zelf al zegt), nog steeds een stuk meer kwijt dan €500 als je de rest van de pc mee rekent.

Ik heb mijn game pc er ook zelf niet voor gelaten, maar denk dat wie geen grote bestaande pc games bibliotheek heeft, nu toch wel een XsX en game pass zou moeten overwegen tenzij die echt iets pc specifiek wilt. Of een Steam Deck want die gebruik ik eigenlijk veruit het meest :).
Klopt, misschien niet de beste game om mee te vergelijken, maar toevallig een die ik nu op pc opnieuw aan het spelen ben terwijl ik hem op de Xbox al gespeeld had.

En ja de huidige consoles zijn absoluut hele mooie machines, zeker voor de prijs. Mijn eigen XsX staat nu dan even werkloos omdat ik weer op een pc gaming kick ben, maar heb er bijna 2 jaar met veel plezier volop op gespeeld. Ik had alleen het idee dat hierboven een klein beetje overdreven werd :)
De GPU in een Xbox Series X en PS5 zijn vergelijkbaar met een RX 6700XT of RTX 3060,
Deze statement klopt al niet want de 6700XT is al een stuk sneller als de 3060

De GPU's in de ps5 en Xbox SX lijken qua specs wel veel op de 6700XT, maar in realiteit is de 6700XT toch wel een stuk sneller, is ook niet gek als je naar de prijzen kijkt
Dit is nu nog een punt, maar mensen kunnen ook leren om genoegen te nemen met wat minder puike graphics.

Hier 4K icm een rtx3080 en dit gaat prima. Soms moeten settings wat omlaag, maar dat drukt het speelplezier voor mij nauwelijks. Moderne games zien er ook medium/high nog steeds super uit en zeker op 4K.
Er zijn genoeg andere dingen om me zorgen te maken en als ik wil koop ik morgen een rtx4090, maar wat me tegenhoud is het beleid van Nvidia. Ik ga het bedrijf niet moedwillig spekken omdat ik op @ultra wil gaan gamen. Dit weiger ik. Die rtx3080 was nu ook niet bepaald goedkoop.

Het is een rare markt hedendaags en mensen hebben wel andere zorgen. Een console kan voor een hele grote groep toch wel eens heel aantrekkelijk kunnen gaan worden en zo zal PC gaming een klap kunnen krijgen. Ik hoop nog op AMD.

Ik zou haast zin krijgen in een boycot ;)
Ben het er compleet mee eens dat moderne games er op lagere settings ook gewoon goed uit zien.

Heb hier een 980ti met een 1440p scherm. De nieuwe plague tale met flink terug geschroefde settings ziet er voor mij nog steeds erg mooi uit.

Zou wel een nieuwer kaartje willen, maar kan nog prima wachten tot ik het t geld waar ga vinden
Eerste games op de series x worden al beperkt tot 30 frames/sec en die game ziet er nog slechter dan een 7 jaar oude game (Arkham Knight)

[Reactie gewijzigd door eL_Jay op 26 juli 2024 19:29]

Tijdens de vorige generatie was er een periode waar je meer performance per euro kon krijgen op PC als je slimme keuzes maakte.
Helaas zijn de bedrijven op de hoogte van de profijtmarges waar ze mee weg kunnen komen tegenwoordig... Vroeger kon je voor 500 euro als je slim was een redelijke high end achtige pc bouwen. Natuurlijk niet met de meest duurzame onderdelen maar het kwam echter redelijk in de buurt. Tuurlijk is er inflatie bijgekomen maar zoveel kan ik me niet inbeelden. Ook zijn de kosten omhoog gegaan maar kom op, een gtx 1080 ti nog gekocht voor 700 euro nieuw, en nu een 4090 ti voor 1600 euro.Natuurlijk komt er meer performance bij en raytracing (wat ik de prijsverhoging niet waard vind) maar de 4090 ti is de nieuwe 80 ti serie nu(of eerder titan maar die serie was altijd al hybride tussen workstation en gaming) Nvidia is niet goed bezig en ik hoop echt dat nu met de 7900xt en xtx ze zullen inzien dat ze ook fouten maken. Waar het om draait denk ik is dat nvidia deze generatie gaat voor power en power alleen. met dus meer kosten, meer energieverbruik en een veel grotere heatsink. Amd is niet voor power gegaan en heeft een kaart van bijna dezelfde tdp als vorige generatie en komt redelijk in de buurt van nvidia. Nu is Nvidia nog steeds sneller maar dit laat zien waar je met finetunen allemaal kan komen, dat je niet alleen maar meer stroom door een gpu moet laten pompen.
Sorry, ik had wat frustaties :X
En sorry voor eventuele spelfoutjes. :P
En alvast voor de reacties, Ik ben bij lange na geen expert, dus voel vrij om me te verbeteren!
Dit klopt aardig hoor. Voor slim en goedkoop zijn, elders hier heb ik nog een reactie geplaatst hoe ik elk jaar op de HCC nieuwe componenten goedkoop kon krijgen waardoor ik voor altijd minder dan 1000 gulden per jaar mijn PC zo kon upgraden dat die altijd alle games kon spelen, en er bleef nog genoeg over om daar games en accesoires naast te scoren tegelijk ook. Had je als tiener zo bij elkaar, maar met de prijzen van nu gaat dat niet meer lukken, jammer, want nu speelt de portomonnee van de ouders mee, en zal het niet meer voor iedereen zijn weggelegd.

In Oktober 2015 een high-end machine(32GB, 8c/8t, 4GB videokaart, 500GB SSD, 2TB HDD, 700watt voeding) voor 650 euro in elkaar gezet. Alle onderdelen op 1 moment gekocht, gelet op duurzaamheid.
In Januari 2022 nieuwe machine gebouwd(64GB, 8c/16t met onchip video, 500GB+1TB M.2 SSDs, 1000watt voeding in elkaar gezet voor 1400 euro. Onderdelen via aanbiedingen over 3 maanden gekocht. Videokaart erin van 1100 euro(6800XT) in Juli erbij gekocht, totaal 2500 euro, ook gelet op duurzaamheid.
Beide hadden goedkoper maar ook veel duurder gekund.

Er is echter veel andere hardware te koop, en alleen de steam survey geeft aan dat de gemiddelde gamer het met een stuk mindere hardware dan high-end doet, en ontwikkelaars/uitgevers gaan geen games uitbrengen die het meerendeel van de mensen niet kan spelen.. Zowel AMD maar zeker Nvidia kunnen hun prijzen nog wel laten dalen, maar waarom zouden ze? Zeker net voor de feestdagen zal dit niet gebeuren.
De huidge en vorige generatie GPU's zijn qua prijzen niet normaal.
Maar een ps5 of xbox series x is vergelijkbaar met een pc van 4 jaar geleden met een rtx2070 of 3060.... En dan zijn deze kaarten zelfs nog iets sneller dan wat er in de consoles zit.

De hele 40 serie is gewoon niet te vergelijken met de huidige consoles.
Als je een nieuwe PC koopt ben je niet verplicht om er een videokaart van 1000 euro in te doen. De optie heb je wel.
Toch wel minimaal een 2080 dacht ik, een uniek grote sprong t.o.v. een PS4 die slechts een 1050TI aan kracht had...
De PS4 komt nog niet eens in de buurt van een 1050 als je naar theoretische rekenkracht kijkt.
pc masterrace ....
Koopt tegenwoordig een Steamdeck...
Eh.. noem mij 1 console die qua beeldkwaliteit ook maar in de buurt komt van een high end game pc. Die zijn er dus niet , nog niet in de verste verte.
tegenwoordig koop je een console met vergelijkbare gfx voor de prijs van een toetsenbord
Hier moest ik wel hard om lachen, de trieste waarheid :+
Nou, ik weet niet wat voor toetsenbord jij koopt, maar voor de prijs van een console kan ik toch wel 4 fatsoenlijke toetsenborden kopen.
Dan ben ik wel benieuwd wat voor toetsenbord je koopt want voor een goed meganisch toetsenbord hoef je echt niet meer dan 100-150 euro te betalen.
Nou zitten er op die consoles wel wat andere marges: https://tweakers.net/nieu...t-200-dollar-verlies.html
Ik hoop van harte dat de verkoopcijfers van Nvidia keihard gaan tegenvallen. AMD blijft in ieder geval redelijk solidair met hun waarderingen die desalniettemin al vrij hoog zijn. Ik heb niet de hoop dat midrange terug gaat naar 150-200 zoals in 2005-2015 maar Nvidia maakt het met die marges extreem gortig.

Een kleine studie leert dat we sinds 2005 een voor inflatie gecorrigeerde adviesprijs betaalden van gemiddeld $264 voor midrange kaarten en $725 voor high-end kaarten. Als we ook nog de euro/dollar koers er in betrekt kan je goed zien waar wanneer het allemaal in gaan verschuiven:

https://i.ibb.co/DQqvW3M/GFXAFI2.png

Vooral de midrange kaarten zijn wat harder gestegen. Kamp groen heeft jarenlang structureel prijzen hoger kunnen houden vanwege driver en technologie voordeel. Echter is dat sedert het klappen van cryptomining en de flink versterkte driver situatie van AMD nauwelijks een argument meer om zoveel meer te betalen. Los nog van zaken als energieverbruik, volume, defecten etc.
Als ik kijk op reddit en naar de online webshops in Nederland dan is de 4090 helemaal uitverkocht...
Kunstmatige schaarste, scalping en review samples maken een aardig deel uit daarvan.
Nou: het is wel zo eerlijk de XX90 serie als "voor professionals" (of idioten met teveel geld) te beschouwen. AMD biedt daar ook geen equivalent aan. En dan liggen de rode en groene lijnen dichter op elkaar, zoals bij de midrange.
Wel nee dat is wat Nvidia er voor wilde vragen maar de productie kosten zijn heel erg veel lager. Ja de R&D kosten zijn er natuurlijk ook maar voor een groot deel is het simpel weg wat Nvidia denkt dat de gek er voor geeft wat de prijs bepaald.

Dus er is geen enkele reden waarom Nvidia voor deze kaart 1100 euro zal moeten vragen, ze kunnen er makkelijk een paar honderd van af halen en gewoon met winst verkopen. De R&D zal net iets minder snel terug verdiend worden maar dat is niet een enorme ramp voor Nvidia die waarschijnlijk op 12 maanden gerekend hadden om de R&D kosten terug te verdienen als dat nu 18 maanden zou worden dan is dat wel een extreme impact van een kaart in de gehele line up dus het zal eerder 14 of zelfs maar 13 maanden worden als ze de kosten van deze kaart flink omlaag duwen daar kunnen ze echt wel tegen.
Vergeet ook niet dat ze naast de consumenten kaarten ook commerciele kaarten zullen maken op basis van de zelfde architectuur en dat daar de marges vele malen groter zijn dan op de consumenten kaarten dus die R&D zal echt wel terug verdiend worden ook als een van de consumenten kaarten minder op zal brengen dan initieel gedacht.
Koop AMD, dat is zowat je plicht als consument als je nu in de markt bent voor een grafische kaart want nvidia biedt echt waardeloze value: https://youtu.be/mkfFvEeVC4w

[Reactie gewijzigd door kiang op 26 juli 2024 19:29]

Helaas heeft MSRP steeds vaker bestaansrecht van 0 want de 4080 zou ongeveer €1949 kosten? Dat is gewoon €2000 om af te ronden en 4070Ti (*cough cough* 4060Ti) wellicht €1600. De prijzen zijn heel erg uit balans en hebben totaal niet meer de juiste prijs/performance verhoudingen. Sommige 3080s kosten al nog steeds bijna €2000, andere weer €1649.
Om te kijken waar een kaart in de lineup hoort wordt er gekeken naar de performance en prijs. Dan is de naamgeving 4070(ti) helemaal correct.
Hoe kun je dat nu zeggen wanneer je zowel de performance en prijs nog niet weten?

Ik verwacht zelf dat de MSRP behoorlijk hoger wordt dan de al verhoogde MSRP van de 3070 Ti (die 649 euro is).
Performance van de 4080 12GB was al getest volgens mij en dat wordt dus deze.
Ik heb nog geen testen gezien van die rtx4080 12GB. Als je een linkje hebt, ik ben wel benieuwd.
Quote uit dit artikel: De geannuleerde RTX 4080 12GB had een adviesprijs van 1099 euro, wat een prijsindicatie is voor de betreffende videokaart.

Daarnaast heeft Nvidia gewoon kritiek gekregen op de naamgeving vanuit de community en zijn ze n.a.v. deze feedback terug gekomen op de naamgeving. Dus ik zeg het niet alleen, maar de community en Nvidia zeggen het ook :p

Afhankelijk van alleen een geheugenbus spec kun je iig zeker NIET aangeven waar de kaart in een lineup hoort ;)

[Reactie gewijzigd door Praetextatus op 26 juli 2024 19:29]

Maar die prijs zou dus helemaal niet passen bij de tier, als je kijkt naar de 3070 Ti. Diens MSRP was 649 euro, bijna de helft van 1099.
20% erbij door de slechte euro (pc hardware gaat in dollars) en 20% erbij door inflatie en je zit al een stuk meer in de buurt

[Reactie gewijzigd door eL_Jay op 26 juli 2024 19:29]

649 euro is al de verhoogde prijs, dus een deel daarvan zit al in de prijs. De introductieprijs van de 3070 Ti was 619 euro.
... en is daar nog nooit voor te koop geweest volgens mij. Als de adviesprijzen nu wel overeenkomen met winkelprijzen, is de teleurstelling al wat minder.
De mining-boom explodeerde vlak na de release van de 3080, waardoor de prijzen eigenlijk meteen omhoogschoten.
Maar dat is 't juist helemaal. De 2080 msrp was 699. 2 generaties verder en we zitten nu op 1199 msrp. Prijzen in 't verleden zijn echt geen garantie of maatstaf voor prijzen in de toekomst. Helaas is dit de huidige werkelijkheid.
Om te kijken waar een kaart in de lineup hoort wordt er gekeken naar de performance en prijs. Dan is de naamgeving 4070(ti) helemaal correct.
Het roept de vraag op of de marketing afdeling van NVidia mensen kan overtuigen dat ze "eigenlijk" een 4080 kopen voor de prijs van een 4070.
Makkelijk. Het gros van de kopers zal helemaal niet op de hoogte zijn van het 4080 dramaatje. Als de prijs en performance in lijn liggen met de rest van de producten dan is er weinig aan de hand voor Nvidia.
Ik krijg toch meer het gevoel dat ik een 4070 koop voor de prijs van een 4080.
De prijs? Hoger dan een XX70(Ti). De performance? Ik moet de eerste XX70 kaart nog tegenkomen die maar op 50% van het XX90 broertje zit.

3070 t.o.v. 3090: 73%
3070 Ti t.o.v. 3090 Ti: 72%
2070 t.o.v. 2080 Ti: 69%

4070 Ti t.o.v. 4090: 50% in een ideaal scenario, < 50% als je alle performance uit beide kaarten probeert te halen.

[Reactie gewijzigd door Paprika op 26 juli 2024 19:29]

Ik denk dat het hele debacle met de 4080 dit idee wel onderuit heeft gehaald. Er zijn ondertussen al zat commentators die al sinds de aankondiging zeggen dat de 4080 12GB eerder een 4070 of 4060 Ti was en dat het een 4070 Ti noemen nog altijd absurd zou zijn. En hier zijn we dan.
De kaart een gewone 4070 of lager noemen zou teveel duidelijk maken hoe hard overprijsd de kaart als 4080 12GB was. Dus proberen ze de kaart alsnog te slijten als 4070Ti, zodat er voor de gewone M/V/X in de straat weinig gewijzigd lijkt.
Ik gok dat wat je hier zegt waarschijnlijk precies de reden is dat Nvidia dit doet.
die geheugenbus boeit letterlijk niet. Als de price/performance ongeveer zoals de 4080 is, maar iets trager, dan is het een 4070Ti. Dat is hoe het werkt. Armchair gpu engineers op reddit en tweakers hebben nog geen enkele test gezien, maar zeggen gewoon "GeTaLlEtJe LaAg Is SlEcHt" alsof dat een of andere slimme opmerking is gebaseerd op hun in depth gpu kennis. In feite zien ze gewoon een lager getal dan gewoonlijk en krijgen ze spontaan een nvidia hate-boner.

Prima dat je het niet eens bent met nvidias nieuwe hoge prijzen, ik ook niet, maar baseer je oordeel alsjeblieft op relevante metrieken

Ik dacht dat we op tweakers inmiddels wel snapten dat specs er niet toe doen bij gpu's, alleen benchmarks

[Reactie gewijzigd door youridv1 op 26 juli 2024 19:29]

Een geheugenbus waar flink in geknipt is, zeker in vergelijking met vorige GPU-launches, valt op en is zéker een relevante metric. Daarnaast heb ik het niet over de prijzen en heb ik zelf een RTX-kaart. Als je eenmaal zulke bedragen moet betalen, wil je geen Maserati met een Twingo motor.
Maakt het uit als de performance in de verhouding staat tot de 4080 en 4090 aan de hand van de prijs? Nee.

Hebben we performance tests gezien?
Nee.

Waar praten we dus over?
Niks.

Zolang er geen benchmarks en geen prijzen van de 4070Ti zijn, weten we niks.

[Reactie gewijzigd door youridv1 op 26 juli 2024 19:29]

Hebben we performance tests gezien?
Ja
https://www.tomshardware....80-16gb-and-rtx-4080-12gb

[Reactie gewijzigd door Sinester op 26 juli 2024 19:29]

Ik vraag me af hoe die zich houd tov van de 3090 die al rond €1300 is te krijgen.

De progressie van de afgelopen jaren is meer in vermogen.
De "4080 12GB" was ongeveer een 3090 volgens benchmarks (zonder DLSS3) dus de 4060TI zal niet sneller zijn.
Gaat ook om bandwidth niet direct geheugen bus, maargoed.
Kom op zeg... Het is een 192-bits bus met GDDR6X en een doorvoersnelheid van 21 Gbps. De 3080 had een 320-bits bus, maar slechts een doorvoersnelheid van 19Gbps. De bus zegt simpelweg heel weinig, het gaat om de snelheid.

Enkel naar de busbreedt kijken is net als een motor afkeuren omdat hij maar 6 cilinders heeft, en het vorige model er wel 10 had. Het heeft helemaal geen relatie met de daadwerkelijke prestaties. En ik gok dat deze GPU zeker niet onder gaat doen voor een 3080. Wordt natuurlijk kijken hoeveel ze ervoor willen en of het dat waard is, zeker met wat AMD bied, maar zeuren over zo'n detail daar wordt niemand beter van.
minimaal wil ik al 256 of hoger hebben.
alles wat lager is...is kreupel in mijn ogen.

b.v je gaat geen porsche met seat motor rijden.
Wat wil je ermee doen dan? Af en toe naar de specs van je gpu kijken?
Inderdaad. Het is in vergelijkend opzicht - kijkend naar eerdere generaties - een 60 class kaart / chip, niet een 70
Hoeveel invloed heeft een geheugen bus op de prestaties? Ik zie dat de RTX 3060 Ti wel een geheugen bus heeft van 256 Bit. Is dit wellicht niet heel relevant?
De geheugen-bus is alleen niet de bepalende factor voor het benamen van de producten.
Zolang de performance maar goed is.
Toen het nog een 4080 zou worden zou het een 4070 zijn. Nu maken ze er een 4070 van, en kom jij met 4060 aanzetten.
Je hebt gelijk, ik had 4050 Ti moeten zeggen.
Voor 4050 Ti geld had ik hem direct gekocht met deze performance :')
De geheugenbus is niet altijd de bepalende factor voor prestaties. Er zijn meerdere generaties geweest waar AMD de grootste geheugenbus had maar niet altijd de beste prestaties.
normaal reageer ik nooit, maar wie koopt er nog een mid range video kaart +1000€? nog geen paar jaar geleden was dit meer dan high tier... En neen dit is geen inflatie. Dit is hebzucht. Vraag aanbod klopt niet meer. Ja deze keer gaat team red misschien wel winnen, niet over prestatie, maar als we de over prijs en prestatie grafiekje maken. Dan neem ik aan dat team red zal winnen. Ikzelf, ik laat ray -tracing maar voorbijgaan. Ik kan ook gamen zonder dat gedoe en zeker voor een pak goedkoper
Ik geef toe dat het onzin is, nu wil ik mijn 1060 upgraden en denk aan een 3060ti of 3070. Die komen nu in, relatief, betaalbare prijzen. De 4070ti is misschien leuk voor 700 euro maar meer voor mij niet.

Aan de andere kant, wij zijn met zijn allen best verwend geraakt met technologie. Tijdens mijn studie (al weer 25 terug) was een laptop €3000 (6500 gulden, inflatie niet meegerekend). Pc's waren ook duur. Misschien moeten we niet verwachten dat we het "recht" hebben om alles te moeten kunnen kopen. Verschil is er. Aan de andere kant past de kleur groen nu echt goed bij NVidia (greed) maar ook bij veel winkeliers en opkopers momenteel.... :(
Ik zou dan toch zeker AMD afwachten
Had ik er misschien even bij moeten zetten, die heb ik inderdaad niet aan de kant geschoven. Raytracing is niet mijn prio (wel leuk), speel ook niet de meest veeleisende games (World of Warcraft, Starcraft 2, Diablo3 ) maar merk dat de 1060 op zijn randje zit icm het scherm. AMD kan/mag het ook worden dus.
De 6700 kwam qua prijs overeen met de 3070 .
Nu nvidia waanzinnige prijzen voor de 4070 zou vragen (+400 dollar tov 30x0 series tot nu toe voor alle kaarten) ben ik eens benieuwd of AMD blijft met haar -100 dollar tov 6X00 series .

Ik vermoed dat AMD wat omhoog zal gaan (7800 voor 650-700 dollar) en nvidia omlaag (4070 voor 700 dollar)
De 6700 is in de pricewatch echt mega veel goedkoper dan de 3070 hoor
6700 XT was 479 dollar bij release, 3700 was 499
6700XT is nu 469 euro
3070 is nu 590 euro

Release van RTX30 en RX6000 is meer dan 2 jaar geleden. Die stickerprijzen zijn absoluut niet relevant. Daar heeft een hele pandemie, bitcoin boom en alles tussen gezeten. Huidige PC markt deelt weinig tot geen overeenkomsten met de markt van toen. Logistieke kosten zijn veranderd, vermogensbudget is veranderd, totale marktvraag is veranderd.

[Reactie gewijzigd door youridv1 op 26 juli 2024 19:29]

En ik vergeleek met de release prijzen toen. Je kan duidelijk zien dat men ongeveer dezelfee verhoudingen tussen de kaarten aanhoud. Wat winkels uiteindelijk vragen maakt juist weinig uit.

Ik vergelijk de kaarten bij release niet de winkelprijzen na x maand
Als je zoekt naar een 3060 ti of 3070 is misschien de team red AMD RX 6700 XT een mooie kaart. Op het moment 460 euro en zit tussen die 2 kaarten in op raw performance. Wel dichterbij de 3060 ti.
uitvoering: MSI Radeon RX 6700 XT MECH 2X 12G
Wij zitten ongeveer in het zelfde schuitje, behalve dat ik van een 1050 kom die echt niet meer kan natuurlijk. Zit zelf op dit moment te kijken naar een 6600xt die as we speak te krijgen is voor 350 euro, maar met de low-end 7x series in aantocht twijfel ik of ik met black friday de knoop door ga hakken of nog even wacht
Je mag best vaker reageren ;) ben het helemaal met je eens :)
Ben zelf begin dit jaar overgestapt van groen naar rood, en is me zeer goed bevallen, moet eerlijk zijn, ik ben benieuwd naar de RTX 4060 prestaties, (zonder ray tracing) maar ben bang dat de prijs absurd word, en ga waarschijnlijk de RX 7600 (XT) halen, want meer bang for the buck :P
Hebzucht? hoe weet je dat als je niet weet of de kosten voor het produceren van deze kaarten niet ook gigantisch gestegen zijn, ik geloof namelijk rustig dat de kosten voor de nieuwe kaarten evenreden met de gewenste winst is gestegen, waardoor de verhouding ongeveer wel gelijk blijft.
Op een hoop punten had team red bij de vorige generaties ook vaak toch wel goede performance en toch bleef men groen kopen.
Het is helaas niet enkel hebzucht, maar ook vraag/aanbod. Er zijn dus heel veel mensen die bereid waren het dubbele te betalen voor de vorige generatie kaarten. En dat geld ging voornamelijk naar scalpende winkels en individuen. Het was logisch dat dit zou leiden tot hogere MSRP's.

Als NVIDIA en AMD hun nieuwe kaarten voor 300 euro minder hadden uitgebracht, is het goed mogelijk dat winkels en scalpers er toch 250+ meer voor zouden vragen. Een minimaal verschil dus.

Je hebt groot gelijk dat dit niet in orde is, maar dit is wellicht een van de bijzondere gevallen waarbij het vooral de consumenten zijn die het hebben verknald.
Die prijzen zijn belachelijk hoog. Vroeger betaalde je 500 tot 600 euro voor een High end GPU. Nu is het dik het dubbele.

Zal me niet eens Verbazen dat ze voor een mid-range 600 tot 700 euro vragen. Nvidia maakt de GPU Markt kapot.
Vroeger was het 250 guldens ( 120 euros ) voor de meest high end.
En dat was bij de radeon 9700 pro. Later de radeon 9800 pro voor dat prijs.
Dus nu is het al 10x duurder vergeleken met 22 jaar terug.
Normale inflatie is 10 jaar ongeveer dubbele prijs. Dus normaal zou het nu 500-600 voor echt super high end zijn als het volgens normale inflatie ging.
Maar Nvidia inflatie is anders.
Volgens Nvidia bestaat inflatie niet, maar je moet per fps betalen.
En ze hebben het vastgesteld op 3,50+ per fps dat je moet betalen.
Dat is wel heel lang geleden. Mijn eerst GPU was een Nvidia 7600GS. Daar betaalde ik zo'n 200 euro voor.

Ja het is tegenwoordig niet normaal meer. Ik heb op het moment een RTX 3060 in mijn systeem. En daar had ik 350 euro voor betaald. Ik vind dat een prima prijs voor een 1080p kaart.
ik heb vandaag een rx6600xt 2e hands gekocht voor 250.
Hoop het morgen binnen te hebben. :)
Ik hou het liever bij Nvidia. Ik heb in het verleden veel gezeik gehad met AMD. Ene crash naar de andere crash. Bij Nvidia werkt het 95% van de tijd zonder problemen.

Ik koop niet zo gauw Tweedehands spullen. Liever nieuw, want je weet nooit hoe andere mensen met hun spullen omgaan. En als er wat mis gaat, kan je weer contact opnemen met de verkoper om het op te lossen.
Amd drivers zijn nu gewoon goed.
En zeker voor de 6000 series die nu al 2 jaar bestaan.
Was idd een tijdje dat Amd niet goed deed met drivers.
Maar dat was na de fiasco met rx 5700 drivers daarna allemaal gefixed.
Deze duurde wel 3-4 mnd voordat ze die drivers hadden gefixed.

Ik koop normaal ook geen 2e handse spullen.
Maar ik heb nu echt een gpu nodig, want ik had de mijne tijdens mining gekte verkocht met dikke winst.
Dat was een rx5700. Nu krijg ik een 6600xt voor dehelft van verkochte prijs. Ben wel blij mee, maar meer dan een jaar niet echt een gaming gpu.
Zit even op mijn hele ouwe Radeon 280x.
Kan wel gamen op 1080, terwijl ik een 1440 scherm heb. :D
Ik hou het voorlopig uit met mijn RTX 3060. Om nu weer geld neer te leggen voor een andere GPU is geld verspilling. Ja de 5700XT Was gene waar ik veel gezeik mee had. Ik heb nog nooit in mijn leven zoveel crashes en blue screens gezien.

Ik kijk wel over een jaartje of 3 of de prijzen beter zijn geworden. 600 euro is het max wat wil uitgeven, en geen cent meer. Ben gek dat ik 1500 tot 2000 neer ga leggen voor een video kaart. Ze zijn maf daar bij Nvidia.

Ik had hiervoor een GTX 1080. Maar naar 6 jaar was het gewoon echt op. Dus heb de RTX 3060 gekocht. Schijnt net zo snel te zijn als de 1080. Dus Prima vervanging.

[Reactie gewijzigd door DeadPhoenix86 op 26 juli 2024 19:29]

De 3060 zal de aankomende jaren de nieuwe standaard worden. Dus je zit de aankomende 5 jaar nog goed met deze kaart ;-).
Ik vind Ti niet op zijn plaats voor een kaart die een hele tier lager is (AD400 t.o.v. AD300). Dat is gewoon een 4070. Een 4070 Ti is in mijn ogen een AD300 gpu met enkele SM’s uitgeschakeld.
Ik vind Ti eerder niet op de plaats omdat dat de betiteling was voor hun top-range modellen die met de nodige optimalisaties worden uitgebracht nadat het basismodel al even in omloop was. Mooie kaarten die als refresh op de markt waren gebracht. Of, in geval van de x80, het ultieme model van de generatie.

Nu wordt, nog voordat er überhaupt een 4070 op de markt is, een Ti variant op de markt gebracht puur omdat het zo lekker in de marketing ligt.

Maar goed, omdat dit al even gaande was heeft men natuurlijk het zeer creatieve "super" label uitgevonden. Je moet wat als je je niet aan je eigen naamgeving kunt houden.
Klopt, ik ben met je eens.
Maar Nvidia niet en wilt gewoon meer geld pakken.
Een x70ti ligt de prestatie vaak zeer dicht in de buurt van een x80 kaart.
Meestal is het verschil kleiner dan 10%.
Nu gaat het meer dan 20% schelen als ik naar de specs kijk. Uiteindelijk zou het wel binnen de 20% worden.
Toch veelste duur allemaal. Puur omdat Nvidia ook nog hun 3000 kaarten kwijt moeten raken voor niks minder.
Ze moeten de 3000 kaarten de prijzen flink verlagen. Dan vliegen ze de deuren uit.
Nouja, je weet niet wat de 4070 werkelijk gaat zijn, dus misschien is de TI wel degelijk op zijn plaats.
Deze prijzen is wat Nvidia kopers verdienen. Elke keer die prijsstijging accepteren, daarmee draag je bij aan het probleem.

Begrijp me goed, mijn laatste Radeon dateert alweer uit 2005-2006 dus ik ben absoluut geen AMD fanboi, daarna altijd Nvidia gehad t/m mijn 3080 die €730,- kostte. De 4080 kost gewoon 2! keer zoveel als zijn voorganger!
Prijsstijgingen van 100-200 euro waren nog wel te overzien en accepteren, zeker als het product verder ook gewoon meer biedt dan de concurrentie.. Maar nu zijn de prijzen in feite gewoon verdubbeld, dat gaat wel heel erg ver..

Ik heb zelf een RTX 3080 waar ik iets meer dan 800 euro voor betaald heb eind 2020, dat vond ik nog wel te rechtvaardigen toen.. Maar nu €1500+ voor een RTX 4080?!? Ik denk het niet..
Groot gelijk. De prijzen zijn belachelijk hoog geworden. Zal me niet verbazen dat een RTX 4060 ook ruim 600 tot 700 euro gaat kosten.
Hopelijk storten de verkopen volledig in nadat de initiële groep van kapitaalkrachtige early-adopters voorzien is.. Dat vooral Nvidia daardoor zich gaat realiseren dat de Covid19 en crytominning tijd waarin men dit soort absurde prijzen kon vragen nu toch echt voorbij zijn en ze wel weer omlaag moeten met hun prijzen.. Helaas lijkt AMD mee te doen met prijzen dik boven de 1000 euro, waardoor er vrij weinig keuze overblijft.. Intel tel ik nog niet mee..
Het had een gewone RTX4070 moeten worden met een prijskaartje van max 500, wellicht 550 euro.
Dán had Nvidia pas goodwill terug gekregen.

Ik hoop nu echt dat AMD even terug gaat slaan met goede, doch, veel goedkopere kaarten.
Een hoop respect voor Nvidia is aardig verloren gegaan nu ze gewoon écht betrapt zijn op het volle misbruik maken van de wereldwijde crisis, mining hype en prijsopdrijving problemen.
... en daar mag je dan de Raytracing hype nog bijtellen. Raytracing is natuurlijk geweldig, alleen hebben we nog iets van 10x meer processorkracht nodig voordat zo iets op een fatsoenlijke resolutie en frequentie en raytracing op b.v. 64 niveaus te doen is. Wat er nu gebeurt is leuk voor speciale scenarios en demos waarbij de vergelijking met en zonder gemaakt wordt en de kleuren nog even lekker opgepompt worden b.v. rode auto naast spiegelend oppervlak en zo maar veel normale omstandigheden nauwelijks zichtbaar: https://www.youtube.com/watch?v=2VGwHoSrIEU.
€1199,- voor een midrange kaart durven vragen en pas bij een backlash toegeven dat de marketing SKU nergens op slaat... Ben benieuwd wat de nieuwe prijs gaat zijn maar de prijs zal waarschijnlijk alsnog bezopen hoog zijn. Dan doe ik nog maar wat langer met mijn GTX1080 (nieuw gekocht voor 527 euro)...

Overigens kan ik niet wachten tot RDNA3 uit komt en team groen hun hebzucht kan gaan opeten.

[Reactie gewijzigd door Blue_Entharion op 26 juli 2024 19:29]

Midrange is relatief. Hij zal ongeveer hetzelfde doen als een 3090(tenzij je het geheugen nodig hebt) en dat is eigenlijk een Titan klasse kaart. En die zijn altijd al een flink stuk duurder geweest.

Het verschil met een 1080 zal in elk geval enorm zijn. Ik ben van een 1080Ti naar 3090 gegaan en dat was al een enorm verschil. En IMHO het geld zeker waard(toen was de 3080ti nog op de lange baan geschoven en toen ie uitkwam net zo duur als mijn '90).
De AD104 chip die in de 4070 Ti komt heeft een 192-bit bus. Tot nu toe hebben we gezien dat dit zorgt voor vrij slechte prestaties op hogere resoluties zoals 4K.
Dat is zeker een goed punt hoor, alleen hebben sommigen juist behoefte aan goede performance op lagere resoluties dan 4K. En zeker als je upscaling technieken niet mijdt kan het best zijn dat goede 1440p of 1080p performance(omgezet naar 4k) het voor jouw situatie een hogere midrange kaart maakt.

Dit staat of valt natuurlijk wel met de 1080p performance, als die ook lager dan verwacht is dan houdt het op.

Het zou geen kaart voor mij zijn, dat zeg ik eerlijk, maar ken wel mensen waarvoor het(met de bovengenoemde kanttekeningen) wellicht wél een goede kandidaat zou kunnen zijn. En heel eerlijk, voor mij is de performance bij 5120x1440 óók belangrijker dan bij 3840x2160, aangezien ik op het eerstgenoemde scherm mijn race sims speel en op het tweede alle andere games. Voor mij bepaal ik dus de 'high-endness' op basis van het eerste scherm. De tweede is bijna bijzaak. Maar ja, het verschil tussen 7M en 8M pixels is zo klein dat dat niet toch significante kaartverschillen zou leiden.

[Reactie gewijzigd door MN-Power op 26 juli 2024 19:29]

Ik zie 1080p ondertussen wel opgesplitst in twee groepen:
- De hele serieuze esporters die dan een snellere kaart willen, vooral op rasterization, dus die zullen dan eerder voor 7900 XTX gaan
- De budget-gamers, die niet gaan voor de 4070 Ti, maar voor de 4060 of 4050.

1440p lijkt me wel een redelijke resolutie voor deze kaart.
Midrange is relatief. Hij zal ongeveer hetzelfde doen als een 3090(tenzij je het geheugen nodig hebt) en dat is eigenlijk een Titan klasse kaart.
Wat een onzinredenatie. Met die redenatie wordt een 3060 een Ultra Titan Super DeLuxe uitvoering van een GeForce 256 uit 1999. Op die manier kun je zelfs low end chips de hemel in prijzen.
1080 was en topper zelfs voor de oorspronkelijke prijs voordat 1080ti uitkwam. Had er veel plezier van totdat ik naar 3080FE overstapte. Hoe efficient Pascal ook was blijft me tot de op heden verbazen.
Weet je nog dat de x50 series vaak 150 kosten en ti versie tot 200. De 3050 is 300+. hahaha
En de gtx 1050ti gaat nooit in prijs omlaag. Was toen zelfs te krijgen voor 140 euros en nu kost het nog meer dan dat voor een 5-6 jaar ouwe kaart. Nvidia verlaagd nooit hun prijzen.
Nvidia heeft vastgesteld dat 1 fps 3,50+ kost en niks minder.
Nieuwe kaarten zijn sneller, dus meer betalen, want 1 fps is 3,50 op 1080p.
En je ziet dat de 3060 gemiddeld van 50 games zo'n 100 fps en idd kost ie ook 350+ euros.
Ze maken wel steeds lastiger met die namen te verzinnen welke het is eerst 4080 en nu 4070ti 8)7
Nee, ze maken het er juist duidelijker op, het was juist heel onduidelijk, 4090, 4080 16GB, 4080 12GB, waarbij je dan juist verwachtte dat het enige verschil tussen de 16GB en de 12GB puur het geheugen zou zijn, maar het zijn dus gewoon compleet verschillende chips. Juist nu is het dus duidelijker geworden, 4090, 4080, 4070-ti.
Als je het mij vraagt is het inderdaad meer een gewone 4070 of 4060 TI.

Voor circa 1200 gulden had je gewoon altijd een high-end (top segment) kaart en dat vertaalde zich ook in het euro tijdperk in soortgelijke prijzen. (circa 600 Euro)

Sinds ongeveer de 1000 series vind ik de prijzen toch al behoorlijk omhoog geschoten voor iig de high-end kaarten en daarna is het los gegaan in het gehele segment.

Ik ben er ook van overtuigd dat Nvidia nu gewoon zo greedy is geworden dat ze er een enorm winstmarge bovenop hebben gegooid... en om e.a. nog een heel klein beetje te verbloemen zijn ze met de benaming van kaarten aan het schuiven gegaan.

Zelf bezit ik nog een 1070 en ik ben wel toe aan een upgrade, maar dit zou zomaar de eerste keer kunnen zijn dat ik voor AMD ga.

Deze waanzin wil ik niet meer supporten om eerlijk te zijn.
Raytracing interesseert mij op dit moment nog niet heel veel... maar Nvidia heeft nog wel wat andere features die ik dan ga missen. (vooral m.b.t encoding en streaming)

Er moet echt goede concurrentie komen want anders moet je dadelijk een videokaart gaan leasen om het nog te kunnen betalen :)

Edit:
Overigens zijn de prijzen bij AMD ook wel redelijk "onvriendelijk" gestegen zoals lexkalin hieronder al zegt. Maar gezien de huidige situatie is daar iig nog iets voor te zeggen.

[Reactie gewijzigd door Donster op 26 juli 2024 19:29]

De andere kant hiervan is dat die nieuwe topkaart met introductieprijs van 1200 gulden, of het nu de Voodoo2 12 MB of de Nvidia TNT2 Ultra was, binnen een jaar waren ze nog maar een derde of minder van dat bedrag, en waren de nieuwe topmodellen weer 1200.
Ben het met je eens dat Videokaarten en Processoren nu langer mee kunnen en de kaarten ook langer hun waarde behouden. (relatief)

Mensen zijn ook veel te veel op kleine % verbetering aan het kijken,
terwijl prijs/kwaliteit eigenlijk veel belangrijker is geworden.

We zitten nu eenmaal in een tijd waar je overal grafieken ziet met vergelijkingen en mensen neigen al snel naar "het snelste van het snelste" terwijl ze misschien met een goedkoper product beter uit zijn voor hun gebruiksprofiel. (prijs/prestatie)

Telefoon zie je dit ook.
Collega vroeg mij om nieuwste Iphone want de huidige was niet meer te verantwoorden tegenover de luxe modellen van zijn kinderen... maar wat kan jij daar in je werk dan beter op doen? Tjah eigenlijk niks :)

[Reactie gewijzigd door Donster op 26 juli 2024 19:29]

Op meer dan 3 schermen in FullHD aansturen na, en stukken sneller zijn kan mijn X6800XT niets meer dan mijn vorige kaart (R9 Fury) kon. Maar zo kun je alles up- en downplayen, soms wil je gewoon iets nieuws en een hobby mag geld kosten.

Zelf hoorde ik 30 jaar geleden je "al die dingen(geluidskaart, VLB/PCI/AGP niet nodig zou hebben want "dat spelletje kunnen andere computers toch ook wel spelen", maar toen was de markt ook anders en computers voor nerds, nu moet elk kind op fortnite en in minecraft.

Ik kon als tiener elk jaar in november op de HCC van eigen geld voor 1000 gulden aan goed geprijsde onderdelen in antistatische zakjes en witte dozen mijn computer refitten zodat ik altijd alle(yo-ho a pirates life for me) nieuwste spellen kon spelen. Dat(kinderen het zelf laten betalen) zou met deze prijzen absoluut niet meer kunnen en de ouders moeten nu diep in de buidel tasten want als ze slecht spelen is het de schuld van hun crappy setup.

Op dit item kan niet meer gereageerd worden.