Vooral RX 7900 XT en RTX 4080 duiken ruim onder introductieprijzen

Een aantal van de eind vorig jaar geïntroduceerde nieuwe generatie videokaarten is fors in prijs gedaald. De RX 7900 XT is met een prijsdaling van 14 procent koploper, maar ook de RTX 4080 kun je inmiddels kopen voor 10 procent minder dan de introductieprijs, volgens de Pricewatch.

Beide kaarten zijn daarmee precies 150 euro goedkoper in aanschaf dan toen ze op de markt kwamen. Terwijl AMD zijn adviesprijzen nog altijd vrijwel gelijk houdt, voerde Nvidia in december al een officiële prijsdaling voor de RTX 4080 en 4090 door. Sindsdien zijn de prijzen echter nog verder gedaald; de RTX 4080 is bijvoorbeeld nog eens 80 euro goedkoper geworden sinds die aanpassing.

Een vaak genoemde drijvende kracht achter de prijsdalingen is de betere koers van de euro ten opzichte van de dollar. Toen de eerste videokaarten van de nieuwe generatie in oktober op de markt kwamen, was een euro ongeveer een dollar waard. Inmiddels is dat 1,06 dollar en begin februari werd zelfs eventjes 1,10 dollar aangetikt.

Dat verklaart voor een deel waarom de RTX 4070 Ti nog altijd precies zijn adviesprijs kost, want die kaart kwam pas in januari uit en had dus al een prijsstelling gebaseerd op een betere eurokoers. De koersstijging is echter geen verklaring voor het feit dat de RX 7900 XTX amper goedkoper is geworden, en de RTX 4080 juist meer in prijs is gedaald dan de eerder geïntroduceerde RTX 4090. Er lijkt dus ook voor een deel strategie achter de prijsdalingen te zitten, aan de hand van de populariteit van de verschillende modellen bijvoorbeeld. Daarnaast kampen zowel AMD als Nvidia met een teruglopende omzet.

De release van de RTX 4070 Ti was tot nu toe gelijk de laatste aanvulling op de nieuwe line-ups van AMD en Nvidia. Volgens de geruchten wil Nvidia zijn nieuwe serie in april verder gaan uitbreiden, terwijl AMD pas in de zomer met goedkopere modellen zou komen.

Videokaart Adviesprijs Laagste prijs Verschil
Introductie 3 maart 3 maart in € in %
RX 7900 XTX € 1.159 € 1.159 € 1.149 -€ 10 -1%
RX 7900 XT € 1.049 € 1.043 € 899 -€ 150 -14%
RTX 4090 € 1.949 € 1.869 € 1.799 -€ 150 -8%
RTX 4080 € 1.469 € 1.399 € 1.319 -€ 150 -10%
RTX 4070 Ti € 910 € 910 € 909 -€ 1 0%

Bron: Tweakers Pricewatch, AMD.com

Door Tomas Hochstenbach

Redacteur

03-03-2023 • 12:01

273 Linkedin

Lees meer

Reacties (273)

273
264
103
3
0
106
Wijzig sortering
Prijzen gaan nog wel iets verder dalen voor de RX 7900 XT, AMD moet nog steeds van hun oude 6000 serie af, RX 7900 XTX zal denk ik wel blijven op dit prijs punt vanwege de Flagship status. RX 7800 XT moet AMD agressiever positioneren. Moores Law is Dead heeft een mooie uitleg wat er aan de hand is: https://youtu.be/1Zkv4KeDDOk?t=2773.

In kort, Nvidia kan hun overschot aan inventory doorsluizen naar Servers en OEM's, AMD kan dat niet. AMD zit dus nu nog met inventory (al hoewel dit een stuk minder is dan Nvidia) en moet dit eerst nog wat meer kwijt. Wanneer dat weg is zal AMD "agressiever" zijn prijzen aanpassen bij introductie van FSR 3 / RX 7800 XT / 7700 etc. De kans dat AMD de RX 7800 XT onder het prijsniveau plaatst als de RX 6800 XT is klein. Mijn voorspelling zal zijn dat hij eerder op 699 uit komt (RX 6800 XT was 649 bij launch). Genoeg tijd om nog wat stock weg te werken wat betreft de RX 6800 XT en later zal de RX 7800 XT iets meer gaan dalen om meer Market Share te krijgen t.o.v Nvidia. De BOM (Bill of Materials) is ook een stuk lager dan die van de RX 6800 XT vanwege chiplet design. Yields zijn stuk hoger.

[Reactie gewijzigd door Brawler1986 op 3 maart 2023 14:08]

Ik zit ook eerder hieraan te denken.

Ik ben ook geen fan van die torenhoge prijzen, maar alles wordt nu eenmaal duurder. Ik denk ook dat sommigen de kosten van die bedrijven vaak vergeten. Fabrikanten hebben torenhoge R&D kosten, stroom, vervoer, loonkosten,... die ze ook moeten terugverdienen met hun verkopen. (Is iedereen die prijzen van energie even vergeten?)

Onderzoek naar nieuwe architecturen begint jaren op voorhand, machines, productie etc moeten aangepast worden, niemand had kunnen voorspellen dat alle prijzen zo hard gingen stijgen op enkele jaren.

De tijd dat we een midrange kaart voor 200-300 euro kongen kopen en een top end kaart voor 500-600 is voorbij en zie die trend nog niet snel terugkomen.
Ik denk niet de videokaart fabrikanten last hebben van de hogere energieprijzen.
Ze maken die dingen niet in Europa.

De winstmarges van Nvidia zijn sinds 2017 de hoogte ingeschoten, ze dalen nu weer sinds eind vorig jaar. Maar dat komt volgens mij voornamelijk door de lagere verkoop.

[Reactie gewijzigd door GoBieN-Be op 3 maart 2023 17:56]

De tijd dat we een midrange kaart voor 200-300 euro kongen kopen en een top end kaart voor 500-600 is voorbij en zie die trend nog niet snel terugkomen.
Er zit een behoorlijk verschil tussen jouw nostalgisch prijspunt en de realiteit van 1400€ voor een mid-range kaart RTX 4080. Ondanks inflatie, gestegen stroomkosten enz enz zit er een enorme marge op videokaarten die in de zakken van zowel Nvidia als AMD verdwijnt. in dit geval worden prijzen van een nieuwe generatie videokaarten kunstmatig hooggehouden om overschotten van oude voorraden kwijt te raken. Iets dat ondenkbaar is voor een markt als de autobranche. Toegegeven een dergelijke vergelijking is niet helemaal eerlijk, een nieuwe videokaart presteert aanzienlijk beter dan die van een vorige generatie. Iets dan voor een auto weinig verschil zal maken. De verklaring van Jensen Huang voor dergelijke hoge prijzen bij release van deze 4000 generatie moet met een enorme zee aan zout genomen worden.

Er is gewoon te weinig concurrentie in deze markt waarbij ik de nieuwe speler Intel zie als (nog) niet relevant. Daarbij heeft de enige concurrent AMD het zelfde voorraad overschot probleem.

Persoonlijk zal het me jeuken, mijn RTX 3080 die ik voor onder de 800€ had blijft er nog wel een generatie in zitten. De tijden dat een upgrade een must was om nieuwe games op een voldoende resolutie en framerate te spelen zijn ook wel voorbij.

Gestegen energiekosten lijken me trouwens weinig relevant, de productie van deze producten vind buiten Europa plaats.

[Reactie gewijzigd door dezwarteziel op 3 maart 2023 18:29]

De prijzen van de huidige videokaarten moeten zijn wat ze zijn.
Omdat de gigantische ontwikkel kosten en het creeren van dingen die dicht bij magie liggen moeten gebeuren.
Zodat jij hier elk jaar kunt klagen over de prijs.
Maar je kunt het tenminste kopen. En anders laat je het toch gewoon.
De prijzen van de huidige videokaarten moeten zijn wat ze zijn.
Onzin, inflatie, design, gestegen RND allemaal lariekoek. Zoals ik al aangeef dit oligopolie moet van een oude voorraad 3000 serie af en er zit een enorm vette marge op deze producten. Je moet niet alles geloven wat Jensen je voorliegt.

Heeft verder geen bal te maken met wat ik wel of niet kan of wil kopen of dat ik klaag of niet. Zoals ik al aangeef, het zal me jeuken. Als de tijd daar is dan klap ook ik die 1500 pegels neer zonder blikken of blozen. Sterker nog, jouw commentaar is dat van iemand die dat net gedaan heeft. Zei ik vroeger ook tegen willekeurige cheapskates op het internet nadat ik een 980ti cq.1080ti aangeschaft had. Nu is het verhaal echter ietsje anders, en met ietsje anders bedoel ik verdubbeld.

[Reactie gewijzigd door dezwarteziel op 3 maart 2023 21:36]

Maar in plaats bij elke serie de nieuwere versie te kopen en de oude dor te verkopen, die ik dat nu 1 keer per 2 nieuwe series, maar waar ik per saldo nog steeds 50% meer kwijt ben dan voor de 2 upgrades bij elkaar.
De echte reden waarom.de kaarten zo duur waren geworden is de crypto markt. Hoewel die hausse nu over lijkt te zijn, blijven Nividia en AMD hun marges houden (misschien wel met prijsafspraken tijdens het familie uitje).
Een nieuwe hausse zou snel kunnen komen als er straks voor de gemiddelde huis functies straks een home AI server nodig is waarbij een videokaart de AI processor is.
Ik sla inderdaad ook generaties over. Upgraden is ook niet echt nodig, een mediocre GPU uit de vorige generatie trekt de standaard PC resolutie 1440p met gemak.

Buiten de crypto markt was er schaarste door Covid. Maar je hebt gelijk, die miners betaalden toch wel. Nu is de bubbel gespat en zitten ze met magazijnen vol 3000 kaarten. En daarbij willen ze niet meer terug naar het oude prijs niveau. Zoals iemand al aangaf, volgens de aandeelhouders is minder winst verlies.

[Reactie gewijzigd door dezwarteziel op 5 maart 2023 12:37]

Nee hoor. Er kan nog wel 80% van de prijs af. Dan verdienen ze er nog zat aan.
Laatste keer dat ik een nieuwe videokaart kocht was een gtx275.
Zit letterlijk nu achter pc met amd r3600 en een gtx560ti..videokaart van zo'n 12 jaar oud.
Had graag een 1050ti of beter gehad in de goede oude tijd maarja ik wilde wachten op wat beters. Ik wacht tot ik een ons weeg of er iets op de markt kom wat ik daadwerkelijk wil ipv al die half assed producten. Ik weiger om nog een lcd scherm te kopen wanneer oled bijna rijp is. De 4090 kan me gestolen worden..overpriced bullshit zonder de nieuwste displayport komop mensen wordt wakker en koop geen onzin meer
De GTX275 is een GPU uit 2011. Dan zal je wel niet gamen. Ten minste, dat ligt er aan wat je er op speelt. Erg nieuw zullen de games niet zijn in elk geval. Nvidia laat driver ondersteuning voor oudere kaarten op een gegeven moment los. Ik speel graag een modern spelletje. Iets van minimaal de 3000 serie is voor mij een minimum. Ik heb er wat van in een laptop en in een desktop.

Maar om nu te zeggen dat het onzin is, een nieuwe GPU met een fatsoenlijk high refreshrate 1440p of 2160p scherm, dat ziet er fantastisch uit. Als je dat met een GTX 275 vergelijkt dan valt de onderkaak op de vloer.
De techniek is fantastisch, de huidige prijzen zijn alleen compleet onzinnig.

Je kan nu op OLED Monitors blijven wachten of 1500€ uitgeven. Of je wacht direct nog wat langer op Microled. Dan kan je altijd wel blijven wachten op het volgende. Een hobby mag ook wat kosten.

Verder, een GTX 275 verbruikt 210Watt, een IGPU of APU van iets moderners presteert beter, tegen een veel lager vermogensverbruik. Niet geheel onbelangrijk in 2023.

[Reactie gewijzigd door dezwarteziel op 8 maart 2023 14:07]

Ik snap al je punten. Ik gebruik echter de 560ti en 770 en er is geen enkele apu die dat kan beaten.
De 5700g is leuk maar de oude kaarten zijn sneller.
Zelfs de 1030 is trager. Leuk dat ze minder elektriciteit verbruiken.

Misschien dat ik wel naar intel arc ga, hun geven tenminste wel de nieuwste displayport. Dan nog een 240hz oled het liefst.
Het is een niche situatie, dat geef ik toe.

Spel wat ik speel werkte het best op crt schermen en stelt grafisch niks voor. Heb oudere versies op een pentium 3 kunnen spelen haha
Al die kosten bestaan al sinds het begin toch markt Nvidia een Bruto winst% van 60% en netto van 20%. In 2022 draaiden ze een recordjaar in 2023 zitten we weer op de 20% van 2021 en ervoor: https://ycharts.com/companies/NVDA/gross_profit_margin.
bedrijven proberen geen "eerlijke" winstmarge te maken, maar gedreven door hun aandeel houders proberen ze zoveel mogelijk winst te pakken. Als iedereen het normaal zou vinden €2000 voor b.v. een 4060 te betalen en €5000 voor een 4090, dan is dat ook wat Nvidia daarvoor gaat vragen. Omdat AMD een alternatief biedt en wellicht later Intel ook, kunnen ze dat soort prijzen niet vragen, maar het huidige duopolie is ver van ideaal...
Dit dus. Het is een marktprijs en geen kostprijs + x% marge . Blijkbaar is de huidige prijsstelling de sweetspot omzet / winst.
Dat dachten ze dus, maar de cijfers wijzen hier anders niet op. De huidige generatie van Nvidia en AMD trekt niet aan en komt niet op gang. Dit komt enerzijds omdat veel mensen tijdens Corona een upgrade hebben gedaan. Minen was destijds populair en nu ook niet meer.

Daarnaast zijn deze prijzen (van bijv. de 4080) niet een klein beetje gestegen maar ruim gestegen vergeleken met msrp van de 3080.
komt ook omdat de 4090 veel meer voor de hand ligt dan de 4080
Daarnaast zijn deze prijzen (van bijv. de 4080) niet een klein beetje gestegen maar ruim gestegen vergeleken met msrp van de 3080.
Ik heb mijn 3080 destijds via via in Taiwan voor MSRP kunnen kopen, ong. €750.
De 4080 is letterlijk het dubbele. Complete waanzin.
Volgens mij is er nu gewoon iets anders aan.de hand: corona voorbij, inflatie is hoog, het geld voor hardware is gewoon uitgegeven voor de komende vier/vijf jaar bij de consument. Prijzen gaan dalen omdat ze al veel te hoog waren. Kun je allerlei mee praat verhalen gaan houden in de fantasie dat je directeur bent van Nvidia of AMD. Maar de realiteit is dat ze afhankelijk zijn van wat de 'gek' er voor geeft. En er was tijdens de coronapandemie veel gekte. Nu zullen ze denk ik weer wat concurerender moeten worden voor de huishoud portemonnee.
"Is iedereen die prijzen van energie even vergeten?"
Wat jullie in Europa meemaakten was extreem, de elektriciteitsprijzen waren lang niet overal zo gestegen.
De prijzen in de video markt zijn gewoon torenhoog en zullen waarschijnlijk nog wel flink verder dalen.

Historisch gezien koste een flagship gpu vergelijkbare prijzen als een flagship cpu.
Nemen we dat als uitgangspunt zou een 4090 zo rond de 700 euro moeten kosten.

Aangezien de r&d en productie kosten van flagship GPU’s lager liggen dan cpus, zou je verwachten dat zelfs bij die prijzen Nvidia en amd nog geld kunnen verdienen zullen die marges zo hoog zijn als de afgelopen 6 jaar waarschijnlijk niet maar nog steeds goed .

Ik denk dan ook dat de trend van prijzen die naar beneden gaan alleen maar verder door gaat zetten vooral ook omdat de midrange en server markt Intel steeds competitiever wordt .
Goed punt! Een wafer is een wafer. Of er nou gpu-chips op gemaakt worden of cpu-chips, de techniek en de kosten die hierbij gemaakt worden, zijn hetzelfde. Dus kun je ervan uitgaan, dat ook de prijsstelling hetzelfde kan zijn. Maar dat is nu duidelijk niet het geval, dus worden er ergens in het traject schandalig hoge winsten gemaakt. En dat zie je weer terug in die idioot hoge winstcijfers van die bedrijven.
Je moet ook kijken naar hoeveel chips er uit een wafer gaan.

Als ik snel google, dan heeft de chip voor een 4090 een die size van 601 mm2 en die voor een 13900k 257 mm2.

Als je dus puur naar de productiekosten kijkt, mag een GPU minstens twee keer zo duur zijn. Bovendien heeft een GPU nog o.m. geheugenchips en een bord nodig.
Een cpu heeft ook geheugen en een bord nodig :)
En de wafers zijn kleiner geworden, omdat er steeds kleinere chips op gemaakt worden. Die techniek is enorm vooruit gegaan. De GTX770 van Nvidia werd gemaakt met 13nm techniek. AMD zit nu op 7 en deels zelfs 3nm, maar intel niet. En dat komt omdat intel achterloopt ten opzichte van AMD. Intel maakte de fout om zelf waferfabs te bouwen, AMD besteedt het uit aan ASML en TSMC. Maar je hebt gelijk, het hangt er uiteindelijk van af hoeveel er per die bruikbaar zijn inderdaad.

[Reactie gewijzigd door poktor op 3 maart 2023 14:31]

Een cpu heeft ook geheugen en een bord nodig :)
Ja, maar die koop je apart.
Een GPU met een zif socket zie ik eigenlijk wel zitten, zelf je geheugen, pcb, power toevoer, koeler etc kiezen en als er wat defect raakt hoef je niet een hele gpu + memory + pcb + power converters weg te gooien en je hebt een upgrade path. Wellicht is integratie met een CPU socket op de gfx card ook een optie, dan kun je de verbinding met de cpu wat verder integreren. Het Mainboard bestaan dan alleen uit de support chips en communicatie. Doesn't make sense but a nice thought experiment ;)
GTX 770 was 28nm de GTX 900 ook, bij de GTX 1000 16nm.
Industriestandaard is 300mm wafers, dat is al de laatste decennia zo voor state of the art nanometertjes.
Goed punt! Een wafer is een wafer. Of er nou gpu-chips op gemaakt worden of cpu-chips, de techniek en de kosten die hierbij gemaakt worden, zijn hetzelfde. Dus kun je ervan uitgaan, dat ook de prijsstelling hetzelfde kan zijn. Maar dat is nu duidelijk niet het geval, dus worden er ergens in het traject schandalig hoge winsten gemaakt. En dat zie je weer terug in die idioot hoge winstcijfers van die bedrijven.
Eigenlijk niet want de bill of materials is vele malen hoger van een GPU dan voor een CPU. Het begint al met peperduur geheugen. De variabele kosten van een cpu zijn erg laag.
Oh ja, dat snelle geheugen had ik niet aan gedacht inderdaad. Dat is duur.
De stroom regulering is ook erg duur en de koeling eigenlijk vaak ook. Een cpu kost bij wijze van spreken nog geen 15 dollar aan materiaal. Bij een gpu kom je veel hoger uit. In beide gevallen moet je dan nog de fabriek en r&d terug betalen.
Nou een wafer is niet helemaal een wafer en ook de cpu vs een gpu is niet exact hetzelfde.

In het algemeen zijn GPU’s eenvoudiger in r&d en productie dan cpus daarom zie je ook dat amd en Nvidia eerst de nieuwere nodes van tsmc gebruiken voor GPUs en daarna amd pas voor cpus.

Verder natuurlijk niet vergeten dat een gpu ook een bord en geheugen nodig heeft voor de retail.

Laatste punt waarom de vergelijking op basis van productie kosten lastig is . De volumes van cpus zijn heel hoger dan de gpu volumes .
Duidelijk verhaal. Dank je :)
ignore

[Reactie gewijzigd door Diavire op 3 maart 2023 21:25]

Misschien goed lezen , ik geef alleen aan waar historisch de prijzen voor GPU’s lagen. En dat bij die prijzen amd en Nvidia nog steeds winst zouden kunnen maken.

Wat ik niet zeg , is dat amd en Nvidia dat moeten doen. Ieder bedrijf moet zijn eigen winst maximaliseren dus zij ook.
Resultaten uit het verleden zijn..............resultaten uit het verleden.
En bieden dus niets voor de toekomst.
En er is veel verandert, helaas.
Resultaten uit het verleden geven geen garantie inderdaad . Maar de markt heeft zich op weg naar boven net zo gedragen als bij eerdere cycli omhoog met een extra stuwing van de pandemie en crypto markt.
Dus ik verwacht dat op weg naar beneden dat redelijk hetzelfde gaat zijn als bij eerdere bust cycli.


Daarbij staan alle seinen voor Amd en Nvidia op rood. Volumes dalen nog altijd vrij snel , ingekochte capaciteit kan maar ten dele worden afgeschaafd en je grootste concurrent Intel begint steeds beter te worden in GPU’s en dan vooral de drivers.

Allemaal elementen waardoor ik durf te voorspellen dat de prijzen van GPU’s voorlopig nog lekker door zullen dalen.
Ik ben ook geen fan van die torenhoge prijzen, maar alles wordt nu eenmaal duurder.
Dat dingen duurder worden is een gegeven, maar er zijn natuurlijk ook grenzen.

Ik heb een GTX 1070 in mijn systeem zitten, die een paar maanden na de lanceringsdag gekocht is. Het is een wat meer high-end model (MSI GTX 1070 8X GAMING), en die kostte destijds €500. Als je de PW-grafiek bekijkt dan kun je zien dat die kaart in de tijd dat die op de markt was constant tussen de 500 en 600 euro heeft geschommeld, met een minimum van €450 bij sommige winkels (waar ik eerlijk gezegd niet zou bestellen vanwege de shopreviews) en wat uitschieters tot €800. Het gemiddelde is echter €500, en dat heb ik er ook voor betaald; €600 zou destijds echter nog niet teveel geweest zijn (maar aan de dure kant).

Ik wilde met mijn nieuwe kaart in hetzelfde segment blijven: x70 serie, en van dezelfde (bouw)kwaliteit als de MSI die ik nu heb. De GAMING-variant van MSI is niet verkrijgbaar, de TUF en GAMING versies van Asus en Gigabyte wel.

We komen natuurljk net uit een grafische-kaart-crisis. De prijzen van deze kaarten zijn al een tijd aan het dalen, maar de laatste paar maanden gaat het trager. Sinds juli 2022 is het gemiddelde prijspeil gezakt van €700 naar €600 euro.

We zijn dus _bijna_ weer terug op de prijzen van 2016, maar nu is het gemiddelde van nu, de hoge prijs van toen. Ik weet niet of de prijs voor deze oudere kaarten nog verder zal gaan zakken. Echter, de RTX 4070 Ti kost nu 900 euro. Dat suggereert een prijs van €800 voor de non-Ti versie, als we uitgaan van het veschil tussen die twee in de 3000 serie. Dat is echter nog steeds 200 euro hoger dan de prijs van een 3070, en die is al 100 euro hoger die van de 1070 destijds _en dan is die al 1.5 jaar oud, waar de 1070 slechts een paar maanden uit was_.

Met andere woorden, als je in 2016 de laatste nieuwe x70 kaart wilde kopen dan kon dat voor €500, terwijl de laatste nieuwe x70 kaart (als er een 4070 non-Ti zou zijn) nu rond de €800 euro zou kosten.

Dat is een prijsverhoging van meer dan 50%. Ik weet niet of we nog ooit een 4070 non-Ti in een Asus TUF, MSI GAMING of Gigabyte GAMING (dus de wat meer high-end versies) gaan zien voor €500... of zelfs €600.

[Reactie gewijzigd door Katsunami op 3 maart 2023 16:07]

Veel plezier met je 1070 van 7 ( ZEVEN) jaar oud.
Anno Nu noemen we dat hopeloos verouderd.
Nu gebruik je het als prijsvergelijker.
Het kan verkeren.

[Reactie gewijzigd door brugj03 op 3 maart 2023 18:26]

lol jij bent grappig.
De 1070 kan nog jaren mee...waarom? omdat hij nog zware spellen aan kan op 1080 en 1440 p.
Draai zelf met 1070ti cerberus np met games op 1080p.
Ook al is ie oud draait als een zonnetje.

En waarom zouden WIJ een peperdure kaart aanschaffen?
1. na de 1000 serie zijn de stroomverbruik x2 met sommige kaarten.
2. de technologie wordt kleiner en duurder?
3. Wat kleiner wordt gebruikt minder stroom...heb ik geleerd.
4. tenslotte .....wij sponsoren de aandeelhouders en die denken dat de meesten echt maar ook echt DOM zijn.
En toch dat zodra je een 4090 op dezelfde resolutie / settings / fps laat draaien als waarop de 1070 draait. Dan zal je zien dat vaak zelfs de 4090 alsnog minder stroom gebruikt dan de 1070.

Ik zie het nu al bij veel games omdat ik altijd hardcap FPS instel ivm optimale gsync dat mijn power draw gemiddeld lager is dan de 3080 In veel games.

Dat een kaart 2x zoveel stroom is gaan gebruiken betekent het niet dat het daarom ook minder efficiënt is.
Leuk voor jouw verhaal.
Maar ik denk dat jij het niet begrijpt wat ik bedoel.
Wederom mijn vraag....waarom zou ik 2000/3000euro uiteindelijk gaan betalen?
De 3090 koste ook boven de 2k?
Sorry dat ik dit nu ga zeggen....zijn mensen nu echt Brain Death?.

Ps.
Mijn onder full load gebruikt 175 w.
Succes met de kaart van heel veel euros.

[Reactie gewijzigd door noway op 4 maart 2023 15:05]

Ik reageerde vooral op je stuk dat sinds de 20xx kaarten het stroomverbruik is verdubbeld. Maar daar heb je het alleen over max stroomverbruik. Ga je vervolgens de kaarten qua efficiëntie naast elkaar leggen wordt het een ander verhaal.

Ik hoef je niet te overhalen om 2k neer te leggen, dat haal jij nu ineens in de context erbij.

Nogmaals ik heb het over efficiëntie van de kaarten ...
Dat is prima.
Vanaf de 2 serie is en zijn de prijzen achterlijk hoog.

Goed weekend nog
Ik snap niet zo de vijandigheid in jouw reactie.

Het lijkt er erg op dat je gefrustreerd/geïrriteerd bent omtrent de huidige GPU prijzen. Alleen ik kan daar niks aan doen, ik ben geen Nvidia ;)
Hoezo vijandig?
Ik ben niet boos op U
Als dat zo over komt op jouw....dat is niet mijn bedoeling ;)
WTF ? "Destijds" noemden we dat hopeloos verouderd ? Die kaart was nog geen 3 maanden uit toen ik hem "destijds" kocht.

Het punt is dat ik "destijds" een GTX 1070 kon kopen voor €500, en die was 2-3 maanden uit.
NU betaal ik voor een RTX 3070 €600 euro, maar die is al ruim 1.5 jaar (!) uit, en het is niet de nieuwste generatie. Als er een RTX 4070 zou zijn geweest, dan had die rond de €800 gekocht.

Dus, om een _recente_ kaart in de x070 serie te kopen ben je nu €300 euro duurder uit dan in 2016. Dat is even een prijsstijging van 60%. Dat vind jij normaal ofzo? Dat is niet eens meer 2016 + inflatie, maar gewoon simpelweg nog extra prijsverhogingen daarboven op.

[Reactie gewijzigd door Katsunami op 3 maart 2023 20:34]

Moet zijn ànno nu.
Btw. Inflatie en design plus sterk toegenomen research kosten.
Het is take it or leave it.
Ze kunnen het ook gewoon niet meer maken. Beter duur dan niet te krijgen.
60% in 7 jaar is inderdaad veel.
Bij huizen is het bijna 100% in 7 jaar, dus zo gek is het niet.
Bij huizen is het bijna 100% in 7 jaar, dus zo gek is het niet.
Er is dan schijnbaar ook een tekort van 400.000 woningen.

Desalniettemin is 100% in 7 jaar natuurlijk niet te betalen voor starters/nog-niet-huizen-bezitters.
Als je het narekend is het wel puur inflatie.zeg gemiddeld 3% per jaar en afgelopen jaar 15% dan kom je sinds 2016 dus in de richting van een 60% prijsverhoging
Ik weet niet hoe jij rekent, maar ik kom op 37% met die getallen.
Komt nog eens bij dat de 4080 eigenlijk een 4070 (TI) zou moeten zijn dus je gaat eigenlijk een lager segment in met de 4070.
Ik ben ook geen fan van die torenhoge prijzen, maar alles wordt nu eenmaal duurder. Ik denk ook dat sommigen de kosten van die bedrijven vaak vergeten. Fabrikanten hebben torenhoge R&D kosten, stroom, vervoer, loonkosten,... die ze ook moeten terugverdienen met hun verkopen. (Is iedereen die prijzen van energie even vergeten?)
Volgens mij gaat het puur om winst maken. Alle betrokken partijen zijn beursgenoteerd. Minder groei is krimp, aldus de aandeelhouders.
Minder groei is krimp, aldus de aandeelhouders.
Eigenlijk is dat gewoon idioterie. Je kunt niet onbeperkt groeien. Je kunt al helemaal niet onbeperkt steeds harder groeien. Op een gegeven moment zijn er gewoon geen mensen meer waar je je product nog aan zou kunnen verkopen.
Hoeft ook niet.
Nvidia zit allang niet meer in dezelfde markt als 5 a 6 jaar geleden.
Ai is nu hun business en het is booming
Ze hoeven gamers dus geen plezier te doen.
En dat doen ze dus duidelijk niet.
Nvidia doet mij een enorm plezier met een 4090, fantastische kaart. Ja ik ben het ermee eens dat het bedrag fors is. Maar het is immers de markt die bepaald. Ik had het ook liever goedkoper gezien, maar het is wat het is.

Als mijn vriendin en ik zaken in het huis vernieuwen (vloer/meubels/accesoires) zijn we ook echt beduidend meer kwijt dan jaren geleden.

Het is gewoon allemaal stuk duurder geworden. Of laat ik het zo zeggen, ons geld wordt minder waard :)

Dus ja dat een bedrijf meer winst maakt in hoeveelheid dollars zegt niet automatisch dat ze meer winst in waarde hebben. Immers is het geld en dus winst van bedrijven ook net zoals bij consumenten minder waard geworden.

Moederborden van nieuwe generaties starten tegenwoordig ook met 160 euro. Jaren terug kon je prima voor 75 euro een goed moederbord kopen.

[Reactie gewijzigd door marco-ruijter op 4 maart 2023 08:10]

Mijn huidige computer uit 2016 heeft een bord erin dat destijds in de sub-top van moederborden zat (als je dus niet gaat kijken naar specifieke workstation- of serverborden) en dat was €200. Als je toen 300-400 voor een moederbord uitgaf dan was je aardig specialistisch aan het kijken, met aparte eisen die je normaal niet in een PC zou zien.

Nu heb ik een bord uitgezocht dat aan mijn eisen voldoet en als het goed is 10 jaar mee zou moeten gaan (het heeft dus 2.5 en 10 GB ethernet, de mogelijkheid voor 128 GB RAM, en 4 SSD's) en dat bord zit op €430. (Asus ProArt X670E). Met de CPU erbij (7950X, á €600) is dat over de €1000 voor alleen een moederbord en de CPU om in de topklasse van het consumentenspul te zitten. 7 jaar geleden was je daar dus al met een dikke 500-600 euro. (Duurdere borden dan de ProArt hebben veel dingen zoals ladingen RGB, meer overklokmogelijkheden en andere opsmuk die ik niet nodig heb. Ik ga deze computer bouwen om hem, in theorie, aan te zetten in 2023, en weer uit te zetten in 2033. Het belangrijkste is dat hij 16 cores heeft, 64 GB RAM, en stabiel genoeg is om zo nu en dan een paar dagen 24/7 flink op zijn staart getrapt te worden.)

[Reactie gewijzigd door Katsunami op 4 maart 2023 17:02]

Ha, ook een 4090 bezitter.
Fantastische kaart toch. Wat een performance.
Ik zeg, gewoon doen als je er lol in hebt. Geld moet rollen.
Laat de losers maar zeuren, ik lach ze uit.
Dat is beetje onzin over de energie prijzen....namelijk waar de kaarten geproduceert worden is NIET in de EU.
Die worden gemaakt in landen waar slaven werken en 80 uur werk week hebben.
Er staan niet voor niks zulke bedrijven buiten de EU en Usa he :)
Ik denk persoonlijk dat AMD de 7900 XTX oorspronkelijk wilde positioneren in de buurt van de RTX 4090 en dat ze onaangenaam verrast zijn door de hoge performance van die GPU. Daarom zijn ze van strategie verandert en hebben de XTX tegenover de RTX 4080 gepositioneerd qua prijs. Echter daarmee kwam hun 7900 XT in het gedrang, want die werd nog wel voor de prijs op de markt gezet die ze origineel in gedachten hadden.

De consument zag meteen dat voor een kleine meerprijs de XT ruim verslagen werd door de XTX, dus die kaart was ineens een stuk minder interessant (hetzelfde gebeurde met de RTX 4080).

Dus AMD moest wel iets doen aan de prijzen van de 7900 XT om hem nog aantrekkelijk te houden t.o.v. de 7900 XTX.

Voor NVIDIA geldt hetzelfde voor de RTX 4080, die blijft ook op de plank liggen omdat de power users naar de RTX 4090 gaan en de wat minder bedeelden de RTX 4070Ti pakken (of naar AMD gaan).
Voor NVIDIA geldt hetzelfde voor de RTX 4080, die blijft ook op de plank liggen omdat de power users naar de RTX 4090 gaan en de wat minder bedeelden de RTX 4070Ti pakken (of naar AMD gaan).
Ik denk inderdaad dat de "wat minder bedeelden" 1000 euro over de balk gooien voor een videokaart :+
Ik bedoelde meer in de zin van mensen die normalerwijze voor een x080 kaart gegaan zouden zijn, maar dat gezien de prijzen nu niet willen/kunnen doen.

De mensen die normalerwijze een x050 of x060 kaart kopen hebben op dit moment in de rtx 4000 en rx 7000 series geen opties.
Het gerucht is dat de 4080 een BOM heeft van 300 dollar. Vervolgens spendeert Nvidia hetzelfde yoy aan research. Natuurlijk de prijsvorming is meer dan enkel productie en research, maar het lijkt er toch wel heel sterk erop dat zowel Nvidia als amd gewoon de prijs opjagen om beiden winst te compenseren. Natuurlijk kun je verschillende redenen verzinnen de prijs verhoogd is maar uiteindelijk draait het gewoon om de bottom line. Men wilt op zn minst even veel winst maken terwijl we weten dat de sales keldert.
MLiD heeft nogal een reputatie voor dingen uit zijn duim zuigen dus ik zou het met een korrel zout nemen. Maar goed een kapotte klok is ook 2x per dag correct.
Kan geen plusjes uitdelen, maar puike uitleg!
oh ze zijn goedkoper :) groot nieuws.

wacht... nadenken...

nog steeds veel te duur!
Wat is je definitie van duur? Een Playstation 5 is ook rond de 550(veel hoger dan vorige generaties na 2,5 jaar) en high end telefoon zelfs vergelijkbaar met een high end videokaart. Dan weet ik wel waar ik het geld wél voor over heb. ;)

[Reactie gewijzigd door MN-Power op 3 maart 2023 12:19]

Geen enkele van bovenstaande videokaarten kost minder dan €800, dus ja, de helft duurder dan een PS5 (jij kwam met die vergelijking af...) is best wel duur te noemen. Natuurlijk zijn ze ook sneller en alles is duurder geworden, maar je moet er wel nog een pc rond bouwen die er ook niet goedkoper op is geworden.

Maar met wat je over smartphones zegt, dan koop ik gewoon een lager model en blijf ik evenveel uitgeven.

Ik ben nooit voor de topmodellen geweest, maar mijn onderbuikgevoel is dat, rekening houdend met inflatie en duurdere productie, een subtopper zoals een *70 of AMD equivalent nu rond de €500-600 moet kosten, en dat is al een stuk duurder dan voor 2020.

We zullen wel zien wie gelijk heeft, maar ik verwacht dat die prijzen nog wel wat gaan dalen want dit hebben slechts enkelingen er voor over.
Maar dit zijn dan ook de top-end grafische kaarten
Op release kostte de PS4 ong. €400,-, in die tijd kostte een top-end GTX780TI ook €700,-.

Dat is een prijsverhouding van 75%. gooi je diezelfde factor over de €550,- van de PS5 dan zit je al aan een bedrag van €962,50. De AMD kaarten vallen gewoon binnen die range, gekeken naar de 7900XT pricepoint waarbij de 7900XTX de enthusiast kaart is.

Ik denk dat je m.b.t. de Nvidia kaarten een goed punt hebt, die zijn m.i. echt te hoog geprijsd. Maar uiteindelijk moet ook blijken wat de consument ervoor over heeft... Als mensen dit blijven betalen dan zal die prijs niet gaan zakken. Dat de prijs nu (iets) zakt lijkt me dan ook een teken dat verkopen tegen vallen. Althans, dat hoop ik

[Reactie gewijzigd door Dazzler2120 op 3 maart 2023 13:17]

Maar een midrange kaart als een 4070Ti willen ze nu ook 900+ voor hebben
Ik vermoed dat er op de PS5 ook meer verlies word genomen.
In 2013 was console gaming een beetje een aflopende zaak. Men vroeg zich af of dat nog wel de toekomst had. Ze zijn toen dus een stuk conservatiever geweest met de hardware dan ditmaal.

Deze generatie lanceerde in 2020 echt op de piek van gaming hype. De coronapandemie was natuurlijk niet voorspeld maar de markt was ook al jaren aan het groeien. Met de One X en PS4 Pro was de vorige generatie nog wat gerekt waardoor de veeleisende gamer niet richting de PC vertrok zoals rond 2010 gebeurde.

[Reactie gewijzigd door Wolfos op 3 maart 2023 13:46]

De PS4 was op papier vergelijkbaar met een GTX 660. Een midrange kaart die toen een jaar oud was.
De PS5 is vergelijkbaar met een RTX 2080. Een high-end kaart.

Er is momenteel dus veel meer kracht nodig om te concurreren met de consoles, die als basis gezien worden. Daarom is de midrange opgeschoven, en is de high-end zo belachelijk duur geworden. Want er is gewoon een markt om die games te spelen op instellingen die de PS5 ver te boven gaan. Terwijl je bij een midrange kaart verwacht dat ie ongeveer gelijk is aan een console (en dat is de RTX 3060 dan ook).

[Reactie gewijzigd door Wolfos op 3 maart 2023 13:26]

is misschien een heel goede indicator,
Een Losse GPU die meer kost dan een console is duur.
Dat zou je kunnen zeggen, maar een PS4 was vlak na introductie al 400 en na 2,5 jaar(zo oud is de 5 nu) nog maar rond de 300. Een leuke videokaart kostte toen toch echt meer. En ik betaalde het er graag voor. Sterker nog na de PS3 ben ik definitief afgehaakt van consoles, dát is het me niet waard. ;)

Trouwens, de high end kaarten zijn nu wellicht ook wat overpowered. Ik ben (veel)meer tevreden over de performance van mijn 3090 na iets meer dan 2 jaar dan ik over mijn 1080ti was na 2 jaar. En als ik een 3080(/ti) had gehad was dat beeld niet veel anders geweest(ik snap dat de 3090 meer een Titan tegenhanger is).

[Reactie gewijzigd door MN-Power op 3 maart 2023 12:52]

De PS4 was dan ook niet bepaald high-end te noemen, zelfs niet bij release. De PS5 en XSX zijn daarentegen ten opzichte van de toen gangbare PC hardware een stuk beter bedeeld.

Neem je de BBG van gisteren, dan ben je op de PC ook nu, twee jaar na dato, nog ongeveer 1000€ kwijt om gelijkwaardige prestaties te krijgen.
Sterker nog, de PS5 heeft ong. 10TFLOPS, de PC 8TFLOPS en de consoles zijn waarschijnlijk iets efficienter, dus de PS5 "wint" dat nog. Ook heb je minder gedoe met Windows e.d. bij een dedicated console.
Nadeel is dan weer dat je de PC ten alle tijde weer een upgrade kunt geven, terwijl je bij consoles op de volgende generatie moet wachten.
Sinds wanneer heeft een hypothetische PC een maximale bandbreedte van 8TFLOPS?
Sorry, daar was ik niet erg duidelijk! Het ging om de BBG mainstream PC met een RX6700XT.
Tflops zegt echt zo weinig.
Ook heb je minder gedoe met Windows e.d. bij een dedicated console.
Ik zie het andersom. 600 euro betalen voor een console waar ik alleen maar spellen van gemiddeld 80 euro op kan spelen.

Op een console kan ik geen alt tab doen en ook compleet andere zaken dan gamen.

En daarbij is het grote nadeel van een console dat zodra er een nieuwe generatie uitkomt meestal na een jaar geen nieuwe spellen uitbrengt voor de vorige generatie. Dat het bij de PlayStation nu anders is ivm tekorten veranderd daar niks aan.

Dus moet je toch wel echt in je berekening nemen dat je tegenwoordig vaak nog iets als een laptop of desktop naast een ps5 moet hebben.

Dus om zomaar te roepen in het kader van "tflops" dat de ps5 wint is voor mij niet echt het geval en hoe ik er naar kijk.
Tuurlijk, het is maar een factor in het totale gebeuren en ook het vergelijken van grafische kracht op basis van TFLOPS alleen is waarschijnlijk geen echt goede maatstaf, eerder een indicatie. Maar tegenover de flexibiliteit en upgrade mogelijkheden van een PC staat dat een PC met een vergelijkbare kracht ben je het dubbele kwijt bent als voor een PS5 - plus het gemiep van een Windows systeem draaiend houden, tegenover een console waar dat hopelijk eenvoudiger is. Ik had een HTPC voor muziek en films en heb die ingewisseld tegen een Nvidia Shield: ik was het zat dat na zo ongeveer elke Windows update spullen niet werkten, met name omdat bij de muziek de TV niet aanstaat en je dus niet ziet waarom het nu weer niet werkt.
Ga je dan voor een andere VR bril dan de Quest, b.v. vanwege Meta allergie, er vaak base stations enz. nodig zijn, reken maar gauw over €1000.- dus samen vanaf €2000 tegen de €1100 voor PSVR2.
Er is geen indicatie te bedenken die de (enorm uiteenlopende) meningen van iedereen samen kan voegen tot een soort feitelijk statement!

550 voor de PS5 vind ik duur, 1200 voor een GPU niet, maar dat is simpelweg op basis van mijn use-case (ik game veel en veel meer op een PC).

[Reactie gewijzigd door watercoolertje op 3 maart 2023 14:18]

Waar haal je de onzin vandaan.
Losse GPU` s zijn verkrijgbaar in alle prijsklassen.
Een workstation GPU kost heel veel geld maar is niet duur voor degene die hem nodig heeft.
2016 GTX 1080: $699
2018 RTX 2080: $699
2020 RTX 3080: $699
2022 RTX 4080: $1199

En dan hebt ik het nog niet over het verschil tussen de officiële introductieprijs en de straatprijs.
Dus wat gaat hier mis?
Mooi lijstje. :) En je ziet ook meteen dat de prijzen nu nog steeds veel te hoog zijn. Gewoon geduld hebben, gaan vanzelf zakken.
Ik heb in in oktober 2021 1400euro betaald voor 3080 dus ik ga dat sowieso niet nog eens doen. :D
Haha inderdaad die 699,- voor de 3080 was echt een grote leugen.
Excuseer maar niemand heeft in 2020 een 3080 gekocht aan 699$.
Nee idd €819... en daarna is het alleen maar duurder geworden tot zelfs 2x wat ik er voor betaald had.
Ik geef de adviesprijzen zoals die door de fabrikant destijds werden gebruikt. Ze zijn in eerste instantie wel verkocht ver onder de 1000 euro. Een adviesprijs van 1199 voor die 4080 blijft dus een flinke afwijking.
Geen van allen natuurlijk.

Tijd voor een nieuwe OnePlus speler, of voor Intel die met de Arc generatie mooi de prijzen drukt.
1000+ euro voor een GPU of telefoon is van de pot gerukt.
Dat ligt helemaal aan je usecase. Gebruik je je GFX card ook voor 3d model rendering of machinelearning, dan kan het het geld best waard zijn als je daarnaast er ook nog eens een mooi spelletje op kan spelen! Hetzelfde geldt voor een telefoon. Ik gebruik m’n telefoon ook om te gamen, werken, foto’s maken en editten. Voor mij is een telefoon van rond de €1000 niet een gek bedrag aangezien ik er soms wel 6 uur op een dag mee bezig ben. Ik zit gemiddeld op de 4 uur per dag en doe 3 jaar met een telefoon. Dus dat is rond de 4400 uur per telefoon. Oftewel 23 cent per uur.
Dat ligt helemaal aan je usecase. Gebruik je je GFX card ook voor 3d model rendering of machinelearning, dan kan het het geld best waard zijn als je daarnaast er ook nog eens een mooi spelletje op kan spelen!
Doe eens een gooi om wat voor percentage van de kopers dat zou gaan dan? (en dan bedoel ik niet de hobbyist die een paar keer per jaar eens wat met Blender of Stable diffusion rommelt)
Nu de crypto hype op z'n retour is worden die kaarten toch voornamelijk gebruikt voor games. En de reden om de grootste te willen hebben is toch vooral 'bragging rights'.
Dat is zeker waar. Een vriend van mij heeft ook een RTX 4080 gehaald voor €1700 en ik zei ook dat hij gek was. Hij vindt dat leuk en heeft het geld ervoor. Ik ga er zelf nooit zo’n bedrag voor neerleggen, maar dat neemt niet weg dat voor sommige mensen het de prijs echt waard is.
Tja, met omrekenen naar uren krijg je extreem kromme vergelijkingen.

Een bed van 3000 euro is dan extreem gunstig, want daar slaap je 8 uur per dag op, en kun je 5 jaar mee doen.

Andere zaken worden weer onbetaalbaar. De plopper kost 8 euro, en daar ben je in 10 minuten klaar mee per twee jaar (hopelijk).
Slaap nog steeds op een bed van meer dan 30 jaar oud.
De Playstation 3 was 599 bij launch. Het ligt er maar net aan hoe high end ze de hardware erin willen.

Maar goed bij alles geldt dat wij uiteindelijk de prijzen bepalen. Zolang wij grafische kaarten blijven kopen van 1800 euro blijft Nvidia de prijzen wel verhogen. Dit zie je bij telefoons ook. En tot op heden heeft Sony ook geen enkele reden om de PS5 af te prijzen. Want die gaan als warme broodjes over de toonbank.

Pas als we stoppen met het kopen van de duurdere varianten zullen ze verdwijnen.
Was de PS2 niet rond de 1200 gulden voordat hij hier goed leverbaar was? :) Reken dat voor de lol eens om incl. inflatie. Ik ken mensen die zoiets ervoor betaald hebben. Ik trouwens moet eerlijk zeggen dat ik die wél voor gek heb verklaard. ;)

En er is geen we. Ik vond en vind mijn 3090 waard wat ik ervoor heb betaald. Een 4070 ti is vergelijkbaar qua prestaties en vaak zelfs beter(behalve dan als je de 24GB nodig hebt, bijv AI workloads), dus voor mij persoonlijk is deze prijs acceptabel. Het is tenslotte ook onderdeel van de simrace hobby en daar wil ik wel performance hebben op 4k. Dus prima als jij het er niet voor betaalt, maar ik laat me niet voor dat karretje spannen.

[Reactie gewijzigd door MN-Power op 3 maart 2023 13:28]

Ik vind het een heel vreemd antwoord dat je geeft: "er is geen we", "ik laat me niet voor dat karretje spannen".

Het gaat niet over iemand persoonlijk. Dus ook niet over jou als persoon. Het is een algemene opmerking en die staat als een huis. Je kunt er objectief niets tegenin brengen. Zolang er voldoende consumenten zijn die producten voor steeds hogere prijzen blijven kopen zal dit voor producenten een prikkel zijn om hier mee door te gaan. Feit.

Of jij dat een ontwikkeling vindt die je prettig vindt of niet doet hier niets aan af. Die van mij ook niet. Het gaat om het grotere geheel. Om de verkoopcijfers van producten.
Dat is een stukje frustratie aangaande mensen die anderen mee willen trekken in een koopboycot. :) Ik bepaal zelf wat ik te duur vind.

Op zich klopt wat je zegt, alleen gaat dat nooit gebeuren. Enthousiasts zal je altijd houden. En zoals gezegd, op dit moment zou zelfs ik genoegen kunnen nemen met een 4070ti of 7900 XT, of misschien zelfs een stapje lager. En wat ik ook zei, de high end is nu ook echt idioot snel. Tenminste, ik vind dat mijn 3090 al, en veel van de in het artikel besproken kaarten zijn sneller. ;) De Titans zijn dus zeg maar in de normale range opgenomen en vallen niet meer op qua naam.
Gelijk heb je.
Ik zeg gewoon doen als je er lol in hebt.
Het zijn wel vaak van die lieden die voor een 2e hands kaart van 2 en half jaar oud bijna de nieuw prijs betalen.
Kunnen niet rekenen.
Heb een 4090. Maar tis wel veels te duur. Als je weet dat ze er dik aan verdienen.
Als je hem zelf te duur vond had je hem niet moeten kopen. ;)

Heb zelf een 3090 een kwartaal na release gekocht, voordat de prijzen raar gingen doen. Had eigenlijk voor de 3080ti willen gaan, maar die was officieel nog niet aangekondigd én de prijzen begonnen raar te doen. Dus toen maar voor zekerheid gekozen. Geen seconde spijt van gehad(een vriend heeft een 3080ti voor 3090 geld :9 ). Echter.... Ik vind de performance nu nog zo dik in orde dat ik op dit moment voor een 4070ti zou gaan. Die is vaak(altijd?) sneller en de helft van wat ik toen heb betaald. De 4090 zou ik overkill vinden.

Al heeft die natuurlijk óók 24GB waar ik nu ook dankbaar gebruik van maak(AI). Dat zou me toch weer aan het twijfelen brengen, maar gelukkig zit ik de komende jaren nog goed. :Y)

[Reactie gewijzigd door MN-Power op 4 maart 2023 21:52]

als je kijkt naar de prijsevolutie van grafische kaarten (en mobiele telefoons ook trouwens) tov de consumentenprijzen en lonen over een periode van 10 jaar zijn die dingen véél duurder geworden. De introductieprijs van een GTX780 in 2013 was $699, die van de RTX4090 $1599 volgens wikipedia, maar we weten allemaal dat je in euro daar nog een pak mag bijtellen in de winkel en dan spreken we nog niet over de dollarkoers die bijna een kwart is gestegen (01/01/2013 $1.3197 vs 03/03/2023 $1.0628 )
PS5 digital kost 449.99eur....
Dan zit je vast aan de Playstation store(waardoor je vaak duurder uit bent), én in elk geval bij Sony is die niet beschikbaar: https://direct.playstatio...5-digital-edition-console
je kan dus vlot mee met enkele andere hier op het echte tweakers niveau, neem dan diegene met 2 controllers kost 509.99

vaker duurder, je betaald gewoon de verzending... voor een GPU die je online koopt betaal je ook verzending, nu je dan toch het vergelijk zo wil maken.j
e kan ze evengoed op een amazon, bol, CB halen en menig andere winkel incl verzendings kosten.

Een idioot die vandaag nog niet capabel is om ergens een PS5 te kopen binnen een zeer kleine marge van de originele prijs. Ahoi typische tweakers community vandaag de dag. :O
Ik gaf niet voor niets aan bij Sony. Het interesseert me te weinig om verder te kijken. ;) En dat was een zijpad qua punt. Gaat erom dat IMHO een digital een gevalletje 'goedkoop is duurkoop' is aangezien je aan de PS-Store prijzen vast zit.

[Reactie gewijzigd door MN-Power op 3 maart 2023 15:14]

tsja, er zijn dan ook veel ps5 lovers die maar 1 of 2 games kopen of die hun digitale basis meenemen van vorige generatie. De andere is gewoon ter beschikking voor 100eur meer. Overal te koop momenteel.

Een GPU zonder PC onderdelen kan je ook niks mee........
Tuurlijk kan je het met 2 games doen(best dure games dan ;) ). Maar dat zijn uitzonderingen

En in mijn geval, een redelijke PC had er ook gestaan als ik niet zou gamen of er niet op zou gamen. En voor anderen zal dat op zijn minst een laptop zijn. Er zullen weinig tweakers zijn die álles uitsluitend op een tablet of telefoon doen(al zijn die er natuurlijk wel steeds meer).

En je kan ruim onder een 4070 ti zitten en er nog plezier aan te beleven. En ook om mee te kunnen komen met een PS5. Denk zelfs dat je in de 20xx generatie nog aardig goed zit. En die is inmiddels 5 jaar oud of zo.

Trouwens nog even terugkomend op die 2 controllers. Mijn grootste frustratie met de PS3 was dat je er eigenlijk niks aan had omdat splitscreen er niet meer toe leek te doen. Dus daarom altijd een 2e PC voor GF gehad en haar laatst een Stem Deck cadeau gedaan. Dan kan je tenminste wél fatsoenlijk samen spelen. :D
Er was ooit een tijd dat de beste videokaarten rond de 200 euro kostten. Deze kosten nog altijd 4-5 keer zo veel. Het is gewoon veel meer dan ik aan een videokaart uit wil geven.

Misschien moeten we dit absurd dure segment gewoon negeren en vooral kijken naar de prijzen en prestaties van kaarten de de helft kosten.
Ooit... 3DFX tijd? ;)

Lees voor de lol de reacties bij de 4x00 serie uit 2003 eens door ;) Die waren trouwens ook zo rond de 450 of hoger voor de 4600?

nieuws: nVidia introduceert GeForce4 serie

En ga je gang. Ik trek mijn eigen plan als je het niet erg vindt. Mocht er voor lage prijs een interessante kaart zijn, dan hap ik natuurlijk ook toe dat dan weer wel(al voldoet die van mij nog wel even). Het slechtste wat 'we' naar mijn mening kunnen doen is allemaal stoppen met kopen van GPU's en/of overstappen op de console, want dan snap je wat die prijzen gaan doen(550 voor een 2,5 jaar oude PS5 vind ik al absurd eerlijk gezegd). En dat zou voor mij pas écht een nachtmerrie zijn bovendien.

Laten we gewoon eens afwachten of met de volgende generatie de concurrentie van Intel wat gaat betekenen.

[Reactie gewijzigd door MN-Power op 3 maart 2023 18:31]

De Radeon 3850 en 3870 zaten bij hun introductie in de buurt van de beste grafische kaarten, eerste van een nieuwe generatie, en rond de $200. Ik had een 3850 gekocht voor volgens mij EUR 128. 10 jaar lang plezier van gehad. Ook de GeForce 8800 GT zat in prijs volgens mij rond de $200.

Om eerlijk te zijn denk ik dat de toekomst zit in de Apple M1-achtige SoCs voor PCs. Als je ziet wat Apple daar nu al voor een rekenkracht uit krijgt, denk ik dat daar nog een hele hoop uit te halen valt. En dat zou betekenen dat de meeste PCs misschien wel geen aparte GPU meer nodig zullen hebben.
Ik heb zelf een hd3870 gehad. Inderdaad een fijne kaart, echter werd ik gestoord van de drivers die je eigenlijk moest installeren om een nieuw spel te kunnen spelen en de problemen die dat veroorzaakte voor oudere spellen waar dan weer een hotfix voor nodig was. Driver-hell wat mij betreft. Verder was ie ook niet echt stil te noemen. Maar het was inderdaad wel bang for the buck. In dezelfde categorie heb ik eerder overigens ook nog de Kyro ( I of II weet ik zo even niet meer) gehad. Die was soms erg snel, maar soms ook niet. :)

Ben de jaren daarna overigens wel zéér bewust voor Nvidia gegaan vanwege bovenstaande zaken(én hun goede stereoscopic 3D ondersteuning). Heb overigens wel de 6xxx introductie afgewacht voordat ik de laatste keer toch weer voor Nvidia heb gekozen, dus ik houd de keuze open. Al heb ik nog steeds het idee dat de drivers nog niet je van het zijn, maar dat verschilt nogal aan wie je het vraagt. ;) Heb overigens wél een AMD CPU, en ook daar ervaar ik toch dat het met Intel allemaal wat vlekkelozer ging,
Ik heb geen van die problemen gehad. Ik had een passieve cooler op mijn 3850 gezet, en dat werkte prima, dus geen lawaai. Geen driver issues gehad. 10 jaar plezier van gehad, al heb ik me tegen het eind niet meer aan high-end spellen gewaagd. The Witcher 3 zag ik niet helemaal zitten op die kaart.
Als het niet gratis is.
Met een PS5 ben je klaar met een videokaart kom je niet ver.

Ik ben ook een PC gamer maar ik ga niet net doen alsof het geen dure hobby is.
Ben bang dat deze prijzen PC gaming nog meer elitair maken.
Klaar is relatief. Al zou ik er niet op gamen zou ik nog een pc hebben(laptops vind ik ondingen), en wel met een klein beetje power. Voor mij is een console een one trick pony in een walled garden, dus voor mij ook nog eens één brok frustratie. Ik heb ooit geprobeerd mijn PS3 als HTPC te gebruiken en zeker na het verwijderen van de Linux optie(waar ik toch echt voor had betaald) was het voor mij klaar.

En je hoeft natuurlijk geen 4070 Ti te hebben om een PS5 te evenaren, denk dat je met een 3060 Ti al aardig in de buurt komt. De PS5 blijft niet zijn gehele levensduur gelijk aan de huidige high-end kaarten.

[Reactie gewijzigd door MN-Power op 3 maart 2023 14:29]

PS5 zal ongeveer vergelijkbaar zijn met een 2070 Super
1400€ voor een mid-range kaart als een RTX 4080 is de definitie van duur. Doe daar de globale prijs van een Playstation 5 van af en we komen in de buurt.
De 4070Ti is meer de mid-range en dat is nog steeds een beest van een kaart(plusminus 3090ti niveau). dus wellicht is dat een betere optie ;) Of een 7900XT natuurlijk.
Dat is marketing van Nvidia, niet de realiteit. Het woord "end" in high-end zegt het eigenlijk al. High-end is het einde. Dus de 4090 en waarschijnlijk zelfs de 4090ti. Nvidia noemt dat enthousiast, flauwekul een RTX 4080 is gewoon mid-range videokaart.
Dan was een 1080 ook geen high-end, want je had de Titan nog. :) De 4090(en 3090) zie ik als Titan tegenhanger. Maar ieder zijn mening.
Nee, was en is het ook niet
Inderdaad! als we nu gewoon vol houden gaat de prijs vanzelf verder omlaag.
Die kaarten hebben nog steeds hele dikke marges dus er kan makkelijk nog een 150 euro van af en dan zijn ze nog steeds winstgevend.
Vooral bij de nVidia kaarten kan er nog behoorlijk wat af die 4070 Ti is gewoon een midrange kaart 500 euro is waarschijnlijk ook nog winstgevend.

De 7900 XTX is ook nog maar weinig gedaald die zou ik liever rond de 900-950 zien en de 7900 XT meer richting de 750-800.

[Reactie gewijzigd door Astennu op 3 maart 2023 12:13]

899 euro voor de RX 7900 XT? het top der tops van AMD is idd niet duur. Alsnog veel geld, eens natuurlijk maar als je het vergelijkt de afgelopen 2 a 3 jaar...
Voor games misschien maar voor bijvoorbeeld Blender is die kaart en ook het hoger geprijsde echte topmodel tot 3x trager.
Waar zijn die kaarten ook al weer voor bedoeld?
Oh ja, voor games!!
Dat is natuurlijk flauwekul. Het zijn gewoon videokaarten van de laatste generatie. En net zoals bij alle generaties zijn die van NVIDIA beter geschikt voor blender. Dat is gewoon een feit. Doen alsof de AMD kaarten enkel worden gemaakt voor gamen is niet waar.
Nee hoor ik geef je enkel de feiten. Wat jij ervan maakt moet je zelf weten. Ik heb ook nergens gezegd dat het impact heeft op de verkoop. Daarbij heb je werkelijk geen flauw idee van de kaarten die veel worden gebruik door Blender gebruikers.
Maar zelfs als jou statements wel zouden kloppen dan blijft het simpele feit dat de NVIDIA "gaming" kaarten voor deze toepassing 3x zo snel zijn dan die van AMD. Dus als je buiten gaming nog wat doet met 3d rendering lijkt het me een simpele keuze. ;)
het top der tops van AMD
Dat is de 7900 XTX. De 7900 XT is een overpriced midrange kaart. Max €500.

[Reactie gewijzigd door wagmomma op 3 maart 2023 12:22]

En waar baseer jij die prijs op ?
Heb jij inzage in de productiekosten / winstmarge op deze kaarten ?
Je kan wel wat roepen als "Ik wil dat deze kaarten €500 kosten" of "Vroegah kosten kaarten in dit segment ook maar €400 - €500" maar daarmee is het nog niet een realistische prijs.
Ik wil ook graag dat de RTX 4090 slechts €1 kost, lijkt me geweldig ! Dan koop ik er meteen 10 !
Er zal vast meer marge zitten op die kaarten dan de 14% daling die in het artikel genoemd wordt, maar meer dan 50% ten opzichte van de introductieprijs ? Dat geloof ik niet. Ik denk dat we de RX 7900 XT niet gaan zien voor prijzen onder de €700. Misschien hooguit na de introductie van de volgende generatie Radeon ( 8000 serie ? ) over 2 jaar.
Het probleem is dat de videokaarten niet echt vooruitgang hebben gemaakt maar veel meer zijn verbruiken. En onder bepaalde omstandigheden zie je daar ook verbeteringen maar maar over het algemeen zijn het heethoofden geworden.


Daarnaast was de norm altijd ongeveerd een spelconsole geweest, zo tussen de 300 en 500 euro.
Als je naar de huidige situatie kijkt dan zou je voor de max rond de 700 tot 800 mogen vragen. De gangbare modellen zijn dan te duur voor de reguliere gebruikers en haken af. Je kunt beter een console aanschaffen.
Ik vind persoonlijk 1799 voor een 4090 ook veel te duur nog steeds. En dan is de grote grap nog dat ze nu de introductie vergelijk met een of ander cheapass merk wat nu toevallig onder de prijs duikt. Een Asus heb je niet voor 1799...
Al eens de benchmarks bekeken van de laatste COD . Die midrange kaart kan mee met nvidia zijn topmodel .
Bron? En niet je onderbuik.
Ik gok niet dat de XT goedkoper is dan de XTX alleen omdat hij beter zou zijn ;)
Midrange zou idd max 500 mogen zijn. "jamaarprestatiewinst" ja, dat is ook alleen maar omdat jullie jarenlang minimale sprongen hebben gemaakt tussen de 680 en 980...
7900XT is zeker 10% sneller dan de 4070ti die dus dan MEGA overpriced is ;)
Dit is gewoon onzin, niks top van der tops aan.
oh ze zijn goedkoper :) groot nieuws.

wacht... nadenken...

nog steeds veel te duur!
'voor jou' veel geld is nog niet gelijk veel te duur.
correct. veel te duur "voor mij" dan :)
correct. veel te duur "voor mij" dan :)
voor mij achterlijk duur was/is een RTX4090 van ~2200,- daarom had ik maar gekozen voor RT7900XTX van 1100,- om mijn 6900XT te upgraden.
Wat is dan de juiste prijs? En kan je dat onderbouwen met een kostenberekening?
Dat verschilt per persoon. Wat je er voor over hebt ligt aan hoeveel plezier je er van hebt en je inkomen.
ik kijk naar de waarde dat deze GPU me zou bieden. Wat kan ik hiermee zoveel beter/meer dan zonder?

Zijn er spelletjes waar ik naar uitkijk waarmee deze kaart het veel leuker/plezanter/aangenamer/mogelijk zou maken? hoe significant is dat verschil? Zijn er andere toepassingen dan spelletjes waar deze nieuwe GPUs een meerwaarde bieden, en dat ook relevant zijn voor mij?

Dat is wat ik als consument bereid ben om te spenderen.

Wat kan ik anders doen met evenveel geld? is dat dan beter dan deze GPUs?
Mee eens. Goed om te zien dat de prijzen dalen, maar 900 euro is nog steeds gewoon te veel voor mij persoonlijk. Meer dan 750 euro spenderen aan alleen een GPU ga ik gewoon niet doen. Mijn GTX 1080 zat ook precies op die grens. Onder de 750 euro is momenteel alleen maar last gen te koop en die kaarten hoef ik al helemaal niet, dus ik wacht nog maar even denk ik
Voor mij een reden om console gamer steeds meer te worden. Prijzen zijn niet leuk meer...
Dat klopt niet helemaal. Een PS5 heeft maar 10,3 Tflop RNDA2 kracht. Dat is vergelijkbaar met een RX 6650XT die 10,8 Tflop heeft. Ook RDNA2. Die kaart kost 300 euro: uitvoering: ASUS Dual Radeon RX 6650 XT OC Edition

Terwijl een PS5 bij 600 euro begint: product: Sony PlayStation 5

Nu geldt dit alleen voor PC gamers, zoals jij, die al een PC hebben. Maar toch. Je behaalt dan wel de grafische kwaliteit van een PS5 voor de helft van het geld.
Ik heb een PS5 en een AMD 6800 maar toch kan m'n pc niet de beelden zo soepel tevoorschijn toveren op 4K als wat de PS5 kan met 1st party titels.

Games op de PS5 kunnen zo veel beter geoptimaliseerd worden dat je totaal niet naar rekenkracht kan kijken.

Betekent overigens niet dat dat ook daadwerkelijk gebeurt, voornamelijk 1st party developers doen dit goed.
Als je alles op ultra zet zal het vies tegenvallen. Pak je console settings er heb je ineens een zwik meer FPS. In de regel komen de consoles niet verder dan low-medium settings, met af en toe een enkele setting op high.

Nog afgezien daarvan dat 4K op consoles in de regel geen vaste resolutie is, maar een upscale van een lagere resolutie en dan ook nog eens bij 30fps.
De RX 6800 is veel sneller dan wat er in de ps5 zit.

Die 4k beelden waar je op doelt zijn niet echt 4k maar het resultaat van upscaling.

Digital Foundry heeft regelmatig de ps5 met pc hardware vergeleken in een “apples to apples” vergelijking.

Hier een recent voorbeeld:

https://youtu.be/xHJNVCWb7gs

Daar blijkt dat de ps5 ongeveer op het niveau komt van een RTX 2070. Ongeveer half zo snel als een 6800 dus.

[Reactie gewijzigd door DLSS op 3 maart 2023 13:27]

Zeker je hoeft niet de allerduurste GPU te kopen om een PS5 te matchen.
Vreemde vergelijking o.b.v. brute kracht.

Alsof een PC met een vergelijkbare GPU/CPU net zo lang mee zal gaan als een PS5/XboxSeries. Een vergelijkbare PC gaat dezelfde spellen echt niet spelen.
Dat komt omdat console games later in de levenscyclus vaak teruggeschroefd worden in resolutie en regelmatig op 30 fps draaien. Dat wordt doorgaans als ‘onspeelbaar’ gekwalificeerd op PC (iets waar ik het niet altijd mee eens ben btw)

Uit de vele vergelijkingen die DF gedaan heeft blijkt overigens dat de ps5 in de praktijk ongeveer op het niveau uitkomt van een RTX 2070 (soms 2060, soms 2080)

Hier een recent voorbeeld van zo’n vergelijking:
https://youtu.be/xHJNVCWb7gs

De kaarten die in dit artikel besproken worden besproken zijn al snel meer dan 4x zo snel in de praktijk.

Ik denk niet dat het helemaal correct is om de prijs van een ps5 te vergelijken met deze high end kaarten…

[Reactie gewijzigd door DLSS op 3 maart 2023 13:40]

Op deze timestamp staat er een mooi overzichtje waarbij GPU's met de PS5 en XSX worden vergeleken: https://youtu.be/xHJNVCWb7gs?t=519

Helaas wordt er niet vergeleken met een 6600XT of 6650XT. Wel een 6800XT van 20,7 Tflop. Die heeft 101% meer Tflop dan de PS5 en produceert 73% meer FPS. Wat zou betekenen dat de PS5 efficiënter is.

Echter, de 5700XT heeft 8 Tflop RDNA1, wat 77% van de PS5 kracht is (10,3) en de 5700XT laat 78% FPS zien. Terwijl RDNA1 minder goed zou moeten zijn dan RDNA2.

De 2070 Super komt qua FPS het dichts bij de PS5 in de buurt met 3% meer frames. Die heeft 9 Turing Tflops, oftewel 87% van de PS5 Tflops. Maar ja, Turing en RDNA2 zijn behoorlijk verschillend in architectuur.
Praktijk merk je niets van.
En tegen de tijd dat je aan zo'n fictionele beperking komt moet je ook de GPU van je PC upgraden.

[Reactie gewijzigd door Atilim op 3 maart 2023 14:09]

Vind 60 fps ook al niet echt soepel meer.
Ik heb dat ook, maar alleen als ik van 144hz/fps naar 60 ga binnen een kort tijdsbestek.

Maar in principe kan ik alsnog gewoon met plezier 30fps games spelen op console van tijd tot tijd.

Voor de meer atmosferische 'beleving' verkies ik natuurlijk altijd PC. Maar veel games zoals Zelda BOTW zijn helaas niet beschikbaar op PC (en die game draait op 30fps).
Die zelda kun je via emulator spelen. De games die ik speelde op de ps5 kon je nog ron de 60 fps of hoger spelen. De spellen worden zwaarder. Ben bang dat ze uiteindelijk dat 30 fps het max wordt. Maar goed speel alleen exclusives op de ps5.
Nu nog een game zoeken dat net zo soepel werkt op de pc met een 6650XT als op een ps5.
Gaan jullie dan alleen niet voorbij aan het feit dat console games vaak op 30 of 60 fps capped worden gespeeld en dat de games voor de hardware worden geoptimaliseerd? Zelfs zonder optimalisatie moeten een groot deel van de peecee's dat ook wel halen toch?
Dat bedoel ik ook. een console geeft met minder rekenkracht, door optimalisaties, een betere game ervaring.
Een pc met dezelfde rekenkracht gaat het afleggen tegen een console.
Als je een PC game net zo laag instelt als een PS5 hem draait, haal je gewoon dezelfde framerate. Vergeet niet dat een PS5 de resolutie vaak tussen 1080p en 1440p laat bungelen. En natuurlijk op 60fps of minder, in plaats van 144hz. Console games hebben zelfs 30fps modi.

Misschien denk je aan console optimalisatie vs Windows. Dat was een dingetje voor DirectX 12 waarbij er veel CPU overhead was.
Met hoe naar pc geporte games belachelijk slecht geoptimaliseerd worden heb je bijna de dubbele Tflops nodig voor dezelfde performance als op een PS5....
Het kan nooit helemaal een eerlijke vergelijking worden. Als je alleen op de TFlops gaat vergelijken klopt het waarschijnlijk wel dat je met een goedkopere videokaart de pure rekenkracht van de PS5 kan evenaren. Als je vervolgens gaat kijken welke videokaart (maar eigenlijk systeem) je nodig zou hebben om met dezelfde beeldkwaliteit en FPS het spel te kunnen spelen valt de vergelijking denk ik weer in het voordeel van de PS5.
Op alleen een GPU kun je niet gamen, een ps5 wel.
Plus die ps5 garandeert mij voor die 600 euro min of meer dat ik alle nieuwste games kan spelen. Wil ik een pc die dat ook kan voor de komende jaren dan zit je toch al gauw op een prijskaartje dat 2x zo hoog ligt.

Ben zelf ook altijd voornamelijk een pc gamer geweest maar met huidige prijsontwikkelingen en de verschuiving van veel andere pc taken naar mobiele apparaten is het wel logisch dat meer pc gamers ervoor kiezen om niet meer te upgraden.

[Reactie gewijzigd door Nephalem op 3 maart 2023 14:42]

We hebben het over PC gamers die overstappen naar een console. Dan heb je al een PC en heb je alleen een nieuwe GPU nodig.

En als je de nieuwste games wilt spelen op de kwaliteit van een PS5, dan is de 6650XT genoeg. Die discussie wordt hierboven uitvoerig gevoerd.
Een PS5 start bij 449eur :) leuk dat je een link legt naar scalping winkel prijzen of een link naar prijzen met games included.

Er zit natuurlijk in een PS5 nog wel iets anders dan alleen een GPU....

dus snap totaal het vergelijk niet.

[Reactie gewijzigd door d3x op 3 maart 2023 14:41]

Waar is die voor dan voor 450 euro te koop? Niet in de Pricewatch namelijk.
PSdirect, amazon en vele andere winkels ... een PS5 digital met 1 controller 449.99eur

Als je nu nog niet weet waar je een ps5 kan kopen en wat de officiele prijzen zijn..... }:O

pricewatch? de holy grale ofzo?

[Reactie gewijzigd door d3x op 3 maart 2023 14:42]

Ik weet niet wat PSdirect is, maar op playstation.com is hij niet beschikbaar: https://direct.playstatio...5-digital-edition-console

Op Amazon is hij er voor de schappelijk prijs van, tromgeroffel, 592 euro: https://www.amazon.nl/Son...E5-Digital/dp/B08H98GVK8/

Dat scheelt toch weer 8 euro. Maar niet de 150 euro waar jij het over hebt. Dus nogmaals, waar is de PS5 voor 450 euro te koop?
510 euro is niet 450 euro. En die toon mag wel anders.
Post dan eens een link, want tot nu ben jij juist een mooi voorbeeld van wat er voor rot in de Community is geslopen.
Chapeau dat je in ieder geval één link hebt kunnen vinden. Dat zet een beetje je toon recht tot nu toe.
Overigens zijn ze bij alle andere winkels die je noemt niet op voorraad.

Intertoys: Momenteel zijn online alle PS5 consoles en bundels uitverkocht. Hou de PlayStation 5 artikelpagina goed in de gaten!

CB: Tijdelijk uitverkocht

Dreamland: überhaupt niet te vinden op de site

Bol: 619,99 euro

PS Direct: PlayStation®5 digitale editie console
€ 449,99 Momenteel niet beschikbaar

Dus sorry, maar je hebt het gewoon bij het foute eind. De PS5 blijft superslecht verkrijgbaar.
Alleen is die op Bol is 600 euro. Wel op voorraad, maar achterlijk duur.
Ken je de prijzen dan wel van Sony?

Basis disc + game gow.

Mooie quote achterlijk....

De Digi + controller al 2 weken in stock voor 510 op psdirect. Nog steeds belachelijk neem ik aan. De meeste kopen extra controller erbij voor de samen gaming experience :)

Of de disk kale voor 550 ook gewoon te koop.

Tsja je wil natuurlijk als tweakertjes kopen aan de oude prijs, want o wee Sony heeft de prijs met 50eur verhoogd tijdje geleden. Schande alom.

Super slecht beschikbaar, tssss

[Reactie gewijzigd door d3x op 3 maart 2023 21:01]

Je hoeft toch helemaal geen high end videokaart om console prestaties te krijgen?

Een ps5 heeft bijvoorbeeld iets dat lijkt op een RTX 2070. Dit zijn kaarten die meer dan 3x, 4x zo snel zijn…

Je kan voor veel minder een gpu vinden in de klasse van ps5.

[Reactie gewijzigd door DLSS op 3 maart 2023 13:28]

RUIM? Dit is Marginaal. Pas ff die titel aan, wat een onzin.
Als je in Price Watch (PW) kijkt, dan zijn de daadwerkelijke introductie prijzen een heel stuk hoger dan de adviesprijzen.

De goedkoopste kaart nu (€1329) was bij introductie €1789 en had een piek van €2086. Dat scheelt dus 25%-35%. Dat is niet verkeerd voor een product van slechts 3 maanden oud, wat bij introductie zo gewild was en zo slecht verkrijgbaar (vandaar de pricespike). Wellicht over drie maanden dat het onder de duizend euro duikt...

Bron:
uitvoering: PNY GeForce RTX 4080 16GB XLR8 Gaming VERTO EPIC-X RGB Triple Fan
Nee dat is weer de andere kant op overdrijven, het titel gaat over 2 kaarten en die zijn dus 14 en 10% onder de adviesprijs!

Marginaal is nagenoeg niks, 10% is niet nagenoeg niks! Moet je nagaan als je 10% minder gaat verdienen dan is het nog steeds marginaal en dus nagenoeg niks?

[Reactie gewijzigd door watercoolertje op 3 maart 2023 14:24]

Blijft nog steeds veel geld. Blij dat de consument er nu wat minder in lijkt te trappen.

[Reactie gewijzigd door Ivolve op 3 maart 2023 12:06]

Consumenten trapten er vorige generatie ook niet echt in. De meeste mensen die 3000 series GPUs kochten aan de absurde prijzen waren geen gamers maar cryptobro's die de berekening hadden gemaakt en hadden gezien dat aan de toenmalige prijzen van Ethereum ze zelfs de zwaar opgeblazen prijzen van zo'n kaart in ongeveer een jaar konden terugverdienen, en dan konden ze die kaarten nog laten draaien totdat Ethereum overging naar Proof of Stake en daarna doorverkopen aan een gamer. Dus dat zijn geen consumenten naar mijns inzien maar producenten die gewoon geld probeerden te verdienen.

Ondertussen is Ethereum niet meer te mijnen via Proof of Work en zijn de enige mensen die nog consumentenkaarten kopen gamers, en zij willen gewoon aan een aanvaardbare prijs hun games spelen. En je hebt dan wel een aantal mensen die de topmodellen kopen zoals de 4090 omdat zij fervente PC gamers zijn die het beste van het beste willen, maar de meeste consumenten hebben nog altijd 1080p of 1440p schermen, en voor die gebruikers zijn er geen kaarten die beter geschikt zijn voor hun budget. Want Nvidia mag dan wel rondbazuinen dat de 4070 Ti een kaart is bedoeld voor 1440p gaming, maar zodra je ziet dat die kaart dezelfde performance heeft als het vlaggenschip van vorige generatie, de 3090 Ti, een kaart die werd gepromoot voor 8K gaming, dan besef je dat Nvidia gewoon aan het misleiden is.
Ik ken anders genoeg gamers die gewoon een RTX3000 voor een woekerprijs gekocht hebben.
Vergeet even niet dat kaarten op de 2e hands markt ook voor belachelijke prijzen weggingen dus voor vele was het bedrag om bij te leggen maar iets groter dan met de ‘normale’ prijzen.
En zijn het dan eerder de meer high-end kaarten die ze kochten of gaat het over de hele generatie of zelfs eerder de low-end kaarten? Ik vermoed dat de RTX 3000 kaarten die verkocht werden vooral de 3080 en 3090 kaarten waren die op zich al duurder waren, maar dat de mensen die een 3060 of 3070 kaart wilden dat eerder niet deden. Er zullen waarschijnlijk wel verkocht zijn van die budgetkaarten aan die woekerprijzen, maar ik denk dat de meeste mensen die hogere prijzen betaalden zich vooral richtten op de betere kaarten.
De meeste mensen die 3000 series GPUs kochten aan de absurde prijzen waren geen gamers maar cryptobro's
Waar blijkt dat uit? Je hele reactie gaat uit dat het waar is maar nergens zie ik onderbouwing.

Naar mijn idee waren het juist gamers ivm corona allemaal wat extra gingen investeren in thuis-activiteiten!

Gewoon een vermoeden hoor heb er ook geen bewijs van, maar geloof dus niet zomaar het tegengestelde zonder onderbouwing ;)

[Reactie gewijzigd door watercoolertje op 3 maart 2023 14:22]

Mijn onderbouwing bestaat er vooral uit dat er tijdens de Coronaperiode een aantal berichten zijn geweest van cryptobro's die rechstreeks bij Nvidia kaarten gekocht hebben in bulk. Daarnaast waren er ENORM veel berichten in allerhande sites zoals pcmr en de Tweakers discord van gamers die steen en been klaagden over de absurd hoge prijzen, maar toch hadden veel winkels geen kaarten in voorraad, of enkel aan prijzen die zo hoog waren dat zelfs ETH mining dat niet kon terugverdienen.
Het is goed dat ze dalen maar het is natuurlijk nog lang niet genoeg.

Wellicht dat NVidia (en AMD?) nog in een bubbel leven. Ze hadden eerst de vraag van Crypto mining en vervolgens de lockdown welke beide op hun eigen manier de vraag naar hun producten liet stijgen.
Maar Crypto mining is lang niet zo groot meer en de lockdown is voorbij. Met economische onzekerheid en een drop in verkopen omdat iedereen door de lockdown systemen heeft zakt de verkoop natuurlijk enorm,

Ik verwacht een vlaggenschip GPU voor 1000 euro en niet meer. Zeker niet bijna 2000 wat NVIdia er nu voor vraagt. Ik verwacht echter dat een dalende verkoop de markt uiteindelijk naar de juiste bedragen zal duwen. Dat aandeelhouders dit niet leuk vinden is niet echt het probleem van de consument.
NVidia heeft professionele videokaarten die nog veel meer dan 2000 euro kosten. Ze kunnen technisch ook nog wel een 4100 introduceren voor 3000 euro. "Vlaggenschip" in de consumentenlijn is niet iets waar je een absoluut prijsplafond aan kunt hangen; je concept van vlaggenschip is daarvoor te vaag.

Feit is dat er een consumentenmarkt is voor GPU's van 1000 eruo, en een voor GPU's van 2000 euro. Dat jij vindt dat er geen consumenten zouden moeten zijn die 2000 euro willen betalen is natuurlijk onzinnig; jij bepaalt het budget van andere mensen niet.

Mijn taxatie van deze prijsverlaging is dat NVidia en AMD nu verder kijken dan de early adopters, en ook willen verkopen aan mensen die geduld genoeg hadden om te wachten op de eerste ronde prijsverlagingen. En daarbij worden de relatieve prijzen wat herschikt om de bijna-top modellen iets aantrekkelijker te maken.
Net een iMac 27 2013 5K gekocht met gtx 780m 4GB 32Gb RAM 1TB SSD voor 350 euro. Games gaan prima, sorry hoor, ik laat me geen poot uitdraaien door AMD of nVidia,
Radeon 7900XT TDP 300 watt
RTX 4080 TDP 285 watt

iMac Power Consumption
78W Idle
229W under load
thermal output
266 BTU/h idle
782 BTU/h under load

I rest my case.

[Reactie gewijzigd door Pi-Qui op 3 maart 2023 12:31]

Een 780m is natuurlijk ook niet te vergelijken met moderne kaarten qua performance he
Dat weet ik, maar voor mij voldoet het. Speel niet zo veel, dus ben ik er blij mee.
Dit is opzich natuurlijk prima en super leuk voor jou (niet sarcastisch trouwens) maar het is wel een beetje een Fiat Punto vergelijken met een Ferrari natuurlijk (bij wijze van spreken).

Daarintegen ben ik het er volledig mee eens dat zowel de prijzen als het stroomverbruik compleet absurd zijn.
sry hoor maar niet een poot uit laten draaien door AMD en Nvidia, maar dan wel een poot laten uitdraaien door apple, en dan trots vertellen dat je een pc/imac hebt gekocht met specs uit 2013 voor 350 euro 8)7
games draaien daar prima op... ja vast wel... van 8 jaar geleden

kijk als je geen hoge eisen hebt das helemaal prima natuurlijk maar een non imac met deze specs kun je bijna gratis krijgen
Een werkende AIO met 5K scherm, waar vind je die bijna gratis dan?
AIO nergens, want bijna niemand wil dat (behalve Apple klanten) daarom zei ik ook non imac
Dat weet ik, maar voor mij voldoet het. Speel niet zo veel, dus ben ik er blij mee. Hij is wat sneller dan een GTX 1050 ti, en dat is al voldoende voor mij. Video editen gaat prima, dus tja...
Een office 365 licentie kost €99 per jaar en ik moet een dure, stroom slurpende iMac uit 2013 aanschaffen om er gebruik van te kunnen maken.
Ik heb van de week een kladblok met een pen gekocht voor €3,50. Schrijven gaat prima. Stroomkosten zijn 0.

I rest my case.

Mijn argument voor een pen en papier tov een office suit voor kantoorwerk is net zo onzinnig als jouw argument voor een 2013 iMac als game pc.

Dat de huidige generaties aan videokaarten erg duur zijn en veel stroom gebruiken ben ik met je eens, maar je argument raakt kant nog wal.
ik ben er blij mee. Hij is wat sneller dan een GTX 1050 ti, en dat is al voldoende voor mij. Video editen gaat prima, dus tja...en het stroomverbruik valt me mee. Overdag werk ik met een laptop 45 wattt per uur..en s'avond een paar uur imac verbruik dan ongeveer 600 watt in 3 uur. Kosten met huidig contract ongeveer 30 cent.
Als je games wil spelen zijn er uiteraard veel betere (tweedehands) deals dan deze kaarten.
Maar dan vind ik dit niet echt een goede vergelijking, die 780m is een antiekje waarvan de performance (en features) niet eens in de buurt komt van deze kaarten.
Een gtx 780m is echt niet te vergelijken met moderne gpu’s… laat staan die high end kaarten uit dit artikel.

De kaarten die hier besproken worden zijn 10 a 20x sneller áls een game überhaupt al start met een 780m.

Een berg games ondersteunt de GTX 7xx kaarten niet eens meer en starten dus niet eens op. (Niet dat je dat zou willen want een slideshow van 10fps is misschien nog wel erger)

Dat je hier dan wel 350 euro voor over hebt is mij een raadsel. Maar goed, ieder zijn ding natuurlijk. Geniet er uiteraard gewoon lekker van als het je plezier geeft ;).

[Reactie gewijzigd door DLSS op 4 maart 2023 02:00]

Komt helemaal goed, ik ben er tevreden mee.
Het is toch gewoon lachwekkend om telkens weer excuses of redenen te lezen waarom iets wel of niet in prijs is gestegen of gedaald. Wordt er eerlijk gezegd behoorlijk moe van.
De boodschappen worden steeds duurder, niet altijd omdat de grondstoffen duurder zijn, maar ook omdat bedrijven zelf gewoon letterlijk zeggen: We voeren prijsverhogingen door omdat de prijzen van de grondstoffen in de toekomts kunnen stijgen. Maar als ze dalen hebben ze een nog grotere marge, win-win situatie zolang iedereen het maar blijft kopen.

En dat laatste gebeurd gelukkig steeds en steeds minder, mensen zijn het zat en kopen het gewoon niet meer. Zelf hoop ik dat steeds en steeds meer mensen dit doen en gewoon zorgen dat de bedrijven die ook de afgelopen jaren, miljardenwinsten hebben geboekt over de rug van de consument hiervoor gaan betalen. De prijzen van de videokaarten dalen, omdat niemand ze koopt voor de introductieprijs. De vraag naar nieuwe en betere videokaarten is er wel, maar niet voor de huidige prijzen. Mensen hebben belangrijkere prioriteiten, zoals de energierekening betalen en zorgen dat er eten op tafel komt.
Is dat niet de essentie van de vrije markt economie? Het is diezelfde vraag die de hoge prijzen mogelijk heeft gemaakt. Het is niet zo dat Nvidia weinig verkocht met de hoge prijzen, in tegendeel.
Bij een gezond economisch klimaat met concurrentie wel. Maar die concurrentie is er niet of amper, misschien dat Intel met de kaarten nog voor wat opschudding kan gaan zorgen. Maar van AMD en Nvidia hoeven we niet veel te verwachten. Die hebben de laatste jaren gezamelijk erg mooi de prijzen bij elke generatie flink opgeschroeft die gewoon buiten proporties waren.
Nog 50% eraf en dan hebben ze me als klant.
Op een al achterlijk hoge adviesprijs van 1949eur vind ik een prijs daling van 150eur echt niet nieuwswaardig...

Die krengen zijn zelfs de huidige prijs niet waard. Mag nog minstens de helft vanaf.


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee