Ceo Nvidia: kelderende gpu-prijzen behoren tot het verleden

Jensen Huang, de ceo van Nvidia, heeft tijdens een vraag- en antwoordsessie uitleg gegeven over de prijspolitiek van het bedrijf. Volgens de man is de wet van Moore niet meer van toepassing en behoren kelderende gpu-prijzen tot het verleden.

“Een wafer van 12 inch is vandaag de dag een stuk duurder”, stelt Huang. "De wet van Moore is dan ook dood." Volgens de man bevindt de techindustrie zich in een andere realiteit en behoren kelderende prijzen voor chips, en dus ook voor videokaarten, tot het verleden.

Huang deed de deze uitspraken volgens Digital Trends naar aanleiding van een vraag- en antwoordsessie van het bedrijf over de RTX 40-videokaarten die het in september heeft aangekondigd. Nvidia kwam toen met drie videokaarten: de RTX 4090 die over 16.384 CUDA-cores beschikt, met een baseclock van 2,23GHz en een boostclock van 2,52GHz en met 24GB GDDR6X-geheugen en een geheugenbus van 384bit. Deze kaart kost 1959 euro en is volgens Nvidia tot twee keer zo snel als de RTX 3090 Ti in huidige games. Die RTX 3090 kreeg bij de release een adviesprijs van 1549 euro, 410 euro lager dan de RTX 4090.

Het bedrijf heeft ook nog twee RTX 4080-kaarten geïntroduceerd. Het 'instapmodel' wordt een GeForce RTX 4080 12GB, die beschikt over GDDR6X-geheugen en een gpu met 7680 CUDA-cores. Deze krijgt kloksnelheden van 2,31GHz met een turbofrequentie van 2,61GHz. De RTX 4080 12GB krijgt een 192bit-geheugenbus en kost 1099 euro. De RTX 3080 kreeg bij release een adviesprijs van 719 euro.

De 16GB-variant van de RTX 4080 krijgt naast extra geheugen een krachtigere gpu met 9728 CUDA-cores. De kloksnelheid ligt bij deze kaart op 2,21GHz met een boostclock van 2,51GHz. Verder krijgt deze kaart een 256bit-geheugenbus. Deze variant zal voor 1469 euro over de toonbank gaan, 100 euro minder dan de adviesprijs van de RTX 3090, die in september 2020 werd aangekondigd. Begin deze maand heeft Nvidia de prijzen van de RTX 3090 Ti, RTX 3090 en RTX 3080 Ti in Europa nog aanzienlijk verlaagd. Tweakers schreef in juli van dit jaar nog een achtergrondartikel over de evolutie van de prijzen van gpu's.

De wet van Moore dateert uit de jaren 60 en stelt dat het aantal transistors in een chip elke een tot twee jaar verdubbelt. Door transistors kleiner te maken, een proces dat bekendstaat als scaling, passen er steeds meer transistors op dezelfde oppervlakte en zouden ook de kosten lager worden. Omdat scaling steeds lastiger en duurder wordt, komt volgens sommigen het moment dichterbij dat de wet van Moore niet meer van toepassing zal zijn.

Update, 17u05: bronartikel Digital Trends aan de tekst toegevoegd.

Door Jay Stout

Redacteur

23-09-2022 • 10:50

277

Reacties (277)

277
277
156
11
0
99
Wijzig sortering
De GA102 ~:
Die Size: 628mm2
Transistors: 28 Billion

De AD102~:
Die Size: 608mm2
Transistors: 76 Billion

Dan is Moore toch niet dood :?

Overigens zou het fijn zijn als er in het artikel ook een bronvermelding / link naar de Q&A met Jensen zou staan.

[Reactie gewijzigd door Help!!!! op 24 juli 2024 03:15]

In princiepe niet nee, de transistor dichtheid stijgt nog steeds rap. Maar daar heb je alleen wat aan als elke wafer even duur blijft. In jaren '00 waren de waferprijzen nog vrij constant. Sinds begin '10 zijn ze al flink gestegen, en de laatste 5 jaar gaat het met grote stappen per node generatie. De kosten per transistor die Moore's law dan eigenlijk beschrijft, daalt dan lang niet meer zo hard, of kan zelfs stagneren als de waferprijs even hard meestijgt. Je kan alleen wel leukere gadgets maken met meer transistors in 1 chip.

De vraag is alleen hoe erg dit is. Bijvoorbeeld met jouw getalen 608mm^2, vierkante chip (maximale dichtheid) = ~ 24.6x24.6mm
300mm wafer op 5nm TSMC kost ~17k$
Yield van 5nm zou goed moeten zijn: https://www.anandtech.com...te-on-defect-rates-for-n5 (0.1defect/mm^2)
Aantal dies per wafer: http://cloud.mooreelite.c...eld-calculator/index.html
Ongeveer 50 goed werkende dies, met 38 defective dies (die mogelijk met deels uitschakeling nog werken)

Upper bound kosten (50 dies per wafer): 340$/each
Lower bound kosten (88 dies per wafer): 193.2$/each

Toegegeven, dit zijn wel andere cijfers dan bijvoorbeeld TSMC 10nm (6k$/wafer) of 7nm (9.3k$/wafer).

Hiermee kan je wel concluderen dat een high-end GPU voor 400$ dus haast onmogelijk is om nog te doen. Tenzij die high-end GPU op bvb enkele honderd mm^2 past. Maar de huidige prijzen? Daar durf ik niets over te zeggen.

Immers zijn binning technieken ook stuk beter geworden. Ongetwijfeld zullen een paar van die defective dies verkocht worden als "4080 12GB" met paar CUDA cores uitgeschakeld, net zoals we ook AMD CPUs zien met uitschakelde cores, of zelfs gebin'd op silicon quality.

[Reactie gewijzigd door Hans1990 op 24 juli 2024 03:15]

Wat je zegt klopt, maar daar tegenover staat dat AMD's oplossing voor dat probleem ook goed werkt, door met chiplets te werken, als je bij 600mm2 30% defecte dies hebt, dan heb je bij 2x 250mm2 + 1x I/O die op een wat oudere grotere en goedkopere node rond de 10% defecte dies, daarnaast haal je meer dies uit een waver, omdat je veel minder afval hebt.

Denk, 'als'.... AMD een winaar heeft, die zuiniger en goedkoper is, en rond RTX4080 presteert, ze waarschijnlijk nog meer capaciteit van Nvidia bij TMSC kunnen overnemen.
Dat klopt. Maar dan moet je vooral voordeel halen door veel area te kunnen "bezuinigen" met zo'n I/O die. Even met mijn getallen verder: alles op 1 chip met yields kost 340$ per die. Het gebruiken van chiplets en verbeteren van yields naar spreekwoordelijk 100% kost dan alsnog 194.3$/each. Maar er wordt nog steeds 600mm^2 gebruikt op 5nm. Je wilt dus bij wijze van 250mm^2 op 5nm overhouden, en misschien wel 400mm^2 op 7nm, want dat kan uiteindelijk nog steeds goedkoper zijn.

De vraag is hoeveel functies je op een GPU kan offloaden naar een goedkoop process. AMD doet dat bij CPUs met I/O transceivers (die altijd groot zijn ongeacht node tech). Maar met GPUs.. -wie weet- misschien ook hun InfinityCache? Op CPU vlak bijvoorbeeld, neemt L3 cache bijna helft van de CCD die area in beslag. De floorplans van NVIDIA lijken bijna compleet te bestaan uit compute met locale caches (zoals L1/L2), dus een stuk moeilijker om zoiets in te steken.

Het zou dus kunnen dat AMD een goedkopere GPU kan neerzetten als ze effectief met chiplets kunnen werken.

[Reactie gewijzigd door Hans1990 op 24 juli 2024 03:15]

Paar korte snelle berekeningen, heb de volgende website gebruikt om yields te berekenen voor 250mm2 en 600mm2 die's.
Met deze die en yields calculator en met die grote van 15x16.6mm en 25x24mm, en behalve de maten, de rest van de instellingen zijn standaard gelaten, wat ik denk dat correct is voor de laatste node's.

600mm2 geeft je 85 die's per wafer met een yield rate van 34% = 29 GPU's per wafer, voor €585 per stuk, en zal de BOM wel rond de €850 voor een kaart alleen zonder RND, marges en enige andere bijkomende kosten.
250mm2 geeft je 228 die's per wafer met een yield rate van 62% = 137 chiplets per wafer, voor €125 per stuk. (2 voor €250) en door deze thuis expert geschatte BOM van €525. :+

Dat is ruim het dubbele wat Nvidia haalt uit een wafer, uiteraard uitgaand van hetzelfde proces, maar Nvidia gebruikt N4 tegenover AMD N5, dat 6% kleiner is, maar ook duurder, maar zeker in het begin zal een kleinere node ook ietsje lagere yields hebben, en duurder zijn, dus denk ik dat de nummers nog steeds aardig kloppen.
  • AMD is met Ryzen 7000 pas overgestapt van 14nm, naar 6nm, omdat er ook een IGP in de I/O die zit, anders hadden ze waarschijnlijk nog steeds het veel goedkope TSMC 10nm of GF 14nm proces gebruikt, daar dat de ideale grote is voor de fysieke I/O aansluitingen die de meeste ruimte opnemen op de I/O die.
  • Daarnaast is AMD ook nog eens goedkoper uit, door chiplets te gebruiken kunnen ze een RX 7900, RX 7800 en RX 7700 maken met dezelfde chiplets, door twee goede golden sample chiplets voor dure 7900 of twee matige/gewone voor 7800 en een chiplets voor de 7700 te gebruiken.
  • Ook hoeven ze maar een mask te maken, en hoeven ze een (grote) chip minder te debuggen.
  • En pas op het laatste moment in de silicon packaging plant beslissen wat voor een chips ze ze voor gaan gebruiken, en ze dus veel meer vrijheid hebben wat ze gaan maken.
  • Er schijnen ook modellen te komen met 3D cache ipv on-die wat het ontwerp nog goedkoper maakt en wat complexer, maar met veel hogere yield.
  • 2 die's beter te koelen dan een grote.
Als.... dat is natuurlijk de grote vraag, want AMD heeft ons eerder teleurgesteld, maar... als AMD deze keer weer een herhaling kan doen, van wat ze met de HD4000/5000 series deden, dan kan Nvidia zich klaar maken voor een hoop pijn, en na genoeg onverkoopbare RTX 4000 kaarten voor de prijzen waar ze nu aan denken.

Lees hier de briljante inkijk in de keuken van AMD met Anandtech van het maken van de HD 4000 series:
AMDThe RV770 Story: Documenting ATI's Road to Success

Maar het kan ook zijn dat AMD niet genoeg Radeon GPU's kan maken, omdat ze meer Epyc CPU's kunnen/moeten maken waar ze weer hogere marges voor kunnen krijgen, want AMD is er niet voor ons, maar alleen voor zijn aandeelhouders, waar zij ten eerst verantwoording aan moeten afleggen, want het maakt niet uit of je fan bent of houd van een bedrijf, zij het Intel, AMD of Nvidia, en ja, zij houden zeker ook van jouw, maar dan echt alleen van je portemonnee!

Maar ik wacht iig wel nog een half jaar (tenzij prijzen absurd snel dalen), en koop ik wat op dat moment me de meeste knal voor mijn geld geeft, en totdan voldoet mijn GTX 1080Ti nog steeds prima!

[Reactie gewijzigd door player-x op 24 juli 2024 03:15]

Maar dat is Moore's second law, oftewel Rock's law,
As the cost of computer power to the consumer falls, the cost for producers to fulfill Moore's law follows an opposite trend: R&D, manufacturing, and test costs have increased steadily with each new generation of chips. Rising manufacturing costs are an important consideration for the sustaining of Moore's law.[38] This led to the formulation of Moore's second law, also called Rock's law, which is that the capital cost of a semiconductor fabrication plant also increases exponentially over time

Dan moet hij niet zeggen dat Moore's Law dood is
Nu is dat ook weer lastig om relatief te vergelijken. Een grotere fab is duurder dan een kleinere (in termen van wafers/jaar). De enige data die ik dan echt wil vergelijken is de kosten per wafer, en die stijgen dus harder dan 2x per 4 jaar (Moore's 2nd law, Rock's law). De tweede Moore's law zou je dan verbroken kunnen verklaren. De transistordichtheid verdubbelt nog wel elke 2 jaar (Moore's law), maar dus niet voor dezelfde kosten meer.

Ofwel, een grijs gebied. Ik ben het eens dat "Moore's law" (over transistor aantal) nog niet dood is, want we kunnen nog wel even vooruit om leukere 'gadgets' te maken. Maar ze zullen duurder worden.

Of dat de prijsstijgen van Nvidia moet verklaren denk ik persoonlijk niet. Nvidia is uiteindelijk ook een architectuur ontwerper/innovator (net zoals AMD en Intel dat ook zijn). Als zij niet meer kunnen doen dan copy-paste van CUDA cores voor meer prestaties (net zoals AMD of Intel CPU cores zou copy-pasten), dan zijn we inderdaad volledig overgeleverd aan de duurdere silicon prijzen om snellere computers te bouwen.

Het is ook aan NVIDIA te bepalen op welk punt zij willen inhaken op de markt: is er een markt voor 1600$ videokaarten? Blijkbaar wel (getuige corona/mining), dus schuiven ze de serienummers door. Willen veel gamers dat? Het gros niet, misschien eens kijken hoeveel gaming plezier je kan bouwen met minder silicon (zoals bvb consoles proberen te doen).
Maar dit antwoord kan een CEO op een aandeelhouders vergadering [indirect] wel geven, maar in een Q/A natuurlijk niet.

[Reactie gewijzigd door Hans1990 op 24 juli 2024 03:15]

Jongens het is NVIDIA ze zeggen alles om de prijs hoog te houden.

En ja er zit een kern van waarheid in wat hij zegt, maar de markt faalt en het zijn gewoon tring luiers.
Volgens youtube techies hebbe de 16gb en 12gb versies totaal verschilleden cores, ad 103 vs ad104 hoor ik. De 12gb is volgens velen ook niet de4080 titel waardi, eerder een 4070. Zomaar de ad103 inzetten als een ad104 lijkt mij dan ook niet mogelijk
Meer info:
https://videocardz.com/ne...re-transistors-than-ga102

Dus ja, de 4080/12 is eerder een 4070 of zelfs een 4060Ti.
Inderdaad. Daarnaast ben ik echt benieuwd hoe de bandbreedte van 192-bit limiterend gaat werken op performance. Maar €900 voor wat eigenlijk een 4070 zou zijn, lijkt erop dat ze nog een mega hoeveelheid rtx3000 stock hebben waar ze vanaf moeten.
De wafers worden duurder, omdat ook de apparatuur waarmee ze gemaakt worden nu nog zeer duur zijn (ASML/ kan vragen wat ze willen, ze heersen de markt..maar hoelang nog?). Ook die kosten (en prijzen) zullen op den duur gaan zakken. Maar goed, de CEO van Nvidia grijpt natuurlijk elk excuus aan om de 12GB kaart te rechtvaardigen als 4080 model en/of de prijzen van de hele serie.

De industrie weet natuurlijk dat het voornamelijk draait om rendement en winstmarges. Na de vette jaren geproeft te hebben van het mining melkkoetje, willen ze meer van hetzelfde; hoge rendementen en liefst nog hoger. Mag hopen dat wij, de consumer, hier geen gehoor aan geeft en zoniet; niet gaan lopen jammeren in reviews dat de prijs ene minpunt is. Jij koopt het toch, he! Gewoon verslaafd, niet kunnen verzetten tegen de absurde prijzen. Gewoon laten liggen! Je kan het! En als we dat met velen doen, word de industrie pas wakker. Zolang jij zeurt, maar toch betaald. Wo carez! Duh!
Ja, je hebt gelijk. Als je het mij vraagt bazelt hij maar wat om de aandeelhouders tevreden te houden. De wet van Moore gaat puur om transistoren en niet de prijs per transistor.

Maar goed, we gaan wel zien hoe dit afloopt. Uiteindelijk is het met prijzen van 1000 euro voor een upper midrange kaart een stuk aantrekkelijker voor een concurrent met diepe zakken om hier werk van te maken... Het zou niet het eerst beursgenoteerde bedrijf zijn die de ondergang tegemoet gaat door almaar toenemende hebzucht en het willen verhogen van de winst.

[Reactie gewijzigd door Thekilldevilhil op 24 juli 2024 03:15]

Hoezo? Waarom moet je een upper midrange kaart hebben (whatever that may be) en kun je niet gewoon een kaart voor X euro kopen? Ik reserveer gewoon een budget voor mijn GPU, en haal daarbinnen wat er te vinden is (of ik besluit dat het niet voldoende upgrade is en doe dus niks). Zelfde voor mobiele telefoons, die moeten tegenwoordig ook al >1000 euro kosten ofzo. Of zoals je misschien weet: the only winning move is not to play...
Helemaal mee eens. Ik koop al jaren GPU van tussen de 200-300 euro en dat zal ik ook blijven doen. Als de nieuwe kaart/cpu niet 2 keer zo snel is voor die prijs dan wacht ik tot de volgende generatie. ik speel nog op 1080p+60fps. Elke budget kaart is tegenwoordig retesnel genoeg om dat te draaien.
Als ze ze voor de helft verkopen verdienen ze er nog dik aan.

[Reactie gewijzigd door jaaoie17 op 24 juli 2024 03:15]

Het zou niet het eerst beursgenoteerde bedrijf zijn die de ondergang tegemoet gaat door almaar toenemende hebzucht en het willen verhogen van de winst.
Vergeet niet dat Nvidia nog idioot groot is op de zakelijk markt en dat daar de echt diepe zakken zitten, niet bij de gamers.
Dat werd inderdaad wel duidelijk tijdens de keynote. Een paar minuten die mensen echt wouden zien gevolgd door meer dan een uur aan zakelijk geneuzel.
[...]

Vergeet niet dat Nvidia nog idioot groot is op de zakelijk markt en dat daar de echt diepe zakken zitten, niet bij de gamers.
Toevallig vroeg ik met net af hoe een bedrijf als nvidia met zulke prijzen nog kan bestaan, daarom dus. Bijna niemand kan partikulier zo'n kaart betalen, wat een bedragen zeg. Voor dat soort geld had je een dikke game pc vroeger, nu alleen een kaart 8)7
als het niet bij de gamers is?.....over welke diepe zakken heb jij het dan?
... de zakelijke markt? Zoals ik al zei in dat bericht
De wet van Moore ging over de prijs per transistor van de goedkoopste component.
The complexity for minimum component costs has increased at a rate of roughly a factor of two per year (see graph on next page). Certainly over the short term this rate can be expected to continue, if not to increase. Over the longer term, the rate of increase is a bit more uncertain, al-
though there is no reason to believe it will not remain nearly constant for at least 10 years. That means by 1975, the number of components per integrated circuit for minimum cost will be 65,000.
Helemaal gelijk.
Dit lijkt slechts een technisch incorrect marketing praatje
om toekomstig (erg) hoge prijzen te rechtvaardigen (inweken),
ook nadat gebruik voor crypto mining ingezakt is, door POS ipv POW.
.
Ik ben benieuwd wie dat zal gaan betalen, een kleine 2000 euro alleen voor een video kaart.
Ik iig niet...

[Reactie gewijzigd door Geekomatic op 24 juli 2024 03:15]

Plus, de corona crisis is zo goed als over. Men verveelt zich niet meer en men heeft het geld al aan vakanties uitgegeven.
Sterker nog, door de enorme inflatie geeft men het niet alleen uit aan vakantie maar ook gewoon aan primaire levensbehoefte..
Mee eens, ik mis de bron. Dit artikel is er wel en hetgene wat jij in het Nvida topic plaatste:
https://www.techpowerup.c...a-that-moores-law-is-dead

Ook hypocriet van Nvidia want de marge van partners is steeds kleiner geworden en ze pakken zelf meer winst.
Je hebt het dan over Samsung's 8 nm proces versus TSMC's 4N proces. Volgens Moore hadden we van 8 direct naar 5 gemoeten, en dan naar 3. In werkelijkheid hebben we een aantal nodes ertussen gehad, waaronder dus deze 4 nm.

De nodes tussen 8 en 4 nm heeft NVidia niet gebruikt voor de mainstream GPU's, wel voor server producten. Deze stap zo presenteren sluit dus niet aan bij de feitelijke proces-nodes of de nodes die je volgens Moore mocht verwachten.
De wet is nu nog niet dood maar het einde is in zicht. Het is gewoon een feit.

Wat niet wegneemt dat er al nieuwe te technieken zijn die zonder het transistor aantal te verhogen of te verkleinen GPU’s sneller maken zonder dat de prijs of vermogen toeneemt.

Uiteindelijk willen me meer rekenkracht en niet meer transistors.

Hie dat werkt kan je in deze mooie uiteenzetting zien van analoge/digitale chips:
https://youtu.be/GVsUOuSjvcg

Analoge chips kunnen met heel weinig vermogen heel veel specifieke berekeningen doen. Waar een GPU honderden watts nodig heeft kan zo’n chip dat met een tiende van het vermogen.

In het voorbeeld op youtube tonen ze een algoritme dat beelden classificeert om zo in realtime aan beeldherkenning te doen op een camerabeeld. Luikt me ook nuttig voor autonoom rijden verder te ontwikkelen.

Analoog is net zoals onze hersenen geen exacte wetenschap. Er zit variatie op. Games zijn dat vandaag niet dus men zal nog wel veel werk hebben om de render engines voor games daar aan aan te passen.

De AD102 zou 75 miljard transistors heb en. Onze hersenen hebben ook ‘maar’ 80 miljard neuronen maar die zijn nog steeds wel duizenden keren krachtiger en zuiniger als een traditionele gpu.
Maar het nadeel van analoge chips is dat ze misschien niet per se goedkoper zijn bij vergelijkbare prestaties, omdat de schakelingen van digitale chips veel kleiner gemaakt kunnen worden.

Nou weet ik er het fijne ook niet van, maar lijkt mij belangrijk om mee te nemen in de conclusie.
Onze hersenen hebben 10^13 neuronen dus nog een factor 1000 meer dan jij zegt volgens dit artikel; https://www.nemokennislin...es/it-s-all-in-the-brain/
Als de die size vrijwel gelijk is, is het prijsverschil des te vreemder.

GA102 zat in de 3080 10GB die bij introductie $700 kostte.
AD102 zit in de 4090 24GB en die moet $1600 kosten(!)

Het lijkt erop dat Nvidia de prijzen flink heeft verhoogd. Want 14GB extra en een die-shrink kan hem niet 2,3x zo duur maken.

Toegeven, de 3080 gebruikt 85% van de chip en de 4090 gebruikt 90%.
Gezien het verschil in dichtheid en aantallen transistors vind ik de prestatie eigenlijk een beetje tegen vallen. Tenminste traditioneel raster valt dan tegen.

Best een kans dat een groot dele van het transistor budget dus aan de tensor core / RT core kant zit.

Daar lijken ze ook veel meer winst te boeken al is dat erg vertekend omdat ze de 3090 Ti testen met DLSS 2 en de nieuwe kaarten met DLSS 3.
Nu kunnen de oude kaarten DLSS mogelijk niet gebruiken maar dan nog het zijn twee verschillende rendering technieken.

De onafhankelijke reviews zullen dit nog wel goed gaan testen. Ben benieuwd of we zonder DLSS 3 wel richting die 4x gaan zien denk dat het dan eerder 2-2,5x zal zijn wat ook niet vekeerd is natuurlijk.

[Reactie gewijzigd door Astennu op 24 juli 2024 03:15]

Het bronartikel werd toegevoegd. Bedankt voor de reactie
Het aantal transistoren is in dit geval wel meer dan verdubbeld op ongeveer dezelfde oppervlakte maar de productiekosten zullen met de huidige schaal best wel eens kunnen stijgen. Vooral omdat de benodigde wafers met iedere schaalverkleining ultra ultra zuiver moeten zijn om relatief goede yields over te houden. Alle onbruikbare chips uit de wafer komen ook weer bij de prijs op. Echter zal de opmerking natuurlijk vooral een argument zijn om de verkoopprijs wat hoger neer te zetten.

Al die miljarden transistoren op zo'n kleine oppervlakte blijft op zichzelf in ieder geval indrukwekkend. Hoe groot zal de chip zijn geweest als deze 'even gebakken' zou worden op bijvoorbeeld een oude 130nm schaal van 20 jaar geleden.. }>
Dit moet je dan ook meer zien als preken voor eigen parochie. Puur marketing en "tsja, wij kunnen echt niets veranderen aan de hoge prijzen".

Misschien zit daar ook een kern van waarheid in, maar ze maken ook maar wat graag gebruik van de situatie (tekorten in leveringen / product, inflatie en alles wat we kunnen bedenken op dit gebied) om prijzen, maar daarmee uiteraard ook de winst, omhoog te gooien.

Ze zouden namelijk ook kunnen kiezen om de winst per kaart nu niet van (fictieve bedragen) $10 naar $15 te laten gaan, maar naar bijvoorbeeld $11. Dat is namelijk niet goed voor de winstcijfers en dus aandelenkoers.

Overigens*, dit is iets wat veel bedrijven aan het toepassen zijn. Let maar eens goed op bijvoorbeeld verpakkingen in de supermarkt waar de prijs met (wederom fictief) 4% stijgen, maar de inhoud 5% afneemt. De gemiddelde consument, met 10-12% prijsstijging in het hoofd, zal dit mee vinden vallen terwijl het toch in de buurt van de 10% komt.

*puur om een extra voorbeeld aan te halen wat voor veel mensen misschien wat tastbaarder is.
Tsja, we weten dat Nvidia een heel duur contract met TSMC heeft afgesloten voor een gigantische hoeveelheid productiecapaciteit, wat ze al tevergeefs hebben geprobeerd terug te schalen. Dus ik heb sterk het idee dat Nvidia hier hun eigen fout bij het inkopen van productiecapaciteit probeert af te schuiven.

AMD gaat hopelijk bewijzen dat het wel degelijk mogelijk is om betere prijs/performance te krijgen met hun nieuwe generatie.
De 4090 (AD102) gebruikt een chip die 3% kleiner is dan de chip die gebruikt werd in de 3080 (Ti) en de 3090 (Ti) (GA102).

Vervolgens is de chip in de 4080 (AD103) 40% kleiner dan de chip in de 3080 (GA102).

Nvidia kan dus een beetje meer tot heel veel meer chips uit een wafer halen.

Wat Nvidia hier probeert is niet vreemd, niet vanwege de kosten, maar vanwege het type product: een prijzig luxe product voor een relatieve kleine niche. Men wil dat de gebruikers hiervan steeds meer waarde hechten aan het product dat Nvidia verkoopt en met die waargenomen waarde verhoging komt ook een hogere prijs. Dit zie je ook gebeuren in andere markten die prijzige luxe producten verkopen in een relatief kleine niche, als ze dat lukt zie je enorme toenames in winst. En de winst die Nvidia maakt is al best extreem.

Juist na een lange periode van enorme vraag en niet voldoende aanbod, met daardoor enorme prijzen (wat we al zagen in de nieuwe MSRP prijzen voor de 3080 Ti en 3090 Ti), zal Nvidia proberen dat vast te houden. Of dat de realiteit gaat worden betwijfel ik, want als de kaarten niet verkopen zal Nvidia wel omlaag moeten gaan met de prijzen, want de kosten gaan niet omlaag. R&D is al uitgegeven en de productie capaciteit is al ingekocht en kan niet worden teruggeschroefd.
De grote vraag is wat dat betreft dus wat AMD gaat doen: Marktaandeel pakken middels een gunstiger prijspunt, of toch ook maar een lekkere marge pakken omdat er geen derde partij is die concurrentie kan bieden en de vraag naar GPU's toch wel bestaat.

Sowieso is het vanuit AMD de vraag of je Nvidia te sterk op prijs wilt beconcurreren, omdat met een flink lagere prijs je de mindset kunt creëren een minderwaardig product te hebben.
Ik denk dat het AMD vraagstuk redelijk complex ligt. Heeft men teveel productie capaciteit zoals Nvidia? Waar wordt die productie capaciteit precies voor gebruikt? Waar ligt de bottleneck in de producten waar het in wordt gebruikt? Maakt AMD genoeg chips voor de PS5? Of zit het issue met productie issue in een andere hoek? Hetzelfde met de Steam Deck en het nog steeds niet verkrijgbaar zijn van een 6800U mini PC...

En AMD maakt nog steeds bijna 20% van de omzet als winst, wat hoog is (maar niet zo hoog als Nvidia).

Imho heeft Nvidia, naast een zeer goede performance, twee 'killer' features: DLSS (3.0) en Raytracing. AMD heeft DXR wat verre van goed presteert op zelfs de meest recente refresh en AMD heeft FSR, wat ook niet super werkt ivm. DLSS (het lijkt dat AMD daar een generatie achterloopt).

De (grafische) kracht van AMD zit momenteel juist sterk in de console markt en de low power pc (gamer) markt. Ik hoop en verwacht dat ze zich daarop blijven concentreren.
FSR 2.0 is een volwaardig alternatief voor DLSS, maar is veel breder inzetbaar en werkt ook op GPU's van 6 jaar oud.
FSR 2.0 is een volwaardig alternatief voor DLSS
FSR 2.0 is een volwaardig alternatief voor DLSS, DLSS 2.0 en/of DLSS 3.0?

FSR 2.0 is van 2021, DLSS (1.0) is van 2018, vandaar dat mijn indruk is dat het een generatie achterloopt.

Dat het werkt op oudere kaarten maakt niets uit voor de verkopen van nieuwe kaarten, waar we het hier over hebben.

[Reactie gewijzigd door Cergorach op 24 juli 2024 03:15]

2.0.

En het gegeven dat het op oudere hardware werkt, en zelfs op iGPU's, en op alle nieuwe kaarten uiteraard, maakt dat het meer toegevoegde waarde is voor developers om het als upscalingmethode te gebruiken, waarmee het dus op de langere termijn de overhand zal krijgen
In welk jaar het geintroduceerd is boeit natuurlijk weinig.
De meeste reviewers geven aan dat FRS 2.0 in de praktijk net zo goed werkt als DLSS 2.0.

Tenminste voor de midden en hoge resoluties.
In lage resoluties doet DLSS 2.0 het duidelijk beter. Maar in lage resoluties heb je technieken als DLSS 2.0 helemaal niet nodig, want dan zijn je prestaties al gigantisch hoog.

Dus ja, FSR2.0 is een volwaardig alternatief.
Idd, wie koopt een vlaggeschip van een GPU a 2000 euro en gaat dan op FullHD gamen? En wat moet je dan met 24GB videoram? die vul je niet op 1080P. Te krom voor woorden.

[Reactie gewijzigd door Madrox op 24 juli 2024 03:15]

Uw redenering mist wel nuance. De chips mogen dan kleiner worden. De wafersprijs en ontwikkellingkosten nemen harder toe dan de winst door het verkleining van de chips. Ook de yield neemt af met de verkleining van het procedé.

https://hardwaresfera.com...recio-oblea-tsmc-5nm/?amp

Nvidia heeft meer kosten + inflatie en dan zal de eindprijs hoger liggen dan de vorige generatie kaarten.

De niche markt klopt wel, dit soort rekenkracht heb je zelden nodig.
Het klopt, maar toch ook weer niet. Het is alsof Volkswagen zegt dat het steeds moeilijker om meer vermogen uit benzine te genereren. En daarom besluit maar de prijzen van hun auto's te verhogen, en de Ferrari markt te betreden. Wat ik me afvroeg, de kaarten die in de playstations en xbox'en zitten. Zijn er equivalenten (qua prijs en prestaties) te koop bij Nvidia?
Maar Nvidia heeft gewoon gelijk dat ze de cores op een wafer over zo klein mogelijk aantal gpu's verdelen. Want dan kunnen ze onevenredig veel meer vragen.
goed punt - toch snap ik de keuze voor deze "oplossing" niet.

met hogere prijzen hoef je minder te verkopen voor dezelfde omzet - maar ik zie voor NVidia toch een serieuze uitdaging om high-end gamers over de streep te krijgen.
Veel van die high end gamers hebben nog niet zo lang geleden eindelijk een flinke 3080 of 3090 kunnen krijgen na het drama van 2020 - ik zie de meeste daarvan niet nu alweer upgraden - voor dit geld.

ik zou best een nieuwe gpu willen - maar tot mijn verbazing voldoet een 1080 nog best goed! Een 3080 is interessant aan het worden. Ik kies er duidelijk voor om niet dit soort geld voor 1 component betalen. De rest van mijn 12600k build was tezamen aanzienlijk goedkoper.
Ik kan me o.b.v. mijn omgeving ook totaal niet voorstellen dat er überhaupt voldoende klanten bestaan om met deze prijs akkoord te gaan, waarmee NVidia zichzelf een onhandige positie geeft.

imho is de tijd dat Early adopters elke prijs betalen voor het nieuwste van het nieuwste inmiddels wel achter ons - een handjevol misschien, maar daarmee dekt NVidia de kosten niet.
Er liggen nog grote voorraden 3000 chips en kaarten, dus deze hoge prijzen lijken ook vooral bedoeld om die nog te kunnen verkopen. Dit gaat inderdaad wel ten koste van de 4000 verkopen, terwijl Nvidia heel veel productiecapaciteit heeft gekocht bij TSMC.

Deze strategie kan echter helemaal mislopen als AMD met een goed product komt.
Jaaaa, dat is de crux, +2 inzichtvol ;-) De laat geleverde 3000 kaarten moeten eerst op, en dan is het mooi meegenomen als er in de tussentijd een paar fans wèl top dollar betalen voor de nieuwe serie.

Oei, het was al interessant wat AMD ging doen, maar nu nog meer. Wordt het een concurrerend product? Wat doen zij met de prijs? Dwingen ze daarmee NVidia om de voorraaden bij leveranciers aantrekkelijk te maken door de leveranciers te sponsoren? Wanneer gaat Netflix een documentaire maken over de GPU markt van de afgelopen jaren? ;-)
Het 1080 argument is heel herkenbaar. Heb ik ook met mijn 1070. Wanneer je je monitor niet upgrade (zit zelf ook nog op 1080p/60hz) is zo'n GPU van meerdere generaties terug gewoon nog voldoende.
Iets wat je ook in benchmarks terug ziet. De moderne kaarten doen 60-100fps op 4k, 100-140fps op 1440p, etc. Maar lang niet iedereen zit op 4k/60hz of op 1440p/140hz te gamen. Kijk je naar 1080p/60hz benchmarks, zitten oude kaarten gewoon comfortabel/speelbaar performance uit te gooien.

Daar zit denk ik ook het echte probleem voor Nvidia/AMD. De nieuwe GPU's gaan eigenlijk hand in hand met overstap naar curved UW of anders 4k gaming (en beide gevallen liefst ook >100hz monitor) om echt profijt te halen uit al die extra rekenkracht. Dus behalve die 1000-1500 GPU komt er ook zo 250-500 euro aan nieuwe monitor bij kijken.

Anders gezegd, er zijn momenteel geen games waar je echt noodzaak hebt om je GPU te upgraden, het zijn de beeldschermen waar een upgrade pas relevant wordt. Wanneer je die monitor prijs meeneemt, dan wordt de prijsstelling van zelfs de 'budget' 3060-70/4060-70 ineens een heel ander niveau.

Dan praat je over pc upgrade van pakweg 800,- (ddr5 mobo, ddr5ram, nieuwe amd/ic cpu) en monitor van 250-500 euro. Niet echt verhoudingen waarbij je nog een GPU van 1500 euro erbij in stopt, met 'slechts' 500 euro aan GPU heb je dan al een totaal van 1500-2000 euro budget nodig - dan verwacht je geen budget gpu, als je zoveel uitgeeft aan je nieuwe game rig.

[Reactie gewijzigd door Xanaroth op 24 juli 2024 03:15]

Zelfs mijn rx480 voldoet nog prima in bijna alle games op 1080p. Al een tijd niet meer op "high" settings natuurlijk, maar toch indrukwekkend, wetende dat die 8 jaar geleden gereleased werd.

Het is wel duidelijk waarom nvidia zo enorm hard inzet op raytracing, ondanks dat je in moderne games haast geen verschil ziet met klassieke belichtingstechnieken. Ze hebben wanhopig iets nodig om nieuwe videokaarten te slijten, terwijl meer mensen dan ooit, meer jaren dan ooit kunnen gamen met hun huidige gpu. De goedkoopste next-gen console kost pakweg een derde van dit nieuwe "instapmodel", wat ook niet helpt voor nvidia.

[Reactie gewijzigd door Krimglas op 24 juli 2024 03:15]

De consument: een kelderend aantal klanten behoren tot het heden, een kelderend aantal aanschaffen alsmede.
Wij hebben gegronde reden/rede om bij AMD te (zijn) wezen.

Er speelt op dit moment veel meer dan de wet van Moore (leuk verhaal, Nvidia... we weten dat alles ook voor jullie duurder is geworden).
Namelijk de huidige (economische) situatie (omtrent videokaarten) en het aantal klanten dat Nvidia kwijt is/kwijt raakt.

Ik zie verdere prijsdalingen dus echt niet tot het verleden behoren!
En anders blijven jullie toch gewoon met videokaarten zitten... daar ligt de consument niet wakker van.
Die heeft wel andere zorgen op het moment.

[Reactie gewijzigd door HugoBoss1985 op 24 juli 2024 03:15]

Dat weten we nog niet tot 3 november. Ook voor AMD is de prijs per wafer enorm gestegen. Helaas liegt nVidia hier niet over. Uiteraard zullen ze meer doorberekenen aan de klant dan nodig maar de stijging is substantieel.

[Reactie gewijzigd door OMD op 24 juli 2024 03:15]

Nvidia maakt gigantische monolithische chips met tot 76 miljard transistoren. Daarvan passen er niet zoveel op een wafer.

AMD zal voor RDNA3 overgaan op 'n chiplet design, zoals bekend van de Ryzen CPU's. Deze chips zijn kleiner en dus makkelijker te fabriceren, en als er fouten in zitten hoef je minder weg te gooien.

De twee overgebleven vragen zijn: gaan chiplets ook werken voor GPU's, en zal AMD de verleiding kunnen weerstaan om de prijzen ook flink op te schroeven?

Wat dat laatste betreft, TSMC had al aangekondigd dat alle bestellingen volgend jaar zeker 20% duurder zou worden, en AMD zal zeker halverwege de product cycle geen prijsverhoging door willen voeren.
Deze chips zijn kleiner en dus makkelijker te fabriceren
Er zit geen fundamenteel verschil tussen de productie van een kleine en een grote chip. Je hebt een recticle die X-keer op een wafer wordt gezet. Heb je een maximaal formaat chip, dan past die 1x in het recticle (vaak zal je bij de hele grote chips het meer hebben over 2x-3x). Heb je een kleine chip dan past die 20x erin.

Maar qua productie heb je gewoon 1 recticle, en of daar nou 3x dezelfde chip op zit of 20x, maakt qua productie weinig uit. Wel moet je er bij ontwerp rekening mee houden als je hele grote chips hebt, dat je niet op 2.5x uit komt, waardoor de halve recticle leeg blijft. Bij kleine chips is dat veel minder een probleem.

Wat betreft fouten in de chip is het wel een valide punt. Eén chiplet weg moeten gooien is goedkoper dan een hele GPU weg moeten gooien. Hoe snel dat moet ligt natuurlijk ook aan het ontwerp en hoeveel CUDA cores worden gebruikt. Ze kunnen bij zo'n grote monolitische chip ook simpelweg cores uitschakelen die defect zijn.

Moet Nvidia straks alsnog de helft van hun GPUs weggooien vanwege defecten, en AMD maar 10%, ja dan heeft AMD een groot voordeel. Moet Nvidia er 5% weggooien en AMD 2%, dan weegt dat waarschijnlijk niet op tegen de extra kosten van een chiplet oplossing. Want laten we duidelijk zijn: Multi-die chips worden al decennia gemaakt, dat is niet ineens een revolutionair nieuw idee geweest. Het heeft duidelijk voordelen, waarvan jij er een aantal benoemt, maar ook nadelen (kosten van packaging zijn hoger, en het kost altijd wat efficientie).
Ik denk dat je het belang van yields onderschat. Dit is een GPU op een bleeding-edge proces (TSMC 4), Die hebben altijd aanloopproblemen met yields, en dat verbetert over tijd. Bij de 30x0 serie werd een Samsung 8 proces gebruikt wat de opstartproblemen al gehad had.

Het probleem met yield en grote chips is is dat je defect-ratio niet lineair is. Defects zijn al een dusdanig groot probleem dat je een heleboel chips moet binnen (defecte cores, verkopen als 4080 ipv 4090) maar dat werkt zolang je geen defecten hebt in kritieke centrale onderdelen zoals de PCIe aansluiting.
TSMC heeft wel erg lage defect rates, dus op zich valt het wel mee. De meeste defecten zijn ook op te lossen door een deel van de chip uit te schakelen.
Dat is voor de 4090 zeker waar, maar de 4080 12 GB heeft een chip van slechts 300 mm2, terwijl de 3080 een chip van 628 mm2 heeft. Ik kan de hele hoge prijs voor de 4080 12 GB dan ook moeilijk anders verklaren dan dat er een gigantische winst op wordt gemaakt.
4080 12gb is gewoon een rebranded 4070 of zelfs 4060
En dat zou dan meten kunnen beteken dat de prijzen zeker kunnen kelderen in de toekomst, marge zat. Misschien alleen de 4090 dan niet.
Chiplets helpen op uitval op een totale wafer, maar je hebt totaal nog steeds een groot oppervlakte aan wafer nodig om een GPU aan elkaar te knopen + een extra laag in de vorm van een interconnect. Kosten en uitval per wafer zal procentueel ook dichter bij elkaar komen deze generatie nu ze beide bij TSMC produceren op een vergelijkbare dure node.

AMD bracht met de 6000 serie ook minder features waardoor ze minder ruimte moesten opofferen, maar wel een grotere cache als oplossing voor een chiplet systeem waar ze nu heen gaan. Die ook ruimte en kosten laten stijgen. Ik verwacht dat ook AMD dan ook meer totale oppervlakte per GPU moet inzetten om tot vergelijkbare prestaties te komen via deze chiplets.

In alle eerlijkheid zijn de prijzen van de 4000 serie van nvidia al zo hoog dat 100 euro minder voor een vergelijkbaar AMD product nog steeds te duur is imho.
hangt even af van de nieuwe kaarten van AMD en de prijzen die zij gaan hebben toch? Het is ook niet in Nvidia's voordeel om de prijzen als enige hoog te houden. Ze zijn onlangs veel bevraagd over de prijzen en ze geven aan dat ze het niet goedkoper kunnen maken.

Als dat echt zo is volgt AMD met een vergelijkbare prijs kwaliteit. Maar dat moeten we dus even zien.
AMD gaat ook hun prijzen omhoog gooien, zover is zeker. Hoewel ze qwa prijs wel onder de lineup van Nvidia zaten. De 6900 XT presteerde (zonder raytracing) ongeveer gelijk aan een RTX 3090, en dat voor minder geld. Ik ben er vrij zeker van dat ze hun prijzen net onder die van Nvidia zullen positioneren om net wat meer performance/euro te geven, maar verwacht zeker niet dat de prijzen gelijk zullen zijn aan die van de RX 6000 generatie.
Precies, gewoon 100 euro eronder waarschijnlijk, dus nog steeds kneiterduur. Nu is de keuze of je wil betalen voor de proprietary tech van Nvidia (raytracing, DLSS, gsync), of dat je gelooft in die van AMD, dat met de samenwerking voor de Unreal Engine wel een belangrijke zet heeft gemaakt, en wiens eigen versie van DLSS stappen maakt.
Persoonlijk vind ik dat AMD mijn hardverdiende geld verdient. Ze zijn misschien op vlak van features nog niet op het niveau van Nvidia, maar ik gun het ze om op dat niveau te komen, en daar hebben ze nu eenmaal geld voor nodig :)

[Reactie gewijzigd door deSenna24 op 24 juli 2024 03:15]

@Zomborro @CrazyJoe @Ramkoe @OMD @lithiumangel

Dat verwacht ik ook van AMD, immers zijn hun kosten (productie, transport, etc) ook omhoog gegaan.
Ik vind de mentaliteit/klantvriendelijkheid (het moet niet alleen maar om winst gaan) van een bedrijf wel een zwaarwegende factor.
Ik "gun" het AMD de huidige generatie al meer en de volgende generatie -tot nu toe- ook.

Kortom: mijn post ging zeker niet alleen om de prijzen.

[Reactie gewijzigd door HugoBoss1985 op 24 juli 2024 03:15]

Waarom denk je dat de mentaliteit / klantvriendelijkheid van AMD beter is dan die van Nvidia?
Helemaal met je eens, juist de reden dat ik een RX 6900 XT heb.
AMD heeft voor de huidige generatie al een veel efficiënter ontwerp, waarbij ze relatief weinig transistors nodig hebben om dezelfde prestaties te halen. De verwachting is dat dit verschil blijft bestaan en dat AMD dus lagere productiekosten heeft.

Daarnaast denk ik dat AMD ook minder betaald aan TSMC per wafer. Nvidia lijkt een veel te duur contract te hebben afgesloten.
Ik althans niet. Even de 40xx series buiten gelaten want AMD heeft nog niks daartegen over staan voor vergelijking. En blijvende bij de 30xx series en de tegenhangende 6xxx series van AMD.

Ik heb een 3080 gekocht ipv AMD's 6800 series. Ik wil de beste prestaties hebben, op 4K want ik game nou eenmaal op een A90J. ik wil graag raytracing want dat ziet er in bijvoorbeeld de Metro-exodus Enhanced Edition (raytracing only version), CP2077 en andere games geweldig uit. Ik wil extra features hebben die gewoon werken (nvidia broadcast, wat heerlijk is voor veel WFH) makkelijk streamen en clips maken - zelfs automatishe clips als je iets tofs doet zoals een triple headshot oid omdat geforce experience direct in je game kan hooken - DLSS 2.xx is nog steeds beter als het nieuwe FSR 2.0. Daarnaast is Nvidia gewoon beter in acceleratie van editing workflows, want behalve gamen ben ik ook bezig in Davinci resolve. AMD is daar gewoon nieteens 2e in (dat is intel met quicksync)

Nee, niet iedereen wil gewoon de goedkoopste raster-only performance hebben en dus automatish een AMD. Dat jij geen Nvidia wilt, betekent niet dat andere dat niet willen.

[Reactie gewijzigd door lithiumangel op 24 juli 2024 03:15]

Dan hoor je niet bij de gemiddelde prijs bewuste consument. (In iede geval voor videokaarten).

Die prijzen zijn absurd dat ze het überhaupt durven te vragen.
Ik denk dat veel mensen overschatten hoe groot de groep high end GPU consumers is. Als je naar de meest recente steam survey van augustus kijkt is de meest populaire kaart een 1060. Sterker nog, in de hele top 20 staan maar 2 redelijke high end kaarten, de 3070 staat op plek 10 en de 3080 op plek 15, de rest van de kaarten komt nagenoeg allemaal uit goedkopere series.

Als je kijkt naar welke kaarten het hardste zijn gegroeid qua aandeel zie je zelfs helemaal geen 3080 kaarten of hoger in de top 20 staan. alleen een laptop 3070ti komt er dan in voor.
Ik vraag me wel altijd af hoe goed de marktdoorsnede van de Survey nou daadwerkelijk is. Mijn 2 30xx'en komen er in elk geval niet in voor want ik zou nooit meedoen aan zo'n survey. Wellicht een leeftijdsdingetje, maar mijn leeftijdscategorie heeft over het algemeen ook meer te besteden. In mijn vriendengroep is het één 1060 voor det rest 3070's en een 3080ti en 3090. En ook daar durf ik mijn hand voor in het vuur te steken dat ze niet op de accept knop bij de survey klikken.

[Reactie gewijzigd door MN-Power op 24 juli 2024 03:15]

Veel niet-gaming compute workloads (bv. machine learning, scientific, ...) vereisen vandaag ondersteuning voor CUDA. Dan ben je zowat verplicht NVidia te kopen. Het alternatief, OpenCL, is zo goed als dood. Zelfs als AMD kaarten de helft van de prijs zijn, de verlaagde productiviteit van een kaart zonder CUDA komt een pak duurder uit.
Feit is dat vele klanten vandaag meer dan enkel triangle-rasterizatie zoeken in een GPU, of het nu CUDA, RT-performance, DLSS, NVENC, ... is.
Het is wel goed om (zoals jij doet) het verschil tussen consumenten en bedrijven (beide zijn klanten) te nuanceren.
Kortom: Nvidia zal aan bedrijven genoeg blijven verkopen, omdat die geen keuze hebben.
Daar heb je wel een punt want ik denk ook dat bedrijven een veel groter deel van de omzet van Nvidia genereren?

De consument kan nog besluiten dat die RT, DLSS, streaming, etc zaken het geld/genaaid worden (shady praktijken) niet waard zijn.

@lithiumangel @Zezura Oh ik wil wel Nvidia hoor, al veel Nvidia kaarten gehad (Zelfs vaker naar Nvidia geupgrade dan naar Ati/AMD).
Ik heb zelfs 2 Nvidia kaarten in mijn primaire systemen.
Maar niet op deze manier (met al de rare praktijken, het stroomverbruik en de prijskaartjes)!

[Reactie gewijzigd door HugoBoss1985 op 24 juli 2024 03:15]

Ik was tot nu toe ook fan van Nvidia maar ik begin ze zat te worden. En dan kan je nog de beste branding hebben en coole software. Een keer houd het op dat ik er extra voor wil blijven betalen. Als ik me genaaid begin te voelen word ik heel principieel. Ik heb te vaak een Coolblue reclame op YT gezien. Nu koop ik niks meer bij Coolblue.. boeit mij hun glimlach.
Maar in dat laatste geval kan ik de strekking van je verhaal niet vinden.
Je zegt immers dat als je je 'genaaid' voelt, je stopt met het supporten van dat bedrijf en dat je daarin heel principieel bent.

Maar in welke strekking heeft Coolblue jou dan genaaid in dit geval?
Door je wat vaker dan een ander bedrijf reclame voor te schotelen? nou poeh poeh ;)..
Daarnaast zal die reclame vaker aan jou getoond worden omdat je dus schijnbaar interesse hebt in de spullen/services die coolblue kan bieden op basis van je google ads profile ;)
ik heb het over principes, en dat ik principieel ben.
Ik vind waarden en normen (in onze samenleving) belangrijk. Zo kan je tal van voorbeelden geven. Zoiets als; "Wat je beloofd moet je ook nakomen" vind ik bijvoorbeeld belangrijk. Als ik iets zeg, sta ik er ook echt achter. Tenzij iemand mij met goede argumenten overtuigd. Want je moet wel met elkaar blijven praten en elkaar aanhoren.

[Reactie gewijzigd door Zezura op 24 juli 2024 03:15]

Ik hoop dat je gelijk hebt, maar het is nog even wachten tot 3 November wanneer AMD zijn nieuwe GPU lineup aankondigt.
Het feit blijft dat mensen het uiteindelijk niet meer kunnen/willen betalen. Dus uiteindelijk blijven de videokaarten toch gewoon liggen. Maargoed dat zie je dus nu al met de kelderende prijzen van de 30x serie. De hele reden dat deze nu kelderen is niet de wet van Moore maar het blijven zitten met kaarten nu het aanbod aantrekt. Bijna niemand telt 2500 euro neer voor een videokaart. De personen die zoveel geld uitgeven voor een energieslurpende kaart zijn in Nederland op 2 handen te tellen schat ik. Dus iedere webshop die prijzen hanteerde van astronomische hoogtes zit nu mooi te kijken met die dingen. En ja.... Dan maar de prijs omlaag anders komen ze er nooit vanaf. Daar is een mooie zin voor bedacht ook: "vraag en aanbod"

Overigens 4090 tot 2x sneller dan de 3090ti... Dat is toch wel een absurde verbetering... Even los van de prijs

[Reactie gewijzigd door sygys op 24 juli 2024 03:15]

We zullen zien wat AMD doet voor deze generatie kaarten. Zelf denk ik dat ze net als NVIDIA de prijzen omhoog zullen gooien, met waarschijnlijk een marge van 100 dollar t.o.v. NVIDIA's prijzen.
exact... Ik lees dit echt : "kelderende gpu-prijzen behoren tot het verleden."
Oftewel ze worden nooit meer goedkoop. Inderdaad om te zeggen: "doeidoei"

edit: Echt zo'n stemmingmakende statement die verkapt voor prijsafspraken zorgt.
Niemand die het kan bewijzen en straks kun je het gewoon aan de prijzen zien.

[Reactie gewijzigd door Kabouterplop01 op 24 juli 2024 03:15]

Is het de vraag of de consument (games) Nvidia op dit moment zoveel boeit en de nadruk qua verkopen niet zo veel mogelijk verschoven is naar zakelijke compute, ML, AI, Simulaties etc. Als je z'n keynote bekijkt ging daar dan ook een groot deel van de aandacht naar uit en daar heeft men nog wel budget en ligt Nvidia qua omgeving en libraries nog voor op de concurrentie en wordt de vendor-lock-in voor lief genomen (helaas).
Het feit dat hij deze uitspraken doet zegt al genoeg, hij ziet namelijk het onheil al naderen van dalende gpu prijzen. Te veel 30 series kaarten op voorraad/tweedehands markt wordt overspoeld met goedkope 30 series kaarten. Nee Mr Huang uw rare praatjes over "Gpu prijzen zullen niet meer dalen" gaat niet werken.
We zijn namelijk niet helemaal achterlijk.
Ik wou bijna hetzelfde typen, Nvidia bepaalt? Dacht het niet, de aankoper bepaalt, die kijkt in zijn portemonnee of het wel kan en ik denk dat voor 75% van de gebruikers, dit geldt.
Zeker in deze economie en elk jaar maar inflatie (of alles in goud verandert :F) en dan nog zulke prijzen?
Ook ik snap dat grondstoffen duurder worden, maar toch, dit soort prijzen gaat averechts werken en zal de gebruikers eerder naar het andere kamp duwen.
Great minds think alike ;)

Het blijkt na 2 jaar idiote prijzen (en shady praktijken) dat veel mensen het gewoon beu zijn.
En dat is heel goed want dan bepalen wij als consument inderdaad!

En let wel: veel mensen kunnen het gewoon niet meer betalen.

Als het andere kamp ook te duur is dan haakt men daar ook af en dan zullen aan die kant toch ook de prijzen omlaag gaan.
Maar ik "gun" die andere kant het dus zeker meer en hoop echt dat die met goede (stroomverbruik, prestaties, specificaties) videokaarten komen en voor marktaandeel gaan en niet voor de hoogste prijs.

[Reactie gewijzigd door HugoBoss1985 op 24 juli 2024 03:15]

Onzin, want ook bij AMD zijn de prijzen steeds hoger.
1) Hij heeft gelijk over de Wet van Moore.
2) De hoge prijzen van de RTX4000 komen niet door waferprijzen, maar door inhaligheid van Nvidia.
3) Ik verwacht dat de markt nee gaat zeggen tegen de hogere prijzen en vooral het hogere energieverbruik.
In 2019 had nvidia het ok al gezegd dat Moore's law dood is.
Als je inderdaad de trend in het x86 groep bekijkt is het "technisch" dood met een 20% drop t.o.v Moore's Law over twee jaar.
Kijk je echter naar SoC's zitten die rond 18% stijging boven Moorse law over een twee jaar periode.

Heeft hij dan gelijk of zit hij zijn eigen falen recht te praten?
De drijver achter de Wet van Moore was dat de miniaturatie de prijs van een chip sterker verlaagde dan de gestegen prijs per wafer. Dat is nu met EUV-lithografie niet meer het geval. Een RTX4000-kaart zal dan ook wel degelijk een hogere kostprijs hebben voor Nvidia dan een RTX3000-kaart, dus in die zin heeft hij gelijk. De verkoopprijs van zo'n kaart wordt evenwel de laatste jaren allesbehalve bepaald door de kostprijs, dus in die zin heeft hij ongelijk.
Ik moet ook eerlijk bekennen dat ik ook lang geloofde dat Moore's Law aan een einde zat. Maar toen kwam Apple met de M1 en die stijgt ver boven Moore's Law uit (dat is de 18% waar ik het over had).
Ik ben normaal gesproken fel tegen alles Apple, maar dit is toch echt een onvermijdbare win in de boeken en blaast nieuw leven in Moore's Law.

Ik denk dat het veilig te stellen is dat een fabrikant nooit objectief hun eigen vooruitgang kan bepalen.
Maar toen kwam Apple met de M1 en die stijgt ver boven Moore's Law uit (dat is de 18% waar ik het over had).
M1 is toch gewoon 5nm technologie, en daarmee qua transistors per vierkante centimeter niet anders dan andere 5nm chips.
Dichtheid is niet een factor. De uitspraak is dat elke twee jaar het aantal transistors verdubbeld.
Als je alleen kijkt naar het aantal transistors dan wordt Apple ruim voorbijgestreefd door Cerebras Systems met inmiddels 2.6 biljoen (duizend miljard) https://www.techradar.com...ust-got-a-massive-upgrade

Maar de ontwikkeling van steeds kleinere productie processen -oftewel toenemende dichtheid- staat dusdanig centraal in de halfgeleider industrie dat men het er vaak niet expliciet over heeft, maar het is wel de drijvende factor achter de wet v Moore. Het is vanwege toenemende dichtheid dat het fenomeen bestaat wat de wet v Moore wordt genoemd. Zoals elders ook opgemerkt: de kosten zitten 'm in de wafers en de verwerking daarvan (belichten, etsen), dus hoe meer chips je uit een wafer kunt halen -dankzij hogere dichtheid- des lagere de prijs per chip.

Alleen maar meer transistors zou veel grotere chips inhouden en voor de meeste toepassingen al snel onbetaalbaar worden. Omdat de wet v Moore samenhangt met dichtheid is de prijs van CPU's decennia lang van generatie op generatie min of meer gelijk gebleven (gecorrigeerd voor inflatie) - en juist die trend komt ten einde omdat 'de rek er uit is'; men loopt steeds meer tegen de limieten vd huidige halfgeleider techniek aan, waardoor opgenomen vermogen en daarmee koeling steeds meer een probleem worden en de kosten toenemen.
De SoC's van Apple zijn ook mega groot in vergelijking met de concurrent. Ze zijn de eerste die dit niveau aan preformance haalt met een chiplet ontwerp. Gezien AMD dus ook nu aankomt met chiplets lijkt er een verschuiving plaats te vinden.
Het is een geheel ander aanpak op wafer gebruik dus kun je in 1 pakket makkelijk het aantal transistors verhogen. Oppervlakte is juist de crux van het oude systeem. Hoe groter de chip des te minder je kans is op hele chips.
Er zijn genoeg mensen die aan komen met wat zij denken dat "het drijvende veer is" maar uiteindelijk is de uitspraak vrij duidelijk. Elke 2 jaar, 2 keer zoveel transistors. Er zit geen maar aan vast.
Degene die buiten de box denken veroveren de markt.
Gezien AMD dus ook nu aankomt met chiplets lijkt er een verschuiving plaats te vinden.
AMD had al eerder chiplets (2017; Zen 1000).
Er zijn genoeg mensen die aan komen met wat zij denken dat "het drijvende veer is" maar uiteindelijk is de uitspraak vrij duidelijk.
De uitspraak heeft een context, zoals door mij uitgelegd.
Elke 2 jaar, 2 keer zoveel transistors. Er zit geen maar aan vast.
Degene die buiten de box denken veroveren de markt.
Je gaat de markt niet veroveren als je de kosten buiten beschouwing laat.
De uitspraak heeft een context, zoals door mij uitgelegd.
En context wat gelinkt staat aan de aanname dat dichtheid een factor is. Gorden benoemt microchip als de eenheid niet transistor/inch.
De barrière wat opgeworpen wordt, is dat je niet oneindig door kan gaan met een chip vergroten omdat je er dan veel te weinig uit een wafer kan halen en dus de prijs gruwelijk omhoog drijft.
Dit probleem wordt van het bord geveegd met chiplets. Geen barrière betekent dat je makkelijk de oppervlakte van je microchip kan vergroten wat dus ook leidt tot veel betere warmte management.
Je gaat de markt niet veroveren als je de kosten buiten beschouwing laat.
En toch zijn degene met chiplet ontwerpen goedkoper dan Nvidia.
Wafer kosten gaan natuurlijk omhoog maar dat wil niet zeggen dat hun doorberekening van de prijs klopt.
Vooral Nvidia lijkt contact kwijt te zijn geraakt met de markt. Buiten de MSRP bepaling om wie gaat er in vredesnaam een GPU kopen wat met gemak 600+ watt kan trekken als je er geen geld mee verdient?
Hun huidig pad van ontwerp is duidelijk door het platfond geschoten en dan ga ik niet een uitspraak van hun dat Moorse's law dood is ter harte nemen. Het is een beetje een "Wij van WC-eend..." uitspraak.
En toch zijn degene met chiplet ontwerpen goedkoper dan Nvidia.
Al die producten zijn voor consumenten betaalbaar omdat ze werken met een klein productieproces en dus hoge dichtheid. Als die chips op bvb 100um zouden worden gemaakt zou bijna niemand zich die kunnen veroorloven.
Chiplets zijn goedkoper omdat je daarmee een hogere yield haalt - nog zo'n factor die vaak niet expliciet wordt genoemd maar wel van belang is.
Het gaat helemaal niet om chips op 100 um bakken.
Het gaat erom dat er meerdere methodes zijn om het doel te behalen.
Eén van die methodes is het procede te verkleinen, maar op een begeven moment kan je niet kleiner dus moet je omschakelen naar andere methodes.
Chiplets zijn goedkoper omdat je daarmee een hogere yield haalt - nog zo'n factor die vaak niet expliciet wordt genoemd maar wel van belang is.
Zit je hier nou gewoon te trollen? Dit is letterlijk wat ik zeg als argument tegen je wafer kosten plaatje argument.

Intel zei ook dat het allemaal aan het einde zat van wat ze kunnen en prompt 3 jaar later zitten ze ook P en E cores pakketen te maken nadat ze AMD gingen uitlachen voor het "samen plakken" van cores.

Andere visie en zelfde wet van Moore.
Het gaat helemaal niet om chips op 100 um bakken.
Het gaat mij om de vergelijking waaruit blijkt dat dichtheid wel relevant is: als moderne chips op 100um zouden worden gemaakt dan zouden die onbetaalbaar zijn - en zouden die chips dus niet de markt veroverd hebben.

[/quote]Het gaat erom dat er meerdere methodes zijn om het doel te behalen.

Eén van die methodes is het procede te verkleinen, maar op een begeven moment kan je niet kleiner dus moet je omschakelen naar andere methodes.[quote]

Precies; decennia lang is dichtheid de drijvende factor achter de wet v Moore geweest.
Zit je hier nou gewoon te trollen?
Ik wijs erop dat er mbt de wet v Moore factoren in het spel zijn die vaak niet expliciet genoemd worden maar wel zeer relevant zijn. Nadat je dat eerder hebt ontkent lijk je dat nu wel in te zien.
Ik wijs erop dat er mbt de wet v Moore factoren in het spel zijn die vaak niet expliciet genoemd worden maar wel zeer relevant zijn. Nadat je dat eerder hebt ontkent lijk je dat nu wel in te zien.
Nu lijk ik dat in te zien??? Ik ben geen mm van positie veranderd. Ik denk eerder dat jij je hebt vergist in mijn standpunt.
Eerder zei je "Dichtheid is niet een factor", later zeg je "...dat er meerdere methodes zijn om het doel te behalen. Eén van die methodes is het procede te verkleinen...".
Dichtheid is niet een factor in de uitspraak van Gorden. Als dat wel zo was, dan was juist enkel het verkleinen van de procedé mogelijk om de uitspraak in stand te houden.
Omdat het dus geen factor uitmaakt in de uitspraak kan je ook andere paden bewandelen om het uitspraak in stand te houden.
Dichtheid is dus niet de drijfveer maar enkel een mogelijke oplossing.
Nogmaals, die uitspraak heeft context: de wet v Moore is een een voorspelling gebaseerd op observatie van technologische ontwikkeling - de oorzaak van die ontwikkeling was indertijd toen die uitspraak werd gedaan, uitsluitend toenemende dichtheid. Diezelfde ontwikkeling is sindsdien voornaamste factor mbt de wet v Moore.
Dat in de uitspraak de oorzaak niet wordt genoemd wil niet zeggen dat die oorzaak niet relevant is.
Ook nu zou het zonder decennia lang toegenomen dichtheid onmogelijk zijn de chips te maken die we hebben.

Voor de duidelijkheid: ik noem dichtheid niet de "drijfveer" (dat is m.i meer zoiets als motivatie; 'waarom wordt dat gedaan') ik noem het de "drijvende factor"; 'hoe komt het dat dat gebeurt'.

Je kan toenemende dichtheid "enkel een mogelijke oplossing" te noemen, maar het is al vele decennia veruit de voornaamste technologische ontwikkeling waardoor de voorspelling van Moore uitkomt. Zonder toenemende dichtheid zou er geen wet v Moore zijn.
Dat is dus totale onzin. Zoek het maar uit met je drijvende whatever.
Ik gok dat de waarheid inzake jouw tweede punt ergens in het midden liggen. Wafers zijn natuurlijk fors duurder geworden, los nog van alle andere kosten die gemaakt moeten worden. O.a om de kaarten hier te krijgen.
$16988 voor een 300mm wafeltje van TSMC. Dat wafeltje heeft een oppervlake van 70686mm². De RTX4000 TU104 zou een oppervlakte hebben van 545m². Laten we even aannemen dat de helft van het oppervlak verloren gaat aan mislukte chips en snijverlijzen. Dan 70686.0/2/545 = 64 chips per wafer. Productiekosten $265 per chip. Een chip is natuurlijk geen kaart, maar als die een tienvoud kost, dan is de chipprijs daarin niet de dominante factor. Nog even los van het feit dat het Nvidia's geheel eigen keus is om voor een megachip van 545m² te kiezen.
Ik weet niet precies wat de Quadro RTX4000 uit 2018 met de nieuwe RTX 40XX serie te maken heeft. De 40XX chips worden waarschijnlijk een stuk groter dan 545mm² de 3080ti is ook al 628mm². De productie kosten van de chip zijn natuurlijk niet de enige kosten die komen kijken bij de ontwikkeling. Alle R&D en andere development kosten heb je dan even buiten beschouwing gelaten.
Met een oppervlakte van 545mm² is een yield van 50% misschien zelfs nog wel optimistisch. Maar om het nog leuker voor ze te maken, de AD102 in de 4090 is 605mm². Met een defect dichtheid van 0,2 per cm² zou je dan nog maar een yield van 33,5% overhouden. Dat zijn ~27 4090 GPUs waarvan de productie ~$629,19 per stuk is. Maar dat is hun probleem. Eigen schuld. Veel te groot ontwerp. Het zal ook niet geholpen hebben dat ze vorige generatie naar Samsung zijn gestapt en ze nu met TSMC een nieuwe deal hebben moeten sluiten.

Maar dat Moore's law dood is of dat GPUs enkel in prijs kunnen stijgen is ook weer onzin. Van RDNA3 weten we dat het met een MCM design gaat komen. De grootste chip van de hele package is veel kleiner dan Nvidia's high end en AMD kan nu ook met goedkopere nodes mixen. Welke prijzen AMD gaat hanteren weten we niet, maar wel dat zij een veel goedkopere productielijn krijgen.
De helft, onderbuikgevoel of heb je een bron? Volgens mij heb ik gelezen dat het toch hoger is a +70%.
Doel was aan te geven dat de productiekosten van de chip alleen niet verantwoordelijk kunnen zijn voor de doorgevoerde prijsstijgingen. Ik heb de helft genomen omdat dat haalbaar kan zijn. Die 70% die je noemt zal waarschijnlijk slaan op het aandeel werkende chips, er gaat ook nog wat oppervlak verloren aan snijverliezen. Als het toch meer is, daalt de kostprijs per chip natuurlijk, wat prima is.
los nog van alle andere kosten die gemaakt moeten worden. O.a om de kaarten hier te krijgen.
In bulk verschepen (container schepen) is zo ongeveer de goedkoopste vorm van goederen transport die er bestaat. Het iets van 3 cent voor een doos schoenen (het gaat om gewicht en afmeting) de halve wereld over, zolang je er maar duizenden tegelijk verscheept.
De markt heeft al bewezen dat ze een veel te hoog bedrag willen betalen.
Kaarten voor het dubbele kopen van scalpers, daar leren bedrijven natuurlijk van.

Het is ook zonder een crisis een logische reactie van bedrijven om de prijzen omhoog te gooien als blijkt dat we makkelijk 300 euro meer willen betalen voor een high-end kaart.
Er ligt hier best een kans voor AMD en Intel. Ik denk dat er veel mensen best voorbij de leercurve die Intel doormaakt met hun drivers (en met name matige Direct3D 9-11 prestaties) kunnen kijken als ze fiks minder hoeven betalen voor een videokaart. En zo kan Intel wel hun operatie uitbreiden.

Weet niet of AMD geïnteresseerd is om hier in mee te doen. Op basis van de RX6000 serie lijkt het er in eerste instantie niet op, maar wie weet wat ze doen als de vraag/aanbodverhouding verandert. AMD heeft ook een hoop zieltjes terug te winnen.
Je ziet online ook steeds meer Nvidia minded mensen het volgende aangeven; Dat ze na EVGA, de prijzen en stroomgebruik van de nieuwe generatie toch eens gaan overwegen om voor AMD te gaan. Nu hoop ik dat Intel daar ook wat van kan meepakken.
Daarnaast moet nog blijken of DLSS 3 zo fantastisch is; in een situatie waar je normaal 30 FPS zou hebben en je met DLSS 3 60 FPS dan heb je nog steeds minimaal de inputlag van die lagere framerate en in het slechste geval (wat ik persoonlijk vermoed) de input lag van 30 FPS met VSync.

Zeker met E-Sport titels die weinig vragen lijkt Intel mij prima. Er zijn niet heel veel E-Sport titels dus het is makkelijker om te focussen dat drivers daar goed op werken. Daarnaast zullen nieuwe gamers die net beginnen prima met Intel kunnen starten, die willen toch vaak het nieuwste van het nieuwste spelen wat vaak niet DX9/DX11 zijn.

Denk dat AMD zeker wat marketshare gaat terugpakken; alleen hebben ze waarschijnlijk minder productie capaciteit dan Nvidia gekocht.

Laatste punt wat ik wil maken; Nvidia mag wel willen dat die prijzen zo hoog zijn maar die gaan vanzelf naar beneden als ze die kaarten niet aan de straatstenen kwijt kunnen raken.
De combinatie van het einde van het thuiswerken en verveelde mensen die een spel willen spelen, de crash van crypto en het proof of stake van Ethereum gaat er voor zorgen dat er veel tweede hands kaarten beschikbaar komen en dat de vraag in zijn geheel naar beneden gaat. Ik verwacht dat als Nvidia zijn prijzen niet verlaagd dat we een blije Intel en AMD hebben.
De inputlag van de lagere framerate? Als je FPS omhoog gaat, gaat de frametime omlaag en heb je dus minder input lag. Dus je hebt gewoon de inputlag die bij 60fps hoort en niet van 30fps. Daarnaast zorgt DLSS niet voor extra input lag dat is al meerdere malen getest. Zou niet weten waarom DLSS 3.0 opeens anders zou zijn. Dus ja, het is zeker een fantastisch feature en de toekomst van gaming.
Zo werkt het helaas niet. DLSS 3 werkt middels frame "optical flow" interpolatie (hetzelfde als jouw TV doet maar dan met een smaakje ML en met het voordeel dat ze depth buffers en andere informatie hebben wat een TV niet heeft). Dat betekent dat er een extra frame tussen frame 1 en 2 wordt gegenereerd, frame 1.5 om het zo maar te zeggen. Hierdoor krijg je een soepeler beeld omdat de framerate hoger is. Het nadeel is dat je eerst moet wachten tot frame 2 is gegenereerd voordat je pas frame 1.5 heb en die kan tonen. Daarnaast heb je ook nog de extra tijd tussen frame 1.5 en frame 2.
Dit zorgt dus voor input lag en dit is ook de reden dat Nvidia adverteerd dat ze Nvidia Reflex gebruiken om deze input lag te verlagen.

DLSS 2 werkt niet op die manier en zal niet voor extra input lag zorgen in 99 van de 100 gevallen. In mijn ogen is DLSS 2 superieur aan DLSS 3.
De manier waarop DLSS 2 en 3 werken zijn totaal anders en je kan niet stellen DLSS 3 heeft geen input lag omdat DLSS 2 dat niet heeft.

Lees anders het plus artikel als Tweakers een betere bron voor je is? Een quote hieruit:
Om te beginnen een rectificatie. Bij de aankondiging van DLSS 3 ontstond wat verwarring over de werking van DLSS Frame Generation met AI, waarvan de werking op twee manieren geïnterpreteerd kon worden. Nvidia antwoordde op vragen van Tweakers dat Frame Generation geen interpolatie is, maar 'toekomstige' frames genereert.

Dit klopt echter niet. In een GTC-ontwikkelaarskeynote van Nvidia meldt het bedrijf dat DLSS Frame Generation twee frames analyseert en daar een extra AI-frame tussenin 'plakt'. "Het DLSS Frame Generation-algoritme accepteert twee gerenderde frames van de game-engine of 3d-renderer en genereert een nieuw frame dat soepel tussen beide overgaat", aldus het bedrijf. In een nieuwe reactie aan Tweakers vertelt Nvidia ook dat DLSS 3 toch geen toekomstige frames genereert, maar dat het in plaats daarvan een tussentijdse frame creëert op basis van de huidige en vorige frame.
Dit zal dus hoe dan ook leiden tot input lag. Net zoals jij je TV in game modus zet omdat je geen lag wilt hebben tijdens het gamen zal ik DLSS 3 nooit aanzetten omdat het lag veroorzaakt.
Ik wil niet zeggen dat het helemaal geen nut heeft; maar voor alles dan de meest trage spellen zie ik er geen toekomst in.

[Reactie gewijzigd door Sp3ci3s8472 op 24 juli 2024 03:15]

Ik had me nog niet helemaal verdiept in DLSS 3.0, excuus :)

Had niet verwacht dat ze deze kant op zouden gaan. DLSS 2.0 is dan inderdaad de betere optie. Frame interpolatie wil je absoluut niet. Vooral een marketing verhaal dus.
nVidia zet in ieder geval de deur open voor de concurrentie.
Het enige voordeel wat ze hebben is driver support, features en dat ze de eerste zijn met de nieuwe generatie.
Voor mij persoonlijk zijn die voordelen niet het geld waard, ik wacht dus de komende maanden graag even af om te zien wat AMD en Intel gaan doen.
Denk dat alleen de tijd zal leren of nVidia het bij het juiste eind heeft :)
De features is ook precies waarom ik elke keer maar weer een Nvidia kaart koop. Ik maak gebruik van Shadowplay, en de nvenc encoder is werkelijk een godsgeschenk. Gelukkig heeft AMD de ReLive tegenhanger. Daarnaast maak ik veel gebruik van het Shield systeem waar Moonlight op werkt. Remote desktop zonder tussenkomst van een derde partij, waarbij je zelfs spellen op kunt spelen en de controllers van host en guest beide werken. Geen andere oplossing dat hier aan kan tippen. Voor AMD is er wel een open-source project genaamd Sunshine, waarmee Moonlight kan verbinden, alleen is het voor mij onbekend terrein hoe dat gaat werken en of het even goed werkt.

Maar de nieuwsberichten van de afgelopen tijd zet mij erg aan het denken om een gok te wagen om dit keer voor AMD te gaan. De prijzen van Nvidia zijn gewoon absurd hoog en niet goed te praten, waarbij Jensen Huang hier een double-down doet. Het verhaal van EVGA maakt mij ook niet blij. Tevens lijkt het erop dat de 12GB 4080 eigenlijk een 4070 is (andere chip dan de 16GB versie).
AMD heeft zelf Link om de desktop over te nemen en games te streamen.

Is een stuk minder beperkt dan Nvidia's systeem. Recent een maat die met een Nvidia kaart vanaf een random Android tablet de PC wilde overnemen, was niet makkelijk en boel gedoe voor een a-technisch iemand. Uiteindelijk maar via Anydesk gedaan.

AMD kan je met zo'n beetje elk apparaat de app downloaden, QR code scannen en klaar. AMD Link staat in de Play Store, App Store en Microsoft Store. Als ik nu snel kijk ben je voor Nvidia op iOS al aangewezen op 1 of andere 3rd party shit. Op Android heb je in F-Droid wel een FOSS Moonlight staan.

"Geen andere oplossing dat hier aan kan tippen" :>

AMD heeft de software kant echt een stuk beter voor elkaar.
Bedankt. Ik was nog niet bekend met AMD Link. Hoe zit het met de latency? Met Nvidia/Moonlight is het in ieder geval nagenoeg 0. En wordt de game controller van een guest client ook gezien als een 2e controller (zodat je P1 en P2 controllers hebt)?
Ik heb het niet precies gemeten, het loopt zichtbaar nauwelijks achter als ik mijn smartphone voor mijn beeldscherm hou. Maar het geeft mij wel bewegingsziekte helaas. Niet getest met controllers, het ondersteund het zo te zien wel
Idem. Ik had ~850 euro klaarliggen voor ze om een 4080 te kopen. Deze gestoorde prijzen zorgen er direct voor dat ik met mijn geld richting de concurrent ga wapperen. Gelukkig heb ik nog een 3080 voor 719 weten te scoren twee jaar geleden. Mocht het bij AMD ook zo duur zijn dan skip ik gewoon een gen.
AMD fabriceert net zo goed met TSMC en betaalt dus dezelfde prijzen. De prijs/performance verhouding van AMD is (als je raytracing even niet meetelt) dan ook altijd nagenoeg hetzelfde, met hooguit een paar procent verschil.

Dit is een industrie die enorm leunde op alsmaar kleiner wordende transistors, en dat word nu steeds duurder om voor elkaar te krijgen. Dus ze kunnen wel betere chips maken, maar je hebt niet automatisch meer iedere 2 jaar een betere chip voor hetzelfde geld.

[Reactie gewijzigd door Wolfos op 24 juli 2024 03:15]

Niet helemaal, Nvidia is hun korting kwijt bij TSMC omdat ze de 3000-series door samsung hebben laten produceren. AMD schijnt nog wel enige loyaliteitskorting te ontvangen.
Het is nog niet bekend of AMD ook dit 4nm proces pakt op zich, als ze op een van de 5nm zitten hebben ze misschien andere kosten. De RDNA 3 chiplet die AMD al getoond heeft was op 5nm gemaakt. Intel zit in ieder geval op TSMC 6nm voor hun Alchemist chips dus zal niet de hoofdprijs die Nvidia betaalt op dit moment.

Los van dat Intel en wellicht AMD goedkopere fabricage hebben: het is leuk dat Nvidia stijgende prijzen noemt, maar op videokaarten zit heel veel marge waar Intel en AMD andere tactische keuzes kunnen maken.
Er ligt hier best een kans voor AMD en Intel.
De berichten vanuit Intel over de losse videokaarten is niet goed, wat ik er van begreep is dat ze de handdoek in de ring hebben gegooid.

AMD maakt al heel lang gebruik van die kans, maar imho niet in de losse videokaart markt. Ik verwacht dat meer PC gamers zullen overstappen op een console en er minder mensen überhaupt gaan beginnen aan PC gaming met losse videokaarten. En in de console markt zit AMD al in de Xbox en Playstation.

Daarnaast doet AMD het ook al heel erg goed (en beter dan Intel) op het integrated graphics vlak. Zo is de Steam Deck en de Ayaneo lineup ook voorzien van integrated AMD graphics. En hoewel dat veel meer een console 'feel' heeft is dat ook eigenlijk gewoon PC gaming. Daarnaast verwacht ik ook meer game streaming zoals Xbox Cloud Gaming, PlayStation Plus Premium en Geforce Now, wat prima kan op potato machines. Voor de prijs van een 4090 kan ik 20 jaar een PlayStation Plus Premium abo afnemen...

Als je kijkt naar de Steam stats voor videokaarten staat een 3070 pas op de 10e plaats, een 3080 pas op de 15e plaats. Een 3080 heeft 1,64% van de Steam gebruikers in hun PC zitten, de AMD Radeon Graphics (integrated) zit in 1,61% van de PCs en is in Augustus met 0,33% omhoog gegaan (de 3080 met 0%). Intel(R) UHD Graphics zit op 1,33% en is in Augustus met 0,48% omhoog gegaan. Dat staat nog los van alle andere integrated graphics opties.

Ik verwacht ook gewoon dat de zware PC titels het slechter gaan doen als er geen verandering komt in de prijzen van de videokaarten gaat komen. Ik heb nog Horizon Zero Dawn (PC) gekocht omdat ik verwachte bij release een 3080 te kopen (die vervolgens niet voor normale prijzen te krijgen was), maar daarna geen AAA games meer gekocht zoals Cyberpunk 2077, Elden Ring, etc. Er is zat aan gaming te krijgen wat prima speelt op lagere settings en vaak ook goedkoper (helemaal tijdens sales).

Bron:
https://store.steampowered.com/hwsurvey/
Intel zelf heeft verklaard dat ze gewoon doorgaan. Dat sommige "insiders" graag views voor hun YouTube channel willen hebben verandert daar niets aan.

Natuurlijk zou Intel op elk moment kunnen stoppen. Als het marktsegment waar ze op mikken (<500 euro) opeens verdampt omdat NVidia een 4070 lanceert voor 350 euro, bijvoorbeeld. Maar deze aankondiging van NVidia is dus alleen maar een bevestiging van Intel's strategie. Er is een marktsegment tussen de iGPU en NVidia, en AMD durft niet het niet publiek te claimen.
Wat Intel roept en wat Intel doet kunnen heel verschillende dingen zijn, net als wat Nvidia hier roept.

Wat sommige 'insiders' roepen is voor mij niet vreemd, vertrouw ik er 100% op, zeker niet. Maar ik had al de indruk dat er bij Intel een interne 'strijd' gaande was toen het de Intel gasten bij verschillende streamers op bezoek kwamen.
Laten we niet vergeten dat AMD al nVidia een hak zet, als ze een hele lijn presenteren en niet alleen de topmodellen omdat je je oude voorraad nog moet verkopen...
Het is afwachten hoor, gemiddelde consument koopt namelijk de XX60 en XX70 kaarten van Nvidia.
Voor de 80 en 90 modellen kan Nvidia meer vragen wat ze dus nu ook doen.
Ik lees hier eigenlijk alleen maar geneuzel over Nvidia die probeert zijn eigen prijzen van de 40 serie recht te praten. En dan begin ik nog niet eens over het "instap model" 4080, die gewoon de 4070ti had moeten zijn. Ze beginnen echt een beetje los te raken van de realiteit. Ben benieuwd hoelang dit gedrag nog goed gaat.
Zolang mensen dit soort bedragen blijven betalen. Als je bv naar Apple kijkt lijkt het erop dat er meer dan genoeg mensen zijn die het schijnbaar niet erg vinden.

Ik zit er zelf sterk aan te denken om maar een Console te kopen. Ik ben toe aan een nieuw systeem, mijn i7 4770 begint na bijna 10 jaar toch echt te traag te worden voor nieuwe games. Maar als ik kijk naar wat ik betaal voor een nieuw systeem dan gaat dat al snel richting de 2000 euro. Naast gamen doe ik niks zwaars met mijn pc en dan begint het toch erg onaantrekkelijk te worden om zoveel geld uit te geven terwijl ik misschien een half dozijn games per jaar speel.

Het is de investering tov een console eigenlijk bijna niet meer waard. Vroeger altijd voor een pc gegaan omdat ik toch een pc moest hebben en de extra kosten om er een goede game pc van te maken misschien een euro of 500 extra waren. Maar nu betaal je voor een beetje gpu alleen al 1000 euro...
Zit met precies het zelfde dilemma. Wil ik dit nog wel betalen?
Maar het voordeel is wel dat je zelfs met vorige generatie nog een flink eind in performance omhoog gaat t.o.v. 10 jaar terug. (Zit hier met een i7-4790 systeem)

Ik wacht af tot alle kaarten op tafel liggen.

Als deze generatie te duur is ga ik wel bij de vorige kijken. Hoef toch geen top prestaties meer te hebben, ben toch uitgekeken op het AAA grafisch geneuzel. Zoek het tegenwoordig meer in de kwaliteit van het spelen zelf.
Ik zat ook op een i4790k en ben sinds 2 maanden naar een nieuwe systeem overgestapt 12700k, Nvidia 3080 voor ongeveer 2200 euro.

Dit was toen ik mijn i4790K systeem ongeveer 8 jaar geleden in elkaar gezet had ook hetzelfde bedrag ongeveer. Ik zou nu juist een systeem halen want de 3000 series worden steeds moeilijker om te krijgen straks en die blijven nu nog goedkoper dan in de tijden van 2020-2021.

Ik had mijn 3080 voor ongv 1300 gekocht maar nu kun je hem al voor 900-800 krijgen.. dus als je het geld hebt zou ik het nu wel halen.
Ik zit in exact dezelfde positie.

Ben absoluut geen console fan, en game vele malen liever op een PC, maar met dit soort prijs verschillen, wordt dat toch wel erg aanlokkelijk.

En dan hebben we het nog niet eens gehad over het hogere stoomverbruik gedurende een wereldwijde energie crisis.
Ik zou zeggen, vergeet je PC niet in het console budget. Want zelfs als je een console koopt, wil je vaak ernaast toch wel die vaste pc/laptop voor bijvoorbeeld internet/administratie/... dan geef je misschien 2x 500 uit ipv 1x 1000,-, voor je bankrekening maakt dat geen verschil.

Wat betreft een leuke game pc, is verder de truc te kopen wat je nodig hebt. Dan kom je uit bij de BBG's waar we met gemak onder de 1000,- gaan voor een volledige build en alles nieuw. Dus zonder hergebruik oude onderdelen en geen V&A/marktplaats gebruik.
En dan begin ik nog niet eens over het "instap model" 4080, die gewoon de 4070ti had moeten zijn.
Qua specificaties (zoals memory bus breedte) zit de 4080 12 GB dichter bij een 4060 Ti, als vroegere naamgeving wordt toegepast.

Verder wel eens. Mijn vermoeden is dat het een combinatie is van de huidige 30xx voorraden wegwerken (die nu een stuk aantrekkelijker lijken), en op de lange termijn de adviesprijzen blijvend hoger houden. De reactie van AMD zal daarin bepalend zijn, want er is verder niet echt concurrentie. Intel is nog maar net bezig met opstarten, en dat gaat met horten en stoten.

[Reactie gewijzigd door The Zep Man op 24 juli 2024 03:15]

Het is wel stom om enkel naar memory bus breedte te kijken wanneer de L2 hiervoor compenseert. Het kan zelfs goed zijn dat een 192 bit bus + de L2 meer plaats innemen dan een 256 bit bus. Je vastpinnen op 1 ding en de rest negeren is nooit een goede manier om ergens naar te kijken.

Dit was trouwens ook zo bij RDNA2 waar de 256 bit chip concurreert met de 384 bit chip van Nvidia dankzij de grote L3 (infinity cache).

[Reactie gewijzigd door napata op 24 juli 2024 03:15]

Dikke L2 (48 MB als het goed is) gaat maar tot zover. Op hogere resoluties merk je het gebrek aan bandbreedte om data te pompen wel, dat was met RDNA2 ook zo, en dat was dan nog 128 MB. Het klopt dat de kaart het qua prestaties ongetwijfeld wel beter zal doen dan een xx60 model, maar dan nog is het een 4080 noemen (als het een volle tier onder de andere 4080 zit) gewoon misleiding. Het is een 4070 tegen 4080 prijzen om argeloze consumenten te neppen en de voorraden van de 3070 weg te kunnen werken, daar gaat de cache niks aan veranderen.
Ik kan niet inschatten hoeveel het gaat verschillen maar bij RDNA2 was het L3 en hier is het L2. Ik zou vermoeden dat deze niet gelijkwaardig zijn naar hoeveelheid en hoe ze bandwidth compenseren.

In mijn ogen hadden ze die 4080 16GB gewoon Ti moeten noemen. Dat had veel beter geweest in hoe het overkomt.
Het is niet alleen de bus. Die bus matcht met de CUDA core count, die is ook ongeveer gehalveerd ten opzichte van de 4090. En ook die count is typerend voor een 4060 Ti.

Ik heb het al vaker geroepen: namen zijn marketing, performance is een feit.
Dat is niet de enige maatstaaf. Normaal had een 80 klasse kaart maar 1 chip; nu zijn dat er twee. UIt mijn hoofd de A103 en A104. Die A104 had gewoon de 4070 moeten zijn, alleen dacht Nvidia we hebben nog zo veel 3xxx serie kaarten in de omgang dat we makkelijk met de 4080 weg kunnen komen als naam.

Daarnaast lijkt de 4080 12GB sneller dan de 3090 Ti; maar dat komt omdat ze met DLSS 2/3 in performance mode testen met een interne resolutie van 1920x1080. Nu vermoed ik dat deze kaart op 4k toch heel anders gaat presteren dan de 3090 Ti. Want dat kost meer geheugen bandbreedte en de cpu limiet die de 3090 Ti zou kunnen hebben is dan weg.
Qua performance ben ik ook benieuwd. Puur in Tflops zijn ze gelijk en normaal scalen kloksnelheden beter met prestaties dan SMs dus moest de bandbreedte niet meespelen zou ik verwachten dat AD104 beter zou presteren. Het zal dan afhangen van hoeveel de L2 kan compenseren. Ook wel minder ROPs.
Ik denk dat dhr. Huang hier wel even voorbij gaat aan marktwerking. Op het moment dat er bij consumenten geen werkelijke vraag bestaat naar kaarten die twee keer (?!) zo snel zijn als een 3090ti (en laten we wel wezen, dat hebben er maar weinig nodig) kun je de prijs wel zo hoog willen hebben, maar verkoop je te weinig om het zaakje rendabel te houden. Mining is (vooralsnog) zo goed als dood, wat de markt al veel kleiner maakt. De groep die op 4k een minimale 200fps wil halen is... klein.

Er borrelt bij mij iets boven van een EVGA, toch een instituut wat betreft Nvidia kaarten, die de capsones ook een beetje zat was en er liever compleet mee nakt dan hun eisen verder te respecteren. Dat zegt iets.
Een probleem is ook gewoon dat je met een kleine beetje kaart tegenwoordig als krankzinnige framerates kunt halen. Ze hebben het probleem voor zich uit kunnen schuiven door bijvoorbeeld 4K-resoluties standaard te maken en proberen met raytracing een hogere vraag naar rekenkracht te scheppen, maar dat lukt maar deels. Hele volksstammen spelen op 1440p en 60Hz, halen daar voldoende plezier uit en zelfs spelcomputers leveren tegenwoordig al redelijke prestaties bij deze parameters.

Je moet dan wel heel erg "hardcore" zijn om nog even 2 of 3 mille voor een GPU neer te tellen, of zoiets meer plezier oplevert (daar gaat het uiteindelijk om) kun je ten zeerste betwijfelen.
60fps vs 144fps is een enorm verschil. Daarboven maakt het niet zoveel meer uit. Zelfs de snelste cpu en gpu's halen op dit moment geen steady 144fps in alle games.

Helemaal in online shooters ben je met 60fps vs 144fps gewoon kansloos als je gelijkwaardig aan elkaar bent.
Je hoeft een on-line shooter niet op 4K te spelen, maar hele volksstammen kan het gewoon weinig schelen en speelt toch op 60Hz. Nog even los van de kwestie dat er meer is dan online fps, in het verleden kocht ook degene die een RTS speelde een dikke GPU, voor een RTS heb je echt geen 144fps nodig. Wellicht zal er sjieker uitzien, maar het spel wordt er echt niet leuker door. Nog even afgezien van het deel van de markt dat TBS en puzzelspellen speelt.

Je hebt dus een hele kleine doelgroep en zelfs voor die doelgroep is een 4000-serie kaart van bedenkelijke meerwaarde, want de 3000 serie haalt ook gewoon 144fps op hoge resolutie.
Voor mijn toepassingen is m'n 3060 al ruim toereikend (1080p UWQHD). Draait alles zeer soepeltjes. Heb om de één of andere wazige reden een 12GB versie gehaald, maar dat was natuurlijk al nergens voor nodig.

Upgraden is, totdat ik m'n scherm zat ben, inderdaad totaal zinloos. Mijn hele redenatie was dat de 3060 een mooie balans was tussen prestaties, prijs en energieverbruik. Geen enkele nieuwe kaart doet die balans beter, vooralsnog. In het topsegment speelt hetzelfde een beetje, de 3090(ti) is voor 4k al zat. Waarom zou je een extra 1000 euro gaan uitgeven (doorverkopen oude kaart even meegenomen), een extra 100W gaan verstoken, voor nóg meer fps? Seems pointless.

Kun je nog argumenteren dat de 4090 klaar is voor 8k, en daar zit misschien wat in. Maar een 8k monitor... hoe zinvol is dat? In welke game heb je iets aan de extra pietluttige details die bij 8k wél naar voren komen maar bij 4k niet?

[Reactie gewijzigd door A64_Luuk op 24 juli 2024 03:15]

8GB VRAM begint de standaard te worden, met 12GB VRAM ben je tenminste een beetje toekomstbestendig.
De 4090 is alleen twee keer zo snel wanneer je raytracing gebruikt en DLSS 3 in performance mode aan hebt staan, waarbij de helft van je frames niet wordt gerendered, maar geïnterpoleerd. Dat laatste betekent extra input-lag en zul je dus in shooters vast niet aan hebben willen laten staan.

De vraag is ook hoe erg de artifacts zijn. Het lijkt me geen toeval dat ze bij de DLSS-demo's geen bewegingen maakten, want op die manier zijn de artifacts minimaal.

Nvidia had ook wat spellen zonder raytracing en DLSS 3 in hun grafiek. Daarbij was de 4090 60% sneller.
60% sneller is nog altijd niets om je voor te schamen natuurlijk, maar feit is wel dat een groot deel van de prestaties gewoon komen van het toelaten van extra energieverbruik. Op die manier zitten we nog lang niet aan het plafond, zolang we maar grotere en grotere voedingen en koelers gebruiken, en waar ligt het plafond dan wel?

[Reactie gewijzigd door A64_Luuk op 24 juli 2024 03:15]

De vraag is natuurlijk wel in hoeverre de spellen die Nvidia had gekozen representatief zijn, dus misschien is het lager dan 60%. Ik ben heel benieuwd naar de reviews van onafhankelijke reviewers, want door de misleidende manier waarop Nvidia bezig was, geloof ik hen niet zomaar.
Vroeger (ja daar komt ie hoor) kon je een hele dikke pc bouwen van dat geld.

Holy shot wat een prijzen betaal je voor electronica momenteel. Eigenlijk gaat het weer terug naar nog verder vroeger.
Toen de meeste elektrische apparatuur een luxe product was.

Het lijkt er echt op dat de tijd, waarbij je alles kon kopen als je maar een beetje een redelijke baan hebt, wel voorbij is.

Je moet echt keuzes gaan maken met dit soort prijs. Voor de meeste mensen is dit zowat een maandloon voor een videokaart. Je telefoon kost ook nog eens zoiets als je het nieuwste wilt zoals dat voorheen lang kon, en dan wil je nog een mooie OLED Tv aan de muur. Poeh niet meer te doen toch.

Ik hoop dat AMD ons nog een beetje gaat helpen met betere prijzen voor hun nieuwe lijn. Nog even afwachten. Maar ja als ze winst kunnen pakken gaan ze natuurlijk nooit ver onder de concurrentie zitten, er is weinig serieus alternatief, dus waarom zouden ze.
Vroeger (ja daar komt ie hoor) kon je een hele dikke pc bouwen van dat geld.
Nu ook, hoor. Je moet alleen niet in de marketingval van de "hoog-hoger-hoogste is laag-midden-hoog" marktsegmentatie trappen.

[Reactie gewijzigd door Anoniem: 57411 op 24 juli 2024 03:15]

Dus conclusie... je kunt voor hetzelfde geld een stuk minder dikke pc bouwen?

In dit geval is het een kwestie van Nvidia die (nog) de kans ziet om zo veel mogelijk winst te maken op deze launch na jarenlang van een ongelofelijk hoge vraag te genieten, de crypto put is gelukkig opgedroogd...

Ik hoop dat RDNA3 niet tegenvalt, dan kan het nog interessant worden op de GPU markt...
Dat bestaat al sinds in de eeuwigheid.
De top van de top is altijd een eind duurder dan midden/middenhoog segment.
Maar in de jaren 90 en 00 en zelfs nog in de jaren 10, kostte een computer met alles top segment je misschien 1500-2000 euro. Nu koop je er alleen een top grafische kaart voor blijkbaar.
Het is de afgelopen 5/7 jaar enorm gestegen, afhankelijk naar welke markt je kijkt.
Dat is nu net mijn punt - er is nu niet alleen een top, maar daarbovenop zijn nog zeker twee extra segmenten toegevoegd.

Het is natuurlijk een beetje een definitiekwestie, maar naar mijn mening heb je voor rond 1500 euro gewoon een dik systeem. Misschien niet een top van de top van de top, maar eentje die van zich af kan bijten in de nieuwste spellen en, vermoed ik, net zo veel jaren mee zal kunnen gaan als vroegah de top mee ging.

[Reactie gewijzigd door Anoniem: 57411 op 24 juli 2024 03:15]

Eigenlijk zijn alleen de videokaarten gigantisch in prijs gestegen de laatste jaren. De overige componenten vind ik nog meevallen. Ik heb even terug voor 1000 euro mijn computer een upgrade gegeven met nieuw mobo, cpu+cooler, ram en ssd. De overige onderdelen van mijn oude pc hergebruikt (case, videokaart, fans, keyboard, muis en monitor). Ok, het is een stuk duurder dan een par jaar geleden maar het lijkt in het licht van alle geopolitieke ontwikkelingen en het effect daarvan op de economie nog alleszins redelijk. Behalve dus de videokaarten. Daar betaal je nu evenveel voor als de overige basiscomponenten van een pc bij elkaar. De performance stijgt ook behoorlijk en dat is waarschijnlijk de reden dat ze ermee wegkomen. De nieuwe generatie is dan grotendeels geen vervanging meer van de oude generatie maar plaatsen ze er gewoon boven....met navenante prijzen.
Tja zou ik als ik hem was nu ook zeggen. Er schijnt nog veel Ampère voorraad te liggen die op moet.
Ze hebben in hun presentatie ook laten zien dat ze een deel van de Ampère linup aanhouden naast de 4090 en 4080 die nu uit komen. Na maten die oude modellen op zijn zullen de vervangers wel aangekondigd worden en uit komen.

Prijzen verlagen kan echt wel maar ze doen het niet. Zie AMD die heeft de Msrp van de RDNA2 lineup recent verlaagd niet alle modellen kregen ene grote verlaging maar sommige zoals de 66xx serie en 67xx serie hingen wel flink omlaag. De 69xx serie ook maar die blijft te duur tov de 68xx modellen.

Vervolgens verkoopt nVidia de 4070 als een 4080 12gb voor 900 euro een flinke verhoging het prestatie verschil tussen de 12gb en de 16gb versie is echt heel groot. De 4090 gebruikt niet de full die net als de 3090 maar tussen de 4090 enn 4080 16gb zit ook nog een aardig gat.

Overall zijn de prijzen van nVidia's lineup erg hoog. En de prestatie claims net als bij de Ampère presentatie twijfelachtig haalbaar. En dat is jammer want het is volgens mij niet nodig om het zo aan te dikken. Mits je normale prijzen hebt dan kan je eerlijk zijn en is 60% vooruitgaan tov de 3090 Ti helemaal niet vekeerd.

Het voelt allemaal wel heel erg als ene crash grab. Ik ben heel benieuwd wat AMD gaat doen. Ik hoop dat ze de initiële RDNA2 prijzen een beetje aan houden voor RDNA3 en niet met nVidia mee gaan om maximaal te profiteren.
Dit is wel een kans voor ze om marktaandeel en mindshare te pakken. Ik denk wel dat ook AMD eerst oude voorraad op gaat maken en dus alleen een 7900 en 7800 uit brengt. Maar ze hebben in ieder geval de msrp van de 6900, 6700 en 6600 serie flink laten zakken waardoor die interessanter geworden dan dat ze waren.

Een ding is nu wel duidelijk. Wij als consument zijn nu aan zet. Dus stem met je portomonee en kop overpriced kaarten niet. Al vrees ik dat ook die nieuwe nVidia kaarten als warme broodjes over de toonbank gaan @ launch. En dan bevestig je eigenlijk als. Koper dat je het eens bent met die prijzen met als gevolg dat de 5000 serie nog weer duurder gaat worden :'(. Op die manier is het einde van goedkopere videokaarten wel voorbij. En komt pc gamen zoals het was wel serieus in gevaar omdat het te duur wordt en nog meer mensen naar consoles over zullen stappen.

[Reactie gewijzigd door Astennu op 24 juli 2024 03:15]

AMD heeft al aangegeven op een recente investors call dat zij geen significante voorraad issues hebben dus grote oude voorraad zal voor hen geen rol hoeven te spelen.
Denk dat het zeker in andere mate is maar het zou me niet verbazen dat de 7700XT pas komt als de 69xx kaarten lastiger te krijgen zijn.
Het is nog erger dan je zegt, een 4070 (4080, 12gb) is geen 899 euro, dat is de MSRP. Daar mag je nog btw bovenop gooien en een marge vanwege de verzwakte euro. Die kaart die ga je voor onder de 1000 euro niet krijgen hier.

1000 euro voor een midrange chip, waar ze onterecht een xx80 label op plakken.

Ze hebben het voor elkaar gekregen om met hun nieuwe generatie qua performance per euro gelijk te blijven of zelfs achteruit te gaan in het geval van de 4070.
Denk dat het tijd is voor fabrikanten meer amd te pushen. Nvidia komt wel erg arrogant over in mijn optiek. Zeker dat laatste maand aan nieuws wat er voorbij komt, wil ik liever mijn geld aan amd geven dan Nvidia.
Alsof AMD een saint is. Die waren altijd goedkoper geweest in de "Multi-core battle" met Intel, totdat hun opeens de snelheids kroon hadden afgepakt met de huidige Ryzen series. Efficiency hadden ze al jaren, maar eenmaal met de huidige gen CPU's zag je BAM ineens de prijzen ook keihard omhoog schieten t.o.z v.d Ryzen's 1 gen daarvoor. En toen was Intel opeens de underdog met zijn lagere prijzen.

Als AMD iets net zo goed kan neerzetten als de 40xx series dan zijn die prijzen ook die kant op.
Hun gaan echt niet honderden euro's onder Nvidia zitten. Maar mochten ze iets BETERS als de 40xx series op tafel zetten, kan ik je garanderen dat die prijzen hoger gaan liggen dan Nvidia. Dat laatste zie ik zo gauw niet gebeuren. Nvidia heeft gewoon eerder vanaf de 20xx series geinvsteerd in AI (dlss) en RT. Dat haal je niet zomaar in, vooral niet als je aandacht verspreid is over het leveren van console varianten van je GPU's die nog meer cut-down moeten zijn.
En toen was Intel opeens de underdog met zijn lagere prijzen.
Maar dat was nadat Intel zijn prijzen met bijna de helft heeft verlaagd. Ik kan het Tweakers artikeltje hierover niet zo snel meer vinden helaas. Maar als ik het uit mijn geheugen mag halen, ging het topmodel van €1700 naar €999. Dat was hoeveel marge Intel al die jaren had.
Inderdaad, Intel, AMD en ook NVIdia maken een prima marge op elke extra CPU die ze verkopen. Het probleem is de paar miljard aan kosten voor de eerste CPU of GPU van een nieuwe generatie. Die aanloopkosten komen bovenop de productiekosten, maar in tegenstelling tot de productiekosten is het vrij arbitrair hoe je de R&D kosten verdeelt. Intel koos er dus voor om de R&D voor een fors deel om te slaan over de early adopters. Wie kon wachten had mazzel.

Intel kon die marge dus niet zomaar als winst nemen, want ze moeten ook weer een volgende generatie CPU's ontwikkelen. Je kunt besluiten uit een bepaalde markt te stappen - GlobalFoundries besloot niet te investeren in EUV bijvoorbeeld. Dat levert je een eenmalige winst op, maar maakt je op lange termijn een stuk minder relevant.
Dit lijkt me een correcte observatie! Het zou je echter sieren om 'hun' en 'zij' uit elkaar te houden.

Op dit item kan niet meer gereageerd worden.