Gerucht: AMD brengt mogelijk geen high-end videokaarten uit in RX 8000-serie

AMD brengt volgens geruchten geen high-end gpu's uit in zijn komende Radeon RX 8000-serie. Het bedrijf zou zijn RDNA 4-architectuur meer gaan richten op de midrangemarkt. Deze berichten zijn echter nog niet bevestigd.

De vierde generatie Navi-architectuur van AMD krijgt 'geen enkele high-end gpu', meldt @Kepler_L2, die vaker vroegtijdig informatie over gpu's deelt en zegt de informatie te hebben gekregen van drie verschillende bronnen. Daarmee zou AMD zijn focus voor die generatie opnieuw verleggen naar het middensegment. De chipontwerper deed hetzelfde met zijn Polaris- en RDNA 1-architecturen, toen het bedrijf alleen low-end gpu's en midrangekaarten op de markt bracht in zijn Radeon RX 400-, 500- en 5000-series.

AMD heeft nog niet gereageerd op deze geruchten, meldt ook Videocardz. Het is daarmee nog niet bekend of deze berichten kloppen en welke gpu's AMD concreet wil uitbrengen in zijn volgende RDNA-generatie.

Er zijn ook nog weinig concrete details bekend over RDNA 4. AMD bevestigde de komst van die architectuur eerder al wel in een officiële roadmap. De gpu's worden geproduceerd op een 'geavanceerde node', waarmee vermoedelijk wordt gedoeld op het TSMC-3nm-procedé, dat inmiddels wordt gebruikt in massaproductie. Het wordt de opvolger van de RDNA 3-architectuur, die momenteel wordt gebruikt in de Radeon RX 7600, 7900 XT en 7900 XTX. Binnenkort zou AMD ook een Radeon RX 7700 XT en 7800 XT uitbrengen. Laatstgenoemde verscheen al op de website van Powercolor.

Door Daan van Monsjou

Nieuwsredacteur

07-08-2023 • 10:16

182

Submitter: Xtuv

Lees meer

Reacties (182)

182
180
49
6
0
109
Wijzig sortering
Slechte zaak voor pc-gamers: zonder de concurrentiedruk zullen de high-end kaarten die wel overblijven waarschijnlijk een minder gunstige prijs hebben en mogelijk (speculatie) ook minder van de potentie waar maken.

Net nu AMD de laatste jaren naar mijn beeld steeds beter en beter ging presteren op dit gebied.

Ik hoop dat het niet waar blijkt. Ik vraag me ook af wat hier achter zit? Tijdens corona zien we bij veel consumenten hardware eerst een piek in de verkoop en na corona een logische corrigerende dip. De markt lijkt zich nu weer voorzichtig te stabiliseren, dus voor mij als leek lijkt het dan logisch om een goede positie voor de toekomst te vestigen.
Welk deel van de pc-gamers koopt kaarten in het hoogste segment? 1000+ voor een kaart is iets wat de overgrote meerderheid niet kan/wil/gaat betalen.

Ik word zo moe dat de hele wereld steeds meer doet alsof het normaal is dat je zulke bedragen voor GPUs, telefoons etc etc betaald. Het is alsof het normaal is om in een Ferrari of Bentley te rijden, terwijl iedereen in de praktijk gewoon blij is met z'n tweedehands Skoda.

Laat ze lekker in het middensegment de concurrentie opstoken zodat het duidelijker wordt hoe belachelijk het top segment is en we die waan langzaam wat los kunnen laten.
Het nadeel is dat die middenmoot minder gepromoot wordt, en daardoor minder gereviewed (hoeveel sites kopen er nog hun eigen mobieltjes om te reviewen?) Daarnaast is er minder interesse voor. Reviews van Ferraris doen het altijd beter dan reviews van de laatste Seat Ibiza, hoewel ze veel minder verkocht worden.

Daarmee is het nog niet 'normaal', maar het wordt gepushed om te denken. Ondertussen heb ik gewoon een mobieltje van destijds 200 euro, en een simpele GPU (beide 5 jaar oud). Prima, en het geld kan ik wel wat leukers mee doen :) Uiteindelijk is dat het toch, doe zoveel mogelijk leuks voor de centjes die je hebt. 't is jouw keuze.
Sites die klikts generen?
genoeg youtubers die t wel doen als de viewers/patraeon inkomsten r zijn...
Digtal Foundry gebruikt nog met regelmaat een ryzen 3600, rtx 2060 combi om maar wat te noemen.
Ik weet niet wat voor kanalen/sites jij volgt, maar het klinkt als een influencer bubbel waar alles het beste/mooiste/duurste moet zijn. Daar blijf ik zo ver mogelijk vandaan, juist omdat het de blik op de werkelijkheid zo vertroebelt.

Ik kan niet alleen met mijn geld leukere dingen doen, maar ook met mijn tijd. Kijken naar zaken die ik nooit zou kunnen/willen kopen wordt ik niet gelukkig van, in tegendeel.
Euhm de meeste plekken doen gewoon midrange kaarten hoor. Velen zelfs low end kaarten. Het enige waar velen naar kijken is zich vergapen aan de scores van de 4090 en daarmee klaar zijn maar de betere sites doen kaarten over de hele lijn.
Ik word daar ook redelijk moe van dat 1000+ voor een telefoon of videokaart betalen als het normaal word beschouwd :) Als ons loon met dezelfde factor omhoog gaat in prijs dan zwijg ik, maar dit is totaal niet het geval !
Dan moet er nog heel wat gebeuren. Zelfs een 6700 XT heeft het al lastig tegenover Geforce concurrentie in hetzelfde prijsegment, terwijl die 6700 Xt gewoon beter presteerd. Maarja, men koopt Nvidia, want stabieler, want Raytracing etc., terwijl in dat segment Raytracing praktisch onspeelbaar is. Stabilteit amper een issue is, want de AMD drivers zijn gewoon goed.

Maar goed, als eenmaal iets tussen de oren zit en je vriendjes en/of de verkoper benadrukken dat keer op keer, kom je er nooit vanaf. Iig heel moeilijk.
Yep, idem met Apple telefoons.
Je hoeft toch geen high end te kopen? Ook als er wel een high end komt, komen er ook midrange modellen en kan je prima een midrange kopen en hebben de mensen die wel een high end willen ook keus bij AMD met mogelijk scherpere prijzen.

Ik zou het iig erg treurig vinden als AMD het high end opgeeft.
Doorsne PC-gamer gaat juist voor de midrange kaart, niet voor de highend, dat is echt maar een hele kleine groep.
Dat is een beetje een kip-of-het-ei verhaal. Door de hoge prijzen de laatste jaren zullen meer consumenten richting de midrange zijn geduwd, die onder andere omstandigheden misschien wel interesse in het high-end segment hadden gehad. Het wegvallen van concurrentie in dit segment zal dit effect verder versterken, dus ook deze groep heeft er last van.
Mainstream gamers (de overgrote groep) zijn echt altijd meer voor de midrange kaarten gegaan dan die highend kaarten, ook toen de prijzen nog 'lager' waren.
Naar mijn idee is de verhouding tussen prijs en prestatie wel scheef gegroeid als je kijkt naar de afgelopen 20 jaar. Ik weet nog dat ik moest sparen voor een GeForce 8800.

uitvoering: Club 3D GeForce 8800 GTX

Toen was het 'hoge segment' nog tussen de €400 en €600 en lag dus dichter tegen het middensegment aan qua prijs. Voor mn gevoel was het gat qua performance ook groter. Er was dus een hele andere afweging te maken om de stap naar het hoge segment te maken.

Nu lijkt het andersom: de stap in prijs van midden segment naar hoge segment is erg groot, terwijl het verschil in prestaties kleiner is geworden. Bij gebrek aan concurrentie in het hoge segment verwacht ik dat dit alleen maar groter zal worden.
Maarja, alles is duurder, 20 jaar geleden kostte een fles cocacola ook een heel stuk minder. Zowel AMD als Nvidia geven ook aan dat het steeds duurder wordt om op kleinere procede te produceren.
De 4090 is 2x zo snel als zijn ( nog hoger) gekwalificeerde voorganger de 3090 TI. Terwijl hij maar een paar honderd meer kost. Hoezo verschil in prestaties kleiner.
Veel groter zul je bedoelen. De stap van mid naar hoog is ook enorm geworden.
Correct. Die kijken meer naar prijs/prestatie.
High end kaarten eten ook meer stroom tijdens gamen e.d. Bij aanschaf duurder en in gebruik ook duurder.
Voor hoeveel fps meer?
Bij snelle shopoters heb je geen high end pracht en praal nodig, daar zie toch weinig van en vergt wel veel meer van je systeem.

[Reactie gewijzigd door Tourmaline op 22 juli 2024 14:55]

Ik denk juist dat ik dit keer toch voor een wat zwaardere kaart ga.. Kan ik hem de komende tijd prima laten zitten.. Want een kaart scoren rond die AI reces word ook geen makkelijke.

Wil liever ook geen kaart meer van 12GB.. Nou moet die toch wel minimaal 16GB hebben.

[Reactie gewijzigd door Robin4 op 22 juli 2024 14:55]

Dat is niet waar, maat van me gaat juist een 7900xt kopen. zodat hij er weer een jaartje of 10 mee vooruit kan
Ohjee een maat van jou, yep dat is gelijk dan de doorsnee gamer.....
Anoniem: 58485 @Lodd7 augustus 2023 11:13
Je koopt nog steeds goede kaarten hoor. Vanaf budget tot high end. Ik weet niet waar je het over hebt.
Ik heb het over de toekomst en wat de invloed zou kunnen zijn van het wegvallen van concurrentiedruk zou kunnen betekenen voor het marktsegment van de high-end videokaarten. Het artikel gaat immers over (een gerucht) over een toekomstige generatie AMD videokaarten. Ik snap daarom je opmerking niet goed.
De druk op highend valt niet helemaal weg.

Gamers zullen altijd prijs/prestatie vergelijken.
Als high-mid-end goed in prijs en prestatie is, zullen de potentiele kopers van highend kaarten dat zeker in hun overweging meenemen.

Voor een kleine groep is het simpel, iedere fps telt. Einde gesprek.
De rest v/d gamers vraagt zich af of die extra $ voldoende extra fps geven. Bij een goede mid-end lineup zal het antwoord op die vraag steeds vaker nee zijn.
Daar heb je op zich deels een punt mee. Desalniettemin denk ik dat dit onder de streep een verslechtering zal zijn voor de pc-gamers die zowel in mid- als high end shoppen.

Tenzij AMD ons weet te verrassen en wat nu high end is als high-mid positioneert met bijbehorende prijzen. Als ze dat klaar spelen, dan zou dat een briljante zet zijn om de concurrentiedruk juist op te voeren. Als de techniek dat dan maar toelaat.
Precies, er word gewoon teveel na gepraat.
Helemaal mee eens.
Het zou jammer zijn als we voor de high-end definitief overgeleverd zouden zijn aan de grillen van Jensen Huang. Technisch gezien is Nvidia erg sterk, maar een monopolie op high-end GPUs is geen goed idee.
Niet perse slechte zaak aangezien het % consumenten dat echte high end koopt relatief erg laag is.
De vraag is dus waar de leak op doelt.

AMD heeft na VEGA/RDNA1 hun bedrijfsfocus weerlegd om meer te gaan concurreren met hun competitie op de high end. Hierdoor is wat low en mid range was een tier omhoog gepushed, dus is de low en mid soort van verwaarloosd.
Wat een paar jaar terug hardware matig bij RDNA1 als entry level werd bestempeld (8x pcie 128bit bus 8Gb Vram, c.q. RX 5500 XT), worden deze specs nu als mid range in de markt gezet. Ook qua msrp/retail prijs. Aan beide kanten btw en dat is een slechte zaak, als dat veranderd is het juist positief.

Dus als de leak doelt op dat AMD hun producten anders in de markt willen gaan zetten (meer mid range en weer goede entry level), voor de RX 8000 series, met bijbehorende verandering van prijs strategie.
Uit de duim gezogen voorbeeld: RX 8500 (XT) 8x pcie 128bit bus en 8Gb vram ~$250, RX 8600 /XT 16x pcie 160/192bit 10/12Gb Vram ~$325/350, RX 8700 (XT) 256bit 16x pcie 16Gb Vram ~$450, RX 8800 (XT) 16x pcie 256bit 16Gb+ Vram ~$€550. Dus prijzen qua specs weer 1 tier omlaag vergeleken tot de 7000 series. Edit: ben de CU's vergeten, anyway.

Als het iets in die richting is dan kan ik dat persoonlijk alleen maar toejuichen.

[Reactie gewijzigd door Gkirmathal op 22 juli 2024 14:55]

Als er geconcurreerd wordt op de 7 en 8 klasse kaarten, kunnen de prijzen van ultra high end nooit zoveel omhoog. Stel je voor dat je een Radeon Rx x800 of een RTX x080 hebt voor 600 euro, en een RTX x090 je nog steeds 2000 kost. Dan concurreren alle kaarten onder die ultra high end hem gewoon weg.
Slechte zaak voor pc-gamers: zonder de concurrentiedruk zullen de high-end kaarten die wel overblijven waarschijnlijk een minder gunstige prijs hebben en mogelijk (speculatie) ook minder van de potentie waar maken.
Dat is vervelend alleen voor gamers die toch al bereid zijn de hoofdprijs te betalen voor een videokaart. Ruim 90% van de 'gamers markt' bestaat uit het midden- en lage segment.
RDNA 3 valt in de high end ook wel wat tegen, met name als je het stroomverbruik afzet tegen de performance. Ik denk dat AMD daar oorspronkelijk meer van had verwacht. Daarnaast denk ik dat ze nu, gezien de prijzen van videokaarten tegenwoordig, relatief slecht verkopen. Misschien daarom de overweging om er mee te stoppen.

Zou vanuit de consument natuurlijk wel een slechte zaak zijn. Dan heeft Nvidia helemaal vrij spel.
Het is te hopen dat Intel dan wat vaart gaat maken. Op zich zijn hun eerste GPU's best promising en ze hebben al veel gewonnen met driver updates.
Ik hoop het ook, maar om eerlijk te zijn heb ik er echt weinig vertrouwen in, ik vind wat ze nu hebben ook nog steeds niet de moeite waard om überhaupt te overwegen.. Intel heeft nog een hele lang weg te gaan om op niveau te komen waarin ze echt kunnen concurreren met nVidia en AMD

en ik betwijfel het of ze ooit dat stadium zullen bereiken voor ze de stekker eruit trekken
Als ik kijk wat ze met hun eerste generatie hebben neergezet zie ik het juist omgekeerd en ben hoopvol voor de tweede generatie. Hoeveel jaar ervaring lopen ze achter?

Mijn kaart mag nog een jaartje of twee mee, ben erg benieuwd wat er dat allemaal te krijgen is, en vooral tegen welke prijs.
Ze lopen vooralsnog achter in stabiliteit, zowel van de features als stabiliteit van performance, en energieverbruik en energie-efficiëntie is vooralsnog ronduit slecht vergeleken met AMD en NVidia.

Vooral in stabiliteit zetten ze reuzestappen om het te verbeteren maar het zit nog niet op het niveau van de concurrenten, en energie-efficiëntie wordt op de huidige generatie gewoon niet beter dan het nu is.
Waar zitten die stabliteit issue's dan, qua gaming heb ik persoonlijk weinig te klagen. Wel hoor ik iets van issue's met Premiere Pro van Adobe bijv. of andere creatieve/zakelijke software.
Ze lopen achter op software , maar dat is kwestie van tijd en company resources het krijgt toegewezen. En zal op termijn non isue worden.
Ze lopen achter op oude games die oude api gebruiken daar waar nvidia al in verleden zwaar geinvesteert heeft in driver game exe detectie en in driver afvangen van game code en dat vervangen. Recompileren van shader code. Dit is iets wat je niet zomaar inhaalt. Dus de meest slecht game code wat nv ooit heeft afgevangen toen. Is monster task voor intel.
Naast hoe popi spel is krijgt zoals ook toen bepaalde preoriteit.
Moderne games die moderne api gebruiken zijn al snel geen probleem meer.
Voor e-sport wat vooral ouwe games gebruiken met vaak ook hoge fps kan intel op achter lopen. Dus nog jaar en software solide genoeg. Driver voor dx12 en vulkan zijn al snel op niveau mogelijk nu al. DX11 zal per game zijn en dx9 tenzij esport en popi zal aandacht krijgen maar kan probleem blijven.

Voor mij lijkt intel goede alternatief optie over jaar zeker.
De 2de generatie zou vooralsnog kampen met dezelfde bottleneck van wat ik begrepen heb, volgens mij wordt het vanaf de 3de generatie mogelijk interessanter.
Vol verwachting klopt ons hart...

Zolang ik de loterij niet win moet mijn huidige 3060Ti het nog zeker 2 jaar volhouden, tegen die tijd zijn ze er misschien?
De staat begint nu acceptabel en bruikbaar te worden en dan zijn de prestaties niet heel verkeer. Het is alleen de vraag of dit wel winstgevend is want die die is groter dan die van een RX 6700XT maar de prestaties meestal lager en de prijs volgens mij ook. Zou me niet verbazen als ze die dingen nu met verlies of geen winst verkopen.
Ik hoop wel dat ze het door zetten want het begint nu ergens op te lijken en afhankelijk van de prijs een alternatief te worden. Gezien de idiote prijs prestatie verhouding van de huidige RTX4000 en RX7000 kaarten kunnen we wel wat meer concurrentie gebruiken.
Het probleem nu is recesie inflatie en productie kosten door energie.
Naast dat nv hardware allerlij extra features of van hoger niveau bied en dus meer kunnen vragen ivm extra features.
Omdat intel achter loopt op software is niet feature rijk vooral buiten game features.
Dus net als AMD prijs puur gelinkt aan wat presteert op puur gamen. En mindere oude api performance drukt de prijs. Zo ook slechte consument awareness of hun driver status dat het dus gemeden wordt.
De launch was vrij slecht, maar de trend sindsdien is zeker niet slecht. Ik hoop vooral dat ze hun performance per "die area" kunnen verbeteren, want die is nu veel minder goed dan de concurrentie. Dat maakt de chips veel duurder om te maken, en zeker in combinatie met de aantrekkelijke prijzen die ze voor hun GPUs vragen, maakt dat de hele zaak niet zo sustainable op langere termijn.

Als de volgende generatie een mooie sprong vooruit is in performance, denk ik dat die echt wel het overwegen waard is. Zeker moest AMD niet op de high end spelen, en Nvidia de prijzen nog meer omhoog trekt.
Het is denk ik totaal geen probleem of RTX5090 2000 of 3000 gaat kosten.
Het is net als met auto’s de stap van paar pk T-Ford naar enkele dozijn pk is grote stap.
90pk kadet was vlot. Die 1000pk EV monsters of helft daarvan is energie verspilling.
Games worden gemaakt voor mainstream dus ook consoles. En PS5 xbox-x games zien er niet slecht uit. 1080p 1440p met upscaling is 4K ook te doen.
RTX5090 zou ding zijn die veel games 8K native zou aankunnen en kan altijd terugvallen op DLLS.
Dus heb je die high-end nodig nee.
Dat is over de top luxe probleem.
Naast de manie dat games op max of ultra of extreem setting moet spelen op 144+ plus fps zelf ook slow pace singleplaye sandbox games.
Er is ook medium setting en vaak is verschil erg subtiel met extreem setting.
Naar gewenning aan wow effect ga meestal op in gameplay experience. Meer detail in competitive game werkt dan tegen je.
Die met low setting ziet je sneller dan die met alle toeters en bellen enabled en complexere scene.
Wat ik van Moore's law Is Dead heb begrepen is dat ze weer met Navi 5 mee zullen doen in de High End
Anoniem: 63072 @zafer947 augustus 2023 11:17
Ik heb de vorige generatie voor het eerst de geruchtenstromen eens echt gevolgd, Moore's law claimt dat hij veel gelijk had. Hij had echter vaker ongelijk, die gast gooit gewoon alles tegen de muur en kijkt wat blijft hangen en claimt dan success.

Als je dan naar de bronnen kijkt is er ook een groot verschil. Geen enkele heeft altijd gelijk en naarmate launch dichterbij komt wordt het beter. Navi4 is nog relatief ver weg hiervoor en Kepler heeft een redelijk goede trackrecord, maar voornamelijk dichter op de launch. Er kan dus nog heel veel veranderen en de disclaimer 'speculatie' mag wel in een groter lettertype en rode letter.
Iedereen neemt leakers als Moore’s law is dead met een korreltje zout. Over een bepaalde periode kan je de gemiddelde nemen van de leaks. Is gewoon leuk om naar te luisteren en vaak zitten ze best goed in de buurt van wat er daadwerkelijk gebeurt.
Een cancellation is natuurlijk vrij binair en definitief, maar bij de meeste geruchten speelt ook het feit dat veel gewoon nog niet vast staat. Bedrijven plannen en mikken, maar hoe succesvol ze daarin zijn varieert enorm (van grandioze flop tot gigantisch succes). Als je dan ziet dat zowel Nvidia als AMD hun prijzen soms uren voor de aankondiging, of regelmatig zelfs daarna nog veranderen... Wat is het punt van de leaks dan? "Het gaat sneller zijn, het gaat efficiënter zijn, en het komt nu nog niet uit". Maar zonder prijs weet je dus niet of dat iets is om enthousiast van te worden of niet.

Het is inderdaad wel eens leuk om de speculatie te volgen, maar het is erg lang geleden dat ik heb besloten om een aankoop uit te stellen in de hoop van iets uit de geruchten te kopen. De tijd van grote prijs/performance sprongen bij nieuwe releases lijkt me ook voorbij, dus de kosten/baten van te wachten ligt gewoon helemaal anders.

[Reactie gewijzigd door Niosus op 22 juli 2024 14:55]

Moore's law is dead is niks meer dan verzinsel en educated guesses. Fact tracking tonen aan dat hij er fors meer naast zit dan echt insights weet te verschaffen.
Is bekend waarom AMD met RDNA4 geen highend kaarten levert en met RDNA5 weer wel?
Stroom verbruik is inmiddels deels opgelost, zit in de buurt van de RTX4080 nu voor de 7900 serie: https://videocardz.com/ne...nitor-once-vrr-is-enabled

[Reactie gewijzigd door Josh4u op 22 juli 2024 14:55]

Dit gaat toch om idle performance? Het stroomverbruik onder load in relatief gezien ook fors hoger.
Heb je de link zelf ook geopend en de inhoud gelezen? Ze zitten er niet onder, ze zitten er nog steeds significant boven, helaas. Zit idle nu na het oplossen van een bug/inschakelen vrr on par, zodra er een tweede monitor bij komt zit 'ie er net boven en bij alle andere taken (YT video bekijken) gebruikt de GPU nog een veelvoud helaas. Ik ben best wel een AMD fanboy maar dit is gewoon teleurstellend.
de 2e monitor lekker in de onboard igpu steken (mits aanwezig). Ja is ook een workaround maar scheelt wel flink.

[Reactie gewijzigd door junneh op 22 juli 2024 14:55]

Maar dan kan je er niet mee gamen en is er nog een iGpu aan het werk die je anders uit had kunnen schakelen?
Ik neem aan dat de meeste mensen een vaste monitor hebben om op te gamen in geval van 2/3 naast elkaar op het bureau. Wisselen tussen links en rechts daarin lijkt me nogal ongemakkelijk (gezien vanuit mijn setup). Ik gebruik mijn 2e althans alleen maar voor web/discord/etc.

Ik heb mijn 3e scherm wel weer op de Dgpu aangesloten (simrig) maar deze staat normaal uit tenzij ik daarin zit (en de output erheen ook)

Ik heb liever dat de Igpu aan het werk is als geheugen wat niet terug klokt en warm blijft e.d. (overigens heeft mijn rx6800 daar wel probleemloos 2.5 jaar mee gedraaid, met alle schermen in de Dgpu).

Of het stroomverbruik winst oplevert weet ik niet. De verbruikscijfers van de Igpu in de am5 chips kan ik nergens terugvinden.
Kan de DGPU ook over de IGPU worden uitgestuurd.
Dat is niet opgelost op die manier. Dat is een workaround, die alleen toegepast kan worden op monitoren die het ondersteunen.
Zou vanuit de consument natuurlijk wel een slechte zaak zijn. Dan heeft Nvidia helemaal vrij spel.
Dat waag ik te betwijfelen. Volgens de meest recente Steam Hardware Survey is het marktaandeel van de high-end kaarten minder dan 1% per model. Zelfs een 4070 komt niet aan de 1%. Het merendeel van de consumenten heeft een mid-range kaart. Ik juich het dus juist enorm toe dat AMD zich volledig focust op dit segment. Als ze zich geen zorgen hoeven te maken over high-end modellen kunnen ze de mid-range modellen veel beter optimaliseren. En de toegevoegde waarde van de high-end modellen is de afgelopen jaren toch al enorm rap verdampt. De huidige mid-range modellen kunnen met redelijk gemak al 1440p met hoge fps aan. En dat terwijl het grootste deel van de gamers toch nog gewoon op 1080p speelt.
Hu? Wat? Waarom zou je dat denken?

Niet de eerste keer dat AMD dit doet, recent hebben ze dat ook gedaan met Polaris en Navi.
Intel is juist in de kaarten gestapt, gpu en cpu hangen veel samen tegenwoordig, en AMD heeft de console chips en blijft apu's uitbrengen.

AMD en Intel die helemaal kappen met gpu zie ik niet snel gebeuren. Dat ze wegblijven uit de (extreme) high end à la 4090/7900XTX/Titan zou me niet verbazen, met de gedachte van laat dat dan maar aan Nvidia die de restjes van de AI chips verkoopt voor €2000+.
Ik denk dat het eerder te maken heeft met dat ze Multi GCD niet goed werkend gekregen hebben.
Als ik even een grote gok mag doen hebben ze Navi 43 en 44 gemaakt. En van die GCD's zouden ze er dan twee naast elkaar plakken om N41 en N42 te maken. Er gingen vorig jaar al pattens en geruchten rond over een dual GCD chip. Toen werd gedacht dat dat voor RDNA3 gebruikt zou worden maar dat was niet het geval. Het kan zijn dat ze dat met RDNA4 wel wilde doen maar dat ze problemen hebben met prestaties van zo'n setup. GPU's zijn veel gevoeliger voor Latency dus ik kan mij voorstellen dat dit een stuk lastiger is dan voor CPU's waar ze het al jaren prima werkend hebben.

Het is inderdaad wel een slechte zaak voor ons als consument dat betekend dat nVidia free rain heeft in het segment van 300 euro en hoger wat waarschijnlijk weinig goeds betekend voor de prijzen die nu al super slecht zijn in die segmenten.
AMD kan natuurlijk de 7900XTX of een eventuele refresh langer blijven maken maar die concurreren nu ook alleen maar met de 4080 en lager. Dus volgende gen waarschijnlijk met de RTX 5070.

Voor AMD hoeft het geen probleem te zijn als ze de RDNA4 kaarten maar een goede prijs geven. Ze raken misschien wel wat high end klanten kwijt aan nVidia maar dat is toch maar een klein percentage van het totaal aantal gamers. En het is mogelijk maar voor een generatie dat is te overzien.

Nu maar hopen dat het gerucht niet klopt of dat RDNA5 er relatief snel achteraan komt in 2025 zodat ze dan wel weer kunnen concurreren.
Then again als de huidige prijs prestatie verhouding door zet de komende generatie hoef ik toch geen nieuwe videokaart want beide merken hebben niet echt goede deals. Dan gebruik ik mijn huidige kaart wel gewoon wat langer.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:55]

Zou vanuit de consument natuurlijk wel een slechte zaak zijn. Dan heeft Nvidia helemaal vrij spel.
Niet zozeer "de consument" in het algemeen; het overgrote deel van consumenten is tevreden met een middenklasse video kaart.
Waarschijnlijk geen high end performance, wel de high end prijzen.
AMD ziet ook wel in dat de volgende generatie echt niet goedkoper op de markt komt dan de huidige en waarschijnlijk qua top segment zulke exorbitante prijzen gaat hebben, dat ze toch niet (voldoende) gaan verkopen.
Huh? Alsof AMD daar niet gewoon zelf invloed op heeft.
Als ze een high-end kaart uitbrengen die net zoveel kost als een "midrange" van de concurrent, maar veel beter presteert, dan hebben ze toch dikke winst?
De kostprijs van die kaarten is echt niet dermate hoog dat ze niks anders kunnen.

Wat er hier gaande is, is reactief. Omdat ze lagere verkoopcijfers zien van de afgelopen generatie(s) verwachten ze lagere cijfers voor de komende generatie, maar die lage cijfers hebben (volgens mij) alles te maken met het feit dat ze a) niet kunnen leveren, en b) net zulke idiote prijzen vragen als nVidia.

Of mis ik nu iets?
Ten eerste kan AMD geen kaart uitbrengen waarvan het midsegment de top van de concurrent echt verslaat, tenminste, dat kunnen ze tot nu toe niet en ik verwacht dat bij de volgende generatie ook niet.
Ten tweede lijkt het erop dat AMD hun huidige kaarten niet echt heel veel goedkoper in de markt te willen (kunnen?) zetten.
Ten derde lijkt het er sterk op dat de huidige topkaarten van AMD veel minder verkopen dan die van de concurrent, AMD lijkt vooral de vorige generatie te verkopen (als je kijkt naar de "gewone" consument).

Dus waarom zou AMD voor weinig marge een volgende generatie high end kaart op de markt zetten? Qua performance gaan ze waarschijnlijk alsnog achterlopen op de concurrentie, qua verkopen ook.

Daar komt bij dat bij de huidige AMD top kaarten het stroomverbruik zo enorm uit de pas loopt bij de concurrentie, dat ze voor de volgende generatie ofwel daar iets drastisch aan moeten veranderen, ofwel simpelweg geen topsegment kunnen maken zonder een extreem hoog verbruik.
Heb je cijfers om dit te onderbouwen? Want van horen zeggen heb ik ook info dat met name de 7900 XT(X) extreem goed verkoopt en dat de prijs van deze kaarten niet meer zakt, waar de 40-serie niet in beweging wil komen.

Ja, AMD verkoopt nog veel midrange 6000-serie. Maar die moeten ook grotendeels op zijn voordat de 7700- en 7800-kaarten uitkomen.

De 7900-serie van RDNA3 lijkt niet te presteren zoals AMD vooraf verwachtte en wellicht doet RDNA4 dit ook niet omdat de architectuur een fout bevat maar al wel final is. Dit lijkt ook het geval te zijn geweest bij RDNA1. Maar omdat die architecturen al final lijken te zijn kunnen ze het pas oplossen bij RDNA5 dat nog niet final is.

Een andere reden kan zijn AMD de server hegemonie van Nvidia in AI en server wil doorbreken met Instinct en dat ze daar high end RDNA4 voor nodig hebben. Dan is het zelfs best verstandig financieel gezien om consumenten een generatie te vergeten. Kut voor ons, maar top voor AMD. Nvidia lijkt hetzelfde te doen op dit moment

[Reactie gewijzigd door itContinues op 22 juli 2024 14:55]

Heb je cijfers 9m dit te onderbouwen? Want van horen zeggen heb ik ook info dat met name de 7900 XT(X) extreem goed verkoopt en dat de prijs van deze kaarten niet meer zakt, waar de 40-serie niet in beweging wil komen.
We kunnen in de steam survey kijken. Daar doet de 7900 XTX het inderdaad goed met +0.17%. Echter verkopen de RTX 4070 (+.19) en RTX 4060 Ti (+0.23) alsnog sneller. De RTX 3070 stijgt met 0.27% nog veel harder.

Als we kijken naar hoeveel kaarten er totaal zijn verkocht dan zien we dat voor AMD nog altijd de RX 580, de RX 570 en de 5700XT het beste hebben verkocht. Daarna komen pas de 6700XT en de 6600.

Voor RDNA1 had AMD overigens de strategie om met een betaalbare kaart in te spelen op VR en een flinke slag in marktaandeel en dus 'mindshare' onder ontwikkelaars te verwerven Helaas voor Raja Koduri kregen we een mining hype en kwamen die RX 480 kaarten niet bij de consument terecht. Waarmee het marktaandeel uiteindelijk alsnog niet groter werd.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:55]

Ten derde lijkt het er sterk op dat de huidige topkaarten van AMD veel minder verkopen dan die van de concurrent
Is dat ooit anders geweest dan?
Daar komt bij dat bij de huidige AMD top kaarten het stroomverbruik zo enorm uit de pas loopt bij de concurrentie
Overdrijven blijft een gewild vak
The Radeon RX 7900 XT draws more power than the GeForce RTX 4080 in 4 games. On the other hand, the GeForce RTX 4080 draws more power in the remaining 4 titles
On average, the GeForce RTX 4080 drew 286.73 watts of power, while AMD Radeon RX 7900 XT drew 282.63 watts. So, the average power consumption difference between the two is a mere 1.7%.
en
Enabling VRR may lead to substantial reduction in Radeon GPU idle power consumption with high refresh monitors
Qua performance gaan ze waarschijnlijk alsnog achterlopen op de concurrentie
Performance hoeven ze niet perse in achter te lopen IMO, dat doen ze namelijk nu ook al niet over het grootste gedeelte van de markt
[...]

Is dat ooit anders geweest dan?
Zeker, voordat AMD het overnam was het stuivertje wisselen. Ati is marktleider geweest, zowel in omzet als op technisch vlak.
Zeker, voordat AMD het overnam was het stuivertje wisselen. Ati is marktleider geweest, zowel in omzet als op technisch vlak
Dat is volgens mij niet waar, het was wellicht stuivertje wisselen met prestaties, maar nVidia heeft altijd veel meer verkocht, zelf in de tijd dat nVidia floppers had, verkochten ze nog steeds veel meer

Ik heb er in het verleden een filmpje over gezien die dit heel mooi uitlegde en zag je ook mooi dan AMD eigenlijk nooit de overhand heeft gehad.. kan hem alleen zo snel niet vinden

Edit:
Volgens mij was het deze
https://youtu.be/0dEyLoH3eTA

[Reactie gewijzigd door Sinester op 22 juli 2024 14:55]

Nee hoor, Radeon heeft zeker meer verkocht. Zie https://www.3dcenter.org/...Share-2002-to-Q3-2021.png. Nvidia is alsnog lang marktleider geweest, maar met een andere orde van grootte dan tegenwoordig. Je moet dan denken aan 60/40.

Het was AMD die de boel overnam en vervolgens structureel jaren lang heeft gesneden in de R&D waardoor het gat met Nvidia met de tijd steeds groter werd.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:55]

Ehm ja dat schema laat eigenlijk precies zien wat ik bedoel, er is letterlijk 1 periode geweest waarin Redeon meer heeft verkocht dan nVidia

Op alle andere momenten heeft nVidia meer verkocht als Radeon, ook al hadden ze de slechtere kaart.

De reden dat AMD dan ook heeft gesneden is denk ik precies wat ik hierboven vertel, het is het gewoon niet echt waard om zo veel geld in de GPU's te stoppen als nVidia toch altijd meer verkoopt
De radeon zit net aan de 20% marktaandeel en Geforce tegen of op de 80%, Intel 3%. Dus ja, het zou me niets verbazen als de 7900 xtx minder verkoopt dan de RTX 4090.

Qua performance per watt loopt AMD idd achter en ik vermoed dat dit veel te maken heeft met het chiplet desing, waar de oudere dye's chiplets minder efficient zijn dan de core chiplet op 3ns. En de extra traces/connecties om dit alles te laten samenwerken. Terug naar de single dye lijkt mij het voordehand liggende juiste antwoord, of een chiplet design van dezelde 3ns dye's (als dat uberhaupt voordelen kan bieden tov single big dye).
het feit dat ze a) niet kunnen leveren, en b) net zulke idiote prijzen vragen als nVidia.
Eigenlijk is dat slechts 1 punt/reden.

Je pakt winst dmv lage marges en hoog volume.
Of lager volume en hogere prijzen.

Als je niet kunt leveren is de keus snel gemaakt; laag volume met hoge prijs want er zijn best wel kopers te vinden.
Of in geval van Nvidia; hoog volume én hoge prijzen.
Ja, je mist iets en niet zo`n beetje ook.
Bedankt voor je bijdrage.
Waarschijnlijk geen high end performance, wel de high end prijzen.
Met hun mid-range kaarten zal AMD toch nog steeds concurreren tegen de mid-range kaarten van NVidia. Lijkt me niet waarschijnlijk dat AMD zichzelf uit de markt wil prijzen.
Lijkt me helemaal geen slecht idee, volgens mij is daar ook de meeste vraag naar (zie bijvoorbeeld de Steam hardware stats). Heb uit de Radeon RX 400-, 500- en 5000-series meerdere kaarten gehad en dat was altijd dikke prima op 1440p.
Ik denk ook dat het geen slecht idee is. Ik wil toch geen kaart van 1000 euro, maar ik wil wel een nieuwe. Inmiddels kan ik (bij mijn weten) nog steeds geen 7700 of 7800 kopen. Het schiet gewoon niet op.
Dank voor dit nuttige overzicht. Echter, ik vind het wat kort door de bocht om enkel op basis van deze statistieken te conclusies te trekken over de vraag in de toekomst. Met een optimistische blik zou je ook kunnen stellen dat er een potentiële groeimarkt is om bij een volgende generatie wat aan upselling te doen en meer mensen naar het hogere segment te trekken.

Er speelt natuurlijk ook meer context mee: als ik even kijk naar de leeftijd van de kaarten, dan beslaat dit ook de periode waarin de prijzen voor videokaarten enorm zijn gestegen, onder andere door de hype van het cryptominen destijds. En de verschillende tekorten die we hebben gekend (blokkade Suezkanaal, corona etc.). De hogere prijzen zullen er ook voor hebben gezorgd dat meer mensen voor een kaart uit het middensegment gingen. Maar in het verleden behaalde resultaten zijn geen garantie voor de toekomst.
Steam hardware stats is idd een goede indicator wat gamers eigenlijk kopen om hun spellen te spelen. Er zijn héél weinig spellen die een high end kaart vereisten om het spel optimaal te kunnen spelen, als je de minimum systeem specs gaat checken.
Sinds grofweg 2016 is het altijd wat met een generatie van AMD videokaarten. Van polaris waren er geen high end kaarten en hield het op bij de 480. De refresh rekte dit op naar de 590, die niet heel veel sneller was. RX Vega had maar 2 consumenten modellen die beide een beetje discutabel waren qua prijs kwaliteit. RDNA1 hield op bij de 5700XT en had geen high end. RDNA2 was EINDELIJK compleet en had kaarten van value tot en met high end, maar had 2 laptop kaarten als low end die niemand gekocht zou moeten hebben. RDNA3 heeft tot nog toe alleen maar 2 high end kaarten en de rest laat erg lang op zich wachten. En nu gaan ze bij RDNA4 mogelijk geen high end maken? Is het dan echt zo moeilijk om gewoon een hele product stack te maken?

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:55]

Wat als ze alleen de benaming aanpassen. Ik lees overal dat ze geen high-end kaarten gaan maken voor de 8000 series, maar wat als ze wat de 8900 XTX had moeten worden gaan verkopen als een 8700 (XT of 8800). Scherp geprijsd, maar toch competitief tegenover de veel duurdere Nvidia kaarten die honderden euro's duurder zijn. Misschien schrappen ze helemaal geen kaarten, maar misschien worden ze anders in de markt gezet om meer te verkopen, zonder de performance te veranderen.

Gewoon een aanpassing in strategie dus, met dezelfde kaarten en andere positionering.

Daarnaast is dit misschien wel een expres gelekt, om de concurrentie op het verkeerde been te zetten.
Als ze naar TSMC 3nm gaan voor productie zullen ze waarschijnlijk een lekker zuinige mid-range kaart tevoorschijn toveren, beetje zoals de 4070. Als ze een goede prijs kunnen maken dan is het dit interessant voor budget builds.

Wel apart dat ze alleen mid-range willen gaan.Zou het multi-die met infinity fabric interconnect toch te complex zijn waardoor ze weer voor een enkele monolothic die willen gaan?
Het enige dat de 4070 doet is zuiniger zijn met ocharme 12GB ram, voor de rest is het gewoon een 3080 en 6800XT kwa performantie, iets van 3j oud dus die bij AMD dan nog meer RAM hebben. Niks speciaals dus met zijn huidige prijs, verkoopt van geen meter.

[Reactie gewijzigd door d3x op 22 juli 2024 14:55]

De 3080 heeft minder vram.

Idd niet bijzonder, maar wel de minst slechte nieuwe kaart
tja, maar dan dus wel 3080 performance met een veel lager verbruik.
RTX 4070 - 200W
RTX 3080 - 320W
RX 6800 XT - 300W

Daarnaast heeft de 4070 meer geheugen dan de 3080 als je hem daarmee wilt vergelijken. 12GB is prima voor 1440p.
Nou de 4070 is toch wel ongeveer 30-40% zuiniger dan de 3080 wat een redelijke sprong is. https://youtu.be/feqY1fDpZX8?t=141 let op G.PWR in het filmpje.

Vooral van 300 naar 200 watt is het verschil tussen een groot bakkebeest met 3 fans of een compacte dual-fan configuratie. Betekent ook dat mensen een kleinere PSU nodig hebben wat weer wat scheelt.
Het enige dat de 4070 doet is zuiniger zijn met ocharme 12GB ram, voor de rest is het gewoon een 3080 en 6800XT kwa performantie, iets van 3j oud dus die bij AMD dan nog meer RAM hebben. Niks speciaals dus met zijn huidige prijs, verkoopt van geen meter.
De RTX 4070 doet momenteel +0.19% in de steam survey voor de maand juli. Alleen de RTX 4060 Ti verkocht sneller; +0.23%.

Voor wie destijds een RTX 3080 wilde aanschaffen maar door de tekorten / prijzen die kaart niet meer heeft aangeschaft is de RTX 4070 een prima kaart. Hij is circa 100 euro goedkoper (en dan tel ik gratis diablo 4 en steam tegoed nog niet mee), is ongeveer even snel, heeft 2 GB meer VRAM en verbruikt 100W minder stroom.
en de 3060 - 3070 zijn met eenzelfde hoeveelheid gestegen... dus niks speciaals aan de "nieuwste" generatie verkoop, verkopen lopen dus niet wild maar wat verwacht je dan ook van een kaart van +600eur.

trouwens als je kijkt wat er allemaal in die lijst staat dan weet je dat de relevantie van GPU met een korrel zout moet genomen worden in steam.

[Reactie gewijzigd door d3x op 22 juli 2024 14:55]

Dan blijft de RTX 4090 de snelste videokaart de komende tijd want Nvidia zou pas begin 2025 met een nieuwe serie komen. Als AMD dan ook vroeg in 2024 met een 8700 XT komt kunnen ze misschien wat marktaandeel pakken.
Lijkt me toch echt stug dat we vroeg in 2024 de 8000 serie an gaan zien gezien de midrange 7000 kaarten nog niet eens uit zijn.
Het top segment is alleen maar voor de mind share.
Amd kan nu al het low en mid- end segment van de markt pakken. Ze moeten alleen een redelijke prijs/kwaliteit verhouding leveren voor hun gpu range. Die is bij nvidia namelijk helemaal zoek. Ze willen idioot hoge prijzen afdwingen bij consumenten om hun crypto bubbel winstmarges in stand te houden.
Amd heeft tot nu toe een afwachtende houding aangenomen om te kijken of de tactiek zal aanslaan.

Als Amd slim is slaan ze nu hun slag eer de gap met nVidia te groot wordt. Ik snap dat cloud en AI belangerijker zijn voor beidden (AMD en nVidia) maar om nou je hele core business in de kou te laten staan? Nooit gedacht dat ik dit zou zeggen maar: Waar is Intel nou wanneer je ze nodig hebt?

[Reactie gewijzigd door parryfiend op 22 juli 2024 14:55]

Gepraat over de High-end kaarten en de beste prestaties vul je hele schoolpleinen mee, maar de steam is vooralsnog het grootste platform, en in hun surveys zie je duidelijk dat budget/midrange is waar het marktaandeel zit. Hier zullen we genoeg mensen vinden met een Nvidia xx8x/AMD x8xx of hoger, maar de meeste consumenten, en ouders die voor hun kind een kant en klare "gaming PC" kopen zullen het bij een xx60x of x6xx houden. Heb je een groter marktaandeel, heb je gelijk(automatisch) een betere reputatie(people=sheep). Als AMD het voor elkaar krijgt om een grote userbase te vergaren, en het "AMD Optimized" bij de meeste van console geporte games er in kan houden kunnen ze best wat marktaandeel veroveren van Nvidia. Als Intel doorgaat en zichzelf ook in de markt zet, kan er serieus op prijs/performance/kwaliteit geconcurreerd worden en dat is weer ten voordeel van de consument.

Onderschat trouwens de markt voor AMD hun APU's niet, met wat tuning kun je daar prima op gamen, en de geruchten rond aankomende series APU's zouden budget kaarten geheel overbodig kunnen maken.
Bij Nvidia is de 4090 ook slechts een manier om de gedeeltelijk kapotte chips kwijt te kunnen. Alle goede chips gaan in professionele kaarten, onder meer voor AI. Daar zit het grote geld.

Het probleem van AMD is dat ze nog steeds geen echte concurrent hebben voor CUDA, wat het heel makkelijk maakt om Nvidia-kaarten in te zetten voor professionele toepassingen. Dus zowel de echte professionele markt, als de prosumers, kiezen nu vrijwel altijd voor Nvidia.

Sowieso zie ik het als Nvidia's grootste kwaliteit dat ze zo goed zijn in hun software. Alle CEO's en het hogere management bij Nvidia, AMD en Intel komen uit de hardware-hoek. Daardoor hebben ze van nature al snel de neiging om te weinig belang te hechten aan de software, aangezien dat nooit hun interesse en fascinatie had. Bij zowel AMD als Intel is dat vaak een issue (met de drivers van Intel Arc natuurlijk als dieptepunt).
Sowieso zie ik het als Nvidia's grootste kwaliteit dat ze zo goed zijn in hun software. Alle CEO's en het hogere management bij Nvidia, AMD en Intel komen uit de hardware-hoek. Daardoor hebben ze van nature al snel de neiging om te weinig belang te hechten aan de software, aangezien dat nooit hun interesse en fascinatie had. Bij zowel AMD als Intel is dat vaak een issue (met de drivers van Intel Arc natuurlijk als dieptepunt).
Je spreekt jezelf tegen. Je zegt dat software Nvidia's grootste kwaliteit is, maar je zegt dat al het hoger management uit de hardware-hoek komt én dat ze van nature snel de neiging hebben om juist weinig belang te hechten aan de software. Maar tsja: ikzelf vind Nvidia's software verschrikkelijk vergeleken met die van AMD. Nvidia verplicht je om een account aan te maken voor wat? Juist, om screenshots en gameplay te kunnen opnemen of andere dingen in te kunnen stellen. Dat slaat natuurlijk helemaal nergens op. Bij AMD kan je heel veel instellen, en dat allemaal zonder account. :)
Nvidia verplicht
ze verplichten je nergens om t zo te gebruiken, je kan ook handmatig je driver downloaden /&update, opnemen met andere programma's.
Andere gpu related instellingen kan ook gewoon op driver level (dus zonder geforce experience) of ingame...
Precies, heb nog geen NVIDIA account nodig gehad om te kunnen gamen.

Heb ook geen GeForce Experience nodig, als ik een screenshot wil maken druk ik gewoon op Print Screen.

En voor meer verborgen instellingen gebruik ik NVIDIA Inspector.

[Reactie gewijzigd door TheDeeGee op 22 juli 2024 14:55]

Dat is het wel degelijk, al dan niet indirect. Als ik namelijk aan Nvidia's software gewend ben en ik update GeForce Experience, dan kan ik dus niet meer wat ik deed zonder die verplichte login. Ik ben goed technisch onderlegd, maar stel dat je dan verplicht iets anders moet gebruiken (of een account moet aanmaken, wat ik persoonlijk niet zou doen, want dat vind ik onzin), dan zit ook daar weer een learning curve achter. Door dan te zeggen "ja dan gebruik je maar wat anders" is afleiding van het feit dat Nvidia je verplicht een account aan te maken. Maak dat dan optioneel als je al je settings en andere analytics rommel door wil sturen naar Nvidia, maar kom niet met een makkelijk smoesje als "ja dan gebruik je maar wat anders".

Overigens is dit een scenario wat zich bij mij voor heeft gedaan in het verleden (GTX 970), maar nu gebruik ik een AMD GPU. :)

[Reactie gewijzigd door Anonymoussaurus op 22 juli 2024 14:55]

Als ik namelijk aan Nvidia's software gewend ben en ik update GeForce Experience

van het feit dat Nvidia je verplicht een account aan te maken
nee, dat is dus omdat je geforce experience gebruikt, ipv enkel de LOSSE DRIVER
Ik zeg toch dat ik voorheen GeForce Experience gebruikte? Wat heb ik dan enkel aan de losse driver? Niks, als ik geen account aanmaak.
Juist omdat je geforce experience gebruikt, laten ze je inloggen.
losse driver. kan je gewoon zonder bs installeren .

[Reactie gewijzigd door JWL92 op 22 juli 2024 14:55]

Ik heb voor de zekerheid jouw en mijn comments nagelezen, maar volgens mij snap je het zelf niet:

Ik gebruikte vroeger GeForce Experience (met plezier). Na een update moest ik verplicht een account aanmaken, waar ik op tegen ben. Ik wilde echter wel GeForce Experience blijven gebruiken. Dan kan ik of een account aanmaken, of andere software gebruiken (maar dan moet je daar weer aan wennen). Ik wilde dus NIET alleen de driver. Nu bij AMD heb ik zowel goede software als géén account nodig.
Toegegeven, voor mij is dat (compleet overbodige maar verplichte) account ook een reden om bij mijn volgende kaart voor AMD of Intel te gaan.
Leuk, die Geforce Experience maar het is niet alsof het dusdanig veel toevoegt dat ik het zou missen als ik het niet zou hebben. Inmiddels heeft Windows (10, nog) zelf de driver installatie overgenomen omdat NVidia ook zelf aangeeft dat die drivers waarschijnlijk beter compatibel zijn.
voor mij is dat (compleet overbodige maar verplichte) account
Of gewoon dat vinkje uitschakelen voor geforce experience als je door de driver installer klikt?

again. r is niks verplicht.
Onjuist. Veel feature en instellingen zijn van de driver naar GeForce experience verplaatst en dus is GeForce experience noodzakelijk voor de besturing van je videokaart.
Noodzakelijk? dan was t geen optionele optie in de installer.
Enige waar je t voor "nodig" heb zijn de optionele features als shadow play, iirc een filter met ansel , en ofc auto-updates.
Veel van die features hebben we deze dagen gewoon nodig om games optimaal te laten werken of er optimaal uit te laten zien. Zo is de Sharpness slider een MUST @65-75% Zonder geforce experience is dat een nogo. En joost mag weten wat ze sinds ik naar een 6900XT overgestapt ben nog meer in geforce experience gepropt hebben en uit de driver gesloopt hebben.
Sharpening is gewoon in te stellen in de oude Control Panel, misschien is Windows installatie verkloot ofzo.
Nee dat is het niet meer. Dat hebben ze verwijderen en in GeForce experience geplakt.

Je kan met een reg back het wel weer terug krijgen maar dat is natuurlijk niet hoe het hoort en voor velen een stap te ver.

https://droidwin.com/brin...-in-nvidia-control-panel/
Voor mij is het nog gewoon beschikbaar in de laatste driver, en zelfs per game in te stellen.

https://i.imgur.com/bVLadXR.png

Is dus echt een probleem aan jou kant.
heel anders, als in , je mist de "ignore film grain" optie?

das t enige namelijk....
Als je het aanzet per game werkt het gewoon op native.
is t dus wel. heb t hier letterlijk voor me, op de laatste driver versie..
Screenshot ? Misschien hebben ze het terug gezet of je hebt het nog steeds over een andere slider.
Kijk even bij de reactie van TheDeeGee in dit segment
T is weer bash nVidia day ofzo...
Daar lijkt het inderdaad op.
Het heeft niets met windows te maken maar alles met eht feit dat Nvidia deze setting verwijderd had en in geforce experience geïmplementeerd. 2 posts hoger even op de link klikken en lezen.

Misschien hebben ze het na veel klachten terug gezet maar zonder screenshots lijkt me dat sterk. Ik heb geen Nvidia gpu meer dus kan het niet testen.
Misschien hebben ze het na veel klachten terug gezet maar zonder screenshots lijkt me dat sterk. Ik heb geen Nvidia gpu meer dus kan het niet testen.
maar je kan wel de flamebait posten
Maar is dat een must, of een wil?
Want je praat dus duidelijk over een resolutie die je gpu eigelijk niet kan hebben als je op zon scaling moet zitten? (<66% kom je gwn 1/3e te kort grof gezegd?)
ik speel me games ook niet op upscaled 8k... iets met verwachtingen
daarnaast, zijn r ondertussen ook betere technieken. FSR, XeSS, DLSS...

Ik zie graag een concreet voorbeeld van wat eerst in de driver zat, maar nu verplaatst is zoals je beweert
Je hebt het duidelijk nooit gebruikt. Zelfs op native maakt een sharpen filter erover de game echt veel en veel mooier. Dit was 10 jaar geleden al zo voordat dit in drivers zat.

Dit heeft dus NIETS met upscaling te maken. Al is upscaling+ sharpening gewoon een moderne feature waar iedereen toegang tot had voordat Nvidia daar anders over dacht. Dat voorbeeld geef ik je dus al maar die accepteer jij niet daar kan ik niets aan doen.
jje praat eerst over 65% een MUST , nu ist native.... das dus toch echt n WILLEN.
Dit heeft dus NIETS met upscaling te maken. Al is upscaling+ sharpening
uhu....

DSR is trouwens gewoon nog op driver level beschikbaar...
sharpness filter in ANSEL, is toch altijd n geforce experience ding geweest afaik

[Reactie gewijzigd door JWL92 op 22 juli 2024 14:55]

Je snapt het simpelweg niet. De sharpness slider op 65% op native resolutie is een must ja. Dat heeft verder dus niets met upscaling te maken en gewoon hoe de sharpening toegepast word.

DSR is dus ook compleet niet waar ik het over heb. Ansel is weer compleet iets anders. Je weet blijkbaar niet het fijne van deze SHAPRNESS slider en dus zou ik dat eerst gaan onderzoeken.
Je snapt het simpelweg niet.
65% op native resolutie is een must ja.
?
dan gebruik je dat toch?

ter verduidelijking, je gaf eerder nie eens aan dat t om die slider op 65% ging, dus ging uit van res scaling ,want das more common these days
maar hee. nog
die ansel feature. zit r sinds what in...... ? GUESSS?
En kijk is in die driver... die iimage scaling waar je eerder over riep ziit r nog in
dat jje geen kaart heb, s geen reden om alsnog n flamebait te posten zonder dat je zelf weet waar je t over heb ;)

wacht nog steeds op je VELE of 1e voorbeeld....

[Reactie gewijzigd door JWL92 op 22 juli 2024 14:55]

Veel van die features hebben we deze dagen gewoon nodig om games optimaal te laten werken of er optimaal uit te laten zien. Zo is de Sharpness slider een MUST @65-75% Zonder geforce experience is dat een nogo. En joost mag weten wat ze sinds ik naar een 6900XT overgestapt ben nog meer in geforce experience gepropt hebben en uit de driver gesloopt hebben.
Ik had van die sharpness slider nog nooit gehoord. Voor wie dat ook zo is; blijkbaar is er een optionele feature met de naam image scaling waarbij de render resolutie op 85%, 77%, 67%, 59% of 50% gezet kan worden. Deze heeft een extra sharpen slider die standaard op 50% staat.

De meeste games bevatten tegenwoordig zelf een render scaler. Dat lijkt mij beter want dan blijft de UI op native resolutie draaien. Dat kan deze feature waarschijnlijk niet.
Nee dus. De slider die ik bedoel heeft niets met scaling te maken en werkt gewoon op native resolutie.

https://droidwin.com/brin...-in-nvidia-control-panel/
Die image scaling option waar ze naar wijzen is gewoon nog int control panel beschikbaar hier.... laatste driver
Het account is verplicht voor Geforce Now, jij leest het anders (als verplicht voor je videokaart) en daarom blijf je langs hun praten...

Vond het account opzich geen ramp al ben ik er zeker op tegen, maar op de zoveel tidj of na een update opnieuw in moeten loggen was voor mij een reden om toch wat verder te kijken. Niks irritanters is als je iets wilt doen en je moet eerst verplicht iets anders doen.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:55]

Ik denk dat je experience en now door elkaar haalt?
again, geforce expierence HOEF je niet te gebruiken. als je dat wel wil... ja .... ander verhaal
Maar geforce expierence was al nieuwe software in verhouding tot de losse driver?
Tsja, als je helemaal geen software gebruikt voor videopnames of andere functies moet je toch ergens beginnen hè? Dat was bij GeForce Experience.

[Reactie gewijzigd door Anonymoussaurus op 22 juli 2024 14:55]

En dus omdat je niet met camtasia studio, obs, of w/e wil werken, wil jje wel met amd driver werken? gaat off topic zo ... maar je discussie punt houd dan toch echt weinig stand? Gezien je nog die switch hebt moeten maken

[Reactie gewijzigd door JWL92 op 22 juli 2024 14:55]

Ja, dat klopt. :) Ik wil liever geen third-party zooi gebruiken, maar gewoon de 'native' tools. Die switch naar AMD heb ik niet gemaakt vanwege dat standpunt; dat met dat verplicht inloggen was gewoon een leuke bijkomstigheid en achteraf gezien zie ik dat nu als een pluspunt bij AMD.
verplicht
Ga je weer... niemand dwingt je

/off topic ik snap de moderatie op tweakers hier niet meer.
//offtopic2, je gebruikt edge zonder enige plugins? :+

[Reactie gewijzigd door JWL92 op 22 juli 2024 14:55]

Nvidia is juist de uitzondering omdat hun mensen wel het belang van software inzien, ondanks dat ze uit de hardwarehoek komen.

En ik weet wel zeker dat Nvidia gigantisch veel meer extra verkoopt dankzij features zoals DLSS en CUDA, waar de software het verschil maakt, dan ze verliezen door de verplichting om een account te maken.
Misschien is het een voorbeeld, maar de kwaliteit van software heeft op zich weinig te maken met verplichtingen om een account te maken.
[...]


Je spreekt jezelf tegen. Je zegt dat software Nvidia's grootste kwaliteit is, maar je zegt dat al het hoger management uit de hardware-hoek komt én dat ze van nature snel de neiging hebben om juist weinig belang te hechten aan de software. Maar tsja: ikzelf vind Nvidia's software verschrikkelijk vergeleken met die van AMD. Nvidia verplicht je om een account aan te maken voor wat? Juist, om screenshots en gameplay te kunnen opnemen of andere dingen in te kunnen stellen. Dat slaat natuurlijk helemaal nergens op. Bij AMD kan je heel veel instellen, en dat allemaal zonder account. :)
Ik vind dit al snel selectieve verontwaardiging. Bij mij staat de teller op 993 accounts in mijn password manager. Hoeveel accounts heb jij in je password manager staan?
Ik kan het binnen KeePass niet in éen oogopslag zien, maar als ik het even handmatig optel minder dan 100. :)
[...]


Nvidia verplicht je om een account aan te maken voor wat?
De account is waarschijnlijk gekomen voor de 'redeem' functie. In mijn account staan ondertussen 3 games die ik 'gratis' bij mijn videokaarten heb gekregen. De laatste game, Diablo 4, kon ik ook niet op mijn oude videokaart claimen. De nieuwe RTX 4 serie moest echt in de pc zitten.
Bij Nvidia is de 4090 ook slechts een manier om de gedeeltelijk kapotte chips kwijt te kunnen. Alle goede chips gaan in professionele kaarten, onder meer voor AI. Daar zit het grote geld.

Het probleem van AMD is dat ze nog steeds geen echte concurrent hebben voor CUDA, wat het heel makkelijk maakt om Nvidia-kaarten in te zetten voor professionele toepassingen. Dus zowel de echte professionele markt, als de prosumers, kiezen nu vrijwel altijd voor Nvidia.
In de datacenter/AI markt is Nvidia idd de grootste maar AMD doet het daar niet slecht. Ik denk dat CUDA voornamelijk een issue is voor de kleinschalige professionele markt.

Op dit item kan niet meer gereageerd worden.