'Volgende generaties AMD Radeon- en Intel Arc-gpu's verschijnen pas begin 2025'

De volgende generaties videokaarten van AMD en Intel verschijnen pas begin 2025. Dat heeft Tweakers geverifieerd bij meerdere bronnen tijdens de Computex 2024-beurs in Taipei. Volgens eerdere geruchten komt concurrent Nvidia al eerder met een nieuwe GeForce RTX 5000-reeks.

Officieel halen beide fabrikanten daarmee hun zelf opgelegde doelen voor de nieuwe videokaarten niet. AMD's volgende generatie videokaarten, die gebruikmaakt van de RDNA4-architectuur en waarschijnlijk op de markt komt als de Radeon RX 8000-serie, zou volgens de roadmap in 2024 op de markt komen. Ook Intel zei eind vorig jaar nog dat de nieuwe generatie Arc-videokaarten, beter bekend onder de codenaam Battlemage, dit jaar zouden worden uitgebracht.

Het zou kunnen dat AMD en Intel hun nieuwe gpu's net voor het jaareinde aankondigen om de eerdergenoemde deadlines te halen, maar een daadwerkelijke release op de CES-beurs begin januari ligt meer voor de hand. Sowieso zal de verkrijgbaarheid pas in het nieuwe jaar op gang komen.

Over de nieuwe AMD-lineup bevestigen bronnen aan Tweakers dat er geen echte high-endmodellen in de RX 8000-serie zullen verschijnen. Vorig jaar verschenen er al geruchten dat de Navi 4x-gpu met het grootste aantal cores was geannuleerd. Kort daarop vertrok de topman van AMD's videokaartendivisie. Het bedrijf zou niet langer ambiëren om te concurreren met Nvidia's topmodellen, maar vooral willen focussen op het mainstreamsegment met kaarten als de RX 7700 XT en RX 7800 XT.

Van de komende generatie Intel Arc-videokaarten is vooralsnog minder bekend. Bronnen vertellen Tweakers dat de betreffende gpu's in elk geval het prestatieniveau van de GeForce RTX 4070 kunnen evenaren. Het topmodel van de huidige generatie, de Arc A770, is in benchmarks van Tweakers net wat langzamer dan de GeForce RTX 4060 en Radeon RX 7600. Dat zou een prestatiewinst van generatie-op-generatie van ruim 60 procent betekenen, maar dus nog lang niet voldoende zijn om het Nvidia ook in het topsegment lastig te maken. Meer over de verbeteringen die zo'n prestatiesprong mogelijk maken, lees je in onze Intel Lunar Lake-preview, want de igpu daarvan is het eerste product dat gebruikmaakt van de Xe2-architectuur die ook aan de Battlemage-videokaarten ten grondslag zal staan.

De igpu in de Lunar Lake-cpu's maakt als eerste gebruik van de Xe2-architectuur, die straks ook in Battlemage zit
De igpu in de Lunar Lake-cpu's maakt als eerste gebruik van de Xe2-architectuur, die straks ook in Battlemage zit

Door Tomas Hochstenbach

Redacteur

04-06-2024 • 20:03

58

Lees meer

Reacties (58)

58
57
19
2
0
26
Wijzig sortering
Waarschijnlijk komen de nieuwe series van alle drie bedrijven alsnog grotendeels tegelijk. Nvidia zal wellicht iets eerder zijn met hun hoogst geplaatste model, maar de mainstream-kaarten lijken allemaal in 2025 te komen, gebaseerd op hun vorige generaties en de huidige geruchten. AMD en Intel gaan wellicht niks uitbrengen tegenover de 5090 van Nvidia, maar daaronder zal er niet enorm veel tijd zitten tussen vergelijkbare kaarten van AMD, Intel en/of Nvidia.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:18]

Op dit moment concurreert de 7900XT(X) met NVidia's 4080(super).

Indien AMD geen 7900XT(X) equivalent uitbrengt in hun nieuwe serie, kunnen ze noch concurren met de 5090 noch met de 5080...
Dat zou inderdaad kunnen. En Intel Xess doet wellicht ook nog niet mee in het hoogste segment voor zover ik weet. Voor AMD en Intel als bedrijven is dat geen gekke strategie op zich. Beide hebben blijkbaar niet helemaal de mogelijkheden om zoveel prestaties uit een kaart te halen, of niet met vergelijkbaar stroomgebruik, yields en dergelijke, vergeleken met Nvidia. Maar de lager geplaatste kaarten verkopen toch veel meer. Beter om in een groot deel van de markt goed mee te draaien, dan te proberen om die hoogste noot te halen.

Voor de markt als geheel is het minder fijn: er is nu niks dat met Nvidia concurreert aan de bovenkant. Maar het is niet voor niks dat zelfs de gevestigde partijen AMD en Intel daar niet meedoen: het is zeer complexe materie. Geheel nieuwe concurrenten voor Nvidia zullen ook niet snel opstaan, want zo'n bedrijf opbouwen van kennis tot hardware tot software (zoals CUDA), kost vele jaren en vele miljarden. Investeerders stoppen dat geld nu gewoon in Nvidia-aandelen en zien hun dividend binnenstromen, zonder die risico's.

Dus wat AMD en Intel doen is voor hun eigen strategie niet gek, en één of beide zouden in de toekomst wel (weer) topmodellen kunnen gaan aanbieden. Een GPU-markt met veel meer concurrentie zou veel gezonder zijn; dan waren er meer spelers om Nvidia het vuur aan de schenen te leggen. Maar dat zal er niet snel komen.
De Blackwell van nVIDIA komt officieel beschikbaar Q4 2024 maar is al beschikbaar voor integratie partners zoals Dell en SuperMicro. Wij hebben onze bestellingen al gedaan.

Dus nVIDIA heeft tenminste een jaar voorsprong, volgend jaar zullen de desktop kaarten moeten uitkomen maar AMD RDNA4 blijkt qua performance ergens tussen Lovelace/Hopper te liggen, dus ze liggen nog steeds 1-2 generaties achter.
Hoe kan het een jaar zijn als AMD en Intel in Q1 of hooguit Q2 met hun kaarten komen? En zoals aangegeven: Nvidia komt meestal eerst met alleen de dikste kaarten, terwijl de 5070 en 5060 later komen. Het is aannemelijk dat die mid-range kaarten ook in 2025 komen, net als het spul van AMD en Intel. Of zal dat dit keer anders gaan? Welke kaarten hebben jullie besteld, en wat zijn de verwachte leverdatums?

Als je bedoelt dat Nvidia qua performance voorloopt in het bovensegment: uiteraard, zoveel was al duidelijk. Maar de kaarten die AMD en Intel tegenover de 5060 en 5070 willen plaatsen, zullen waarschijnlijk niet een vol jaar na die Nvidia-kaarten uitkomen.

We kunnen het ook nog niet met precisie zeggen, want productlanceringen in deze markt zijn soms alleen op papier, soms met kleine voorraad, en soms met echt voldoende voorraad. Alleen dat laatste is een echt volwaardige release. Ook weten we de details nog niet van welk model precies wanneer gaat komen, volgens mij nog van geen van de drie fabrikanten. Maar op basis van eerdere generaties en de gelekte geruchten zullen gelijk geplaatste kaarten ook ongeveer gelijktijdig uitkomen, van alle drie makers. Eerder met weken of enkele maanden verschil, dan een jaar. Verder zal de tijd het moeten leren.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:18]

nVIDIA is al begonnen met de distributie, de echt grote klanten hebben al producten in de hand. Ik denk niet dat AMD/Intel met hun desktop-producten in Q1/Q2 komen, tegen dan is de architectuur klaar, het is natuurlijk een beetje anders omdat AMD/Intel niet in de pro markt aanwezig zijn maar ik denk dat 'algemeen beschikbaar' (waar jij en ik naar de winkel kunnen voor een losse kaart) wel Q3 gaat worden.
Vreemd, ik had gedacht dat AMD met de GPU chiplet designs zou gaan werken. Door te schalen met chiplets zou het mogelijk moeten zijn om op high end niveau te concurreren.
Jammer, zo kan de concurrent uit het Groene kamp achterover leunen en de prijzen verder opvoeren. Een verlies-verlies situatie.
Volgens de geruchten: dat dacht AMD dus ook: we kunnen gebruik maken van chiplets, dus in principe kunnen we een gigantisch snelle GPU maken met veel chiplets maken, daardoor we de prestatiekroon van Nvidia af kunnen snoepen.

...maar dat zou een GPU van $2000 opleveren en in de tussentijd zijn de crypto- en coronabooms weer voorbij. Verder zal het geen DLSS ondersteunen, dus zelfs als de raster performance het beste is, is het nog maar de vraag of het veel zou verkopen.

Ook waren er onverwachte problemen om het werkend te krijgen, terwijl RDNA 5 juist erg lekker liep. Daarom is er maar besloten om high end RDNA 4 te annuleren en meer op RDNA 5 te focussen. RDNA 4 gaat nu niet echt sneller zijn, maar wel extra performance per euro. Daarom zal er ook geen GDDR7 op zitten: hier is nog nauwelijks concurrentie op, dus duur, dus lagere performance per dollar.

Ook kan AMD de capaciteit bij TSMC goed gebruiken voor Zen 5 en AI chips, waarvan ze weten dat dit goed gaat verkopen.
Dat is inderdaad de geruchten.

Volgens geruchten zou de RT ook een flinke boost krijgen. Dat gecombineerd met een heel zacht prijsje kan mogelijk wel voor een aantrekkelijk product zorgen.

Maar we zullen het maar moeten zien.
AMD heeft voor alle game features ook tegenhangers en top-end AMD kaar heb je die FSR DLSS tegen hanger ook niet nodig kan native 4K doen. Ik vermoed eerder dat Chiplet schaling voor games tegenvalt en verbindingen extra vermogen omdat er toch inter chiplet afstand en dus routing overbrugd moet worden.
pro toepassingen schaald Masive MT beter omdat data onafhankelijker non shared verwerkt wordt.
Renderpijplijn is complex met veel stappen en fases waar de ene stap data van vorige stappen nodig heeft.
GPU chiplet is innovatie , maar innovatie is ook risico. Mogelijk nog niet opgelost. met RDNA4 en is verschoven naar RDNA5
Ja maar Nvidia maakt nooit zo'n misstappen.
Je bent nog jong denk ik als je dit denkt (of de nVidia mindshare heeft jouw ook te pakken)

Voordeel van nVidia is dat zelf als ze misstappen maken, hun mindshare zo groot is dat ze alsnog zeer goed verkopen

[Reactie gewijzigd door Sinester op 22 juli 2024 15:18]

Nee ben niet jong en ben absoluut tg Nvidia. Je vergist je dus danig.
Mooi dat jij dat hier opschrijft want ik heb ook die mening en waarschijnlijk heeft die Raja of hoe die gast ook heet, daardoor het veld moeten laten. Jammer want ten tijden van de HD5000 en HD7000 hebben ze Nvidia behoorlijk moeilijk gemaakt en dat werd in een keer tenietgedaan.
Intel gaat weer in herhaling vallen met een performance van een RTX4070, als deze gaat uitkomen zal hij gelijk zijn met een dan inmiddels uit uitgekomen RTX5050/5060 de low end Vcard in de RTX50X0 reeks. Echt een tegenvaller dus vanuit Intel.
Ja idd was Raja Koduri zijn schuld, was ik vergeten. :) Is dan naar Intel getrokken en heeft het daar niet veel beter gedaan met hun grafische kaarten.
Ik vind mijn XTX helemaal geen misstap, dat ding doet het bijzonder goed.
Behalve op gebied v RT. ;)
Dat ligt eraan waarvoor je hem gebruikt. Een gebruiker hier die via zijn werk diverse systemen had voor VR toepassingen te testen, gaf op mijn vraag echt aan: voor VR is Nvidia een veel veiliger keuze.
Ook heeft Nvidia leuke tools die de VR performance omhoog krikken mits de studios dit ook toepassen dan.
Op zich is er niets mis met het middenveld die het merendeel van de verkopen uitmaakt te beconcurreren. Het belangrijkste voor de consument is dat het Intel zich mee in de strijd smijt want dan blijven de prijzen laag.

Eigenlijk is €400-700 in de midrange al redelijk duur. Ik heb liever dat ze daar wat duwen en het verschil kunnen maken want dat zijn de kaarten die tweakers kopen. Dat is ook de range die in next gen gameconsoles terecht komt. Daar is prijs/fps heel erg belangrijk.

Het gaat erg lastig worden omdat Nvidia op pole positie staat dankzij hun AI divisie die blijkbaar nu jaar op jaar een verbeterde architectuur gaan bouwen. Niet dat elke (mogelijk dure) architectuur zich leent voor gaming kaarten maar je voelt wel dat ze meer mogelijkheden hebben om extreem snelle maar dure high-end te bouwen.

Zoals ik al zei, het enige wat je kan hopen is dat Intel zich stevig in dat middensegment komt nestelen. Dat zou een win-win zijn.
399e is dus eigenlijk al lowend/budget range wat een slechte tijd om pc gamer te zijn.
Als goed is is je salaris ook inflatie gecompenseerd hopelijk grotendeels.
Ik kijk dan wat aandeel aan salaris kost midrange is dat dezelfde ratio of meer.
en die 4090 heb je nodig als je op 1080P low settings 360fps wilt in esports toernooi.
of 8K gamen . 4K moet ook niet dus sub tot upper midrange is voldoende 1440p.
Tenzij dikke vila woont een auto voor de deur waar anderen een huis voor kopen tja dan is 4090 cheap.

ik hou mijn hardware lang maar budget wordt ook bepaald of ik 2 of 5 gens oversla. Met Vega56 heb al zooi gens overgelagen dan pak ik misschien ook upper midrange dat houd ook in dat die langer mee gaat dan als sub-midrange zou gaan. Die vega56 zou ik eigenlijk veel eerder vervangen covid crypto energie crisis war. etc uitstel.
grappig dat je denkt dat Intel de prijzen laag zal houden wetende dat ze TSMC gebruiken als bron en constant verlies maken op die afdeling.... maw wishfull thinking. Van de moment dat ze op sw/power/perf op gelijke hoogte staan of beter zijn de prijzen meteen in lijn met de rest.
Ja gelijk Intel die achterover leunde. En tamme updates jaar in, jaar uit, uitbracht voor hun CPUs. AMD kon hard terugslaan. Overigens is nVidia totaal niet geïnteresseerd in gamers. Dat levert ze nauwelijks wat op. Ten minste, vergeleken met wat de GPUs opleveren die ze verkopen voor AI en dergelijke.
Dus de chips die uit de fabrieken komen zijn in de eerste plaats daarvoor. En de tijd die ze kwijt zijn om consumenten GPUs te maken is dan zeer kostbaar. Wat resulteert in een hoge prijs.
Nee, het zal nVidia worst zijn wat er gebeurt met hun GPUs voor consumenten. Slecht nieuws voor ons? Het is dan AMD die achterover kon leunen als niet Intel zich op de GPU markt is gaan begeven voor consumenten GPUs. De eerste kaart die Intel uitbracht had wat probleempjes. Intel heeft gauw geleerd dat de kaart valt en staat met een goede driver. En de kaart wordt steeds beter met driverupdates.
Het is dus jammer dat het nog minstens 6 maanden gaat duren eer Intel met Battlemage komt. Een doorontwikkelde kaart met goed drivers van Intel kan wel eens hele hoge ogen gooien.
Ja triestig hoe AMD de handdoek id ring smijt door Nvidia niet meer te beconcurreren ih high-end segment. Had dit niet verwacht van AMD. Ze moeten gewoon een tandje bijsteken met RT en AI. Nvidia kan dus hun prijzen hoog blijven houden. Zeer slecht dit.
Maar nu bestaat er wel een kans dat de low en mid videokaarten goedkoper worden. En of je het leuk vind of niet daar zit het geld voor AMD
Ik wil minstens een 4070 kaart om een beetje deftig te kunnen gamen. Dat is high-end. Met mid-range AMD kaarten ben ik dus niks.
Die kan toch prima meekomen met de 7800 xt ? Die zou AMD dus nog uitbrengen alleen de 4080/4090 concurrent laten ze links liggen. Jij zou dus nog veilig moeten zijn.
Dus volgens jou is de 4070 super midrange?

Ik zou ook liever een 4070Ti kaart hebben maar die vind ik veel te duur, laat staan de 4080 en 4090. Grootste voordeel v 4070Ti is toch wel de 16GB vram tov de 12GB vd 4070super wat krap is.

[Reactie gewijzigd door Fredi op 22 juli 2024 15:18]

Wat ik mid range doet er niet echt toe toch? Ik haal alleen uit het artikel
. Het bedrijf zou niet langer ambiëren om te concurreren met Nvidia's topmodellen, maar vooral willen focussen op het mainstreamsegment met kaarten als de RX 7700 XT en RX 7800 XT.
Dat de 4070 concurrent nog gewoon mogelijk en als ze dan de 7900 variant vervangen voor een 7500 variant met een release prijskaartje van bv 200 euro wat dan na verkoop van tijd kan zakken naar bv 150-180 euro denk ik dat je een hoop mensen/gamers blij hebt.
Ach Amd heeft gelijk
Ze kunnen Nvidia niet bij benen klaar
midden kunnen ze prima concureren en op prijs gebied ook
volgende 8000 series zullen toch wel stukie sneller zijn dan die 7900xt xtx dan is het prima toch

5090 kunnen ze toch niet voorbij . is voor de gewone man toch niet te betalen. dus mik op de midden moot
daar is veel te halen

Mensen zijn nu sneller gneigd om team rood te halen dan groen prijzen prestatie veel gunstiger is

Had ook bijna AMD gehaald 7900xt heeft wel lekker meer geheugen. toch maar voor een 4070 super .
goede raytracing dlls enz driver suport wie weet toch nog ooit AMD komt mischien wel intel
Idd moest ik nu een videokaart kopen zou het ook een 4070 super zijn. Ook al veel te duur naar mijn goesting maar ja je moet ook nog een beetje deftig kunnen gamen. En een 4070Ti met €800 is al helemaal onbetaalbaar.
Ik denk dat AMD in principe (als bedrijf) nVIDIA zou kunnen bijbenen, maar het probleem zit niet in de hardware. Bij nVIDIA krijg je end-to-end ondersteuning en intern ook bouwen ze enorm mee met alle soorten open source projecten, aan oplossingen voor PyTorch en de Linux kernel, Kubernetes, Docker, nVIDIA Clara is ook open source etc. terwijl AMD zich enkel maar op gamers richt en de 'pro' markt volledig links laat liggen, zelfs gewoon IOMMU (vGPU) heeft AMD nog steeds geen oplossing op de open markt, alhoewel ze die wel beschikbaar maken aan grote klanten met gespecialiseerde (oude) kaarten.

Voor games heb je echt niet veel snellere kaarten nodig, een 2080 of 3070 of gelijkaardige AMD volstaat tegenwoordig nog steeds zelfs voor de laatste Doom op 4K te draaien. In de open source markt zit het geld, maar daarvoor moet je meer en meer slimme mensen inhuren dan een marketing drone.
Ik had een 4070 super gehaald maar teruggestuurd omdat ik Elden ring bij lange na niet kon spelen op 4k. Een 7900xt gehaald en ik ben er (super)blij mee niets te klagen en RT doet hij ook prima.
Hoezo prijzen opvoeren hooguit in het top segment 5090 maar dat is een niche markt voor gekken met te veel geld totaal niet nodig en logische voor 90% van de gamers.

Alle andere kaarten zullen sterke concurentie hebben dus nvidia moet die prijzen wel drukken.

Gezien bitcoin aan het uitsterven is of gaan we over capaciteit pv inzetten zal er weinig vraag zijn uit die hoek.
Opzich niet gek.
AMD heeft pas in september 2023 hun midden-segment GPUs uitgebracht. 9 Maanden geleden. De 7900 XT en XTX kwamen in December 2022, dat is ongeveer 1 jaar en 6 maanden geleden (wie herinnert zich ook nog wat voor problemen de launch GPUs hadden pff)

Dus nog geen enkele GPU in hun huidige generatie is 2 jaar oud. Daarnaast verkochten ze nog best lang RDNA2 GPUs als mainstream producten.
Precies. En met een beetje geluk wil men t.z.t. de huidige range alsnog een zetje geven qua verkoopcijfers, middels het dan toch eindelijk wat laten zakken van de prijs.
Vroeger was nieuwe generatie per 1.5 jaar normaal. En was je gpu na 3 a 4 echt oud. Dat is allesbehalve waar tegenwoordig. Nu is het eerder 2.5 jaar en de prijs prestatie verhoudingen alleen maar slechter per release.

[Reactie gewijzigd door SactoriuS op 22 juli 2024 15:18]

Ik zit nogsteeds met mijn 1060, zonder enig probleem

Vroeger idd hooguit 1 generatie skippen nu met gemak 5 en waarschijnlijk 6.
Ok, dus de RX3xx/4xx/5xx dagen komen weer terug? Prima wat mij betreft, ik heb vorig jaar voor het eerst in mijn leven daadwerkelijk een highest-end GPU gekocht, alleen maar omdat er een fout op de website stond en ik em veel goedkoper kreeg dan dat dat model op dat moment waar dan ook te krijgen was, maar anders zou ik dat nooit gedaan hebben.

Dus de komende jaren ben ik wel voorzien, want today's high-end is next generation's mid to high-end and mid end the generation after that.

Vond destijds die strategie van AMD prima, betaalbare kaarten waarmee je prima op FHD of op 1440p kon gamen, afhankelijk van de game en de versie kaart die je had.

[Reactie gewijzigd door Pim0377 op 22 juli 2024 15:18]

Eigenlijk alleen de dagen van de RX 400-serie: bij de 300-serie hoorden ook de R9 Fury en R9 Fury X, die wel degelijk een poging deden om te concurreren met de 980 en 980 Ti (waarbij dat bij de eerste wat beter lukte dan bij de tweede). Ook rond de tijd van de 500-serie had AMD de Vega 56 en 64, die weliswaar niet mee konden komen met de 1080 Ti, maar op z'n tijd toch wel voorbij de 1080 kwamen.

Hoe dan ook ben ik het best met je eens. We hebben als gamers veel meer aan een competitief middensegment dan aan high end-gpu's die 350W+ verstoken om elkaar bij te kunnen houden.
Ik denk dat kamp r/g/b vooruitkijkend op de toekomst alvast de basis voor AI in games aan het leggen is. Met bijvoorbeeld UE5 als maatstaf voor waar games allemaal naar toe gaan, hebben we over een aantal jaar games die realistisch genoeg zijn qua graphics. Wat blijft er dan over? Dat laatste beetje % realisme gaat niet opwegen tegenover de prijs die je moet aftikken voor een high-end videokaart.
De pc gamer krijgt echt teleurstelling na teleurstelling...

Ik hoop dat ze echt heel veel goodwill verliezen met al deze onzin. Er is helemaal geen reden behalve geld dat er zo veel tijd tussen moet zitten.
Ik hoop dat AI net zo snel dood bloed als mining en dat er daarna helemaal niet voor in de plaats komt en ze compleet afhankelijk zijn van gamers en een selecte groep editing usecases. Met alle verloren goodwill zou dat echt een mooie karma move zijn.

Niet dat ik Intel als gpu zal overwegen. te traag voor mij en dus niet interessant en als de geruchten kloppen word AMD ook niet veel soeps voor de snelle cashe grab. (less die space = profit...)

En AMD maakt natuurlijk nog gewoon de full die x900XT chips maar verkoopt di gewon voor andere doeleinden als gamen waar ze 3 tot 25 keer zo veel betalen.

[Reactie gewijzigd door computerjunky op 22 juli 2024 15:18]

Er is helemaal geen reden behalve geld dat er zo veel tijd tussen moet zitten.
Oh is dat zo? werkt jij bij AMD en Intel?

Dood moe wordt je van mensen die dit roepen of ze precies weten wat er allemaal speelt bij deze bedrijven en natuurlijk ook beter weten dan die bedrijven :z
En AMD maakt natuurlijk nog gewoon de full die x900XT chips maar verkoopt di gewon voor andere doeleinden als gamen waar ze 3 tot 25 keer zo veel betalen.
Je weet hopelijk dat de architectuur van de zakelijke en gaming kaarten compleet anders zijn bij AMD? (RDNA vs CDNA)

Kom op man.. het is prima te speculeren maar jij breng je het als feiten.. geen flauw idee waar je die info vandaan haalt want bronnen zitter er ook niet bij

overig denk ik niet dat AI dood gaat bloeden.. dit is iets wat gewoon blijft en over x aantal jaar weet je niet beter dat dit over is toegepast

[Reactie gewijzigd door Sinester op 22 juli 2024 15:18]

Ik had lang geleden al ASUS i740 G-kaart met intel dGPU en dat beviel mij wel.
Het zal wel goed komen met de drivers. ik ben niet teleurgesteld top highend heb je niet nodig.
4K gamen is luxe die scherpte zie ik toch niet zonde van de energie ook elke FPS meer dan 120.
De reden is natuurkunde. Die shrinks gaan moeizamer en lek stromen worden groter en dus krijg je stagnatie van ratio transistor density en klokceiling maar ook bij steeds grotere vermogens.
Waar 80286 nog passief te koelen is zal moderne chip meer kunnen verbruiken.

Het zijn commerciële bedrijven. hun preoriteit zal altijd de aandeelhouders zijn en bedrijfs continuïteit.
AMD en Intel hebben nu flinke achterstand op nVidia kwa hardware maar ook software stack en drivers dat zeer moeilijk is om in te lopen. Ze zijn geen nonprofit instantie.

Bedrijven concurreren en intel heeft dozijn bedrijven kapot gemaakt of uit de markt gedrukt.
Itanium heeft andere groter server merken er uitngedruikt en zelf door AMD64 ook omzeep gegaan.
Dus als men braaf nVidia blijft kopen. Kan zijn dat iNtel maar ook AMD de stekker trekt uit DGPU .
Zoals het er nu uitziet is ook voor Intel en AMD dgpu pro kant voor AI waar gamer tak op mee kan liften.
Maar ja als de AI bubbel barst dan is Radeon geen vet pot. ik ga nVidia met al hun anti gamer streken niet belonen. GTX580 was mijn laatste nV. Ik zou ivm de veel verder uitgewerkte software stack een low budget kaart naast upper midrange AMD G-kaart en budget intel G-kaart plaatsten.
4k zie ik zeker wel en denk ik 8k zelfs nog maar het is gewoon te lage fps. Naar mijn mening zijnde gpu's er nog niet goed genoeg voor tenzij je oude games speelt maar die hebben dan weer geen 4k textures.
Ik heb als doel rond de 100 voor gewone games en shooters minimaal 140 fps.

Persoonlijk ben ik ondanks de belabberde drivers (mijn 6900xt is sinds dag 1 nog steeds niet stabiel door de drivers die steeds resetten) meer dan van een amd videokaart. Ray tracing vind ik echt nutteloos. Gister nog even mee zitten spelen in allen wake 2 maar het voegt voor mij niets toe net als hdr. Ik vind het er soms lelijker van worden en soms mooier. Dus die me dan maar gewoon fps.
Vooral RSR is een feature die ik heel vaak gebruik. Nvidia NIS als tegenhanger is gewoon niet bruikbaar van wat ik gezien heb waar RSR dat wel is. Het laat me 1220p if 1296p renderen wat mee weet een bak wattage van de gpu scheelt icm een fps cap. Scheelt toch weer geld en gezien ik 4 a 5 jaar met een gpu doe tikt dat bedt aan.
Ben totaal geen fan van alles wat Nvidia momenteel doet driver en Windows app included. Bovendien zijn ze gewoon te duur.

Helaas koop ik geen midrange kaarten dus ik ben bang dat amd me niets te biet heeft en ik met de tijd. (jaar of 2) toch weer naar nvidit zal moeten. Laat wel zien hoe slecht het is dat amd niet mee wil doet op de high end markt.
Als je met drivers resetten je adrenalin settings bedoeld -> fast boot in windows uitzetten.

Ik ben ook fan van AMD maar Nvidia's hardware is gewoon beter atm, boven de midrange. Vooral met europese stroomprijzen.

Een getunede 4080S doet 220-250 watt voor dezelfde fps als een XTX op 350 watt. (raster, ue4, 1440p, eigen tests). Een getunede XTX kan weliswaar 10-20 fps meer pakken als maar dan kijk je tegen 450 watt aan. En daar krijg je dan nog betere RTX bij (ook geprobeerd, zelfde mening als jou, vind er niks aan, doe mij maar fps).
Ook met fps cap zag ik de 4080s vaak de helft aan stroom verbruiken voor hetzelfde resultaat (pakweg 50-100 watt minder, 1440p/60, vooral op oudere games is Nvidia retezuinig)

Op midrange is GRE is dan wel weer een heel leuke kaart. Maar deze generatie over het algemeen slecht qua vooruitgang in perf/$

[Reactie gewijzigd door junneh op 22 juli 2024 15:18]

Ja ik draai een mhz cap om stroom te besparen gezien ik 350 watt vs 160 watt voor 250 mhz meer en 5% prestaties onrealistisch en onnodig vind maar constant wordt dat at random gereset.

Fast boot staat al uit.
Ik snap niet dat kaarten niet gewoon allemaal een dual bios hebben voor die prijs met een sweet spot bios die geen stopcontact leeg zuigt dan is dat allemaal niet nodig. Verder werkt het wel prima hoor maar het kost me gewoon geld voor niets als ik het even niet door heb.
Serieus een 24 jaar oude kaart vergelijken met de huidige?
Toen kreeg je de drivers er nog bij op cd.
En in die tijd deden ze wel hun best om niet code bovenop code te plakken zoals nu alla zolang het maar "werkt".

Ah wat was dat toch een mooie tijd!
Bruh, dit wordt een late pc-build..... :(
Ik deel je pijn, ik hoop dat mijn rx580 het volhoudt
Mijn Vega56 moet nog even mee door.
Mijn intel 740 wil ook nog even mee
Volgens mij wordt de AI hype in GPU nog groter als ook de games het in hun gameplay gaan verwerken. Er zijn al her en der demos van NPC's die hun dialoog en backstory in een chat LLM kunnen draaien. Dan de continuïteit rond ML upscaling die verder evolueert, wat zijn nog echte pixels. De evolutie is duidelijk dat hier meer hardware ondersteuning voor nodig is. Ergens denk ik ook dat AI accelerated workloads in de next gen consoles een selling point gaat worden. Vooral om game wereld te verreiken en te personaliseren obv progressie. Een spelwereld waar eigenlijk geen einde bestaat. AI kan continu en op maat progressie en verhaal bijsturen of verzinnen.

Ik vraag mij dus af of we momenteel in die fase komen te zitten waar een TPU Tensor Processing Unit required is. Gezien dat sommige games niet of niet goed kunnen draaien als er geen TPU beschikbaar is. Net zoals er ooit een 3D kaart nodig was om sneller uw games te draaien en uw CPU weer vrij te maken.

Het zijn mijn brainfarts...
Heb je wel npu hardware nodig anders gaan je llms het niet trekken.
Ik vermoed dat het voor beiden eerder ook een kwestie is van kat uit de boom kijken naar wat marktleider nvdia uitbrengt en tegen welke prijs/performance ratio om zich zo beter te kunnen positioneren met hun lineup en misschien zelfs nog wat last minute tweaks in het desing aanbrengen als de kloof te groot is (bv meer enabled shaders/tmu/rop).
Mijn Rx 6800 moet nog maar een tijdje draven.
Ik vind de Rx 7000 serie grotendeels een gemiste kans.

Op dit item kan niet meer gereageerd worden.