AMD kondigt Radeon RX 7000-videokaarten op basis van RDNA3 in november aan

AMD bevestigt dat het bedrijf over een aantal weken zijn RDNA3-videokaarten officieel aankondigt. Het bedrijf houdt op donderdag 3 november een presentatie waarin het zijn volgende Radeon-desktopvideokaarten presenteert.

AMD RDNA3 november

AMD-topman Scott Herkelman bevestigt dat AMD zijn RDNA3-architectuur op 3 november 'aan de wereld voorstelt'. Het bedrijf deelt daarover verder nog geen informatie. Het is bijvoorbeeld niet bekend op welk tijdstip de RX 7000-serie wordt aangekondigd.

Details over RDNA 3 zijn nog schaars, maar AMD bevestigde eerder wel dat deze architectuur gebruik zal maken van chiplets. Onlangs verscheen al een diagram van een RX 7900 XT-pcb, waarop een gpu met graphicsdie en zes kleine geheugenchiplets te zien is. AMD claimt daarnaast dat RDNA3 ruim 50 procent betere prestaties per watt levert dan de huidige RDNA 2-generatie.

AMD maakt deze aankondiging slechts enkele uren voordat Nvidia zijn volgende generatie videokaarten presenteert. Dat bedrijf houdt dinsdagmiddag om 17.00 uur een GeForce Beyond-presentatie, waarin het zijn eerste RTX 40-videokaarten zal aankondigen. Naar verwachting komen de eerste nieuwe RTX-videokaarten in de loop van oktober beschikbaar. AMD's tegenhangers zullen dus op zijn vroegst in november volgen.

Door Daan van Monsjou

Redacteur

20-09-2022 • 15:40

146 Linkedin

Reacties (146)

Wijzig sortering
worden deze kaarten ook stroomvreters?
Reageer
Ja en nee. Ze zouden een stuk efficiënter moeten worden maar de chips worden behoorlijk groot, op alle segmenten groter dan de vorige generatie. Hoge prestaties maar ik verwacht geen zuinige kaarten.
Reageer
Ik vind het echt jammer..je zou denken nieuwe tech zuiniger zou zijn.
Zowel nvid en amd meer power maar niet zuiniger.
Waar gaat dat straks heen? windmolen en zonnepanelen voor de pc?
Reageer
Ze zijn zuiniger. Je kan zuiniger zijn en veel stroom gebruiken. Dit zijn geen zaken die elkaar uitsluiten.

[Reactie gewijzigd door napata op 20 september 2022 16:22]

Reageer
Probleem is dat alles sneller en mooier moet, Mijn auto rijd ook zuiniger als ik 80 rij in plaats van 100 of 120 maar ja ik rij nog steeds 120 omdat dat sneller is. Als ze de zelfde output als de vorige generatie zouden krijgen dan zouden ze dus zuiniger kunnen zijn, maar ja dan behaal je geen prestatie winst dus worden ze sneller en zullen ze waarschijnlijk meer stroom gaan gebruiken.
Reageer
Hoe hard zou je rijden als er geen limiet is?

Misschien wordt het tijd om een maximum verbruik van een videokaart af te spreken. Waarom? Omdat het beter voor ons is als maatschappij.
Reageer
En dan? Dan worden SLI en CrossFire weer geherintroduceerd, waarop we dan weer moederborden met meerdere PCI express sloten en/of voedingen met een vermogen groter dan 500W gaan verbieden? Een vergunningen aanvragen voor workstations?
Reageer
In het workstation segment zijn er nog steeds SLI en Crossfire kaarten.
In het gamesegment alleen de TOPTOP-tier kaarten. Maar die zullen waarschijnlijk volgend jaar ook niet meer het ondersteunen. Daarnaast is er nu de 12pin voeding, voor GPU's waar over 600W kan. Waardoor je waarschijnlijk bij de nieuwe kaarten ook een nieuwe voeding kan gaan kopen.
Reageer
In het workstation segment zijn er nog steeds SLI en Crossfire kaarten.
In het gamesegment alleen de TOPTOP-tier kaarten
De 4000 serie zal geen NVLink bevatten. https://www.pcworld.com/a...eries-details-nvidia.html
Reageer
Simpele oplossing, verbiedt de import en verkoop van PSUs boven de 400W. Zeg maar, zoals met de stofzuigers.
Reageer
que 4 maanden voordat de eerste pc case's met ruimte voor 2 -3 voedingen worden aangeboden.....
Reageer
Bij bijvoorbeeld 3D renders moet de volledige PC dan langer aan blijven omdat de GPU beperkt is in snelheid.
Ik verkies een korte rendertijd met hoog verbruik boven een lange rendertijd met laag verbruik...
Reageer
Da's leuk voor mensen met een drie monitor setup voor simracing. Mocht dat door die limiet niet mogelijk zijn zullen sommigen er voor kiezen dan maar op een echt circuit te gaan rijden. Dan is het verbruik hoe dan ook hoger (of het nou elektrisch is of niet) en aan de warmte die eraf komt heb je ook niks.

Vergeet niet dat mensen in de winter soms bijverwarmen met een elektrische kachel. Een videokaart die 300-400 watt(maximaal, niet continu) verbruikt doet daarnaast nog iets anders nuttigs. Toegegeven de helft van het jaar is die warmte niet nodig. al kan je met een ventilatiewarmtepomp ook in de zomer die warmte voor je warmwatervoorziening gebruiken. En natuurlijk zijn er mensen die het nodig vinden dan de airco aan te zetten(dát vind ik pas overdreven, maar ieder zijn ding), maar misschien moeten we ook niet álles voor mensen willen bepalen? De energieprijs zou gewoon zo moeten zijn dat je zelf prima kan bepalen wat voor verspilling is en wat niet. Dus niet te goedkoop. Dan valt alles vanzelf op zijn plaats.
Reageer
Een dagje op een echt circuit rijden is al rap een paar duizend euro. (500-700 euro baanhuur, huur auto (kan zo 1000+ zijn) en dan nog de banden, catering, vervoer, verzekering).

Nee, simracing is dan een stuk goedkoper. Ook met beperkingen niet snel de meerprijs waard denk.
Reageer
Tja, sommigen hebben zonnepanelen op het dak, mogen die dan meer gebruiken? Of moeten die dat voor 9 cent aan Eneco verkopen zodat die dat bij de buurman voor 67 cent kunnen wegzetten?

Je bent gewoon vrij om wel of niet te kopen wat jij wilt, maak je eigen keuzes en stem met je portemonnee.
Reageer
Een vreemd voorbeeld dat je aanhaalt. In een gereguleerde markt met voldoende aanbieders klopt het wat je zegt maar daar is hier geen sprake van. En daarbij is de GPU markt oligopolistisch en daardoor kun je maar heel beperkt met je koopgedrag invloed uitoefenen.

Iedere markt heeft verder een of andere vorm van regulering nodig om zaken in goede banen te leiden en om verandering te bewerkstelligen die beter is voor het grotere geheel dan voor de fabrikant. Een fabrikant kijkt alleen maar naar winst en niet naar of dat eigenlijk wel goed is voor bijv het milieu of de mens. De auto industrie bijvoorbeeld zou zonder alle regulering gewoon nog 100 jaar ICE autos verkopen met zo min mogelijk veiligheidssystemen aan boord als door de wetgever niet anders zou zijn bepaalt. Ze hebben in ieder geval genoeg tegen alle veranderingen gelobbyd. Ze zijn zeker niet vrijwillig gaan downsizen en electrificeren. Ander voorbeeld is de regulering in de voedselindustrie die er is om de consument letterlijk te beschermen. Daar hebben we ook genoeg voorbeelden gezien dat geld voor veiligheid gaat en als men denkt ermee weg te kunnen komen.

Je hoeft van de markt geen verandering te verwachten als de huidige manier de winsten blijft garanderen en dat van de nieuwe manier onzeker is. En hoe groter het bedrijf hoe koersvaster dat ze zijn. Wat "Verder" zegt is dus helemaal zo vreemd niet, of het op korte termijn gaat gebeuren is een ander verhaal.
Reageer
Zo los is het inderdaad een vreemde reactie. Er stond een reactie voor waarin werd gesuggereerd dat het beter was een maximum verbruik in te stellen en dat dit beter voor de maatschappij zou zijn. Daar zitten wat haken en ogen aan.
Reageer
Dat van die haken en ogen klopt maar hij geeft gewoon aan dat het wellicht beter is om ervoor te zorgen dat dit soort hardware niet teveel stroom verbruikt. Het is iets dat we zouden kunnen reguleren maar dat regelen duurt natuurlijk wel even. De reden dat ik de reactie vreemd vind is vanwege de opmerking over zonnepanelen en dan meer mogen verbruiken?
Reageer
haha, ja mensen huilen echt om energie en trappen in dat klimaatverhaal... zielig doen om een videokaart die 300-400w verstookt.XD
En dan in de achtertuin verstoken ze 10000w aan het zwembad, ik heb de fotos wel voorbij zien komen hier

[Reactie gewijzigd door CryptoArnold op 21 september 2022 18:18]

Reageer
Dat is de wet breken omdat je het kan betalen, dat heeft weinig met stemmen met je portemonnee te maken.
Reageer
Dat eerste argument wel, dat tweede heeft er toch weinig mee te maken. Maar als we alleen maar gaan handelen op economisch en financieel vlak gaan we nooit verduurzamen omdat het goedkoper is door te gaan met vervuilen.

En schijnbaar zijn er een aantal mensen het fors oneens gezien de moderatie. We moeten eens stoppen met achterlijke hoeveelheden energie verspillen in hardware. Vooral omdat het verschil tussen 200 en 300 watt misschien maar 10% meer fps is. (Spreekwoordelijk)
Reageer
Ze zijn energie-efficiënter. Maart van zodra ze meer stroom verbruiken zijn ze minder zuinig.
Reageer
Ze zijn zuiniger! Klok ze een beetje terug naar huidige watt niveaus en je hebt alsnog betere performance. Niemand dwingt jou gpus op max power te draaien he? Ik draai ook een 3090 ti op max 275 watt.
Reageer
dat zeg ik ook niet he {Niemand dwingt jou gpus op max power te draaien he}
Mij gaat het om dat na mijn kaart {1070ti } de watt erg hard stijgt en zo ook de stroom rekening!

Jij gaat jouw kaart undervolten daar is ie toch niet voor gemaakt of wel?
Mijn kaartje heeft/gebruikt max 175/180 watt under full load.

Het is niet dat ik een andere kaart zoek...game nog steeds alles max op 1080 p.
wil ik op 2k/4k dan wel.

Mijn hele punt is......ze zijn beide { amd en nvid } grote bedrijven en wat maken ze?
stroomvreters je zou toch denken dat ze slimmer zijn als ons of niet?
of werken daar no brainers?
Reageer
Het maakt niet uit waar de kaart gemaakt voor is. Ik hecht aan goede performance per watt binnen een budget van 250- 275 watt. De 3090 ti heeft op dat wattage een betere performance dan een 3070 of 3080 op 250 - 275 watt

[Reactie gewijzigd door PjotterP op 20 september 2022 17:21]

Reageer
Jij gaat jouw kaart undervolten daar is ie toch niet voor gemaakt of wel?
Dat videokaarten tegenwoordig standaard vaak behoorlijk worden overgeclocked betekent niet dat je daaraan mee hoeft te doen. Niet voor niet heet deze site 'tweakers' en niet 'passieve consumenten die accepteren wat bedrijven voor ons proberen te bepalen.'
Reageer
Technisch gezien zijn ze nog steeds efficiënter en kun je zelf het power limit verlagen naar dezelfde niveaus als voorgaande generaties en nog steeds meer performance krijgen.
Reageer
Als jij deze nieuwe kaart gaat limiteren tot de prestaties van oudere kaarten dan ben je gigantisch veel zuiniger uit dan die oude kaart dat is.

Hyperbool: als je de prestaties tot een 780 TI die op 250W zit, zou terug schroeven, dan trekt de nieuwe kaart 25W

[Reactie gewijzigd door dakka op 20 september 2022 17:25]

Reageer
Wel zuiniger per performance lijkt me.
Reageer
Hoe is dit zuiniger wat je typt? { Wel zuiniger per performance lijkt me}

voorbeeld 3090 ti 450/480 TDP nu
Dus die 4000 serie dat word nog hoger of niet?

Dus hoeveel krijgt deze nieuwe AMD kaart aan TPD?
Reageer
Er staat toch letterlijk in het artikel dat er 50% prestatiewinst per Watt is tov de vorige generatie? Ik snap je tirade niet...
Reageer
Zucht... Geen idee waarom je überhaupt een reactie plaatst als je een kritische reactie niet kan dulden.

Fijne dag verder.
Reageer
Je kan je videokaart gewoon op max 50% TDP laten draaien als je dat belangrijk vindt, heb je vergelijkbare prestaties als de huidige GPU's en minder verbruik, of op max 75% TDP dan heb je waarschijnlijk wat meer snelheid en wat zuiniger of vergelijkbaar verbruik.

Het is je eigen feestje maar ik ga er van uit dat de meeste dat helemaal niet gaan doen, want prestaties zijn waarschijnlijk belangrijker dan verbruik.
Reageer
Per core zullen ze zuiniger zijn, maar als er vervolgens meer van zijn … dan kan de kaart toch meer stroom vreten.
Reageer
Gebruik je hetzelfde argument ook voor je vaatwasser, wasmachine,droger,AC?

Ja ze gaan meer verbruiken waarschijnlijk 50w omhoog.

Ja het is jammer maar niet helemaal aan te ontkomen.
Reageer
de gpu chiplet word net een pak kleiner tov de vorige gens. (in totaal samen met de cach dy's word het wel iets groter)
Vermits de main dy op een kleiner proces is geproduceerd en de architectuur verder is geoptimaliseerd voor meer prestaties per watt zou deze veel zuiniger moeten zijn.

Maar in praktijk zal deze vermoedelijk wel meer gaan verbruiken dan de vorige generatie omdat AMD deze generatie zeer hoge clocks zou geven...
Reageer
Je bedoelt "die" (ipv "dy"). Niet om te mierenneuken, maar ik snapte echt even niet wat je bedoelde en je kan er weer wat van leren, toch? Joe!

[Reactie gewijzigd door DominoNL op 20 september 2022 17:07]

Reageer
Er zullen ook wel non XT kaarten komen, die verbruiken minder en presteren ook gewoon goed, heb nu zelf een RX 6600 en game op 1080p.
Dus waarschijnlijk een RX 7600 of 7800 :)
Reageer
Alsnog wordt de chip voor de RX7600 (zo noem ik hem maar even) fors groter dan die van de RX6600.

AMD en NVidia hebben deze generatie geleerd dat als er geen low-end segment bestaat er dan wel gewoon mid-range gekocht wordt met flink hogere marges.
Reageer
Als het goed is zuiniger als je kijkt naar performance per watt. Maar het top model gaat waarschijnlijk wel meer verbruiken als ik het nieuws zo hoor. Echter heb je dan dus ook een stuk betere prestatie. Maar je kan natuurlijk ook een mid range model nemen.
Reageer
Hogere prestaties tegen gelijk verbruik, of gelijke prestaties tegen lager verbruik. Net wat je belangrijker vindt.

Persoonlijk hoop ik 6800 prestaties te kunnen scoren tegen het verbruik (en de prijs) van een 6600 kaart. Al heb ik van dat laatste geen idee wat het gaat worden, met een lager verbruik kan men immers ook weer rechtvaardigen een hogere initiële prijs te vragen: Op de lange duur spaar je geld uit.
Reageer
Hogere prestaties tegen gelijk verbruik, of gelijke prestaties tegen lager verbruik. Net wat je belangrijker vindt.
Niet helemaal, de lager gepositioneerde (lees: zuinigere) modellen van de nieuwe generatie zullen naar alle waarschijnlijkheid meer verbruiken, en natuurlijk ook krachtiger zijn, dan die van de huidige generatie. Dus minder verbruiken zit er dan niet in. De chips in alle segmenten verschuiven vooral naar krachtiger, zeker niet naar zuiniger.

Als je voorheen een GPU uit het topsegment had kun je nu natuurlijk energie besparen door een GPU uit het middensegment te nemen, natuurlijk. Dat is bij praktisch elke generatie zo.

[Reactie gewijzigd door bwerg op 20 september 2022 16:24]

Reageer
AMD claimt daarnaast dat RDNA3 ruim 50 procent betere prestaties per watt levert dan de huidige RDNA 2-generatie.
Zuiniger ja, maar wat zo’n kaart onder volledige belasting netto vreet blijft een vraag.
Reageer
Ik wil idle verbruik en verbruik onder load wel eens zien van nvidia en amd. Idem voor processors.
Reageer
Niet zulke stroomvreters als Nvidia kaarten, AMD vindt het helemaal best dat Nvidia als de "Hot 'n Loud" company bekent komt te staan. Nvidia haalt alles uit de kast om op de top te blijven en efficiënte vliegt de deur uit. AMD doet dat niet in verband met de huidige economische ontwikkelingen.
Reageer
Als je ziet hoeveel performance dat moderne videokaarten wegzetten zijn ze echt bizar zuinig.
Er worden elke generatie weer slagen in de energiebesparing gemaakt. Ik ben daar erg van onder de indruk.

Stel, je kan 2 keer zo hard rekenen voor anderhalf keer zo veel stroom. Dan bespaar je 25% energie per iteratie. Als je dat 10 generaties doet, kunje 1024 keer zo veel rekenen, voor maar 58 keer zo veel stroom.

Dan wordt er dus een factor 1024 / 58 = bijna 18 keer zo zuinig gerekend. dat vind ik een enorme prestatie!

[Reactie gewijzigd door hooibergje op 20 september 2022 16:56]

Reageer
Op zich klinkt 300 tot 450 watt als veel, maar als je datzelfde rekenwerk zou moeten doen met videokaarten van 10, 15 jaar oud, dan zou je heel veel meer stroom kwijt zijn.
Reageer
Weetje wat zuinig is? Je pc uitzetten en een stukje gaan wandelen. Heb je wel zin in vermaak met gamen kost dat nou eenmaal wat, of het nou via ps5 of xbox of pc is.
Reageer
weet je wat ook zuinig is...in een cave/grot wonen geen gas geen electra enz
Reageer
Ben je vergeten dat een GTX 580 ook 300w+ trok, net als een HD 6970?

En in die tijd had je dus ook nog SLI/Crossfire-kaarten op basis van deze GPUs.

Het stroomverbruik is ongeveer gelijk gebleven, al 12 jaar ofzo. Men kan nu alleen veel grotere GPU's bakken en dus de performance van 2 kaarten in één die hebben.

Een 6900XT bevat exact evenveel shaders, evenveel compute units, en evenveel ROPs als een R9 295X2.
Reageer
"AMD claimt daarnaast dat RDNA3 ruim 50 procent betere prestaties per watt levert dan de huidige RDNA 2-generatie."
Ik denk dat de consument hier vooral oren naar zal hebben en bijvoorbeeld een RX7700 serie misschien mooie compromis kan gaan bieden. Ik verwacht dat Nvidia daar minder in zal scoren.
Reageer
* Based on preliminary internal engineering estimates. Actual results subject to change
Reageer
Uiteraard, maar het geeft een richtgetal... En 6 memory-chipletjes doet mij vermoeden dat ze voor een 384-bit geheugenbus gaan, wat mooi past bij die 50% extra ;) Setje extra cores erbij plakken, want de 4096-limiet is sinds de vorige generatie echt geslecht, en daar ga je.
Reageer
Het gaat hoogstwaarschijnlijk nog steeds om 192bit net zoals bij de 6700XT, maar erg is dat niet dankzij de infinity cache.
Reageer
Ik heb liever een bredere bus dan cache eerlijk gezegd
Reageer
Begrijpelijk maar dat zal je logischerwijs niet gaan vinden bij de middenmoot.
Reageer
Daar merk je niet veel van als je 1440p of lager gamed, de 70 class kan opzich vaak wel net 4k aan, maar zelfs dan is het vaak niet de memory die de gpu in de steek laat
Reageer
Een RX7700 met +- 6800XT prestaties maar dan met 180-225 watt ipv 300 zou wel nice zijn.

Die 50% zal je denk ik alleen bij laptop chips en igpu's terug zien vrees dat amd de desktop versies wel wat meer zal pushen om nVidia bij te blijven maar hopelijk geen 400+ watt voor het topmodel.
Reageer
Volgens sources binnen AMD zelf gaat AMD niet de kaarten hard pushen zoals ze dat vaker gedaan hebben en houden een 7950X achter de hand in het geval Nvidia nog met iets anders uit komt. Nvidia gaat bekent komen te Staan deze generatie als de Hot and Loud kaarten, AMD wilt deze kans pakken om dit stigma weg te poetsen bij Radeon.
Reageer
Die kans zit er voor het topmodel wel in ja.
Maar van de oude generatie zijn eigenlijk alleen de 6400, 6800 en 6900XT niet te hard gepushed.

De 6700XT is met een tdp van 225 watt tov de 6800 met 250 niet echt efficiënt. Ook de 6500 en 6600 serie hebben ze redelijk gepushed. De xx50 modellen zijn sowieso wat verder gepushed dan de originele versies. Opzich begrijpelijk maar vanuit een efficiëntie perspectief niet optimaal.

Een 6700XT op 180-200 watt was in dat opzich beter geweest met een max voltage van 1050/1100mv. Overigens ook voor die koeler die de reference versie had. Dat hebben ze met de 6750XT opgelost door de 6800 koeler te gebruiken.

Ik verwacht dat de tdp's van de gelijk genummerde 7000 kaarten toch iets hoger zullen zijn dan hun 6000 voorgangers. Dus Bv een 250 watt tdp voor de 7700XT, 350/375 watt voor de 7900/7950XT.

Maar wie weet valt het mee en blijven sommige gelijk of gaan ze iets omlaag (al verwacht ik dat laatste niet direct).

[Reactie gewijzigd door Astennu op 22 september 2022 10:42]

Reageer
Klopt maar efficiency kan drastisch stijgen zelfs met een stijging van consumptie, zolang de performance per wat maar verbeterd.
Reageer
Ben ik het persoonlijk niet mee eens. Ik wil gewoon niet meer dan 300 watt aan videokaart in mijn systeem hebben. Verbruikt te veel en geeft te veel hitte.

Verwarmen met een airco is 2-4x efficiënter dan met warmte van een pc.

Dus ja ik wil betere performance per watt maar geen kaart die meer kan verbruiken. Zou eerder een stapje omlaag willen zeker gezien de huidige energie prijzen. Ben nu wel heel blij met mijn titanium psu die zo efficiënt mogelijk is. Waar je hem eerst niet zo terug verdienen gaat dat nu helaas makkelijk lukken met 1 euro per kw :/.
Reageer
Hoezo ben je het niet eens met het feit dat als power consumptie met 100 watt omhoog gaat maar performance gaat met 100% omhoog dan is het simpele wiskunde dat wanneer je baseline 400W is dat de efficiency dus gestegen is.

Het feit dat jij geen 300+ watt kaart in je system wilt hebben is irrelevant voor de Wiskundige correctheid van mijn statement
Reageer
Iedereen is altijd zo positief over AMD maar elke generatie weer zie ik toch dat nvidia betere gameprestaties heeft. Waarom zou je voor AMD gaan als gamer wanneer geld en verbruik geen probleem zijn? Hetzelfde met intel vs AMD. Als je gewoon de beste resultaten out of the box wilt is Intel/nvidia gewoon de beste combi toch?
Reageer
Beschikbaarheid, prijs prestatie verhouding, energieverbruik, persoonlijke voorkeur en ga zo maar door.
Reageer
Ja dat zeg ik dus, het maakt mij niet uit wat het kost qua aanschaf en verbruik. Als ik gewoon het beste wil als gamer dan is Intel + Nvidia de beste combi.
Reageer
Alleen maakt dat de meeste mensen dus wel iets uit, daarom dat het beeld bij AMD positiever is. Als jij graag 2000+ euro uitgeeft voor een videokaart die misschien 5% beter presteert dan een videokaart van <1000 euro moet je dat zelf weten maar de meesten nemen dat kleine beetje performance voor lief omdat 5% nauwelijks merkbaar is. Die mensen kunnen van het uitgespaarde bedrag dan weer leuk op vakantie bijvoorbeeld.
Reageer
Zowel Intel als nvidia zijn echter behoorlijk hun kruid aan het verschieten. Beide zijn de laatste paar generaties schuldig aan het opkrikken van we power consumption, de laatste knop die ze nog hebben om extra prestaties uit hun chips te persen.

Ondertussen is AMD gestaag en consistent bezig aan een opmars van voorspelbare toenamen die economisch beter schaalbaar zijn en waarschijnlijk duurzamer zullen blijken.

Het verhaal van de haas en de schildpad komt bij me op. AMD komt steeds dichter bij de finish lijn, als schildpad zijnde. Ik ben erg benieuwd hoe dit toneel zal uitspelen!
Reageer
Voor zo ver mijn kennis gaat was inderdaad Nvidia beter bij de 'huidige' generatie, zeker met ray tracing. Over de volgende generatie durf ik geen uitspraken te doen.

AMD is ook lange tijd weer beter geweest met processors dan Intel. En we gaan het bij de volgende generatie wel weer zien hoe het precies gaat vallen.

En ja, als het jou niks boeit wat het verbruikt is jou keuze, echter als je een paar procent meer haalt voor een aanzienlijk hoger verbruik zal het je toch wel sieren om dat in je overwegingen mee te nemen. Niet alleen voor je eigen energie rekening maar ook voor het milieu en alle andere problematiek die nu speelt. Maar iedereen is nog vrij om daarin zelf keuzes te maken dus geheel aan jou.
Reageer
Iedereen is altijd zo positief over AMD maar elke generatie weer zie ik toch dat nvidia betere gameprestaties heeft.
...
Hetzelfde met intel vs AMD.
Wie ga je wijsmaken dat bij de introductie van Ryzen 5000 Intel nog steeds sneller was? En zelfs nu is een 5800X3D in games toch op zijn minst even snel als een Alder Lake i9, zo niet sneller. Aan Ryzen 7000x3d gaat Intel ook een flinke kluif krijgen.

TL;DR: nee.

Dit is echt het marketingbudget van Intel en Nvidia aan het werk, en dat is al decennia zo. Wie er technisch beter is verschilt echt wel per generatie. Dus over RX7000 is nu echt nog niks te zeggen.

[Reactie gewijzigd door bwerg op 20 september 2022 16:36]

Reageer
Volgens mij is de RX 6800 XT gemiddeld sneller dan de RTX 3080 en dat geldt ook voor de RX 6900 XT vs RTX 3090 en daarop volgende videokaarten. Nvidia kaarten doen het gemiddeld alleen beter op 4k en met RT.
Reageer
Omdat optimalisaties. Mijn RX580 presteerd niet slechter dan een GTX 1080. Terwijl die GTX 1080 op papier bij hun respectievelijke releasedatums ~30% sneller was.

AMD heeft eigenlijk altijd wat problemen gehad met optimalisaties. Net als de Bulldozer CPU's, helemaal met spectre en meltdown erbij, waren die CPU's gewoon beter dan wat Intel destijds te bieden had. Alleen had destijds praktisch alleen de Frostbite engine goede optimalisaties voor die CPU en heeft zelfs Windows nog patches moeten krijgen voordat het allemaal lekker soepel werkte.

AMD zet over het algemeen steengoede hardware neer, maar de software kant loopt wat achter. Ze stoppen ontwikkelaars ook geen zakken geld toe voor "betere support", zoals Nvidia bv al tig jaar doet met de Unreal Engine en b.v. ook Unity.
Reageer
Iedereen is altijd zo positief over AMD maar elke generatie weer zie ik toch dat nvidia betere gameprestaties heeft. Waarom zou je voor AMD gaan als gamer wanneer geld en verbruik geen probleem zijn? Hetzelfde met intel vs AMD. Als je gewoon de beste resultaten out of the box wilt is Intel/nvidia gewoon de beste combi toch?
Voor de beste prestaties nu denk ik amd 5800x3d en nvidia 3090ti. Sommige intels zijn vergelijkbaar qua gemiddelde fps maar laten het op minimum fps afweten
Reageer
Dit de 1% en .1% lows, zijn om te huilen bij Intel op het moment
Reageer
De betere prijs/prestatie verhouding.

Ik speel op Control na geen enkel spel met raytracing, rasterization is voor mij king.

Voor compute gebruik ik CUDA, dus in mijn WS zit wel nVidia.
Reageer
Omdat voor sommige gamers geld en verbruik misschien wél een issue zijn...?
Reageer
Niet iedereen wil het beste maar hebben ook niets met bepaalde bedrijven. En gunnen AMD gewoon wat meer marktaandeel.
Reageer
idd 30-40 fps in dying light 2 met raytracing op een 6800xt is echt huilen
Reageer
Op processor gebied is het gewoonweg AMD die op dit moment de kampioen is. En op GPU gebied is dat inderdaad Nvidia op dit moment, echter ik zie AMD wel de prestatiekroon pakken met de aankomende generatie of die generatie daarna. Net zoals Ryzen als "aging like ine wine" steeds beter werd verwacht ik dat ook van de GPU's (AMD's woorden).
Reageer
Nee hoor, in sommige games presteerd AMD toch echt beter dan Nvidia, AMD heeft over het algemeen in CPU land nog steeds een voorsprong op Intel. Hangt altijd af van de meest recente prijs ontwikkelingen of je AMD of Intel kiest of AMD of Nvidia.

Dat buiten gelaten, de grootste deel van de markt koopt geen 90 klasse kaart, maar 60 of 70, hier is AMD altijd competitief met goede prijzen en vaak lager stroom gebruik.

Het ligt er vaak dus aan welke games je van plan bent te spelen of je voor AMD of Nvidia kiest.
Reageer
Ik ben benieuwd hoe AMD dit gaat spelen, Nvidia heeft min of meer publiekelijk toegegeven dat ze productie van RTX40 en prijsstelling manipuleren om van oude voorraad af te komen.

Zou best een verschuiving op de markt kunnen betekenen als het AMD lukt RDNA3 voor RTX3 prijzen te leveren.
Reageer
dat ze productie van RTX40 en prijsstelling manipuleren om van oude voorraad af te komen
Waar is het probleem? Elk bedrijf ter wereld doet dit en zou dit doen en doet dit, dit is gewoon vrije markt. Die AMD 5xxx CPUs die onlangs in promotie waren is ook prijsmanipulatie om stock kwijt te geraken.
Zolang ze geen goede voorraad / chips opzettelijk vernietigen (wat mileutechnisch gewoon triestig zou zijn) maakt het me niet veel uit (al vrees ik wel dat ze dit, ihb met losse chips, wel eens zouden durven doen).

En ik ben ook heel benieuwd naar wat AMD kan presenteren naar prestaties, verbruik en prijzen. Bij NVidia heb ik het gevoel dat de spring vooral in maximaal verbruik omhoog gaat gaan...

[Reactie gewijzigd door Clemens123 op 20 september 2022 16:01]

Reageer
?
manipuleren=handig, slim beïnvloeden, ik ben benieuwd of AMD hier een slaatje uit weet te slaan.

[Reactie gewijzigd door Xander2 op 20 september 2022 16:04]

Reageer
Het probleem is dat de uitlopende serie niet in de uitverkoop gaat, maar dat nvidia de beschikbaarheid kunstmatig laag houdt en daarmee de prijzen hoog. Ze willen hiermee de 4000 serie nog hoger geprijsd mee in de markt zetten want nieuwer dus duurder.
Nvidia zet nog liever na introductie van de 4080 een 3080 chip cut down in de markt als 3070ti dan dat de 3080 echt in de uitverkoop gaat, en daardoor de introductieprijs van de 4080 in "gevaar komt"
Reageer
Je zegt "Nvidia heeft min of meer publiekelijk toegegeven"...die zin geeft mij het gevoel dat ze iets mis gedaan hebben.
Maar elk bedrijf ter wereld zet zijn eigen prijzen (of manipuleert ze) zodat ze de winst kunnen maximaliseren, zowel van nieuwe producten als actuele. Daar valt niet veel aan toe te geven.

En AMD zal eerder het voorbeeld volgen, want ook zij zullen nog voorraden over hebben en ook niet extra scherp in prijs gaan als de conurrentie dat ook niet doet.
En Nvidia is de toonangever wat betreft de prijs, dus AMD kan zich er makkelijk op baseren.

[Reactie gewijzigd door Clemens123 op 20 september 2022 16:10]

Reageer
Je zegt "Nvidia heeft min of meer publiekelijk toegegeven"...die zin geeft mij het gevoel dat ze iets mis gedaan hebben.
Niet letterlijk toegegeven, maar wel publiek aangegeven dat ze het zo gaan doen.

Ik ben gewoon benieuwd hoe dit gaat lopen, want die markt zit vast en aanbod is niet meer het probleem.
Reageer
Nou, nee, in een gezonde markt heeft het geen zin om de verkoop van je eigen productie op een laag pitje te zetten om zo de prijzen hoog te houden. Want dan gaat een concurrent wel meer produceren of goedkoper verkopen zodat die er met de winst vandoor gaat. Let wel, als AMD de prijzen omlaag gooit dan moet NVidia mee of ze komen nooit meer van hun voorraden af. En omgekeerd ook, natuurlijk.

Helaas is GPU-land vooralsnog een duo-poli, en dat is voor de concurrentie niet zo best, want AMD en NVidia vinden het wel prima zo.

Het zou leuk zijn als Intel serieus meeconcurreert om de prijzen wat omlaag te krijgen. Maar dat gaat met de huidige voortgang bij Intel nog wel even duren.

[Reactie gewijzigd door bwerg op 20 september 2022 16:29]

Reageer
Dat is geen moeite die prijzen zijn zo enorm opgeblazen, daar kunnen ze hele pc's voor leveren. Ik hoop dat ze hun nieuwe kaarten veel agressiever in de markt zetten. Gewoon dik 200 a 300 euro minder dan Nvidia, om het Nvidia eens goed moeilijk te maken. Dan krijgen we wellicht een wat gezondere GPU markt, en verdeling van die markt. Want Nvidia gedraagt zich nu al jaren als een monopolist.
Reageer
Waarom zou NVidia het dan moelijk krijgen? Enerzijds zijn zij marktleider, niet alleen omwille van hun prestaties (bv bij raytracing, DLSS), maar ook omdat het tussen de oren van vele gamers zit dat ze een Nvidia kaart nodig hebben, ook omdat hun marketing top is. Veel mensen overwegen AMD niet eens. En anderzijds als zij hun kaarten desnoods moeten goedkoper maken door concurrentie, dan nog krijgen ze het niet moeilijk, enkel zijn misschien bepaalde aandeelhouders/investeerders wat minder tevreden als de winst iets lager uitvalt.

Ik vrees eerder dat AMD zich ook richt naar de prijzen van Nvidia.
Nu ik hoop het tegendeel, ik tendeer naar AMD voor mijn volgende GPU, maar nog paar maandjes wachten, we zien wel.

[Reactie gewijzigd door Clemens123 op 20 september 2022 16:14]

Reageer
Hi, een gamer hier. Het zit niet tussen de oren, maar meer tussen het toetsenbord en het scherm. Ik speel competitive en heb van beiden merken, meerdere kaarten gehad het afgelopen jaar. Nvdia presteert gewoon veel stabieler, helaas. Doorvoor gaat mijn voorkeur naar hun uit.

CPU trouwens AMD :)
Reageer
Stabieler war betreft constate frame times? Of spelstabiliteit naar crashes toe? En welke kaarten concreet heb je ervaring mee?

En ik bedoel vooral er mee dat als je veel mensen vraagt welke gpu ze hebben, ze gewoon antwoorden met "Nvidia", wat veel zegt over hoe ze ook hun nieuwe GPU zullen kiezen, vaak weten ze zelf niet over het bestaan van mogelijke alternatieven. Ik geloof best dat ze net beter zijn op verschillende vlakken, maar wacht voor nieuwe kaarten toch graag reviews af.

[Reactie gewijzigd door Clemens123 op 20 september 2022 17:08]

Reageer
6800 en 6900XT. Vond de 3080 TI fijner. Ik had heel wat crashes met de 6900XT (vaak na driver update) en kreeg geen 240FPS stabiel, terwijl ik dat met de 3080 TI wel haalde. Dit terwijl ik in benchmarks 10-20% beter scores haalde met de 6900XT. Ik speel voornamelijk high FPS games.
Reageer
Ze hebben met hun concurrentie strijd met Intel bewezen dat ze goed tegen gas kunnen geven. Inmiddels snoept AMD 5% bij Intel weg, per jaar. Ik hoop dan ook dat het net als op de CPU markt weer wat gezonde concurrentie kan bieden.
Reageer
Grote kans dat dit ook lukt, want AMD gebruikt dus Chiplets, dit zorgt voor hogere yields en flexibelere productie waardoor de productie Kosts per jaar dus een klap lager liggen.
Reageer
Waarom zou je voor AMD gaan als gamer wanneer geld en verbruik geen probleem zijn?
Dat is het hem nu juist, geld en verbruik worden hoe langer hoe meer een probleem voor veel mensen.
Als je gewoon de beste resultaten out of the box wilt is Intel/nvidia gewoon de beste combi toch?
Dat lijkt mij niet meer dan een aanname, vooral gebaseerd op resultaten uit het verleden. Bij de volgende generatie is het misschien andersom...
Reageer
De 1e generatie/keer (vroeger keek ik helemaal niet naar kaarten) dat ik echt benieuwd ben naar AMD kaarten.
Reageer
Uit nieuwschierigheid: Waarom ben je er nu zo benieuwd naar waarbij je dat afgelopen jaren blijkbaar niet bent geweest? Wat is het verschil :)
Reageer
"Waarom ben je er nu zo benieuwd naar waarbij je dat afgelopen jaren blijkbaar niet bent geweest?"

AMD deed een lange tijd niet mee aan de high end en met de 6000 serie hebben ze een giga inhaalslag gemaakt waarbij de 6950xt echt soms 10%+ sneller was dan de 3090ti, voor 30% minder geld. Nvidia lijkt nu een beetje op de plek te staan van Intel voor Zen. Super arrogant en opeens komt AMD die er voorbij knalt.
AMD heeft al gezegt dat ze minder hard moeten pushen met wattage's dan nvidia, en ik hoop stiekem dat nvidia even op ze plek gezet gaat worden.

De earnings call was arrogantie ten top, en dat zien we graag afgestraft zien worden
Reageer
AMD heeft natuurlijk wel goede kaarten maar als je de 'betere' kaarten wilt zit je gewoon bij Nvidia. Drivers, (special) features e.d. En RDNA is/zou net als Zen "aging like fine wine" of zo.

En het hele power gebeuren speelt zich nu af. Hoeveel is echt veel nu, en hoe effecient is AMD nu echt. Misschien is de kracht flink achterliggend maar zijn ze wel extreem zuinig.
Chiplets zijn interessant.
Reageer
Drivers vind ik zo een dood doener, dat is al zeker 3 jaar niet meer zo...
Reageer
En toch crashed de driver van mijn RX 5700 XT makkelijk 1 - 2 keer per avond tijdens het spelen van Apex Legens . Zijn meer mensen met een AMD kaart die daar sinds een maandje last van hebben.
Reageer
het ligt niet altijd aan de leverancier van de SW, veelal de gebruiker. Als je jezelf tweaker wil noemen kan je misschien beter eens uitzoeken waarom iets crashed.
Reageer
Dus jij weet dat 100% zeker dat het aan de driver ligt?
kan ook aan de game liggen he.
heb je al geprobeerd 1 driver lager te gaan?
of voor de beta driver?
heb je wel de driver goede instal? dus eerst oude handmatig verwijderen?
Reageer
Drivercrashes in non-beta productiedrivers zijn meestal (>99%) een symptoom van hardwarefalen (GPU, PSU, RAM). Als het echt een driverprobleem is zou je dit verwachten bij alle mensen met een AMD kaart (of iig een 5700XT), niet bij slechts een handjevol. Als je op zoek gaat naar mensen die die crashes ook ervaren zal je ze ook vinden maar dat zegt vervolgens niks over of crashes niet vorig jaar ook al voorkwamen of welk percentage gebruikers dit ervaart en dit terug weet te voeren op een specifieke driverversie.
Reageer
Dit ik heb een 5700 dus vrijwel identieke drivers en ervaar op z'n hoogst 1 crash per jaar, maar dit jaar nog nul
Reageer
Dan is er iets mis met jouw build, ik heb een 5700 non xt, vrijwel identieke drivers, maar mijn maart crashed nog geen eens 1 keer per jaar.

Denk toch echt dat je eens je bios setting moet resetten en wat diagnoses moet gaan uitvoeren voordat je AMD de schuld geeft 8)7
Reageer
Toch lees ik er genoeg over. Plus het is niet alleen drivers voor stabiliteit maar ook performance verbetering voor individuele games.
Reageer
Sommige games worden expliciet geprogrammeerd om extra goed te werken met of AMD of Nvidia.
Geloof zelfs dat er een AC versie was die zelfs zo gebakken was dat een AMD kaart er 50% performance op achteruit ging.
Reageer
Klopt, sommige devs krijgen extra ondersteuning (vanuit nvid/amd) om hun game beter te ondersteunen met drivers.
Nvid paradeert dan weermet deze game ondersteunt nvid features, fotomodus of wat ze ook allemaal hebben tegenwoordig.
Niet dat de andere game dan perse slecht draait maar het toont wrl aan dat drivers erg belangrijk zijn. Dat laat ARC ook goed zien.
Reageer
Vroeger stonden ze er om bekend.
Dan dan bedoel ik niet 3 jaar geleden maar 15 jaar geleden
(edit:: berucht is misschien een betere term)

Anyway met AI is het een no-brainer voor mij.. alles i CUDA cores CUDA CUDA CUDA.
Dus hoewel ik AMD een warm hart toedraag. next card NVidia. (3090 of 4090),

* MrMonkE koopt een staatslot.

[Reactie gewijzigd door MrMonkE op 20 september 2022 16:22]

Reageer
Ik snap even niet waarom je -1 krijgt

Anyways:
Wat je als eerst noemt is inderdaad waarom ik voor de een 3080 gekozen heb ipv de AMD variant (6800XT). Wat ik mis bij AMD is een daadwerkelijk alternatief op raytracing. Iets wat bij 3D rendering (Blender) heel erg veel gebruikt wordt. Zo waren de Nvidia kaarten bijna 50% sneller met de standaard render engines, en bij AMD's specifieke "Radeon Render Engine" was AMD maar een klein beetje sneller bij 1 project, en evensnel bij het 2e project. https://www.hwcooling.net...-2-2-non-gaming-tests/10/

Qua power/efficientie ben ik ook wel benieuwd, zeker als Nvidia verder het limiet gaat opzoeken en AMD wel efficient gaat zijn. Ook wel opmerkelijk want zo'n 5-8 jaar geleden was het juist AMD die de stroom/verbruiks limieten opzocht.
Reageer
Ik heb naast nvidia Riva128 tot gtx580
Tussen door savage2000 en intel i740
3dfx banshee en voor de rest voornamelijk ATI en later AmD
En goede ervaring met drivers en juist met Vista goede ATI ervaring vs slechte nvidia.

Kwa hardware en software zat wel goed bij ATI.
Onder AMD heeft de cpu tak de radeon tak de afgrond in getrokken. En dus op hardware teams en projecten en software zwaar moeten in boeten en ook wafer alocatie. Dat is nu allemaal weer op niveau dat AMD tak net als in ATI tijdperk gas kan geven.
Dit jaar komt er niks volgend jaar misschien. Al denk ik ook niet. Gezien de energie prijzen. Vast contract loop af april.
Reageer
Nou, ik had juist met vista veel problemen met mn ATI/AMD kaart totdat ik die verving door een Nvidia, en daarna nooit meer teruggekeken.
Reageer
Hoezo staat het vast dat er geheugen zit in de zes kleine chiplets?
Waarom zouden er geen grapische cores in de klein chiplets kunnen zitten, terwijl het geheugen in de centrale grote chiplet zit?
Reageer
ooit al een gpu bord bekeken of onderzocht uit welke componenten een grafische kaart bestaat? daarom staat dat vast..
Reageer
We weten dat de chiplets geheugen bevat, omdat de hoeveelheid geheugen (cache) afhankelijk is van het aantal chiplets. Navi22 heeft 4 van die chiplets en 2/3 van de cache.
Reageer
OK, duidelijk. Dank je wel!
Reageer
Ik hoop gewoon dat deze kaarten zometeen prijs/performance Nvidia uit het water zal slaan en Nvidia zal doen besluiten om weer normale prijzen voor hun kaarten te hanteren.
Reageer
AMD claimt daarnaast dat RDNA3 ruim 50 procent betere prestaties per watt levert dan de huidige RDNA 2-generatie.
Hopelijk kunnen ze het waarmaken! Het is zo lastig om zuinige kaarten (Max TDP van 100W) te vinden met enige prestatie. Een Radeon RX 6600 qua prestatie met een TDP van 90W ipv 135W is wat ik zoek :D
Reageer
Dit is dus een aankondiging van een aankondiging... maar wanneer gaan ze de kaarten ook echt leveren :)
Reageer


Om te kunnen reageren moet je ingelogd zijn

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ.

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee