Door Reinoud Dik en Tomas Hochstenbach

AMD Radeon RX 6000 Preview

Alles over de RDNA 2-videokaarten

28-10-2020 • 19:59

462

Multipage-opmaak

Inleiding

In een vervolg op het introductie-evenement van de Ryzen 5000-processors heeft AMD vanavond ook zijn nieuwe Radeon RX 6000-videokaarten gepresenteerd. De chipontwerper kondigde drie nieuwe modellen aan die het de GeForce RTX 3070, 3080 en zelfs 3090 van concurrent Nvidia serieus lastig moeten maken. De nieuwe videokaarten zijn allemaal gebaseerd op de gloednieuwe Navi 21-gpu. Die is niet alleen veel groter dan de Navi 10-chip uit de RX 5700 XT, maar bevat ook tal van nieuwe technische snufjes. In deze preview nemen we een duik in de techniek en zetten we alle aankondigingen van AMD nog eens op een rij.

Navi 21: dubbel zo groot, dubbel zo krachtig

De Navi 21-gpu, die de basis vormt voor zowel de Radeon RX 6900XT als de RX 6800 (XT), wordt net als de vorige generatie Radeon-gpu’s geproduceerd op het 7nm-productieproces van TSMC. De chip is met een oppervlakte van 505mm² echter ruim dubbel zo groot als Navi 10 en heeft dan ook dubbel zoveel rekeneenheden. Bij AMD zijn die traditioneel verdeeld in compute-units van elk 64 shaders, wat betekent dat topmodel RX 6900 XT met 80 CU’s over in totaal 5120 streamprocessors beschikt. Tot nu toe was Vega de AMD-gpu met het grootste aantal rekeneenheden, namelijk 4096 stuks.

Radeon RX 6900 XT Radeon RX 6800 XT Radeon RX 6800 Radeon RX 5700 XT
Architectuur RDNA 2 RDNA
Gpu Navi 21 Navi 10
Die size 505mm² 251mm²
Transistors 26,8 miljard 10,3 miljard
Productieproces TSMC 7nm
Compute-units 80 72 60 40
Streamprocessors 5120 4608 3840 2560
Game- / boostclock 2015 / 2250MHz 2015 / 2250MHz 1815 / 2105MHz 1750 / 1905MHz
Prestaties (FP32) 20,6Tflops 18,6Tflops 13,9Tflops 9Tflops
Geheugen 16GB GDDR6 @ 16Gbit/s 8GB GDDR6 @ 14Gbit/s
Geheugenbus 256bit
Geheugenbandbreedte 512GB/s 448GB/s
Infinity Cache 128MB n.v.t.
Tdp 300W 250W 225W
Releasedatum 8/12 18/11 18/11 Reeds verkrijgbaar
Adviesprijs $ 999 $ 649 $ 579 $ 399

Hogere kloksnelheden en 16GB GDDR6

Een van de speerpunten van de RDNA 2-architectuur was het mogelijk maken van hogere kloksnelheden. Waar de snelste RX 5700 XT-videokaarten rond de 1950MHz boosten, moet de boostsnelheid van de Radeon RX 6800 XT en 6900 XT volgens AMD oplopen tot 2250MHz. Dat gebeurt als het goed is zonder dat het stroomverbruik al te zeer uit de klauwen loopt; AMD noemt een tdp van 300W voor beide XT-videokaarten en zelfs maar 250W voor de reguliere RX 6800.

Om de veel snellere gpu voldoende te kunnen voeden met instructies en data, heeft AMD op zijn Radeon RX 6000-gpu’s de geheugensnelheid opgevoerd naar 16Gbit/s. Bovendien beschikken alle kaarten over 16GB GDDR6, wat dubbel zoveel is als waar de 5700 XT mee was uitgerust. Opvallend is dat de geheugenbus met 256bit gelijk is gebleven en de bandbreedte daarmee amper toeneemt. Om dit op te lossen, introduceert AMD een ‘Infinity Cache’. Daarover en over andere vernieuwingen aan de architectuur lees je véél meer op de volgende pagina.

RX 6000

RDNA 2-architectuur

AMD’s RX 6000-serie videokaarten is gebaseerd op de nieuwe RDNA 2-architectuur. Zoals de naam al doet vermoeden, is dit een doorontwikkeling van de eerste RDNA-architectuur die gebruikt werd voor de RX 5000-serie (Navi 10). Bovendien wordt RDNA 2 ook gebruikt voor de socs in de nieuwe generatie consoles.

Een aantal zaken is gelijk gebleven aan de voorgangers, zoals de aanwezigheid van GDDR6-geheugen en het 7nm-productieproces dat bij TSMC wordt uitgevoerd. Desondanks claimt AMD het gestelde doel van 50 procent meer prestaties per watt te hebben overtroffen met RDNA 2.

RX 6000 RDNA2 architectuur

Infinity Cache

De hoeveelheid veranderingen die RDNA 2 met zich meebrengt, bestaat echter uit een veel langere lijst. Met afstand de grootste wijziging ten opzichte van eerdere videokaarten is de toevoeging Infinity Cache, een cachegeheugen dat de geheugenbus moet ontlasten en de prestaties per watt moet verbeteren. Dit geheugen zit op de chip zelf (on-die), wat een van de redenen is dat de Navi 21-gpu flink groter is dan Navi 10.

RX 6000 Infinity Cache

Bestaande gpu-ontwerpen hebben op de die wel enkele megabytes aan cachegeheugen (L1 en L2), maar dit valt in het niet bij de vele gigabytes die de framebuffer (vram) van een moderne videokaart telt. De grote kloof tussen deze twee wordt met Infinity Cache als het ware opgevuld, als een L3-cache die beter in staat is de gpu van voldoende data te voorzien en minder druk zet op de framebuffer.

AMD stelt dat de gebruikte 128MB Infinity Cache in combinatie met een 256bit-geheugenbus, ruim twee keer zoveel bandbreedte levert als een 384bit-geheugenbus. Dit betekent dat AMD deze smallere (en dus goedkopere) geheugenbus kan gebruiken voor high-end kaarten zoals de RX 6900 XT, zonder in te boeten op prestaties. Tegelijkertijd kan AMD dankzij deze aanpak wel de voordelen van een lager energiegebruik benutten, want geheugencontrollers die er niet zijn, verbruiken uiteraard ook niets.

Een dergelijke grote hoeveelheid cachegeheugen vereist wel een behoorlijk aantal transistors op de chip, wat de die-size en daarmee de productieprijs van de gpu wel omhoog drijft. Opvallend is dat AMD niet alleen op de RX 6900 XT en 6800 XT, maar ook op de RX 6800 kiest voor de volledige 128MB Infinity Cache. Het laagst gepositioneerde model van dit trio heeft dus de volledige hoeveelheid cache én dezelfde 16GB geheugen op dezelfde snelheid als zijn grotere broers.

RX 6000 RDNA2 improvements

De compute-units in RDNA 2 zijn ook onder de loep genomen, om ervoor te zorgen dat de clock gating nauwkeuriger geregeld kan worden en de hoeveelheid te verplaatsen data wordt beperkt. De aanpassingen aan de CU’s moeten er volgens AMD voor zorgen dat elke compute-unit 30 procent efficiënter met energie omspringt dan RDNA 1 deed.

Daarnaast is de vernieuwde architectuur geoptimaliseerd voor hogere kloksnelheden. De nieuwe Radeons behalen bij hetzelfde verbruik een 30 procent hogere kloksnelheid dan hun voorganger, aldus de fabrikant.

Raytracing en DirectX Ultimate

De nieuwe RX 6000-kaarten krijgen ondersteuning voor geavanceerde features, waaronder raytracing in DirectX (DXR), variable rate shading, mesh shaders, sampler feedback en ondersteuning voor DirectStorage. Op die laatste na zijn dit stuk voor stuk features die vallen onder DirectX 12 Ultimate, strikt genomen featurelevel 12_2. Hoewel AMD met de Vega-architectuur nog wel kon meekomen in ondersteuning binnen DirectX 12, bleef Navi 10 op hetzelfde featurelevel 12_1 hangen als zijn voorloper, terwijl de concurrentie niet stilzat. Tijdens de presentatie werd kort een demo van Dirt 5 getoond waarin variable rate shading geactiveerd was en werd geïllustreerd. Ook werden van diverse nog te verschijnen games stukken gameplay afgespeeld met daarin raytracing geactiveerd, waaronder Godfall.

Omdat Nvidia met de RTX 3000-serie alweer aan zijn tweede generatie videokaarten met hardwarematige ondersteuning voor raytracing toe is, waren de ogen wat dit onderwerp betreft des te meer op AMD gericht voor RDNA 2. AMD gaf tijdens de presentatie geen details over hoe raytracing op de komende gpu’s exact zal worden berekend, maar hardwaresupport is aanwezig in de vorm van één ‘accelerator’ per compute-unit en vermoedelijk speelt het Infinity Cache hierbij eveneens een belangrijke rol.

RX 6000 DirectX 12 UltimateRX 6000 DirectX 12 Ultimate

Smart Access Storage

Een andere technologie die tijdens de presentatie kort werd aangestipt, is AMD Smart Access Memory. Als fabrikant van zowel processors als videokaarten wil AMD graag deze twee beter laten samenwerken. De details hierover zijn nog spaarzaam, maar de informatie tot dusver wijst erop dat Ryzen 5000-processors directer het videogeheugen van RX6000-serie videokaarten kunnen benaderen, wat voor een lagere fragmentatie van vram moet zorgen en de prestaties ten goede zou moeten komen.

AMD Smart Access Memory RX 6000

De eerste benchmarks

AMD toonde tijdens zijn presentatie de eerste benchmarks van de Radeon RX 6800, RX 6800 XT en RX 6900 XT. Die zijn over het algemeen een stuk concreter dan de prestatieclaims die Nvidia deed bij de RTX 3000-introductie, waarbij vaak technieken als DLSS-resolutieschaling werden toegepast. Desondanks geldt uiteraard dat een snufje zout aan te bevelen valt bij het bekijken van benchmarks die afkomstig zijn van een fabrikant.

Radeon RX 6800 XT-benchmarks

Om te beginnen vergeleek AMD de RX 6800 XT (649 Amerikaanse dollar) met de RTX 3080 (699 dollar). Over het algemeen presteren de kaarten in de door AMD gepubliceerde tests, gedraaid op 4k-resolutie met Ultra-settings, zeer gelijkwaardig aan elkaar. In spellen als Battlefield V, Call of Duty: Modern Warfare en Forza Horizon 4 pakt AMD de leiding, in onder meer The Division 2 en Resident Evil 3 is de Nvidia-kaart sneller.

In dezelfde games op 1440p-resolutie lijkt de AMD-kaart het wat beter te doen. De RX 6800 XT is volgens de vrijgegeven data in acht van de tien games sneller dan de RTX 3080.

RX 6800 XT benchmarksRX 6800 XT benchmarks

Als laatste grafiek over de RX 6800 XT liet AMD nog de prestaties zien waarbij twee technieken zijn ingeschakeld die we op de vorige pagina uit de doeken deden, namelijk ‘rage mode’ en ‘smart access memory’. Dat verraadt tevens dat AMD zijn benchmarks op zijn gloednieuwe Ryzen 9 5900X-processor heeft gedraaid. In zeven games verbeterden de prestaties op 4k-resolutie met 2 tot 13 procent, met een gemiddelde van 6 procent. Welke techniek verantwoordelijk was voor welk deel van de prestatiewinst, deelde AMD niet.

RX 6800 XT

Radeon RX 6800-benchmarks

Daarnaast schonk AMD kort aandacht aan de RX 6800 (579 dollar), die het vergeleek met de RTX 2080 Ti. Inmiddels weten we dat die wat prestaties betreft zeer vergelijkbaar is met de RTX 3070 (499 dollar). In de benchmarks op 4k-resolutie met Ultra-settings is de RX 6800 doorgaans sneller en op zijn minst even snel. Bij een lagere 1440p-resolutie wint AMD zelfs alle benchmarks. Onderaan de slide valt te lezen dat AMD voor deze tests zijn ‘smart access memory’-feature heeft geactiveerd.

RX 6800 benchmarksRX 6800 benchmarks

Radeon RX 6900 XT benchmarks

Tot slot toonde AMD-ceo Lisa Su benchmarks van de Radeon RX 6900 XT, die met zowel ‘Rage mode’ als ‘Smart access memory’ ingeschakeld tegenover de RTX 3090 werd gezet. In vijf van de tien games pakt AMD de winst, in één game is het gelijkspel en drie games worden met een kleine marge gewonnen door de Nvidia-kaart.

RX 6900 XT benchmarks

Voorlopige conclusie

Onze indruk is toch wel dat AMD met zijn Radeon RX 6000-videokaarten weet te verrassen. Dat het rode kamp een concurrent voor de RTX 3070 aan het klaarstomen was, was al lange tijd duidelijk uit de geruchtenmolen. Dat de RX 6900 XT mogelijkerwijs ook Nvidia’s topmodel het vuur aan de schenen kan leggen, zal de echte hardwareliefhebber als muziek in de oren klinken. Nadat het jarenlang iets achterbleef in het high-end segment, lijkt alles er op te wijzen dat AMD dit jaar de strijd met het vlaggenschip van zijn concurrent echt aankan.

Toch moeten we nog terughoudend zijn in ons enthousiasme. Alleen zélf meten is immers zeker weten, en technische details zijn nog schaars. We hebben bijvoorbeeld nog niet officieel bevestigd gekregen of de nieuwe gpu’s net als Nvidia’s nieuwe kaarten HDMI 2.1 ondersteunen en AV1-video hardwarematig kunnen decoderen.

Lisa Su crop

Prijzen en beschikbaarheid

Gelukkig hoeven we niet meer lang te wachten op duidelijkheid, want de Radeon RX 6800 en RX 6800 XT liggen al op 18 november in de winkels. Het prijsverschil is relatief klein: 579 dollar voor de RX 6800 en 649 dollar voor de RX 6800 XT. Wat daar in euro’s van terechtkomt, valt nog te bezien.

Topmodel RX 6900 XT volgt nog eens bijna drie weken later: net te laat voor de Sint, maar ruim op tijd voor kerst. Vanaf 8 december kun je de RX 6900 XT in huis halen, tegen een adviesprijs van 999 Amerikaanse dollar.

Het voorraadspel

Wat uiteindelijk misschien wel de grootste factor gaat worden in welke nieuwe videokaart onder je kerstboom belandt, is wie in staat blijkt te zijn om snel veel te kunnen leveren. Met de verkrijgbaarheid van de GeForce RTX 3000-serie is het abominabel gesteld. Zelfs als AMD wat langzamer of duurder blijkt te zijn dan we op basis van de eerste claims denken, kan de fabrikant als het zijn voorraden op orde heeft, een grote slag slaan. Laten we wat dat betreft hopen dat resultaten uit het verleden géén garantie zijn voor de toekomst.

Lees meer

Reacties (462)

462
437
302
16
0
70
Wijzig sortering
Goed om te zien dat AMD het een beetje bij lijkt te kunnen benen, dat is goed voor de prijzen van Nvidia. AMD zal ik nooit voor gaan, de driver problemen van de 5700 en mijn subpar ervaringen met AMD zijn voor mij voldoende redenen om er vanaf te zien.
Ik hoop dan inderdaad dat je hem niet koopt zodat de liefhebbers het wel kunnen kopen.

De realiteit is namelijk dat AMD met beperkte middelen en beperkt budget zowel Intel als Nvidia te kijk heeft gezet en we over een jaar alweer de volgende update kunen verwachten dus het zijn mooie tijden in CPU en GPU land :) Nvidia heeft, aan alle reacties op problemen met de 30 series, een kaart geleverd die simpelweg niet af was (en niet leverbaar). De vraag is nu wat AMD gaat doen en in hoeverre hardware en software af zijn en leverbaar. Ik kijk dus uit naar de onafhankelijke reviews maar gezien de "objectieve" presentaties die AMD in het verleden heeft gegeven die naderhand IRL ook waar bleken te zijn heeft AMD duidelijk alle troeven in de hand.
Er zijn toch wel heel veel mensen die slechte ervaringen hebben met AMD. Ik wil ze niet afzeiken want daar heb ik helemaal niks aan, maar ik heb 2x een AMD kaart gehad. De reden om voor AMD te kiezen was simpelweg de prijs. De eerste kaart had zulke slechte drivers dat de computer ieder half uur een BSOD had. Wat ik ook deed, ieder half uur een crash. Die kaart was simpelweg onbruikbaar. Letterlijk weggegooid geld.
De 2e AMD kaart (na eerst een Nvidia te hebben gehad) kocht ik wederom vanwege de veel lagere prijs.
Deze AMD had zulke slechte elco's dat de computer weer iedere uitviel bij zware load. Op fora vond ik veel mensen met het zelfde probleem. Er zat garantie op dus de kaart werd netjes omgewisseld. Weer exact het zelfde probleem... Was gewoon teleurgesteld in mezelf dat ik weer problemen had door te kiezen voor de goedkoopste kaart.

Ja dit is inmiddels een jaar of 4/5 geleden maar ik durf nooit meer een AMD te kopen.
Ik heb eenzelfde ervaring. Na 2 x erin gestonken te zijn met een AMD kaart ben ik ook weer terug naar Nvidia gegaan. De matige optimalisering in spellen die ik toen veel speelde en de crashes onder load maken dat ik zeer huiverig ben om voor AMD te gaan. Ook al komen ze straks qua benchmarks beter uit de tests, ik heb het vertrouwen in het merk helaas verloren.

Fool me once, shame on you, fool me twice shame on me. Wellicht naai ik mezelf als ik komende lente weer een nieuw systeem samen ga stellen, maar ik heb liever een betrouwbaar systeem voor iets meer geld met iets mindere prestaties, dan nog een keer zo'n ervaring.
Ik zou ze met de RX 6000 (of ene generatie later) nog eens een kans geven. Allicht dat AMD het nu veel beter doet. Ze hebben jaren een aardig lastig management gehad dat nu veel beter lijkt te lopen. Uiteraard wachten op de reviews en het internet rond speuren of het een en ander is voor gevallen.

Maar Nvidia is ook zeker niet heilig hier in. Ik heb gek genoeg meer driver gerelateerde issues gehad met Nvidia dan ik ooit heb gehad met AMD. De enige reden dat ik zou kiezen voor Nvidia zou Nvenc en RTX Voice zijn. Zal niet leidend zijn natuurlijk.

Kijk eens naar de 20 series launch en nu de 30 series launch welke problemen er zijn op het Nvidia Kamp, dat kan je nu ook niet meer als "Stabiel" aan nemen zoals je dat vroeger wel kon.
Iedere fabrikant heeft wel eens problemen met drivers etc, maar het is gewoon een feit dat AMD wat dat betreft een slechter imago heeft dan Nvidia en een van de redenen is waarom Nvidia een zoveel groter marktaandeel heeft.. Het kost tijd om zo'n imago te veranderen.. Als de Radeon 6000 serie vrij blijft van grote problemen en inderdaad qua prestaties gelijkwaardig of zelfs beter is dan wat Nvidia biedt dan is dat een goede start om het imago te veranderen.. We gaan het wel zien wat er gebeurt qua marktaandeel de komende 1-2 jaar, maar ik zie niet in korte tijd iedereen massaal overstappen.. Zoals gezegd, dat heeft tijd nodig, waarschijnlijk meerdere generaties..

[Reactie gewijzigd door Inflatable op 22 juli 2024 14:17]

Voor zover ik weet heeft AMD niet meer problemen dan nVidia.
Wat wel een zekerheid is: nVidia geeft een veelvoud uit aan marketing. De naambekendheid is zo belangrijk, net zoals dat nog steeds veel mensen zweren bij intel. Waarom? Dat weten ze zelf niet.
De mens is een gewoontedier.
Kijk voor de lol eens naar de enige reactie onderaan op mijn Tweaker.net profielpagina.. 17 jaar geleden en toen ging het al over bugs in ATI (nu AMD) drivers.. Zie ook hier de 1e reactie: reviews: ATi Radeon 9700 Pro review Het is een imago probleem waar ze nooit echt vanaf zijn gekomen tot nu toe..

P.s. ik weet eerlijk gezegd niet meer of ik toen die Radeon 9700 nog gekocht heb of niet, te lang geleden..
Ik ken die problemen ook van vroeger met AMD, maar de laatste jaren lijkt het eerder andersom vooral als je linux wilt draaien. Mijn huidige 1070 met laatste nvidia drivers heeft ook wel eens issues in windows 10 waarbij ik chrome moet resetten (veel tabs open, google meet starten met veel streams) en hun software is er niet echt beter op geworden, zag dat er iets van 2gb aan Nvidia software op mijn computer stond. Maar ik vind wel dat nVidia momenteel meer inoverend bezig is, keuze voor een nieuwe kaart wordt nog best lastig gemaakt zo . Ik draai b.v. ook de RTXVoice om achtergrond geluiden weg te filteren.
De good old days :)
Ik herinner mij nog die leuke tijden met m'n Geforce 2 welke een bepaalde reeks Detonator drivers niet leek te willen.

Ik denk dat we allemaal zo verhalen hebben, maar om of iets van meer dan 10 jaar geleden nog relevant is?
Het aantal transistoren heeft er ook voor gezorgd dat ATi een externe powerplug op de kaart heeft moeten aanbrengen, wat aangeeft dat de kaart meer dan 40W nodig heeft.
Toen was er 40 watt voor een top kaart nodig. En nu 350 watt. Watt een verschil. hahaha.

Ik had toen een R9500 gekocht en lekker gemod naar een 9700Pro. Dat wal pas lekker voor 150 euries een top kaart te hebben. :P
Imago schade heb je snel en achtervolgt je voor lang. Dat is helaas zo.

Daarom vind ik het heel knap dat AMD, met hun beperkte middelen/kleiner budget, de bal terug kan kaatsen naar Nvidea.

Zij zullen, natuurlijk, ook hier weer op (moeten) reageren.

Ik schat de toekomst voor de consument in ieder geval rooskleurig in: Keuze in kaarten, met een prima prijsje!
Ik denk dat het feit dat nvidia 15 jaar lang kaarten heeft verkocht welke hogere fps produceren daar ook wel sterk aan heeft bijgedragen hoor.. Amd was altijd het buitenbeentje.. de kaarten die je kocht op een klein budget.. en niet omdat je het beste moest hebben..

Maar beide partijen hebben genoeg driver/hardware issues gehad hoor.. Ik zou bv niet graag een gtx970 kopen met coil whine.. en zelfs met de rx3090 heb ik al genoeg filmpjes met bluescreens gezien, die kaart pakt zoveel stroom dat mensen een 1200w psu adviseren..

Verder heb ik ook prima ervaringen gehad met AMD, ik heb bv al jaren een rx580, nog nooit een bluescreen of een driver error meegemaakt..
Daar tegenover staan ook mensen met goede ervaringen. Zelf een Ryzen 3900X aangeschaft. Werkte prima en doet het natuurlijk nog steeds prima. AMD videokaart, een VEGA56 heel veel problemen mee gehad, totdat ik de voeding via twee aparte kabels liet lopen. Dus dat lag niet aan de kaart. Nou ben ik niet maatgevend, maar in plaats van een merk op iets uit het verleden af te serveren, wil ik het lezen van wat reviews propageren; kijk wat je gaat doen en bouw dan een pc op basis van wat je nodig hebt.
Nou, wat betreft lange termijn en BSOD betreft zijn de reviews die i.h.a. korter en op hoogwaardige hardware lopen niet al te betrouwbaar, zie je voedingsprobleem. Ik heb net een Quest2 en koop de elite strap, betere hoofdband, erbij omdat die beter zou zitten volgens alle reviews. Wat die reviews dan weer niet melden is dat die dingen kennelijk vaak breken...
Heb al jaren AMD en in de afgelopen vier jaar zeker geen BSOD.
Ook vanwege de centen en altijd 2ehands trouwens. Dit laatste kan de bias zijn, die kaarten zijn al beproefd door andere tweakers en daarna doorverkocht aan mij :)
Nu drie jaar een Fury, zonder enig probleem. Ook tav games, ik zou niet weten welke ik niet kan spelen...
De "oude" amd kaart heb ik aan mn zoon gegeven, ook nog zonder problemen alle games.
Ja, maar ook gillen mensen die problemen hebben harder dan de meerderheid die er best mee kan leven, zie de 1* recenties op b.v. Amazon, maar eigenlijk overal. natuurlijk is iemand die €500 voor een crashende kaart uitgeeft niet vrolijk.... ook al ligt het dan misschien meer aan b.v. de voeding!
Ja, daar ligt vaak de probleem. Voeding kabel waar je 2x nodig heb, gaan ze via 1 kabel die zich splits gebruiken. Dat is niet alleen bij amd een probleem, ik had het ook mijne gtx970 gehad. En idd net als jij toen ik het via 2 kabels liet gaan, deed het perfect. Met amd kaarten heb ik nooit echt problemen gehad. Soms een uitval kun je met elke kaart hebben.
Ik heb nooit problemen gehad met mijn r280 en ook niet met mijn RX580. Welke kaarten ging het om?
Op Linux was de R9 280X voor mij niet echt een pretje qua drivers. Veel texture problemen die niet speelden met de later aangeschafte 1070 (CSGO).
ik heb juist tegenovergestelde gehad. Tot 3x andere 9800GT gehad die elke keer problemen gaven.
Daarna heel lang AMD gehad, en nu sinds een paar jaar een 1070 in gebruik.

Beide kampen hebben wel vaker issues gehad.

On topic: wel gaaf dat AMD weer terug lijkt te komen.Nu zelf even kijken wat volgende upgrade wordt voor mijn race sim , met 3x 1080p 24" schermen. AMD of toch Nvidia
Same here, vega 64 (een van de betere: red devil) samen met een ryzen 2700x, de ryzen heb ik nog. De vega was alleen maar kommer en kwel. 100% driver gerelateerd, constant bsod's. Drivers bij AMD waren gewoon erg slecht. Ik wacht de reviews eerst af voordat ik nog een keer daar in trap. Daarnaast is door een kleine minderheid van verstofde AMD fanboys een hell om problemen aan te kaarten, want alles komt door eigen toedoen niet AMD. Terwijl meerdere onafhankelijk reviewers klagen over AMD drivers. En er veel mensen met de zelfde problemen kampten.

Nogmaals eerst wachten op de reviews, raytracing performance en drivers na launch. Want de 5700 drivers waren ook vol met bugs en legio problemen.
Ik daarentegen heb nog nooit een probleem met mijn vega gehad. Er zal weleen factor geluk in zitten.
De GPUs van AMD waren niet af bij launch.

De CPUs daar in tegen waren *allemaal* gewoon af bij launch.

Een half jaar na de launch van AMD GPUs zijn ze drivermatig stabiel
Niet echt helemaal correct wat je daar zegt. Er waren bij de launch van ZEN1 genoeg perikelen met geheugencompatibilteit, maar zoiets heeft ook niet eeuwig geduurd. Het heeft wel lang nagesleept en de reputatie dat ZEN veel kinderziektes had met veel miserie heeft ook toen lang geduurd voor het weg was.

En bij RDNA zijn er ook enkele maanden geweest waarin er veel misliep (vooral bij PCIe 4 moederborden blijkbaar). De eerste grote driver revisie heeft tot in april 2020 geduurd om het leeuwendeel van die problemen recht te zetten... Maar de schade was weeral geleden.

En nu kunnen we hopelijk naar een situatie gaan waarin RDNA2 stabieler zal zijn dan RDNA1... Net zoals de problemen met geheugen die ZEN1 kende niet meer te bespeuren waren bij ZEN2. Hopelijk toch...
Had ook gehoord over rdna de eerste paar weken.
Ik bezit een 5700, maar een stuk later gekocht. En geen problemen mee.
Aangezien ze alle problemen met rdna al hebben uitgehaald, verwacht ik minimale problemen bij rdna2.
Extra features komen later hoorde ik.
zelfde hier 3600 / 5700 rock solid sinds januari
Zo te zien hebben we zelfde systeem. ;)
Ik kan me je gevoel wel voorstellen, ook al is het momenteel misschien onterecht.

Maar de kwaliteit van die elco's, daar is AMD zelf toch niet verantwoordelijk voor? Of heb ik het mis?

Ik dacht dat AMD een refentie-ontwerp maakt, en dat de videokaart-fabrikanten deze gebruiken om ze te bouwen. De videokaart-fabrikant bepaalt dan welke kwaliteit elco's gebruikt wordt. En diezelfde fabrikant bouwt waarschijnlijk ook NVIDIA-kaarten.
Daar is de Quality department absoluut wel verantwoordelijk voor.
Je spect je componenten, en test wat je daadwerkelijk inkoopt. Elco's zijn relatief duur en daar wordt vaak op bezuinigd. Als het daadwerkelijk Elco problemen zijn, kunnen we hier absoluut AMD op aan kijken.
Met de komst van Ryzen is het bij mij juist omgekeerd gegaan:

- Ryzen cpu
- AMD RX580 GPU

Draait vanaf eerste install als een zonnetje (CPU en GPU OC voor de lol) en eigenlijk nog steeds voor de games die ik speel erg snel. De GPU ga ik vervangen want de CPU is nooit een bottleneck.

Maar ook mijn i7 laptop wordt vervangen door een Ryzen. Ik ben de Intel CPU throttling zo erg zat. De i7 gaat onder load niet meer boven de 1Ghz waardoor die effectief zo traag is dat vidconf niet meer werkt. Ik weet dat koeling het probleem van de bouwer is - maar ik durf geen Intel laptop meer te kopen door de koeling ellende en throttling. Terwijl de nieuwe Ryzen laptop cpu's nooit throttling hebben zover ik nu zie en altijd performance leveren - beetje zoals vroeger :)

Dus die perceptie over wat goed werkt is enorm bepaald door individuele ervaringen. Ik heb al jaren nVidia/Intel gehad, maar was enorm verrast over de AMD ervaring. Voor mij dus juist iets om even bij te blijven. Zal net zo snel weer terug overstappen als dat beter is voor me.
Heb zelf al sinds 20jr geleden al heel veel AMD gpu's versleten en ik heb er nog nooit eentje kapot zien gaan. Ook een Crossfire setup gehad. Werkte allemaal. Hooguit wat driver issue's gehad met sommige spellen, wat later ook opgelost werd. Nee, ik ben altijd ruim tevreden geweest met mijn AMD kaarten.
De GTX1070 die ik nu heb doet het ook goed. Maar ook met Nvidia kaarten hen ik wel eens driver issue's gehad.

Nu heb ik meestal niet voor de goedkoopste kaart van de goedkoopste brand gekozen, meestal een MSI, Asus of Sapphire. Bij wie je koopt, maakt nml. wel uit. Maar dat geld voor AMD en Nvidia kaarten, het is bij beide hetzelfde.

[Reactie gewijzigd door Madrox op 22 juli 2024 14:17]

Toch is dit iets waar we steeds meer last van krijgen in een wereld waar een product nooit lang hetzelfde is; statistisch is 2 keer een slechte ervaring niet genoeg om te zeggen dat een bepaald merk alleen maar slechte producten levert. Maar ja, schade en schande en zo...
Daarbij komt dat slechte ervaringen eerder worden gedeeld.
Net mijn 3080 geannuleerd. Het was genoeg na 1 maand wachten !
Ik ga nu voor het klantvriendelijkere AMD met een 5950x en de 6900xt .

AMD zet even Intel en Nvidia opzij! ongelooflijk knap met zoun laag budget vergelijke die giganten.

De RDNA chips zijn veel kleiner maar veel sneller dan die van Nvidia WOW!
Dit is tog niet normaal met de enorme achterstand die ze hadden.
Ik zou er nog voorzichtig mee zijn. AMD toont hier de benchmarks. De theoretische snelheid van de nvidia kaarten is veel hoger dan de theoretische snelheid van deze AMD kaarten. Ik weet dat TFlops niet alles zegt maar de nummers van NVidia zijn daar bijna twee keer zo hoog (3090 35.7 TFlops tegenover de 6900xt rond de 20) dan heeft de NVidia kaart nog apparte shaders voor raytracing en AI die daar nog bovenop komen. Ik wacht eerst de benchmarks wel af voordat ik zo'n beslissing ga nemen. Ook is de huidige prijsstelling dubieus te noem, de 6800 xt heeft overduidelijk de beste prijs performance verhouding, de andere 2 zijn in verhouding te duur.
Je geeft het zelf al aan: nVidia heeft aparte raytracers.
De TFlops zijn meestal theoretische cijfers die leuk staan in een de specs, maar die niet altijd veel te maken hebben met de werkelijkheid.

Laten we eerste eens wachten tot de eerste onafhankelijke test.
Vergeet ook niet dat PS5 en Xbox ook een RDNA2 hebben.
Dat kan voordelen bieden bij de optimalisatie.
De architectuur van NVidia en AMD begint weer verder uit elkaar te lopen, dit is in het verleden ook wel gebeurt. De AMD kaarten gaan voor games waarschijnlijk populairder worden dankzij de console's, maar ik ben zelf met niet zo'n gamer meer en meer geïnteresseerd wat je nog meer kan doen met deze kaarten.

Als het op AI aankomt kan de NVidia kaart met de aparte low precision tensor cores tot wel 10 keer zo snel zijn in die taken dan AMD wat ook weer terug kan komen in games maar dat gaat nog wel even duren. NVidia probeert nu duidelijk op vernieuwing in te zetten terwijl AMD voor brute force gaming gaat. Dit pakt hopelijk voor AMD goed uit, een aantal jaar terug was het juist AMD die inzette op vernieuwing met de HBM geheugen modules, maar daarbij legden ze het af tegen de brute force van Nvidia. We gaan het zien, misschien heeft AMD hier ook wat voor maar ik vond de presentatie echt gebrekkig als het gaat om technische informatie. Alleen een hoop marketing termen over latency efficiency verbeteringen.

Ik ben nog op zoek naar een videokaart met HDMI 2.1 support om mijn GTX 1070 op te volgen. Mijn TV die ik nu gebruik als computerscherm heeft support voor free-sync premium van 48 tot 120Hz, ook daar heeft AMD een streepje voor, maar aan de andere kant ben ik als programmeur geïnteresseerd in de AI performance. En voor mijn hobby ben ik bezig met een synthesizer die via web-gl2 audio uitrekent op de videokaart, hierbij is ook de AMD in het voordeel dankzij het hebben van meer geheugen en vanuit web-gl zijn de aparte shaders van Nvidia nog niet te gebruiken, maar dat kan nog komen via web-cl, maar ervaring leert dat dit nog wel even gaat duren

Zoals je zelf ook al zegt eerst maar eens wachten op de benchmarks, AnandTech neemt meestal compute ook goed mee.

Gericht aan de moderators hier:
Weer een reactie om naar 0 te modereren zoals jullie met alles doen wat niet mainstream is of wat jullie niet begrijpen. Moderatie was ooit bedoeld om vervelende reacties tegen te houden, niet om alles naar beneden te modereren waar je het niet mee eens bent of wat je niet begrijpt. Ik moet maar weer op zoek naar een nieuwe site waar wel techneuten te vinden zijn, Tweakers is dat blijkbaar niet meer.

[Reactie gewijzigd door PuzzleSolver op 22 juli 2024 14:17]

Lol ik moet een beetje lachen om je reactie. Proef ik nu wat sarcasme of meen je het? Ieder zijn ding hoor. Je kiest alleen voor een duurdere kaart die nog niet eens geen zekere release datum heeft. We moeten nog zien of amd geen tekorten gaat hebben. En we moeten echte benchmarks ook nog afwachten. Zonde van je positie op de wachtlijst.

Ik vind het mooi hoor hoe amd de achterstand inhaalt. Maar ben niet overtuigd omdat ze juist qua innovatie nu achter blijven. Rtx maar ook ram snelheid. Met ddrx lijkt nvidia beter voorbereid op de tech dat data direct van ssd naar video kaart kan. Vind het argument dat slechts "enkele" games raytracing ondersteunen anno 2020 echt niet op gaan.
Te kijk gezet?
Voor bedrijven als Intel en Nvidia zijn 2 dingen het belangrijkst marktaandeel en winstmarge.
De laatste keer dat AMD in de buurt kwam van Intel voor marktaandeel van CPUs was 2006.

En wat betreft GPUs komen zowel Nvidia als AMD niet eens in de buurt van Intel. De netto winstmarge van Intel is ruim 23%, die van AMD ruim 8%...

Het is geweldig voor consumenten dat het lijkt dat AMD eindelijk weer een beetje in de buurt komt, maar maak het vooral niet groter dan het op het moment is, AMD heeft enkel productpresentaties gedaan.

https://www.macrotrends.n...INTC/intel/profit-margins
https://www.macrotrends.n...ts/AMD/amd/profit-margins
Winstmarge draait nu natuurlijk hard om. AMD die hun prijzen omhoog aan het gooien is gezien ze geen competitie meer hebben van Intel. Die uiteraard zijn prijzen naar beneden aan het halen is.

En dat is in 2021 niet anders. Misschien heeft Intel in 2022 weer iets interessants.
Dit dus. Dit fanboysgedoe is echt vermoeiend, alle partijen doen dit (terecht) om de knikkers, en nergens anders om. Dat AMD aggressief op de prijs heeft gezet in de eerste generaties Ryzen is begrijpelijk om een marktaandeel te herwinnen, maar nu draaien ze bij. Ook dat is te verwachten, het zijn geen liefdadigheidsinstellingen.
Maar zowel AMD als Intel zullen moeten battelen voor hun marketshare. En dus zal het erg leuk worden voor de consument.

De battle verplaatst zich nu naar serverspace, waar AMD ook heel rap grond aan het winnen is.
Ik weet niet hoeveel marktaandeel amd nu heeft op cpu.
Ik zal de prijzen nog niet al teveel omhoog gooien ( wat ze wel hebben gedaan met de 5600x ) en zo eerst meer marktaandeel winnen.
Ik sla denk ik deze cpu gen over van amd.
Tenzij de 5600 komt voor 220 dollar.
Dan wil ik wel die rage mode en memory nog wat shit wel aanzetten en gebruiken voor extra gratis performance.
Nu is de vraag of dit alles ook op een b450 bord werkt of niet.
https://www.tomshardware....all-x86-chip-market-share

AMD zit nog niet op 20%, dus er valt nog veel te winnen.
Ze blijven sowieso wel marktaandeel winnen gezien ze de betere CPUs hebben.

Overigens teken ik ook wel voor een 5600 voor $220
intel's winst marge al gezakt van over de 60% naar 53%. terwijl AMD nu op 44% zit. Nog voor de release van zen3. (Dat laten je links ook mooi zien overigens. stijging voor AMD, daling voor intel)

En AMD's laatste kwartaal omzet was niet meer 1/10de van intel's maar 1/6.5.

dus zowel winst marge als omzet staan duidelijk onder druk bij intel, vanwege AMD. next up: nvidia.
Ik hou van 50/50.
Vroeger was nvidia 60 en ati 40. Vond wel een redelijk goeie verhouding.
Intel was altijd torens hoger dan amd.
Dacht dat amd's hoogste marktaandeel ooit een keer in de 30+ zat.
Was dacht ik met de athlon64 tijd.
Dat was een lekkere cpu voor die tijd zeg. Had echt van genoten.
Te kijk zetten is ook een beetje een overdreven term. AMD is goed bezig geweest de laatste jaren en heeft een achterstand weggepoetst met een eigen strategie. Men verwacht dat die strategie langer vruchten zal blijven afwerpen dan dat van Intel op dit moment op de CPU markt. Of het ook zo is op de GPU markt weet ik niet. Ik ben blij dat zowel Intel als Nvidia geen monopolie hebben, en zelfs af en toe overtroffen worden door een concurrent.

Maar ik sluit mij aan bij andere Tweakers. Mijn ervaringen met AMD zijn niet plezierig geweest. Recent ben ik overgestapt van Xeons naar Threadrippers voor veel systemen die wij hanteren intern, omdat ik geen problemen verwacht met CPUs, en de resultaten er niet om liegen (hoewel ik bij de overstap meteen al merkte dat veel van mijn live USBs op de een of andere manier niet met AMD om kunnen gaan). Maar voor GPU durf ik die stap nog lang niet te maken. Nvidia (en ik heb het dan over hun Quadro kaarten) bieden een veel professionelere line-up and hardware, software en services dan AMD.
Was het product niet af met de 30 series of waren er verkeerde condensatoren gebruikt door derde partijen?
Objectieve presentatie vind ik te ver gaan. Die trucjes als SAM en rage mode die AMD toepast bij zijn benchmarks vind ik nogal dubieus. SAM werkt alleen met Ryzen 5000 cpu dus niet Intel en rage mode is ook geen standaard instelling. Wachten op onafhankelijke reviews dus.
Objectieve presentatie vind ik te ver gaan. Die trucjes als SAM en rage mode die AMD toepast bij zijn benchmarks vind ik nogal dubieus. SAM werkt alleen met Ryzen 5000 cpu dus niet Intel en rage mode is ook geen standaard instelling. Wachten op onafhankelijke reviews dus.
Hoezo dubieus? Nvidia heeft toch ook een control panel waar je van alles en nog wat kun veranderen om de prestaties te verbeteren?

Van wat ik er van begrijp is dat rage mode de power limit iets verhoogd en een agressievere fan curve aan lijkt te zetten (correct me if I'm wrong). Je kaart gaat dus iets meer verbruiken en meer lawaai maken met rage mode aan maar het is nog steeds de kaart zelf die kijkt hoe ver deze kan klokken op basis van beschikbaar vermogen en temperatuur. Als je kijkt naar hoe Nvidia kaarten het doen dan zorgt een iets hogere power limit er voor dat de boost snelheden langer vastgehouden kunnen worden, niet dat je voorbij de max clocks gaat.

Als dat klopt, dan zijn dat geen trucjes. Je hebt zelf de keuze of je prestaties wilt ruilen voor hoger energieverbruik en geluid. Je kunt het zelf aan of uit zetten. In verschillende benchmarks zullen ongetwijfeld in de grafiekjes te zien zijn wanneer met rage mode aan/uit getest wordt zodat je goed kunt vergelijken en hoeveel extra vermogen er wordt opgenomen. Daarnaast, het wordt absoluut niet stiekem gedaan of zo. Het wordt duidelijk gecommuniceerd in welke slides van AMD's presentatie het aan stond.

Ik vind dit eerlijk gezegd minder van een 'trucje' dan DLSS van Nvidia waarbij de game op lagere resolutie wordt ge-rendered en dan ge-upscaled. Maar dan wel beweren dat je op 8K kunt gamen met een RTX 3090 terwijl die kaart dat in veel intensieve games anders gewoon echt niet trekt.
Met een NVIDIA kaart kan je inderdaad ook van alles in de control panel aanzetten. Maar laten we even eerlijk zijn. Die benchmarks van AMD zijn natuurlijk allemaal marketing praatjes. AMD heeft alle features op hun 6800 XT aangezet (SAM en Rage Mode) en natuurlijk alle features zoals DLSS uitgezet op de RTX 3090. Dat is sowieso geen eerlijke vergelijking. Je moet de kaarten naast elkaar zetten met alles erop en eraan. Dan kan je echt de potentie en het verschil tussen de kaarten zien. En laten we niet vergeten dat je ook een Ryzen 5000 series CPU nodig hebt voor de SAM optie.

[Reactie gewijzigd door Ricco02 op 22 juli 2024 14:17]

Met een NVIDIA kaart kan je inderdaad ook van alles in de control panel aanzetten. Maar laten we even eerlijk zijn. Die benchmarks van AMD zijn natuurlijk allemaal marketing praatjes.
Als we dan toch eerlijk zijn. AMD's prestatiecijfers uit hun presentaties kloppen na de Vega-tijd gewoon. Vega was de laatste keer dat AMD meer beloofde dan ze waar konden maken. De cijfers van Zen, Zen+ en Zen2 kloppen gewoon. Net als de cijfers van RDNA(1). Het lijkt er echt op dat AMD de zaken niet meer rooskleurig voorstelt dan ze zijn.

Rage mode lijkt verantwoordelijk voor 1~2% van de extra prestaties. Smart Access Memory lijkt de rest van het balkje in de grafiekjes vol te maken wat betreft die extra prestaties. Als je de keuze hebt om een AMD 6000-serie GPU te koppelen aan een Intel of een AMD platform, waarbij het AMD platform je meer prestaties geeft. Dan heb je dus wat te kiezen. Benchmarks zullen aantonen hoe groot het verschil is en dan is de vergelijking dus duidelijk: het staat aan of uit. Het zou inderdaad niet eerlijk zijn om te testen met SAM aan vs uit.

Zelfde verhaald met DLSS. Als DLSS vs non-DLSS test is het nadrukkelijk geen eerlijke vergelijking (net als SAM aan vs uit). Bij de een render je een game in een lagere resolutie en doe je upscaling, bij de ander render je in native resolutie. Dat zijn echt appels en peren. Wat je dus zou willen doen is een kaart met DLSS en een kaart met AMD's tegenhanger van DLSS (wat dat ook mag zijn), of beide kaarten gewoon in native resolutie laten renderen. Dan is de vergelijking weer eerlijk.

En omdat we toch eerlijk bezig zijn. Het lijkt er vooralsnog op dat er bitter weinig titels zijn die DLSS gebruiken:
PC Games With DLSS 2.0 Support
  • Anthem
  • Battlefield V
  • Bright Memory
  • Control
  • Death Stranding
  • Deliver Us The Moon
  • F1 2020
  • Final Fantasy XV
  • Fortnite
  • Mechwarrior V: Mercenaries
  • Metro Exodus
  • Monster Hunter: World
  • Shadow of the Tomb Raider
  • Wolfenstein Youngblood
Dus hoe belangrijk is DLSS nou echt? Zelfde vraag voor ray tracing. Dat zijn ook maar een kleine hoeveelheid games. Maar met SAM heb je gewoon bij alle games 'gratis' prestatiewinst. Ik weet wel wat ik liever heb.
Tuurlijk supporten weinig games DLSS nu. Maar het verschil in de benchmarks met SAM en Rage Mode aan was ongeveer gemiddeld 8% - 9%. Dat vind ik niet iets schokkends als alle features op de NVIDIA kaart uit zijn gezet. Daarnaast zal de tegenhanger van DLSS niet opeens heel veel meer games supporten dan NVIDIA's DLSS. Dat zal ook een tijdje duren. En NVIDIA zit al op hun tweede gen DLSS en Ray tracing. Laten we niet vergeten dat AMD hier op hun eerste gen van zit. Dus qua ray tracing performance geloof ik niet dat AMD opeens NVIDIA verslaat. + AMD had het niet echt over een tegenhanger voor DLSS in hun presentatie wat al aanduid dat dat dus ook niet heel erg veel beter is dan de DLSS van NVIDIA (Anders hadden ze dat natuurlijk wel laten zien.). En het is niet zo iets simpels als aan een AMD platform koppelen om SAM te kunnen gebruiken. Je moet 1 van de duurdere Ryzen 5000 series CPU hebben. Wat ook geen goedkopertje is.

En SAM is misschien 8% prestatieverschil terwijl DLSS soms bijna voor dubbele FPS kan zorgen met soms wel eens beter kwaliteit beeld. Je kan SAM niet vergelijken met DLSS. Als jij een dure ryzen 5000 series CPU wilt halen die niet zal bottlenecken met een nieuwe 6000 series GPU. Dan kan je dat natuurlijk doen. Maar dan ben je ook weer geld kwijt aan een nieuwe CPU.

Laat ik dit in iedergeval even duidelijk maken. Ik ben geen NVIDIA fanboy of iets dergelijks. Ik heb een lange tijd AMD kaarten gehad met geen enkel probleem. Ze werkten fantastisch. En ik zit nu sinds 2017 met een NVIDIA kaart. Ik ben gewoon realistisch. NVIDIA en AMD kunnen hun presentaties so shiny maken als ze willen. Maar het komt uiteindelijk toch echt aan op prijs en voorraad. Want de kaarten van beide partijen zijn niets minder dan geweldig.
Het is wel echt vet cool dlss zag laatst een filmpje waar iemand het vanaf 240p (ja 240p!) Upscalde en dat zag er best oke uit bracht het naar iets minder als 720p kwa kwaliteit insane fps natuurlijk daardoor haha :P
Waarom is dat zon probleem, ze zetten erbij dat ze dat inderdaad aan stond. Er zit ook een weergave bij waarin ze het verschil laten zien tussen met die instellingen aan en uit. Dus voor wat je van een marketing presentatie zoals deze mag verwachten is het gewoon netjes en eerlijk gedaan. Dit is nou eenmaal het voordeel wat ze voor zichzelf hebben ontwikkeld. Als nvidia een feature heeft die ze meer voordeel bied dan hun concurrent dan laten ze dat op een vergelijkbare manier zien.
Ik heb nooit gezegd dat het een probleem was. Ik zie alleen dat heel veel mensen dit over het hoofd zien. Die zien de mooie presentaties en denken dat ze gelijk die performance kunnen krijgen als ze de kaart hebben voor bijvoorbeeld $650 (De RX 6800 XT) terwijl ze ook een ryzen 5000 series CPU nodig hebben om SAM te kunnen gebruiken. Wat alweer een paar honderd euro erbovenop legt. Dat is geen probleem. Maar veel mensen zien dat over het hoofd.
Hij heeft het over objectieve presentaties in het verleden, waarmee waarschijnlijk wordt gedoeld op de laatste ryzen release, waarin intel erg waarheidsgetrouw werd neergezet en er echt sprake was van appels met appels.

Dat rage mode en SAM een beetje dubieus zijn ben ik met je eens, maar het staat er in elk geval redelijk duidelijk bij.
SAM werkt alleen met Ryzen 5000 cpu dus niet Intel en rage mode is ook geen standaard instelling. Wachten op onafhankelijke reviews dus.
Net als er de laatste jaren continu gehamerd is op gebruik van een overgeklokte 9900K/10900K voor ultieme performance, waarom zou je het combineren met iets minder dan de snelste gaming CPU, een AMD Ryzen? :+
Hoe lang heb je zelf die 5700 gehad waarover je spreekt?
Ik ken wel een paar mensen met gpu's uit die serie en heb ze nog nooit over problemen gehoord. Voor zo ver ik weet zeker een deftige gpu die gewoon veel aan kan.

Daarnaast als je in die hoek over drivers wilt praten dan is er bij nvidia toch ook wel eens wat fout gegaan toch? Staat nog wat in mijn geheugen van drivers die gpu's kapot konden maken.
Er waren met mijn Red Dragon RX5700XT in het begin best wat driver problemen. Dus in enkele ganes soms een zwart scherm waar je niet meer uitkomt, af en toe een harde gamecrash en zelfs één keer een BSOD. Maar in 3 maanden waren de problemen opgelost. Sindsdien is het heel stabiel. Overigens was de eerste kaart die ik kreeg DOA, maar megekko stuurde netjes een nieuwe retour.
Tja, mensen bashen graag AMD over hun drivers maar lijken te vergeten dat Nvidia drivers lange tijd heel veel slechter waren:
MS: Nvidia Drivers Caused 29% of Vista Crashes
AMD 9.3% van de crashes, Nvidia 29% van de crashes. Dat was in 2009 toen AMD zo'n 20% en Nvidia zo'n 25% van de markt had(bron)

En als ik tegenwoordig kijk dan zijn de AMD drivers voor Linux beter dan die van Nvidia. Van Windows heb ik afscheid genomen voor gaming. Dus lekker laten gaan die mensen die AMD of Nvidia bashen om hun drivers. Over het algemeen doen beide het prima, of in ieder geval goed genoeg. Het is voor mij geen reden om de een over de ander te kiezen.

Wat wel een reden is om deze keer een AMD kaart te kiezen is dat Nvidia de afgelopen 10 jaar de prijzen van GPU's telkens wat heeft verhoogd en mensen daar aan heeft laten wennen net zoals Intel dat met hun CPU's heeft gedaan. Niet dat de high-end AMD kaarten op dit moment goedkoop zijn. Maar ik juich de concurrentie toe en zie graag dat AMD en Nvidia weer met elkaar de concurrentie aan gaan en je high-end GPU's voor zo'n 500 euro kunt kopen i.p.v. 1000~1500. Nu dat AMD op prestaties weer vergelijkbaar is met Nvidia zal het mij lekker boeien dat de een of de ander een paar % sneller is. Dat ga je in games toch niet merken. Maar dat AMD goedkoper is merk je wel direct. Voor dat geld kun je weer een aantal games kopen, of een grotere/snellere SSD voor je games, of meer RAM, of pannenkoeken.
idd - men lijkt altijd zo goed te zijn als de laatste failure.... En elke nieuwe generatie betekent toch echt wel nieuwe drivers.
Ik kan me anders van het rode kamp uit eigen ervaring vertellen dat door een driver update mijn HD7870 defect was gegaan alsmede die van vrienden van me.

Ik denk dat zowel het groene als het rode kamp die fouten hebben gehad in het verleden.
Over recente drivers kan ik niet meer meepraten omdat ik sinds dien geen kaart van het rode kamp meer heb gehad :)
Ik heb vorig jaar mijn HD7970 pas vervangen voor een RX5700xt. volgens mij heb ik elke driver wel ongeveer gehad. Nooit problemen mee gehad. zeker geen die defecten veroorzaakt. heb je iets meer als anachronistic bewijs dat het de driver was?
Misschien hebben we een slechte batch te pakken gehad want de kaarten waren ook bij dezelfde webshop “4launch” destijds op dezelfde dag gekocht en opgehaald.
Dat is precies wat ik bedoel!
Om de zoveel tijd heeft één van de twee GPU makers iets vervelends met de drivers, meestal niet van lange duur
Hen met mijn HD7850 nooit ernstige problemen gehad en ook nooit defect is gegaan. Idem voor de RX470, waar de drivers gewoon vet in orde waren en zo kan ik nog wel even doorgaan.
Ik heb bijvoorbeeld een 250gts gehad waarbij de drivers niet lekker liepen en ik bsod's kreeg. Ach.. Dat is verleden tijd! Ouwe koeien uit de sloot halen kan ik dus ook.
Bij ieder kamp is wel iets te vinden.

De vraag is waar welk kamp nu staat en wat ze nu kunnen bieden op basis van mijn budget. Daar ga ik mijn volgende kaart op baseren.
Dat is zeker een goede keus.
Beide kampen hebben op dit moment mooie kaarten in het assortiment zitten :).
Yes! Ik zit er dus over te denken om dan ook meteen een 4k beeldscherm te kopen, wel weer ultrawide.

Voor nu voldoet een R9 290X die ik destijds voor 340 euro nieuw heb kunnen oppikken die een resolutie van 2560 x 1080 op 144hz aanstuurt, in combi met een 3900X, voorheen een Phenom 1090T.
een 290x highest end kaart voor €340,-...

waarom zijn nu de highest end kaarten nu 3 tot 4 x duurder?

zijn de winstmarges opeens absurd hoog of is alles opeens 3x zo duur om te produceren?

inflatie mn ass...duurder pcb/koeling...echt niet...en de grotere chip zal vast wat extra kosten, maar geen €600,- extra.

goede prestaties, maar jammer van de uitmelkprijzen tegenwoordig.
de koeler is duurder dan de bagger koelers die ze op de 290x zetten, het geheugen wat op deze kaarten gaat zal waarschijnlijk ook wel iets duurder zijn. Of r&d kosten hoger zijn is moeilijk inschatten natuurlijk, maar hun r&d budget voor de radeon divisie was erg laag in die tijd. AMD verkocht die serie kaarten waarschijnlijk voor zo weinig dat ze er amper winst op maakten, ze voelen nu dat hun positie aanzienlijk sterker is dus zullen ze vast een hogere winstmarge houden. AMD heeft als bedrijf weinig cash en kan wel een hoog budget gebruiken om op dergelijk hoog tempo als nu nieuwe producten te kunnen blijven ontwikkelen.
Helaas was die kaart toen hij uit kwam ook erg duur. 500 dus.

Ik had destijds 2x een HD6870.

pricewatch: Gigabyte GV-R929XOC-4GD

Ik heb de kaart gekocht toen amd met de 300 serie op de proppen kwam.

[Reactie gewijzigd door blackmilo op 22 juli 2024 14:17]

Ik kan me anders van het rode kamp uit eigen ervaring vertellen dat door een driver update mijn HD7870 defect was gegaan alsmede die van vrienden van me.
Ik kan daar niets van vinden en het zou tocht echt heel groot nieuws zijn als een driver hardware kapot maakt.
Ah anecdotes over mensen die niet bestaan waarschijnlijk. AMD heeft zelf toegegeven dat de 5700 drivers problemen hadden, waarom dan nog ontkennen?
Ontkennen zeker niet, dat je mij beschuldigd van het uit mijn duim zuigen van info is een beetje jammer.

Ja er zijn zeker problemen geweest maar die zijn inmiddels ook weer opgelost, daarom vroeg ik hoe lang hij al zo'n videokaart gehad zou hebben ;)

Hopelijk heb je nog meer te doen dan anderen beschuldigen van dingen verzinnen.
Als freak wil je toch het beste? De nieuwste technieken en beperk je jezelf toch niet tot 1 fabrikant? Als AMD hier goed mee scoort stap ik over hoor. Al jaren Nvidia, heel even een 5700 xt gehad (wat een kut kaart).. maar dit is heel tempting.
Hier zo’n liefhebber:-)

Heeft echt niks met budget te maken. Als AMD met een vergelijkbare of betere kaart komt voor hetzelfde of minder geld koop ik die. Anders Nvidia, ik heb gewoon een voorkeur voor AMD.

Ik heb zelf nu al een klein jaartje de 5700xt en ik heb echt nog geen problemen gehad.
Vastgelopen langspeelplaat.

Nooit problemen gehad met drivers van AMD, of zo lang geleden dat ik het niet kan herinneren.

Alsof Nvidia nooit problemen kent.
Er is natuurlijk niets zo frustrerend als je pc aanzwengelen voor ja favoriete spel en er dan achter komen dat het niet werkt. Daar zijn reviews voor. Parkeren we die emotie gewoon en kiezen de kaart die het best compatibel is met onze wensen.
Voor mij een simpele kaart van de vorige generatie en voor jou misschien het grootste monster wat er te krijgen is.
Dat is een beetje wat ik zeg. Mijn ervaring met AMD is niet goed. Ik heb (gelukkig) nog nooit problemen gehad met een Nvidia kaart. Dat kan ook toeval zijn natuurlijk.
De RTX2080 kaarten hadden ook driver problemen bij lancering.
https://www.nvidia.com/en...rashes-on-rtx-2080-no-oc/
https://forums.tomshardwa...-2080-ti-crashes.3385065/
https://linustechtips.com...rtx-2080-issues-crashing/
https://steamcommunity.co...um/1/2155476542895029138/
Maar om de een of andere reden wordt dat AMD altijd zwaarder aangerekend dan Nvidia.
Denk dat het om cognitieve dissonantie gaat, mensen moeten de aankoop van hun overpriced product goed praten :P
Vergeet ook de 3080 niet met crashes. Inmiddels opgelost maar er waren zeker problemen.
De RTX2080 kaarten hadden ook driver problemen bij lancering.
Het random black screen tijdens gamen met de 5000 serie (en mijn 5xx kaart) wordt - inmiddels jaren na lancering - nog steeds "onderzocht".
Bij nvidia hebben ze die wil vlot opgelost, bij AMD zaten er tot 3 maand geleden nog steeds serieuze fouten in ...
Ja, ik heb ook het gevoel dat Nvidia wat sneller is met het oplossen van driver issues. Maar ik heb zelf nooit problemen gehad met m'n AMD kaarten. En ik heb al AMD kaarten sinds de HD4850
Ik heb nog nooit driver issues gehad met mijn 5700XT('s) Nvidia doet dat echt niet beter hoor.
Het is echt niet zo dat Nvidia de heilige graal heeft m.b.t. de drivers. Ooit in het verleden heeft AMD even kut drivers gehad, maar Nvidia ook. Alleen op de een of andere manier wordt het van AMD altijd breed uitgemeten.

Mijn ervaring met AMD is zeer goed (en nee ben geen fanboy) Ben blij dat ik eindelijk eens wat anders heb dan Intel en Nvidia. Sinds een tijdje een volledige AMD build en gewoon goede bang for the buck. Echt gewoon een snel systeem wat ik nu heb, dat met een Intel erin veel hoger was uitgevallen qua kosten met nagenoeg geen hogere performance.
Ik zit zelf weer te leunen naar AMD met mijn huidige GTX1080. En als je het over driverproblemen wilt hebben, ik heb mijzelf moeten downgraden naar een 2019 driver omdat elke nieuwere driver die ik geprobeerd heb mij ontzettend veel koppijn veroorzaakt.

Hoge thermal loads, slechtere FPS, willekeurige flickering van 1a2 seconden. Bijna niet te draaien soms. Maar met een oude drivers doet alles het pico bello.

Dus dat idee dat Nvidia de perfecte drivers heeft vind ik zelf ook een beetje kwast.

Voor de 1080 een RX480 gehad, en daar ook nooit last van gehad met drivers (Mijn broer ook niet nadat die deze overnam van mij). Dus ik weet niet waar men al die Team Red horrorverhalen vandaan halen, maar dat lijken mij zeer achterhaalde sentimenten.
ik kan zeker zeggen dat in het GCN tijdperk (7xxx-Rx 5xx/vega) de drivers over het ALGEMEEN wel degelijk waren (soms iets raars, heel soms een driver die de control panel reskinned en in extreme gevallen n kaartje opblies? oeps... (zelf niet meegemaakt gelukkig) ) en draai dus nog heel leuk een R9 290 in mn 2e PC

maar god allejezus was de launch van navi10 HORRIBLE ik heb tot wat zou het? februari geprobeerd systemen werkend te krijgen met 5700(xt)s maar t was echt huilen met de pet op. (hello blackscreen my old friend...)

ik wil best geloven dat het sinds maart inmiddels eindelijk iets van stabiel zou moeten zijn en verwacht dat Navi10/11 echt nog wel n leuke tijd tegemoet komen maar ik ben tot nog toe blij dat ik persoonlijk in mijn daily driver nog op mijn GTX 1080 zit (al klinkt de 6700XT mij best wel lekker als hij redelijk geprijsd op de markt komt)

[Reactie gewijzigd door ltnick op 22 juli 2024 14:17]

Das nog niet eens zo lang, heb dik een jaar moeten wachten totdat nvidia een driver probleem oploste bij een 1050ti
Waar 4 schermen op zaten welke meerdere keren per dag in een disco veranderde , beeld aan en uit herhaalde elke seconde.
Dat ze voor hun high end kaarten snel problemen oplossen ok,
Maar low end .

Heb overigens prive een hoop kaarten van nvidia en amd in gebruik zowel low als high end maar ook quadros enzevoort.
Kwa driver kwaliteit merk ik geen verschil tussen bijde kampen.
Wel merk ik dat quadros minder problemen hebben dan geforce , (logisch).
Vindt persoonlijk de interface van AMD mooier
Wel merk ik dat quadros minder problemen hebben dan geforce , (logisch).
Nochtans doet mijn P4200 het toch ook niet zo fantastisch. Van power throttling zonder reden tot de displayport die plots niet meer werkt...

Persoonlijk denk ik dat de implementatie van de partners, in dit geval Dell, zeker zo'n grote rol speelt als de drivers van de GPU fabrikant.
Dit komt me heel bekend voor.
Ik heb zelf een rx5700, werkt als een tierelier maar zat zwarte schermen en willekeurige reboots meehemaakt.

Gelukkig draait hij nu alweer een paar maanden stabiel.
Ja juist, helemaal mee eens. Ik had voorheen ook een GTX1080, en heb daar ook diverse driver issues mee gehad. Opzicht was dat best een prima kaart hoor overigens.

Ben van de GTX1080 naar een Sapphire 5700XT overgestapt en dat was toch wel echt een flinke stap vooruit. de 5700XT was toen echt een bang for the buck t.o.v. een 2070 super.


Heb in mijn andere systeem nog een Sapphire RX580 draaien en dat is eigenlijk nog steeds wel echt super stabiel en draait als een trein. Echt nog steeds een prima 1080P kaartje, en kost geen drol.
Als eigenaar van een RX5700XT en daarvoor altijd nvidia vind ik het verschil wel groot. Maar ik ben gewend aan certified drivers :)
Driver problemen? Ik heb een 5700... geen issues gehad. Ik game bijna dagelijks.
Mijn 5700XT heeft eind vorig jaar wel wat problemen gehad dat hij af en toe random uitviel en ik mijn pc moest resetten maar dat was na n tijdje ook gepatched. Volgens mij was het een beetje hit or miss. Heb ook ergens geruchten gelezen dat de eerste batch een kleine hardwarematige bug bevatte waardoor de instabieliteit kwam. Hierdoor waren de drivers ook een groot fiasco vorig jaar. Weet niet wanneer jij jou kaart hebt gekocht, de mijne is net na release van de AIB's besteld (5700XT Taichi)
Ik heb mijne pas een maand of zes, misschien zelfs nog later na de release gekocht. Best tevreden mee en zoals gezegd, geen issues. Zonde dat jij wel problemen had, dat geeft toch altijd een slecht gevoel en motiveert vaak om bij de volgende aankoop naar het groene kamp te kijken (wat ik helemaal zou snappen, ik kom van het groene kamp).
Het maakt nogal uit wanneer je de kaart kocht. Toen ik hem kocht waren de meeste issues er al uit, maar toch waren er nog 3 patches nodig om alle crashes er uit te krijgen.
Ja, dat blijkt zo. In ieder geval, ik ben best tevreden :)
Anoniem: 58485 @Deralte29 oktober 2020 02:21
Er is een groep users geweest die hun geheugen met fast preset timings van hun systeem getweaked heeft. De users die ineens overgingen op PCI-E 4.0 in combinatie met een 5700 en een geheugen overklok kregen te maken met BSOD's en toestanden. Blijkbaar was de combinatie van PCI-E 4.0 toch niet helemaal stabiel met een aardig wat aantal users dat hun ram op strakkere timings had staan.

En AMD maar afbranden ...
Zowel AMD als Nvidia zijn niet bug-vrij. AMD heeft gehoor gegeven en erkend aan de RX5000 serie driver-problemen. En ergste bugs zijn ook daadwerkelijk al een tijdje opgelost. Je laat klinken dat de AMD drivers onwerkbaar zijn. Beiden hebben zo wel hun momenten van glory en fail.
Daarentegn heeft Nvidia geschiedenis in Hardware-bugs. Die zijn wat moeilijker te verhelpen dan een software-update. We hebben kort geheugen maar volgens mij hadden de eerste batch RTX 2080TI hoge percentage hardware failures. En ik heb ook begrepen dat de eerste batch RTX 3080 hardware probleempjes hadden met iets van oververhitte VRM's.

En misschien kun je de Tweakers helpen met je "subpar ervaringen met AMD" te delen. Daar kunnen we allemaal wat van leren en hopelijk wellicht aantal probleempjes oplossen en elkaar helpen?

Maargoed het is jou geld. Koop lekker Nvidia, dan weet je zeker dat je geen bijdrage hebt geleverd aan de verlaging van de Nvidia tax. En iemand anders is nu de gelukkige van de vrijgekomen Radeon kaart.
Nvidia is inderdaad geen heilige graal.

In een oude Linux-laptop van mij had ik een Nvidia-videochip, na het bijwerken van het systeem werkte ineens het hele Nvidia-stuurprogramma niet meer, zodra de grafische omgeving werd opgestart kreeg ik zwart beeld, tien seconden later viel het systeem uit. Het openbronstuurprogramma (Nouveau) voor Nvidia deed het wel gewoon, helaas wel met lagere prestaties waardoor sommige 3D-videospellen niet meer soepel draaiden.

Nvidia heeft dit probleem nooit opgelost ondanks véél meer mensen er last van hadden: https://bbs.archlinux.org/viewtopic.php?id=167195

Ik zou er hetzelfde over zeggen als Linus Torvalds: https://www.youtube.com/watch?v=iYWzMvlj2RQ
Misschien dat het nu wel opgelost zou zijn, maar op launchday waren de navi drivers inderdaad vreselijk. Deze nieuwe kaarten zou ik dus ook niet gelijk gaan kopen, eerst een maandje wachten en dan zien of de drivers redelijk werken.
En voor elk persoon die toen geen problemen had is er een die ze wel had, "ik had nergens last van" is dus geen argument. Op reddit las ik toen veel over mensen die de zelfs hun geld terug gevraagd hebben omdat ze zo teleurgesteld waren.
En voor elk persoon die toen geen problemen had is er een die ze wel had, "ik had nergens last van" is dus geen argument.
Langs de andere kant is het waarschijnlijker dat een ontevreden klant zijn klachten rondstrooit, tegenover een tevreden klant die gewoon zijn ding doet. Negativiteit verspreid gemakkelijker en sneller. Zeker op reddit...
Ongetwijfeld waren er veel mensen met issues, maar het is zeer onwaarschijnlijk dat die verhouding 50:50 was zoals je impliceert.

Maarja, het is sowieso een goed idee bij elk product om eerst reviews af te wachten en anderen de kinderziektes te laten ontdekken.
Ik begrijp het hoor, je oordeelt toch over de reputatie van een producent wanneer je een nieuw product koopt.

Bij mij heeft nVidia behoorlijk wat goodwill verbruid daarentegen, zij hebben ooit de boel behoorlijk geflest met de 970 die 4GB geheugen zou moeten hebben, maar waar 0.5GB praktisch onbruikbaar was. Hebben ze ook verplicht mensen voor moeten compenseren, via 'n class-action lawsuit.

Toch ook iets om over na te denken, als je gaat oordelen over de reputatie van de producent van een duur product dat je koopt waar je een goed gevoel bij wilt hebben.
Ik heb dat altijd een raar verhaal gevonden. Ik heb verschillende 970's gehad en was daar erg tevreden over. Ik kocht ze op basis van de prestaties en niet de geadverteerde specs. Heb je die 0.5gb daadwerkelijk ergens gemist?
https://www.youtube.com/watch?v=Zr9JYo8Qss8

Denk het niet, want een GTX 970 doet het anno 2020 na 5 jaar dus nog prima op de resoluties waarvoor hij bedoelt was, ook tegenover een vergelijkbare R390 met 8GB.. Alle controverse destijds rondom het 3,5GB vs 4GB verhaal was dus behoorlijk overdreven.. Net zoals nu het gezeur over 10GB op de RTX 3080 dat waarschijnlijk zal zijn.. Eigenlijk is de enige redelijk recente videokaart die echt ooit problemen met te weinig geheugen heeft gekregen een AMD geweest, namelijk de Fury X met ook maar 4GB (HMB).. De balans tussen snelheid van de GPU en de hoeveelheid geheugen moet kloppen.. Maak je een videokaart voor 1080p en 1440p dan kan je met minder geheugen af dan wanneer je een videokaart maakt voor 1440p en hoger..

[Reactie gewijzigd door Inflatable op 22 juli 2024 14:17]

Hoe die kaart daadwerkelijk heeft gepresteerd is irrelevant, ze vonden het toch nodig om voor marketingdoeleinden een onbruikbare extra 512MB op de kaart te plakken om met 4GB te kunnen adverteren.

Omdat AMD hier werd afgerekend op driverproblemen in het verleden, wilde ik een slecht moment van nVidia aanstippen uit het verleden als tegengeluid.
hopelijk: "zeg nooit nooit", misschien kan dit weer de kans zijn voor AMD om aan klanten zoals bij jou weer in het goede licht te komen staan. (alsnog is concurrentie goed voor ons dus ik ben zwz blij ;))
ik mag niet klagen, vorige GPU was van AMD, een HD7950... wat een zalig ding was dat, met gigantische OC!

Nu wel een GTX1080 wat nog tijdje mee kan
Dat is een beetje ervaring. Ik lees ook genoeg over Nvidia driver issues. Op mijn werkt (quadro) zijn er ook regelmatig driver issues.

Beide doen het niet perse heel goed. Blijkbaar is een algemene driver maken die altijd goed werkt toch lastig. En zijn er veel tweaks voor spellen nodig.

Overigens voor budget gaming was het altijd al interessant om een AMD kaart te nemen.
Gelukkig heeft nvidia geen driver issues zoals crashes wanneer de automatische overclock te agressief is ingesteld //sarcasme :P

Ik heb zowel een 1080ti als een RX570 in een secundair systeem. Met beide betrekkelijk weinig tot geen problemen. De grootste problemen zijn voor mij de geforce experience die nogal eens roet in het eten gooide. Makkelijke oplossing om deze niet te gebruike natuurlijk; zo geschiedde :)

De interface van AMD drivers vind ik dan wel weer verschrikkelijk. Ik vind het nvidia control panel echt veel fijner: overzichtelijker en duidelijker en niet van die storende opsmuk. Kan me echt niets schelen hoe flashy een menuutje is. Ik wil gewoon makkelijk instellingen kunnen veranderen. Dat gaat echt veel makkelijker bij nvidia.
AMD heeft het vaak wat moeilijk in het begin met nieuwe producten, kijk maar naar de issues met Ryzen en de Windows scheduler toen die eerst uit kwam, en ook de drivers van de 5700 waren inderdaad niet wat je verwacht als je zoveel geld uitgeeft aan een product van een groot merk.

Maar als je iemand bent die lang dezelfde hardware gebruikt, maken ze dat veelal goed door lang updates en support te voorzien, en continue beter wordende performance adhv driver-updates.

Voor mij is het eigenlijk volledig omgekeerd: als ik de keuze heb, zal ik nooit een Nvidia kopen, gewoon omdat AMD veel betere ondersteuning biedt op mijn platform, Linux. Met Nvidia kom je toch telkens weer problemen tegen op Linux, zeker als je recente hardware koopt. Ik ben wel van plan om mijn Vega 56 mogelijks te upgraden naar een van deze nieuwe kaarten.
Anoniem: 310408 @sspiff29 oktober 2020 19:26
AMD heeft het vaak wat moeilijk in het begin met nieuwe producten, kijk maar naar de issues met Ryzen en de Windows scheduler toen die eerst uit kwam
Je bedoelt iets als net de 2080 bij release? Het geheugen van veel tweakers is zeer selectief.
Zelf geen ervaring daarmee in mijn vriendenkring, met de 5700 reeks wel.

Hoor wel dat er nu bij sommige RTX 30X0 kaarten ook issues waren.
Dat zelfs de 5700 nog driver problemen heeft is echt ongehoord.. Destijds mijn 7850 de deur uitgedaan hierdoor..
Your loss. Ik denk dat RDNA2 nu eindelijk de stap is die AMD al jaren heeft laten liggen, noodgedwongen dan weliswaar, maar toch. Er was inderdaad lange tijd geen enkele reden om voor een AMD GPU te gaan. De eerste versie van Navi was ook zeker niet geweldig. Een stap vooruit, maar lang niet genoeg.

Maar dit ziet eruit voor AMD als wat Pascal voor Nvidia was. Ik denk dat Huang zich achter de oortjes krabt op dit moment. Als ik jou was zou ik hier eens even open minded in gaan staan. Ik weet dat ik dat, na jaren Nvidia, zeer zeker wel ga doen.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:17]

Helaas was/is het hele Catalyst gebeuren niet fantastisch geprogrammeerd.

Dat AMD problemen had/heeft met hun Radeon software is een bekend fenomeen. Dus dat je zoveel minnetjes krijgt alsof je comment "ongewenst" is of "off-topic" slaat nergens op.

Waarom kunnen we op Tweakers hier niet gewoon objectief over zijn en moet er zo'n enorm emotioneel fanboy gehalte bij betrokken worden?
We hebben het hier over hardware. Je gebruikt toch wat het beste is voor je geld en niet om het merk wat er op staat. Het zijn geen status producten.
Waarom jouw mening/ervaring een min 1 krijgt begrijp ik echt niet :S
Mee eens, ik had ook geen enkel probleem met die moderatie verder.

Maar waarom _ik_ nu een -1 krijg ipv een 0 score is mij dan weer een raadsel, maar goed, nu dwaal ik weer af... :)
Ik vind het toch wel een geweldige prestatie van AMD. Vooral de 6900XT is gewoon net zo goed als de (in verhouding tot de RTX3080) veel te dure RTX3090 en dat voor 500 dollar minder. Gewoon een veel betere deal. Zelf zou ik niet voor het topmodel gaan omdat het voor mij overkill is, maar als je graag zulke kaarten koopt zie ik weinig reden om voor Nvidia te gaan ipv AMD wanneer de optie van Nvidia gewoon zo veel duurder is.

Indien AMD wel in redelijke hoeveelheid de kaarten kan leveren zie ik veel "pre"-orders voor de RTX3090 en misschien zelfs RTX3080 sneuvelen ter bate van de AMD optie.
Let wel op dat bij de 6900XT Rage Mode en Smart Access Memory aanstaan, zonder AMD 5000 Processor lijkt hij dus langzamer te zijn. Al is 500 dollar minder nog steeds enorm veel minder
Voor die 500 dollar koop je een 5600xt en moederbord erbij :+
Je hebt een clow moji gezet. Maar jou voorgestelde €500 koopje voor een Ryzen 5600X met mobo kan wel eens een heel erg toffe fps boost worden met je huidige GPU alleen al, als ik de rumours mag geloven.
Is die nvme direct access feature niet met name onderdeel van PCI 4.0 en werkt het dus niet bij een 3.0 GPU kaart?

Is dat wellicht ook een motivatie om met 2080 Ti te vergelijken in sommige benchmarks, i.p.v. een 3000-series.

[Reactie gewijzigd door djwice op 22 juli 2024 14:17]

Smart Access zal zelf niks doen voor je FPS of voor je processing power. Het is een feature om sneller data te laden.

https://devblogs.microsof...tstorage-is-coming-to-pc/

Het zal laadtijden verlagen en ervoor zorgen dat je geen stotter ervaart vanwege laden. Het effect dat er zomaar objecten verschijnen of dat er tijd nodig is om details van een object in te laden zullen tot het verleden behoren.

Waarom ze in de ene slides met de 3000 series en in de andere slides met de 2000 series vergelijken snap ik niet. Het verhaal is duidelijk, de 6000 series gaat kop aan kop met de 3000 series.
Smart Access Memory =/= Direct Storage.

SAM is iets wat je krijgt als je een 5xxx CPU van AMD combineert met een RX 6xxxx videokaart en geeft je 1 a 2% extra performance.

Direct Storage is wat je hier zelf al omschrijft.
Bijna goed, Rage mode geeft 1 a 2% extra performance. SAM tussen de 2 en 8% volgens AMD.
En dat kan nog wel eens meer worden wanneer developers er meer mee gaan doen, en aangezien de PS5 en Xbox series x/s er een soort van gebruik van maken is dat best interessant.
Nee hoor, smart access is gewoon een AMD label voor resizeable BAR. Hierdoor wordt de gehele framebuffer beschibaar, ipv alleen maar blokken van 256MB.

https://docs.microsoft.co...lay/resizable-bar-support

Direct Storage is de DX12 standaardisatie om beter gebruik te maken van deze feature. Misschien dat AMD via de CPU en zijn API (waarom het alleen voor Zen 3 en alleen voor X570 chipsets bruikbaar is, is vooralsnog een mysterie) nog mogelijk maakt om extra bewerking uit te voeren waardoor je theoretisch misschien een extra performance boost kan krijgen, maar dat is dan alleen maar van toepassing op spellen die erop geoptimaliseerd zijn.

In de praktijk zal het dus voor een groot deel van de spellen inhouden dat ze DX12 gebruiken en beperkt zullen blijven tot direct storage.

In de basis is het een methode om je VRAM sneller (lees grotere blokken) te kunnen benaderen en dus om sneller te laden. Waarom AMD claimt dat de kaart met smart access beter presteert is vooralsnog een vraagteken. Moderne engines zijn heel goed in het fragmenteren van data en pas data laden op het moment dat het echt nodig is, misschien dat daar de performance boost in zit. We weten het nog niet.

Maar, de claim dat smart access en direct storage hetzelfde zijn klopt zeker wel.

[Reactie gewijzigd door TechSupreme op 22 juli 2024 14:17]

Waarom ze in de ene slides met de 3000 series en in de andere slides met de 2000 series vergelijken snap ik niet. Het verhaal is duidelijk, de 6000 series gaat kop aan kop met de 3000 series.
Dat komt omdat de 3070 nog (net) niet uit is, daarom vergelijken ze de 6800 met de 2080Ti. De 3080 en 3090 zijn er wel al, dus die kunnen met de 6800XT en 6900XT vergeleken worden.
Die 3070 konden/kunnen ze nog niet in hun bezit hebben toch? ;)
Je hebt wel goede betrouwbare benchmarks nodig om een vergelijk te kunnen maken, en daar ga je de getallen uit de slide van leatherman niet voor vertrouwen ;-).

Die claim van 2080Ti is prima basis om een beschikbare 2080Ti als referentie te pakken.
Plus stiekem is het een steek onder water naar nVidia, die hebben nog niet alle nieuwe kaarten beschikbaar, terwijl AMD gewoon een complete serie in een klap released.

Als ze nu de leverbaarheid niet op orde hebben, gooien ze hun waardigheid te grabbel, dus daar verwacht ik zeker meer van dan van nVidia RTX30xx serie.

Als de cijfers die AMD toont waar zijn, realiseer je dan ook dat de performance gain veel groter is dan bij kamp groen.
Voordeel voor AMD, zij kunnen CPU en GPU echt op elkaar afstemmen en dat lijken ze nu meer dan ooit te doen. Nadeel voor ons, ze drukken ons daarmee meer richting AMD dan we misschien zouden (moeten) willen.

[Reactie gewijzigd door EwickeD op 22 juli 2024 14:17]

Blijft bijzonder dat AMD een kaart voor $579,- / ~ €599,- lanceert die vergelijkbaar presteert als een kaart van NVidia die tot eind augustus nog gemiddeld €1269,- kostte. Dat is 1/2 van de prijs in minder dan 1 kwartaal.

En daarmee wellicht dus NVidia dwingt een ander prijspijl te hanteren én nieuwe producten te lanceren voordat AMD dat doet, omdat NVidia anders gewoon de boot mist. Dan stap iedereen over op AMD.
Wellicht heeft dat tot gevolg is dat NVidia te lage yields heeft om de high end GPU's voldoende te kunnen leveren. Onder prijsdruk een versnelde go-to-market.
Inderdaad :) het worden weer mooie upgrade tijden !
Van wat ik begreep juist niet. Linus had het erover dat deze future ook nog kan aangezet worden.
Bij de 6800xt zie je 2 slides waarbij bij de ene die actief staat en extra winst oplevert.

Zoals ik het begreep heeft de 6900XT deze prestatie, en dan ook nog de rage mode als bonus erbovenop.
En zover ik weet kunnen de kaarten ook nog een paar honderd mhz sneller draaien wat ook weer prestaties op zal leveren.

Ik zie Nvidia dus snel de Ti's en Supers al uit de kast trekken. En eerlijk gezegd was dat al op voorhand te verwachten. Want Nvidia die een stuk meer prestaties levert voor opeens een stuk minder geld?

Nee, inside weten ze uiteraard al van elkaar wat ze ongeveer kunnen verwachten. Zodra partner fabrikanten de kaarten gaan fabriceren weet de tegenstander het een paar dagen later globaal of beter zelfs.
Zoals ik het begreep heeft de 6900XT deze prestatie, en dan ook nog de rage mode als bonus erbovenop.
Als je op het plaatje van de rx 6900xt onder de grafiek kijkt zie je dat rage mode en smart access memory aanstaan bij die benchmarks. Bij de 6800 en 6800xt staan deze modussen inderdaad uit. Hoe de 6900 xt presteert zonder deze technieken is dus nog maar de vraag (ookal is rage mode iets waarvan ik vind dat het gewoon meegenomen mag worden omdat iedereen hier profijt van kan hebben, ongeacht welke cpu je hebt).
idd rage mode is gewoon een boost mode welke nvidia vgm automatisch kan. en dan is rage mode nog maar een paar % winst. gewoon een auto boost welke we al kende van de amd cpu's.
Rage mode is geen boost modus. Het verhoogd de power limit van de kaart een beetje, maar is geen overclock. De kaart wordt simpelweg ietsje minder gelimiteerd door z'n eigen power limit. Het verschil is dan ook maar enkele procenten.
Klopt. Dat offensief was puur om de aandacht van AMD weg te trekken. Nvidia wist dat ze eraan kwamen. De 5700 was daar eigenlijk al een voorbode van. Een mid-sized GPU die de 2070 nipt, een dubbel zo grote GPU met 2x het aantal CU's en toestanden moest wel richting de 2080 en eroverheen gaan. Zeker toen AMD hun eigen saus eroverheen gooide, zoals Inifitity cache.
Er zijn al leaks van AIB kaarten die op 2.5ghz draaien, kan dus nog wel eens zijn dat deze kaarten leuke overclock monsters worden. Waarbij Nvidia met de rtx 3000 generatie vrijwel geen headroom over heeft.

Die 2.5 ghz is toch wel 0.5 ghz sneller, niet niks. 25% meer clocks, zal best 10% aan performance op kunnen leveren.
Een zeer belangrijk aspect voor veel gamers/streamers wordt hier over het hoofd gezien. Een van de redenen dat Nvidia zo populair is bij deze groep is de goede implementatie van NVENC. De tegenhanger van AMD (AMF/VCE) is een werkelijke tranentrekker en de slechtste implementatie in de geschiedenis van GPU (assisted) encoders. Zelfs Intel's iGPU's met QuickSync presteren hier beter. Pas als AMD hier aanzienlijke verbeteringen in aanbrengt, hebben ze een mogelijkheid om Nvidia van de troon te stoten.
Hoezo want iedereen streamt en zonder die feature stoot je Nvidia niet van de troon? Klinkt eerder als een gimmick, als amd op alle punten beter scoort behalve dat is er echt maar 1 verliezer als je het mij vraagt.

Maar laten we met zijn alle niet vergeten dat Nvidia al met super/Ti kaarten op weg is en daarnaast de productie heeft verhuist naar ik dacht TMC. Dat hield meen ik ook in dat het op een iets kleiner procedé wordt gedaan. Dus Nvidia heeft nog wel een antwoord op deze line up.
Wel vaker genoemd in de reacties maar NvEnc is voor mij doorslaggevend. Het is namelijk een echte 'game changer' voor (in-home) game streaming. (Dus niet video streamen maar echt game streamen)

Ik besef dat het wel een niche is, maar absoluut geen gimmick, want het werkt als een trein en ik kan met 2-3ms input delay van m'n pc boven 4k games streamen op m'n tv beneden.
Ben hier ook op zoek naar, heb je tips/resouces om hier mee te beginnen?
Er zijn natuurlijk verschillende manieren om dit te realiseren. Ik gebruik hier zelf Moonlight voor. (Als je Moonlight Github googled vind je het al snel)

Dit artikel geeft wel veel uitleg:
https://www.reddit.com/r/...vidia_geforce_experience/

Als je het heel simpel uitlegt: Moonlight gedraagt zich als een Nvidia Shield. Waardoor je (bijna) alle devices kan omtoveren om samen te werken met GeForce Experience, en vanuit daar dus met Nvidia's eigen software je games (in-home) kan streamen. Dit gebruikt dan NvEnc. Ook de nieuwe versie van Steam Link ondersteund NvEnc maar werkt véél slechter dan Moonlight, heb ook een hoop andere in-home streaming tools gebruikt maar niks werkt zó goed als Moonlight (imo). Ik heb niet eens door dat ik een game aan het streamen ben, lijkt alsof ik de PC gewoon aan de TV heb gekoppeld.

Nu zijn er voor AMD heus wel opties. Zelf geen ervaringen mee, maar op internet lees ik daar niet heel veel positiefs over.

[Reactie gewijzigd door Valandin op 22 juli 2024 14:17]

2-3ms? Da's knap. Vooral dat je dat meetbaar hebt en met network latency, want 2-3ms haal je op je eigen PC niet eens als je niet streamt.

Klets geen onzin...
2-3ms? Da's knap. Vooral dat je dat meetbaar hebt en met network latency, want 2-3ms haal je op je eigen PC niet eens als je niet streamt.

Klets geen onzin...
Is geen onzin, is verder gewoon meetbaar. Input delay zit tussen de 2-3ms. Beeld ontvangt de HTPC in ~2-5ms (schommelingen) en beeld wordt gedecodeerd in 12-15ms, maar op een TV zie of merk je daar helemaal niks van. Is een onderwerp dat op internet al vaak behandeld is, bewezen is, ga maar door.
Wat mij betreft geloof je het niet, ik game vrolijk door ;)
Extra latency dus ;)
Dit klinkt goed! Hoe doe je dit precies? Is dit bijvoorbeeld geintegreed met steam streaming?

[Reactie gewijzigd door lukjah op 22 juli 2024 14:17]

Hi! Heb net hierboven gereageerd op 3rdEden
Hoezo want iedereen streamt
Nee, maar veel mensen nemen wel hun gameplay op om vette clips te sharen, en daar is NVENC koning in op dit moment.
Als iemand die dit zelf ook vaak doet op een brakke RX580, wat doet Nvidia hier beter in?
Betere kwaliteit video met name.
Een gimmick. En nee, een 'Tube video van een of andere streamer die het aanprijst is geen bewijs van het tegendeel ;) Alle GPUs kunnen dat prima.

Verder is streamen echt nog steeds een niche tov gaming zelf.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:17]

Wat zijn we altijd lekker kortzichtig hier. Alles wat we zelf niet gebruiken is "een gimmick".
In de context (!) van het kopen van GPUs, ja.
Wellicht hooguit zo'n 3% van degene die zo'n kaart koopt. Ik denk dat minimaal 50% niet eens zal weten dat er zon feature in de driver zit. En al helemaal niet of er verschil in zit tussen AMD en Nvidia
Als jij denkt dat AMD "op alle punten beter scoort" dan Nvidia, heb je óf de preview niet (goed) gelezen óf hecht je teveel waarde aan marketing bs. Aan je reactie maak ik ook op dat je er geen flauw benul van hebt hoe groot en belangrijk de streaming community voor AMD, Intel en Nvidia is. Synthetische benchmarks zijn slechts een graatmeter. Ik ben vooral benieuwd naar de in-game performance, waarbij FPS niet alles zegt. PQ en de afwezigheid van glitches is minstens zo belangrijk. Zowel Nvidia als AMD hebben hier in het verleden al verschillende keren de plank misgeslagen, dus ik wacht met het trekken van voorlopige conclusies tot we daadwerkelijk iets tastbaars in handen hebben.
Hoe groot schat jij de streaming community dan op het totale marktpotentieel? 1%? 2%?
Anoniem: 58485 @boolean29 oktober 2020 02:19
Die streaming community is niet zo groot als in verhouding met gamers ofzo. Je kunt al streamen met AMD hardware. Geen probleem. En er zal ongetwijfeld een betere driver support voor komen als het je zo dwars ligt of zit.
Ik heb los van het hele artikel de complete stream live gezien. Daarbij maak je de argumentatie nu persoonlijk. En dat is niet zo netjes als je het mij vraagt. Ik ben zelf streamer geweest, en een beetje streamer gebruikt hiervoor een 2de pc met een Elgato capture card of iets. Want als je dan zo pro bent, zullen je skills dat ook moeten zijn. De lag die het gelijktijdig streamen mee brengt in shooters voel je namelijk en dit wil je niet.

Daarbij state jij dat "amd Nvidia niet van de troon kan stoten omdat ze niet iets hebben als NVenc" en ik zeg dat als AMD op ieder vlak beter is behalve dat dat ze dat wel doen. Daarmee zeg ik niet dat dat ook zit is. Maar ik hoop het, wand ik vind deze frisse concurrentie, die nu voor het eerst in jaren op het zelfde niveau lijkt te zijn super interessant.
Streamers gebruiken dedicated video capture cards, hoop ik voor ze.
Heb je alleen wat aan als je een tweede stream pc hebt, met een enkele pc setup encode je dan nog steeds op GPU of CPU.
Hey,

Waarom zou je dit op een aparte stream pc gaan doen?

(serieuze vraag)

Ik neem mijn gameplay op via obs en dat kost me maar 10fps ofzo. Dus waarom dan nog een capture card?

Amd 3900x - rtx 3090 - 32gb memory
"veel" ? je bedoelt "een minieme niche markt" . Sorry er zijn echt weinig mensen die high end streaming doen dat maakt echt geen verschil in de markt.
Veelal omdat echte streamers gewoon dit doen op een apart PC .
Meeste succesvolle streamers hebben een tweede pc daarvoor staan.
De RTX 3090 koop je voor de enorme hoeveelheid DDR6X VRAM, dus niet vergelijkbaar, behalve op gaming gebied. Maar daar koop je een 3090 niet voor (en wie daar wel 1500 euro voor over heeft kan het echt niet schelen wat AMD doet). Wel slim van AMD om een 3090 alternatief op de markt te zetten voor de gamer, noem het een 3080 Ti/Super van AMD waarmee ze dus toch Nvidia sneller af zijn. Ik verwacht overigens dat de 6900XT met raytracing ongeveer net zo goed zal presteren als een 3080, want die gegevens ontbreken uit deze presentatie.

[Reactie gewijzigd door Blackice09 op 22 juli 2024 14:17]

Downplay je het opzettelijk?
De 6900XT is (voorlopig) marginaal sneller dan een 3090 en je wilt hem dan een 3080Ti noemen?
Wilt niet zeggen dat de benchmarks gelijk zijn dat de prestaties in games gelijk zijn. Ten eerste de 3080 was getest op een tragere CPU, namelijk de 10900K. Als de nieuwe Ryzen series zoveel verbetering brengt op vlak van IPC, dan zal de realiteit zijn dat de 3090 een paar percent boven de 6900XT zal liggen wanneer getest met identieke processoren, zonder DLSS.

Laat staan de RTX performance, deze zal nog een stuk lager liggen, huidige benchmarks tonen een verschil van 30% of meer, naargelang welke benchmark gebruikt wordt.

AMD wint vooral op prijs, maar op prestatie gaan ze het uiteindelijk niet van halen van de 3090.

3090 is trouwens ook niet direct op gamers gericht, de RAM hoeveelheid en snelheid is eerder gericht aan AI realisaties en dergelijk.

[Reactie gewijzigd door hikashuri op 22 juli 2024 14:17]

Ten eerste de 3080 was getest op een tragere CPU, namelijk de 10900K
Dat is niet waar, de test opzet is voor beide GPU's hetzelfde.
3090 is trouwens ook niet direct op gamers gericht, de RAM hoeveelheid en snelheid is eerder gericht aan AI realisaties en dergelijk.
Dus de mensen die de Titan kochten, echter had de Titan het gigantische voordeel dat ze de professionele/workstation drivers kregen. Dit is niet het geval met de RTX 3090, dus het is een kaart gericht op gamers, hoewel de specificaties anders zouden doen denken. Het verschil in memory valt ook nog wel enigzins mee eigenlijk, 16gb vs 24gb.
Dat de hoeveelheid geheugen niet op gamers is gericht is al discutabel, over de 11GB van de 2080Ti had men destijds soortgelijke meningen, maar dat de snelheid niet voor gamers is is natuurlijk onzin. Er zijn nog genoeg spellen die meer kracht kunnen gebruiken, tenzij je beargumenteerd dat dit de laatste GPU voor gamers ooit is want sneller hoeft niet meer.
Er zijn nu al genoeg tests geweest waarbij is aangetoond dat geen enkele game meer dan 10GB in gebruik heeft, meestal ligt het onder de 8GB. Want in gebruik hebben is wat anders dan simpelweg in het geheugen laden. Deze hoeveelheid RAM is puur bedoeld voor workstations, en zelfs dan nog aan de lage kant. Maar de 3090 is een hybride kaart. Het renderen van 3D video animatie scenes neemt gemakkelijk 20GB in beslag. Meer snelheid is natuurlijk altijd fijn, en dan is de 6900XT een leuke optie.

[Reactie gewijzigd door Blackice09 op 22 juli 2024 14:17]

Het verschil in performance tussen een 3080 en een 3090 is maar 10-15% Als er ooit een 3080 Ti komt zal die niet ver onder doen qua gaming performance vergeleken met een 3090. in sommige games is de 6900XT zelfs langzamer dan de 3090, in hun eigen marketing grafiekjes. En die zijn met Rage Mode (OC) en Smart Access Memory (en dus Zen 3 vereist), en zonder raytracing.

[Reactie gewijzigd door Blackice09 op 22 juli 2024 14:17]

Rage Mode (OC)
Het is geen OC. Het zet de power slider wat hoger, dat is iets anders (langer booste, niet perse hoger). En aangezien de 6900xt een 50 watt lagere TDP heeft als de 3090, en daar waarschijnlijk ook niet boven komt met rage mode aan, lijkt me dat gewoon een legitieme vergelijking.

En voor het prijs verschil kan je zen 3 CPU kopen.
500 dollar voor een full chip en 4$ per extra geheugen module op de kaart... neen. Die 24GB ram is echt de 500$ meerprijs niet waard.
Rtx 3090 voor gaming en het is nog niet genoeg voor 5120x1440 resolutie om warzone op z'n mooist boven de 100fps te krijgen. Sonde.
Vooral de 6900XT is gewoon net zo goed als de (in verhouding tot de RTX3080) veel te dure RTX3090 en dat voor 500 dollar minder.
Ik wacht altijd even af voordat ik zulke stellige uitspraken zou doen. Ik baseer me nooit zo op percentages e.d. die fabrikanten zelf presenteren, maar wacht liever de onafhankelijke reviews af.

Maar als de kaarten werkelijk zo goed zijn, hoop ik dat AMD en Nvidia qua prijs gaan concureren en niet door het onstane duopolie de prijzen gaan opdrijven.
hoezo "het ontstane duopolie" ?

je laat dat klinken alsof de prijzen van de topkaarten alleen maar verder opgedreven zouden worden dan wanneer er nog steeds een monopolie zou heersen, dat is het omgekeerde van meer performance per dollar ......misschien mis ik iets,....nusschien wat onderbouwing van die uitspraak?
Vaak is het zo dat bij een gevestigd duopolie van vrijwel gelijke produkten de prijzen opgedreven worden. Er wordt dan niet meer op prijs geconcurreerd maar in plaats daarvan volgt de een de ander in prijsstijgingen. Kijk naar bijvoorbeeld Ziggo en KPN, (niet het allermooiste voorbeeld).

De performance per dollar is het gevolg van Moore's law, maar de stijging van performance per generatie gaat steeds minder in gelijke tred met de (introductie)prijs. Intel heeft net als Nvidia de prijzen de laatste generaties opgeschroefd.

Nvidia heeft het met Turing IMO wel heel erg bont gemaakt als je kijkt naar de prijs-trend en performance gain-trend per generatie. Voorheen steeg de prijs van xx60, xx70 en xx80 niet zo sterk.
En dan nog voor 50W minder, idd puike prestatie. Maar let wel op dat Rage Mode en SAM aangezet zijn bij deze benchmarks. Als deze settings uitgezet zijn zal de kaart minder presteren en in het merendeel vd geteste games presteert de 6900XT al minder dan de 3900. Wachten op onafhankelijke benchmarks dus.
Ach als ze voor 66% van de prijs 90% van de prestaties kunnen leveren vind ik het nog steeds knap en zou ik voor AMD gaan.
Volgens mij scoorden ze juist gemiddeld beter met de 6900XT..
Vergeet ook niet de beeld kwaliteit, die vond ik met AMD kaarten toch net iets beter.
Tja, de 3090 is een typisch flagship model: idioot duur voor marginaal beter prestaties dan de 3080. Eerlijk gezegd alleen interessant voor niet-gamers en patsers enthusiasts. Ik ben wel benieuwd of NVIDIA de prijs daarvan gaat verlagen nu ze erachter komen dat ze die markt niet meer voor zich alleen kunnen opeisen. Uit NVIDIAs prijzen: 3080,3070 prima geprijst, ook tegenover de nu uitgekomen AMD prijzen, 3090 daarentegen ouderwets 2080Ti-achtig te duur, zou je op kunnen maken dat ze verwacht hadden dat AMD op zijn minst bij de 3080 in de buurt zou kunnen komen. De 6800XT maar zeker ook de 6900XT was dan waarschijnlijk een tamelijk akelige verrassing van mevrouw Su....
FidelityFX heeft een functie genaamd Super Resolution.
Volgens een aantal leaks lijkt dit de tegenhanger van DLSS te worden, maar niet helemaal hetzelfde.

Daarbij kraam je onzin uit door te zeggen dat het geen raytracing functies heeft. Dat hebben ze wel.
FidelityFX krijgt nieuwe features, dus ik vraag me af hoe jij weet dat het minder goed is?
Er is letterlijk nog niets gelekt over de Super Resolution functie. Hoe kom je daarbij?

Nvidia RTX is een implementatie van DXR.
Als je de presentatie had bekeken had je gezien dat in ieder geval Godfall, Far Cry 6, Dirt 5 en The Riftbreaker bij launch AMD's raytracing ondersteunen. Ga er maar vanuit dat de rest zal volgen.

[Reactie gewijzigd door vliegendehommel op 22 juli 2024 14:17]

Raytracing is toch niet software afhankelijk? Zelfs niet hardware afhankelijk maar de raytracing cores helpen enorm. AMD heeft nu ook HW-based 'Ray Accelerator' cores maar die zijn niet zo goed als die van Nvidia. Als je deze benchmark mag geloven is deze onbekende 6000 series kaart zo'n 25% langzamer met raytracing dan de 3080. Maar sneller dan de 2080 Ti dus zal vooral op lagere resoluties prima presteren.

[Reactie gewijzigd door Blackice09 op 22 juli 2024 14:17]

Edit: goeie morgen, bakkie koffie nodig

AMD kaarten zijn dan wel gelijk aan console en de link die je plaatst haalt een persartikel uit augustus aan.

Nog een paar weekjes, we zullen het zien.
Vind zelf raytracing nog wat gimmicky in de meeste games waar het is toegepast, heeft nog een generatie of 2/3 nodig.

[Reactie gewijzigd door Luke Skyballer op 22 juli 2024 14:17]

Dat klopt, dat bestaat al langer.
Echter werkt Microsoft hier zelf aan voor de Series X:
https://github.com/microsoft/DirectML
https://github.com/micros...L/DirectMLSuperResolution

Volgens de Youtuber RedGamingTech (heeft tot nu toe zijn leaks allemaal goed!), kunnen we mogelijk in november/december/januari 'super resolution' verwachten middels een driver update.

Voor nu zal het speculatie blijven maar het lijkt me niet dat AMD stil gaat staan terwijl Nvidia DLSS aan het uitrollen is.

Edit:
Ik kwam zojuist tegen, het is in ieder geval confirmed:
https://twitter.com/tomwarren/status/1321489315428519936

[Reactie gewijzigd door vliegendehommel op 22 juli 2024 14:17]

De raw performance is inderdaad indrukwekkend. Maar ik mis zelf toch echt een antwoord op DLSS. Fidelity FX is leuk en aardig maar komt (in de huidige staat) niet in de buurt van DLSS. Daarnaast vind ik het ook zeer verdacht dat er geen ray tracing benchmarks uit zijn gebracht.
DLSS 2.0 wordt door enkele titels ondersteund. Als je jouw game aan dit zeer beperkte lijstje wilt toevoegen, werkt NVIDIA met je samen om het te implementeren, maar daar staat tegenover dat je een percentage van je omzet aan hen mag afdragen. Dat is voor veel ontwikkelaars (voornamelijk kleinere) niet interessant. Wat is ~30% extra frames je waard in een handjevol games?
Ontwikkelaars die een soort royalties afdragen aan hardware fabrikanten anders mogen hun spellen niet optimaal draaien op de hardware. Omgekeerde wereld bijna. Soort van AppStore ripoff.
Hij kan daarvoor geen betrouwbare bron overleggen, dus dat puntje zou ik even met een gigantische korrel zout nemen. Het is de eerste keer dat ik erover hoor en klinkt mij als onzin.
Sterker nog, hij heeft onderin gereageerd met een 'bron' waarbij blijkt dat het onzin is.
Is wel ietsje meer dan 30%. Speel nu toevallig Pumpkin jack. Met rtx aan op 4k krijg ik +-50 fps, met dlss 100/120.
Is nogal wat.
Is wel gek eigenlijk, je implementeerd een functie die nvidias kaarten beter laat presteren in je game en dan moet je nog bijbetalen ook?

Het feit Nvidia meer kaarten slijt daardoor is niet genoeg voor ze?
maar daar staat tegenover dat je een percentage van je omzet aan hen mag afdragen
Waar haal jij dat vandaan, heb je een bron?
die ~30% (eigenlijk meer 80 tot 120% met DLSS 2.0, maar laten we 30% aannemen) is een enorme hoop als het voor mijn favoriete game beschikbaar is.
Tot zover vond ik alle NVIDEA extras zoals hairworks en fysX allemaal echt een gimmick, het uitzetten veranderde nooit iets aan de ervaring en het was toch maar in 3 games beschikbaar.
Maar nu, als ik een RTX2070 koop bijvoorbeeld, als er over 5 jaar AAA games uitkomen met DLSS verwacht ik dat de RTX2070 nog steeds bij kan benen, terwijl de 5700 dat echt niet gaat lukken met raw performance.

Laat het nou net de heavy titles zijn zoals Cyberpunk 2077 en Death stranding die DLSS gebruiken.

Ja, het is niet interessant voor kleinere titels, maar die hebben dan ook vaak verre van een hevige GPU load, dus dan maakt het ook weinig uit of ze DLSS hebben of niet. Het is een killer feature die ik ook het liefst zou zien op AMD want het is gewoon "gratis" performance.
Mijn team hoefde niks te betalen voor Ansel en PhysX. Sterker nog, we hebben urenlang meetings gehad met meerdere engineers achter PhysX om ons te helpen met de implementatie ervan, kosten 0,0.

We hebben sindsdien (nog) geen nieuw spel gemaakt, maar 't lijkt me zeer sterk dat DLSS/hairworks/Flex wel geld kosten. Jouw "bron" toont ook op geen enkele wijze aan dat er licentiekosten aan vastzitten.
maar daar staat tegenover dat je een percentage van je omzet aan hen mag afdragen.
Bron hiervoor?
Complete onzin, wat heeft dit met een deel van omzet te maken?

Wat punt 6 zegt is dat als je door de quality check komt, wordt de watermark wegegaald.
Dit is wat er publiekelijk beschikbaar is en impliceert vrij duidelijk hoe het werkt. Als je denkt dat NVIDIA een liefdadigheidsinstelling is die jouw game gratis DLSS 2.0 compatible maakt, dan nodig ik je uit om ze zelf te benaderen. :)
Juist. Onzin dus.
Op de slides is wel gesproken over super resolutions wat denk ik het antwoord kan zijn op DLSS
Fidelity FX is leuk en aardig maar komt (in de huidige staat) niet in de buurt van DLSS.
In death stranding doet fidelity FX toch echt niet zo heel veel onder voor DLSS 2.0.
en het was al VEEL beter als DLSS 1.0

DLSS 2.0 kan je nu gebruiken in welgeteld 4 games.
CAS (de game onafhankelijke versie van fidelity FX) kan je in duizenden games gebruiken.

DLSS KAN NIET de toekomst zijn. propitiatory, game specifiek, royalties afdragen aan nvidia. Dat moeten we als gamers gewoon niet willen.
royalties afdragen aan nvidia
Hoe kom je hier op?
royalties afdragen aan nvidia.
Ook aan jou de vraag: waar haal je dit vandaan?

Oprecht nieuwsgierig waar dit gerucht ineens vandaan komt.

[Reactie gewijzigd door Pliskin op 22 juli 2024 14:17]

Waar ik alle upgraders nog niet over hoor is dat de PSU ook meteen moet worden verstevigd. Tot nu toe kan ik weg met die hele mooie 560W Platinum efficiency PSU van ik dacht Fractal Design. Met die soepele kabeltjes. Deze kaarten vragen om een 650W PSU begrijp ik. Grrr....
De waarden die fabrikanten opgeven zijn over het algemeen erg ruim genomen, omdat zij ook rekening moeten houden met mensen die er een B- of C-grade voeding in hun systeem plaatsen. Een A-merk voeding kun je vaak al zo een 100 Watt er af halen. Het gaat er ook vaak om hoeveel Watt de voeding op één rail kan leveren. Dus kijk eerst eens hoe oud je voeding is en hoe het vermogen verdeeld is. Voor meer informatie nodig ik je uit eens in het forum te kijken, met name dit topic.

[Reactie gewijzigd door _Dune_ op 22 juli 2024 14:17]

Anoniem: 58485 @StCreed29 oktober 2020 02:26
Het probleem is eigenlijk ontstaan door PC builders die een PC van 2000 euro samenstellen, en vervolgens voor een ATX kast kiezen met daarin een "noname 500W" PSU. Het probleem van die noname, 10 dollar kostende PSU's is dat ze adverteren met Peak Power, dus wat die voeding kortstondig maar heel even kan leveren ten opzichte van een constante load, wat veel lager in de praktijk ligt. Hierdoor klapte vaak de PSU's eruit met high-end systemen (die dingen brande gewoon door) en daar is de hogere rating eigenlijk uit ontstaan, die houdt namelijk ook rekening met peak power.

Zie https://www.youtube.com/w...nWfd1v7M&ab_channel=DocTB

Vroeger waren rotte PSU's namelijk een dingetje. Die konden vaak de helft van het geadverteerde vermogen al niet eens leveren, en dan krijg je allerlei rare storingen op je PC omdat de 12V lijn bijv, hevig fluctureerde en je disks daardoor kapot gingen.

Nu ben ik ook schuldig door jaren een Qtec 650W psu te gebruiken, die ook gewoon adverteerde met peak power en geen sustained. Als er een beetje load doorheen ging trok het serieuze power uit de muur, ging nergens meer over. Super in-efficient die dingen. Nu draai ik alleen nog maar Antec PSU's.
Nu draai ik alleen nog maar Antec PSU's.
Vreet je ze op als koekies? Ik heb al 15 jaar dezelfde 850W van Enermax. Ik heb geen idee wat ik daarvoor had. Te lang geleden.
Dat is slechts een fool proof advies. In de realiteit kom je met 560W een heel eind. Als de 6800XT piek 360W trekt, dan moet de rest van je systeem 200W tijdens die piek trekken om tot problemen te komen. In werkelijkheid zal dat niet gebeuren. Er is geen game die zowel de GPU als de CPU op alle cores maximaal benut. De aangegeven 560W betekent dat de voeding geschikt is voor een constante belading van 560W, de meeste goede voedingen kunnen daar ook voor korte periodes veilig boven pieken.
De enige factor die hier nog invloed op zou kunnen hebben is overklokken. Stel je gaat je GPU performance opkrikken dan stijgt het verbruik relatief flink meer dan de werkelijke prestaties. CPU's overklokken is ook zo een ding. Moderne Intels, voor zover je van modern mag spreken met hun huidige aanbod, lusten ook een flinke slok zodra alle cores de turbo aanzetten. Tel hier een moederbord bij op en ik denk dat een goede PSU zeker geen moeite zal mogen hebben, maar wanneer je je hardware uit gaat knijpen deze het mogelijk wel zwaar zou kunnen krijgen.
Maar wel iritaties hhaha.
Ben ik blij dat ik jaren geleden bij een upgrade van de psu maar voor een corsair RM750 koos. Een goede voeding gaat namelijk lang mee.
Nooit bezuinigen op je voeding.

Heb zoon 4 jaar geleden een coolermaster platinum 1200watt gekocht en daar kan k wss nog 10/20 jaar mee doen.
Hmm als AMD veel meer kaarten op de markt brengt, dan kan Nvidia zich wel eens in de voet geschoten hebben.
nee, nvidia MOEST EN ZOU de eerste zijn.
Ze wisten prima dat dit zou gebeuren, maar ze konden het AMD niet gunnen dat zei de gene waren die als eerste met een sub 700 dollar kaart de 2080ti finaal in de pan hakte.
De review titles alls 'AMD red ons van nvidia's belachelijke prijzen' was niet iets dat nvidia kon laten gebeuren, dus ook al waren ze nog totaal niet klaar, ze moesten eerder launchen als AMD.
Ja een gedwongen "wanhoop" strategie. Dat doet mij een beetje denken aan de AMD64 lancering. Toen kon Microsoft Intel nog voor erger behoeden.
Anoniem: 58485 28 oktober 2020 20:02
Die slides bij AMD had ook wel een percentage of FPS counter bij de Nvidia graphs gemogen. Dit kan net zo goed 60 fps vs 61.1 fps zijn waardoor AMD er gemiddeld beter uit komt.

Ben heel erg benieuwd naar de Infinity cache; wat gebeurd er als je delen aanspreekt dat niet in cache staat? Krijg je dan ook een mini performance hit of valt de kaart terug naar de intended prestaties?

Ik koop in ieder geval de eerste de beste beschikbare kaart van AMD, eigenlijk een goede tegenhanger voor mijn nu op 1500Mhz RX580 draaiend.
Dit kan net zo goed 60 fps vs 61.1 fps zijn waardoor AMD er gemiddeld beter uit komt.
Kan je uitleggen wat je daarmee bedoelt? Ik mag toch aannemen dat als het rode balkje hoger dan het grijze is, dat AMD wint, en andersom dat nVidia wint? Wat die 60 fps vs 61.1 fps er bij komt doen, is mij niet helemaal duidelijk...
Dat gaat over, met hoeveel FPS/% AMD zou winnen van nVidia in die slide :)
Ok, dat is duidelijk, maar waarom zou het weglaten van die cijfers ervoor zorgen dat AMD er gemiddeld beter uit komt?
Nou het is wel een verschil, met of AMD 1 fps "beter" is of 10fps. (1% sneller of 10% sneller etc.)
En doordat er alleen de cijfers van AMD getoond worden, hoor je straks mensen na deze presentatie alleen maar over de scores die AMD gehaald heeft. En het is op deze manier een beetje lastig vergelijken.
precies wat AMD wilt toch? ze zijn hier niet om reclame te maken voor NVidia. INtel/NVidia doen hetzelfde... AMD heeft in tegenstelling nog wel eerlijke en betrouwbare benchmarks, natuurlijk wachten op independent reviewers!
Je kan de hoogte van het balkje gewoon aflezen hoor. De grafiek begint netjes bij 0 dus je kan de fps uitrekenen.
Links staat de as met FPS?
Die slides bij AMD had ook wel een percentage of FPS counter bij de Nvidia graphs gemogen. Dit kan net zo goed 60 fps vs 61.1 fps zijn waardoor AMD er gemiddeld beter uit komt.
Voor AMD is het lastig om precieze cijfers voor je concurrent te hangen als alle reviewers verschillende cijfers en nummers in hun beoordeling hebben. Dat is vragen om problemen. Ook kan het een juridische redenen hebben.
Als deze benchmarks kloppen van AMD dan is de Radeon RX 6800 XT echt de moeite waard, en woord het deze keer voor mij een AMD Grafische kaart, ook al heb ik een G-Sync monitor, ga ik voor de Radeon RX 6800 XT.
Hoeft niet zo te zijn dat je data in je cache staat zoals bij ssd caching gebeurt.
Kan ook gewoon een lookup table achtig iets zijn zodat je daaruit kunt halen waar je data in het langzamere geheugen is opgeslagen, waardoor je minder hoeft te zoeken.
Of het bufferen van sectoren (geen id of bij gddr ook 4096 bytes per sector is zoals bij flash), Lezen en schrijven tegelijk, enzevoort.
Kortom er zijn genoeg algoritmen te verzinnen om met cache langzamer geheugen te versnellen.
Ik koop in ieder geval de eerste de beste beschikbare kaart van AMD, eigenlijk een goede tegenhanger voor mijn nu op 1500Mhz RX580 draaiend.
Ik wacht nog even af totdat er meer reviews van de kaarten geweest zijn. Vooral vanwege mijn mindere ervaringen met AMD CPU's en GPU's (drivers).
Anoniem: 58485 @slb29 oktober 2020 00:52
Die driver issues waren te danken aan lui die bij voorbaat al AMD de schuld gaven, maar een overgeklokt set geheugen bijv met PCI-E 4.0 helemaal niet soepel werkte en niet verder keken dan hun neus lang was. Sorry zit al sinds de 9600XT ofzo al met AMD en ik kan me echt niet vinden in de Windows 10 "slechte drivers" die voor BSOD's ofzo zorgen. Als je gaat rommelen met undervolts en dan verbaasd bent dat het toch niet stabiel is etc, dat is niet AMD's probleem. :z

Alleen jammer dat de beschikbaarheid pas half november zal worden.
Don't jump to conclusions. Ik heb het niet over BSOD's gehad (wel meegemaakt) en heb Windows 10 ook niet ter sprake gebracht.

Ik draai al wat langer mee in het PC-wereldje (sinds de 8088 in de jaren '80) en heb heel wat AMD-platformen voorbij zien komen onder verschillende OS-en. Er waren toch echt wel wat probleemgevallen. In deze periode zijn er meer problemen met AMD geweest dan met Intel/Cyrix/Zilog/Nec/Hercules/Tseng Labs/Matrox/3dFX om maar een aantal te noemen. Dat bedoelde ik met mindere ervaringen met AMD.

Het is zeker niet zo dat het allemaal slecht is/was, maar voor mij net te veel om weer blind in zee te gaan met nieuwste hardware (van AMD). In plaats daarvan wacht ik eerst even een maandje af. Als er geen noemenswaardige problemen zijn neem ik de stap.
Kunnen we niet gewoon stellen dat je altijd een maandje moet wachten met nieuwe hightech producten zoals videokaarten? Maakt niet uit dat die nu van AMD, Nvidia of Intel zijn?

Nvidia heeft net nog stabiliteitsproblemen gehad bij de launch van de RTX 3080: nieuws: Fabrikanten reageren op stabiliteitsproblemen van Nvidia RTX 3080-vid...

Er waren ook problemen met de RTX 2080 Ti: nieuws: Nvidia erkent dat RTX 2080 Ti FE-videokaart problemen kan veroorzaken.
Dat ben ik wel met je eens. 1 van de redenen voor mij destijds over te stappen op Nvidia, echt al heel lang geleden, was stabiliteit. En volgens mij kwam daarna pas de periode dat ze ineens op performance gingen achterlopen, ik schat een jaar of vijftien geleden. Twee jaar terug ben ik terug overgestapt op AMD in de game pc van zoonlief en ben tot nu toe heel tevreden over de stabiliteit en heb ik zelfs de indruk dat Nvidia drivers pusht met grote frequentie zonder merkbare winst behalve "stability issues".
Fanboïsme? Klink als calimerocomplex :P
Schei toch uit.
FYI AMD K5 90, AMD 64 X2+NF4, een of andere SlotA cpu, 1600XT, 7990(?)

Ik heb met CrossfireX de nodige bak ellende gehad (was vooral driver gerelateerd).
En een kennis van me heeft dit jaar nog heel wat problemen gehad (groene scherm) die pas na 7 (!) maanden door een driver update waren gefixt. Was niet zo leuk om op teamspeak (ja, ouwe lullen) te horen als hij weer eens crashte.

Maar als AMD met een goede en betaalbare kaart kom, neem ik de 'gok' (na een maandje, dan zijn evt problemen meestal aan het licht gekomen)
Ach man, crossfire deed het sowieso voor geen meter, had niets met drivers te maken. Nvidia kende dezelfde stotter probleempjes.

Tis gewoon irritant, dat ongeacht welke website, er altijd nvidia fanboys klagen over AMD drivers wanneer laatst genoemde het onderwerp is. Gelukkig ook genoeg mensen die er een beetje nuchter naar kijken en zich realiseren dat Nvidia ook zat problemen heeft gekend.

[Reactie gewijzigd door Luke Skyballer op 22 juli 2024 14:17]

Ja ook SLi had aanvankelijk stotterproblemen, maar bij mijn R9's was het heel erg aanwezig. Bij sommige games draaide het perfect. Je kon eigenlijk niet eens van micro-stutter spreken, maar van stutter. Bij sommige driverrevisies was het erger dan andere (soms ware oudere zelfs beter) Op één enkele kaart draaide het weer prima.

Ben vanaf dat moment ook van SLI en Crossfire afgestapt en heb erna eigenlijk (op een uitstapje naar een RX480 na) alleen maar xx70/xx80 Nvidia GPU's gehad omdat AMD in dat tijdsvak voor mij niets te bieden had.
Oh ja, de RX480 had ook een issue met Overwatch (knalde er na een half uur uit/liep vast) en de fans moest ik met een utility draaiende houden. Andere spellen geen problemen en draaiden soepel.

Heb daarna nog een discussie gevoerd met een van de auteurs op HWi die CF aanprijsde voor een nieuwe build. Ik adviseerde een zwaardere GPU, hij een lichtere met als argument dat als je meer wilde er een tweede kaart bij kon hangen.

De kritiek op de drivers van AMD is IMO enigszins terecht; in het verleden duurde het af en toe wel heeel lang voor een probleem opgelost was.

Wat ik sowieso aanraad bij GPU problemen is DDU te gebruiken en dan verse drivers installeren. In meer dan 99% is dan het probleem verholpen. Soms is het hardware gerelateerd (voeding). En pas overklokken wanneer je er zeker van bent dat het systeem stabiel is.
DDU is niet meer nodig bij AMD, verwijderd automatisch de ouwe drivers nu zonder problemen.
Bij mijn gigabyte Vega 56 iig, die ik undervolt ivm vastlopers af en toe. Krijg je als je de goedkoopste kaart uitzoekt.

Maar AMD heeft zeker zijn problemen gehad. Dit hebben ze nu echter een aantal jaar op orde. Maar op deze manier blijven mensen maar slechte reclame maken ivm ervaringen een decennia of wat geleden.
Of Nvidia heilig is.

Meestal ligt het aan de games zelf of 3th party software is mijn (recentere ) ervaring.

De personen die crossfire/sli aanraden destijds moeten hun smoel dicht houden. Ben toen een flinke tijd van pc gamen afgestapt |:( Wat een nachtmerrie was dat.
Toen ik weer een enkele gpu had ging er een wereld van soepel gamen voor me open.

[Reactie gewijzigd door Luke Skyballer op 22 juli 2024 14:17]

DDU is niet meer nodig bij AMD, verwijderd automatisch de ouwe drivers nu zonder problemen.
....
Ben toen een flinke tijd van pc gamen afgestapt |:( Wat een nachtmerrie was dat.
1 - noted (maar de DDU tip geldt eigenlijk voor alle GPU-drivers)

2 *grin* hier ook slapeloze nachten gehad door Crossfire.

AMD had begin dit jaar toch ook nog last van issues. Uiteindelijk komt het goed, maar ik heb het idee dat de driver-afdeling te slecht bezet is.

Ik zou graag zien dat AMD erin slaagt Nvidia voorbij te streven (al is het maar marginaal) en dat het marktaandeel een beetje in balans komt. AMD is qua CPU op de goede weg, nu de GPU-markt nog.

Maar dan moeten ze de zaken wel goed op orde brengen en in ieder geval nog iets betere (lees: snellere) driver support bieden dan nu. Bij een groter marktaandeel komen ook sneller problemen naar voren.
Ben heel erg benieuwd naar de Infinity cache; wat gebeurd er als je delen aanspreekt dat niet in cache staat? Krijg je dan ook een mini performance hit of valt de kaart terug naar de intended prestaties?
Yes, je krijgt een performance hit. De data moet dan vanuit vram geladen worden. Alleen de kans is lager dat de L3 wordt getrasht, als resultaat dat je minder vaak vram hoeft aan te spreken..

Als je 100% unieke data gaat aanspreken, dan is deze cache helaas nutteloos. Gelukkig komt het zelden voor dat het 100% uniek is.

[Reactie gewijzigd door Vlad86 op 22 juli 2024 14:17]

Super blij dat AMD eindelijk kan concurreren op top-end niveau. Het heeft wat geduurd..

Wat ik ook speciaal vind is 'AMD Smart Access Storage', voor het eerst is eigenlijk een AMD cpu met een AMD gpu een betere combo dan bv Intel cpu met AMD gpu. Met Ryzen die beter zal zijn dan Intel in games zal deze combo veel gebruikt worden geloof ik.

Kan niet wachten tot er niet-officiële benchmarks zijn!
Als AMD echt slim is dan creeeren ze een 'AMD Ultimate Gaming Hardware Bundle' waarbij je bundelkorting krijgt als je een Radeon RX6000 kaart + Ryzen 5000 CPU + X570/B550 moederbord koopt. Dat zou samen met de Smart Access Storage extra performance belofte best veel mensen over de streep trekken om te upgraden naar puur AMD.

[Reactie gewijzigd door Tim2010 op 22 juli 2024 14:17]

Je krijgt door de door jouw genoemde hardware al een 10 procent extra power doordat de cpu van het gpu geheugen gebruik kan maken. Een korting lijkt me dan strategisch gezien dan ook niet nodig. Als ik een 6000 series kaart zou kopen dan zéker met een 5000 series cpu en 500 series chipset!
Die 10% boost moet wel eerst ondersteund worden door de game. Welke games dit gaan ondersteunen blijft natuurlijk de vraag voor een dergelijk unieke en platform afhankelijke functie. Mooi dat het er is, maar eerst zien, dan geloven. Een bundelkorting (of liever cashback promotie zodat je de 2 niet bij de zelfde winkel hoeft te kopen) zal zeker helpen met de verkopen.
Volgens mij werd er tijdens de presentatie gesproken dat de winst in games was voor er door de devs op ingespeeld kon worden. Dat zou in theorie betekenen dat die ondersteuning niet ingebouwd hoeft te worden en dat het dus in veel, zo niet alle, games werkt. Natuurlijk zal de tijd het moeten leren dus nog even de onafhankelijke benchmarks afwachten.
Er is mogelijk idd "een winst" in sommige gevallen, maar die ideale 10% boost ga je niet krijgen zonder dat de functie specifiek wordt geprogrammeerd in de game engine, het is een compleet andere manier van geheugen aanspreken en het lijkt mij dat dat nog best een klus is om in een gameengine te implementeren paralel aan de conventionele methode.Ik moedig het alleen maar aan, maar ik denk dat een feature als dit pas geïmplementeerd gaat worden als het niet exclusief is voor 1 fabrikant. Dit zie je met heel veel andere gpu technieken uit het verleden. Adoptie van nieuwe technieken kwam vaak pas als beide kampen één standaard aanhielden zoals wanneer een techniek in DirectX werd opgenomen.
Hangt er vanaf hoe ingewikkeld het is. En als Unreal Engine en Unity het inbouwen kunnen er al een hoop games gebruik van maken.

RTX is overigens een voorbeeld waarmee jouw punt onderuit wordt gehaald, is slechts een fabrikant die dat ondersteunt en dat wordt ook gewoon ingebouwd.
Er zijn tot nu toe een handje vol games (waarvan een groot deel oudere games) die direct gebruik maken van RTX, de main stream adoptie gaat de komende maanden pas komen omdat de Direct3D standaard nu DXR bevat dat zich weer naar RTX kan vertalen maar ook compatibel is met AMD.
Zo zijn er nog zat technieken die de afgelopen jaren pas echt groot werden nadat er een universele/open standaard voor kwam, Gsync en Freesync is een goed voorbeeld.
In theorie is er niets dat de implementatie het delen van geheugen tussen cpu en gpu op een intel/nvidia of intel/amd platform tegen zou gaan in bijvoorbeeld Direct3D, wanneer dat gebeurt dan is het veel eenvoudiger om het in een game engine op te nemen en de meeste partijen zullen daar dan ook op wachten tenzij ze een zak geld van AMD krijgen, net als de developers die een zak geld van Nvidia krijgen voor het implementeren van RTX.
Zover ik het begrepen heb van de AMD top, word het intelligente gedeelte van zowel de CPU , GPU, en het mainboard automagisch met elkaar verenigd.
Dus ook voor de niet tweakende massa.
Correct me if i'm wrong.
Dit soort technieken zal AMD misschien ontwikkelt hebben door hun samenwerking met Microsoft en Sony voor de gameconsoles waar ze zowel de CPU als GPU voor mogen leveren, in feite het hele systeem dus.. Ik vermoed dat zaken als SAM daarom ook toegepast worden in de nieuwe Playstation en Xbox.. Dat is dus iets waar AMD nu mogelijk de vruchten van gaat plukken ook met hun PC hardware..
Het is tenslotte hun IP; dus waarom ook niet. Als je kosten kunt besparen door een kaart te releasen met maar 256bits geheugen bus en dankzij de unified cache toch meer kunt benutten ... win win.
Klopt natuurlijk, maar in mijn optiek is dit precies waar het grote voordeel van AMD's positie als leverancier voor beide grote consoles een uniek voordeel is. Ben heel benieuwd of ze daar, ondanks Zen 2, ook een soortgelijke implementatie bieden. Het zijn immers custom packages.
Ja maar jouw naam is ook ATIradeon8500 ;)
Jaja, geeft aan dat ik inmiddels al een goeie 20 jaar hier rondneus.
Je krijgt door de door jouw genoemde hardware al een 10 procent extra power doordat de cpu van het gpu geheugen gebruik kan maken. Een korting lijkt me dan strategisch gezien dan ook niet nodig. Als ik een 6000 series kaart zou kopen dan zéker met een 5000 series cpu en 500 series chipset!
Je vergeet een grote groep gamers met Zen 2 of recente Intel CPU die liever niet in één keer hun hele syteem willen upgraden voor slechts 10% extra (op 4K heeft een snellere CPU dan op zichzelf weinig nut). Dat blijft een dure zet waardoor een bundelkorting zeker wel aantrekkelijk wordt. Ik heb een Ryzen 5 3600 en steek straks hopelijk alleen een 6800XT of 3080 in mijn systeem en ik kan weer 2 jaar verder. Maar of die groep groot genoeg is voor zo'n aanbieding weet ik ook niet.

[Reactie gewijzigd door Blackice09 op 22 juli 2024 14:17]

Ik ben nu al overgestapt naar AMD, maar dit zou eerlijk gezegd mij echt over de streep trekken.
Wanneer je al overgestapt bent, en iets trekt je vervolgens over de streep, dan ben je dus weer terug bij af ;)
Zulke humor kunnen we gebruiken in deze tijd :+
Haha flauwe humor. :*)
Dat hebben ze al, in de vorm van consoles
Zoals mij. Nja de mobo heb ik dan al. Maar de CPu/gpu zou tof zijn. Vandaag dus de b550 besteld. Hopelijk stelt AMD me niet teleur met smart share en werkt het dus echt ook op de b550
Het is smart access memory. ;) Tweakers heeft dit verkeerd overgenomen van AMD's slides.
die bundels zie/zag je vaak in de VS.
Volgens mij hebben ze weleens gedaan tijdens de GPU mining run, op die manier wilden ze er voor zorgen dat hun GPU's beschikbaar bleven voor gamers.
Ja, of gewoon AMD bundle, maar ik snap wat je bedoelt :')
Die namen tegenwoordig... net zoals de "Rage mode!".
Die namen uit 1996 bedoel je? ;) https://en.wikipedia.org/wiki/ATI_Rage_series

Dit is dus gewoon een knipoog naar het verleden, net zoals de R9 Fury van een paar jaar geleden. Toont dat AMD toch nog wel weet waar ze vandaan komen, Nvidia zie ik niet snel een RTX 3080 RIVA TNT2 uitbrengen (helaas).
Mij werd aangeraden om een B550 mobo aan te schaffen. Nu was ik letterlijk op het punt te bestellen totdat ik dus LTT ermee zag met de nieuwe kaarten.

Die smart sharing gaat dat ook werken op de B550 chipset of alleen de x570 en hoger ?
Als het goed is werkt het op elk 500 series moederbord (link), dus dat zou moeten werken. Wel moet je er een 5000 series cpu insteken, voor nu werkt de 3000 series in ieder geval nog niet.
Mits PCIe 4 volgens mij. Dus een B550 waarbij PCIE slot 1 geen 4.0 is mis je het weer.
Waarom zou een fabrikant een B550 uitbrengen met een minder snel slot dan PCI-E 4.0?

Dan gebruiken ze wel een B450-chipset.

Van de 50 B550-borden zijn er 50 met een PCI-E 4,0 16x-slot.

Ik heb er ook niets ook niets over kunnen vinden, dus ik snap echt niet waar je deze onzin vandaan haalt.
Ah super, nee ging me meer om de chipset.

Dan bestel ik gewoon door. Wil sowieso de 5000 series cpu en GPU volgend jaar halen wanneer het een beetje goedkoper is. Voor nu is het dus

B550
3600x
5700xt

En dan volgend jaar
B550
5900
6800axT
Laatste bios moet dus ook?
Kleine correcte: Het is "AMD Smart Access Memory"
Vanmiddag bericht ontvangen dat mijn RTX 3080 (Gigabyte Gaming OC) morgen in huis is. Ik denk dat ik de doos nog even dicht laat en de eerste (p)reviews afwacht, ivm werk heb ik momenteel toch weinig tijd om te gamen. Mocht AMD toch beter blijken voor minder geld kan ik mijn RTX kaart nog doorverkopen/retourneren (wettelijk binnen 30 dagen).
Je 3080 is niet ineens slechter als op het moment dat je besloot dat het een goede deal was, dus lekker gebruiken. Of ga je hem net als de rest voor dikke winst proberen door te verkopen? Want daar vind ik wat van
Wat een ongefundeerde onzin aanname. Natuurlijk is de 3080 nog steeds een goede kaart maar als er een kaart is die meer performance biedt voor minder geld is het voor mij een optie om nog over te stappen. Het toeval wil enkel dat de 3080 al verstuurd is op het moment dat ik (mogelijk) nieuwe inzichten krijg.

Overigens denk ik dat het aanbod 3xxx kaarten flink gaan stijgen en de wachtrijen na deze AMD aankondiging flink gaan dalen. De kans dat scalpers grote marges pakken na vandaag zijn een stuk kleiner geworden. Waarom zou je ook? AMD biedt blijkbaar een betere prijs voor een betere kaart dan 3080, laat staan een 3080 waar nog extra marge overheen gaat.
Daar is niks ongefundeerd aan, als je hem terug stuurt krijg je je geld terug, als je hem doorverkoopt kan je er misschien meer voor vangen, minder zou je niet doen anders zou je hem terugsturen. Of zie je dat als goede doelen actie om een 3080 voor 70% nieuw in doos door te verkopen?

Eerst maar eens zien of zon 6800XT te koop is voor +- 680-700 euro. Jij hebt morgen een 3080 die zich bewezen heeft, ook in RTX performance, AMD heeft niet zonder reden daar niks over gemeld.
Ik hoop het dat er wat te koop gaat komen, ik wil zeer graag upgraden maar ik ga geen 7-800 euro neerleggen voor een product waarvan de levertijd onbekend is.
Wie zegt dat de 6800xt niet gescalpt gaat worden? Wie zegt dat daar geen marge overheen gaat? Wanneer zijn de AIB kaarten te koop? Wat gaan die kosten? Nee ik zou het wel weten als ik morgen me 3080 binnenkreeg, zeg ik als iemand die waarschijnlijk wel de 6800xt gaat kopen, want die is hopelijk eerder leverbaar??
Dan heb je bijzonder weinig vertrouwen in de mensheid. Als je in het GOT [NVIDIA GeForce RTX 30XX] Levertijden & Prijzen kijkt zul je genoeg medetweakers zien die meerdere orders hadden lopen en leveringen tegelijk hebben gehad en deze gewoon tegen kostprijs doorverkopen. Ik zou zelf ook liever een ander blij maken dan dat ik de kaart op eigen kosten naar Megekko terugstuur. Als ik minder kan krijgen dan wat ik er zelf voor heb betaald dan stuur ik hem terug, winst hoef ik er niet op te maken. Ik heb mijn 2e order waarbij ik al bijna aan de beurt was (Asus TUF OC) ook gewoon gecancelled nadat deze verzonden is. Het is niet sjiek om iemand van iets te betichten voordat je de gehele context hebt.

OT: Klopt, mogelijk valt de nieuwe Super Navi tegen maar zoals je zelf zegt is 800+ euro een hoop geld dus wil ik graag "zeker weten" (voor zover mogelijk) dat ik de juiste kaart heb gekocht en niet achter ontdekken dat ik de verkeerde minder goede keuze heb gemaakt.
Weinig vertrouwen? Als ik gewoon bij de daadwerkelijke advertenties kijk https://tweakers.net/vide...FliTlKVtFKhhaGpmZKsbW1tQA Zie ik dat je overal het ''ik had mazzel met bestellen dus jij mag extra betalen premium'' kan betalen.
Ik beticht je niet, ik vraag het op een afkeurende manier, ik zie dagelijks niks anders op V&A en tweakers doet er helemaal niks mee / houdt het lekker in stand.

We gaan het zien, jammer dat AMD zijn review NDA pas op de verkoop dag vrijgeeft.
Hoe snel heb je iets nieuws nodig en op welke resolutie ga je games spelen, als je verder leest in het amd nieuws,dan zie je dat in januarie van amd de 6700 en 6500 uitkomen die net wat minder snel zijn maar wel weer goedkoper. Daarbij zullen die op quad hd nog wel goed gaan presteren. https://www.tomshardware....ig_navi-rdna2-all-we-know
Die zullen echt wel stukken sneller zijn dan de huidige 5600 die bij full HD alles op max aan moet kunnen lijkt mij dat je dan op quad hd wel goed kan gamen voor niet al te veel.
Die zullen even te licht zijn voor mijn wensen, ik heb recent een samsung c49rg90 gekocht, dus een 3080 of 6800xt is wel de performance die ik zoek.
Je 3080 is niet ineens slechter als op het moment dat je besloot dat het een goede deal was
Toen hij besloot te bestellen was de 3080 een goede deal omdat hij alleen vergelijken kon worden met de 20 serie van nvidia (die veel te duur was waardoor elke andere kaart met een redelijke prijs er goed uit zou zien.)
Nu kan hij ook vergeleken worden met de 6000 serie. Dus nu kan het zeker zijn dat de 3080 er ineens veel minder aantrekkelijk uit ziet.
Licht off-topic, maar je hebt volgens de wet “slechts” 14 dagen de tijd om je retour aan te melden en daarna 14 dagen om daadwerkelijk te verzenden.

Wacht je dus 20 dagen, dan ben je te laat.
Een andere Tweaker gaf dit ook al aan inderdaad. Bij Megekko is het gelukkig wel 30 dagen retourneren, vandaar mijn verwarring.
Dat is niet waar, ik heb een product net vóór de 30 dagen retourtijd terug gestuurd zonder problemen. Als de webshop adverteert met 30 dagen retourtijd dan is het 14 dagen wettelijk plus 16 dagen van de webshop.
Wettelijk is het 14 dagen. 30 dagen wordt vaak gebruikt om te concurreren met andere webshops.
Weer iets geleerd. Megekko hanteert in ieder geval 30 dagen. Voelt overigens wel wrang om een kaart waar ik 5 weken op gewacht heb gewoon in zijn gesealde doos te laten
Wacht de reviews van de AMD kaarten af. De 3080 is een prima kaart hoor.
Dit is wel interessant!
Maar hoe zit het met al die CUDA features van NVIDIA zoals Physics, raytracing en machine learning. Kan dat ook net zo goed op de AMD tegenhangers?
Hier ben ik ook benieuwd naar
Raytracing kan via DX12, daarvoor heeft AMD accelerators ingebouwd, maar details zijn er nog niet van. Wordt afwachten op de benchmarks. Machine learning kan al op AMD kaarten maar ze hebben dit nog niet specifiek in games toegepast zoals Nvidia doet met DLSS. Ik verwacht dat AMD binnenkort met iets vergelijkbaars komt (ze hadden het over een nieuwe implementatie van super resolutie, wat DLSS ook is), maar waarschijnlijk zal dat wel iets minder opzienbarend zijn dan DLSS, anders hadden ze er wel meer aandacht aan geschonken.
Physics is JAREN geleden al terug verhuist naar de CPU. dat was op de GPU nooit echt een success.

raytracing is allemaal gebazeerd op DXR (direct x ray tracing) of de vulkan tegenhanger. dat zijn open standaarden, dus werkt ook op AMD hardware.
Zie hier de reden waarom NVidia ARM heeft gekocht.

Slim van AMD.

Als ze nu ook nog eens SR-IOV op deze kaarten toestaan.......

[Reactie gewijzigd door Sandor_Clegane op 22 juli 2024 14:17]

SR-IOV zou zeer welkom wezen. Heerlijk om zoveel cores + GPU te benaderen met een server. Achja.

Verder nu zoals velen al gezegd hebben de "echte" benchmarks afwachten, vergelijking met een 2070ti o.i.d. is niet echt meer van toepassing.
Kan niet wachten totdat Tweakers en YouTube reviewers ermee aan de slag gaan. De clockbase ligt hoger dan de Nvidia kaarten als ik het zo lees, ik vraag me af of daar nog overclockruimte is.

Een complete red-build is zo wel interessant incl. PCI Gen-4 Storage.
Precies, zou mooi zijn als ik gewoon meerdere VMs met dezelfde kaart zou kunnen doen.

Ach een vervanger voor een 2070TI voor een goede prijs is nog steeds relevant. Helemaal als je goede drivers niet Windows systemen wilt hebben.
Dat gaat toch niet door. Als China de NXP overname door Qualcomm al afkeurt dan gaat de ARM overname al helemaal niet door ;)

Op dit item kan niet meer gereageerd worden.