Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'AMD laat fabrikanten mogelijk toch aangepaste Radeon RX 6900 XT-modellen maken'

AMD geeft fabrikanten mogelijk toch toestemming om aangepaste RX 6900 XT-videokaarten te maken. Dat melden bronnen aan VideoCardz. Oorspronkelijk zou de RX 6900 XT naar verluidt alleen beschikbaar komen als referentiemodel. De videokaart komt op 8 december uit en kost 999 dollar.

Bronnen van VideoCardz melden dat de vertraging van de RX 6900 XT tot 8 december zou kunnen betekenen dat fabrikanten toch aangepaste RX 6900 XT-videokaarten mogen maken van AMD. Dat zou in eerste instantie niet het geval zijn geweest. VideoCardz claimt dat zijn bronnen betrokken zijn bij board partners.

Ook Andreas Schilling van Duitse techsite HardwareLuxx claimt dat AMD in gesprek is met zijn board partners. "Tot nu toe is er alleen een Made by AMD-model gepland, maar uiteraard zijn partners geïnteresseerd in het aanbieden van eigen ontwerpen met custom koelers."

AMD Radeon RX 6900 XT
AMD-ceo Lisa Su introduceert de Radeon RX 6900 XT

Fabrikanten mogen al wel aangepaste RX 6800 XT-videokaarten maken. AMD's RX 6900 XT en de lager gepositioneerde RX 6800 XT tonen overigens veel gelijkenissen. Eerstgenoemde beschikt over 80 compute units, terwijl de 6800 XT 72 cu's heeft. Verder delen de twee videokaarten dezelfde kloksnelheden en geheugenopstelling. Ook de geclaimde total board power is hetzelfde met 300W.

AMD kondigde zijn RX 6000-videokaarten afgelopen woensdag aan. Deze gpu's zijn gebaseerd op AMD's RDNA 2-architectuur en worden gemaakt op een 7nm-procedé van TSMC. AMD claimt onder andere dat de prestaties per watt met 54 procent zijn gestegen ten opzichte van de voorgaande RX 5000-videokaarten. Het bedrijf brengt de RX 6800- en RX 6800 XT-modellen uit op 18 november. De RX 6900 XT volgt op 8 december. Tweakers publiceerde woensdag een preview, waarin onder andere de nieuwe features van de RX 6000-serie worden besproken.

AMD Radeon RX 6000-line-up
Model RX 6900 XT RX 6800 XT RX 6800
Compute Units 80 72 60
Stream Processors 5120 4608 3840
Ray Accelerators 80 72 60
Baseclock Nnb Nnb Nnb
Game clock 2015MHz 2015MHz 1815MHz
Boost clock 2250MHz 2250MHz 2105MHz
Geheugen 16GB, gddr6 16GB, gddr6 16GB, gddr6
Geheugensnelheid 16Gbit/s 16Gbit/s 16Gbit/s
Geheugenbus 256-bit 256-bit 256-bit
Bandbreedte 512GB/s 512GB/s 512GB/s
Infinity Cache 128MB 128MB 128MB
Total board power 300W 300W 250W
Releasedatum 8 december 18 november 18 november
Adviesprijs 999 dollar 649 dollar 579 dollar

Door Daan van Monsjou

Nieuwsposter / Videostagiair

31-10-2020 • 15:07

229 Linkedin

Reacties (229)

Wijzig sortering
Wat is nu een valide reden om voor AMD te gaan ipv Nvidia vanuit een gamers oogpunt ?
Ik ben er te lang uit en heb de indruk dat Nvidia de laatste paar jaar superieur was mbt video kaarten voor gaming.
Nvidia was laatste jaren superieur in de High-end omdat AMD helemaal géén één had in die klasse ;) . Niet omdat AMD kon maar vanwege bewuste keuze (AMD's budget keuze). Er was duidelijk ruimte om kaarten bovern de RX 5700 voor RX 5800 of RX 5900 te positioneren. In mid-segment heeft AMD altijd al goede kaarten gehad, zeker gezien prijs/prestatie verhouding.

Nvidia heeft op dit moment een voordeel met meer uitgebreid software features voor productieve doeleindes naast gamen. Maar dit komt deels dat de Nvidia GPU architectuur nu geschikter is geworden voor compute toepassingen en daarvoor dus ook productieve toepassingen. Daarom zie je nu ook dat een €1.500 RTX3090 moeite heeft met schalen in games. Heel ironisch is dit want het was juist AMD die jarenlang goede compute kaarten hadden en uiteindelijk hard op afgeserveerd werd door Nvidia’s meer op games gerichte architectuur. Nu met de komst van AMD’s RX6000 series lijken de rollen om te gaan draaien. AMD richt nu meer op puur gameprestatie architectuur terwijl Nvidia meer de compute kracht in gaat.

Stabiele drivers:
Vergeet ook niet dat Nvidia jarenlang kunstmatig het speelveld ongelijk heeft gemaakt door oa GameWorks. Probleem van GameWorks toendertijd was dat Nvidia de gamedevelopers verplichte om AMD te verbieden om in de broncode te kijken. Iets wat nodig is voor je driver optimalisatie. AMD moest eigenlijk bij de GameWorks games reverse-engineren voor hun driver optimalisaties, iets wat veel tijd en geld kost en bovendien al op achterstand staat bij day 1 releases. Dit heeft ook niet meegeholpen met de driverstabilisatie voor AMD en de imago. Door de GameWorks tactiek liep noodgedwongen AMD altijd paar passen achter. AMD’s schuld? Moeilijk te zeggen. Sommigen vinden dat Nvidia een zeer donker grijsgebied heeft bewandeld en GameWorks in essentie als een Black-Box heeft laten dienen. Daar komen dus ook de bijnamen als BlackBoxWorks of GimpWorks vandaan. Met de GameWorks en strikte voorwaarden had Nvidia dus ook vele gamedevelopers onder zijn duim.

Nvidia wilde zelfs nog verder het grijsgebied in gaan door de naam “Gaming” exclusief aan Nvidia GPU’s te binden onde Geforce Partner Program (GPP). ASUS, MSI en Gigabyte waren betrapt op de geheime GPP medewerking. MSI haalde bv. “Gaming-X” naam van de AMD dozen. ASUS haalde “ROG / Strix” van de AMD dozen en hernoemde dat naar AREZ. Gigabyte haalde “Aorus” merknaam van AMD dozen. Toen MSI betrapt werd gaf het één van de domste antwoord door te zeggen dat MSI vond dat bv. RX580 géén gaming product was en daarvoor gerechtvaardigd was om van de dozen af te halen en alleen exclusief op Nvidia dozen te plakken, jip! no kidding! Thats MSI for you!
Kun je het voorstellen? Dan had jij niet alleen gevraagt over AMD's drivers problemen maar ook of AMD echte "GAMING" kaarten zijn. ;) GameWorks plus GPP? Dan bestond nu alleen nog maar Nvidia in de PC!
De GimpWorks en illegale Nvidia’s GPP dingetje was misschien wel één van de diepste punten voor PC-gamers in algemeen en iets wat wij niet meer mogen vergeten.

Nvidia of Radeon voor productiviteit?
Wil je het nu, dan is Nvidia's Ampere eerste en beste keuze!

Nvidia of AMD voor gaming?
De nieuwe RX6000 series zien er veel belovend uit. Dit liet Nvidia al blijken door overhaaste launch, enorme GPU die en krankzinnige hoge stroomverbruik waarbij zelfs speciale 12-pin stekker moest worden gemaakt voor stroomstabiliteit, niet uit liefde of luxe dus. En met de budget die AMD nu heeft lijkt AMD nu ook de teugels meer in eigen hand te nemen en hoopt daarmee een stapje voor te zijn op de concurrenten Nvidia en Intel met oa. AMD’s FidelityFX integratie en SAM.
Het is nu zeker de moeite waard om nog paar weekjes te wachten en dan naar verschillende reviews checken van de RX 6000 en Ryzen 5000 series. Met name RX6000 + Ryzen 5000 met Smart Acces Memory (SAM) kan wel eens verassend worden.

Maar nogmaals: Als je kunt opbrengen, wacht op alle reviews en oordeel dan zelf!
Deze praktijken voor het elkaar te beconcurreren, mag dit wel? Het is alsof intel de software developers vraagt AMD processoren te benadelen.... Wat een bizar verhaal van Nvidia.

Dit is natuurlijk om het verhaal verder af te maken, de reden dan AMD Vulcan heeft ontwikkeld en dat DX12 maar niet van de grond komt?

[Reactie gewijzigd door sokolum01 op 1 november 2020 08:53]

Ach welnee. Dat GameWorks verhaal blijft maar herhaald worden maar het is een beetje een uit de hand gelopen urban myth, net zoals dat idee dat Nvidia oude kaarten handicapped in drivers. De Project-CARS soap en enkele andere voorbeelden... uiteindelijk bleek dat de dev zelf had zitten slapen en dat AMD weinig deed om de situatie te veranderen. Uiteindelijk lossen ze het dan op met een driver... vaak post-release, het kon dus wél gewoon. Dat gelul over broncode is precies dat, gelul. AMD mag en kan net zo goed met elke dev mooie afspraken maken, een zak geld sturen en dito support leveren. Nvidia doet dat. AMD een stuk minder of niet. Wat hierin ook meespeelt is het marktaandeel. Als je 60-75% bezit dan is het voor een dev natuurlijk een nobrainer om daarvoor te optimaliseren vóordat je aan de resterende 40-25% begint.

Wat er echt is gebeurd in de afgelopen jaren, decennium zelfs, is dat AMD te weinig centen had om de GPU divisie goed vooruit te helpen. Ze hebben de GCN architectuur maximaal uitgemolken, vervolgens een aantal slecht gepositioneerde producten uitgebracht (Tonga, Fury X, Vega) en daarmee de high end verloren. De focus kwam op de midrange. Investeren in nieuwe technologie bleef uit. Tot en met RDNA1 (de eerste Navi GPU, 5700XT) was het meer van hetzelfde. RDNA was wel de eerste stap in een nieuw begin voor AMD.

Ondertussen heeft Nvidia via GameWorks en andere inhouse ontwikkeling en met veel investeringen wél allerlei technieken doorontwikkeld. Daar zijn allerlei zaken uit voortgekomen die nu in de industrie breed worden benut. FXAA, TXAA, bijvoorbeeld; Gsync heeft de adaptive sync beweging opgestart. RTX was de pioniersstap naar ray tracing.

Oneerlijke concurrentie, of is dit gewoon ontwikkeling die we eigenlijk allemaal wel verlangen? Je kunt daarover twisten, maar het is krom om de nalatigheid van één fabrikant (AMD) op GPU gebied te verdedigen met het argument dat de concurrent wel alles doet om klanten naar zijn producten te trekken. Want dat is het, niet meer en niet minder, en keer op keer blijkt dat Nvidia precies op de juiste knoppen drukt als AMD dan weer volgt met een eigen implementatie. Dat gebeurt ook in software. Van Shadowplay tot Ansel... goede support voor streaming, etc. Nvidia voelt perfect aan wat de markt vraagt en zelfs morgen gaat vragen. Het zijn geen gimmicks, het voegt waarde toe.

Maar nu is er RDNA2. En dat lijkt weer op een AMD dat écht investeert en ook echt een dijk van een GPU/product neer wil zetten. Je kunt dus gerust zeggen dat de kansen aan het keren zijn en gek genoeg zelfs met al die 'oneerlijke' concurrentie van Nvidia. Zo werkt dat dus... :)

Dé te kloppen GPUs van de huidige gen worden de 3070 en de 6800(XT). De 3080 zal m.i. volledig wegvallen tegen het Navi geweld vanaf de 6800XT, en is ook echt wel minder GPU voor je geld (10GB vs 16GB) plus de beschikbaarheid zal bij AMD bijkans veel beter zijn. Nvidia's keus voor 8nm Samsung is geen beste geweest, maar waarschijnlijk konden ze niet anders. Feit blijft, die perf/watt kroon gaat binnenkort naar het rode team en dat werd tijd!

Goed ook om te weten is dat Tweakers overwegend AMD-favored is. Dat vertekent het beeld een beetje en ik hoop dat bovenstaand verhaal wat perspectief kan bieden van de andere kant. Dit is niet bedoeld als een bias- of flamebait verhaal, maar juist om @HanBurger 's verhaal wat evenwichtiger te maken. Er zitten altijd meerdere kanten aan 'perceptie'.

[Reactie gewijzigd door Vayra op 1 november 2020 13:18]

In een wereld waar fact-checking belangrijk wordt, missen jullie allebei links naar bewijzen. Vooral omdat jullie op sommige punten elkaar tegenspreken. Wellicht handig om jullie posts te editen en wat gewicht aan jullie statements toe te voegen? Zou het graag willen lezen.
De 'bewijzen' zijn PR statements, ik denk niet dat we die als feiten moeten aanmerken, in de meeste gevallen... zelfs marktaandeel is een cijfer dat aan interpretatie onderhevig is - denk alleen al aan de mining-hype toen Polaris op de markt was.

In de basis is eigenlijk iedereen het over de gebeurtenissen van de afgelopen jaren wel eens, daar kan je ook moeilijk omheen want de resultaten spraken en spreken voor zich. Waar het verschil ontstaat is in hoe we die resultaten beoordelen. Dat wilde ik dan ook in perspectief zetten :)

Over het GPP verhaal hierboven heb ik overigens niets aan te merken. Dat klopt als een bus en was één grote mega PR flater voor Nvidia en de betrokken partners. Maar ook hier kun je de vraag stellen: waarom heeft AMD zijn partners/resellers niet stevig in de tang? Het ging daar keer op keer niet lekker met de launches. Te laat, matige designs, enz. Ook dat lijkt nu met RDNA2 overigens wat beter te gaan.

[Reactie gewijzigd door Vayra op 2 november 2020 15:39]

Het is alsof intel de software developers vraagt AMD processoren te benadelen
Intel doet al jaren soortgelijke praktijken en zijn hier al meerdere keren voor veroordeeld, het is gewoon zowel voor intel als nvidia blijkbaar financieel voordeliger om toch nog gewoon verder te doen met dat soort monopolie tactieken.
Hanburger, bedankt voor de duidelijke opsomming en uitleg, hulde !
Dit heeft je heel wat tijd en effort gekost en dat waardeer ik (en waarschijnlijk ook anderen) ten zeerste.
Ik ga nog even een klein maandje wachten en dan de balans opmaken.
ik denk dat heel veel mensen gaan afwachten inderdaad, goed verhaal van hanburger idd :--)
Wil je het nu, dan is Nvidia's Ampere eerste en beste keuze!
Wil je het nu, dan is geen van alle de beste keuze. De 3070 is nog niet uit, de 3090 is niet leverbaar en 1 leverancier heeft twee verschillende modellen 3080 @150% MSRP.

Tegen de tijd dat kaarten leverbaar zijn voor de 'normale' prijs zonder enorme wachtrijen zijn er al reviews/benchmarks van de AMD kaarten en de 3070... Dus nog even geduld.
Je hebt de feiten op orde, klasse. Ik verwacht dat mijn nieuwe game PC voorzien wordt van AMD CPU en GPU, heb ik beter gevoel bij dan intel+Nvidia op dit moment. MAAR, ik ga niet vooraan in de rij staan als early adopter voor de hoofdprijs. Eerst meerdere benchmarks en onafhankelijk reviews afwachten.
Ik ben benieuwd hoe Microsoft Flightsim in 4K gaat presteren op de amd combo! Straks mag ik na mijn gtx2080ti ook nog mn i9 gaan verkopen :+ 8)7
Eergisteren bij iemand Flight Sim gespeeld op 4K met een pc met (als ik me niet vergis) een 3990x en sowieso een 3090 heeft. Hier en daar heb ik nog steeds framedrops ervaren. Met andere woorden... don’t get your hopes up ;)
Supergoeie reactie! Complimenten!
Ik zelf zou zeggen driver support in the long run. Als ik iets heb gezien op youtube vergelijkingsvideos is dat Nvidia out of the box vaak iets beter presteert maar de ondersteuning voor haar kaarten sneller stop zet. Hierdoor presteren de AMD kaarten op de lange termijn vaak beter dan de Nvidia counterparts.
Is dat omdat Nvidia de support eerder stopzet of omdat het Nvidia het op release simpelweg beter voor elkaar heeft qua driveroptimalisatie en AMD dit potentie gedurende de jaren inhaalt?

Ik neig naar het laatste gezien Nvidia de GTX400 en 500 nog DX12 'compatible' heeft gemaakt en tot 2018 nog driverupdates kregen. De AMD equivalenten uit dezelfde periode (HD5000 en 6000) hebben dit nooit gekregen en zijn sinds 2015 End Of Life.

De nieuwere series worden door beide fabrikanten nog volledig ondersteunt met de nieuwste drivers, best netjes in het algemeen :)

[Reactie gewijzigd door !mark op 31 oktober 2020 17:18]

Geen van al die dingen eigenlijk. De architectuur van AMD maakte het complexer om de prestaties voor spellen te ontwikkelen, AMD verwachtte dat compute en opencl harder ging lopen voor ze en ook meer in spellen gebruikt ging worden. De architectuur was daarop afgestemd en dat was te snel. Nvidia maakte veel klassieker ontwerpen maar die waren veel efficiënter in de spellen van die tijd, daar kwam bij dat AMD een paar nieuwe technieken gebruikte bij de GCN varianten 8 jaar geleden die bijvoorbeeld Nvidia nu pas bij de 3000 series toepast. Cutting edge betekent ook meer risico en langere weg naar optimalisatie. Een GCN4 kaart bleef daardoor veel langer een goede keuze, terwijl je bij Nvidia in die tijd twee of drie nieuwe architecturen tegen komt. AMD presteerde daardoor veel beter in nieuwere technieken zoals DX12, terwijl Nvidia daar juist flink terugviel. Maar veel spellen bleven lang op dx9/10/11 hangen en dat had AMD niet zo zien aankomen. Omdat AMD beter scoorde in nieuwere technieken is een HD7970 ook nu nog voorzien in nieuwe drivers met fixes voor moderne spellen en draait het moderne spellen nog veel beter dan je zou verwachten. Dat is een 8 jaar oude kaart die toen high end was, die nu gelijk staat aan de gtx1650ti en er vaak voorbij gaat in spellen die wat meer met shaders doen. Veel Nvidia high end kaarten van die tijd hebben het niet zo goed meer en krijgen sowieso geen nieuwe drivers meer.

Als we niet naar spellen kijken maar naar ruwe rekenkracht, kon een rx470 soms best wat inbrengen tegen een gtx1080. Iets dat in spellen zeker niet zo is.

AMD heeft ook een imago dat ze 10 jaar geleden hebben opgelopen door geklungel met drivers en dat achtervolgd ze nu, 10 jaar later, nog steeds. Totaal onverdient. Tegenwoordig doen ze het op dat vlak heel goed. Dat neemt niet weg dat er dingen fout kunnen gaan, de 5700xt heeft wat issues gehad. Maar waar AMD problemen tegenkomt is dat mensen heel snel naar drivers wijzen bij issues. PSU niet toereikend? Brak moederbord of brak geheugen? Crappy overlay software? Hele volksstammen wijzen naar AMD drivers zonder reden. Nvidia heb ik de laatste paar jaar gehad en die doen ook genoeg fout.

[Reactie gewijzigd door fapkonijntje op 31 oktober 2020 17:36]

Tot aan de generatie voor de RX5xxx kaarten, dus de RX4xx/RX5xx, konden we inderdaad met spel en driver optimalisaties in veel games een relatief grote prestatieverbetering verwachten van AMD kaarten.

De architecturen voor RDNA (dus voor Navi / RX5xxx) waren krachtig, maar lastig efficiënt te gebruiken wanneer de software niet inherent parallel was. Hierdoor konden veel games de beter draaien na driver en spel optimalisaties. RDNA is van zichzelf efficienter opgezet voor games en daar is dus minder te optimaliseren. De verwachting is dan ook dan RDNA minder performance winst gaat boeken over tijd dan de eerdere AMD architecturen.

Versimpelde uitleg van het verschil in architectuur:
Een GCN Compute Unit heeft 4 pipelines die tegelijk kunnen starten en tegelijk stoppen.
Een RDNA Compute Unit heeft 2 van dat soort pipelines, maar iedere pipeline is wel 2x zo snel.

In dit scenario zijn de kaarten even snel als alle pipelines altijd aan het werk zijn. Echter is het niet makkelijk om een spel zo te programmeren dat alle pipelines altijd bezig zijn. Stel er is even maar werk voor 1 pipeline, dan is een GCN kaart maar 25% bezig, terwijl een RDNA kaart nog altijd 50% bezig is. Driver en spel updates kunnen ervoor zorgen dat er zoveel mogelijk pipelines tegelijk bezig zijn. Echter is de ruimte om te optimaliseren op oudere AMD kaarten dus een stuk groter, aangezien de efficiëntie op RDNA door het ontwerp al hoger is.

YouTube uitleg (van Linus Tech Tips):
https://www.youtube.com/watch?v=3bmQPx9EJLA&t=2m18s

Relevante afbeeldingen:
https://static.techspot.c...ages/2019-08-03-image.png
https://static.techspot.c...ages/2019-08-03-image.jpg

(Dit is grotendeels een kopie van een eerdere reactie hier: job_h in 'reviews: Tien maanden driverupdates getest - Welke winst kun je ver...)
(RDNA = RDNA2?)
5xxx = RDNA en 6xxx = RDNA2.
Uiteindelijk maakt het niet uit, de ontwerpstrategie van RDNA 1 en 2 is hetzelfde. De interessante verschillen zitten tussen RDNA en GCN.
Over die drivers: ik kocht in dec 2019 mijn x570 moederboard, met ryzen 7 cpu, etc. grotendeels conform de best buy guide. En een rx5700xt red dragon kaart.

De drivers waren vreselijk brak. Maar ik had minder moeite met die kaart dan de eerste kopers 6 maanden daarvoor. Ik had alleen maar:
- zwart scherm na alt tab wat niet meer wegging zonder uit te loggen
- 1x een harde BSOD in de gfx driver
- meerdere crashes van de driver te verhelpen door uitloggen
- rare fps in sommige games

Maar: er kwam bijna elke maand een update uit, en enkele maanden later waren bijna alle issues weg. Inmiddels is het zo stabiel als een huis.

Dus die driver issues zijn er wel, maar: ik heb nu een uitstekende kaart voor relatief weinig geld, die super stil en koel alles aan kan wat ik doe.
Wat veel mensen niet beseffen is dat dit soort dingen te maken kunnen hebben met stroomtoevoer van verschillende componenten en andere compatibility issues. Denk aan moederbordconfiguraties van de PCIe aansluiting en andere moederbordgekkigheid. Dat de drivers het probleem oplossen betekent niet dat ze de oorzaak zijn. Net als dat Nvidia de instabiele GTX3080 hardwarevarianten op kon lossen met een driver update door het voltage dat de gpu vraagt aan te passen.

Veel gewijs naar drivers komt dus helemaal niet door de software. Bij Nvidia komt dit ook voor maar mensen wijzen daar minder snel naar drivers, want dat is normaal ofzo.

[Reactie gewijzigd door fapkonijntje op 1 november 2020 16:00]

Drivers is al jaar en dag reden om juist niet voor AMD te gaan. Veel stabiliteit issues.
Ik hoor dit altijd. Maar heb er eigenlijk nooit last van. Mijn r9 290 werkte prima. Mijn rx 580 werkt prima. En verwacht ook dat mijn rx 5xxx zonder problemen zal werken.
Same here, nooit drivers issues gehad. Eerst mijn HD 7950 en nu een RX 580. Werken allebei top. ook vind ik de AMD software erg makkelijk en overzichtelijk.
Hmmm ik heb niks anders dan drama met drivers op zowel RX 580, als de 5700XT. Nu zijn de drivers pas sinds een paar maanden stabiel maar het was echt een drama. Zo erg dat ik in gesprek was met de winkel om ze omgeruild te krijgen voor NVidia varianten.

Probleem, dual en triple screen setups, niet stabiel te krijgen tot een maand of 6 geleden.
Heb zelf sinds HD4870 al ATI/AMD. Nooit problemen gehad.

Enige wat ik wel toe moet geven is die 5700xt. Heb er zelf ook 1 gehad maar had constant black screen crashes.
(Naar mijn idee kwam dit door displayport, gebruikte ik de HDMI poort dan had ik geen crashes)
Heb hem ook omgeruild voor een 2070s.
Heb die 5700xt in juni 2020 gekocht.

Behalve die 5700xt heb ik nooit problemen gehad met ATI/AMD.
Single monitor setup ook geen enkel issue gehad wanneer ik 2e scherm uitschakelde was alles Stabiel. Maar single scherm is geen oplossing voor mij. Had exact de zelfde issues met zowel RX 580, RX 570, 5700XT. De issues met de RX 580 zijn opgelost door voor tweede monitor een 2e kaart er naast te zetten (Nvidia). Had eerst een RX570 naast de RX580 maar nog steeds crashes, toen een wat oudere NVidia GTX210 er naast voor kleine monitor en het was stabiel.
Dat is wel vaag ja.
(Ik probeer ook niet te zeggen dat wat je zegt niet klopt trouwens, wil dat even aan geven haha)

Ik denk zelf dat die 5700xt in het geheel niet heel geweldig was, want ik ken ook meerdere lui die exact hetzelfde probleem hadden als ik, en toen ik hun ook aangaf om de HDMI poort eens te proberen, was bij hun het probleem ook weg.

Maar goed, we gaan zien hoe de RX6000 serie het gaat doen, of die algemene problemen heeft of niet.
Ik denk dat het gewoon een driver probleem was want nu draait het rock solid op mijn 5700XT met een leuke OC er op en 2 schermen. Maar er was gewoon even tijd voor nodig. Daarom vermoed ik dat het met de 6000 Serie wel beter zal gaan omdat de 5000 serie een leerproces was.

Ik denk dat de software er omheen ook nogal wat issues had waardoor de boel niet helemaal stabiel was.
Ik denk zelf inderdaad ook dat het een leer proces was gezien ze toch het roer om hebben moeten gooien met RDNA. Dat hoop ik althans.

Ben ook heel benieuwd of beschikbaarheid op orde zal zijn, Wil stiekem toch wel een 6800xt hebben, ook al heb ik nog een uitstekende kaart hahah.
Apart, ik heb juist de tegenovergestelde ervaring.
Al jarenlang gebruik ik twee monitoren met AMD (daarvoor ATi) kaarten.
Geen enkele keer een probleem gehad daarmee.

Mijn enige probleem met multimonitor kwam van een laptop met een NVidia kaart.
Die had de grootste moeite om de juiste resolutie op het scherm te toveren. :P
De bug is eigenlijk vrij simpel met RX4xx/RX5xx/RX5xxx kaarten. Bij twee schermen schakelt de frequentie van het geheugen niet dynamisch, wanneer er dan een OC is ingesteld op het geheugen met bijvoorbeeld Wattman, dan snap je wat er mis kan gaan.

Dit is te zien in Radeon software onder Prestaties. Daar staat VRAM snelheid ingesteld op een fixed waarde. Bij 1 scherm fluctueert dit.
Ah, dat verklaart het.
Ik heb mijn kaarten altijd op stock kloksnelheden gelaten.
Idem, R9 390 en RX580 werkten onder windows en Linux probleemloos.

780Ti, 1080Ti en 2080Ti werken onder windows ook probleemloos, maar breek me de bek niet open over Linux.

Latest greatest drivers die onder windows eigenlijk altijd werken maken van mijn linux systeem een instabiele rotzooi. Tegenwoordig gebruik ik alleen nog maar de drivers die bij de Cuda toolkit horen en steeds wat achterlopen. Voor compute en de UI is dat stabiel als een huis, maar de game prestaties van deze drivers lopen dus weer ver achter.

M.a.w. voor windows is mijn ervaring dat de drivers niet zoveel uitmaken, als je wil gamen op Linux blijf ver weg van nVidia.
Ach, als we dan toch anecdotes gaan rondsmijten in de veronderstelling dat dit iets betekent: mijn nvidia doet het probleemloos onder linux en windows ;)
Om het iets minder anecdote te maken. Als zoiets je gebeurt dan ga je zoeken naar oplossingen op Linux fora en google.

Dan kom je er achter dat er heel veel posts over bestaan, nog meer mensen reageren op die posts dat zij het probleem ook hebben, om er vervolgens achter te komen dat de fout in de proprietaire driver van nVidia zit met als advies om een paar oude drivers te proberen om te kijken of er 1 tussen zit die werkt voor wat jij er mee wil doen en hopen dat de volgende nieuwe versie het probleem weer oplost (wat zelden het geval is, want dat nVidia buiten CUDA niets om Linux geeft is overduidelijk)

Testen van de Linux driver heeft ook geen hoge prioriteit, want nieuwe drivers die instabiel blijken is een steeds terugkerend probleem (en dus niet alleen voor mij zoals jij suggereert met de anecdote opmerking, maar structureel)

Als je het geluk hebt dat het voor jouw systeem en software allemaal werkt dan zou je het idee kunnen krijgen dat ze het prima voor elkaar hebben.
Het punt is vooral dat de AMD drivers onder Linux open source zijn en mee komen met je OS, dus altijd netjes up to date, altijd werken met de nieuwste kernel - zeker als je een rolling release distro hebt is NVIDIA echt vermoeiend, altijd gezeik. Daarom heb ik ook een AMD kaart gekocht, de 5500XT, en absoluut geen spijt van gehad... In de eerste weken 2x een crash gehad, daarna eigenlijk geen stabiliteitsissues meer.

Had hiervoor een NVIDIA kaart maar ja het is gewoon een paar keer per jaar gezeik, en ik was dat zat.
heb 7870XT gehad; geen problemen mee gehad; r9 290 of r9 290x gehad en daar had ik ook 0 issues mee.

Ben tegenwoordig wel meer voor de groene kamp omdat hun videokaarten daar niet bij kunnen tippen; tot nu dan :)

Ga het zeker in de gaten houden; of ik mogelijk weer ga overstappen is de vraag dat benchmarks en reviews binnenkort gaat beantwoorden. Mooi dat er weer concurrentie is :)
Precies, ik snap ook niet waarom dit gemind wordt. Ik heb vorig jaar weer eens een AMD kaart geprobeerd (RX 5500 XT) en heb bij meerdere games issues gehad. Daarna weer NVIDIA kaarten en geen problemen meer sindsdien. Misschien ligt het aan mijn specifieke setup maar ik vind het tekenend...
De rx 5000 serie schijnen wel veel problemen te hebben ja. Maar ik heb zelf vanaf de 7xxx reeks nooit problemen gehad met AMD.(was de 7 reeks helemaal vergeten dat ik die nog had.
RX 550, RX 460, RX 570, RX 5700XT, nooit problemen gehad
zit al meer dan 2 jaar op mijn Vega, heb geen problemen ondervonden met drivers of met de spellen die ik speel. Nvidia heeft meer problemen dan AMD in mijn omgeving, vriend van me had een Geforce 980 met een 3930k en een 4k scherm, had bijna half jaar issues door de GPU en drivers, daarna pakte hij zich een 1080TI (aorus) met een 6850k weer driver problemen, Vbios issues en software problemen ansig. heb voor mijn Vega een 1080 gehad waar ik ook de nodige problemen mee heb gehad en eruit gegooid heb voor mijn huidige Vega.
Ik heb al jaren en jaren beide Nvidia en AMD en vroeger ATI gehad. er zitten altijd rotte appels bij, bij allemaal. als ik de balans opmaak is zeker recent het lood om oud ijzer. Beide zijn, indien aan de randvoorwaarden voldaan wordt, stabiel en goed.
Ik hoor altijd dat het juist andersom is. Nvidia maakt ruk drivers, terwijl AMD sinds een paar jaar wél goede drivers maakt. Niet dat ik zelf veel problemen ondervind met Nvidia drivers, maar het schijnt toch een enorme verbetering te zijn om over te schakelen op een AMD kaart.
Driver issues zijn precies de reden dat ik weer terug wil naar AMD ;)
Lekker duidelijk man! Lekke twee paarden op de gang!
Ik heb ontzettend veel problemen met mijn RX 5700 XT. Al meer dan een halfjaar crasht heel mijn PC op willekeurige momenten tijdens het gamen. In de memory dumps is te zien dat er crashes optreden in de drivers van AMD. Ik ga voorlopig geen AMD-videokaart meer kopen...
Ah, AMD FineWine technology, waarbij je kaart mediocre was voor een mediocre prijs, en na een jaartje oppeens bovengemiddeld performde omdat de software eindelijk de hardware had ingehaald.
Dat is een pessimistische kijk op de zaak.
Zet je die bril ook op als je naar nvidia en hun smerige spelletjes kijkt?
Ik ben eigenlijk groot AMD fan, weet niet waarom ik somehow in ieder bericht nu oppeens met de competitie moet vergelijken?
Als A iets foute doet en ik zeg dat, dan kom jij aan met "maar B doet ook foute dingen!?" Dat betekend nog niet dat wat A deed oppeens niet fout is ofzo.
En de driver support na een aantal jaren is bij AMD veel beter dan bij Nvidia.

Daarnaast is AMD's open source driver veruit superieur dan die bij Nvidia. Ook daar is de support voor oudere modellen vele malen beter met features die nog aan de Hawaii serie worden toegevoegd.
Als er een serie is met slechte drivers dan is dat Navi wel!
Kepler heeft nog ondersteuning, maar vraag niet hoe. Doom Eternal is een mooi voorbeeld om te zien hoe deze architectuur slecht draait in Vulkan.

[Reactie gewijzigd door Neallord op 31 oktober 2020 19:55]

Dit is een claim die al jaren de ronde gaat maar gewoon niet klopt.

https://www.youtube.com/watch?v=GBkGu4Wd7vg

Nvidia ondersteunt z'n oudere producten nog net zo goed als AMD dat doet. Historisch heeft AMD alleen vaak kaarten op de markt gebracht die qua compute veel sterker waren maar waar de drivers en de games zelf er nog niet echt optimaal gebruik van kunnen maken. Nvidia daarentegen levert je veel meer van het potentiëel van de kaart bij aankoop doordat hun drivers veel beter geoptimaliseerd zijn voor de hardware. Op de lange termijn wanneer de software de hardware inhaalt ga je het effect krijgen dat AMD relatief beter lijkt te werken, dat betekent echter niet dat Nvidia de ondersteuning stopzet.
Voor zover dat ook niet kwam (indertijd) doordat GCN in feite zijn tijd vooruit was als architectuur, waardoor games op de langere termijn er beter mee schaalden dan de NVIDIA-architecturen uit die tijd.

[Reactie gewijzigd door field33P op 31 oktober 2020 21:12]

Nvidia sneller hun support stopt? Volgensmij valt dat enorm mee, en na 7 a 8 jaar kun je al niet eens meer praten over GPU A presteert beter dan GPU B aangezien de nieuwste spellen dan toch alleen nog maar te spelen zijn op de laatste stand (als ze dan nog uberhaupt fatsoenlijk te spelen zijn).
"Ages like fine wine" zie ik vaak voorbij komen.
Dat Nvidia beter presteert lijkt eerder te maken hebben met de game developers, zie het verhaal van @HanBurger
Zie de uitgebreide reactie van Hanover. Persoonlijk blijf ik weg van bedrijven die marktverstorend opereren, en raad Nvidia daarom ook af omdat de geschiedenis leert dat een bedrijf die zich aan zulke tactieken waagt nooit een moreel kompas zal ontwikkelen.
Totdat we onafhankelijke reviews hebben gezien lijkt het voor alsnog gelijk op te gaan bij de 3080 en 6800XT. De 6900XT en 3090 zijn verhoudingsgewijs te duur voor wat ze meer bieden.
Ik ben zeer benieuwd naar de techtuber reviews wanneer ze de AMD kaarten in handen krijgen. Zal niet lang meer duren.

Als ze zo dichtbij zitten kwa prestaties dan hoop ik dat de drivers etc geen issues bieden. Ik hoor alleen maar van zeggen dat dit nog wel eens problematisch is bij AMD. Maar ik weet niet of dat fanboy praat is of een valide reden heeft.

Maar het blijft zo dat AMD op prijs niveau met kaarten die de 3000 serie bij kunnen houden toch wel aantrekkelijker lijkt tot nu toe. Of je nu wel of niet 8/10 of 16 gb aan vram nodig hebt. Ik heb nog geen game gehad op max settings 1440p waarbij mijn 2080s met 'maar' 8gb aan vram op zn limiet zat, dus denk niet dat je om die reden naar kamp AMD over zou moeten stappen.

[Reactie gewijzigd door maradesign op 31 oktober 2020 16:31]

Dat verschilt sowieso van generatie op generatie. Heb een R9 Fury wat op zich een vrij exotische kaart is en heb op wat niet noemenswaardige kleinigheden na geen issues gehad. Nvidia heeft ook issues gekend in het verleden en zo is het dus stuivertje wisselen. Gewoon even de reviews en eerste berichten afwachten.

*mompelt iets over in het verleden behaalde resultaten*
Het verleden is geen garantie voor de toekomst. Het is dus dat er in de community er periode is geweest dat er met vorige gen mogelijk ook specifieke type wat meer driver isue zijn geweest. De bevindingen blijven lang hangen en vaak ook als het niet eens driver isue zijn. En dat in tijd dat AMD nog uit diepe dal omhoog moest klimmen daarom alleen maar 250mm2 Gpu tje. Nu heb je te maken met firma die redelijk ver weg van failissement is en dus nu resources spendeerd aan alle afdelingen zodat hun excecutie en support op peil is. Deze opschaling gebeurt uiteraard in sync met de ontwikkelingen van nextgen big chips.
Dus het is niet dezelfde driver team die moest beperken maar kan dus al langer voluit gaan. En als die risiko niet wil lopen en ook wil wachten op nV antwoordt en uiteraard de onafhankelijke benchmark dan is nu kopen niet aan te raden. Ik kan wachten volgend jaar. En dan komt er ook meer feedback van buggy hardware zoals iNtel en nV vaker wel isue hebben en of die driver van AMD deze gen problematisch zijn.
Ik heb een ATI/AMD 9800, 5850 en 7950 gehad en geen problemen met de drivers gehad.
Bij de laatste 5700 kaarten waren er wel wat problemen meen ik.
Eerst maar eens kijken wat de ervaringen gaan zijn met de nieuwe RDNA2 kaarten. Pas kopen als je zeker weet dat er geen problemen zijn met de kaarten in kwestie.
Laatste paar jaar had Nvidia idd de betere kaarten. In het lagere segment (<€300) heeft AMD meestal wel een kaart die vergelijkbaar is met wat Nvidia aanbied.
Dit zijn sinds lange tijd eindelijk weer eens AMD videokaarten die moeten kunnen concurreren met de snelste Nvidia kaarten. Hoe ze precies presteren weten we pas als de onafhankelijke reviews online komen. Evenals de kwaliteit/stabiliteit van de drivers.
Je hebt geen valide redenen nodig om de ene over de ander te kiezen maar hier een apar punten:

AMD:
Betere prijs verhouding vaak
Je support Nvidia niet.
Betere Linux support
icm met Ryzen 5000 een potentiële grote performance boost.

Nvidia:
Drivers zijn vaak stabieler
RTX voice
Betere encoding ondersteuning
Professioneel vaak beter ondersteund

Er is voor beide partijen altijd wat te zeggen, AMD is vaak net wat goedkoper.
Mooie lijst. Is het al zeker dat encoding beter ondersteund wordt door de 3000 serie dan de 6000 serie?

Daarbij, Amd heeft idd een betere prijs performance over de hele lineup, zeker met de top (6900xt vs 3090).

Je krijgt gewoon veel Vram, in het geval van 6800 vs 3070, zelfs dubbel zoveel.
AMD kaarten zijn efficienter en verbruiken minder.

Laatste punt dan, voor ontwikkelaars is het optimaliseren voor RDNA2 kostenefficienter omdat de XBOX en PS5 hoogover dezelfde architectuur gebruiken.
Laatste punt dan, voor ontwikkelaars is het optimaliseren voor RDNA2 kostenefficienter omdat de XBOX en PS5 hoogover dezelfde architectuur gebruiken.
AMD zit al in de consoles sinds 2014 dus daar zou ik geen wonderen van verwachten.

Verder lijkt het me nog wat vroeg voor conclusies. Nvidia heeft hun x7,x8 en x9 line-up aangekondigd en gelanceerd. AMD heeft nu hun tegenhangers aangekondigd maar nog niet uitgebracht. Het gaat nog even duren voor we weten wat de onafhankelijke benchmarks laten zien en hoe de beschikbaarheid van AMD's nieuwe line-up is. Daarna is het wachten of en zo ja hoe Nvidia gaat reageren. Dat zou best even kunnen duren aangezien Nvidia nu toch meer vraag dan aanbod heeft. Verder missen we van beide bedrijven nog de line-up van de goedkopere kaarten. Officieel weten we daar nog niets van. Een goede vergelijking valt vrees ik pas volgend jaar te maken.
AMD zit al in de consoles sinds 2014 dus daar zou ik geen wonderen van verwachten.
Je kan de situatie van 2014 niet vergelijken met de huidige situatie.
Kijk bijvoorbeeld naar de RT implementatie, deze is nu gelijk in de XBOX en PS5 en Radeon 6000 serie.
Ook de 'direct memory technologie' en technieken als AMD FidelityFX.

Nvidia kan simpelweg geen passend antwoord geven (behalve prijsverlagingen), enige wat ze zouden kunnen doen is de Vram evenaren van de AMD tegenhangers. Simpelweg hoger clocken van de GPU's gaat direct ten koste van de efficiencie. Zeker de 3080 en 3090 zijn al heethoofden dus daar gaat dat al niet.

Enige echte oplossing voor Nvidia is Samsung inruilen voor TSMC. zie details video :
https://www.youtube.com/watch?v=tXb-8feWoOE

[Reactie gewijzigd door procyon op 31 oktober 2020 16:24]

de 3080 en 3090 zijn al heethoofden :

Hoe kom je daar bij man ????
Kijk naar het verbruik dat zegt al meer dan genoeg.
Ja en undervolt m en dan eet het maar 250 a 260watt.
jep maar jij noemt ze geen heetthoofden terwijl ze dat wel degelijk zijn zonder undervolt

zo kan ik ook wel roepen dat vega geen heethoofd was met een undervolt

kortom undervolt doet er niet toe stock zijn die dingen heethoofden maar met een undervolt koelt het prima inderdaad dat doet vega immers ook
Heethoofd betekent dat de kaart dik over de 80c draait. Ze zijn allen goed gekoeld en zelfs de founders edition zit rond de 70c onder volledige belasting. Geen enkele architectuur tot nu toe was/is zo goed te undervolten met vrijwel geen prestatie verlies de laatste 5 jaar. Je kan eigenlijk beter stellen dat ze overvolted zijn out of the box om zoveel mogelijk boostclocks te pushen. Ik vind dat eigenlijk een groter probleem dan dat ze standaard op 320watt zouden lopen standaard omdat het niet anders kon.
dan heb jij een ander idee van heedhoofd dan ik ik denk daarbij aan hoeveel een kaart zuipt want inderdaad de temperatuur is goed van ampere mee eens
Fermi beschouw ik ala een heethoofd, lekte veel stroom en prestaties waren niet in lijn met wat er verbruikt werd.

(Het is overigens het gddr6x geheugen wat meer zuipt dan de andere geheugen types, de gpu zelf is zeer vergelijkbaar met rdna2 van wat er nu bekend is).
das ver voor mijn tijd maar inderdaad fermi is berucht lijkt het

jep verbaast bij eigenlijk niet met mijn zeer beperkte kennis van geheugen is dit niet simpelweg overclocked GDDR6? of heb ik dat mis?
ja ik hoop dat micron daar gauw mee komt

wat was GDDR5x eigenlijk gewoon GDDR5 overclocked was of toch een geheel nieuw soort geheugen?
Alleen 1 snellere standaard extra erbij naar mijn weten. Maar moet eerlijk zeggen heb me daar niet goed genoeg verdiept in die serie.
oke duidelijk dankjewel voor het fijne gesprek
De vorige console architectuur is niet vergelijkbaar met rdna2. Rdna 2 krijgt nu op pc en console een gelijke start. Wat dus heel erg helpt met drivers en optimaliseren.
Mooie lijst. Is het al zeker dat encoding beter ondersteund wordt door de 3000 serie dan de 6000 serie?
Dat weet ik nog niet, maar AMD's hardware encoding implementatie voor H.264 en H.265 is tot nu toe niet erg bijzonder geweest. Nu is hardware encoding sowieso een grote compromise in kwaliteit voor meer snelheid, maar bij Intel en Nvidia krijg je (in mijn beperkte ervaring) toch een stuk meer kwaliteit per Mb/s.

Iets van referentie: https://hardforum.com/thr...ty-analysis-2020.1995599/

[Reactie gewijzigd door JackDashwood op 31 oktober 2020 17:22]

Nvidia is beter geïntegreerd met Premier en dat soort programma's, dit komt onder andere omdat Nvidia nvenc heeft en dan nog een paar van dit soort proprietaire standaarden. Nvidia is over het algemeen beter vertegenwoordigd hierdoor en dus vaak de keuze hiervoor.
NVenc is geen proprietary standard. Het levert een prima H.264 stream aan die elke H.264 compatible decoder snapt.

Het is al sinds MP3 gebruikelijk dat compressie-standaarden de exacte implementatie open laten, en alleen beschrijven hoe het resultaat geïnterpreteerd moet wordne. Dit biedt ruimte voor continue verbetering van encoders zonder dat decoders een update nodig hebben. NVenc is simpelweg een goede NVidia encoder die efficient gebruik maakt van de CUDA cores.
AMD staat al een tijdje stil op dat gebied. En zie dan ook niet ineens verandering in. Ook hun relive is nog steeds een drama.
Je support Nvidia niet.
Dit klintk zo extreem fanboyish.

[/quote]Betere Linux support[/quote]Nee het is juist dat het open source drivers vs closed source drivers betreft. Niet zozeer beter, niet beter.
Het is fanboyish maar ook gewoon een feit.

NVidia is steeds meer van zijn macht uitoefenen en te verkrijgen. Anti consumenten praktijken zijn ze niet vies van, paar jaar geleden nog dat schandaal met merknamen en partners verplichtingen opleggen.

Ook is AMD al jaren de underdog het kan een reden zijn om AMD over NVidia te kiezen.
uit mijn hoofd:
  • GTX970 3.5GB
  • GPP
  • Onnodig tessellation 64x vereisen voor hairworks en andere gameworks effecten, omdat hun GPU's daar iets minder langzaam mee waren als die van AMD toen.
  • Hun gedrag richting XFX
  • Propriatory Gsync module + heel lang geen ondersteuning bieden voor freesync.
  • PhysX CPU implementatie met onnodig lage performance (en nadat dat 'gefixed' was was PhysX op de GPU in een klap dood)
  • Future mark publiceert rapport over hoe nvidia cheat in 3dmark03... paar dagen later is het ineens ingetrokken.
  • De Vista 64bit launch (nvidia 64bit drivers blijken 32bit drivers in een 64bit wrapper, crashen meteen zodra de 3.5/4GB limit overschreden werd)
  • Bumpgate (en iedereen behalve zichzelf hier de schuld van geven... net als ze altijd doen)
  • nvidia eist van reviewers dat ze bepaalde settings uitzetten in hun benchmarks (async compute bijvoorbeeld) niet alleen voor hun eigen kaarten, maar ook die van AMD
  • 1060 6gb vs 1060 3GB

[Reactie gewijzigd door Countess op 31 oktober 2020 18:29]

Ook bijzonder hoe Nvidia nu opeens wel een lagere prijs kan hanteren voor betere grafische kaarten. (RTX 3070 maar liefst 200 Euro goedkoper dan een RTX 2070S bijvb.) Sowieso was het uitgeven van Super-edities een beetje vreemd. Net zoals er nu weer blijkt dat ze toch kaarten met meer geheugen willen uitgeven, net na de launch van de RTX 30XX, die nog niet eens fatsoenlijk beshikbaar is. Dat gaan ze alleen geen Super meer noemen... Liefde voor de consument. Hun volgende slogan: "Just enough graphics for your money, bend over!".
In ieder geval was mijn laatste Nvidia kaart een GTX1070. Voorlopig komt er geen Nvidia-kaart in onze gaming PC's hierzo. We zijn perfectly happy met onze Freesync-schermen en AMD GPU's. En ja... ik weet dat Nvidia tegenwoordig Freesync ondersteunt. Maar dat is als "Kindercola vs Coca Cola"

[Reactie gewijzigd door conces op 31 oktober 2020 21:19]

Ook bijzonder hoe Nvidia nu opeens wel een lagere prijs kan hanteren voor betere grafische kaarten. (RTX 3070 maar liefst 200 Euro goedkoper dan een RTX 2070S bijvb.)
Heb je welleens naar de chip grootte verschillen gekeken van de 10XX series naar 20XX serie? De chip die's waren groter en de transistoren per chip bijna verdubbelde letterlijk. Oftewel minder GPU's per wafer, waarschijnlijk ook lagere yield per wafer vanwege de complexiteit. Mensen geloven wat zij willen geloven.

Geforce 2080 heeft 13.6miljard (545miljard) transistoren versus 7.2miljard (314mm2) op de 1080.

Dat idt een +2 krijgt voor puur een mening laat maar zien hoe erg het fanboyisme hoogtij viert hier op Tweakers.
What's your point? Zoals ik het met mijn simpele geest om 6:00 's ochtends begrijp van jou is het logisch dat een verdubbeling van het aantal transistoren een verhoging van de prijs rechtvaardigt, een generatie later? Als ik die theorie van jou (met mijn simpele geest wederom) zou adopteren, zou ik tot de conclusie komen dat vergeleken bij de launchprijs van een GTX 280 - 1.4 miljard transistoren - $650 (in 2008), een rtx 2080 dus bij launch dus ca. (betekent: ongeveer) een factor 10 duurder had moeten zijn? Ff snel en simpel uitgerekend: $6500. Wat zou een CPU tegenwoordig dan kosten t.o.v een Pentium uit 1993 ofzo? Waar ik helemaal van in de war raak is de volgende tabel:

Feature: RTX 3080 RTX 2080 Ti
Launch: 2020-09-01 2018-09-20
Transistors: 28300 mlj 18600 mlj

Ik probeer jouw argumenten om te extrapoleren en om te verklaren waarom een RTX 3080 zoveel goedkoper is dan een RTX 2080 of RTX 2080 ti. Het lukt mij niet!

Hoewel er meerdere factoren zijn waarom prijzen fluctueren, maar ik geen zin heb om die allemaal hier te gaan neer kalken, kan ik licht stellen dat jouw reactie meer ruikt naar die van een fanboy. Dat is overigens prima. Je mag best een fan zijn van een merk, je vriend of zelfs van jouw moeder. Maar ga dat niet onderbouwen met technische feitjes die niets verklaren. Heb jij wel eens een wafer gezien of aangeraakt of transistoren op gerealiseerd door etsen, doteren en gebruik van maskers en bijvoorbeeld UV? Ik wel tijdens mijn in 1994 afgeronde studie Elektrotechniek aan de UT. Reageer dus a.u.b. niet met populaire kreetjes en termpjes die je regelmatig ziet langskomen om jouw eigen mening kracht bij te zetten.

[Reactie gewijzigd door conces op 1 november 2020 06:47]

Nogsteeds een schandalig snelle GPU voor het geld in die tijd.Rare design keuze? Dat was het zeker, was het een onderpresterende kaart? Nope.
Tot je, ondanks de drivers die dat proberen te voorkomen het toch voor elkaar krijgt om over die 3.5gb limit te gaan en heel je systeem performance instort, niet alleen die van je game.
IK hou neit zo van whataboutisms. Maar waar was jjouw geluid toen AMD claimde dat AMD Bulldozers 8 cores waren maar dichterbij quadcores aanzaten vanwege de architectuur?
Het waren gewoon 8 cores. Dat elke core niet snel was maakt dat niet minder waar.
Dit is dus zo tekenend voor jou reacties, je bent verdacht stil wanneer het controversies betreft AMD maar dikt het bij Nvidia altijd enorm aan. Valt op.
Zodra AMD consequent even smerige spelletjes gaat spelen als nvidia zal ik zeker iets van me laten horen. voorlopig is dat nog niet het geval,
Gevoedt door geruchten.
Je moet je kop wel HEEL erg ver in nvidia's.... het zand stopped hebben wil je dit nog ontkennen.
AMD kon iets niet goed en dan was het meteen nutteloos? Wij hebben die discussie eerder gehad. Het was niet nutteloos, het was zeker zichtbaar mooier, Jij vond het alleen niet belangrijk.
AMD was juist sneller met tessellation, tot 8x. en ongeveer gelijk bij 16x. alleen bij 32 en 64x was nvidia sneller (maar nog steeds tergend langzaam.)
Maar hoe is dit anti consumer? Je kan tesselation uitzetten als je het niet belangrijk vindt.
Het punt was juist dat je vaak alleen de keuze had voor helemaal uit of tessellation 64x.
En dat terwijl je met 8x of 16x je alle grafische voordelen had, maar veel minder de enorme performance hit van 64x. Maarja, als nvidia 8x of 16x had toegelaten dan hadden ze de benchmark niet kunnen winnen. Dus nvidia naaide zonder schaamte hun eigen klanten, zolang die van AMD maar ietsjes harder genaaid werden.
Wat was hiermee? Hoe is dit anti consumer?
beperkt de AIB partner keuze van klanten. en het was smerige en kleinzerig. precies zoals ik nvidia ken.
Gsync was over de gehele linie objectief beter. 1 vaste hogowaardige scaler, kwaliteits controle dat je altijd van 48hz tot en met 144hz/165hz daadwerkelijk VRR had en geen varianties van 50hz tot en met alleen 75hz of 100hz bijvoorbeeld en de andere keer weer wel 48hz tot en met 144hz. Geen flickering issues, geen vblank issues. Zondert Gsync had AMD misschien pas veel later bewogen om VRR te implementeren. Ohja ik heb een high end freesync pro monitor, nogsteeds is de ervaring niet zo stable als mijn 5 jaar oude Predator 27HU1 Gsync monitor. Kan je voorstellen hoe "nutteloos" die scaler was. Ho eis dit anti consumer?
Tja, en in laptop was heel die dure scaler ineens niet meer nodig om gsync voor elkaar te krijgen... nee, totally legit dit.

Daarbij had de freesync spec een groter bereik als gsync. AMD's enige fout hierin was monitor fabrikanten iets te veel vrijheid geven, waardoor sommige goedkope monitoren een slechte ervaring gaven. Ze hadden eerder wat meer minimum eisen moeten stellen.
Ho eis dit anti consumer? Een betere ervaring bieden voor meer geld.
Het is anti-consument om gebruiker de bijna net zo goede ervaring te ontzeggen terwijl je dat gratis aan kon bieden.
Ah AMD heeft altijd netjes gespeeld met benchmarks
Nee, maar ze hebben niet de maker van de benchmarks bedreigt als die met de feiten naar buiten kwam.
Black screen issues in drivers..... zijn slechte drivers nou direct anti consumer?
Black screen komen bij nvidia ook voor. En er is een groot verschil tussen een fout maken ergens, en bewust slechte drivers uitbrengen. nvidia wist dat dat zou gebeuren.
De gehele industrie kampte hiermee en kunnen wij de EU voor bedanken vanwege lead free solder.
Dat was jaren van te voren aangekondigd. Dat kwam niet uit de lucht vallen, maar nvidia had zijn huiswerk niet gedaan. in tegenstelling tot de rest van de industry. dus nee, niet de gehele industry kampte daarmee. Zeker niet op het niveau van nvidia. (tin wiskers kwamen wel voor later, maar dat was een heel ander probleem)
AMD kaarten verkochten toen niet zo goed natuurlijk maar ook zij hadden er last van. Helemaal in consoles. Of ben je de AMD GPu's in de Xbox 360 vergeten?
Xbox had een slecht ontworpen monteer mechanism voor de koeler dat de GPU substrate van het moederbord PCB af drukte door het moederbord te verbuigen.
Daarbij was dat onderdeel het domain van Microsoft en niet AMD.

En AMD's marktaandeel in die periode 30-40%
https://www.techpowerup.c...m-2002-to-q3-2016#g228095
Als AMD problemen net zo erg waren geweest als die van nvidia hadden we zeer zeker veel meer over gehoord. Mijn eigen AMD GPU uit die periode doet het nog. ondanks dat ik heb PCB heb verbogen door een 'universeel' (one size fits none) GPU block.
Rumors?
nope, publiekelijk beschikbare informatie, inclusief officiële reactie van oxide.
Ah ja net zoals de verschillende SKU's in de RX4XX en RX5XX series.
Je bedoeld die dingen met een D in de naam en die alleen beschikbaar waren in china? Dat kon beter, maar nog niet eens bijna zo misleidend als de 1060 3GB en 6GB.

[Reactie gewijzigd door Countess op 1 november 2020 01:33]

Vergeet niet de gtx1030 met ddr4
Tot je, ondanks de drivers die dat proberen te voorkomen het toch voor elkaar krijgt om over die 3.5gb limit te gaan en heel je systeem performance instort, niet alleen die van je game.
Het was juist andersom, de drivers eerst waren er niet op berekend en zodra je over die 3.5gb heen ging had je framedrops. De drivers hebben dit achteraf aangepast. Niet vooraf.
Het waren gewoon 8 cores. Dat elke core niet snel was maakt dat niet minder waar.
Het was meer vergleijkbaar met een quadcore hyperhtreading setup. Niet dat het 8 daadwerkelijke cores waren, daar is nu ook een rechtzaak over aan de gang.

https://www.theregister.c...%20a%20single%20%27module.
Zodra AMD consequent even smerige spelletjes gaat spelen als nvidia zal ik zeker iets van me laten horen. voorlopig is dat nog niet het geval,
Je bedoelt je onderbuik gevoelens mengen met de realiteit en een roze bril jegens AMD ophouden. Het staat netter als je consequent bent.
Je moet je kop wel HEEL erg ver in nvidia's.... het zand stopped hebben wil je dit nog ontkennen.
Dit is waarom geruchten blijven herhalen gevaarlijk is.
AMD was juist sneller met tessellation, tot 8x. en ongeveer gelijk bij 16x. alleen bij 32 en 64x was nvidia sneller (maar nog steeds tergend langzaam.)
Het punt was juist dat je vaak alleen de keuze had voor helemaal uit of tessellation 64x.
En dat terwijl je met 8x of 16x je alle grafische voordelen had, maar veel minder de enorme performance hit van 64x. Maarja, als nvidia 8x of 16x had toegelaten dan hadden ze de benchmark niet kunnen winnen. Dus nvidia naaide zonder schaamte hun eigen klanten, zolang die van AMD maar ietsjes harder genaaid werden.
Maakt dat iets uit voor deze discussie? Ze waren niet sneller op hogere detail niveaus. Alleen odmat het jou niet uitkwam in jouw verhaal is het opeens een probleem als een game hogere tesselation settings heeft? Vewrder kauw je allemaal conspiracy theories uit en was tesselation op hogere settings bij bewegend beeld weldegleijk fors mooier. Deze discussie hebben wij al gevoerd ooit en hierbij liet ik vergleijkings videos zien waar dit uit bleek.
beperkt de AIB partner keuze van klanten. en het was smerige en kleinzerig. precies zoals ik nvidia ken.
Ik kan lettelrijk niks vinden over deze zogenaamde "controversie", je eigen invulling?
Tja, en in laptop was heel die dure scaler ineens niet meer nodig om gsync voor elkaar te krijgen... nee, totally legit dit.
En hierbij kon de ervaring dus ook meteen weer minder zijn, flickeringen op panelen van AUO bijvoorbeeld. Dit versterkt alleen maar mijn punt.
Daarbij had de freesync spec een groter bereik als gsync. AMD's enige fout hierin was monitor fabrikanten iets te veel vrijheid geven, waardoor sommige goedkope monitoren een slechte ervaring gaven. Ze hadden eerder wat meer minimum eisen moeten stellen.
Sommige goedkope monitoren? Een 1200 euro Freesync pro monitor op mijn bureau heeft nogsteeds flickering issues etc. Freesync is nogsteeds inconsistent. Maar dat is opeens geen probleem? Gsync is objectief gewoon een meer consistente ervaring waar een vastgesteld kwaliteits punt altijd gehaald wordt. Wil jij je portomonnee hiervoor open trekken dan prima, zoniet ook prima.
Het is anti-consument om gebruiker de bijna net zo goede ervaring te ontzeggen terwijl je dat gratis aan kon bieden.
Bijna net zo goed is erg open tot interpretatie. maar zoals je al zegt, niet dezelfde kwaliteit. Wil je ervoor betalen dan prima, zo niet ook prima. Maar om dit anti consumer te noemen is bullshit.
Nee, maar ze hebben niet de maker van de benchmarks bedreigt als die met de feiten naar buiten kwam.
Geruchten?
Black screen komen bij nvidia ook voor. En er is een groot verschil tussen een fout maken ergens, en bewust slechte drivers uitbrengen. nvidia wist dat dat zou gebeuren.
Ah die jaren middelmatige tot slechte drivers bij AMD waren du sin jou ogen opeens prima? Ook ik heb AMD GPU's in mijn bezit gehad en het was heel veel jaren gewoon troep op gebied van drivers. Helemaal in laptops.
Dat was jaren van te voren aangekondigd. Dat kwam niet uit de lucht vallen, maar nvidia had zijn huiswerk niet gedaan. in tegenstelling tot de rest van de industry. dus nee, niet de gehele industry kampte daarmee. Zeker niet op het niveau van nvidia. (tin wiskers kwamen wel voor later, maar dat was een heel ander probleem)
En toch zag je alles relatief snel falen binnen de industrie in laptops, PC's, consoles etc en niet alleen bij Nvidia. Dit onderwerp is overigens veelste complex om in een tweakers pos tuit te leggen maar nieuwe materialen vereisten meer onderzoek qua themodynamics en methodieken om dit werkbaar te maken. Geen enkele partij had di toen ech top orde. AMD wel beter dan Nvidia qua failure rate maar ook bij AMD was het te hoog. Er zijn maar weinig Radeon HD4XXX series nog in leven.
Xbox had een slecht ontworpen monteer mechanism voor de koeler dat de GPU substrate van het moederbord PCB af drukte door het moederbord te verbuigen.
Daarbij was dat onderdeel het domain van Microsoft en niet AMD.
Het chip ontwerp was van AMD en het was de flipchip op de substrate wat mis ging niet de hele package op het moederbord. Het ging om de koeling zelf neit de zogenaamde board flex waa rjij het over had. De PS3 had hetzelfde euvel maar in mindere mate.
En AMD's marktaandeel in die periode 30-40%
https://www.techpowerup.c...m-2002-to-q3-2016#g228095
Als AMD problemen net zo erg waren geweest als die van nvidia hadden we zeer zeker veel meer over gehoord. Mijn eigen AMD GPU uit die periode doet het nog. ondanks dat ik heb PCB heb verbogen door een 'universeel' (one size fits none) GPU block.
Geen enkel van mijn AMD hardware in die tijd heeft het overleegd (HD3850, HD4870, HD6850)

De chart gaan alleen over Q3 en tekent een groot deel van het succes van de 88XX serie weg.

quote]nope, publiekelijk beschikbare informatie, inclusief officiële reactie van oxide.[/quote]
Link?
Je bedoeld die dingen met een D in de naam en die alleen beschikbaar waren in china? Dat kon beter, maar nog niet eens bijna zo misleidend als de 1060 3GB en 6GB.
Wie bepaald of het niet net zo misleidend is? en nee Niet alle GPU's uit de serie die ik benoemde waren equal betreft geheugen en geheugen bus.
Nou.... consequent vieze spelletjes... ik zie de 560D niet genoemd staan bijvoorbeeld ;) Of de bijzondere actie rondom Vega en Freesync monitoren. Het zeer lang uitblijven van driver fixes voor bepaalde zaken... En zo is er nog een leuke waslijst.

AMD kan er ook wat van, hoor.

[Reactie gewijzigd door Vayra op 2 november 2020 15:31]

Gedore Partner Program uit 2018 vergeten? Was een vrij groot schandaal waar Nvidia deels op is terug getrokken.

Komt direct naar boven als je op NVidia en anti consumer zoekt
Helaas zijn claims daarin nooit echt bevestigd en is alleen al vanwege de controversie rondom deze claims terug getrokken. Maar dit ging over merknamen, niks meer niks minder.
Physx weghalen bij AMD. MultiGPU van Dx12 werd al soort van geintroduceerd met Dx9.

GeForce partner program. Gameworks, G-Sync. Nvidia die met hun speciale tools/programma's/samenwerkingen er constant voor zorgt dat games op niet Nvidia hardware zwaar poep draait. Vals spelen in benchmarks, benchmarks waar ze slecht op scoren in diskrediet brengen.

Zo zijn er nog zat kleine dingetjes, beetje googelen en je vind genoeg.

Nvidia is een bedrijf dat ten koste van alles en iedereen voor eigen gewin gaat. Absoluut niet vreemd dat heel de techwereld er niet op zit te wachten dat Nvidia ARM overneemt.
GeForce partner program
Hier valt wat voor te zeggen deze case inderdaad.
Gameworks
Developers waarmee ik gesproken hebben vonden gameworks juist een goed iets, aangezien het ready to use libraries bood die geoptimaliseerd waren. AMD heeft ook zijn eigen libraries alleen niet onder 1 paraplu.TressFX is er bijvoorbeeld 1 van, welke weer vanuit AMD kwam en sneller draaide uiteraard op AMD hardware.
G-Sync
Zonder Gsync had AMD misschien niet eens bewogen om een VRR techniek te introduceren (Welke in hun geval gewoon een rebrand van een VESA standaard was. Gsync was prijziger maar bood wel een goede scaler, kwaliteits controle en het werkte out of the box. Freesync is een wildwest van monitoren welke maar een range van 50hz tot 75hz aan VRR range boden en de andere keer weer van de 45hz tot 144hz zoals wij van Gsync kennen en alles daartussen in, flikkeringen in het beeld soms, Vblanks etc versus iets wat altijd werkte. Gsync had een meerwaarde en daar mag best voor betaald worden. Gsync monitoren waren vaker ook luxieuzer uitgevoerd en daardoor alleen al duurder.l Maar anti consumer? Hell no.
speciale tools/programma's/samenwerkingen
Deed/Doet AMD ook.

Een hoop onderbuik gevoelens/meningen welke op meerdere manieren te interpreteren zijn.

[Reactie gewijzigd door ZeroNine op 31 oktober 2020 23:58]

Ik koop liever geen Apple omdat ik het niet eens ben met hun praktijken.

Nvidia en AMD zijn directe competitie van elkaar dus ik zie niet in hoe IKEA hier relevant is, ook ken ik geen anti consumer praktijken van IKEA.

Het is iets wat je in je overweging kan meenemen, Nvidia heeft wat shady dingen gedaan dus dat KAN je meenemen in je overweging.
Dit is voor mij ook 1 van de grootste redenen om AMD serieus te overwegen.

Nvidia probeert te veel marktmonopoly te pakken en dat moet gewoon afgestraft worden.
Anders heb je straks helemaal geen keuze.

Maar DLSS, dat is voor mij echt weer z'n techniek wat potentie heeft. Maar met maar 25 games die dit ondersteunen schiet je er ook geen reet mee op...... alhoewel dit wel de grote games zijn. Battlefield, call of duty, cyberpunk. ik hoop alleen dat deze lijst wel echt een stukje groter gaat worden.

Ik kan me voorstellen dat AMD hier niet met een tegenstander voor gaat komen. omdat dit"AI/Machine learning" echt nvidia straatje is.

SAM is leuk, en 2-13% winst, is leuk.
DLSS is heel leuk in marketing maar wanneer gebruik je het?

Op een 8K TV.
1440/1080 naar 4K maar je hebt ondertussen al kaarten die 4K prima aankunnen.
Bepaalde games

De techniek is heel cool maar de toepassing mogelijkheden zijn vrij klein in mijn opzicht
Ik snap niet wat je daarmee wilt horen.

Ik snap hem heel goed, er zijn zat mensen die gewoon zonder een vreselijk goede reden voor een bepaald merk.
Ik bouwde in 1998 mijn eerste PC en heb er sindsdien legio gebouwd en een AMD cpu was in mijn ogen not done, keek er niet eens naar.
Ik ga eind dit jaar een nieuwe game PC bouwen met een AMD cpu.
Kijk er nu heel anders tegen aan.

Je ziet dit ook met de keuze voor auto’s waarbij mensen een sterke voorkeur voor een merk hebben zonder enige ervaring.
En daar is niks mis mee, mensen hebben gewoon voorkeur en soms is het op zeer weinig tot niks gebaseerd.

[Reactie gewijzigd door Bomberman71 op 31 oktober 2020 17:35]

Je nam sinds 1998 tot nu AMD niet in overweging als CPU voor de PC's die je in die periode hebt gebouwd?

Er zijn toch meerdere momenten geweest dat AMD de betere Chips had. Vooral ten tijde van de Pentium 4, X2 Athlon 64. Of rond de Pentium 3 GHz, Athlon Thunderbird.
Maar zoals je zelf al zei: "soms is het op zeer weinig tot niks gebaseerd." dergelijke voorkeuren.
Precies, in die tijd was Intell erg populair en in mijn hobbygroep gebruikte je gewoon geen AMD, niet stabiel, koeling, etc etc.
Veel zaken die achteraf wellicht onzin waren of slechts deels waar, maar je had goede ervaringen met Intell en je ging er dus mee door.

Mooier kan ik het niet maken, dit is hoe het voor mij destijds was.
Kijk in de jaren 97, 98 zat lang niet iedereen op het internet.
Ik zat wel op het internet maar youtube bestond niet en reviews en vergelijkingen met benchmarks bestonden niet of nauwelijks.
Kortom, je deed veel op basis van wat je hoorde of las in magazines.
En ja als je goede ervaringen had dan ging je ermee door.
Voor mij wat het overclocken destijds een hobby en je zat dus ook vast aan bepaalde sockets en waterblocks die daarvoor geschikt waren. Intell was erg populair (met afstand) en onbekend maakt dan ook onbemind.
Zo ging dat toen gewoon.

[Reactie gewijzigd door Bomberman71 op 31 oktober 2020 19:08]

Bijzonder. Ik had juist de AMD K6-II hoog op het verlanglijstje staan door mijn groepje. :-)
Ik heb van 2001 tot 2009 alleen AMD processoren gebruikt in desktops van mezelf en familie, terwijl ik wel een laptop had met een Intel processor. Nu heb ik ook meerdere laptops met een Intel processor, maar dat is meer omdat AMD pas zeer recentelijk weer echt meedoet in die markt.

Op het moment heb ik niet meteen de behoefte aan een desktop, maar dat kan in de toekomst natuurlijk veranderen. Ik zal dan waarschijnlijk eerder gaan voor een workstation/server configuratie met veel geheugen en I/O. Dat zou AMD kunnen zijn, maar ik hoop eigenlijk op ARM.
En free/g-sync uiteraard. Een 5xxx met een 6800XT zou een mooie combo zijn voor mij maar met een g-sync monitor is een 3080 een betere optie (lijkt mij).

Zelfde als je al een free-sync monitor hebt want het gaat beide kanten op daarmee (voor het grootste gedeelte nu met g-compatibility).
Nouja, je vergeet dan nog een punt bij Nvidia: Je support AMD niet..
Je vergeet 1 puntje onder NVIDIA:

"Je hebt al een G-sync monitor in bezit."
Ik vergeet nog heel veel punten, voor elk bedrijf zijn er kleine dingen te benoemen.

Er is niet 1 beter dan de ander.
Meer: DLSS bij Nvidia vooralsnog.
Ik hou niet zo van upscaling, dus dat DLSS mag me gestolen worden ;)
DLSS is juist vooral interessant om te mee te downscalen bijvoorbeeld als je een 1080p monitor hebt de game te renderen op 1440p. Zo is het beeld stukken beter dan als je de game op 1080p zou renderen.
Dat is al prima mogelijk met VSR of DSR, waarom je het dan met DLSS wilt doen weet ik niet tenzij je kaart gewoon te traag is.
DLSS 2.0 zit nu in 4 games.

en AMD CAS of FidelityFX is misschien niet helemaal zo goed als DLSS visueel (zie death stranding) maar zeker wel goed genoeg en werkt met duizenden games.

Daarbij is DLSS een nvidia-only propitiatory technology die per game ondersteuning vereist, en dat is iets dat je als gamer precies niet wil. Je wil niet gelimiteerd zijn in je game keuze vanwege de videokaart die je hebt gekozen.
Volgens mij is die lijst... laat ik het netjes zeggen, niet helemaal betrouwbaar.

Bijvoorbeeld Battlefield V heeft geen DLSS 2.0. maar 1.0. ik kan daar nergens iets over vinden tenminste (behalve mensen die er om vragen).
tomb raider ook niet. monster hunter world niet, final fantacy niet, metro exudus niet, anthem niet, shadow of the tombraider niet ect.

En een van de 'games' is 3d mark port royal... en die heeft ook geen DLSS 2.0.

En dan staat er games op die nog uit moeten komen. (en dan is het nog maar de vraag of ze DLSS 2.0 krijgen bij launch)

[Reactie gewijzigd door Countess op 31 oktober 2020 18:04]

Klopt, de lijst heeft bogus bij staan.

Maar, als nog, dit zijn geen 4 titles:
- Deliver Us The Moon
- Wolfenstein Youngblood
- Mechwarrior 5
- Control
- Death Stranding
- Bright Memory
- F1
- Fortnite
- Minecraft

En meer zijn onderweg.
Hou ook in de gaten dat je veel meer geheugen krijgt en voor sommige spellen is dat een groot voordeel. Flight Simulator bijvoorbeeld, daar maakt het mega veel uit.
Is de "performance boost" waarover gesproken wordt echt enkel met de 5000-reeks van Ryzen? Zou het jammer vinden om met mijn Ryzen 7 3700X nu al uit de boot te vallen.
16gb vs 10gb of 16gb vs 8gb. Sommige games gaan al richting 8gb. Not just allocation. Mogelijk wordt AMD beter oud.
Consoles in 2014 waren zwak bij launch, dit is nu niet het geval.
Ja, daar heb je zeker een punt.
Geheugen kan je in weze nooit teveel hebben en dat kan iets veel beter futureproof maken.
Een firmware kan je flashen, geheugen erbij coden gaat niet.
Dat zeg je wel, maar GPUDirect Storage is effectief wel een manier om dat te bereiken. Je moet nu vaak alle textures tegelijk beschikbaar hebben, en dat vreet GDDR. Een moderne SSD is snel genoeg om die on-demand te leveren, maar de latency is te hoog als dat via de CPU moet.
Dan nog heb ik liever extra storage op een grafische kaart dan dat ik het niet heb.
Beetje het smartphone verhaal, heb liever extra storage die ik wellicht niet altijd gebruik als dat ik het niet heb en sowieso terug moet vallen op alternatieven die nooit zo snel zijn.
Wat voor resolutie wil je gaan spelen? 1080 1440 of 4k ? Dat is de eerste vraag.
1080p gaming dan maakt het niet zo veel uit wat voor videokaart je neemt . er zitten geen slechte videokaart tussen.
Bij 1440 en 4k dan wordt het iets minder duidelijk
Amd leverd veel geheugen en is dus beter future proof dat zie je ook in tests 3 jaar later dat AMD videokaarten door meer geheugen in games het beter doen ... 8gb is nu zo beetje de beneden limit voor 1440p en 12gb voor 4k . amd bied met 16 gb dus best een leuke extra buffer. Ook de next gen consols zijn uitgerust met AMD videokaarten . en die gebruiken nu ook next gen technology. Ik denk dat amd daardoor dadelijk iets beter geoptimaliseerd gaat worden voor games. Niet dat je daar wat van gaat merken hoor van een paar procent meer of minder
Meer geheugen maar niet hetzelfde geheugen. De vraag is hoe die verhouding precies in de praktijk is.
Wacht op de onafhankelijke reviews van de AMD kaarten.
Daarna kun je een 'best bang for buck' vergelijking maken, en kiezen voor Nvidia of AMD.

Zo doe ik het zelf al jaren. Fanboy spelen van één kamp is gewoon zinloos. Nvidia is/was wel koning in het high end segment, maar mid en low is altijd stuivertje wisselen geweest.
Ja daar heb je gelijk. Geduld is een schone zaak en we zullen het gaan zien.
Dank !
Omdat het er niet om gaat wie superieur *was* maar wie superieur *is* (op een gegeven prijs punt)
Ja, en dat probeer ik boven water te krijgen. Natuurlijk kan er altijd was veranderen maar het voortraject is minstens zo belangrijk.
Als je er niet meer zo thuis in bent dan is het fijn om te horen van mensen die wel los zijn op die materie en op basis daarvan een redelijk goede voorspelling kunnen doen.
In het middensegment kon AMD altijd wel meekomen, maar jan-met-de-pet leest dat nvidia de beste kaarten heeft, dus komt dan tot de conclusie elke nvidia kaart beter is dan elke AMD kaart. Wat natuurlijk niet klopt, maar zeker bijgedragen heeft over de afgelopen 20 jaar aan hun markt aandeel..Nvidia is in de volksmond(waar het gewoon moet werken, geen moeilijke verhalen en de buurjongen zegt dat het kut is en die weet er veel van want die speelt de hele dag games) beter, met die mensen, of met fanboys een discussie voeren is zinloos.

Daarnaast zie ik nvidia volgend jaar de prijzen wel omlaag brengen(behalve die van de 3090) als ze echt slecht gaan verkopen, of met budgetmodellen komen(of de 2070 rebadgen naar 3050), maar zie ze de komende jaren echt nog wel vasthouden aan hun marktaandeel.
Zo gaat het mij exact ook.Ben er meer dan 30 jaar tussenuit geweest. En door eindelijk internet op het platteland wil ik weer back in. Heb mij suf gelezen afgelopen maand om de benodigde kennis op te doen teneinde juiste keuzes te kunnen maken voor een mooie build. Net niet een build vanuit een absurd oogpunt maar wel tegen te top aan. Net op de valreep met een gevuld winkelwagentje met wat socket 1200 spul en een 2080ti las ik iets over een nieuwe GPU. Man wat was ik blij dat ik dat net op tijd door had. Maar de juiste kennis op doen kost mij verdraait veel energie. Het zal ook wel mijn laatste build worden gezien leeftijd. Daarom wil ik beslist achteraf geen spijt. Ook al is dat niet zo'n lang moment. O-) Ik wil dus achteraf geen verassing.
Maar wat wordt nu de echt de meest verstandige keuze? Ik denk dat het een
Zen AMD gaat worden met een Godlike mobo. Maar moet ik gaan voor een kaart van Nvidea of toch die van AMD? Waar zou jullie hart naar uitgaan? Ik had mij al ingesteld mentaal op geld weggooien met een 2080ti. Zou een 6900 van AMD toch de betere keus zijn ? Ook i.v.m. 6 gig meer geheugen ? Ik wil mijn build ook graag inzetten voor videorendering. Maar na 30 jaar en het laatste spelletje Unreal Tournament wil ik nu met goddank glasvezel gewoon vet kunnen gamen waarbij spreekwoordelijk de bek moet gaan open vallen. Ik zit me ook suf te piekeren over de monitor. Freesync vind je toch in meer modellen ? Ik had die breedbeeld van 38 inch en LG in de kijker.
Als iemand voor mij een zaklantaarn bij het einde van de tunnel zou willen laten mee schijnen dan wordt dat enorm gewaardeerd.

Vrede,
Leuk dat je ook weer mee wilt doen !
Ik vind het toch altijd een heel leuk proces maar merk dat zodra de klus klaar is ik me focus op mijn hardware en het doel waarvoor ik hem bouwde. Aangezien mijn honger dan gestild is voor minimaal een half decennium (muv mischien een simpele opslag uitbreiding) kijk ik dan niet echt meer naar de nieuwste techniek, en dan kom je er zoals ons dan na jaren achter dat er zoveel anders is.

Het is moeilijk voor mij om te vertellen wat jij zou moeten doen, maar ik wil mijn plannen wel delen met mijn motivatie en wellicht heb je daar wat aan.

Mijn doel is om iets te bouwen met een budget van zo’n 1750 euro of in die buurt (maar zeker sub 2000 euro). En dat is minus het scherm (wat ik al heb, LG widescreen) en ik meer dan voldoende vind, minus muis, minus toetsenbord (voldoet allemaal nog), en minus kast .. Heb een prima Fractal kast die zeker niet gedateerd is en zolang ik geen beperkingen tegen kom houd ik dat in stand en dat scheelt weer.
Evt fans voor de case heb ik zat en kan ook best wel wat kabels hergebruiken (SATA).
Casemodding en RGB fever heb ik allang niet meer dus ook dat wordt simpel.
Voor mijn muziek productie heb ik mijn Macky studio monitors, NI Komplete audio device, en kan ook uitwijken naar mijn Steelseries wireless setup (PS4 en PC) dus ik zit goed vwb audio.

Als basis neem ik een AMD Ryzen uit de 7 serie, een 3800X wellicht.
Automatisch dus ook een AM4 socket mobo dat ook PCIe4 ondersteund.
Koeling twijfel ik nog, had altijd waterkoeling ivm de herrie maar tegenwoordig zijn er ook echt hele goede luchtkoelers die ook relatief stil zijn. Waterkoeling kost toch altijd wel meer en alles tikt aan,
Ik kijk nog wel.

Mobo en de rest moet gevoed worden, hier moet ik nog eens goed naar kijken of mijn huidige voeding nog voldoende is, heb ik 2 jaar vervangen (750W) maar met de huidige kaarten en cpu’s en wellicht weer andere aansluitingen kan een andere voeding nodig zijn en dus zo weer minimaal 100 euro verder.

Wil als main opslag dan zo’n M2 SSD plaatsen met 1TB, het kan nooit snel genoeg zijn wat mij betreft.
Overige opslag kan ik doen met mijn huidige SSD en reguliere HDD.

Geheugen wil ik toch echt zeker 32GB hebben en dan verdeeld over 2 banken zodat ik altijd dat kan bijplaatsen en verdubbelen. En dus niet 4x8GB en ik bij een upgrade met dat geheugen blijf zitten.
Zeker met mijn Flightsim plannen kan ik niet genoeg geheugen hebben in mijn ogen. Denk zelf dat 32GB voorlopig wel even zat is.

GFX card neig ik nu richting die nieuwe AMD kaarten. Ik wacht even de reviews af en mijn price target is hoe dan ook iets van den 650-750 euro max. Een vergelijkbare Nvidia kaart moet ik ook wel kunnen scoren zeker als de hype straks wat minder is met de AMD kaarten erbij en met evt kerstaanbiedingen.

Ik heb zelf geen directe haast, want of ik het nu doe, eind december of eind januari maakt me niet zoveel uit en dat zorgt voor vrij weinig druk en dus uiteindelijk betere prijzen, meer keuze en iets meer tijd mbt research.

[Reactie gewijzigd door Bomberman71 op 2 november 2020 10:35]

AMD heeft hopelijk iets om te verkopen in tegenstelling tot nvidea.

[Reactie gewijzigd door LarsJacobs03 op 31 oktober 2020 15:50]

Daar lijkt het dus niet op, het lijkt er op dat AMD hetzelfde probleem gaat hebben als Nvidia..
Waar baseer je dit op? Nvidia had belachelijk lage yields (minder dan 10.000 wereldwijd) waardoor er geen mogelijkheid was om voor de feestdagen genoeg voorraad te hebben, er is verder niet tot nu toe dat AMD dat ook zal hebben, tegenovergestelde zelfs, TSMC doet het zeer goed met hun 7nm yields.

Natuurlijk kunnen ze ook zo door de voorraad heen zijn, maar dat kunnen we pas de 18e weten.

[Reactie gewijzigd door dakka op 1 november 2020 01:21]

Zover ik heb gehoord lijkt het beter te zijn dan bij nvidea hoor! AIB partners hebben van AMD blijkbaar al meer chips binnengekregen dan van nvidea rond dezelfde tijd voor release.

Bron: Moore's Law is Dead
Je stelt de verkeerde vraag. Je moet geen reden zoeken om een AMD of een NVIDIA kaart te kopen, je moet gewoon reviews kijken en de beste kaart binnen je budget kopen.

De RX 6000 series heeft wel een aantal voordelen tegenover de RTX 3000 serie..bijv. 16GB vs 10 en 8GB, maar eerst wachten op benchmarks en welke kaarten er uberhaubt beschikbaar zijn.
Ja reviews snap ik maar hier op Tweakers zit mega veel kennis en er zijn zat mensen die al jaren ervaring hebben in beiden kampen.
Hun ervaringen tellen voor mij mee want reviews zeggen niks over kwaliteit en support (software), terwijl geschiedenis dat wel aangeeft.
Tja, alleen kunnen deze dingen veranderen per generatie. Zo is bij de AMD RX 5000 serie bekend dat er wat driver issues zijn geweest, maar bijv. de R9 2xx en RX400/50 series waren hardstikke stabiel.

Andersom idem, Geforce 970 met het 3.5GB fiasco terwijl de 1070/1080 een van de betere kaarten van NVIDIA was.

Eigenlijk het enige wat je over een lange termijn kan zien zijn de 'business practices', waar NVIDIA naar mijn mening juist heel veel verliest.
Ik ben er te lang uit en heb de indruk dat Nvidia de laatste paar jaar superieur was mbt video kaarten voor gaming.
Ligt eraan in welke prijsklasse je aan het zoeken was. Bij de top end had amd heel lang niets beschikbaar, maar straks weer wel.
Als we de laatste benchmarks van AMD mogen geloven zullen ze sneller, goedkoper en energiezuiniger zijn dan nVidia.
Smaak, fanboyism, bang for your buck, gezonde concurrentie. Pick one. Met beide merken ben je goed bediend. Heb zelf een 5700 XT en die draait lekker. Voordeel zou kunnen zijn dat AMD in de prijsstelling consessies moet doen simpelweg om marktaandeel van nVidia af te pakken. Daar vaart de consument iig wel bij.
Performance. AMD had de afgelopen jaren geen high end kaarten. Hooguit upper mid range. Dat is waarom Nvidia superieur was. Maar nu schijnt AMD even goede of betere performance te krijgen, voor minder geld.

Verdere unique selling points maken meestal niet zoveel uit. Nvidia ShadowPlay is leuk, maar niet per se nodig. DLSS en ray-tracing zijn misschien even dingen, maar soortgelijke technologie gaat AMD ook krijgen.

[Reactie gewijzigd door Amanoo op 31 oktober 2020 18:19]

Kort gezegd, ja, de 6900xt is nagenoeg even snel als de 3090, maar kost 500 euro minder.
En de 6800xt is in veel gevallen sneller dan een 3080 en kost minder en gebruikt minder stroom dan een 3080.
Wat is nu een valide reden om voor AMD te gaan ipv Nvidia vanuit een gamers oogpunt ?
Ik ben er te lang uit en heb de indruk dat Nvidia de laatste paar jaar superieur was mbt video kaarten voor gaming.
De reden dat je nu een 3080 kan gaan kopen voor 700 euro is vanwege AMD. Als je daar blij mee bent is het misschien netjes om AMD deze keer je geld te geven.
Moet heel eerlijk bekennen dat ik vrij veel AMD Radeon kaarten in het verleden heb gebruikt en het lijkt erop dat ik deze keer weer voor AMD ga kiezen samen met een AMD cpu (voor de 1e keer) ...
Nog even de reviews afwachten.
Ja kan deze vraag natuurlijk ook omdraaien?
Open standaarden is al reden genoeg om Nvidia niet te overwegen. :) https://gpuopen.com/

Maarja, meeste Tweakers hebben daar nog nooit van gehoord, dus snap je stiekem ook wel. Gelukkig snap ik het wel, daarom was mijn laatste Nvidia kaart een 8800GTS (14 jaar terug).

[Reactie gewijzigd door GoT.Typhoon op 31 oktober 2020 21:28]

Bij Nvidia is er een discussie over dat er geen SLI/NVlink meer is voor alles behalve de 3900. Maar hoe zit dit met AMD zijn Crossfire (of een opvolger, ik ben wat out of touch)?

2x een RX 6800 geeft 50% meer compute units voor 16% meer geld dan de 6900XT (wel iets lagere clock), en je verdubbelt het geheugen dat verder wel op dezelfde snelheid werkt. Wel 60% meer vermogen, als je die kaart full time inzet dus niet persé de beste keus, maar als je enkel sporadisch veel rendert/gamed kan het best een voordeel bieden kwa performance/buck.
SLI en Crossfire gebruiken meestal alternate frame rendering en daarvan krijg je snel microstutter. Als je doel is zo vloeiend mogelijk gamen dan sla je met SLI/Crossfire al snel de plank mis. Dat dan nog even los van compabiliteitsproblemen. De positie van SLI/Crossfire werd daardoor eigenlijk onhoudbaar op de dag dat we frame times gingen meten.

Overigens is Crossfire de AMD merknaam voor multi-gpu in o.a. DX11. Bij DX12/Vulkan kan het via de spec en heb je geen Crossfire nodig. Het is vervolgens aan de developers om het te implementeren (die daar vervolgens geen zin in hebben).

[Reactie gewijzigd door sdk1985 op 31 oktober 2020 16:02]

Verdubbelt het geheugen? Ik dacht altijd dat het geheugen bij SLI en Crossfire hetzelfde bleef.
Klopt, meerdere GPU's hadden en in de nog maar zeer beperkte toepassing vandaag de dag - hebben - bij videogames dezelfde data in het geheugen nodig. Een betaalbare oplossing met zelfde inter-GPU bandbreedte als GPU's op de printplaat zelf hebben is nooit gevonden.

Er zijn nog wat bouwsels geweest met 2 GPU's op één printplaat met vast een idee in het achterhoofd daar dan een soort multi-GPU ringbus met gedeeld geheugen op te kunnen bouwen, maar volgens mij is het altijd bij stap 1 gebleven, een beperkte bandbreedte SLI/Crossfire bridge op het PCB, in plaats van gelijkwaardige geheugen toegang.

Aldus is het voor alle partijen steeds minder interessant geworden. De (VR/Raytracing) rendering complexiteit blijft toenemen en dat allemaal optimaliseren voor multi-GPU in elke game is financieel en technisch gedoe. Negatieve reviews rondom microstutter en games waar SLI/Crossfire zelfs negatieve impact had op performance heeft het uiteindelijk doen uitsterven in mijn beleving.

Met DX12 kun je nu meerdere videokaarten onafhankelijk van elkaar aan het werk zetten. Dan kun je ook het geheugen los inzetten voor bepaalde zaken. Bijvoorbeeld physics, spacial audio, AI tegenstanders en raytracing naar een aparte GPU+VRAM en de rendering+textures in de snelste GPU+VRAM. Dan zou je technisch voor het eerst wat extra VRAM kunnen benutten en uitsparen op de primaire GPU. Echter is die uitgespaarde geheugenhoeveelheid relatief weinig, waar mensen zullen verwachten een 2e kaart te kopen voor bijna verdubbeling in prestaties. Het is inmiddels dus wel mogelijk, maar technisch uitdagend en bijna niemand heeft een 2e GPU met volledige features, dus kan er praktisch niemand gebruik van maken.

AMD kiest een aanpak waarbij je theoretisch iets zou kunnen winnen met 2x16GB. Echter is 16GB vandaag zodanig veel VRAM dat je niet meer spreekt over een paar jaar in de toekomst voor 2x16GB, maar op een tijdshorizon dat je er gegeven de GPU power waarschijnlijk weinig meer aan hebt.

Bij NVidia heb je een 3070 met 8GB, een 3080 met 10GB, 3090 met 24GB. Daar zou een 3080 met 10GB of puur vanuit NVidia gekeken de 3090 een logischere keus zijn dan 2x een 3070. Waar 16GB en 24GB dan toch al heel veel VRAM is, kun je je afvragen hoe goed je met 8GB VRAM uitkomt in 2023 bijvoorbeeld. Het verschil tussen de 3070 en 3080 ter waarde van 2GB VRAM offloaden met enkel secondaire taken zal niet snel lukken, dus een enkele 3080 zou zelfs na al die extra technische inspanningen de betere keus blijven dan 2x 3070 in iedere nu voorstelbare game architectuur.

Voor simulaties is het een ander verhaal. Dat soort werk is vaak veel beter te paralelliseren, wordt meestal bij het eerste ontwerp al aandacht geschonken aan paralelle algoritmes en een opzet om rekenwerk over meerdere computers te verdelen. Voor zulke software is werken met meerdere onafhankelijke GPU's in vergelijking met meerdere computers kinderspel. Veelal spreken die GPU's direct aan, maar zouden met DX12 multi-GPU vast ook wel wat rekenwerk kunnen verdelen over de kaarten op een zinnige manier. Dat soort workloads schaalt rustig met 80-99% efficiency over meerdere kaarten, maar heeft daarvoor geen SLI/Crossfire nodig.
Jammer genoeg zijn er praktisch geen nieuwe games meer die multi-GPU ondersteunen
Ik vind het echt niet erg, het had toch altijd zware beperkingen, schaalde matig, micro stutters, vram kan maar van 1 gpu gepakt worden, nee, geen gemis, zeker niet met hoeveel kracht gpu's vandaag de dag hebben.
Intel en AMD gaan voor next gen Dus DG2 en RDNA2 ook voor Chiplets. Zou kunnen dat je geen SLI en Crossfire nodig hebt. En die L3 cache belangrijk wordt.

DG1 met iGPU kan je dus ook al combineren. En AMD SAM dat CPU ook DMA acces naar Vram heeft is de toekomst.
Voordeel van chiplets is dat Gamedev daar niet diep in de API moeten ploeteren.
Ik verwacht dat dit paar voordelen mee brengt.
Bigchip is dan 3 tot 4 chiplets en pro mogelijk 8. Met multi io die met grote L3/L4 cache.
Veel en goedkopere Vram beschikbaar over smalle bus. En die dus als 1 grote memory pool gebruikt wordt ipv multi copien per gpu.
Crossfire is met de RX5000-serie om zeep gehoplen.

[Reactie gewijzigd door ocf81 op 31 oktober 2020 15:41]

Crosfire en SLI is door Mantle -> Vulkan/DX12 om zeep geholpen. Het is van Driver profielering naar dev game engine ontwikkeling verschoven. Dev zijn dus verantwoordelijk voor multi GPU gaming. Voor dev is mainstream het belangrijkste ivm main target dus mainstream gamers maken games commercieel rendabel niet zeer kleine groep die gretig cash ertegen aan gooit.
Meeste mensen stellen liever de game setting wat lager dan er geld tegen aan te gooien met 2 gkaarten.
Het is dus de nV en AMDTI driverteams die SLI en Crossfire mogelijk maken. En dat is met de lean&Mean low level API vervallen.
De stekker is echter op de RX5700-serie niet meer aanwezig, AFAIK. Dus dan wordt het wel erg lastig om nog langer implicit multi-GPU te doen. Alleen explicit multi-GPU is nog mogelijk.
Zou anders ook wel een erg vreemde, zichzelf in de voet schietende move zijn van AMD om voor de 6900XT geen AIB partners toe te staan.
Heeft alles met 'yield' te maken. De 6900XT word gemaakt van de best 'gebinde' Navi21 chips. Daar moet je er dan wel genoeg van hebben om alle fabrikanten te voorzien.
AMD heeft nooit een goede verstandhouding gehad met AIBs. AMD ziet ze eigenlijk als concurrentie.
Sapphire zou het daar niet mee eens zijn denk ik.
Dat moet je even wat verder uitleggen. Uiteindelijk zijn het ook de AIB partners die de referencekaarten fabriceren. AMD doet zelf niets aan fabricage AFAIK.
Kun je dat onderbouwen want hier heb ik nog nooit van gehoord.
Haha grapjas, moet je ook echt zeggen terwijl Nvidia nu al hun AIB partners in de voeten schiet haha. ;) AMD gaat prima met zijn AIB's, en als stockholder houd ik daar ook contact mee en hoor enkel goeie berichten.
AMD heeft nooit een goede verstandhouding gehad met AIBs. AMD ziet ze eigenlijk als concurrentie.
Je bent in de war met 3DFX. Nvidia is zeer streng in wat ze hun 'partners' laten doen. AMD is onder Lisa Su zeer vriendelijk naar partners toe. 1 ding wat vaak fout ging bij AMD is dat partners hele goedkope componenten gebruiken waardoor AMD slecht over komt. Dat is sinds 2017 dus helemaal voorbij.
Yup, koop nooit referentiemodellen van de fabrikant zelf, maken altijd veel te veel herrie. En zijn ietsjes trager maar dat scheelt slechts enkele procenten.

Misschien is het qua geluid nu beter omdat ze van de blower koelers afgestapt zijn.

[Reactie gewijzigd door Navi op 31 oktober 2020 16:46]

Yup, koop nooit referentiemodellen van de fabrikant zelf, maken altijd veel te veel herrie. En zijn ietsjes trager maar dat scheelt slechts enkele procenten.
Is dus niet het geval met de nieuwe Nvidia he? Die zijn prima stil.
Zou het niet eerder met binning te maken hebben? Dat AMD dacht dat ze te weinig 6900XT chips zouden hebben om ze ook nog te kunnen verdelen onder AIB? Maar dat nu blijkt dat de binning beter is dan verwacht. Pure speculatie van mijn kant hoor.
Wat mij opvalt is dat de prijs/prestatie van de 6800XT beter lijkt te zijn dan die van de 6800. Ik wilde in eerste instantie gaan voor de 6800, maar overweeg nu toch de XT versie.
AMD heeft iets erg raars gedaan met de naamgeving. De 6800XT zit stukken dichter bij de 6900XT dan bij de 6800.

Veel mensen (waaronder ik) snappen dan ook niet dat deze 6800 heet ipv 6700(XT). Het lijkt een reactie op Nvidias naamgeving en de performance tov hun 3070 kaarten (6800 is beter want hoger nummertje).

De 6800XT lijkt inderdaad de interessantste van de lijn met de beste prijs/perf. Als ik jou was zou ik er een proberen te pre-orderen (zo nodig van beiden) en te cancellen welke je niet wilt of beide cancellen. Er is geen nadeel aan pre-orderen aangezien je toch vrij bent om te retourneren.
Het is ook vrijwel zeker dat ze allemaal direct uitverkocht zullen zijn.
6800 is geprijsd en prestaties gelijk aan een to be 3070ti, imo.
De 3090 zit stukken dichterbij de 3080 dan de 3080 bij de 3070 zit. Ze volgen gewoon NVIDIA.

Alleen heeft NVIDIA nog maar twee GA102 modellen uitgebracht (hoewel volgens geruchten er inderdaad nog een kleinere komt). Ik denk dat AMD niet het risico wilde nemen om niks tegenover de 3070 te zetten totdat full navi uitkomt (6700 xt).
NV lijn is ook raar 3070 3080 met te weinig Vram en 3090 heel veel. Met 2 chip types. GA104 en GA102. Groot gat tussen 3070 en 3080 en 3090 had ook 3080Ti
Bignavi tot nu toe is alleen 1 chip N21
Dus voor de bigchip 2 GA102 vs 3 N21
Bij AMD komt er onder de N22 bij tegen de GA104.
nV kan dus extra modellen kwijt met meer en minder Vram 2 GA102 naar 4
AMD kan er nog water gekoelde N21 er boven doen met hoge TDP van 3 naar 4
Probleem is dat nu met de productie fiasco en verkrijgbaarheid nu AIB beladten met nieuwe SKU en dus bestaande bulk BoM daarvoor reserveren de levertijden nog zwaarder onderdruk zetten. Beste strategie is prijs beetje verlagen.
Want er nu wel concurrentie maar het zijn geen killers en ook geen prijs dump.
totdat de post je pakketje kwijt raakt en je hem niet verzekerd hebt *poef* weg geld..
Hoe bedoel je?

Als je pakketje kwijtraakt krijg je gewoon je geld terug van de winkel aangezien je het product nooit hebt ontvangen voldoen zij niet aan de koopovereenkomst en dus kan deze ontbonden worden.

Als je je geld niet terug krijgt heb je je aankoop gedaan bij een shady winkel en ligt het probleem eerder in het koopproces.

[Reactie gewijzigd door Randomguy369 op 31 oktober 2020 16:52]

Ik bedoel een pakketje kwijtraken bij het terugsturen van een kaart. is mij een paar keer gebeurt met de duitse post en Amazon.
Aangetekend retourneren, voor een paar knaken ben je verzekerd
Elke keer dat er iets mis is gegaan bij Duitse Amazon bij mij kreeg ik redelijk snel een Nederlands persoon aan de lijn die mij heel snel kom helpen en alvast het geld overmaakte en zei 'wij regelen de rest wel'.
Als je er natuurlijk 1 kunt bemachtigen, want het lijkt er op dat AMD gewoon hetzelfde probleem gaat hebben als Nvidia met hun 30xx release.. Dat is in iedergeval zoals er over veel andere nieuwssites nu de ronde gaat.
Nou nee AMD gaat de normale release levering problemen hebben , met corona lockdown grotere vraag daar ook nog overheen. Dus slecht verkrijgbaar maar in mindere orde dan RTX30. En schaarste zal buiten US ook groter zijn .
Dat is waarschijnlijk ook de bedoeling van AMD. 6800XT heeft duidelijk de beste prijs/prestatie verhouding.
En als ik dan naar de 6900XT kijk dan heb ik het idee dat ze die kaart liever niet (te veel) verkopen. Maar ongeveer 10% (80 ipv 72 CUs) sneller en 54% duurder.

[Reactie gewijzigd door The Reeferman op 31 oktober 2020 15:50]

Klopt. Pak hem beet 12% duurder en zomaar 20% sneller.
Dit zou mijn keuze om een RX 6900XT te kopen, over de 6800XT serieus beïnvloeden, custom AIB kaarten van de partner spreken mij toch altijd meer aan, aesthethic gezien maar ook qua cooling & performance. Laten we hopen dat ze het realiseren :)
Totaal mee eens. Vaak zijn ze net wat hoger geclocked en is er gewoon wat meer variatie. Bijvoorbeeld als je een zwarte kaart of een volledig witte kaart wilt. Bij de standaard kaart zit je aan 1 stijl vast en dat is gewoon jammer.
Nou moet ik zeggen dat ik dit reference design wel best mooi vind en het is fijn dat er voor een neutraal kleurenpalette gekozen is, de reference modellen zijn een stuk beter geworden in de afgelopen 5 jaar.

Echter ben ik het er wel mee eens dat het jammer zou zijn, en daarnaast denk ik dat AMD zich er flink mee in de voeten schiet.
Inderdaad hoger geklokt, maar ook de koeling (en geluidsproductie) is vaak beter dan bij de referentiemodellen.
de hogere clock is vaak zelf makkelijk te behalen door een paar slidertjes in MSI afterburner, niet eens echt overclocken te noemen; gewoon power/temp target omhoog. Bij nvidia was het zelfs met the 20XX serie dat de FE kaarten beter gebinned waren.
Ik vind het ook een 'vertrouwd' gevoel geven.
Als je normaal MSI of Asus kaarten hebt en daar goede ervaringen mee hebt, waarom dan niet weer zo'n zelfde kaart? Daarbovenop zijn ze vaak hoger geclockt, hebben betere koeling en maken minder herrie.

[Reactie gewijzigd door vliegendehommel op 31 oktober 2020 15:54]

Zeg maar gewoon dat je 1 grote brok LED's wilt :+
En we hebben gezien dat ASUS met hun TUF kaarten serieus de kwaliteit in acht neemt.
Wat zijn "aangepaste modellen"? Iedere kaartmaker krijgt toch dezelfde chips, lijkt me?
De chip is inderdaad hetzelfde, het gaat hier om de koelers die de fabrikanten erop zetten. MSI heeft een ander design dan ASUS en die verschillen weer van Gigabyte, om een voorbeeld te noemen.
Niet echt aangepast dus. Het is niet alsof ze de stock koeler eraf slopen en hun eigen erop zetten.
We hebben destijds gezien wat dit soort constructies doet met je brand, 3dfx anyone? Gewoon met partners in zee gaan en de markt betaalbaar houden. Het zou eigenlijk verboden moeten worden die exclusieve modellen omdat andere fabrikanten buitenspel worden gezet.

[Reactie gewijzigd door foxgamer2019 op 31 oktober 2020 16:42]

Het zou verboden moeten worden dat een partij een product maakt en vervolgens kiest om het zelf uit te brengen? Rare wereld.
Ik zit eraan te denken om mijn 2080 Super te verkopen en voor een 6900 XT of 6800 XT te gaan. Ik zal dan wel RTX Voice/Nvidia Broadcast software erg missen. Ofwel, mijn Microsoft Teams genoten zullen het missen ;)
AIB Custom zijn duurder en speciale OC versies, die uiteraard andere power profiel hebben. Custom 3090 kunnen ook ver over de 350W met over 500W power spikes . Ben beniewed hoe dat gaat klokken en dan de game klok wat er gehaald gaat worden. Ze hebben dan zeer grote ruimte om vanaf 300W de klok te verhogen.
Ik vraag me nou echt af wat de meer waarde is van een 6900XT tegen over een 6800XT Op de Compute units en Ray tracers... na zijn ze zowat iedentiek ... en ik durf er om te wedden dat ruim 300 dollar prijsverschil het prestatie verschil niet goed praat..

Iemand die hier iets meer over weet? en anders maar de benchmarks afwachten
De 6900XT is gemaakt om de 3090 belachelijk te maken. (En voor mensen die niet naar de prijs kijken.)

Maar voor de 6900XT moet AMD niet alleen een volledig werkende chip hebben, maar ook eentje met goede eigenschappen (dus hoge kloks halen bij een laag voltage om zo het verbruik laag te houden). Dus deze binning van de chip zal schaarser zijn, zelfs met de goede yields van TSMC's 7nm, als de andere 2 varianten. Daarom moet hij duurder zijn als het performance verschil zou impliceren, anders zou de vraag simpel weg te hoog zijn om aan de vraag te voldoen.

Ook lijkt de prijs van zowel de 6800 als de 6900XT lijkt er vooral op gericht de meeste mensen naar de 6800XT te leiden. De meeste van de chips die van de band rollen bij TSMC zullen in deze binning passen waarschijnlijk. Naarmate de yields beter worden in te toekomst kan het zijn dat het prijs verschil kleiner gaat worden.

bottom line: alle varianten van deze chip zijn zo geprijsd dat AMD ze allemaal verwacht te verkopen in ongeveer de verhouding als dat ze uit het binning process komen.

[Reactie gewijzigd door Countess op 31 oktober 2020 17:40]

Ik hoop dat je gelijk hebt met betrekking tot de visie van AMD en dat hierdoor de prijzen weer eens wat gaan dalen...
Echter betwijfel ik het hoewel meerdere factoren meespelen in games, schijnt volgens benchmarks in Microsoft’s DXR SDK dat een AMD RDNA2 GPU zo'n 33% trager is dan een RTX3080, nu noemen ze niet welke AMD kaart werd gebruikt maar als dit een 6800xt is laat staan een 6900xt zie ik niet gauw in waarom dit een 3090 killer zou zijn...
Waarschijnlijk zitten ze er niet ver vandaan maar een killer zal het worden vrees ik.
3090 killer?! Zelfs als dat zo zou zijn, is de snelste kaart nog altijd niet de beste!
Je kunt gewoon niet over NVIDIA heen. Iemand met een beetje verstand in hardwareland zou er praktisch niet aan durven denken om voor een RDNA2/AMD grafische kaart te gaan in plaats van een 3xxx NVIDIA RTX gpu !
Wat een fanboy reactie zeg. En dat totaal zonder argumenten, alleen een statement zonder onderbouwing.
De 3090 is niet consequent sneller en kost de helft meer. Je moet wel heel erg blind zijn wil de 6900xt er dan niet aanlokkelijk uit zien.

Ik heb al 18 jaar ATI/AMD GPU's. mijn enige nvidia GPU uitstapje (laptop) is dood door nvidia bumpgate.

[Reactie gewijzigd door Countess op 2 november 2020 11:46]

Ze concurreren er direct mee met de RTX3090, voor $500 minder. Denk dus dat je het niet moet zien als meerwaarde t.o.v. de eigen productlijn, maar als meerwaarde t.o.v. de concurrentie.

Verder biedt de 6900XT vooral zijn meerwaarde voor gamers die gamen op schermen van 1440p of 4K, tegen een, t.o.v. de concurrentie, scherpe prijs. In die sector loopt de 6900XT wel weg van de 6800XT en biedt hij om en nabij dezelfde performance als de $500 duurdere RTX3090.

Ik ben hierdoor i.i.g. wel geïnteresseerd in de 6900XT, zeker aangezien ik binnenkort een nieuwe PC ga bouwen op basis van de nieuwe Ryzen.
In theorie klinkt het leuk maar er is een reden dat AMD geen enkele benchmark vertoond met raytracing aan, simpelweg omdat ze dan afgaan tegen nvidia.

Daarbij moeten we eerst maar eens wachten op onafhankelijke benchmarks.

Dan gaan we zien hoe het echt zit. Games die AMD getest heeft en waarin ze mogelijk hard verliezen laten ze niet zien natuurlijk. Ze laten alleen de winnende games zien (zonder raytracing).


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Black Friday 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True