Vermeende Radeon RX 6000-specificaties stonden online bij webwinkel

Een grote Amerikaanse webwinkel noemde op zijn blog specificaties van de AMD Radeon RX 6900 XT, 6800 XT en 6700 XT. De videokaarten zouden voorzien zijn van respectievelijk 16GB, 12GB en 6GB aan GDDR6-geheugen en een tdp van 300W, 200W en 150W hebben.

De details van de RX 6000-kaarten zijn inmiddels verwijderd van de blog bij Newegg, maar onder andere VideoCardz heeft ze nog online staan. Het is niet zeker hoe betrouwbaar de gegevens zijn. Als grote webwinkel heeft het bedrijf mogelijk de beschikking over nog niet publieke informatie over de nieuwe AMD-videokaarten, maar het zou ook kunnen gaan om speculaties door de blogschrijver op basis van geruchten.

Volgens de blog verschijnen er drie videokaarten in de RX 6000-serie; de RX 6900 XT, 6800 XT en 6700 XT. De kaarten zouden respectievelijk tot 300W, 200W en 150W verbruiken en voorzien zijn van 5120, 3840 en 2560 streamprocessors.

Videokaart Streamprocessors Vram Bandbreedte Geheugenbus Tdp
Radeon RX 6900 XT 5120 16GB GDDR6 512GB/s 256bit 300W
Radeon RX 6800 XT 3840 12GB GDDR6 384GB/s 192bit 200W
Radeon RX 6700 XT 2560 6GB GDDR6 384GB/s 192bit 150W
Radeon RX 5700 XT 2560 8GB GDDR6 448GB/s 256bit 250W
Radeon RX 5700 2304 8GB GDDR6 448GB/s 256bit 180W

Specificaties RX 6000-kaarten volgens Newegg-blog.

De videokaarten maken vermoedelijk gebruik van de Navi 21-, 22- en 23-gpu's, met respectievelijk 80, 40 en 30 compute units. Over de grootste gpu's verschenen eerder al details in firmware en nu zijn via diezelfde weg details naar buiten gekomen over de kleinste gpu. Die zou codenaam Dimgrey Cavefish hebben.

Gpu Navi 21 Navi 22 Navi 23 Navi 10 Navi 14
Codenaam Navy Flounder Sienna Cichlid Dimgrey Cavefish
Architectuur RDNA 2 RDNA 2 RDNA 2 RDNA RDNA
Compute units 80 40 32 40 22

AMD gaat op 28 oktober zijn Radeon RX 6000-videokaarten onthullen. Het zijn de eerste kaarten op basis van de RDNA 2.0-architectuur, met hardwarematige ondersteuning voor raytracing en volgens de fabrikant een verbetering van de prestaties per watt met 50 procent ten opzichte van de eerste generatie. AMD toonde eerder al een render van vermoedelijk de Radeon RX 6900 XT.

Door Julian Huijbregts

Nieuwsredacteur

28-09-2020 • 10:18

147 Linkedin

Reacties (147)

147
141
62
10
0
70
Wijzig sortering
Is dit niet al veelbesproken fake? De data van newegg komt nergens vandaan en videocardz heeft het blind over genomen zonder een bron te zoeken. Ik begin dit gespeculeer net zo vervelend als de 1001 youtube kanalen die in het oneindige speculeren en nooit bronnen durven/mogen noemen. Of de youtubers die uitdrukkelijk vermelden dat het om speculatie gaat en "nieuws" sites die het vervolgens overnemen (videocardz bijvoorbeeld).
Onder het mom: If you throw enough shit at the wall, some of it is bound to stick.

Ik verwacht van een journalist (of T.net) in ieder geval de bron te bevestigen. Vooral omdat jullie steenvast 2-5 dagen achter het nieuws aan lopen. En het is niet handig om zelf nieuwe tabelletjes te maken waarvan de informatie niet klopt. (bijvoorbeeld het koppelen van chips aan de newegg tabel)

EDIT: Ik vind het daarnaast ook slordig dat het artikel hierboven inmiddels is aangepast (zoals de tabel die ik benoemde) zonder dat dit is vermeld (en het originele plaatsingstijdstip er nog staat).

[Reactie gewijzigd door kid1988 op 28 september 2020 15:08]

Een klein rekensommetje laat ook zien dat de genoemde namen en TDPs nogal onwaarschijnlijk zijn.

De '6700XT' is qua marketing de opvolger van de 5700XT en moet dus beter preseteren (hogere FPS etc) dan de 5700XT. AMD zegt zelf 50% betere prestaties/watt. De 5700XT heeft een TDP van 250W, de '6700XT' een TDP van 150W.

Ons is alleen de maximale TDP gegeven, dus als we dan uitgaan van het mogelijk allerslechtste geval waarbij de '6700XT' NIET beter presteert dan de 5700XT maar gelijk presteert en dan de TDPs op elkaar delen, krijgen we 250/150 = 1.66 ofwel een verbetering in prestaties per wat van 66%, wat veel hoger is dan AMD zelf stelt.

Realistischer is om aan te nemen dat de '6700XT' iets beter presteert, pakembeet 25% betere framerates etc., dan moeten we die 1.66 nog met 1.25 vermenigvuldigen en dan zouden we uitkomen op: 2.08 ofwel bijna 110% betere prestaties per watt.

Ofwel bovenstaande is echt enorme flauwekul.

[edit] mochten de specs kloppen maar de namen niet, dan zou die '6700xt' eerder een '6700' (niet-XT) kunnen zijn; als die 25% beter presteert dan de 5700, bij 150W ipv 180W, dan kom je op exact 50% hogere prestaties per watt. Dan zou de '6800XT' eigenlijk de '6700XT' zijn om bij 50% betere prestaties per watt uit te komen op 20% betere performance dan de 5700XT en dan zou de '6900XT' eigenlijk een '6800XT' zijn (ook logischer tegenover de RTX 3080) en om dan aan 50% betere perf/watt te komen tegenover de 5700XT moet die 1.8x zoveel presteren.

Als, als, als die 50% betere perf/watt klopt voor de hele product stack en realistisch gebruik, en als de TDP van 'Big Navi' 300W is, dan moet 'Big Navi' dus 80% betere prestaties geven dan de 5700XT, en dan zou hij bij 4K net iets minder presteren dan de RTX3080 en bij 1440p net wat beter. Maar dus bij significant minder stroomverbruik.

Hierbij doe ik inderdaad een boel twijfelachtige aannames maar ik vind het gewoon leuk om het uit te rekenen want dan krijg je toch een beter beeld van waar AMD mee moet komen als de leaks kloppen. Het verbruik van de gelekte prototype borden van AMD lijkt lager (minder power-connectors) dan in de uiteindelijke RTX3080, dus een TDP van 300W lijkt me helemaal niet zo gek (sowieso is > 300W absurd, dat is gewoon een tegenvaller voor Nvidia). Dus voorzichtig optimisme wat betreft 'Big Navi' heb ik wel.

Overigens heb je geen rekensommetje nodig om te weten dat als AMD echt 50% betere perf/watt heeft bereikt met RDNA2 vs. RDNA1, dan hebben ze een enrome win te pakken tegenover Nvidia, en meestal is AMD relatief eerlijk wat betreft hun perf/watt claims.

[Reactie gewijzigd door Dorstlesser op 28 september 2020 11:57]

Het door AMD opgegeven TDP van de 5700XT is overigens 225 watt, niet 250 zoals de bron hier claimed. (niet dat dat je berekeningen enorm zou veranderen)
https://www.amd.com/en/pr...ics/amd-radeon-rx-5700-xt

Ik moet wel zeggen dat het helemaal niet zo gek zou zijn als lager geplaatste SKU's een betere perf/watt verhouding hebben als de top end. Dat zie je veel vaker namelijk.

De 5700XT bijvoorbeeld heeft een 65% betere perf/watt als de vega64 @1440p (wat al flink hoger is als de door AMD geclaimde 50%)
Maar kijk je naar de 5700 non-tx vs vega64, dus slecht een SKU stap lager, is dat verschil al opgelopen tot maar liefst 90% betere perf/watt.

Perf/watt cijfers gebruikt van deze bron:
https://www.techpowerup.c...-rtx-3080-trinity/33.html

De vorige 50% perf/watt verbeteren van AMD was duidelijk top-end SKU vs top-end SKU. Ik verwacht dat dat nu weer het doel is geweest voor de 50% betering met RDNA2, en dan kunnen lager geplaatste SKU's, die meestal beduidend minder hard op hun staart zijn getrapt, daar makkelijk bovenuit komen.

[Reactie gewijzigd door Countess op 28 september 2020 14:12]

Amd zegt ook al zelf dat ze heel tevreden zijn over de ontwikkeling van rdna2. En dat ze meer dan 50% perf/ p watt halen.

Ik hoop dat de 6900xt beter presteerd dan de 3080. Wat volgens redgamingtech wel het geval is.
Jammer dat ze niks tegen de 3090 doet. Wie weet wel als ze hbm2 erop zetten.
Mogen ze gerust 1000 usd voor vragen van mij.
1. Ik ga toch nooit de alle top kopen.
2. Nog altijd goedkoper dan de 3090.
3. 3080 voorbij is snel bijna 3090 performance.
Als de 6900xt de 550 usd kaart is, dan moet een 6900, 100 usd goedkoper zijn. Wat vertaald naar +-500 euros.
Als de 6700xt evenveel gaat kosten als de 5700xt, dan zal die prijs van 550usd meer voor de 6800xt of de 6900 zijn.
Ik hoop voor de 6800xt, want dan betekent dat deze boven de 3070 doet. En 6900 (xt) duurder en beter presteren. 6900 vs 3080 en 6900xt vs 3090. Maar das dromen. Zal wel allemaal net 1 stap lager gaan. 550 usd voor de 6900 die opneemt tegen de 3070. En 700 usd voor de 6900xt die tegen 3080 gaat.
Amd verras ons?
Ik denk niet dat het zo simpel is. De 3080 bijvoorbeeld is vooral gericht op high resolution gaming, denk aan ultrawide resoluties en 4K. De GPU is snel op bijvoorbeeld 1440P maar je ziet dan toch al snel de CPU de bottleneck worden en de opzet van de GPU is gewoon gericht op een hogere resolutie. Met wat er nu getoond wordt (gerucht) is dat de 6900XT dankzij de beperktere memory bandwidth dat niet is.
Amd zei dat ze nv killer heeft.
De 3090 raken ze niet aan als we zo kijken.
Ik ben al bang dat deze serie het ook niet gaat op nemen tegen Nvidia.
Amd heeft geen dingen als Relfex en dlss2, wat dus weer zwaar merkbaar is in games.
Nooit gebruikt die dingen, dus ik zal het verschil ook niet weten.
Interessant! Ik had die verschillen niet zo groot ingeschat. RDNA was natuurlijk wel een kleinere node dan Vega 64; maar die verschillen zijn alsnog wel erg groot. Het stemt hoopvol dan.
Er staat letterlijk op Videocardz: 'Therefore we believe that the specifications listed by Newegg are pure speculation from a contributing writer.'

Zij brengen het dus helemaal niet als waarheid.

Het zijn geruchten, als het je zo vermoeid, lees ze dan niet. Ondertussen mag Tweakers wel veel duidelijker maken dat het een gerucht is, door bijvoorbeeld een speciaal label naast de titel. En inderdaad, niet zelf nepnieuws verzinnen, regelmatig wordt het slecht vertaald of even 'snel' (dagen later, wat je zegt) overgenomen.

De bron ga je bij dit soort geruchten nooit vinden natuurlijk, als het echt is en insider informatie, dan wil diegene niet zijn baan verliezen. Zo werkt dat nu eenmaal.

[Reactie gewijzigd door hrichard op 28 september 2020 11:45]

Het is toch duidelijk in de titel? Er staat 'vermeend' en er wordt in het artikel genoemd dat de informatie niet perse betrouwbaar is... en als het duidelijk om een gerucht gaat dan staat de titel altijd tussen aanhaaltekens. Oftewel, niets aan het handje met de manier waarop Tweakers het bericht heeft geplaatst.
Ik zal jullie de echte betrouwbare info geven.
Dat doe ik op 28 oktober. }>
Informatie van de marketingafdeling van AMD is betrouwbaar? Wat betreft prestaties zou ik daar niet op rekenen 😋
prestaties is goed als de juiste prijs erbij is.
een 3080 prestaties voor 500 zal ik heel mooi product vinden. :)
Voor 700 ook mits leverbaar en zonder crashes
Volgens mij begrijp je me niet helemaal, ik heb namelijk niets tegen geruchten of speculaties, sterker nog, hartstikke leuk. Alleen moet het wel goed aangemerkt staan en de artikelen goed worden overgenomen. Daar schort het nog wel eens aan.
Welke speculatie heb ik hier gedaan dan?

Behalve aantonen dat lager geplaatste SKU's historische vaker een betere perf/watt verhouding hebben en een rekensommetje afgemaakt voor iemand heb ik volgens mij in de thread helemaal geen concrete uitspraken gedaan over de performance van de RX6000 serie.
Dat heeft ermee te maken dat deze youtubers en "nieuws"sites hier gewoon grof geld mee verdienen. T.net doet hier (helaas ook) vrolijk aan mee. Deze headlines wordt gewoon veel op geclickt en iedere click is weer een paar cent aan advertentie inkomen....
Misschien kan Tweakers een .gerucht naast de .nieuws en de .geek artikelen op de voorpagina maken. Maar een website mag ook wel geld verdienen, als de titel geen onwaarheden bevat en een beetje bij de inhoud komt vind ik het prima. :)

Bij deze moet het dus zijn ''Vermeende Radeon RX 6000-specificaties stonden misschien online bij webwinkel''
Eens, een website mag zeker geld verdienen. Ik heb alleen moeite met het verspreiden van geruchten, oftewel nepnieuws. Zoals Kid aangeeft er is door iemand een gerucht 'verzonnen' en er zijn vele partijen die dit klakkeloos, zonder broncontrole overnemen en publiceren (waaronder T.net).

Jouw suggestie is wellicht een prima middenweg.
Het idee van een gerucht is dat het nepnieuws kán zijn, maar misschien ook niet. Als het bewezen nepnieuws is hoop ik dat het over het algemeen niet geplaatst wordt.
Het is wel typisch dat 1 van de grootste winkels dit in een blog zet en vervolgens weer verwijderd. Als het dan op geruchten (of eigen speculatie van de schrijver) gebaseerd zou zijn, waarom verwijderd? Zet er dan een * achter dat het nog niet precies bekend is wat de specs gaan worden.

Waar rook is, is vuur en het verleden heeft te vaak bewezen dat dit soort "foutjes" toch behoorlijk dicht bij de waarheid zaten.
Het lijkt mij persoonlijk ook dat deze info onjuist is, met name de geheugen bandbreedte en geheugenbus, in dit geval zouden de 6700 XT en 6800XT beide een stuk minder zijn dan die van de 5700 welke al het geheugen als bottleneck heeft kwa performance.
Je kan deze kaarten niet rechtstreeks vergelijken, de architectuur is namelijk verschillend
Wat voor RDNA geld hoeft niet voor RDNA2 te gelden

Als trouwens de geruchten kloppen hebben deze kaarten een "Game cache" van 128MB, wat volgens testen zou overeenkomen met een 484 bit-bus

[Reactie gewijzigd door Sinester op 29 september 2020 16:49]

Snap het sowieso niet. Alsof AMD bijvoorbeeld zo een enorm gat laat vallen tussen hun hoogste 2 modellen.
Dus als ik het lees lijkt de RX 6700 XT sneller een opvolger voor de RX 5600 XT? Qua specificaties lijkt de 6700XT mij niet gelijk een opvolger voor de 5700XT...
Daarnaast is 6GB aan DDR6 VRAM wel erg karig voor een nieuwe reeks 'high-end' kaarten.
Daar kan dus ook nooit wat van kloppen. Qua marketing is het namelijk volslagen onzinnig om een '6700XT' te maken die overduidelijk qua naamgeving de opvolger is van de 5700XT en die vervolgens slechter te laten presteren dan de 5700XT (want bij gelijke prestaties kom je op 66% betere perf/watt bij de gegeven TDP, wat veel beter is dan AMD zelf aangeeft) en ook nog eens minder geheugen te geven.

Wat jij zegt is inderdaad veel logischer, dat wat hier als '6700XT' benoemd staat een 6600XT wordt of 6700.
Amd heeft dat vaker gedaan ironisch genoeg ook met een 6xxx serie kaarten.

De 6970 volgde toen de 5870 op en de 6950 de 5850. Op release waren de 6870 en 6850 simpelweg een slechtere koop dan de hd 5850/5870.
Hmm OK, het kan dus alle kanten op. Ik vraag me wel eens af hoe dit intern besproken wordt.
Als je kijk naar de 5700xt die toen de 2070 verslaat ( daarom had nvidia de 2070 super gemaakt ), moet de 6700xt toch de 3070 verslaan? Uit nieuws is de 3070 verslaan al de grootste navi21. Dit geloof ik niet.
Denk dat amd wel wat sterkers in huis hebben dan alleen een 3070 kunnen verslaan hebben.

Wel jammer dat er weer info is dat amd raytracing minder sterk is dan nvidia. Ik hoop dat dit nepnieuws is.
Raytracing is niet belangrijk op dit moment, leuke gimmick, maar te weinig games maken er gebruik van, laat staan op een deugdelijke manier. Komt ook bij dat volgend jaar RDNA3 aankomt waar ongetwijfeld verbeteringen zijn gedaan omtrent de raytracing, mede omdat op dat moment zeker meer games er gebruik van zullen maken ivm consoles.
Er zijn idd nog weinig games die rt ondersteunen. Maar het is wel de toekomst.
Al 2 jaar weinig rt games.
Denk je dat het nog 1 a 2 jaar duurt voordat echte rt games komen?
Cyberpunk heeft rt.

Hoe weet je dat rdna3 volgend jaar al komt?
Tegenwoordig duurt het 2 jaar voor een nieuwe gpu.
Eens. Raytracing is wel de next step; en AMD heeft de technologische knowhow ook. Anders zouden de nieuwe consoles ook geen raytracing ondersteunen. Ik verwacht dat dit de toevoer van RT titels of titels die dit ondersteunen (ook voor pc) aanjaagt.

Maar als je zoals ik nog vaak allerlei games van een aantal jaren terug speelt; is het helemaal niet erg om nog 1 of 2 series ouder te shoppen.
Zou ik nu 500 a 600 euro of meer uitgeven voor een nieuwe graka (en ik weet dat ik er een paar jaar mee ga doen); dan wil ik raytracing erop.
Ik wil zeker ook een paar jaartjes mee doen.
Hopen dat amd's rt wel goed is. En dat die verhalen dat hun rt slechter is dan nv gewoon nep nieuws zijn.
Aangezien rt ook in de volgende xbox en ps zijn.

Zelf denk ik " kunnen ze niet zo maken dat normalle shaders gewoon de fps berekent en rt cores alleen rt toevoegd? Dan verliezen ze niks in performance.

Nv heeft gewoon te weinig rt cores erin. En ze moeten meer rt cores erin gooien om betere rt performance te krijgen. En er zitten nog steeds te weinig van in. Nog steeds max maar 30% van de normale fps is te huilen.
Nou ja het is AMD 1st DXR gen en voor nV hun 2de gen en nVchip is giganties. En niet gedeeld maar appart. Bij AMD doet buffed up texture unit die taak tussendoor. En dat maakt er ook weer iets heel game specifiek.
Knap ook een beetje op die 6GB, maar goed, eerst benchmarks en prijzen maar afwachten.
Dit heb ik dus ook. Mijn prachtige RX 5600 XT-kaart met 6GB aan Vram begint bij 1440p in BF5 ook al flink te zweten (ruim 5GB aan Vram gebruik), dus ben benieuwd bij de nieuwe kaarten waarvan nog meer gevraagd gaat worden qua framerates.
VRAM bijna vol zegt alleen niets. Het is net als destijds de RAM discussie bij Vista; Windows ging toen "preloading" doen en de hele goegemeente aan het piepen want Vista gebruikte veel meer RAM!

Of 6GB VRAM te krap wordt of niet kun je gewoon niet zeggen gebaseerd op een in-game reading, je moet ook weten hoeveel er direct de-allocated kan worden.

Vooralsnog lijkt het er op dat alleen voor 4K de 8GB VRAM benaderd wordt, in een klein aantal spellen (Wolvenstein, n = 1).

Is gegarandeerd 6GB voldoende de komende paar jaar? Zeker niet. Maar in minimaal 80% van de gevallen wel. En daarbij komt een simpele work-around voor een "out of VRAM" bottleneck; de textures 1 tandje verlagen en het probleem is naar alle waarschijnlijkheid verholpen, zonder dat de gemiddelde persoon echt verschil ziet.

VRAM lijkt vooral een marketing issue te zijn, gecombineerd met wat FOMO. Ga er maar vanuit dat als Nvidia zelf een kaart bedoeld voor 1440p met 6GB op de markt zet, de VRAM in minimaal 95% van de spellen geen bottleneck is (en het komende jaar niet gaat zijn). Ze hebben alle data, ze gaan echt zichzelf niet in de voet schieten door een kaart te introduceren die dag 1 VRAM te kort heeft...da's alleen maar voer voor AMD.
In CoD: Modern Warfare (en wel meer games) heb je in de graphics menu een meter zitten met verwacht VRAM gebruik. Die zijn meestal grotendeels wel accuraat qua wat er daadwerkelijk nodig is. Ik zit daar met mijn RX570 4GB VRAM op het randje qua usage, 1440p, render resolution naar beneden geschroefd en alles med/low.

Ik koop zelf een GPU voor meerdere jaren dus ik koop liever iets ruimer (8 of 10gb) zodat ik daar over een jaar of twee (mogelijk) nog wat aan heb. Dan dat ik nu een kaart met minder VRAM koop en dan volgend jaar bij de volgende game releases spijt heb.
GTA5 heeft dat ook (CoD speel ik niet) en daar klopt geen bal van.
Ik zit nog op een RX570 met 1440P :+ Ik wacht met smart op de release van deze reeks zodat ik een keuze kan maken tussen groen of rood.

Opzich als de RX6700XT iets sneller is dan de 5700XT voor 100 watt minder verbruik en een prijs vergelijkbaar of lager dan de 5700XT dan heb ik daar wel oren naar. Dat zou al een dikke jump in performance zijn vergeleken met mijn huidige 570.
Pfoe een RX570 op 1440P. Dat heb ik ook nog even gehad, maar ik vond het eigenlijk de prijs van de monitor niet waard om die 570 erin te houden. De RX 5600 XT was voor mij al een enorme verademing, prachtige gameplay!

Laat staan als jij straks overgaat naar de nieuwe 6700 XT...! :D
Ik verwacht dat de 6700xt zelfde prijsklasse zal hebben als dr 5700xt.
Maar met 20% beter perf en raytracing en minder verbruik. Dus hele mooie kaart .
Ik heb weer ergens anders gezien dat ie 12gb word. Das een stukke beter.
Sowieso zijn de hoeveelheden RAM en de busbreedtes veel kleiner dan bij Nvidia; ofwel AMD probeert hier enorm kosten te sparen en daar wat prestaties voor op te offeren (dat zou natuurlijk heel jammer zijn) of ze hebben iets gevonden om het RAM gebruik te verminderen. Wellicht net zoiets als Geforce IO (heette dat zo?) of grotere cache (wat juist weer veel duurder zou zijn).
RTX IO bedoel je volgens mij. Ik wacht rustig de benchmarks en reviews wel af. Enige dat ik op het moment met regelmaat speel waar ik mij stoor aan mijn RX570 is Modern Warfare, de rest gaat nog redelijk.
50 procent performace meer per watt.
dus ja wel opvolger
Lijkt mij eerder dat je straks 3 kaarten hebt met elk hun doelgroep, 1080p 1440p en 4k

En bij 1080p loop je eerder tegen bottleneck op de core dan de memory bus en geheugen.

De truuk vandaag de dag is de verschillende onderdelen in de juiste verhouding te hebben.
Je kan wel 12gb op een kaart planten maar als je maar de helft gebruikt omdat anders de framerate dusdanig daalt het effectief weinig functie heeft.

De prijsstelling zal er vast en zeker positief door deze keuze beïnvloed worden.

Dit zie je ook al jaren bij computers voor normaal gebruik is 16gb al jaren genoeg en zal dat ook blijven.

En degene die workloads als compute erop doen kopen een kaart op andere specificaties.
Met de problemen van de poscaps bij Nvidea hun 3080 kaarten heb ik mijn aankoop van een nieuwe kaart wat uitgesteld. Ryzen heeft intel voorbij gestoken, Ik ben benieuwd of big navi dit ook doet bij Nvidea
Redelijk benieuwd naar het prijskaartje trouwens.
Het feit dat er zo kort voor de release nog steeds geen verbluffende benchmarks "geleakt" zijn, wil hoogstwaarschijnlijk betekenen dat AMD op pure snelheid niet zal kunnen concurreren met de 30xx reeks van nVidia. Anders zouden we zeker al benchmarks hebben zien verschijnen, zoals in het verleden meestal het geval was.
Ik vermoed dat AMD vooral zal concurreren wat betreft prijs/prestaties.

Mijn voorspelling: de topkaart van AMD zal net onder een 3080 presteren, maar wel een pak goedkoper zijn.
Het feit dat er zo kort voor de release nog steeds geen verbluffende benchmarks "geleakt" zijn, wil hoogstwaarschijnlijk betekenen dat AMD op pure snelheid niet zal kunnen concurreren met de 30xx reeks van nVidia. Anders zouden we zeker al benchmarks hebben zien verschijnen, zoals in het verleden meestal het geval was.
Ik vermoed dat AMD vooral zal concurreren wat betreft prijs/prestaties.

Mijn voorspelling: de topkaart van AMD zal net onder een 3080 presteren, maar wel een pak goedkoper zijn.
De enige feit hier is weer conspiracy gelul. Enige speculatie daar boven op is dat AMD 1st aankondigt met eigen benches net zoals nV, dan hardware verstuurd naar reviewers en later aan uitlevert al release datum. Zodat er niet heel vroeg gelekt kan worden. Zou ook kunnen dat AMD ook schaarste zal hebben. En nV en AMD willen uiteraard voor de feestdagen uitkomen de tijd om je release mee te matchen dus zal ook rushed job zijn.

Mij lijkt bench lekken meer iets van geval van direct goed leverbaar aankondiging en release dicht op mekaar. In zo een geval zijn er veel kaarten in omloop voor voorraad opbouw en dan kunnen logistiek insider van groothandelaren tot shops gaan lekken.
Het feit dat er zo kort voor de release nog steeds geen verbluffende benchmarks "geleakt" zijn, wil hoogstwaarschijnlijk betekenen dat AMD op pure snelheid niet zal kunnen concurreren met de 30xx reeks van nVidia.
Het is nog een maand voor de presentatie, laat staan de daadwerkelijke beschikbaarheid.
AMD heeft letterlijk pas net genoeg chips terug van de fabs om te gaan bepalen wat de uiteindelijke kloksnelheden gaan zijn. lijkt me dus niet heel realistische om nu al benchmarks te verwachten.

Daarbij, we hebben ook nog geen enkele 'verbluffende' benchmarks van zen3, en de presentatie daarvan is nog geen 2 weken weg. Maar ik heb nog helemaal niemand het argument zien gebruiken dat dat gaat betekenen dat zen3 een teleurstelling gaat zijn. Dus waarom zou dat dan wel gelden voor de GPU's?

Daarbij wil AMD niet nog een keer 2 dagen na de launch van hun nieuwe GPU door nvidia afgetroefd worden zoals met de 5700xt en de nipts snellere super serie.
Nvidia kan geen snellere chips meer maken op korte termijn dan Ampere nu. Het TDP van Ampere schiet nu al door het dak. Daar moet AMD dus geen schrik voor hebben.
Ze kunnen nog een GPU maken die sneller is als de 3080 (met meer geheugen), en eentje tussen de 3070 en 3080 om te concurreren in het lagere high-end segment.
Nvidia bedoel je ;)

Bedrijfsnaam is NVIDIA, logo is nVIDIA en in zinsgebruik is Nvidia normaal. Ik heb me altijd afgevraagd waar die hoofdletter V vandaan komt :P

[Reactie gewijzigd door Werelds op 28 september 2020 10:44]

https://en.wikipedia.org/wiki/Invidia
Modern usage of the name

The name of the Nvidia Corporation comes from Invidia in Roman mythology.[18]

Invidia is also the name of one of Final Fantasy XV's many battle themes.
Qua hoofdlettergebruik maken ze er inderdaad een beetje een rommeltje van door de jaren. :) Overigens zie ik in het logo en alle verwijzingen(ook de traybar) nu vooral de allcaps variant gebruikt worden. Ook op de site. Het is nu ook de 'NVIDIA' control panel.

[Reactie gewijzigd door MN-Power op 28 september 2020 10:57]

Heel vroeger gebruikten ze zelf ook Nvidia in teksten, maar voor zover ik weet zijn ze vanaf dag 1 geregistreerd als NVIDIA Corporation. Sowieso vanaf '99 zo op de NASDAQ gestaan :p
Van Video misschien?
Dat komt door het het eerste logo wat ze gebruikten, waar de N duidelijks als n gestileerd was.
https://logos.fandom.com/...rent%20symbolic%20meaning.
MS word corrigeert hem ook naar nVidia, wat met het oude logo ook de gangbare keuze was.
Vraag is wat nVidia exact gezegd heeft hierover, volgens mij zijn het namelijk de AIB's die hier de boosdoener zijn met te hoge overclocks waar ze hun kaart niet op ontworpen hebben.
also, t zijn geen poscaps

raad je "actually hardcore overclocking" op youtube aan.
Bedankt! Ik had mijn info van Jayz2cents zijn youtube kanaal.
Ik zoek het op.
Steve van GN heeft feedback van beide kanten. Volgens hem is nVidia nogal extreem paranoide en de reviewers hebben eerder full game testest firmware gkaarten gekregen en AIB veel later. Dus het is gedeelde schuld nV die heel laat AIB full firmware gaven en AIB die daar niet professioneel mee omgaan. Ook dekt de nvidia test suit niet wat stress test is. Het probleem heeft meer met lichtere load te maken waardoor kaarten extreem door kunnen boosten.
De oplossing is dus beginnen in de curve met meer Vcore en dat geeft meer stabiliteit maar ook TDP zodat boosten minder wild gaat. Dmv nieuwe drivers .

Gezien bij AMD lekken ook niet zo extreem is is hun beleid mogelijk ook wat strakker dan normaal. Of hun beleid 1st alleen reference kaarten van AIB partners custom stuk later.
klopt, die video is gister geupload, geweldig om m te horen terwijl die van een berg af sjeest _/-\o_

Conclussie die ik uit die video trok is dat Nvidia de aib's meer tijd had moeten geven om degelijk te testen, waarbij ze dan direct clocks hadden kunnen verlagen, of AIB's niet afwijken van het reference design.. (maar dit laatste doen ze om kaarten op/rond msrp te krijgen, anders zou elke kaart duurder uit pakken dan de FE.)
Nieuwe bios, voltage is niet hoger, maar lager geclocked op dat voltage. dus tdp veranderd naar mijn weten niet tot nauwlijks, alleen relatief tot de clock, en je bent een knappe als je die 20-50mhz merkt.

- wat wel een goed punt was, is dat onder andere Evga reviewers vroeg om te wachten met hun review ivm met mogelijke problemen. nu kan ik niet niet zeggen hoe hun onderlingen contact was met nvidia, maar lijkt mij dat een aib als evga juist de aangewezen partij was geweest om aan de bel te trekken (als ze hiervoor uberhaupt de tijd hadden).

Der8auer, heeft ook een leuke nieuwe video, wat laat zien dat de caps enige invloed, maar niet oppeens een extra 100mhz ofzo zullen geven.
de Nvidia FE, Asus TUF en ROG STRIX gebruiken voldoende (2 en resp. 6) van de betere MLCC caps. ROG STRIX gebruikt ook de dezelfde hoge kwaliteit Vcore controllers als de FE. Ik ga daarom, en voor de boost clock van 1935MHz, voor de ROG STRIX.

[Reactie gewijzigd door Blackice09 op 28 september 2020 15:22]

Maar ook die crashen. hooguit minder vaak.
Er zijn wellicht ook andere issues zoals te hoge GPU Boost, wat eenvoudig op te lossen is.
De ROG STRIX (en MSI Trio X) heeft ook 3 power supply adapters wat de electrische lading meer moet verspreiden en wellicht een hogere boost mogelijk maakt.
Denk dat 3x 8pin meer slaat op extreem OC voor LN2 of high-end WC
Ik vraag mij af of de reden waarom de grafische kaarten van Asus altijd duurder zijn dan de andere merken is omdat ze die duurdere MLCC's gebruiken.
Denk eerder dat ze profileren als A-merk. Maar het niet zijn maar wel de prijs.
In veel branches is aantal A-merken veel kleiner dan de B-merken. Bij AIB is kwaliteit even verdeeld.
In verleden waren Asus mobo zeer populair , maar duidelijk de mindere.
Aangezien ik broer had die bij computerzaak werkte en PC assembleerde en veel meer Asus mobo uitval had dan enig ander merk dus N=100++
Waarbij de minder prominente meer OEM merken veel hogere kwaliteit boden zonder enige naam.
Maar ja het verleden is geen garantie voor de toekomst en G-kaart devisie kan ander bedrijfs cultuur volgen dan mobo devisie. En beleid kan ook veranderen met wissel van Ceo . Hoe de status nu is weet ik niet gezien broertje al lang niet meer werkt in computerzaak.
En welke merken moederbord hadden dan minder problemen dan Asus? Ben benieuwd!
Het zijn geen POSCAPS... :-P
Ik denk dat dit beetje als de 2000 serie ryzen werkt tegen intel.
Echte genadeklap moet weer bij de volgende serie komen zoals de ryzen 3000 die intel hard klapte.
En een manier is gewoon voor betere raytracing performance gaan. Net als cpu meer cores dan intel, hier beter rt dan nvidia. Maar had al gelezen dat amd raytracing het slechter doet dan bij nvidia.
Want als normaal performance al bijna gelijk is aan nvidia, maar in rt beter is en nog goedkoper dan nvidia, dan is de keus makkelijk gemaakt voor mij.
Nu is het afwachten hoe het echt word.
Denk het niet nV zal ooit met refresh komen of tussen wat supers en TI
AMD komt dan met RDNA3 en dus weer nieuw cycle nieuwe kansen.
Zou kunnen dat de volgende keer nV wel de top node bij TSMC bezet en AMD met minder moet doen.
Als nv weer naar TSMC gaat, worden hun gpu wel sneller.
Had gelezen dat samsung 8nm ongeveer zelfde is als intel 10nm.
Dit was dus niks meer dan een educated guess/aanname en met de nieuwe driver is dit meteen de wereld uit geholpen lijkt het te zijn als ik Reddit moet geloven. Ik had er zelf sowieso geen last van.
Er zijn heel veel factoren ten 1st de GPU de een heeft wat mindere de ander loterij uit bin gekregen.
Dus mindere GPU die de last aankunnen maar niet 2Ghz met te lage Vcore.
Dan heb reference design of overspec custom.
Kwa bypass condensatoren.
Dan wat heel moeilijk te verifiëren is de PCB design maar ook layering en de di-electrium tussen elke layer. Dikte van de layer en routing.
Mij lijkt identificeren van SMD componenten maar fractie wat kwaliteit maakt.
Elke extra feature kwa di-elevtrium layer dikte via variaties plugt filled partly etc dril size of laser maakt het duurder.
Het is gewoon ook hier weer een vocal minority die problemen met de kaarten hebben, voornamelijk op extreme oc boostclocks. Met als sneeuwbal effect dat de gebruiker die dit leest die wellicht helemaal geen problemen heeft de boel gaat opruien en ook orders annuleert of kaarten terugstuurt. /mening

Doet me denken aan de tijd dat mijn EVGA 1070 SC kaart blijkbaar bij elke andere gebruiker op het internet ontplofte, wat ook niet anders was dan een normaal uitval percentage.
Wil niet veel zeggen, maar 3840 gedeeld door 64 is geen 40 cu's (Maar 60) en 2560 gedeeld door 64 is ook geen 30 cu's (maar 40). Dus als de bron aangeeft dat de 6800xt een Navi 22 chip heeft en de 5700xt een Navi 21 chip lijkt me dat vrijwel onmogelijk als er aangegeven word dat Navi 22 40 cu's heeft en Navi 21 30 cu's.

Dan daarbij is het volgensmij de omgekeerde volgorde, Navi 21 is als het goed is de high end chip.
Rest van de specs ligt wel aardig in verwachting.
Voor wat het waar is kan je ook nog naar de TFLOPS kijken. (Maximale Theoretische rekensnelheid) van de heel gelijkaardige PS5 en (Xbox) en gpu.

De PS5 kan met 36CU's op max boost clock van 2.23GHz 10,28TFLOPS genereren.
De GTX 2080 29,7 TFLOPS (1710 MHz boost)

Een AMD met 80CU's zou dan ongeveer max 22,6 TFLOPS genereren en dat is eerder RTX 3070 territorium.

3 mogelijke conclusies:
- TFLOPS zeggen zeker niet alles maar het lijkt op dat een GPU met 80 CU's (6900XT?) eerder een RTX 3070 zal beconcurreren.
- De 80CU's kloppen niet,
- De TLFLOPS van nividea zijn totaal anders gemeten want hun GeForce RTX 2080 Ti (Turing TU102) had slechts 13.45 TFLOPs en het de RTX 3070 (met 29,7 TFLOPS) is zover ik weet maar 'iets' beter van de RTX 2080 Ti.
Tflops vergelijken met 30 serie zegt (op zichzelf) helemaal niks over de gaming prestaties meer omdat nvidia nu die double uitgevoerde FP32 units heeft.

2 keer de FP32 performance per SM betekend bij lange na niet 2 keer de gaming performance.
Elke 'core' zoals nvidia ze nu meet (dus keer 2) is lang zo krachtig niet in gaming als de cores va de 20 series (of die van RDNA1 die ongeveer op gelijk niveau liggen).

nvidia beidt met de 30 series dus per Tflop veel minder game prestaties als turning of Navi10.
Volgens Nvidia zou het nieuwe FP32/INT32 systeem zo'n 30% betere prestaties geven in games. Dus je kan beter de cores delen door twee en dan vermenigvuldigen met 1.3.
Wat was idd ook ongeveer de conclusie die ik had toen ik de game prestaties per core uitrekende turing vs ampere.
En dan kan je met de Tflops het zelfde doen.
Je kunt de tflops van de 3000 serie en rdna niet vergelijken.
De cores in de 3000 generatie zijn per stuk over het algemeen minder snel geworden, terwijl ze bij AMD waarschijnlijk juist sneller zijn geworden.
Cuda cores van de 2000 generatie en 5000 generatie van AMD waren wel aardig goed te vergelijken.

De 80 cu's kloppen wel, dat is ondertussen al 30.000 keer geleaked.

Ik denk dat AMD de 3080 bij kan benen, de 3090 word interessant.
Klopt het tabelletje in het artikel wel? Ik dacht dat Navi 21 de nieuwe flagship kaart wordt, en Navi 23 de langzaamste (budget?) kaart.
Nee klopt niet denk ik, is giswerk.
Klopt inderdaad niet, overigens stond deze informatie niet eens in het originele artikel op Newegg.
Het is eigenlijk al semi-bevestigd dat Navi21 de 'top of the line' versie wordt. Het overzicht klopt inderdaad niet. Navi21 = RX6900
De volgorde stond verkeerd, aangepast :)

/edit:
@thomaskoel Het leek mij handig om alle informatie in één tabel te combineren, maar dat was wat kort door de bocht omdat het inderdaad niet zeker is welke gpu waar in komt. Heb het losgetrokken.

[Reactie gewijzigd door Xtuv op 28 september 2020 10:52]

Op dit moment weet niemand dit zeker - het lijkt erop dat AMD dit probeert te compenseren met een groot on-chip cache van 128 MB, zogenaamd "Infinity Cache", maar het is moeilijk te voorspellen of deze oplossing echt goed genoeg is om te concurreren met Nvidia's 760GB/s bij de 3080.

Sommige geruchten gaan dat dit Infinity Cache vergelijkbaar is met een verbetering van 50% in bandbreedte, maar tot nu toe is het slechts speculatie. Gewoon wachten op benchmarks :) October wordt een leuke maand voor ons hardwareliefhebbers.
Met 50% meer red je het niet.. van 400 naar 600 zit je nog steeds ruim onder Nvidia.
De 6900xt heeft volgens deze specs 512GB/s aan bandbreedte.
+50% zit je aan 768GB. Precies wat de 3080 heeft (760GB/s).

[Reactie gewijzigd door Countess op 28 september 2020 15:59]

Ze hebben toch ook verbetering in core dat die al 25% sneller is. Dat plus die 50% perf per watt, kom je toch wel een eind.
Waarvan ik me afvraag of dat erg gaat zijn. AMD levert de chips voor beide next-gen consoles. Gezien het geld wat ontwikkelaars ophalen op die twee systemen, zien we misschien op PC ook eindelijk een optimalisaties voor AMD chips. Dan kan Nvidia nóg krachtigere chips hebben, maar het is de vraag of je daar bij de meeste multiplatform titels veel mee gaat opschieten.
In het verleden had amd inderdaad de krachtigere chips maar door o.a. gebrek aan optimalisaties toch minder prestatie.
Radeon RX Vega 64 12700 790 FP64 = 1/16 FP32
GeForce GTX 1080 Ti 11300 350 FP64 = 1/32 FP32
Nee architectuur sterk gericht op compute. Niet ideaal voor games lasten. En games zijn meer FP32 en mix met iNt 16 niet zozeer FP64 zonde van diespace. een FP64 register vreet grotendeels het vermogen voor 64 register in FP32 mode.
Vermoedelijk gelijkaardig aan wat ze bij de Xbox al eens toegepast hebben.
Stel dat "Infinity Cache" is waar, het lijkt mij een leuk concept en ben heel erg benieuwd hoe deze in praktijk uitpakt.

Het zal dan iets richting de L3-ish cache moeten zijn die alle "Render Engines" samen verbind. Mogelijke voor- en nadelen.

Voordelen:
1. Boost voor slechte L2 hit effecten, zo als DoF en SSR.
2. Minder dependent op VRAM throughput.
3. Mischien goedkoper hardware.

Nadelen:
1. Cache trashing en prewarming is een dingetje, je zult heel erg goed over de execution volgorde moeten nedenken. Dus veel bestande titles maken hier mischien niet direct goed gebruik van.
2. Wat je boven ziet, zal niet altijd mogelijk zijn of wordt heel erg moeilijk gerealiseerd, omdat je soms bepaalde dependencies tussen de resources en executions hebt.
3. 3D pass wordt een uitdaging, omdat je spreekt over een pool van resources die je niet in MBs maar in GBs uitdrukt.. dus gegarandeerd lage cache hit-rate.

Kort om, kan best wel wat moois uitkomen en ook resulteren in een interessante reeks van nieuwe algos die rekening houden met de cache.

PS. Hopelijk niet ESRAM 2.0 concept, want dat was een nachtmerrie.

[Reactie gewijzigd door Vlad86 op 28 september 2020 11:18]

De software hardware compute paradigma van gpu is meer een Functionele en of Data oriented oplossing met als sterke punt meest concurrent en cache vriendelijke aanpak.
En goed gebruik van cacheline en prefetchers. Dus grote cache verbaast mij niet zo.
Games gebruiken pletora aan verschillende soorten data. En juist de grootste textures zijn enorm groot. Die worden aliged stored en prefetcher die cache moet vullen kan dit dus heel optimaal doen.

Het is geen linked list in OOP ouwe styl game logic waar branche predictor zeer complex voor moeten zijn zoals in CPU om dat in memory rond springen cach hit te compenseren en out of order executie voor wachten te verzachten en SMT om met andere thread verder te gaan.
Geruchten gaat dat ze gebruik maken van een Cache om de beperkte geheugen bandbreedte op te vangen, hoe dit precies te werk gaat geen idee.
Als iemand die een 30 serie kaart heeft besteld hoop ik alleen maar dat AMD sterke competitie brengt voor deze kaarten. Ik wil liever dat mijn videokaart als overpriced wordt gezien dan dat Nvidia weer het rijk alleen heeft in het hoge segment.

Go AMD!
Ik vind het altijd grappig dat websites als deze er vanuit gaan dat het of speculatie is of dat websites eerder aan info komen. Nooit wordt er gezegd dat het wellicht gewoon met opzet " per ongeluk" wordt gelekt in opdracht van de fabrikant zelf. Tegenwoordig zijn er naar mijn mening voor de launch net wat te veel lekken steeds.
Radeon RX 6800 XT, 3840, 12GB, GDDR6, 384GB/s, 192bit, 200W.
Ik hoop dat de Radeon RX 6800 XT tussen de GeForce RTX 3070 en GeForce RTX 3080 zit of sneller, want dan is 200w echt een mooie wattage, en een STUK minder wattage dan de GeForce RTX 3080.

Ik wacht nu zeker weten tot de Radeon RX 6800 uitkomen tot ik beslist welke Grafische kaart ik koop.
Ik denk niet dat het zo gaat zijn.
Ik ga zelf uit van een 6900xt die tussen de 2080ti en de 3080 inzit en iets minder stroom pakt dan de 3080.
Ik verwacht dat de amd kaarten naar verhouding iets meer stroom pakken dan de nvidia 30xx serie.
Er zijn nogal wat grote gevolgen van beleid van de huidige top van AMD. Een frisse wind door AMD en Radeon team. GPGPU compute stond bij de voorganger, voor de architectuur voorop. Dat houd in minder efficiënt voor games. nVidia ging al eerder over naar game gerichte architecturen met vanaf xy102 en kleiner. De GA100 is de compute monster. AMD doet dit geleidelijk met RDNA generaties en voor Compute blijf Vega en later vervangen door CDNA. Het splitsen van Compute en game architectuur.
Navi21 heeft Radeon team ten 1ste hoge inzet voor game efficiëntie, zit ook nog op de betere procedé heeft geen zware vermogen vretende memory subsysteem en ook geen HBM2
Dit zijn allemaal gecombineerde inzetten van AMD top en Radeon team om het zuiniger te maken.
Dan verwacht ik dus ook dat het zuiniger kan zijn. en de geruchten van de zogenaamde betrouwbare bronnen zoals driver Source code van MacOS en vele anderen.
Zo kunnen dat reuze mee valt power/performance dan heeft nV iig 1 probleem minder.
Maar als heel stuk zuiniger zijn voor de prestatie Meer bang for TDP en tha buck.

Dan krijg je waar nV goed in is de tweede shitstorm alla GTX480 . Dat gaan voor de grootst mogelijk chip kan kroon binnen halen maar concurrent stuk efficiënter is het vieze kroon.

En mocht het 3080 halen of evenaren of ietje meer zijn de 3080 zit zo dicht op 3090 dat als n21 3080 overtreft met heel stuk minder TDP

De geruchten zijn nogal zorgelijk voor nVidia.

En staar je niet teveel in verleden. Het verleden is geen garantie voor de toekomst.
En nieuwe product cycle nieuwe kansen. iNtel nVidia en AMD kan op GPU falen of flink uithalen.
Het is nu van te veel factoren afhankelijk de geruchten zijn nogal positief.

Naast de frisse wind in de top van AMD hebben MS en Sony ook nogal wat eisen en feedback en mogelijk hun expertise in de custom RDNA2 APU gestopt Als toch deels een joint ontwikkeling.
Gezien MS is er ook match met API bouwer en console hardware dus er is hier ook sterke koppeling.

En big navi profiteert mogelijk van die samenwerking en innovaties.
Je vergeet een ding in je betoog en dat is RT. Daar staat Nvidia veel verder in met aparte ray tracing cores en ik denk niet dat AMD de RT prestaties van Nvidia kan evenaren laat staan overtreffen. En dit is een nieuwe belichtingstechniek die veel kopers belangrijk vinden. En gaat AMD neural cores hebben?
Volgens de zogenaamde betrouwbare geruchten is de conventionele performance beter de DXR ergens tussen Turing en Ampere en is er ook een DLSS feature die minder zou zijn. En wat nog belangrijker is dat games door architectuur keuzes verschillen op veel vlakken hier anders op reageren. Bepaalde keuzes van nV en AMD zullen bepaalde games juist boost geven en voor andere bottlen necken.

Bij nV is er voor gekozen, voor beperkte locale cache tov GA100 waar int32 en FP32 samen met de RT en de tensor cores minder cache delen dus de balanse van de game last moet alle delen evenredig belasten. Bij AMD is strijd tussen zware texture task of bezetting vs DXR bezetting daar balans vinden. De invloed van Zeer grote L2 cache kan hier en daar de balance van locale L1 enigzins verzachten.

Maw met cherry picking kan nV of AMD bovendrijven dus de betere reviews zal die zijn met de grootste aantal nieuwe games. En mogelijk doe AMD het conventioneel beter zonder DXR en hoe meer oudere games zonder RT hoe meer wins. In review met veel oudere games.

Dit zal de keuze lastiger maken.
TDP vs RT vs DLSS vs Prijs.
Voor gamers die bijvoorbeeld Cod of BF jaar of jaren grojs spelen is de performance daar belangrijk.
Voor vaak upgraders is de release gebenchde games belangrijk en hun favo titels.
Voor mensen die hun hardware langer gebruiken je weet niet wat toekomstige games doen oudere en huidige games hebben nu meeste last van mainstream en console ports in heden zijn gebaseerd op huidige gen.
Toekomstige games met maintarget xbox sX en PC wondows voor de exclusive hebben in de kern al sterke RDNA2 optimalisatie wat bij toekomstige games niveau groter kan zijn.

En wat je als gamer belangrijk vind. De wordt wild van RT gebeuren. Maar met esport CSgo of Cod ben je meer bezig met competitie dan van gfx genieten en hoop stres.
Zelf vind ik GFX belangrijkste voor de meer slow pace exploring adventure games singleplayer waar je daadwerkelijk op minder stressvolle gamestyle kan genieten van virtuele gamewereld. En dan is stabile 60FPS ook ruim voldoende.

Met locked FPS scheeld TDP of freesync en gsync on.

Daarnaast lijkt mij console gaming online waar competitieve strijd stuk gelijk is. In tegen stelling PC volk dat enorme capitalen aan geld over de balk voor dat zeer dure voordeel in online shooter.
Voor CoD of BF op de PS5 Qos router met 120hz 4K monitor en ben klaar.
Singleplayer op PC waar je kan genieten in slow pace sandbox shooters.
Ja we zullen het zien, de Radeon RX 5700XT zat tussen de GeForce RTX 2070 en GeForce RTX 2080 in, en dat was de snelste van de Radeon RX 5000 series, en de Radeon RX 5700 tussen de GeForce RTX 2060 en GeForce RTX 2070 in.

https://www.guru3d.com/ar..._xt_evo_oc_review,12.html

Ja als de Radeon RX 6900 XT een stuk goedkoper is dan de GeForce RTX 3080, go ik voor de Radeon RX 6900 XT anders wel, maar did is allemaal nog gissen, want we weten nog niks.
Vreemd dat beide 5700's een hogere bandbreedte en geheugenbus hebben als de opvolger 6700 XT. Wellicht dat het overbodig is?
Dat heb ik ook altijd raar gevonden aan alle recente rx6000 geruchten.

Er gaat een gerucht dat AMD een relatief enorme cache (128mb) op de GPU's heeft ingebouwd ter compensatie. En als dat werkt zou dat enorm kunnen schelen op energie verbruik (iets uit het geheugen halen is duur wat energy betreft)
Maar ik weet nog niet wat ik er van moet denken. Ik heb niet genoeg inzicht in GPU's om te bepalen hoe vaak GPU's de zelfde data hergebruiken binnen de zelfde frame, en of 128mb dan genoeg is om die hergebruikte data in op te slaan.

Ik kan me iets voorstellen dat zo iets zou helpen bij verschillende CU die aan het zelfde deel van het scherm werken en dus de zelfde texture en geometry informatie gebruiken, maar is dat dan genoeg om het toch wel enorme verschil in bandbreedte te compenseren, echt geen idee.
GPU task is pipeline van stream processing. Dus als cache de stream goed gevuld houd dat data is ingeladen zodat de CU door kunnen werken is het efficiënt. Zijn de CU te snel of vullen van de cache te langzaam of de cache te klein voor de CU pool dan ja kan tegen vallen. Zou ook sterk game afhankelijk kunnen zijn. Mogelijk kan hiervoor ook geoptimaliseerd worden. Console dev vooral voor exclusive waar meer optimalisatie tijd is bij grotere producties kunnen dev deze kennis opbouwen en en volgende titles op hoger niveau brengen. En Pc port kan er mogelijk ook dan van profiteren in geval van xbox PC exclusives.
... voorzien zijn van 5120, 3840 en 2560 streamprocessors.

De videokaarten maken vermoedelijk gebruik van de Navi 21-, 22- en 23-gpu's, met respectievelijk 80, 40 en 30 compute units.
Dit lijkt ook niet te kloppen; als de GPU met 5120 stream processors 80 compute-units heeft, dan betekent dit dat 1 computer-unit 64 stream processors heeft. Dan zou de GPU met 3840 SP geen 40, maar 60 compute-units moeten hebben en die van 2560 SP 40 units.
Je hebt gelijk dat het aantal CUs voor de Navi 21, 22 en 23 GPUs nooit overeen kunnen komen met de 6900XT, 6800XT en 6700XT, maar wat wel kan is dat de 6900XT met Navi 21 is uitgerust, de 6800XT met een gedeeltelijk geactiveerde Navi 21, de 6700XT met de Navi 22 en dat de Navi 23 in een nog niet aangekondigde kaart terecht komt (6600/6500 oid).
Lekker boeiend of de specs lekken of niet. Het gaat om de benchmarks en 28 oktober zullen wij zien of het een goede concurrent is van de rtx3080. Als zij vertrouwen in hun product hadden, hadden zij het voor Nvidia gepresenteerd. Ze zullen wel weer voor prijs/kwaliteit gaan......niets mis mee. Maar tot een écht prijzengevecht zal het ook niet leiden. En AMD profiteert er ook van als Nvidia de prijs hoog houdt, hoeven zij minder in prijs te zakken.

[Reactie gewijzigd door EMR77 op 28 september 2020 11:20]

Of geen puinbak van hun launch willen maken, zoals Nvidia deed/doet...
rx5 series tijdens de mining hype vergeten? :)
Maar het schijnt dus dat ze hun prijzen na de presentatie van nvidia toch naar beneden hebben moeten bijstellen.
Waarom zouden ze voor nvidia gepresenteerd hebben terwijl het dan nog zeker 2 maanden zou duren voor ze echt zouden kunnen lanceren? (en dan ga ik er vanuit dat de launch heel kort na de presentatie is op 28 oktober.)

Op het moment dat nvidia ampere presenteerde was AMD nog niet eens klaar met het bepalen van de uiteindelijke kloksnelheden omdat ze nog niet genoeg chips van de fabs terug hadden om daar een goed oordeel over te vellen. Het slaat dus echt helemaal nergens op om te verwachten dat AMD met performance cijfers komt terwijl ze die zelf nog niet eens hebben omdat die nog bepaald moeten worden.

En dan is er nog het gegeven van de 5700Xt launch waarbij nvidia 2 dagen na de launch ervan met de super serie kaarten uit kwam die NIPT sneller waren. Dat wil AMD dus zeer zeker niet nog een keer, wat nog een goede reden is waarom AMD hun kaarten dicht bij de borst speelt.

Daarbij, iedereen verwacht wel ongeveer dat zen3, MINIMAAL een fatsoenlijke upgrade gaat zijn over zen2 toch?
Ondanks dat hebben we er, met nog geen 2 weken te gaan voor de launch, letterlijk nog niks concreets over gehoord behalve dat unified L3. Als AMD altijd ver van te voren van de daken zou schreeuwen dat er een goed product aan komt dan zouden we toch ook wel wat meer weten over Zen3?

We hebben niks van zen 3 gehoord maar ik heb letterlijk niemand dat zien aangrijpen om te claimen dat zen3 een teleurstelling gaat zijn. Dus waarom zou dat dan wel voor de GPU's gelden?

[Reactie gewijzigd door Countess op 28 september 2020 13:41]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee