Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD Radeon RX 6800 XT en RX 6800 komen 18 november uit voor 649 en 579 dollar

AMD presenteert zijn eerste Big Navi-videokaarten. De RX 6800 en RX 6800 XT komen op 18 november uit en kosten respectievelijk 579 en 649 dollar. In december volgt de RX 6900 XT voor 999 dollar. Alle getoonde videokaarten beschikken over 16GB aan gddr6-geheugen.

AMD baseert zijn Big Navi-videokaarten op RDNA 2. Dat is de opvolger van de oorsponkelijke RDNA-architectuur, die in juli 2019 op de markt verscheen in de RX 5000-serie. AMD produceert zijn nieuwe RX 6000-videokaarten nog steeds op een 7nm-node van TSMC, maar claimt daarbij dat de producten wel efficiënter zijn. Zo zijn de kloksnelheden 30 procent hoger ten opzichte van de RX 5000-serie bij hetzelfde stroomverbruik. Eerder claimde AMD al dat de prestaties per watt van RDNA 2 50 procent hoger zouden zijn dan die van RDNA; het bedrijf meldt nu dat deze ppw met 54 procent zijn verbeterd.

Het bedrijf toonde tijdens zijn presentatie drie Big Navi-videokaarten. De RX 6800 XT lijkt het belangrijkste product in de line-up, die wordt gepositioneerd tegenover de RTX 3080 van Nvidia. De 6800 XT krijgt een adviesprijs van 649 dollar. De 6800 XT heeft 72 compute units, een boostclock van 2250MHz en een geclaimd stroomverbruik van 300W. De videokaart heeft daarnaast 16GB aan gddr6-geheugen met een 256bits-geheugenbus. AMD toont gameprestaties van de RX 6800 XT en vergelijkt deze met de RTX 3080.

De RX 6800 is het laagst gepositioneerde model dat deze presentatie werd getoond en krijgt een adviesprijs van 579 dollar. De videokaart is voorzien van 60 compute units en krijgt een boostclock van 2105MHz. De RX 6800 heeft volgens AMD een tbp van 250W en de geheugenopstelling is hetzelfde als die van het XT-model. AMD vergelijkt de RX 6800 met de RTX 2080 Ti van Nvidia. Het bedrijf claimt daarbij dat zijn gpu beter presteert dan die videokaart. AMD toont geen vergelijkingen met de nieuwere RTX 3070 van Nvidia, die morgen op de markt verschijnt.

De RX 6900 XT kost 999 dollar en wordt door AMD gepositioneerd tegenover de RTX 3090 van Nvidia. Deze videokaart beschikt over 80 cu's en heeft verder dezelfde kloksnelheden, geheugenopstelling en tbp als de RX 6800 XT. De fabrikant claimt ook dat het stroomverbruik hetzelfde blijft, met 300W.

AMD's RX 6000-line-up
Model Compute units Gameclock Boostclock Geheugen Total board power Adviesprijs
RX 6800 60 1815MHz 2105MHz 16GB (128MB cache) 250W 579 dollar
RX 6800 XT 72 2015MHz 2250MHz 16GB (128MB cache) 300W 649 dollar
RX 6900 XT 80 2015MHz 2250MHz 16GB (128MB cache) 300W 999 dollar

De door AMD gepresenteerde gameprestaties van de RX 6000-videokaarten

Alle getoonde RX 6000-videokaarten beschikken dus over 16GB aan gddr6-geheugen en gebruiken daarnaast een 256bit-geheugenbus. Dat is relatief nauw vergeleken met bijvoorbeeld de RTX 3080 van Nvidia, die beschikt over een 384bit-bus. Om dit te compenseren, introduceert AMD Infinity Cache, een soort on-die cache die de effectieve bandbreedte moet ophogen. Het bedrijf meldt dat Infinity Cache is gebaseerd op de L3-cache die wordt gebruikt in Zen-cpu's.

AMD voorziet de RX 6000-videokaarten van 128MB aan Infinity Cache en claimt dat de videokaarten hierdoor een 2,17x hogere bandbreedte bieden dan videokaarten met gddr6-geheugen op een 384bit-geheugenbus. Tegelijkertijd zou het stroomverbruik van het geheugen tien procentpunt lager liggen bij gebruik van Infinity Cache. Het is daarbij goed om te melden dat AMD spreekt van regulier gddr6-geheugen met een 384bit-geheugenbus. Nvidia gebruikt voor zijn high-end videokaarten sneller gddr6x-geheugen. Op zijn website claimt AMD overigens dat zijn Infinity Cache-set-up ongeveer een 1,78x hogere effectieve bandbreedte biedt dan gddr6x.

AMD introduceert Infinity Cache in zijn RX 6000-videokaarten

AMD toont verder verschillende nieuwe software-features met RX 6000 en Big Navi. Zo krijgen de nieuwe videokaarten ondersteuning voor raytracing middels DirectX 12 Ultimate. Het bedrijf voorziet iedere compute unit van één accelerator voor raytracing. Op termijn moet AMD ook met een Super Resolution-functie komen.

AMD noemt daarnaast Smart Access Memory, waarbij Ryzen 5000-processors gebruik kunnen maken van het gddr6-geheugen van RX 6000-gpu's. Dat moet voor prestatiewinst in games zorgen. Ook de DirectStorage-api van Microsoft wordt ondersteund, waarmee data van ssd's direct naar het gpu-geheugen verplaatst kan worden. AMD introduceert verder 'Rage Mode' in zijn Radeon Software-drivers, waarmee videokaarten een overklok krijgen.

AMD brengt zijn RX 6800 XT en RX 6800-videokaarten op 18 november uit. De RX 6900 XT volgt op 8 december. Je leest meer in de preview van de RX 6000-videokaarten, die Tweakers vanavond publiceerde.

Door Daan van Monsjou

Nieuwsposter / Videostagiair

28-10-2020 • 18:35

366 Linkedin

Lees meer

Reacties (366)

-13660358+1171+211+30Ongemodereerd135
Wijzig sortering
ja thnx! ik zag deze net op youtube maar dacht dat het gewoon een geknipte versie was v/d launch. Hier zit wel ietsjes meer info in.
Omdat goed schrijven meer tijd kost dan even hier een zinnetje neer te zetten.
Ze hebben de RTX3080 en RTX3090 op basis van hun eigen cijfers wel verslagen, maar volgens mij hebben ze niet echt een antwoord op de RTX3070.
De 3070 is binnen een paar procent te vergelijken met de 2080ti schijnbaar. Stuivers wisselen per game.
De 6800 lijkt dus erg in de buurt en zelfs net iets erboven te zitten.
Ik wacht de benchmarks wel even af wat er van komt. We zijn in ieder geval de aankomende tijd wel voorzien van een mooie strijd tussen de 2 fabrikanten lijkt me.
Volgens de grafieken die ze toonden een stuk sneller dan de 2080ti, niet "zelfs net iets erboven".
Met nadruk op LIJKT, aangezien ik de sliders van AMD zelf nog even met een kleine korrel zout neem.
Vandaar dat ik persoonlijk ook liever eerst nog wat echte benchmarks zie.
Natuurlijk altijd eerst de echte benchmarks, maar AMD is heel open over hun testmethode. Dat wekt wel vertrouwen, want je kunt ze zelf nadoen. Ik denk niet dat AMD sjoemelt met cijfers.
Ze zijn best slim tegenwoordig, zo ook met de 6800XT tijdens de Ryzen 5000 presentatie, ze hadden de 6900XT nog achter de hand. Wat ik al zei, ze zijn best slim daar tegenwoordig. Doen ze goed.
En ik verwelkom deze uprise van AMD ook ten zeerste. Is voor ons als Consumenten/Tweakers alleen maar goed en interessant :)
Die benchmark resultaten waren wel met Rage mode (1-click OC) en de 3080 was stock. Niet geheel eerlijk dus, wel open, maar blijkbaar is bijna niemand dit opgevallen. Nvidia doet dit natuurlijk 3x zo erg terug, maar je ziet AMD wel stapje bij beetje anti-competetiever worden. Zeker marketing rond RTG loopt niet geheel vlekkeloos.

Het valt dus nog te zien waar de performance zal vallen, zeker met games die nog niet uit zijn en modernere features gebruiken (Niet alleen RT, maar ook dingen als VRS, DirectML of Primitive Shaders), en denk ik zeker dat er games tussen zullen zitten waar niet eens Nvidia niet in de buurt gaat komen (zie bijvoorbeeld RDR2 performance op de 5700 XT). Daarintegen zullen er genoeg "the way it's meant to be played" games uitkomen.

Uiteindelijk zijn we dus wss gewoon terug bij af zoals het 8 a 10 jaar geleden ook was, waar het dus per game zal verschillen.

[Reactie gewijzigd door 24hourpartypal op 30 oktober 2020 02:20]

Ze kunnen prima die driver perfect optimaliseren per bench.
Beste is even afwachten tot real benches, wel veelbelovend!
Bij de vorige presentatie liet AMD ook gewoon zien waar hun producten langzamer waren dan intel en het gesjoemel met cijfers door Intel (producten vergelijken met die van een paar generaties geleden bvb). Kreeg best wel een terugslag van fanaten en werd gelijk online opgepikt.

Ik denk dat mede hier door deze cijfers best realistisch. Time (benchmarks) will tel.
Klopt, de 6800xt is in zowat alles zelfs beter dan de 3080, dus zal de 3070 verder overstijgen nog, die idd gelijkaardige prestaties als 2080ti geeft. Enkel voor raytracing is de nvidia beter, en mss meer zekerheid wat betreft drivers hoewel ik verwacht dat amd daar wel aan gewerkt heeft. Weet iemand wat de prijs en beschikbaar zal zijn van deze 6800xt in belgie/nederland? Ik vermoed dat de vraag enorm zal zijn, vooral omdat ze nvidia nu verslaan hebben in feite en deze kaarten ook vaak gebruikt worden voor crypto mining...
Maar de 6800 is duurder, logisch dat het dan beter is.
Prijs is een hele slechte graadmeter voor kwaliteit
Prijs/kwaliteit lijkt deze heel goed hoor, de 6900xt in vergelijking dan veel minder. De rtx3090 dan weer helemaal niet. Geheugen van de 3080-90 is wel net iets beter, gddr6x maar mss dat 10gb van de 3080 niet zo toekomstbestendig is, ik weet het niet.
En de 6800 heeft 16gb vram.
6800 (non XT) verslaat gewoon de 2080ti en die is gelijkwaardig aan de 3070
Maar een RTX3070 is wel goedkoper, namelijk 520 euro vs 579 dollar.
Het extra geheugen maakt de kaart dan weer veel meer future proof.
Niet futureproof. Voor 4K gamers is het juist nu al relevant.
Kijk maar eens hoe de 3070 inkakt op 4K met zijn 8GB ten opzichte van de 3080 en 3090.
En kijk daarna eens naar de verschillen tussen die kaarten op 1440p.

Voorbeeld F1 2020: bij 1440p is de 3080 14% sneller dan de 3070 terwijl dat bij 4K uitloopt naar 25% en er zijn games waarbij het verschil nog vele malen groter is.

[Reactie gewijzigd door Skyfox85 op 28 oktober 2020 19:50]

Het verschil in de reviews zit meer in het verschil in snelheid tussen gddr6 en gddr6x meen ik.

Neemt niet weg voor 4k de 8gb van de 3070 niet echt futureproof is inderdaad.
Eindconclusie blijft wel hetzelfde: dat het een foute keus was van Nvidia om op het geheugen te beknibbelen.

Maar als je het dan met de 2080Ti vergelijkt zie je in bepaalde games op 4K ook hetzelfde patroon t.o.v. 1440p. Dat de 3070 op 1440p de 2080Ti voorbij streeft of even snel is terwijl op 4K de 2080Ti een stukje sneller is. (Hier alleen in Ghost Recon Breakpoint maar bij andere games in andere reviews gebeurt het vaker) Overigens is het verschil wel erg klein en is er natuurlijk een reden dat die kaart 3070 heet en niet 3070Ti of 3070Super.

[Reactie gewijzigd door Skyfox85 op 28 oktober 2020 22:20]

Met futureproof moet je altijd oppassen. Tegen de tijd dat het gaat spelen heb je een reële kans dat je alweer een nieuwe kaart wil. Het enige dat je er dan aan hebt is als verkooppraatje op Vraag & Aanbod.
De andere kant van future proof is dat AMD zowel de PS5 als de nieuwe XBox heeft en games "out of the box" meteen voor die architectuur zijn gemaakt en dat ook op lange termijn nieuwe geporte console games goed zullen presteren.
2 keer gehad dat ik mijn kaart eerder heb moeten upgraden dan geplanned. Toen 2gb een beetje gemeengoed werd, was 1gb nog ruim voldoende met eisen van 256/512mb. In no time gingen we naar 4gb en niet veel later 8gb. We hangen nu al enige tijd in het 4gb min, 8gb vram aanbevolen.

Met introductie van de nieuwe consoles om de hoek denk ik dat de stap naar 16gb aanbevolen er vrij snel aan zit te komen.
Tegen de tijd dat je dat soort geheugen nodig hebt voor games loopt de core alweer zoveel achter dat je een nieuwe GPU wil. Meer VRAM doet er vooral toe bij 4K en 8K gamen, dat is een groep waar de 5800 (en 3070) het eigenlijk net niet is en over een jaar of twee al helemaal niet meer meekan. 1440p en al helemaal 1080p ga je dit soort VRAM de komende jaren niet nodig hebben.
Niet helemaal mee eens. Had 4 jaar terug een Alienware 17 R4 gekocht met toen hoogste geheugen 8GB met GTX 1080Ti met FullHD scherm. In bijvoorbeeld GTA kan je dan al niet alles op maximum spelen, daarvoor had je al ongeveer 12GB voor nodig. Met mods zoals Nurburgring-Nordschleife Circuit zou ook 16GB op FullHD zomaar eens te weinig kunnen zijn.
Volgens mij verwar je nu RAM (computer geheugen) vs VRAM (videokaart geheugen)

Er bestaat ook geen mobile 1080 ti naar mijn weten.

Dat terzijde, GTA V op max settings 1440p heeft niet eens 8gb vram nodig, daarom denk ik ook dat je ram bedoelt, want dat kan wel kloppen.
Nee, heel duidelijk VRAM. Laptop had 32GB RAM dus ruim genoeg. Start GTAV maar eens op en zet alles op High en Ultra, inclusief Advanced Graphics. Zie https://patrickvh.stackstorage.com/s/V3xJHtpL3Dga1n5H :)
Frame scaling mode. GTA renderd dan 250% van 1080p volgens mij, meer dan 4k.

[Reactie gewijzigd door batjes op 28 oktober 2020 21:45]

Interessant ik heb met mijn gtx 1080ti op 4k alles wel eens op max gezet en dan geeft de game zelf maar iets van 9gb vram aan. Ben ik dan stiekem settings vergeten of wijkt het geen dat de game zelf aangeeft heel erg af van wat er daadwerkelijk nodig is?
Het jammere is dat ze, misschien vanwege kosten, de mobile 1080Ti maar 8GB en niet 12GB VRAM zoals de desktop 1080Ti hebben gegeven. Vandaar dus dat "mijn" 8GB VRAM te weinig is, namelijk 9GB. En als die frame scaling van batjes klopt, begrijp ik eruit dat ik eigenlijk meer dan 4K resolutie dan zou spelen.
Nogmaals een mobile GTX 1080 Ti bestaat niet, GTX 1080 is de max (met 8gb VRAM) en er waren paar exotische notebooks met een mobiele GTX 1080 in SLI.

Daarnaast een desktop GTX 1080 Ti heeft ook maar 11gb VRAM en niet 12gb.

[Reactie gewijzigd door Mizgala28 op 30 oktober 2020 11:31]

Aha op die manier. De desktop versie heeft overigens 11gb ipv 12
- knip -

[Reactie gewijzigd door Mizgala28 op 30 oktober 2020 11:32]

Zolang je niet aan scaling zit ben je niks vergeten, ik vroeg een kennis die veel GTA V online speelt met een 4K scherm en wat je zegt komt redelijk over met zijn VRAM gebruik.

(hij heeft een 2080 ti)

[Reactie gewijzigd door Mizgala28 op 30 oktober 2020 11:32]

Jah op die manier kan ik het ook, scaling op 200% of 300% in een (willekeurige) game zetten bovenop de normale resolutie.

Ik doel op max settings native resolutie met scaling op 100% (native).

[Reactie gewijzigd door Mizgala28 op 30 oktober 2020 11:34]

Ik kan met mijn GTX 1060 (6gb) wel gewoon GTA op max met 60 fps spelen hoor??
Zal mogelijk zo zijn zoals @batjes uitlegt, dat die instelling upscaled naar meer dan 4K. Klinkt logisch maar heb er geen onderbouwing voor.
Als jij met alles op zijn hoogste stand zet, inclusief sliders helemaal naar rechts, dan geeft hij niet die overschrijding aan begrijp ik? Dat zou kunnen betekenen dat het per videokaart verschilt wat de game aan denkt te kunnen?
ja ach, als je elke generatie een videokaart koopt hoef je niet zo futureproof te zijn. Dan zou je tot nu toe de r9 290X kunnen hebben met 8 gb. Inmiddels weer zo'n 6/7 jaar oud.
Je slaat de spijker op zijn kop! Ik ga voor future proof. Mijn R9 290, 8gb aan RAM en i5 4000 nog wat series CPU zijn wel aan vervanging toe :)
die heb ik al behoorlijk lang terug vervangen, voor 180 euro had je 2 jaar geleden al een 1660 die het een stuk beter doet + 37%. Volgens mij kun je het beste elke generatie meedoen met mid-end kaarten, **60/70.
Geheugen nee, dat het dezelfde architectuur is als de consoles, ja dat wel.
Misschien maar de meeste die dit soort kaarten kopen kopen toch snel weer een nieuwe. De vraag is beetje wat de restwaarde is.
je beseft dat 1 dollar 0,85 eurocent is toch
dus dat maakt de amd kaart 492 euro
Marketing
Vervoers kosten
Btw

Je mag gerust de dollar teken veranderen in een euro.
Je weet dat wij BTW hebben in nederland? Die moet er ook nog bij komen
Hebben ze in andere landen dan geen btw, of zijn de prijzen gewoon excl btw gepresenteerd?
Amerika heeft sales tax
Wordt excl gepresenteerd omdat de hoogte van die sales tax verschilt per staat in Amerika
Ah thanks,
Dat verklaart het een en ander.
En tel daar dan 21% BTW bij op (wat je op ca. 600€ brengt) want dat zit er niet bij...en het feit dat je zo bijna nooit mag rekenen, AMD zal in West Europa er een zelfgekozen prijskaart aanhangen (550€ of 600€ of wat dan ook). Daarnaast zal de prijs ook sterk afhangen van de voorraad...

[Reactie gewijzigd door Clemens123 op 28 oktober 2020 19:18]

Maar een RTX3070 heeft maar 8GB geheugen tegenover de 16GB van de 6800. Ik denk niet dat deze tegenover elkaar gezet worden, ik verwacht een 6700 (XT) met minder dan 16GB die daar tegenover komt te staan.
Geheugen alleen zegt niet zoveel, volgens mij heb je nog geen games die veel meer dan 8GB nodig hebben op dit moment (op 4k).
Ik game op 1440p en in Metro: Exodus verbruik ik ongeveer 9GB vRAM met m'n 2080 ti, en vaak de volle 11GB in sommige VR games met de Valve Index. 8GB is echt te weinig in deze tijd.
Verwar niet wat de game reserveert met wat er daadwerkelijk gebruikt word, dat kan een stuk lager liggen
Dat klopt, maar geheugen is niet gratis. Dus als ze 8GB weglaten kom je in de winkel zomaar eens 80 dollar lager uit bijvoorbeeld, en dan zit je qua prijs direct met de 3070 te concurreren met, zoals je impliciet aangeeft, geen enkel performanceverlies.
Van meer geheugen wordt je videokaart niet sneller,kijk maar naar de 2080ti 11gb ,vs 3070 8gb
Veruit de meeste games hebben voldoende aan 8 gb vram, echter nieuwere games zoals mfs 2020 worden wel gebottlenecked door een tekort aan vram en het is te verwachten dat dat in de toekomst vaker het geval zal zijn.
Ik ben wel benieuwd in hoeverre snelle storage daar potentieel bij kan helpen
Ik denk dat onderstaande misschien toch wel een verschil kan maken bij 16GB tov 8GB...
Ook de DirectStorage-api van Microsoft wordt ondersteund, waarmee data van ssd's direct naar het gpu-geheugen verplaatst kan worden.
Geen games. Maar 4K video's renderen en editen in Adobe of Davinci blijkt wel flink wat geheugen te lusten. Er zijn daadwerkelijk wel mensen die er profijt van zullen gaan hebben. Daarnaast, als GPU's in de toekomst meer VRAM krijgen kunnen game developers daar natuurlijk ook op inspelen.
Ligt eraam hoe groot de textures zijn. Er zijn spellen is 8 GB makkelijk vreten en meer als ze de ruimte hebben.

Het probleem is dat videokaarten gewoon blijven werken alsof er geen probleem is als er maar 8 GB hebben. Dus je weet het niet of je tekort komt totdat je meer videogeheugen tot beschikking hebt.

[Reactie gewijzigd door WildWilly op 28 oktober 2020 19:21]

Inderdaad een stuk duurder, maar dollar met euros vergelijken?

RTX 3070 $ 499 vs $ 579 voor de RX 6800
of omgerekend € 425 vs € 492, huidige koers.
Dat gaat niet op. De RTX3070 gaat morgen 519 euro kosten. In America kost diezelfde kaart 499 dollar. Ik verwacht dat de RX6800 rond 599 euro gaat zitten. En dat is mijn inziens te duur. Daarbij komt nvidia met een RTX 3060Ti die vermoedelijk rond 400 euro gaat kosten en ik denk maar 10 tot 15% langzamer zal zijn op 1440p gaming.
AMD heeft daar nog niks in aangekondigd.
Tja, Nvidea heeft de 3060ti ook niet aangekondigd. Bovendien loopt AMD een maand achter op de release van nieuwe kaarten t.o.v. Nvidea en misschien weten we dus over een maand meer over plannen van AMD in deze prijscategorie.
Alsof je de NVidia kaarten zo goedkoop zult kunnen krijgen de komende maanden. Misschien als je zit te f5'en als een gek, maar de aanvoer is bedroeven op dit moment :)

Reken rustig op 50-100 extra voor de 3070 en 3080 voor de komende maanden.
Ja good luck om er ook een daadwerkelijk te kopen, leuk om met bepaalde prijzen te schermen en zgn uit te brengen maar Dan moet je ze ook daadwerkelijk kunnen leveren, hopelijk doet amd dat better...
Die vlieger ghaat hier niet op omdat wij meer belasting betalen over producten.
Voor het vergelijk van de prijs van beide kaarten is dat niet relevant.
Jup, volgens Azerty wordt de goedkoopste 3070 €519.
Dat klopt wel ongeveer ten opzichte van de dollarprijs; 425*1,21=514,25 euro.
In Duitsland bestellen... tot eind van het jaar is daar de btw maar 16% :)
Echter de 6800 heeft 16GB aan VRAM terwijl de 3070 maar 8GB heeft.
8 GB is al te weinig voor sommige SINGLEPLAYERS op 4k
8GB is al te weinig voor sommige singleplayers op 1440P
RTX 3070 = 8GB. Een kaart van €500 anno 2020, 8GB!
RX 6800 = 16GB voor maar paar tientjes meer? lastige keuze!

Als ik toch al €500 of meer uitgeef aan een enkele GPU dan wil ik er bij goed voelen dat mijn dure aankoop ook over 4 jaar goed mee kan komen met nieuwe games op 4K. Want één ding wil je echt niet met gamen op 4K: Gebrek aan VRAM.

Bovendien zijn er nu al games die meer dan 8GB vergen op 4K. En als Tweaker zijn we ook niet vies van om games te modden. Kijk dan hoe snel de VRAM als een Elon Musk raket stijgt.

Kort geheugen opfrissen, iets van GTX 970 3.5GB en GTX 1060 3GB. Yeah right, no thanks! Pure rib uit je lijf stelen op een paar GB geheugen besparing van Nvidia!
Maar de 6800 is sowieso niet echt een 4K gaming kaart maar meer voor 1440p. In dat opzicht heb je niet echt 16 GB vram nodig. Kijk maar eens naar AMD's eige benchmarks en daar zie je dat voor de 6800 ze in Borderlands 3 op 4K de settings hebben moeten terugschroeven van badass naar ultra om de 60 fps te halen. Bij de 6800XT en 6900XT staan die gewoon op badass.
De 2080Ti werd in de mark gezet als 4k kaart pur sang, en dat is nog maar kort geleden ,dat verandert niet nudat er een nieuwe generatie kaarten is aangekondigd en hele volksstammen zullen lekker doorgaan op 4k op hun oude GPU.
Waarom zou de 3070/6800 geen 4k kaart kunnen zijn?

Niet iedereen speel op ultra >60 fps.
Omdat 8 GB vram te weinig is voor 4K.
Maar de 6800 is sowieso niet echt een 4K gaming kaart maar meer voor 1440p. In dat opzicht heb je niet echt 16 GB vram nodig. Kijk maar eens naar AMD's eige benchmarks en daar zie je dat voor de 6800 ze in Borderlands 3 op 4K de settings hebben moeten terugschroeven van badass naar ultra om de 60 fps te halen. Bij de 6800XT en 6900XT staan die gewoon op badass.
Omdat 8 GB vram te weinig is voor 4K.
Nu spreek je je eigen weer tegen, eerst zeg je dat de Radeon RX 6800 geen 4K kaart is die hoogstwaarschijnlijk sneller is dan de GeForce RTX 3070 en 16GB VRAM heeft, en nu zeg je weer dat de GeForce RTX 3070 geen 4k Grafische kaart is omdat hij 8GB VRAM heeft, wat is het nou??

[Reactie gewijzigd door AmigaWolf op 29 oktober 2020 13:17]

Ja als de 6800 geen 4K kaart is is de 3700 dat ook niet he, nogal logisch want ze presteren ongeveer hetzelfde.
Volgens mij ben je een beetje in de war:

A). RTX 2080TI is een 4K kaart. Leather Jensen riep dat namelijk van de daken, steelde je portemonnee en een rib of 2 met een prijskaartje van plus €1.200,-

B). RTX 2080TI heeft 11 GB vs RTX 3070 heeft 8 GB. Dus op 4K zijn er meerdere momenten dat de RTX 3070 bezwijkt door gebrek aan geheugen.

C). Leather Jensen riep van de daken dat de RTX 3070 even snel is als een RTX 2080TI. (behalve dus op 4K, dan zijn er bepaalde games en bepaalde settings dat de RTX 3070 bezwijkt.....door gebrek aan geheugen, Jensen liet dat express niet zien).

D). Volgens de AMD presentatie is de RX 6800 echt wel sneller dan de 2080TI op 4K, en al helemaal in samenwerking met Smart Acces Memory, rauw uit de doos zonder enig optimalisatie van de gamedevelopers die later wel gaan komen.

E). Ik hoor veel mensen zeggen dat de RTX 3070 evensnel is als de RX 5800. Ik weet echt niet waar dat vandaan komt. Allemaal groene waas voor de ogen? AMD heeft dan ook de prijs boven de RTX 3070 gepositioneerd, iets wat AMD niet zou hebben gedaan als het "even snel" zou zijn.

Neem al die punten op je in en bekijk nog eens volledig de Radeon RX 6000 series presentatie:
Where Gaming Begins: Ep. 2 | AMD Radeon™ RX 6000 Series Graphics Cards

En de post-presentatie met verdere uitleg:
The Ultimate Gaming Platform with AMD Ryzen™ & AMD Radeon
Vreemd in ALLE spellen heeft de GeForce RTX 3070 geen VRAM te kort in spellen, en dat allemaal op zijn hoogst getest altijd door Guru3D, en de GeForce RTX 3070 is altijd ietsjes sneller dan de GeForce RTX 2080 Ti, en met alle spellen zit hij de GeForce RTX 3070 in de 60fps op 4K en op Ultra settings, behalve Metro: EXODUS en Microsoft Flight Simulator (2020) en Borderlands 3, daar zitten ze in de 50fps, behalve Microsoft Flight Simulator (2020), geen enkel grafische kaart haalt daar 60fps of meer.

Dus ja de GeForce RTX 3070 is een grafische kaart voor 4K gaming.

https://www.guru3d.com/ar...ing_x_trio_review,11.html
en dat allemaal op zijn hoogst getest altijd door Guru3D
Keer op keer heeft de geschiedenis geleerd dat wat nu lijkt op genoeg VRAM geheugen lijkt, over 2,3,4 jaar te weinig blijkt te zijn. En nogmaals, 8GB is zelfs nu al kantjeboord krap. De nieuwe games over een jaar gaan meer VRAM vergen door de 16GB gameconsoles waarvan zeker 12GB voor de games gebruikt gaan worden. 3 passen terug doen, rood/blauw/groene bril afdoen en dan logisch zelf nadenken.

Er zijn meer testers dan alleen Guru3D ;) . Meerdere tweakers hebben geprobeerd om je te helpen. Maar je blijft denken dat de RTX 3070 een volledige 4K kaart is en evensnel als een RX 5800 is. Begrijp me niet verkeerd, maar dan heb je een voorliefde voor Nvidia en Leather Jensen's woorden en agressieve marketing. Niets verkeerds mee, het is je eigen geld en hobby. Het heeft daarom ook geen zin om hier verder over te discussiëren. Koop een RTX 3070 en wees tevreden. Het is geen slechte kaart.
RX 6800 ipv RX 5800 bedoel je toch mag ik hopen? Het is al verwarrend genoeg dacht ik zo en nu begin je nog de verkeerde naam aan de kaart te geven. ;)
:+ ja ik bedoelde de 5800X. Nee, ik bedoelde de 6800XT, :+

hehe, thnx vor de correctie!
[...]


Keer op keer heeft de geschiedenis geleerd dat wat nu lijkt op genoeg VRAM geheugen lijkt, over 2,3,4 jaar te weinig blijkt te zijn. En nogmaals, 8GB is zelfs nu al kantjeboord krap. De nieuwe games over een jaar gaan meer VRAM vergen door de 16GB gameconsoles waarvan zeker 12GB voor de games gebruikt gaan worden. 3 passen terug doen, rood/blauw/groene bril afdoen en dan logisch zelf nadenken.
De meeste gamers kopen na 3 a 4 jaar al lang weer een nieuwe grafische kaart, dus geen probleem, en dat is logies na denken.
Er zijn meer testers dan alleen Guru3D ;) . Meerdere tweakers hebben geprobeerd om je te helpen. Maar je blijft denken dat de RTX 3070 een volledige 4K kaart is en evensnel als een RX 5800 is. Begrijp me niet verkeerd, maar dan heb je een voorliefde voor Nvidia en Leather Jensen's woorden en agressieve marketing. Niets verkeerds mee, het is je eigen geld en hobby. Het heeft daarom ook geen zin om hier verder over te discussiëren. Koop een RTX 3070 en wees tevreden. Het is geen slechte kaart.
En niemand heeft me geprobeerd te helpen, te helpen met wat??

En ja de GeForce RTX 3070 is een volledige 4K kaart, als bijna alle spellen op ultra settings en 4k 60+ fps kan draaien, maar blijkbaar moet letterlijk alle spellen op de wereld 4k 60+ fps op Ultra kunnen doen, wat het dan wel een 4k kaart is volgens jou, wanneer zelfs de Geforce RTX 3090 niet Microsoft Flight Simulator (2020) op 4k 60 op ultra kan draaien, en ben absoluut geen Nvidia fan boy, ik heb al meerdere keren hier op Tweakers gezecht dat ik hoogst waarschijnlijk nu zo goed als zeker sinds benchmarks uit gekomen zijn en de prijs van de nieuwe AMD grafische kaarten uit zijn gekomen, de Radeon RX 6800XT ga kopen.

Maar prop jij maar lekker iedereen in de zelfde hokje hoor.

[Reactie gewijzigd door AmigaWolf op 29 oktober 2020 17:15]

De meeste gamers kopen na 3 a 4 jaar al lang weer een nieuwe grafische kaart, dus geen probleem, en dat is logies na denken.
Misschien val jij daar onder die groep. Dan is -nogmaals- een RTX 3070 een mooi koopje voor jou. Gewoon doen en niet verder over nadenken!
En niemand heeft me geprobeerd te helpen, te helpen met wat??
Mijn vergissing en mijn oprechte excusses! Het draadje was gedeeltijke aan iemand anders gericht.
Maar prop jij maar lekker iedereen in de zelfde hokje hoor.
Hmz, ;) zoals ik eerder al aangaf. Doe wat jij denkt wat het beste voor jou geld is. Ik ben uitgepraat.
Als de 3070 in Borderlands 3 nu al maar aan 50fps zit dan zal dat bij toekomstige games alleen maar verslechteren. Dus nee niet futureproof en niet echt een 4K gaming kaart dus.
Als de 3070 in Borderlands 3 nu al maar aan 50fps zit dan zal dat bij toekomstige games alleen maar verslechteren. Dus nee niet futureproof en niet echt een 4K gaming kaart dus.
Ja want we kijken letterlijk naar die paar spellen he, wow.

En dan is de GeForce RTX 3090 ook geen 4k kaart omdat hij met Microsoft Flight Simulator (2020) op ultra ook lang geen 60fps krijgt in 4k, en maar in de 40 fps zit.

[Reactie gewijzigd door AmigaWolf op 29 oktober 2020 18:46]

Ik dacht dat dat komt omdat de cpu meer de bottleneck is bij FS2020. Is hier al meerdere malen gezegd geweest op Tweakers.
Nou je zij duidelijk dat de GeForce RTX 3070 niet een 4K grafische kaart was, omdat die 8GB VRAM heeft.
Omdat 8 GB vram te weinig is voor 4K.
Ok ik heb de draad even herlezen en ik snap de verwarring. Ik bedoelde dus dat zowel de 3700 en 6800 geen echte 4K kaarten zijn. Bij de 3700 is dat omdat hij slechts 8 GB vram heeft en bij de 6800 puur omdat de cores niet snel genoeg zijn, ondanks dat hij 16 GB vram heeft. Dat zie je al bij Borderlands 3 waar AMD de settings van Badass naar ultra moest verzetten waardoor hij nog net de 60 fps haalt.

Of de 3700 beter zou presteren in 4K games moest hij 16 GB vram hebben weet ik niet. Waarschijniljk zijn net zoals bij de 6800 de cores dan niet rap genoeg.

[Reactie gewijzigd door Fredi op 29 oktober 2020 16:59]

Ok ik heb de draad even herlezen en ik snap de verwarring. Ik bedoelde dus dat zowel de 3700 en 6800 geen echte 4K kaarten zijn. Bij de 3700 is dat omdat hij slechts 8 GB vram heeft en bij de 6800 puur omdat de cores niet snel genoeg zijn, ondanks dat hij 16 GB vram heeft. Dat zie je al bij Borderlands 3 waar AMD de settings van Badass naar ultra moest verzetten waardoor hij nog net de 60 fps haalt.

Of de 3700 beter zou presteren in 4K games moest hij 16 GB vram hebben weet ik niet. Waarschijniljk zijn net zoals bij de 6800 de cores dan niet rap genoeg.
Je hebt blijkbaar nog steeds niet alles goed gelezen want er is geen 3700, je bedoelt denk ik de GeForce RTX 3070 denk ik?

En zo als ik bij meerdere reviews al gezien heb is de GeForce RTX 3070 gewoon een 4k grafische kaart, alleen enkele spellen draait hij niet op Ultra 4k 60+ fps.

[Reactie gewijzigd door AmigaWolf op 29 oktober 2020 17:51]

Ja sorry ik bedoel 3070. Maar ik ga de discussie stoppen, we gaan er toch niet uitgeraken.
Ja want iedereen moet op baddass settings spelen volgens jou?
Uiteraard. Een kaart koop je toch om het beste beeld te krijgen? Anders hoeft het voor mij niet.
Ik hecht meer waarde aan performance Dan aan plaatjes kijken, en vaak zie je bij de meeste high of Dan ultra settings nauwelijks verschil..
Logisch gebeuren... Vram kost geld. Je krijgt 1x zoveel bij AMD.
*2x zoveel

(1x zoveel is exact even veel)

(I know, offtopic, maar zulke fouten wil je niet maken, en als niemand daar ooit wat van zegt dan weet Je niet dat je het fout doet)

[Reactie gewijzigd door dec0de op 28 oktober 2020 18:56]

De 3070 is gelijk aan de 2080ti. De 6800 is sneller, en heeft dubbel de hoeveelheid geheugen voor ~80 dollar meer. Lijkt me dus echt niet onredelijk.
Waarbij je wel moet oppassen met die MSRP prijzen...(en dit bij beide kampen), de reëele prijs durft wel eens variëren.
8GB vs 16GB geheugen, dat is nog al niet wat.
Die 520,- moet ik nog zien, met de slechte beschikbaarheid. AIB prijzen zijn ook nog niet bekend.
Als je prijzen gaat vergelijken neem dan dezelfde eenheid, dus 520 euro voor de rtx 3070 en waarschijnlijk 600 euro voor de RX 6800.

Daarnaast waren de benchmarks van de RX 6800 met Smart Acces Memory enabled, wat bij de 6800XT 2 tot 13% extra performance gaf en alleen beschikbaar is voor mensen met een Ryzen 5000 processor en een 500-serie moederboard.

Waarschijnlijk gaat de RX 6800 nog steeds net iets sneller zijn dan de RTX 3070, maar of het het prijsverschil waard gaat zijn is nog maar de vraag.
De 6800 was in de slides aardig wat sneller dan de RTX 2080 Ti en daarmee ook de 3070.
De 3070 < 6800 < 6800XT/3080 < 6900XT/ 3090
nV mist daar iets en de tegen hanger van 3070 zou eerder een 6700XT kunnen worden.
Die missen we dan ook.
Maar een RTX3070 is wel goedkoper, namelijk 520 euro vs 579 dollar.
Dat klopt, maar dat maakt de Radeon RX 6800 weer goed met dat hij hoogstwaarschijnlijk sneller is dan de GeForce RTX 3070.
Je ziet het ook aan de prijs.

3070 is 499 dollars en doet iets minder dan een 2080TI.
6800 is 580 dollars en doet beter dan een 2080TI ( en ergo 3070 ).
6800XT is 649 dollar en doet ongeveer gelijk aan de 3080 dat iets duurder is.

Je merkt dat de 6800 zo prijs gepositioneerd is, om te concurreren met de 3070TI dat Nvidia al in de planning heeft.

Het probleem dat ik zie is het ontbreken van enige DLSS oplossing, wat de 3070/3080/... een enorme 10 tot 40% fps boost kunnen geven in games.

Nu, ik zou geen enkel GPU kopen want je weet dat Nvidia gaat afkomen met de TI versies redelijk snel als antwoord op AMD. Tegelijk heeft AMD nog niets uitgebracht van de 6700(XT), wat wel eens verdacht dicht bij de 3070TI zal komen als tegen antwoord op Nvidia.

Je ziet de gedachten / process stappen duidelijk naar de toekomst toe en ik ben zeker dat een hoop mensen dat de 3070/3080/6800 kopen, zich genaaid gaan voelen wanneer die TI/6700XT uitkomen. Prijsoorlogen, een slimme persoon wacht altijd een tijdje af tot de boel afkoelt want anders overbetaald je.
Laat Nvidia alsjeblieft eerst eens beginnen met leveren :') Voor ze met Ti's beginnen.

DLSS vind ik zelf niet echt een dingetje. In elk geval de huidige generatie is uitgebreid onderzocht en meer een gimmick gebleken (ja hogere FPS maar mindere kwaliteit dan gewoon upscalen).

Wat me in de keuze meer dwars zit is dat AMD ongeveer even duur is als Nvidia en ongeveer even snel volgens hun eigen cijfers. Terwijl je weet dat je met Nvidia gewoon goed zit qua drivers en perfect aanpassen aan elke game. Kan AMD dat gaan matchen? Dat maakt de keuze wel een beetje riskant.

[Reactie gewijzigd door GekkePrutser op 28 oktober 2020 18:57]

dat verhaal dat de AMD driver zo slecht zijn hoor ik wel vaker maar op dit moment voor de 5700 is het toch niet zo slecht.... ze zullen best een kleiner software team hebben dat voor de drivers zorgt maar is dit nu echt zo belabberd?

ook heb je nog iets meer vram bij de amd kaarten... voor nu is dat misschien niet heel belangrijk maar voor de mensen die een gpu voor langere tijd kopen zou het een verkooppunt zijn

[Reactie gewijzigd door pedra op 28 oktober 2020 19:17]

Eerlijkgezegd heb ik al een tijdje een Nvidia GPU en komt het vaak zat voor dat Nvidia een driver release doet voor nieuwe spellen. Net als AMD. Wat dat aan gaat ontlopen ze elkaar niet zo. Het enige dat AMD wel doet en Nvidia niet is de interface een beetje moderniseren. Het is wonderbaarlijk hoe traag en ouderwets de interface van de Nvidia driver is. En dan denk je, daar kom je ééns en nooit meer. Tot je een laptop met Nvidia GPU hebt in Optimus opstelling en/of een nieuw scherm aan wilt sluiten. Dat staat ook nooit in één keer goed bij die krengen.

Wat in het verleden ook een ding is geweest, performanceverbeteringen bij AMD drivers waren vaak zichtbaar over de gehele linie, terwijl bij Nvidia oudere kaarten bugfixes en compatibility fixes krijgen en niet meer dan dat.

Ook worden kaarten van 8 jaar oud (HD7970) nog voorzien van de nieuwste AMD drivers, met soms schokkende performancewinsten tot gevolg, terwijl Nvidia de support dan al twee jaar heeft gestopt voor kaarten uit die tijd. Dat betekent dat ze nu ook nog goed meekomen en vaak beter presteren dan een GTX1650(ti). Dat doen andere Nvidia kaarten uit die tijd vaak niet meer. Maar dat heet dan ook AMD's FineWine technology.

Al met al ben ik niet onder de indruk van de Nvidia drivers en vind ik het maar een raar vergelijk iedere keer. Ik kan AMD wel waarderen met hun continue verbetering voor bestaande kaarten. Zo kreeg de 5700XT ook de nodige performanceverbeteringen vanuit de drivers.

[Reactie gewijzigd door fapkonijntje op 28 oktober 2020 19:45]

De mensen leven in verleden toen driver team moest down schalen net als de R&D en de chips die RTG mocht bestellen bij TMSC alleen de kleintjes. AMD heeft de afgelopen jaar de RTG flink opgeschaald dus driver team krijgt nu groene licht en resources om hun werk te doen van afdeling die wel vanuit de top gesteund wordt. Zen heeft voor de comeback van de firma gezorgd en kunnen nu uitvallen op alle markten waar ze vroeger aktief waren. Nu is GPU markt aan de beurt.

Het verleden is geen garantie voor de toekomst. Nieuwe gen nieuwe kansen en driver team die niet gekannibaliseerd is door kans op faillissement en de core business CPU voor moest laten gaan.
DLSS vind ik zelf niet echt een dingetje. In elk geval de huidige generatie is uitgebreid onderzocht en meer een gimmick gebleken (ja hogere FPS maar mindere kwaliteit dan gewoon upscalen).
?

https://youtube.com/watch?v=IMi3JpNBQeM

https://www.eurogamer.net...-stranding-pc-tech-review
I'm not joking when I say that the DLSS quality mode beats out native rendering with TAA and runs faster

[Reactie gewijzigd door Burning02 op 28 oktober 2020 19:25]

?

Jouw bronvermeldingen zijn:
  • Een filmpje van Nvidia zelf
  • Een of andere random write-up vol met meningen en weinig feiten
Als je iemand wilt overtuigen, gebruik dan in ieder geval objectief materiaal. Eentje die reproduceerbaar is, en ook daadwerkelijk wat toevoegd.
Ik weet niet hoe geinteresseerd je (of mede tweakers) hierin zijn. Maar mocht je eventueel ooit willen gamen op Linux dan kun je beter voor AMD gaan, die werken namelijk wel mee met Linux en Nvidia niet.

Blijft leuk: https://youtu.be/iYWzMvlj2RQ?t=24
Nou, in mijn ervaring zijn de Nvidia drivers juist beter op Linux. Ze zijn niet open source, maar werken wel een stuk beter.

Aangezien ik mijn kaarten na hun gaming-leven vaak gebruik voor CUDA taken, is dat een ander puntje voor Nvidia (maar eentje die ik niet echt meeneem in de aankoopoverweging).

Gamen op Linux neem ik sowieso niet serieus, ondanks dat ik dagelijks met Linux werk. Daar heb ik gewoon een Windows gamebak voor.

[Reactie gewijzigd door GekkePrutser op 28 oktober 2020 23:22]

Maar een 3070 Ti kan juist de levering gemakkelijker maken als het geweigerde 3080-chips krijgt.
Amd SuperResolution is vermoedelijk een soort van DLSS maar dan anders
Nee, super resolution is een game hoger renderen dan native en dan downscalen.
Nee, toch niet, jij hebt het over *virtual* superResolution. En dat is weer wat anders dan SuperResolution.

SuperResolution = DLSS van AMD
VirtualSuperResolution = supersampling
oh, dan heb ik de LinusTechTips video verkeerd geinterpreteerd, of hij had het fout.
Dat bestaat al onder de naam virtual super resolution in de AMD drivers. Al best wel lang. De vraag is wat het nu is als men noemt dat het nieuw is. Ongelukkige naam of wat anders?
Ik denk dat ze ook de Image Sharpening erin hebben gestopt dit keer zodat alles in een keer werkt.
Ongelukkige naam,

VirtualSuperResolution is supersampling, en superResolution = DLSS
3070 is 499 dollars en doet iets minder dan een 2080TI.
Bedoel je dan qua VRAM want qua prestaties zijn ze identiek.

[Reactie gewijzigd door napata op 28 oktober 2020 18:54]

Ja als je nu 719,- betaald en straks miners alle kaarten opkopen en mid-range kaarten 600,- + kosten en de high-end 1300,- + ja Dan Ben je echt Dom geweest...
Maar de adviesprijs is wel hoger dan de RTX 3070, ik wacht eerst nog wel even de benchmarks af voordat ik een keuze maak.
Ik denk dat AMD deze kaart hoger heeft gepositioneerd vanwege de 16gb vram. Ik denk echt dat in de komende jaren 8gb een bottleneck gaat worden en je dan voordeel hebt bij die 16gb. Hetzelfde geld eigenlijk voor de GTX 970 en R9 390, bij de release waren ze bijna gelijk maar na een paar jaar trok de 390 een steeds groter gat oa door meer vram
ik ben geen pro hierin.

maar zover ik weet gebruiken ze de normale G6 vram (als het goed is. ) terwijl nvidia de GDDR6X gebruikt.

weet niet hoeveel het scheelt mag je zelf uitzoeken maar kan nog wel een verschil maken.


maar wel leuke zet van AMD nu afwachten tot mensen hem hebben en hoeveel mensen hem daadwerkelijk kunnen krijgen.. ben benieuwd.

[Reactie gewijzigd door D3adshot op 28 oktober 2020 19:10]

GDDR6X zit in de 3080/3090, 3070 heeft G6.
https://www.youtube.com/watch?v=Zr9JYo8Qss8

Valt wel mee dus, ook na 5 jaar doet de GTX 970 met 4GB het helemaal niet slecht en is het gat met de R390 8GB hetzelfde gebleven.. De hele VRAM discussie wordt vaak behoorlijk overdreven.. Alsof Nvidia niet weet wat ze doen.. De enige vrij recente videokaart die wat dat betreft ooit echt een flop is geworden was ironisch genoeg een AMD, de R9 Fury X met 4GB HMB geheugen..

[Reactie gewijzigd door Inflatable op 28 oktober 2020 19:23]

Ik gebruik mijn hardware nogal lang. Die 16GB vind ik dus stuk belangrijker. Maar voor de vaak upgrader die elke gen ziet en ook de refresh, is het mogelijk geen probleem.
Ik denk dat je gelijk hebt, dus dan is de 3070 aantrekkelijker qua prijs. Ik vind het prijsverschil met de XT versie ook nog best groot.
De extra geheugen is ook mooi mee genomen!
in raytracing zijn ze een stuk minder, maar dat is niet interessant voor elke gamer (mijzelf niet in ieder geval)
Komt waarschijnlijk omdat nvidia dedicated ray tracing cores heeft en bij AMD het of ray tracing of normale graphic berekeningen is.
Aha een beetje zoals de 'backported' raytracing op de GTX 1000 serie dus?

Ik heb dat een keer geprobeerd op mijn 1080Ti en daar had ik niet veel aan. Het verlies aan resolutie om een serieuze framerate mogelijk te maken was veruit bepalender voor de kwaliteit dan de raytracing.
volgens mij zei Gamers Nexus dat AMD nu ook dedicated cores of iig ruimte op de chip heeft, wat dit allemaal inhoud zullen we tijdens de independent reviews zien.
De 6000 series hebben 60/72/80 "Ray Accelerators".
De meeste RT games zijn RTX games en dat is nV wrapper API over DXR DX12 Ultimate API dus Bignavi doet daar niks mee. Die games moeten dan native DXR path hebben zonder die RTX API. Grote kans dat die dev dat dus gewoon niet doen. Denk dus dat RT begin wat beperkt zal zijn en dus de 1ST AMD partner games met RT komen en elke andere gamedev die gewoon standaarden volgt en weg blijft van nV API.
De synthetische benches zullen uiteraard wel de standaard volgen dus AMD ondersteunen maar uiteraard ook de nV RTX API.
Let wel dat bij de vergelijking met de 3090 ze hun eigen GPU overclocked laten draaien maar de 3090 waarschijnlijk gewoon stock.
Maar als dat een vinkje is wat je gewoon aan kan klikken in de driver kan je dat zelf ook, terwijl je ruim 500 euro uitspaart. Ik zou het wel weten. Sowieso moeten we de echte benchmarks nog afwachten, daar zal ongetwijfeld ook het verschil met en zonder rage mode vergeleken worden. Volgens Gamers Nexus heeft AMD gezegd dat dat opzich maar 1-2% zou schelen. Marketingtechnisch is het, bij gelijkspel, beter om voor de keuze te gaan die een kleine winst laat zien als je dat kan zonder over de daadwerkelijke prestaties te liegen. Maar het zet wel vraagtekens natuurlijk.
jepp, "Rage mode"is maar paar procent beter en SAM "Smart Access Memory"d.m.v. nieuwe AMD GPU+CPU combineren levert die ander 6 tot 10% die zichtbaar was in een van de slides.
Nee, geloof het niet. waar heb je dat gezien?
Ze laten wel zien dat er dan nog extra prestatie bijkomt, en ook als je de AMD combi doet krijg je extra prestaties. Deze zaten niet in de benchmarks verwerkt, dus de verschillen worden nog groter in het geval je alles van AMD neemt.
RDNA2 klokt heel lekker als AIB komen met de Custom 6800XT kan zijn dat de 6800XT de 6900XT ref en 3090FE benaderen en Custom die power setting op 350W misschien er overheen. Maar zullen ook duurder zijn dan de reference.
Let wel dat dit nog vroege driver's zijn, en dat het dadelijk nog meer fps Kan Worden voor de amd kaarten.
Waarschijnlijk zodra ze genoeg slechter gebinde chips hebben gooien ze er een 6700/6600 uit voor een sub-500 prijs.
Volgens de geruchten heeft 6700 de navi 22 chip, een andere als dez(navi 21)
Dat is afhankelijk waarvoor je de kaarten gebruikt.

Maar voor gamen, in combinatie met Ryzen, zou het wel is gedaan met de pret kunnen zijn voor Nvidia.
Omdat de 3070 niet uit is, heeft AMD dat GPU niet kunnen bemachtigen om te vergelijken en is er de kaart gebruikt dat het dichts in de buurt van de 3070 komt: 2080Ti.
Moet dat dan, ze hebben ze beste kaart verslagen? daar gaat het om.
Zou ik toch eens naar de 6800 kijken, die zou sneller moeten zijn dan de 3070.
Dat is iirc de 6800, die is even snel als een 2080ti die even snel is als de 3070.
De 6800 is een heel stuk sneller dan de 2080ti, die op zijn beurt een 2% sneller is dan de 3070.
Ik denk dat het verschil niet eens 10% is gemiddeld. En in de benchmark slides gebruiken ze SAM. Waarvoor je dus wel een rx 5000 voor nodig heb.
Eigenlijk alleen omdat de 6800 non-XT wat te hoog is geprijsd..
De 6800 is sneller en heeft meer geheugen dan de RTX 3070.
6800 is antwoord op de 3070, leek me vrij duidelijk.

Iets duurder maar dat komt door dubbele VRam.
Dat komt doordat de 80 en 90 al uit zijn, maar de 70 niet. Hierdoor kunnen ze de 80 en 90 testen en de testcijfers vergelijken met de 6000 kaarten. Maar bij de 70 lukt dat niet.
Zolang AMD ervoor kan zorgen dat hun kaarten te verkrijgen zijn, dan is dat al een antwoord op nVidia :*)
Benieuwd naar de real life resultaten :)
Nou echt wel! Het leuke is dat AMD zeer transparant en realistisch is met de framerates in hun presentaties. Ze geven altijd heel duidelijk aan hoe de systemen in elkaar zitten en hoe de benchmarks zijn gedaan. Dat was vroeger wel eens anders! Persoonlijk verwacht ik dus niet dat de cijfers heel erg anders zijn dan zoals hier genoemd. Als we dan de dollars 1 op 1 omzetten in euro's dan heeft AMD echt een leuke aanbieding. Hopelijk hebben ze ook wat voorraad... ;)
Er was in hun transparantie één dingetje wel even schrikken:
Overclocking AMD processors, including without limitation, altering clock frequencies / multipliers or memory timing/ voltage to operate beyond their stock specifications will void any applicable amd product warrany, even when such overclocking is enabled via AMD hardware and/or software. ....
Vaak zie je een may als in kan gebeuren, AMD geeft het aan als will als in 100% zeker dat je garantie vervalt.

[Reactie gewijzigd door sdk1985 op 28 oktober 2020 22:24]

Daar heb ik volledig vrede mee. Je gebruikt iets volgens spec met garantie, of gaat erbuiten zonder garantie.

Dat is de voornaamste reden om mijn nieuwe diesel straks niet te laten chippen. Of wel, maar dan is het risico voor mijzelf. En dat wil ik eigenlijk niet dragen.
Is al jaren de gang van zaken zowel bij Intel als AMD.
Intel gebruikt voor zo ver ik heb kunnen vinden overal may als in kan mogelijk. Dat gezegd hebbende is natuurlijk de vraag of iemand bij AMD hier overijverig was. Zo nee ontstaat de vraag hoe AMD dat dan gaat controleren.

[Reactie gewijzigd door sdk1985 op 29 oktober 2020 15:55]

• any Product which has been modified or operated outside of Intel’s publicly available specifications, including where clock frequencies or voltages
have been altered, or where the original identification markings have been removed, altered or obliterated. Intel assumes no responsibility that the
Product, including if used with altered clock frequencies or voltages, will be fit for any particular purpose and will not cause any damage or injury
bron: https://www.intel.com/con....5x11_for_Web_English.pdf

Als ze op een of andere manier te weten komen dat je overclockte mag je fluiten...
halfweg eerste pagina
Vond ik ook opvallen bij de Ryzen 5xxx launch, duidelijke eerlijke vergelijking met de concurrent. Wat ik dan wel een beetje jammer vind is dat er eerst een eerlijke vergelijking komt tussen de 6800XT en de RTX3080 maar dat dan ineens bij de RX6800 vs 2080Ti vergelijking smart access memory aan staat en bij de 6900XT vs 3090 smart access memory en rage mode. Net alsof ze dat er tussendoor willen smokkelen. Neemt niet weg dat de 6800 de 2080Ti (en dus ook de 3070) flink op z'n lazer geeft en dat de 6900XT $500 goedkoper is.
Dat de resultaten van de 2080ti genoemd worden kon wel eens komen doordat de 3070 nog niet beschikbaar is/was. Om dan over vergelijkbare testresultaten nog maar te zwijgen. Nu weet je dat de 3070 bijna gelijk presteert als de 2080ti, maakt het dan zo'n wereld van verschil? Ik vind het al heel netjes gepresenteerd, morgen weten we meer qua tests. Diverse bekende Youtubers hebben al aankondigingen gedaan voor reviews.
Ik heb nergens gezegd dat ik het een probleem vond dat er vergeleken word met de 2080ti, sterker nog dat is volkomen logisch.
Ik hoop dat je dan ook gezien hebt dat voor de RX6800 de settings in Borderlands 3 teruggeschroefd zijn naar ultra ipv badass om de 60fps te kunnen halen in 4K. Bij de 6800XT en 6900XT staan die gewoon op badass.

Bij de RX6800 en RX6900XT staat smart access memory aan wat in combinatie met een Ryzen 5000 ook voor prestztiewinst in games zorgt. Nvidia kaarten kunnen daar geen gebruik van maken. Bij de benchmarks vd RX6900XT tenslotte is de rage mode daarbovenop nog ingeschakeld dat voor een overklok zou zorgen.

De enige kaart waarbij je de benchmarks echt 1op 1 kan vergelijken met de Nvidia concurrent is de 6800XT omdat daar geen softwarematige trukjes zijn ingeschakeld.

Kortom dit zijn nogal dubieuze benchmarks die AMD hier laat zien. Het wordt dan ook wachten op onafhankelijke benchmarks van review sites zoals oa Tweakers.

RT benchmarks toont AMD niet dus dat voorspelt niet veel goeds.

[Reactie gewijzigd door Fredi op 29 oktober 2020 02:40]

Ik denk dat in deze rare tijden de vraag gewoon te groot is voor nV en AMD gecombineerd. Ik ga pas tot aanschaf ergens begin volgend jaar. Ik heb geen haast.
Ik denk dat in deze rare tijden de vraag gewoon te groot is voor nV en AMD gecombineerd. Ik ga pas tot aanschaf ergens begin volgend jaar. Ik heb geen haast.
Ja dat kan, maar je vergeet een ontzettend belangrijke ding, en dat is dat VEEL honderden miljoenen mensen door "Covid" hun baan kwijt zijn wereld wijd, in Amerika zijn er al zeker 50+ miljoen mensen nu al zonder een baan, was in juni al 42 miljoen.

http://abcnewsradioonline...-to-covid-19-trump-t.html

https://www.nst.com.my/wo...ployment-rises-42-million

https://fortune.com/2020/...e-4-2020-benefits-claims/

En vele miljoenen nu erg krap zitten door "Covid", en dan kan ik je vertellen dat die berg mensen echt geen $579, $649 of zelfs $999 over hebben voor een Grafische kaart.

Wow echt waar, ik spreek 100% de waarheid en woord WEER omlaag gemod, wanneer AL het bewijs ik er bij gezet heb?!?!?

[Reactie gewijzigd door AmigaWolf op 28 oktober 2020 20:38]

Hoewel het voor velen een probleem is, denk ik niet dat ze de mensen die nog wel een normaal inkomen hebben en in de markt zijn voor een nieuwe GPU kunnen voorzien van een nieuw model. Want hoewel veel mensen zonder baan zitten, zit de rest ook een stuk vaker thuis en met de regelmatige quarantaines gaan ook veel mensen dan maar gamen. Dan wil je wel het nieuwste (als je het geld ervoor hebt), dus dan blijft er nog wel genoeg over voor de vraag naar dit soort producten.

Het is vooral dat Nvidia de prijzen bij de 2xxx generatie zo hoog maakte, waardoor we dit ineens normaal zijn gaan vinden. Niet al te lang geleden kon je voor 300 euro een midrange halen, maar dat red je nu al lang niet meer. Sterker, voor die prijs krijg je nu maar net aan een nieuw moederbord of CPU (en alleen als je echt voor de low/mid range gaat, kun je voor dat bedrag beiden halen)

[Reactie gewijzigd door Martinspire op 28 oktober 2020 20:52]

Ja, het is waar, de prijzen beginnen nu ook van Grafische kaarten belachelijk duur te woorden, weet nog dat ik de GeForce GTX 960 4G (EVGA 04G-P4-3966-KR) kocht voor €260,50 in 2015, en dat was de duurdere versie van de Geforce GTX 960, omdat hij 4GB had in plaats van 2GB, de GeForce RTX 3060 (Ti) is een STUK duurder.

Natuurlijk woord ik weer omlaag gemod, wat een zielig zooitje hier op Tweakers

[Reactie gewijzigd door AmigaWolf op 28 oktober 2020 23:06]

Ja precies. Nou zijn dit natuurlijk introductieprijzen. Ik verwacht dat vanaf komend jaar alles wel weer 100 euro goedkoper is, maar alleen als ze qua productie alles kunnen bijbenen, anders is de noodzaak natuurlijk weg om de prijzen te verlagen. Ik snap het dan ook wel, maar vind het enorm jammer dat PC gaming nu weer zo duur is. Nu drukken ze zelf meer mensen naar consoles toe. Wellicht vind AMD dat ook wel best, gezien ze daar toch de hardware voor maken.
Ik denk vooral dat Nvidia gerushed was omdat ze door hadden dat AMD met iets goeds kwam. Anders was de RTX 3080 nooit $699
Je zou maar een 3090 gekocht hebben.. :) dan baal je toch
Nah, mensen die zoveel geld uitgeven hebben waarschijnlijk teveel geld haha. Bovendien kan 90% die een preorder heeft staan toch nog cancellen, niet? ;)
Zijn mensen die bij vraag & aanbod meer dan 2000 vragen voor een 3090. Vraag me af hoeveel ze er uiteindelijk nog voor zullen krijgen.
8)7
Tis gewoon een stuk ijzer, die wanneer het aanbod er weer is, gewoon naar de 500,-- zakt. Als je nu 2000,-- gaat neerleggen ben je echt een ongelooflijke pannenkoek. Verder hebben de AMD kaarten over het algemeen een veel betere bang/buck ratio. Liever een kaart die iets minder presteert maar grof goedkoper is. AMD is toch een soort van underdog heb ik altijd het idee - en die steun ik graag - (al heb nu wel een gtx1070 in mijn systeem zitten O-) aangeschaft om te streamen naar de shield en voor de games die ik speel is deze nog goed genoeg - AMD moet maar even wachten)

[Reactie gewijzigd door shades op 28 oktober 2020 21:14]

Vraag me eerder af of dat niet gewoon oplichters zijn.
Je weet dat als je zo'n kaart koopt dat de prijs/perf heel slecht is.
En dat een jaar later het nog erger is.

Een beetje hetzelfde als mensen die een foldable smartphone kopen van €2k+.
Zo'n vouwbare telefoon is toch wel een andere insteek dan "diezelfde kaart als die goedkopere, maar wat sneller".
Dat krijg je als je niet wacht. Maar hoe lang kan je wachten....
Nou heel lang. Probleem is dat sommige gamer in extreem setting 144fps+ en 4K moeten gamen. En dat is een luxe probleem en geen noodzaak. Medium 1080P settings 60fps en dan zijn deze kaarten overkill. De meeste gaan niet zo wild en zo regelmatig upgraden. Ik heb Vega 56 en kan wel wachten.
Precies dit. Mensen fokken elkaar op om het nieuwste van het nieuwste te halen.

Wie de grootse pik heeft alleen dan de PC gamer versie.

En over een paar maanden kan je weer upgraden. Perfect voor bedrijven als Nvidia en AMD. Het zou me niks verbazen als ze deze psychologische tactiek verwerken in hun manier van marketing en de frequentie van het uitbrengen van nieuwe hardware.
Ik wil graag 240 fps gamen en heb dus een 3080 besteld, met mijn Vega 56 haal ik maar 165-180 fps, mag het?
Ik wilde gaan upgraden van RTX2080, ik ga toch maar even wachten. Denk zomaar dat de prijzen van de nieuwe RTX 3 serie nog wel wat in prijs zullen gaan zakken ;-)

Gaat AMD nu hetzelfde flikken als wat ze bij Intel hebben gedaan de afgelopen paar jaar.. Zo ja dan gaat AMD heel interessant worden...
Je zou maar een 3090 gekocht hebben.. :) dan baal je toch
Ja als alles klopt ja dan lijkt het me ook balen.

$649 voor de Radeon RX 6800XT en $999 voor de RX 6900XT, is wel weer $70 en $550 goedkoper dan toen de GeForce RTX 3080 en GeForce RTX 3090 net uit kwamen.

Want de GeForce RTX 3090, 3080 kosten €1549, €719 toen ze uit kwamen, want je kan $649 en $999 gewoon omzetten naar €649 en €999, want dat is bijna altijd zo als ze de dollar prijs laten zien, en dan komen uit voor dat maar dan in euro.

Jammer had verwacht dat de Radeon RX 6800XT meer rond de $550 a $600 zou wezen, maar we zullen wel zien wanneer de euro prijzen uit komen, en jammer dat de Radeon RX 6800XT evengoed 300w gebruiken, had gehoopt dat het minder was, kan niet wachten tot de echt benchmarks uitkomen en euro prijzen.

Edit foutjes.

[Reactie gewijzigd door AmigaWolf op 28 oktober 2020 23:02]

Edit - foute reactie

[Reactie gewijzigd door brammetje1994 op 28 oktober 2020 18:44]

Hangt natuurlijk af van de workload, als je een GPU alleen gebruikt om te gamen lijkt het me inderdaad een spannende tijd met mooie keuzes die gemaakt kunnen worden.

In mijn geval kijk ik alleen naar wat Nvidia doet ivm CUDA en zou ik maar al te graag een 3090 in mijn kast steken echter laat mijn budget dit niet toe dus blijf ik kijken naar een 3080 als 2de keuze.
Prijsstelling van de 6800, maar $70 goedkoper dan de 6800 xt voor toch een aanzienlijk prestatieverschil. Prijs zal omhoog gedreven worden door de 16 gb ram, maar denk dat met deze prijzen iedereen de 6800 xt wil.
Inderdaad, ik snap ook niet helemaal wat ze nou willen met die 6800. Als je $579 hebt liggen dan heb je $649 ook wel over voor zo'n verschil. Denk dat die niet lang op de markt gaat blijven.

Niettemin valt de prijsstelling me tegen. $649 zal in Europa wel uitkomen rond de €719 van de RTX3080. En dat terwijl marktleider Nvidia gewoon de game compatibiliteit goed voor elkaar heeft, wat we met AMD nog af moeten wachten. En de real-world plaatjes ook.

Met AMD mis je een beetje de 'veiligheid' van je keuze, in de trant van 'nobody ever got fired for buying IBM'. Tegenover die lagere 'veiligheid' zou ook een prijsverschil moeten staan om het interessanter te maken, vind ik.

Aan de andere kant kan Nvidia gewoon niet leveren momenteel, als AMD dat wel kan zal daar wel een flink kansje liggen denk ik. Maar zo'n overtuigende keuze als het was voor mijn Ryzen (sneller én goedkoper dan intel), is AMD op GPU gebied nog zeker niet.

[Reactie gewijzigd door GekkePrutser op 28 oktober 2020 21:04]

Nou nee, de $699,- van de 3080 is hier op 719,- uitgekomen dus Dan zal de $649,- hier lager uitvallen...
Dat is waar, maar een echt overtuigend prijsverschil zal het niet worden. Hooguit tientjeswerk.. Op zo'n prijs is dat niet zo belangrijk.

[Reactie gewijzigd door GekkePrutser op 28 oktober 2020 19:22]

Voor mij is die $ 999 brug te ver maar ja €50 - €100 kom ik wel overheen.
Maar je vergeet dat er grotere massa is die meer in de 6700 6700XT en dan lonkt die 6800 en moeten daar dan 10 keer over nadenken. Mij lijkt de groep die gevoelig is voor elke $€ 50 groter dan die daar niet zo gevoelig voor zijn. Tot wat de gek ervoor geeft en ebay 3090 voor dubbele prijs koopt.
Ik vind het goed dat AMD het durft met deze prijzen. In het verleden probeerde ze altijd om een flink betere prijs/prestatie dan Nvidia in de markt te gooien. Denk aan de 4870 die $100 dollar onder de prijs van de GTX 260 ging zitten. Vervolgens reageerde Nvidia en hadden ze alleen bereikt dat ze geen winst meer konden maken. Bij Ryzen 5xxx hebben ze de prijzen ook weer iets hoger gepositioneerd dus het was wel een beetje te verwachten dat Radeon 6xxx, mits ze de performance haalden, geen koopje zou worden.

Overigens zie je bij AMD de prijzen vaak alsnog dalen dus het is even afwachten hoe de prijzen over 6 maanden. Wel zal het wellicht wel even wennen zijn voor sommige tweakers wanneer AMD niet meer de budget optie is. Uiteindelijk wel goed voor de innovatie. AMD gaat als een raket momenteel qua ontwikkeltempo en time to market. Dat kost wat. Ongetwijfeld komen er nog meer kaarten met lagere prijzen.

[Reactie gewijzigd door sdk1985 op 28 oktober 2020 18:59]

Ivm budget optie: Veel mensen zien AMD als een bedrijf dat een alternatief op de markt moet zetten om Nvidia onder druk te zetten, zodat ze goedkoper iets van Nvidia kunnen kopen.
Waarom ze het product met betere prijs/performance dan niet gewoon kopen, beats me.
Nouja dat is ook wat ik waarschijnlijk ga doen. Zowel de AMD als Nvidia kaarten kosten een hoop geld. Dan wil ik daar wel het beste voor hebben.

Als koper verwacht ik dat ze me overtuigen. Nvidia is een solide keuze op videokaartgebied momenteel. De prijs is ook uitstekend, de 3080 zou ik morgen kopen (als dat kon :F). Met name de aandacht die ze aan de game ready drivers schenken is uitstekend. Waarom zou ik voor een relatieve nieuwkomer gaan die zijn beloften nog waar moet maken? Meestal vanwege de prijs. Maar die verschilt niet veel, en de real-world prestaties zijn nog niet duidelijk.

Ryzen vind ik een heel andere situatie. Ryzen heeft zijn waarde al bewezen boven intel. In het begin was het de budget optie die ook nog eens beter presteerde en nu cashen ze daarop in. Ook omdat de zakelijke markt ze eindelijk heeft ontdekt. Logisch. De GPU's zitten in een veel eerder punt in die cyclus. Die moeten zich nog bewijzen. Zowel op prestaties als support.

Welk merkje er op mijn GPU staat boeit me niet, ik heb helemaal geen merkloyaliteit. Ik wil gewoon goede prestaties voor de beste prijs. Als AMD dat biedt dan ga ik niet Nvidia kopen. Maar momenteel zie ik dat nog niet.

PS: Overigens tijdens de opkomst van Ryzen werd dat argument ook genoemd. Mensen zouden alleen maar een goedkope Ryzen willen zien om intel tot lagere prijzen te dwingen. Inmiddels is wel gebleken dat mensen gewoon Ryzen kopen voor de prestaties en de prijs. Ryzen heeft natuurlijk ook een ander belangrijk voordeel trouwens en dat is socket stabiliteit, dat hier geen rol speelt.

[Reactie gewijzigd door GekkePrutser op 28 oktober 2020 19:21]

Ik ben toch ook wel erg gevoelig voor het feit dat ze de consoles leveren. Je ook prestatie voordeel krijgt bij Volledige AMD pc. En wat ook erg meespeelt voor me zelf is dat ik al jaren geen enkele driver problemen heb ondervonden met mijn 3 generaties AMD, dat was immers mijn reden om destijds weer van nvidia af te stappen.
Nieuwkomer?
Zowel Nvidia als AMD/ATI draaien al sinds 1995-6 (snel Wikipedia gecheckt) mee in de 3D-wereld. Beide hebben betere en slechtere releases gehad en beide hebben aan de top gestaan.
AMD was altijd opener, werkte mee of publiceerde industrie-standaarden terwijl Nvidia meer een handje heeft van propriëtaire dingen of dingen als Gameworks die de concurrentie benadelen. Persoonlijk kijk ik dan ook gewoon naar prijs/performance (eens reviews er zijn) zonder verdere vooroordelen.
Ja ik had beter 'herintreder' kunnen zeggen. Ik heb ook genoeg Radeons gehad hoor!

Maar ik bedoelde 'nieuwkomer' met de laatste 5 jaar in gedachten. De rest is zo ver in het verleden dat het niet meer relevant is wat mij betreft. De produkten en het bedrijf zelf zijn ook heel anders dan toen.

[Reactie gewijzigd door GekkePrutser op 28 oktober 2020 19:32]

als nog echt geen idee waar de F je het over hebt... 390X tot 590, Vega (7/64), 5700XT... allemaal met goede drivers. natuurlijk aan beide kanten problemen (AMD/NVidia) maar dat ligt meestal aan totale systeem en niet aan de kaart en aangezien er een ontelbaar aantal combinaties zijn van hardware is dat voor een kleiner kamp als AMD iets lastiger maar dat doet niet af van performance, waar AMD vaak over tijd zelfs verbeterd en NVidia soms verslechtert. Maar je praat alsof je het hebt over Texas Instruments en Realtek... AMD is high-end he, beste CPU's en nu misschien ook wel beste GPU's (voor gamers iig) andere GPU segmenten is NVidia nog beter maar AMD heerst wel steeds meer over CPU land.
De 5600 had echt wel major drivers issues https://www.youtube.com/watch?v=pboDbxogSw4
hierin geven ze ook aan dat ze meer gaan investeren om zulke issues te verkomen, mja dat valt nog te bezien. Al denk ik persoonlijk dat ze niet hiermee een blunder willen begaan, zeker niet als het gelijkwaardige kaarten zijn aan de 30xx, en al helemaal niet gezien nVidia ook nog niet alles optijd kan leveren.. mooi kans voor AMD.
Ik zit vast aan mijn keus voor een rtx 3080 omdat mijn primaire werktaak AI schaakengines zal zijn en die draaien niet snel op AMD gpu's, ik heb die CUDA en Tensor cores nodig. Maar als ik een gpu voor alleen games zou kopen dan zou ik zeker nu de 6800(XT) overwegen. Ik ben het met je argumenten eens vanuit historisch perspectief maar aan de andere kant lijkt me de gedachte dat toekomstige games mogelijk beter geoptimaliseerd zijn voor RDNA2 vanwege de nieuwe consoles niet ver gezocht. Daarnaast geeft 16GB ook rust in de wetenschap dat je daar zeker genoeg aan gaat hebben voor 4K, ook in de toekomst. Ik vind DLSS een mooie techniek en zeker een argument voor NVidia maar ik maak me wel een beetje zorgen of dat breed geïmplementeerd gaat worden aangezien elke game daar apart voor geoptimaliseerd voor moet worden en of dat ook gaat gebeuren, ik betwijfel het.

[Reactie gewijzigd door FullThrottle op 28 oktober 2020 19:47]

De 4870 heb ik heel veel plezier van gehad. Volgens mij heb ik er toen onder de 200 euro voor betaald!
Hah, geinig. Nvidia kwam als tegenreactie met een GTX 260 216SP en ik ging de originele 192 SP in de uitverkoop. Ik heb in die tijd de EVGA GTX 260 voor 130 euro bij cdromland aangeschaft. Die kaart doet het anno 2020 nog steeds :). Dat waren nog eens andere tijden/prijzen ;).
Heh, ik had toen de 4890 gehaald was 199,- wat een sterke kaart was dat toen.
Ik denk dat dit te maken heeft met de yields en grootte van de chips.
Dit is dus allemaal op dezelfde chip, van de 6800 tot de 6900XT, waar een aantal CUs uit worden gezet. Het procedé van TSMC is misschien gewoon zo goed dat ze niet erg veel 6800's uitdraaien die niet beter besteed kunnen worden aan de snellere modellen. Ze gooien gewoon geld weg als ze een beter model trager maken om aan de vraag van de goedkopere modellen te voldoen. Oplossing: verhoog de prijs een beetje.
Zo stuurt AMD mensen als een bait and switch naar een goedkoper model en stuurt hen voor een prikje extra alsnog naar het betere model.
Het is altijd al zo geweest met AMD/ATI dat de 1 na snelste kaart de beste deal was.
Klopt. Als de prijs van de 6800XT $600 was, dan was het interessanter. Nu weet ik niet of het prijsverschil genoeg zal zijn om mensen echt over te halen van Nvidia naar AMD.

Het is natuurlijk ook afwachten of de prijzen inderdaad rond die prijzen blijven hangen, want als die ook de hoogte in schieten dan kan er nog veel veranderen...
Vergeet niet die dollarprijzen zonder BTW zijn en ook doordat US lidstaten verschillende BTW's hanteren. Het is voorlopig koffiedik kijken wat de daadwerkelijke europrijzen gaan worden. Desondanks ben ik nu wel meer benieuwd naar de 6800XT dan de 3080.
Gelukkig is de dollar ook voor Nvidia dezelfde munt dus zijn de vergelijkingen nog prima te maken.
Sterker nog, binnen elke lidstaat heeft elke regio een andere BTW, en binnen elke regio heeft zelfs elke stad een andere BTW.
Dat is echt... wow! Ik vraag me dan af of de bewoners er blij van worden als ze dingen gaan bestellen uit andere lidstaten met de regio's hun BTW.

Daarom dat ik regelmatig iets uit EU bestel als dat kan of zo niet, dan de goedkoopste want import en inklaringskosten.
jupp veel items worden via een andere staat verstuurd om zo geen btw te hoeven betalen. vgm heeft oregon 0% btw dus daar zijn veel "reshippers" geloceerd zodat mensen buiten US geen extra btw hoeven te betalen.
Ik denk dat het komt omdat de 6800 ook 16GB aan VRAM heeft. Had AMD de 6800 maar 8GB gegeven dan was het waarschijnlijk rond de $500 te krijgen.
Ze willen meer 6800xt verkopen dan de 6800. Ze gebruiken beide de zelfde die en het 7nm proces van TSMC is heel goed op dit moment, dus veel defectieve dies zullen er niet zijn, dus zal er veel kunstmatig aangepast moeten worden om ze om te dopen tot een 6800 ipv de xt variant.
Snap er ook weinig van... Een goede 12% meer betalen voor 20% meer cu's én hogere kloks? Lijkt me dat die 6800 alleen verkocht wordt aan mensen die niet beter weten... Tenzij de straatprijzen verder uit elkaar komen te liggen.
ben benieuwd naar de geluidsproductie... de afgelopen MSI nvidia kaarten waren lekker stil.. Ik heb een XFX 7970 GHZ DD gehad, lekker snel maar wat een herrie zeg.
Die 37 dB op zijn eentje zegt echter niet veel, je kan het met niets gaan vergelijken.
Dat wordt even wachten op reviewers die een andere waslijst aan kaarten getest hebben met dezelfde methode. De Efficientie test die hardware.info (tweakers dus) uitvoert, is daarvoor ideaal.

Bij Nvidia was die founders edition koeler zogezegd ook super goed met dat speciale design. Niet dus. By far the slechtste koeler die Tweakers getest had.
reviews: Nvidia GeForce RTX 3080 - Vijf videokaarten op de testbank
Hoe koeler, hoe stiller je de fancurve kan instellen voor dezelfde temperatuur

[Reactie gewijzigd door SmokingCrop op 28 oktober 2020 19:08]

Met daarna nog een knipoog naar Nvidia over de positie van de power connectors :P

"We purposely put the power connectors at the end of the card, and facing the case's side-panel. To provide for simple connector accessibility and cable management. Also there's no need to worry about special adapters to connect to the power supply. Especially one's that are facing odd locations that can interfere with the esthetic of your build."
De koeler ziet er uit als de gemiddelde high end AIB partner koelers. En ze hebben een lager verbruik als hun nvidia tegenhanger. Ik denk dus dat het wel goed zit deze generatie.
waarschijnlijk iets lager dan de 3080 kaart ivm met het lagere stroomverbruik=warmte
12% hogere prijs voor 20% meer CU's en 7% hogere boostclock?
Mis ik iets? Wat is dan nog het bestaansrecht van de 6800 ten opzichte van de 6800 XT?
Meestal gaat het juist de andere kant op...

[Reactie gewijzigd door TheTinusNL op 28 oktober 2020 19:07]

Dacht hetzelfde, prijs ligt te dicht bijeen op dat niveau. Als je al zoveel geld voor een GPU uitgeeft neem je toch gewoon de XT versie...
Ik denk dat de 6800 bestaat om al een antwoord te hebben op een eventuele 3700ti. Die trouwens best wel eens een probleem heeft qua prijstelling nu als die uitkomt. Nvidia had die natuurlijk graag op $599,- gezet maar of dat nog realistich is dat zal moeten blijken.

Daarnaast is de 6800 een mooie kaart om mensen te verleiden en ze daarna te overtuigen toch wat meer uit te geven voor de 6800XT
Op een manier krijg ik nu een gigantische grijns op het gezicht als ik aan iedereen denk die €1000 voor een RTX3080 heeft neergeteld en €2000 voor een 3090... }:O

+
Aan de binnenstromende -1's te zien, zijn er al minstens twee die zo veel hebben neergeteld :+

[Reactie gewijzigd door Zuur.Pruim op 28 oktober 2020 19:27]

founders edition kon je kopen voor 719 en 1549
Goh dan ben je wel uitverkoren als dat je gelukt is :)
Zal met een amd kaart het zelfde zijn
In theorie. In de praktijk waren ze op releasedag voor 3 uur al uitverkocht. Ik heb een MSI Ventus 3080 om 14:54 besteld bij Alternate. Ik wacht nog steeds.
Ja, met nadruk op kon :) Vandaag op een ander forum gelezen dat iemand helemaal in zijn nopjes was omdat hij een 3080 Strix OC voor €1200 kon scoren...
Ja maar dat is een meme. Hij heeft het over de schaarste prijzen die veel mensen toch hebben betaald.
Dit is ervan uitgaande dat er niet ook gigantische vraag is naar de AMD kaarten waardoor de winkels de laatste paar voor 1000 + uit gaan brengen.
Zielig van je, maar heb gewoon een aib 3080 kunnen bestellen voor 719,- niks 1000 euro ;)
Even in afwachting van de reviews lijkt dit eindelijk een AMD launch te zien die niet enorm tegenvalt! En vooral voor de consument mooi dat ze de aansluiting hebben gevonden met Nvidia
Amd GPU launch bedoel je denk ik

Want sinds de allereerste ryzen heeft amd roduit top launch events voor hun processoren. (Vooral voor niet gamers)
Ook dat laatste hebben ze gefixt onlangs :-)
Heel slim van AMD om de zen 3 te combineren met Radeon voor extra performance }>
Want Zen 2 had al niet genoeg performance? Bij gaming workloads zal de CPU bijna nooit het ding zijn dat je echt achterhoudt mits je op de voor de GPU bedoelde resoluties speelt.
uh... de nieuwe CPU/GPU van AMD kunnen nu een nieuw trucje: 10% extra perf (mits 5000 series cpu/6000 series gpu amd)
Want Zen 2 had al niet genoeg performance? Bij gaming workloads zal de CPU bijna nooit het ding zijn dat je echt achterhoudt mits je op de voor de GPU bedoelde resoluties speelt.
Beetje aparte redenatie. Wanneer je resolutie te hoog is dan krijg je juist te maken met een GPU bottleneck en is de cpu aan het wachten op de gpu. Speel je op de 'juiste' resolutie en haal je hoge frame rates dan moet de cpu vol aan de bak.

Zen3 wordt de AMD oplossing voor high fps gaming. AMD heeft zelf aangegeven dat veel games op een main thread leunen en deze thread bij Zen3 gebruik kan maken van een grotere L3 cache en lagere latencies. Zen3 wordt dus een 'echte' gaming cpu. Aldus AMD:
"many games have a dominant thread .... and that makes especially have use of the cache and that thread effectively sees twice the L3 cache in Zen3'.

[Reactie gewijzigd door sdk1985 op 28 oktober 2020 22:16]

Nee hoor, GPU's als de RTX 3080 en 3090 zijn expliciet in de markt gezet als 4k GPU's, hetzelfde geldt voor de 6800 XT en 6900 XT. Wanneer je dan op 1440p en 1080p met een CPU bottleneck te maken hebt is dat vrij logisch. Probeer immers een GTX 1080 maar eens te pairen met een moderne CPU op 1024x768. Dat je high end gpu's op lagere resoluties kunt gebruiken betekent niet dat ze daarvoor bedoeld zijn en op de resoluties waar ze wel voor bedoeld zijn merk je niks van een CPU bottleneck. Op 1080p en 1440p praten we over fps verschillen die niemand serieus merkt.
En toch lijkt het voor de piekjes en daarmee het gemiddelde hier en daar uit te maken met de top-of-the-top :)
Zelfs kijkende naar de 1% minimums praten we op 1080p over een verschil tussen 160 en 140 tussen de 10900K en 3950X voor de 3080. 20 FPS lijkt een hoop maar op die schaal merk je dat al niet meer.
Vraag me wel af wat de 5000 series CPUs nou daadwerkelijk anders maakt dan de 3000 series om dit mogelijk te maken. Beide ondersteunen PCIE-4, dus dat is het verschil in ieder geval niet. De nieuwe cache-indeling dan?

Een variant / implementatie van CCIX/CXL?

[Reactie gewijzigd door DwarV op 28 oktober 2020 22:21]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Black Friday 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True