Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: AMD Radeon RX 6700-videokaarten krijgen 12GB GDDR6-geheugen

Er zijn enkele mogelijke specificaties van AMD's komende RX 6700- en RX 6700 XT-gpu's online verschenen. De videokaarten zouden beide 12GB aan GDDR6-geheugen krijgen. Ook het mogelijke stroomverbruik van de RX 6700-kaarten is online verschenen.

De informatie is afkomstig van Twitter-gebruiker Patrick Schur. Deze leaker heeft in het verleden vaker correcte informatie gedeeld. Zo noemde hij in september de correcte specificaties van verschillende Ryzen Embedded V2000-chips. AMD kondigde deze chips in november officieel aan.

Volgens Schur krijgen de RX 6700- en RX 6700 XT-videokaarten beide een Navi 22-gpu en 12GB aan GDDR6-geheugen. Dat komt overeen met eerdere geruchten. Schur verwacht daarnaast dat de RX 6700 XT een stroomverbruik krijgt dat tussen de 186W en 211W ligt. De RX 6700 krijgt mogelijk een stroomverbruik van 146 tot 156W, hoewel de leaker daarbij aangeeft dat het stroomverbruik van deze gpu mogelijk lager ligt. De total graphics power van de huidige RX 6800 en RX 6800 XT liggen respectievelijk op 250W en 300W.

Volgens eerdere geruchten krijgt de RX 6700 XT-videokaart 40 compute units, waarmee de gpu beschikt over 2560 stream processors, zo schrijft ook VideoCardz.. Het is nog onbekend hoeveel cu's de RX 6700 krijgt. Ook zouden de Navi 22-gpu's beschikken over een 192-bits geheugenbus. De gpu's krijgen vermoedelijk ook Infinity Cache. Het is nog niet bekend wanneer AMD de RX 6700-videokaarten uitbrengt. Volgens geruchten kondigt de fabrikant deze gpu's in januari 2021 aan.

AMD Radeon RX 6000-line-up
Videokaart RX 6900 XT RX 6800 XT RX 6800 RX 6700 XT* RX 6700*
Gpu Navi 21 XTX Navi 21 XT Navi 21 XL Navi 22 XT Navi 22 XTL
Compute units 80 72 60 40 nnb
Boost clock 2250MHz 2250MHz 2105MHz nnb nnb
Geheugen 16GB, gddr6 16GB, gddr6 16GB, gddr6 12GB, gddr6 12GB, gddr6
Geheugenbus 256-bit 256-bit 256-bit 192-bit 192-bit
Total graphics power 300W 300W 250W 186-211W 146-156W
Release 9 december 2020 18 november 2020 18 november 2020 Januari 2021 Januari 2021

* Op basis van onbevestigde geruchten

Door Daan van Monsjou

Nieuwsposter / Videostagiair

22-11-2020 • 17:16

150 Linkedin

Reacties (150)

Wijzig sortering
Ik verbaas me er nog steeds over dat de RTX 3070, een kaart die sneller zou zijn dan een 2080ti, maar over 8GB geheugen beschikt.
Waar verbaas je je precies over? 8GB is de komende jaren meer dan voldoende voor een kaart die zich op 1440p richt.
Ik kijk even naar mijn 1070, welke uitgerust is met 8GB. Een kaart dat intussen 4 jaar oud is.

In die 4 jaar, zie ik meer en meer de trend naar een combinatie van 4K gaming en assets ( textures enz ) heavy games.

Nu voeg ik daar nog eens bij, dat we eindelijk een nieuw generatie consoles hebben, elk uitgerust met 16GB. Wat betekend dat je ook meer zwaardere textures enz gaat zien op de consoles. Dit zal dan weer een effect hebben op de PC markt ( want console games worden vaak niet erg geoptimaliseerd voor de PC ).

Voor een kaart in 2020 ... technisch 2021 tegen dat de massa ze hebben, ik zou die niet erg feature proef noemen. Erger nog, je mag zeker zijn dat er een 3070TI zit aan te komen niet ver van nu. Met mogelijk meer geheugen?

Als je denkt dat je 4 of 5 jaar van nu nog zit te gamen op 1440p voor al je games, dan is de 3070 goed genoeg. Maar je betaald wel 500 Euro voor "goed" genoeg. Sorry, maar dat soort goed genoeg, zou eerder passen voor een 3060 kaart of zo, waar je op een budget mee werkt.

We spreken over een 500 Euro kaart. Een paar generatie geleden, zou een 500 Euro kaart het topmodel geweest zijn met de max geheugen ( titan en andere specialiteiten niet meegerekend ). Het feit dat we voor een technisch mid range kaart, verkocht aan wat vroeger de top range prijs was, dat dit nog 8GB geheugen heeft. Je koopt niet een 500+ Euro kaart voor te gamen met "goed genoeg voor 1440p ( nu )".

Er staan veel games op de release schema de volgende paar jaren ( veel dat uitgesteld zijn met Covid ), dan de console games dat de markt gaan pushen. Goed genoeg voor 500+ euro past gewoon niet in mijn boekje.

Zeker als je rekening houd dat de 3070 het goedkopere GDDR6 gebruikt en niet de duurdere GDDR6X dat de 3080/3090 gebruiken.

Ik vind dat je hiermee jezelf voorliegt en met opzet de lat laag legt. Het is niet omdat de GPU markt de afgelopen generatie met de 2000 series enorm veranderd is, dat we ineens de lat lager moeten leggen voor Nvidia. O my god, de prijs zijn meer "redelijk" dan de 2000 series. Och, we negeren het feit dat een 3070 DDR6 8GB draagt ipv 12GB. Kom, niemand heeft meer dan 8GB nodig he. Voor 500+ Euro.

Sorry maar DDR6 8GB zou de 3060 serie moeten zijn,niet de 3070.
Over 4\5 jaar verwacht ik eerlijk gezegd niet dat je nog op die 3070 speelt. Ook niet op de 3080.

Enerzijds omdat de doelgroep van die kaarten dat doorgaans niet zo lang vol houdt ( geen mainstream doelgroep , wil het beste van het beste ) , anderzijds omdat we tegen die tijd waarschijnlijk weer een uplift zien in grafische kwaliteit ( kans is aanwezig dat we dan alweer een nieuwere generatie (upgrade) consoles hebben met neveneffecten op de pc games)
> Over 4\5 jaar verwacht ik eerlijk gezegd niet dat je nog op die 3070 speelt. Ook niet op de 3080.

Blijkbaar mis je het stukje dat ik nog een 1070 draai. En veeeel mensen draaien nog 1000 of 900 series GPU's. De 1070 is intussen 4 jaar oud en voor de meeste games perfect speelbaar. De 900 serie is 6 jaar oud.

Maar ... in die tijd ben ik van een 1440p monitor naar een Ultraside gegaan. Veel games draaien minder goed op een ultra wide ( meer horepower nodig ) maar een belangrijk punt is het geheugen gebruik dat ook hoger ( soms tegen de limiet van de 1070 zijn 8GB ). Probeer eens Skyrim met 4K textures en een hoop mod's op een ultra wide.... En Skyrim is nu niet eens een recent game nietwaar.

En dan spreken niet over nieuwers games dat gereed staan. Waar vroeger een game 20GB was, zijn meer en meer games 50GB of meer in downloads. Sommige zelf naar de 100GB... De enorme verhoging van game grote is niet omdat ze een magische bulkiere engine hebben, nee, het is vooral de verhoging van textures etc dat de game zo groot maakt. Textures dat ... in je geheugen moeten nietwaar ;)

Anyway, ik dacht 4 jaar geleden ook dat 8GB overkill was op men 1070. En er zijn genoeg momenten geweest waar ik die uitspraak teruggetrokken heb en dankbaar was, dat ik 8GB draaide.

Ja, het is minder interessant om een 12/16GB kaart te kopen voor "future" proof, als je GPU's update iedere 18 of 24 maanden. Maar de meeste mensen updaten hun systemen niet zo vaak. Daarom dat we nu in deze Corona tijd met de enorme PC uplift zitten. Veel mensen dat niet geupdate hebben in jaren, dat nu ineens meer gamen = ze willen snellere hardware = massa aankoop.

Maar eenmaal dat we uit deze periode komen, ga je veel mensen zien met 3000 series GPU's dat minder tijd hebben voor gaming en voor jaren niet gaan upgraden. De mensen dat altijd snel upgraden zijn vaak de uitzondering, niet de massa markt. En ja, 8GB gewoon DDR6 geheugen, is gewoon een schande. Wees zeker dat we een 550 a 580 Euro 3070TI gaan zien, met 12GB geheugen. Zodat mensen gaan twijfelen en toch maar dat beetje extra uitgeven want ... die heeft 50% meer geheugen he.

Als je lang genoeg in de PC markt ( eigenlijk veel markten ) zit, zie je hoe fabrikanten de producten melken / ruimte laten voor betere producten. De typische X is beter voor maar Y Euro meer.
Flauw dat ik gede-mod wordt. Mijn argument dat de 3070 voor de grote massa ook op langere termijn voldoende is, mits je niet alles perfect hoeft en voor de beleving gaat is toch een nuttig tegenargument op de post van Thys_ehv?

Edit: Dit bericht had een reactie op het bericht van Thys_ehv moeten zijn en niet op Wulfklaue.

[Reactie gewijzigd door ADN op 24 november 2020 12:33]

Zou ik niet zo durven zeggen, 1080 ti in midden 2017 gekocht, zal die vervangen door een 6800XT als die wat te koop zijn (dus verwacht midden volgend jaar) dan is die dus een 4 jaar en eigenlijk gaat die nog goed mee op 4k en gaat die gewoon in de PC voor de kinderen.
Het is ook maar net waar je tevreden mee bent. Ja, ik ben een boomer die nog de Commodore 64 spelletjes heeft gespeeld en blij was met die bewegende pixels, maar ik vind ook dat het tegenwoordig wel doorslaat. Mensen die roepen dat 5ms delay niet speelbaar is, alles moet op 4K met full textures, minimaal 144Hz, op OLED 65", etc ,etc. Tuurlijk: het is fantastisch mooi, maar doet iets minder af aan een goede beleving? Ik zelf zou over een paar jaar gerust een 3070 kopen, dan kan ik (meer dan) gewoon leuk gamen. Voor de mainstream is dit echt een ok product. Voor de niche die top notch wil misschien neit, maar daar zijn duurdere alternatieven voor beschikbaar.
Je trekt wel wat kort door de bocht conclusies. Bij de nieuwe generatie is het 16gb totaal, RAM en GPU geheugen hè, dan is er voor spellen nog minder beschikbaar want het OS heeft een stukkie nodig, dus reken op iets van 12 tot 13GB beschikbaar voor spellen voor RAM van het systeem en de GPU bij elkaar.

De meeste pc's hebben 8 tot 16gb nu voor de CPU alleen en dan is 8GB voor de GPU voor alleen GPU zaken helemaal zo gek nog niet. Ruim genoeg voor 4K met fatsoenlijke textures. De meeste moderne spellen krijgen 4GB net vol met gekke settings.
We spreken over 13GB toegankelijk voor games op de PS5, en 13.5GB op de XSX. De PS4 heeft 4.5GB, X1S en PS4 Pro 5GB. We spreken dus over meer dan een verdubbeling. Consoles zijn de baseline hier. Je kunt VRAM gebruik van moderne games die gemaakt zijn voor die consoles niet vergelijken met VRAM gebruik van toekomstige games die voor de PS5 and XSX gemaakt zijn.

Daarbovenop zijn er bepaalde game assets die op PC zowel in VRAM als het systeemgeheugen geplaatst worden. Wat de vergelijking met totaal beschikbaar geheugen niet volledig opgaat. De XSX heeft 10GB aan "GPU-geoptimaliseerd" geheugen die volledig beschikbaar is voor games, en 6GB aan "CPU-geoptimaliseerd" geheugen, waarvan 3.5GB beschikbaar is voor games.

Dat geeft ons een beeld dat games meer dan 8GB aan VRAM gaan vereisen om dat toestel te matchen. Laat staan om er meer uit te halen.

FFXV met 4k textures vereist al meer dan 10GB aan 1440p.

[Reactie gewijzigd door MGsubbie op 22 november 2020 20:13]

Allocatie is niet hetzelfde als gebruik. ffxv heeft geen 10gb nodig
Je kunt gelijk hebben, zal het eens testen op mijn 3080. Maar ik blijf bij mijn punt, 8GB gaat snel niet genoeg zijn voor 4k, zelfs misschien 1440p. Het idee dat dit enkel een 1440p kaart is, ga ik niet mee akkoord.
Ondanks dat er eerst geclaimed werd dat Godfall 12gb zou gebruiken (dit is alleen het geval met AMD fidelity FX enabled) is er op de hoogste texture settings maar 6gb nodig op 4K. Doom Eternal kan je tot rond de 10GB pushen maar dat is door middel dus het videogeheugen al vooraf vol te stoppen met textures. 8GB is echt genoeg voor 4K. Helemaal met Direct Storage API wat direct textures kan gaan streamen van SSD naar GPU zonder tussenkomst van de CPU.

Voor 4K is deze GPU gewoon niet voldoende qua GPU grunt zelf, Daarvoor meot je toch echt bij de 3080RTX/6800XT kijken. Moderne openworld titles draaien met net aan 60fps op de 3070, wat er aan gaat komen gaat dit echt niet makkelijker maken.

[Reactie gewijzigd door ZeroNine op 22 november 2020 20:45]

Nvidia doet wel vaker gekke dingen met geheugen; de 3,5 GB op de 980 en de 1060 TI op 3GB. Nu lijkt 6GB op dit moment wel genoeg maar als je serieus 4k gaat overwegen zou ik toch even achter mijn oren krabben over de hoeveelheid RAM van de 3070ti.
Als je de aankomende games op 4K wilt spelen zou ik investeren in een GPU welke daadwerkelijk de horsepower hiervoor heeft.

De 3.5gb van de 970 was in de tijd dat 4GB op de 980 de norm was.
Maar als je serieus 4k gaat overwegen koop je toch geen 3070ti?
Die kaart trekt het nu al amper, laat staan de games van volgend jaar.
Direct Storage komt ook naar Xbox, en PS5 heeft gelijkaardige technologie. Minder geheugen met gelijkaardige technologie betekent nog steeds minder geheugen beschikbaar voor games.
Dat is juist een goed iets, technologie wordt dus universeel gebruikt. De consoles hebben 16gb waarbij alles gedeeld is onderling. Dus zij hebben zo ongeveer dezelfde resources als de 3070. DIrect storage is jusit er om minder van het videogeheugen af te hangen dat alles in 1 keer ingeladen wordt maar dat dit in real time gestreamed kan worden van de SSD.
Naja, hij is volgens eigen zeggen krachtiger dan de 2080ti, wat volgens nvidia dè 4k kaart was... Twee jaar later is diezelfde rekenkracht schijnbaar nog maar voldoende voor 1440. Eén van de drie uitspraken is dus onzin.
Dat systeemeisen veranderen door de jaren heen lijkt mij een gegeven. Maar het is ook vrij open tot interpretatie. Vindt jij 30fps op 4K voldoende? Of wil jij ten allertijde minimaal 60fps? Wil jij je settings op low zetten of rond de high settings behouden?

Nvidia zegt tussen neus en lippen door altijd 4K op 60fps met high settings. De 2080TI kan dit bij veel moderne games steeds minder. De 3070 is in sommige games iets sneller, in andere iets langzamer. Maar het is geen 4K kaart.
Drie maanden geleden was het volgens nvidia nog de ultieme 4k kaart.
3 maanden geleden stond er nog gewoon de marketing zooi van 2 jaar terug op de frontpage. :D

Zou daar zelf niet teveel inlezen, benchmarks zeggen genoeg.
Ja leuk en aardig maar vertel je er dan ook bij dat die 3.5 gb bovenop de dedicated 10GB bijna de helft trager is?

En kom nou eens keer met echte voorbeelden in plaats van maar wat te roepen. FFXV vereist helemaal geen 10GB op 1440p. Komt amper boven 7GB uit. Quote:

"Our results show that FF XV will use a ton of VRAM in all tested scenarios, but this seems to be a performance optimization ("cram as much stuff into VRAM as possible") and not the game really requiring that much VRAM."

https://www.techpowerup.c...k-performance-test/4.html

Je ziet duidelijk geen enkel relatief verschil tussen de 1080ti en 1080 (11gb vs 8gb). Er is dus geen vram bottleneck. Zelfs op 4k + 4k texture pack zie je geen verschil.

Wanneer houden mensen nu eens op met allocation te verwarren met benodigd?
vertel je er dan ook bij dat die 3.5 gb bovenop de dedicated 10GB
Natuurlijk deed ik dat niet. Dat is irrelevant voor het argument, en spreekt voor zichzelf voor eenderwie die er naar keek. Je doet hier alsof ik het express weglaat om een argument proberen te krijgen.
Cyberpunkt 2077 raytracting ultra settings op 4k resolutie:

Resolution: 2160p
GFX settings: RT Ultra
OS: 64-bit Windows 10
Processor: Intel Core i7-6700 / AMD Ryzen 5 3600
Memory: 16 GB
GPU: RTX 3080
VRAM: 10 GB 8)7 bye bye nvidia rtx 3000 series, als je zo veel geld betaald voor een beeldkaart dan verwacht je wel alles op ultra te kunnen spelen en liefst nog wel enkele jaren. 8)7
Storage: 70 GB SSD

[Reactie gewijzigd door rubenmeyers op 23 november 2020 13:42]

Juist, sorry! Iets te snel van mij, ik heb dit aangepast nu. Thx!
De meeste moderne spellen krijgen 4GB net vol met gekke settings. klopt niet.

De meeste moderne spellen gebruiken al meer dan dat { het is al 6/8gb }
Dus hoe meer hoe beter!!!
Wat optimalisatie van console ports betreft, breekt er volgens mij wel een mooie tijd aan. Beide consoles zijn een semi custom soc van amd. Welke dan weer ryzen en rdna2 derivaten zijn. Neem daar bij dat de Xbox dan ook op een verkapte win10 draait. Dan zou het toch wel voordelig kunnen uitpakken. Voor ryzen/radeon bezitters. Tot zo ver mijn luidop denken. (Of hopen)
Ter info:
-het is niet zo dat je op 4K moet gamen om gebruik te maken van mooiere textures die maar ram kosten. De ultra textures pack van Rainbox Six Siege ziet er op full hd ook veel beter uit dan very high.
-het is even de vraag wanneer snel games meer dan 8GB gaan eisen voor hun ultra textures. Vanaf dat moment kun je dus niet langer zeggen dat je de beste textures gebruikt.
-het kiezen van hogere textures kost vaak geen performance, je game ziet er dus 'gratis' mooier uit
-het is niet reëel te denken dat je met dezelfde gpu na 4-5 jaar op een veel hogere resolutie gaat gamen, per definitie ga je dan immers performance tekort komen. Als een kaart nu het net niet is voor 4K dan is hij dat over 4-5 jaar zeker niet.

TLDR is die 8GB handig? Niet persé want meer ram maakt de kans groot dat je ook in de toekomst ultra textures kunt blijven gebruiken. Dat er nu voor 8GB is gekozen kan ik wel begrijpen. Als je meer geheugen chips wil plaatsen heb je normaal gesproken meer geheugen controllers nodig. Dit geeft een bredere bus en dat is slecht voor je stroom verbruik. Het alternatief is de hoeveelheid ram verdubbelen maar voor 16GB is het nog wat vroeg. In een wereld zonder AMD Radeon had er vermoedelijk geen haan naar gekraaid.

[Reactie gewijzigd door sdk1985 op 23 november 2020 02:07]

Zelfs op 4k is voor de meeste games 8gb voldoende. Je kan immers niet alle settings.omhoog gooien .
Ik denk dat je dan de 3080 en 3090 gemist hebt :) die trekken 4K aardig, ook 4K60+
? Het gaat hier over de AMD 6700. 3080 heeft 10GB genoeg geheugen en GOU voor 4K zelfs met hoogste settings.
In de huidige games...
Nu er snellere kaarten zijn, neem ik aan dat de ontwikkelaars de lat wat hoger gaan leggen en de framerates naar beneden gaan.
Ja de huidige games, daar reken je niet bij dat een kaart in dit segment toch makkelijk 4 jaar mee moeten kunnen gaan. Met Raytracing en andere functies is 8Gb op 4k helemaal niet voldoende. Staat genoeg op internet waarbij men met 4k en raytracing voorbij de 8gb gaat. En dan zijn nog maar de huidige games.

Hieronder heb ik het ook al gezegd, maar Nvidia positioneert deze kaarten niet alleen als gaming kaarten: GeForce RTX™ 30-serie GPU's bieden de ultieme prestaties voor gamers en creators. Dit staat er op hun site.

https://videocardz.com/ne...textures-at-4k-resolution

[Reactie gewijzigd door Andyk125 op 23 november 2020 10:30]

heeft niet te beteken dat hun/site gelijk hebben of wel?
hoe vaak beweren zij iets en dat ltrs er geen reet van klopt?
Dit is over de 3070. In nieuwe games zoals control haalt die in 4K een 40fps, en dat is niet door te weinig RAM een raedon VII met 16GB haalt 25fps in 4k. MS flightsimulator 30fps.

Ja wat oudere of minder zware games draaien tegen 50-80 fps in 4k maar dat is het punt wat velen hier missen: dat deze minder geheugen heeft maakt voor games niet uit omdat tegen de tijd dat je tegen de limiet van geheugen aanloopt je al lang met een bottleneck zit in de kracht van de gpu zelf. Dus denken dat je over 4 jaar deze kan gebruiken om in 4k de meest nieuwe games te spelen is irrationeel. Die heeft nu al moeite met de meest zware nieuwe games en dat zal enkel verslechteren en dat heeft weinig te maken met het geheugen .
Geheugen zegt ook verre van alles, helemaal niet voor puur de snelheid. Maar men vergeet dat wanneer men meer geheugen tot zijn beschikking heeft dat de grafische kaarten meer mogelijkheden heeft om taken anders uit te voeren. Mits de engine en de grafische kaart dat toelaten.

Of een game nu maar 8Gb of 6Gb nodig heeft, men heeft een bepaalde buffer nodig. Die buffer is interessant vooral als men met hogere framerates wil spelen. Niet elke frame en elk punt in een game is even zwaar. Met raytracing (dynamic Lighting), hogere resolutie textures, effecten, maar ook de animaties zal men graag meer geheugen tot hun beschikking hebben.

Nog afgezien van de mensen die de kaarten wel gebruiken voor content creation, zoals renderen, 3d modeleren, videobewerking en andere taken.

Daarbij mag ik toch hopen dat men toch makkelijk een kaart van €700,- 4 jaar lang kan gebruiken, misschien niet op de hoogste instellingen maar dat betekend niet dat zo'n kaart meteen onbruikbaar is. Reken daarbij hoeveel geld ram deze dagen kost en dan is het toch belachelijk dat men kaarten voor zoveel geld nog steeds maar 8gb geeft. Dit doet men al de laatste 3 generaties voor de xx70 serie van Nvidia, vanaf de GTX 1070.

[Reactie gewijzigd door Andyk125 op 23 november 2020 10:55]

Wel de prijs nu is door schaarste niet de normale prijs. Dacht dat die 500 euro was normaal, daarvoor heb je vergelijkbare prestaties met een 2080 ti zelfs met DXR/DLSS aan .
Dat je dan verwacht dat je deze kaart met de nieuwste/zwaartse games op 4k met alles ultra en aan jaren kan gebruiken is gewoon irrationeel. Dat ging niet met een 2070 ook niet met een 1070 ,... . En nogmaals dat heeft niks met geheugen te maken.

Daar zal je toch echt naar een 3080 of 6800XT moeten gaan, kaarten die 700+euro kosten.

Beste bewijs is de 6800 :
https://www.techpowerup.c...md-radeon-rx-6800/12.html
Gelijkaardige fps/verschillen als de 3070 zelfs met dubbel zoveel geheugen. Toont aan dat de 16GB geheugen helemaal niet uitmaakt daar. OOk de 6800 met 16GB VRAM zal niet de nieuweste zwaarste games volgend jaar tegen 4k alles ultra aankunnen. Control draait daar ook een 35-40 fps zoals de 3070 in 4k.
Die 519 euro is een adviesprijs van de FE van Nvidia zelf, de meeste partners zitten daar al makkelijk €50-€80,- boven. Maar op dit moment zijn de kaarten gewoon €700,- + en waar dit nu mee te maken heeft maakt weinig uit, dit zijn nu eenmaal de huidige prijzen. Daarbij zijn de RTX 3070 wel te koop met paar dagen levertijd en die kosten op dit moment gewoon meer dan €800,-.

Men heeft gezegd dat de tekorten nog wel paar maanden aanhouden dus ik zie de prijzen ook nog niet zo snel dalen. Ook de AMD kaarten zijn niet verkrijgbaar.

Ik weet niet at je met je bewijs wilt aantonen, maar de game is totaal niet geoptimaliseerd voor AMD's raytracing en dan kun je net zo goed appels met peren gaan vergelijken. Nee op dit moment zegt de hoeveelheid geheugen inderdaad niets en Nvidia heeft op gebied van Raytracing nu eenmaal een grote voorsprong. Maar er is meer dan alleen gamen en raytracing, waar men wel gewoon optimaal gebruik kan maken van de hoeveelheid Vram, zoals bijv. renderen.
Dit is hetzelfde verhaal tussen Intel en AMD processoren. Games en bepaalde software maken nog steeds niet optimaal gebruik van een hoge core count en dit is de enige reden dat Intel nog steeds relevant was. Want afgezien van games en bepaalde software zijn de Intel processoren al jaren niet meer competitief. Uiteindelijk hebben hardware specificaties weinig zin, als de software er niet voor geschikt is of geoptimaliseerd is.
Nee de 3060 krijgt gewoon weer netjes 6gb 😂.
Dit is wel de opmerking van het jaar, een grafische kaart van meer dan €700,- en dan moet men zich de komende jaren richten op 1440p resoluties. Sorry maar ik hoop toch dat dit een grap is.

Uiteindelijk zegt de hoeveelheid geheugen niet meteen iets over de snelheid van een kaart, maar voor high end en mid-range kaarten waarbij men toch zeker 3 tot 4 jaar dezelfde kaart wil gaan gebruiken is 8Gb gewoon karig. Er zijn nu al games die makkelijk 8GB vragen wanneer men de instellingen op maximaal zet, dus dit zak in de toekomst alleen maar meer zijn. Daarbij is het gewoon een goedkope zet van Nvidia om de 3070 maar uit te voeren met 8GB geheugen. Niet voor niets zijn er al genoeg geruchten dat men met kaarten uitkomt die meer geheugen hebben. Gelukkig door AMD, die niet zo gierig is met het geheugen.
Er zijn nu al games die makkelijk 8GB vragen wanneer men de instellingen op maximaal zet
Je verwart gereserveerd met gebruikt.
Waaruit blijkt dat er dat gereserveerd wordt dan?

https://www.techpowerup.c...to-18-5gb-of-video-memory
Lees ook even de reacties dan… Speciale aandacht voor https://www.techpowerup.com/forums/posts/4111162
Lees ook hier even de reacties… (en wccftech is sowieso een clickbait nonsense site).

|:(
https://videocardz.com/ne...textures-at-4k-resolution

Ook andere sites posten het en het wordt toch door de ontwikkelaar zelf gezegd in de video, misschien moet je die eerst eens kijken. Ik vertrouw zo'n ontwikkelaar eerder dan iemand die wat roept op een forum. De ontwikkelaar ontwikkeld de game voor multiplatform

Heb je de reacties uiteindelijk zelf wel gelezen?

Daarbij komen er nieuwe games uit met nieuwe technieken, betere animaties, hogere textures en dit zal allemaal meer geheugen kosten. Ja de kaarten van Nvidia zullen ook met die 8Gb werken, maar wil je native 4k draaien in de toekomst dan zal je door die 8gb uiteindelijk beperkt worden. Ik koop in ieder geval geen grafische kaart van €700,- en kan binnen 1 jaar al verwachten dat de resolutie lager moet of de instellingen omdat men beknibbelt op 2 of 4gb vram.
Eerste reactie in jouw link:
Im sorry but this article is borderline misinformation.

Here is a guy that runs this game on above Ultra settings on EPIC, including textures, it Allocates 7GB and uses 4GB
Verdere reacties bevestigen dit met meerde tests, de linkjes staan erbij.

Kunnen we aub stoppen met deze onzin?
Niet altijd. Dat ligt aan het ontwerp van de engine. Vooral de wat oudere engines kunnen niet altijd goed overweg met VRAM en stapelen meer op.
Totale onzin. Je verwart wellicht gereserveerd geheugen met gebruikt geheugen, maar 8GB is 100% meer dan voldoende op 1440p.
Eh, nee. Ik verwar dat niet, of begrijp je niet wat de term 'VRAM' inhoudt? Misschien speel jij games waar dat genoeg is, maar voor mij is dat anders. Ik heb maar al te graag 16GB VRAM. Er zijn genoeg games / simulators die met gemak over de 8GB heen gaan met 1440p.

[Reactie gewijzigd door Luxicon op 23 november 2020 00:24]

Wat een domme logica. Er zijn verschillende redenen waarom sommige kaarten meer geheugen hebben, waarvan de belangrijkste twee marketing en prosumer workloads (cad, video productie, etc) zijn.

Games hebben het niet nodig, en het nut van pre-cachen van textures die mogelijk nodig gaan zijn is zeer beperkt gezien de snelheid waarmee ze on demand geladen kunnen worden.

Op 4k wordt dat voordeel in veel gevallen een stukje groter dus dan begint het argument langzaam aan steek te houden. Niet op 1440p.

De reviews/tests van de 3080 maken dit overigens ook vrij duidelijk. Maar geloof vooral wat je wilt :+
Zoals rFactor 2, Train Sim World en evt. Flight Simulator 2020. Ik denk dat de lijst langer wordt door bijvoorbeeld 60 auto's op de baan te plaatsen met Assetto Corsa Competizione. Of wanneer je de aliasing / sampling mogelijkheden opschroeft. Of bijvoorbeeld met Cities: Skylines met extra assets (mods). De reviews laten vooral mainstream games zien (multi platform), doorgaande games, niet echt games die PC exclusive zijn, of erg PC gericht.
Zelfs MSFS, de meest vram-hongerige game voor zover ik weet, trekt op 1440p 'slechts' zo'n 6-7 GB max en op 4k 7-8 GB max.
Flight Simulator kan op 4k in sommige gebieden veel meer trekken dan 8GB, namelijk over de 17GB
Dus Nee 8GB is niet voldoende voor alle situaties

https://www.youtube.com/w...IFIQio&ab_channel=SliM420

En ik zelf zou ook graag een buffer willen hebben voor games met Mods, daarin kan het ook erg hoog oplopen

[Reactie gewijzigd door Sinester op 23 november 2020 10:15]

Als iedereen dat geloofd, dan is het makkelijk om niet te innoveren, maar niet iedereen is op zijn achterhoofd gevallen. De 1080 had ook al 8GB VRAM. Ik kan je garanderen dat met bijvoorbeeld rFactor 2 de frames droppen, op het moment het maximaal aantal VRAM van de kaart wordt gebruikt (het aantal dat Rivatuner aangeeft, in jouw woorden 'allocated').

Er zijn mensen die met de 3070 nauwelijks winst hebben t.o.v. van de 2060, omdat het VRAM rFactor 2 limiteert. rFactor is een extreem voorbeeld, maar dit soort mogelijkheden bestaan, vooral met oudere engines en simulators.

(indien de resolutie omhoog gaat, zullen de VRAM gevoelige settings omlaag moeten, anders dropt de fps)
rFactor 2 @ 720p met hoge settings (niet maximale AA)
https://www.youtube.com/watch?v=cpJX1KEbW_U
VRAM = ~6,3GB

Daarnaast begon deze discussie over voorkeur, en ik kies bewust voor meer dan 8GB VRAM, omdat de games / simulators die ik gebruik daar behoefte aan hebben. Hoe dan ook zul je met 8GB de limiet op gaan zoeken, de komende jaren alleen maar meer.

[Reactie gewijzigd door Luxicon op 23 november 2020 11:13]

Een minuutje googlen leert mij dat bepaalde tracks in rFactor 2 extreem slecht geoptimaliseerd zijn voor VRAM. Tja, als dat al een argument is, dan kan ik ook een game maken die 100GB VRAM nodig heeft en dan gaan klagen dat GPU's geen 100GB VRAM bieden. Beetje raar standpunt.

En zoals je zelf al zegt, het is een extreem voorbeeld.

Prima als jij er vanwege een specifiek slecht geoptimaliseerd spel voor kiest een kaart met meer VRAM te kopen, maar realistisch gezien is 8 GB voor 1440p ruim voldoende — ook voor nieuwe, hongerige games als MSFS — de data wijst dit ruimschoots uit.

Je had het over "oudere engines" en " genoeg games / simulators die met gemak over de 8GB heen gaan met 1440p" maar uiteindelijk blijkt dus dat je argument neerkomt op één slecht geoptimaliseerd spel.
Ah, dat verklaard waarom bij mij Skyrim met veel mods 6gb kan volmaken. (Op 1440p)
Ik vond die 24 gb geheugen op het topsegment van nvidia ook al overdreven veel geheugen.
Maar misschien wel van pas komt bij revit of autocad.Maar daarbij komt ook nog dat als je een spel hebt wat veel geheugen vreet dat het misschien wel 10 of 11 gb gebruikt,maar volgens mij moeten die spellen nog uitgevonden worden.
Wat wel weer waar is dat die textures onwijs groter worden met de jaren.

Ikzelf zit nu met een nieuw systeem en ben aan het grasduinen wat voor een videokaart ik zal kopen.
Ik zat te denken aan de 1080 van 11 gb van nvidia.En zelfs nu nog nvidia 2generaties nieuwere videokaarten hebben uitgebracht durven ze daar nog zeker 800 euro voor te vragen.Tenminste als je ze kan vinden op de webshop.
die 24gb is om 8K textures te kunnen draaien. Er zit een groot verschil in een game in 8k draaien en een game in 8k met 8k textures draaien dat vraagt gewoon veel meer geheugen.

https://www.techpowerup.c...to-18-5gb-of-video-memory
Inderdaad en tegen de tijd dat 12GB benut wordt is de kaart mogelijk al zwaar achterhaalt en trekt het niet meer, dit hebben we in verleden al vaker gezien, kaarten met veel geheugen waren uiteindelijk niks beter.

Zelfde gevalletje stop 64GB ram in je pc omdat je denkt dat het beter is voor gaming.

[Reactie gewijzigd door mr_evil08 op 22 november 2020 17:53]

nee maar 64GB is wel fijn als je dingen zoals android studio draait met AVD :'( :P

[Reactie gewijzigd door dakka op 22 november 2020 18:46]

Deze videokaarten zijn bedoelt voor de game markt. ;-)
geen pro software.
ik had het over RAM :3
Wie zegt dat deze videokaarten alleen maar zijn voor de game markt? Op de site van Nvidia zelf: GeForce RTX™ 30-serie GPU's bieden de ultieme prestaties voor gamers en creators

Misschien dat je niet weet wat creators betekend, maar dit is wel software waarmee men kan renderen, modeleren, video's bewerken en ga zo maar door. Van de Nvidia site weer:
Of je nu complexe 3D-scènes rendert, 8K-video's bewerkt of livestreamt met de beste codering en beeldkwaliteit, GeForce RTX GPU's bieden je de prestaties om je beste werk te leveren.
Ok dat is nieuw vroeger was het altijd de Quadro lijn specifiek voor zakelijke toepassingen.

[Reactie gewijzigd door mr_evil08 op 23 november 2020 14:22]

Dat is nog steeds het geval, maar ook voor zakelijke toepassingen worden al jaren lang de "gaming" type videokaarten gebruikt. De Quadro lijn onderscheid zich (naast het geheugen etc.) echter in het feit dat deze kaarten in combinatie met de software uitvoerig getest zijn voor specifieke toepassingen en daarvoor een certificering krijgen. Ook is de ondersteuning en service voor deze kaarten heel anders. Maar daar betaal je dan ook voor, wat voor grote bedrijven makkelijk kan, maar voor de MKB is dit wel anders.
Volgens mij zijn er toch aardig wat titels die die ook goed kan draaien op 4k?
Monster Hunter World met de officiële HD texture pack en op 4K kan al over de 8GB gaan...
Vind het ook vrij mager voor een kaart die meer dan 600 kost. Vooral gezien er in 2014 al kaarten met evenveel geheugen te koop waren voor rond de 500.
Terwijl dat pack zonder enige problemen draait op mijn 4GB kaart. Nu maakt HBM mogelijk een verschil maar met zulke getallen moet je voorzichtig zijn.
Dat iets draait betekend niet dat het goed draait.

Ik weet niet welke kaart jij met dat spel gebruikt, maar een mooi voorbeeld was Doom Eternal op 4K met max textures, de 3080 haalde lagere framerate dan het zou moeten omdat VRAM verbruik hoger was dan de beschikbare VRAM.

En ja er zijn games die extra VRAM gebruiken omdat dat beschikbaar is en niet perce nodig, in dat geval zal minder VRAM geen of weinig invloed hebben, omdat het spel meer in de VRAM inlaadt omdat het kan.

Maar met games zoals Doom Eternal (max textures op 4k) of MHW met texture pack (die ook aan staat) is dat een ander verhaal, ik heb die texture pack voor de lol op mijn laptop aangezet (die 6gb vram heeft wat niet genoeg was) en ik kreeg gewoon vaker framedrops, terwijl puur en alleen die pack uitschakelen en verder exact diezelfde settings mij die drops niet gaf.

Meanwhile op mijn PC (8gb vram) heb ik ruim voldoende VRAM, en daar maakt het niks uit voor de performance of die pack aan staat of niet, behalve hoger VRAM gebruik.

Dit zal per game variëren, maar er zijn steeds meer games die meer VRAM gebruiken omdat ze deze ook nodig hebben, en dit is vooral een opkomende issue als je op 4K gaat gamen.

ik zelf zal daar nog lang geen problemen mee ervaren, 1440p is zat voor mij

[Reactie gewijzigd door Mizgala28 op 23 november 2020 00:52]

Ik ga je niet weerspreken, daar heb je namelijk gewoon gelijk in. Echter wilde ik wel aangeven dat je je niet moet verkijken op wat tools en games zelf aangeven qua verbruik en wat het werkelijke gebruik is. Waarom ik daarvoor op 0 - Off Topic wordt gezet snap ik ook niet maar geeft aan dat er meer mensen zijn die dat feit zelf ook niet snappen.

Voor je eigen interesse, het betreft hier wel een kaart met 4GB HBM geheugen wat evenveel bandbreedte heeft (512GB/s) als de aanstaande 6800 range, wellicht speelt dat ook een rol. Feit is dat ik geen performance impact hebt gemerkt, dus zo zwart-wit als je het zelf stelt is het niet. Let wel, dit betrof geen 4K resolutie maar 1080p. Hoger was destijds sowieso onspeelbaar, ook zonder het texture pack.
Zelf denk ik dat HBM geheugen wel enige rol kan spelen, maar je blijft wel constant in en uit laden van iets dat er gewoon niet in past, misschien dat met HBM de performance verlies lager is maar die zal wel ergens alsnog moeten wezen.

Ik heb alleen geen HBM kaart beschikbaar hier dus ik kan dat moeilijk testen, maar daarom ontkracht ik niet dat HBM eventueel minder performance verlies oplevert ondanks dat je buiten je VRAM limiet gaat, al zat dit per game verschillen wat voor invloed dit op de performance heeft.
Als je op 4K wil speoen, moet je sowieso de 3070 laten liggen.
Op 1440p gaat het prima.
Dan zit je met een 3080 of 3090 met 10GB, met wat uitgebreide textures haal je dat makkelijk.
Zelf twijfel ik daarover, dit omdat ik 1440*6000 heb verdeeld over 2 monitors
Op 1440p redt mijn RTX 2070 Super dat nog wel, maar inderdaad op 4K niet.

en de 6gb van mijn 1660 ti red dat weer niet, en dat op 1080p

Men kan roepen dat 8gb of 10gb vram genoeg is, en er zijn zat games die zelfs op 4k daar genoeg aan hebben.

Maar als er nu al games zijn die op 4K niet genoeg hebben aan 8gb of 10gb vram, en dat op kaarten die voor 4k gaming bedoelt zijn... dat wordt alleen maar een groter probleem in de toekomst.

Voor 1440p en 1080p valt veel minder te vrezen, 6gb a 8gb is zat voor 1080p en 8gb is voldoende voor 1440p (ook met MHW icm met high res texture pack).

Maar de RTX 3070 of 3080 zijn reinste geldverspilling voor 1080p gaming, en zelfs op 1440p haal je hele hoge framerates.

Het is een licht zooitje in mijn ogen geworden, ik denk ook daarom dat AMD het wat slimmer heeft aangepakt qua VRAM.
De 2070 Super red het niet op 4K omdat de GPU zelf gewoon niet de spierballen heeft (gebruikt eoverigens een 2070Super voor 4 maanden als stopgap kaart tot de 3080RTX). Dat heeft niks met Vram te maken,

Mensen blijven geheugen allocatie verwarren met verbruik. Op at oude niet geoptimaliseerde games na is er nu geen enkele geoptimaliseerde game welke de 8gb overstijgt, zelfs Godfall niet op 4K waarbij AMD claimde dat deze 12gb verbruikte (blijkt 6gb in praktijk te zijn) en dat is een game gemaakt voor de PS5 oa.

Vram heeft naast capaciteit ook bandwidth nodig om snel genoeg volgestopt te kunnen worden maar ook snel genoeg uitgelezen te kunnen worden. Genoeg budget kaarten die relatief veel vram hebben maar er niks mee kunnen omdat de GPU niet snel genoeg is.
Volgens mij heb je verkeerd gelezen/begrepen wat ik zei.

Om mijzelf even te quoten:
Op 1440p redt mijn RTX 2070 Super dat nog wel, maar inderdaad op 4K niet.
= qua VRAM gebruik, ik doelde dus helemaal niet erop of de kaart zelf 4K gaming aankan, ik doelde puur op VRAM verbruik zelf, dus was dit een RTX 3070 dan zou ik exact hetzelfde hebben gezegd.

Daarnaast mijn comment heeft niks te maken met geheugen allocatie maar met het werkelijke VRAM gebruik, er zijn al games die meer dan 8GB nodig hebben op 4K.

Ik heb zelfs nog het volgende gezegd in een andere comment van mij:
En ja er zijn games die extra VRAM gebruiken omdat dat beschikbaar is en niet perce nodig, in dat geval zal minder VRAM geen of weinig invloed hebben, omdat het spel meer in de VRAM inlaadt omdat het kan.
Dit soort games bedoel ik dus niet omdat ik weet dat ze meer inladen omdat er meer beschikbaar is.

Again, ik doelde op games die meer gebruiken omdat ze dat ook nodig hebben, en met minder eventueel performance verlies zullen lijden (zoals MHW + texture pack of Doom Eternal)

Maar dit is alleen van toepassing op 4k, als je daaronder qua resolutie zit is er niks aan de hand.

[Reactie gewijzigd door Mizgala28 op 24 november 2020 01:32]

Daarnaast mijn comment heeft niks te maken met geheugen allocatie maar met het werkelijke VRAM gebruik, er zijn al games die meer dan 8GB nodig hebben op 4K.
Again, ik doelde op games die meer gebruiken omdat ze dat ook nodig hebben, en met minder eventueel performance verlies zullen lijden (zoals MHW + texture pack of Doom Eternal)
Je haal later zelf Doom Eternal aan, ook dat is een vorm van allocatie en niet een indicatie van texture kwaliteit wat het geheugen vult.
Als het puur allocatie was had je geen performance verlies met minder VRAM.
Klopt, alleen Doom eternal doet gewoon iets raars ermee terwijl het helemaal niet scheelt in texture kwaliteit. Zij hebben dit ook misbruikt tijdens de vergelijking tussen de 2080RTX en 3080RTX om zo het verbruikt tegen de 10GB te tillen terwijl dit helemaal niet nodig was en zo de vergelijking tussen generaties te versterken (dus niet texture quality maar de texture pool size te vergroten).

[Reactie gewijzigd door ZeroNine op 26 november 2020 17:58]

Omdat 8GB gewoon genoeg is in meeste cases. Vooral voor 3070 waar denk favoriete resolutie 1440 zal zijn.
Sorry, maar het is wel een kaart die net zo snel, danwel sneller is dan een 2080ti. En die 2080ti is ook verkocht voor 4K gaming. Dan klopt de marketing boodschap van Nvidia gewoon niet meer: “deze kaart is sneller dan ons vorige topmodel die we wij geschikt vonden voor 4K. Deze kaart is echter niet meer voor 4K, maar 1440p.”
2080ti was okay voor 4K 2 jaar geleden. Nu niet zo meer.
Terwijl hij drie maanden geleden toch nog als "ultieme 4k kaart" verkocht werd... :?
Pixels worden duurder. Resolutie is maar een van de factoren en over de jaren heen neemt de rekenkracht per pixel in spellen toe. Niemand wil dat nieuwe spellen Quake 1 graphics op 8k hebben, ook al zou dat met een 3070 waarschijnlijk prima mogelijk zijn.
Precies hetzelfde riep men 6 jaar geleden al over de GTX 970 omdat AMD toen begon met de marketingstrategie van overkill aan VRAM leveren op hun videokaarten als verkoopargument.. Een R390 met 8GB tegenover een GTX 970 met 4GB (zelfs slechts 3.5GB snel geheugen).. Die 4GB was echt veel te weinig, blablabla.. En zie nu 6 jaar later: https://www.youtube.com/watch?v=Zr9JYo8Qss8

Niks aan de hand dus net als met de generaties daarna, en toch weer hetzelfde verhaal nu over de RTX 3070 en 3080.. :O

Enige redelijk recente GPU die echt duidelijk gelimiteerd werd door gebrek aan VRAM op een gegeven moment was ironisch genoeg een AMD.. De Fury-X.. 8)7

[Reactie gewijzigd door Inflatable op 22 november 2020 20:00]

970 was 1080p gaming en ja toen zijn we eerst 1440P en nu 4K. Ik zie de markt echt niet op 16K zitten over een jaar of 5, geen reden wegens compleet overkill. Zelfs 8k is bedenkelijk voor gaming.

Voor 4K is 10-12GB genoeg.
Gamen op 3840x2160 (4K) is nog steeds een niche markt van slechts een paar % op de PC omdat 4K monitoren met meer dan 60Hz nog steeds behoorlijk duur zijn.. Dat gaat de komende jaren waarschijnlijk niet heel snel veranderen.. Ik denk dat je eerst een verschuiving gaat zien van 1080p naar 1440p, omdat 2560x1440 hoge refreshrate gaming monitoren sinds kort wel redelijk betaalbaar zijn geworden.. Ook dat heeft 5 jaar geduurd, want ik weet nog dat ik als een van de eersten in 2015 een 27" 1440p scherm kocht met 144Hz voor ruim 700 euro (Acer XB270HU)..
Maar wel toegang tot DirectStorage, dus als je de kaart combineert met een snelle SSD, dan kun je met minder geheugen toe. Assets kun je in dat geval laden wanneer ze nodig zijn, waardoor je potentieel een stuk minder geheugen nodig hebt.
12GB op een videokaart, wat vliegt de tijd.
Ik was 22 jaar geleden blij met een videokaart met 12MB! https://en.wikipedia.org/wiki/Voodoo2 Maar liefst 1200 gulden voor betaald.
fifa 97 zag er wel geweldig uit
Man, die hele Voodootijdperk incl. Unreal was gewoon unreal. Wat heb ik mij toentertijd zitten vergapen aan de graphics. Tegenwoordig vind ik qua graphics het maar so so, al is raytracing een aardige toevoeging. Het verschil tussen een 2080 en 3090 is vooral te zien in fps, maar zet je beide schermen naast elkaar moet je toch verdomd goed kijken wat nu het verschil is.

Nee, de stap van pixels tellen naar Voodoo graphics was toen huge te noemen.
Weet niet hoeveel shaders de 6700 krijgt?
Hopemijk gewoon 40 en 192 bit met hele hoge clocks.
Anders gaan deze kaarten de 5700 niet eens voorbij die 40 cu heeft met 256 bit en tot 1900+ mhz kunnen gaan. Ok officiele 5700 heeft lagere clocks. Mijne xfx thic loopt wel lekker op 1905 mhz voor the gpu, heerlijk.
Dus navi 22 heeft al minder bits, 192 vs 256 bit.
Voordeel is hogere clocks.
Dus mag niet minder cu worden.
Ze moeten zeker sneller zijn dan de 5700( xt ).
Je vergeet Infinity Cache. Daarmee zijn ze dus niet direct vergelijkbaar...
Was er niet een gerucht dat de 6700 een kleiner Infinity cache gaat krijgen dat de 6800 kaarten?
Dan is het nog maar wachten wat flink minder CUs, kleinere geheugen bus en kleinere infinity cache met de performance gaan doen.

Want meer geheugen is leuk, maar dan moet er ook de power aanwezig zijn om er iets mee te doen
Oh ja groot gelijk.
Ff vergeten. Want die infinity cashe geeft die kaarten echt een dikke performance boost.

Thanks for the correction.
Plus RNA2 heeft ook een betere IPC, dus verwacht dat deze ongeveer op nivo van RTX2080 zal zitten (6700xt)
Ik las op het inet rond de RTX2080 super. Als dat waar zou zijn.. :Y)
Dan word ie goeie concurent voor de 3060ti.
rdna2 heeft meer dan 50% betere performance per watt.
ze geven 150 watt op voor de 6700.
150 watt keer 1.5= 225 watt

Dus als het goed is is de 6700 evensnel als een 5700 op 225 watt.
Een stock 5700 gebruikt 180 watt.

Dus volgens deze berekening zou een stock 6700 een aardig stukje sneller moeten zijn dan een stock 5700, en met minder stroomverbruik.
een 5700 op 225 watt wordt soms ook wel een licht over-geklokte 5700xt genoemd.
Door wie? 225 watt is de stock wattage van een 5700xt, een licht overclockte 5700xt zal dan dus meer dan 225 watt gebruiken. Een 5700 op 225 noem je een stevig overgeclockte 5700. Een licht overgeclockte 5700xt gaat makkelijk over de 250 watt.
Ik had om de een of andere reden 220W in mijn hoofd voor stock. I stand corrected ^_^
Ja komt denk ik omdat dat de stock watt van de 5700xt is, ik was ook verbaasd toen ik zag dat de 5700 stock wattage zoveel lager is. Zal ook komen door de stock lagere clocks van de 5700, op 5700xt clockspeeds zit je denk ik al gauw op de 200 watt.
Komt AMD met een concurrent voor de 1660 super?

Een 6GB of 8GB kaart dat iets krachtiger is dan de 1660 super met 125W TDP voor rond de 250 euro
Navi 23 6500 XT met 128-bit bus, 8GB GDDR6 en 64MB Infinity Cache, 32CU, 125 TDP.

Daar wordt over gespeculeerd, maar het zou me niets verbazen als bovenstaande specs uiteindelijk kloppen.
Dat zal zeker wel.
Deze 6700 geven ze 150 watt voor op, dus ik zie zeker ruimte voor een 6600 met een tdp van rond de 120 watt, zal denk ik wel een stuk sneller zijn dan de 1660 super ook. Nvidia zal ook nog wel komen met een 3060, want die 1660 super zal het niet redden tegen een eventuele rx6600.
Hier zit ik op te wachten, de RX 6700XT zal de vervanger worden van mijn RX 580. Denk dat dit de ideale kaart is om 1440p high/ultra te kunnen spelen komende 2-3 jaar.

Iedereen mag vechten om de >500 euro kaarten, die zijn voor de gemiddelde pc gamer buiten bereik en meestal ook overkill. Hopelijk zal de beschikbaarheid van deze kaarten in januari/februari wel in orde zijn.
Vervanger van de 580? Dat denk ik niet aangezien ik een prijskaartje van 350-400€ verwacht terwijl de 580 voor 200€ te krijgen was. Een kaart die dubbel zo veel kost zou ik niet echt een vervanger noemen.

Best gek als je er over nadenkt: 4 jaar later betaal je dubbel zo veel voor een verdubbeling van de prestaties.

Denk dat je toch wel een 3080/6800xt nodig gaat hebben voor 1440p 60fps ultra binnen 1 à 2 jaar wanneer het gedaan is met de cross gen games.
? 3080 zal zonder problemen 4k aankunnen hoor.

[Reactie gewijzigd door k995 op 22 november 2020 22:16]

Kan het toch alsnog een vervanging noemen ook al is het een kaart van een ander kaliber, het is nog steeds de vervanger van zijn vorige kaart, of ze nou gelijkwaardig zijn of niet.
Dat de prijsklasse van een RX 6700XT hoger dan de RX 580 is me helemaal duidelijk.

Dit jaar ben ik van een 1080p naar 1440p monitor geswitched dan heb ik ook een meer krachtige gpu nodig om nog mee te kunnen. Een vervanger kwa prijs zal de 6700XT dan ook niet zijn.

Zelf vind ik het totaal niet erg om hier en daar een setting een tandje omlaag te zetten zodat ik toch de 60fps haal.

De nieuwe consoles zullen er zeker voor zorgen dat je een 6800(XT) nodig hebt om ze op hoge framerate en 4K bij te benen.

Maar voor 1440p hoop/denk ik dat de 6700XT meer dan genoeg zal zijn voor 2-3 jaar..... De gpu's van de PS5 en Series X zullen ook niet sneller worden waardoor de achterstand groter zal worden.
Ik hoop dat deze kaarten SR-IOV gaan ondersteunen zodat je hem mooi kan gebruiken met Proxmox in verschillende VM's zonder bijvoorbeeld 2 of 3 GPU's steeds te moeten passthrough'en...Maar die kans acht ik laag :/

In ieder geval wel gaaf leuk dat ze 12GB VRAM krijgen en zo een lage verbruik zouden hebben, we zullen zien wat de prestaties echt zijn binnenkort, maar een leuk vooruitzicht.
Btw, een handig weetje, AI Dungeon heeft 12GB VRAM nodig om native aan jou kant te draaien met goede snelheid, alleen kan dit helaas niet met AMD omdat je CUDA nodig hebt....

Ik hoop daarnaast ook dat die AMD Link streaming app open wordt gemaakt voor mensen om te porten naar Windows, Linux, OSX, Raspberry Pi, etc in plaats van alleen Android en IOS, dat er een oplossing aan AMD's kant is die gelijk is aan Moonlight en Nvidia Gamestream of Sunshine, wat zelfs bestaat op de Nintendo Switch in de homebrew scene.

[Reactie gewijzigd door TweetCu op 22 november 2020 17:56]

Ik hoop dat deze kaarten SR-IOV gaan ondersteunen zodat je hem mooi kan gebruiken met Proxmox in verschillende VM's zonder bijvoorbeeld 2 of 3 GPU's steeds te moeten passthrough'en
Yup, hebben een zeer goeie ondersteuning op linux: https://www.youtube.com/watch?v=ykiU49gTNak
Cool, dat werd wel eens vet tijd, ik weet dat de 3000 series SR-IOV goed ondersteunden, maar dat Nvidia dit in de driver en firmware uitschakelde :(.

Goed dat ik even wachte voordat ik een nieuwe kaart kocht, om te kijken of er bugs en fouten gevonden werden, of dat er plots een nieuwe betere revisie van de hardware uit komt, want het is chaos in GPU land :+.
Blijkbaar geen Out of the box support voor SR-IOV, passthrough werkt wel

[Reactie gewijzigd door graverobber2 op 22 november 2020 19:11]

Ik hoop dat de beiden één PCIe 6pins krijgen. Waarschijnlijk zal het toch 8pins zijn, omdat 75Watt vanuit moederbord komt en 8pins 150Watt is. Een leuek ware opvolger van bijvoorbeeld de RX580 of een GTX1060.
Helemaal eens heb nu ook een kaart met 1x 8pins, meerdere kabels naar een gpu is meestal niet mooi...
Tegenhangers dan de RTX 3060(Ti) dus.. De meer "betaalbare" videokaarten voor 1920x1080 en 2560x1440..
Is er al een idee over de prijzen van deze kaarten?
Wat @jhnddy zegt. Daarna, 499 om 400?
De eerste 4 maanden na release ongetwijfeld > €800, want dan zijn ze onverkrijgbaar...
denk niet dat deze midrange kaarten dezelfde leveringsproblemen gaan kennen als de high end.
dit omdat ze meer als genoeg concurentie hebben van de previous gen kaarten.
Waarschijnlijk niet, want GPU is ongeveer wat betreft afmetingen en kunnen er dus bijna 2 keer zoveel uit een wafer gehaald worden! En ik verwacht sowieso dat AMD meer van deze chip heeft laten maken, want met mid range kaarten halen ze normaal gesproken de meeste omzet binnen!
Het zou erg onhandig zijn om alleen leveringsproblemen te hebben van je high-end chips. Dan laat je als GPU producent omzet liggen: klanten gaan de goedkope mid-tier chips kopen als alternatief voor de noet-leverbare high-end chips. Het is niet voor niets dat zowel NVidia als AMD beginnen met de high-end, ondanks de leverproblemen.
Marges op high end chips zijn veel lager omdat de chips groter zijn is er ook meer uitval, dus minder percentage aan (voledig) werkende chip! High end release is vooral om nieuwe generatie chips in goed dag licht te zetten, uiteindelijk zijn het de mid-range en low end producten die voor omzet en winst zorgen!
De eerste 4 maanden na release ongetwijfeld > €800, want dan zijn ze onverkrijgbaar...
Precies, de GeForce 3000 series videokaarten zijn de eerste maanden nergens te koop, de Radeon RX 6000 series videokaarten zijn de eerste maanden nergens te koop, en de nieuwe AMD Ryzen CPU's zijn de eerste maanden ook nergens te koop, erg jammer allemaal, geduld is een schone zaak.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True