Prototype van AMD Radeon RX 6000-videokaart staat mogelijk op foto

Er is een foto verschenen die een prototype van een Big Navi-videokaart uit de RX 6000-serie van AMD zou tonen. De afbeelding laat zien dat de gpu wordt gecombineerd met vermoedelijk 16GB aan gddr6-geheugen van Samsung.

Op de foto, die is geplaatst op een Chinees sociaal netwerk, is de achterkant van de printplaat te zien, met twee stickers die de teksten Typical XT A0 ASIC en Typical Samsung 16Gb bevatten. De XT-varianten van gpu's gebruikt AMD over het algemeen voor zijn Radeon RX-videokaarten voor gamers, wat aannemelijk maakt dat het prototype een Big Navi-kaart is.

Met Samsung 16Gb wordt het gebruik van Samsung-geheugenchips met een capaciteit van 16Gbit aangeduid. Hoewel het aantal chips moeilijk is waar te nemen, gaat het volgens VideoCardz om acht 2GB-chips, voor een totaal van 16GB vram. Het gebruik van acht geheugenchips impliceert dat AMD een 256bits-geheugenbus gebruikt. De geheugenbandbreedte zou daarmee lager zijn dan die van de Nvidia RTX 3080 en 3090; die hebben een bredere bus en sneller gddr6x-geheugen.

De printplaat is voorzien van diverse switches en meetpunten, zoals gebruikelijk is bij prototypes. Ook lijkt er een cpu-koeler gemonteerd te zijn om de chip te koelen. Ook dat gebeurt vaker bij vroege prototypes van videokaarten. De echtheid van de foto is niet te garanderen, maar het verschijnen ervan valt samen met de aankondiging van AMD dat de RX 6000-videokaarten op 28 oktober gepresenteerd zullen worden.

De komende Radeon-videokaarten zijn gebaseerd op de RDNA 2.0-architectuur, die ook gebruikt wordt in de Xbox Series X en S en in de PlayStation 5. De nieuwe videokaarten krijgen ondersteuning voor hardwarematige raytracing. Eerder dit jaar beloofde AMD al een verbetering van 50 procent als het gaat om prestaties per watt, ten opzichte van de RX 5000-serie.

Vermeend Radeon RX 6000-prototype
Vermeend Radeon RX 6000-prototype met Big Navi-gpu. Foto afkomstig van Bilibili

Door Julian Huijbregts

Nieuwsredacteur

10-09-2020 • 08:35

134

Reacties (134)

134
132
74
10
0
42

Sorteer op:

Weergave:

"Het gebruik van acht geheugenchips impliceert dat AMD een 256bits-geheugenbus gebruikt." dit zou toch ook een 512bits bus kunnen zijn? Ik denk dat je op basis van deze info deze conclusie niet kan trekken. Bovendien een big navi met 256bits gddr6 kan zeker inpakken. Ampere heeft dan gddr6x en ook nog een 384bits bus
Bij een 512 bits geheugenbus hadden we 16 chips gezien.

Naast dat dit natuurlijk nep kan zijn kan het ook de één na snelste GPU zijn. Zelfs een op twee na snelste GPU is mogelijk. Bijvoorbeeld 40CU's zoals een RX 5700 XT, maar dan met een hogere gpu kloksnelheid zoals we ook al gezien hebben bij de toekomstige consoles en dus ook sneller videogeheugen. In theorie kan daar dan nog een 60CU model boven staan het een 384 bit geheugenbus en dus 12 geheugenchips voor een totaal van 24GB geheugen. Zelfs dan is er ook nog ruimte voor een 80CU model met bijvoorbeeld HBM2e geheugen.

[Reactie gewijzigd door -The_Mask- op 23 juli 2024 03:47]

Bijvoorbeeld 40CU's zoals een RX 5700 XT, maar dan met een hogere gpu kloksnelheid zoals we ook al gezien hebben bij de toekomstige consoles en dus ook sneller videogeheugen. In theorie kan daar dan nog een 60CU model boven staan het een 384 bit geheugenbus en dus 12 geheugenchips voor een totaal van 24GB geheugen. Zelfs dan is er ook nog ruimte voor een 80CU model met bijvoorbeeld HBM2e geheugen.
Hoe werkt dat precies?
Heb je toevallig een artikel of kan je des noods zelf uit leggen hoe dat precies in elkaar zit.
De 3070 heeft een 256bits bus. Er gaan geruchten dat deze specs van Navi (de 256bits bus en 16gb) over de Navi 22 chip gaat. Dat zou de 400-600 euro concurrent moeten worden. De Navi 21 chip zou een bredere bus hebben en in de 700-1000 euro range zitten.
Zou je me misschien kunnen helpen. Wat zou jij doen een 3600xt, 3700xt of de 3070 die 1 oktober uitkomt? Een leek hier vragende. Ik ben bezig met een pc bouwen en mij werd geadviseerd om te wachten tot 1 oktober. Maar kan stiekem niet mee wachten haha
je bent volgens mij letterlijk appels en peren aan het verglijken. De 3600 en 3700 zijn CPU's (overgens zonder intergrated graphics) en de 3070 is een GPU.
Excuus ik bedoelde 5600 en 5700 en de 3070. Ik keek verkeerd hehe.
Welke processor en kaart zou je aanbevelen? Ik zie een puntje van kritiek namelijk hihi :)
Ik denk dat je beter een topic op het forum kunt maken wanneer je uitgebreid advies wilt. Mijn opmerking over intergrated graphics was meer omdat je CPU's met GPU's vergeleek. Wanneer je een discrete GPU wilt dan zijn intergrated graphics overbodig.

mbt je vraag over GPU's. Ik denk dat nu het slechtste moment is om een GPU te kopen. AMD komt met meer informatie in Oktober, en afhankelijk van de beschikbaarheid van de nieuwe modellen van Nvidia zal de markt waarschijnlijk overspoeld worden met 2e hands kaarten.
De 3070 en 5700xt zijn van verschillende generaties. De 3070 zal zeer zeker sneller zijn, maar de 5700XT veel goedkoper.
5700XT is vergelijkbaar met een 2070. De 3070 is een stuk sneller.
In theorie wel, maar deze GDDR6 chips van Samsung hebben een bus van 32 bit per chip. 8 chips van elk 32 bit zijn dus 256 bit in totaal.
Dit kan zo maar Navi22 zijn de kleinere chip. En niet Navi 21 met 72/80CU's.
Precies, ik vraag mij af of GDDR6 snel genoeg is voor de topend. Zelf hoop ik dat ze nog op HBM2 gaan met de topend kaarten omdat ze nog geen gebruik hebben kunnen maken van GDDR6x.
Met HBM2 kan ik er misschien ook gelijk weer een Morpheus cooler opgooien en zit ik niet te klooien om het geheugen te koelen :D.
Er schijnt ook 18gbps GDDR6 te zijn dat is ook al best snel met een 384Bit bus.
Andere optie is een 512Bit bus pakken dat is een prima alternatief voor HBM2E
4 HBM stacks is weer erg duur. En twee HBM2E stacks zijn qua bandbreedte weer wat beperkter.
Toch gek dat nvidia beweert met ontwikkelaars te hebben gesproken en de eisen van typische game scenarios heeft onderzocht met als conclusie dat 10gb vram genoeg is, en AMD dan met 16gb aankomt...
Dat noemen ze marketing. nVidia kan niet meer toevoegen dan 10GB bij een 320 bit geheugenbus omdat er alleen nog 8Gb GDDR6X chips beschikbaar zijn. De 16Gb chips gaan pas over enkele maanden in massaproductie. Micron zelf noemt begin 2021.

Enige manier om dan meer te krijgen is het geheugen aan beide kanten van het PCB te plaatsen en het aantal chips te verdubbelen. Maar dat zorgt voor een veel complexer PCB en veel extra kosten, dus dat gaan ze niet doen. Of beter gezegd alleen met een dure RTX 3090.

[Reactie gewijzigd door -The_Mask- op 23 juli 2024 03:47]

Of 12GB. Het 3080 bord heeft de ruimte voor 12 chips: https://tweakers.net/ext/i/2003840738.png

Echter, dan moet je wel een GA102 chip hebben met al de geheugencontrollers intact. En ik vermoed dat de 3080 chips niet zo best gebakken zijn met hun 68 van de 84 SM's.
Voor AMD is dat net zo goed marketing. Kijk eens wij hebben 16GB vram want dat heb je nodig. De vraag is of je het echt nodig hebt of niet. Volgens de volgende test komt het vram gebruik niet eens in de buurt van 8 GB op max settings 4k:

https://www.tweaktown.com...-4k-aa-enabled/index.html

Het verschil tussen 8gb ram of 16gb ram maakt qua performance ook niks uit. Terwijl op een 16gb ram systeem wel veel meer geheugen wordt toegewezen. Zie bijvoorbeeld:

https://www.youtube.com/w...0&ab_channel=TestingGames

Het is ook niet makkelijk te testen want simpelweg vram usage bekijken zegt niks. Veel games allocaten vram maar dat wil niet zeggen dat het in gebruik is of voordelen oplevert. Maw, een systeem wat meer geheugen beschikbaar heeft zal ook meer in geheugen proberen toe te wijzen (of het gebruikt wordt of niet).

Het is van beide kampen marketing. De vraag is nog steeds, wat heb je nodig? Volgens mij is 10Gb vram ruim voldoende voor 4k max settings.
Het verschil tussen 8gb ram of 16gb ram maakt qua performance ook niks uit. Terwijl op een 16gb ram systeem wel veel meer geheugen wordt toegewezen. Zie bijvoorbeeld:

https://www.youtube.com/w...0&ab_channel=TestingGames
Kom kom, dit is een video van 3 jaar geleden. In games als Hell Let Loose, Escape from Tarkov, Star Citizen, GTA V, PUBG, ... maakt 16GB vs 8 GB werkgeheugen wel wat uit. De video zelf toont zelfs aan dat GTA V los gemiddeld met pakweg 10% hogere fps blijft draaien... 10%!. Veel minder swapping, en overall gewoon een vloeiendere ervaring. Ook een recente upgrade naar 32GB doet Windows gewoon veel "snappier" aanvoelen voor mezelf.

[Reactie gewijzigd door Tokkes op 23 juli 2024 03:47]

Er zijn vast en zeker games waar het wel een verschil maakt. Daarnaast afhankelijk op welke settings je speelt. Maar over het algemeen gezien maakt het niet zoveel verschil qua performance. Er zit niet voor niks "maar" 16GB in de nieuwe Xbox X, waarvan 10GB voor de GPU is, 2.5GB voor OS en wat overblijft voor de rest. Blijkbaar is dat ruim voldoende voor 4k gaming.

Daarnaast krijgen we straks te maken met RTX IO waarbij de SSD direct connectie heeft met de GPU. Dit zal eerder performance winst opleveren qua cpu en geheugen gebruik dan vergroten.

Overigens zou ik zeker aanraden om 16GB te nemen ipv 8GB want voor de prijs hoef je het niet te laten liggen. Helemaal als je naast gamen ook nog andere dingen doet zoals streamen. Dan heb je zeker baat bij meer geheugen.

En als we toch bezig zijn is de snelheid van het geheugen ook nog een factor. In Escape from Tarkov ging ik 20+ fps vooruit nadat ik een upgrade had gedaan van 16gb 2666mhz ram naar 16gb 3200mhz en snellere timings. Terwijl ik in andere games veel minder verschil merkte. Maar ook dit is afhankelijk per game.

Maar goed, het ging voornamelijk over of 10GB vram genoeg is op de RTX3080 en voor zover ik kan beoordelen is dat ruim voldoende.
Maar de nieuwe consoles hebben iets van 12GB gpu geheugen te beschikking. Best kans dat spellen op de pc ook meer geheugen gaan gebruiken in de komende tijd. Hoewel je op de pc nog wel systeemgeheugen kan gebruiken met unified memory technieken.
Op de site van xbox staat het volgende:

Xbox Series X includes the highest memory bandwidth of any next generation console with 16GB of GDDR6 memory, including 10GB of GPU optimized memory at 560 GB/s to keep the processor fed with no bottlenecks.

Ter vergelijking, de snelheid van de RTX3080 is 760.3 GB/s. Oftewel nog een heel stuk (25%+) sneller dan wat er in de nieuwe consoles zit.
Ik had eigenlijk voor het gemak 4GB voor het OS genomen en de rest voor de gpu. Maar in ieder geval bij de xbox x schijnt het nog iets anders te zitten zelfs.
Het klopt dat 10GB bij de xbox x sneller is dan de andere 6GB, maar van die 6GB schijnt weer 2,5GB voor het OS te zijn en 3,5GB ook voor de game.

https://www.psu.com/news/...ddr6-ram-which-is-better/
Where things become a little more tangled is when we take a look at the memory bandwidth of the Xbox Series X GDDR6 RAM.

Splitting up the 16GB total into 10GB running at 560GB/Sec and the remaining 6GB being clocked at 336GB/Sec, it’s reasonable to say that Microsoft’s approach to RAM allocation is somewhat atypical.

Speaking to Digital Foundry, Xbox system architect Andrew Goosen explained the reason for the two different GDDR6 bandwidths within Xbox Series X “Memory performance is asymmetrical – it’s not something we could have done with the PC. 10 gigabytes of physical memory [runs at] 560GB/s. We call this GPU optimal memory. Six gigabytes [runs at] 336GB/s. We call this standard memory. GPU optimal and standard offer identical performance for CPU audio and file IO. The only hardware component that sees a difference in the GPU.”

How And Why Xbox Series X Divides Up Its RAM Matters

What this means is that whereas PS5 memory is of an equal speed to all elements of the silicon that can use it, Microsoft’s engineers have prioritized that the 10GB of super fast RAM (which is faster than the RAM used in PS5), for use with the GPU, while the remaining 6GB of ‘normal’ speed RAM can be used for other less processor intensive functions.

This actually dovetails quite neatly into Microsoft’s declaration that developers will have 13.5GB of that GDDR6 RAM pool available to them, while the remaining 2.5GB sits in the background, dealing with the shell, UI and other non-obvious tasks.

Related Content – Ready At Dawn: PS5 ‘One Of The Most Revolutionary Inspired Consoles Ever Designed’

What this also means us that of that 13.5GB that developers can actually use – while 10GB of it will be running at the faster rate of 560GB/Sec, 3.5GB of it won’t be and will instead clock much lower (and underneath the PS5) at 336GB/Sec.

[Reactie gewijzigd door Rudie_V op 23 juli 2024 03:47]

Ik vraag me ook af wat de impact gaat zijn van DirectStorage. Als je een 8GB kaart hebt, in combinatie met een NVMe SSD (3.5GB/s voor PCIe 3, x2 met GPU accelerated decompressie), dan zou het kunnen dat je gewoon toekomt ook al zou je in principe meer nodig hebben. Zelfs op een 8K scherm heb je "maar" 33 miljoen pixels. Je moet enkel de hoogste resolutie textures tonen voor alles wat dicht bij de camera staat, voor alle rest kan je lagere resolutie versies van die textures gebruiken. Hetzelfde geldt voor models.

Nu is het niet zo praktisch om dat allemaal snel in te streamen waardoor je pop-in krijgt. Maar als developers toch al DirectStorage gebruiken voor de Xbox versies van games, dan lijkt het me dat dit wel snel de standaard gaat worden voor de grafische hoogvliegers en dan lijkt het me wel mogelijk om zelfs met 8GB VRAM een aangename ervaring te hebben in de toekomst. En sowieso dat AMD ook op deze kar springt, die praten al jaren over hun "High Bandwidth Cache Controller". Het zou me echt straf lijken moesten ze dan nu niet mee kunnen met de volgende logische stap.
EDIT: NVM, negeer dit maar. Wat ik hieronder zeg klopt niet.

Waarom verwijs je hier naar tests van oude games die niet eens representatief zijn voor VRAM gebruik in huidige AAA games? Deze games gebruiken geen DX12 (meer VRAM) en hebben geen raytracing (veel meer VRAM). Zowel DX12 en raytracing zijn eigenlijk nu al standaard in veel AAA games.

De redenatie die je hier doet klopt ook niet. Het tonen van een selectie (oude) games waar het goed gaat is geen indicatie dat het dan dus overal goed blijft gaan. Iemand hoeft immers maar een enkel voorbeeld te vinden van een game waar het niet goed gaat, en dus wel teveel VRAM gebruikt wordt, om die bewering teniet te doen. Zal ik dat dan maar doen? Kan ik je wellicht introduceren aan Battlefield 5? De game die Nvidia gebruikte om hun RTX 2000 kaarten mee te promoten?

Gisteravond heb ik nog even Battlefield 5 multiplayer getest. Leuk met 1440p resolutie met mijn RTX 2070. Alle settings op ultra, raytracing op low, DLSS uit, en (!) VRAM compensatie (!) uit. Wat gebeurd er dan?

Battlefield 5 transformeert naar Stutterfest 9000 en verbruikt meer dan 9GB VRAM. Daarvan is zo'n 7.4GB dedicated VRAM en 2GB shared RAM. Alles op high heeft hetzelfde probleem met net iets lager VRAM gebruik. Raytracing uit en VRAM zakt naar 6GB en alles is perfect speelbaar. Raytracing aan en VRAM compensatie aan en VRAM blijft precies 8GB en het spel is prima speelbaar.

Wat doet die VRAM compensatie optie? Het zet raytracing in ieder geval niet uit. Wat het wel doet is al je andere grafische settings omlaag donderen naar Low tot Medium en wellicht een beetje resolutie scaling introduceren. Als je deze setting aan laat staan speel je dus eigenlijk nooit op High of Ultra settings, behalve als je een RTX 2080 Ti hebt of in 1080p speelt. Die VRAM compensatie setting staat standaard aan, ook als je alles op Ultra zet.

Overigens weet BF5 zelfs met 1080p resolutie nog weleens 8.1GB VRAM te gebruiken met dergelijke "true ultra" settings. Het komt niet heel veel voor, maar ik heb wel een paar hele korte pieken - en bijbehorende microstutters - gezien gisteren in multiplayer. BF5 is dus zo'n game die elke gealloceerde MB VRAM echt nodig heeft om speelbaar te blijven.

Dus wat heb je echt nodig? Zoals altijd is het echte antwoord: it depends. In dit geval is dat dan afhankelijk van welk spel je speelt. Want Battlefield 5 heeft nu al eigenlijk 10GB nodig voor 1440p met echte max settings, maar andere games met raytracing doen het vooralsnog prima met 8GB (in 1440p). Het is natuurlijk ook afhankelijk van hoe VRAM vereisten gaan veranderen nu raytracing steeds meer gebruikt en verder ontwikkeld wordt.

[Reactie gewijzigd door Droniac op 23 juli 2024 03:47]

Ik zie hier een filmpje met exact de settings die jij noemt icm met een RTX2070 met maar 7gb vram usage: https://www.youtube.com/w...qsQ&ab_channel=TechvsTech

Daarnaast vergelijk je geheugen van een RTX2070 met de RTX3080. De doorvoersnelheid van het geheugen op de RTX3080 is bijna het dubbele. 448 vs 760 GB/s. Daarnaast zal RTX IO straks ook zorgen voor minder load op mem en CPU.

Er zit niet voor niks maar 16GB in de nieuwe Xbox X. Waarvan 10 GB GPU en de rest voor overige zaken. Op een veel lagere snelheid dan wat de RTX3080 aan boord heeft. Dus vram gaat echt geen enkel probleem zijn.

Nvidia is echt niet zo dom door hun nieuwe kaarten geschikt voor 4k gaming met RTX direct met een dikke bottleneck op te zadelen. Dat zal direct naar voren komen in de eerste de beste review. Voor de RTX2070 kan dat zeker het geval zijn maar niet voor de RTX3080.

[Reactie gewijzigd door biggydeen2 op 23 juli 2024 03:47]

Huh. Ik had blijkbaar nog wat op de achtergrond aanstaan wat heel wat extra GB innam gisteren terwijl ik dacht dat alles uitstond. Nu getest en gewoon 6.5-7GB VRAM. Zelfs iets minder dan in die Youtube video op de Rotterdam map.

Ik kreeg wel nog steeds microstutter net, maar dat kwam doordat in de huidige versie van Battlefield 5 standaard Nvidia Highlights aanstaat en BF5 staat op dezelfde (SATA SSD) schijf. Dat trekt ie dan net niet helemaal. Highlights uit en geen enkel probleem meer. Speelt perfect en haalt max 7 GB VRAM op Rotterdam wat een van de zwaardere mappen is.

Dus vergeet wat ik zei. Je hebt gelijk. De VRAM hoeveelheden moeten nu nog geen probleem zijn. Ook niet in moderne games als BF5.

Dat laatste stukje van je wil ik wel even op reageren. Nvidia heeft iets dergelijks namelijk een paar generaties geleden wel degelijk gedaan. De GTX 970 had een VRAM bottleneck waardoor je niet goed games kon spelen die meer dan 3.5GB VRAM nodig hadden terwijl er wel geadverteerd werd met 4GB. Dat kwam niet naar voren uit launch day reviews, maar werd pas later ontdekt.

[Reactie gewijzigd door Droniac op 23 juli 2024 03:47]

MSFS 2020, meer VRAM altijd beter...
Het aantal chips verdubbelen vereist natuurlijk ook het dubbele aantal geheugencontrollers. Het zal dus wachten worden op chips met de dubbele capaciteit. :)

De pcb's voor deze versies zouden al bekend zijn, als het artikel op waarheid berust.
https://nl.hardware.info/...en-en-lancering-duiken-op
De vraag is natuurlijk waar je de kaart voor gebruikt. Er bestaan meer toepassingen dan games alleen. En ook voor wat betreft games is 10GB nu misschien wel voldoende, maar 3 jaar verder?

Dit is voor wat betreft de 3080 dan ook iets waar ik graag net wat meer had gezien. De meeprijs van 6GB aam extra geheugen is beperkt deze dagen.
Dat gaat niet. Je moet of het aantal chips verdubbelen of chips gebruiken met een hogere capaciteit maar maar die laatste optie moet nog uit komen.

In beide gevallen krijg je een kaart met 20gb.en die gaat er vast nog wel komen als AMD met 16GB komt. Maar reken E rook maar op dat die een stuk duurder wordt dN de 10GB 3080.
Bij de buren van HWI was er in augustus een artikel met vermeende pcb's voor de rtx 3000 serie, daar werden ook pcb's genoemd met 16GB en 20GB geheugen. Vermoedelijk dan voor de 3070 met 16GB en 3080 met 20GB.
https://nl.hardware.info/...en-en-lancering-duiken-op

Maar als die chipjes met dubbele capaciteit er nog niet zijn dan zal het nog even wachten worden op deze versies. Het aantal huidige chips verdubbelen gaat natuurlijk niet zomaar, omdat je dan ook extra geheugencontrollers nodig hebt.
Ja klopt dat zijn inderdaad ook test versies met die nieuwe memory chips maar die zijn nog officieel nog niet uit. Maar er wordt natuurlijk wel mee getest :) die gaan er ook echt wel komen. Zeker als AMD meteen 6700XT 16GB gaat komen reken er dan maar op dat nVidia met iets van een 3070 TI of Super gaat komen met 16GB.
Idem voor de 3080 Ti of Super met 20GB.
Lenovo heeft al een 3070Ti bevestigd met 16GB.
https://nl.hardware.info/...rtx-3070-ti-16gb-duikt-op

Dus ik denk dat die tests met 2GB geheugenchips al ver gevorderd zijn.
Dus ik denk dat die tests met 2GB geheugenchips al ver gevorderd zijn.
Dat gaat over GDDR6 en daarvan zijn 16Gb (2GB) chips al lang beschikbaar. GDDR6X 16Gb (2GB) chips zijn nog niet in productie. Op dit moment heeft Micron alleen 8Gb (1GB) chips in massaproductie. 19Gbps en 21Gbps zijn trouwens ook de enige opties.

Zie: https://www.micron.com/pr...tions/gddr6x/part-catalog voor waar je uit kunt kiezen.

En https://media-www.micron...._solutions_tech_brief.pdf daar zie je op pagina 2 derde alinea dat de 16Gb GDDR6X chips begin 2021 in massaproductie gaan.
GDDR6X 16Gb (2GB) chips zijn nog niet in productie.
De 3090 heeft 24GB gddr6x geheugen met een 384 bits geheugenbus, dus 12 geheugencontrollers van elk 32 bits. 24GB delen door 12 geheugencontrollers is... tada 2GB geheugenchips. :)

https://nl.hardware.info/...ficaties-en-adviesprijzen
VRAM 24GB gddr6x
Geheugenbus 384-bit
:)
Je had het over de RTX 3070 Ti van Lenovo die heeft zoals je in het artikel kunt lezen GDDR6 en geen GDDR6X.

De RTX 3090 gebruikt daarentegen maar liefst 24 geheugenchips en een zeer complex PCB. Zoals aangegeven is dat voor nVidia op dit moment de enige keuze omdat de 16Gb (2GB) chips nog niet in massaproductie zijn.

Hier een foto van de reference RTX 3090 waar je duidelijk beide zijdes van het PCB ziet en de 24 plaatsen voor de GDDR6X chips.
https://videocardz.com/ne...rce-rtx-3090-pcb-pictured

En hier nog een custom RTX 3090 met de GDDR6X geheugenchips zichtbaar op de achterkant.
https://videocardz.com/ne...rce-rtx-3090-pcb-pictured

Je ziet op de foto trouwens maar 11 geheugenchips, omdat er een SO-DIMM over de 12de chip ligt. Of dit is een chip met 22 chips i.p.v. 24 chips, dat zou eventueel ook nog kunnen.

@Rudie_V
Maar de 3090 heeft een 384 bits geheugenbus, dat is 12 x 32bits, hoe zit dat dan precies? Stuurt elke geheugencontroller 2 chips van 1GB aan?
Dat lijkt mij idd de enige mogelijkheid.

[Reactie gewijzigd door -The_Mask- op 23 juli 2024 03:47]

Ik had het met Astennu over kaarten met 2x zoveel geheugen dan nu, de 3070 8GB en 3080 met 10GB, maar dan met dubbel zoveel geheugen. Over het geheugentypen had ik eigenlijk nog niets gezegd, alleen een voorbeeld van de 3070Ti met 16GB. Die is inderdaad met gddr6.

Toen kwam jij:
GDDR6X 16Gb (2GB) chips zijn nog niet in productie.
Maar de 3090 heeft een 384 bits geheugenbus, dat is 12 x 32bits, hoe zit dat dan precies? Stuurt elke geheugencontroller 2 chips van 1GB aan?
tada 2GB geheugenchips.
Of 2 chips per geheugencontroller.

[Reactie gewijzigd door Countess op 23 juli 2024 03:47]

GDDR6X is echt niet zo goedkoop en met de busbreedte van de 3080 heb je 10 GB extra nodig.
De vraag is natuurlijk waar je de kaart voor gebruikt. Er bestaan meer toepassingen dan games alleen. En ook voor wat betreft games is 10GB nu misschien wel voldoende, maar 3 jaar verder?
Dan kies je over 3 jaar niet voor ultra textures, maar very high of lager.
Dit is voor wat betreft de 3080 dan ook iets waar ik graag net wat meer had gezien. De meeprijs van 6GB aam extra geheugen is beperkt deze dagen.
Even los van de technische uitdagingen mbt aantal chips en de geheugenbus breedte draait het vermoedelijk vooral om marge. Als je een cpu bakt of laat bakken dan zijn je materiaal en inkoop kosten nihiel. Bij een videokaart is dat anders. Naast de chip heb je te maken met een groot pcb, stroomvoorziening én geheugen chips. Die componenten moet je extern inkopen. Voor je het weet heb je al 150 dollar kosten gemaakt en dan moet je nog al die andere kosten dekken (assemblage, R&D, marketing, enz). Even je basis prijs met een paar 10tjes verhogen is erg slecht voor je marge en dus voor het bedrag dat overblijft voor onderzoek en winst.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 03:47]

In hun (nvidia) presentatie zeggen ze letterlijk dat het een kosten/baten overweging was. Uiteindelijk is dit vrijwel altijd de conclusie en in mijn ogen dus correct. Nu kan je stellen dat ze de 16GB 3070 en 20GB 3080 achter de hand willen houden om meer mensen over te laten stappen later... het blijft dezelfde conclusie.. kosten/baten. Nu komen andere statements ook in de buurt, immers 10GB+ games kom je vrij zelden tegen. Maar als je FS2020 mensen spreekt bijvoorbeeld, dan is 10GB NU al niet meer voldoende. Is de uitspraak 10GB is genoeg fout? Ik denk van niet. Zijn er games die meer vragen? Jazeker, maar die kan je op 1 hand tellen ongeveer. Het is dus maar net hoe je er zelf in staat.
Flight Simulator is wel een heel apart spel en niet echt representatief voor de triple A games.

Als Nvidia een 20GB 3080 gaat uitbrengen gaat hij minstens 900 usd kosten. Persoonlijk heb ik dan liever de 700 usd 10GB versie voor 4k.

Er zijn ook drie redenen om te denken dat 10GB genoeg zal zijn. De Xbox Series X heeft van de 16GB maar 10GB snel geheugen. DLSS kan de VRAM footprint verlagen door de lagere resoluties. En DX12U heeft texture sampler feedback wat volgens Microsoft de texture vram ruimte met 2,5 kan verlagen.
FS2020 is zeker een apart verhaal en daarom geef ik het ook aan, feit blijft echter wel dat 10G simpelweg NIET voldoende is daar voor alle toeters en bellen.
Welke prijs de 3080-20G gaat krijgen gaat sterk afhangen van AMD's NAVI21-16G dus dat is wat voorbarig.

De consoles zullen veel bepalen, ze bepalen echter wel vaak het gemiddelde en niet het uiterste. als het gemiddelde is dat 10GB VRAM te gebruiken is, dan wil je met je PC daar boven zitten.

In kort, 10GB is meer dan zat short term en de 3080-10G is de best value buy de komende maanden. Of het echter futureproof is? mwah... press X to doubt. Maar tegen die tijd is de 3080-20G er al en zal die prijs ook best meevallen denk ik. Feit blijft dat al die muziek na Cyberpunk is. Daarmee is mijn keuze dus eigenlijk al gemaakt (de 3080-10G), ik kan alleen nog overwegen echt te splurgen op de 3090 als ik het kan missen.
Ik hoop dat die 10GB limiet komende maandag aan de tand wordt gevoeld. Ik geloof dat hardware unboxed al aangaf dat te testen. Volgens Nvidia zelf in de AMA gebruiken moderne games 4-6gb op 4k.

Aan de andere kant is het ook wel weer lachen om een toekomstige game onder de 10GB te houden, mocht dat probleem zich voordoen. Textures, schaduwen en resolutie hebben denk ik de meeste vram invloed.

Van Doom Eternal weet ik dat het op 8,5gb zit op 4k, maar dat is probleemloos te verlagen. Ik heb voor de test de 'Texture Pool' op Low terwijl de rest op Ultra Nightmare stond en vram verlaagde naar 5GB. Het interessante was dat de textures nog steeds scherp waren, alleen kon ik zien bij het wisselen van het wapen dat een level texture opnieuw werd geladen.
Persoonlijk denk ik niet dat Nvidia een 20GB versie van de RTX 3080 zal uitbrengen. Waarom zou je nog voor een RTX 3090 gaan als je voor €500 minder een kaart kan krijgen die maar 10-20% langzamer is en bijna evenveel geheugen heeft? Ik acht de kans groter is dat Nvidia een cut-down 3090 met 12GB RAM uit zal brengen als 3080 Ti/Super.
Mensen halen allocatie door elkaar met daadwerkelijk verbruik. Naast FS2020 is nauwelijks geoptimaliseerd, van het maar echt gebruik maken van 4cores tot DX11 in plaats van DX12 etc te gebruiken.
Sterker nog, Nvidia's eigen 3090 komt met 24GB :)
De 3090 is geschikt voor gamen op 8K resolutie dit vereist ram.
meer triangles renderen kost niet meer geheugen. Textures met hogere kwaliteit wel. Maar dat staat los van of je op 8k rendert of niet. En die 8K zal de 3090 ook maar mondjesmaat halen. Ik denk dat de 3090 BDO met alles op Ultra niet met 60fps op 4K kan draaien. Dat kunnen 2 Titan's op dit moment ook niet.
Meer triangles kost wel meer geheugen, maar dan hebben we het over megabytes. Een hogere resolutie betekend wel dat je hogere resolutie textures nodig hebt, wat veel extra geheugen vereist. Daarnaast zijn je render targets (die vooral met deferred rendering erg groot zijn) 4x zo groot op 8K vs 4K, wat ook een berg geheugen opeist.
Is het niet zo dat je bij 8k vanzelfsprekend ook wat meer triangles wenst en de engine deze dan tekent? Dit kost dan weer meer processing power. Ik weet niet hoe dat exact werkt, ik ken enkel de basics hoor.
Triangles moet je zien als een lego blokje voor het bouwen van een huis, auto, persoon dat in 3D is opgebouwd. Meer lego blokjes geeft niet perse een beter beeld, maar wel een betere visualiseringen/detaillering van het onderwerp. Je kunt heel grof 4 blokjes nemen en dat stelt een huis voor of neemt er veel meer.

Texture moet je zien als stickers om de lego blokjes als echt steen uit te laten zien. Dat sticker kan van een lage kwaliteit zijn, net als megapixels van een foto camera of hele mooie en scherper foto’s, veel megapixels, dus hele grote foto’s en neemt weer heel veel geheugen in beslag.

Lego blokjes, triangels, neemt weinig geheugen ruimte in. Dat zijn alleen coördinaten van A naar B in X,Y,Z as.

Texture, JPG (oid) plaatjes verbruiken heel veel geheugen.

Op een 8K TV zie je liever hele hoge resolutie Textures, plaatjes, maar natuurlijk ook mooie detaillering. Het gaat wel een beetje hand in hand.

[Reactie gewijzigd door Fermion op 23 juli 2024 03:47]

8k met dlss is vast wel mogelijk op 30 tot 60FPS
Dual gpu doet dan ook weinig.

Een 2080ti komt redelijk in de buurt van 4k ultra 60 fps. Een 3080 zou daar geen moeite mee moeten hebben. En met een 3090 zul je ongetwijfeld rond de 4k 100fps uitkomen.

Dat zijn de verwachtingen van deze leek op basis van euh.. logica? Of mijn logica iig, we gaan het zien.
Vanuit meerdere youtube filmpjes merk ik dat een 1080ti/2080/Radeon VII toch al meer dan "in de buurt" van 4k ultra 60 fps zitten (bijvoorbeeld https://youtu.be/hdtcTnODN3M?t=807 )
In dat geval zie ik geen reden om een 3090 aan te schaffen straks, of trouwens, met raytracing erbij bedenk ik me nu.
Een 3080 gaat een hoop plezier opleven iig. 4k 60fps met raytracing effecten her en der voldoet voor mij wel in bv cyberpunk 2077.
Hogere resolutie textures, grotere framebuffers etc zijn allen zaken die op hogere resoluties meer geheugen vreten.

De 3090 kan dit dankzij DLSS2 overigens.
Aldus de Nvidia marketing...
Aldus de gameplay video die zij getoond hebben dat dit kan.
nogmaals, de gameplay video dat dit kan is gewoon getoond en werkt door middel van DLSS.
en gamingbolt negeerd direct wat Nvidia heeft gezegd. Met DLSS
....The guys over at Kindy Funny, who NVIDIA invited to try out 8K in the demo reel they showed off during the livestream, said it wasn't native 8K they were playing on but DLSS 2.0 8K, and they said it was so damn-near identical to 8K when they swapped back and forth between the 2 that they couldn't even tell the difference.

Dat zal de verwarring wel geven. Feit is dat het geen native 8K is en dat het een soort compressie techniek is om het op een 8K scherm te tonen. Dat kan voor het oog prima zijn maar het is GEEN 8K native.
Het is native 8K als in er wordt voor 8K aan pixels gerendered. Dat het beeld "slimmer" wordt opgebouwd doet daar niet aan af. Het puur op raw power proberen neer te zetten is gewoon niet slim, niet economisch en al helemaal niet een voordeel.

DLSS2 liet een Geforce 2060 Death Stranding van 30 fps naar over 60fps op 4K spelen met DLSS2. Dan was het beeld nog scherper met meer details in de textures ook. Hoe is dit een probleem?
Als er een upscaler in een black box zit, en ook gewoon 8k uitpoept, noemen we dat ook niet native.
alleen is het geen uspcaler, pixel, geometry data etc wordt gegenereerd door een AI wat meer details weet te tonen dat native in het geval van DLSS2.
Upscalen met een fancy algoritme is nog steeds upscalen. Je kunt geen informatie uit het niets toveren.

[Reactie gewijzigd door Cilph op 23 juli 2024 03:47]

nee dat is het niet. Upscalen is letterlijk met een algoritme een beeld van een lage resolutie naar een hogere tekenen. Vaak emt een beperk setje variabelen. Zoals pixel doubling etc. Upscaling zal nooit meer details generen tijdens het upscalen. DLSS doet dit wel en dat is dus een enorm verschil.

Op een lagere reoslutie renderen om daarna te upscalen heeft altijd een verlies aan beeldkwaliteit versus native. DLSS heeft dit niet.
DLSS voegt nog steeds geen informatie toe. Het is een slimmer algoritme. Dat is alles wat het is. Er zijn genoeg "mooier uitziende" scalers dan bilinear of bicubic, maar het zijn en blijven upscalers. Het is een deep-learning blackbox die een lage resolutie omtovert in een hogere resolutie op basis van een model. Het is een upscaler.
Het voegt wel informatie toe, als gedemonstreerd in Death Strandign waarin de backpack veel meer details in de textures had zitten en text opeens wel leesbaar was. Het is een gedetailleerder beeld dan native 4K. Hoe is dat niet extra detail toevoegen?
"Native 8K" is net zoiets als "native 4K", marketing. We hebben al best een tijdje geen pixel-perfect rendering meer, en dat is ook nergens voor nodig.
https://youtu.be/BMV79iDPPC8?t=465

DLSS is een feature die de game moet ondersteunen en dus niet automatisch in alle games beschikbaar.
Er zijn ook games die het wel ondersteunen maar tot 4K. Mijn statement was ook gebaseerd op vertrouwd Native 8K en niet in een specifiek ondersteunde games.
DLSS3 dat er aan gaat komen meot het implementeren ervan makkelijke rmaken. Dat laatst eis natuurlijk koffiedik kijken. Maar de tijd van alles met brute force proberen te renderen is denk ik wel voorbij. Consoles spelen hier ook op in .
Om te kunnen gamen op 8K bij 60fps zijn minimaal 2 x 3080s nodig. 8K is 4X 4K.
Het bijzondere aan DLSS is, en dat kun je zelf proberen in f1 2020, dat de game met DLSS er beter uit ziet dan met TAA. Dus je krijgt én scherper beeld én flink meer fps. In mijn geval praten we dan over 3440x1440 op 34 inch; 109.69 PPI.

Primaire probleem; voorlopig heb ik letterlijk één game waar DLSS in zit. Dit op een steam library van meer dan 400 games.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 03:47]

Het is een getalletje dat je op de doos kan zetten waardoor leken sneller denken: Oh die heeft meer dus die is vast beter.

Marketing trukjes om toch marktaandeel te kunnen krijgen ook al zijn ze slechter.

Disclaimer: dit is puur speculatie in het geval AMD niet Nvidia kan evenaren
NVidia heeft die keuze gemaakt om ook nog concurrerend te blijven met hun prijzen. Ik neem aan dat GDDR6x duurder is dan de variant die AMD gebruikt en dat 4 chipjes extra erop gooien meer dan 50 euro duurder wordt voor de consument.
GDDR6 of GDDR6X maakt nog al een verschil. Ook andere factoren spelen mee zoals de geheugenbus. Je kan niet zomaar de hoeveelheid geheugen vergelijken en daaruit conclusies trekken. Kortom, gewoon alle reviews afwachten.
GDDR6X lijkt Nvidia exclusief. Het verschil is 19-19.5 GB/s tov 14-16 GB/s.
AMD maakt niet alleen gamers kaarten, maar ook kaarten bedoeld voor in de professionele tak. Het is goedkoper om 1 model te ontwikkelen, en daar een "gamers" aftakking van te releasen als je chips hebt die de quality standards van een professionele kaart niet halen.

Nvidia doet dat natuurlijk ook met de Quaddro lijn; niets gaat qua chips verloren.
640k ought to be enough for everyone.
Zucht. Kunnen we iedereen die deze uitspraak nog doet een dagje verbannen?
Ik betwijfel het echt of 10gb vram wel genoeg is voor 4K ultra en nog hogere resoluties. Lijkt meer een strategische keuze te zijn door consumenten naar een 3090 te duwen of er nog een kaart tussen te zetten van 1000-1200 euro met meer geheugen.
Nou heel simpel je geheugen bus bestuk je volledig met ram.
Daarom is het altijd een veelvoud van met de bus breedte als basis en enkele mem chip bied.
gkaart huidige keuze opties
3070 8 4 8 16 32
3080 10 5 10 20 40
3090 24 6 12 24 48

3070 is 8 kan net 16 ruim voldoende future proof
3080 is 10 sweetspot van moment kan bij paar nieuwe games magertjes worden 20 is dan erg future proof
3090 is met 12GB lijkt wat magerjes want de concurrent zou stappen voor 4 8 16 32 hebben en de top kaart zou dan al snel 16GB zijn de keuze om voor 32 is dan overkill als 16GB al future proof is dus meer dan je nu nodig hebt. Er zou dus een 16GB 3070 of een 20GB 3080 kunnen komen misschien de Super varrianten.
Eerst dacht ik: qua dikte valt deze kaart wel mee. Tot ik de cpu-koeler onderaan de foto zag en me realiseerde dat de koeler bovenaan voor de gpu is.
Dan zal het toch wel een oude foto zijn. Ik neem aan dat er inmiddels een elegantere koeling op zit.
Sowieso is dat A0 silicon (volgens de tekst), dat is de eerste versie. Als het gaat over een nieuwe architectuur (en dus niet een nieuwe versie van een bestaande architectuur), zou ik verwachten dat ze iig een tweede versie nodig hebben (B0 silicon).
Vind het al knap dat ze een A0 versie op een GPU kaart in een PC kunnen stoppen. Zou verwachten dat ze een groot validatie (test) board hebben om meer te kunnen testen.
Zoals in het artikel staat gebruikt men vaker zulke oplossingen op prototypes waarmee men enkel het ontwerp van de discrete componenten wenst te evalueren.
Ben erg benieuwd hoe dichtbij AMD bij Nvidia RTX3000 kan komen qua prijs-prestatie. Welk team je ook voor bent, mogen we allemaal blij zijn dat er weer wat concurrentie is denk ik.
Dit gaat inderdaad interessant zijn. AMD heeft vooralsnog niet echt iets dat in de high-end markt relevant is, maar in de medium-end en low-end zijn ze toch wel prijskoning. Ook dat is overigens iets dat RTX3000 wel eens kan veranderen, want de prijzen zijn redelijk en de performance is absurd.
De performance is niet echt absurd te noemen van de 3000 serie. Het is een goede upgrade over Turing maar absurd zou ik absoluut niet zeggen.

De 3080 vervangt de 2080ti en het verschil is 'waarschijnlijk' 30-40% en dat is een goede boost. 980ti -> 1080ti was 45%. Het is gewoon een nieuwe generatie met een goede nieuwe boost die je mag verwachten in een nieuwe generatie.

En over de prijs... Nvidia heeft mensen gewoon afgetroggeld met de RTX 2000 series.

En wat AMD kan laten zien... Op papier met 80cu en de RDNA2 verbeteringen zouden we wel eens een goede 3080 rivaal kunnen krijgen. Een 3090 rivaal word lastiger.
Maar op dit moment is het koffiedik kijken.

[Reactie gewijzigd door EXos op 23 juli 2024 03:47]

Je vergelijkt de 980ti met de 1080ti maar je vergelijkt de de 2080ti met de 3080. De 3090 is nu het vlaggeschip dus moet je hem daar ook tegen zetten.
Met €1500,- dat is niet je vlaggeschip. Dat is je Titan. Met de hoogste SKU, 24Gb Ram en 350W vermogen, dit is het hoogste wat je gaat krijgen van Ampere. Misschien nog een variant met meer RAM maar er komt geen TITAN RTX 2 (black/gold/Pink with yellow polkadots).
Titan is geen standaard consumer kaart. Iedereen weet dat het de reguliere serie is die je met elkaar moet vergelijken. Je vergelijk immers de 980ti ook met de 1080ti terwijl er een titan was. Dat de 1080ti sneller was, was natuurlijk een bijzaak maar het was niet het vlaggeschip.
Ik zou de 3090 ook geen standaar consumer kaart noemen. Met 24Gb RAM en die prijskaart. Het feit dat mensen het normaal vinden om €1300,- te betalen voor een grafische kaart is leuk voor Nvidia maar dat maakt het niet een Consumer kaart.
En vast houden aan benamingen? De 3090 is geen dubbele GPU kaart, dus ik klamp me niet vast aan de Ti titel.

En er komt geen ti versie. Daar is geen ruimte voor met de Chip. Hooguit een 'super' met meer RAM. Kijk naar de specs van de Chip en voorgaande generaties, er is geen ruimte voor.
Klopt, en de 3080 ti komt er nog, er is nog ruimte voor een 1000 dollar kaart.
Gewoon appels met appels vergelijken, ookal komt dat voor je verhaal minder goed uit.

2070-->3070 (500 euro range)
2080-->3080 (800 euro range)

Kijk je naar het prijspeil, dan vallen ze ook precies in het juiste segment.

[Reactie gewijzigd door OriginalFlyingdutchman op 23 juli 2024 03:47]

Er is ruimte qua prijs maar niet op de chip zelf. Kijk zelf maar naar de verschillen tussen de 2080 en 2080ti. En dan naar het verschilen tussen de 3080 en 3090. Er is amper tot geen ruimte om een extra kaart daar uit te slaan.
Ik verwacht hooguit een versie met meer RAM meer niet.
Hoezo is daar geen ruimte?

Volgens het eerdere artikel heeft de 3080 ~8700 Cuda cores en de 3060 ~10500. Samen met het geheugen is dat best wel een performance gat dat met een Ti op te vullen is.

En bv ook bij de 10 series heeft nvidia een Ti uitgebracht die de eerste titan van de troon stootte. En die Ti lag heel dicht in de buurt van de performance van de daarna uitgebrachte Titan Xp.

Het ligt een beetje wat AMD doet. Als zij een 3080 killer uitbrengen komt er heel snel een Ti denk ik.
Klopt er is een verschil van circa 1800 Cuda Cores. Een verschil van 20% van de 3080 naar de 3090, dat is ontzettend weinig om nog een chip tussen te prakken. En als ze het doen, dan moeten ze hun beste chip in drie productie lijnen verdelen.

Laten we eens kijken naar de vorige verschillen tussen de xx80 > xx80ti > Titan en de chips die in de kaarten gaan.

980> 37.5%> 980ti> 9% > Titan X
980: GM204
980ti: GM200
Titan X: GM200

1080> 40%> 1080ti> 7%> Titan XP
1080: GP104
1080ti: GP102
Titan XP: GP102

2080S> 41.6%> 2080ti> 5%> Titan RTX
2080S: TU104
2080Ti: TU102
Titan RTX: TU102

3070> 47.8%> 3080> 20.5%> 3090
3070: GA104
3080: GA102
3090: GA102
$499> 40%> $699> 114%> 1499

Dus vertel me, wat zou die 3080ti, in %, aan extra Cuda Cores moeten hebben? Hoe wil je dat uit de al beperkt oplage GA102 chips halen? En welke prijs moet je het geven zonder dat je de prijs van de 3090 belachelijk maakt?

Als er al een extra variant komt dan komt er een 3080 met extra RAM maar die kan je geen Ti noemen.

En die 20% tussen 80 en 90 is waarschijnlijk omdat het process bij Samsung nog niet helemaal lekker is en zo kunnen ze meer chips eruit halen.
Dus vertel me, wat zou die 3080ti, in %, aan extra Cuda Cores moeten hebben? Hoe wil je dat uit de al beperkt oplage GA102 chips halen? En welke prijs moet je het geven zonder dat je de prijs van de 3090 belachelijk maakt?
5% van de 3090 en 1200dollar, of net in het midden en 1000dollar?
Als er al een extra variant komt dan komt er een 3080 met extra RAM maar die kan je geen Ti noemen.
Het zou kunnen, en er zijn veel 'geruchten' dat de aic's zowel de 3080 10GB als 20GB gaan uitbrengen. Er is namelijk nog de pg132 sku20 die nog niet in het lijstje voorkomt. Maar dat wil niet zeggen dat er geen 3080 Ti uit kan komen. Nogmaals, bij de 10 series heeft nvidia zijn eigen Titan X (pascal) 'vervangen' door de 1080 Ti en daarna een nieuwe Titan Xp uitgebracht.
En die 20% tussen 80 en 90 is waarschijnlijk omdat het process bij Samsung nog niet helemaal lekker is en zo kunnen ze meer chips eruit halen.
Misschien, maar de 20 series was een uitzondering en meestal kwam de Ti pas ~1 jaar na de non-Ti uit, en tegen dan is het process missschien veel beter en kunnen ze gemakkelijker een andere kaart uitbrengen. Het kan ook een 3080 Super zijn die maar 5% sneller is als de 3080. Het zal blijven gissen zijn, tot er een kaart uitkomt of de 40 series uit is.
5% van de 3090 en 1200dollar, of net in het midden en 1000dollar?
Dat is een hele kleine sprong om een heel nieuw product uit te brengen. En Nvidia moet dan gaan snijden in de al geringe hoeveelheid 3080 snijden.
Gewoon een versie uitbrengen met meer RAM is veel makkelijker en is het enige wat ze kunnen
Het zou kunnen, en er zijn veel 'geruchten' dat de aic's zowel de 3080 10GB als 20GB gaan uitbrengen. Er is namelijk nog de pg132 sku20 die nog niet in het lijstje voorkomt. Maar dat wil niet zeggen dat er geen 3080 Ti uit kan komen. Nogmaals, bij de 10 series heeft nvidia zijn eigen Titan X (pascal) 'vervangen' door de 1080 Ti en daarna een nieuwe Titan Xp uitgebracht.
Die extra RAM versies geloof ik wel. De 'Pg132 Sku 20' is geen chip, volgens https://videocardz.com/ne...-card-with-20gb-of-memory is het de 3080 kaart maar met 20gb RAM.

Voor zover de Titan X, dat is al een rare eend omdat het de zelfde naam had als de Maxwell versie. Nou was Pascal ook een rare generatie, met de eerste 1080 in Mei 2016 maar de 1060 pas in december.
Hoe dan ook, het kan zijn dat ze inderdaad een upgrade doen voor de 3090 en dan de chip doorschuiven naar een 3080ti. Maar, daar gaat eerst wel een jaar over heen. En ik weet niet wanneer Nvidia Hopper uit wil brengen.
Tegelijkertijd wil AMD RDNA 3 volgens mij voor 2022 uitbrengen...
Misschien, maar de 20 series was een uitzondering en meestal kwam de Ti pas ~1 jaar na de non-Ti uit, en tegen dan is het process missschien veel beter en kunnen ze gemakkelijker een andere kaart uitbrengen. Het kan ook een 3080 Super zijn die maar 5% sneller is als de 3080. Het zal blijven gissen zijn, tot er een kaart uitkomt of de 40 series uit is.
Zoals ik al zei, de 2080 was op een kleiner chip. Dus was er genoeg ruimte voor een Ti versie. Dat is er met Ampere gewoon amper tot niet tenzij het verschil minimaal is. En hopelijk is er ook gewoon geen tijd voor Nvidia als AMD RDNA3 over een jaar uitkomt...

Hoe dan ook het is een leuke generatie met duidelijk competitie. Hoe je het ook draait, door RDNA2 (consoles of directe GPUs) zijn de video kaarten weer naar een wat schappelijkere prijs gedaald. En het feit dat Ampere zoveel watt slurpt laat zien dat Nvidia gedwongen zijn om hun ~250 Watt regel hebben moeten laten schieten. :P

[Reactie gewijzigd door EXos op 23 juli 2024 03:47]

Qua prijs lijkt de 3080 inderdaad ook meer op de 2080(. Qua naam overigens ook. Ze hebben gewoon de 'ti' laten vallen en er xx90 van gemaakt. Eerlijk gezegd vind ik dit ook een beter naamgeving. Dat het ooit voor 2 GPU's stond is nu geen obstakel meer lijkt me.
TI (en/of Super) komt altijd later, dus de 3080TI komt gewoon nog en dat is de echte opvolger...
Nvidia heeft aangegeven de Ti-toevoeging te laten vallen. Inderdaad verwarrend iedere keer weer de aanpassingen in benamingen, maar ook de Titan benaming zou komen te vervallen daar is in deze serie de 3090 voor in de plek gekomen.
Ja de Ti is ..90 .
Tussen ..80 en ..90 kan er nog een ..80 Super
Geloof het maar niet. 3090 is gewoon de Titan, maar dan goedkoper. Sterker nog, hij zei letterlijk dat het de vervanging van de Titan is.

Er is niet voor niets een enorm gat tussen de 3090 en de 3080. Er komt gewoon nog iets tussen van rond de 1000 euro (3080ti).

Kijk naar het verleden, elke keer worden 20 verschillende kaarten uitgebracht om elk prijspeil te bedienen. Misschien dat we deze keer moeten wachten tot de refresh, maar er komt echt wel een 1000 dollar kaart tussen.

[Reactie gewijzigd door OriginalFlyingdutchman op 23 juli 2024 03:47]

Maar de 3090 kost veel meer dan mijn hele pc...
De 3090 bestaat, maar ik denk toch dat deze eerder gemaakt is om zeker te zijn dat ze straks nog steeds de snelste zijn. Er zullen wel wat mensen zijn die dat kopen, maar ik zou toch denken dat dat beperkt zal zijn.
Nee, de 3090 is de opvolger van de Titan.
De 3090 is de opvolger van de Titan-series, begin deze week nog een stukje over voorbij zien komen. Daarnaast zou Nvidia afgestapt zijn van de Ti toevoegingen.

[Reactie gewijzigd door _Dune_ op 23 juli 2024 03:47]

Nee... de 2080ti zet je tegen de toekomstige 3080ti.
Qua performance is het de 3070 die de 2080ti vervangt.
De 980Ti naar 1080 Ti sprong was volgens mij een stukje groter. Volgens mij eerder in de orde van 70-85% gemiddeld genomen. Het is dus zeker niet de boost die we vroeger bij een nieuwe generatie kregen maar wel een grote stap vooruit tenopzichte van de lackluster 2xxx series (en dan heb ik het voornamelijk over price/perf).
https://www.techpowerup.c...force-gtx-1080-ti/30.html
Als we de RTX 2000 er tussen uit gooien dan is de Prijs/Perf er maar een klein stapje op vooruit gegaan. De top kaart van Pascal; 1080ti was $699.
De 3080 wordt hopelijk $599. (De 2080ti zou "maar" $999 kosten...)

Dus het is een goede ontwikkeling.
Volgens je link was het inderdaad een stuk hoger. :) I stand corrected.
Ik ben niet voor een team. Ik ben voor prestatie per euro. :)
Dat wordt hier dan ook benoemd.
ik ben voor prestatie per euro
Dat betwijfel ik :) als AMD een kaart op de markt zet welke voor 100 euro presteert als een 2070, dan wordt je echt niet blij. Ongeacht het feit dat het prestatie/euro misschien wel super is.

Uiteindelijk gaat het om de prestatie en of je de prijs er voor over hebt.
100 euro voor 2070 prestaties? Dat is een top upgrade voor iedereen met een GTX 1070 of trager.
Dat is wat, 80% van de markt? Sign me up hoor.
[...]
Dat betwijfel ik :) als AMD een kaart op de markt zet welke voor 100 euro presteert als een 2070, dan wordt je echt niet blij.
Ik zou vooraan in de rij staan; niet iedereen is op zoek naar het meest premium model.
Ik ben gewoon op zoek naar een degelijke kaart die 1080/1440 op hoe settings doet voor niet te veel geld.
Laat maar komen zou ik zeggen.....
Ik ben voor prestatie per Watt en stabiele drivers.

[Reactie gewijzigd door aval0ne op 23 juli 2024 03:47]

Concurrentie is voor de consument het beste wat er bestaat, zo moeten partijen de prijs lager houden en dat zie je dus nu ook al aan de rtx3000 serie.

Ik word er in ieder geval vrolijk van :D
Je zou bijna zeggen dat als de performance van deze kaarten enigszins in de buurt komen van de 3080/3090 dat AMD daar nu wel iets meer over zou "lekken". Immers, iedereen die in de komende maanden een nieuwe Nvidia GPU gaat kopen zal waarschijnlijk deze AMD kaarten aan zich voorbij laten gaan. Je gaat niet een splinternieuwe GPU gelijk weer vervangen. Tweedehands zijn die dan ook niet veel meer waard als er nieuw betere kaarten voor minder geld te verkrijgen zijn (zie bijvoorbeeld de prijsontwikkeling van de 2080TI hier op V&A de afgelopen 2 weken). Als men weet dat AMD met een beter/goedkoper alternatief komt zullen een hoop mensen toch nog wel even willen wachten.

[Reactie gewijzigd door Jorissie87 op 23 juli 2024 03:47]

Ik denk niet dat dat klopt. Elke info die AMD nu zou lossen zou toch verdrongen worden door Nvidia nieuws. Nvidia is nu eenmaal eerder klaar met de nieuwe generatie en daar kan je niet veel tegen beginnen. De komende weken domineren zij zonder twijfel alle gpu gerelateerde berichtgeving.

Het lijkt me voor AMD verstandiger netjes hun beurt af te wachten zodat zij ook hun periode van coverage dominantie kunnen opeisen.

Ik betwijfel ook sterk of je veel mensen kunt overtuigen te wachten als de nvidia kaarten straks in de winkelrekken liggen. Hun lineup is hoe dan ook sterk, ongeacht waar AMD mee zal afkomen.

Neemt niet weg dat ikzelf persoonlijk waanzinnig nieuwschierig ben naar big navi 😎
Je zou bijna zeggen dat als de performance van deze kaarten enigszins in de buurt komen van de 3080/3090 dat AMD daar nu wel iets meer over zou "lekken".
Er komt wel wat los; AMD's Frank Azor says 'the sun'll come out tomorrow'. Of hij daarmee implicieert dat big navi zo warm is als de zon is even afwachten :+ .
Samsun 8N procede is goedkopere mindere. Kan zijn dat TSMC te duur of te veel vraagt voor die godzilla chips en nV dus moest kiezen waar GA102 te produceren. Dat geeft mogelijkheden voor bignavi om de betere keuze kwa procede met kleinere chip de 3090 te evenaren door hogere klok zonder al te grote TDP problemen.
De nieuwe Xbox heeft een 320 bit bus.
Dat een veel snellere big Navi een 256 bit bus zou hebben lijkt mij onmogelijk.
Volgens mij is dat een gedeelde bus, dus dat ook het systeem daar geheugen vanaf snoept. Beide xbox en PS5 zijn inherent aan een lager stroomverbruik dan dat een videokaart mag gebruiken.
Wat wel interessant is bij die kaart op de foto is dat het lijkt of die stackable is door een aantal pinouts bovenop de GPU, of is het voor developer doeleinden? Wellicht is dat nog een troef die ze spelen?
Dat zijn denk ik gewoon meet punten en debug ports ;)

Hoe wou je overigens ook stacken als de kaart er onder een grote koeler er op heeft zitten :+
Leuk allemaal maar de presentaties zijn veel belangrijker. Die speciale koeler is leuk en ik ben benieuwd hoe efficiënt hij koelt, naar je kan geen uitbreidingskaarten kwijt
Ik denk dat de foto serieus goed staat, die cooler op die GPU is niet normaal zwaar denk ik anders.
Die koeler hangt er onder. Je ziet de voeding ook, die zit onderin de kast maar staat op de foto erboven (en op zn kop). Door de kast heen kan je de muren en een stoel zien. De foto staat op z'n kop.

Op dit item kan niet meer gereageerd worden.