'AMD Navi-chips op basis van RDNA 2 hebben 40 en 80 compute units'

AMD's ROMc 3.8-software bevat mogelijk details over de specificaties van de komende Radeon RX 6000-kaarten. De software bevat firmware voor chips met de codenamen Navy Flounder en Sienna Cichlid. Die zouden 40 en 80 compute units hebben.

De huidige Navi 10-gpu die AMD gebruikt voor zijn RX 5700-videokaarten, is uitgerust met 40 compute units. De Navy Flounder-chip met een gelijk aantal CU's, zou daar een opvolger van kunnen zijn, gericht op het middensegment. De variant met codenaam Sienna Cichlid zou het topmodel zijn, met 80 CU's.

Navi-chips op basis van RDNA 2 worden net als de eerste generatie op 7nm gemaakt. Een verdubbeling van het aantal compute units betekent ook een veel groter chipoppervlak, wat de gpu duurder maakt. Vermoedelijk wordt Sienna Cichlid gepositioneerd tegenover Nvidia's GeForce RTX 3080.

De codenamen en details staan in firmware voor ROCm 3.8, ofwel RadeonOpenCompute. Reddit-gebruiker stblr zette een tabel online met de specificaties. Uit de gepubliceerde informatie is het aantal compute units te halen, door de eerste drie rijen met elkaar te vermenigvuldigen.

In de vijfde rij wordt het aantal texture channel caches aangegeven en dat is gebruikelijk gerelateerd aan de breedte van de geheugenbus. Als dat in dit geval zo is, zou Navy Flounder een 192bits-geheugenbus hebben en zou dat voor Sienna Chichlid 256bits zijn.

Eerder deze maand verscheen een foto van een vermeend prototype van een Radeon RX 6000-videokaart met 16GB GDDR6. Op die kaart zouden acht chips zitten, wat ook duidt op een 256bits-geheugenbus. De bandbreedte zou daarmee uitkomen op 512GB/s, wat lager is dan bij high-end- kaarten van Nvidia. De RTX 3080 haalt bijvoorbeeld 760GB/s met zijn 320bits-geheugenbus en Gddr6x-geheugen. Mogelijk gebruikt AMD andere technieken om voor de relatief lage bandbreedte te compenseren, zoals meer cachegeheugen.

AMD presenteert zijn RX 6000-videokaarten op 28 oktober. Hoeveel kaarten de fabrikant aankondigt, is nog niet bekend. AMD heeft één foto getoond van een grote kaart met drie fans. Vermoedelijk wordt dat het topmodel. Concrete details over specificaties heeft de fabrikant nog niet gegeven. Wel maakte AMD eerder dit jaar al bekend dat RDNA 2 zorgt voor een verbetering van 50 procent als het gaat om prestaties per watt, ten opzichte van de huidige RDNA-architectuur in de RX 5000-videokaarten.

RX 5700 (XT) RX 5300 (XT)
RX 5500 (XT)
Pro 5600M RX 6900? RX 6800?
RX 6700?
Parameter Navi 10 Navi 14 Navi 12 Sienna Cichlid Navy Flounder
gc_num_se 2 1 2 4 2
gc_num_cu_per_sh 10 12 10 10 10
gc_num_sh_per_se 2 2 2 2 2
gc_num_rb_per_se 8 8 8 4 4
gc_num_tccs 16 8 16 16 12
gc_num_gprs 1024 1024 1024 1024 1024
gc_num_max_gs_thds 32 32 32 32 32
gc_gs_table_depth 32 32 32 32 32
gc_gsprim_buff_depth 1792 1792 1792 1792 1792
gc_double_offchip_lds_buffer 1024 512 1024 1024 1024
gc_wave_size 32 32 32 32 32
gc_max_waves_per_simd 20 20 20 16 16
gc_lds_size 64 64 64 64 64
num_sc_per_sh 1 1 1 1 1
num_packer_per_sc 2 2 2 4 4
AMD Radeon RX 6000
AMD Radeon RX 6000-videokaart

Door Julian Huijbregts

Nieuwsredacteur

22-09-2020 • 17:30

199

Reacties (199)

199
188
87
13
0
85
Wijzig sortering
Big navi

Vanuit het vergeleken met RDNA1 perspectief
2x zoveel CU's, veel hogere energie efficientie en vermoed ik, daar microsoft ook RDNA2 gebruikt en een afgeleide van windows 10, degelijk werkende drivers. Neem daarbij een bak geheugen en geruchten over een forse bak cache.

Of vanuit console perspectief.
Meer CU's, waarschijnlijk een groter energie budget, dedicated geheugen en ruimte voor veel brutere koeling.

Ik mag dan amd fanboy zijn, maar het lijkt me dat optimisme objectief gezien niet geheel ongegrond is.
De RTX 3080 is 2x zo snel als de 5700xt (40CU, 256bit bus) in 4k (link). Als je lineare schaling zou hebben, dan is 2x 5700xt aan elkaar geplakt (80CU, 512bit bus) dus net zo snel als de 3080, maar met een stroomverbruik van ~450W (link). AMD claimt 50% perf/watt verbetering van RDNA2, dan kom je dus uit op ~300W (= RTX 3080). Echter, big navi (80CU) heeft kennelijk niet een 512bit bus, maar 256 bit. Conclusie; zelfs op basis van de meest optimisitsche inschatting is big navi slechts grofweg even goed als een 3080 op 4k, en dat is met raytracing weggelaten.

Ik zie niet hoe optimisme objectief gegrond zou zijn. Nvidia's architectuur ligt mijlen ver voor op AMD, alle verbeteringen tov RDNA1 zijn dus vanuit het verkeerde referentiekader.
Omdat er nergens gezegd is dat RDNA2 niet ook snellere CU's heeft. Gezien het een nieuwe generatie is, is het aannemelijk van wel. Daar jij zelf al zegt dat hij net zo snel is zonder die verbetering.... Ja, gegrond optimisme
Sneller betekent meer vermogen de 50% perf/watt van amd zelf geeft eigenlijk al aan wat de snelheid gaat worden. Nvidia ligt gewoon veel verder voor. Daar hoef je geen fanboy voor te zijn. Daarnaast heb je aparte hardware voor dsll wat beter werkt bij nvidia en daadwerkelijk goede resultaten neerzet en raytracing hardware. Terwijl het nog niet duidelijk is wat AMD's oplossing is. Die hardware maakt nvidia duur, dus mogelijk is het wel zo dat amd veel goedkoper kan maken en dus toch iets te bieden heeft. Maar sneller dan een 3080 verwacht ik niet.
Even goed maar met veel lager stroomverbruik lijkt me geweldig. De 3080 is voor mij een no go omdat ik een compacte case heb: 250Watt is geen probleem, maar 300+Watt wordt dat wel.
Gelekte informatie dus met zout nemen maar hier de info:

[RX 6880 XT]
- 80 CUs
- 5120 stream processors
- 96 ROPs
- 2000 MHz boost clock
- 12 GB GDDR6 @ 512.0 GB/s
- 128 MB infinity cache
- TDP: ~300W
- ~20 TFLOPS

[RX 6990 XT]
- 80 CUs
- 5120 stream processors
- 96 ROPs
- 2145 MHz boost clock
- 16 GB GDDR6 @ 720.0 GB/s
- 128 MB infinity cache
- TDP: ~350W
- ~22 TFLOPS

Geen enkele head room voor overclock potentieel dus. En als de info klopt is deze kaart gewoon een vega all over again. Die enorme stroom vraag betekent dus simpelweg dat ze de kaart maximaal klocken om enig sinds in de buurt te komen bij hun target dat is simpelweg niet iets wat je graag wil hebben (grotere koeler nodig en weinig ruimte voor OC) dus als dit waar is is het wel confirmatie dat amd vol gas geeft voor een doel en ik denk dat dit de 3080 gaat worden, maar ik zal niet verbaast kijken als het de 2080ti is geweest.

[Reactie gewijzigd door D0gtag op 25 juli 2024 21:41]

Conclusie; zelfs op basis van de meest optimisitsche inschatting is big navi slechts grofweg even goed als een 3080 op 4k,
Prima toch dan?

AMD zorgt er naar alle waarschijnlijkheid voor, dat dit prijssegment goedkoper wordt. In ieder geval is de yield van TSMC N7 of N7P (Big Navi) een stuk groter dan die van Samsung 8nm (3080), dus met een beetje geluk komt er prijs-concurrentie in dat markt-segment; en gaan de idioot hoge monopolie-prijzen van de NVidia kaarten omlaag. Als ik het goed begrepen had, was de 3080 al redelijk goedkoop geprijsd tov de voorganger; ziedaar Nvidia's anticipatie op Big Navi.

Marge-compressie aan het werk!

Nu zegt NVidia dat de vraag naar de 3000-serie hoog is terwijl criticasters zeggen dat het aanbod laag is door de lage yield bij Samsung. Ik weet niet hoe dat zit; maar aangezien TSMC weel capa heeft op N7/N7P zou in ieder geval de verkrjigbaarheid beter moeten worden voor dit segment als geheel. Mits AMD genoeg capaciteit heeft ingekocht; dat zal blijken.

[Reactie gewijzigd door kidde op 25 juli 2024 21:41]

Die 450Wat klopt niet 512bit vreet namelijk ook veel vermogen. De reden voor HBM2. Wat weer te duur is voor consumenten kaarten maar idiealer voor compute taken.
256bit normalere mem maakt het zuiniger samen met 128MB cache lever je mogelijk niet of nauwelijk veel in waardoor je ook op 4K kan meekomen. 3080 3090 vreten o.a. veel vermogen door de hoger bus breedte en energie slurpende GDDR6X op hoge klokken.
Omdat nV al voor 320 en 350Watt TDP.
Zou AMD een veel hogere klok kunnen kiezen voor 6900XTX dan oorspronkelijk gepland, ergens tussen de 300en 325 watt.
misschien stomme vraag hoor.

Kan de BIG NAVI niet gewoon 2 dies van 40 compute units hebben die aan elkaar gekoppeld zijn.
Een soort opbouw als een Ryzen Processor met zijn CCX'en
Die worden verwacht bij RDNA3 en nVidia zou met Hopper naar een MCM architectuur gaan.

Het is niet onmogelijk maar latency's zijn bij gpus not belangrijker dan bij CPU's en zelfs daar heeft amd. Nog werk te doen tov Zen2. Dus ik denk zelf eerlijk gezegd nog geen chiplets bij RDNA2.
We kunnen tog uitrekenen hoe snel deze chip ongeveer zal zijn?
Hoeveel compute units heeft de nieuwe Xbox ? Hoeveel teraflops? Etc .

De nieuwe Xbox heeft 50 cu voor 12 teraflops.
Dus deze chip haalt de 22 teraflops wel met 16 gigabyte aan ram.
Hij gaat de 3070 dus dik voorbij met een ongelooflijke zuinige kleine chip.

[Reactie gewijzigd door Ladiesman777 op 25 juli 2024 21:41]

Wordt lastig omdat we de snelheden van de kaarten nog niet weten.
De PS5 draait op 2.2Ghz maar de Xbox op 1.7.

Maar de Xbox heeft 52 CU. Maar we weten nog niet waar deze beland qua vergelijkbare GPU.
30% meer CU voor een 5700xt zou het richting de 2080S pushen lijkt me.

Maar zoals ik al in mijn eigen comment zei, een hoop geruchten. Maar RDNA2 lijkt zeker potentie te hebben.
Digital foundry had wat footage waar de xbox series x GOW 5 (dev build) draaide met vergelijkbare fps als een RTX 2080 met vergelijkbare settings https://youtu.be/qcY4nRHapmE?t=488
Dat bedoel ik maar. RDNA2 heeft duidelijk potentie. En met meer optimalisatie, tussen 2080S en 2080ti zou niet onrealistisch zijn.

Bedankt voor de link.
De xbox is (verhoudingsgewijs) zeer gelimiteerd door het aantal watt's dat door de gpu verstookt kan worden. Op een discrete GPU heb je hier veel meer vrijheid.
- hogere clocks en meer CU's.
- 50% meer efficiency door de die-shrink
- 2x 8 pins PCIe power connectoren dat moet wel wat concurrentie in het hogere segment geven dunkt mij zo.

edit: typo

[Reactie gewijzigd door Rem_NL op 25 juli 2024 21:41]

Er gaat een 200 Watt plug in de Xbox (250 watt max). Maar een deel daarvan gaat naar de GPU...
AMD fluistert dat de efficientie nu 60% is nu.

Daarom zei ik al dat RDNA2 potentie heeft. Maar de hype train voor AMD is al vaker ontspoord.
Hoe dan ook, al de 6xxx serie het waarmaakt dan gaat mijn systeem all RED.
Er gaat een 200 Watt plug in de Xbox (250 watt max).
Dat is in de nieuwe consoles wel meer.

De Xbox Series X heeft een max power draw van 310 watt.
De Playstation 5 heeft een max power draw van 350 watt.
Welke die-shrink? De eerste RDNA, de 5700 is ook gewoon TSMC 7nm zoals RDNA 2.
Helemaal gelijk, my bad. Geen die shrink maar (wellicht) andere architectuur.
Het top model moet toch echt wel de 2080 Ti ruim voorbij gaan anders heeft amd echt iets heel erg verkeerd gedaan als die 80 CU's dat niet kunnen. Dan zit er een gigs bottleneck in de chip. Daar ga ik niet van uit. Ik denk dat AMD wel met de 3080 kan concurreren ook qua prestaties en niet alleen qua prijs.

De 3090 denk ik niet maar wie weet verbaast amd ons nog.

[Reactie gewijzigd door Astennu op 25 juli 2024 21:41]

Ik had het meer over de Xbox en waar deze komt in vergelijking met een GPU. De gears 5 demo liet een 2080 niveau zien. De demo was nog niet geoptimaliseerd en de drivers waarschijnlijk ook nog niet.

Als de Xbox in de buurt komt van de 2080ti... Dan kan Nvidia de borst nat maken voor de 6900xt.
Zoals ik al in ander comments heb gezegd, ik ben niet onder de indruk van Ampere. De verbeteringen op 1080 en 1440 liggen tussen de 15~25% meer dan de 2080ti. En de verbetering op 4k is nog al logisch met snellere V-ram.

2x de 5700xt zou qua prestaties zo'n 30~35% boven de 2080ti moeten komen. Dat is puur 1+1=2 en zo werkt het niet in het echt. Maar, zoals je al zei in je andere comment dit is RDNA2 en AMD heeft het al over een 60% perf/watt verbetering.

Ik probeer mijn verwachtingen laag te houden en niet mee te worden gesleurd in de hype train.
Maar, van wat ik heb gezien en gelezen over RDNA2 dan zou ik niet super verbaasd zijn als ze kaart laten zien die in een aantal gevallen ook uit kan halen naar de 3090.

Op hardware niveau is de grote vraag hoe zal het gaan met de V-ram bandbreedte. Ligt hier een zwakke plek? Of heeft AMD weer iets slims uitgevonden?
Ja een 128MB L2 Cache volgens de geruchten.
En daarvan zeiden de developers specific nog dat er nog "untapped performance" in de hardware zit.

https://www.usgamer.net/a...eries-x-gears-5-port-2080
"I think we're really positive to kind of see how this thing is performing, especially knowing how much untapped performance is still there in the box based on the work we've done so far,"
Dat ging over de xbox series x hardware...

En je conclusie dat AMD niks heeft vs nvidia slaat nergens op natuurlijk.

Want wat wil je precies dat ze doen dan? Nu al performance cijfers vrijgeven (ondanks dat ze de final clocks nog aan het bepalen zijn) en dan net als met de 5700xt launch, 2 dagen laten al door nvidia worden afgetroefd met een nipt snellere super series? nee, dat gaan ze dus niet nog een keer doen. ze houden de cijfers dicht op de borst.

Een hope hype maken zonder performance cijfers dan? Dan gaan mensen toch alleen maar zeggen 'poor volta', dus daar hebben ze ook niks aan.

En wat ze al wel gedaan hebben is de kaart laten zien, met duidelijk een 2 keer 8 pins, en een stevige 3-fan ontwerp koeler dus de kaart heeft duidelijk een stevig verbruik, hoger als de 5700XT. Maar ze hebben al maanden geleden gezegd dat ze voor 50% betere perf/watt gaan. Dat samen duidt toch wel op stevige performance cijfers.
En ze hebben, min of meer gezegd, opnieuw maanden geleden al, dat ze 4k gaming bereikbaarder willen maken. Net als de 5700xt 1440p gaming veel makkelijker bereikbaar maakte. (specifiek hadden ze het over de volgende stap omhoog na 1440p)

En natuurlijk kan je alles wat AMD al eerder gezegd in twijfel trekken... maar waarom zou je alles wat ze nu zeggen dan wel geloven? Daar schiet je dan toch niks mee op?

Dus, wat zou AMD, volgens jouw, nog meer moeten doen?

[Reactie gewijzigd door Countess op 25 juli 2024 21:41]

Wat ik vooral hoor is geen antwoord op mijn vraag, een ad hominem, een geen tegen argumenten.
En nu je het toch over stank hebt... het begint hier een beetje naar troll te ruiken.

edit: Bedankt voor je reactie waarmee je voor iedereen nog even het onomstotelijke bewijs wilde leveren dat je inderdaad een troll bent.

[Reactie gewijzigd door Countess op 25 juli 2024 21:41]

Dat is wat de developers zeggen. Zij moeten dus voor deze architectuur nog leren optimaliseren. Vaak te merken dat hun volgende titels er veel meer uit halen. De games die meeste eruit halen zijn vaak exclusives tegen einde van console cyclus. Met de tijd zullen veel gangbare engines gebruikt voor console titels beter voor RDNA2 geoptimaliseerd zijn. Heeft zijn tijd nodig. PC titels en port hebben daar dus ook indirect baad bij.
Je vergeet dat RDNA 2 niet dezelfde architectuur is als RDNA 1.
Je vergeet dat RDNA 2 niet dezelfde architectuur is als RDNA 1.
Veel mensen vergeten dat RDNA1 voor de helft nog bestond uit GCN architectuur.
Klopt, maar ik probeer een beetje water bij de wijn te doen. Teveel geruchten.
Ik hoorde ook al bij een aantal dat de 6900xt het gevecht aangaat met de 3090. Nou is die maar 10~15% beter dan de 3080 volgens nog meer geruchten....

Ik hoop dat het waar is maar ik probeer voorzichtig te zijn in eventuele voorspellingen.
3090 = 3080 + 12 GB geheugen en een klein beetje extra performance die je in de praktijk amper merkt, maar die 12 GB extra is wel fijn voor van alles en nog wat.
Dat is zeker zo. Maar voor de gewone gamer voegt het niet zoveel toe. En dat verschil word kleiner als je de geruchten van een 20gb versie hoort.

En de 3080 heeft 14gb meer dan de 3090 ;)
Oja... tellen blijft moeilijk ;)

Ik zag de 12 GB van de 2080Ti vol voor MSFS2020 in tests, en was daarom al bang dat ik aan de 3090 zou moeten, maar als er een 20GB variant van de 3080 komt, of een leuke 16GB kaart van AMD, dan zijn er nog steeds alllerlei opties open. :Y)
FS2020 haalt net 9,5GB memory in use op 4k. Allocation is was anders en zegt niks over hoeveel VRAM je nodig hebt. Bovendien doet FS2020 als simulator gigantisch veel data en real-time downloads (maps, weather) dingen die een normaal spel niet doet. Niet echt te vergelijken met andere games. Andere games komen dan ook niet boven de 6-8 GB uit.

[Reactie gewijzigd door Blackice09 op 25 juli 2024 21:41]

Maar afgezien daarvan speel ik X-Plane en wel eens Factorio, en daar blijft het wel bij. Factorio hebben ze om een bizarre reden die niemand snapt ook heel zwaar 3D gemaakt, terwijl dat bij uitstek het spel was dat het in 2D prima doet.

Het was zelfs zo erg dat alleen het rocket launch gebouwtje niet in het geheugen van een 1080Ti paste. Totaal WTF guys?

Ik quote: https://factorio.com/blog/post/fff-283
The Rocket Silo without the rocket uses sixteen 8192x8192px textures which makes our 1080Ti run out of VRAM to render.. Luckily I have made the rendering as optimized as possible through python scripting as always. Worth noting that without our long-term focus on automation and proper workflow, this could have been a massive problem.
Terwijl dat eigenlijk gewoon een animated plaatje van een paar honderd bij een paar honderd pixels had kunnen zijn.
Lijkt me dat die blogpost het heeft over renderen naar game assets. Niet in-game.
Terwijl dat eigenlijk gewoon een animated plaatje van een paar honderd bij een paar honderd pixels had kunnen zijn.
Het renderen van dat animated plaatje kost VRAM om te renderen. Niet het draaien van het spel. Zet eens de taskmanager open tijdens het spelen van Factorio. Dan zul je zien dat dit een van de best optimized spellen ooit is. Elke beslissing die ze maken moet zo min mogelijk resources van je PC gebruiken en gewoon op een 5 jaar oude laptop draaien.
Ja, dat kost rekentijd en geheugen, dat snap ik en dat is ook helemaal niet erg, maar een plaatje van enkele tienduizenden pixels groot representeren met 'sixteen 8192x8192px textures' is compleet van de pot gerukt.
Ja, dat kost rekentijd en geheugen, dat snap ik en dat is ook helemaal niet erg, maar een plaatje van enkele tienduizenden pixels groot representeren met 'sixteen 8192x8192px textures' is compleet van de pot gerukt.
ik snap het probleem niet helemaal. Ze willen een zo mooi mogelijk plaatje genereren. Wat maakt het uit dat ze dat eenmalig wat resources kost? Als jij het spel speelt kost het helemaal geen resources en ziet het er alleen mooi uit.
Je maakt je zorgen dat de developers teveel geld uitgeven? Ik zou aannemen dat ze er verstand van hebben en weten wat ze aan het doen zijn.
Heerlijk als de factorio devs over automation in hun workflow praten, waar halen ze die inspiratie toch vandaan..
En de 3080 heeft 14gb meer dan de 3090
Je wilt hem corrigeren maar lukt niet zo ;)
Nou is die maar 10~15% beter dan de 3080 volgens nog meer geruchten....
Dat zijn geen geruchten maar gelekte benchmarks die voor het aflopen van de NDA zijn gepubliceerd.
Tec Lab had dat bij de 3080 ook gedaan en bleek exact accuraat te zijn.
Ooh God, dat gerucht ging ook op het forum van t.net ten tijde van vega, wat compleet bogus was en al lang duidelijk voor de launch. Full Navi of Navi 2 zal vast een stuk sneller dan Navi / gcn hybrid. Als vega iets doet herinneren is dat tflops niet 1:1 vertaald naar game prestaties (zie vega64 VS 1080ti, hogere tflops 40% langzamer in games) Daar naast eerst zien wat ze gaan presenteren en dan wanneer het daadwerkelijk beschikbaar komt : zie nogmaals vega verhaal die de 3080 paperlaunch Eclipse-t.

Nu heeft Nvidia sterke kaarten in handen met dlss en raytracing, AMD aan de andere kant met compute kracht en game optimalisatie door Xbox/ps5. Raytracing is simpelweg de toekomst, ook in game development. Dus even wachten wat AMD's aanpak is. En dit keer hopelijk met goede launch drivers (zie vega /5700 series voor hoe het niet moet).
Aaah kan niet wachten op de minnetjes van de amd fanboys sterk oververtegenwoordigd hier op t.net

[Reactie gewijzigd door D0gtag op 25 juli 2024 21:41]

Klopt.
Daarom gebruik ik al sinds... de GTX295 alleen maar Nvidia kaarten. 1080ti huidige
RDNA2 heeft potentie maar AMD moet het eerst nog waarmaken. Op papier lijkt het te kunnen, maar eerst zien dan geloven. Hoewel de Gears 5 demo voor de Xbox al goede dingen liet zien.

Zoals ik in een andere comment al zei; AMD heeft een al een DLSS variant. Niet zo goed als 2.0 maar te gebruiken op alle games. Ze hebben niet NIKS.

En of Nvidia kaarten echt zo sterk zijn deze generatie? Ik ben niet echt onder de indruk om eerlijk te zijn.

-edit-
Je -1 voorspelling kwam uit. :P

[Reactie gewijzigd door EXos op 25 juli 2024 21:41]

3080 is 50% sneller dan een 2080? Niet indrukwekkend? Hij is misschien maar 25/40% sneller dan een 2080ti, maar bijna alle online reviewers zijn wel lovend over de prestaties tav andere generatie leaps van Nvidia.
De 3080 is de vervanger voor de 2080ti. Zelfde chip als de Titan (3090) kaarten. Want er komt hooguit een 3080ti met meer Vram. Maar je zal niet de 30 à 40% verschil zien zoals tussen de 2080ti en 2080.

Enfin. De 3080 is gemiddeld maar 25% beter dan de 2080ti op 1440p. Dat de 3080 het beter doet op 4k is nog al logisch met veel meer bandbreedte in het geheugen.

Dit alles voor 20% meer vermogen? Een zware kaart met een koelblok die 2x zo groot is? Nee absoluut niet onder de indruk.
De 3080 is duidelijk door Nvidia gepositioneerd als 2080 tegenhanger, wedden voor een 3080 dat er een Ti variant van komt! Het is een 700€ kaart VS een 1200€ kaart (2080ti) de 3090 wordt als de tegenhanger van de Titan gezien maar Nvidia noemt het de ultimate gaming kaart. Of de 3090 is de Ti vervanger of er komt een Ti variant en is de 3090 de Titan vervanger hoe dan ook de 3080 is geen Ti vervanger.
Kijk naar de Chip zelf. Er is amper tot geen ruimte voor extra shaders.
Het verschil in shaders tussen de 3090 en 3080 is ongeveer 20%. (En het verwachte prestatie verschil is 15%)
Terwijl die tussen de 2080 en 2080ti een 50% is boven op het feit dat de 2080 in een kleinere chip zat en veel hoger geklokt kon worden 1.5 ghz (2080ti) vs 1.8ghz (2080).

Er is dus geen ruimte voor een 3080ti die daadwerkelijk een goede prestatie sprong kan laten zien.

En mijn 1080ti was €699. Nvidia heeft zelf de prijs zo hoog gezet voor de RTX 2000. Dus ik ga ze niet bedanken dat ze de prijzen deze keer weer naar normalere niveaus terug zetten.
Het is een 700€ kaart VS een 1200€ kaart
Dus als de 2080TI maar 800/900 had gekost (wat naar mijn idee veel meer schappelijk is) had je een andere mening gehad?

Mijn punt is dat de 2XXX serie veel te duur was, en het daarom nu lijkt dat de 3XXX heel goed geprijst is IMO

[Reactie gewijzigd door Sinester op 25 juli 2024 21:41]

Er zit al de 102 chip in de 3080!! In de vorig generaties zat die alleen in de 1080/2080ti's en Titan's.
Dus laat dat duidelijk gepositioneerd als 2080 tegenhanger maar weg, gooi het maar overboord zelfs. Want nVidia heeft geen hogere chip.
Daar zijn ze wel druk mee bezig hoor, ik lees dat ze al over een half jaar een nieuwe refresh uit willen brengen, dat is ook niet voor niks met TSMC 7nm.
Nee. De 3080 is letterlijk de opvolger van de 2080. Is meerdere malen aangegeven door nvidia (check forums/de presentatie van Jensen). Er komt nog een super/ti versie aan.
De 3080 was volgens Jensen de "Flagship" card. Dus dat is de opvolger van de 2080ti. Er komt hooguit een 20gb versie van de 3080 uit. Die mag je Super/Ti gaan noemen.
Maar qua prestaties gaat die echt niet veel vooruit. De 3090 wordt verwacht op 15% boven op de 3080.

Even voor vergelijking de 2080ti was 30~40% beter dan de 2080.
Het gaat sowieso een Super worden. Zelfs de 3090 heeft niet echt een groot genoeg gat met de 3080 om zich 3080 Ti te noemen.
Ik dacht dat ik ergens had gelezen dat ze juist van Ti afstappen. Maar als dat klopt, dan wordt een aanduiding die eerder op 30%+ prestatiewinst wees gebruikt voor veel schamelere winsten. Marketing dus.

Maar ik moet toegeven, de SUPER naamgeving was echt enorm kinderachtig. Maar er passt gewoon niet echt een Ti tussen de drie kaarten die ze nu hebben uitgebracht. Die zijn allemaal veel te dicht bij elkaar. Zeker tussen 3080 en 3090

[Reactie gewijzigd door Darkstriker op 25 juli 2024 21:41]

3090 = wat de 3080Ti zou zijn ipv Super of Ti gaan ze voor nummers alleen dus 3085 en 3095
Als bignavi tegen de 3090 gaat nV rare sprongen doen. Ze kunnen hun naming beleid ten alle tijden omgooien. Als bignavi tegen de 3080 aanhingt zou er 3075 of 3070Ti/super kunnen komen om gat te vullen na prijs correctie.
het zal toch altijd een prijs/performance afweging blijven.
Stel dat die nieuwe AMD Kaart richting 500e gaat en nagenoeg even goed of zelfs iets minder goede performance levert dan een RTX3080 van 800euro. .. tja dan gaan mijn centjes toch richting AMD.
Zoals ik in een andere comment al zei; AMD heeft een al een DLSS variant. Niet zo goed als 2.0 maar te gebruiken op alle games. Ze hebben niet NIKS.
Doel je op FidelityFX Upscaling and FidelityFX Sharpening? Die twee heb ik recent in F1 2020 getest, samen met TAA en DLSS, en de resultaten van FidelityFX Upscaling waren niet best. Je kreeg meer fps maar tegelijk ook enorme kartels. DLSS gaf van de vier opties het scherpste beeld (en 26-28% meer fps).
Ik ben het niet eens met die min 1, ik vind dat je inhoudelijk prima inbreng hebt, dus ik gaf je een plus. Ik ben zelf een amd fanboy al sinds de 1.2ghz "thunderbird" athlon die mn familie kocht begin deze eeuw. Toen wel met een geforce 2 64mb. (De meerprijs van de onderdelen betaalde ik aan mee van mn bijbaantje haha). Ook later wel een ati radeon gehad.

Mijn vorige pc, however, was een amd fx8350 kacheltje met een radeon 7970. Nu ik een i5 heb gehaald 2 jaar geleden met een geforce 1070 merk ik, zeker in de software, ondersteuning en compatibiliteit, dat nvidia wel mn favoriete keuze is voor gpu's momenteel. Ik mis wel mn schuifjes om de gpu te kunnen tweaken. Ik ben erg benieuwd naar rdna2, ik hoop dat het fatsoenlijke concurrentie wordt voor de 3000 serie van nvidia en de keuze lastiger wordt.

Vraagje aan de medetweakers, want ik kom er niet echt uit. Heeft het zin om een 3080 in mn i5 8600k machine te stoppen, of gaat mn machine sws die gpu bottlenecken?
Die 8600k zou het gewoon aan moeten kunnen. :)
Hier kijken voor je cpu. Waarschijnlijk zit je nog goed.

Dacht je dat mensen echt inhoudelijk modereren op t.net ;)

Ik heb een vega 64 gehad ik maak de keuze naar behoefte niet naar merk loyaliteit. Want er is niks dommer dan tribalism.

[Reactie gewijzigd door D0gtag op 25 juli 2024 21:41]

Thnx voor de tip en de link! En thnx ook EXos :)
Tribalism zit in onze genen :X Kan dom zijn, maar evolutie dacht daar anders over.
Tweakers heeft ook als functie om mensen wat te leren, maar ik raad je aan om eerst zelf eens wat te onderzoeken voordat je wat uitkraamt. Raytracing is in elk opzicht de toekomst, razterization zoals het nu gedaan word, was gekozen als alternatief omdat de hardware nooit snel genoeg was om dat aan te kunnen en door de vele jaren van gebruik is het enorm efficient geworden. Die zelfde inhaalslag zal raytracing maken alleen ditmaal in een veel vruchtbaarder omgeving (er is daadwerkelijk belang bij voor ontwikkelaars en eindgebruikers). Dat jij het als een trukkendoos ziet zegt alleen hoe beperkt je visie en kennis is.
Dus omdat nvid deze techniek brengt is het de toekomst?
Raytracing is of komt van Nvid?

net als hairworks zkers?

Unreal Engine 5 With New Nanite and Lumen Technology {dat is toekomst}

Dat ik beperkte visie heb klopt.....

[Reactie gewijzigd door noway op 25 juli 2024 21:41]

Daarom zeg ik, je kan beter even opzoeken wat raytracing is. Het is niet iets wat nvidia bedacht heeft. Films gebruiken al jaren raytracing omdat het fotorealisme oplevert tegen minder werk. Daar kunnen ze best leven zonder realtime raytracing. Nvidia is de eerste die met consumenten hardware aankomt die realtime raytracing aankunnen al is het nog maar het begin.
Mensen zoals jij geven toch uitleg.
Ik persoonlijk vind en zie weinig verschil van raytracing....het belast je systeem veel.

Nu vind ik de moeite niet waard...maybe over 3/5 jaar.

Unreal Engine 5 With New Nanite and Lumen Technology....heb je dat gezien?
Dat zag er strak uit


p.s hier linkje https://www.futuregamerel...ite-and-lumen-technology/

[Reactie gewijzigd door noway op 25 juli 2024 21:41]

De gpu van de series X draait op 1825MHz niet 1700.

RDNA2 shaders zijn niet gelijk aan die van RDNA1 die van de nieuwe architectuur zouden volgens geruchten wat sneller zijn met gelijke clocks en ook wat hoger geclockt zijn. Dus het kan nog interessant worden.

Dubbele shader aantallen schalen helaas niet 1:1 maar met 80CUs en de boven genoemde verbeteringen denk ik dat ze het toch wel. Tegen de 3080 moeten kunnen opnemen.
In een ideale wereld waarbij performance lineair schaalt met CU count, clock speed en teraflops zou je post misschien enige meerwaarde hebben maar helaas leven we niet in die wereld.

Performance schaalt niet lineair met CU count, clock speed en teraflops en al helemaal niet met power draw.
We gaan het wel zien maar ik denk dat AMD met iets goeds komt .
Aangezien Nvidia de paniek knop heeft ingedrukt en iets meer lijkt te weten dan wij.
Ik denk wel dat die lui de Xbox chip hebben bestudeerd.
Dat is ook precies waarom de PS5 een 350W voeding heeft en de Xbox SX een 315W. Terwijl de Xbox 20% hogere tflops haalt op de GPU en een hoger geklokte CPU heeft.
Jij kent het exacte effect van verbeteringen aan node, IPC, welke snelheid deze node aankan aan het geschatte aantal CUs en aan welke TDP dat zou zijn plus hoezeer het geheel snakt naar geheugenbandbreedte en hoeveel bandbreedte dat dan precies is? Om van drivers nog maar niet te spreken.
Elk van deze factoren kan zodanig veel invloed op het totaalplaatje hebben dat het inderdaad ergens tussen onder 3070 tot boven 3090 uit kan komen.

Je punt over teraflops: volgens cijfers van Nvdia: 3080 heeft 30TFLOP, 2080FE ongeveer 10,5 en een Radeon VII zo'n 13,8.
Dus een 3080 is 3x zo snel als een 2080FE en een VII is 24% sneller dan een 2080FE. Correct?

[Reactie gewijzigd door Arrigi op 25 juli 2024 21:41]

Dat zijn FP32/16 TFLOPs. Op dat ene specifieke onderdeel heeft NV inderdaad flink winst geboekt door de hardware voor bijna alle andere operaties per CUDA core te halveren en vervolgens het aantal (gekastreerde) CUDA cores te verdubbelen (doorom ook dat absoluut inflationaire getal bij de "cores" van Ampere). Als je naar FP64 kijkt ziet dat rijtje er heel anders uit. De prestaties in FP64 zijn bij de (gaming) Ampere GPUs letterlijk gehalveerd tov Turing. Ook hadden de Turings dedicated INT32 operators terwijl die in Ampere gedeelt zijn met FP32

[Reactie gewijzigd door Darkstriker op 25 juli 2024 21:41]

Weet ik. Het was maar om het punt te staven dat TFLOPs een onhandige metric zijn.
Aantal TFLOPs zegt niet zo heel veel, aangezien dat vrijwel nooit de beperkende factor is.
Er is wel iets dat aantal TFLOPs zegt. Als iets 2x TFlops heeft dan weet grof wat het kan presteren tov..
Als je weet hoeveel A presteerd en B heeft 2x de TFlops dan weet je dat B grof gezien 2x de prestatie heeft met flinke marge naar onder wat je ook weet dat 3x performance niet kan verwachten. Het is goed voor groffe indicatie.
Vergeet de console ports, OS en optimalisaties niet want dat geeft ook een ander beeld. Consoles hebben 'direct to the metal' hardware en OS dat ontwikkeld is voor gaming en Windows heeft allerlei troep op de achtergrond dat prestaties kan beïnvloeden. En vergeet de drivers voor de PC ook niet.
Je kan de TFlops niet 1 op 1 met elkaar vergelijken. Ampere (de 3080 met 30 TFlops) heeft heel veel meer TFlops dan Turing (de 2080Ti met maar 11 TFlops) toch presteerd de 3080 maar 30% beter dan de 2080Ti. Dat is op 4k en dus in het beste geval, op lagere resoluties is het minder.

Zo kun je dus ook niet AMD TFlops 1 op 1 met Nvidia of met andere generaties vergelijken. AMD is met elke generatie efficienter geworden met minder TFlops en Nvidia ook (Nvidia is als je de 2070 Super met de 5700 XT vergelijkt net wat efficienter). Met Ampere heeft Nvidia die route verlaten.

[Reactie gewijzigd door Sp3ci3s8472 op 25 juli 2024 21:41]

Je kan teraflops niet vergelijking met een andere generatie, laat staan met de generatie van de concurrent.
3080+ prestaties en zuiniger dan de 3080... laat maar komen, ik ben wel toe aan een nieuwe videokaart.

Hoop alleen niet dat ook AMD een paper launch heeft net als Nvidia nu heeft gedaan.
Waar baseer je op dat de kaart zuiniger zou zijn?
Nvidia zit op Samsung 8nm en AMD zit op TSMC 7nm. De laatste is zuiniger dus het kan goed at AMD met wat architectuur tweaks en een beter proces de zuiniger kaart heeft. Kleiner zal hij sowieso zijn want de dies van Nvidia zijn met Turing en Ampere monster groot.
Wat je vergeet is dat RDNA1 , de 5700 en 5700XT ook al op 7nm van TSMC gemaakt werden.
En de 50% performance efficiency wordt geclaimd t.o.v. RDNA1, op dezelfde node dus.

Dat is gewoon zeer onwaarschijnlijk dat je dat gaat bereiken zonder node-shrink, met slechts een evolutie op je bestaande architectuur (vandaar de naam RDNA2).

Ongetwijfeld zullen er stappen gezet worden, maar je baseren op marketing slides en dat als de baseline nemen is niet aan te raden, dan ga je hoogstwaarschijnlijk bedrogen uit komen.
RDNA2 komt op een verbeterde 7nm node van TSMC. Daar wordt waarschijnlijk ook een stuk van die efficientie uit gehaald.
Het is onwaarschijnlijk maar je zag de stap van Kepler naar Maxwell ook een gigantische reductie in stroomgebruik. Het is dus niet ongehoord.

Dat het in alle gevallen 50% is zal echt niet waar zijn. Dat ze een kans hebben om efficienter te zijn dan Nvidia deze generatie dat geloof ik wel. Ze zijn met RDNA1 en de 7nm node even zuinig als Nvidia op Turing met 12nm, dus op architectuur level kunnen ze nog zeker wat verbeteren.
"Het is onwaarschijnlijk maar je zag de stap van Kepler naar Maxwell ook een gigantische reductie in stroomgebruik. Het is dus niet ongehoord."

Maar dat had vooral te maken met een compleet andere architectuur en veel efficiëntere vorm van texture compressie. Het is niet ongehoord maar het is wel een flinke outlier, dat gebeurt vrij weinig.

Aangezien we hier met een doorontwikkeling te maken hebben van een zelfde architectuur op dezelfde node acht ik dergelijke stappen onwaarschijnlijk. Al helemaal omdat voor deze stap eerder een compleet nieuwe architectuur + die shrink nodig was (GCN-->RDNA + 14nm GF naar 7nm TSMC).
RDNA2 is een totaal andere architectuur dan RDNA1, dus daar zit je al fout.

Overigens zaten er nog aardig wat GCN elementen in RDNA1 wat bij RDNA2 volledig verdwenen is.

Nvidia heeft gelijk al alles gegeven wat ze in huis hebben wat ze normaal gesproken niet doen, ook is de RTX xx80 kaart een 02 chip wat Nvidia ook nog nooit gedaan heeft, die weten dus een stuk meer dan ons. De RTX 3000 serie is ook een pure paper launch.

3080+ prestaties van RDNA2 is dus zeer realistisch en dan ook nog met minder verbruik zoals het er nu naar uitziet.

28 oktober weten we het zeker dus ik raad mensen aan om even te wachten voordat je een 3080 koopt..... oh die is nog geeneens te koop...
"Het is onwaarschijnlijk maar je zag de stap van Kepler naar Maxwell ook een gigantische reductie in stroomgebruik. Het is dus niet ongehoord."

Maar dat had vooral te maken met een compleet andere architectuur en veel efficiëntere vorm van texture compressie. Het is niet ongehoord maar het is wel een flinke outlier, dat gebeurt vrij weinig.

Aangezien we hier met een doorontwikkeling te maken hebben van een zelfde architectuur op dezelfde node acht ik dergelijke stappen onwaarschijnlijk. Al helemaal omdat voor deze stap eerder een compleet nieuwe architectuur + die shrink nodig was (GCN-->RDNA + 14nm GF naar 7nm TSMC).
Hoe weet jij dat dit geen hele andere architectuur is? Kepler klinkt anders dan Maxwell maar voor hetzelfde geld lagen ze qua architectuur dicht bij elkaar (dit was op sommige punten ook zo, maar niet overal).
Een goed voorbeeld is de R9 280x (GCN 1.0) vs de R9 285 (GCN 1.1) waar de laatste een stuk efficienter was omdat AMD ook gebruik ging maken van Delta Color Compression en daarmee 40% aan bandbreedte bespaarde. Dus van GCN 1.0 naar 1.1 was een best grote stap op dat punt; dat kan je verder uit de naam niet afleiden.

Dus je moet je niet blindstaren op het is maar 1 naar 2.
nVidia ging voor game geoptimaliseerde architectuur toen. Niet bruikbare deel van compute eruithalen zodat meer diespace gebruikt wordt om game te versnellen ipv TDP stoken zonder mee te doen. AMD doet dit nu ook met RDNA beleid. Ook onderscheid tussen een pro chip architectuur en game lijn chips en architectuur. Blijkbaar maakt dat veel uit wat nV al verleden aangetoond heeft gezien GCN ook heel sterk in compute is kan winst juist groot zijn.
Maar de 5700xt had op 7nm ongeveer zelfde perf/watt als de RTX2070 op 16/12nm.

Als nvidia dat perf/watt niveau kan bereiken op 16/12nm dan is het duidelijk dat AMD op TSMC's hele goede en zuinige 7nm process (getuigen de AMD CPU's) het veel beter moet kunnen doen.

En dat is dus precies wat ze gezegd hebben te gaan doen met RDNA2.

Overigens had de sony presentatie het ook al over de verbeteringen in perf/watt van RDNA2. Geen details behalve dat ze dat doen door de data dichterbij bij waar het nodig is de brengen, maar wel dat ze flinke verbeteringen hadden gemaakt.

[Reactie gewijzigd door Countess op 25 juli 2024 21:41]

Heb je er bewijs voor dat je geen 50% verbetering kan halen op dezelfde node?

IK denk dat dit prima mogelijk is. Het is natuurlijk wel afhankelijk van voltages en clockspeeds en het kan best zo iets zijn als wat nVidia bij Ampère laat zien dat AMD uit gaat van RDNA1 op 2000MHz en ze laten dan de RDNA2 gpu de fps matchen en dan hebben ze misschien nog maar 1500MHz nodig en dus ook maar een hele lage vgpu (ik noem maar even wat getallen als voorbeeld) en op die clocks is hij 50% zuiniger bij gelijke prestaties.

De geruchten hebben het nu zelfs over 60% lager verbruik tov RDNA1.
Ik zie het inderdaad niet gebeuren dat RDNA2 met meer CU's en hogere clocks minder verbruikt dan de 5700XT dan zullen ze echt wel meer verbruiken maar dan zal de kaart wel veel hogere framerates hallen en mogelijk nog steeds efficiënter zijn.
RDNA1 kon je niet eens zo ver pushen. Als je daar 100MHz meer uit wil halen schiet het verbruik snel 20% omhoog voor dat laatste beetje.
Amd heeft laten doorschermen dat er een 50% efficientie winst is, geruchten zelfs 60% ten aanzien van RDNA 1. met dat in het achterhoofd zou je en stuk meer performance voor het zelfde verbruik halen. uit mijn hoofd zit ampere op een efficientie winst van 25%. goed het gaat uitwijzen hoe hard amd de stroomkraan open laat gaan voor deze kaarten, tot nu toe klinkt alles erg voorspoedig.
Dat heeft AMD geroepen ja, net als dat Jensen riep dat de 3080 2x de 2080 zou zijn.

Dit soort uitspraken zijn altijd best case scenario, ze pakken een uitbijter en presenteren het alsof het een gemiddelde case is.

Uitspraken van het bedrijf zelf zijn altijd zwaar overdreven.

Gewoon even de onafhankelijke reviews afwachten, maar nu al roepen dat de 6900XT efficiënter gaat zijn is echt op lucht gebaseerd.
Dit soort uitspraken zijn altijd best case scenario
Op de zelfde slide staat ook 50% meer perf/watt voor Navi1 vs Vega. En dat haalt de 5700xt gewoon vs de vega64, met ruimte over. En de 5700 vs vega56 ook.

Dus niet zo zwaar overdreven. Zeker niet zo zwaar belachelijke overdreven als de 90% perf/watt claim van nvida (terwijl ze in de praktijk nog geen 15% halen)

Dus in die claim heb ik beduidend meer vertrouwen als nvidia's marketing slides.
Ja en waarom haalt Navi1 dat vs Vega? Omdat Vega op 14nm werd gebakken en Navi op 7nm, daar was dus sprake van een flinke die shrink. Die er niet is van RDNA1 op RDNA2.
Volgens AMD's eigen cijfers kwam slechts 25% van de verbetering door de nieuwe node. (dus 12.5% op het totaal)
(deze slide, weet niet of hotlinken werkt laat maar weten als dat niet zo is)
https://hexus.net/media/u...be8-9b37-7fc2f931255b.png

Daarbij was 5700xt op 7nm niet zuiniger als nvidia op 16/12nm (ongeveer gelijk), terwijl we van AMD's CPU's weten dat TSMC's 7nm een heel zuinig process kan zijn.

Het is dus duidelijk dat er voor AMD nog voldoende winst te behalen valt in de architectuur van de GPU's.

[Reactie gewijzigd door Countess op 25 juli 2024 21:41]

7nm TSMC is enorm veel efficiënter dan 14nm GF, dus dat lijkt mij zeer zeer sterk.
Zeker als je ook ziet hoe groot de sprongen zijn bij zen2 toen men naar TSMC 7nm overging.

"Daarbij was 5700xt op 7nm niet zuiniger als nvidia op 16/12nm (ongeveer gelijk), terwijl we van AMD's CPU's weten dat TSMC's 7nm een heel zuinig process kan zijn.

Het is dus duidelijk dat er voor AMD nog voldoende winst te behalen valt in de architectuur van de GPU's."

Wat? Was is dat voor rare sprong? Er is geen wet die zegt: een architectuur wordt per definitie veel efficiënter met elke iteratie. Het kan ook gewoon inherent een inefficiënte architectuur zijn, net als bijvoorbeeld met GCN , maar ook bijna geen verbetering kwam op gebied van inefficiëntie.

[Reactie gewijzigd door Rixos op 25 juli 2024 21:41]

Zeker als je ook ziet hoe groot de sprongen zijn bij zen2 toen men naar TSMC 7nm overging.
Want dat kwam ook allemaal door het process en niks kwam door bijvoorbeeld ontwerp verbeteringen in zen 2 of het chiplet ontwerp?
Wat? Was is dat voor rare sprong? Er is geen wet die zegt: een architectuur wordt per definitie veel efficiënter met elke iteratie. Het kan ook gewoon inherent een inefficiënte architectuur zijn, net als bijvoorbeeld met GCN , maar ook bijna geen verbetering kwam op gebied van inefficiëntie.
Ik geloof niet dat je snap wat ik probeerde te zeggen.

Als AMD met de 5700xt op 7nm enkel de zelfde perf/watt krijgt als nvidia met de 2070 op 16/12nm, dan heeft AMD met RDNA1 toch duidelijk een veel minder efficient ontwerp als nvidia met de 20 serie?

Dat ben je met me eens toch?

De keer zijde daarvan is dat AMD dus nog veel winst kan halen uit een beter ontwerp. En dus ook op de zelfde node.
Dus die potentie is er dus gewoon. AMD claimt hier niet iets dat niet binnen de reëel mogelijkheden valt.
(Of je moet willen claimen dat nvidia dingen kan die AMD nooit zal kunnen om een of andere reden, maar voor mij hebben ze allebei te maken met de zelfde natuurwetten, dus zulke redenaties ga ik niet in mee)

[Reactie gewijzigd door Countess op 25 juli 2024 21:41]

"Ik geloof niet dat je snap wat ik probeerde te zeggen.

Als AMD met de 5700xt op 7nm enkel de zelfde perf/watt krijgt als nvidia met de 2070 op 16/12nm, dan heeft AMD met RDNA1 toch duidelijk een veel minder efficient ontwerp als nvidia met de 20 serie?

Dat ben je met me eens toch?
"
Zeker

"De keer zijde daarvan is dat AMD dus nog veel winst kan halen uit een beter ontwerp. En dus ook op de zelfde node. "

Nee, dat is een hele rare sprong die je daar maakt in je argumentatie. Je gaat er van uit dat in elke architectuur blijkbaar een enorme rek zit op het gebied van efficiëntie en dat AMD blijkbaar die rek bijna niet heeft benut met RDNA 1 (ondanks dat je eerder claimde dat slechts 15% van de 50% van de die shrink kwam en er dus al een stap van 35% was gezet puur op architectuur).

Sommige architecturen zijn inherent efficiënt, bij GCN konden ze ook sleutelen wat ze wilden maar het waren slechts minieme stappen die werden gezet.

Zou het kunnen? Ja. Is het waarschijnlijk wanneer eerder een compleet nieuwe architectuur (GCN --> RDNA) + die shrink nodig was voor diezelfde 50% en de enige onderbouwing die je hebt een marketing slide van AMD is? Lijkt mij niet.

Who knows, misschien heb ik ongelijk. Het zou goed zijn voor de concurrentie!
Nee, dat is een hele rare sprong die je daar maakt in je argumentatie.
Nee dat is zeker geen rare sprong, dat is gewoon het logische gevolg. Met een beter ontwerp kan AMD duidelijk een veel efficiëntere GPU maken op 7nm. Die potentie is er gewoon. Dat valt gewoon letterlijk niet te ontkennen omdat nvidia al heeft laten zien dat het kan.

Maar jij gaat er om een of andere reden al meteen vanuit dat RDNA opnieuw een inherente bottleneck heeft zoals GCN, terwijl RDNA juist is ontworpen om daar vanaf te komen. Dat is pas echt een rare sprong.
en dat AMD blijkbaar die rek bijna niet heeft benut met RDNA 1
Aangezien ze er letterlijk maar 2 chips van hebben gemaakt, en dat ze op dat moment heel druk bezig waren met de console GPU's, en ze nog steeds beperkte resources hebben, zou me dat echt totaal niet verbazen nee. RDNA was goed genoeg om nvidia bij te houden in perf per transistor, en gelijk te liggen wat perf/watt betreft, en kon flink goedkoper zijn als nvidia's bijna 2 keer zo grote chips, dus dat was meer als voldoende voor een tussen phase.
(ondanks dat je eerder claimde dat slechts 15% van de 50% van de die shrink kwam en er dus al een stap van 35% was gezet puur op architectuur).
het was 25% (had ik later geëdit, ik heb de slide er ook bij gezegd als je even terug kijkt)
maar wel 25% van het totaal.
Dus 12.5% van de 50% als je het zo beredeneerd.
en de enige onderbouwing die je hebt een marketing slide van AMD is?
Een marketing slide met een claim in het zelfde straatje die ze meer als waar gemaakt hebben. en opnieuw, een claim die totaal niet onredelijk is.

Als de 5700xt de zelfde perf/watt heeft als nvidia op 16nm zou je kunnen zeggen dat AMD 2 nodes aan perf/watt achter liep op nvidia want ontwerp betreft.
Als nvidia zulke zuinige ontwerpen kan maken dan zijn zulke ontwerpen dus gewoon mogelijk en reëel. En dan kan AMD dat dus ook, zeker ook omdat ze voor RDNA2 de R&D dollars van zowel Sony als Microsoft ter beschikking hadden, Terwijl RDNA1 duidelijk een relatief kort levende tussen release was.
AMD architectuur was altijd sterk in Compute en is er ook mee begonnen. Alleen focused op Chips. nVidia doet catch up en naast hardware ook de software dus de Cuda tools. Dus sterke hardware in compute maar te late software backup. En nV heeft die slag keihard gewonnen. RDNA doel is de compute waar games geen ruk aan hebben eruit. omdat energie verstookt. Die rol neemt CRNA over.
Niks laten doorschemeren, ze hebben gewoon gezegd 50% meer performance per Watt.

Wat betekent dat? Vrijwel niks.

Nvidia zei dat de 3080 2x zo snel was als de 2080S, was waar maar alleen in Minecraft en Quake met RTX.

Waar die performance zit heeft AMD niks over gezegd.
Als ze 50% minder Watt gebruiken dan voldoen ze aan die claim, zegt niks over perfomance.
etc etc etc.
Die 50% per Watt zegt niet bijsterveel.

60% over de gehele lini erg onwaarschijnlijk, immers is marketing altijd van het afronden naar boven dus dan zouden ze wel met 60% hebben geadverteerd. Marketing is altijd optimistisch dus deze nummers zeker met een emmer zout nemen.

Voorspoedig voor AMD zou ik het niet noemen, de afgelopen 2/3 generaties (VII) waren meh en de 5xxx launch was geplaagd voor 6 maanden met hele slechte drivers. Er is geen reden om te denken dat AMD de 3090 gaat inhalen en er is een kans dat ze kunnen concurreren met de 3080.

Ik heb altijd AMD kaarten gehad en ik hoop heel erg dat ze Nvidia voorbij knallen maar realistisch is dat niet.

Oja als RDNA2 zo goed zal zijn waarom is marketing dan zo stil? Waarom hypte AMD RDNA2 nauwelijks?
Oja als RDNA2 zo goed zal zijn waarom is marketing dan zo stil? Waarom hypte AMD RDNA2 nauwelijks?
Zo moeilijk is dat toch niet AMD levert aan zowel XBOX als Playstation 5 zij hebben belang erbij dat ze niet meteen de klanten gaan beconcurreren waarom heeft Nvidia zo snel zijn kaarten uitgebracht ? juist om voor Xbox en PS5 en AMD zelf alle fame te krijgen maar Nvidia concurreert tegen 3 bedrijven. AMD, al verkopen ze niet veel van eigen videokaarten ze verdienen genoeg met de consoles.

AMD heeft geen haast ze staan er heel goed voor maar tweakers redeneren alleen maar vanuit de bubble en in zit er ook zelf in maar tweakers zijn niet een dwars doorsnede van de samenleving de meeste kopen een console en het maakt niet uit welke console AMD verdient er aan.
ze verdienen genoeg
Stap jij naar de aandelenhouders en zegt, "we doen het even rustig aan, we verdienen al genoeg met de consoles".
Nee, als er meer winst te halen is en ze hebben iets 'cools' in de pijplijn dan zal marketing daarop springen.

Ik vermoed dat ze niet genoeg fabriekscapaciteit hebben (iedereen heeft problemen) en/of ze kunnen niet met de 3080 concurreren (alweer).

Hoe bedoel je Nvidia heeft de kaarten snel uitgebracht? Ik zou het eerder laat noemen, 2 jaar geleden was de 2xxx launch. Ze hebben het doel bewust uitgebracht voor de consoles, elk bedrijf zou dat doen.
Stap jij naar de aandelenhouders en zegt, "we doen het even rustig aan, we verdienen al genoeg met de consoles".
Nee, als er meer winst te halen is en ze hebben iets 'cools' in de pijplijn dan zal marketing daarop springen.
Natuurlijk aandeelhouders willen meer maar soms heel soms denkt een bedrijf ook op de langer termijn AMD verdient ook met de consoles dus als ze iets minder pakken op de videokaarten ze krijgen het geld toch wel.
Ik vermoed dat ze niet genoeg fabriekscapaciteit hebben (iedereen heeft problemen) en/of ze kunnen niet met de 3080 concurreren (alweer).
Met alle respect dan heb je toch als Nvidia de kaart te snel uitgebracht?? bedoel Nvidia gebruikt het inferieure 8nm proces van samsung ze moeten met Intel strategieën of AMD tijdens de FX tijd de boel omhoog draaien om de prestatie kroon te pakken. Deze kaarten zijn een upgrade maar tegen welke prijs ?
Hoe bedoel je Nvidia heeft de kaarten snel uitgebracht? Ik zou het eerder laat noemen, 2 jaar geleden was de 2xxx launch. Ze hebben het doel bewust uitgebracht voor de consoles, elk bedrijf zou dat doen
Klopt als een bus ze hebben dus 3 concurrenten de console makers en AMD en AMD levert de hardware aan de console makers.
Misschien heeft AMD zoveel vertrouwen dat ze geen hype zoals nVidia hoeven te creëren. Door de hype van nvidia zie je dat reviewers gematigd reageren omdat de 2x zo snel claims enkel in benchmark games zichtbaar is en de 3090 is al als waardeloos bestempeld voor gamers.

Als AMD de kaarten straks met goed werkende drivers kan leveren en prestaties zijn gelijk of beter als die van de 3080 dan gaan de reviewers de kaart vanzelf hypen. AMD wilt waarschijnlijk een debacle zoals met de 5000 serie drivers voorkomen.
Nvidia zei dat de 3080 2x zo snel was als de 2080S, was waar maar alleen in Minecraft en Quake met RTX.
Volgens mij bedoelde Nvidia dat de Geforce RTX 3080 bijna 2x zo snel is als de Geforce RTX 2080 in 4K, en bedoelen ze niet de Geforce RTX 2080 Super in 4K.

En dat klopt ook wel, want als ik op Guru3D kijk is hij (Geforce RTX 3080) gemiddeld 90% sneller dan de Geforce RTX 2080.
Volgens mij bedoelde Nvidia dat de Geforce RTX 3080 bijna 2x zo snel is als de Geforce RTX 2080 in 4K, en bedoelen ze niet de Geforce RTX 2080 Super in 4K.
Ook dat is hij niet, gemiddeld tussen de 60 en 70% sneller als de 2080 op 4K
En dat klopt ook wel, want als ik op Guru3D kijk
Als je kijkt naar 1 of 2 spellen wellicht, maar niet als je een groot aantal games pakt

[Reactie gewijzigd door Sinester op 25 juli 2024 21:41]

Vreemd als ik op Guru3D kijk is de Geforce RTX 3080 GEMIDDELD 90% sneller alle spellen mee gerekend, dan de Geforce RTX 2080 op 4K.

DX12: Resident Evil 3 4K:
Geforce RTX 3080 104fps
Geforce RTX 2080 55fps

DX12: Battlefield V 4K:
Geforce RTX 3080 110fps
Geforce RTX 2080 64fps

DX12: Death Stranding 4K:
Geforce RTX 3080 142fps
Geforce RTX 2080 62fps

DX12: Gears of War 5 4K:
Geforce RTX 3080 76fps
Geforce RTX 2080 44fps

DX12: Shadow Of The Tomb Raider 4K:
Geforce RTX 3080 86fps, DLSS 103fps
Geforce RTX 2080 46fps

DX12: Metro: EXODUS 4K:
Geforce RTX 3080 67fps
Geforce RTX 2080 39fps

DX12: Strange Brigade 4K:
Geforce RTX 3080 135fps
Geforce RTX 2080 68fps

DX11: Codemasters Formula 1 2020 4K:
Geforce RTX 3080 127fps DLSS 155fps
Geforce RTX 2080 73fps

DX11: Microsoft Flight Simulator (2020) 4K:
Geforce RTX 3080 42fps
Geforce RTX 2080 28fps

DX11: Borderlands 3 4K:
Geforce RTX 3080 69fps
Geforce RTX 2080 36fps

DX11: Far Cry New Dawn 4K:
Geforce RTX 3080 96fps
Geforce RTX 2080 63fps

DX11: The Witcher III Wild Hunt 4K:
Geforce RTX 3080 92fps
Geforce RTX 2080 61fps

4K:
Geforce RTX 3080 127fps
Geforce RTX 2080 73fps

4K:
Geforce RTX 3080 127fps
Geforce RTX 2080 73fps

4K:
Geforce RTX 3080 127fps
Geforce RTX 2080 73fps

En nog veel meer waar je bij elkaar duidelijk zie dat de Geforce RTX 3080 gemiddeld 90% sneller is dan de Geforce RTX 2080, wat een enorme sprong is, net als toen met de Geforce GTX 980 en de Geforce GTX 1080.

[Reactie gewijzigd door AmigaWolf op 25 juli 2024 21:41]

Ik heb andere reviews gezien die dit niet beamen, welke gelijk heeft mag je zelf bepalen, ik vertrouw echter meer op Hardware Unboxed en volgens mij komen die ook meer overeen met vele andere reviews
https://youtu.be/csSmiaR3RVE

Ook hier op Tweakers wordt een heel ander beeld geschetst
reviews: Nvidia GeForce RTX 3080 - Maakt Nvidia de hoge verwachtingen waar?
Ik heb JayzTwoCents gezien vlede week, en die zij ook precies het zelfde, en gemiddeld 90%.

En ik heb bij Guru3D en JayzTwoCents nog geen een keer gezien dat het niet klopte.

https://www.youtube.com/watch?v=32GE1bfxRVo&t=735s
Density 7nm TSMC vs Density 8nm Samsung. Er vanuit gaande dat de architectuur van beide giganten even veel zuinig zijn/energie vreten.

[Reactie gewijzigd door CeesieG op 25 juli 2024 21:41]

RDNA1 is ook al 7nm gebakken, en de 50 efficiency gain wordt geclaimd t.o.v. RDNA 1.

De 5700 en 5700XT zijn beide minder efficiënt dan de 3080 op 8nm (frames per watt).
Dus door enkel op dezelfde node te blijven zullen ze het niet redden. Ze zullen flinke stappen moeten maken in de architectuur.
De 5700 is efficienter dan de 3080 op 1080p (nu zal de 3080 waarschijnlijk een cpu bottleneck hebben maar toch), op 1440p is hij iets minder efficient. RDNA1 is voor AMD heel efficient vergeleken met hun vorige architecturen (GCN en Polaris).
Bron:
https://www.techpowerup.c...-founders-edition/35.html
Op 1440p en 4k (je gaat niet op 1080p gamen met een 3080) is de 3080 efficiënter. En dat terwijl deze op een slechtere node gebakken is (8nm Samsung is veel minder efficiënt dan 7nm TSMC).

Maar nogmaals, van RDNA 1 naar RDNA 2 zal er geen sprake zijn van een die shrink, het ligt dus in de lijn der verwachting dat de stap in efficiëntie hier minder groot zal zijn.

Een zelfde stap als van GCN naar RDNA + die shrink (wat resulteerde in ongeveer 50%) die hier dus wederom geclaimd wordt in marketing materiaal acht ik onwaarschijnlijk.
Je krijgt inderdaad geen grote efficienty door de betere node, afhankelijk van wat AMD kiest kan dit alsnog 10% zijn.
https://www.tomshardware....-node-upgrades,40054.html
This is why many of TSMC’s customers are expected to stick to N7P over switching to N7+. These customers prefer jumping straight to the 5nm EUV or the 6nm EUV (EUV equivalent of N7 with more EUV layers) processes later on instead of using TSMC’s first-generation 7nm EUV process. The optimizations brought to the N7P process are expected to allow TSMC customers to increase their chips’ performance by 7% or decrease power consumption by 10%.
Wat je zegt over 1080p is correct. Ik zou 1440p als baseline pakken want een mid end kaart ga je niet op 4k testen, dan loop je tegen allerlei bottlenecks aan.
Daarnaast is het interessant om te zien of er wel degelijk een cpu bottleneck is of dat het een limitatie is in de architectuur. HardwareUnboxed wilde dit in een van hun volgende 3080 reviews gaan onderzoeken gaven ze aan.

Gerucht is dat het zelfs 60% is; of dit ook voor de highend kaarten zo is is nog maar te zien.
Met architectuur kan er juist veel. Ten 1st omdat AMD nu niet de nadruk op compute zet maar aparte gamers gerichte architectuur. Beleid is dus veranderd. De kracht van GCN zit in compute en RDNA is game gerichte architectuur. Om soeple overgang is RDNA1 een GCN hybride omdat veel AMD gpu optimalisaties op GCN berusten. RDNA2 is weer stap verder en gezien console RDNA2 zijn en daar juist adoptie naar RDNA2 optimalisaties goed en sneller op gang komen denk aan de 2de en 3de wave aan console games. Kunnen de PC port daar op lange termijn ook van steeds betere performance genieten.

En daarmee moet nVidia hun devisie "how it ment to be played " naar studio te sturen.
Big navi geniet geniet sterker van MS Xbox en Windows main target producties. nV moet gaan lobbyen.

Als bignavi bij release benches het net niet is kan bij games in 2021/2022 juist wel zijn.

ik verwacht sowieso van nV counter release mirakel driver. Dus wat RTX nu doet geeft AMD verkeerd beeld. Ondertussen moet AMD die streek van nV wel bekend zijn.
Mag ik van jou tijdmachine gebruik maken? Er is nog letterlijk niks bekend over de prestaties en als AMD zichzelf zou positioneren tussen de 3070 en 3080 met een leuke prijs hebben ze het zeker niet slecht gedaan.
Volgens de geruchten kunnen we verrast worden, wat het zal worden geen idee.
De kaart gaat niet zuiniger zijn want ze hebben elke watt nodig om de benodigde performance eruit te persen maar ik vermoed wel dat de kaart minstens net zo snel als de 3080 gaat zijn.
Geruchten gaan dat RDNA 2 gebruik gaat maken van 128Mb cache.
Dit zou betekenen, dat de powedraw van RDNA 2 een stuk lager zou liggen dan die van de 3000 reeks van Nvidia, omdat ze geen stroomvretende memorybus nodig hebben.
Let wel: speculatie.

Ik zelf denk dat Sony en Amd de koppen bij elkaar hebben gestoken en iets vernuftigs hebben bedacht.
Sony en AMD? Sony en AMD hebben samen tot dusver niets laten zien. Het is vooral Microsoft en AMD dat met de hardware van AMD het meeste laat zien.
GPU komen altijd tot stand door wissel werking op de achtergrond van leidende API en top developers met GPU bakkers. wie wat het meeste inbreng heeft gehad in de 3 branches afhankelijke industrieën geen idee.
MS zal veel invloed hebben op API niveau en AMD en nV en iNtel maken dus GPU architecturen hiervoor met de feedback van dev's . Gezien HBM een oplossing is wat beter past bij compute en GDDRnx een probleem is dat vermogen vreet en nooit genoeg is. Is er wel degelijk drang naar innovatie op dat gebied. En dat zou van Sony kunnen komen.
Enne wat heeft Sony volgens jou dan ooit op dit vlak laten zien? En kom nou niet met die ssd in de ps5. Die 9gbit in het meest optimale sequentiële geval met maximaal comprimeerbare data is niets vergeleken met de 600gbit random r/w die nodig is voor een gpu in de klasse zoals in de ps5 zit.
Jawel maar als de performance winst per watt tegenover de huidige gen 50% is (wat amd heeft aangegeven) en de geruchten (van redelijk gerenommeerde bronnen) kloppen dat big navi zich kan meten met 3080 en wellicht zelfs 3090 dan moet er dus minimaal 325w getrokken worden als ik mij niet vergis. Anders komen ze er niet. Vandaar dat ik zei dat, om de performance te halen, elke watt eruit geperst moet worden.

Maar alles blijft speculatie totdat de eerste reviews online staan.

[Reactie gewijzigd door NosferatuX op 25 juli 2024 21:41]

De 3090 zit boven de 400W, dus ze hebben nog wat over.
Op dit moment hangen er zoveel geruchten in de lucht rondom Big Navi.
Maar wanneer je naar de verbetering over de 5700xt kijkt, dan lijkt een 3080 concurrent absoluut niet onmogelijk...
Het einde van 2020 blijkt leuk te worden voor PC hardware. Maar helaas moeten we nog meer dan een maand wachten.
Wat ook nog geheel onduidelijk is de hoe ze nu ray tracing gaan doen en of ze iets van een dlss achtig iets gaan doen vooral dat dlss werkt toch steeds echt beter en beter t.o.v de oude technieken. Je ziet ook wel dat Nvidia daar behoorlijk wat ruimte in de gpu voor erbij moet reserveren. Dus ja wat je nu veel ziet is dat veel geruchtenmakers gewoon de effenciency en de meer compute cores procenten erbij rekenen maar ik denk niet dat dit zo simpel is met deze onbekende variabelen. We gaan het allemaal zien 👍

Helaas zit ik zelf vast aan gsync met me c9 en me monitor waardoor ik min of meer wel forced word naar Nvidia.

Maar meer concurrentie erbij is zeker goed winnen we uiteindelijk allemaal van als gamers 👍

[Reactie gewijzigd door William/Ax3 op 25 juli 2024 21:41]

Raytracing is de grote vraag. Maar DLSS, ik begrijp niet waarom mensen denken dat AMD daar geen antwoord voor heeft. Ze hebben Radeon Imaging Sharpening (RIS) die beter werkte dan DLSS 1.0 en werkt op alle games. DLSS 2.0 is beter maar AMD heeft ook al een begin gemaakt.
Ook heeft AMD FidelityFX en Radeon Anti-lag, beschikbaar voor de 5xxx serie. Allemaal dingen die Nvidia nu ineens ook heeft.

Ik heb een Free-sync monitor die ondersteunt wordt op m'n 1080ti. Dus ik heb gelukkig vrije keuze.
Maar ik ben niet onder de indruk van de RTX3000 series. Dus ik kijk uit naar waar AMD mee komt...
Ty maar RIS is meer het beeld scherper maken en niet een methode zoals dlss2.0 waarmee je dus "free" performence krijgt via ai learning. En dat kan soms heel wat schelen. Ik ben benieuwd of AMD ook met zoiets gaat komen waarmee je dus via deep learning ook upscaling gaat doen.
Dat het altijd werkt is trouwens dan wel weer erg goed!
"Altijd werken" is ook met een korrel zout te nemen: https://www.amd.com/en/te...software-image-sharpening
RIS werkt met DX11/12/Vulkan, tenzij je een RX5000 hebt, dan werkt het ook voor DX9 (maar geen DX10?). OpenGL en Linux liggen helemaal buiten de boot.

Toegegeven: DX11/12/Vulkan zal het gros van wat je wil spelen al afvangen.

Verder is het echt "maar" een verscherpingsfilter. DLSS is technologisch gezien véél uitdagender en geavanceerder, wat totnogtoe ook nog wel eens artifacts vertoont.

Interessant neveneffect ook: een applicatie (niet-game) dat GPU-accelerated graphics heeft op basis van zo'n API lijkt de verscherping ook te krijgen. Ik meen dat foto's in Lightroom bijvoorbeeld ook verscherpt werden als GPU-acceleratie aan staat.
Voor DX9/10 games ga je geen upscaling nodig hebben. Die games kan je op elke GPU van vandaag gewoon draaien op native resolutie, of zelfs supersamplen. We gaan toch ook niet klagen dat DX8 niet meer ondersteund wordt? DX11 is simpelweg de meest recente DirectX versie die nog relevant is voor game development.

Linux support is spijtig. Maar daar is Nvidia echt niet beter in. Ik heb geen idee of DLSS werkt in Linux, maar ik heb in het verleden toch geen al te beste ervaring met de Nvidia drivers. En al zeker niet als je een normale Nvidia GPU in een VM zou willen gebruiken...

Verder wil ik ook even stellen dat DLSS geen magie is. Hoe je het ook draait of keert: bij upscaling moet je extra informatie gaan uitvinden. Dit kán gewoon nooit helemaal perfect zijn. Dat valt zelfs wiskundig aan te tonen. Die upscaling kan je zien als "decompressie" van data. Daar zitten gewoon heel harde wiskundige limieten aan hoe veel daar te winnen valt. Er gaan dus altijd artifacts zijn, daar moet je je gewoon bij neer leggen.

Dat betekent natuurlijk niet dat DLSS niet kan werken. Waar DLSS af en toe fouten maakt, kan het natuurlijk wel zijn dat wij als mens de fout niet kunnen herkennen. Wat DLSS doet is informatie bij verzinnen die plausibel is, op basis van wat er geleerd is met al die training data. RIS/CAS gebruikt een andere aanpak: die start vanuit onderzoek naar hoe mensen scherpte ervaren en gaat selectief contrast op bepaalde plaatsen te verhogen ons brein doen ervaren dat een beeld scherper is dan het eigenlijk is waar we die scherpte verwachten, en alles met rust laat waar we die scherpte niet verwachten.

Het zijn twee verschillende aanpakken, die beide kunnen werken. Het kan zijn dat DLSS op lange termijn wint. Maar het kan even goed zijn dat DLSS op lange termijn ongeveer dezelfde dingen leert die een verdere versie van CAS op basis van onderzoek geïmplementeerd heeft. Soms is een handgeschreven algoritme op basis van goede research gewoon de beste oplossing. Soms is machine learning de best oplossing. Dat DLSS geavanceerder is betekent niet dat het persé gaat winnen. Ik denk dat dit uiteindelijk wel het geval gaat zijn, maar nu is het alleszins nog te vroeg om hier echt een winnaar aan te duiden...

[Reactie gewijzigd door Niosus op 25 juli 2024 21:41]

Ik ben absoluut geen fan van Upscaling. Het feit dat de textures in Deep Stranding er beter uitzagen met DLSS zegt mij meer dat de texture fidelity veel beter kan op 4k. En dat gaan we waarschijnlijk ook meer en meer zien in games.
En sommige tech-sites/youtubers speculeren al dat de 10gb dan niet meer genoeg zullen zijn.
Wat heb je tegen upscaling? Ik bedoel, ik heb het ook, van een relatief lage resolutie naar een normale. Maar op een bepaald moment bied hogere resolutie weinig detail en informatie wat je ook daadwerkelijk ziet en opmerkt, en is het volgens mij puur om het realisme of de kwaliteit van het totaal te verbeteren. En dat kan volgens mij prima met goede upscaling. Zeker in de context van bijv. VR.

En dan bedoel ik niet een scherpte-filter, maar iets wat op basis van de context op een realistische invulling geeft aan de extra pixels, zoals volgens mij DLSS.
Ik zie het als een lap middel.
Het gebruik van DLSS laat zien dat je video kaart gewoon niet sterk genoeg is voor die resolutie (en hz).
Verder is het gewoon een upscaling, het zelfde waar een hoop mensen commentaar over hadden toen de consoles het deden. Maar nu is het een wonder middel kennelijk, gewoon zo hypocriet als de tering.

Het voorbeeld van Death Stranding, zegt mij dat de ontwikkeling van het spel beter had gekund. Als een AI-upscaling beter textures laat zien, dan is er iets verkeerd mis met de manier waarop het spel ontwikkeld is. Of de originele textures kunnen veel beter.

Ik denk dat het punt gaat verschuiven naar API's. De studio die zelf een AI-learning draait over hun game zodat die geoptimaliseerd is voor de API. En dat de GPU het makkelijker van decoden vanuit beter compressie.
Ik ben het hier dus helemaal niet mee eens. Alles in real time rendering is een zo goed mogelijke approximatie van een betere techniek. Als we met DLSS een vergelijkbare ervaring krijgen met minder compute betekent het alleen maar dat je onnodig aan het rekenen bent als je het niet gebruikt. Iedere pixel exact uitrekenen voor ieder frame is misschien gewoon overdreven als er genoeg informatie is om het beeld goed weer te geven met minder.
Alles is een lapmiddel op one weg naar een perfecte simulatie van de realiteit. Maar daar zijn we niet, dus we moeten kiezen. En ik vind je argument nergens op slaan. Zelfs in de meest perfect opgebouwde game, kan je dmv. AI-achtige upscaling de FPS danwel de resolutie nog verder verbeteren.

Op consoles werd upscaling gebruikt om een matige resolutie tot een voldoende resolutie te verhogen. Maar feitelijk miste het beeld nog veel te veel detail of informatie, dat werd niet verbeterd. En de upscaling was voor zover ik weet niet bijster hoge kwaliteit. Maar we bereiken wel een punt waar je steeds minder extra informatie krijgt met het verhogen van de resolutie terwijl je tijd gaat verspillen wat ook in andere effecten etc gestoken had kunnen worden. En dat is waar AI-upscaling perfect voor is.

Ik denk al helemaal aan VR, waar we nu gewoon keihard tegen de grenzen aan lopen, en we met goede upscaling de resolutie, en dus het comfort, kunnen verhogen, zonder e.g. andere parameters zoals polygoncount etc te hoeven verlagen.
Native vs upscaling is lage gfx setting vs hoge gfx setting met ietje mindere render quality.
Omdat upscaling op consoles gewoon echt ruk was, en zelfs tot de vorige generatie DLSS 1.9 compleet waardeloos was.

DLSS 2.0 is echt een gigantische stap vooruit.
https://www.eurogamer.net...-dlss-2-dot-zero-analysis
Het is juist andersom. We weten dat RDNA2 hardwarematige ondersteuning heeft voor raytracing (DXR). Over een DLSS (ai upscaling) tegenhanger weten we echter niks.
De vraag is uiteraard wel hoe snel RDNA2 in raytracing gaat zijn tegenover Ampere.
Ik denk dat als ze Radeon Image Sharpening kunnen verbeteren, dan kunnen ze dat aanprijzen. Het hoeft niet zo goed te zijn als DLSS 2.0 als het maar een goede verbetering is en mensen het bij alle games kunnen gebruiken.

We weten dat AMD RIS heeft en hoe het presteert.
We weten dat AMD ray-tracing gaat ondersteunen maar we hebben geen idee hoe het presteert. Één van dè grote vragen voor het einde van oktober. :P
De xbox series x slides hadden het al over machine learning based upscaling op hun machine learning slide.

Daarbij is het concept exact het zelfde als er nodig is voor ray tracing om de ruimte tussen de rays in te vullen, alleen vul je nu ruimte tussen de pixels in en voor het hele scherm.
Dus als je dx12 ray tracing kan, is upscaling ook geen probleem.
Ray Tracing gebeurt hardware-matig dus niet software-matig zoals sommige suggereren. ;)
Microsoft® DirectX® Raytracing (DXR) adds a new level of graphics realism to video games previously only available in movies, and AMD has collaborated with Microsoft on the design of DXR 1.1, an update to DXR that can deliver better efficiency and performance in many raytracing effects. This video is to give you a taste of the photorealistic realism DXR 1.1 will enable when using hardware-accelerated raytracing on our upcoming AMD RDNA 2 gaming architecture.
https://www.youtube.com/watch?v=eqXeM4712ps&t=5s

https://community.amd.com...2-and-directx-12-ultimate
Ja ok maar hebben ze daarvoor dan ruimte gereserveerd voor iets nieuws of laten ze dat de compute units dat ofzo dan gewoon doen waardoor je dus wat normaale performence ook moet inleveren. Dat is de hamvraag natuurlijk. Ik bedoel nvidia zal toch ook niet voor niets die RT cores erin hebben gedaan. Ty voor de links !
Als je zoekt op TMU/texture ray tracing kan je hier en daar wel vergaren hoe het moet werken (gebaseerd op een patentaanvraag). Het idee is dat het stukje hardware dat textures verwerkt licht is uitgebreid en nu ook RT-berekeningen kan uitvoeren. Schijnbaar zou dit een onderdeel zijn dat in sommige delen van de beeldberekening eventjes niets staat te doen en dus tijd heeft om te wisselen naar een andere functie en tevens al goed geplaatst zit om de juiste data aangevoerd te krijgen.
Het zou dus een relatief efficiënte implementatie kunnen worden, voornamelijk qua chipgrootte. Of die daarom ook snel is weten we nog niet.
Gezien unit twee functies uitvoerd is het waarschijnlijk ook game afhankelijk hoe die functies mekaar in de weg kunnen zitten. Iig zal er voor console maintarget uiteraard met de tijd vlink voor geoptimaliseerd worden. Kan dus zijn dat nV bepaalde games het beter doet en AMD in andere.
Is DLSS alleen voor games waar DLSS is geïmplementeerd? Of voor alle games? Want indien DLSS toch in games geïmplementeerd moet worden, heeft het voor mij weinig nut aangezien er geen grote open-world games zijn dat mij aanspreekt.
Alleen voor games waat het is geïmplementeerd.
Helaas zit ik zelf vast aan gsync met me c9 en me monitor waardoor ik min of meer wel forced word naar Nvidia.
Ik heb een B9 en Free Sync aan. Als je tweakers bijhoudt heb je voorbij zien komen hoe je dat kon bewerkstelligen.
Ja maar ik heb zo 1,2,3 niet kunnen vinden/zien in welke refreshrange dat werkt + of dat met 4k 120 ook wel gaat werken met hdmi 2.1 Met de 3000 serie weet ik 100% dat alles werkt en ondersteund word zonder kans op vreemde fratsen. En daarnaast heb ik ook nog mijn 34 inch wide screen monitor die ook een gsync module heeft.
Idd de 5700xt met 40 cu is wat trager dan de 1080ti.

De 3080 is grofweg 2x zo snel als de 1080ti. Amd kan de CU's verdubbelen en dan zitten ze al op 3080 prestaties. Maar ze hebben ook nog rdna2 wat 50% verbetering geeft voor de prestaties per watt. Interessant en ik denk dat competitie met de 3080 en 3090 zeker in zit.
Ampere heeft ook dubbele compute units (als je de marketing geloofd) je kan niet zomaar alles altijd linear doorschalen. Er komt op gegeven moment ergens dimishing returns. Hoe veel waar en waarom? dat gaan we zien.

Ben wel eens dat het er beter uitziet als voorheen maar laten we gewoon zien wat ze eruit krijgen.

Ik ga er gewoon van uit dat we eindelijk weer een oorlogje op wat prijspoints gaan hebben of dat zelfs op 3080/3090 punt gaat zijn laten we het hopen dan komen er betere prijzen uit voor iedereen. Maar doe nu niet alsof ze 1,5-2x ampere gaan verslaan ;)
Nee ze gaan zeker niet 1,5x voorbij ampère. Bedoelde ik niet te zeggen. AMD kan echt wel zijn chip van de 5700xt nog verdubbelen (2x zo groot maken), wel wat anders dan het marketingtruukje van nvidia. Amd heeft met rdna1 domweg nog nooit een consumentenkaart gemaakt met een volledige chip.
Maar zonder de perf/watt verbeteringen van rdna2 kom je dan al gauw op 500 watt voor een 80cu videokaart.

Neem daar 2/3 van (omdat rdna 50% meer presteert voor het verbruikte vermogen en 66% is dan het vermogen voor gelijke prestaties) kom je uit op 333 watt. Dus 2x 40cu op dezelfde clockspeed met rdna zit je al op 333 watt (en rond rtx3080 niveau).
TMSC is bewezen beter procede dan samsung 8N alleen hoeveel beter maakt het een onbekende variable in voordeel van AMD. IPC per CU RDNA2 tov RDNA1 is ook onbekende. De klok TDP schaling is ook een onbekende waar ok positiefe geruchten over zijn. Energie efficientie verbetering tussen de RDNA1 en 2 is ook een onbekende en ipv 50% is het 60% ook vaag voordeeltje.
DXR aanpak via TMUTex unit is ook anders dan RTX. Dit kan zeer game gevoelig zijn.
128MB Cache om 256bit bus op te vangen is grote gerucht en flinke variable en games kunnen daar ook anders op reageren.
Er zij zoveel variablen waar vooral de betrouwbare bewezen geruchten nogal positief zijn.
Dat zijn er zoveel waarvan elk een subtiel tot flinke invloed kan hebben richting flop of killer.
Door Zen sucses is AMD wat slagkrachtiger en kan nu de Radeon afdeling opschalen en de 1st feit daarvan is dat ze met high-end kaart eindelijk weer los laten na de CPU dark ages van AMD.
Wellicht dat het niet kunnen komen aan een 3080 zich straks uitbetaald met een price cut op de gehele 3000 reeks omdat big navi heel competitief is.
Als de geruchten molen van een 3070Ti of Super varianten (Gigabyte) waar is, zou dat wel eens kunnen zijn hoe Nvidia AMD toch weer te slim af gaat zijn.
Benchmarks tellen uiteindelijk, tot dan toe is het helaas nog even koffie dik kijken. Maar zelfs indien de 3070 Ti/Super en 3080 Ti/Super waar blijkt, is het zeker geen slechte prestatie. Laten we wel wezen. AMD komt na vele jaren van ver. De 5700 XT is de laatste relevante kaart van AMD geweest en positioneerde zich ergens tussen de 2060 Super en 2070 Super.

Het zichzelf op weten te boksen tot op 3080 niveau, zou toch een voor AMD flinke stap voorwaarts zijn. Nvidia kan dan mogelijk wel met een Ti / Super variant willen komen, maar voor zover tot nu toe lijkt zit het verschil daar met name in meer geheugen. En mogen we wat eerste leaks van de 3090 performance geloven, zal 3070 / 80 Ti / Super maar marginaal meer performance leveren dan de huidige 3070 / 3080 zullen doen.

Dat is natuurlijk zeker prijzenswaardig, want voor de gemiddelde consument betekend dat indien AMD zich zoals gewoonlijk prijs competitief opstelt en deze lijn erin houdt, mocht deze waar blijken, de huidige generatie prijs technisch al gunstig uitgevochten kan gaan worden; maar ook zeker de volgende generatie voor ons als consument toch zomaar eens bijzonder gunstig zal kunnen gaan uitvallen.
Ik ben erg benieuwd hoe dit gaat uitpakken voor AMD. Er doen geruchten de ronde dat ze maar liefst 60% perf/watt increase hebben geboekt ten opzichte van RDNA 1. Dat is fors. Zeker gezien de tegenvallende resultaten van de RTX3090 zou AMD best wel eens competitief kunnen zijn in het hogere segment. Dat werd eens tijd.
Ze hebben zelf gezegd 50%. Ze hebben niet gezegd waar die performance zit, als ze de kaart 50% zuiniger maken hebben ze die statement al gehaald. Als ze 50% meer efficientie in CSGO halen en de rest 10% hebben ze het statement gehaald.

Als ze zouden kunnen gaan concurreren met de RTX 3090 waarom is de marketing van AMD dan zo stil en proberen ze geen hype te wekken?
Vanuit AMD blijkt er niet veel dat ze na veel jaren met Nvidia in het hoge segment kunnen concurreren.
Als ze zouden kunnen gaan concurreren met de RTX 3090 waarom is de marketing van AMD dan zo stil en proberen ze geen hype te wekken?
Wat wil je dat ze doen dan? De hebben de kaart al laten zien, ze hebben de datum van de presentatie aangekondigd.

Ze zijn nog niet klaar met de kaarten want de final clocksnelheden worden nu ongeveer bepaald aan de hand van het silicium dat ze terug hebben gekregen in grote aantallen. Dus ze kunnen nog niet eens de echte officiele performance cijfers vrij geven al zouden ze het willen, want die zijn er nog niet.

En als ze dat wel zouden doen dan lopen ze weer het risico om, net als met de 5700xt launch, 2 dagen laten weer afgetroefd te worden door nvidia die een super variant presenteert die NET sneller is. Dus ik denk dat ze daar hartelijk voor bedanken.

En als ze te veel hype creëren dan gaan mensen toch alleen maar zeggen 'poor volta' en gaan de mensen die toch altijd een nvidia kaart kopen dat blijven doen.

Daarbij heeft AMD niet veel te vrezen want de 3080 is toch nergens voorradig voor MSRP.
Er is ander hoofd bij AMD en dus ander beleid. Zo ook Radeon afdeling. Ze pakken het dus anders aan dan hun voorgangers. Op zich is de stilte juist beter dan Hype wat niet waargemaakt wordt door verrassing van nV. We moeten dus 1,5 maand wachten zit niks anders op.
Gamersnexus heeft een prachtige video gemaakt over de beloften van AMD die niet zijn waargemaakt. Iedereen hoopt op een comeback, maar ik denk dat niemand er werkelijk in gelooft. Is hun eigen schuld en als ze iets hadden, dan hebben ze sinds de reveal van de 3080 geen geweldige reden meer om niet wat serieuzers te laten 'lekken' om alvast wat twijfelaars over te halen op hun kaarten te wachten. Ik denk dat we weer naar de value proposition zullen moeten kijken ipv rauwe prestaties. Helaas hebben ze de naam mbt drivers ook al niet mee zitten, dus is er flink wat werk aan de winkel... Ik hoop met je mee, maar de in Het verleden behaalde resultaten bieden een grimmige blik voor de toekomst.
dan hebben ze sinds de reveal van de 3080 geen geweldige reden meer om niet wat serieuzers te laten 'lekken' om alvast wat twijfelaars over te halen op hun kaarten te wachten.
ik lees dat vaker maar dat is gewoon Klink klare onzin. Je wil dat ze alvast de performance gaan lekken terwijl ze nog bezig zijn om de final clock snelheden vast te stellen. Die performance cijfers hebben ze dus nog niet eens.

En jij wil dat ze alvast performance lekker zodat nviida opnieuw, net als met de 5700xt launch, 2 dagen later met een 'super' variant komt die NET sneller is als AMD's nieuwe chips. ik denk dat ze daar hartelijk voor bedanken.

[Reactie gewijzigd door Countess op 25 juli 2024 21:41]

Zodat Nvidia vast de gaten kan opvullen met super/Ti versies?
Welke performance beloftes heeft AMD precies gedaan met RDNA2 in vergelijking met Ampere?

[Reactie gewijzigd door CeesieG op 25 juli 2024 21:41]

Eigen schuld? De schuld ligt aan procedé achter stand van AMD fabs later global foundry. Je kan niet concurreren met een dubbele node achter stand.
Piledriver vs intel op 32nm -> 22nm -> 14nm -> 14++++ deze procedé achterstand heeft |AMD naar afgrond getrokken en Radeon afdeling en consoles als reddingsboei. Gezien de CPU business een veel belangrijke is heeft die ivm beperkte kapitaal voorrang gekregen. Dus daar zit de oorzaak van weg blijven van high-end chip. Houd ook in dat Radeon afdeling na paar jaren succes weer kan opschalen. Dus ze komen terug.
Nieuw generatie nieuwe kansen.
Op zich als net onder de 3080 komt is ook al mooi want dat is nog steeds high-end.
Er geld nog altijd en ten alle tijden het verleden is geen garantie voor de toekomst. iNtel loopt niet lekker.
En 3090 heeft GTX480 kachel trekjes.
Mocht Big navi niet mee komen om reden dat chip toch maatje te klein is. Maar 3080 net niet haalt maar wel met 275watt. Maar voor leuk prijs ergen er tussen €600,- Dat valt mooi binnen mijn budget.
Stel, al zou de nieuwe big Navi iets minder presteren dan een GTX 3080, maar wel voor lagere prijs te koop zijn, en goed presteren op 4k, dan alsnog wordt het een verkoophit. Laat maar komen, die nieuwe kaarten. :Y)
En daarbij ook nog zuiniger.
Heb weinig vertrouwen dat AMD's kaarten Nvidia kunnen overtreffen, misschien leuk voor een mid-range PC.

Maar als het niet het geval is worden ze wel scherp geprijst denk ik. (500 usd?)
Mid-range? Nvidia's 3000 serie is weinig indrukwekkend, terwijl RDNA 2 in de Xbox en Playstation er veelbelovend uitziet. Alles wijst erop dat RDNA 2 heel goed tegenover Ampere gaat staan.
Als je die Marbles render ziet, ben ik daarvan toch best onder de indruk!
Die render zegt mij helemaal niks, dat is slechts een demo van Nvidia. Geen enkele AMD kaart is daarmee ooit getest. Zo'n demo is puur marketing.
Fair enough, maar als de bewering dat het real time te renderen is klopt, ben ik erg onder de indruk, zelfs al zjin er andere kaarten die nog beter zijn.
3000 series is weinig indrukwekkend? Fanboys much? Bijna elke reviewer is er wel over eens dat de 3080 aanzienlijk beter is dan de 2080, 50% beter. Iets wat weinig keren is voorgekomen. Zie linustechtips/jayz2cents/etc op internet's. Je mag altijd hopen maar realistisch is het niet. Amd had niks tegenover de 2080(non Ti) en Nvidia heeft net een van de grootste prestatie leaps uitgevoerd in jaren. Maar weinig indrukwekkend verder......
Sneller, niet beter. Er zitten ook kosten aan de 3000 series, waaronder het hogere stroomverbruik. De 3060 gaat sneller zijn dan de 2070, maar de 3060 verbruikt wel meer stroom dan de 2070. Uiteindelijk is de 3000 serie een 2000 series op steroids met flink hoger stroomverbruik.
Naar mijn mening niet zo indrukwekkend, aangezien buiten de 2080ti er geen vooruitgang was bij de 2000 serie (en bij de 2070/2080 tenminste ook hogere prijzen) dat nvidia nu hun eigen kaarten van 3/4 jaar terug verslaan vind ik persoonlijk niet super verrassend.
Het blijft koffiedik kijken voorlopig, maar de geruchten zijn toch wel heel hoopgevend.
AMD is op processor gebied ook van heel ver gekomen. Wie 4 jaar geleden had beweerd dat AMD met de 3900 nu meer processors zou verkopen dan heel de Intel lijn werd voor gek verklaard.
En de grap is dan nog dat de 3900 niet AMD meest verkochte processor is, dat is de 3600.
Kijkende naar de reactie van nVidia verwacht ik toch echt wel wat van AMD, en ze hoeven niet beter te zijn dan de 3080. Als ze maar betere 'bang for buck' hebben. En laat daar AMD nu altijd al goed in geweest zijn.
AMd/Intel is een andere situatie en de voorteken waren er allang, met de eeuwige refreshes en steeds uitblijvende 10nm. GPU markt is anders, nvidia heeft wel degelijk geinnoveerd met raytracing hardware en dlss, daarnaast is het niet zo dat je binnenkort alleen kan kiezen uit amd of NV, intel komt er ook aan en die zal meer snoepen aan amd's marktaandeel dan nv's. (want ze zullen met de eerste producten waarschijnlijk niet met high end mee kunnen komen en moeten concurreren op prijs, wat intel echt heel lang kan blijven doen).
Weinig indrukwekkend? Tegenover wat? Ik hoop ten zeerste dat de RDNA2 serieuze competitie gaat geven, dat is goed voor ons allemaal, maar het moet serieus goed zijn wil het mij afhouden van een 3080. En zijn ze gelijk dan heb ik alsnog positievere ervaringen met de drivers van Nvidia(al jaren en jaren). En als ik de reacties zo hier en daar lees is het nog niet heel veel beter gesteld met drivers en hotfixes dan in de tijd van de 3870(prima kaart, maar mij veel teveel gedoe met drivers). En ik heb werkelijk niks tegen AMD, nu de prestaties er weer naar zijn heb ik een systeem met 3900x gekocht. Ik gun het ze van harte, en ze hoeven van mij niet eens goedkoper te zijn. Voor kwaliteit(en prestaties) wil ik best betalen. Maar ik kijk wel eerst de kat uit de boom.
Weinig indrukwekkend :') Je kunt geen fan zijn van nvidia, maar iets wat je niet kan zeggen is dat die 3000 reeks niet indrukwekkend is. AMD is de laatste jaren weinig indrukwekkend, dus die moeten met de RX6000 reeks wel wat laten zien.

[Reactie gewijzigd door Hulleman op 25 juli 2024 21:41]

Nvidia's 3000 serie is weinig indrukwekkend, terwijl RDNA 2 in de Xbox en Playstation er veelbelovend uitziet.
Dat hangt volledig af van met welke kleur oogkleppen je naar marketing slides kijkt.
Als je nu eens even die oogkleppen afzet en kijkt.
Zoals het bij Intel al lang niet mooi meer is dat ze zolang op 14nm++++++++++++ zijn blijven hangen.
Zo kun je je toch afvragen wat nVidia nu aan het doen is. Gewoon niet handig, een Fabrikant en procedé uitgekozen waar nog ervaring mist en kinderziektes inzitten (slechte yields) en daarbij een gigantisch gestegen stroomverbruik. Kijk nu weer even terug naar Intel en gestegen stroomverbruik, dat is dus niet omdat het zo goed gaat. Dat zijn noodsprongen!!
Met 80 CU's heb ik andere vermoedens. De prijs en het verbruik zijn een tweede.
Elke generatie zijn er nieuwe kansen het verleden is geen garantie voor de toekomst.
Zou kunnne dat intel de GPU markt gaat overheersen. heb zelf i740 Asus gehad.
Heb zelf de rtx 3080 van gigabyte. Waanzin wat voor beest van een kaart het is. Ik hoop wel dat amd deze keer echt kan concureren. Dat zou top zijn voor de pc markt op gpu gebied.
Goeie reactie, hou ik van.
Thnx. En dat van een Nvidia fanboy nog wel he (ik) :P
Een slimme nV fanboy zou wachten op bignavi aangezien dit de prijzen kan beinvloeden.
Ook gezien de geruchten van een 3080 20GB , tenzij je toch vaak upgrade maakt en 3080 10GB ook niet veel uit. Zou ik ook voor 3080 gaan dan wacht ik op een 16GB 3070 . Maar eerst komt bij mij een AMD in de form van PS5.
Nope, de 3080 is een beest, en had me 2080 al verkocht haha
Lol hahaha. ALS het gebeurt maybe ja, al denk ik zelf van niet. En als wel, dan een pluimpje voor team red na al die jaren niet de nummer 1 te zijn geweest. Echter janken? Haha.. geen idee maar ik niet.
True lmfao

Op dit item kan niet meer gereageerd worden.