Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia's komende Lovelace-gpu's krijgen maximaal 18.432 CUDA-cores

Nvidia komt volgens geruchten met een nieuwe gpu-architectuur, genaamd Lovelace. Gpu's op basis van deze architectuur worden vermoedelijk op 5nm geproduceerd en zouden maximaal 18.432 CUDA-cores krijgen.

Twitter-gebruiker kopite7kimi, die vaker details over onaangekondigde componenten deelt, meldt dat de AD102-gpu op basis van Lovelace mogelijk twaalf graphics processing clusters krijgt, terwijl de huidige Ampere-architectuur over zeven van dergelijke clusters beschikt. Daarmee zou de Lovelace-chip beschikken over maximaal 72 tpc's, 144 streaming multiprocessors en 18.432 CUDA-cores. Dat is een toename van 71 procent ten opzichte van de huidige GA102-gpu, zo schrijft ook VideoCardz. Het is nog niet duidelijk wanneer de eerste Lovelace-gpu's op de markt verschijnen.

De eerste berichten over een Nvidia Lovelace-architectuur verschenen eerder deze maand. Daarbij werd al gemeld dat de gpu's gemaakt worden op een 5nm-procedé. Het is nog niet duidelijk wie de gpu's gaat produceren; TSMC en Samsung maken beide al chips op hun eigen 5nm-nodes. Samsung produceert momenteel de huidige RTX 30-videokaarten van Nvidia, maar de voorgaande RTX 20-gpu's werden gemaakt op TSMC's 12nm-procedé.

Lovelace zou de huidige Ampere-architectuur opvolgen. Aanvankelijk werd verwacht dat Hopper de eerstvolgende gpu-serie van de chipfabrikant zou zijn, maar volgens geruchten wordt deze architectuur uitgesteld. Hopper zou de eerste Nvidia-gpu zijn die gebruikmaakt van 'multi-chip modules'. Het is nog niet duidelijk of die architectuur uiteindelijk ook in consumenten-gpu's terechtkomt.

Nvidia's gpu-architecturen
Gpu AD102 (Lovelace)* GA102 (Ampere) TU102 (Turing)
Procedé 5nm 8nm Samsung 12nm TSMC
Graphics processing clusters 12 7 6
Texture processing clusters 72 42 36
Streaming multiprocessors 144 84 72
CUDA-cores (fp32) 18.432 10.752 4608

*Op basis van onbevestigde geruchten

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

28-12-2020 • 12:30

230 Linkedin

Reacties (230)

Wijzig sortering
Ik denk dat je dit voorlopig met een behoorlijke korrel zout moet nemen. Ampere heeft in theorie 10752 fp32 cores, maar in de praktijk is het een heel ander verhaal, 50% van de cores is int32+fp32, en kunnen per cluster (van 4?) enkel integer of floating point uitvoeren. Vaak zal het integer zijn, en vervallen dus de fp cores. De basis blijft 5376 CUDA cores (indien de hele chip gebruikt zou worden).

Ik vermoed dat Nvidia dit tructje opnieuw gaat toepassen, alleen dan ook bij de tensor cores.

Edit, Te snel geoordeeld, van 7 naar 12 grote clusters, dan is het optel sommetje inderdaad 9216 x 2, puur behaald op productie shrink, en geen extra gemorrel met cijfers, althans, niet tegenover ampere.

[Reactie gewijzigd door MadDogMcCree op 28 december 2020 13:33]

Ik ben benieuwd of nvidia dit design weer overboord gooit en dat ze voor dedicated units gaan en zo meer prestaties halen. Het lijkt mij namelijk een vrij silicon realestate verspillende architectuur.
Er zijn natuurlijk een flink aantal FP only workloads waar dit prima voor werkt, vooral als ze de memory bandwidth nog wat op kunnen schroeven.
de multi chip module technologie ziet er goed uit.
Maarja gerucht blijft gerucht,de toekomst van nvidia zag er altijd al goed uit.

https://www.wikiwand.com/en/Multi-chip_module

[Reactie gewijzigd door rjmno1 op 28 december 2020 17:40]

Bij het lezen van de naam 'Lovelace' dacht ik meteen aan Linda Lovelace. Zij is uit de era dat haar nog ongebreideld groeide.
Ada Lovelace, wiskundige.
Maar beide Lovelaces waren toppers in hun eigen vak. :9

En de Hopper architectuur. Misschien Grace Hopper? Ook een wiskundige, heeft een compiler ontwikkeld die de voorloper was voor COBOL.
Dat is zeker Grace Hopper.
nVidia vernoemt haar architecturen al lange tijd naar bekende wetenschappers.
Een aantal adult filmsterren zijn hoog opgeleid:

Missy Woods - Bachelor in Psychology
Selena Silver - Marine Science
Tera Patrick - Bachelor Microbiology, EMT,
Mika Tan - Bachelor in Biochemistry
A.J. Bailey - Master in Anthropology

Dus die zou je ook als wetenschappers kunnen beschouwen. ;)
Maar nu ga ik lichtelijk offtopic.
Altijd leuk om meer info over je favoriete actrices te achterhalen 👌🏻
Vergeet Asia Carrera niet. Een IQ van 156 en lid van Mensa.
En een pastafarian, en ze majorde in Japanese en Business...

Ja sorry, maar IQ is dus niet álles natuurlijk hè. :+
Dat iemand een hoog IQ heeft hoeft niet te betekenen dat ze slim of wijs zijn, enkel dat ze snel problemen kunnen oplossen (want dat is wat IQ meet).

Ik zie geen noemenswaardige (wetenschappelijke) accolades op haar naam staan, dus het is spijtig dat ze haar IQ niet heeft ingezet voor zulk soort doeleinden.

Sowieso is lid zijn van Mensa niet echt noemenswaardig.. ik heb de wikipedia pagina even gelezen en daar wordt echt geen woord gerapt over hoe zij meegeholpen hebben de wereld een betere plek te maken of hun verzamelde slimme koppen in te zetten voor moeilijke vraagstukken... 't is gewoon een country club voor IQ-snobs lijkt het.

[Reactie gewijzigd door Ayporos op 29 december 2020 00:13]

Dat is ook wel mijn ervaring tbh.

[Reactie gewijzigd door ErwinPeters op 31 december 2020 05:08]

Is een bachelor al hoog opgeleid?
Whoa. Een admiraal, zelfs.
Kende betreffende dame (Linda) niet, maar weet zeker dat ik me nu een keer ga verspreken tijdens een college als ik het over 'die andere Lovelace' heb. Bedankt he @mark_vs !

Overigens vertelt de wikipedia pagina een heel ander verhaal over deze 'topper'. Niet echt vrolijk leeswerk.
:) Ik denk toch eerder Ada
Zij was van nature lovers channel toch? Vraag het voor een vriend.
Correct me if I’m wrong maar was het niet Linda Lovelace die het zgn. ‘deep throat’ fellatio (‘keelpijpen’) op de kaart gezet heeft?
Ik sta hier me dood te lachen want tussen de reacties hier een aantal komische humor hahaha.

Linda Lovelace: Deep Throat
Ada Lovelace: Deep Learning

Ze hebben allebei wel een aantal dingen gemeen en dat is dat ze diep zijn en ook beroemd hahaha

Alle gekkigheid aside, we moeten het voorlopig wel met een behoorlijke berg ray-traced zout nemen want RTX30 is voorlopig niet voldoende leverbaar en al op weg naar de nieuwe gen(?)
Ik dacht precies hetzelfde, die GPU heeft vast een extra deep pipeline.
ik juist aan HomeAssistant :)..
Het zou een goede verwijzing zijn naar de content waarvoor videokaarten vaak gebruikt worden, maar ik denk toch dat ze Ada bedoelen :)
Ah.. nu snap ik eindelijk waarom iedereen het over discrete GPU's heeft :+
Als dit zich verhoudt met de huidige series gaan we bijna een verdubbeling in performance zien 8k gaming ?
4k 120hz, ben wel benieuwd naar de prijs zal wel ruim boven de €1000,- gaan zitten voor de big cores.

En nog maar niet te beginnen over het verbruik ondanks de kleinere node.

Aan de andere kant voor wie worden deze kaarten nu geproduceerd snap dat de markt op het gebied van computing behoorlijke stappen maakt maar puur voor een spelletje moet je onderhand 10k uitgeven om alles rondom de kaart ook van maximaal niveau "randapparatuur" te krijgen.
We gaan een beetje terug naar vroeger. Voor duizenden euro's hardware halen om een spel te spelen en zodra je er mee thuis komt, is het al weer outdated.

We hebben, mede dankzij Nvidia, jarenlang een beetje vast gezeten op GPU gebied met nauwelijks vooruitgang. Wil je een betere en betaalbare toekomst, help Nvidia's concurrentie.
Nauwelijks vooruitgang?

Ray Tracing, DLSS, machine learning zijn anders behoorlijke innovaties van nVidia. Van AMD zie ik alleen concurrentie in brute rekenkracht.
RT bestaat omdat rasterized te makkelijk werd voor de GPUs, dat vonden aandeelhouders niet zo leuk en hey, Nvidia had nog wat special purpose cores op de plank liggen.

'Ten years in the making' was het toch? Waarom is er dan nog altijd bijna geen RT content die de moeite waard is?

Ze zijn nog zeker een gen of twee te vroeg. De meerwaarde is er niet boven degelijke SSR. Het is hoogstens 'anders'... maar beter? Als je van een diashow houdt misschien. Ondertussen ziet elke auto eruit alsof het net uit de wasstraat komt, net als de straten in Cyberpunk. Het zal wel hoor, maar realisme, is dit het echt? 8)7 Het is net zo goed een trucje met een aantal parameters en heel veel rekenen om 'echt' te benaderen. We brute forcen het nu ipv het efficient aan te pakken voor een minimale winst. Heel, heel bijzonder.

DLSS, ja dat is wel wat, maar ja. proprietary en volgens mij wil je dit juist zonder support universeel kunnen inzetten. Dus leuk idee, nu graag een breed inzetbaar alternatief waar je Huang's goedkeuring niet voor nodig hebt. Anders is het PhysX all over again - net zoals de RTX implementatie die hoegenaamd meer doet dan DXR. Nvidia heeft DLSS nu namelijk heel hard nodig om te zorgen dat RTX geen slideshow is. Dat blijft niet zo, en ze kunnen ermee doen wat ze willen.

Ik ga iig als Nvidia klant geen stuiver uitgeven aan deze onzin want de perf/dollar is nog altijd om te janken, en het VRAM dat er nu standaard op zit is een gigantische achteruitgang ten opzichte van Pascal. Turing was al minder, maar dit is simpelweg idioot. De resale value van Ampere is daarmee nihil - games tikken de limiet nu al aan. En men mag best geloven dat het toch genoeg zal zijn... we spreken elkaar over een jaar of twee-drie nog wel eens :)

Nee... ik was altijd voorstander van het pushen van de 'cutting edge' zoals Nvidia het deed, maar wat ze sinds Turing uitvreten is wel heel opzichtig, heel erg rushed, en heel erg een reactie op het instandhouden van de mining-winsten ten tijde van Pascal - een van de beste generaties die Nvidia ooit heeft gemaakt als je het mij vraagt. Het is hoog tijd dat ze een toontje lager gaan zingen, een beetje zoals ze dat moesten doen met Gsync. Ook daaraan heb ik geen stuiver gespendeerd want proprietary terwijl het standaard hoort te worden. Dat heeft goed uitgepakt, want volgens mij waren er meer die zo dachten en Nvidia voelde zich gedwongen mee te gaan.

[Reactie gewijzigd door Vayra op 28 december 2020 14:33]

RT bestaat omdat rasterized te makkelijk werd voor de GPUs, dat vonden aandeelhouders niet zo leuk en hey, Nvidia had nog wat special purpose cores op de plank liggen.
Ja want RT is ook echt iets nieuws en bestaat toch echt al niet tientallen jaren onderhand.......
'Ten years in the making' was het toch? Waarom is er dan nog altijd bijna geen RT content die de moeite waard is?
Dit is niets meer dan een mening, Control, Cyberpunk, Metro Exodus etc, stuk voor stuk mooie titels en er komt steeds meer uit.
Ze zijn nog zeker een gen of twee te vroeg. De meerwaarde is er niet boven degelijke SSR. Het is hoogstens 'anders'... maar beter? Als je van een diashow houdt misschien. Ondertussen ziet elke auto eruit alsof het net uit de wasstraat komt, net als de straten in Cyberpunk. Het zal wel hoor, maar realisme, is dit het echt? 8)7 Het is net zo goed een trucje met een aantal parameters en heel veel rekenen om 'echt' te benaderen. We brute forcen het nu ipv het efficient aan te pakken voor een minimale winst. Heel, heel bijzonder.
Grappig dat je het over bruteforcen hebt maar in mijn geheugen DLSS constant afkraakt......

De winst is overigens enorm als je gewoon kritisch naar belichting en reflecties kijkt. In professional rendering zie je niets anders dan raytracing en de huidige accuratie van deze algoritmes heeft ervoor gezorgd dat de Ikea niet eens meer fotos neemt van hun meubelen maar hun hele folder 3D rendered. Het belang van RT niet begrijpen toont aan hoe kortzichtig je tegen de stappen die nodig voor echt fotorealisme aan kijkt. Of blijf je liever tegen verdwijnende reflecties en artifacts aankijken in SSR etc?
DLSS, ja dat is wel wat, maar ja. proprietary en volgens mij wil je dit juist zonder support universeel kunnen inzetten. Dus leuk idee, nu graag een breed inzetbaar alternatief waar je Huang's goedkeuring niet voor nodig hebt. Anders is het PhysX all over again - net zoals de RTX implementatie die hoegenaamd meer doet dan DXR. Nvidia heeft DLSS nu namelijk heel hard nodig om te zorgen dat RTX geen slideshow is. Dat blijft niet zo, en ze kunnen ermee doen wat ze willen.
Gek he dat het proprietary is, ze hebben sepciaal tensor cores ontwikkeld om dit te versnellen. Elke andere oplossing mist dus de hardware hiervoor. RTX draait overigens zonder DLSS prima op resoluties als 1440P. Niet overdrijven.
Ik ga iig als Nvidia klant geen stuiver uitgeven aan deze onzin want de perf/dollar is nog altijd om te janken, en het VRAM dat er nu standaard op zit is een gigantische achteruitgang ten opzichte van Pascal. Turing was al minder, maar dit is simpelweg idioot. De resale value van Ampere is daarmee nihil - games tikken de limiet nu al aan. En men mag best geloven dat het toch genoeg zal zijn... we spreken elkaar over een jaar of twee-drie nog wel eens :)
Games zitten nu helemaal niet tegen het limiet aan.

Cyberpunk 7GB op 4K, AC Valhalla 6.5GB op 4K, RDR2, 5.5GB op 4K etc. Godfall waarbij AMD claimde dat deze 12GB zou verbruiken is in de praktijk 6GB op 4K. Poepoe wat een limiet zeg. Voordat de 10GB daadwerkelijk bereikt wordt en waarbij DIrectStorage geen oplossing biedt zijn de GPU's zelf niet eens snel genoeg meer. Helemaal nu de markt met hun engines verplaatsen naar direct streaming van een NVME drive.
Het is hoog tijd dat ze een toontje lager gaan zingen, een beetje zoals ze dat moesten doen met Gsync. Ook daaraan heb ik geen stuiver gespendeerd want proprietary terwijl het standaard hoort te worden. Dat heeft goed uitgepakt, want volgens mij waren er meer die zo dachten en Nvidia voelde zich gedwongen mee te gaan.
Tot op de dag vandaag is de ervaring van Freesync nogsteeds niet zo consistent en goed als Gsync van 5 jaar geleden. Heb een 1300 euro Freesync pro monitor op mijn tafel staan maar het is het gewoon net niet. Het is dat er geen Ultrawide 1000nits HDR1000 gaming monitor op de markt was met een Gsync module anders had ik deze wel gekocht. 3 Freesync monitoren afgelopen zomer getest en allen hebben last van flickeringen in bepaalde refresh rate ranges, toch nog tearing in sommige situaties etc. Maar wat slecht zeg, meer betalen voor een betere ervaring!
Nee... ik was altijd voorstander van het pushen van de 'cutting edge' zoals Nvidia het deed, maar wat ze sinds Turing uitvreten is wel heel opzichtig, heel erg rushed, en heel erg een reactie op het instandhouden van de mining-winsten ten tijde van Pascal - een van de beste generaties die Nvidia ooit heeft gemaakt als je het mij vraagt.
Het was toch echt AMD welke vooral in de smaak vielen bij de miners. Daarom waren de Polaris kaarten na verloop van tijd ook zo prijzig.

[Reactie gewijzigd door ZeroNine op 28 december 2020 18:16]

Dit is niets meer dan een mening, Control, Cyberpunk, Metro Exodus etc, stuk voor stuk mooie titels en er komt steeds meer uit.
Metro Exodus had een luie implementatie. Het is aan of uit, er is geen enkele fall back; imho leuk idee, slechte uitwerken. Dat is geen mening, dat is een feit. Control en Cyberpunk zijn met wellicht Watchdogs de eerste die een beetje fatsoenlijke RT implementatie hebben, in dat rijtje past Metro Exodus echt niet.
Gek he dat het proprietary is, ze hebben sepciaal tensor cores ontwikkeld om dit te versnellen. Elke andere oplossing mist dus de hardware hiervoor. RTX draait overigens zonder DLSS prima op resoluties als 1440P. Niet overdrijven.
Alleen draait het gewoon prima op niet Tensor cores. Nvidia laat het daar nu op draaien omdat ze het anders niet echt kunnen verantwoorden het op consumenten kaarten te zetten. Tensor cores zijn niets meer dan uitgeklede normale shaders waardoor het minder ruimte kost op de die.
Doordat er minder precisie nodig is kunnen de Tensor cores dingen zoals DLSS efficienter doen; het is echter geen noodzaak. De eerdere versies van DLSS in Control draaiden gewoon via de compute shaders. Het is gewoon Nvidia die het dus weer proprietaire maakt.

Ik wil een RTX 2060 op 1440p nog wel fatsoenlijk RT zien doen 8)7. Pas vanaf de 2080Ti draait het een beetje fatsoenlijk.

Dat Freesync 1 zijn fouten had doordat er geen controle werd uitgevoerd daar kan ik mij in vinden. Freesync 2 draait zonder problemen (al op meerdere generaties videokaarten getest hier).
Metro Exodus had een luie implementatie. Het is aan of uit, er is geen enkele fall back; imho leuk idee, slechte uitwerken. Dat is geen mening, dat is een feit. Control en Cyberpunk zijn met wellicht Watchdogs de eerste die een beetje fatsoenlijke RT implementatie hebben, in dat rijtje past Metro Exodus echt niet.
Het is aan of uit maar de Global illumination dankzij RT maakt de game wel eenm heel stuk mooier. Het zou pas een "feit" zijn als dat niet het geval zou zijn.
Alleen draait het gewoon prima op niet Tensor cores. Nvidia laat het daar nu op draaien omdat ze het anders niet echt kunnen verantwoorden het op consumenten kaarten te zetten. Tensor cores zijn niets meer dan uitgeklede normale shaders waardoor het minder ruimte kost op de die.
Bron? Dit is werkelijk de eerste keer dat ik iemand dit hoor zeggen. De non tensor core variant is minder precies en vlot. Inderdaad de implementatie in Control. De performance jump was er echt minder in
Ik wil een RTX 2060 op 1440p nog wel fatsoenlijk RT zien doen 8)7. Pas vanaf de 2080Ti draait het een beetje fatsoenlijk.
Ik speelde Control op 1440P op een 2070 Super en dat ging prima met alle RT effecten aan.
Dat Freesync 1 zijn fouten had doordat er geen controle werd uitgevoerd daar kan ik mij in vinden. Freesync 2 draait zonder problemen (al op meerdere generaties videokaarten getest hier).
Ja, alle 3 de monitoren welke ik getest had op 2 verschillende videekaarten en op mijn laptop zijn allemaal uit mijn duim gezogen, evenals de reviews welke nogsteeds issues aankaarten.

[Reactie gewijzigd door ZeroNine op 28 december 2020 21:55]

[...]

Het is aan of uit maar de Global illumination dankzij RT maakt de game wel eenm heel stuk mooier. Het zou pas een "feit" zijn als dat niet het geval zou zijn.
Het maakt het spel wat mooier ja, maar niet veel beter dan een fall back implementatie die we de laatste 5 jaar al hebben in spellen.
Bron? Dit is werkelijk de eerste keer dat ik iemand dit hoor zeggen. De non tenso rcore variant is minder precies en vlot. Inderdaad de implementatie in Control.
Wellicht net iets te simpel omschreven, Tensor Cores hebben minder precisie maar kunnen wel bepaalde matrice operaties veel sneller uitvoeren.
https://towardsdatascienc...a-tensorcore-bad6208a3c62
https://www.techspot.com/article/2049-what-are-tensor-cores/
Ik speelde Control op 1440P op een 2070 Super en dat ging prima met alle RT effecten aan.
Probleem is onze definitie van acceptabel. Acceptabel vind ik tegenwoordig alles maxed op 90fps+ voor een actie spel. Voor een RTS mag dat 60fps zijn.
Daarnaast noem ik een RTX 2060, wat een heel stuk trager is dan een RTX 2070 Super. De 2080Ti zit daar weer 25-30% boven en doet RT redelijk.
Ja, alle 3 de monitoren welke ik getest had op 2 verschillende videekaarten en op mijn laptop zijn allemaal uit mijn duim gezogen, evenals de reviews welke nogsteeds issues aankaarten.
Stonden deze monitoren op het lijstje van Nvidia dat ze goed werkten en hadden ze het Freesync 2 premium label of het Gsync "compatible" label, zonder dat heb je geen garantie dat het werkt op een Nvidia kaart? Voor hetzelfde geld werken ze prima op AMD kaarten en gewoon niet goed op Nvidia kaarten door hun implementatie.
Ik zeg niet dat jij het uit je duim zuigt (dat doe je zelf); het kan prima zijn dat jij gewoon pech hebt gehad. Ik heb ondertussen 4 verschillende kabels op mijn monitor getest omdat ik steeds problemen had; allemaal rated voor DP 1.4. De enige die zonder problemen werkt is de te korte bijgeleverde kabel. Om maar een voorbeeld te noemen hoe stom de oplossing kan zijn. De 3 "niet" werkende kabels werkten icm dat beeldscherm allemaal wel op mijn oudere kaart.
Het maakt het spel wat mooier ja, maar niet veel beter dan een fall back implementatie die we de laatste 5 jaar al hebben in spellen.
Wat?! EIndelijk realistische schaduw en bouncing implementaties maar het is niet veel beter dan faked baked shadows en of inaccurate schaduwen? VOlgens mij zit je gewoon te haten om het haten.
Wellicht net iets te simpel omschreven, Tensor Cores hebben minder precisie maar kunnen wel bepaalde matrice operaties veel sneller uitvoeren.
En bij techspot zie je mooi de snelheids winst van een factor 5.
Probleem is onze definitie van acceptabel. Acceptabel vind ik tegenwoordig alles maxed op 90fps+ voor een actie spel. Voor een RTS mag dat 60fps zijn.
Daarnaast noem ik een RTX 2060, wat een heel stuk trager is dan een RTX 2070 Super. De 2080Ti zit daar weer 25-30% boven en doet RT redelijk.
Dan zet je DLSS aan. 2060 is budget midrange, Je wilt wel de mooiste graphics maar het mag niets kosten?
Stonden deze monitoren op het lijstje van Nvidia dat ze goed werkten en hadden ze het Freesync 2 premium label of het Gsync "compatible" label, zonder dat heb je geen garantie dat het werkt op een Nvidia kaart? Voor hetzelfde geld werken ze prima op AMD kaarten en gewoon niet goed op Nvidia kaarten door hun implementatie.
Doen het ook niet echt lekker op een 5700XT GPU. Zoals ik al zei op meerdere systemen en GPU's getest. Deze problemen zijn ook gewoon gedocumenteerd binnen de communities overigens.
Stonden deze monitoren op het lijstje van Nvidia dat ze goed werkten en hadden ze het Freesync 2 premium label of het Gsync "compatible" label, zonder dat heb je geen garantie dat het werkt op een Nvidia kaart? Voor hetzelfde geld werken ze prima op AMD kaarten en gewoon niet goed op Nvidia kaarten door hun implementatie.
Ik zeg niet dat jij het uit je duim zuigt (dat doe je zelf); het kan prima zijn dat jij gewoon pech hebt gehad. Ik heb ondertussen 4 verschillende kabels op mijn monitor getest omdat ik steeds problemen had; allemaal rated voor DP 1.4. De enige die zonder problemen werkt is de te korte bijgeleverde kabel. Om maar een voorbeeld te noemen hoe stom de oplossing kan zijn. De 3 "niet" werkende kabels werkten icm dat beeldscherm allemaal wel op mijn oudere kaart.
Gsync is gewoon consistenter, allemaal omdat er maar 2 scalers op de markt zijn en dus de aansturing vrijwel niet varieert. Overigens zijn de kwaliteit van deze scalers uitmuntend, iets wat van de schermpanelen zelf erg kan varieren. Maar vrijwel de gehele laatste generatie Samsung monitoren en een aantal van LG's laatste panelen hebben nogsteeds problemen. Ohja, ook meerdere kabels geprobeerd, meerdere porten (DP, HDMI, USB-C).
Wat?! EIndelijk realistische schaduw en bouncing implementaties maar het is niet veel beter dan faked baked shadows en of inaccurate schaduwen? VOlgens mij zit je gewoon te haten om het haten.
Tjah als ze te lui zijn om het erin te baken dan ga ik dat aanstippen. Baked GI is echt wel het meest minimale. Daarnaast er zijn meerdere manieren beschikbaar om het zonder baking te aproximeren. Dus ja, luie ontwikkelaars :P.
Zit ik te haten op de implementaties van Control, Cyberpunk en Watchdog? Feit is gewoon dat eerste generatie van een nieuwe techniek op de hardware vaak te traag is en game ontwikkelaars het tot het extreem inzetten waardoor het er voor geen meter uitziet.
Dat zag je ook met technieken zoals bump/normal mapping, bloom, fake hdr en tessellation. RT begint nu pas wat interessant te worden, maar nog steeds geen must.
En bij techspot zie je mooi de snelheids winst van een factor 5.
Dan zet je DLSS aan. 2060 is budget midrange, Je wilt wel de mooiste graphics maar het mag niets kosten?
Waar zeg ik dat het helemaal geen zin heeft? Alleen moet je je afvragen of de kaart misschien sneller was als er meer RT of shader cores op zaten. DLSS is inderdaad dan een oplossing voor de budget RTX kaarten, dan lever je wel wat detail in. Voor ieder dus een afweging of dat het waard is.
Doen het ook niet echt lekker op een 5700XT GPU. Zoals ik al zei op meerdere systemen en GPU's getest. Deze problemen zijn ook gewoon gedocumenteerd binnen de communities overigens.
Laten we eerlijk zijn, de 5700 XT heeft gewoon zeker in het begin veel problemen gehad. Op mijn oude 5700 XT heeft het gewerkt, maar de eerste 2 maanden had ik genoeg andere problemen.
Gsync is gewoon consistenter, allemaal omdat er maar 2 scalers op de markt zijn en dus de aansturing vrijwel niet varieert. Overigens zijn de kwaliteit van deze scalers uitmuntend, iets wat van de schermpanelen zelf erg kan varieren. Maar vrijwel de gehele laatste generatie Samsung monitoren en een aantal van LG's laatste panelen hebben nogsteeds problemen. Ohja, ook meerdere kabels geprobeerd, meerdere porten (DP, HDMI, USB-C).
Wellicht, maar die scalers hadden, zeker in het begin ook minder features dan de scalers van de andere fabrikanten. Daarnaast ben ik van mening dat een monitor kopen met een gesloten standaard dom is. Ik doe over het algemeen 5 jaar met een monitor (en dan wordt het een tweede scherm en schuift het door) en 1 jaar met een videokaart. Ik wil vrij tussen Nvida en AMD kunnen wisselen zonder zulke functionaliteiten ineens te missen.
Sowieso is het altijd slim om een review te lezen van de hardware voordat je die koopt. Als een scherm erom bekend staat dat een feature niet goed werkt dan zou ik dat gewoon mijden.
Tjah als ze te lui zijn om het erin te baken dan ga ik dat aanstippen. Baked GI is echt wel het meest minimale. Daarnaast er zijn meerdere manieren beschikbaar om het zonder baking te aproximeren. Dus ja, luie ontwikkelaars :P.
Zit ik te haten op de implementaties van Control, Cyberpunk en Watchdog? Feit is gewoon dat eerste generatie van een nieuwe techniek op de hardware vaak te traag is en game ontwikkelaars het tot het extreem inzetten waardoor het er voor geen meter uitziet.
Dat zag je ook met technieken zoals bump/normal mapping, bloom, fake hdr en tessellation. RT begint nu pas wat interessant te worden, maar nog steeds geen must.
Want Baked GI vereist geen geheugen, ontwikkel resources etc? Alle andere varianten zijn grafisch veel minder. Metro Exodus was nou net 1 van de vroege goede implementaties van RT waarbij BFV de slechte was (qua performance vooral). Tot nu toe is ngo geen enkele game echt overboard gegaan qua hoe de effecten er uit zien naar mijn mening. NIet zoals de bump mapping tijd tijdens Far Cry waar alles rubebrachtig er uit zag etc.
Waar zeg ik dat het helemaal geen zin heeft? Alleen moet je je afvragen of de kaart misschien sneller was als er meer RT of shader cores op zaten. DLSS is inderdaad dan een oplossing voor de budget RTX kaarten, dan lever je wel wat detail in. Voor ieder dus een afweging of dat het waard is.
De tijd van brute force rendering verdwijnt, de hoeveelheid kracht dat het al kost om de polygon count te pushen bijvoorbeeld weegt niet meer op tegen het resultaat https://cdn.wccftech.com/...6940-0248877224-ChsSw.png

Ze proberen nu graphics de boosten door middel van verlichting en aangezien ze de pipeline nog niet zo breed kunnen maken om de RT cores te kunnen blijven voeden met data doen ze het maar dan met DLSS.
Laten we eerlijk zijn, de 5700 XT heeft gewoon zeker in het begin veel problemen gehad. Op mijn oude 5700 XT heeft het gewerkt, maar de eerste 2 maanden had ik genoeg andere problemen.
De 5700XT dat ik teste was aangekocht Juli dit jaar. De meeste driver problemen waren voor zover ik weet toen verholpen. Was een tijdelijek stopgap kaart maar kon toen toch neit zodner Cuda cores waarom ik de 2070S had gekocht.
Wellicht, maar die scalers hadden, zeker in het begin ook minder features dan de scalers van de andere fabrikanten. Daarnaast ben ik van mening dat een monitor kopen met een gesloten standaard dom is. Ik doe over het algemeen 5 jaar met een monitor (en dan wordt het een tweede scherm en schuift het door) en 1 jaar met een videokaart. Ik wil vrij tussen Nvida en AMD kunnen wisselen zonder zulke functionaliteiten ineens te missen.
Sowieso is het altijd slim om een review te lezen van de hardware voordat je die koopt. Als een scherm erom bekend staat dat een feature niet goed werkt dan zou ik dat gewoon mijden.
Mist vooral porten, 1 DP en 1 HDMI max. Voor mij geld gewoon de ervaring ongeacht het bedrag. Uiteindelijk liggen bij goede concurrentie de GPU's qua performance toch dicht bij elkaar. Dus de Nvidia lock-in was voor mij geen probleem. Reviews gelezen amar deze gingen er niet voldoende op in maar alsnog wetende dat het niet perfect was gewoon gekocht omdat ik een ultrawide wilde voor productivity en het benodigde kleuren bereik. Kan nog altijd mijn oude Acer Predator X27 aansluiten wil ik toch echt gebruik maken van Gsync maar Ultrawide is ook voor gaming naar mijn mening DE experience en hierbij zijn er nog geen monitoren beschikbaar die Dual 1440P bieden met een Gsync module.
Control op 1440p op een 2070 super is alleen prima te doen in combinatie met DLSS.
Heb je de game gespeeld met latere drivers en patches? ZO niet raadt ik je aan om de game opneiuw te proberen want het speelt nu een heel stuk beter. Want met een paar settings op high in plaats van ultra is het prima te doen met RTX aan op 60fps+
Staat op het andere scherm open.

Alles maxed (film grain en motion blur uitgeschakeld overigens), DLSS aan, 63 fps op het moment met een 2070S dus. In die rode gang in de missie "Take Control".
Overigens lijkt die rode gloed wel lekker zwaar te zijn.

[Reactie gewijzigd door DaitoX op 28 december 2020 23:17]

Welke CPU erachter? want ik haal dat dus met DLSS uit.
3700x

Overigens ben ik nu iets verder weer en dan zit ik weer rond 70~80. Die gang was iets zwaarder dan meestal.

Maar om dus tijdens actie minimale fps 60 te houden is DLSS gewoon nodig.

[Reactie gewijzigd door DaitoX op 28 december 2020 23:23]

Of 1 van de settings van Ultra naar high zetten (Wat ik had gedaan).
Doordat er minder precisie nodig is kunnen de Tensor cores dingen zoals DLSS efficienter doen; het is echter geen noodzaak. De eerdere versies van DLSS in Control draaiden gewoon via de compute shaders. Het is gewoon Nvidia die het dus weer proprietaire maakt.
Probleem met die implementatie is dat het niet een generiek model was, maar sterk geoptimaliseerd voor Control. En het was met DLSS 2.0 juist de bedoeling dat het niet per spel sterk geoptimaliseerd hoeft te worden. Ook was DLSS 1.5 (de versie in Control die op shader cores draaide) kwalitatief nog een heel stuk minder dan DLSS 2.0. Dat was een trade-off omdat de shader cores veel minder snel zijn voor AI workloads (ongeveer 10x) dan Tensor cores.

[Reactie gewijzigd door cnieuweboer op 28 december 2020 22:51]

Klopt; ik vraag me overigens af of dat een limitatie is van het gebruik van shader vs tensor cores of meer een limitatie van de oude implementatie.
Overigens een goed artikel voor mensen die het niet hebben gelezen:
https://www.techspot.com/article/1992-nvidia-dlss-2020/
Niet door een intrinsieke eigenschap van de Cuda (shader) cores, maar door dat de Cuda cores veel minder sterk zijn voor AI workloads. De implementatie die op Cuda cores draait moet daarom veel simpeler zijn. Dus het is implementatie, afgedwongen door prestatie.
Mining was ook een tijd gunstig op Nvidia kaarten en noopte Nvidia zélfs om in het nieuws te brengen dat ze een gigantische stock aan Pascal kaarten hadden toen dat opeens op zijn gat viel. Wat daarvan waar is kun je betwijfelen, maar goed - dat er gemined werd op Nvidia Pascal is een feit.

RT is inderdaad niet nieuw, maar we berekenden het nooit eerder real-time, zeker niet in games. Een rasterized effect kan ook prima met behulp van RT berekend zijn, maar is dan wel 'pre-cooked' of wordt vereenvoudigd tot een aantal parameters en beelden. Heel veel huidige Global Illumination werkt zo: je ziet dan de stand van de zon veranderen in 'stapjes' - een schaduw verspringt dan een klein stukje per zoveel seconden. Daarom is in veel gevallen de RT implementatie ook helemaal niet zo boeiend ten opzichte van hoge kwaliteit SSR - de laatste kan er soms zelfs natuurlijker (minder 'glad') uit zien, omdat raycasting ook een kwaliteitsimpact heeft en in principe is alles een soort spiegel; parameters en tweaks daarop maken dat oppervlak anders reflecteert.

Concreet is het enige nieuws onder de zon nu dus dat diezelfde berekening niet in stapjes wordt uitgevoerd, wat vrijwel geen rekenkracht kost... maar constant realtime wordt herberekend. Winst? We zien de 'stapjes' niet meer. Dat is wat Metro Exodus bijvoorbeeld biedt. Ik vind het nogal wat om daar zoveel rekenkracht voor te gebruiken - die rekenkracht betalen wij want we hebben dikkere GPUs nodig.

Games zitten nu zeer zeker tegen de limiet van een 3070 met 8GB aan, want 8GB is de huidige mainstream capaciteit en daar gaat zeker gebruik van gemaakt worden. Cyberpunk haalt 7GB alleen als je op 1440p of lager blijft. Ik zit er met 3440x1440 soms al iets boven. Op 4K ultra ga je naar 10GB toe. Dat is nog niet problematisch, maar het geeft te denken over de nabije toekomst. Teveel swaps gaan een negatieve impact op de frametimes, FPS of kwaliteit hebben. Niet echt een goed kenmerk van een GPU van over de 700 euro als je het mij vraagt.

Verder is RTX een grote black box waarin Nvidia met performance grafiekjes vrij spel heeft. Zie bijv. de nogal overdreven 1.9x performance claim van Ampere. De perf/dollar is hoe dan ook zeer slecht, ook al is het beter dan Turing. Er ligt hier geen competitieve stack als je het mij vraagt - we betalen hier voor de RT ontwikkeling maar plukken nog maar weinig vruchten.

Mbt Gsync/Freesync, ik zal je eerlijk zeggen, ik heb het, en gebruik het niet eens. Andere monitor features zijn veel belangrijker en als je gewoon goede FPS hebt (RTX OFF dus) heb je geen VRR nodig. En bovendien: doe mij maar een strobing backlight (BFI) ipv Gsync. Op elk half degelijk high refresh paneel heb je toch al bijna geen tearing.

Verder is dit bandje al wel grijsgedraaid, ik zie geen nieuwe argumenten die mij op andere gedachten brengen van jouw kant. Wat AMD verder doet maakt me ook niet zoveel uit eigenlijk, zoals je ziet en zoals ik aangaf ben ik Nvidia klant geweest de afgelopen jaren. Maar ik durf de zaken wel concreet te maken en realisme toe te passen op het aanbod... en wat er nu ligt, is een vrij ongezonde cocktail van matige hardware specs met een bult software die nog maar half geimplementeerd is. Dikke lul, drie bier zeg ik daartegen ;) Nvidia mag nog wat meer huiswerk doen.

[Reactie gewijzigd door Vayra op 29 december 2020 12:42]

RT is inderdaad niet nieuw, maar we berekenden het nooit eerder real-time, zeker niet in games. Een rasterized effect kan ook prima met behulp van RT berekend zijn, maar is dan wel 'pre-cooked' of wordt vereenvoudigd tot een aantal parameters en beelden. Heel veel huidige Global Illumination werkt zo: je ziet dan de stand van de zon veranderen in 'stapjes' - een schaduw verspringt dan een klein stukje per zoveel seconden. Daarom is in veel gevallen de RT implementatie ook helemaal niet zo boeiend ten opzichte van hoge kwaliteit SSR - de laatste kan er soms zelfs natuurlijker (minder 'glad') uit zien, omdat raycasting ook een kwaliteitsimpact heeft en in principe is alles een soort spiegel; parameters en tweaks daarop maken dat oppervlak anders reflecteert.
SSR is rotzooi op gebied van accuracy, zodra er in in het beeld van de reflectie komt valt de halve reflectie weg, staan er een paar objecten in de buurt van de reflectie dan worden deze niet eens in de reflectie gerendered. Ben van menign dat als je er aandachtig naar kijkt dat de facade dan omvalt van SSR.
Concreet is het enige nieuws onder de zon nu dus dat diezelfde berekening niet in stapjes wordt uitgevoerd, wat vrijwel geen rekenkracht kost... maar constant realtime wordt herberekend. Winst? We zien de 'stapjes' niet meer. Dat is wat Metro Exodus bijvoorbeeld biedt. Ik vind het nogal wat om daar zoveel rekenkracht voor te gebruiken - die rekenkracht betalen wij want we hebben dikkere GPUs nodig.
Het grote probleem is dat het niet dynamisch is en niet door andere lightsources echt beinvloedt kan worden welke wel dynamisch zijn. Het bounced zeg maar niet. Mensen zijn verwend door hele goede truuks uit de engine trukendoos om het te faken. Maar het is wel een end of the road situatie. Ze kunnen nauwelijks dit nog verbeteren.
Verder is RTX een grote black box waarin Nvidia met performance grafiekjes vrij spel heeft. Zie bijv. de nogal overdreven 1.9x performance claim van Ampere. De perf/dollar is hoe dan ook zeer slecht, ook al is het beter dan Turing. Er ligt hier geen competitieve stack als je het mij vraagt - we betalen hier voor de RT ontwikkeling maar plukken nog maar weinig vruchten.
Hoezo is het een black box en de perf/dollar slecht? De performance is bekend en AMD zijn tegenhanger kost bijna net zoveel maar biedt minder performance op gebied van RT. Er is op dit moment geen betere prijs/performance GPU beschikbaar in deze tier.
Games zitten nu zeer zeker tegen de limiet van een 3070 met 8GB aan, want 8GB is de huidige mainstream capaciteit en daar gaat zeker gebruik van gemaakt worden. Cyberpunk haalt 7GB alleen als je op 1440p of lager blijft. Ik zit er met 3440x1440 soms al iets boven. Op 4K ultra ga je naar 10GB toe. Dat is nog niet problematisch, maar het geeft te denken over de nabije toekomst. Teveel swaps gaan een negatieve impact op de frametimes, FPS of kwaliteit hebben. Niet echt een goed kenmerk van een GPU van over de 700 euro als je het mij vraagt.
Ik speel op 5160x1440, 1miljoen minder pixels dan 4K (alsnog erg dichtbij) maar veel bredere FOV waardoor de asset culling vooral minder efficient is dus daardoor ook zwaarder dan 4K. Cyberpunk gaat op deze resolutie niet boven de 7gb uit. Ook niet als ik mijn PC op de TV aansluit en daar 4K selecteer. Max texture resolution uiteraard en DLSS uit. De enige game die ik kon pushen tot 10GB was Doom Eternal maar dat was dan door het allocaten te forceren naar 10gb. Dat is dus geen daadwerkelijk verbruikt. ALsnog worden games voornamelijk voor consoles gemaakt en deze hebben max 16gb voor GPU, Game logic & OS. Met 10GB verwacht ik dus niet dat je in de problemen komt en met 8GB GPU's die nu op de markt zijn niet voordat de GPU zelf al niet meer toereikend is om dat alles op snelheid te renderen. Beetje als de vorige generatie midrange 8GB kaarten welke helemaal niet snel genoeg waren om op die resoluties te renderen. Textures werden vooral groter omdat compressie teveel CPU cycles kostte. Nu ze dat op GPU gebied willen doen verwacht ik niet opeens een enorme groei. Maar tijd zal leren.
Mbt Gsync/Freesync, ik zal je eerlijk zeggen, ik heb het, en gebruik het niet eens. Andere monitor features zijn veel belangrijker en als je gewoon goede FPS hebt (RTX OFF dus) heb je geen VRR nodig. En bovendien: doe mij maar een strobing backlight (BFI) ipv Gsync. Op elk half degelijk high refresh paneel heb je toch al bijna geen tearing.
Het "voelt" vloeiender aan als de frames gewoon netjes gesynced zijn. Als je een 240hz scherm zelf hebt valt het inderdaad veel minder op. Maar tot op heden heb ik ngo geen echt goed 240hz scherm gezien op gebied van contrast en kleuren (zelfs niet de Samsung G7 met een VA paneel qua contrast).

[Reactie gewijzigd door ZeroNine op 29 december 2020 13:41]

De crux is inderdaad 'als je aandachtig kijkt'...

Maar ik ben aan het gamen! Ik sta geen half uur naar een reflectie 'zoek de tien verschillen' te doen, net zomin als ik naar FPS counter aan het kijken ben of op zoek naar de allerlaatste Jaggy der mohikanen...

In een normale situatie is goede kwaliteit SSR visueel en qua immersie gewoon dikke prima, net zoals het merendeel van de belichting en schaduwen. Het was al op een prima niveau.

[Reactie gewijzigd door Vayra op 29 december 2020 13:23]

En als er een gen of 2 gewacht was dan bleef de software er dan wel achteraan hobbelen.

Raytracing heeft eigenlijk al te lang op zich laten wachten. Wat je eigenlijk doet is werk verplaatsen van studio naar desktop, niks lightmaps en vooraf berekenen, dat al gaat gewoon naar de consument. Minder tijd, dus minder kosten, en als bonus heb je beter beeld. Of je geeft evenveel geld uit aan de titel en stopt meer tijd in de rest.
Raytracing heeft te lang op zich laten wachten? Wie zegt dat?

Als je naar de GPUs kijkt dan schreeuwt de markt juist om kleinere dies, en niet om grotere, want er is overal enorm tekort aan resources, mankracht, en kleine nodes.

Marketing napraten maakt nog niet dat er werkelijk een wens bestaat. Nvidia vond dat het tijd was, en heeft ongetwijfeld een aantal napraters onder devs en artists gevonden die met of zonder een leuke zak geld of mooi cadeautje zoals een RTX-GPU leuk gaan roepen wat Huang graag in de markt wil zetten.

Word toch alsjeblieft wakker man. Tot nu toe moest Nvidia naar letterlijk ELKE game dev een grote zak geld en engineers brengen om het in orde te maken, last minute. En wat heb je dan? Een of ander effectje dat de performance halveert tenzij je DLSS aanzet. Ja, daar staan we echt om te springen!

Of kom anders even met feiten en cijfers die aangeven dat developers nu dankzij RT enorme besparingen realiseren of 'veel meer' kunnen doen. Vooralsnog zie ik alleen maar dat er extra werk nodig is om RT te implementeren, en waarom zou het ook anders zijn, want je doet niets meer dan hetgeen je vooraf berekende, nu in realtime te doen. Je moet nog steeds elke scene tweaken voor het gewenste visuele effect. Je kan dat ook nalaten... dan krijg je van die scenes zoals in Metro Exodus waar je constant wisselt tussen te donkere en te lichte omgevingen terwijl de non-RT versie steeds mooi uitgebalanceerd is.

[Reactie gewijzigd door Vayra op 30 december 2020 13:59]

Dat zeg ik. Hoop bla bla over marketing en Nvidia. Had ik het niet over en doelde ik niet op.

Raytracing is al heel oud en er is lang niks mee gedaan, jammerlijk genoeg, terwijl het wel enorme potentie heeft. In plaats daarvan allerlei trucs met meshes voor meer fps en kunstgrepen voor betere belichting.

Dat het nu wat kinderziektes heeft dat geloof ik wel. Als je dingen gaat mengen levert het natuurlijk meer werk op, je moet tenslotte beide gaan doen.

Wat nu imo mist is goede ondersteuning vanuit Epic/Unity/Source etc, zodat net als nu er gewoon minder werk is aan de ondersteuning, en zodat er games kunnen komen met puur raytracing.
Ja dat klopt ook, maar je ziet aan alles dat de markt hier totaal niet op voorbereid was.

De inkt van recente engine overhauls is nog niet droog of ze zijn al verouderd omdat Nvidia eenzijdig vond dat RT nu moest. De rest kan slechts volgen... en dat doen ze om goede redenen nu helemaal niet grasg. Door het zo te spelen bouwt Nvidia een afhankelijkheid op van zakken geld om extra RT development toe te voegen aan releases.

Het komt overal in terug. DX12 Ultimate was ook ineens een ding volgens Nvidia. Niemand wisr er nog van. Dus je kunt grote vraagtekens zetten bij de gekozen aanpak. De industry effort wordt een beetje afgedwongen lijkt het. Niet chique en niet gunstig voor de consument - Turing was een zeer tragische line up en de meerkosten zaten in hardware die eigenlijk bijna nergens nuttug in bleek. Ampere zit nu nog met die erfenis - nog ateeds is het aantal goede RT titels zeer minimaal.
Had er beter voorbereid kunnen worden? Ja. En dan vooral de middleware links en rechts. Nvidia doet het eenzijdig met slinkse marketing, gewoon omdat. Minder netjes maar goed dat is nu gedaan.

Je ziet nu dat AMD raytracing kan doen zonder gebruik van RT. De prestaties blijven achter ja. Maar op de lange termijn, met wat aanpassingen, is iedere AMD (en vast Nvidia) core in de gpu dan gewoon mede een RT core. Je zag hetzelfde met vertex en pixel shaders, vroegah. Toen was er ineens unified shaders. Net wat trager, maar veel simpeler en niet soorten shaders tellen. Dat zou voor de raytracing ook wel zo makkelijk zijn. Dat zou tevens een veel betere start zijn geweest, maar als dat in 1-2 generaties aan komt waaien is het ook goed genoeg.
AMD moet nog komen met hun DLSS achtige techniek. Maar bij AMD gaat het bij ELKE game werken, en is niet afhankelijk van implementatie, en zal het een open standaard worden. iets wat altijd mijn voorkeur heeft. Ray Tracing is nu niet relevant. Het kost veel te veel performance en de meeste games schieten er niets mee op, het aantal games waar het daadwerkelijk goed geimplementeerd is is op een hand te tellen.
"Maar bij AMD gaat het bij ELKE game werken, en is niet afhankelijk van implementatie"

En gaat het dus hoogstwaarschijnlijk veel minder indrukwekkende resultaten opleveren.
Dat zullen we moeten afwachten. DLSS werkt ook lang niet bij elke game even goed , soms ziet het er ook belabberd uit. Het blijft upscaling. het is geen magie.
juist.

4k met dlss op performance ziet er belabberder uit als gewoon native 1080p...mja, je kunt wel pronken met je op "4k" gamed.

t is maar dynamische upscaling.
En gaat het dus hoogstwaarschijnlijk veel minder indrukwekkende resultaten opleveren.
En zoals je met vele technieken van nVidia ziet die alleen op nvidia werken, niemand zal het straks nog implementeren, want de open standaard werkt op beide, dus waarom de moeite doen? behalve als er een zak geld tegenover staat
Als de open standaard veel minder indrukwekkende resultaten oplevert is het natuurlijk maar de vraag of iedereen DLSS gaat negeren.
AMD moet nog komen met hun DLSS achtige techniek
Dat is toch al onderdeel van FidelityFX en heet Super Resolution. Het werkt nog lang niet zo goed als DLLS 2 maar goed DLSS 1 was ook niet echt een aanrader.

DirectML Super Resolution komt eraan.
Niemand weet nog wat de DLSS achtige techniek van AMD gaat worden. het is namelijk nog niet uit, en bij mijn weten heeft AMD daar ook weinig tot niets over gezegd, behalve dat het eraan komt (voor de 6xxx reeks iig).
Bij de tijd dat AMD bij is met DLSS 2.0, zit Nvidia alweer bij DLSS 3.0. Nvidia is simpelweg eerder begonnen met de 20xx series. AMD gaat dit gewoon nooit inhalen tenzij Nvidia slaapt op deze techniek; wat ze niet zullen doen want dit is voor de komende 8 jaar de oplossing om ray tracing real-time te kunnen doen zonder dat performance <30 fps uitvalt. Het heeft immers ook wat jaren gekost voordat reguliere AA op zo`n 2 x a 4x normaal te doen was zonder dat je performance crashte in de begintijden.

Hoogst w.s. zijn we over 8 jaar later verder genoeg met hardware acceleratie van RT dat zulke technieken wat minder gebruikt worden. Al denk ik dat DLSS-like technieken nooit zullen verdwijnen. Het zal immers beter worden, en het zal toch helpen. Vooral met betaalbaardere GPU's en/of grote visies van game developers.

Daarnaast, volgens Digital Foundry (zie hun in-depth DLSS videos op YT) zal DLSS 3.0 implementatie werken met elke game die TAA (temporal anti-aliasing) ondersteunt. Dus zal het effectief zo goed als op elke game werken.
Er bestaat ook nog zoiets als een betere techniek bedenken. Het is niet zo dat je met een bepaald iets als je later instapt dat je dat nooit meer kan inhalen.
Mooi lijstje Nvidia-only technieken, wat is daar dan zo veel beter aan? Zorgt alleen maar voor vendor-lockin en hogere prijzen. Niet voor niets begon ik ook over een betaalbare toekomst.

Ray Tracing is nou ook weer niet iets recents, er werden in het -verre- verleden complete games in gebouwd. Het huidige raytracing was een poging van Nvidia om weer een eigen techniek de markt in te drukken.
Ray tracing is niet zeker niet nieuw in 3d rendering, maar ik ben best benieuwd naar die complete games uit het verre verleden. ;) En het is helemaal geen poging van Nvidia om iets in de markt te drukken. RTX is Nvidia's manier om Microsoft's DXR te ondersteunen. Helaas tot nu toe behoorlijk wat beter dan AMD.
Denk dat deze man het verschil tussen de simpele raycasting games en de huidige raytracing implementatie niet inziet.
Tomato, tomato.
https://en.wikipedia.org/wiki/Ray_casting

Alleen een andere naam omdat het voor geometrie gebruikt werd en niet alle grafische effecten. Techniek is in de basis hetzelfde. Antieke consoles hebben het ray tracing zoals Nvidia dat ziet als techdemo gebruikt.
Het grote verschil is natuurlijk bounces/scatter en de hoeveelheid rays.
Het is ook niet 100% hetzelfde, het huidige ray tracing is _heel_ wat beter natuurlijk. We zijn dan ook ~40 jaar verder.
Vendor lockin is toch fantastisch. GPU PhysX is ondertussen een stille dood gestorven.
Vendor lock in is helemaal niet fantastisch voor de portemonnee.
Concurentie is goed voor de portemonnee. Doe er je voordeelee zou ik zeggen en wees blij dat AMD de achterstand een heel stuk heeft verkleind.

[Reactie gewijzigd door HansMean op 28 december 2020 16:18]

Volgens mij is je sarcasme meter kapot :D.
De mijne ook, die kon zo veel sarcasme niet aan :+
Hoe bedoel je dit? Physx wordt nog steeds gebruikt, het enige verschil met 'vroeger' is dat er geen dedicated PhysX/GPU-kaart meer voor nodig is.
Het aantal games met PhysX die gebruik maakt van hardware acceleratie is erg mager. De laatste 2 jaar zijn er welgeteld 2 spellen uitgekomen.
https://en.wikipedia.org/...accelerated_PhysX_support

De variant die op de CPU draait wordt nog wel gebruikt, mjah dat werkt dus ook zonder Nvidia kaart. Het hele verkoop argument om een Nvidia kaart te nemen omdat je dan PhysX hebt kan je wat mij betreft wegstrepen.
Sowieso lijkt het steeds minder nut te hebben met het aantal extra cores op de cpu die niks zit te doen met games.
Prijs kwaliteit is al jaren niet vooruit gegaan, er zijn wel duurder opties bij gekomen, maar voor 300 eu koop je nog steeds hetzelfde als 5 jaar geleden (ongeveer).
3080 is 80% sneller dan 1080ti en kost minder. De 1000-series was 80-100% sneller voor een lage groei in prijs. Waar haal je het vandaan dat prijs kwaliteit "al jaren niet vooruit gegaan" is?
Het is er wel op vooruit gegaan maar lang niet zoveel als je zou willen.. Mijn eigen ervaring:

December 2013: R9 280X €260. Firetrike GPU score 9000 (eigen bench).
35 punten per €

December 2020: 1660 super €260. Firestrike GPU score 15500 (tweakers).
60 punten per €.

Geeneens een verdubbeling in 7 jaar..!

[Reactie gewijzigd door DoubleYouPee op 28 december 2020 21:44]

Firestrike is 1) Synthetisch. 2) DX11. De vooruitgang is veel groter dan wat die test aangeeft.

Bij timespy krijg je 9.9 punten per € vs 24 punten per €.

[Reactie gewijzigd door MGsubbie op 29 december 2020 14:24]

Dat is nog steeds maar een verbetering van 2-2.5x.

En ja, uiteraard valt de R9 280X van een cliff bij nieuwe benchmarks door het lage VRAM en slechte performance met tesselation of nieuwe APIs.. maar toendertijd was dat natuurlijk heel anders.
Relatief gezien was de R9 280X een mid-highend kaart die 3 jaar lang 1080p Ultra aan kon.
Met een 1660super zit je nu gewoon in low-end, helemaal gezien 1440p nu veel meer mainstream is.
En dan was de r9 280x ook nog een kopie van de hd7970 uit 2012. Geeneens een verdubbeling in 8 jaar.
een rx580 is nog steeds een goede deal qua prijs performance in het sub 300eu segment, dat vind ik tegenvallen, praktisch alle verbetering gebeurt in het hele dure segment.
Daar heb je wel gelijk. Alhoewel de 1660 Super wel een grote sprong was voor €230, vergelijkbaar met de 1070 van €400.
Je vergeet voor het gemak dat er nog een generatie kaarten tussen heeft gezeten wat buiten de 2080ti amper een vooruitgang was?
Nee, ik vergeet dat niet. Eén kut generatie verandert mijn argument niet.
Raytracing is jammer genoeg nog niet heel relevant op dit moment, al heeft het potentie.

Zeker nu AMD, de PS5 en Xbox de raytracing ondersteunen kan hier heel snel verandering in gaan komen. Ik ben erg benieuwd of Nvidia hier geen last van gaat hebben aangezien de AMD-hardware voor raytracing leading zal worden gezien de, uiteindelijk, gigantische userbase.

DLSS is een super pleister natuurlijk voor de performance hit die Raytracing veroorzaakt. Maar het is slechts een pleister op de middellange termijn.

[Reactie gewijzigd door itContinues op 28 december 2020 13:27]

Dat zei ik ook over ray tracing en de consoles voordat rdna2 uitkwam. Maar gezien de performance impact van ray tracing op rdna2 gpu's denk ik niet dat de consoles, ps5 en xbox series x/s, het verwachte duwtjes in de rug van ray tracing gaan worden, daar zijn de gebruikte gpu's gewoon te langzaam voor.

Voor de huidige consoles werden allerlei beloftes uitgesproken, 4K gaming, 60 fps, ray tracing, maar de gebruikte hardware heeft het al moeilijk om slecht één van deze mooie beloftes waar te maken en zal daarmee altijd concessies moeten doen op de andere vlakken.
Dat zei ik ook over ray tracing en de consoles voordat rdna2 uitkwam. Maar gezien de performance impact van ray tracing op rdna2 gpu's denk ik niet dat de consoles, ps5 en xbox series x/s, het verwachte duwtjes in de rug van ray tracing gaan worden, daar zijn de gebruikte gpu's gewoon te langzaam voor.
Ik denk dat je dit fout ziet, ik vermoed dat merendeel van de spellen met Raytracing die gaan uitkomen dit op niveau hebben zodat consoles (dus ook AMD kaarten) dit makkelijk kunnen draaien

Alleen als een uitgever daar zin in heeft kunnen ze extra inbouwen voor pc gebruikers die de hardware daarvoor hebben
Ik ben erg benieuwd of Nvidia hier geen last van gaat hebben aangezien de AMD-hardware voor raytracing leading zal worden gezien de, uiteindelijk, gigantische userbase.

Lastig te voorspellen, de vorige generatie consoles hadden AMD hardware maar dat heeft niet geleid tot een voorsprong in pc games.
Met dien verschillen dat die generatie CPU's en GPU's ballen zogen, direct vanaf release.

[Reactie gewijzigd door itContinues op 29 december 2020 08:36]

en toch maakt het allemaal niet zoveel uit. mijn gtx10.. die een deel daarvan niet heeft, draait spelletjes nog steeds goed. De lijst van games die beiden technologieën ondersteund kan ik (bij wijze van spreken)op een kwartiertje van buiten leren. Er valt zeker wat over te zeggen, maar een grote vooruitgang zou ik het alleszins niet noemen. Wat betreft machine learning heeft AMD ook wat op het schap staan maar soit. En Ray Tracing bestond al vrij lang :-), maar nu is de performance er (iets of wat, want het heeft toch de nodige impact) om het te gebruiken bij jan met de pet.

[Reactie gewijzigd door white modder op 28 december 2020 13:31]

Precies, met een Pascal kaart die ondertussen waarschijnlijk 3-4 jaar oud is was dit jaar voor het eerst een incentive om een upgrade te doen.
RT bestaat misschien al langer dan standaard rasterization.
Feit dat Nvidia marketing erg goed werkt :P.
Nauwelijks vooruitgang in performance, als je 3-4 jaar geleden een Pascal gpu had gekocht dan zat je nu nog steeds goed. Turing was een aanfluiting en gaf nauwelijks meer performance.

AMD hoorde bij Turing pas voor het eerst van RT en heeft in 1 jaar tijd het ingebouwd }:O. Ga er maar van uit dat ook AMD hier al langere tijd mee bezig was, je kan dit niet ineens op je chip plakken.
ML zijn ze ook al langer mee bezig, maar niet in de consumenten markt.

AMD heeft weer andere features in hun software. Laten we niet vergeten dat AMD vroeger nieuwe features pushte en Nvidia daar weinig aan deed. Om een aantal te noemen Eyefinity, Vulkan (Mantle), Tesselation etc.

Recente features zijn Anti Lag (dus input lag verminderen, Nvidia doet daar nu pas serieus iets mee). Radeon Chill als er weinig op het scherm gebeurt (bijvoorbeeld bij een RTS) dan gaat de framerate omlaag om stroom te besparen.

Nvidia heeft weer voorop gelopen met frame pacing om te zorgen dat multi gpu beter werkt; En zoals je zegt DLSS. Daarnaast kwamen ze met GSync.

Wat alleen jammer is van Nvidia. Alles bij hun is een gesloten standaard; pas sinds enkele jaren is GameWorks (gedeeltelijk?) opensource en doen ze mee met Adaptive Sync.
Daarnaast, wat ze laatst met Hardware Unboxed hebben geflikt....
Ja, nauwelijks vooruitgang. Rasterization is nog steeds voor 99% van de gebruikers verreweg het belangrijkst in GPU's, en dat ging niet hard meer vooruit tot AMD weer eens ging concurreren. Dat is nou eenmaal hoe het is.
Nvidia was juist diegen die vooruitging, amd is blijven hangen voor een lange tijd. Vega was helaas een misstap.
Vega was geen misstap. De gamemarkt is -onder druk van Nvidia- niet de kant op gegaan waar Vega juist Nvidia met de grond gelijk maakt. Zie anders eens waarom AMD's GPU's veel populairder waren bij de cryptominers. AMD bracht met Vega enorm veel compute power naar de GPU's toe, probleem is dat games hier geen gebruik van zijn gaan maken (wederom: onder druk van Nvidia) en op de oude koers voort zijn blijven varen.

AMD probeert iets, wordt keihard afgestraft. Terwijl Nvidia ons dood gooit met hun eigen proprietary rotzooi en we slikken het als zoete koek. Want die wilt natuurlijk niet dat de Geforce lijn hun Quaddro lijn om zeep helpt en houdt beide vormen van GPU computing met een ijzeren vuist uit elkaar.

Vega is net zo krachtig of krachtiger dan wat Nvidia destijds te bieden had. De spellen die gebruik konden maken van AMD's -destijds- nieuwe GPU, laten ook betere frames per sec zien dan Nvidia's tegenhanger. Het zijn alleen maar een handje vol games.

Ik had graag wat meer general compute meuk op de GPU's gezien, maar helaas. Dat mag niet van Nvidia.

Zoals ik elders hier al zei. AMD's zwakte zit niet in hun GPU's, het zit in hun marketingafdeling.

[Reactie gewijzigd door batjes op 28 december 2020 15:58]

Vega was geen misstap. De gamemarkt is -onder druk van Nvidia- niet de kant op gegaan waar Vega juist Nvidia met de grond gelijk maakt. Zie anders eens waarom AMD's GPU's veel populairder waren bij de cryptominers. AMD bracht met Vega enorm veel compute power naar de GPU's toe, probleem is dat games hier geen gebruik van zijn gaan maken (wederom: onder druk van Nvidia) en op de oude koers voort zijn blijven varen.
Waarom zoveel aannamens? De meeste titels waren vooral voor op de consoles gedeveloped met AMD hun architectuur in het achterhoofd en zelfs dit maakte het niet beter. Nvidia kan helemaal neit zoveel druk uitoefenen, als je de console markt namelijk erbij telt was de markt voor AMD GPU's eigenlijk gewoon groter. Generieke compute cores waren en zijn tot op heden nogsteeds voor gaming niet super interessant.
AMD probeert iets, wordt keihard afgestraft. Terwijl Nvidia ons dood gooit met hun eigen proprietary rotzooi en we slikken het als zoete koek. Want die wilt natuurlijk niet dat de Geforce lijn hun Quaddro lijn om zeep helpt en houdt beide vormen van GPU computing met een ijzeren vuist uit elkaar.
Het is eerder, Nvidia lanceert iets en AMD komt erna met een generatieke variant. Zie het met DLSS waar zij nu een open variant op gaan maken. Gsync waar zij later met Freesync kwamen welke niets meer dan een reinterpretatie van de Vesa VRR standaard was. Hadden zij deze introducties ook gedaan als Nvidia niet deze technologieen introduceerde? Koffiedik kijken maar ik verwacht van niet aangezien AMD geen enkele nieuwe technologie geintroduceerd heeft de laatste 5 jaar welke disruptief was. AMD SAM is ook weer een stukje technologie wat al verwerkt was in de PCI express standaard.
Vega is net zo krachtig of krachtiger dan wat Nvidia destijds te bieden had. De spellen die gebruik konden maken van AMD's -destijds- nieuwe GPU, laten ook betere frames per sec zien dan Nvidia's tegenhanger. Het zijn alleen maar een handje vol games.
Dat maakt het dus niet krachtiger, want de voordelen in de games waren beperkt.
Ik had graag wat meer general compute meuk op de GPU's gezien, maar helaas. Dat mag niet van Nvidia.
Developers zien hier gewoon geen nut voor, nogsteeds is Async compute geen gemeengoed, dat terwijl Nvidia met Ampere zelfs hierop voor loopt.

Ik weet het, Tweakers zijn gek op de underdog AMD, maar AMD is niet echt een underdog meer.
Er zit geen Vega in de consoles, er zit een Polaris kaart in. Over aannames gesproken. Vega was een poging van AMD om beide GPU takken samen te voegen, het gamen en de compute. Ondanks dat het toch vooral op de compute markt gericht was. Genoeg gameberekeningen die prima kunnen draaien op de compute hardware van een GPU.

Het is niet erg dat Nvidia af en toe ook wat nieuws op tafel legt, het is juist jammer dat AMD dan een eigen techniek moet opzetten, want stel je voor dat Nvidia eens tech zou delen. Want wat doet AMD als ze met wat nieuws komen? Oja, die maken dat 9/10 keer voor iedereen toegankelijk en nodigen concurrenten Intel en Nvidia zelfs uit om mee te ontwikkelen.

De kracht van een GPU is meer dan alleen pixels op beeld toveren. De Cell CPU uit de PS3 is nu nog on par met wat X86 te bieden heeft, maar hoeveel zegt dat over het aantal pixels dat de PS3 op een scherm kan toveren tegenover moderne hardware? Weinig, want men moet er moeite in stoppen om die kracht te benutten.

Nvidia loopt voor met CUDA en ... wederom... het vendor locken er mee.

Zolang AMD niet on par is qua sales of omzet, blijft AMD de underdog. Na jaren onderuit gehaald te worden door Intel en Nvidia, terwijl ze prima vergelijkbaar en regelmatig zelfs krachtiger spul op de plank hadden liggen. Verdient AMD elk beetje hulp/fanboyism dat we ze als tweakers geven.

Nvidia is een ruk bedrijf met een zwaar verrotte mentaliteit, die voor ons alles de GPU ontwikkeling op enorme achterstand heeft weten te brengen. Nvidia flikt het mij veel te vaak dat ze de markt verneuken voor eigen gewin. Dus GO AMD \o/
Er zit geen Vega in de consoles, er zit een Polaris kaart in. Over aannames gesproken. Vega was een poging van AMD om beide GPU takken samen te voegen, het gamen en de compute. Ondanks dat het toch vooral op de compute markt gericht was. Genoeg gameberekeningen die prima kunnen draaien op de compute hardware van een GPU.
Vega is een voortboorduursel op Polaris welke weer een voorboorduursel was op GCN. Met RDNA heeft AMD het pas op een echt andere boeg gegooid en zijn nu juist minder compute gericht dan zelfs Nvidia.
Het is niet erg dat Nvidia af en toe ook wat nieuws op tafel legt, het is juist jammer dat AMD dan een eigen techniek moet opzetten, want stel je voor dat Nvidia eens tech zou delen. Want wat doet AMD als ze met wat nieuws komen? Oja, die maken dat 9/10 keer voor iedereen toegankelijk en nodigen concurrenten Intel en Nvidia zelfs uit om mee te ontwikkelen.
Dit is ook alleen maar het geval geweest omdat zij achter liepen. Nu zie je al in 1 klap meteen nu ze er beter voorstaan dat ze toch minder open zijn (AMD SAM/BAR support welke ook op niet Zen3 & RDNA2 zou moeten kunnen werken). Tevens zijn de prijzen ook meteen de lucht in gegaan. Uiteindelijk gedraagd elk bedrijf zich hetzelfde zodra zij in een positie van macht zitten. Dat is niet inherent uniek aan Nvidia. Zodra een bedrijf publiekelijk verhandeld wordt maken investeerders en aandeelhouders passief de dienst uit want targets dienen behaald te worden en dat doe je door de markt naar je toe te trekken.
Nvidia loopt voor met CUDA en ... wederom... het vendor locken er mee.
Omdat AMD echt gewoon geen enkele moeite doet voor de prsumer/productie markt, gewoon helemaal niets. De enige reden dat het nog bruikbaar is, is dankzij Apple welke exclusief gebruikt maakt van AMD GPU's en dan werkt het alleen in proprietary Apple software zoals Final Cut echt lekker.
Zolang AMD niet on par is qua sales of omzet, blijft AMD de underdog. Na jaren onderuit gehaald te worden door Intel en Nvidia, terwijl ze prima vergelijkbaar en regelmatig zelfs krachtiger spul op de plank hadden liggen. Verdient AMD elk beetje hulp/fanboyism dat we ze als tweakers geven.
Die paar games waar ze krachtiger in waren zijn op een paar handen te tellen en wordt altijd als pluspunt erbij gehaald terwijl je het zou moeten omdraaien, ze waren maar SOMS sneller, dit had ALTIJD sneller moeten zijn om ons hadverdiende centen waar dte zijn. AMD is sowieso geen underdog meer op CPU gebied nu (en nee ik ben geen AMD hater, draai een AMD Ryzen & X570 platform).
Nvidia is een ruk bedrijf met een zwaar verrotte mentaliteit, die voor ons alles de GPU ontwikkeling op enorme achterstand heeft weten te brengen. Nvidia flikt het mij veel te vaak dat ze de markt verneuken voor eigen gewin. Dus GO AMD \o/
Zie mijn antwoord hierboven betreft aandeel houders.
Nvidia is een ruk bedrijf met een zwaar verrotte mentaliteit, die voor ons alles de GPU ontwikkeling op enorme achterstand heeft weten te brengen. Nvidia flikt het mij veel te vaak dat ze de markt verneuken voor eigen gewin. Dus GO AMD \o/


Ik weet niet waar jij deze zever haalt.
Ze hadden geen concurrentie dus wat doet dan een bedrijf?
Had AMD vroeger concurrerende kaarten kunnen maken, dan had Nvidia ook minder lang stil gestaan. Zo kan je het ook bekijken.
En van Underdog is er niets meer over, kijk eens naar de prijzen van hun nieuwe cpu's, met andere woorden: als ze de kans krijgen zijn ze geen haar beter dan Nvidia of Intel.
Zoals het nu is komt het meer neer op: voordat het leverbaar is is het al weer outdated :+
zodra je er mee thuis komt, is het al weer outdated.
En dat is het voor- en nadeel van tech.
Er is vooruitgang, maar er is ook vooruitgang.
Ik zie zelf de markt eerder verbreden, met een 1080p 24"scherm kan je nog steeds prima gamen.

Dat de eisen steeds hoger worden met hogere resoluties is een ander verhaal maar uiteindelijk blijft dat een keuze.

De een vind een Nissan micra prima en de ander wilt een mercedes.

Relatief gezien geef ik tegenwoordig minder geld uit aan hardware maar doe ik er langer mee.

Vroeger was het elke nieuwe gpu/cpu generatie vernieuwen nu update ik cpu elke 4 jaar en de gpu elke 2 a 3 jaar.
Bedoel je dan AMD want die doen net hetzelfde als Nvidia met hun prijzen.
Dat wil ik wel, maar ik heb het geld niet. Nu maak ik zelfs het besluit TOCH NIET te gaan upgraden van mijn 1060 en me volgend jaar gek te laten maken met wat AMD of nVidia gaat bieden.
Oh please get your head out of your ass, nauwelijks vooruitgang? Dat valt enorm mee hoor, en dat komt echt niet door nvidia, als je dan eerder iemand de schuld moet geven is het dus wel de concurrenten, want DIE hebben niet echt wat beters bedacht waardoor Nvidia, volgens jou, niet echt hun best hebben gedaan. Maar ga maar van uit dat ze zeker hun best doen, alleen het wordt steeds complexer om te ontwerpen en kleiner te gaan. En DAT kost ook veel tijd en geld. Ik zou zeggen als jij denkt dat het zo makkelijk is, maak dan je eigen GPU maar.. Het feit dat ook Intel moeite heeft met ern fatsoenlijke GPU te bouwen zegt toch ook wel wat over hoe moeilijk het is.
Dat valt wel mee als je geen hoge eisen gaat stellen zoals het moet 4K zijn en minimaal op 144fps.
Nog maar kortgeleden zaten we met ze allen op 1080p en 60hz te gamen, het is opeens behoorlijk snel gegaan kwa resolutie en aantal hertz scherm en raystracing doet daar nog even een flinke schep bovenop.

Zelf game ik op 1440p op Ultra het verschil vs 4k gaming vind ik tegenvallen als ik bij anderen kijk maar wel fors meer rekenkracht nodig.

Hetzelfde bij TV films op 4K, het is de HDR wat de film opeens zo mooi maakt en niet echt de resolutie want daarvoor zitten de meeste mensen tever van de tv af om het te kunnen waarnemen.

[Reactie gewijzigd door mr_evil08 op 29 december 2020 13:00]

Puur voor een spelletje? Wat denk je van hardware video encoding, 3D-modelling en rendering (bv C4D met Octane), design applicaties zoals Affinity Designer en Photo die sterk leunen op de GPU, Video editors (bv Davinci Resolve) die intensief gebruik maken van CUDA cores, wetenschappelijke applicaties die de GPU en CUDA gebruiken om modellen te bouwen en te simuleren, etc.

Deze kaarten zijn inmiddels van prosumer niveau. Je kan er als gamer helemaal in mee gaan, maar dat grote aantal VRAM in de RTX3090 is toch echt gericht op prosumers in de 3D en CUDA. Als je gewoon wil gamen kan je ook gewoon een x070 kaart kopen en lekker gamen. :)

[Reactie gewijzigd door Division op 28 december 2020 13:06]

Leuk, maar als je de productpagina van NVIDIA ziet kun je toch echt moeilijk claimen dat deze kaart zich richt op mensen die mensen.
De GeForce RTX™ 3090 is in alle opzichten kolossaal krachtig en geeft je een volledig nieuw niveau aan pc-gamingprestaties.
Raytracing is de heilige graal van gaming-graphics
NVIDIA DLSS is baanbrekende AI-rendering die framerates verhoogt met 1,5x* of meer voor beeldkwaliteit zonder concessies met behulp van de speciale Tensor Cores voor AI-verwerking op GeForce RTX. Dit biedt je een prestatieniveau dat hoog genoeg is om de instellingen en resoluties op te schroeven voor een ongelooflijke visuele ervaring. De AI-revolutie voor gaming is begonnen.
Maak verbinding, game, leg vast en bekijk in briljante HDR op resoluties tot 8K met GeForce RTX 3090. HDMI 2.1 maakt het mogelijk om 8K-resolutie via één kabel over te brengen. Leg tot 8K HDR-beeldmateriaal vast met de GeForce Experience™ ShadowPlay™-functie en speel probleemloos af met AV1-decodering.
NVIDIA Reflex levert het ultieme competitieve voordeel. De laagste latentie. De beste responsiviteit. Aangestuurd door de GeForce RTX 30-serie GPU's en NVIDIA® G-SYNC®-gamingbeeldschermen. Neem je doelen sneller in het vizier, reageer sneller en verhoog de richtprecisie door middel van een revolutionaire reeks technologieën om de systeemlatentie voor competitieve games te meten en te optimaliseren.
Ze gebruiken een generieke 30XX pagina voor alle 30XX GPU's. Het is nou eenmaal een feit dat Nvidia kaarten al jarenlang de benchmark zijn voor prosumers. Ook ik gebruik Nvidia GPU's voor mijn werk. Je hebt op dit mometn vrijwel niets aan een AMD GPU voor production en rendering. BIjna geen support en AMD's eigen renderer zit tjokvol fouten.
Ja dat is precies wat ik vraag voor welke markt is dit nu want ik zie vaak vermeende gamers welke zeggen dat de prijzen stijgen.

Ik zie het meer dat er meer high end "prosumer" hardware uitkomt, gezien steeds meer applicaties gebruik maken van parallel verwerking doormiddel van gpu, is daar nog best veel winst te behalen en als je doormiddel van de gpu verwerkingstijd kan inkorten met factor x kan je prima berekenen of die aanschaf het waard is.
(Computing)

Maar voor gaming komen we nu op het gebied dat het enkel voor de select few is gezien je eigenlijk al 4k moet uitgeven voor een scherm wat daadwerkelijk geschikt is.
VR? Een 3090 is niet voldoende om MS Flight Simulator lekker te laten lopen in VR. Kan wat aan optimalisatie liggen, maar ik denk dat de nieuwste Nvidia kaartjes voornamelijk op het gebied van virtual reality kunnen gaan bijdragen aan nog hogere resoluties met 144hz. HTC komt dit jaar weer met een nieuwe Vive, je zal de nodige hardware nodig hebben om dat ding maximaal te laten draaien.
Voor MSFS is het toch echt meer een CPU probleem, dat schaalt sowieso al niet al te best met GPUs.
Flightsim is gewoon extreem brak geoptimaliseerd. Je hebt ook bar weinig aan een 16core AMD zen 3 CPU. Het gebruikt maar een klein aantal threads, DX11 nogsteeds
Ja maar dan combineer je dus alweer hardware van meerdere duizenden euro's en hoe groot is de markt voor flightsimmers met VR @ 144hz.
8k gaming? Ik denk dat dit helemaal niet de doelgroep zal zijn (of zelfs het doel). Via Steam is de 4k markt slechts 2%-3%. Ik denk dat je eerder zal moeten denken aan minimaal 60fps op 4k/Ultra met Raytracing + DLSS voor moderne games. Dat je wellicht 8k via DLSS kan krijgen (zonder raytracing) zou voor een select aantal een mooie bonus zijn, maar niet meer dan dat.
En wat dacht je van VR met 4k 90-120hz per oog met raytracing etc.
Dat is een nog kleiner percentage gebruikers.
VR is een nice markt, voorlopig nog wel.
Nouja, wat betreft gaming groter dan Linux.....
Linux is meer groot aan de server kant, client side stellen ze niet zoveel voor in verhouding met Apple en Microsoft idd.
Zou niet op een te grote performancesprong rekenen voor 4k/8k tot er meer bekend is. Tussen de 2000 series en 3000 series lijkt de sprong in het aantal Cuda cores ook indrukwekkend, maar het grootste verschil zit 'm in dat ze anders zijn gaan tellen en bestaande hardware breder ingezet kan worden. Echt veel extra hardware is er niet en een deel van wat ze zijn gaan doen werd door de concurrentie al bijna 10 jaar gedaan. Die tellen alleen zuiniger.

Ik wacht wel even af tot het duidelijk is wat met de nieuwe generatie Nvidia bedoelt met een Cuda core. Dat wisselt weleens.
Ik vind de 3090 nog te traag voor mijn 4k scherm. Ik kan er niet tegen als je onder de 100 a 120 fps komt. Dus deze kaarten zouden voor mij de perfecte upgrade zijn. Voor 8k is het alsnog te traag, wellicht dat het lukt met dlss maar niet met raytracing en alles erbij.
Ja maar dan heb je dus ook een scherm met 120hz 4k en deze zijn ook niet goedkoop.

Ik zie vele gamers die elk jaar een snellere kaart verwachten voor veel minder geld.

Prijs/performance 20xx serie daargelaten ligt in mijn optiek al sinds den beginnen prima in lijn met de markt.

Daarom is mijn vraag voor welke markt is dit het aantal gamers welke 120hz 4k ultra draait is toch redelijk gelimiteerd aan budget lijkt me.

Beetje pc welke 4k 120fps capable is zit je toch al snel aan een 2500 euro beetje knap scherm erbij en je bent zo 4000 euro kwijt om een spelletje te spelen kan me niet voorstellen dat die markt zo groot is.

Mijn vraag is dus voor welke markt worden dit soort kaarten geproduceerd!?
Geforce 3080RTX, AMD Ryzen 7 CPU met 16GB ram plus een deftige NVME SSD kost zo;n 1500 euro en daar doe je 4K 120Hz op in de meeste games (doe ik zelf ook). Scherm kost zo 800 euro. Dit lijkt mij niet teveel voor de oudere games. Signalen uit de markt laten toch wel meer vraag zien de laatste 2 jaar,.
https://tweakers.net/moni...2EkWAOmXa4XEH7AI19BprKeUH

Startprijs toch wel rond de €1000,- bij een fatsoenlijke aanbieder.
En met a merk onderdelen een systeem laten assembleren bij een pc winkel wat 99% van de kopers doet ben je zo over €2000,- kwijt.

All in one koelertje erop leuk kastje wat rgb etc etc.
En al nemen we jouw €2300,- ik ben van mening dat dit een behoorlijk bedrag is voor gaming.

Ik heb altijd computers nodig gehad ivm werk maar ik kan geen videokaart van 1000 euro verantwoorden !?

En tuurlijk sommige mensen hebben gaming als beroep en worden gesponsord maar 90% van de mensen weet niet eens hoe ze hun hardware kunnen utiliseren.

Maar goed ik denk dat ik te oud wordt voor deze handel :?
Startprijs toch wel rond de €1000,- bij een fatsoenlijke aanbieder.
Ik zie 850 euro? Vind dat voor een goed scherm erg meevallen. Als in je koopt vrijwel top of the bill.
Startprijs toch wel rond de €1000,- bij een fatsoenlijke aanbieder.
En met a merk onderdelen een systeem laten assembleren bij een pc winkel wat 99% van de kopers doet ben je zo over €2000,- kwijt.
Ik had voor dit systeem mijn eigen systeem welke ik afgelopen zomer heb gebouwd gewoon aangehouden, neem hierbij in acht dat dit met een 2TB ssd is, ITX kast van 350 euro (met AIO en PSU er al in). Dit kan dus goedkoper. GPU koste mij 719 euro.
Maar goed ik denk dat ik te oud wordt voor deze handel
Of juist voor mij dat de hobby nog zoveel ruimte in mijn leven inneemt terwijl ik de 30 gepasseerd ben :+
Kijk eens bij de aanbieders 😆

Bij een fatsoenlijke aanbieder is het gemiddeld genomen €1000,- start max ict zie ik niet als een betrouwbare shop zie de surveys maar.

En zelfbouw vs winkel is gigantisch prijsverschil.
En zelfs 2dehands kost een middelmatig systeem al 1500 euro kijk maar eens rond op vraag en aanbod.
Ik weet niet waar jij kijkt, maar eerste link op die pagina en de eerste shop : https://www.dustinhome.nl...+NVIDIA+G-Sync+Compatible

Is gewoon een betrouwbare shop hoor. 899 bij Amazon maar daar was deze eerste zelfs voor 799 verkrijgbaar. De prijs veranderd dus nogal. https://www.amazon.nl/LG-...950&qid=1609177756&sr=8-1
En zelfbouw vs winkel is gigantisch prijsverschil.
En zelfs 2dehands kost een middelmatig systeem al 1500 euro kijk maar eens rond op vraag en aanbod.
Mensen maken bij V&A nu misbruik van de schaarste.
Kan iemand mij in Jip & Janneke taal uitleggen wat dit in essentie betekent? :) vind het maar een ingewikkeld verhaal. (computers kunnen bouwen/troubleshooten is 1, dit verhaal hierboven is dan weer een stap verder :P )
De volgende gen krijgt 71% meer cores en zal dus ergens tussen de 1 en 71% sneller zijn dan de huidige generatie als je puur kijkt naar deze cijfertjes.
Het betekent eigenlijk zoveel als "de nieuwe Nvidia videokaarten krijgen meer cores", niet echt nieuws dus. 5nm wil zeggen dat de chip op een ander "kleiner" procedé gebakken wordt. Dat heeft invloed op hoe veel transistors er op een bepaald oppervlak passen en dat heeft weer invloed op performance en stroomverbruik.
Dat wordt een monster... Dit lijkt de daadwerkelijke 2x Turing the zijn. Ampere was dat zogenaamd op papier en werd ook zodanig gepresenteerd door nVidia, maar in praktijk blijkt dat niet nauwkeurig. Nu is de vraag wat de kloksnelheden worden.

Hopelijk kan AMD het bijhouden. Anders hebben we alweer grafische kaarten die veels te duur zijn.
AMD's grootste achterstand zit hem in de marketing en het sturen van de markt in hun voordeel ten nadele van de concurrentie.
Niet alleen dat. Hardware en software liggeb ze ook achter, daarom dat raytracing er gewoon ruck op loopt.
Denk dat het eerder zo is dat Nvidia te vroeg is met hun RT. Ze wilden niet wachten op de consoles dus je hebt nu met heel goed zoeken een stuk of tien half uitgevoerde RT implementaties in games.

Ik bedoel, negen van de tien keer is het niet meer dan het vervangen van één enkel grafisch effect. Zoals Global Illumination in Metro. In Cyberpunk is het al helemaal een lachertje, zonder RT ziet het er doorgaans zelfs beter uit, als je het aanzet is het net alsof overal toevallig zojuist gedweild is.

Uiteindelijk bepalen developers of RT een succes wordt en wanneer, niet de hardwareboer. Dat zie je ook met APIs, kijk naar DX12, of naar het overleden 3DFX.

[Reactie gewijzigd door Vayra op 28 december 2020 14:54]

Rt werkt heerlijk met nvidia.. dus geen idee wat je bedoeld. Maybe zeg je dit omdat je een amd fanboy bent? Rt ziet er echt overal top en of beter uit.En met de volgende architectuur zal het alleen maar nog beter worden. Lang leve nvidia

[Reactie gewijzigd door hoenens op 28 december 2020 15:09]

Ik zou normaal niet zo reageren maar noem je nou iemand met een goed punt een "fanboy" en sluit je af met "lang leve nvidia"? :+
Mooi, dan hebben we straks weer de nieuwe lijn GPU's voordat de huidige lijn daadwerkelijk te kopen is.
Inderdaad, kunnen we binnenkort weer een RTX3070/3080 Super refresh verwachten? Was ik indertijd niet blij mee met m'n RTX 2070.
3080 Ti die mogelijk in februari komt.
Maar even wachten op de 3090 Ti dan.
Ik denk niet dat die komt, ook omdat je er helemaal niks over hoort. Voor release werd al gesproken over een 3080 met 20GB VRAM.
Je moet de scalpers wel aan het werk houden natuurlijk.
Dit zijn de 1st geruchten , dus denk eerder tegen einde van volgend jaar.
Dit kan toch bijna niet? 3090 lust nu al 350W+ (of ruim 450 afhankelijk van de power limit). Met een toename van 71% in CUDA cores kunnen we het over 550W+ ebben.
Kan makkelijk alleen vergeet je iets. In het kort:
Het 8nm proces van Samsung is heel slecht, vandaar ook het extreem hoge verbruik.
Het 5nm van Samsung is heel wat beter en verbruikt ook veel minder.
Het slecht zijn van de 8nm node is toch een tijdelijk probleem wat te verhelpen is lijkt me. Nu is de sillicon lottery alleen wat slechter. Maar er komen natuurlijk ook gewoon golden samples van de band. Ik gok dat de toekomstige 8nm yields wel beter zullen zijn
Slecht zijn kan op twee manieren. De yield kan laag zijn, wat betekent dat er weinig goede dies (bruikbare dus) uit een wafer komen. Dat leek bij Samsung wel het geval te zijn en zal nog steeds verbetering in zijn naarmate de tijd vordert.

Maar de Samsung node is vooral slecht als het gaat om efficientie. Het is leuk dat ze het 8nm noemen, maar het staat qua verbruik in geen verhouding met TSMC's proces op 7nm. Dan kun je wel golden dies hebben, maar als de baseline al vrij matig is, zijn die niet genoeg om een hele productlijn uit te stampen. Sterker nog, ze hebben de beste dies sowieso al nodig voor de 3090 en alles wat daarboven zit - er is ook nog een pro line-up namelijk.

[Reactie gewijzigd door Vayra op 28 december 2020 14:48]

Dit is een aanname dat het "heel slecht is". De gpu zelf is qua transistoren gewoon heel erg groot ongeacht het procede. Die tensort cores, RT cores etc nemen allemaal ruimte in en verbruiken allemaal energie. Daarnaast vergeten een hoop mensen dat juist het GDDR6X geheugen meer stroom is gaan vragen voor die enorme bandwidth eien en deze een aardige taartpunt van het totaal energie verbruik innemen. Een lichte terugklok of undervolt zorgt al snel voor een vermindering van 80watt voor de 3080RTX en 100 watt voor de 3090RTX met minimaal tot geen verlies van performance.

Mensen praten elkaar echt veelste veel na.
Hetzelfde als met mijn huidige Vega 64. Die is ook lichtelijk undervolt en dat scheelt veel terwijl ik geen verlies heb in prestaties.......Kan hem daardoor zelfs hoger klokken.

Maar in dit geval denk ik niet dat het een aanname is zoals je zegt. Er zijn meer dan genoeg sites die aangeven dat de 8nm node van Samsung niet de beste is en dat Nvidia die waarschijnlijk voor een hele goede prijs heeft kunnen kopen. Lijkt me niet uit de lucht gegrepen kijkende naar hoeveel je hierover kunt terugvinden op het net. Dat GDDR6X ook veel stroom kost is een ander verhaal.

Maar ja, Nvidia had waarschijnlijk geen keus, omdat het 7nm proces van TSMC volgeboekt was en ze dus wel voor Samsung moesten gaan. Volgens de geruchten komt Nvidia nog voordat Hopper komt met een Refresh serie: https://videocardz.com/ne...er-up-to-18432-cuda-cores
OF
https://wccftech.com/nvid...cs-18432-cores-64-tflops/

En hoe je het ook bekijkt.....Het is dankzij RDNA2 dat Nvidia het blijkbaar heel erg druk heeft.
En wij consumenten kunnen daar alleen maar van profiteren :)

[Reactie gewijzigd door Andreshoi op 28 december 2020 17:45]

Maar in dit geval denk ik niet dat het een aanname is zoals je zegt. Er zijn meer dan genoeg sites die aangeven dat de 8nm node van Samsung niet de beste is en dat Nvidia die waarschijnlijk voor een hele goede prijs heeft kunnen kopen. Lijkt me niet uit de lucht gegrepen kijkende naar hoeveel je hierover kunt terugvinden op het net. Dat GDDR6X ook veel stroom kost is een ander verhaa
En al die sites praten 1 set geruchten na welke nooit bevestigd zijn, en alle lezers nemen dit volledig aan. 2020 voor mij in tech is tekenend met alle rumor YOutube kanalen welke als onkruid uit de grond schieten opeens (Moore's law is dead etc).
Maar ja, Nvidia had waarschijnlijk geen keus, omdat het 7nm proces van TSMC volgeboekt was en ze dus wel voor Samsung moesten gaan. Volgens de geruchten komt Nvidia nog voordat Hopper komt met een Refresh serie: https://videocardz.com/ne...er-up-to-18432-cuda-cores
OF
https://wccftech.com/nvid...cs-18432-cores-64-tflops/
Dat 7nm volgeboekt was schijnt volledig te kloppen, maar dat maakt Samsung niet opeens slecht. Dat er concurrentie is doet wel vooral de prijs goed. Ben dat volledig met je eens.
Zo schaalt het niet. Kleiner procédé = minder verbruik per element.
Maar dan alsnog 8 en 5nm node lijkt niet zo'n groot verschil om de toename van 71% toe compenseren hoor. Zie bijvoorbeeld de AMD 14-12-7nm.
Nou, Samsung 8nm is wel vrij bagger, ook ten opzichte van TSMC 7nm waar Navi 21 nu op gebakken wordt.

Kijk eens naar de die size bijvoorbeeld. AMD maakt een kleinere GPU die ze veel hoger klokken en presteert gelijk met een LAGER TDP. De die is ongeveer 20% kleiner!

[Reactie gewijzigd door Vayra op 28 december 2020 14:40]

Nou, Samsung 8nm is wel vrij bagger,
Gebasseerd op een enkele set geruchten?
Kijk eens naar de die size bijvoorbeeld. AMD maakt een kleinere GPU die ze veel hoger klokken en presteert gelijk met een LAGER TDP. De die is ongeveer 20% kleiner!
Nu niet overdrijven, De 3080RTX GPU is groter maar heeft ook meer transistoren, en niet zo'n heel klein beetje ook. Wat ook logisch is met meer dedicated raytracing hardware. Hoger klokken maakt niets uit als blijkbaar het IPC lager ligt tussen beide architecturen. Op gebied van RT performance zie je opeens een enorm gat ontstaan, iets wat ook verklaard wordt door de extra RT hardware binnen in de chip uiteraard. Het verbruik extra staat in lijn met het aantal transistoren extra. Je probeert er een bepaald beeld aan te koppelen wat niet klopt, of tenminste de beredenering erachter klopt niet door informatie erbuiten te houden. De GPU is groter ja, zo is er ook meer functionaliteit & transistoren aanwezig.

6800XT : 520 mm² and 26,800 million transistors
3080RTX: 628 mm² and 28,300 million transistors.

Ohja, je vergeet volledig het GDDR6X verhaal waarbij de modules meer stroom vereisen wat ook toevoegt aan het hogere total board power. Dan is die 20 watt TDP toch echt peanuts.
Wat is je punt? Ik stel enkel vast dat er verschillen zijn en dat die negatieve invloed hebben op het product dat er ligt. Ik zie je dat niet ontkennen - alleen bagatelliseren. Daar hebben we niet zoveel aan. 20W is peanuts? Jij zegt het... op een midrange GPU Is dat al gauw 10% betere perf/watt. Omgekeerd herinner ik me dat ik de 20W die Nvidia voor had op AMD in het verleden wel echt kon waarderen - en het was vaak natuurlijk veel meer. Dat is ook zo bij de huidige GPU strijd. Undervolten is in beide kampen nu een ding geworden en levert enorme winsten op in verbruik voor minimaal prestatieverlies.

Een beetje fanboyerig komen je reacties wel over hoor. Feit is gewoon dat AMD 20% kleinere dies heeft die gelijk presteren met een lager TDP. Dat komt hun marge ten goede en geeft ze meer vrijheid in het wegzetten van hun product. Technisch heeft AMD dus een beter product op de plank liggen. Ze kunnen ook hoger klokken, dat is naast het performance aspect ook voor overklokkers wel erg interessant. Het was eerder ook erg tof om te zien hoe hoog Pascal kwam, en vooral hoe consistent dat was. Navi doet daar nu een dikke schep bovenop. Dat schept een mooi perspectief voor de toekomst. Dat perspectief heeft Ampere op Samsung 8nm totaal niet - het is een 'dead end'.

Of je dat belangrijk vindt of niet is aan eenieder om zelf te bepalen.

En... geruchten? Nee... feiten - allemaal - terwijl je zelf al op meerdere punten feit en mening door elkaar hebt gehaald. Ik zou je aanraden om je beeld en informatie wat aan te scherpen ;) Het is een interessante markt op dit moment, en ik denk dat het slecht is om nu pro- het één of het ander te zijn. Er is gewoon wat te kiezen, dat is geweldig.

[Reactie gewijzigd door Vayra op 29 december 2020 12:57]

Wat is je punt? Ik stel enkel vast dat er verschillen zijn en dat die negatieve invloed hebben op het product dat er ligt. Ik zie je dat niet ontkennen - alleen bagatelliseren. Daar hebben we niet zoveel aan. 20W is peanuts? Jij zegt het... op een midrange GPU Is dat al gauw 10% betere perf/watt. Omgekeerd herinner ik me dat ik de 20W die Nvidia voor had op AMD in het verleden wel echt kon waarderen - en het was vaak natuurlijk veel meer. Dat is ook zo bij de huidige GPU strijd. Undervolten is in beide kampen nu een ding geworden en levert enorme winsten op in verbruik voor minimaal prestatieverlies.
20 Watt op 300 vind ik peanuts. 20 watt op 150 vind ik dan opeens heel veel. Voor mij persoonlijk is het meer wat het verbruikt veroorzaakt. Zijn het uitmuntende prestaties? (3080RTX & 6800XT), is het gewoon veel performance voor weinig (290XT) of is het rotzooi vanwege hoog verbruik, zeer matige prestaties in vergelijking met de concurrentie(480GTX).
Een beetje fanboyerig komen je reacties wel over hoor. Feit is gewoon dat AMD 20% kleinere dies heeft die gelijk presteren met een lager TDP. Dat komt hun marge ten goede en geeft ze meer vrijheid in het wegzetten van hun product. Technisch heeft AMD dus een beter product op de plank liggen. Ze kunnen ook hoger klokken, dat is naast het performance aspect ook voor overklokkers wel erg interessant. Het was eerder ook erg tof om te zien hoe hoog Pascal kwam, en vooral hoe consistent dat was. Navi doet daar nu een dikke schep bovenop. Dat schept een mooi perspectief voor de toekomst. Dat perspectief heeft Ampere op Samsung 8nm totaal niet - het is een 'dead end'.
Ik zie dit juist andersom, zaken niet benoemen om een punt te maken vind ik juist overkomen als fanboyisme. Dat de die groter is, is ook omdat er meer transistoren zijn (niet omdat het procede fors minder zou zijn dus) en die extra ruimte worden door de tensor & uitgebreidere RT cores ingenomen. Juist de zaken die de 6X00 serie mist voor een groot gedeelte bij AMD. Een P4 destijds kon ook hoger klokken dan de AMD Athlon 64 CPU destijds. Toch was deze veel langzamer. Kloksnelheid zegt niks als je niet de IPS in acht neemt. Oftewel bewust weglaten van informatie. Want in benchmarks presteren de 3080RTX en 6800XT globaal gezien in rasterization gelijk. De 6800XT is sneller op lagere resoluties, de 3080RTX op hogere.
En... geruchten? Nee... feiten - allemaal - terwijl je zelf al op meerdere punten feit en mening door elkaar hebt gehaald. Ik zou je aanraden om je beeld en informatie wat aan te scherpen ;) Het is een interessante markt op dit moment, en ik denk dat het slecht is om nu pro- het één of het ander te zijn. Er is gewoon wat te kiezen, dat is geweldig.
Dat de markt nu super interessant is ben ik 200% met jou eens. Maar er worden weldegelijk veel geruchten herhaald en uiteindelijk neergezet als waarheid. Niemand heeft kunnen hard maken dat de Samsung procede problematisch is. NVidia zegt zelf dat wafers lastig te verkrijgen zijn en andere componenten eromheen. Chips formaat is zoals ik hierboven aangaf waarschijnlijk niet het verschil tussen de procedes. Ik zelf koop wat ik op dat moment gewoon het beste voor mijn doel vind. Dat is in dit geval een AMD CPU platform maar wel een Nvidia GPU (omdat ik ook productie zaken er op doe).
Maar er worden weldegelijk veel geruchten herhaald en uiteindelijk neergezet als waarheid. Niemand heeft kunnen hard maken dat de Samsung procede problematisch is. NVidia zegt zelf dat wafers lastig te verkrijgen zijn en andere componenten eromheen. Chips formaat is zoals ik hierboven aangaf waarschijnlijk niet het verschil tussen de procedes. Ik zelf koop wat ik op dat moment gewoon het beste voor mijn doel vind. Dat is in dit geval een AMD CPU platform maar wel een Nvidia GPU (omdat ik ook productie zaken er op doe).
Deze snap ik niet zo. Er zijn al meerdere bronnen gepresenteerd die aangeven dat het geen geruchten zijn maar dat dat te staven is met cijfers en feiten. Nogmaals: je moet niet je eigen gebrek aan inzicht en kennis van semicon als maatstaf nemen... het is duidelijk dat je nog wat info mist mbt chips en nodes. In een andere reactie hierboven staan de cijfers - die negeer je met de aanname dat het 'nu wel anders zou kunnen zijn'... nee, dat is niet zo. Jouw aanname tel je zwaarder dan een gerenommeerde bron, dat is heel bijzonder... en het is iets dat tegenwoordig bij veel mensen niet helemaal goed gaat in het hoofd geloof ik.

Ook mbt het 'weglaten' van info met betrekking tot kloksnelheden, dat is zaken uit de context halen. Ik geef alleen aan dat het product technisch sterker is bij AMD op dit moment. Dat de prestaties van de 3080 en 6800XT gelijk liggen is evident, maar daar ging het niet over en dat kan iedereen gewoon zien, toch?

Verder lijk je ook nog niet helemaal te beseffen wat het punt nu eigenlijk is van het benoemen van die 20% verschillen in die size, ondanks dat ik het benoem. Dus ik probeer het nog een keertje :) Ampere kun je nu op Samsung 8nm eigenlijk niet meer opschalen. Nvidia heeft dus zonder een flinke node shrink of een architecturele aanpassing maar één route 'omhoog' en dat is het vergroten van de die. Maar ze zitten al op een grotere die dan de concurrent. Dat heeft impact op het aanbod dat Nvidia zonder verlies (of 'met marge') kan wegzetten. AMD aan de andere kant, kan met Navi 21 doorontwikkelen op dezelfde node. Ze hebben sowieso nog goed en wel 20% aan die size voordat ze minder dies uit een wafer halen dan Nvidia. Tegelijkertijd maken ze een IPC verschil (jij zegt het... cijfers ontbreken) heel makkelijk goed: gewoon meer transistors. Willen ze zuiniger GPUs maken, dan verlagen ze de nu zeer hoge kloksnelheden want ook Navi zit bovenin qua voltage wat boven de ideale/efficiente curve.

Maw... de 'wiggle room' van AMD is veel groter op dit moment en die van Nvidia nagenoeg nihil. Dat hoeft je als consument niet te boeien... maar als je vooruit wil kijken naar wat komen gaat is het heel interessant. Het zegt iets over hoe AMD en Nvidia nu gepositioneerd zijn. Daarbij is een grote olifant in de kamer natuurlijk dat het nu dringen is op de kleinste nodes. Dat telt ook door in de marge en de prijs van toekomstige producten. Die vooruitblik is ook interessant voor ons als consument want het geeft aardig aan hoe genegen Nvidia is om Ampere bijvoorbeeld te gaan refreshen. Ik acht de kans groot dat dat binnen een jaar tot 9 maanden plaatsvindt, ze hebben wat in te halen momenteel.

En uiteraard kopen we wat het beste bij onze use case past, dat staat buiten kijf ;)

[Reactie gewijzigd door Vayra op 29 december 2020 14:05]

Deze snap ik niet zo. Er zijn al meerdere bronnen gepresenteerd die aangeven dat het geen geruchten zijn maar dat dat te staven is met cijfers en feiten. Nogmaals: je moet niet je eigen gebrek aan inzicht en kennis van semicon als maatstaf nemen... het is duidelijk dat je nog wat info mist mbt chips en nodes. In een andere reactie hierboven staan de cijfers - die negeer je met de aanname dat het 'nu wel anders zou kunnen zijn'... nee, dat is niet zo. Jouw aanname tel je zwaarder dan een gerenommeerde bron, dat is heel bijzonder... en het is iets dat tegenwoordig bij veel mensen niet helemaal goed gaat in het hoofd geloof ik.
Ik heb geen enkele credible source gezien wat staaft met jouw uitspraken (of anderen op gebied van dit onderwerp op tweakers.net). Alles is een herhaling van geruchten welke nooit onderbouwd zijn sinds dag 1. Het enige is een artikel rondom het 8nm process van Samsung uit 2016 en 2017. Dat is dus nu al 3 jaar oude informatie. Tevens bied ik argumentatie waarom en de enige response daarop is "en het is iets dat tegenwoordig bij veel mensen niet helemaal goed gaat in het hoofd geloof ik.". Sorry hoor maar dan blaas je erg hoog van de toren.
Ook mbt het 'weglaten' van info met betrekking tot kloksnelheden, dat is zaken uit de context halen. Ik geef alleen aan dat het product technisch sterker is bij AMD op dit moment. Dat de prestaties van de 3080 en 6800XT gelijk liggen is evident, maar daar ging het niet over en dat kan iedereen gewoon zien, toch?
Hoe kan je praten van technisch sterker met de tegenargumenten die zijn gegeven. Je praat over hogere kloksnelheden maar de prestaties liggen vrijwel gelijk. Dat toont juist dat het IPC lager ligt oftewel dat de kloksnelheid bar weinig zegt in dit geval. Dan heb je het opeens over overclocking. Zo kan ik ook cases creeeren om een prpoduct er beter uit te laten zien. Even als voorbeeld, de 6800XT leunt op zijn high speed memory cache om het gemist van geheugen bandwidth op te vangen, wat als deze vol zit bij de volgende reeks aan titels? Ik vermoedt dat je heel selectief data erbij pakt om een product er beter uit te laten zien vanwege motieven die niet gedreven zijn door puur technologie en techniek. TSMC wordt nu opeens als een soort god like foundry neergezet met het 7nm process
Verder lijk je ook nog niet helemaal te beseffen wat het punt nu eigenlijk is van het benoemen van die 20% verschillen in die size, ondanks dat ik het benoem. Dus ik probeer het nog een keertje :) Ampere kun je nu op Samsung 8nm eigenlijk niet meer opschalen. Nvidia heeft dus zonder een flinke node shrink of een architecturele aanpassing maar één route 'omhoog' en dat is het vergroten van de die. Maar ze zitten al op een grotere die dan de concurrent. Dat heeft impact op het aanbod dat Nvidia zonder verlies (of 'met marge') kan wegzetten. AMD aan de andere kant, kan met Navi 21 doorontwikkelen op dezelfde node. Ze hebben sowieso nog goed en wel 20% aan die size voordat ze minder dies uit een wafer halen dan Nvidia. Tegelijkertijd maken ze een IPC verschil (jij zegt het... cijfers ontbreken) heel makkelijk goed: gewoon meer transistors. Willen ze zuiniger GPUs maken, dan verlagen ze de nu zeer hoge kloksnelheden want ook Navi zit bovenin qua voltage wat boven de ideale/efficiente curve.
Je argumentatie slaat kant noch wal. Wat heeft die size als vergelijking tussen nodes hiermee te maken als de chip zelf al qua transistor aantal een heel stuk hoger ligt bij Nvidia. Iets wat logisch is omdat de chip technisch gezien ook meer kan (focus op RT en Tensor machine learning). Je haalt parameters weg en probeert daarbij ook nog eens appels met peren te vergelijken. Je zou een casus hebben als je een 6800XT variant op TSMC's 7nm zou vergelijken met een Samsung 8nm variant zoals je kon met een mobiele telefoon soc een aantal jaar terug welke in beide foundries was gebakken.

"Tegelijkertijd maken ze een IPC verschil (jij zegt het... cijfers ontbreken) ", cijfers ontbreken? Errrm benchmarks die aantonen dat beide GPU's vrijwel op grote schaal hetzelfde presteren terwijl er 1 een lagere kloksnelheid heeft?

[quoteMaw... de 'wiggle room' van AMD is veel groter op dit moment en die van Nvidia nagenoeg nihil. Dat hoeft je als consument niet te boeien... maar als je vooruit wil kijken naar wat komen gaat is het heel interessant. Het zegt iets over hoe AMD en Nvidia nu gepositioneerd zijn. Daarbij is een grote olifant in de kamer natuurlijk dat het nu dringen is op de kleinste nodes. Dat telt ook door in de marge en de prijs van toekomstige producten. Die vooruitblik is ook interessant voor ons als consument want het geeft aardig aan hoe genegen Nvidia is om Ampere bijvoorbeeld te gaan refreshen. Ik acht de kans groot dat dat binnen een jaar tot 9 maanden plaatsvindt, ze hebben wat in te halen momenteel.[/quote]
Beide fabriekanten lanceren altijd refreshes en updates sku's tussen generaties in, je doet nu net alsof dat opeens meer betekent. Dat heet inspelen op de markt. Het is altijd dringen geweest bij foundries de laatste 10 jaar.
20+ posts in dit topic, je ontkent alles omdat het volgens jou niet zo is en je hebt een mooie nieuwe RTX 3080.

Ik denk dat je even moet reflecteren op je objectiviteit en of je nog op het juiste pad bent met je gedachten. Als dat echt zo is... tja. Wie ben ik. Maar dan zie ik ook 80 reacties in een ander topic en dat bevestigt eigenlijk alles...

[Reactie gewijzigd door Vayra op 30 december 2020 14:06]

20+ posts in dit topic, je ontkent alles omdat het volgens jou niet zo is en je hebt een mooie nieuwe RTX 3080.
Post count gaat nogal hard als je een discussie aangaat en er over en weer wordt gereageerd niet?
Ik denk dat je even moet reflecteren op je objectiviteit en of je nog op het juiste pad bent met je gedachten. Als dat echt zo is... tja. Wie ben ik. Maar dan zie ik ook 80 reacties in een ander topic en dat bevestigt eigenlijk alles.
Breng argumenten in-depth waarom dit niet zo zou zijn met wat ik claim. Dat is meestal hoe een discussie verloopt.

Ik heb netjes bargumenteerd warom ik denk dat jouw claim niet klopt. Nu wacht ik op een tegenargument waar dit wel uit zou kloppen. Helemaal als je dan wel tussen neus en lippen door iemand probeert te betichten van fanboyisme. Maar zelf feiten weglaat uit het verhaal om je verhaal kracht bij te zetten. Dit soort lage kwaliteit posts verwacht ik binnen de user comments op pulp sites als wccftech te lezen.
Post count gaat vooral hard als je verder niks anders te doen hebt ;)

Maar het ligt aan de rest. Klopt.

[Reactie gewijzigd door Vayra op 30 december 2020 14:18]

Ah ja, ontloop de inhoud maar. Die 30sec om een post te typen kan ik wel missen hoor.

Beetje goedkoop in ieder geval.
Joh, 85% van wat je roept heb je uit Youtuber filmpjes en dezelfde sites waar je op afgeeft, sommige zinsneden zijn letterlijk gekopieerd inclusief compleet foute aannames (want ja, ik zie ook weleens wat). Als het om werkelijke kennis gaat ben je niet thuis of heb je de klok niet horen luiden. Of je roept dan dat je 'iets denkt'.

Het spijt me maar het is allemaal erg doorzichtig en niet de moeite van inhoudelijk op doorgaan waard. Je kunt de feedback ter harte nemen of niet. Doe je ding.

Je hebt in dit topic bijvoorbeeld structureel volgehouden dat Nvidia met meer transistors per GPU ook een hogere IPC zou hebben dan Navi. Uberhaupt is die stelling heel vreemd want de performance wisselt afhankelijk van de game en is onderhevig aan driver updates en allerlei verschilletjes in de architectuur die beter bij sommige berekeningen passen, maar het is ook zeer ondoordacht. Betekent dat dan dat een 3080 een hogere IPC heeft als een 3070? Dat een Intel 6-core een lagere IPC heeft dan een Intel 8-core CPU?

Zelfs wikipedia weet het beter...

8)7

[Reactie gewijzigd door Vayra op 30 december 2020 14:52]

Joh, 85% van wat je roept heb je uit Youtuber filmpjes en dezelfde sites waar je op afgeeft, sommige zinsneden zijn letterlijk gekopieerd inclusief compleet foute aannames (want ja, ik zie ook weleens wat). Als het om werkelijke kennis gaat ben je niet thuis of heb je de klok niet horen luiden. Of je roept dan dat je 'iets denkt'.
Ik zoek de transistor count per GPU op, pak een lijst van de functionaliteiten per GPU erbij en jij benoemd dat als wat rumors van youtubers quoten 8)7
Het spijt me maar het is allemaal erg doorzichtig en niet de moeite van inhoudelijk op doorgaan waard. Je kunt de feedback ter harte nemen of niet. Doe je ding.
Je bent aan het spiegelen hier.
Je hebt in dit topic bijvoorbeeld structureel volgehouden dat Nvidia met meer transistors per GPU ook een hogere IPC zou hebben dan Navi. Uberhaupt is die stelling heel vreemd want de performance wisselt afhankelijk van de game en is onderhevig aan driver updates en allerlei verschilletjes in de architectuur die beter bij sommige berekeningen passen, maar het is ook zeer ondoordacht. Betekent dat dan dat een 3080 een hogere IPC heeft als een 3070? Dat een Intel 6-core een lagere IPC heeft dan een Intel 8-core CPU?
Eindelijk, je gaat inhoudelijk ergens op in.; zijn die paar minuten posts typen toch nog ergens nuttig voor geweest,

De performance wisselt inderdaad per game, mijn conclusie is ook gebasseerd op de resultaten van pakweg 25 games samen. Dan liggen de prestaties dus extreem dicht bij elkaar (mooi voor ons toch? de concurrentie waar wij nu 4 generaties op wachten). Maar voor die prestaties worden de radeons dus wel hoger geklokt waar niet iets mis mee is. Maar om aan te halen dat de Radeons hoger geklokt kunnen worden als voordeel is wat vreemd. Want zij zijn er niet sneller door. Oftewel het IPC per kloktik is lager, of nou ja je krijgt meer frames per kloktik bij Nvidia op dit moment met de drivers die wij nu hebben. Ja een 3070 heeft inderdaad een larger IPC dan een 3080, dit is uiteraard bereikt door meer cores te gebruiken in dit geval vanwege dezelfde architectuur welke het verschil niet zou maken, goh wat gek zeg! |:(

Je praat nu net alsof water brand bij mijn uitspraken, wereldvreemd.

[Reactie gewijzigd door ZeroNine op 30 december 2020 14:59]

De IPC is niet lager. De GPU is groter... dat is wel een verschil. De IPC van een 3070 en een 3080 zijn gelijk - een shader in eender welke GPU verzet precies hetzelfde werk bij dezelfde kloksnelheid. Je hebt er alleen meer van.

Tot nu toe waren 'meer cores' toch vooral nodig volgens jou om in al die extra functionaliteit te voorzien? Dit terwijl de GPUs wel degelijk dezelfde berekeningen aan kunnen. Het enige verschil is dat Nvidia een aantal elementen op de die zet, die veel sneller zijn in specifieke berekeningen, en volledig stilstaan bij alle andere. AMD heeft een keuze gemaakt voor een andere balans waarin de GPU altijd vrijwel volledig inzetbaar is. Ook daar kan je vinden dat dat technisch een betere, toekomstvastere benadering is. Niet alle games hebben immers RT, sterker, het merendeel heeft het niet.

Je vindt het allemaal heel logisch wat je zegt, maar dat valt best wel mee. Nvidia is net zo goed aan het pionieren vanaf Turing en maakt steeds de keuze voor een 'dure' oplossing terwijl de simpelere variant veel kosteneffectiever is. Daar kan ik niet om juichen, jij kennelijk wel. Prima. Maar verkoop het niet als 'meer of beter'...

Verder... ja, water brandt af en toe bij wat je roept, wereldvreemd zijn je stellingen meer dan eens in dit topic, zoals de informatie over density en node (voor het gemak reageer je daar dan maar niet op, want ja... lastig) wat gewoon harde feiten zijn waar je alleen maar een aanname tegenover plaatst (Het is x jaar oud dus zal wel niet meer kloppen... OK? Begrijp je wel dat architecturen en nodes vele jaren ontwikkeling vergen?) maar ook de algehele beprijzing en beschikbaarheid van GPUs stinkt naar 'kijk ik heb mijn GPUtje al binnen, dus het is simpel'.

Al met al... tja. Zelfs in je reactie hierboven sla je de plank mis.

[Reactie gewijzigd door Vayra op 30 december 2020 15:23]

De IPC is niet lager. De GPU is groter... dat is wel een verschil. De IPC van een 3070 en een 3080 zijn gelijk - een shader in eender welke GPU verzet precies hetzelfde werk bij dezelfde kloksnelheid. Je hebt er alleen meer van.
Dus de Tensor cores en grotere RT cores nemen geen ruimte in? Ah heb ik weer wat geleerd vandaag. Een materie wat geen ruimte in neemt!
een shader in eender welke GPU verzet precies hetzelfde werk bij dezelfde kloksnelheid. Je hebt er alleen meer van.
Ik raad jou aan om met een vriend van mij te praten dat shaders programmeert meer voor zijn werk.....

Overigens is het meer cores verwerken in chip design nu al jaren de manier hoe IPC in GPU's opgekrikt wordt.
Tot nu toe waren 'meer cores' toch vooral nodig volgens jou om in al die extra functionaliteit te voorzien? Dit terwijl de GPUs wel degelijk dezelfde berekeningen aan kunnen. Het enige verschil is dat Nvidia een aantal elementen op de die zet, die veel sneller zijn in specifieke berekeningen, en volledig stilstaan bij alle andere. AMD heeft een keuze gemaakt voor een andere balans waarin de GPU altijd vrijwel volledig inzetbaar is. Ook daar kan je vinden dat dat technisch een betere, toekomstvastere benadering is. Niet alle games hebben immers RT, sterker, het merendeel heeft het niet.
De focus is inderdaad anders, maar maakt dat nu per saldo uit? De GPU's liggen qua prijs bij elkaar, de prestaties liggen in rasterization ook bij elkaar. Zou de 3080RTX met alleen rasterization cores dan sneller kunnen zijn? Misschien, maar die bestaat nu niet.
Meer cores != IPC.

Hoe vaak ga je die onzin nog herhalen?
De focus is inderdaad anders, maar maakt dat nu per saldo uit? De GPU's liggen qua prijs bij elkaar, de prestaties liggen in rasterization ook bij elkaar. Zou de 3080RTX met alleen rasterization cores dan sneller kunnen zijn? Misschien, maar die bestaat nu niet.
Het maakt uit want er zijn verschillen tussen de GPUs en die uiten zich in alle gevallen in hoe lang je er nog iets aan hebt. De hele range van Nvidia staat nu met belachelijk lage VRAM capaciteit in de markt. Ik vraag me niet af of een 3080 sneller had kunnen zijn... ik vraag me af of die 300W+ voor een x80 GPU ergens op slaat en of 10GB op een GPU van over de 700 ekkies uberhaupt wel een goede koop is.

Zou ik daarmee automatisch een Navi 21 kopen? Helemaal niet. Ook daar is niet louter zonneschijn. Het lijkt er steeds sterker op dat de timing van deze gen, net als de timing van Turing, een beetje een tussenstap is en een 'net-niet' generatie.

[Reactie gewijzigd door Vayra op 30 december 2020 15:29]

Over onzin gesproken, wat jij eigenlijk zegt is dat de architecturen van de Radeon en Geforce in dit geval dus hetzelfde zijn? Want de hele opzet van Cuda cores versus Streaming processors is dus vergelijkbaar?
Nee. ik zeg dat je de term IPC niet goed begrijpt, en niet goed gebruikt - zoals daar velen zijn overigens. Maar goed, dat is slechts één van de zaken die je een beetje in je eigen narratief hebt gekleurd. Een andere is je VRAM gebruik. Het is allang getest dat je rustig naar de 9900 MB kruipt in Cyberpunk op ultra. Jij zegt dat het niet zo is. Ik heb verder weinig trek om je 22 andere posts uit te pluizen voor de rest, maar er kwam voldoende langs en de algehele tendens is 'Mijn 3080 is echt wel heel goed'.

Tja. Het is vast allemaal niet waar. Ik zeg je alleen, reflecteer, en lees even terug wat er gebeurt in dit draadje. Soms zie je het pas, als je het door hebt.

[Reactie gewijzigd door Vayra op 30 december 2020 15:34]

Nee. ik zeg dat je de term IPC niet goed begrijpt, en niet goed gebruikt
Dit is juist wat jij doet., helemaal op GPU gebied. Maar zoalng een toepassing bijvoorbeeld 8 threads volledig verbruikt per kloktik versus 6 thrads dan heeft die 8 thread CPU weldelijk een hogere IPC. Wat jij doet is 1 losse core erbij halen en dat dan gaan vergelijken. Dan blijft het per IPC inderdaad hetzelfde. Dan ga je daarna nog een verhaal zo draaien dat shaders op een Geforce GPU precies hetzelfde doen als een Radeon CPU? Het is 1 extreem complexe unit wat letterlijk 1 taak snel uitvoerd en jij gaat dan praten alsof cuda van Nvidia cores 1 op 1 vergeleken kunnen worden met streaming processors van AMD?

Wil wel even Cyberpunk opstarten voor je en een screenshot maken op 4K hoor. Pro tip, nieuwe Afterburner versies tonen daadwerkelijkg eheugen gebruiken en requested allocation. Zal je zien dat het vram verbruik toch lager is dan dat jij pretendeerd dat het is.
'Mijn 3080 is echt wel heel goed'.
Daar probeer je dus eigenlijk te zeggen dat ik mijn koop probeer te verdedigen alsof ik krom zou liggen van 719 euro wat ik voor 1 GPU uitgegeven heb. Als er morgen opeens een snellere GPU uitkomt welke ik wil hebben produceer ik even wat moois voor een uurtje of 8 en koop ik weer een ander en schrijf ik de BTW af en verkoop ik de oude.
[...]

Dit is juist wat jij doet., helemaal op GPU gebied. Maar zoalng een toepassing bijvoorbeeld 8 threads volledig verbruikt per kloktik versus 6 thrads dan heeft die 8 thread CPU weldelijk een hogere IPC.
Fout. Je spreekt in deze context überhaupt niet van IPC, en IPC heeft ook geen plaats in een vergelijk tussen producten. Het is een leuke term zoals je ook 2K hebt tegenwoordig: het lijkt er misschien een beetje op, maar het zegt helemaal niets over de inhoud. Computer lingo zit er vol mee...

IPC is een architecturele eigenschap, en die ligt gewoon vast. Je kunt een aantal instructies aan per kloktik en als je dat wilt meten doe je dat op één core, of één shader (-module, net hoe je de GPU opknipt... dus wederom architectuur-afhankelijk). Dat schaal je vervolgens op naar heel veel cores of shaders en zo maak je een product dat de gewenste prestaties biedt voor bepaalde workloads. De IPC ligt dan nog steeds vast. Ook een hogere klok heeft er geen invloed op - maar die had je wel goed.

Eigenlijk heeft IPC in een GPU discussie geen enkele functie. Soms zie je 'm wel... bijvoorbeeld bij Maxwell > Pascal. Daar stelden we vast dat de IPC per shader omlaag was gegaan. Bij Ampere is dat ten opzichte van Turing eigenlijk opnieuw het geval. Er zijn twee keer zoveel shaders, en netto is de IPC per shader iets gedaald.

[Reactie gewijzigd door Vayra op 30 december 2020 15:52]

Fout. Je spreekt in deze context überhaupt niet van IPC, en IPC heeft ook geen plaats in een vergelijk tussen producten. Het is een leuke term zoals je ook 2K hebt tegenwoordig: het lijkt er misschien een beetje op, maar het zegt helemaal niets over de inhoud.
Hoe zou jij het in deze context dan noemen dat de prestaties van de Geforce 3080RTX vrijwel gelijk liggen op gebied van rasterization terwijl deze "maar" op 1850mhz geklokt is (boostclock) terwijl de 6800XT daar 400 mhz boven zit. als het "werk" wat er per kloktik dat er verzet wordt niet hoger ligt, veroorzaakt dan dat de Geforce 3080RTX meer doet per stukje mhz? De architectuur is in ieder geval niet hetzelfde, maar volgens mij wil jij niet erkennen dat daar het verschil in zit. Of eigenlijk zeg je dit wel wat ik al de hele tijd zeg maar dan verklaar je mij voor gek. Overigens zal iemand dat GPU's programmeerd voor workloads nooit over 1 losse shader praten. Uiteindelijk gaat het om de gehele chip topologie wat deze met de GPU kan en wat niet.
Heel simpel: Nvidia maakt een grotere GPU. Dat probeer ik je al de hele tijd door die dikke plank te rammen :)

Grotere die = meer kosten = minder marge. jij bent degene die dan in zijn hoofd haalt dat Nvidia juist veel meer kan en daarom een grotere die heeft. Dat is jouw fantasie. De 2M (B?) meer transistors staan in geen verhouding tot het verschil in die size namelijk, maar verklaren waarschijnlijk wel de extra cores voor integer.

Nvidia heeft meer elementen op de die maar ze zijn niet altijd actief, alsof ze een soort 'accelerator' erbij hebben voor integer, eigenlijk. AMD doet dat niet en kan daarmee dus óók een kleinere die maken, die toch dezelfde taken kan uitvoeren. Het zijn immers volledig programmeerbare apparaten.

Kloksnelheid is inderdaad het vehikel waarmee AMD gelijke prestaties haalt én een gelijke featureset kan bieden als Nvidia. Want dat kunnen ze gewoon nu, de GPUs doen net zo goed RT en voldoen aan de DXR spec. IPC speelt hierin geen enkele rol en geeft helemaal niets aan. Zeggen dat IPC hoger is bij groen? Het zal wel. Niet relevant. DLSS, hoewel interessant, is ook een beetje valsspelen. De render farm voor de grote prestatiewinst draait namelijk ergens op DGX machines in een cloud, niet op je GPU. Zonder die render farm is de winst hoogstens beperkt zelfs met DLSS 2.0, dus mis je de Nvidia T.L.C. dan is het weinig meer dan, zeg, FidelityFX, een soort upscale met sharpening. Dat kwartje is nog niet overal gevallen, maar men hoopt toch vurig op een DLSS die overal inzetbaar is. DLSS 2.0 is wat dat betreft wat misleidend en kan dus goed of matig zijn.

En uit die vaststelling volgen dan ook alle andere conclusies. Als je een beetje de optelsom kan maken, volg je die ook:
- grotere die = meer risico en meer kosten voor Nvidia
- meer kosten = minder marge voor bijvoorbeeld, 12-16GB GDDR6X.
- hoger klokken is zeer inefficient, de curve is al wat te ver opgerekt, zie resultaten van een undervolt en de niet-bestaande OC ruimte op Ampere, met name de grotere dies die moeten vechten om TDP budget. De concurrent heeft die ruimte nog wel. Afgelopen RDNA release was het precies omgekeerd.
- 320W is een gigantische sprong ten opzichte van de (reeds opgerekte) TDP budgetten van Turing en heeft zijn weerslag op andere zaken, zoals warmte in de kast. Vergt mogelijk extra case fanspeed en meer.
- Enzovoort.

Kortom... leuk hoor, dat Ampere, maar een goed product kan ik het niet noemen, en ja, dan is wat AMD aanbiedt met Navi, ondanks de iets minder rappe RT waarvan de content tot zover 'weak at best' te noemen valt, wel degelijk een veel beter uitgebalanceerd product. Daar mag je het mee oneens zijn, maar dan negeer je wel heel veel veranderingen die Nvidia-kopers, waaronder ikzelf overigens (!) eerder aanvoerden als voordelig en reden om voor Nvidia te kiezen. Ik vind het niet meer dan fair om met dezelfde bril naar het huidig aanbod te kijken, en doe je dat niet, maar bagatelliseer je die feiten, dan ben je inderdaad een beetje gekleurd en weinig objectief.

Zo... het duurde even maar dan heb je ook wat :) Zo haal ik die 22 ook wel... :P

[Reactie gewijzigd door Vayra op 30 december 2020 16:11]

Heel simpel: Nvidia maakt een grotere GPU. Dat probeer ik je al de hele tijd door die dikke plank te rammen
Errrrm dat zei ik al sinds post 1. namelijk meer transistoren, 'member? wanneer jij de 8nm vergeleek met de 7nm van TSMC?

ZeroNine in 'nieuws: Gerucht: Nvidia's komende Lovelace-gpu's krijgen maximaa...
Grotere die = meer kosten = minder marge. jij bent degene die dan in zijn hoofd haalt dat Nvidia juist veel meer kan en daarom een grotere die heeft. Dat is jouw fantasie. De 2M (B?) meer transistors staan in geen verhouding tot het verschil in die size namelijk, maar verklaren waarschijnlijk wel de extra cores voor integer.
Ik gaf inderdaad aan dat die ruimte voor een groot deel te verklaren is door meer functionaliteit te huisvesten. Tot op heden heeft Nvidia dit niet precies naar de buitenwereld naar voren gebracht hoeveel. Maar dat is eveneens het geval voor productie processen odnerling. De enige source, welke een andere user postte over het verschil in productie is nu bijna 3 jaar oud. Denk dat we daar wel over eens kunnen zijn dat het outdated informatie is. Tenmijnste, we mogen wel hopen dat de techniek is gegroeid in die jaren.
Nvidia heeft meer elementen op de die maar ze zijn niet altijd actief, alsof ze een soort 'accelerator' erbij hebben voor integer, eigenlijk. AMD doet dat niet en kan daarmee dus óók een kleinere die maken, die toch dezelfde taken kan uitvoeren. Het zijn immers volledig programmeerbare apparaten.
Totdat je dus RT functies probeert te gebruiken en dan valt AMD opeens in het niets relatief gezien. Het is prima dat je daar geen voordeel in ziet. Ik doe dat wel, op gamign gebied maar ook voor mijn werk. Rendering is zoveel sneller geworden ook mede door RT acceleratie wat daar in toegepast kan worden. Niet voor iedereen nuttig, wel voor mij en velen anderen.
Kloksnelheid is inderdaad het vehikel waarmee AMD gelijke prestaties haalt én een gelijke featureset kan bieden als Nvidia. Want dat kunnen ze gewoon nu, de GPUs doen net zo goed RT en voldoen aan de DXR spec. IPC speelt hierin geen enkele rol en geeft helemaal niets aan. Zeggen dat IPC hoger is bij groen? Het zal wel. Niet relevant.
Beide architecturen voldoen aan de DXR spec, Nvidia heeft helemaal geen proprietary instructies sets voor RT geintroduceerd. Daarom kan je RT ook gewoon inschakelen in games die gemaakt zijn ruim voordat RDNA2 uit was gekomen.
En uit die vaststelling volgen dan ook alle andere conclusies. Als je een beetje de optelsom kan maken, volg je die ook:
- grotere die = meer risico en meer kosten voor Nvidia
- meer kosten = minder marge voor bijvoorbeeld, 12-16GB GDDR6X.
- hoger klokken is zeer inefficient, de curve is al wat te ver opgerekt, zie resultaten van een undervolt en de niet-bestaande OC ruimte op Ampere, met name de grotere dies die moeten vechten om TDP budget. De concurrent heeft die ruimte nog wel. Afgelopen RDNA release was het precies omgekeerd.
- 320W is een gigantische sprong ten opzichte van de (reeds opgerekte) TDP budgetten van Turing en heeft zijn weerslag op andere zaken, zoals warmte in de kast. Vergt mogelijk extra case fanspeed en meer.
- Enzovoort.
Wij weten neit over het duurder is, Samsung kan misschien wel een heel stuk goedkoper zijn, het schijnt maar dit is een gerucht dat TSMC minder korting geeft nu wat logisch is met de drukte. Blijft een gerucht, maar wij kunnen hier gewoon geen aannamens voor maken. Denk niet dat jij of ik of wie dan ook op Tweakers ook maar inzicht heeft in de contracten welke AMD en Nvidia hebben bij de chipbakkers. Oop dit moment liggen de prijzen in de hogere range gelijk. Helaas ligt het verbruik ook enigzins gelijk, 20 watt op 300 watt is niet zoveel wat Nvidia dus voor de 3080RTX nodig heeft. Dat deze al op het limiet uit de doos komt ben ik met je eens. Maar tot op heden lijkt de 6800XT ondanks het hogere kloksnelheid ook niet super te reageren op overclocks, iets wat ik kenmerkend voor de huidige technologie vindt. Iets dat je ook in CPU land ziet.
Kortom... leuk hoor, dat Ampere, maar een goed product kan ik het niet noemen, en ja, dan is wat AMD aanbiedt met Navi, ondanks de iets minder rappe RT, wel degelijk een veel beter uitgebalanceerd product. Daar mag je het mee oneens zijn, maar dan negeer je wel heel veel veranderingen die Nvidia-kopers, waaronder ikzelf overigens (!) eerder aanvoerden als voordelig en reden om voor Nvidia te kiezen. Ik vind het niet meer dan fair om met dezelfde bril naar het huidig aanbod te kijken, en doe je dat niet, maar bagatelliseer je die feiten, dan ben je inderdaad een beetje gekleurd en weinig objectief.
Voor mij gaat het echt om prestaties in combinatie met de prijs en naar mijn mening zijn ze op dat gebied gewoon ontzettend aan elkaar gewaagd en bieden ze dezelfde value op gaming gebied. Iets wat wij jaren niet gezien hebben. Het is jammer dat dat nu niet voor lagere prijzen zorgt wat het in het verleden wel deed. Dan heb ik er nog wel een persoonlijke use case bij dat ik deze GPU's ook voor mijn werk gebruik. Als ik een landingspage ontwerp met 3D rendered assets, wil ik deze gewoon snel kunnen renderen. Als ik een animatie voor mijn ontwerp wil hebben maak ik deze in After Effects en dat gaat sneller met een Nvidia GPU. Kip Ei verhaal, de meesten in dit vak gebied kiezen daarom voor Nvidia, en omdat meer voor Nvidia kiezen hoef je van zaken als Octane renderer geen support te verwachten.
Zo... het duurde even maar dan heb je ook wat :) Zo haal ik die 22 ook wel... :P
Dit waren de posts waar ik op zat te wachten.
[...]
Errrrm dat zei ik al sinds post 1. namelijk meer transistoren, 'member? wanneer jij de 8nm vergeleek met de 7nm van TSMC?
En ik reageerde daarop met de vaststelling dat er slechts een klein verschil is in transistoren en dat dat verschil ook nog eens verklaarbaar is (want extra speciale cores), het is nog niet eens 10% geloof ik qua aantal... maar het verschil in die size is meer dan het dubbele daarvan. Die size = oppervlak van het floorplan, de vierkante millimeters die bepalen hoeveel dies je uit een wafer haalt. Hoe competitief Samsung de node ook prijst... groter kost flinke centen. De yield daalt namelijk ook behoorlijk hoe groter je het wil hebben.

Je kunt inderdaad verdedigen dat Samsung waarschijnlijk goedkoper is. Maar tegelijkertijd zagen we deze enorme dies ook al langskomen bij Turing, terwijl Pascal lekker klein was. Een deel van de groei is grotere cache geweest en die is voor Ampere opnieuw uitgebreid. Cache is duur, vaak omdat een hoge density voor dat deel vereist is. Dat is dus ook bij Samsung gewoon prijzig om te maken.

AMD lost dat iets anders op met infinity cache. Daarbij haal je aan dat die ook op zijn grenzen kan lopen. Geen idee, maar daar hebben we nog geen enkel voorbeeld van.

Verder ga ik mijn excuses maken voor de wat verhitte toon eerder in dit draadje. Sorry, had ik niet moeten doen, want op de inhoud komen we er wel, ik zie dat je ook goed leest en beargumenteert. _/-\o_

[Reactie gewijzigd door Vayra op 30 december 2020 16:40]

8nm is de marketingnaam, in werkelijkheid is samsung's 8nm slechts een kleine doorontwikkeling van samsung's 10nm.
https://semiwiki.com/semi...0nm-8nm-and-7nm-at-vlsit/
Dus de verschillend tusen samsung's 8nm en tsmc's 7nm zijn groter dan je misschien zou vermoeden op basis van 8nm en 7nm, afgezien van het feit dat je ook nog met verschillende fabrikanten en hun procedes heb te maken, de ene nm is niet de andere nm.
Kijk eens naar de die size bijvoorbeeld. AMD maakt een kleinere GPU die ze veel hoger klokken en presteert gelijk met een LAGER TDP. De die is ongeveer 20% kleiner!
https://semiwiki.com/semi...0nm-8nm-and-7nm-at-vlsit/
The calculated transistor density for 8nm is 64.40 MTx/mm
https://semiwiki.com/semi...msung-vs-tsmc-7nm-update/
(uit tabel tsmc 7nm(7FF): 96.49 MTx/mm
Waar samsung zo'n 64,4 miljoen transistors per mm2 kan bakken op hun 8nm proces, doet tsmc er zo'n 96,5 miljoen transistors per mm2 met hun 7nm(7FF) proces.
Dat zijn artikelen uit 2018, denk dat wij als buitenstaanders geen sterk beeld hebben van de daadwerkelijke kwaliteit van het procede.
Bedankt voor de toevoegingen _/-\o_
Dat zijn artikelen uit 2018, denk dat wij als buitenstaanders geen sterk beeld hebben van de daadwerkelijke kwaliteit van het procede.
Kijk, denken of feiten linken, daar zit een groot verschil.

Density is een feit. Denken dat dat niet zo is, zegt vooral veel over je eigen kennisniveau in dezen. Wat je tussen de regels door hier eigenlijk zegt is dat Samsung tussentijds wel even de afmetingen van dingen heeft aangepast, maar het nog altijd 8nm noemt. 8)7 Ben je de vele plusjes van Intel vergeten? :) Een aanpassing op de eigenschappen van de node maakt het een nieuw proces en dat kan weer effect hebben op de chip.

Kijk naar het percentage verschil in density en je snapt meteen waarom AMD die kleinere die heeft. Dat is niet omdat Nvidia 'grote dingen' op de die heeft... maar omdat TSMC gewoon een veel betere, kleinere node aanbiedt. Het verschil is zelfs iets meer dan 20% en het vertaalt zich bijna 1 op 1 naar de werkelijke die size verschillen.

[Reactie gewijzigd door Vayra op 29 december 2020 13:45]

Dan kan je waterkoker de deur uit!
Ze gaan ook naar 5nm, dat scheelt een hoop in het verbruik.
En dit gebruiken ze weer zodat ze hem hoger kunnen klokken.
En groter kunnen maken.
Meer cores, lagere klok en/of Vcore = zuiniger.
Tijdje terug liet een medetweaker de transistor dichtheid van procedes zien van verschillende fabrikanten. Puntje bij paaltje, Samsung overspeelt hun hand in marketing. De 7nm procedé van hun heeft een lagere transistor dichtheid dan intels 10nm. De 8nm procedé van Samsung is enkel een extensie op hun 10nm proces

Edit: soortgelijke afbeelding gevonden https://en.wikichip.org/w/images/e/eb/5nm_densities.svg

[Reactie gewijzigd door mikesmit op 28 december 2020 17:09]

Misschien maar vast een pre-order plaatsen.. :/
Nu nog een mini nucleaire centrale om hem van voldoende brinta te voorzien.
Ik denk dat dat wel mee zal vallen. Relatief dan. De SLI setups van voorheen vroegen waarschijnlijk meer watt.
Met elk kleiner procede gaat het verbruik per element omlaag, dus het is waarschijnlijk niet dat de nieuwe kaart ook 71% met vermogen verbruikt.
Dat is te zien aan de enorme stap zuiniger die bv de 8nm RTX 3080 met een TDP van 320watt tov. de op 16nm gebakken GTX1080 die wel 180 watt verbruikt!

En die slurpende SLI setups zoals de 2x 6800GT (2x 67watt), 2x 8800GT (2x125watt), 2xGTX580 (2x 244watt), 2x GTX680 (2x195watt), 2x GTX780 (2x250watt) of 2xGTX980 (2x165 watt).

Volgens mij is de kaart die op het kleinste procedé geproduceerd is op dit moment (de RTX3080 bv.) de grootste verbruiker en komt zelfs in de buurt van SLI setups van vroeger :+

Performance per watt is dan relatief veel beter maargoed ik en denk met mij vele anderen worden niet altijd heel blij van die straalkachels in je PC :+
Turing en Ampere CUDA cores zijn NIET equivalent in opbouw, en horen dus ook niet zonder meer uitleg samen in een tabel te staan. Niet alleen het procédé, ook de opbouw verschilt significant.

Wat ik me nu dus afvraag is of de Lovelace CUDA core counts ons wel een accuraat beeld geven.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True