Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 3090 Review

De overtreffende trap van Ampere

24-09-2020 • 15:00

255

Singlepage-opmaak

Conclusie

De GeForce RTX 3090 is als onderdeel van Nvidia's nieuwe reeks videokaarten het vlaggenschip van de Ampere-generatie. Voor consumenten, gamers en contentcreators is dit het summum van de RTX 3000-serie. De vrijwel geheel ingeschakelde GA102-chip op de RTX 3090 is gekoppeld aan razendsnel GDDR6X-geheugen dat de, met enige fantasie, 10.000 CUDA-cores tellende gpu van data moet voorzien om hoge prestaties te waarborgen. En die prestaties zijn inderdaad ongeëvenaard.

Gigabyte RTX 3090 Gaming OC

Pochen met prestaties

Alle kenmerkende eigenschappen van een halo-product gaan ook bij deze generatie gepaard met een erg hoge prijs en een minstens zo opvallend hoog stroomverbruik. Nvidia trekt met de RTX 3090 alle registers open om de Ampere-chip maximaal te laten presteren en dat zal de koper merken. Niet alleen in de aanschafprijs van 1549 euro, maar ook in de energierekening zal dat bij fervent gebruik terug te zien zijn.

Voor wie boven alles maximale prestaties wil, zal dit geen probleem zijn. Nvidia geeft ook openlijk toe dat de RTX 3090 precies voor die doelgroep gemaakt is en niet voor de gemiddelde gebruiker, die uit is op goede prestaties voor een zinnige prijs. Het toppunt van gameprestaties, dat is waar het om gaat. En, zo voegt de fabrikant eraan toe: 'for bragging rights'.

Nvidia doet nog wel een poging om de RTX 3090 als 'kaart voor creators' neer te zetten, maar dan had dit product wat ons betreft gewoon een Titan- in plaats van GeForce-naam moeten dragen. Bovendien komt het belangrijkste argument daarvoor, de grote hoeveelheid videogeheugen, met de geruchten over een toekomstige 20GB-versie van de RTX 3080 direct op losse schroeven te staan.

De RTX 3090 voor gaming?

Kijken we naar de gameprestaties, dan komt de RTX 3090 gemiddeld genomen zo'n 13 procent hoger uit dan de RTX 3080 op 4k met Ultra-instellingen en tegenover de RTX 2080 Ti is de voorsprong ongeveer 40 procent. In raytracing en met DLSS zijn de resultaten goed, maar dat komt doordat de RTX 3090 een erg snelle videokaart is. De behaalde winst met deze technologieën is in onze tests procentueel gezien namelijk niet hoger dan op de RTX 3080 of zelfs de 2080 Ti.

Als gevolg van de manke prijs-prestatieverhouding van de RTX 3090 komt juist de RTX 3080 in een extra positief daglicht te staan. Voor 'slechts' 719 euro, minder dan de helft van een RTX 3090, bestel je immers een GeForce Ampere-kaart die doorgaans niet meer dan 20 procent langzamer is. Dat zou, naast het bovenaan eindigen in benchmarks, voor Nvidia best eens het werkelijke doel van de RTX 3090 kunnen zijn geweest.

RTX 3000 lineup

Lees meer

Reacties (255)

255
246
76
12
0
112
Wijzig sortering
Ik mis nog de compute tests zoals premiere pro en een render sofware zoals octane. Nvidia zet deze kaart toch op de markt als vervanger van de Titan? Dan verwacht ik ook dergelijke tests.
Nvidia heeft het over Titan-class performance voor deze GeForce-kaart, en we hadden ook graag met dergelijke GPU's vergeleken. Voor nu zou je wel even bij ComputerBase naar hun vergelijking kunnen kijken.
Zou eerlijk gezegd ook meer compute & render performance standaard willen terug zien op tweakers.net

“We hadden ook graag met dergelijke GPU’s vergeleken”
Worden jullie gebonden aan het type tests wat Nvidia wilt uitdragen?

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 20:45]

Jullie "willen" wel heel veel... Is denk ik niet zo beleefd om het zo te formuleren. T.net heeft zijn testen met deze kaart afgerond, als je andere soort testen"wilt" zien, "moet" je maar supplementair andere websites raadplegen
Ik snap je reactie niet...

Waarom vindt je het teveel gevraagd?

Tweakers.net zou zich toch meer op tech focussen ipv HTK gebruiker? De RTX3090 is een Titan class card en soort van “cherry on top” net als een Ryzen 3950x, deze reviewen zonder transcoding, rendering en compute zie ik als een gemiste kans, en moet deze info wederom opgezocht worden bij concurrenten/collega’s.

Gaming performance is niet het allerbelangrijkste. Dit lijkt een zeer goede kaart voor o.a. amateur/starting content creators zonder de overstap te moeten maken naar Quadro’s.

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 20:45]

Nuance: dat deze kaart voor gamen tegen valt lijkt mij daar niet onder vallen. Vóór de reviews wisten we niet wat deze kaart zou gaan doen. Voor het zelfde geld waren de verschillen vergelijkbaar met die van de 2080 Ti vs 2080 destijds.

Hetgeen jij beschrijft kan interessant zijn maar dan moet je met die insteek gaan testen en dus ook diverse quadro opties mee pakken.

Niet dat je tweakers van mij niks mag verwijten. Deze keuze voor de 4.2 Ghz bottleneck op de RTX 3080 was erg slordig en ook deze keer is er weer een fout ingeslopen (resultaten control 8K zijn 4K resultaten). Het lijkt erop dat de HWI crew nog even moet wennen binnen het tweakers format dan wel dat de verkeerde persoon nu de goedkeuring geeft over de opzet en uitvoering van de reviews.
Ik ben ook wel een fan van als Tweakers de temperaturen van de videokaarten naast elkaar zet wanneer ze idle zijn of onder load. Als ik een videokaart koop dan zijn prestaties en stroomverbruik niet het enige waar ik naar kijk. De temperatuur is ook wel belangrijk voor mij, zeker in de hete zomers is het mooi om een videokaart te hebben die niet extreem warm wordt :)
Temperatuur is inderdaad een belangrijke factor, maar bij het vergelijken van 3D-chips zegt het vermogen meer dan de temperatuur van de chip. De temperatuur is namelijk afhankelijk van de koeler, en die is voor elke videokaart met de 3090 chip weer anders. De temperatuur van die chip zal dus ook op alle videokaarten weer anders zijn.

Als we videokaarten met elkaar gaan vergelijken focussen we natuurlijk wel op de temperaturen en de koelers. :)
Als je wil dat je kamer niet te warm wordt moet je alleen naar het verbruik kijken.

Temperatuur zegt dan niks: een kaart die je kamer opwarmt met 300 W maar goede koeling heeft kan een lager temperatuur hebben dan eentje die 100 W verbruikt met slechte koeling. Maar hij warmt je kamer wel drie keer zo snel op.
Dit klopt niet helemaal... De warmte energieflux, is bij beide hetzelfde namelijk 300W, en zal dus jouw kamer precies hetzelfde opwarmen. Naast de temperatuur zijn er nog meer grootheden die een rol spelen, zoals het totale oppervlakte waar de warmte energie wordt afgegeven en de snelheid van de luchtstroming langs het oppervlak. Als de beide groter dan, dan de temperatuur lager zijn. Lagere temperatuur is beter voor de levensduur van de chip en overclock potentieel, maar beide warmen de kamer gelijkwaardig op...

[Reactie gewijzigd door Bowen_HAFX op 22 juli 2024 20:45]

Hij vergelijkt met een 100W chip die op een hogere temperatuur loopt. Misschien had je daar overheen gelezen?
Dat klopt helemaal! Sorry, was nog vroeg :z . Bedankt voor de aardige correctie :)
Edit: ik las het volgens mij niet helemaal goed.

Maar eens:
Als je een grote straalkachel van 100 watt aanzet die een groot oppervlak heeft maar minder warme onderdelen, of een kleine van 100 watt die heel geconcentreerd warm is, dat maakt niet uit, het gaat om het wattage: Energie gaat niet verloren. Misschien voelt de intiële piek 'warmer', maar over enige tijd is wattage in temperatuur erbij. (Zelfs (led) lampen produceren vooral warmte overigens). Nu is je huis geen geheel gesloten systeem, maar de energie moet ergens blijven dus het lijkt me zeer sterk dat een kaart die even veel wattage gebruikt magischerwijs je huis minder opwarmt, want per definitie produceren ze evenveel warmte.

[Reactie gewijzigd door Neruo op 22 juli 2024 20:45]

Met welke reden wil je dat hij niet warm wordt? Voor de performance, of omdat hij dan meer warmte afstoot? Temperatuur is niet gelijk aan warmte. Een 3090 slingert meer hitte je kamer in, ongeacht of hij warmer/koeler draait dan een GTX 1060 oid.
Stroomverbruik is al een redelijke indicatie voor de temperatuur.
Voor het effect op de temperatuur in je kamer is het dé enige indicatie die ertoe doet.
300W in -> 300W hitte uit.
Nee, deze kaart is door Nvidia in de markt gezet als 8K Gaming kaart. Geen grap. Aangezien dit volledig belachelijk is omdat het overduidelijk de opvolger van de Titan is, heeft GamerNexus hier vervolgens gekscherend een 'Gaming Review' van gemaakt waar ze gelijk even de grond gelijk maken met de marketing afdeling van NVIDIA.
Hij draait toch control bijv op 8k rond de 60 fps? Dan is dat toch geen misleidend statement?
Edit: bron: deze review!
reviews: Nvidia GeForce RTX 3090 - De overtreffende trap van Ampere

[Reactie gewijzigd door SpiceWorm op 22 juli 2024 20:45]

Het is geen 8K, het is upscaling naar 8K en dat is niet hetzelfde.
Onze benchmarks van Control op de 8K gaming pagina maken geen gebruik van DLSS / upscaling. Dit is op een 8K monitor getest. Wel hebben we voor de 8K resolutie de anti-aliasing opties uitgezet, gezien dat op een 8k resolutie niet heel veel nut meer heeft.

[Reactie gewijzigd door Ch3cker op 22 juli 2024 20:45]

Volgens mij bedoel ze Doom Eternal.
Een 3080 haalt op 4k geeneens 50fps dus een 3090 haalt echt geen 60fps bij 4x zo hoge resolutie

https://tpucdn.com/review...ges/control-3840-2160.png

[Reactie gewijzigd door DoubleYouPee op 22 juli 2024 20:45]

Wij bedoelen zeker geen Doom Eternal. Je link naar TPU zegt ook niet zoveel, gezien we de instellingen niet weten die zij gebruiken.
Kijk dan naar de benchmark van Tweakers zelf.. pagina 6. Control 4k 67fps en ... 69fps in 8k ;)
Kon het toch niet hebben en heb Control zojuist opnieuw gedraaid op onze 3090. De render resolution bij de vorige test bleek nog op 4K gestaan te hebben, dat was het euvel.. Nu uiteraard veel lagere framerates. Mea culpa! En dank voor jouw oplettendheid :)

Ik heb de alinea over Control op 8K for the time being even weggehaald, morgenochtend mag de auteur kijken wat hij er mee wilt.
Dat zal het zijn inderdaad! ;)
👍
Je link naar TPU zegt ook niet zoveel, gezien we de instellingen niet weten die zij gebruiken.
Staat er gewoon bij.
All graphics cards are tested using the same game version.
All games are set to their highest quality setting unless indicated otherwise.
AA and AF are applied via in-game settings, not via the driver's control panel.
Maar hoe kan het dat tweakers bij control op 8K met DLSS en Ray tracing op uit 69FPS haalt terwijl TDU 60FPS haalt op 4K ook met DLSS en Ray tracing op uit, 8K heeft 4x meer pixels dan 4k dus is het veel zwaarder voor de GPU. Dan kan het niet zo zijn dat de kaart dan meer FPS haalt.
https://www.techpowerup.c...rtx-3090-strix-oc/10.html

Naar mijn idee kan het geen kwaad om het nog eens te controleren. ;)
TPU gebruikt RTX on in Control, wij in de normale tests niet, tenzij het er specifiek bij staat.
Nee dat stond gewoon uit...
We used DirectX 12 mode with RTX and DLSS turned off.
Dus toch wel zeer opvallend dat Tweakers 69FPS haalt op 8K!

[Reactie gewijzigd door Enchantress op 22 juli 2024 20:45]

Leesfoutje dan, mijn fout. Ik zal er morgen even naar kijken.
mijn gtx 1080ti haalt 70fps in doom eternal op 4k nightmare setting
Reconstructie is niet hetzelfde als upscaling. DLSS weet er met zijn algoritmes toch echt details er weer uit te halen die niet bestaan op lagere resoluties en ook niet tevoorschijn komen met upscaling. In dat opzicht is DLSS een gamechanger, namelijk graphics op het beeld toveren door slimmer met de mogelijkheden om te gaan in plaats van puur raw performance. Of bekijk jij ook liever films zonder hardware versnelling zodat je cpu met volle belasting een 4K film probeert te decoderen terwijl je gpu dit kan zonder enige moeite?
DLSS2.0 ziet er juist beter uit dan native op veel punten, op sommigen minder. Maar het geeft je wel fors meer performance.

DLSS zorgde ervoor dat je control op 1440p met alle raytracing effecten kon spelen dus mooier, death stranding was scherper, F1 2020 oogt ook beter en zo kan ik meer voorbeelden opnoemen. Je ziet alleen relatief kleine artifacts. DLSS1.0 was wel echt waziger.
Volgens de Nvidia marketing.... bedrijven laten het altijd er mooier en of beter uitzien dan de werkelijkheid, zie bijvoorbeeld ook de game trailers van UBIsoft.

Ik heb hier zelf een 2070 super en het ziet er niet beter uit dan native resolutie, zonder het te weten zou ik ook zo kunnen zeggen of DLSS2.0 aan of uit staat.
Ik vind het er zelf wel beter uit zien in de latere lichting games. Vooral als het games zijn die gebruik makem van TAA.
Mijn punt was dat realistisch gezien gamers zijn voor deze kaart simpelweg niet de doelgroep zijn, net zo min als ze dat waren voor de Titan. Daarom is het belachelijk dat NVIDIA hem wel zo market. De doelgroep voor deze kaart zijn creatievelingen en professionals die in hun (3D/CAD) workflow een enorme berg geheugen en rekenkracht nodig hebben. Hoewel NVIDIA zelf de positie van hun 3090 heeft ondermijnt doordat er aanwijzingen zijn dat er een 3080 met 20GB werkgeheugen gaat komen die waarschijnlijk nauwelijks gaat onderdoen voor deze 3090, maar wel gunstiger geprijsd gaat worden. Al is dat laatste natuurlijk speculatie en nog afwachten.

De claim die NVIDIA doet met '8K gaming' is daarnaast simpelweg onjuist. De kaart produceert op 8K nauwelijks 30fps met verschrikkelijke frametimes in de meest gunstige gevallen, zie daarvoor vooral ook de review op Youtube die ik hierboven linkte :)

Edit: ik zie dat Tweakers inderdaad indrukwekkende cijfers van 60+fps haalt op native 8k zonder AA. Opmerkelijk, want GamerNexus kreeg dat niet voor elkaar en die zijn doorgaans erg thorough met hun tests. Het 8k-hoofdstukje hier in de Tweakers review had ik trouwens totaal over het hoofd gezien, ik keek naar alle testresultaten daarvoor...

[Reactie gewijzigd door pixeled op 22 juli 2024 20:45]

De claim die NVIDIA doet met '8K gaming' is daarnaast simpelweg onjuist. De kaart produceert op 8K nauwelijks 30fps met verschrikkelijke frametimes in de meest gunstige gevallen, zie daarvoor vooral ook de review op Youtube die ik hierboven linkte :)
Het artikel spreekt dat tegen:
Control:
De prestaties in Control zijn op deze hoge resolutie opvallend goed, zelfs op Ultra-instellingen. De RTX 3090 komt hier ruim boven de 60fps uit ...
...
Doom Eternal:
... De RTX 3090 komt opnieuw boven de 60fps uit ...
...
Project Cars 3
In deze game lukt het de RTX 3090 beter om in de buurt van de gewenste 60fps te komen. ...
Dat zijn fps behaald op 4k.

Edit: ik had ongelijk, zie ook m'n aangepaste bericht hierboven.

[Reactie gewijzigd door pixeled op 22 juli 2024 20:45]

Volgens mij is 4320p juist de benaming van 8K, dus... gehaald op 8K
Nou echt niet. Genoeg positieve videos gezien met 60 fps. Waarom zou een ontwerper een rtx 3090 kopen? Daar zijn de quadros voor die beter met 64 bit floating points overweg kunnen. Je verhaal klinkt meer als graag willen zien dat Nvidia de boel voor de gek houdt.
60fps @ 8k? Kom maar door met die video's. Verder: prima, wat jij wil :)

Edit: ik heb ondertussen het 8k-hoofdstukje hier op Tweakers ook gezien, daar hangt 8k inderdaad rond de 60fps (met AA uit). Indien dat klopt is dat zeker indrukwekkend. Ik zie dat soort resultaten echter bij vrijwel geen enkele andere reviewer terug.

[Reactie gewijzigd door pixeled op 22 juli 2024 20:45]

Maar gamers zijn met de 3090 juist wel de doelgroep, dat is overduidelijk aan de marketing te zien, er staat met koeienletters op de site van nvidia zelf "BUILT FOR 8K GAMING", dat ze er niet bepaald in uitblinken en de 3090 beter ingezet kan worden als workstation kaart is een ander verhaal.
Marketing =/= waarheid.

Nvidia hoopt er een lading te kunnen verkopen aan gamers met een hoop geld; voor een hoop geld.

Dat hij voor workstations is maakt niet uit. De marketing voor die tak is compleet anders, direct gericht op bedrijven. En die zie je niet voorbij komen op youtube of tech-sites.

Zelfde idee dat er toch mensen waren met meer geld dan verstand die Titans kochten om op te gamen.
De naam Titan veranderen naar xx90, dan is het stigma weg en hopen dat je een lading kan verkopen.
Nvidia hoopt er een lading te kunnen verkopen aan gamers met een hoop geld; voor een hoop geld.
Klinkt alsof hij voor gamers is. :)

Zijn zat gamers of lui die gewoon t dubbele willen betalen voor t hipste.

Voor workstations zal hij vast ook wel verkocht worden, op termijn zullen ze daar uiteindelijk ook wel aparte lijn voor gebruiken met bijpassende branding (quattro ofzo) of het zelfde product met andere marketing slide.

Meeste spul voor die workstation markt is toch kant en klaar gebouwd.

producten kunnen ook geschikt zijn voor meerdere doelgroepen / use cases.
Maar dat gaat ze ook wel lukken, streamers willen de top of the art omdat snelheid toch echt werkt in sommige gevallen ook al is het maar 1 frame winst op de tegenstander, en krijgen dat wel gesponserd, rijke kids willen de zelfde performance en zullen de streamers na doen en die dure kaart gaan kopen.
Als je nu al ziet hoe games op eens goed verkopen op steam als een paar streamers ze spelen, zal dit ook zijn gevolg hebben in de hardware die gebruikt word, je ziet ook zo vaak de vraag langs komen op wat voor pc de streamen aan het spelen is dat ze dat al ergens hebben neergezet zodat ze het niet iedere keer hoeven te herhalen.
Zorgde de Titan niet voor een grijs gebied tussen de mining/gaming kaart en de Tesla?

Door de Titan naam weg te halen en deze in de "normale thuisgroep" te plaatsen hebben ze nu dus alleen de RTX en de Tesla lijn?
Je hebt helemaal gelijk, dat is ook wat ik wilde overbrengen (zie m'n eerste reactie) maar heb ik in m'n haast onzorgvuldig geformuleerd. Nu aangepast, dank :)
Nou ja, het zal je verbazen hoeveel gamers een titan RTX, of dan nu een 3090 kopen om te gamen. Ik zelf kocht destijds een maxwell Titan X om op 4K te kunnen gamen. Achteraf gezien had ik beter een generatie kunnen wachten, aangezien mijn 4K performance niet ideaal was, maar goed, ik had hem wel
Wat is dan de doelgroep van een Titan? Mijn oude sli opstelling was vooral goed om de kamer te verwarmen bij het spelen van titanfall.
En de 3080 zit net onder de 60(ca.58 afhankelijk van de processor). Daar word ik niet zo blij van eerlijk gezegd. Díe slechts 14% winst is eigenlijk best welkom. Wel voor een kaart die een behoorlijk aantal jaren mee moet in elk geval. Heel misschien dat de 20GB versie dit nog kan verhelpen, maar denk het eerlijk gezegd niet.

[Reactie gewijzigd door MN-Power op 22 juli 2024 20:45]

Op hogere resoluties zal je waarschijnlijk wel wat winst zien. Of de 3080(20gb) ook 8k (DLSS) aan kan... Als het vergelijkbare resultaten laat zien, dan is de 3090 een hele slechte keuze voor gamen... (Zal natuurlijk aan de prijs liggen...)
Ik weet niet hoor maar de benchmarks die tweakers heeft gedraaid zitten op 60fps of vlak erbij.

Dat is ongelooflijk indrukwekkend. Dus ik vind het geen misleidende marketing om te zeggen dat dit een 8k gaming kaart is.
Klopt, ik had het 8k hoofdstuk hier op Tweakers over het hoofd gezien, excuus :) Zie m'n aangepaste reactie hierboven.
Netjes dat je het toegeeft 😉
Die gast heeft wel goede filmpjes. Maar holy crap, waarom heeft hij altijd zo'n zeiktoontje, ik kan het niet aanhoren. |:(

[Reactie gewijzigd door OriginalFlyingdutchman op 22 juli 2024 20:45]

Hij zou het allemaal wel wat minder cynisch en zeikerig mogen brengen idd. Ik skip zijn filmpjes iig.
Ik dacht dat het aan mij lag......ik kan zijn stem ook niet aanhoren. Helaas, want inhoudelijk is hij wel goed op de hoogte.
Dat is niet belachelijk als je er even over nadenkt.

8k gaming is voor bijna niemand belangrijk, dat is alleen leuk als gimmick bij sommige professionele presentaties/shows, of voor mensen met enorm veel geld. En natuurlijk is buiten 8k gaming de 3090 relevant bij wat productivity workloads die veel VRAM gebruiken. En dat is precies waar deze kaart voor bedoeld is, de 3090 is niet bedoeld als mainstream kaart.
Als je vind dat 1500 euro te duur is (en dat vind ik ook) en je de prijs/prestatie verhouding voor gaming niet goed genoeg vind (ben ik het ook mee eens), is deze kaart gewoon niet voor je bedoeld.

En het fijne van de huidige situatie is dat de normale gamer bijna niets verliest met een 3080 ten opzichte van de 3090. Dus zolang je de VRAM van een 3090 niet nodig hebt kun je gewoon heel tevreden zijn met een 3080 (of misschien later een AMD kaart) zonder dat je iets significants mist.

En Nvidia geeft dit ook letterlijk aan in hun "review guide", zie https://www.youtube.com/watch?v=7dofNU0r9D8&t=243s

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 20:45]

Opvolger van de Titan misschien wel ja, maar niet ècht een Titan; de Titans waren altijd efficiënter dan de Ti kaarten, en dat is de 3090 niet. Daarnaast verstookten de Titans doorgaans ook 'maar' 250 watt, behalve de laatste, die was 280, maar dat is nog steeds bijna 100 watt minder dan deze 3090. Vandaar dat Nvidia het heeft over 'Titan class performance' maar niet over een Titan; hij past niet echt in het totaalplaatje van een het Titan merk.

De prestaties zijn bruut maar de gebruikte Samsung node is niet erg zuinig, dus ik verwacht eigenlijk geen Titan-achtige kaart deze keer.

[Reactie gewijzigd door Dorstlesser op 22 juli 2024 20:45]

Ik had interesse voor computer vanwege de omvang van het vram, maar na de gigabyte lek wacht ik even wat een 20GB 3080 gaat kosten voor ik zoveel geld uitgeef.
Of een 16GB 6000 kaart. ;-)
Helaas geen optie, dan moet ik al mijn bestaande CUDA code omzetten :(
Eens gekozen blijft gekozen, met CUDA spul, ja. Maar het codeert wel zo veel makkelijker dan openCL.
Het trieste is dat toen ik begon met omzetten van software naar GPU ik heb getest met OpenCL 2.0 op een AMD gpu en met CUDA. OpenCL 2.0 met C++ wrapper was iets meer boiler plate als CUDA, maar goed te doen en price performance was AMD beter.

En toen besloot AMD voor wij beslist hadden om zijn hele driver en compute omgeving om te gooien. Het was een drama om aan de praat te krijgen en had ook nog eens geen geen function parity met de oude stack. Conclusie: als we OpenCL wilden hanteren moesten veel opnieuw schrijven en eigenlijk bij OpenCL 1.2 blijven. Ik krab nog liever mijn ogen eruit dan dat ik naar OpenCL 1.2 code kijk...
Misschien is het interessant voor je om naar openACC te kijken, mocht je het niet al kennen.
Het laadt parallel rekenwerk naar de GPU, op basis van precompiler tags, zonder dat je CUDA kernels of wat dan ook hoeft te schrijven die dat expliciet doen.

Ik heb er wat voorbeeldcode van, als je er eens mee wilt spelen.

Natuurlijk lever je wel wat aan runtime in, maar je krijgt er veel programmeertijd voor tijd terug.

[Reactie gewijzigd door hooibergje op 22 juli 2024 20:45]

Deze site heeft octane benchmarks:

https://techgage.com/arti...-3090-proviz-performance/

Het lijkt dat de 3090 ongeveer 19% sneller is dan de 3080. Ongeveer het verschil in aantal cores.

[Reactie gewijzigd door nr12 op 22 juli 2024 20:45]

Nog altijd niet echt interessant. Bv de PCIE gen 3 vs 4 vergelijking - waarom zit daar geen enkele creator benchmark in? OctaneBench? Premiere Render time?

Zeker bij een kaart die expliciet gemarket wordt bij creators vind ik dit een groot tekort in deze review.
Ik had graag een vergelijking gezien met de nieuwste titan kaart maarja wie ben ik om,zoiets te zeggen.
de intel en amd processoren lopen bijna gelijk wat deze benchemark laat zien.
Je ziet zelfs dat die amd 3700x processor best goed is en kan het intel geweld goed bijbenen.
Tevens zitten deze nieuwere kaarten die compatibel zijn aan de pciexpress 4.0.Wat ook weer minstmarge te zien is op deze synthetische benchemarks.
Het ziet er allamaal heel erg leuk uit maar ik ga geen kaart kopen over de 1000,00 euro laat staan 1500 euries.Deze kaart is nog duurder dan mijn geheel systeem.En teveel overkil wat ik met mijn compuiter doe.Als fervent gamer zou men deze kaart dus wel weer kopen.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 20:45]

DaMarcus Admin Harde Waren / Consumentenelektronca @Immanent Ike24 september 2020 18:49
Puger Systems - een Amerikaanse specialist ij het bouwen van workstation heeft de RTX 3090 gereviewed met alle denkbare rendermogelijkheden.

De PugetBench die Computerbase gebruikt komt uit hun koker, zie hier de review op Puget Systems.
Nee, Nvidia zet deze GPU neer als pure gaming kaart.
Maar dit gaat over de Nvidia 3090 en niet over de AMD Radeon 7.
Klopt, maar om diezelfde comment meerdere malen te spammen terwijl het niks toevoegd aan de discussie toont alleen maar fanboy gedrag. Helemaal als je selectief gaat shoppen uit de marketing materialen.
Wat je doet is selectief shoppen uit marketing materialen.

"The GeForce RTX™ 3090 is a big ferocious GPU (BFGPU) with TITAN class performance. It’s powered by Ampere—NVIDIA’s 2nd gen RTX architecture—doubling down on ray tracing and AI performance with enhanced Ray Tracing (RT) Cores, Tensor Cores, and new streaming multiprocessors. Plus, it features a staggering 24 GB of G6X memory, all to deliver the ultimate gaming experience."

Het eerste paragraaf onder de slider praat over zaken als raytracing en AInperformance met dan pas aan het eind gaming. Meerdere page secties zijn gericht op content creation. Maar jij claimed dat zijn het puur marketen als gaming GPU wat gewoon niet waar is.
Dan negeer je dus de feiten, dat mag uiteraard maar daar ga ik niet in mee.
Feit is en blijft dat het een pure gaming GPU is zoals Nvidia het zelf aangeeft.
De GeForce RTX™ 3090 is een big ferocious GPU (BFGPU) met prestaties van TITAN-klasse. Deze wordt aangestuurd door Ampere - de 2e generatie RTX-architectuur van NVIDIA - waardoor de raytracing en AI-prestaties nog verder worden verhoogd met verbeterde Raytracing (RT)-cores, Tensor Cores en nieuwe streaming multiprocessoren. Bovendien heeft hij een verbluffende 24 GB aan G6X-geheugen, allemaal voor de ultieme gamingervaring.
Allemaal (dus de RT cores, Tensor Cores, Streaming multiprocessoren en de 24GB aan GDDR6X geheugen) voor de ultieme GAMINGERVARING!
Ray Tracing en AI-presentaties zijn ook bedoeld voor Gaming.
https://www.nvidia.com/nl...cards/30-series/rtx-3090/

Je mag best toegeven dat je ernaast zit.

I rest my case.

[Reactie gewijzigd door Enchantress op 22 juli 2024 20:45]

Je zit er echt naast, waarom dan toch zo doordrammen?

Alles ademt gaming op die pagina.

Er is een klein stukje wat over “creativiteit” gaat en ook daar hebben ze het niet specifiek over de 3090, daar hebben ze het over de 3000 serie dus alle kaarten wat ik zelf dus al aangaf.
Til je creatieve projecten naar een nieuw niveau met GeForce RTX 30-serie GPU's. Levert AI-versnelling in de beste creatieve apps. Ondersteund door het NVIDIA Studio-platform van speciale stuurprogramma's en exclusieve tools. En gebouwd om in recordtijd te presteren. Of je nu complexe 3D-scènes rendert, 8K-video's bewerkt of livestreamt met de beste codering en beeldkwaliteit, GeForce RTX GPU's bieden je de prestaties om je beste werk te leveren.
Zoals gezegd mag je best toegeven dat je het verkeerd gelezen hebt, het is niet erg dat je een foutje maakt maar ga dan niet doordrammen om maar je gelijk te halen, want dat heb je niet gezien de pagina van Nvidia.
Bij RDR2 op 4K en 1440p zien we dat het bij de 3090 voor de framerate niet uitmaakt of de AMD of de Intel CPU gebruikt wordt. Met de 3080 is het Intel platform een stuk sneller dan dat van AMD. Is dat verklaarbaar?
Goed gespot! We hebben deze bench even opnieuw gedraaid en de resultaten bijgewerkt.
Mogelijk door de extra VRAM op de 3090. Dan vormt het aanspreken van het systeem RAM misschien minder een bottleneck. Geen idee of dat de reden is, maar zou een verklaring kunnen zijn.
Geen temperatuur test jammer tweakers. Volgens guru3d en tech wordt de kaart ongeveer 75 graden onder load wat aardig laag is voor zon stroomvreter.

[Reactie gewijzigd door D4rKy21 op 22 juli 2024 20:45]

Omdat we geen RTX 3090 Founders Edition hebben maar een custom model, hebben we er voor gekozen deze vergelijking weg te laten. Bij een roundup van custom modellen onderling is temperatuur een van de belangrijkere benchmarks, die roundups gaan er zeker komen :)
Zijn de 8K benchmarks met of zonder DLSS uitgevoerd? Als DLSS aan stond, was het geen native 8K. Dus als het native 8K resultaten zijn, wat zijn de scores met DLSS aan? Of Als DLSS wel aanstond, wat zijn dan de scores zónder DLSS? Enige duidelijkheid hierover zou welkom zijn.
Kijk eens bij Gamers Nexus hoe het de 3090 vergaat in "8K" :

https://youtu.be/Xgs-VbqsuKo


( spoiler : niet goed )
De benchmarks op 8K zijn uitgevoerd zonder DLSS, anders hadden ze uiteraard onder het DLSS kopje gestaan. :)
Control 4k: 67 fps
Control 8k: 69 fps

Wat klopt hier niet :)?
Zoals in de comments ook al gezegd, MSAA staat uit op 8K. Dat scheelt een slok op een borrel :)

[Reactie gewijzigd door Ch3cker op 22 juli 2024 20:45]

Hier klopt toch niks van. GamersNexus komt niet verder dan dan 30FPS bij de meeste games zonder DLSS...
Je hebt helemaal gelijk. We hebben zojuist de 3090 nog opnieuw getest op 8K, de render resolution lijkt verkeerd te hebben gestaan. De FPS waardes kwamen nu op ~25 fps uit voor 8K Medium. Voor nu is het stuk over 8K even uit de review gehaald in ieder geval. Dank voor de oplettendheid in ieder geval!
Graag gedaan en bedankt voor de update!
Het is geen grap: 3090 is minstens 100% duurder en niet meer dan 20% sneller dan de 3080. De 3080 zou dus de beste keus zijn. De 3090 kost vanaf €1600 tot €2049 bij Alternate.
Ik verwacht de RTX 3080 de meeste gekozen kaart zal gaan worden. Ik zou zelf nooit zo'n bedrag neertellen voor een videokaart als de RTX 3090 en nog eens niet 20% sneller. De RTX 3080 doet het net zo goed. Mooi dat AMD cpu apart is getest is.
Moeilijk te zeggen nu. Ik verwacht dat er straks meer 3060/3070 modellen verkocht gaan worden omdat die in een price range zitten die meer mensen aanspreekt. En laten we vooral AMD niet vergeten, ben heel benieuwd waar zij mee gaan komen en wat het moet gaan kosten.
Klopt, wat ik zelf denk is dat de 3060 als eerste de beste verkocht gaat worden, daarna de 3070 en dan de 3080. De 3090 heeft echt de slechtste prijs/prestatie verhouding.
Mee eens. De 3090 zal echt niet mijn keus en voor zulke bedragen ga ik absoluut nooit aan uitgeven! Ik weet niet hoe ze het in hun kop halen om zulke absurde bedragen te vragen.
Bij SIComputers staat de Asus 3090 OC (waar ik me gisteren eentje van heb besteld lol) voor 1682 (exBTW zoals in mijn geval, komt dat aan net geen 1400 :D) Aan die prijs gaat Alternate der niet veel verkopen. ik heb in mijn 20j pc gebruik nog nooit de top van GPU gehad. Dit keer ga ik em hebben.
Volgens HWI is de 3090 veel beter in staat om te minen. Van mij mogen de miners de 3090 opkopen lol
Miners mogen van mij doen wat ze willen, kan me geen barst schelen. Zolang ik de mijne maar krijg
3090 is 10% a 15% sneller maar 2x zo duur. Je moet wel een echte fan zijn met een dikke portemonnee om als gamer de te kiezen voor een 3090 ipv een 3080.
Klopt, ik heb er zojuist één gehaald. Ben het met je eens dat de 3080 een betere prijs/kwaliteits verhouding heeft. Mja ergens wil je het beste van het beste, het is een dure hobby. Maar wat een monster kaart, kan niet wachten!
Of je wil spellen spelen die per se die 24 GB vol gaan pompen. De 3090 is niet bedoeld als een kaart die veel sneller is dan de 3080, maar als een kaart die veel meer geheugen heeft dan de 3080.
Er komen ook 3080 versies me 20GB, hoewel daar geen prijzen van bekend zijn.
nieuws: Gigabyte-website noemt RTX 3080- en 3070-videokaarten met 20GB en 16G...

Wat is het verschil in games tussen 24GB en 10GB?
14GB? Geintje, ik denk dat je eerder moet kijken naar Creator Applications waar dit een verschil kan maken. Ik ken geen games waar dit een verschil zal maken.

[Reactie gewijzigd door BeyondThunder op 22 juli 2024 20:45]

Flight Simulator en rFactor 2 bijvoorbeeld. Stop meer scenery / voertuigen etc in de sim en het geheugen loopt op.
Geen idee hoe hard dat voor spellen uitmaakt, maar gezien de ruimte er is, zullen de programmeurs ongetwijfeld gedetailleerdere textures er in gaan stoppen.
Of als je Skyrim heel goed mod, dan kan het vram gebruik ook flink oplopen.
misschien gddr6 en gdd6x??
Vol pompen kunnen heel veel games. Het ook gebruiken is een tweede. Veel games geven aan dat ze de max GB in gebruik hebben maar dat is meestal niet het daadwerkelijke.
Men koopt ook telefoons van 1200 euro terwijl je met eentje van 300 hetzelfde kan. In dat opzicht vind ik 1500 nog wel meevallen. Sommige mensen lopen met 2000 euro aan Apple spul rond, dus dan kan dit ook wel. Als je echt het beste van het beste wilt hebben.
NVidia zegt dat hun RTX 3090 kaart eerder vergeleken moet worden met de Titan varianten. Is er een reden dat deze niet in de overzichten staan?
Volgens Nvidia is de RTX 3090 gericht op gebruikers van de Titan RTX en eerdere Titan-kaarten.
https://tweakers.net/nieu...-beperkt-in-voorraad.html

[Reactie gewijzigd door wduijn op 22 juli 2024 20:45]

We hebben helaas geen Titans liggen om mee te kunnen vergelijken.
Maar wel een 8k monitor? ;)
Die kwam toevallig wél net op tijd binnen ;) al had het anders met een virtuele resolutie opgelost kunnen worden.
Hebben jullie Koekie1 een berichtje gestuurd?
Niet geschoten is immers altijd mis! ;)
JayzTwoCents heeft de 3090 vergeleken met de Titan RTX.
JayzTwoCents heeft de 3090 vergeleken met de Titan RTX.
Ja en die heeft ook met en zonder RTX gebenched, maar zonder DLSS jammer genoeg.

Verders een leuke review.
Volgens Nvidia is het een pure gaming kaart, de 3090 is dus een 100% gaming kaart.
GeForce RTX 3090 is speciaal gemaakt voor gaming
https://www.nvidia.com/nl-nl/geforce/technologies/8k/

Aldus Nvidia.
Onzin, is gewoon voor alles.
GeForce RTX 3090, A “BFGPU” For Creators, Researchers and Extreme Gamers,
https://www.nvidia.com/en...tx-3090-out-september-24/

Of toch enkel voor broadcasting?
Bijvoorbeeld een 3060, 3070, 3080 kan ik ook voor alles gebruiken, punt is dat onder andere de 3090 puur gemaakt is voor gaming volgens nota bene Nvidia zelf, de hele marketing is erop gebouwd voor gaming.
Ik haal ergens volgend jaar wel een RTX3080, ik moet het nu maar even met m'n 2070 doen.
De RTX3090 is mij veel te duur voor wat je er voor terug krijgt. Prijs/kwaliteit verhouding is bar slecht vergeleken met een 3080.
Moet het maar even doen met een 2070, alsof dat een straf is :D

Ik moet zeggen dat de stap op 1440p me verbaast t.o.v. mijn 1080, wat ook al geen hele oude/makke kaart is. Had de 3080 gewoon normaal leverbaar geweest had ik er waarschijnlijk al een gehad. Nouja.
Verbaasd als in 'toch meer power nodig om XX/XXX frames te halen op 1440p'?
Dat het gat al zo groot is, waarbij dat tussen de 1080 en 2080 toch relatief meeviel. Ja het is een extra generatie, maar meer dan een verdubbeling had ik niet aan zien komen.
Lol..... 2070.... Ik zit hier nog met een 1060 (6GB) :P
Wees blij met een 1060, je slaat waarschijnlijk de 2000 serie over, dan heb je veel meer aan een 3070/3080 :P. Goed dat je hebt gewacht hahaha
Voor 1080p 60fps is de 1060 goed genoeg (wellicht niet op ultra of high voor toekomstige games), maar ik hoef voorlopig nog niet te upgraden.
Een 1080Ti kan nog een optie zijn, omdat deze 11Gb heeft. Dat is ook tegenover een 1070Ti een flinke upgrade qua performance. Hetzelfde als de 2070 Super.

[Reactie gewijzigd door Luxicon op 22 juli 2024 20:45]

Waarom alleen game benchmarks voor en kaart die voornamelijk gebruikt zal worden in workstations? Had leuk geweest om wat dingen te zien als octanebench of wat opencl en cuda benchmarks. Al is hij inderdaad wel mismarketed door nvidia als gamekaart
nvidia wil deze kaart gewoon meer pushen op gamers, dat deden ze met de titans ook al langzaam (alleen veel minder direct).
Gewoon een kwestie van "ja die markt kunnen we net zo goed er ook wel bij pakken" Professionals kopen die kaarten toch wel omdat:
1. Ze zijn goedkoper dan quadro's
2. Veel software heeft een hardware "lock" voor nvidia door alleen cuda te ondersteunen en niet openCL*
2.2 AMD helaas niet echt concurrentie hier tegen kan bieden

*en ik bedoel de sofware zelf, nvidia zelf ondersteunt wel openCL
De software die ik gebruik werkt prima met openCL op nvidia (Houdini) De renderengines die ik gebruik zijn inederdaad cuda only. Maar de 3090 is juist een kaart die je als 3Der wil hebben, nvidia heeft notabene op hun eigen youtube kanaal hier promo filmpjes voor geupload over waarom het een goede kaart is voor mensen in de visual effects industrie. Beetje gemixte berichtgeving vanuit nvidia inderdaad.
Nvidia heefr net twee van de grootste tech YouTubers ee gigantische zak geld gegeven om een promo filmpje te maken (ja, een promo, want ze mochten geen benchmark tonen) over hoe dit ding op 8k kan gamen.

Daarnaast zijn de driver optimalisaties die je in de Titan kaarten zag uitgeschakeld waardoor de kaart trager is in pro toepassingen dan de Titan rtx., dit is geen titan.

Het is dus 110% correct om dit ding als een gaming gpu te reviewen, want zo zet nvidia hem daadwerkelijk in de markt.
Dat is hoe nvidia hem in de markt zet, ja. Maar de enige mensen die ik die een dergelijke kaart kopen (inclusief ikzelf) kopen hem voor gpu rendering en dergelijke en daar is hij prima geschikt voor, dus dergelijke benchmarks hadden niet misstaan in de review. Is het enige waar ik en vele anderen in geintresseerd zijn, die gaming performance zal me een worst wezen. Had de review net wat completer gemaakt.

[Reactie gewijzigd door Timmmeeehhh op 22 juli 2024 20:45]

Geen informatie over de geluidsproductie?

Dit vind ik toch wel redelijk essentiële informatie. Mocht de 3090 een pak koeler en stiller zijn dan de 3080, zou dat toch een extra argument kunnen zijn om de meerprijs te betalen.
Het heeft weinig zin om een 3080 founders edition te vergelijken met een 3090 AIB op dat vlak. Dan zou je een Gigabyte 3080 en 30980 willen. Ik denk niet dat de 3090 koeler gaat zijn, want meer verbruik, waardoor die waarschijnlijk ook niet stiller zal zijn. Dan kan je beter een custom waterkoeling set kopen met een 3080, stiller, koeler en goedkoper.
Maakt niet uit, zolang ze maar correct weergeven welk model er precies getest wordt geeft het toch een degelijke indicatie van wat je mag verwachten.

Nu ontbreekt alle geluidsinformatie gewoon. Gelukkig zijn er reviews van Guru3D etc die dit wel vermelden, maar normaal geef ik de voorkeur aan Tweakers reviews.
Las in een eerdere reactie van 1 van de testers dat het een aftermarket model is en niet de FE dus daarom hebben ze het weggelaten omdat het geen eerlijke vergelijking is.

Van mij had het wel meegenomen mogen worden alleen dan wel expliciet vermeld dat het geen FE is, dan is het aan de lezer om te bepalen of het nuttig is of niet...

Op dit item kan niet meer gereageerd worden.