Eerste benchmarks van Nvidia GeForce RTX 3090-videokaart verschijnen online

Chinees kanaal TecLab heeft de eerste RTX 3090-review gepubliceerd. Volgens deze review presteert de RTX 3090 gemiddeld 8,9 procent beter dan de RTX 3080 op 4K in 16 geteste games en benchmarks. Ook zijn er benchmarkresultaten op de website Blender verschenen, waar de RTX 3090 gemiddeld 19,8 procent sneller is dan de RTX 3080.

De videoreview van TecLab werd gedeeld op het Chinese sociale medium Bilibili. De review van de RTX 3090 is inmiddels van dat platform verwijderd, maar een kopie verscheen dit weekend op YouTube en ook VideoCardz publiceerde de resultaten. De RTX 3090-prestaties in deze review zijn nog niet bevestigd, dus neem deze resultaten met een korrel zout. TecLab publiceerde eerder echter ook een RTX 3080-review, een week voordat het embargo van die GPU verliep. Die resultaten bleken uiteindelijk accuraat te zijn.

In de review wordt onder andere de RTX 3090 tegenover de RTX 3080 gezet. De tests zijn voor beide GPU's uitgevoerd op hetzelfde systeem, met een Intel Core i9-10900K-processor op 5GHz en DDR4-geheugen op 4133MT/s met timings van 17-18-18-38. Het Chinese kanaal gebruikte hiervoor Windows 10 met Nvidia's 456.38 WHQL-drivers, die officieel al de RTX 3090 ondersteunen. TecLab noemt de RTX 3090 niet bij naam in zijn review. In plaats daarvan zet het kanaal een '10.000 yuan-flagship' tegenover een '5000 yuan-flagship'; dat komt omgerekend overeen met de respectievelijke dollarprijzen van de RTX 3090 en 3080. Ook wordt een afbeelding van de RTX 3090 in de review getoond.

Nvidia RTX 3090 TecLab
Het testsysteem van TecLab, met een '10.000 yuan-flagship-videokaart' en een RTX 3080

TecLab vergelijkt de RTX 3090 en 3080 in 16 verschillende games en synthetische benchmarks. In deze tests is de RTX 3090 gemiddeld 8,9 procent sneller dan de RTX 3080. Het grootste verschil zat in Metro Exodus en Death Stranding, beide zonder RTX en DLSS. In die games presteerde de RTX 3090 ongeveer 11,5 procent beter dan de RTX 3080 op een 4K-resolutie. Het kleinste prestatieverschil werd door TecLab vastgesteld in Forza Horizon 4. Volgens de reviewer presteerde de 3090 daar 4,7 procent beter.

Tegelijkertijd zijn er ook Blender-resultaten van de RTX 3090 verschenen, zo merkte VideoCardz op. De website van Blender toont de gemiddelde rendertijd van de videokaart in verschillende CUDA-workloads, waaronder bmw27 en classroom. Gemiddeld is de RTX 3090 in die tests 19,8 procent sneller dan de RTX 3080. Dit ligt in de lijn der verwachtingen: volgens de officiële specificaties van Nvidia heeft de RTX 3090 ongeveer 20 procent meer CUDA-cores dan de RTX 3080. De boostclock van de 3090 ligt ook iets hoger, met 1,73GHz tegenover 1,71GHz. Twitter-gebruiker Tum_Apisak meldt verder dat de 3090 ongeveer 15,7 procent beter presteert in de GeekBench CUDA-test.

Nvidia kondigde zijn RTX 3090-videokaart begin september aan tijdens zijn GeForce-evenement. De videokaart komt op 24 september uit en op diezelfde datum verloopt het reviewembargo. De RTX 3090 Founder's Edition gaat 1549 euro kosten. Tweakers publiceerde eerder een review van de lager gepositioneerde RTX 3080.

RTX 3090 vs RTX 3080 Blender-prestaties
De RTX 3090 en RTX 3080 in verschillende CUDA-workloads met Blender
TecLab-benchmarks van RTX 3090 vs. RTX 3080, tabel door VideoCardz
Score / gemiddelde fps op 4K-resolutie RTX 3090 RTX 3080 Verschil 3090 / 3080
3DMark Time Spy Extreme 9948 9000 +10,5%
3DMark Port Royal 12.827 11.981 +7,1%
Metro Exodus met DLSS / RTX 74,5 67,6 +10,2%
Metro Exodus zonder DLSS / RTX 54,4 48,8 +11,5%
Rainbow Six Siege 275 260 +5,8%
Horizon: Zero Dawn 84 76 +10,5%
Forza Horizon 4 156 149 +4,7%
Far Cry 5 107 99 +8,1%
Assassins Creed Oddysey 71 65 +9,2%
Shadow of the Tomb Raider met DLSS / RTX 111 102 +8,8%
Shadow of the Tomb Raider zonder DLSS / RTX 91 83 +9,6%
Borderlands 3 67,6 61,3 +10,3%
Death Stranding met DLSS / RTX 175 164 +6,7%
Death Stranding zonder DLSS / RTX 116 104 +11,5%
Control met DLSS / RTX 71 65 +9,2%
Control zonder DLSS / RTX 62 57 +8,8%
Gemiddeld verschil (totaal van alle verschillen / 16) - - +8,9%

Door Daan van Monsjou

Nieuwsredacteur

20-09-2020 • 15:11

204

Submitter: atthias

Reacties (204)

204
200
173
11
1
7

Sorteer op:

Weergave:

Kijkend naar de specs / cuda cores, verwacht je toch wel een 15% tot 20% winst t.o.v. de 3080. Ik denk dat het een kwestie van driver / app optimalisatie gaat zijn.
De 3080 heeft hetzelfde ontwerp, dezelfde architectuur. Die driver en aansturing is hetzelfde.
Zou hooguit in een optimalisatie kunnen zitten mbt geheugenbandbreedte maar dat lijkt mij sterk. Of er moet echt een bug in zitten dat de driver niet met de grotere bus interface van de 3090 overweg kan. Dat kan natuurlijk maar ik verwacht niet dat door driver optimalisaties de voorsprong van de 3090 tov 3080 groter maakt. Die 3080 wordt dan ook sneller...
Als de performance bottleneck niet bij de shaders meer ligt, dan heeft 20% meer shaders toevoegen veel minder als 20% invloed op de performance.
Meer is niet altijd betere. Meer brengt ook veel meer warmte met zich mee in een klein oppervlak hier door kan het voorkomen dat je lager moet clocken om in de zelfde power limit Of temperatuur te blijven .. de 3080 kan misschien meer en langer bootsen omdat het 10% minder warme uit straalt.

Het Samsung 8nm proces was lekker goedkoop, maar ook gewoon slecht, de clocks konden niét omhoog dus om deze kaarten sneller dan de vorige generatie moesten er gewoon veel meer cores in. Waren zij bij tsmc gemaakt dat waren ze veel energie zuiniger geweest en hadden clocks van 2ghs gehaald kunnen worden.

Maar even een praktische problemen
Stel je hebt een 9900k en een 3090 dan dump je al bijna 500 watt aan warmte in je kamertje in de winter is dat best lekker maar een dag als deze... Is het gewoon als of je de verwarming aan hebt staan....
Als je een 9900k draait zou ik er geen 3090 naast zetten idd.
kun je dat nader verklaren?
heb zelf een i9-9900k welke nooit boven 41 graden komt onder zware load zonder liquid koeling. en idle is deze maar ~13/21 graden ligt aan binnen tempratuur van de woning.
hier kan prima een high end gpu langs.
13 graden? Alleen als je kamer 10 graden oid is....41 graden zonder liquid koeling? Dat is onder zware load en met lucht onmogelijk, tenzij het heeeeel koud is in je kamer.
Omdat als je kamer 21°c is de cpu ook 21°c heeft als de pc af staat laat staan als deze aanstaat.

En zo goed als elke reviews geeft idle temps rond de 40°c met een aio.

Doe eens even een 3d mark stresstest en link de resultaten eens.
because....physics is het korte antwoord.

Een CPU met een top luchtkoeler is onder volle belasting ongeveer 50-60 graden warmer dan de inhoud van je computerkast. En je computerkast kan nooit kouder zijn dan de temperatuur van de lucht in de ruimte waar hij staat. Meestal is de kasttemp ongeveer 5-10 graden boven de kamertemperatuur.

Het is onmogelijk met alleen lucht of water te koelen onder de omgevingstemperatuur.

[Reactie gewijzigd door Cheese_man op 26 juli 2024 14:40]

Als je cpu idle 13c is kan het in je kamer max 10c zijn. Eigenlijk 8c. Dat lijkt mij sterk.
Dat maakt de lucht niet permanent koeler...
Nou ben ik geen expert op het gebied, maar als ik het goed begrijp produceert je CPU net zoveel warmte als een luchtgekoelde tegenhanger maar heb jij gewoon een veel efficientere afvoer van diezelfde warmte. Netto wordt de kamer even warm. Los van de discussie of je een i9 9900k met 3090 zou moeten paren, want volgens mij is dat gewoon een puik plan.
De meeste moderne - iig de goeden - maken meer hitte als ze beter gekoeld worden, hij merkt dat de temp goed is en concludeerd "oh ik kan een tiende seconde langer op 4.6 blijven draaien"

En bij gewoon gebruik iets oudere proc en geen throttling heb je denk ik wel gelijk verder hoor.
Als je koeling niet slecht is, is vooral het powerbudget limiterend.
Bijzondere setup heb je dan, wat Cheese_Man al aangaf, als je 13 graden wilt idlen dan moet je kamer 10 graden of kouder zijn. Ik draai een Noctua NH-D15 met een i9 9900k binnen een NZXT H500i behuizing op 5 Ghz @1.22 Volt.

Bij mij onder echte 'full load' tikt de processor de 86-91 graden aan, dan verbruikt die om en nabij 200 watt. Dit is tijdens Cinebench R15, Aida64 en Handbrake. Tijdens het gamen zit te temperatuur over het algemeen tussen de 45-65 graden, afhankelijk van welke game ik speel.

Overigens draai ik momenteel met een GTX 1070, welke onder full load nooit boven de 70 graden komt. Ik ben dan ook van plan om deze te vervangen voor een RTX 3080 over een half jaartje als de prijzen hopelijk weer wat gedaald zijn, maar er zit geen haast achter. Zeker nu ik deze nog niet bevestigde, maar toch enigszins een indicatie, benchmarks heb gezien ben ik al helemaal overtuigd dat een RTX 3090 voor mijn usage overkill en overpriced is.
Aida64 stresstest met fpu aan en alles, op 67c max op mijn 3700x 😁hangt wel een 360 55mm dikke rad aan. (dit na een uurtje, bij 20-22c en kamer werd verlucht) ik was aangenaam verrast ik heb wel het voltage manueel eranderd maakte een enorm verschil.

Speel soms uren monsterhunter op ultra 1440p, ik een redelijk cpu intense game 44-47 graden af en toe een piek tot 60.

Zowel intel als amd zijn mooie cpu's tegenwoordig
Wow, serieuze lage temperaturen! Wel ruimte voor overclocken, of begin jij daar niet aan? ;)

Als ik mijn 9900k downclock naar 4.7Ghz, zal die vast wel wat koeler draaien, maar vrees dat ik niet in de buurt kom van jouw cijfers. Heb ook 5.1 Ghz een tijd gedraaid, maar werd toch wel ietsjes te warm voor daily use, 94-99 graden tijdens full load.

360mm rad outperformed mijn NH-D15 deels denk ik in mijn huidige case, maar warmte oppervlak van jouw CPU is gewoon heel veel groter (en dus beter). Mijn NH-D15 is niet bepaald warm, maar de warmte komt niet echt fantastisch van de CPU af naar de koeler helaas.
Amd en overclocken is niet echt een ding, ik ben al blij dat hij bij gamen rond de 4.3 gHz zit, uitzonderlijk 4.4 zo even bij bvb browsen.( heeft meer te maken met mijn asus moederbord dan de cpu)

Je moet er ook rekening mee houden dat luchtkoeling vaker hoge piek temperaturen heeft, het gemiddelde is belangrijker.

Ik had stock ook eerst temperaturen rond de 90, was 1.48 volt aan het gebruiken stock🤔

Mijn oude i7 3770k ging ruim boven de 95 met fpu aan op aida met fpu aan.
Hoezo niet? Met die logica kun je nooit een high end CPU met een high end GPU draaien.
Wat j1b2c3 zegt: je produceert onder load dan een enorme hoeveelheid warmte. Dat zou ik niet willen en fijn vinden. Zou ik eerder het geld nu in mijn zak houden en een full amd 7nm systeem bouwen met zen3 en rdna2.
Denk dat het deels ook drivers zijn, nog even wachten dat die volwassener zijn.. En als je workloads/games hebt die meer dan 10gb vram gebruiken zal verschil ook groter zijn.
Ow ik was vlak hierna al gestopt met lezen:
De RTX 3090-prestaties in deze review zijn nog niet bevestigd, dus neem deze resultaten met een korrel zout.

Zout zo vroeg in de morgen, nah doe maar een bakje koffie.
04:51? Dat is wel heel erg aan de vroege kant, anders nu een bakje koffie met zout? ;)
Doelgroep is dus eigenlijk alleen mensen die het snelste van het snelste willen hebben zonder dat prijs belangrijk is. Want 9% extra voor een twee keer zo hoog bedrag is niet bepaald waar voor je geld.
Ik had begrepen dat de 3090 wel een SLI connector heeft, wat bij de 3080 ontbreekt.
Doelgroep lijkt mij dus wel duidelijk.
Wie gaat nog SLI aanschaffen als nVidia zelf de stekker daaruit trekt? nVidia zal vanaf begin 2021 geen drivers voor SLI meer ontwikkelen en laat de ondersteuning over aan de game ontwikkelaars. Dat zal dus snel een stille dood sterven...
SLI hoeft niet meer door Nvidia te worden gemaakt.
Multi GPU support kan tegenwoordig door de developer worden enabled in de engine wanneer DX12 of Vulkan wordt gebruikt. Daarom stop Nvidia met het maken van profielen voor SLI in de driver. Scaling is tegenwoordig ook veel beter via die weg en zeker met NVLink.
Dus die stille dood die je aangeeft is juist andersom. Het wordt nu veel breder toepasbaar en zelf GPU merk onafhankelijk. Dus je kan straks wat extra power krijgen van je iGPU of een Nvidia en AMD mixen.

[Reactie gewijzigd door Possemaster op 26 juli 2024 14:40]

Dus die stille dood die je aangeeft is juist andersom. Het wordt nu veel breder toepasbaar en zelf GPU merk onafhankelijk. Dus je kan straks wat extra power krijgen van je iGPU of een Nvidia en AMD mixen.
Volgens mij vergeet je hier te vertellen dat games het moeten ondersteunen, wat dus extra werk voor de ontwikkelaar is.. in andere woorden gaat bijna niemand dat doen en zal het langzaam afsterven (IMO is het nu al zo goed als dood)
SLI gaat een stille dood sterven dat klopt het is mGPU dat nu een opmars maakt, het is onderdeel van Vulkan of DX12. En wanneer je de API als engine ondersteund heb je deze opties "gratis" ter beschikking.
Onderstaande een lijst waar je de mGPU optie gewoon hebt ZONDER Nvidia support voor SLI.
En daarnaast ook nog veel betere scaling. Rise of the Tomb Raider heeft bijna perfecte scaling. Wat bij SLI onmogelijk was.
  • Ashes Of The Singularity
  • Rise Of The Tomb Raider
  • Total War: Warhammer
  • Civilization VI
  • Hitman
  • Gears of War 4
  • Sniper Elite 4
  • Halo Wars 2
Bron: Ik gebruik het zelf en --> https://en.everybodywiki....s_with_DirectX_12_support

[Reactie gewijzigd door Possemaster op 26 juli 2024 14:40]

dat is maar net hoe je het bekijkt.
Nvidia wil er geen moeite meer in steken om het op driver Niveau te ontwikkelen.

En ja, als developper kun je er zelf de ontwikkel uren in steken. Maar ontwikkel uren kosten veel geld.
En zolang <1% van de mensen SLI heeft zijn er betere dingen waar ze hun tijd aan kunnen besteden.
Exact. Een developer moet dan veel tijd en geld gaan besteden aan het optimaliseren van de game voor mensen die niet een, maar twee videokaarten van 1.200+ euro aanschaffen. Dat zijn een opzichte van de totale markt zo bizar weinig mensen, dat gaan ze echt niet doen. Tenzij je als developer of uitgever wilt pronken met een soort paradepaardje qua visueel geweld. Maar dat zijn de meeste games al op 4k en daarvoor heb je maar een enkele 3080 nodig. Dus een enkele 3090 is meer dan voldoende.

Een nvlink 3090 systeem om te gamen heeft alleen nut voor 8K of bizar hoge fps. En dat laatste boeit de meeste developers echt niet.
48gb videogeheugen.. man man vraag me af wat men daarmee wil bereiken.

Maar ja doelgroep is duidelijk
Heel grote neurale netwerken trainen.
realistische 3d-renders met hele hoge resolutie textures
Doelgroep is de mensen die naar de prijs van de 3090 kijken en dan vinden dat de 3080 een nette prijs heeft. Een heel oude truc in het marketingboekje.
Ik vond de 3080 sowieso nog meevallen qua prijs, in vergelijking met voorgaande generaties. Als je een 1000 series kaart hebt is het een forse upgrade. Uiteraard zou ik het liefste weer 200-300 betalen voor een high end kaart, maar dat is jaren alsniet decennia geleden de norm.

Een vriend van mij die de 3080 wilde had besloten dat hij zelfs bij 1000 euro het zou overwegen, mits de uitgelekte benchmarks bleken te kloppen. Uiteindelijk deed de kaart het in sommige spellen beter dan ik had verwacht, én was die ook nog eens beduidend goedkoper. 720 euro leek ons dan toch een zeer goede prijs.
Laatste high-end kaart voor om en nabij de 200 euro was de ATI Radeon HD 4870.
Dat is 12 jaar geleden.

De 3080 is duur maar presteerd absoluut bizar goed.
In tegenstelling tot de 20xx serie een echte generatie stap vooruit.
Ja, exact. Hij is duur, maar de prijs/kwaliteit vergeleken met de laatste zoveel generaties is helemaal niet zo verkeerd.
Uiteindelijk deed de kaart het in sommige spellen beter dan ik had verwacht, én was die ook nog eens beduidend goedkoper. 720 euro leek ons dan toch een zeer goede prijs.
Welke spellen zijn dat als ik vragen mag? want voor mij presteert de kaart overal minder goed dan verwacht (puur door de Hype)

Prijs is wellicht ok voor vele, maar voor mij alleen als je het vergelijkt met de zwaar overprijsde 2 Serie van Nvidia, dus eigenlijk valt dat ook wel mee
Weet ik even niet meer zo gauw uit mijn hoofd welke. Ik meen dat onder andere Rise of the Tomb Raider het goed deed, maar die heeft ondertussen iedereen wel al gespeeld. Doom Eternal deed het geloof ik ook vrij goed.

In sommige spellen zat ruim een verdubbeling van de FPS ten opzichte van de 1080ti. Dat vond ik toch wel netjes.
Echter weten we de échte prijs nog niet want er zijn vrijwel geen beschikbare kaarten
Vond de prijs ook wel lekker van de 3080, jammer dat ie voor de meeste pas over een paar maanden verschijnd.
exact ;) netzoals dat de medium popcorn alleen bestaat om de large popcorn te verkopen.
Dat is zeker niet hetzelfde, want daar ga je er juist vanuit dat mensen de grotere variant kopen omdat het verschil zo minimaal lijkt (in de praktijk is je middelste variant te duur).
Dat doet Nvidia natuurlijk ook met de 3070 :+
Ik bedoel ermee dat het eenzelfde soort truck is om de prijs redelijk te doen lijken, niet dat het precies dezelfde uitwerking heeft.
http://www.theexponential...ology-of-popcorn-pricing/
In de praktijk is alle popcorn te duur. Je kunt beter zelf maïs poffen 😉 Maar ik snap je vergelijking.
Dat is natuurlijk afhankelijk van je uurloon :+
Je hebt gelijk. Ik ga voortaan m'n eigen videokaarten maken. :>

[Reactie gewijzigd door DeathMaster op 26 juli 2024 14:40]

Haha, nouja zeker bij de bioscoop ben ik het met je eens ;) Maargoed, het gaat erom dat je positionering (en het product wat je verkoopt) precies andersom is in het voorbeeld t.o.v. een 3090.
Dacht dat het juist was dat de medium degene is waar men voor gaat "niet te groot, niet te klein" en die juist overpriced is.
Nee, prijsverschil tussen medium en large cola of popcorn is erg klein, waardoor iedereen denkt "voor die paar cent neem ik de large wel".
In marketing, the Goldilocks Effect/Principle/Theory is to offer versions of a product at high, mid and low prices with the aim of encouraging the buyer to purchase the mid-priced product rather than a cheaper product.

https://medium.com/@Winst...er-marketing-dfb87f4fa58c

De naam schoot me zowaar weer te binnen :)
neehoor, bij popcorn is specefiek hiernaar onderzoek gedaan. http://www.theexponential...ology-of-popcorn-pricing/
Het enige wat ik redelijk bizar vond is (was?) bij KFC geloof ik dat je kon kiezen uit formaten frisdrank, maar dat er wel een gratis refill was. WTF? Wie kiest er dan nog voor large, dan ben je wel heel lui :D Ik weet niet zeker of dat nog steeds zo is, maar goed...
Niet altijd.. ik ben al diverse malen tegen gekomen dat je financiëel wordt gestraft bij de grotere variant..iets als: medium, 0,3l voor €2,75 en groot, 0,5l voor.. .. €5,25.. het blijft opletten dus! :+
Valt wel mee die 5600 is best een leuk kaartje van amd als je een full HD monitor hebt, dan heb je niet hoger nodig, maar eind oktober gaat amd hun nieuwe lijn bekend maken we zullen dan zien wat hun antwoord hier op is, het loont om nog even te wachten als je een nieuw systeem wil gaan bouwen.
De nieuwe nvidea kaarten zijn toch zo goed als niet beschikbaar.
Weer zo'n "op 1080p heb je niet meer nodig"...
Met welke settings en met welke fps dan?
Er zijn zat games die niet lekker 144fps (of meer) draaien met alles high op 1080p met een 5600...

Niet iedereen gamed op 60 hz en neemt genoegen met 60 fps ;)

[Reactie gewijzigd door HugoBoss1985 op 26 juli 2024 14:40]

Niet iedereen speelt AC of RDR2. Voor competitive, middelzware games en racing etc. is de 5600 XT gewoon een prima kaart voor 1080p (100 fps), soms zelfs nog voor 1440p (60 fps)
Het verschil tussen 100 fps en 144+ fps is voor mij gewoon merkbaar.
Inderdaad, die heb ik in ieder geval allebei nog nooit gespeeld :D
Dan nog de game: Hunt: Showdown (ken jij die?) waar de 5600 niet genoeg is voor 1080p high settings en 144 fps.
Dat is een competitive game.
Tenminste, wel voor mij (in de top 200 van de wereld met KD Ratio).

Kortom (herhaling): het is maar net wat je eisen zijn maar voor 1080p high settings is een 5600 niet altijd genoeg voor 144 fps of meer.

[Reactie gewijzigd door HugoBoss1985 op 26 juli 2024 14:40]

Het gaat hem voornamelijk erom dat de "meesten" niet meer nodig hebben om mooi te gamen op 1080p.
Competitief gamen is op zich al een soort niche, aangezien het al snel een stuk prijziger wordt om een 144Hz+ monitor en een (iig) net boven midrange kaart te kopen (dan bedoel ik hoger dan 2060/5600).
Prijsverschil is al snel 300-500 euro voor monitor en grafische kaart.
Edit: Niet iedereen heeft dat ervoor over om van hun hobby een sport te maken.
Daarnaast zijn de meeste competitieve games alsnog goed geoptimaliseerd waardoor je met een midrange kaart alsnog 100+ FPS haalt, natuurlijk wisselt dat per game.

Kortom, voor het gross van de casual gamers is een 5600 of 2060 (/1660) meer dan voldoende voor 1080p gaming. Maar zoals altijd geldt dat je voor sommige doeleinden beter wat meer kunt uitgeven, mits je dat ervoor over hebt

[Reactie gewijzigd door TheMuffinDoctor op 26 juli 2024 14:40]

Dat klopt. Maar ik ben het dus totaal niet eens met hem. Hij noemt maar 2 games en heeft het niet over grafische settings. En hij stelt dat competitive gaming en 100fps samen gaan.
Misschien voor sommigen... maar 144fps is soepeler op een 144hz scherm dan 100fps. Ik denk dat pro CS gamers het ook niet met zijn stelling eens zijn 😂
De prijzen van een 144hz tn scherm vallen reuze mee. Sub €200.
En een Vega 56 (jij bedoeld sneller/nieuwer/duurder) kost tweedehands €175,00.(€365 toen ik deze 2 jaar geleden kocht). Ik speel Hunt: Showdown op low settings met redelijk stabiel 144 fps... op high zakt het vaak naar 70.

Dus tja op low settings zal een 5600 perfekt zijn...

Op mijn couch gaming systeem kan ik "mooi" gamen op de 1080p 60 hz tv icm een GTX 970 en 60 fps. Maar dat is dus niet competitive en appels met peren vergelijken.

[Reactie gewijzigd door HugoBoss1985 op 26 juli 2024 14:40]

Je haalt er zelf ook wel een game uit.. De games waar het echt uitmaakt om zo hoog mogelijk fps te halen en stabiel te blijven zijn op 2 handen te tellen. Wat het niet wegneemt dat andere games dat niet mogen.
Maar het probleem met jou game is dat het ook voor console is. Enkel nu met de nieuwe generatie consoles zullen games nauwer naast het PC-universum liggen.

Ik zeg al jaren dat consoles het verpest hebben voor de PC-gamers. En jij bent daar blijkbaar ook de dupe van :).
In fps toch altijd?

Hunt was volgens mij eerst voor de pc en kwam later op de console :)

[Reactie gewijzigd door HugoBoss1985 op 26 juli 2024 14:40]

En dat hebben ze voor of na het maken van de game besloten?
Geen idee eigenlijk. De eerste release op Steam (early access) was ruim een jaar voor de xbox (early/test/etc) versie.
Hunt maakt overigens ook gebruik van veel cpu cores, echt een multithreaded game.
Geen idee of dat iets zegt over console/pc optimisatie (dat bedoel jij).
Speel gewoon maar de laatste Flight simulator, gaat niet veel meer overschieten van een fijne 1080p ervaring...
Volgens mij word dit nagenoeg elke generatie gezegd over de middenmoot kaart (xx60) en die houdt het nooit echt langer dan 1 a 2 jaar vol voor 1080p60 op high settings (kijkende naar mijn eigen ervaring met de gtx960)
2 gens terug met hindsight
RX480-580 -> GTX 1060
RX470-570 -> GTX 1050TI
Amd iets hoger stroomverbruik en heeft niets te bieden tegenover Nvidia GTX1070+

RX5700XT->RTX2070
RX5700->RTX2060
GTX 1660ti -> RX590

Ze hebben al heel lang geen topmodel waar je ook maar iets mee kan.
Ook die 290x niet als je mij vraagt. Dan vind ik de 5700XT en de RX480/580 een beter product dan die beenverwarmer 290x
Flauwekul maar ja goed het probleem met de snelle jongens van AMD was dat bijvoorbeeld de snelle 390x zo heet werd dat je niet meer in dezelfde kamer wou verblijven waar het ding aan stond.
Dat AMD niets moois maakt is je reinste BS, de XT 5700 XT is een prachtige kaart welke zeer goed zijn werk doet en ook nog eens fluister stil.
Hij lijkt inderdaad ook vooral bedoeld voor mensen die veel CUDA cores nodig hebben. Daar lijkt hij in uit te blinken. (3d rendering/video editing enzo.)
Maar het is een pure gaming videokaart voor gamers dus... aldus Nvidia.
GeForce RTX 3090 is speciaal gemaakt voor gaming, is sensationeel krachtig en heeft een enorme framebuffer van 24 GB waarmee je veel populaire games op 8K kunt spelen. En met ondersteuning voor HDMI 2.1 kun je je pc met slechts één kabel aansluiten op je 8K-display.
https://www.nvidia.com/nl-nl/geforce/technologies/8k/

[Reactie gewijzigd door Enchantress op 26 juli 2024 14:40]

Edit:
Voordat je mijn post op waarde schat nodig ik uit de reacties te lezen. Het blijikt dat ik , mea culpa, verkeerde informatie heb zitten verspreiden! Mijn post behoeft nuance zoals aangevuld in de reacties.

Ik lees dat ook als een bevestiging dat deze kaart niet voor Deep Learning geschikt is - een toepassing waar Nvidia in het verleden specifiek kaarten voor heeft uitgebracht:

https://stackoverflow.com...e-learning-via-tensorflow

TL;DR ze passen de kaart zo aan dat specifieke berekeningen die voor Deep Learning geschikt zijn minder snel zijn. Of ze optimaliseren zo dat berekeningen die vaker bij games voorkomen zo snel mogelijk gedaan kunnen worden.

Langere uitleg:
Quadro GPUs aren't for scientific computation, Tesla GPUs are. Quadro cards are designed for accelerating CAD, so they won't help you to train neural nets. They can probably be used for that purpose just fine, but it's a waste of money.

Tesla cards are for scientific computation, but they tend to be pretty expensive. The good news is that many of the features offered by Tesla cards over GeForce cards are not necessary to train neural networks.

For example, Tesla cards usually have ECC memory, which is nice to have but not a requirement. They also have much better support for double precision computations, but single precision is plenty for neural network training, and they perform about the same as GeForce cards for that.

One useful feature of Tesla cards is that they tend to have is a lot more RAM than comparable GeForce cards. More RAM is always welcome if you're planning to train bigger models (or use RAM-intensive computations like FFT-based convolutions).

If you're choosing between Quadro and GeForce, definitely pick GeForce. If you're choosing between Tesla and GeForce, pick GeForce, unless you have a lot of money and could really use the extra RAM.
Komt er dus op neer dat Nvidia 3 toepassingen ziet: CAD, Deep Learning, Games.

Voor sommige specifieke toepassingen wil je double precision berekningen hebben. Die zijn zoals de naam aangeeft preciezer maar ook langzamer. Voor games heb je dat niet nodig, en wil je liever hardware die single precision geeft.

disclaimer: ik hoor de bel maar kan je niet tot in detail vertellen waar de klepel hangt

[Reactie gewijzigd door Michael_OsGroot op 26 juli 2024 14:40]

Uit jouw eigen quote:
The good news is that many of the features offered by Tesla cards over GeForce cards are not necessary to train neural networks.
Dus waarom zou een 3090 niet voldoen voor Deep Learning? Volgens dat verhaal is de belemmering van GeForce kaarten de double precission rekenkracht, maar als deep learning dat niet nodig heeft, voldoen ze prima.

Wat zover mij bekend wel nodig is, is een hele hoop VRAM (wat een 3090 heeft), en een hele hoop floating point berekeningen, waar de nieuwe 30XX serie sowieso erg goed in is (ten kostte van integer rekenkracht).
De 3090 is een geweldige kaart voor DL, net zoals de 2080 Ti dat was. Maar dat zal NVidia zelf natuurlijk niet zo snel zeggen omdat ze dezelfde architectuur liever voor een 3x hogere prijs verkopen onder het mom 'Tesla Deep-Learning GPU'.
Sorry, als data scientist moet ik zeggen dat je post van geen kant klopt. De RTX 30x0 serie is juist zéér geschikt voor deep learning. Je hoeft echt geen over the top dure Tesla kaart te kopen.
We hebben in ons cluster veertig 1080Ti kaarten. Werkt prima, inderdaad. Die Tesla kaarten zijn achterlijk overpriced, naar wat je er voor krijgt.
Als toevoeging (van iemand die weet waar de klepel hangt maar de bel niet hoort)
Single / double precision berekeningen nemen vooral meer ruimte in (grotere getallen) wat zich vertaalt in meer RAM en een hogere benodigde bandbreedte om die getallen te be/verwerken. Daarom schaalt meer cores/meer ram zo lekker in dit soort berekeningen. De enige reden waarom je voor kaarten met ECC geheugen zou willen gaan is als je absoluut niet wilt dat tijdens 1 van de berekeningen een bitje omvalt en dit niet gedetecteerd wordt waardoor de uitkomst van je berekening dus niet meer klopt.
Daar had makkelijk kunnen staan met het woordje 'ook'.

Want het is natuurlijk wel onzin dat een editor (3d, video of foto) dit niet zou kunnen gebruiken. En al helemaal met zoveel ram (3d).

Op dit moment is de 3080/3090 beste koop voor semi-professional op het gebied van editing (en ook voor vele pro's)
Dat is maar de vraag, er wordt niet de support en drivers (stabiliteit) geleverd en gegarandeerd zoals bij de Quadro kaarten, dit blijven consumenten kaarten. Als Pro speelt dat iik mee en ga je niet lopen gokken met een consumenten kaart. De Quadro kaarten gebasseerd op deze serie GPU's komen ook vanzelf, met natuurlijk bijbehorende prijs en support.

[Reactie gewijzigd door _Dune_ op 26 juli 2024 14:40]

Op de presentatie stelde Jensen hem voor als een "BFGPU Titan-class kaart. Dit is wat Nvidia zegt over Titan: "designed for researchers, developers and creators."

Daarnaast ken ik maar weinig mensen die Quadros gebruiken voor 3D rendering, zelfs Nvidia gebruikt andere kaarten.

Sedert de 2000 series ondersteunen de GeForce kaarten trouwens ook gewoon 10 bit output dus ik zie weinig meerwaarde in Quadros voor 3D, video of foto. Het ECC geheugen kan misschien een vereiste zijn voor sommige simulaties maar verder kan ik niets bedenken.

24GB vram voor deze prijs is ongekend en heel wat freelance artiesten kunnen dit alleen maar toejuichen. Reken er maar op dat elke 3D artist voor een 3080/20GB of 3090/24GB zal gaan.
ja maar dat is wel geen rendering voor een werkstation, hetgene jij daar aanhaalt. Verder ken ik dan weer best veel bedrijven die wel Quadro's gebruiken. Bijgevolg anekdotisch bewijs.
As we’ve seen, then, Gaming and Automotive maintained their revenue contribution above 55% and around 5%–6% between fiscal 2016 and 2019. Datacenter exploded, increasing its revenue contribution from 6.7% to 25% of Nvidia’s revenue during that period. But one segment that showed a reverse trend was Professional Visualization or ProV, which reduced its revenue contribution from 15% to 9.6%. This drop was due to slow growth in the workstation market.

This trend doesn’t mean that the ProV segment didn’t grow. It grew 11% year-over-year in fiscal 2017 and 2018. But the real growth came in fiscal 2019, when the segment’s revenue grew 21% as Nvidia launched ray-tracing technology. Nvidia’s first ray-tracing Turing product was a Quadro GPU for the workstation. The ProV segment has growth potential. But this potential isn’t as high as the automotive or datacenter segments.

As more developers and designers adopt VR/AR (virtual/augmented reality) and ray tracing technology, the demand for Nvidia’s Quadro will rise. However, AMD will continue to offer stiff competition in the workstation GPU market by providing better value for customers’ money.
.oisyn Moderator Devschuur® @keejoz20 september 2020 18:01
Daarnaast ken ik maar weinig mensen die Quadros gebruiken voor 3D rendering
Quadros zijn traditioneel gezien ook helemaal niet voor de rendering, maar voor de viewports. Ze hadden typisch veel meer vertex shaders om soepel door de scene te kunnen navigeren en aanpassingen te doen.
Ben ik het niet mee eens. Ik ken een aantal grote marketing agency's uit Nederland die gewoon 2070ti's gebruiken en geen quaddro. Zelfs Blender zelf gebruikt bij uitstek vaker 2070ti of deze zelfs in SLI vorm.

Geloof ook wel weer dat er verschillende gradatie's zijn. Bijv. een Pixar/Dreamworks of een CD Project Red, zullen mimfrt 2070ti's gebruiken. Maar een YourMajesty uit A'dam bijv. wel (en dat is geen kleine jongen)
2070 ti? Volgens mij bestaat dat niet :P
Waarom denk je dat een marketing bureau echte duizenden euro's kostende render kaarten nodig heeft.
Wat zij daar renderen zijn op zijn zachtst gezegd speelgoed vergeleken met andere werkzaamheden.
En ik denk toch echt niet dat die met vrij lage marges zich gaan vergrijpen aan de stik dure quadro kaarten of de amd equivalenten. Welke nog steeds net zo prijzig zijn.
Aan de andere kant moeten we beseffen dat als je mindere kaarten gebruikt het alleen maar veel langer duurt voor iets klaar is, althans als je geen super heftige render projecten hebt.
Op veel plaatsen waar ik heb gewerkt konden ze echt niet zonder een renderfarm waar toch echt allemaal AMD/NVIDIA naar gelang het werk in server ruimtes stonden sommige zelfs met een stuk of 20 racks vol.
Aan de andere kant zijn de huidige video kaarten die aan consumenten worden verkocht dusdanig krachtig dat er wel een kleine verschuiving heeft plaatsgevonden.
Simpelweg omdat bij veel kleine bedrijven die nog oude PRO kaarten gebruikte er achter kwamen dat de nieuwe consumenten telgen krachtiger bleken dan deze oude zeer dure kaarten.
Dus de keuze voor bedrijven om niet over te stappen naar de nieuwste PRO kaarten is goed te verdedigen als het eigenlijk overkill is voor de prijs die je er voor betaald.
Ik zelf heb tegenover mij een designer wonen en deze heeft mij om advies gevraagd omdat zijn pc de render taakjes niet zo goed meer aan kon, ik heb hem dan ook aangeraden om een nieuwe 3080 te kopen want dat is vele malen snelle dan zijn huidige dual quadro setup.
Hij is dan ook veel minder geld kwijt en kan hierdoor voorlopig vooruit en als hij meer nodig heeft kan hij er nog 1 bij prikken en de kosten blijven heerlijk laag voor hem. Want als je naar de nieuwe quadro prijzen gaat kijken snap je waarom kleine bedrijven zoals het door jou genoemde buro niet deze kaarten willen kopen.
Misschien dat het verschil op 8k groter is?
Je vergeet de tensor cores, volgens mij is dit een kaart dat vooral in de AI omgeving gaat gebruikt worden
Dan gebruiken ze de Quadro kaarten. De GTX kaarten zijn voor gaming
Vind dat je gelijk hebt.

Het gebruik van een render-pc zou interessant kunnen zijn. Als je een animatie renderd die 6 uur duurt, heb je 10% minder render tijd.

Volgens mij waren de RTX-plugins voor Blender nog niet geoptimaliseerd voor de 30xx serie, dus wellicht kan dat nog verbeteren.
Offline renderen is sneller, maar ook online renderen (eigenlijk is er geen verschil meer). In software zoals Blender is dat ideaal, want je ziet direct wat de productiekwaliteit wordt als je bijvoorbeeld parameters van materialen of belichting aanpast. De productiviteit gaat daardoor enorm omhoog. In je previews kan je nu heel weinig samples gebruiken omdat de Optix denoiser super goed is geworden.
Ja dat slaat inderdaad echt nergens op. Dat laat AMD ook op dit moment flink achter staan
Animatie rendering schaalt bijna evenwijdig aan de Gpu-power. Daar kun je dus beter voor 2x 3080 gaan dan 1x 3090 voor dezelfde prijs.

En het loont zelfs om een duur E-ATX-bord te kopen als je er daar 4 3080’s in kwijt kunt versus 2x 3090.
Ja ik was van plan een 3090 te kopen, maar denk nu toch nog even twee keer na. Het is jammer dat er gen normaal functionerende SLI oid is, anders zou je 2x 3080 kunnen doen voor hetzelfde geld, en hier krijg je 10-20% (wat wel logisch is met 20% meer cores). Ik wil wel graag VR supersamplen naar 8k res, maar vraag me af of dat veel scheelt.
Eigenlijk altijd al zo geweest. Dit is gewoon een bekende economische techniek om meer te verdienen. Je hebt je top-of-the-line product voor mensen die het maximale willen, je hebt een midden segment met allemaal variaties voor de mensen die prijs bewuster zijn, en dan heb je een budget serie voor de mensen die wel jouw product willen, maar die anders gedwongen zijn om een goedkopere concurrent te kopen. Zie ook auto's, pindakaas en dergelijke.

Ik benader computer onderdelen eigenlijk andersom. Voor ~350.- euro koop ik elke 3 jaar een videokaart die twee keer zo goed is als mijn vorige kaart.
Doelgroep is mensen die het in een workstation gebruiken. Daar haal je het meest uit de 3090.
Als je je geld ermee verdient maakt de meerprijs niet uit.
Doelgroep v.d 3090 is voor mensen die demanding 3D workflows hebben waar 24GB aan ram belangerijk is. Zie dit filmpje of uiteraard andere workloads die veel geheugen nodig hebben.

Voor gaming is de 3080 met 10GB aan Vram genoeg, vooral nu nvidia bezig is met technieken zoals DLSS 2.0 en dat natuurlijk ook niet stilstaat.

[Reactie gewijzigd door lithiumangel op 26 juli 2024 14:40]

Ik denk dat de doelgroep mensen zijn die stoeien met deep learning. Die hebben ook echt wat aan de 24GB op de rtx 3090
Het extra geheugen kan voor sommige specifieke toepassingen ook zinvol zijn, maar dan is een vergelijking met de Titan RTX waarschijnlijk zinvoller dan met de 3080.
Bevestigd wat ik al een tijd zie , geen innovatieve architectuur die meer met minder power als output heeft,
Maar alles wat :"beter" is is in principe behaald door meer power toevoer en dus voor mij niet interessant
Is een rare case dit, het is vooral het geheugen wat meer verbruik heeft veroorzaak en niet zozeer de GPU zelf. Overigens zorgt een 50watt minder stroomgebruik voor maar 4% minder prestaties bij de Geforce 3080, iets wat lijkt te duiden op dat deze kaarten aardig overclocked van de lopende band komen.

https://www.reddit.com/r/..._lower_tdp_wouldve_meant/

[Reactie gewijzigd door Sn0wblind op 26 juli 2024 14:40]

Wat mij betreft is de prijs niet goed te noemen. De 2080Ti is ten opzichte van de 2080 ook zoveel duurder, maar presteert duidelijk beter. De 3090 heeft veel vram, maar er komen ook 3070 en 3080 kaarten met meer geheugen (en ook de super versies). Vandaar begrijp ik de prijs van 3090 niet, tenzij nieuwe drivers voor een flinke boost kunnen zorgen.

[Reactie gewijzigd door Luxicon op 26 juli 2024 14:40]

Dat heeft Nvidia slim gedaan door geen SLI op de 3080 te zetten kunnen ze meer vragen voor een 3090 ondanks de magere stijging van gaming performance.
Het is meer een nieuwe Titan die voor zakelijke toepassingen met het geheugen en SLI zeker een grote stap vooruit is tov de 3080.
Voor gamers blijft de 3080(ti) de sweets pot voor 4K.
vergeet niet het nieuws dat Nvidia stopt met SLI profiles etc, maar developers gaat helpen met het opzetten van DX12 Multi-GPU, aka het systeem detecteerd en game verdeeld taken aan 2 GPU's die zelfs technisch gezien verschillend kunnen zijn. als dit goed gedaan wordt was de schaling volgens MS beter dan SLI/Crossfire.
Dan blijft alleen het geheugen voordeel over lol :P Tenzij de 3080Ti 16 of 20 gb VRAM krijgt.
Eerlijk gezegd weinig van meegekregen en geen idee hoever ze zijn met die ontwikkeling, maar inderdaad een goede aanvulling (Y)
ja die 20gb versie klinkt dan heel leuk als je dual gpu wilt doen, probeer zo een beter technische uitleg over dx12 M-GPU te vinden maar zie zo nog niks nuttigs omdat er lang niet veel meer is gedaan helaas. Ashes of Singularity en Hitman 2 zouden 2 games moeten zijn die het ondersteunen maar ook daar wordt niet vaak mee getest is die scenario's.

wat meeste bronnen overigens zeggen is dat de DX12 methode wel resource pooling doet maar dat dus ook vaak problemen opleverd. Het zou dus moeten "stacken" als je 2x 3080 10gb gebruikt moet je een pool krijgen van 20gb, dit is altans hoe een van de devs van Ashes of Singularity het uitlegde tijdens een demo in het verleden : https://www.youtube.com/watch?v=9cvmDjVYSNk

[Reactie gewijzigd door ranarick op 26 juli 2024 14:40]

De prijzen van de kaarten met dubbel geheugen gaat denk ik ook wel fors hoger zijn, dus die maken dat gat tussen die prijzen wel dicht. (3080 met 20GB zal denk ik wel over de 1000 euro gaan).
10% voor bijna 2x de prijs...
De 3090 is de opvolger van de RTX Titan. Iets minder belachelijk geprijsd maar uiteindelijk nauwelijks meerwaarde voor een forse meerprijs. De 3950X kost ook in de buurt van 2x zoveel als de 3900X terwijl hij maar 25% meer cores heeft en in de meeste applicaties nauwelijks winst levert omdat de boosts niet noemenswaardig hoger zijn. Halo/Flagship products nou eenmaal.
Is de Titan niet meer ook voor AI? Titan had in de tijd van de GTX 780 (ik loop wat achter) ook veel meer dual-precision power dan single-precision.
Dat was volgens mij de enige titan die extra DP had ten opzichte van Geforce.
Titans werken prima voor AI. In die markt is het echter meer een budget instaps-model voor individueen en kleine bedrijven die niet aan de Quadros of Teslas kunnen of willen beginnen. Het is een beetje een crossover geval.
Als de geruchten kloppen (Want we weten nog niet wat AMD gaat uitbrengen) is dit een 'safe' uitbrengen van een nieuwe kaart. Stel dat AMD een nieuwe kaart uit brengt die beter is dan de titan willen ze liever dat de 3090 verliest dan een titan. Komen ze niet in de buurt brengen ze waarschijnlijk alsnog een titan uit.
Dat zou kunnen maar ik verwacht eingelijk niet dat ze de A100 chips op consumentenkaarten zetten. En als ze het wel doen, dan zal de prijs astronomisch zijn, zelfs voor Titan begrippen.
10% is extreem voor een kaart die al op 8NM compleet uitgeknepen \@ 320w loopt, en dan nog 10% er boven op. dan is 10% best extreem

[Reactie gewijzigd door A87 op 26 juli 2024 14:40]

Het power budget is ca 10% hoger, van 320W naar 350W.

Dus zo vreemd is het dan niet dat er niet veel meer uit te halen valt.
Met zijn prijs lijkt de kaart zich te richten op toepassingen waar veel VRAM noodzakelijk is.
Is dat laatste niet meer de Quadro kaarten?
Tsja dat is nog een prijsklasse hoger..
Is dat laatste niet meer de Quadro kaarten?
Ja de GeForce RTX 3090 is die prijs absoluut niet waard, is gewoon absurd €1550,- voor een grafische kaart die maar gemiddeld 10% sneller is dan de GeForce RTX 3080, en 2x zo duur is als de goedkoopste GeForce RTX 3080.
8K DLSS en 8K texture packs.
8k is 16x meer pixels dan 4k dat is ziek. Zelfs een scherm van 3 bij 3 meter is dan haarscherp

[Reactie gewijzigd door A87 op 26 juli 2024 14:40]

Tsja, misschien is de rtx3090 wel gebaat bij PCI XPress 4.0, iets wat Intel systemen tot op heden niet ondersteunen volgens mij..
Ermmm, nee, geen 16x maar 4x meer pixels:

4K = 3.840 × 2.160 = 8.294.400 pixels

8K = 7.680 x 4.320 = 33.177.600 pixels

33.177.600 / 8.294.400 = 4x meer pixels

Of gewoon; 2x breedte + 2x hoogte = 4x ;)
Volgens mij is 8k twee keer zo breed en twee keer zo hoog als 4k (3840x2160 vs 7680x4320) Dat is dan dus 4x zoveel pixels als 4k, 16x zoveel pixels als 1080p :)
Dat is dus afhankelijk van wat je er mee doet, 10% op de ene plek, 20% op de andere. En als je bv rendered dan is 20% toch zeker wel, in de professionele wereld, die extra prijs wel waard, immers zit je designer dan 20% korter te wachten als het ware, dat heb je dan binnen een hele korte tijd er weer uit.
Maar.... maar.... het was toch een videokaart om met ray tracing op 8K te gamen Nvidia...? :+
Ja en ze hadden ook gezegt dat de 3080 2x de kracht had van een 2080ti. En ook dat bleek 9/10 keer niet zo te zijn. En je kan er vast een RT game op 8k mee spelen.
Dat heb je verkeerd gelezen.

De 3080 moest de snelheid hebben van 2 x de 2080 non-super.
Geen Ti en geen Super. 2 x 2080 non-super.
En in benchmarks is dat 90% het geval.
De 3080 moest de snelheid hebben van 2 x de 2080 non-super.
[...]
En in benchmarks is dat 90% het geval.
Hm?

Volgens HardwareUnboxed:
47% sneller dan 2080 in 1440p
68% sneller dan 2080 in 2160p

Dat is een pak minder dan 90% van het geval 2x zo snel te zijn.
En in benchmarks is dat 90% het geval.
Weet niet welke benchmarks jij bekijkt, maar het is juist bijna nooit het geval

3080 is gemiddeld 47% sneller op 1440p en 68% sneller op 4K dan de 2080 (en dit over een grote aantal games)

Edit: Ruddy was me voor

[Reactie gewijzigd door Sinester op 26 juli 2024 14:40]

Dit dus... Er zijn maar heel weinig reviews waar deze twee vergeleken worden.
Hier op tweakers ook, vergelijken met een 2080 Super en dan maar zagen dat het niet het dubbele is...
Ik geef er niet om te betalen voor hardware ALS ze het geld waard zijn.
Eigenlijk zat ik te azen op de 3090, alleen als dit waar is : ik ga geen 700/800 euro neerleggen voor net misschien 10% winst.

Ga mooi nog een paar weken wachten, totdat er meer bekent is over de 3090 en wanneer de 3080 met 20GB VRAM uitkomt
Precies, denk er hetzelfde over. Jammer als het zo is, want ik had graag het geld uitgegeven als het daadwerkelijk een stuk scheelt (zeker op 4-8k VR super sampled resoluties). Maar het moet wel een beetje reeel blijven qua performance per euro.
Ik krijg 11 oktober de hp reverb g2 binnen voor dcs, heb nu een 1080 en wou voor de 3090 gaan. Maar daar zie ik nu ook maar vanaf, je kan beter voor een 3080 gaan en later verkopen voor de ti versie en nog goedkoper uit zijn.
Die komen echter pas volgens jaar Micron heeft nog geen gddr6x 2gb modules. Dus dat ik vermoed dat het dan pas feb/maart of zelfs later word.
Het is een gekke markt. Marktplaats wordt nu overspoeld met 2080/70's
En voor prijzen die niet mals zijn. Een 2080 ti voor €800. Daar heb je ook een 3080 voor. En dan nog beledigd zijn dat je een redelijke prijs biedt
Dat komt omdat je denkt dat je een custom 3080 nu al op de kop kan tikken , en omdat tot een week geleden die 2080ti's nog aan volle prijs in de winkels stonden. Actueel staan ze nieuw in de winkels nog steeds 1000€ of meer.

Een bod van 800€ op een 2080ti van paar maand oud met garantie en bon is misschien wat hoog, maar ook niet gek gezien die 3080 een papieren launch is, of reeds uitverkocht...
Maar feit is en blijft dat de 3080 sneller en goedkoper is. Hoe jammerlijk ook maar het is nu eenmaal zo.
Dat klopt. Probleem is altijd beschikbaarheid met die kaarten in't begin. Daarom kosten die 2080ti's nog steeds relatief veel (nieuwprijs en 2dehands).
Mee eens. Is momenteel een beetje een ramp.
Hopelijk loopt het wat los. Heb zelf een prorder staan bij Alternate voor een EVGA.
Tja, zag het allemaal al aankomen (wie niet), dus 4 maanden geleden mijn 980ti verkocht. denk dat die nu weinig meer waard zijn
Als deze benchmarks kloppen dan is de 3090 dus z'n prijs niet waard en wordt het toch de 3080. Beetje jammer dat verschillende gebruikers hier op tweakers crashes melden met de 3080 in iedergeval met verschillende MSI kaarten.

[Reactie gewijzigd door Nopheros op 26 juli 2024 14:40]

Of ze zijn allebei de prijs niet waard en Nvidia probeert het zo te laten lijken alsof de 3080 goedkoop is. Ik zou nog ff afwachten alvorens te kopen.
De 3090 is inderdaad een pion in Nvidia's marketing strategie (waar onder andere ook huichelachtig benchmarken, price anchoring en kunstmatige schaarste toe behoren). Objectief gezien is het een compleet onaantrekkelijk tussen-wal-en-schip modelletje.
Ligt er dus aan wat je er mee doet of het wel/niet waard is. Voor een doorsnee gamer is het zeker niet de moeite waard, maar dat was de 2080ti ook al niet..
Zouden er al drivers zijn voor de 3090? Bij de 3080 was er simpelweg geen driver beschikbaar die games kon draaien voor launch (ook niet voor de boardpartners). De vroege 3080 resulaten bleken niet te kloppen. Hoe dan ook, wie een 3090 op het oog had zal hopen dat dit de reden is dat deze 3090 resultaten zo matig zijn.
Die waren er al sinds de launch van de 3080.
https://www.nvidia.com/Do...Results.aspx/163531/en-us
Het Chinese kanaal gebruikte hiervoor Windows 10 met Nvidia's 456.38 WHQL-drivers, die officieel al de RTX 3090 ondersteunen.

[Reactie gewijzigd door Enchantress op 26 juli 2024 14:40]

Bovenste benchmarks zijn van Blender en daar missen nog een aantal optimalisaties voor Nvidia. Dus ik verwacht zeker nog verbetering.
Die zijn er al, het maakt nogal veel uit of je nieuw type cores hebt (dus 2xxx vs 3xxx) of een broertje van een reeds bestaande (3090 en 3080). De aansturing is dan niet veel anders namelijk.

Op dit item kan niet meer gereageerd worden.