RTX 3090 is 10 tot 15 procent sneller dan RTX 3080 in 4k en beperkt in voorraad

Nvidia brengt donderdag om 15:00 uur zijn RTX 3090-videokaart uit. Dan verschijnen er ook onafhankelijke reviews, maar de fabrikant geeft nu zelf al aan dat de kaart voor 4k-gaming nauwelijks sneller is dan de RTX 3080. Volgens Nvidia is de kaart beperkt in voorraad.

Nvidia GeForce RTX 3090

Volgens Nvidia is de RTX 3090 bedoeld 'voor een unieke groep gebruikers' en is de kaart daarom beperkt in voorraad. De fabrikant zegt met partners te werken aan het vergroten van de voorraad in de komende weken. Nvidia zegt dit in een aankondiging over de beschikbaarheid van het nieuwe topmodel, dat donderdagmiddag uitkomt.

Het verschijnen van de RTX 3080 vorige week verliep problematisch. Nvidia en winkels zouden overweldigd zijn geweest door de vraag en veel geïnteresseerden hebben geen kaart kunnen bemachtigen. Concrete verkoopcijfers heeft Nvidia echter niet gegeven.

Nvidia meldt in het bericht over de beperkte voorraad ook dat de RTX 3090 voor 4k-gaming maar 10 tot 15 procent sneller is dan de RTX 3080. Het topmodel is echter twee keer zo duur. Met de vooruitblik op de prestaties geeft Nvidia aan dat de kaart voor de meeste gamers geen goede koop is.

Volgens Nvidia is de RTX 3090 gericht op gebruikers van de Titan RTX en eerdere Titan-kaarten. Bij content creation zou het topmodel met 24GB gddr6x beter tot zijn recht komen. Nvidia toont benchmarks als Blender en Luxray waarin de RTX 3090 het veelal 1,5x beter doet dan de Titan RTX. Een vergelijking met de RTX 3080 maakt Nvidia echter niet.

Ook stelt Nvidia dat de RTX 3090 geschikt is voor 'extreme gamers' en gamen op een 8k-resolutie. Daarbij verwijst de fabrikant naar een pagina met eigen benchmarks die bij de introductie van de kaart al werden getoond. Hierbij wordt geen vergelijking gemaakt met andere videokaarten.

Nvidia geeft zijn RTX 3090 Founders Edition een prijs van 1549 euro. Luxe uitvoeringen van fabrikanten zijn nog een paar honderd euro duurder. Prijzen van sommige RTX 3090-kaarten staan al in de Pricewatch.

RTX 3090-benchmarks van NvidiaRTX 3090-benchmarks van Nvidia
RTX 3090 RTX 2080 Ti RTX 3080 RTX 2080 RTX 3070 RTX 2070
Architectuur 8nm, GA102 12nm, TU102 8nm, GA102 12nm, TU104 8nm, GA104 12nm, TU106
Cuda-cores 10496 4352 8704 2944 5888 2304
Boostsnelheid 1700MHz 1635MHz 1710MHz 1800MHz 1730MHz 1710MHz
Vram 24GB gddr6x 11GB gddr6 10GB gddr6x 8GB gddr6 8GB gddr6 8GB gddr6
Geheugensnelh. 19,5GBit/s 14Gbit/s 19Gbit/s 14Gbit/s 16Gbit/s 14Gbit/s
Geheugenbus 384bit 352bit 320bit 256bit 256bit 256bit
Bandbreedte 936GB/s 616GB/s 760GB/s 448GB/s 512GB/s 448GB/s
Tgp 350W 260W 320W 225W 220W 175W
Introductieprijs (FE) 1549 euro 1259 euro 719 euro 849 euro 519 euro 639 euro

Door Julian Huijbregts

Nieuwsredacteur

24-09-2020 • 07:50

261

Lees meer

Reacties (261)

261
255
110
5
0
117
Wijzig sortering
Uffff, zelfs voor productiviteitstoepassingen is deze RTX 3090 een tegenvaller, vanuit mijn perspectief dan toch.

In OctaneBench scoort een Titan RTX ongeveer 398 punten. Ik heb de bars even nagemeten en na wat rekenwerk werd duidelijk dat de RTX 3090 68% beter presteert in OctaneBench. D.w.z. dat hij zo'n 670 punten zou halen in de benchmark.

Maar we hebben vorige week natuurlijk ook de RTX 3080 mogen verwelkomen en die kaart doet al 570 punten voor minder dan de helft van de prijs van een RTX 3090. M.a.w. het prestatieverschil tussen die 3080 en 3090 is maar 17,5% in OctaneBench. Een milde uitschieter maar geheel in lijn met het prestatieverschil in andere software en games. Twee RTX 3080's in een systeem proppen voor bijna een verdubbeling van je score is een beter besteding van je geld. De 100 EUR die je eigenlijk extra over hebt kun je besteden aan een beter voeding, of, als je die al had, eens heel lekker mee gaan eten.

Het enige wat deze kaart nog extra heeft is zijn 24 GB VRAM maar ook dat is binnenkort geen punt meer als de 20 en 16 GB varianten van respectievelijk de RTX 3080 en RTX 3070 uitkomen.

Zolang er geen concrete cijfers zijn is het natuurlijk koffiedik kijken maar de manier waarop Nvidia de gemoederen tempert is een extra argument voor de correctheid van mijn projectie. Anyway, een extra reden om op termijn voor de 3080 te gaan :).

Extra: Octane schaalt goed maar niet perfect op het aantal beschikbare CUDA-cores en is afhankelijk van "hoe" je het aantal cores vermeerdert. Hoewel de RTX 3090 ongeveer 20% meer cores heeft geven die maar 17,5% meer performance terwijl twee RTX 3080's gebruiken gewoon bijna 98% extra performance geeft t.o.v. eentje. M.a.w. de RTX 3090 is op het randje van de bottleneck van de Ampère-architectuur.

Anyway, ik heb even geprojecteerd voor een RTX 3070 en die kaart zou zo'n 385 punten kunnen halen in OctaneBench. Niet slecht.

[Reactie gewijzigd door 6129(15) op 23 juli 2024 08:23]

Maar je kunt die kaarten (behalve de 3090) niet meer in SLI zetten toch?
Twee RTX 3080's in een systeem proppen voor bijna een verdubbeling
Voor OctaneRender is SLI niet van belang.
Ben niet bekend met die tool, maar kun je kaarten wel 'in de praktijk' naast elkaar gebruiken zonder die ondersteuning? Of is het puur om zulke scores te halen (en een bepaald type berekening te doen)?
Yup, dat gaat, het is toevallig een van de meest vrij toepassingen inzake multi-GPU. Hoewel de goedkoopste licentie tegenwoordig beperkt is tot max. 2 GPUs. Maar het is echt heerlijk om een toepassing te hebben die zo zorgeloos schaalt. Dus als ik bv. een PC heb met een RTX 3080 en ik maak een render die 4 uur tijd nodig heeft om 'klaar' te zijn dan kan ik een tweede RTX 3080 erbij steken om hetzelfde werk in 2 uur te doen.

Eerlijk is eerlijk, het schaalt niet 100%, eerder 95 - 98% dus die 2 uur zal in de realiteit misschien 2u en 5 min zijn maar toch... heel fijn!
En als je microstuttering hebt (of dit anno 2020 nog een probleem is weet ik niet) dan heb je effectief nog veel minder profijt.

5/10 jaar geleden was twee kaarten in crossfire nog een achteruitgang in veel games, je kreeg wel 80+% meer fps maar de frametimes waren all over de place waar het dus eerder op 30fps leek.

[Reactie gewijzigd door Marctraider op 23 juli 2024 08:23]

Jouw statement staat volledig los van wat @6129(15) vertelde, aangezien de manier waarop MultiGPU toegepast word in sommige professionele workflows in dit geval geen enkel raakvlak heeft met SLI.

Daarnaast word vanaf deze generatie videokaarten (30xx) afgezien van de 3090 uberhaupt niet ondersteund, en als ik de prijs/performance van de 3090 zo zie zal zo goed als niemand 2 van deze monsters in SLI gooien, tenzij geld geen enkele rol speelt.
Microstuttering is geen issue bij een render. Tijdens het renderen kijk je niet, en bij het bekijken van het resultaat is is een enkele GPU al overkill.
SLI (en crossfire) zijn min of meer enkel voor games. Compute/GPGPU loads kun je sowieso op meerdere GPU's laten werken zonder extra magische support ervoor.
Het zijn allebij leuke kaarten maar ik ga ze nu niet kopen ik wacht een jaar en dan zal je zien dat ze goedkoper zijn en beter voor dat geld, ik heb de 1080 en na drie maanden later was ie al weer verouderd
Dat heb je altijd lijkt me..
Sli gaat er uit en het word aan dev's om multi gpu zelf inbouwen in hun games.
Vulcan en dx12 ondersteunen multi gpu.
En multi gpu heeft niks te zien met sli.
Multi gpu gebeurt via pcie bus.
Sli gebruikt een brug.
Voorbeeldje daarvan is Ashes of the singularity.
Thanks, wist ik niet. Goed om te horen!
Ik denk wat Nvidia bedoeld met uniek groepje gamers is eigenlijk gewoon mensen die niet weten wat ze met hun geld moeten doen, of een enkele met een soort dwang neurose en altijd het beste moet hebben.

Voor iedereen die nog na moet denken over zijn uitgaven is de 3080 de betere keuze.
Hoe kom ik van die dwang af? :D
Als een echte Octane gebruiker kan ik alleen maar zeggen dat de 24GB vram de meerprijs meer dan waard is.

Zelfs al presteert de 3090 20% trager dan de 3080 zou ik hem nog halen. Out of Core memory is compleet waardeloos en voor het grote renderwerk maken we gebruik van RNDR.
True, maar daarom, met een 20 GB versie van de RTX 3080 aan de horizon wordt het streepje dat de 3090 voor heeft een pàk korter :).

Ik hoop gigantisch hard dat AMD's RDNA2-kaarten het vuur aan de schenen van Nvidia legt. Lekker goedkope rekenkaartjes voor iedereen!
Welke 20GB versie aan de horizon?
Gigabyte lekte een ijstje alle versies van hun kaarten en daar stond een 20gb versie van de 3080 in.
ja, ach als ze er 20gb in stoppen dan kan je je afvragen hoe duur die gaat worden, mischien word het verschil tussen de twee kaarten dan zo klein in prijs dat je voor de duurdere gaat en die 10% mee pakt.
Micron 1GB GDDR6 @ 14Gbps 1 Gbyte GDDR6, 3,500 MHz, 15 Gbps $ 11.69.
12x10 120 dollar er bij voor een kaartje met 20Gb.
Valt goed me toch ?
Je bedoeld dus 120 dollar per 1GB GDDR6 extra...

Als ik namelijk in price watch bij de 2080 kijkt dan reken ze voor een 11 GB kaart ongeveer
minimaal 300 euro meer dan een 8 GB kaart....
Nee 120 dollar voor 10...
Niet per se, Jules Orbach - CEO van OTOY, producent van Octane - heeft al laten vallen dat ze bezig zijn met integratie van RT en Tensor cores voor bv AI denoising/upscaling. Deze worden momenteel nog niet gebruikt.

Ampere optimization staat ook op de roadmap voor Octane 2021 dus ik vermoed dat de hogere core counts nog wel wat extra afstand zullen creeeren tussen 3080 en 3090.

Vergeet ook niet dat er momenteel gewerkt wordt aan real-time rendering met Brigade. We zijn al op een punt waar GPU's snel genoeg zijn. Kijk bv naar de Marble demo van Nvidia - volledig real time gerenderd. De beperking? 500GB aan textures in een enkele scene proppen.

Hoe meer vram hoe beter.

[Reactie gewijzigd door keejoz op 23 juli 2024 08:23]

"Hoe meer vram hoe beter."

Geldt dat ook voor games? :)

Weet iemand of de oude geruchten over een 12 GB Vram variant van de RTX 3060 Ti inmiddels bevestigd of ontkend zijn?

Tot zover heb ik hier en daar gelezen dat er plannen waren voor een 3060 (non Ti) met 6GB / 12 GB Vram, en een 3060 Ti met "slechts" 8 GB Vram en maarliefst 4864 CUDA cores.

Mijn prehistorische GTX 1060 instapmodel van 5 jaar geleden met maarlifst 6 GB Vram (!) zou ik graag willen upgraden naar een RTX 3060 Ti maar ik weet niet of 8 GB Vram voldoende is?

Hoe weet je hoeveel Vram voldoende is voor games?
Is er een vuistregel daarvoor in relatie tot de resolutie? :?

Ik gebruik momenteel een resolutie van ongeveer 6000 x 2000 (drie monitoren) en speel alleen World of Warships (schepen uit WWI en WWII) die alle 6 GB Vram inneemt (ik weet niet hoeveel meer hij zou willen gebruiken tot alles in de Vram zit) en is nog net aan speelbaar met ca 50 FPS. 8)7
Voor games maakt het eigenlijk niet uit, de meeste engines zijn slim genoeg om het memory zo te managen dat het zoveel mogelijk gebruikt wordt. En er zijn nog zat mensen met 6GB RAM en de nieuwe consoles hebben ook niet allemaal 16GB aan RAM (en dat moet men nog delen tussen CPU en GPU ook). Dus het zal wel los lopen, ook met 8GB kom je er wel. En hoe sneller je SSD hoe minder groot probleem het überhaupt is.

Eigenlijk het belangrijkste is nog steeds geheugenbrandbreedte.
I see .Dank

"Eigenlijk het belangrijkste is nog steeds geheugenbrandbreedte."

En kan ik aannemen dat door de de hele "CUDA inflatie" zal maar zeggen met die overvloed aan duizenden CUDA cores dat niet meer de bottleneck gaat zijn maar juist de zeldzame RT cores (Ray Tracing cores) het belangrijkste getal wordt, en wat bepalend zal zijn in de frame rates in RT heavy games? Klopt mijn aanname?
Dat is veel te implementatie afhankelijk om daar iets zinnigs over te kunnen zeggen.

Die overvloed aan throughput op die CUDA cores is ook de reden dat die bandbreedte zo belangrijk is. Je moet die wel gevoed houden met data natuurlijk.
Maar dan word de prijs ook gewoon een stuk hoger toch?, rond de 1100€? dan heb je gewoon puur prijs/prestatie
3080 inderdaad, the way to go. Maar als nvidia een 3060Ti / 3070S o.i.d. uitbrengt die in de buurt van een 3080 komt kan dat weer een stuk goedkoper zijn.

De sweet-spot zou bij een render van 8uur ongeveer 320 punten zijn voor mij.
Dan ga ik van 8uur naar 2uur rendertijd. Die extra 320 punten zijn dan nodig om een uurtje tijdswinst te behalen, maar is stukken duurder.
De 3080 geeft een enorme performance boost vergeleken met de 2080ti, het topmodel van vorig jaar, voor hetzelfde geld.. en jij wil nog meer value/nog goedkoper voor deze hoeveelheid performance? Damn.
Voor 400 euro minder zelfs :)
Is 2 in een systeem stoppen niet alleen voorbehouden aan de 3090? Ik las dat SLI teruggedrongen is en een stuk van de SLI software alleen wordt aangeboden voor de 3090, (bovendien zou het unlocked moeten worden dmv een code, dit was nog niet helemaal duidelijk).

De software support en optimalisatie was al een nightmare voor Nvidia en nu betaal je waarschijnlijk gewoon een stuk mee daaraan als je een 3090 koopt.
Dit gaat niet over SLI / NVlink. Dat is voor gaming.
Voor compute, zoals Octane, worden de kaarten onafhankelijk van elkaar aangestuurd. Hoe meer GPUs hoe meer snelheid / capaciteit. :Y)
Als de 20gb 3080 er is dan zijn de usecases inderdaad gelimiteerd. Ik ga alsnog wel voor een 3090, maar niet meer dual 3090 zoals ik eerst wilde.
Kan die enkele 3090 erg goed gebruiken voor opencl simulaties en dan prik ik er later wel wat 3080s met 20gb bij voor renderen, maar voor een groot deel van de mensen is de 3090 het inderdaad niet waard.
Dit gaat toch bijna niemand kopen? De 2080ti had nog een substantieel verschil met de 2080 en was naar mijn mening dan ook wel redelijk de prijs waard. Maar 10%... voor 2 x zo veel geld?
Geen auto- maar een voetbalvergelijking: een spits die 10% meer scoort kost ook meer dan 2x zoveel (en die spits is ook niet voor iedere club weggelegd). Er is een markt voor "het snelste, ongeacht de prijs"...
Tsja, daar sla je de spijker op de kop. Maar dat is met elk product dan wel zo, er is ergens een sweetspot kaliteit/prijs. Op een gegeven moment loop je tegen the law of diminishing returns aan.

Als ik als gitarist b.v. kijk naar elektrische gitaren, dan zit die sweetspot ongeer op de 750 - 1000 Euro. Tegenwoordig kunnen CNC machines het meeste hout perfect uitzagen en het maakt die machine niet uit in welk land hij staat. Voor die prijs worden zijn overige onderdelen ook van goede kwaliteit. En we hebben het hier over hout en simpele elektronica. Niet echt high-tech zoals een GPU. Natuurlijk, een meerprijs zorgt voor een gitaar meer eyecandy en nitrocellouselak ipv poly. Er zijn dus ook nieuwe instrumenten van 20000 Euro en meer. Om over vintage instrumenten die decennia oud zijn nog maar te zwijgen.

[Reactie gewijzigd door nullbyte op 23 juli 2024 08:23]

En als je een 1080 Ti 11GB hebt gehad en daarna een 2080 Ti 11GB, kan het voor sommigen ook als downgrade aanvoelen als je na 4 jaar op 11GB ram te hebben gezeten ineens naar 10GB gaat.
Hah.. als zo iemand denkt dat een 3080 met 10GB een downgrade is t.o.v. een 1080 Ti met 11GB omdat je "minder" geheugen hebt dan heb je hoogstwaarschijnlijk erg weinig verstand van videokaarten en hardware in het algemeen.

Ik weet niet meer met welke kaarten dat was maar het is al een aantal jaar geleden... had je een 2GB en 4GB variant van die videokaart en dan zou je denken dat 4GB beter was maar die met 2GB had sneller geheugen en was daardoor sneller. Als ik me niet vergis gebruikten spellen ook nog niet zoveel of windows (32bit) kon dat toch niet aan of iets dergelijks. Dat was puur voor de mensen die "meer is beter" aanhangen :)
Ja dat was met de GTX 500, 600 en 700 serie (1,5GB/3GB, 2GB/4GB, 3GB/6GB). Ik had toen een 2560x1440 resolutie met 2 GTX 780's 3gb in SLI. Vanwege m'n resolutie moest ik upgraden omdat ik in GTA V constant tegen mij RAM limiet zat, terwijl de GPU's zelf het nog makkelijk aan konden. De 6GB variant was zeker geen overbodige luxe geweest.

Die tijd had Nvidia steeds maar net genoeg geheugen in hun kaarten om er 2 jaar mee vooruit te kunnen, er vanuitaande dat je je max settings wilt draaien. Pas vanaf de 900 serie begon het er wat meer op te lijken.

Ik vind het een beetje apart dat als de 3080 als opvolger van de 2080 Ti wordt gezien, die minder geheugen heeft. Stop er dan 12GB in, of 16. Tenzij de 3080 als opvolger van de 2080 moet worden gezien klinkt het wel weer logisch, maar komt er dan nog een 3080 Ti?
Zelfs in de grafiek staat het nog:

2070->3070
2080->3080
2080ti-> 3090
Vergeet niet dat er hardnekkige geruchten zijn dat er een 20GB 3080 variant uitkomt en een 16GB 3070.
Wat kost een 2080ti en een 3090, en wat is daar precies het verschil in performance? ;)
:+ Ja, want als je koopt kijk je alleen naar de vorige generatie? Je kijkt natuurlijk niet naar de kaart van de huidige generatie, die minder dan de helft kost en slechts iets minder snel is, dat zou echt dom zijn.

Gebruik dan de Titan om je punt te maken.

De 3090 is een nutteloze kaart voor de benchmarks en/of de 3080 een goede deal laten lijken.
Een RTX Titan was meer dan 1000 euro duurder. Er zullen er sowieso zijn die dit zullen kopen. Als je als content creator genoeg tijd kan besparen dan kan dit zijn geld waard zijn.
kijk eens naar een quadro RTX 6000 , minder performance zelfde geheugen +- 4000 euro.

Je moet wel kijken naar de doelgroep
Bij een Quadro zit de meerprijs in andere zaken, geen goede vergelijking dus. (Oa certificeringen)

[Reactie gewijzigd door Navi op 23 juli 2024 08:23]

Dat klopt maar voor veel zakelijke gebruikers is een Quadro certificering overkill. Denk aan renderen, visualisatie en ontwerp studio's van consumenten producten. Daar is een Titan of nu dus een 3090 uitstekend.
Voor bepaalde gebruikers is het echter wel belangrijk en die zullen de meerprijs van zo'n kaart gewoon als zakelijke uitgave zien.

Dat voor vele gebruikers "Quadro certificering" overkill is is niet relevant want die behoren helemaal niet tot de doelgroep van het product.
Natuurlijk wel, ik ken er zat, zoals video editors (8k streams) 3d ontwerpers en ik zelf met cad. Ik gebruik studio drivers Nvidia en GeForce/rtx kaarten. Werken prima voor cad gebruik. Als je een brug gaat bouwen en ING. bedrijf en de brug stort in gaan ze kijken naar de certificaten. Hoe belangrijk is error correction bij een 3d koffie mok denk je. VS cfd berekening van een vliegtuig component. Overigens heeft gddr6x error correcting (seg maar ECC). De 3090 heb je vaak na de eerste klus al terug verdiend.

[Reactie gewijzigd door D0gtag op 23 juli 2024 08:23]

De RTX kaarten hebben toch geen certificaten? En, is de kans daadwerkelijk aanwezig dat een videokaart elke simulatie dezelfde rekenfout maakt?

En kan je de ontwerpers niet allemaal een rtx game kaart geven en als het model praktisch af is hem op een quadro workstation laten doorrekenen?
Rtx heeft geen driver certificering, certificering is wel een vereiste in veel (technische) vak gebieden (ik weet niet of er nobo's zijn die gpu's / werk daar op afkeuren) . Certificering betekent ook dat de betreffende cad software vlekkenloos werkt (en aanzienlijk sneller).
Als jij berekening maakt op je workstation, bepaalde waarden hebt en daar mee doorwerkt, is het zonde tijd als die aanname fout was. Stabiliteit en snelheid zijn vaak belangrijker dan de hogere kosten voor een gpu. Een fout kan aanzienlijk duurder uitpakken.
Als je een brug gaat bouwen en ING. bedrijf en de brug stort in gaan ze kijken naar de certificaten
Lijkt mij conflicterend met de volgende uitspraak?
(ik weet niet of er nobo's zijn die gpu's / werk daar op afkeuren)
Als jij berekening maakt op je workstation, bepaalde waarden hebt en daar mee doorwerkt, is het zonde tijd als die aanname fout was.
Bedoel je dat een game kaart, door een fout in de drivers, wel degelijk elke berekening dezelfde fout kan maken?

[Reactie gewijzigd door SpiceWorm op 23 juli 2024 08:23]

[...]

Bedoel je dat een game kaart, door een fout in de drivers, wel degelijk elke berekening dezelfde fout kan maken?
Nee dit kan niet, deze berekening wordt uitgevoerd door de software en ook al wordt de rekenkracht van de GPU gebruikt een driver zal geen foutieve berekeningen kunnen veroorzaken.

De Quadro kaarten zijn vooral interessant door de hoeveelheid geheugen die de kaarten hebben en de service en garantie die deze kaarten met zich meebrengen.

Ik heb nog nooit gehoord dat men voor foutieve calculaties kijkt naar computer hardware. Dit zou ook bijna onmogelijk zijn gezien de hoeveelheid verschillende configuraties er in totaal mogelijk zijn. Dan zullen er op geheugen en de processoren ook certificaten moeten zitten.

Als er fouten worden gemaakt in een calculatie wordt dit voor 99% veroorzaakt door foutieve inputgegevens.

[Reactie gewijzigd door Andyk125 op 23 juli 2024 08:23]

Het gaat om software die de hardware aanstuurt. De software moet gevalideerd voor het gebruikte doel.
Eerlijk gezegd begrijp ik je reactie niet helemaal, je praat over een driver (software die de hardware aanstuurt) en wat maakt dat uit? Dit heeft niets met de calculaties te maken die een programma doet om een brug of iets dergelijks te berekenen.

De software die de calculaties doen gebruiken de hardware om de calculaties te doen, maar de berekeningen worden door het desbetreffende programma (zoals bijvoorbeeld Femap) uitgevoerd. De driver zorgt er alleen voor dat de GPU goed functioneert in de computer. Dit heeft geen enkele invloed op de calculaties die het programma doet om de berekening uit te voeren.

Ik heb jaren bij een engineeringsbureau gewerkt die verschillende software gebruikt voor constructie berekeningen etc. naast statische berekeningen heb ik ook dynamische berekeningen gedaan. En hoewel de de driver van invloed kan hebben op de duur en stabiliteit van de hardware heeft het geen enkel invloed op de desbetreffende calculatie.
Op geheugen heb je dan ook het duurdere ecc ram en voor processoren hebben zowel Intel als AMD lijnen die specifiek gericht zijn op dit soort professioneel gebruik en daarvoor extra features en certificeringen hebben. Zoals de Xeon en Epyc lijnen respectievelijk.
Maar nog hebben deze certificeringen geen enkele meerwaarde voor bedrijven die calculaties maken om bijvoorbeeld een brug of iets dergelijks te berekenen. Het software pakket zorgt voor de calculatie, de hardware voert het uit en wordt aangestuurd door de drivers.

Je hebt bij tal van producten een professionele lijn, meestal zijn dit producten die betere kwaliteitscontrole hebben, meer service en veel duurder zijn.

Bij servers en hardware die 24/7 aan staat of veel gebruikt wordt heb je betere producten nodig en daar is juist rekening mee gehouden en zijn de professionele lijnen voor op gebied van computer hardware. De certificaten zijn er om aan te geven waar de hardware voor geschikt is en hoe en waarvoor men het kan gebruiken.
Natuurlijk hebben bedrijven wat aan die kwallificatie, net als je baas er wat aan heeft dat je door Microsoft gecertificeerd bent terwijl iemand zonder die certificering misschien beter is dan jij. Het toont dat de fabrikant ervoor garant staat dat alles optimaal werkt en met elkaar werkt. Als je brug dan ooit instort kun je tenminste voor de OVV aantonen dat je alle redelijke voorzorgen hebt genomen om te garanderen dat er niks fout kon gaan.
Ik denk dat de Quadro range zijn beste tijd heeft gehad inderdaad. Ik (architect) werk al jaren met een 'game' kaart en de meeste visualisatie software van tegenwoordig draait hier ook sneller op (wordt zelfs aangeraden door de leveranciers).
Probleem is dat Nvidia de Quadro opdringt aan alle zakelijke gebruikers. In elk geval tot voor kort kon je zakelijke laptops alleen bestellen met Quadro's.

Bij ons willen de traditionele CAD mensen inderdaad een Quadro. Maar de AR/VR devs en grafische mensen willen veel liever een RTX. Maar die konden we tot voor kort niet krijgen. Nu eindelijk wel.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 08:23]

Naast dat er wel gevallen zijn waarvoor die 10% wel belangrijk kan zijn moet je je denk ik ook niet vergissen in hoeveel mensen er zijn die gewoon het beste en duurste willen hebben, ookal is het totaal geen logische keuze.

Ik durf er geld op te zetten dat deze net zo snel uitverkocht zullen zijn als de 3080.
Wellicht zit er ook een deel "Goh die 3090 is wel duur zeg. De 3080 is daartegenover een koopje! *Klik*" in ;)
Een normaal persoon die ook op zijn geld moet letten niet. Maar er zullen genoeg mensen zijn die geld genoeg hebben en het beste van het beste willen hebben. Voor deze mensen is het ook niet interessant dat het 2x zoveel kost, al was het 3 keer zo duur. Men wil gewoon het snelst en best haalbaar.

Je moet het gewoon zien als een nieuwe RXT Titan, voor de prijs kwaliteit is het niet interessant. Maar dit is ook niet de doelgroep.
waarom niet: 2080Ti t.o.v. 2080 was iets soortgelijks: 2x zoveel centen voor 10% meer prestatie. bij processoren waren er ook topmodellen die iets sneller maar vooral veel duurder waren.
Als je (er) gewoon veel geld (voor over) hebt is het geeneens zo'n slecht idee. Wel zonde van tieners die in de supermarkt nog maar heel wat extra uurtjes draaien voor de allersnelste... maar ook dat is hun keus.
Er moeten er wel heel weinig zijn als Nvidia zo eerlijk is . 8)7
Ik hoop het niet (maar ben bang van wel). In ieder geval is de kans misschien ietsje groter dat je een kaart kan weten te bemachtigen omdat NVIDIA nu Captcha heeft toegevoegd om vervelende bots te weren
Offtopic: maar captcha gaat de boel niet tegenhouden voor bots. Er zijn websites (captchafarms) die captcha’s voor bots oplossen dmv een ploegendienst met mensen. Deze kan men koppelen aan een bot via een API.

En je hebt de opkomende AI captchabots die nog sneller een captcha oplossen dan een mens. En ze kosten haast geen drol als je een flink pakket afneemt.

Nee, maak je geen illusies. Die kaarten zijn in no time weg en staan straks voor boven de 2k ergens te koop.
Nvidia annuleert orders handmatig als overduidelijk is dat deze van een bot afkomen.
Het gebruik van bots door pro’s zullen moeilijk gedetecteerd worden door Nvidia. Of ze moeten alles cancellen. Die gasten weten wat ze doen (helaas).

En de waarschuwing dat er niet veel op voorraad liggen voorspelt helaas niet veel goeds. Een reden daarvoor kan zijn dat Nvidia ook weet dat ze niet veel kunnen doen tegen bots.
Hoe kan nvidia nu bepalen of een order nu van een bot afkomt of niet? Met huidige browsers en accountmanagers heb je een bestelling in principe binnen een paar tellen gedaan mits het proces goed ingericht is en de website de juiste tags heeft op elementen. Ik kan dan gewoon autofill gebruiken.
Waarom zou Nvidia dat doen? Verkoop is verkoop. En kijk hoe vaak Nvidia nu in het nieuws genoemd wordt.
Omdat bots massaal kaarten kopen en de markt dan volledig in elkaar stort.

Enkele personen kopen dan alles op en verkopen het voor 100-300€ duurder en hebben zo in een dagje tijd duizenden euro's winst.

Het is van een bedrijf nog altijd belangrijk omhet product beschikbaar te hebben voor gebruikers en niet opkopers, verkoop is verkoop kan je hier niet toepassen.

Hoe meer een bedrijf een goed imago wil behouden, hoe belangrijker het is dat de producten rechtstreeks bij de gebruikers komt

Je kan dit meer toepassen op websites zoals wish of ali, waar kwantiteit belangrijker is dan kwaliteit.
Hoezo zou de markt in elkaar storten als er extra schaarste wordt gecreerd?
Er is een verschil tussen schaartste en niemand buiten bots hebben er, je kan dit nu al zien bij bvb limited editie fashion. Bovenop is er al schaarste en dan gaat nog een deel weg naar mensen die rap geld willen verdienen.

Mensen die een bepaald soort schoenen wil moeten zelf bots gebruiken om 1 paar voor te dragen te kunnen kopen.
De enige reden die ik me kan bedenken is mond op mond reclame.
Dus iemand (die niet een bot is) heeft de kaart voor een normale prijs bemachtigd, verteld dat door, en die koopt er dan ook een.
Meer als 1 gewoon annuleren, vooral in het begin. Zodat velen er 1 kunnen krijgen.
Maar hoe wil je dat controleren? Dan zorgen ze wel dat de bots ook gewoon nieuwe accounts maken.
Hebben bots ook meerdere adressen dan?
Offtopic: maar captcha gaat de boel niet tegenhouden voor bots. Er zijn websites (captchafarms) die captcha’s voor bots oplossen dmv een ploegendienst met mensen. Deze kan men koppelen aan een bot via een API.
Dat vertraagt in ieder geval het geautomatiseerd aanschaffen van spullen in de eerste X seconden. ;)
bs, de FE kaarten worden bewust schaars gehouden en AIBs mogen dat ontwerp niet gebruiken. Die zullen echter meer $ moeten gebruiken om tot vergelijkbare koelprestaties te komen > duurdere kaarten.
Die RTX 3000 serie lijkt nu goedkoper dan de concurrent terwijl de prijzen van beschikare kaarten hoger zullen zijn.

Geloof me Nvidia is echt niet dom. Die nemen genoegen met minder winst van een zeer beperkte productie oplage ( FE kaarten ) om de ogenschijnlijke prijs bij reviews te drukken.
Die AIBs hebben ook decennia ervaring met maken van goede GPU koelers. Die weten heus wel wat ze doen, en eigenlijk heb ik daar meer vertrouwen in dan in koeler van de default NVidia kaart.
Die default koeler is degelijk voor een default koeler, maar is vooral gemaakt om de prijs te drukken ten tijde van de reviews.
Ik reken er niet op dat FE kaarten lang beschikbaar zullen zijn, voor zover daar überhaupt al sprake van is.
Of ze hebben geleerd van vorige week.
Ja, waarschijnlijk hebben ze er net aan 10 liggen. ;)
10 tot 15% winst voor < 10% stijging in de Tgp. Dat schaalt nog steeds erg netjes. Ik vermoed dat ze nog verder zouden kunnen gaan, als ze willen.
Hij heeft 20% meer cuda cores en meer geheugen bandbreede en shaalt dus zo'n 10% voor games. Heb je de 24gb nodig voor content creation sure dan is het zeker een goede aanschaf. Ben je gamer? Nee dan kan je beter gewoon de 3080 nemen in mijn ogen voor de helft van de prijs 90% van de performance.
Als gamer kun je beter 2x 3080 nemen en die in SLI zetten heb je denk ik betere frame rate dan wanneer je 1x 3090 doet.
SLI is alleen voor de 3090.
Er is geen sli bridge meer, en sli word voor zo ver ik weet matig gesupport door games, als er überhaupt support voor is.

[Reactie gewijzigd door ilaurensnl op 23 juli 2024 08:23]

SLI is dood, accepteer het nou eens :P

Oja, geen 3080 SLI mogelijk. Alleen 3090 en die heeft er geen drol aan. Met 2x 3090 past ook geen enkele andere kaart meer in je PC dus dat helpt ook al niet mee.
Waarom zou je geen drol hebben aan 2x 3090?

Als het niet past, dan doe je iets verkeerd. Je hebt of verkeerd moederbord of te kleine kast.
Niet de verkeerde hardware kopen en anderen de schuld geven :P
Heb je gezien hoe groot die dingen zijn? :P
Met veel dual slot kaarten kom je nog weg met een mATX kast en bord,
hier wordt zelfs een ATX bord krap als je 6 sloten kwijt bent aan 2 kaarten ;)

En je hebt er geen drol aan, want voor games win je er niks mee doordat ondersteuning er vrijwel niet meer is en als je grafisch design doet kun je beter een Quadro kopen voor dit geld, zeker als je applicatie de featureset ondersteunt.
Voor AI toepassingen wel degelijk erg interessant, als je via NVLink 2x 24GB tot 48GB kan koppelen, erg handig voor het trainen met grote beelden.
Nu ja.
ms flightsim 2020 @ 8K.
:+
Je weet dat SLI al een tijdje zo goed als uit de markt is :D?

op de 3080 zit niet eens een SlI bridge :D
die bridge is al jaren niet meer nodig omdat PCI slot voldoende capaciteit heeft.

Daarnaast zoals eerder aan gegeven zit het nu native in DirectX en niet in de SLI driver van Nvidia
Ook al zou de 3080 nog SLI ondersteunen(dat doe ie niet), dan geeft SLI zoveel gedoe dat ik dan liever mijn geld uit zou geven aan een kaart die op papier minder winst geeft dan een SLI configuratie van een vergelijkbare prijs. Een enkele kaart doet het gewoon altijd zonder profiel of wat dan ook(uitzonderingen daargelaten natuurlijk). Bovendien heb je dan ook echt 24GB ipv (2x10GB)/2. Mocht MultiGPU eindelijk doorbreken, dan is dat natuurlijk wel interessant. Maar dan moet het wel (bijna)altijd out-of-the-box werken en niet SLI achtige nadelen hebben..

Bovendien, mensen klagen over het verbruik van een 3090(power mag IMHO wat kosten), wat denk je van 2 3080's in SLI? En dan moet je nog een case hebben waar het allemaal in past met ook nog eens voldoende airflow.

[Reactie gewijzigd door MN-Power op 23 juli 2024 08:23]

Ware het niet dat alleen de 3090 in sli kan
als de 3090 het kan kan de 3080 het ook, waarschijnlijk kwestie van een kleine driver aanpassing,

Zijn al diverse games die het supporten via DirectX ipv Nvidia
Zeker niet. Want er zit geen aansluiting op voor de NVLink :)
DirectX12 ondersteunt multi-card en zelfs multi-vendor-multi card (een AMD en een Nvidia card) via de PCI-Express bus, Er zijn games die dit ondersteunen. @Scriptkid heeft gewoon gelijk dus niet downvoten.

https://developer.nvidia....pu-programming-directx-12
Dat is toch echt niet hetzelfde als SLI
Dat kan je wel roepen, maar Nvidia positioneert het wel als zodanig. Het uitfaseren van SLI omdat ze willen dat game developers het gaan inbakken in de game.
Dat gaat nu toch via het moederbord tegenwoordig? 🤔
Zoals vele hier al aangeven zit je zelf fout,

Er zijn juist heel veel bedrijven die overstappen van Quadro naar consumenten omdat in hun branche de Quadro certificering geen meerwaarde heeft.

En SLI zit gewoon native in Direct x , onder de noemer Multi GPU support via de PCI E bridge.
Staat zelfs beschreven op de Nvidia Site:
https://developer.nvidia....pu-programming-directx-12

Sorry maar de gene die de flater slaat ben je zelf.
Bedrijven waar de quadro certificering geen meerwaarde voor heeft daar zijn de kaarten ook niet voor bedoeld. Dat veranderd dus niks aan het feit dat je appels met peren aan het vergelijken bent.

Alsof je een rugged laptop met een consumenten laptop qua prijs gaat vergelijken en dan als argument aanhaalt "ja veel bedrijven hebben geen rugged nodig dus stappen nu over op een consumenten laptop". Ja die hadden dus sowieso dat nooit moeten kopen.

Dat is geen SLI dat is een ander systeem.
Ben je geen gamer? Koop dan gewoon een goedkope laptop met onboard video :+

Ik denk dat voor alle applicaties die een zware videokaart nodig hebben (of het nou gaming is, video editing, of iets anders) de 3080 de beste kaart is. Alleen voor die nieuwe Flight Simulator is misschien de 3090 beter geschikt, voor de rest is het naar mijn mening weggegooid geld.
Ja alleen schaalt de prijs totaal niet netjes, 15% meer performance voor een meerprijs van 100%.
Heeft de prijs ooit goed geschaalt in het hoge of lage segment? meestal was het alleen in het middensegment waar prijzen linear meegroeide met de performance.
Door het beperkte aanbod en dat er geen betere versie bestaat bepaald dat de prijs.
Als je maar 10,000 kan verkopen in een maand en deze gaan wel over de toonbank in een rap tempo ongeacht of die 800 of 1200 kost dan is het nu niet echt een probleem dat er andere variaties zijn in het price/performance schaal.

Maargoed deze logica komt telkens weer terug bij iedere nieuwe release van producten en hebben we constant een stroom van weer eens logica herhalen.
Door het beperkte aanbod en dat er geen betere versie bestaat bepaald dat de prijs.
Nvidia bepaalt de prijs, en dat hoeft niet afhankelijk te zijn van de genoemde factoren als zij dat niet willen. :P

[Reactie gewijzigd door The Zep Man op 23 juli 2024 08:23]

Nee. De prijs van Nvidia is puur afhankelijk van de mogelijke concurrentie. De rest maakt geen fluit uit.
Nee. De prijs van Nvidia is puur afhankelijk van de mogelijke concurrentie. De rest maakt geen fluit uit.
Precies, als je geen concurrentie heb kan je het enorm duur maken, en dat heeft Nvidia dus ook gedaan.

En ja je moet echt niet veel geven om geld als je een Geforce RTX 3090 koopt om alleen mee te gamen en wat internetten en zo, waarom zou je voor +/- 10% meer snelheid een grafische kaart kopen die 2x zo duur is, als je zo goed als er alleen mee gamed en wat internetten en zo?
Ik verwacht niet dat als er voldoende voorraad zou zijn dat de de prijs evenredig zou zijn aan de prestaties.

Ofwel dat de 3080 900 euro zou kosten, en de 3090 vervolgens 1000-1050 omdat deze 'maar' 10-15% sneller zou zijn.

Genoeg markten die ongeacht de prijs gewoon het snelste willen hebben. En of die prestaties 5% of 25% beter zijn maakt dan vrij weinig uit. Kijk je naar de prestaties, dan kijk je niet naar de prijs, en visa versa.

En als de prijs al evenredig zou zijn, zouden ze duurder moeten zijn dan de 20xx serie, de 'midrange' 30xx serie presteert haast al beter dan het top-end van de 20xx serie.

[Reactie gewijzigd door BLACKfm op 23 juli 2024 08:23]

Basis kennis economie en marktwerking ontbreekt weer compleet bij sommige. Marktaandeel is een belangrijk aspect voor bedrijfswaarde samen met omzet ( en vele andere aspecten, die niet zo zeer gerelateerd zijn aan dit product) deze tekorten zal Nvidia op termijn pijn doen op de beurs, dus doen ze alles om omzet te verhogen.
Dat snap ik(studeer psych). Betekend niet dat ik het toejuich 😜
Heb je meegewogen dat er sprake is van een duopolie en ze enkele maanden voor hun enige concurrent de markt hebben betreden? Nvidia had de release natuurlijk ook gewoon kunnen uitstellen tot een moment waarop ze aan de vraag konden voldoen, maar dan was er nog een andere speler in de markt. Hebben ze volgens jouw analyse de verkeerde keuze gemaakt? Misschien is basiskennis niet altijd voldoende om te weten waar je kennis tekort schiet.
Misschien moeten ze dat dan doorzetten naar het ultieme, en precies één 3090 verkopen? Dan verdienen ze nog meer per kaart.

Nee, het praktische feit is dat de grootste concurrent van deze 3090 de 3080 is, en die is ook van NVidia. Bedrijven hoeven niet met zichzelf te concureren op prijs.
Nou nee aan de 3080 en 3090 te zien verwacht nV niet dat AMD de kroon pakt , maar mogelijk el ergens in de buurt van de 3080 en vooral er onder. Daarom de prijs punt € 700 en 3070 € 500
De 3070 16GB en 3080 20 GB kunnen de daadwerkelijke tegen hanger zijn.
nV denkt met die prijs dat de Bignavi niet voorbij de 3080 komt want er zit niet veel ruimte tussen de 3080/3090 daarom 1500,-
Maar komt bignavi duidelijk tussen in met €600,- dan ....
Is daarbij zuiniger helemaal dan.....
shitstorm GTX480 again
Je gaat eraan voorbij dat deze kaart ook ruim twee keer zoveel grafisch geheugen heeft. Voor games misschien niet zo interessant, voor AI toepassingen echter des te meer
Ik denk het absoluut niet: er zijn er erg weinig, en dat voor een erg hoge prijs, dit zijn dus GPUs die gebint zijn als zijnde de aller- allerbeste. Zo niet had nVidia er wel meer van aangeboden.

Het energieverbruik is dan weer zo extreem dat nVidia er een extreem dure koeler op zet (schattingen voor BOM lopen op tot 150€. Dat is achterlijk duur, enkel al voor de grondstoffen voor de koeler), wat erop wijst dat nog meer performance eruit drukken, ook al zou het kunnen, simpelweg niet haalbaar is: zelfs als die chip het trekt, hoe koel je het?

Maar ik betwijfel erg sterk of er rek zit in de 3090: de 3080 is amper te overclocken, zoals te zien in de laatste video van GN.
geheugen bandbreedte....speelt blijkbaar toch een rol.
Klinkt eerder als cherry picked chips en bij de 3080 enkele units uitgeschakeld omdat die niet gelukt zijn.
Hm, zou bijna kunnen zeggen dat hij de meerprijs dan niet waard is. Misschien dat AMD een mooie niche kan bekleden tussen de 3080 en 3090 in, en de prijs daar wat meer standaard kan maken.
En dan nog weet ik niet of ik wel een AMD kaart zou willen kopen, hun driver issues hebben mij daar weggejaagd en pas als ze die echt goed op orde hebben wil ik het nog eens proberen.
Welke driver issues? Bij mij zijn ze juist stabiel, enige issue die ik heb gehad was het resetten van klok snelheden
Dat is het nou meestal met driver issues.
Daarom snap ik niet dat men bij 1 brakke kaart het kamp afschrijft, heb zelf AMD en NVIDIA gehad, beiden goede kaarten maar ook slechte. Dat jouw pc net niet lekker werkt betekend niet dat het hele bedrijf ruk is.

Alhoewel ik AMD randzaken meer toejuich, en tegen de belachelijk hoge prijzen ben van nvidia.

Koop meestal ook een generatie achter de nieuwste, game nog op 1080p zelfs zoals de meeste.
Daarnaast heeft mijn scherm Gsync. Zit daarmee wat vast aan Nvidia, want die functie wil je toch ook niet zo graag verliezen lijkt me.
Klopt, maar mocht AMD je toch interessant lijken indien RDNA2 erg goede performance heeft: hun enhanced sync functionaliteit elimineert tearing volledig met een veeeel kleinere delay dan VSync.

Het is een geweldige feature, die ideaal is voor mensen zonder Freesync, maar die geen nieuw scherm willen kopen.

Het is erg frustrerend om mensen te horen klagen over de drivers van AMD, want de features die ze leveren zijn echt zo veel beter en uitgebreid dan wat nVidia biedt.

[Reactie gewijzigd door kiang op 23 juli 2024 08:23]

Dat is ook mijn grootste zorg. Ben heel tevreden van hun Ryzens en Intel mag van mij de vuilbak in, maar op GPU vlak blijf ik mijn twijfels hebben, zelfs als ze eenzelfde performance zouden neerzetten. Nvidia staat nu eenmaal voor robuustheid en kwaliteit en dat hebben ze altijd bewezen, waar AMD net het omgekeerde wist te bezorgen... Maar, ik hoop dat ze het nu wel waar maken!
yup. als ze het dit keer waar maken op performance vlak met goede driver support geef ik ze heel graag nog een kans.
Het lijk mij nog een beetje vroeg om al conclusies te trekken , het is niet duidelijk of het probleem bij de kaart, drivers of setup van de gebruikers ligt.
Ik zeg ook niet dat Nvidia altijd perfect is of dat er geen launchproblemen zijn met kaarten. Niemand is perfect. Maar over het algemeen is de driver support van Nvidia gewoon sneller en stabieler. Het gaat over het totaalplaatje, niet de details.
Ah, dan zijn het details, nee ok.

Bij elke launch zijn er problemen, problemen zijn nooit leuk, Nvidia is alleen echt niet beter dan AMD. Zelf heb ik juist slechte ervaringen met Nvidia en goede met AMD kaarten en ik heb ook een 5700XT, zelf nooit problemen ervaren. Altijd het geroep dat er problemen zijn aan de andere kant, daar word ik een beetje moe van. Problemen zijn er aan beide kanten.
Ik roep niet alleen dat er problemen zijn aan de andere kant, ik heb het zelf ervaren. En zoals je zegt hebben beide vaker te kampen met problemen na de launch van een nieuwe reeks, alleen worden die bij Nvidia, in mijn ervaring, snel gefixed en zijn de driver updates stabieler. Na 2x jaren problemen met AMD kaarten en drivers ben ik daar weggelopen en kan ik je vertellen dat het sinds ik Nvidia kaarten gebruik, een verademing is. Meerdere vrienden van mij, die die-hard AMD fans zijn en een hekel hebben aan Intel en Nvidia's manier van zakendoen, hebben toch Nvidia gpu's, precies om de reden dat je op het einde van de dag, als je veel geld neertelt voor hardware, ook gewoon wilt dat het werkt.
Ik ben geen fanboy van geen enkel kamp, ik probeer gewoon altijd de meeste waar voor mn geld te krijgen. maar dat is meer dan alleen aanschafprijs of raw performance.
Het huidige aanbod van AMD kan dat zeker niet, ik betwijfel of het komende aanbod (RDNA2) dat wel gaat kunnen. AMD zal het vooral moeten doen met scherpere prijzen voor prestaties die hopelijk in de buurt komen van de 3070 (Die al zo snel zou zijn als een 2080ti, dus al een uitdaging op zichzelf)
De leaks gaan uit van 80 CU's voor de RDNA 2. De 5700XT zit op 40 CU's,
Een verdubbeling van performance ten opzichte van de 5700XT in performance is dan misschien zelfs conservatief. De 5700XT had een relatief kleine DIE in vergelijking met de Nvidia RTX 20xx producten.

Als RDNA goed schaalt kan het best wel een leuke topkaart worden. Al is AMD's track record op dat niveau nou niet echt best.

Zie de Radeon VII en de Vega 64.
We moeten het gaan zien natuurlijk en eerlijk gezegd hoop ik echt op een gigantische sprong voorwaarts van AMD, wat competitie zou niet slecht zijn voor de markt. Maar tot nu toe heeft NVidia toch wel behoorlijk gedomineerd op pure performance...
Vanaf de ik meen GTX 6xx serie absoluut onherroepelijk waar.
Ook met betrekking tot performance/watt. Al zijn sommige AMD Gpu's met name in het midden segment na nieuwere drivers goed uit de verf gekomen.

Denk dan aan Polaris rx480/580 de 7xxx serie en nu de 5700(xt).
Is de 3090 niet gewoon op de markt gezet om de 3080 te verkopen?

Hoe dan ook, ik zou gewoon even wachten om te kijken waar AMD mee komt. You never know.
Zat ik ook aan te denken idd. Ik vraag me af of het een strategie is. De 3080 is op zichzelf duur, maar door er een 2x zo dure 3090 naast te zetten, lijkt de 3080 opeens een heel stuk aantrekkelijker.
Hoewel je inderdaad zou kunnen zeggen dat de 3090 als een zogenoemd Halo product in de markt is gezet om de andere modellen goedkoper te doen lijken, zou je hetzelfde kunnen zeggen van de vorige generatie RTX kaarten. Ook die zorgen ervoor dat mensen vandaag vinden dat de 3080 als relatief goedkoop wordt aanzien.
Het is een Halo product ze willen daar niet veel van verkopen die chips steken ze liever in Quadro of Tesla kaarten die veel meer opbrengen. Maar het is natuurlijk wel een mooi uithangbord om te laten zien wat ze kunnen en er voor te zorgen dat AMD de prestatie kroon niet pakt. Ik denk niet dat AMD die 3090 kan verslaan met RDNA2. De 3080 evenaren lukt denk ik nog wel (of in ieder geval dichtbij komen)
Maar als ze de 3090 zouden verslaan ben ik heel verbaast. Zou wel goed zijn voor de markt om ook hier weer wat meer verdeling te krijgen. nVidia is nu veel groter dan AMD. Concurrentie is alleen maar goed voor de consumenten zie ook de prijs van de 3080 tov de prijzen van Turing. En in dit geval krijg je de GA102 chip waar dat vorige generatie een TU104 was voor de 3080 welke aanzienlijk goedkoper was. Als AMD niet bedreigend was geweest weet ik niet of nVidia de GA102 wel had ingezet voor de 3080.
Ik dacht ze gaan ruimte laten om toch nog een 3080Ti of super te releasen gezien de prijzen.
Maar als je de prestaties bekijkt zal dat raar zijn.
Als je het videogeheugen niet nodig hebt kan je net zo goed de 3080 nemen en deze 10-15% overclocken..
Als dit mogelijk is met de nieuwe kaarten? (zonder meteen aan de LN2 te moeten)
Het is bekend dat de 3080 haast niet te overclocken is
Klopt, je leest dat sommigen hun 3080 zelfs 50 tot 100 mhz moeten underclocken voor een stabiele werking.

https://nl.hardware.info/...crashes-tijdens-het-gamen
AMD heeft de naam dat ze nogal eens over de sweetspot heen gaan, meer verbruik accepteren om iets meer snelheid te krijgen. Het lijkt erop dat Nvidia nu toch duidelijk het maximale eruit wil persen. Ik las van gebruikers dat undervolten maar 5% snelheid kost maar het opgenomen vermogen bijna met 30% verlaagd wordt hierdoor. Ik denk dat ze toch erg bang zijn voor de concurrentie
Dat is een manier om het te interpreteren, maar ik gok dat niet amd roet in het eten gooit maar Samsung en hun 8nm proces wel.
En terecht, AMD is goed op dreef en daar houden ze rekening mee.
Ai dat is niet handig nee - dan vraag ik me wel af hoe de mensen met LN2 dit wel stabiel hebben gekregen. De hoogste OC is momenteel 2430 Mhz voor de GPU core https://www.3dmark.com/ha...UtF-mzCGRWsQCafLWJVOioFoc
En ja, het is met LN2. Maar ik lees bij de klachten niet dat de mensen last hebben van temperatuur problemen, dus ik ga er niet vanuit dat LN2 het verschil maakt tussen wel of niet kunnen overclocken?
Wellicht een driver-lock boven een bepaalde snelheid, welke met custom drivers er uit te halen is? (en dat de driver limiet overschreden wordt door de standaard turbo clocks, waardoor de crashes ontstaan?)

[Reactie gewijzigd door MineTurtle op 23 juli 2024 08:23]

Zou ik niet stabiel noemen, dat is de enige test die ze dan gedaan hebben naar alle waarschijnlijkheid. Zou het pas stabiel noemen als je in meerdere game benchmarks en stresstests niet crashed of artifacting krijgt.
Klopt, en zowieso zegt wat de ene kaart kan weinig over wat de andere kan. Elke chip en elke kaart is net iets anders. Ze zullen alle kaarten testen om te kijken of ze aan de kwaliteitseisen voldoen, maar die eisen zijn dat de resultaten binnen een range vallen. En dat betekent dat wanneer je 2 kaarten tegelijk gekocht hebt je nog altijd de kans hebt dat je de ene kan overclocken terwijl je de andere moet underclocken.
Ik hoop dat dat het probleem is want ik ben zelf ook in de markt voor een 3080. Overklokken hoef ik tegenwoordig niet zo nodig meer.

Toen ik vroeger een Q6600 op 2.4ghz had kon je deze ook makkelijk op 3ghz laten lopen door alleen maar de multiplier te verhogen. Met de CPU's en GPU's van tegenwoordig boek je niet meer zulke makkelijke winsten.
Vaak omdat de fabrikanten zelf al die overclocks doen om hun product aantrekkelijker te maken en er een betere prijs voor te kunnen vragen. Logisch dat je als gebruiker daarna niet veel ruimte meer houdt voor een stabiele overclock. dat zal waarsch de fabrikant z'n veiligheidsmarge zijn die ze hebben overgelaten ivm levensduur en garantie.
Niet? Mijn 8700k ging van 4300mhz all core naar 5000mhz door alleen de multiplier te verhogen.
Wauw wat een domper, m'n 2080 ti ging makkelijk over de 2100 heen. Zal dit komen door de Samsung nodes? Benieuwd wat de 3090 doet
Zal er door de 3080 tekorten ineens meer vraag naar de 3090 zijn?
Daar lijkt het wel op, in het forum waren al een aantal mensen die aangaven vandaag deze kaart te willen bemachtigen omdat het vorige week niet was gelukt.
Tja, je zult maar een paar weken moeten wachten... Dan maar het dubbele betalen! Ach, hobby mag geld kosten natuurlijk 8-)
ja ik ken er ook een paar die dat gaan doen echter denk ik dat de meeste toch zullen wachten aangezien nvidia zegt dat de winst ten opzichte van de 3080 klein is. Ik ben benieuwd, ik zou zelf dat grote verschil niet betalen.
Ik wilde voor een 3090 gaan omdat ik geen kans meer had op een 3080. Maar nadat ik deze benchmarks gezien heb ga ik mijn huidige 3080 pre orders toch maar afwachten. Had het geld er wel voor over gehad als de 3090 daar ook naar presteerde.
Ja dat is precies wat ik bedoel. Sterker nog, als de leveringsproblemen aan blijven houden zou ik zelfs even wachten op de benchmarks van de nieuwe amd serie.
Voor geïnteresseerde. Hier gisteren al de eerste video van Linus met de 3090 in actie op 8K: RTX 3090 8K Gaming - FIRST in the WORLD
Had gisteren het filmpje van Marques Brownlee gezien:
https://www.youtube.com/watch?v=kFz9afj8lu0

60FPS is wel nice, maar je moet al wat dingen uitzetten en er is eigenlijk niet echt content die 100% voor 8K gemaakt is, wat normaal is.

Ik ga waarschijnlijk nog een tijdje aanmodderen op 1440p.
Tja, Nvidia wil natuurlijk ook een beetje de ontwikkelkosten terug verdienen. Gezien techniek, architectuur en ontwerp kan ik me niet voorstellen dat de 3090 dubbel zo duur is als de 3080 om te maken, zal dus meer marge op zitten. Als je dan eerst een schaarste creëert bij de lancering van de 3080 en vervolgens waarschuwt voor schaarste bij de lancering van de 3090, spreek je mensen flink aan op hun FOMO. Met een beetje geluk voor Nvidia leidt dat tot meer verkoop.
Het duurste element is het feit dat alle chips op een wafer als 3090 begint en uiteindelijk maar een beperkt aantal geschikt zijn voor de 3090, de rest 3080's en 3070, s worden. Afhankelijk van wat de yields zijn kunnen ze initieel zeer duur zijn.
De GPU van de 3090 kaarten is de GA102. De 3080 heeft inderdaad een lagere bin GA102, maar de 3070 is de GA104. Daarvan is nog geen binning bekend, dat zal afhangen van de yields. En vermoedelijk komt er ook nog een GA106 voor het low-mid segment.

Op dit item kan niet meer gereageerd worden.