Door Tomas Hochstenbach

Redacteur

Nvidia GeForce RTX 3090 SLI Review

Zó mooi had het kunnen zijn

18-10-2020 • 06:00

212

Singlepage-opmaak

Conclusie

In games die DirectX 12 multi-gpu ondersteunen, kan het toevoegen van een tweede RTX 3090 het verschil maken tussen speelbaar en onspeelbaar. De schaling die we zien is doorgaans uitstekend, met uitschieters naar meer dan 90%. In spellen als Shadow of the Tomb Raider en Deus Ex: Mankind Divided maakt de SLI-opstelling het mogelijk om comfortabel in 8K-resolutie te gamen. Met één RTX 3090 kun je dat in die games gevoeglijk vergeten.

Zo mooi had het voor veel gamers kunnen zijn. Voor de vijf games die we in dit artikel hebben getest, hebben we echter al flink moeten graven in ons game-archief. De praktijk is dat vrijwel elke game die anno 2020 in de winkels belandt geen ondersteuning biedt voor enige vorm van multi-gpu. Tenzij je stomtoevallig groot fan bent van één van de games op Nvidia's beknopte lijstje hangt de tweede kaart het grootste gedeelte van de tijd voor Jan met de korte achternaam in je systeem.

Daar komt nog eens bij dat Nvidia de ondersteuning voor de traditionele, drivergebaseerde SLI heeft stopgezet. Ook in oudere games waarvoor nog een dergelijk profiel beschikbaar was, heb je zodoende niks aan een tweede RTX 3090. Nu zijn dat voornamelijk games die je inmiddels met gemak op één kaart kunt draaien, maar toch.

Wat rest, zijn de zogenaamde 'creatieve' workloads. Zeker rendersoftware schaalt doorgaans vrijwel lineair, waardoor het toevoegen van een extra kaart de benodigde tijd vrijwel halveert. In videobewerkingssoftware is de invloed beperkter: veel van de mogelijke winst met gpu-versnelling heb je met één kaart al lang en breed te pakken, je moet wel een hele dikke configuratie en erg zware projecten hebben om een tweede RTX 3090 de moeite waard te laten zijn.

Met dat nieuws zijn fanatieke renderaars vast hartstikke tevreden, maar feit is dat er daar veel minder van zijn dan gamers. En voor die doelgroep is de meerwaarde van SLI anno 2020 nihil, zo moeten we met pijn in het hart concluderen. Bovendien lijkt de hoop op een plotselinge ommekeer ijdel, zowel door gebrek aan interesse bij gameontwikkelaars als door Nvidia's zorgvuldige sterfhuisconstructie.

RTX 3090 SLI systeem

Reacties (212)

212
199
70
9
1
72
Wijzig sortering
Over de SLI in gaming: LTT had het er ook over dat je wel winst hebt met bijvoorbeeld Shadow of the tomb raider, maar dat de 99th percentile toch iets verslechtert, waardoor je schokjes ervaart. Dus dat je ondanks een veel hogere gemiddelde framerate het toch niet vloeiender aanvoelt.

Edit: typo

[Reactie gewijzigd door ZatarraNL op 22 juli 2024 17:49]

Stuttering is een inherent probleem van multi-gpu met alternate frame rendering, zoals op pagina 1 staat uitgelegd. Die 'schokjes' worden voor een groot deel veroorzaakt doordat de tijd tussen de frames variabel is, terwijl je monitor op een vaste snelheid ververst. Als beide kaarten binnen zeer korte tijd een frame af hebben, kan daardoor een beeld dat wel is gerenderd worden overgeslagen bij de daadwerkelijke weergave. Dat frame is echter wél meegenomen in de gemiddelde framerate en softwarematig gemeten frametimes. Die zijn in onze SotTR-tests overigens niet slechter dan die zonder SLI, wel zie je dat de winst van SLI in de 99p-waardes een stuk kleiner kan zijn.

De crux is dat óók softwarematig gemeten frametimes bij SLI niet alles zeggen, omdat bovengenoemd probleem deels hardwarematig is: software weet niet of elk beeld daadwerkelijk is weergegeven. Staar je dus specifiek in multi-GPU tests niet blind op de 99p-waardes.
Die 'schokjes' worden voor een groot deel veroorzaakt doordat de tijd tussen de frames variabel is, terwijl je monitor op een vaste snelheid ververst.
Zou dit dan door adaptive sync opgelost worden?
Adaptive/G-sync kan maar tot op zekere hoogte de boel compenseren.
Nope, ik game zelf op één systeem met de 1080ti in sli in combinatie met een gsync monitor. Heb altijd één fps counter aan staan maar toch voelt het niet zo smooth als op 1 video kaart, af en toe eens hapering of graphical glitch in sommige games. Maar dat laatste is vooral vanwege het feit dat er nog maar weinig games goede sli support hebben
SLI is welliswaar werkend gemaakt over de NVLink bridge, maar zorgt de echte NVLink er niet voor dat alle GPU's als één geheel werken? Dus geen Alternate Frame Rendering; geheugen mag bij elkaar opgeteld worden van alle kaarten, en er is geen master-slave relatie meer.
Voorheen stond NVidia dat alleen op de Quadro's/Tesla's toe, niet op GeForce/RTX
Microstutter is precies waarom ik na 2 pogingen SLI voor altijd links heb laten liggen (destijds GTX 560TI in SLI gehad en daarna nog een keer GTX 970 in SLI). Beide keren had ik in veel games enorm veel last van microstutters en dat voelt gewoon heel vervelend. Het idee van SLI is leuk maar de uitwerking is minder, niet zo gek dat NVIDIA het dood laat gaan.
SLI heeft ook weinig toegevoegde waarde meer boven op MultiGPU van DX12. Wat beide GPU's ook veel krachtiger/zinvoller weet in te zetten. Alleen ondersteund niemand dit nog.
En dat zal ook nog wel even duren. Voor de meeste budgetten kan je gewoon een betere kaart kopen ipv 2 kaarten. Alleen de grootste budgetten zitten aan hun max. Maarja daar zit voor de developer het marktaandeel niet om hierin te investeren.
De MultiGPU markt is vrij groot, zo'n beetje alle game laptops hebben er 2. Mocht dit opgepakt worden kunnen die APU's van AMD wel eens aan populariteit winnen bij gamers. Als meer games het zouden ondersteunen, wordt mijn volgende AMD een APU.

Voordeel van DX12's MultiGPU is dat je in principe 2 (of meer) compleet willekeurige GPU's kan inzetten. Nadeel is dat het (nog) niet makkelijk te ondersteunen is vanuit developers.
Ik had de kans om twee 5700XT kaarten te kopen voor minder dan de prijs van één kaart, dus uiteraard gedaan. Heb ze nu beide in een mITX systeempje pronken en ik moet zeggen dat de DX12 mGPU tech ongelofelijk goed werkt icm FreeSync. Ik ben best gevoelig voor stotteren, maar ervaar echt een volledig vloeiende weergave in ondersteunde titels. Daarbij haal ik af en toe tot 98% schaling, met name in 3D Mark TimeSpy!

Misschien interessant voor Tweakers om ook eens de AMD versie te proberen?
Daar hoeft de oorzaak niet altijd aan SLI te liggen. Ook single GPU's kunnen er last van hebben. Naast grafische kracht telt ook de CPU en het RAM mee. Ik vind die 3200 mt/s RAM maar matig in deze. Had liever voor 3666 of 4000 mt/s gegaan dan zouden de prestaties misschien iets beter zijn. 128 GB is dan ook veel. Met 32 of 64 GB RAM was de setup ten eerste goedkoper en ten tweede sneller omdat je voor hetzelfde geld zeer snel RAM kunt gebruiken. Stuttering heeft vaak met het RAM te maken. Daar is geen SLI setup voor nodig. Verder had ik in de test ook Assassins Creed Origins willen zien verschijnen. Dat spel leunt bizar op RAM snelheden. Sowieso de hele AC franchise.

Dit artikel is een beetje "omdat het kan" en zie ik het nut van deze opstelling niet zo en zeker niet voor die prijs. Tenminste...als het om gaming gaat. Anders wordt dit een heel ander verhaal.

Verder goede testsetup en een mooi artikel welke ik zit te lezen op een armzalige RTX2080. Ach, mijn kaartje doet het verder prima, probleemloos en koel (door waterkoeling GPU). Voor 1440p kom ik niets te kort. RDR2 draait alles rond de 55fps keurig met alles op high en G-Sync zorgt ervoor dat het beeld niet gaat haperen. Microstutter heb ik ook wel eens, maar minder dan op een 60 Hz paneel. 144Hz op een RTX2080 is mooi, maar 144Hz op een RTX3090 zal een eitje zijn op 1440p. We zien al 4K G-Sync schermen verschijnen en dat zal snel de nieuwe norm worden voor deze videokaarten. Alleen de levertijden...niet te plannen en geen enkele leverancier heeft deze liggen. Dat is erg jammer.
Ja, ik was dan ook verrast door de conclusie van Tweakers.

LTT gaf juist aan dat SLI geen toegevoegde waarde had. De max FPS lag flink hoger, echter de 99th percentiles lagen lager. Waardoor je dus inderdaad meer haperingen ervaarde.
LTT zou ik als het echt op hardwarereviews aankomt niet te zwaar aan tillen eerlijk gezegd. Linus is een geweldige entertainer en presentator in veel erg vermakelijke video's. Maar je ziet gewoon als het echt op de inhoudelijke feiten aankomt Linus regelmatig niet volledig kan verklaren waarom iets zo is*, en daardoor regelmatig tot een onvolledige conclusie komt.

Vrijwel elke andere reviewsite - waaronder Tweakers sinde HWI overname - hebben gewoon meer kennis in huis om wel het hoe en waarom te kunnen verklaren, zoals te lezen in de reactie van @Tomas Hochstenbach ;)

*Of hij kiest er bewust voor de technischere informatie weg te laten om zijn video's korter en laagdrempeliger te houden

[Reactie gewijzigd door !mark op 22 juli 2024 17:49]

wat betreft LTT weet ik wel zeker dat hij 3/4 van de technische details weg laat om het kanaal inhoudelijk laag drempelig te houden.
Hangt er heel erg vanaf, sommige videos zijn best technisch
Eens, wat betreft pure hardware kijk ik liever naar mensen als Steve Burke van GamersNexus
denk dat LTT inderdaad ook meer op het gemiddelde publiek richt...ok iets bovengemiddeld misschien qua technische interesse. Maar zover als velen hier gaan en hoe vaak ook zelfs bij Tweakers er nog weer een expert in de comments kan opduiken met hele specifieke kennis. Daar is LTT gewoon niet voor,
Ik denk dat LTT aangeeft dat SLI geen toegevoegde waarde heeft omdat het aantal games dat het ondersteunt op 2 handen te tellen is (benchmarks weggefilterd) én de support door Nvidia officieel eindigt in januari 2021 en zij het stokje over de schutting gooien richting de game developers... die er níks mee gaan doen met uitzondering van wellicht (synthetische) benchmarks zoals ''ashes of the benchmark" achtige 'games'. :+

En dan hebben we het nog niet over die stutter gehad, die wel degelijk aanwezig is idd en een gebruikerservaring oplevert die niet bepaald aanvoelt alsof je 3000,- aan grafische rekenkracht in je machine hebt. :+

[Reactie gewijzigd door Ayporos op 22 juli 2024 17:49]

Tweakers zegt ”En voor die doelgroep is de meerwaarde van SLI anno 2020 nihil”.. LTT zegt dat er geen meerwaarde is. Dat is toch min of meer hetzelfde? :? Ik zie geen verrassend verschil...
Dit fenomeen is al zo oud als sli en crossfire bestaan.
De term SLI staat voor scalable link interface en werd eind jaren '90 voor het eerst gebruikt door gpu-fabrikant 3dfx.
Dit is niet helemaal correct. De afkorting "SLI" stond bij 3dfx voor Scan-Line Interleave.
Bij die eerste implementatie werd ook inderdaad de beeldlijnen om en om door de 2 videokaarten gegenereerd.

Pas later, toen de term opnieuw geintroduceerd werd door nVidia (blijkbaar in 2004) werd het "scalable link interface"
Scherp, woordje 'tegenwoordig' toegevoegd ;)
Mijn mening op Nvidia:
Jammer dat ze SLI alleen toepassen op duurste segment: RTX3090. Stel dat ze wel toelaten op RTX3080, dan weet ik zeker dat Nvidia dat bewust heeft niet gedaan, wetende omdat 2x RTX3080 meer kan dan RTX3090 in metingen. Ze kosten beiden helft, en met SLI kosten ze net zoveel als RTX3090 maar halen wel meer prestaties uit, dus sneller voor dezelfde geld. Dan wordt er meer RTX3080 gekocht dan RTX3090 die voor sommige mensen te duur is. Nvidia heeft mogelijk bewust niet gedaan.

De winst onder games is meestal beperkt. Sommige games worden 20 procent sneller, sommigen 50 procent, maar nergens wordt 2x sneller mee. In feite ben je alleen maar meer geld kwijt voor wat winst met SLI opstelling. Voor mensen die op centjes letten is dit duidelijk niet de moeite waard.

Gamen op 8K is nog niet rijp genoeg, je ziet overal nog steeds onder vereiste 60fps grens. Zelfs niet eens op medium instelling. Maar aan andere kant vraagt 8K ook voor krachtigere CPU of het wordt niet beter op. Bovendien moet je 8K gaming monitor hebben, en dat is er bijna niet. Er is dus geen winst mee te halen op 8K gaming. Bovendien moet je de 70" 8K televisie op aardige afstand neerzetten, waardoor situatie zeer vergelijkbaar is met 4K monitor op je bureau op ca 30 cm afstand... qua scherpte bijna niet te vergelijken. Natuurlijk kijkt het scherper, maar dat is je gedachte. Ik weet zeker dat je pixels al niet goed kan zien op 4K monitor, laat staan dat je pixels kan zien op 8K op paar meter afstand. Waarom praten sommige youtubers dan wel over? Tuurlijk is het cool om op 8K te kunnen spelen, maar zien ze dan ook echt met een meetlint ernaast? Nee, dat is onmogelijk.

Daarom zou ik gewoon bij 4K houden, zeker omdat 8K veel te duur is voor meeste mensen. Je geeft al snel duizenden euro's uit terwijl je vergeet dat je graag mooie relaxte stoel en bureau wil, of mooi schone muis en keyboard. Het is geld smijten omdat je gek bent op nieuwe techniek, maar je let niet meer op geld/performance balans. Tuurlijk kan je doen als je steenrijk bent, maar het is gewoon lachwekkend achteraf omdat het gewoon niet nuttig is en tijd is ook duidelijk niet klaar voor. Veel games hebben nog niet eens volledige 8K aansturing. Dit merken aantal youtubers op dat 8K niet eens rijp genoeg is.

Alleen voor industrie en onderzoek waar tijd geld is, dan kan SLI wel wat helpen. Anders niet.
Voor normale persoon is SLI dus niet interessant genoeg en het is gewoon te duur omdat de winst klein is. Je kan beter gewoon bij enkele RTX3090 blijven, welke goed genoeg is voor meeste games op 4K. Staat ook minder dom en je bent ook veel meer tevreden, en je houdt geld over om je bureau even goed te maken, of mooie 4K monitor erbij halen.

[Reactie gewijzigd door MrDummy op 22 juli 2024 17:49]

Zelfs als SLI ook voor de RTX 3080 werd ondersteund denk ik niet dat het voor de sales van de 3090 GPU's veel had uitgemaakt. De markt van enthusiasts/overclockers zorgt dat de kaartverkoop altijd blijft lopen. Voor het gemak ga ik er even vanuit dat er productieratio van de 3090 t.o.v. de 3080 lager dan 20% is. If anything zouden ze met SLI een surplus van 3080's kunnen verkopen aan de groep die wel meer power willen dan een enkele 3090, maar 1500 euro daarvoor mooi zat vinden zodra deze wat ruimer beschikbaar is.

Edit: Gefeliciteerd met je verjaardag

[Reactie gewijzigd door Chrono Trigger op 22 juli 2024 17:49]

Misschien maakt het weinig uit, maar ik merk wel op dat meer mensen graag prijs/performance willen en kiezen voor RTX3080 en niet voor overdreven geprijsde RTX3090. En RTX3090 vraagt ook veel meer van systeem, dikke voeding en goede CPU. Het wordt allemaal veel duurder en geeft iets meer stress.

Dank je wel voor de felicitatie!
Ach dat is al vaker gedaan maar SLI levert in de praktijk zoveel problematiek op dat het dan alsnog beter was geweest om voor de 3090 te gaan.
Tsja. Eigenlijk zijn alle multi-GPU implementaties na die van 3dfx op voorhand al waardeloos, aangezien die, in tegenstelling tot de ScanLine Interleave van de Voodoo2 en Scalable Link Interface (on-board tussen de VSA-100 chips) van de Voodoo 5xxx, niet transparant werken en dus ondersteuning vanuit games vereisen om te werken. Developers gaan over het algemeen niet voor een niche markt (want dat is multi-GPU toch echt wel in de post-3dfx vorm) ontwikkelen, aangezien daar verhoudingsgewijs geen geld valt te verdienen.
De MultiGPU van DX12 is anders redelijk indrukwekkend. Erg jammer dat het nog nergens ondersteund wordt. Maar die kan 2 willekeurige GPU's voor hun eigen taken inzetten. Zodat je niet om het lijntje of om de frame hoeft te renderen.

Hopelijk als DX12 goed ingeburgerd is en de game devs wat meer ervaring hebben met het 'bare metal' concept, dat multi-gpu eindelijk eens wat ondersteuning krijgt. Genoeg voordeel uit te halen gezien een behoorlijk deel van de gamers tegenwoordig wel 2 GPU's in zijn laptop heeft zitten, zo heel niche is die markt niet meer.

Als meer games MultiGPU zouden ondersteunen, komt er in mijn volgende AMD ook een onboard GPU bij. AMD zou hier naar mijn mening wat meer moeite in kunnen stoppen, die hebben een gouden gamerei in handen.
De MultiGPU van DX12 is anders redelijk indrukwekkend. Erg jammer dat het nog nergens ondersteund wordt.
Ja, maar dat is nu precies het probleem. Het moet ondersteund worden. Dit in tegenstelling tot de Glide API van 3dfx, die het hele SLI gebeuren intern afhandelde, waardoor de ontwikkelaar hier geen support voor hoefde in te bouwen, want "het werkte gewoon™". Idealiter zou multi-GPU, tenzij het echt heel specifieke taken zijn, transparant moeten werken, zonder dat een ontwikkelaar er iets voor hoeft te doen. Alleen dan zal het gemeengoed worden. Een keerzijde is dan wel dat het mogelijk minder optimaal werkt. Bijv. bij 3dfx SLI was het zo dat alle data tussen de twee videokaarten gedupliceerd werd, en een extra videokaart enkel de mogelijkheid tot extra performance en/of hogere resoluties opleverde, omdat bij beide kaarten het VRAM hetzelfde werd gebruikt. Effectief moet je het geadverteerde VRAM voor 3dfx kaarten dan ook delen door het aantal GPUs (voor de Voodoo 5xxx reeks. De Voodoo2 had een andere verdeling vanwege de losse chips)
Jammer dat dit review dé toepassing voor dit soort kaarten volledig passeert: naast gaming en grafisch bewerken is er nog een andere doelgroep, namelijk AI ontwikkelaars. Deze kaarten lenen zich bij uitstek voor het trainen van grote AI modellen. De SLI maakt dat er een dubbele hoeveelheid grafisch geheugen beschikbaar komt, wat een gigantische sprong vooruit is. Zou mooi zijn als tweakers hier ook een test mee doet.
Voor de modellen die ik draai zijn de extra cores juist een belangrijke winst. Aangezien Tensorflow een GPU variant heeft voor Nvidia kaarten en juist de Tensor/FP32/FP16 cores erg belangrijk zijn. De hoeveelheid geheugen maakt in verhouding niet zoveel uit.

Het zou inderdaad fijn zijn als Tweakers testen zou gaan doen in hun reviews, naast gamers en creatieve gebruikers, voor software engineers.
Daar heb je geen SLI voor nodig. Gewoon meerdere kaarten in je setup
Niet helemaal - dankzij de NVLink hoef je, als je berekeningen "out of core" gaan, m.a.w. als je videokaartgeheugen vol is, niet gelijk je gewone geheugen aan te spreken, maar kan de workload verdeeld worden over de twee kaarten (die normaliter allebei precies hetzelfde in het geheugen moeten hebben om parallel te werken). Out of core zorgt voor een enorme vertraging in de berekeningen, en nu heb je dus ineens twee keer zoveel geheugen tot je beschikking - soort van. Sommige dingen moeten nog steeds twee keer in het geheugen staan, en de andere data moet natuurlijk nog steeds worden verschoven over die NVLink bus, maar dat gaat een stuk rapper dan over de pci bus naar je geheugen.

Dit verhaal geldt trouwens voor GPU renderers, maar het lijkt me dat andere GPU workloads ook wel zo werken.

Je kan er hier meer over lezen: https://www.nvidia.com/en-us/data-center/nvlink/

[Reactie gewijzigd door mixil op 22 juli 2024 17:49]

Cross-GPU memory access is inderdaad relatief traag, maar het ging hier om AI training. Dat doet niet zo'n beroep op de bus bandbreedte. Voor modellen die op de GPU zelf passen is 1x PCIe 3.0 al genoeg, dus met de gangbare 8 lanes heb je zo'n 700% extra capaciteit beschikbaar.

De grote ellende is dat Tensorflow nog niet efficient en automatisch het werk kan verdelen over GPU's. Dan hou je inderdaad nog veel cross-GPU latency zonder NVLink.
Heb je voor rendering etc wel SLI nodig?
Dat is niet correct of je moet gedacht hebben dat ik zei dat anders de tweede kaart niet gebruikt kan worden. Er valt namelijk wel degelijk performance winst te halen bij communicatie tussen de GPU's.

Ook al hebben de meeste deep learning frameworks geen fatsoenlijke support voor SLI wegens het gebruik van CUDA zijn er toch gevallen waarin dit zeker wel nut heeft.

Voor bijvoorbeeld de "1 billion words" benchmark van Tensorflow blijkt uit de gepubliceerde resultaten dat: twee 2070 Supers 8258 woorden per seconde leren. Met SLI is het 9695 per seconde.
Doelgroep van Tweakers zijn gamers, software engineers halen hun informatie ergen anders vandaan. Logisch dat Tweakers die testen niet draait dus.
Dat geloof ik niet. Ik denk dat gamers een subset van het Tweakers publiek zijn. En software (ai) ontwikkelaars ook.
Wellicht heb je wel gelijk dat het niet hun #1 doelgroep is. Echter zijn er toch een groot aantal mensen op tweakers die software ontwikkelen. Zie ook dit onderdeel op het forum dat geheel gericht is op vragen mbt software ontwikkeling.
Softwareontwikkeling
Doelgroep van Tweakers zijn gamers
Blijk ik al achttien jaar naar de verkeerde website te gaan. :)
Een tweaker is iemand die t allemaal net ff anders doet dan de rest....

Voor de niet tweaker zal dan ook onverminderd enkel en alleen het volgende blijven gelden : RTFM !
Naar welke platform gaan software engineers volgens jou dan?

Vind het ook apart dat hier gereageerd wordt dat het geen doelgroep is van Tweakers. Heb toch zelfs een keer bij hun op het hoofdkantoor een lezing gehad van CGI over hun bijdragen aan Galileo.
Dat komt waarschijnlijk omdat de modellen die jij draait netjes samen met een batch aan training data in je VRAM passen. Dat is zeker niet altijd het geval, wanneer je bijvoorbeeld convolutional neural networks wilt draaien op grotere plaatjes (bv 2000x2000 pixels), of zeker wanneer je gaat werken met (medische) 3D plaatjes, dan is méér VRAM soms echt noodzakelijk om die modellen te trainen.
Misschien had ik mijn statement wat anders moeten verwoorden. Dat ik zeg "voor de modellen die ik draai zijn juist de extra cores een belangrijke winst" was niet bedoeld om jouw statement te ontkrachten, maar als aanvulling er op.

Ik weet dat zodra je met data zoals afbeeldingen gaat werken de extra geheugen een must is. Het klopt dat al mijn data in de VRAM past, ik ben voornamelijk bezig met wiskundige modellen.

Vandaar dat ik afsloot met "Het zou inderdaad fijn zijn als.."
Je hebt helemaal gelijk dat dat ook een doelgroep is van deze kaarten. Het is echter wel een kleine doelgroep. Daarnaast moet je ook zelf de kennis is huis hebben om dit te testen. Je kan er ook crypto mee minen. Ook een doelgroep, maar (ook) niet groot genoeg om mee te nemen in dergelijke testen. De core blijft toch gamen.
Als de scaling en ondersteuning voor gamers zo beroerd is, worden renderers en cryptominers vanzelf je grootste doelgroep.
Is het uberhaubt nog interessant voot cryptominers, gezien de prijs van zo'n setup en het energieverbruik? Ik dacht dat cryptominen een stuk minder lucratief was geworden.
Helaas lees je nu dat het weer een vlucht neemt en dat voornamelijk AMD 5700 kaarten vu worden opgekocht omdat ze beter zouden scalen voor minen en een goede prijs / verbruik ratio hebben. Dit zou wel eens heel nadeling kunnen gaan uitpakken voor de prijzen wanneer de nieuwe AMD kaarten op de markt komen.
Dat dus, zo een setup is voor zoveel doeleinden te gebruiken. AI berekeningen lijkt mij ook niet bepaald de belangrijkste doelgroep voor deze kaarten/setup.
En toch... AI ik doe er zelf niets mee op het moment, maar het is wel fascinerend. Ik heb alleen geen idee hoe je dat zou moeten benchmarken. Cryptominen kan wel, ether en dan Mhash/s of zo, maar dat vind ik op dit moment inherent onjuist. Het concept van een public ledger is leuk, maar door het proof of stake wordt er nodeloos veel energie verbruikt tov een trusted private ledger.
Dat energieverbruik begint een reden te worden om het actief te gaan terugdringen. Bitcoin gebruikt nu 1% van de wereldwijde energie, en dat gaat snel groeien, is de verwachting. Dat helpt lekker mee in het tijdperk van klimaatverandering.
Toch vraag ik me dat wel af, ik heb vrij veel gamers in mijn omgeving, echter zie ik ook zakelijk gezien redelijk wat GPU gebruik. Als ik dan kijk waar deze "Titan class" kaarten gekocht en gebruikt worden is dat gemiddeld genomen niet bij de gamers, slechts een zeer klein percentage gamers zie ik in dit segment shoppen.

Nee, kaarten in het €1500 segment en hoger zie ik vrijwel alleen zakelijk gebruikt (natuurlijk leuk dat je er ook een spelletje op kan spelen, maar dat is in de regel niet het hoofddoel). Waar de RTX 3080 duidelijk een kaart gericht is op gamers, zie ik dat voor de 3090 toch anders, die kaart lijkt veel meer gericht op professionals (die misschien ook wel eens een spelletje spelen).
Die prijsstelling is een premium prijsopslag voor mensen die het beste willen en het toch wel gaan betalen. Een beetje het smartphone prijsmodel van de laatste jaren
Ik vraag mij dan weer af hoe het zakelijk uit kan om voor een 3090 te kiezen ipv een 3080. Zijn er geen betere doelen voor het verschil in budget denkbaar?
Dat zit hem voornamelijk in workloads die veel geheugen vereisen. De "Gamer" kaarten hebben vaal relatief weinig geheugen (bijv. 10GB op de RTX 3080) vergeleken met de Titan Class en andere kaarten voor de zakelijke markt (voorheen bijvoorbeeld Quadro of Tesla genaamd, in deze generatie 'gewoon' A6000 en A40)

Ook hebben vaak de Titans (en kaarten in de andere zakelijke segmenten) meer zaken unlocked in de (soms gecertificeerde) drivers waardoor je in bepaalde workloads betere performance ziet.
Beetje professional heeft een salaris van (niet zelden aanzienlijk) meer dan 50k, na sociale premies, secundaire voorwaarden, kosten arbeidsplaats etc kost dat de werkgever 100k+ p.j., kaart gaat twee, drie jaar mee, prijsverschil ex BTW is iets van €500. Je hoeft niet bijster veel productiever te worden om dat er uit te halen.

En da's nog afgezien van hoe er niet zelden met software gewerkt wordt door duizenden euro's per jaar kost.

Natuurlijk kun je elke euro maar één keer uitgeven, maar personeel wat jarenlang regelmatig langer dan nodig zit te duimen draaien trekt een bezuiniging van een paar honderd euro héél snel de netto rode cijfers in.
Voor de 3090 is de core juist niet gaming. De 3080 is een gaming kaart, de 3090 is voor specifieke professionele toepassingen zoals rendering, AI, etc. Dat er wereldwijd een paar gamers zijn die het dubbele betalen voor 10% in-game prestaties maakt dat "gaming" niet de core toepassing.
De Nvidia beschrijving sluit af met 'allemaal voor de ultieme gamingervaring.'
Wat hadden ze dan moeten schrijven? ''allemaal voor de ultieme mine-ervaring'' ?
True, maar dan is er ook geen pagina voor iets anders dan gaming-GPU's. Dat de site / reclame gericht is op gaming is niet onlogisch (relatief de grootste kopersgroep, de groep waar reclame het meest nodig is). Dat de 3090 dan aangekondigd wordt als 'ultieme gamingervaring' is dan logisch...betere gaming prestaties ga je niet krijgen dan de 3090, dus het is waar. Alleen op de general page voor de 30-serie wordt 'content creators' nog naast 'gamers' genoemd, maar specifieker dan dat wordt het niet. Dat verandert verder niets aan het feit dat de 3090 voor gaming niet bepaald meerwaarde biedt boven de 3080, maar voor de andere hierboven genoemde toepassing zeker wel meerwaarde biedt.
Kan je niet beter de titan rtx kopen want die kost 3000,00 euro.Dan zou je sli niet meer nodig hebben.
Dat is ook een kaart met 24gb geheugen.
De RTX 3090 is de opvolger van de Titan RTX: 3090 volgt Titan RTX op, en niet de 2080 Ti

Geruchten zijn dat er een nieuwe Titan RTX komt...die zou dan 48GB VRAM hebben en €3000 gaan kosten.
Ik dacht dat die er al was kijk maar op de officiele website van nvidia.

https://www.nvidia.com/nl...ng-ai/products/titan-rtx/
ik wist niet dat die 48 gb geheugen heeft.

ik dacht net zoals jij schrijft dat de opvolger toch die 2080is,logisch zou zijn de opvolger van de 3090 dat dat die 2080 moet zijn.
De opvolger van de titan xp is volgens mij de titan rtx toch of zie ik dat verkeerd?
Als dat niet zo is dan zou dat heel erg onlogisch zijn.
Hij loopt op de turing technologie , wat dus ouder is als de nieuwste 3090 er.
Dus die titan rtx is eerder gemaakt, met verouderde technologie.

live long prosper :there is no logic.spock

[Reactie gewijzigd door rjmno1 op 22 juli 2024 17:49]

De Titan RTX die jij linkt is de '2000-generatie Titan' die dus boven de 2080 Ti gepositioneerd is. Er zijn geruchten dat er een '3000-generatie Titan' komt, wederom Titan RTX genaamd (lekker handig) met 48GB erop.
De 2080 is opgevolgd door de 3080, de Titan RTX is opgevolgd door de 3090 en op dit moment is er nog geen opvolger voor de 2080 Ti (nog geen 3080 Ti aangekondigd).
Ja volgens mij moeten die dus ook nog uitkomen.Die 3080 ti zou dus nog sneller zijn als zonder ti.
Ik heb een 3080. Geen klagen 😉
Werkt heerlijk hoor mijn prachtige Zotac. Wilde natuurlijk eigenlijk een FE, maar met een gelukje dankzij het levertijden topic een kaart kunnen krijgen. De moeite en prijs waard !
Stomme vraag misschien maar ik stel hem toch want ben benieuwd. AI berekening maakt geen gebruik van de video uitgangen op een videokaart toch? Zou het verdubbelen van het geheugen dan niet ook kunnen werken zonder SLI bridge? Ik dacht namelijk altijd dat een SLI bridge alleen nodig was om de kaarten te linken vanwege de video out die slechts over één kaart gaat (geen idee of dat wel klopt)
Zou je dus twee kaarten op een moederbord kunnen prikken zonder SLI brug om wel voordeel te kunnen hebben van het verdubbeld GPU geheugen.
En zou dat dan dus ook kunnen met een 'mindere' kaart die geen SLI ondersteund, zoals een 3070 bijvoorbeeld?
Absoluut, alleen in de volgende geval je zult dezelfde data op alle GPUs moeten hebben staan:
https://keras.io/guides/distributed_training/
Model parallelism, where different parts of a single model run on different devices, processing a single batch of data together. This works best with models that have a naturally-parallel architecture, such as models that feature multiple branches.
Dus het is wat minder efficient.

Je zou ook verschillende GPUs kunnen gebruiken, alleen wel handig om dezelfde arch te hebben ivm verschillende cuda versies.

[Reactie gewijzigd door Vlad86 op 22 juli 2024 17:49]

Nee voor AI development of gewoon cuda /tensor flow core development gebruik je gewoon meerdere gpus om snel meerdere paralelle operaties uit te voeren.
Ik heb hier bv een setup staan van 1 pc met 12 1080tis. Gewoon in 12 verschillende slots, niet verbonden met elkaar. Ik ken niemand die SLI gebruikt voor niet grafische zaken.
Niet als je een CNN traint op grote beelden. Dan is die hoeveelheid geheugen heel hard nodig. Meerdere kaarten geeft alleen een snelheidswinst door parallelle verwerking, maar de hoeveelheid gegeugen per kaart blijft beperkt. Met NVLink kan je het geheugen van twee kaarten combinerem, dus 2x zoveel beschikbaar voor je zware AI model.
Ik vind het eerder jammer dat men nooit VR benchmarked, neem een Index of G2 en schaal die 200% op met super sampling. Juist daar zou ik ook kunnen indenken dat SLI een kaart per oog zou kunnen gebruiken.
Juist daar zou ik ook kunnen indenken dat SLI een kaart per oog zou kunnen gebruiken.
Daar zat ik ook al aan te denken. Je hebt dan nog wel iets als G-/FreeSync nodig met individuele (asynchrone) panels per oog.

Goedkoop zal het niet zijn in ieder geval.
naast gaming en grafisch bewerken is er nog een andere doelgroep, namelijk AI ontwikkelaars.
Die maken geen gebruik van SLI, SLI is specifiek gericht op graphics. Voor AI worden andere technieken gebruikt, die wel gebruik kunnen maken van de NVLink connector, maar niet specifiek SLI.
Waarschijnlijk een rare gedachte, maar zou het ooit mogelijk zijn om GPU’s en cpus als “1” te laten functioneren? Als een OS multicore als 1 kan detecteren, waarom dan eigenlijk niet multicpu/gpu? Ik kan me voorstellen dat je dan een probleem hebt met cpu / ram adressen (?) maar kunnen we dat niet omzeilen?
Misschien wel, maar voor nu ondersteunen cpu’s en GPU’s heel andere instructiesets en heeft een GPU veel en veel meer geheugenbandbreedte nodig dan een cpu enz.

Lijkt me vooralsnog een lastige propositie waar ik ook niet direct een groot voordeel van zie. Oprecht nieuwsgierig: wat stel je je er precies bij voor als dit zou kunnen?
Duurzaamheid, hergebruik van componenten, een moederbord met bijvoorbeeld standaard 4 cpu sloten en als je wat meer wilt prik je gewoon bij. Zonder dat je performance teniet doet en niet vast zit aan allerlei compatibiliteit problemen zoals in de review.

CPU/GPU als RAM dus?
Gaan we dan niet gewoon terug naar de tijd van voor GPU's waar alles software rendering was?
Dat kan al als je kijkt naar de APUs.

Herbruikbaar niet echt, technisch best mogelijk. Maar waarom? De ontkoppeling is bedacht met PCI (express) waardoor het plug en play al mogelijk is. Verder zit er weinig verschil met Ram inpluggen.
Kan OS dat al? Volgens mij rapporteert een OS nog steeds multicore en is het aan de programma's om daar gebruik van te maken.
Tuurlijk.... in zekere zin gebeurd dat al. Weet niet of windows zelf bijv opencl gebruikt. Maar de volgende progs wel :

https://en.m.wikipedia.org/wiki/List_of_OpenCL_applications

Photoshop , winzip , het kan allemaal...

Het GPGPU concept bestaat al langer.

https://nl.hardware.info/...encoding-photoshop-winzip

Maar of , er is geen interesse , of is de winst te mager , ik zou t allemaal niet weten.. net als sli en crossfire heeft t allemaal geen sprongen gemaakt de laatste jaren...
Je kan nu al met openACC met simpele tags in je software parallelle stukken offloaden naar je GPU, zonder dat je zelf CUDA kernels hoeft te schrijven. Dat is nog niet helemaal wat ik denk dat je bedoelt, maar dat komt al wel een heel eind kant op. (Je moet er wel eerst nog CUDA-meuk voor installeren)

Als je wilt kan je een stukje Fortran code opsturen dat een Mandelbrot fractal uitrekent met openMP naar het CPU, of met openACC naar het GPU, en dan zul je zien dat, als je een dik GPU hebt, dat een stuk harder dan gaat op een CPU.
"Als 1" zal het nooit worden. Dat OSsen om kunnen gaan met meerdere processoren is al niet zo simpel als het is. Laat staan dingen als hyperthreading etc etc.
Software moet geschreven zijn om takken toe te wijzen aan verschillende onderdelen van de pc. Cpu, gpu... Maar ook andere accelerators als bijv een DSP in een geluidskaart. Vaak is er gelukkig software die de software daarbij helpt, zoals drivers en de OS zelf.
Maar zoals ana aangegeven wordt in de andere antwoorden, is er al een hoop software die ook van de GPU rekenkracht gebruik kan maken.
Als een OS multicore als 1 kan detecteren, waarom dan eigenlijk niet multicpu/gpu?
Een multi-core CPU heeft de cores in één chip zitten, net als GPU al enige tijd meerdere cores hebben...
Ik ben niet heel erg thuis in de intel hedt cpus. Maar is een intel hedt met zijn mesh ipv ringbus echt minder een bottleneck in games dan een 3900xt of 3950x? Zeker gezien de beperkte max clock van 4.5ghz. Ivm pcie 4.0 zou een b550 of x570 met 2x 8 pcie lains toch even veel bandbreedte kunnen bieden? Dus is de intel hedt echt beter voor deze test?

[Reactie gewijzigd door Shizzel op 22 juli 2024 17:49]

Dat is juist een grotere bottleneck. ;)
Het had interessant geweest om een Intel / AMD vergelijk te zien. Hoe beide systemen omgaan met bandbreedte. En voor dit soort setups graag minder game georienteerde tests, en meer produktie gericht.
Single CPU performance zal mij aan mijn achterzijde oxideren. 😉
Meerdere SLI setups gehad. Bouwen was altijd een feest met als top een dubbele GTX295 setup waarin effectief 4 GPU's zaten ;-)

Qua benchmarks was het ook indrukwekkend maar als het op gamen aan kwam ondervond ik toch hikjes (microstutter) wat verdwenen was toen ik de dubbele GTX295 set had ingeruild voor een GTX570.
Anoniem: 58485 18 oktober 2020 09:36
Ongeveer 3000 euro voor een set dat geen 50% schaling (meer) laat zien. Jaren terug was dat anders; iedere kaart die je erin stak voor zowel AMD als Nvidia bracht het 40 tot 50% schaling gemiddeld.
De 3090 FE's zijn bijna nergens meer te krijgen. Zelf Tweakers heeft ze moeten lenen. Dan blijft nog de AIB's over waarvoor je +/- 3500 moet neertellen voor twee exemplaren.

Ik denk niet dat heel veel gamers dit bedrag zullen neetellen voor een iets minder performance :)
Maarja komt de sint dit jaar wel dan?

[Reactie gewijzigd door jaaoie17 op 22 juli 2024 17:49]

Vast wel, maar kan hij de componenten wel krijgen dan 😄
Ik denk dat Sint zich eerst verslikt in z'n tapas als hij het wenslijstje van ~€6000 ziet.
Je hebt helemaal gelijk. Ik was de behuizing vergeten.
pricewatch: In Win Winbot Wit/Blauw

Op dit item kan niet meer gereageerd worden.