Door Tomas Hochstenbach

Redacteur

Nvidia GeForce RTX 3090 SLI Review

Zó mooi had het kunnen zijn

18-10-2020 • 06:00

212

Multipage-opmaak

Inleiding

Eind september publiceerden we op Tweakers onze review van de RTX 3090. Maar wat is er dikker dan de snelste videokaart van dit moment? Precies: twee keer de snelste videokaart van dit moment. Gewapend met twee GeForce RTX 3090 Founders Editions en Nvidia's nieuwe NVLink-brug, kortom bijna 3200 euro aan gpu-hardware, onderzoeken wij tot welke prestaties deze monstercombinatie in staat is.

SLI in het kort

De term SLI staat tegenwoordig voor scalable link interface en werd eind jaren '90 voor het eerst gebruikt door gpu-fabrikant 3dfx. Nvidia kwam door een overname in het bezit van de merknaam en blies hem nieuw leven in, voor een techniek om de rekenkracht van meerdere videokaarten met elkaar te combineren. Dat gebeurde de laatste jaren doorgaans op basis van alternate frame rendering, waarbij de videokaarten om en om een beeld renderen. Een inherent nadeel hiervan is dat de tijd tussen beelden (de frametime) kan variëren doordat niet elk frame even snel klaar is. Dat neem je waar als 'stuttering'.

Met de komst van DirectX 12 zou alles anders - en vooral ook beter - worden. Deze api bevat een techniek die explicit multi-adapter is gedoopt en daarmee kan een game zelf meerdere videokaarten aansturen. Het is zelfs mogelijk om totaal verschillende videokaarten van AMD en Nvidia door elkaar te gebruiken. Het merendeel van de DX12-games past deze techniek echter niet toe, terwijl Nvidia deze zomer officieel de stekker trok uit de 'oude' manier met SLI-profielen in de driver.

De SLI-brug die je vroeger bij elk leuk moederbord kreeg, wordt overigens al lange tijd niet meer gebruikt. Na een high bandwidth-versie van die brug stapte Nvidia bij de RTX 2000-serie over op NVLink, een veel snellere interconnect die zijn oorsprong vindt in de datacenterwereld. Diezelfde technologie wordt voor de RTX 3000-serie ingezet, maar door de veranderde connectors heb je toch een nieuwe brug nodig.

De gecontroleerde dood van SLI

Vroeger kon je zo'n beetje elke videokaart in SLI zetten. AMD's tegenhanger CrossFire was op dat punt nog veel flexibeler: je kon zelfs verschillende gpu's mixen. Als we naar de laatste vier GeForce-generaties kijken, valt echter op dat de ondersteuning voor SLI steeds verder is afgebouwd. Kon je vroeger twee GTX 960's bijvoorbeeld nog probleemloos met elkaar combineren, bij de 10-serie had je daarvoor minstens een GTX 1070 nodig en bij de vorige generatie kon het pas vanaf de RTX 2080. In de nieuwe serie biedt alleen de RTX 3090 nog ondersteuning voor SLI.

RTX 3000 RTX 2000 GTX 1000 GTX 900
**90 / Titan Ja Ja Ja Ja
**80 Nee Ja Ja Ja
**70 Nee Nee Ja Ja
**60 Nee Nee Nee Ja

SLI met de RTX 3090

Trek je de lijn door, dan is het bij de volgende generatie einde verhaal voor SLI. Nu werd het leven je als SLI-liefhebber al niet makkelijk gemaakt: de afgelopen drie generaties werd de functionaliteit steeds beperkter terwijl de benodigde hardware in prijs steeg. De NVLink-brug die benodigd is voor de RTX 3000-serie gebruikt voor de derde generatie op rij andere connectors dan de voorgaande. Bovendien kost hij maar liefst 85 euro.

Voor deze test bouwden we een ander testsysteem op dan in onze reguliere gpu-reviews. Waar PCI Express 4.0 volgens onze tests nog weinig toevoegt, gaat bij de mainstreamplatforms van AMD en Intel de gpu-bandbreedte nogmaals door de helft. Dat is een gevolg van het beperkte aantal PCIe-lanes. Om dit te voorkomen en bovendien de te verwachten cpu-bottleneck bij zó veel gpu-power te minimaliseren, hebben we deze tests uitgevoerd op een HEDT-platform, waarover meer op de volgende pagina.

Deze test is medemogelijk gemaakt door de tweakers Shroudster en Rsnubje, die zo vriendelijk waren om hun 3090 FE's tijdelijk ter beschikking te stellen. Bedankt!

Testverantwoording

Om de rest van het testsysteem zo min mogelijk een bottleneck te laten zijn voor de SLI-configuratie van RTX 3090's, hebben we eenmalig een overgeklokt systeem samengesteld op basis van Intels X299-platform. Op die manier beschikken beide videokaarten over zestien lanes PCI Express 3.0-bandbreedte, terwijl een eventuele cpu-bottleneck minder snel zal optreden dan bij ons standaard 3900XT-testsysteem. Intels midrangeplatform was geen optie. Door het gebrek aan voldoende lanes en PCIe 4.0 zou de bandbreedte per videokaart dan nog eens door de helft gaan.

Als processor installeerden we een Intel Core i9 10980XE met achttien cores, overgeklokt naar 4,5GHz, op een ASUS ROG Rampage VI Apex-moederbord. G.Skill leverde vier 32GB-modules uit zijn Trident Z Neo-reeks voor een totaal van 128GB op een snelheid van 3200mt/s. Het OS draaien we op een Samsung 970 Evo 250GB-ssd, de games staan op een Kioxia Exceria+ 2TB. Verder bestaat het systeem uit een Corsair AX1600i-voeding en een uitgebreide waterkoelset van Alphacool. Als besturingssysteem is uiteraard de nieuwste versie van Windows 10 Pro 64bit geïnstalleerd.

Testsysteem
Processor Intel Core i9 10980XE @ 4,5GHz
Moederbord ASUS ROG Rampage VI Apex
Werkgeheugen G.Skill Trident Z Neo 128GB DDR4-3200 CL16-16-16-36
Ssd Samsung 970 Evo 250GB (OS) + Kioxia Exceria+ 2TB (games)
Voeding Corsair AX1600i
Koeling Alphacool Eisbaer Extreme Liquid Core 280 + Eisblock XPX Aurora
Besturingssysteem Windows 10 Pro 64bit May 2020 Update (2004)

Drivers en meetmethode

Voor de gamebenchmarks in deze review hebben we gebruikgemaakt van de GeForce 456.55-driver. De 'creatieve' benchmarks hebben we uitgevoerd met versie 456.38 van Nvidia's Studio-driver.

Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates (fps) als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren. Let er wel op dat het hier dus om een softwaremeting gaat. Bij een SLI-opstelling worden niet per definitie alle berekende frames ook weergegeven op de monitor.

In de grafieken op de volgende pagina's vind je steeds in eerste instantie de gemiddelde framerates, oftewel het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin die ervoor kunnen zorgen dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.

De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametime-meting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.

Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.

Games en creatieve workloads

Aangezien lang niet alle moderne games ondersteuning bieden voor SLI of multi-gpu in het algemeen, hebben we voor deze test een andere selectie gemaakt dan in onze reguliere gpu-reviews. SLI testen in een game waarvan we weten dat hij geen SLI ondersteunt, is immers niet de meest nuttige bezigheid.

Daarnaast hebben we de gelegenheid te baat genomen om enkele 'creatieve' benchmarks te draaien, in de hoek van videobewerking en rendering. Diverse tweakers vroegen daarom in reactie op onze RTX 3090-review. Om een beeld te geven van de prestaties in videobewerkingssoftware renderen we in zowel Adobe Premiere Pro als DaVinci Resolve een project met gpu-acceleratie ingeschakeld. Verder berekenen we een Blender-scène in twee modi: standaard gpu-acceleratie waarvoor de cudacores worden ingeschakeld en Optix, waarbij ook de raytracing-cores worden ingezet. Tot slot renderen we drie scènes in OctaneBench, de benchmarktool van OctaneRender.

Stroomverbruik

Gezien de geringe tijd waarin we over twee RTX 3090 FE's beschikten, hebben we geen uitgebreide stroommetingen uitgevoerd. Het totale systeemverbruik was tijdens de zwaarste workloads 880 watt, maar de pieken lagen vermoedelijk heel wat hoger. In eerste instantie hadden we namelijk een systeem met een 1200W-voeding opgetuigd, maar die viel uit tijdens het benchmarken van Shadow of the Tomb Raider.

Benchmarks: 3DMark en games

We trappen af met 3DMark, in diverse smaken. De reguliere Fire Strike-test, die in 1080p-resolutie draait, laat amper schaling zien, en in de Extreme- en Ultra-versie (1440p en 4K) wordt dat niet veel beter. Dat is opvallend, want met 2080 Ti's in SLI zagen we nog prima schaling.

In Timespy, de DirectX 12-versie van de benchmark, is het een heel ander verhaal. Daarin scoort de SLI-opstelling bijna 60% beter dan een enkele RTX 3090. In de raytracingtest Port Royal loopt het verschil op naar een uitstekende 92%.

Het lijkt hiermee duidelijk dat Nvidia de 'oude' SLI, waarbij de driver regelde hoe meerdere gpu's samenwerkten in DirectX 11-toepassingen, niet alleen niet langer actief ondersteunt, maar ook bestaande implementaties daarvan heeft uitgeschakeld. Wil je in games profiteren van SLI, dan kan dat dus uitsluitend in spellen die de nieuwe vorm van multi-gpu ondersteunen.

  • Firestrike
  • Firestrike Extreme
  • Firestrike Ultra
  • Timespy
  • Port Royal
3DMark Fire Strike - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce RTX 3090 SLI
40.756
Nvidia GeForce RTX 3090
39.065
3DMark Fire Strike Extreme - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce RTX 3090
22.422
Nvidia GeForce RTX 3090 SLI
21.969
3DMark Fire Strike Ultra - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce RTX 3090
11.806
Nvidia GeForce RTX 3090 SLI
11.530
3DMark Time Spy - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce RTX 3090 SLI
29.725
Nvidia GeForce RTX 3090
18.600
3DMark Port Royal
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce RTX 3090 SLI
23.961
Nvidia GeForce RTX 3090
12.474

Games

Zoals besproken op de vorige pagina, hebben we uitsluitend games getest die ondersteuning bieden voor het combineren van meerdere gpu's. Twee daarvan maken ook deel uit van onze standaard-testsuite, namelijk Shadow of the Tomb Raider en Red Dead Redemption 2 (in de Vulkan-api). Verder draaiden we ook de Quake 2-remaster met RTX, Battlefield 1 (in DirectX 12-modus) en Deus Ex: Mankind Divided. Battlefield V ondersteunt helaas geen SLI meer.

Shadow of the Tomb Raider

In 4K-resolutie haal je op medium settings al een comfortabele 117fps in Shadow of the Tomb Raider. Desondanks maak je met een tweede kaart een mooie sprong naar 167fps, een schaling van 43%. Op ultra-settings voegt de tweede kaart 73% toe aan de prestaties, waardoor je zelfs de 4K-monitoren met de hoogste verversingssnelheid volledig verzadigt.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Shadow of the Tombraider - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
167,1
Nvidia GeForce RTX 3090
117,3
Shadow of the Tombraider - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
8,20
Nvidia GeForce RTX 3090
10,40
Shadow of the Tombraider - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
9,60
Nvidia GeForce RTX 3090
10,70
Shadow of the Tombraider - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
159,1
Nvidia GeForce RTX 3090
92,2
Shadow of the Tombraider - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
8,50
Nvidia GeForce RTX 3090
13,20
Shadow of the Tombraider - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
11,50
Nvidia GeForce RTX 3090
13,50

Gamen in 8K is met een enkele RTX 3090 een zware kluif. Op medium haal je dan gemiddeld 40fps, terwijl de SLI-opstelling ruim 76fps laat noteren: bijna 89% schaling! Op ultra is de schaling in relatieve zin nog iets beter, maar wellicht kun je dan toch beter nog enkele settings verlagen om stabiel 60fps te halen.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Shadow of the Tombraider - 7680x4320 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
76,2
Nvidia GeForce RTX 3090
40,4
Shadow of the Tombraider - 7680x4320 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
21,20
Nvidia GeForce RTX 3090
28,50
Shadow of the Tombraider - 7680x4320 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
24,20
Nvidia GeForce RTX 3090
29,10
Shadow of the Tombraider - 7680x4320 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
56,0
Nvidia GeForce RTX 3090
29,3
Shadow of the Tombraider - 7680x4320 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
31,80
Nvidia GeForce RTX 3090
40,50
Shadow of the Tombraider - 7680x4320 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
35,50
Nvidia GeForce RTX 3090
41,20

Red Dead Redemption 2

In Red Dead Redemption 2 moet je de Vulkan-api gebruiken om de rekenkracht van twee videokaarten te kunnen benutten. In 4K-resolutie zien we zowel op medium als ultra zo'n 60 procent schaling. Met een enkele RTX 3090 kom je zelfs op ultra-settings echter ook al een heel eind, dus echt het verschil tussen speelbaar en onspeelbaar maakt SLI hier niet.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Red Dead Redemption 2 (Vulkan) - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
151,6
Nvidia GeForce RTX 3090
94,5
Red Dead Redemption 2 (Vulkan) - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
9,88
Nvidia GeForce RTX 3090
13,05
Red Dead Redemption 2 (Vulkan) - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
11,04
Nvidia GeForce RTX 3090
22,97
Red Dead Redemption 2 (Vulkan) - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
127,0
Nvidia GeForce RTX 3090
79,1
Red Dead Redemption 2 (Vulkan) - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
12,03
Nvidia GeForce RTX 3090
15,08
Red Dead Redemption 2 (Vulkan) - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
13,13
Nvidia GeForce RTX 3090
26,42

Waar 4K ultra met één gpu nog wel te doen was, geldt voor deze game in 8K juist dat de framerates zelfs in SLI nog niet optimaal zijn. Een strakke 60fps kun je zelfs op medium vergeten. Het valt op dat de schaling steeds wat slechter lijkt te worden, wat er mogelijk op duidt dat er op de achtergrond toch een andere bottleneck dan de pure gpu-rekenkracht speelt.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Red Dead Redemption 2 (Vulkan) - 7680x4320 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
50,4
Nvidia GeForce RTX 3090
32,7
Red Dead Redemption 2 (Vulkan) - 7680x4320 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
31,95
Nvidia GeForce RTX 3090
36,36
Red Dead Redemption 2 (Vulkan) - 7680x4320 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
32,90
Nvidia GeForce RTX 3090
37,95
Red Dead Redemption 2 (Vulkan) - 7680x4320 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
43,6
Nvidia GeForce RTX 3090
29,4
Red Dead Redemption 2 (Vulkan) - 7680x4320 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
34,97
Nvidia GeForce RTX 3090
46,30
Red Dead Redemption 2 (Vulkan) - 7680x4320 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
36,01
Nvidia GeForce RTX 3090
50,26

Quake 2 RTX

Omdat Quake 2 RTX behoorlijk wat van de gpu vraagt, hebben we dit spel ook op de lagere wqhd-resolutie gebenchmarkt. Op medium-settings komen we tot 57% schaling, op ultra loopt dat op naar 63% voor een keurige 134fps.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • High
  • High (99p)
  • High (99.9p)
Quake 2 RTX - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
147,3
Nvidia GeForce RTX 3090
93,5
Quake 2 RTX - 2560x1440 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
7,22
Nvidia GeForce RTX 3090
12,12
Quake 2 RTX - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
7,42
Nvidia GeForce RTX 3090
18,97
Quake 2 RTX - 2560x1440 - High
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
133,9
Nvidia GeForce RTX 3090
82,1
Quake 2 RTX - 2560x1440 - High (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
8,31
Nvidia GeForce RTX 3090
13,95
Quake 2 RTX - 2560x1440 - High (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
8,45
Nvidia GeForce RTX 3090
19,42

Op 4K-resolutie krijgt een RTX 3090 het al behoorlijk zwaar met medium instellingen. SLI tovert een comfortabele 72fps op de monitor. Zelfs met high-settings kom je gemiddeld nog boven de 60fps uit in SLI.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • High
  • High (99p)
  • High (99.9p)
Quake 2 RTX - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
72,3
Nvidia GeForce RTX 3090
44,0
Quake 2 RTX - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
14,66
Nvidia GeForce RTX 3090
25,58
Quake 2 RTX - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
14,90
Nvidia GeForce RTX 3090
26,00
Quake 2 RTX - 3840x2160 - High
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
65,3
Nvidia GeForce RTX 3090
39,1
Quake 2 RTX - 3840x2160 - High (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
17,06
Nvidia GeForce RTX 3090
29,07
Quake 2 RTX - 3840x2160 - High (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
18,26
Nvidia GeForce RTX 3090
29,32

De eisen die Quake 2 RTX op 8K-resolutie stelt zijn zelfs voor de SLI-opstelling te zwaar. Hoewel we procentueel uitstekende schaling zien, is het resultaat zowel op medium als high onspeelbaar.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • High
  • High (99p)
  • High (99.9p)
Quake 2 RTX - 7680x4320 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
18,3
Nvidia GeForce RTX 3090
11,0
Quake 2 RTX - 7680x4320 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
60,61
Nvidia GeForce RTX 3090
102,64
Quake 2 RTX - 7680x4320 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
103,65
Nvidia GeForce RTX 3090 SLI
160,06
Quake 2 RTX - 7680x4320 - High
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
16,7
Nvidia GeForce RTX 3090
9,7
Quake 2 RTX - 7680x4320 - High (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
66,23
Nvidia GeForce RTX 3090
116,28
Quake 2 RTX - 7680x4320 - High (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
121,34
Nvidia GeForce RTX 3090 SLI
165,83

Battlefield 1

De Eerste Wereldoorlog-shooter Battlefield 1 was het laatste deel uit deze serie met multi-gpu-ondersteuning; het nieuwere Battlefield V ontbeert die functionaliteit. Aangezien deze game al wat ouder is, vormt 4K-resolutie geen uitdaging meer voor de RTX 3090. We zien dan zelfs lichte negatieve schaling.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Battlefield 1 (DX12) - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090
178,9
Nvidia GeForce RTX 3090 SLI
152,0
Battlefield 1 (DX12) - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
9,92
Nvidia GeForce RTX 3090 SLI
11,48
Battlefield 1 (DX12) - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
12,29
Nvidia GeForce RTX 3090 SLI
23,98
Battlefield 1 (DX12) - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090
143,8
Nvidia GeForce RTX 3090 SLI
126,0
Battlefield 1 (DX12) - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
11,26
Nvidia GeForce RTX 3090 SLI
13,28
Battlefield 1 (DX12) - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
14,38
Nvidia GeForce RTX 3090 SLI
28,65

Op 8K-resolutie is de extra gpu-power van de tweede RTX 3090 echter meer dan welkom. Zowel op medium- als op ultra-settings zien we winsten van tegen de 70%: op medium gaan we van 63 naar 106fps, op ultra van bijna 50 tot ruim 80fps. De frametimes worden er in onze softwarematige meting echter niet beter op, al zegt die in het specifieke geval van meerdere videokaarten helaas niet alles.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Battlefield 1 (DX12) - 7680x4320 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
106,0
Nvidia GeForce RTX 3090
62,8
Battlefield 1 (DX12) - 7680x4320 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
18,18
Nvidia GeForce RTX 3090
18,38
Battlefield 1 (DX12) - 7680x4320 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
22,31
Nvidia GeForce RTX 3090 SLI
30,49
Battlefield 1 (DX12) - 7680x4320 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
81,8
Nvidia GeForce RTX 3090
49,6
Battlefield 1 (DX12) - 7680x4320 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
23,81
Nvidia GeForce RTX 3090 SLI
25,45
Battlefield 1 (DX12) - 7680x4320 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090
25,56
Nvidia GeForce RTX 3090 SLI
42,34

Deus Ex: Mankind Divided

De laatste game die we hebben gebenchmarkt is Deus Ex: Mankind Divided. In 4K-resolutie zijn de framerates met één kaart eigenlijk al prima. De winsten van een kwart op medium-settings en een derde op ultra zijn mooi meegenomen, maar niet meer dan dat.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Deus Ex: Mankind Divided - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
138,0
Nvidia GeForce RTX 3090
110,0
Deus Ex: Mankind Divided - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
9,80
Nvidia GeForce RTX 3090
11,56
Deus Ex: Mankind Divided - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
11,09
Nvidia GeForce RTX 3090
12,06
Deus Ex: Mankind Divided - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
97,0
Nvidia GeForce RTX 3090
72,9
Deus Ex: Mankind Divided - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
13,13
Nvidia GeForce RTX 3090
17,24
Deus Ex: Mankind Divided - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
19,41
Nvidia GeForce RTX 3090
20,13

Op 8K-resolutie komt één kaart echter tekort en maakt de tweede kaart dus het verschil. Op medium-settings is de schaling zelfs bijna perfect, waardoor je van een miezerige 36fps naar 71fps schiet. In relatieve zin is de schaling op ultra-settings duidelijk slechter, maar zelfs 100% schaling had in dat scenario geen 60fps opgeleverd.

  • Medium
  • Medium (99p)
  • Medium (99.9p)
  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Deus Ex: Mankind Divided - 7680x4320 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
71,4
Nvidia GeForce RTX 3090
36,2
Deus Ex: Mankind Divided - 7680x4320 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
22,47
Nvidia GeForce RTX 3090
33,56
Deus Ex: Mankind Divided - 7680x4320 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
24,11
Nvidia GeForce RTX 3090
34,50
Deus Ex: Mankind Divided - 7680x4320 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 3090 SLI
39,4
Nvidia GeForce RTX 3090
26,6
Deus Ex: Mankind Divided - 7680x4320 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
32,79
Nvidia GeForce RTX 3090
54,05
Deus Ex: Mankind Divided - 7680x4320 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GeForce RTX 3090 SLI
45,08
Nvidia GeForce RTX 3090
55,65

Benchmarks: videobewerking en rendering

Op deze pagina bekijken we de resultaten in 'creatieve' workloads: videobewerking en renderen.

In Adobe Premiere Pro valt allereerst op hoe veel sneller gpu-rendering is dan cpu-rendering. Hetzelfde project neemt wanneer we het renderen op de overgeklokte 10980XE-cpu bijna achteneenhalve minuut in beslag, maar een enkele RTX 3090 heeft de klus in 29 seconden (!) geklaard. Het toevoegen van een tweede gpu levert een tijdswinst van zes seconden op, in relatieve zin toch een aardige 20%. In DaVinci Resolve is de meerwaarde van SLI minimaal, amper zes procent.

  • Premiere Pro 4K (Tweakers Tech Hub)
  • DaVinci Resolve 4K
Premiere Pro 4K Tweakers Tech Hub (GPU accelerated)
Videokaart Gemiddelde tijd in seconden (lager is beter)
Nvidia GeForce RTX 3090 SLI
23s
Nvidia GeForce RTX 3090
29s
DaVinci Resolve 4K (GPU accelerated)
Videokaart Gemiddelde tijd in seconden (lager is beter)
Nvidia GeForce RTX 3090 SLI
4m7s
Nvidia GeForce RTX 3090
4m21s

Blender

Met behulp van Blender renderen we de scène 'Barcelona Pavilion', die je hier gratis kunt downloaden. In de cuda-test zijn alleen de normale gpu-cores aan het werk. De schaling is dan bijna perfect: het SLI-systeem is in een kleine acht minuten klaar, terwijl een enkele RTX 3090 ruim een kwartier nodig heeft.

Als ook de raytracingcores hun bijdrage mogen leveren, gaan de rendertijden nog eens ruim door de helft. Wederom weet de SLI-configuratie deze taak bijna twee keer zo snel te voltooien.

  • Blender - Cuda
  • Blender - Optix
Blender 2.90.1 - Pavillion GPU render (CUDA)
Videokaart Gemiddelde tijd in seconden (lager is beter)
Nvidia GeForce RTX 3090 SLI
7m52s
Nvidia GeForce RTX 3090
15m27s
Blender 2.90.1 - Pavillion GPU render (Optix)
Videokaart Gemiddelde tijd in seconden (lager is beter)
Nvidia GeForce RTX 3090 SLI
3m21s
Nvidia GeForce RTX 3090
6m28s

OctaneBench

Tot slot draaien we OctaneBench, de benchmark van de volledig gpu-gebaseerde OctaneRender-software. Tevens maakt deze renderer gebruik van de raytracingcores van Nvidia RTX-gpu's. De totaalscore van de benchmark komt uit op 1343 punten, waarmee de schaling met 97% bijna perfect is.

OctaneBench - Score
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce RTX 3090 SLI
1.343,28
Nvidia GeForce RTX 3090
682,88

De benchmark bestaat uit vier scènes die allemaal drie subscores opleveren voor de prestaties van het infokanaal, de directe belichting en de pathtracing. Alle subtests laten zonder uitzondering vrijwel perfecte schaling zien, steeds hoog in de 90 procent.

  • Interior - Info channels
  • Idea - Info channels
  • ATV - Info channels
  • Box - Info channels
OctaneBench - Interior - Info channels
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
717,67
Nvidia GeForce RTX 3090
367,66
OctaneBench - Idea - Info channels
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
539,91
Nvidia GeForce RTX 3090
278,24
OctaneBench - ATV - Info channels
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
703,94
Nvidia GeForce RTX 3090
358,83
OctaneBench - Box - Info channels
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
806,98
Nvidia GeForce RTX 3090
412,94
  • Interior - Direct lighting
  • Idea - Direct lighting
  • ATV - Direct lighting
  • Box - Direct lighting
OctaneBench - Interior - Direct lighting
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
260,62
Nvidia GeForce RTX 3090
132,61
OctaneBench - Idea - Direct lighting
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
200,61
Nvidia GeForce RTX 3090
102,25
OctaneBench - ATV - Direct lighting
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
240,85
Nvidia GeForce RTX 3090
122,56
OctaneBench - Box - Direct lighting
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
188,82
Nvidia GeForce RTX 3090
95,69
  • Interior - Path tracing
  • Idea - Path tracing
  • ATV - Path tracing
  • Box - Path tracing
OctaneBench - Interior - Path tracing
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
127,66
Nvidia GeForce RTX 3090
64,90
OctaneBench - Idea - Path tracing
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
179,99
Nvidia GeForce RTX 3090
91,46
OctaneBench - ATV - Path tracing
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
206,30
Nvidia GeForce RTX 3090
104,78
OctaneBench - Box - Path tracing
Videokaart Gemiddelde render snelheid in Ms/s (hoger is beter)
Nvidia GeForce RTX 3090 SLI
179,66
Nvidia GeForce RTX 3090
90,95

Conclusie

In games die DirectX 12 multi-gpu ondersteunen, kan het toevoegen van een tweede RTX 3090 het verschil maken tussen speelbaar en onspeelbaar. De schaling die we zien is doorgaans uitstekend, met uitschieters naar meer dan 90%. In spellen als Shadow of the Tomb Raider en Deus Ex: Mankind Divided maakt de SLI-opstelling het mogelijk om comfortabel in 8K-resolutie te gamen. Met één RTX 3090 kun je dat in die games gevoeglijk vergeten.

Zo mooi had het voor veel gamers kunnen zijn. Voor de vijf games die we in dit artikel hebben getest, hebben we echter al flink moeten graven in ons game-archief. De praktijk is dat vrijwel elke game die anno 2020 in de winkels belandt geen ondersteuning biedt voor enige vorm van multi-gpu. Tenzij je stomtoevallig groot fan bent van één van de games op Nvidia's beknopte lijstje hangt de tweede kaart het grootste gedeelte van de tijd voor Jan met de korte achternaam in je systeem.

Daar komt nog eens bij dat Nvidia de ondersteuning voor de traditionele, drivergebaseerde SLI heeft stopgezet. Ook in oudere games waarvoor nog een dergelijk profiel beschikbaar was, heb je zodoende niks aan een tweede RTX 3090. Nu zijn dat voornamelijk games die je inmiddels met gemak op één kaart kunt draaien, maar toch.

Wat rest, zijn de zogenaamde 'creatieve' workloads. Zeker rendersoftware schaalt doorgaans vrijwel lineair, waardoor het toevoegen van een extra kaart de benodigde tijd vrijwel halveert. In videobewerkingssoftware is de invloed beperkter: veel van de mogelijke winst met gpu-versnelling heb je met één kaart al lang en breed te pakken, je moet wel een hele dikke configuratie en erg zware projecten hebben om een tweede RTX 3090 de moeite waard te laten zijn.

Met dat nieuws zijn fanatieke renderaars vast hartstikke tevreden, maar feit is dat er daar veel minder van zijn dan gamers. En voor die doelgroep is de meerwaarde van SLI anno 2020 nihil, zo moeten we met pijn in het hart concluderen. Bovendien lijkt de hoop op een plotselinge ommekeer ijdel, zowel door gebrek aan interesse bij gameontwikkelaars als door Nvidia's zorgvuldige sterfhuisconstructie.

RTX 3090 SLI systeem

Reacties (212)

212
199
70
9
1
72
Wijzig sortering
Over de SLI in gaming: LTT had het er ook over dat je wel winst hebt met bijvoorbeeld Shadow of the tomb raider, maar dat de 99th percentile toch iets verslechtert, waardoor je schokjes ervaart. Dus dat je ondanks een veel hogere gemiddelde framerate het toch niet vloeiender aanvoelt.

Edit: typo

[Reactie gewijzigd door ZatarraNL op 22 juli 2024 17:49]

Stuttering is een inherent probleem van multi-gpu met alternate frame rendering, zoals op pagina 1 staat uitgelegd. Die 'schokjes' worden voor een groot deel veroorzaakt doordat de tijd tussen de frames variabel is, terwijl je monitor op een vaste snelheid ververst. Als beide kaarten binnen zeer korte tijd een frame af hebben, kan daardoor een beeld dat wel is gerenderd worden overgeslagen bij de daadwerkelijke weergave. Dat frame is echter wél meegenomen in de gemiddelde framerate en softwarematig gemeten frametimes. Die zijn in onze SotTR-tests overigens niet slechter dan die zonder SLI, wel zie je dat de winst van SLI in de 99p-waardes een stuk kleiner kan zijn.

De crux is dat óók softwarematig gemeten frametimes bij SLI niet alles zeggen, omdat bovengenoemd probleem deels hardwarematig is: software weet niet of elk beeld daadwerkelijk is weergegeven. Staar je dus specifiek in multi-GPU tests niet blind op de 99p-waardes.
Die 'schokjes' worden voor een groot deel veroorzaakt doordat de tijd tussen de frames variabel is, terwijl je monitor op een vaste snelheid ververst.
Zou dit dan door adaptive sync opgelost worden?
Adaptive/G-sync kan maar tot op zekere hoogte de boel compenseren.
Nope, ik game zelf op één systeem met de 1080ti in sli in combinatie met een gsync monitor. Heb altijd één fps counter aan staan maar toch voelt het niet zo smooth als op 1 video kaart, af en toe eens hapering of graphical glitch in sommige games. Maar dat laatste is vooral vanwege het feit dat er nog maar weinig games goede sli support hebben
SLI is welliswaar werkend gemaakt over de NVLink bridge, maar zorgt de echte NVLink er niet voor dat alle GPU's als één geheel werken? Dus geen Alternate Frame Rendering; geheugen mag bij elkaar opgeteld worden van alle kaarten, en er is geen master-slave relatie meer.
Voorheen stond NVidia dat alleen op de Quadro's/Tesla's toe, niet op GeForce/RTX
Microstutter is precies waarom ik na 2 pogingen SLI voor altijd links heb laten liggen (destijds GTX 560TI in SLI gehad en daarna nog een keer GTX 970 in SLI). Beide keren had ik in veel games enorm veel last van microstutters en dat voelt gewoon heel vervelend. Het idee van SLI is leuk maar de uitwerking is minder, niet zo gek dat NVIDIA het dood laat gaan.
SLI heeft ook weinig toegevoegde waarde meer boven op MultiGPU van DX12. Wat beide GPU's ook veel krachtiger/zinvoller weet in te zetten. Alleen ondersteund niemand dit nog.
En dat zal ook nog wel even duren. Voor de meeste budgetten kan je gewoon een betere kaart kopen ipv 2 kaarten. Alleen de grootste budgetten zitten aan hun max. Maarja daar zit voor de developer het marktaandeel niet om hierin te investeren.
De MultiGPU markt is vrij groot, zo'n beetje alle game laptops hebben er 2. Mocht dit opgepakt worden kunnen die APU's van AMD wel eens aan populariteit winnen bij gamers. Als meer games het zouden ondersteunen, wordt mijn volgende AMD een APU.

Voordeel van DX12's MultiGPU is dat je in principe 2 (of meer) compleet willekeurige GPU's kan inzetten. Nadeel is dat het (nog) niet makkelijk te ondersteunen is vanuit developers.
Ik had de kans om twee 5700XT kaarten te kopen voor minder dan de prijs van één kaart, dus uiteraard gedaan. Heb ze nu beide in een mITX systeempje pronken en ik moet zeggen dat de DX12 mGPU tech ongelofelijk goed werkt icm FreeSync. Ik ben best gevoelig voor stotteren, maar ervaar echt een volledig vloeiende weergave in ondersteunde titels. Daarbij haal ik af en toe tot 98% schaling, met name in 3D Mark TimeSpy!

Misschien interessant voor Tweakers om ook eens de AMD versie te proberen?
Daar hoeft de oorzaak niet altijd aan SLI te liggen. Ook single GPU's kunnen er last van hebben. Naast grafische kracht telt ook de CPU en het RAM mee. Ik vind die 3200 mt/s RAM maar matig in deze. Had liever voor 3666 of 4000 mt/s gegaan dan zouden de prestaties misschien iets beter zijn. 128 GB is dan ook veel. Met 32 of 64 GB RAM was de setup ten eerste goedkoper en ten tweede sneller omdat je voor hetzelfde geld zeer snel RAM kunt gebruiken. Stuttering heeft vaak met het RAM te maken. Daar is geen SLI setup voor nodig. Verder had ik in de test ook Assassins Creed Origins willen zien verschijnen. Dat spel leunt bizar op RAM snelheden. Sowieso de hele AC franchise.

Dit artikel is een beetje "omdat het kan" en zie ik het nut van deze opstelling niet zo en zeker niet voor die prijs. Tenminste...als het om gaming gaat. Anders wordt dit een heel ander verhaal.

Verder goede testsetup en een mooi artikel welke ik zit te lezen op een armzalige RTX2080. Ach, mijn kaartje doet het verder prima, probleemloos en koel (door waterkoeling GPU). Voor 1440p kom ik niets te kort. RDR2 draait alles rond de 55fps keurig met alles op high en G-Sync zorgt ervoor dat het beeld niet gaat haperen. Microstutter heb ik ook wel eens, maar minder dan op een 60 Hz paneel. 144Hz op een RTX2080 is mooi, maar 144Hz op een RTX3090 zal een eitje zijn op 1440p. We zien al 4K G-Sync schermen verschijnen en dat zal snel de nieuwe norm worden voor deze videokaarten. Alleen de levertijden...niet te plannen en geen enkele leverancier heeft deze liggen. Dat is erg jammer.
Ja, ik was dan ook verrast door de conclusie van Tweakers.

LTT gaf juist aan dat SLI geen toegevoegde waarde had. De max FPS lag flink hoger, echter de 99th percentiles lagen lager. Waardoor je dus inderdaad meer haperingen ervaarde.
LTT zou ik als het echt op hardwarereviews aankomt niet te zwaar aan tillen eerlijk gezegd. Linus is een geweldige entertainer en presentator in veel erg vermakelijke video's. Maar je ziet gewoon als het echt op de inhoudelijke feiten aankomt Linus regelmatig niet volledig kan verklaren waarom iets zo is*, en daardoor regelmatig tot een onvolledige conclusie komt.

Vrijwel elke andere reviewsite - waaronder Tweakers sinde HWI overname - hebben gewoon meer kennis in huis om wel het hoe en waarom te kunnen verklaren, zoals te lezen in de reactie van @Tomas Hochstenbach ;)

*Of hij kiest er bewust voor de technischere informatie weg te laten om zijn video's korter en laagdrempeliger te houden

[Reactie gewijzigd door !mark op 22 juli 2024 17:49]

wat betreft LTT weet ik wel zeker dat hij 3/4 van de technische details weg laat om het kanaal inhoudelijk laag drempelig te houden.
Hangt er heel erg vanaf, sommige videos zijn best technisch
Eens, wat betreft pure hardware kijk ik liever naar mensen als Steve Burke van GamersNexus
denk dat LTT inderdaad ook meer op het gemiddelde publiek richt...ok iets bovengemiddeld misschien qua technische interesse. Maar zover als velen hier gaan en hoe vaak ook zelfs bij Tweakers er nog weer een expert in de comments kan opduiken met hele specifieke kennis. Daar is LTT gewoon niet voor,
Ik denk dat LTT aangeeft dat SLI geen toegevoegde waarde heeft omdat het aantal games dat het ondersteunt op 2 handen te tellen is (benchmarks weggefilterd) én de support door Nvidia officieel eindigt in januari 2021 en zij het stokje over de schutting gooien richting de game developers... die er níks mee gaan doen met uitzondering van wellicht (synthetische) benchmarks zoals ''ashes of the benchmark" achtige 'games'. :+

En dan hebben we het nog niet over die stutter gehad, die wel degelijk aanwezig is idd en een gebruikerservaring oplevert die niet bepaald aanvoelt alsof je 3000,- aan grafische rekenkracht in je machine hebt. :+

[Reactie gewijzigd door Ayporos op 22 juli 2024 17:49]

Tweakers zegt ”En voor die doelgroep is de meerwaarde van SLI anno 2020 nihil”.. LTT zegt dat er geen meerwaarde is. Dat is toch min of meer hetzelfde? :? Ik zie geen verrassend verschil...
Dit fenomeen is al zo oud als sli en crossfire bestaan.
De term SLI staat voor scalable link interface en werd eind jaren '90 voor het eerst gebruikt door gpu-fabrikant 3dfx.
Dit is niet helemaal correct. De afkorting "SLI" stond bij 3dfx voor Scan-Line Interleave.
Bij die eerste implementatie werd ook inderdaad de beeldlijnen om en om door de 2 videokaarten gegenereerd.

Pas later, toen de term opnieuw geintroduceerd werd door nVidia (blijkbaar in 2004) werd het "scalable link interface"
Scherp, woordje 'tegenwoordig' toegevoegd ;)
Mijn mening op Nvidia:
Jammer dat ze SLI alleen toepassen op duurste segment: RTX3090. Stel dat ze wel toelaten op RTX3080, dan weet ik zeker dat Nvidia dat bewust heeft niet gedaan, wetende omdat 2x RTX3080 meer kan dan RTX3090 in metingen. Ze kosten beiden helft, en met SLI kosten ze net zoveel als RTX3090 maar halen wel meer prestaties uit, dus sneller voor dezelfde geld. Dan wordt er meer RTX3080 gekocht dan RTX3090 die voor sommige mensen te duur is. Nvidia heeft mogelijk bewust niet gedaan.

De winst onder games is meestal beperkt. Sommige games worden 20 procent sneller, sommigen 50 procent, maar nergens wordt 2x sneller mee. In feite ben je alleen maar meer geld kwijt voor wat winst met SLI opstelling. Voor mensen die op centjes letten is dit duidelijk niet de moeite waard.

Gamen op 8K is nog niet rijp genoeg, je ziet overal nog steeds onder vereiste 60fps grens. Zelfs niet eens op medium instelling. Maar aan andere kant vraagt 8K ook voor krachtigere CPU of het wordt niet beter op. Bovendien moet je 8K gaming monitor hebben, en dat is er bijna niet. Er is dus geen winst mee te halen op 8K gaming. Bovendien moet je de 70" 8K televisie op aardige afstand neerzetten, waardoor situatie zeer vergelijkbaar is met 4K monitor op je bureau op ca 30 cm afstand... qua scherpte bijna niet te vergelijken. Natuurlijk kijkt het scherper, maar dat is je gedachte. Ik weet zeker dat je pixels al niet goed kan zien op 4K monitor, laat staan dat je pixels kan zien op 8K op paar meter afstand. Waarom praten sommige youtubers dan wel over? Tuurlijk is het cool om op 8K te kunnen spelen, maar zien ze dan ook echt met een meetlint ernaast? Nee, dat is onmogelijk.

Daarom zou ik gewoon bij 4K houden, zeker omdat 8K veel te duur is voor meeste mensen. Je geeft al snel duizenden euro's uit terwijl je vergeet dat je graag mooie relaxte stoel en bureau wil, of mooi schone muis en keyboard. Het is geld smijten omdat je gek bent op nieuwe techniek, maar je let niet meer op geld/performance balans. Tuurlijk kan je doen als je steenrijk bent, maar het is gewoon lachwekkend achteraf omdat het gewoon niet nuttig is en tijd is ook duidelijk niet klaar voor. Veel games hebben nog niet eens volledige 8K aansturing. Dit merken aantal youtubers op dat 8K niet eens rijp genoeg is.

Alleen voor industrie en onderzoek waar tijd geld is, dan kan SLI wel wat helpen. Anders niet.
Voor normale persoon is SLI dus niet interessant genoeg en het is gewoon te duur omdat de winst klein is. Je kan beter gewoon bij enkele RTX3090 blijven, welke goed genoeg is voor meeste games op 4K. Staat ook minder dom en je bent ook veel meer tevreden, en je houdt geld over om je bureau even goed te maken, of mooie 4K monitor erbij halen.

[Reactie gewijzigd door MrDummy op 22 juli 2024 17:49]

Zelfs als SLI ook voor de RTX 3080 werd ondersteund denk ik niet dat het voor de sales van de 3090 GPU's veel had uitgemaakt. De markt van enthusiasts/overclockers zorgt dat de kaartverkoop altijd blijft lopen. Voor het gemak ga ik er even vanuit dat er productieratio van de 3090 t.o.v. de 3080 lager dan 20% is. If anything zouden ze met SLI een surplus van 3080's kunnen verkopen aan de groep die wel meer power willen dan een enkele 3090, maar 1500 euro daarvoor mooi zat vinden zodra deze wat ruimer beschikbaar is.

Edit: Gefeliciteerd met je verjaardag

[Reactie gewijzigd door Chrono Trigger op 22 juli 2024 17:49]

Misschien maakt het weinig uit, maar ik merk wel op dat meer mensen graag prijs/performance willen en kiezen voor RTX3080 en niet voor overdreven geprijsde RTX3090. En RTX3090 vraagt ook veel meer van systeem, dikke voeding en goede CPU. Het wordt allemaal veel duurder en geeft iets meer stress.

Dank je wel voor de felicitatie!
Ach dat is al vaker gedaan maar SLI levert in de praktijk zoveel problematiek op dat het dan alsnog beter was geweest om voor de 3090 te gaan.
Tsja. Eigenlijk zijn alle multi-GPU implementaties na die van 3dfx op voorhand al waardeloos, aangezien die, in tegenstelling tot de ScanLine Interleave van de Voodoo2 en Scalable Link Interface (on-board tussen de VSA-100 chips) van de Voodoo 5xxx, niet transparant werken en dus ondersteuning vanuit games vereisen om te werken. Developers gaan over het algemeen niet voor een niche markt (want dat is multi-GPU toch echt wel in de post-3dfx vorm) ontwikkelen, aangezien daar verhoudingsgewijs geen geld valt te verdienen.
De MultiGPU van DX12 is anders redelijk indrukwekkend. Erg jammer dat het nog nergens ondersteund wordt. Maar die kan 2 willekeurige GPU's voor hun eigen taken inzetten. Zodat je niet om het lijntje of om de frame hoeft te renderen.

Hopelijk als DX12 goed ingeburgerd is en de game devs wat meer ervaring hebben met het 'bare metal' concept, dat multi-gpu eindelijk eens wat ondersteuning krijgt. Genoeg voordeel uit te halen gezien een behoorlijk deel van de gamers tegenwoordig wel 2 GPU's in zijn laptop heeft zitten, zo heel niche is die markt niet meer.

Als meer games MultiGPU zouden ondersteunen, komt er in mijn volgende AMD ook een onboard GPU bij. AMD zou hier naar mijn mening wat meer moeite in kunnen stoppen, die hebben een gouden gamerei in handen.
De MultiGPU van DX12 is anders redelijk indrukwekkend. Erg jammer dat het nog nergens ondersteund wordt.
Ja, maar dat is nu precies het probleem. Het moet ondersteund worden. Dit in tegenstelling tot de Glide API van 3dfx, die het hele SLI gebeuren intern afhandelde, waardoor de ontwikkelaar hier geen support voor hoefde in te bouwen, want "het werkte gewoon™". Idealiter zou multi-GPU, tenzij het echt heel specifieke taken zijn, transparant moeten werken, zonder dat een ontwikkelaar er iets voor hoeft te doen. Alleen dan zal het gemeengoed worden. Een keerzijde is dan wel dat het mogelijk minder optimaal werkt. Bijv. bij 3dfx SLI was het zo dat alle data tussen de twee videokaarten gedupliceerd werd, en een extra videokaart enkel de mogelijkheid tot extra performance en/of hogere resoluties opleverde, omdat bij beide kaarten het VRAM hetzelfde werd gebruikt. Effectief moet je het geadverteerde VRAM voor 3dfx kaarten dan ook delen door het aantal GPUs (voor de Voodoo 5xxx reeks. De Voodoo2 had een andere verdeling vanwege de losse chips)
Jammer dat dit review dé toepassing voor dit soort kaarten volledig passeert: naast gaming en grafisch bewerken is er nog een andere doelgroep, namelijk AI ontwikkelaars. Deze kaarten lenen zich bij uitstek voor het trainen van grote AI modellen. De SLI maakt dat er een dubbele hoeveelheid grafisch geheugen beschikbaar komt, wat een gigantische sprong vooruit is. Zou mooi zijn als tweakers hier ook een test mee doet.
Voor de modellen die ik draai zijn de extra cores juist een belangrijke winst. Aangezien Tensorflow een GPU variant heeft voor Nvidia kaarten en juist de Tensor/FP32/FP16 cores erg belangrijk zijn. De hoeveelheid geheugen maakt in verhouding niet zoveel uit.

Het zou inderdaad fijn zijn als Tweakers testen zou gaan doen in hun reviews, naast gamers en creatieve gebruikers, voor software engineers.
Daar heb je geen SLI voor nodig. Gewoon meerdere kaarten in je setup
Niet helemaal - dankzij de NVLink hoef je, als je berekeningen "out of core" gaan, m.a.w. als je videokaartgeheugen vol is, niet gelijk je gewone geheugen aan te spreken, maar kan de workload verdeeld worden over de twee kaarten (die normaliter allebei precies hetzelfde in het geheugen moeten hebben om parallel te werken). Out of core zorgt voor een enorme vertraging in de berekeningen, en nu heb je dus ineens twee keer zoveel geheugen tot je beschikking - soort van. Sommige dingen moeten nog steeds twee keer in het geheugen staan, en de andere data moet natuurlijk nog steeds worden verschoven over die NVLink bus, maar dat gaat een stuk rapper dan over de pci bus naar je geheugen.

Dit verhaal geldt trouwens voor GPU renderers, maar het lijkt me dat andere GPU workloads ook wel zo werken.

Je kan er hier meer over lezen: https://www.nvidia.com/en-us/data-center/nvlink/

[Reactie gewijzigd door mixil op 22 juli 2024 17:49]

Cross-GPU memory access is inderdaad relatief traag, maar het ging hier om AI training. Dat doet niet zo'n beroep op de bus bandbreedte. Voor modellen die op de GPU zelf passen is 1x PCIe 3.0 al genoeg, dus met de gangbare 8 lanes heb je zo'n 700% extra capaciteit beschikbaar.

De grote ellende is dat Tensorflow nog niet efficient en automatisch het werk kan verdelen over GPU's. Dan hou je inderdaad nog veel cross-GPU latency zonder NVLink.
Heb je voor rendering etc wel SLI nodig?
Dat is niet correct of je moet gedacht hebben dat ik zei dat anders de tweede kaart niet gebruikt kan worden. Er valt namelijk wel degelijk performance winst te halen bij communicatie tussen de GPU's.

Ook al hebben de meeste deep learning frameworks geen fatsoenlijke support voor SLI wegens het gebruik van CUDA zijn er toch gevallen waarin dit zeker wel nut heeft.

Voor bijvoorbeeld de "1 billion words" benchmark van Tensorflow blijkt uit de gepubliceerde resultaten dat: twee 2070 Supers 8258 woorden per seconde leren. Met SLI is het 9695 per seconde.
Doelgroep van Tweakers zijn gamers, software engineers halen hun informatie ergen anders vandaan. Logisch dat Tweakers die testen niet draait dus.
Dat geloof ik niet. Ik denk dat gamers een subset van het Tweakers publiek zijn. En software (ai) ontwikkelaars ook.
Wellicht heb je wel gelijk dat het niet hun #1 doelgroep is. Echter zijn er toch een groot aantal mensen op tweakers die software ontwikkelen. Zie ook dit onderdeel op het forum dat geheel gericht is op vragen mbt software ontwikkeling.
Softwareontwikkeling
Doelgroep van Tweakers zijn gamers
Blijk ik al achttien jaar naar de verkeerde website te gaan. :)
Een tweaker is iemand die t allemaal net ff anders doet dan de rest....

Voor de niet tweaker zal dan ook onverminderd enkel en alleen het volgende blijven gelden : RTFM !
Naar welke platform gaan software engineers volgens jou dan?

Vind het ook apart dat hier gereageerd wordt dat het geen doelgroep is van Tweakers. Heb toch zelfs een keer bij hun op het hoofdkantoor een lezing gehad van CGI over hun bijdragen aan Galileo.
Dat komt waarschijnlijk omdat de modellen die jij draait netjes samen met een batch aan training data in je VRAM passen. Dat is zeker niet altijd het geval, wanneer je bijvoorbeeld convolutional neural networks wilt draaien op grotere plaatjes (bv 2000x2000 pixels), of zeker wanneer je gaat werken met (medische) 3D plaatjes, dan is méér VRAM soms echt noodzakelijk om die modellen te trainen.
Misschien had ik mijn statement wat anders moeten verwoorden. Dat ik zeg "voor de modellen die ik draai zijn juist de extra cores een belangrijke winst" was niet bedoeld om jouw statement te ontkrachten, maar als aanvulling er op.

Ik weet dat zodra je met data zoals afbeeldingen gaat werken de extra geheugen een must is. Het klopt dat al mijn data in de VRAM past, ik ben voornamelijk bezig met wiskundige modellen.

Vandaar dat ik afsloot met "Het zou inderdaad fijn zijn als.."
Je hebt helemaal gelijk dat dat ook een doelgroep is van deze kaarten. Het is echter wel een kleine doelgroep. Daarnaast moet je ook zelf de kennis is huis hebben om dit te testen. Je kan er ook crypto mee minen. Ook een doelgroep, maar (ook) niet groot genoeg om mee te nemen in dergelijke testen. De core blijft toch gamen.
Als de scaling en ondersteuning voor gamers zo beroerd is, worden renderers en cryptominers vanzelf je grootste doelgroep.
Is het uberhaubt nog interessant voot cryptominers, gezien de prijs van zo'n setup en het energieverbruik? Ik dacht dat cryptominen een stuk minder lucratief was geworden.
Helaas lees je nu dat het weer een vlucht neemt en dat voornamelijk AMD 5700 kaarten vu worden opgekocht omdat ze beter zouden scalen voor minen en een goede prijs / verbruik ratio hebben. Dit zou wel eens heel nadeling kunnen gaan uitpakken voor de prijzen wanneer de nieuwe AMD kaarten op de markt komen.
Dat dus, zo een setup is voor zoveel doeleinden te gebruiken. AI berekeningen lijkt mij ook niet bepaald de belangrijkste doelgroep voor deze kaarten/setup.
En toch... AI ik doe er zelf niets mee op het moment, maar het is wel fascinerend. Ik heb alleen geen idee hoe je dat zou moeten benchmarken. Cryptominen kan wel, ether en dan Mhash/s of zo, maar dat vind ik op dit moment inherent onjuist. Het concept van een public ledger is leuk, maar door het proof of stake wordt er nodeloos veel energie verbruikt tov een trusted private ledger.
Dat energieverbruik begint een reden te worden om het actief te gaan terugdringen. Bitcoin gebruikt nu 1% van de wereldwijde energie, en dat gaat snel groeien, is de verwachting. Dat helpt lekker mee in het tijdperk van klimaatverandering.
Toch vraag ik me dat wel af, ik heb vrij veel gamers in mijn omgeving, echter zie ik ook zakelijk gezien redelijk wat GPU gebruik. Als ik dan kijk waar deze "Titan class" kaarten gekocht en gebruikt worden is dat gemiddeld genomen niet bij de gamers, slechts een zeer klein percentage gamers zie ik in dit segment shoppen.

Nee, kaarten in het €1500 segment en hoger zie ik vrijwel alleen zakelijk gebruikt (natuurlijk leuk dat je er ook een spelletje op kan spelen, maar dat is in de regel niet het hoofddoel). Waar de RTX 3080 duidelijk een kaart gericht is op gamers, zie ik dat voor de 3090 toch anders, die kaart lijkt veel meer gericht op professionals (die misschien ook wel eens een spelletje spelen).
Die prijsstelling is een premium prijsopslag voor mensen die het beste willen en het toch wel gaan betalen. Een beetje het smartphone prijsmodel van de laatste jaren
Ik vraag mij dan weer af hoe het zakelijk uit kan om voor een 3090 te kiezen ipv een 3080. Zijn er geen betere doelen voor het verschil in budget denkbaar?
Dat zit hem voornamelijk in workloads die veel geheugen vereisen. De "Gamer" kaarten hebben vaal relatief weinig geheugen (bijv. 10GB op de RTX 3080) vergeleken met de Titan Class en andere kaarten voor de zakelijke markt (voorheen bijvoorbeeld Quadro of Tesla genaamd, in deze generatie 'gewoon' A6000 en A40)

Ook hebben vaak de Titans (en kaarten in de andere zakelijke segmenten) meer zaken unlocked in de (soms gecertificeerde) drivers waardoor je in bepaalde workloads betere performance ziet.
Beetje professional heeft een salaris van (niet zelden aanzienlijk) meer dan 50k, na sociale premies, secundaire voorwaarden, kosten arbeidsplaats etc kost dat de werkgever 100k+ p.j., kaart gaat twee, drie jaar mee, prijsverschil ex BTW is iets van €500. Je hoeft niet bijster veel productiever te worden om dat er uit te halen.

En da's nog afgezien van hoe er niet zelden met software gewerkt wordt door duizenden euro's per jaar kost.

Natuurlijk kun je elke euro maar één keer uitgeven, maar personeel wat jarenlang regelmatig langer dan nodig zit te duimen draaien trekt een bezuiniging van een paar honderd euro héél snel de netto rode cijfers in.
Voor de 3090 is de core juist niet gaming. De 3080 is een gaming kaart, de 3090 is voor specifieke professionele toepassingen zoals rendering, AI, etc. Dat er wereldwijd een paar gamers zijn die het dubbele betalen voor 10% in-game prestaties maakt dat "gaming" niet de core toepassing.
De Nvidia beschrijving sluit af met 'allemaal voor de ultieme gamingervaring.'
Wat hadden ze dan moeten schrijven? ''allemaal voor de ultieme mine-ervaring'' ?
True, maar dan is er ook geen pagina voor iets anders dan gaming-GPU's. Dat de site / reclame gericht is op gaming is niet onlogisch (relatief de grootste kopersgroep, de groep waar reclame het meest nodig is). Dat de 3090 dan aangekondigd wordt als 'ultieme gamingervaring' is dan logisch...betere gaming prestaties ga je niet krijgen dan de 3090, dus het is waar. Alleen op de general page voor de 30-serie wordt 'content creators' nog naast 'gamers' genoemd, maar specifieker dan dat wordt het niet. Dat verandert verder niets aan het feit dat de 3090 voor gaming niet bepaald meerwaarde biedt boven de 3080, maar voor de andere hierboven genoemde toepassing zeker wel meerwaarde biedt.
Kan je niet beter de titan rtx kopen want die kost 3000,00 euro.Dan zou je sli niet meer nodig hebben.
Dat is ook een kaart met 24gb geheugen.
De RTX 3090 is de opvolger van de Titan RTX: 3090 volgt Titan RTX op, en niet de 2080 Ti

Geruchten zijn dat er een nieuwe Titan RTX komt...die zou dan 48GB VRAM hebben en €3000 gaan kosten.
Ik dacht dat die er al was kijk maar op de officiele website van nvidia.

https://www.nvidia.com/nl...ng-ai/products/titan-rtx/
ik wist niet dat die 48 gb geheugen heeft.

ik dacht net zoals jij schrijft dat de opvolger toch die 2080is,logisch zou zijn de opvolger van de 3090 dat dat die 2080 moet zijn.
De opvolger van de titan xp is volgens mij de titan rtx toch of zie ik dat verkeerd?
Als dat niet zo is dan zou dat heel erg onlogisch zijn.
Hij loopt op de turing technologie , wat dus ouder is als de nieuwste 3090 er.
Dus die titan rtx is eerder gemaakt, met verouderde technologie.

live long prosper :there is no logic.spock

[Reactie gewijzigd door rjmno1 op 22 juli 2024 17:49]

De Titan RTX die jij linkt is de '2000-generatie Titan' die dus boven de 2080 Ti gepositioneerd is. Er zijn geruchten dat er een '3000-generatie Titan' komt, wederom Titan RTX genaamd (lekker handig) met 48GB erop.
De 2080 is opgevolgd door de 3080, de Titan RTX is opgevolgd door de 3090 en op dit moment is er nog geen opvolger voor de 2080 Ti (nog geen 3080 Ti aangekondigd).
Ja volgens mij moeten die dus ook nog uitkomen.Die 3080 ti zou dus nog sneller zijn als zonder ti.
Ik heb een 3080. Geen klagen 😉
Werkt heerlijk hoor mijn prachtige Zotac. Wilde natuurlijk eigenlijk een FE, maar met een gelukje dankzij het levertijden topic een kaart kunnen krijgen. De moeite en prijs waard !
Stomme vraag misschien maar ik stel hem toch want ben benieuwd. AI berekening maakt geen gebruik van de video uitgangen op een videokaart toch? Zou het verdubbelen van het geheugen dan niet ook kunnen werken zonder SLI bridge? Ik dacht namelijk altijd dat een SLI bridge alleen nodig was om de kaarten te linken vanwege de video out die slechts over één kaart gaat (geen idee of dat wel klopt)
Zou je dus twee kaarten op een moederbord kunnen prikken zonder SLI brug om wel voordeel te kunnen hebben van het verdubbeld GPU geheugen.
En zou dat dan dus ook kunnen met een 'mindere' kaart die geen SLI ondersteund, zoals een 3070 bijvoorbeeld?
Absoluut, alleen in de volgende geval je zult dezelfde data op alle GPUs moeten hebben staan:
https://keras.io/guides/distributed_training/
Model parallelism, where different parts of a single model run on different devices, processing a single batch of data together. This works best with models that have a naturally-parallel architecture, such as models that feature multiple branches.
Dus het is wat minder efficient.

Je zou ook verschillende GPUs kunnen gebruiken, alleen wel handig om dezelfde arch te hebben ivm verschillende cuda versies.

[Reactie gewijzigd door Vlad86 op 22 juli 2024 17:49]

Nee voor AI development of gewoon cuda /tensor flow core development gebruik je gewoon meerdere gpus om snel meerdere paralelle operaties uit te voeren.
Ik heb hier bv een setup staan van 1 pc met 12 1080tis. Gewoon in 12 verschillende slots, niet verbonden met elkaar. Ik ken niemand die SLI gebruikt voor niet grafische zaken.
Niet als je een CNN traint op grote beelden. Dan is die hoeveelheid geheugen heel hard nodig. Meerdere kaarten geeft alleen een snelheidswinst door parallelle verwerking, maar de hoeveelheid gegeugen per kaart blijft beperkt. Met NVLink kan je het geheugen van twee kaarten combinerem, dus 2x zoveel beschikbaar voor je zware AI model.
Ik vind het eerder jammer dat men nooit VR benchmarked, neem een Index of G2 en schaal die 200% op met super sampling. Juist daar zou ik ook kunnen indenken dat SLI een kaart per oog zou kunnen gebruiken.
Juist daar zou ik ook kunnen indenken dat SLI een kaart per oog zou kunnen gebruiken.
Daar zat ik ook al aan te denken. Je hebt dan nog wel iets als G-/FreeSync nodig met individuele (asynchrone) panels per oog.

Goedkoop zal het niet zijn in ieder geval.
naast gaming en grafisch bewerken is er nog een andere doelgroep, namelijk AI ontwikkelaars.
Die maken geen gebruik van SLI, SLI is specifiek gericht op graphics. Voor AI worden andere technieken gebruikt, die wel gebruik kunnen maken van de NVLink connector, maar niet specifiek SLI.
Waarschijnlijk een rare gedachte, maar zou het ooit mogelijk zijn om GPU’s en cpus als “1” te laten functioneren? Als een OS multicore als 1 kan detecteren, waarom dan eigenlijk niet multicpu/gpu? Ik kan me voorstellen dat je dan een probleem hebt met cpu / ram adressen (?) maar kunnen we dat niet omzeilen?
Misschien wel, maar voor nu ondersteunen cpu’s en GPU’s heel andere instructiesets en heeft een GPU veel en veel meer geheugenbandbreedte nodig dan een cpu enz.

Lijkt me vooralsnog een lastige propositie waar ik ook niet direct een groot voordeel van zie. Oprecht nieuwsgierig: wat stel je je er precies bij voor als dit zou kunnen?
Duurzaamheid, hergebruik van componenten, een moederbord met bijvoorbeeld standaard 4 cpu sloten en als je wat meer wilt prik je gewoon bij. Zonder dat je performance teniet doet en niet vast zit aan allerlei compatibiliteit problemen zoals in de review.

CPU/GPU als RAM dus?
Gaan we dan niet gewoon terug naar de tijd van voor GPU's waar alles software rendering was?
Dat kan al als je kijkt naar de APUs.

Herbruikbaar niet echt, technisch best mogelijk. Maar waarom? De ontkoppeling is bedacht met PCI (express) waardoor het plug en play al mogelijk is. Verder zit er weinig verschil met Ram inpluggen.
Kan OS dat al? Volgens mij rapporteert een OS nog steeds multicore en is het aan de programma's om daar gebruik van te maken.
Tuurlijk.... in zekere zin gebeurd dat al. Weet niet of windows zelf bijv opencl gebruikt. Maar de volgende progs wel :

https://en.m.wikipedia.org/wiki/List_of_OpenCL_applications

Photoshop , winzip , het kan allemaal...

Het GPGPU concept bestaat al langer.

https://nl.hardware.info/...encoding-photoshop-winzip

Maar of , er is geen interesse , of is de winst te mager , ik zou t allemaal niet weten.. net als sli en crossfire heeft t allemaal geen sprongen gemaakt de laatste jaren...
Je kan nu al met openACC met simpele tags in je software parallelle stukken offloaden naar je GPU, zonder dat je zelf CUDA kernels hoeft te schrijven. Dat is nog niet helemaal wat ik denk dat je bedoelt, maar dat komt al wel een heel eind kant op. (Je moet er wel eerst nog CUDA-meuk voor installeren)

Als je wilt kan je een stukje Fortran code opsturen dat een Mandelbrot fractal uitrekent met openMP naar het CPU, of met openACC naar het GPU, en dan zul je zien dat, als je een dik GPU hebt, dat een stuk harder dan gaat op een CPU.
"Als 1" zal het nooit worden. Dat OSsen om kunnen gaan met meerdere processoren is al niet zo simpel als het is. Laat staan dingen als hyperthreading etc etc.
Software moet geschreven zijn om takken toe te wijzen aan verschillende onderdelen van de pc. Cpu, gpu... Maar ook andere accelerators als bijv een DSP in een geluidskaart. Vaak is er gelukkig software die de software daarbij helpt, zoals drivers en de OS zelf.
Maar zoals ana aangegeven wordt in de andere antwoorden, is er al een hoop software die ook van de GPU rekenkracht gebruik kan maken.
Als een OS multicore als 1 kan detecteren, waarom dan eigenlijk niet multicpu/gpu?
Een multi-core CPU heeft de cores in één chip zitten, net als GPU al enige tijd meerdere cores hebben...
Ik ben niet heel erg thuis in de intel hedt cpus. Maar is een intel hedt met zijn mesh ipv ringbus echt minder een bottleneck in games dan een 3900xt of 3950x? Zeker gezien de beperkte max clock van 4.5ghz. Ivm pcie 4.0 zou een b550 of x570 met 2x 8 pcie lains toch even veel bandbreedte kunnen bieden? Dus is de intel hedt echt beter voor deze test?

[Reactie gewijzigd door Shizzel op 22 juli 2024 17:49]

Dat is juist een grotere bottleneck. ;)
Het had interessant geweest om een Intel / AMD vergelijk te zien. Hoe beide systemen omgaan met bandbreedte. En voor dit soort setups graag minder game georienteerde tests, en meer produktie gericht.
Single CPU performance zal mij aan mijn achterzijde oxideren. 😉
Meerdere SLI setups gehad. Bouwen was altijd een feest met als top een dubbele GTX295 setup waarin effectief 4 GPU's zaten ;-)

Qua benchmarks was het ook indrukwekkend maar als het op gamen aan kwam ondervond ik toch hikjes (microstutter) wat verdwenen was toen ik de dubbele GTX295 set had ingeruild voor een GTX570.
Anoniem: 58485 18 oktober 2020 09:36
Ongeveer 3000 euro voor een set dat geen 50% schaling (meer) laat zien. Jaren terug was dat anders; iedere kaart die je erin stak voor zowel AMD als Nvidia bracht het 40 tot 50% schaling gemiddeld.
De 3090 FE's zijn bijna nergens meer te krijgen. Zelf Tweakers heeft ze moeten lenen. Dan blijft nog de AIB's over waarvoor je +/- 3500 moet neertellen voor twee exemplaren.

Ik denk niet dat heel veel gamers dit bedrag zullen neetellen voor een iets minder performance :)
Maarja komt de sint dit jaar wel dan?

[Reactie gewijzigd door jaaoie17 op 22 juli 2024 17:49]

Vast wel, maar kan hij de componenten wel krijgen dan 😄
Ik denk dat Sint zich eerst verslikt in z'n tapas als hij het wenslijstje van ~€6000 ziet.
Je hebt helemaal gelijk. Ik was de behuizing vergeten.
pricewatch: In Win Winbot Wit/Blauw

Op dit item kan niet meer gereageerd worden.