MSI toont concept GeForce RTX 5090-videokaart met vijf fans

MSI toont renders van een GeForce RTX 5090 32G Special Edition-videokaart met vijf Stormforce-fans. Dit zou voor een betere airflow zorgen. Het is niet bekend of het concept ooit daadwerkelijk op de markt gebracht wordt en wat de prijs dan zou zijn.

Vooralsnog heeft MSI alleen een render van het concept getoond; Tweakers heeft op de CES 2025-beurs geen fysiek prototype gezien. Op basis van de afbeelding lijkt MSI de fans aan beide kanten van de videokaart te willen plaatsen, twee aan de ene kant en drie aan de andere. Waarschijnlijk zorgen de drie ventilators voor het aanzuigen van lucht terwijl de twee overige fans lucht uitblazen, maar MSI geeft hier geen informatie over prijs. Wel laat het merk weten dat ieder van de vijf Stormforce-fans gebogen ventilatorbladen op basis van FiveFrozr-technologie heeft.

Het is zoals vermeld niet duidelijk of de videokaart met vijf ventilators daadwerkelijk uitkomt. Tot dusver heeft MSI uiteenlopende GeForce RTX 5090-modellen aangekondigd, allemaal met maximaal drie fans. Zo toonde het merk de RTX 5090 en 5080 Suprim Liquid met een 360mm-aio-waterkoelers, Gaming Trio- en Gaming Ventus-varianten en een nieuwe Inspire-uitvoering die bedoeld is als 'instapniveau AI-prestaties'.

MSI is overigens niet de enige die werkt aan een versie van de GeForce RTX 5090 met meer dan drie fans. Zo kondigde ASUS ROG Astral-modellen met drie intake- en een outputfan aan. Gigabyte hanteert een vergelijkbaar ontwerp voor de Aorus GeForce RTX 5090 Master ICE 32G. Het bedrijf MaxSun bracht eerder een RTX 40-serie videokaart met drie normale en twee extra kleine fans uit.

MSI GeForce RTX 5090 32G Special Edition

Door Yannick Spinner

Redacteur

08-01-2025 • 14:20

70

Reacties (70)

70
70
23
1
0
32
Wijzig sortering
Het is toch eigenlijk als je er goed over nadenkt raar dat er zoveel koeling nodig is en zoveel vermogen.

Ik snap dat warmte afgevoerd moet worden maar men kijkt niet echt naar zuiniger en krachtiger eerder het tegenover gestelde.

Niet echt duurzaam ,de grafische kaart is belangrijker geworden dan de processor lijkt het wel .....
Ik snap dat warmte afgevoerd moet worden maar men kijkt niet echt naar zuiniger en krachtiger eerder het tegenover gestelde.
Een 5090 is wel degelijk krachtiger dan een 4090. Maar naarmate transistors kleiner worden gemaakt neemt de lekstroom minder stel af dan het opgenomen vermogen, waardoor de efficiëntie-winst van generatie op generatie steeds kleiner wordt. Intussen worden er van generatie op generatie wel steeds meer transistors in een chip gestopt tbv betere performance en nieuwe features, waardoor het totale opgenomen vermogen en dus de warmteproductie per chip toeneemt. Dat is al sinds ca 2006 een issue en het wordt steeds meer merkbaar. Wikipedia: Dennard scaling
Anders gezegd: dit is hoe het overlijden van de wet van Moore er uit ziet.

[Reactie gewijzigd door BadRespawn op 8 januari 2025 15:05]

Welke Wet van Moore? Ik hoor al 20 jaar dat Moore's law komt te overlijden, en al 20 jaar is hij alleen maar versneld. De enige Moore's law die dood is, is de originele die stelde dat we het aantal transistoren op een dye elke 18 maanden verdubbelen... maar als je kijkt naar rekenkracht gaat het gewoon door.

Zoals nu ook weer blijkt met Ai, want er is dus gigantische veel te winnen ook als de transistoren niet meer kleiner worden.
Tja, je kan de wet wijzigen nadat is gebleken dat die niet houdbaar is en die dan toch nog dezelfde naam geven... Belangrijkste daarbij is dat de wet niet houdbaar is.

Maar het overlijden is een geleidelijk proces, en we raken steeds verder in dat proces.
Dat rekenkracht toeneemt, neemt niet weg dat er steeds toenemende problemen mbt stroomvoorziening en koeling zijn - heel praktische en reële problemen. Inmiddels is het al normaal dat we performance inleveren juist als we de meeste performance nodig hebben: throttling bij zware belasting.

[Reactie gewijzigd door BadRespawn op 8 januari 2025 15:21]

als het niet meer kleiner kan en die grens nadere we nu kan je alleen meer transistors = meer stroom en warmte toevoegen , dus dan zal de performance ook gaan leiden omdat je niet dubble performance kan halen met alleen verbetering .
Oh? Zowel de rekenkracht als flops zijn echt niet meer aan het verdubbelen. De enige reden dat het nog ergens op lijkt is door DLSS bij GPUs, dus door AI-trucs om performance te simuleren, en bij CPUs doordat men het aantal micron gebruikt als generatienaam, en het niet echt meer gaat over de grootte van de elementen op de chip.

Moore's law is dead.
Maar naarmate transistors kleiner worden gemaakt neemt de lekstroom minder stel af dan het opgenomen vermogen, waardoor de efficiëntie-winst van generatie op generatie steeds kleiner wordt.
Hmmm, het probleem is dat men vaak gewoon silicone verkoopt dat gepushed word tot het limiet ervan. Kijk, men 6800 (en 2d andere dat ik in men handen had), doen rond de 220W a 240W. Je begint een beetje te undervolted , maar je loop tegen een limiet. Je schroeft de max frequentie van 2300 naar 2150, en dan kan je undervolted naar 885. Gevolg is dat diezelfde silica nu rond de 110 a 130W draait.

Dezelfde cyclus kan je doen met veel GPUs en CPUs, waar ze gewoon tegen een max gepushed worden, in ongezonder frequencies. Moet je CPU 5.5 of 6Ghz doen? Nee, schroef dat terug voor een beetje prestatie verlies maar gerust 50% minder watts == hitte = minder cooling.

Ja, lekstromen zijn een issue maar niet in de maat zoals je denkt. Het is eerder een issue geworden dat veel hardware manufacture overclocked verkocht word. Waar je vroeger enorme rek had in de hardware, en veel kon zelf overlocken, is dat al lang gedaan omdat CPU/GPUs vaak al maximaal gerekt worden (en dan moet je enorme voltage en watercooling erop smijten, aka wat vroeger extreem overlocken beschaduwd werd).

Feit is dat men graag zo min mogelijke silica wilt gebruiken + max frequencies (= meer voltage nodig = meer cooling nodig) om zo geld uit te sparen. 10% minder silica is veel geld extra in CPU/GPU makers hun geldbeugel, 20 a 50% meer stroomverbruik is een U probleem (volgens AMD/Intel/Nvidia...). Ik heb hier een 7945HX wat niets anders is dan een 7950X dat gebruikt kan worden voor Mobile/Laptops. Zelfde chiplet architectuur, zelfde bus, en dat ding gebruikt rond de 10W minder in idle (het gekend AMD Desktop probleem). Maar meneer, waarom doet men dat niet op de desktop markt? Omdat ze bij de desktop markt geen power budget hebben (alle, je snapt wat ik bedoel), en dan kunnen ze meer chips dat niet zouden werken/haalbaar zijn, verkopen. Daarom ook dat de default voltage vaak veel te hoog staat, want dat betekend dat meer CPUs door de testing geraken, feit dat het U meer stroom kost, tja.... zoals ik zei, een "U" probleem volgens de CPU makers.
Ja, lekstromen zijn een issue maar niet in de maat zoals je denkt. Het is eerder een issue geworden dat veel hardware manufacture overclocked verkocht word.
Dat 'out of the box overclocked' is noodzakelijk om de gewenste performance winst tov de vorige generatie te halen. Voorheen was dat niet nodig, tot ca 2006 kreeg je dmv kleinere transistors ahw gratis een hogere haalbare kloksnelheid en betere efficiëntie tov de vorige generatie.
De achterliggende oorzaak is dat lekstroom relatief toeneemt bij kleinere transistors. Wikipedia: Leakage (electronics)
Dat 'out of the box overclocked' is noodzakelijk om de gewenste performance winst tov de vorige generatie te halen.
Als ik een 6800 kan draaien met 50% minder stroom gebruik, voor 7% minder performance. Dan zou je in theorie ook een 7800 kunnen draaien met 50% minder stroom gebruik, voor 7% minder performance (ik gebruik theorie want ik heb er geen om te testen).

Je hebt nog altijd de linearity performance van verbeteringen in de hardware zoals cache, prediction branches, verbeteringen in de CU units enz. Dat zijn zaken dat niets te maken hebben met gewoon meer hardware (aka meer silica) of hogere frequencies.

Het probleem is dat men in een cyclus gekomen is, waar men bij iedere nieuw generatie, dezelfde tot de max moet duwen, of de nieuw generatie gaat dan tegenvallen (voor die ene generatie).

AMD probeerde een reset te doen met de 9000 series, wegens de hoge stroomgebruik van de 7000 series. Men beperkte tot 65W en natuurlijk had je dan "verbeterde process minus de hogere stroomgebruik (door de performance iets te laten verliezen) = zelfde als de vorige generatie". Dat smaakte de klanten niet, die reset naar lagere stroomgebruik, want dat kan je niet benchmarken in games enz. En dan kwam de update om weeral de voltage en watt naar boven te smijten naar 105 of what het was.

Men heeft zichzelf overal vastgedraaid in deze cyclus van constant overclocked systemen te verkopen.
Meer cache, branches e.d. is idd niet hogere kloksnelheden, maar is juist wel meer silica.
Het probleem is dat men in een cyclus gekomen is, waar men bij iedere nieuw generatie, dezelfde tot de max moet duwen, of de nieuw generatie gaat dan tegenvallen (voor die ene generatie).
Dat is omdat er vanuit bedrijfsleven en wetenschap eindeloos behoefte is aan meer performance, én omdat dat totaan ca 2005 zonder heel veel moeite ook realiseerbaar was.
Het is pas een "probleem" nu we steeds harder tegen de fysieke grenzen aanlopen van wat met de huidige halfgeleider technologie (materialen en productiemethodes) mogelijk is.
Een 5090 is wel degelijk krachtiger dan een 4090
Ik wacht iig op de echte benchmarks. De enige vergelijking die nVidia durft te publiceren is relatieve DLSS performance. Dat neem ik iig met een korrel zout.

[Reactie gewijzigd door grasmanek94 op 8 januari 2025 16:07]

de grafische kaart is belangrijker geworden dan de processor lijkt het wel .....
ehhh dat is al een paar decennia zo hoor (voor gaming dan) :+
Video comprimeren gaat ook snelst via de videokaart dan de CPU. Voor heel veel zaken is de CPU slechts het hart, maar het is de GPU die het echte werk doet in een PC.
Mijn 3080TI met i7 12 gen kan al een kleine ruimte verwarmen met een gaming sessie.
Kun je nagaan wat een hitte dit monster er uit moet gaan gooien.
Hoeveel energie er eigenlijk verloren gaat door warmte van electriciteits transport is eigenlijk bizar.
Helemaal in deze tijd.
Bij elk artikel over elke nieuwe chip, cpu/gpu/ram/ssd, is dit sowieso een comment eronder. Word er best moe van.

Ik heb zelf de 7800x3d, en ja de maximale tdp is best hoog. Alleen is die chip an sich met zn 3d cache wel juist erg efficient. Ik heb daarbij een 4080 en ja die kan idd best wat stroom vreten, het ding kan alleen zoveel dingen die een 1070 niet kon, zoals bijvoorbeeld met dlss de framerate genereren in games waarbij ik niet zoveel geef om graphics bijvoorbeeld en mn stroomgebruik omlaag gaat. Maar nee elke keer als er een nieuwe chip uitkomt moet dit de discussie iedere keer zijn.

Ja de gpu is al heel erg lang minstens zo belangrijk voor een pc, voor alle taken bovenop tekstverwerken. Zelfs je browser kan je gpu gebruiken. Voor games: wat wil je precies zonder gpu doen dan? Is het nodig om de 5090 te halen? Nee ook niet, ligt aan wat je wil doen. Jij hebt em misschien niet nodig, fijn voor jou. Ik ben met mn 4080 ook nog niet aan vervangen toe.

Wil je het hebben over efficientie? Wat te denken van alle mensen die een wifi lampje hebben, zeggen dat ze een smarthone hebben en dan hun ene lampje aandoen met google assistant. Wat meer stroom gebruikt dan de lamp kost gedurende die avond. Of autos op fossiele brandstof, waar slechts 35% van de brandstof wordt omgezet in beweging en de rest verloren gaat als warmte. In tegenstelling tot de chips waar je over zeurt zijn er echt behoorlijk inefficiente zaken om over te gaan zeuren.

Ik ben me wel bewust van stroom. En ja ik ben ook bezig met een smarthome (home assistant, op een thin client) op te zetten en ik kwam er al snel achter dat ik stroom verspilde, wat ik geautomatiseerd nu bespaar. Mocht het lukken om zonnepanelen op mn schuur te fixen, dan compenseert dat ook weer wat van mn stroom. Ondanks die 7800x3d met geforce 4080, en ondanks mn thinclient sensoren en lampen, ben ik omlaag gegaan in mn stroomgebruik. Toevoeging: ben ook omlaag gegaan in mn gasgebruik door de geforce (het is wel een efficiente kachel met dlaa hoor, als de kachel in de winter toch aan moet) én een infraroodkacheltje bij mn bureau tijdens overdag werken (op werklaptopje).

2e toevoeging: meer fans op lager vermogen draaien is efficienter dan minder op hoog vermogen. Als fans hard moeten werken maken ze bovendien meer lawaai dan meer fans op lagere snelheid.

[Reactie gewijzigd door ImperatorTiber op 8 januari 2025 16:11]

Niet echt duurzaam ,de grafische kaart is belangrijker geworden dan de processor lijkt het wel .....
Dat is al tientallen jaren zo voor gaming, waar Geforce kaarten op gemikt worden.
Ik snap dat warmte afgevoerd moet worden maar men kijkt niet echt naar zuiniger en krachtiger eerder het tegenover gestelde.
Er wordt gekeken naar krachtiger. Toch neemt iedere generatie de performance per watt gewoon toe. Dat test Tweakers gewoon en kun je in de reviews nalezen. De efficiëntie wordt wel degelijk beter, maar de vermogens worden ook groter omdat daar markt voor is. Het één sluit het ander niet uit.
Het is toch eigenlijk als je er goed over nadenkt raar dat er zoveel koeling nodig is en zoveel vermogen.
De rek is er nu eenmaal nog niet helemaal uit bij videokaarten. Het vermogen opvoeren levert nog steeds performance op. Kijk maar naar de reviews van de RTX 4090, 80, 70 etc. De 4090 verbruikt het meest van de hele lineup, maar qua efficiëntie is het nog altijd een van de beste videokaarten ooit gemaakt.
Ziet er uit alsof er een serieus koeling probleem is en er beter een waterkoeling-setje meegeleverd kan worden...
Op mijn RTX 4080 is dat al het geval. Lijkt met luchtkoeling wel een haardroger als hij aan het werk moet.
Vloeistof koeling er op en presto, stilte en veel lagere temparaturen.
Dan heb je simpelweg het verkeerde model gekocht. Er zijn heel veel 4080's te koop die stil zijn onder full load. Daar hoef je geen dure waterkoeling voor aan te schaffen.
Tja, is wel een makkelijke reactie. Toen ik de kaart kado kreeg ben ik niet gaan zeuren. En zo duur was de waterkoeling niet. Waterkoeling heeft nog een ander, groot, voordeel waar je aan voorbij gaat en dat is dat de GPU niet zijn gaat frequentie terugschroeft omdat hij te heet wordt. Voor zo ver mij bekend uit een andere discussie op Tweakers doet zo'n beetje alle luchtgekoelde kaarten dat.
Voor zo ver mij bekend uit een andere discussie op Tweakers doet zo'n beetje alle luchtgekoelde kaarten dat.
Hoeft niet, want dat punt zit bij 60 graden en als je het juiste model koopt kun je daar onder blijven met fan geluid dat niet/nauwelijks boven je case fans uit komt. Bovendien kun je dat punt zelf opschuiven dmv verscheidene software tooltjes van de fabrikant van je videokaart in geval van een Nvidia kaart. Dat terugschroeven van de klok levert over het algemeen een FPS reductie van <2% op, dus veruit de meeste gamers besteden er ook geen aandacht aan, want ze merken het nieteens.
Tja, is wel een makkelijke reactie. Toen ik de kaart kado kreeg ben ik niet gaan zeuren.
Tsja, als jij er niet bij vermeldt dat je de videokaart niet zelf hebt kunnen kiezen. Dat kan niemand ruiken. Zeker niet op Tweakers, want mijn monitor heeft helaas geen smell-o-vision ;)
En zo duur was de waterkoeling niet.
Je hebt een blok, radiateur, pomp en fans nodig. Al kost alles maar 40-50 euro per component, dan ben je nog het 15% van het aankoopbedrag van je kaart verder. En dan heb je nog slangen, vloeistof en fittingen nodig. Leuk voor de hobby PC bouwer dat ben ik met je eens, maar puur financieel niet interessant.

Kijk maar eens in deze roundup van Tweakers:
review: GeForce RTX 4070 Ti en RTX 4080 - Kiezen voor snelheid én stilte
Zat modellen onder de 35dBA tijdens het gamen. Zat ook vet onder de 30. En dat bij een maximale GPU temp tijdens de test van 58-62 graden.
Dus je hoort ze niet én je videokaart levert zo goed als maximale prestaties out of the box.

[Reactie gewijzigd door youridv1 op 9 januari 2025 11:17]

Smell-o-vision zzou wel leuk zijn, alhoewel...

Thanxs voor de uitgebreide info. En je hebt gelijk, het blijft een kostbare hobby. Ik was voor het hele setje vloeistofkoeling 190 Euro kwijt bij Alphacool. Omdat ik de kaart heb gekregen was het mij de investering wel waard.

Ben overigens wel benieuwd hoe het gaat met de nieuwe genaratie, de RTX 50XX.
100% fan voor de rtx4080 zet het geluid op minimaal 54 dB volgens die test.

Zolang je geen 100% fan nodig hebt is dat prima, daarna ga je hem wel horen. Met het minen van ethereum in het verleden ging de GPU altijd naar 100% gebruik en de fan vlak daarna ook. Aangezien ik de 4080 voor AI zou willen gebruiken, verwacht ik dat dat met zo hard gaat.

En met 54dB aan geluid is waterkoeling wel weer een mogelijke optie. En ik denk ook na over een ventilatieopening naar de rest van het huis :)
Je doet aanname op aanname.
Met het minen van ethereum in het verleden ging de GPU altijd naar 100% gebruik en de fan vlak daarna ook. Aangezien ik de 4080 voor AI zou willen gebruiken, verwacht ik dat dat met zo hard gaat.
Dan werkt je koeler niet goed of heb je gewoon een matig model. In de tests die tweakers met games doet, staat de 4080 onder 100% load en draait hij op maximaal vermogen. Warmer en luider dan dat worden die modellen dus niet met de stock fan curve.

De hele aanname dat 100% belasting van de GPU betekent dat je 100% van de fans gaat vragen, is complete onzin. Dat heeft als voorwaarde dat je koeler onderbemeten is.

Ik snap dat je een slechte ervaring hebt met een videokaart met een onderbemeten en/of defecte koeler, maar dan hoef je niet meteen waterkoeling aan te schaffen. Ten eerste kun je de kaart gewoon testen als je hem net hebt en terug sturen als hij simpelweg niet aan de verwachtingen voldoet. Wet koop op afstand enzo. Daarna kun je er een kopen die wél een fatsoenlijke koeler heeft.
Een 4080 TUF van Asus is bijvoorbeeld gewoon stil onder maximale load. Kan zijn dat als je gewoon de goedkoopste 4080 koopt, dat hij luid is ja. Zeker bij Gigabyte moet je goed de reviewslezen want die maken nog wel eens een haardroger. Inno3D kan ook verschillen. Dat zijn gewoon budget merken.

Zeker omdat je spreekt van "een 4080". Welke dan? De koeler is op elke kaart anders en dat doet er hier toe voor geluid. Niet dat een 4080 is.
Met het minen van ethereum in het verleden ging de GPU altijd naar 100% gebruik en de fan vlak daarna ook.
Dit was met je 4080, of een andere videokaart? ETH is al 2-3 proof of stake

[Reactie gewijzigd door youridv1 op 13 januari 2025 09:16]

Dit was met een Radeon 5700XT red devil. Geen defecte kaart, hij is fluisterstil. En dat was het jaar voor PoS werd ingevoerd. Wilde toch eens kijken hoe dat allemaal werkte.
Juist de 4 serie had out of the box een overkill koeler doordat Nvidia heeft geleerd van de 3 serie.
Ik herken dat ook totaal niet van mijn 4080 deze is stil en de uitgeblazen lucht valt mee onder 100% load.

Mogelijk dat er een enkele slechte serie is geen idee.
De 4080 lijkt ook zuiniger in praktijk dan de 3080 ondanks TDP op papier iets anders aangeeft.

[Reactie gewijzigd door mr_evil08 op 8 januari 2025 16:47]

Fabrikanten plaatsen ook zoveel fans op videokaarten om de illusie te wekken dat het nodig/beter is.
Wel dat het speciaal is, ik zie het zeker als mooie gimmick, 5 fans op een GPU waar de concurrentie stopt met 3 fans. En op een topmodel mogen wel gimmicks zitten. Je geeft toch dik geld uit aan een RTX5090.
Ik vind het lelijk. Heb hier een 4090 FE en dat is naar mijn mening wel de mooiste versie met maar 2 coolers.
MSI heeft al meerdere modellen getoond van de RTX 5090, de traditionele 3 fans configuraties en een AIO model.
Ik vermoed dat ze de renders tonen omdat NVIDIA voor haar FE kaarten een redelijk unieke design hebben gekozen. Ofwel zij gaan concurreren met AIB (Add-In Board) partners en die hebben al zo weinig marge op de kaarten.
Hardware Unboxed sprak met mensen van MSI, ze waren verrast dat de RTX 5070 en RTX 5070 Ti zo "goedkoop" zijn. Zij wisten het pas tijdens de presentatie. Lekker bezig NVIDIA...
Toch is de 5090 reference blijkbaar een dual slot kaart, waar de 4090 dat niet was. Lijkt er dus eerder op dat het de goede kant op gaat met de koelproblemen door de nieuwe flow-through koelers.
GeForce OnlyFans editie :9
Ik krijg het er warm van.
Een zeer leuk bedachte concept! Dan vraag ik mij ook af hoe het in praktijk werkt en hoe efficiënt de 5 koelers zijn ook de vraag hoe stil dit concept in werkelijkheid is.
dat werkt net als elke fan : hoe warmer hoe meer / hoe sneller
Ik denk stiller dan met 3 fans.

De twee extra fans trekken warme lucht weg, waardoor de temperatuur daalt en de drie andere fans dus minder hard hoeven te werken.

Nogmaals: ik denk. Kan het niet hard maken.
Dat zal in de plaats van alleen push of pull door een heatsink te doen, push en pull te doen. Kan misschien zelfde luchtstroom halen met lager toerental en daardoor minder geluid.
Met de nieuwe realiteit van een 600 tal wat in de kaar, wordt koelen in een normaal kaartformaat moeilijker.
Denk dat het niet heel veel uitmaakt, als er maar 3 fans in zou zitten.
Mogen we op tweakers ook één van onze twee nieren te koop aan bieden :+
Als nierpatiënt: graag! Mag je een 5090 naar keuze uitzoeken.
Ik gun je van harte dat je een nier krijgt :+
Als kankerpatiënt weet ik dat er niets belangrijker is dan je gezondheid
Dank je! Het zijn geen leuke ziektes helaas. :(
Nope. Maar we blijven optimistisch.
Als het goed is, ben ik schoon
Zolang ze met RGB komen..
Gelukkig is SLI geen ding meer anders had je geen nieren meer over :+
In het beste geval van een eigen nier gaat dit maar één GPU cyclus op... :o

[Reactie gewijzigd door 86ul op 8 januari 2025 14:26]

Met de prijzen van huidige en toekomstige videokaart is dat geen overbodige luxe.
De nieren van een varken zijn overeenkomstig met dat van mensen, dus dat lijkt mij een betere keuze :')
Misschien dat er in V&A een nieuwe categorie kan worden toegevoegd?
De kant waar 2 fans op zitten lijken de fans inderdaad ''andersom'' te staan ten aanzien van die waar er 3 op zitten (als je het plaatje uitvergroot) ik gok dus inderdaad 3 lucht in en 2 lucht uit, dan blaast die dus wel lucht naar boven als je hem op de normale manier installeert, of als je hem verticaal plaatst blaast die lucht naar je moederbord.
Ik heb onder mijn huidige videokaart ook een geluidskaart een Creative SB X-Fi Titanium, PCIe dat ik nog altijd gebruik sinds 2009 tot heden :), dat betekent dus dat mijn geluidskaart in warmte weer toe neemt als je op de normale manier installeert.
Volgens mij is die geluidskaart niet veel beter dan wat er nu onboard is.
dat lijkt me eigenlijk niet, de kaart is ondoorlaztend dus er is geen luchtafvoer van de voorkant, ,de lucht die aangezogen wordt aan de voorkant ontsnapt langs de metalen vinnen aan de zijkant. Ik denk dat de achterste twee de achterkant koelen, dus ook aanzuigen. Wellicht is daar ook een heat spreader.

Misschien dat een van de twee fans aan de achterkant direct op de heatspreader van de voorkant zit als de eigenlijke kaart minder lang is, dan zou je een luchtstroom erdoorheen hebben. Ik ben beniuwd

[Reactie gewijzigd door tw_gotcha op 8 januari 2025 14:30]

Het hele idee is dat ze steeds meer gaan richten op koeler designs waar de lucht door de kaart heen gaat. Zogeheten flowthrough designs. Daar kwam Nvidia ook al mee met de RTX40 reference modellen en bijvoorbeeld Sapphire en Powercolor hebben ook al eens zoiets gemaakt. Meestal was het bij hen alleen de fan die het verst voorbij de PCB uit steekt, maar het lijkt erop dat er steeds meer manieren worden gekocht om een zo groot mogelijk deel van de kaart luchtdoorlatend te maken.

Nvidia heeft ook al een prototype koeler gemaakt die compleet flow through is. De PCB zit dan aan de zijkant, parallel aan het moederbord, dus 90 graden gedraaid tov wat normaal is.
dat wist ik niet, interessant
Het is wel een verbetering met die dubbele pass-trough coolers voor de 5090's ziet er ook netjes uit heb nog geen vreemd kaart gezien. dat goud met de rest van dekaart is ook een mooie combinatie.

ook ben ik benieuwd hoe de poorten (dp/hdmi) aan de pcb zitten met die 2e fan aan de bovenkant
Dit zou voor een betere airflow zorgen
Ja dat mag ik hopen ja
Het zuigt de spaghetti van je bord als je aan het gamen bent :+
Pizzapuntje snakt sneller weg tijdens het gamen dan dat je spaghetti aan het rollen bent met je vork.

EDIT: Nu heb ik wel zin in Italiaans eten vanavond ..... !

[Reactie gewijzigd door kujinshi op 8 januari 2025 16:32]

Misschien toch maar eens tijd om te investeren in aandelen van ventilatorenproducenten...
"We heard you were a fan of fans, so we put some fans on your fans!" :+
Zolang ze onder fan nog geen swiftie verstaan hoeven we geen 5 mensen in die computer te duwen.
"MSI proudly unveils its latest AI innovation, the AI Robot, built with NVIDIA ACE technology. This locally deployed AI engine powers offline natural language control, allowing users to manage their systems effortlessly."

Kan iemand mij vertellen wat dit doet, voelt alsof ik AI Robot nodig ga hebben om te ontcijferen wat AI Robot doet. Die marketing termen tegenwoordig :+

Op dit item kan niet meer gereageerd worden.