Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Vermeende specificaties van GeForce RTX 3090 en RTX 3080 staan online

De specificaties van twee Nvidia RTX 3000-kaarten zijn door VideoCardz online gezet. De site claimt dat de details afkomstig zijn van videokaartfabrikanten. De RTX 3090 zou 24GB gddr6x krijgen en tot 350W verbruiken.

Volgens de uitgelekte informatie van VideoCardz presenteert Nvidia volgende week drie RTX 3000-kaarten: de RTX 3090, 3080 en 3070. De kaarten krijgen een Ampere-gpu, de tweede generatie van Nvidia's aangepaste cores voor raytracing, en de derde generatie van Nvidia's Tensor-cores.

De RTX 3090, 3080 en 3070 zouden respectievelijk van 24GB, 10GB en 8GB vram zijn voorzien. Ook zou er een 20GB-variant van de RTX 3080 in de maak zijn, maar dat model komt mogelijk pas later uit. De videokaarten krijgen ondersteuning voor pci-e 4.0, hdmi 2.1 en displayport 1.4a.

Het topmodel, de RTX 3090, zou voorzien zijn van de GA102-300-gpu met 5248 cores en een 384bit-geheugenbus. Dat levert in combinatie met het gddr6x-geheugen een theoretische bandbreedte van 936GB/s op. GeForce RTX 3090-videokaarten van fabrikanten zouden voorzien zijn van twee 8-pinsaansluitingen en tot 350W kunnen verbruiken. Nvidia toonde zelf eerder een 12-pinsaansluiting, die zit vermoedelijk op de Founders Edition.

Ook de RTX 3080 is gebaseerd op de GA102-gpu, maar een variant met minder cores. Nvidia zou de gpu's op 7nm laten maken. De RTX 3070 zou een GA104-gpu krijgen, maar details daarover zijn nog niet bekend. De nieuwe uitgelekte details gaan enkel over de RTX 3090 en 3080, de specificaties van de RTX 3070 zijn gebaseerd op eerdere geruchten.

GeForce RTX 3090 GeForce RTX 3080 GeForce RTX 3070
Gpu 7nm, GA102-300 7nm, GA102-200 ?nm, GA104-300
Cuda-cores 5248 4352 nnb
Boostsnelheid 1695MHz 1710MHz nnb
Vram 24GB gddr6x 10GB gddr6x 8GB gddr6
Geheugensnelheid 19,5GBit/s 19Gbit/s 16Gbit/s
Geheugenbus 384bit 320bit 256bit
Geheugenbandbreedte 936GB/s 760GB/s 512GB/s
Tgp 350W 320W 220W

Specificaties volgens VideoCardz, gebaseerd op custom RTX 3000-kaarten zonder overklok.

Door Julian Huijbregts

Nieuwsredacteur

28-08-2020 • 14:45

281 Linkedin

Reacties (281)

Wijzig sortering
320W en 350W TDP voor de topmodellen...geen wonder dat er ook al geruchten gingen over triple slot reference koelers. Vergelijk ik dat met mijn vorige GPU de R9 Fury X, ook niet bepaald een zuinige kaart, die had maar een TDP van 275W. En die kaart werd al standaard uitgeust met een AIO.

Mochten deze TDP opgaves kloppen, dan mogen de kaarten toch wel astronomisch goed presteren, anders vrees ik dat het een niet bepaald interessant reeks gaat worden, zeker voor kleine ITX builds. We zullen het zien.
Ik ken niemand die zulke high-end videokaarten koopt die het echt boeit hoeveel stroom er gebruikt wordt.. Het gaat alleen maar om de prestaties en de prijs..

[Reactie gewijzigd door Inflatable op 28 augustus 2020 16:15]

Het boeit zeer zeker wel, hoger verbruik betekent ook meer warmte en meer warmte betekent meer geluid.
Je zou de videokaart kunnen downclocken en grafische instellingen en eventueel resolutie ietsje omlaag doen (1440 in plaats van 4K), je krijgt dus ietsje minder prestaties, maar je kaart verbruikt minder stroom en wordt minder heet.

Anders zou je ook dit kunnen doen:
De ventilator en behuizing van de kaart eraf halen (dus dat je de heatsink ziet), en dan 2-3* 12CM hydraulic of ball bearing ventilators met hoge CFM en goede statische druk, (Bijvoorbeeld van Noctua, maar een andere goeie is ook goed) erop te zetten en dan kabelbinders gebruiken om ze vast te maken, waar je natuurlijk uitkijkt de kaart en heatsink niet te beschadigen.
Zorg wel dat je ook goede intake venilators hebt en je luchtstroom goed naar buiten gaat.
Je kan de ventilators aansluiten aan je Molex met eventueel zo een fan controller als de RPM lager moet, maar als je het op je GPU wilt aansluiten bestaan er (GPU) mini 4 pin>(normaal) 4 pin kabel en 4 pin Y splitter (eg, 1* 4pin>2* 4pin) kabel, alleen moet je wel uitkijken of de mini 4 pin poort op je GPU wel de hoeveelheid gevraagde Ampère aan kan voordat het stuk zou gaan.

Bij oudere kaarten zou je ook de koelpasta kunnen vervangen, is vaak hard geworden na jaren hitte en zie je vaak een klodder van de fabrikant, ik maak het dan voorzichtig schoon met 99% isopropyl alcohol en doe er een klein beetje Artic Silver op, dat verspreid ik dan gelijkmatig tot een dun laagje.

Bij de GTX 1060 6GB heeft dit bij mij de temperatuur ongeveer 7-10°C omlaag gehaald en kan ietsje hoger overclocken, als de kaart idle is, gaat tie heel snel (in een paar seconden) terug naar 36-42°C.
Nou weet ik nog niet of dit zin heeft op deze nieuwere kaarten, misschien komen die al met super goede ventilators, waterkoeling zou betere resultaten kunnen geven dan alleen lucht, is alleen vaak beetje duur+lekkage kans is nogal eng idee.

Let wel, als je een schroef een beetje beschadigd of de heatsink eraf haalt (waar meestal 1 stickertje voor garantie op een schroef zit), of een kleine beschadiging maakt vanbinnen, gaat je garantie eraan, dus bij nieuwere kaarten onder garantie is dit wel wat riskanter.

Je kaart gaat helaas wel 1-2 extra slots gebruiken, dus wie genoeg ruimte heeft is dit ok (ik gebruik een mATX kast en kan nog 1 PCI-E slot gebruiken) maar voor kleinere behuizingen met veel PCI of PCI-E kaarten kan dit lastiger zijn.

Toevallig had Linus van LinusTechsTips hier trouwens ook een video over gemaakt, mocht je het leuk vinden:
https://youtu.be/-yQHAMz1v5g

Een ander gaaf idee van DIY Perks is om een grote CPU koelblok op te modden, bijvoorbeeld de Noctua NH-D15, natuurlijk neemt dat wel met je kaart enorm veel plek in beslag...:
https://youtu.be/h6hvsqUEtZ4

[Reactie gewijzigd door TweetCu op 29 augustus 2020 21:32]

De resolutie wil je echt niet van 4K naar 1440p doen, want krijg je slecht beeld door Interpolation. Dan kan je beter een slechtere GPU kopen :P
Niet op alle schermen, bij LG C9 en monitoren die native 1440 doen werkt dit erg goed, maar anderzijds heb je inderdaad gelijk (als je nog een monitor koopt, dan kan je nog kiezen uit 1440p), veel televisies kunnen niet eens 1440p, ik weet dat mijn Denon AVR geen 1440 doorgeeft, mijn Shield doet al helemaal geen 1440p (was fijn met Moonlight/Steam Link geweest)... erg jammer.

Het fijne vooral van 1440 vindt ik dat je dan makkelijker 120fps kan halen of je grafische instellingen een stuk hoger kan zetten, dat is voor mij een hoog meerwaarde boven een klein verschil aan kwaliteit met 4K.

Alleen, als je spel licht genoeg is, dan zou ik lekker 4K@120FPS doen (op HDMI kan dat zodra de Nvidia 3000 series verkocht wordt, hoera 2.1 op LG C9).

[Reactie gewijzigd door TweetCu op 28 augustus 2020 20:26]

mijn samsung 50" in-de-aanbieding TV doet 4k @60hz '2160p'
waarom zou je dit downgraden?
Oh nee, ik zei niet dat men eventueel een TV zou kopen op 1440p, maar een monitor.

Voor TV's zou ik lekker 4K houden (dat werkt fijner op 50 inch, ook voor films, hoewel goede upscaling dat verschil beetje oplost), ik vond het alleen jammer dat zoveel TV's geen optie voor 1440p konden, maar kan wel begrijpen waarom.

Het was vooral dat je een iets hogere resolutie hebt dan 1080p, maar dan toch vaak nog wat speling hebt voor meer frames (120) of grafische instellingen.

[Reactie gewijzigd door TweetCu op 28 augustus 2020 21:16]

Dat kan mijn 1080ti ook prima op 1440p waarom zou je dan een kaart kopen die 800+ euro is ?
Het hoeft niet, maar als mensen ervaren dat het te heet wordt, dan is het een idee, dan zou je meer frames kunnen behalen en de grafische settings hoger kunnen doen, maar dan zou je ook een goedkopere kaart kunnen nemen inderdaad, undervolten of downclocken zijn een idee, en/of andere ventilators, allemaal ideeën.

Maar denk dat beter is om zien wat de kaart binnenkort kan in een test voordat we teveel gaan speculeren, het is nog niet eens uit, we weten immers alleen de specs :9.

[Reactie gewijzigd door TweetCu op 29 augustus 2020 14:08]

Te heet zal wel meevallen, denk dat mensen eerder naar de geluidsproductie kijken. Welke in mijn Gigabyte extreme blabla ding behoorlijk meevallen overigens. Maar ik heb een 2080 super gehad dat was net een dyson :P
Daarvoor ook dat idee met andere ventilators, ik heb 2* 12cm Noctua fans die ik nog had liggen in een kast op Molex aangesloten en met kabelbinders vast gemaakt, met een fan controller draaide ik het in begin met 70%, maar nu draai ik het constant 100% op mijn GTX 1060 MSI Gaming X, ik hoor ze vrijwel niet of de PC moet naast mijn oor staan, de kast is zelfs zo stil dat ik de "coil whine" van mijn GPU kan horen als ik een benchmark doe met Unigine (ik moet dat is gaan nakijken).

De koel resultaat is wel een verschil vs de stock MSI koeling, maar moet zeggen dat de stock koelers al in het algemeen vrij stil zijn, alleen als ze ietsje harder draaien maken ze wat meer geluid.

Voor die nieuwe kaarten, daar kijken mensen op dit moment echt toch meer naar de hitte productie in plaats van de lawaai (dat komt wel als mensen het gaan testen), als de kaart te heet wordt, gaat het vaak zichzelf constant downclocken en throttelen en zou levensduur sneller achteruit kunnen gaan, dus is het belangrijk dat dat ding goed gekoeld wordt als je het gaat pushen met grafisch spul, vooral met die prijzen die gevraagd worden, anders moet de kaart, of vermeden worden, of aan getweakt, of gemod (maar dan heb je kans dat garantie eraan gaat).

Maar in ieder geval, de kaarten moeten nog worden verkocht/weggeveven en getest, dan kunnen we zien of het wel meevalt of echt zo erg is.

[Reactie gewijzigd door TweetCu op 29 augustus 2020 22:43]

Ja dat maakt zeker verschil! De stock koelers hebben vaak een rare fan curve waardoor ze boven x graden ineens voluit gaan. Bij mij zitten er 3 fans op en ik hoor ze eigenlijk nooit, ook omdat ik een koptelefoon op heb ha!

In de winter bouw ik een bureau waar beide pc's (van mijn vrouw en mij) in het meubel zitten en dit word helemaal watergekoeld zodat we de warme lucht via onze wtw naar buiten kunnen laten zuigen. Het word hier in de computer kamer al gauw 2-3 graden warmer na een uur gamen!! (goed geisoleerd huis heeft z'n nadelen). En ik ga denk ik gewoon een universeel waterblok gebruiken zodat ik met een toekomstige kaart ook gewoon hetzelfde setje kan gebruiken.

En ik heb nu 2 arctic 12cm fans onder in mijn kast die direct op de gpu blazen voor verse koele lucht, denk dat dat er voor zorgt dat mijn kaart niet terugclockt!

We gaan het zien, ik zag een bericht over de zotac kaarten...die prijzen zijn niet mals! Mogen wel echt 30-50% beter presteren dan de 2xxx series anders gaat het over voor mij. Ik was erg teleurgesteld in de 2080 die mijn 1080ti amper voorbij kwam :(
Ik gebeuik op hetmomwnt een (overklokte) rx 580 en ik kan prima met mn 1440p @144hz monitor uit de weg.
Bf4 op medium settings haalt hij de 144fps makkelijk.
Bf5 op medium/high 60fps
Met een 1080ti kan je zeker goed uit de voeten op 1440p
Wie gaat er niet een high end kaart kopen om hem vervolgens te downclocken... dan koop je gewoon een goedkopere kaart.
ik doe dat met mijn GTX1080... power limit omlaag ( -> resultaat is lagere clock). Voor de helft van de power, verlies je maar 15% performance of zoiets. Maar wel mega stil.

Dat werkt fantastisch in oudere games, of met games die niet 100% nodig hebben.

Vroeger nog een laptop zitten downclocken/downvolten ook, toen ging de ventilator nooit aan voor de CPU. Zalig was dat!
Het was maar een idee als mensen problemen met de hitte zouden hebben, met het kopen van een andere videokaart zou je wel een stuk minder VRAM hebben (Is alleen vervelend als je gebruik maakt van zoveel).

Ik vindt het zelf ook niet zo leuk idee om te gaan downclocken, daarom ook die andere ideeën, maar deel het toch maar.

Maar met een beetje geluk valt het hopelijk wel mee zolang Nvidia en de partners zoals EVGA, MSI, etc er iets aan hebben kunnen doen.

[Reactie gewijzigd door TweetCu op 28 augustus 2020 21:12]

Omdat de RTX 3090 de meest cuda-cores heeft.
Verbruik/warmte neemt expontieel toe met de kloksnelheid.
Vaak moet je de kloksnelheid dus maar 10-20% verminderen om al mooie effecten te zien.
Op die snelheid zal deze kaart waarschijnlijk nog steeds heel snel zijn aangezien ze 20% meer cores heeft dan de RTX 3080.
Haha, dacht ik ook ja. Eerst 2000-2500 euro voor een videokaart aftikken en dan underclocken 8)7 omdat je de extra verwarming in huis niet op prijs stelt.
Je zou 1440p kunnen doen, lol, je zou van allerlei consessies kunnen doen. Daarvoor koop je geen RTX 3090
Kun je beter kijken maar een undervolt. Bij veel GTX-, RTX-serie en bv AMD's RX5x00 kaarten kun je prima undervolten en alsnog een overclock doen/ hogere boost lock halen.

Zo haalt mijn GTX1080 met ca. 10% lager voltage ca. 10% hogere boost clock dan door de fabrikant geadverteerd én is de kaart koeler en stiller dan stock :)
Of gewoon je fps locken.(punt)
Ook VSync of VRR inderdaad, meer frames zijn vaak verspilde frames.
Het hoeft trouwens niet 'of' te zijn, het kan er bovenop gedaan worden.

[Reactie gewijzigd door TweetCu op 28 augustus 2020 20:20]

Nouja, vsync zal ik je niet aanraden(krijg je last van inputlag) maar in de buurt je fps locken aan het aantal Hz scherm je hebt, waarom niet. Je CPU en ram verbruikt ook nog eens minder.

Voorbeeld:
60 Hz --> 70
120 Hz --> 130
144 Hz --> 155

En dit is mogelijk met Nvidia Inspector of in de AMD driver.

[Reactie gewijzigd door Jeroentjeeuh op 28 augustus 2020 21:49]

Wellicht begrijp ik je verkeerd maar als je met die getallen aan de rechterkant de FPS lock bedoelt, dus op 60hz scherm op 70 fps locken etc, is wel het slechtste wat je kunt doen. Alle FPS die boven de native HZ van je scherm komen gaan tearing opleveren. Je moet dus altijd onder de maximale HZ van je scherm een framelock zetten. Bijvoobeeld max 141 FPS op een 144HZ scherm. Andersom heeft weinig nut.
Mij werd er altijd vertelt dat als je bijvoorbeeld een 144hz scherm hebt, dat je dan de FPS lock op 144 vast stelt. Niet lager en niet hoger.
Het beste is om onder de max te zitten. Frame lock op 144hz kan er voor zorgen dat vsync geactiveerd wordt waardoor je alsnog een veel hogere imput lag krijgt. Zie deze test op een 60hz scherm: https://blurbusters.com/g...lag-tests-and-settings/5/

Op een 60hz non gysync scherm is dat weer een heel ander verhaal. Daar valt eigenlijk niet mee te gamen zonder vsync (dus 60fps). Een limiet zetten op 58 zorgt wel voor lagere imput lag maar heb je wel last van tearing. Dus dat is maar net wat je voorkeur heeft.

Er zit daarnaast een groot verschil tussen verschillende frame limers software. De beste frame limeter zit in RTSS.
Met VSync kan je inderdaad last van tearing krijgenen (EnigmaNL heeft gelijk, zal wel laat zijn voor mij) iets hogere input lag, maar VRR lost dat op, hoewel je scherm nodig hebt die dat ondersteund, FreeSync of Gsync (de oude/niet VRR gebasseerd) zijn ook een optie.

Persoonlijk heb ik geen van last tearing van gehad, maar je FPS locken is ook een idee.

[Reactie gewijzigd door TweetCu op 28 augustus 2020 21:03]

Met vsync krijg je juist geen tearing (het is uitgevonden om tearing tegen te gaan).

Met een fps lock kan er nog wel tearing optreden maar je hebt daarmee geen input lag.
Een fpslock zal nooit tearing geven op een g of freesync scherm. Alleen op non VVR schermen.
Uiteraard. Op een VVR zal je in principe nooit tearing krijgen tenzij de frame rate buiten het bereik valt. De meeste mensen hebben echter nog geen scherm met VRR...

Op een scherm met VRR moet je überhaupt geen fps lock instellen.

[Reactie gewijzigd door EnigmaNL op 28 augustus 2020 23:59]

Dat zou kunnen. Maar dan heb je ook niks aan een rtx3000 serie kaart (om te gamen). Tenzij je op 4k gaat gamen
Niet om wat man, ik bedoel, je verhaal is prima, niks aan op te merken. Maar.

Als ik een kaart zou kopen van €1000 - €2000 of wat deze nieuwe serie ook moet gaan kosten, dan wil ik eigenlijk niet meer onderhoud eraan hebben dan af en toe een busje perslucht. En los van de prijs, sowieso bij aankoop van een nieuwe kaart vind ik bovenstaande praktijken gewoon onacceptabel. Het ding moet gewoon goed presteren en niet ervoor kunnen zorgen dat een normale kast opeens een heteluchtoven wordt en ik moet gaan downclocken of zelfs aftermarket koeling (weg garantie) moet gebruiken

Nu hebben we echter vaak genoeg ca 300W TDP luchtgekoeld gezien. Heb zelf een R9 290 die 275W zou verstoken. Simpel gezegd, daar wil je een groot koelblok of een waterkoeler op. Het maakt lawaai en ik hoorde de bladblazer prima door de koptelefoon heen. Dat is wat je krijgt als je 350W met lucht wilt koelen, niet zo heel veel aan te doen, of je moet een heatsink volstouwen met dikke heatpipes en dan nog 3 flinke top down fans erop. Dan kom je er wel, met een redelijk geluidsniveau. Moet je daarna die 350W nog wel uit je kast krijgen, anders wordt het nog niks
Vindt ik ook, hopelijk als de kaart uitgebracht wordt, doen Nvidia of andere brands er een beetje degelijke of geweldige koelblok, een erg goede koeler op en doen ze er kwalitatieve koelpasta op die niet binnen een jaar door de hitte verhard/verstoft, of nog beter gewoon waterkoeling, vooral voor die toren hoge prijzen die ze vragen zou je kwaliteit ervan moeten verwachten en niet dat er effe een paar honderden omhoog is door inflatie correctie.

Anders zouden mensen de kaart in grote aantallen terugbrengen, misschien dat ze daarna een nieuwe versie uitbrengen met wat betere koelers, wan hoeveel er ook gevraagd wordt, als het niet helemaal naar behoren werkt en je eraan moet knutselen, willen veel mensen het niet.

Met waterkoeling zou de kaart ook een stuk minder ruimte in beslag kunnen nemen dan met een dikke koelblok en stel dikke ball bearing of hadraulic fans.

[Reactie gewijzigd door TweetCu op 29 augustus 2020 17:33]

Wil je minder warmte en geluid, dan klok je em terug.
Wil je performance dan zorg je voor betere koeling.
Wil je geen van beide dan koop je een andere kaart.

Ik zie eerlijk gezegd het probleem niet.
Vooral het kopen van een grotere kaart en die undervolten/terugklokken... Dat bevalt hier nogsteeds fantastisch.
Is dat echt de moeite waard? Ik snap dat performance lineair schaalt met kloksnelheid, maar stroomverbruik lineair met klok en kwadatrisch met voltage, dus je kan met een 2080Ti 2080 performance halen met lagere powerdraw, maar is dat verschil het extra geld echt waard?

Ik heb zelf mijn rx570 ook een tijd underclocked/undervolted gedraaid, omdat mijn voeding wat ondermaats was, maar nu heb ik em weer op volle toeren getweaked, en dan heb ik voor 45% meer power budget (90>130w) toch gewoon 28% meer performance, minder efficient per frame wellicht, maar ik zou nooit een RX580 kopen om die vervolgens op 570 performance te draaien voor die 10-20 watt verschil.
Ik heb het met een 1070 gedaan. Van 1v naar 0.85 en daarbij de zelfde clocks kunnen houden... 1900mhz. Maar hierdoor wel terug naar 60% tdp. En de kaart wordt bij mij niet meer gebruikt voor de zwaarste taken. Staan de fans ook bijna altijd uit door goeie case flow.

Ik had het met een 1060 gekunt maar de 1070 is nu efficiënter.
Oh maar dat is gewoon terugklokken, die snap ik 100%, ik heb een 6-pin RX570, dus ik wil liever niet over de 130w power limit heengaan, en dan scheelt de 1.0v die ik draai behoorlijk ten opzicht van de 1.15 stock kwa clocks die te halen zijn. Ligt er ook een beetje aan dat de polaris/vega kaarten vanuit de fabriek standaard gewoon te veel volts kregen.

Maar een dure kaart kopen om die te underclocken snap ik niet helemaal, als het je om stilte gaat kan je ook de goedkopere kaart en een raijintek morpheus oid kunnen kopen.
Alleen het extra geheugen is het het al waard. Geen out of core instabiele render shit meer _/-\o_
Ligt er gewoon puur aan waar je de gpu voor gebruikt.
Wil je minder warmte en geluid, dan klok je em terug.
Waarom een dure kaart kopen om hem terug te klokken?
Wil je performance dan zorg je voor betere koeling.
Dus moet ik een dure en nieuwe videokaart uit elkaar schroeven om er andere koeling op te zetten? Dat vindt de garantie niet goed en het is dan aan tobben. Een videokaart en zeker een dure videokaarten moet gewoon goed zijn, plug en play dus.
Wil je geen van beide dan koop je een andere kaart.
Het is vanzelfsprekend dat je met nieuwe kaarten meer performance krijgt voor hetzelfde verbruik of meer performance krijgt met minder verbruik. Mijn RTX 2070 super is onhoorbaar met gamen zoals het hoort, nu Nvidia dus nieuwe kaarten uitbrengt die meer verbruiken.... komt de koeling niet ten goede.

[Reactie gewijzigd door Enchantress op 28 augustus 2020 17:17]

Wil je stilte en geen warme case neem je een externe water bong. En gezien water over de kaart laten lopen meestal geen goed idee is doe je er goen aan de stok koeler te vervangen voor een water blok.
Wat moet mijn computer met een bong?
Weet niet of dat de originele naam is maar heb er altijd een zelf gemaakt gehad en die zijn nog effectiver dan een een radiator door dat ze meer oppervlakte hebben, meer water bevatten en lucht door een buis sturen Waarin je koper koeling buizen zitten,

Mijne was destijds 1,5 meter hoog
Benaming slaat op de vorm van de koeler. De werking is hetzelfde als die van koeltorens die je typisch bij kerncentrales ziet staan. Namelijk verdamping van water.

LTT geeft er en mooie filmpje over: https://youtu.be/jsQKyAswAPI
Dus moet ik een dure en nieuwe videokaart uit elkaar schroeven om er andere koeling op te zetten? Dat vindt de garantie niet goed en het is dan aan tobben. Een videokaart en zeker een dure videokaarten moet gewoon goed zijn, plug en play dus.
De meeste merken laten je gewoon de koeler er af halen zonder je garantie te verliezen hoor. Sterker nog: er zijn gevallen geweest waarbij de fabrikant je vroeg dat te doen om zelf een fout te herstellen ipv het product op te sturen.
[...]Waarom een dure kaart kopen om hem terug te klokken?
Omdat performance en voltage/kloksnelheid niet lineair schaalt en je dus met een kaart iets terug te klokken een hoop warmte en bijvoorbeeld zgn. ''electron migration'' (fysieke slijtage door de elektriciteit zelf ipv. warmte) bespaart, terwijl je misschien maar 5% performance inlevert. Voor ultra compacte PC's, of bijvoorbeeld voor rendering workstations waarin je 4 kaarten in quad SLI hebt draaien met maar een paar mm ruimte ertussen kan zoiets zinvol zijn.

Of als je performance profielen per game instelt en je bijvoorbeeld merkt dat de ene titel je gewenste framerate met een hele ruime marge haalt, waarom zou je dan niet de maximum kloksnelheid flink terugschroeven?
Als je de performance met een ruime marge haalt kan je beter een frame lock instellen. Sowieso is het noodzakelijk om een framelock in te stellen als dit vaker voorkomt. Anders heb je al snel last van tearing, ook op G of free sync schermen.
Hoor mijn x5700xt ook nooit tijdens gamen, maar draag dan ook headset. 😂.
Nee, maakt bijna geen geluid
Nou, mijn MSI 5700xt maakt echt herrie (tijdens het gamen) en produceert veel warmte. Heb jij wat aangepast?
Koeling kan ook betekenen een fatsoenlijke kast. draai hier een 1080ti (triple slot koeler variantje wel) die vrijwel onhoorbaar is zelfs onder zware belasting, maar heb de airflow in de kast ook behoorlijk goed op orde.

En waarom een dure kaart kopen en terug klokken, simpel, als je de performance van een stap lager genoeg vind maar je wil wel een lager energieverbruik/warmte/geluid (die 3 zijn imho uitwisselbaar). En als je daar het geld voor over hebt natuurlijk. Werk je op een kleiner budget, dan zou ik dat soort dingen niet doen nee ;)
45€ was mijn case (midi met 3 grote fans) merk silencio 550
Hij hoeft ook niet permanent een underclock te hebben.

Mijn GPU (5700XT) is 95% van de tijd in undervolt gezien ik best wat oude spellen speel en / of aan het coderen ben.

Zodra ik Red Dead Redemption opstart of met OpenGL werk pomp ik m weer volgas.

Zo bespaar je toch flink op stroom / geluid / geld. En is een handeling van 5 seconden

[Reactie gewijzigd door DutchKevv op 28 augustus 2020 23:41]

Scalen de kaarten niet gewoon zelf? Mijn 2080 super ligt gewoon te maffen bijna, lees verbruikt practisch geen stroom, als ik aan het scripten/browsen/etc ben maar als TensorFlow/OpenGL/etc gilt, wordt ie wakker.
Enige waar ik af en toe denk 'kan het wat minder', is bij oude games waar ie zelf niet op het idee komt dat 400fps misschien niet nodig is.
De waterkoeling houdt het echter allemaal stil dus eigenlijk boeit het niet zo.

[Reactie gewijzigd door brammieman op 29 augustus 2020 08:32]

Ja klopt inderdaad hoor, ze schalen zelf flink terug.

Maar zoals je zelf ook al zegt, 1000fps bij oude games is niet nodig. Ook denk ik dat het altijd wel een beetje stroom scheelt als je undervolt, al draait ie maar op 5% van clock snelheid. Een IGPU had wat dat aan gaat ook gekund
Wat is het nut hiervan? Waarom dan een peperdure kaart kopen, en niet een goedkopere die wat langzamer is en minder verbruikt.
Je beantwoord je vraag zelf al: omdat die goedkopere langzamer is.
Nee want als je om gaat denken kan je ook de goedkopere overklokken.
Nee, zo werkt dat niet. Je kan kaarten niet eindeloos overclocken, en waar je dan mee zit is een potentieel instabiele kaart die zo veel stroom gaat vragen dat koeling een probleem word.
Een duurdere snelere kaart underclocken waardoor je de zelfde performance hebt maar slechts een fractie van de stroom gebruikt (en dus warmte en geluid produceert) kan dan de voorkeur hebben.
Geluid boeit niet, mijn PC staat in een andere kamer en maakt dus 0 decibel en 0 hitte. En anders, hop, hop, koptelefoon op.
Warmte wordt pas een probleem als de koeler-techniek de boel niet meer goed kan koelen zonder teveel lawaai te maken.. Ik denk niet dat we in die situatie komen met de huidige 3 fans koelers etc als je ziet hoeveel overcapaciteit ze nu nog hebben met b.v. de 2080Ti..
voor gewoon gebruik snap ik het dat meer geluid slecht is maar als je aan het gamen bent dan heb je meestal ene headset op, met motorgeluiden ,explosies, muziek en zo dus dan let je er minder op en hoor je het niet
Stroomverbruik an sich is ook niet zo heel spannends, die paar euro per jaar meer zal mensen inderdaad worst wezen. Alleen meer verbruik betekent meer warmte, meer warmte betekend meer koeling nodig om deze warmte af te voeren...wat vaak inhoudt meer geluid/herrie.
En de warmte zelf kan ook storend zijn. In de winter is het fijn, zo'n straalkacheltje naast je, op warme zomerdagen vervloek je datzelfde ding.

Daarbij komt ook dat, voor de non-blower stijl koelers, het overgrote deel van al die warmte je kast in geblazen wordt. Dat helpt bijvoorbeeld de CPU koeling ook niet bepaald.

Dus ja, ik denk dat verbruik echt wel een factor speelt, zij het meer vanwege de secundaire effecten.
Hangt af wie de rekeningen betaald en hoe je stroomregeling eruit ziet. In België is de stroom op zich niet duur het is het transport en allerhande taksen. 75% van je stroom bestaat uit dus die allerhande en taksen. En vanaf 2022 ga je minder betalen aan stroom, maar zal je extra belast worden op je piekfermogen. Dus als jij dan je super super pc opzet en gaat voor 100% load en dan tegelijkertijd wasmachine, droogkast, etc dan kan het wel wat meer kosten hier.

En ik heb zonnepanelen en kijk toch naar het verbruik (en ik mag nog 13 jaar salderen zoals jullie dat noemen) daarom koop ik ook een platinum voeding omdat je minder verbruikt zelfs op lagere loads en je minder warmte moet afvoeren. Velen zeggen dat dit niet de moeite is. Op 2 jaar tijd haal ik de meerprijs van een platinum voeding eruit met gemak. En diepe wordt zo een 12u persagentschap gebruikt. Uiteraard als je alleen maar een paar uur gaat gamen per dag is het wat anders, dan zal de meerkost het niet echt waard zijn. De warmteontwikkeling is iets anders. Hoe minder efficiënt je voeding is hoe meer extra warmte je voeding gaat leveren.
Ik ken niemand die zulke high-end videokaarten koopt die het echt boeit hoeveel stroom er gebruikt wordt.. Het gaat alleen maar om de prestaties en de prijs..
Ik ken niemand die zulke high-end videokaarten koopt :+
ik vraag mij tbqh af hoeveel vd mensen hier uberhaupt direct in de weken na de launch uit eigen zak (dus niet via schenking van papa mama oma of opa) een modaal netto maandsalaris gaan neertellen voor het topmodel
Als je even spaart en je huidige verkoopt.

Bij deze. Iemand interesse in een rtx2080ti? 😆
Afhankelijk van de waterkoeling opties en uiteindelijke Nederlandse prijs ben ik er wel voor te porren, zo'n super klein PCB geeft extra ruimte in de kast.
Mijn huidige desktop is een rig uit 2011, bestaande uit een i7 2600 op 4.4Ghz, 16GB ram, Samsung 840 Pro, en nu een GTX 970 SCII van eVGA, die de GTX 580 die ik oorspronkelijk had vervangen. Omdat die stuk ging, en ik deze 970 ter vervanging kreeg van eVGA.

Ik heb in dus 9 jaar prima gedraait op deze bak. Ik ga dus nu eindelijk in November alles upgraden. Ryzen, 32GB, nVME SSD en dan ook gelijk een 3080. Zo hoop ik weer voor een lange tijd goed te zitten.
En dit gaat gewoon uit eigen zak, sinds vorig jaar gewoon elke maand geld opzij gezet met September 2020 als doel (Cyberpunk 2077 release) maar ik heb nog 2 maandjes extra.

Dus ja, als je gewoon je upgrades planned is dat toch geen issue ? Vooral als je nog een redelijk moderne kaart had, stel je komt af van een 1080 of 2070/80 kan je die mooi nog verkopen.
Je zal je verbazen hoeveel mensen zoveel geld uitgeven aan hun PC gaming hobby.. De RTX 2080Ti verkoopt ook voor 1200+ euro.. Nvidia kan niet voor niks zulke hoge prijzen vragen, het verkoopt gewoon nog steeds.. Ook omdat er geen concurrentie en dus keuze is voor mensen die de beste prestaties willen..
Ik wil echt niet weer een aantal zomers een kaart hebben met het verbruik van een Vega 56 ...
Vega kon je gewoon undervolten en de zelfde prestaties houden. Zat vaak max 250W met een Sapphire Nitro model
Dude... ik heb zelf een Vega 56 en mijn Gigabyte is undervolt... verbruik zelfs nog iets lager.

Mijn punt blijft relevant.

[Reactie gewijzigd door HugoBoss1985 op 28 augustus 2020 21:29]

En dat punt is? Je zit nu dus zelfs lager dan 250W met 100% gpu verbruik. Maar jij zou graag 1 van de topmodellen willen van Nvidia met minder dan 200W verbruik?

Dat kun je mooi vergeten dus je gaat gewoon weer een aantal zomers met dat verbruik zitten
Dat zeg ik toch nergens... heb je de reactie gelezen waar ik op reageerde?

"Inflatable
@Moi_in_actie • 28 augustus 2020 16:13
Ik ken niemand die zulke high-end videokaarten koopt die het echt boeit hoeveel stroom er gebruikt wordt.. Het gaat alleen maar om de prestaties en de prijs..
[Reactie gewijzigd door Inflatable op 28 augustus 2020 16:15]"


Mijn punt was dat ik graag een kaart zou willen met minder dan 220W verbruik (mijn punt was dat stroomgebruik mij dus wel boeit), meer prestaties en het liefste ook nog RTX.
AMD of Nvidia.

Oké... ik begrijp je verwarring want dat hoeft dus niet persé highend te zijn voor mij.

Eerst meldt je mij dat je een VEGA kan undervolten en dezelfde prestaties houdt (je gaat er vanuit
dat ik dat nog niet weet?).
En nu doe je wederom een verkeerde aanname.

[Reactie gewijzigd door HugoBoss1985 op 28 augustus 2020 23:32]

250W en daaronder is echt niet veel voor een GPU naar mijn mening dus daarom ging ik er vanuit dat je de kaart gewoon op maximaal vebruik laat draaien. Verder snap ik sowieso nooit mensen die klagen over zulk verbruik van videokaarten. Wel lekker de vaatwasser/droger/airfryer gebruiken zonder na te denken maar een videokaart van 250W/300W o jeetje wat een ramp!
Mijn punt was dat ik graag een kaart zou willen met minder dan 220W verbruik (mijn punt was dat stroomgebruik mij dus wel boeit), meer prestaties en het liefste ook nog RTX.
Waarom heb je eigenlijk voor een vega56 gekozen als jij juist wel een persoon bent die dat boeit? Waarom geen GTX1070ti? bijvoorbeeld.
Ik ben juist erg energie bewust.
Iets wat ik dus niet verwacht had met het huidige systeem is de warmteontwikkeling in mijn kleine gameroom.
Een Gtx 970 is toch iets zuiniger.
Het punt wat ik in mijn eerdere post al meldde... nogmaals. (De warmte in de kamer in de zomer)
En een mobiele airco heb ik niet en koop ik dus liever niet.

Als ik hier beter over nagedacht had dan had ik liever een zuinigere Nvidia kaart gehad.
Alhoewel ik verder zeer tevreden ben met de Gigabyte Vega 56. 1650 mhz, 1090mv, 900 ram. En stabiel als een huis.

Hopelijk nu helemaal duidelijk en verklaard voor jou.

[Reactie gewijzigd door HugoBoss1985 op 29 augustus 2020 09:42]

Een 2060 super zit toch dik onder de 200w? Denk dat in de 3060? ook wel ergens daar rond zal uitkomen.
Hopelijk, dat zou wel een leuk kaartje kunnen zijn!
Mee eens. geluid interesseert me niet :D en stroom ook niet. Ik hem momenteel de zijkant van me case open. Scheelt enorm veel. Nooit meer midtower of nzxt voor mij.
Geluid interesseert me dan wel weer.. Ik wil de kaart zo min mogelijk horen.. Daarom let ik altijd goed op de koeling voor wat betreft welke kaart ik koop.. FE modellen vallen daarbij dus eigenlijk meteen af, want te luidruchtige koeling..
Inderdaad. Het is te bekijken of Nvidia een grote performance boost heeft kunnen verwezenlijken door slimme nieuwe architectuurwijzigingen, of door gewoon de huidige kaarten tot hun thermal limit te drijven.
Deze kaarten zijn als ik het goed heb sowieso op 7nm gebakken ipv 12nm, dus puur daaruit zou ik een aardig perf/watt verbetering verwachten, ook als het gewoon dezelfde arch is als Turing.
Hier verschillen de verhalen in. De geruchten gaan dat Nvidia te lang heeft lopen winkelen en af te dingen waardoor TSMC is uitgestapt. Uiteraard hofleverancier van AMD en inmiddels beste vrienden denk ik.
Hierdoor is Nvidia verplicht geweest om over te stappen naar het minder efficiënte 8nm proces van Samsung voor een hoop zo niet alle 30xx serie kaarten. Met de nodige uitwerking op stroomgebruik en performance.

Maar dit is de geruchtenmolen uiteraard :+
Valt je niet iets anders op?

Vreemde enorme gat tussen 3080 and 3090 betreft CUDA cores en geheugen maar bijna gelijke TDP.

De berichten zijn dat beiden op 7nm EUV zijn maar dit hoeft niet beiden bij TSMC of Samsung te zijn. Het is mogelijk dat de 3080 bij Samsung is geproduceerd op 7nm EUV (met verschrikkelijke yields) en de 3090 op 7nm EUV bij TSMC (met veel betere yields). Bekend is dat TSMCs 7nm EUV zuiniger is dan dat van Samsung ook. Wat het minimale 30W verschil in TDP kan verklaren.

Overigens zijn er een aantal andere zaken opvallend:
RTX 3090 - PG132 SKU 30
RTX 3080 - PG132 SKU 10

Waar is PG132 SKU 20? (3080 Super of 3080Ti al op stapel om AMD te counteren met Navi 21)

De vermeende prijzen zijn:
3090 24GB - $1400
3080 10GB - $800

En als dit waar is dan is gaat de 3080 met slechts 10GB (1080Ti had al 11GB voor $650!!!) en een torenhoge TDP niet echt een slimme keuze zijn. Beter even wachten to AMD uitkomt en betere producten of betere prijzen tevoorschijn komen. Uiteraard is alles dat ik hierboven schrijf pure speculatie tot de kaarten officieel uitkomen. My2Cents.

[Reactie gewijzigd door Cidious op 28 augustus 2020 18:31]

Kloksnelheid en turbosnelheid zullen hier ook meetellen voor het stroomverbruik. Plus misschien is 350watt het maximale wat uit de gebruikte stroomvoorziening te trekken is.

[Reactie gewijzigd door gjmi op 29 augustus 2020 17:45]

Dank voor je input, maar dit zijn de boost clocks die worden vermeld en die zijn beiden bijna exact gelijk. Daarom is dit vreemd.
Dat stroomverbruik boeit echt niet.

24GB voor compute ipv de huidige 11GB van mijn 2080Ti is een geweldige sprong, zonder dat ik 10k kwijt ben voor een Tesla kaart!

En PCI-E 4.0 vs 3.0 halveert ook nog eens de host to device bottleneck!
200 watt is best significant voor de warmte productie in je kamer. Grofweg kan elke 100 watt 1 m2 verwarmen in de winter. Mijn kamer wordt nu al warm als ik aan het renderen ben...
Gebaseerd op de opgave van bijvoorbeeld Seasonic die al 12 pins kabels klaar heeft voor deze kaarten is er minimaal een 850W voeding nodig dus ik ga er van uit dat deze cijfers in ieder geval voor verbruik best wel een zouden kunnen kloppen.

Ik vind het nog heel erg mee vallen, en het lijkt me eerder dat Nvidia nog meer vermogen zal willen kunnen verstoken. Een 8 pins connector levert 150W de 12 pin connector van Seasonic is aan de voeding kant 2x 8 pins en aan de kant van de kaart natuurlijk 12 pins. Dat zou inhouden dat Nvidia dus 300 + 75 (van de PCI slot) 375W tot zijn beschikking zou moeten hebben, dus de 350W lijkt me eerder wat aan de lage kant en ik verwacht eerder 375W te zien.

Nog meer vermogen? Een 12 en 8 pins connector voor een 525W kaart ergens in de toekomst? Ik denk het niet.
De reden is simpel je hebt nu al 3 slots nodig om zo'n ding koel te houden, op een gegeven moment kun je gewoon echt niet meer verstoken op zo'n klein printje zonder dat je naar heel exotische koel methode toe moet of je het ding in een eigen kast moet hijsen om het een beetje beheersbaar te houden.

Ik denk dat we voorlopig nog aan de huidige 375W vast zullen zitten en voorlopig niet meer zullen willen verstoken. Ooit zou het me niet verbazen maar voorlopig denk ik dat de 375W echt wel voldoende zal zijn.
Daarom dus ook de 12pins connector, die kaarten gaan dus 12+6 of 12+8 krijgen ouch
Daarom dus ook de 12pins connector, die kaarten gaan dus 12+6 of 12+8 krijgen ouch
Nvidia heeft ondertussen aangegeven dat de 12 pin is ter vervanging van 2x8. Zoals verwacht is dat weer net wat efficienter.
320W en 350W TDP voor de topmodellen...geen wonder dat er ook al geruchten gingen over triple slot reference koelers. Vergelijk ik dat met mijn vorige GPU de R9 Fury X, ook niet bepaald een zuinige kaart, die had maar een TDP van 275W. En die kaart werd al standaard uitgeust met een AIO.

Mochten deze TDP opgaves kloppen, dan mogen de kaarten toch wel astronomisch goed presteren, anders vrees ik dat het een niet bepaald interessant reeks gaat worden, zeker voor kleine ITX builds. We zullen het zien.
Tja als je naar zo'n 2080 Ti lightning kijkt dan je zie 361W peak gaming load en 407W furmark. Vervolgens kijk je dan bij de geluidsfiguur en daar zie je dan 36 dBA, stiller dan een 1070 ti.

Het lijkt me dus wat te vroeg om je nu al zorgen over geluidsproductie te maken. In de regel is Nvidia al jaren aandacht aan het besteden aan de geluidsproductie (in positieve zin).
Natuurlijk kan je elke kaart wel stil krijgen. Echter, deze Lightning edition is al een triple slot kaart gebaseerd op een 250W TDP kaart (260W voor de Founders Edition). Wanneer een kaart die volgens NVidia's TDP 250W verbruikt met een beetje OC onder peak load al 407W trekt, wil ik niet weten wat een 350W TDP kaart gaat halen. Houd je dezelfde TDP / peak power verhouding aan, kom je bij 350W TDP uit op 570W peak power. Ik wil veel geloven, maar zelfs met een triple slot koeler ga je dat niet op 36dBA houden.

En ja, het is nu alleen maar speculeren (we weten niet eens of deze geruchten op enige waarheid gebaseerd zijn), maar ik vind het vooruitzicht, zeker voor een 7nm GPU, niet bepaald geruststellend.

Edit: en wat ik aan de geruchten ook vreemd danwel nog meer verontrustend vind: de kaart met "slechts" 10GB gddr6x en 4352 CUDA cores zou een TDP van 320W hebben. Een kaart die dan 24 GB gddr6x heeft (2.4x zoveel) en 20% meer CUDA cores heeft dan een TDP van slechts 9% meer (bij verwaarloosbare clockspeed verschillen)? Of die 320W is dan relatief veel te hoog, of die 350W is dan nog veel te laag en ligt meer in de buurt van de 400W.

[Reactie gewijzigd door Moi_in_actie op 28 augustus 2020 20:59]

Edit: en wat ik aan de geruchten ook vreemd danwel nog meer verontrustend vind: de kaart met "slechts" 10GB gddr6x en 4352 CUDA cores zou een TDP van 320W hebben. Een kaart die dan 24 GB gddr6x heeft (2.4x zoveel) en 20% meer CUDA cores heeft dan een TDP van slechts 9% meer (bij verwaarloosbare clockspeed verschillen)? Of die 320W is dan relatief veel te hoog, of die 350W is dan nog veel te laag en ligt meer in de buurt van de 400W.
Nvidia geeft zelf eigenlijk aan dat één van de ontwerp doestellingen is om zo veel mogelijk vermogen in een kaart pompen (vermogen=prestatie). Zie https://youtu.be/ZEzI02SKALY Op basis van de geruchten lijkt het erop dat ze een manier hebben gevonden om die doelstelling te behalen.

De prestatie per watt is natuurlijk weer een andere doelstelling. Maar op basis van wat we de afgelopen jaren sinds Fermi hebben gezien is dat eigenlijk elke keer weer een best wel grote stap vooruit geweest. Zeker in combinatie met het kleinere procedé kan ik me niet voorstellen dat Nvidia er niet in is geslaagd om dit te verbeteren.

Meer vermogen voor meer prestaties + meer vermogen per watt voor meer prestaties = veel meer prestaties blijft voorlopig mijn inschatting.
Ik ben op zich heel erg benieuwd wat het nu allemaal gaat worden. De laatste paar generaties was NVidia op de absolute highend heer en meester. Ze hoefden daarom ook niet echt alle performance uit de kast te trekken en ze konden daarom met name inzetten op performance/watt. De laatste generatie AMD kaarten met o.a. de 5700XT doen het ineens ook erg goed qua performance/watt, alleen hebben ze in die serie geen absolute highend kaart uitgebracht. Redenen hiervoor kunnen heel divers zijn; yields op grotere chips nog te slecht, lage marktaandeel van absolute highend dus minder rendabel, scaling problemen etc.

Met dat alles in het achterhoofd zou ik het op zijn minst opmerkelijk vinden van NVidia wanneer zij nu doelbewust de ommezwaai maken van de focus op performance/watt, naar de focus op absolute maximale performance. Waarom? Weten zij iets wat wij nog niet weten, bijvoorbeeld dat mogelijk de volgende reeks RDNA kaarten van AMD wel in heel grote corecount chips geleverd kunnen worden (ze moeten om competatief te blijven)? Of is het productieproces en/of de architectuur van NVidia's 7nm nog niet zo'n succes qua performance/watt dat ze dat schip laten varen en vol inzetten op performance? Of is het voor iets simpelers zoals kunnen gaan pronken met de eerste GPU die een steady 120FPS+ op 4K haalt in alle games? Of nog wat anders: moeten ze wel een overkill GPU maken om Raytracing enigszins interessant te maken, aangezien de performance impact daarvan soms heel fors is.

Wat het ook wordt, het zouden wel eens interessante tijden kunnen. Als ik puur de vergelijking trek tussen tussen de geruchten van de 4352 CUDA chip en de 2080Ti (met een gelijk aantal CUDA cores), gok ik dat hun nieuwe lineup niet of nauwelijks beter is qua performance/watt, maar dat deze chips wel iets beter clockt (1635Mhz boost voor een Founders 2080Ti t.o.v. 1710Mhz van de vermeende RTX 3080). Alleen is dat verschil maar heel minimaal en zoals ik al eerder zei, de TDP is wel fors hoger. Dan mag je toch hopen dat de IPC een heel stuk beter.
Ik ben op zich heel erg benieuwd wat het nu allemaal gaat worden. De laatste paar generaties was NVidia op de absolute highend heer en meester. Ze hoefden daarom ook niet echt alle performance uit de kast te trekken en ze konden daarom met name inzetten op performance/watt. De laatste generatie AMD kaarten met o.a. de 5700XT doen het ineens ook erg goed qua performance/watt, alleen hebben ze in die serie geen absolute highend kaart uitgebracht. Redenen hiervoor kunnen heel divers zijn; yields op grotere chips nog te slecht, lage marktaandeel van absolute highend dus minder rendabel, scaling problemen etc.

Met dat alles in het achterhoofd zou ik het op zijn minst opmerkelijk vinden van NVidia wanneer zij nu doelbewust de ommezwaai maken van de focus op performance/watt, naar de focus op absolute maximale performance. Waarom? Weten zij iets wat wij nog niet weten, bijvoorbeeld dat mogelijk de volgende reeks RDNA kaarten van AMD wel in heel grote corecount chips geleverd kunnen worden (ze moeten om competatief te blijven)? Of is het productieproces en/of de architectuur van NVidia's 7nm nog niet zo'n succes qua performance/watt dat ze dat schip laten varen en vol inzetten op performance? Of is het voor iets simpelers zoals kunnen gaan pronken met de eerste GPU die een steady 120FPS+ op 4K haalt in alle games? Of nog wat anders: moeten ze wel een overkill GPU maken om Raytracing enigszins interessant te maken, aangezien de performance impact daarvan soms heel fors is.

Wat het ook wordt, het zouden wel eens interessante tijden kunnen. Als ik puur de vergelijking trek tussen tussen de geruchten van de 4352 CUDA chip en de 2080Ti (met een gelijk aantal CUDA cores), gok ik dat hun nieuwe lineup niet of nauwelijks beter is qua performance/watt, maar dat deze chips wel iets beter clockt (1635Mhz boost voor een Founders 2080Ti t.o.v. 1710Mhz van de vermeende RTX 3080). Alleen is dat verschil maar heel minimaal en zoals ik al eerder zei, de TDP is wel fors hoger. Dan mag je toch hopen dat de IPC een heel stuk beter.
Ik denk dat nvidia wat pragmatischer te werk gaat. Een nieuwe architectuur wordt zo goed mogelijk en performance/watt is daar standaard onderdeel van (bij de 1080 werd er al veel aandacht aan power delivery besteed in het launch praatje). Vervolgens kijken ze op basis van de markt welk prestatie niveau ze de kaarten mee geven. Zo houden ze de kosten zo laag mogelijk en de marges zo hoog mogelijk.

In de basis zie je Nvidia bij ontbreken van concurrentie 35-40% sneller worden (relatief dus 100/60=+66%). Dat is ongetwijfeld om de vervangingsmarkt in stand te houden. Dat is wat mij betreft ook direct hetgeen je van Ampere mag verwachten, ook zonder een succesvolle launch van AMD Radeon. Daarnaast is Nvidia al een tijdje bezig om hogere segmenten aan te boren. De 3090 zal daar ongetwijfeld een verlengstuk van worden.

Mocht AMD (en in 2021 Intel) met iets bijzonders komen dan kunnen ze altijd nog een refresh uitbrengen waarbij ze de kaarten weer gaan doorschuiven. Het is immers de product placement die de performance beperkt en niet de techniek.
Dat doet Nvidia niet, dat doen de 3rd party bedrijven die de videokaarten leveren met custom koelers en PCB's etc.. In het geval van die Lightning kaart is dat MSI.. Maar inderdaad zou ik me over koeling geen zorgen maken, de huidige koelers met 3 fans etc hebben meer dan genoeg capaciteit..
Nvidia kwam de 26e 'toevallig' met een filmpje over wat ze doen aan o.a. thermal design: https://youtu.be/ZEzI02SKALY
Dat gaat over hun eigen reference modellen, maar de versies met betere stillere koeling vindt je bijna altijd bij 3rd party fabrikanten..
Ligt aan de toepassing.
Zelf gebruik ik mijn RTX kaart eigenlijk alleen om te renderen en dat zelfs vaak via de command line (dus zonder video-output). Het enige doel is snel plaatjes renderen. Dus fps, geluidsniveau en stroomverbruik doen er niet heel veel toe.
Hetzelfde geldt voor mensen in de VFX hoek. Je wilt je effecten zo snel mogelijk renderen want daardoor kan je veel sneller werken.
En uiteraard is Machine Learning de laatste jaren groot geworden. Sneller je sets berekenen is dan echt een groot voordeel.
Mijn vermoeden is dat Nvidia net als CPU ontwerpers tegen de grenzen aanloopt van wat fysiek mogelijk is. Dat betekent dat ze niet heel veel verder meer kunnen dieshrinken.
En dat laat dan als enige optie grotere en energiehongerigere GPUs maken, aangenomen dat ze door willen gaan met elke generatie sneller maken dan de voorgaande.

[Reactie gewijzigd door Jeanpaul145 op 29 augustus 2020 13:09]

Het is knap dat ze elke paar jaar toch weer met krachtigere en efficiëntere producten kunnen komen (al kun je je afvragen met zoveel meer stroomverbruik of het nu alleen maar meer rekenkracht is).. Elke keer weer zoveel sneller dan de vorige generatie.. Je zou inderdaad denken dat de rek er op een gegeven moment uit is.. Maar daarvoor weet ik echt veel te weinig over hoe je dit soort chips maakt etc..
Vroeger was het door Moore's Law mogelijk om grofweg elke 18 maanden een verdubbeling te zien van het aantal transistors op een gegeven oppervlak: dat is dieshrinken.

Maar Moore's Law is zo goed als ten einde, en wat er dus nu gebeurt is veel meer architecturele wijzigingen en optimalisaties.
Het lijkt erop dat deze gebakken worden op Samsungs 7nm vandaar het hoge stroomverbruik .
De yields zijn ook slecht van de 3090 en wordt een paper launch.
Bron moreslawsdeath heeft bronnen binnen Nvidia.
Als ITX gebruiker wordt ik hier niet goed van... De 3070 is de enige die ik kan overwegen. Op zich wordt mn portemonnee daar wel blij van ;)
10GB klinkt klein, maar DirectX 12 Ultimate introduceert Sampler Feedback Streaming. Dat zou VRAM ruimte van textures met 2,5 moeten verkleinen. DX12U wordt al op de 20 serie van Nvidia ondersteunt.
10GB klinkt voor mij als genoeg.. Ik heb nu een RTX 2080 met 8GB en heb nooit het idee gehad geheugen te kort te komen voor de settings waarop ik speel (3840x1600)..

Maar het is nooit verkeerd om een overkill van iets te hebben.. Ik ga er alleen niet extra voor betalen als dat niet nodig is.. We gaan het wel zien in de benchmarks of meer geheugen nut heeft..

[Reactie gewijzigd door Inflatable op 28 augustus 2020 16:11]

Het gezeur op Reddit was hilarisch. Van mensen met een 2080ti die zaten te zeuren dat de 3080 maar 10GB heeft en dat dit een stap terug is etc.
Mag ik ook meedoen met mijn 1080ti, is toch wel een stap terug hoor :P
Mijn RX580 steekt ook zijn vingertje voorzichtig op....
Heb de 2080 Super en ben toch al wel eens in de problemen gekomen met de 8GB VRAM in Prepar3d v5, die lust wel wat VRAM :)
Dan is de 20gb variant perfect voor jou! :P
Als ik er nu nog het geld voor over had 8)7
Als ik er nu nog het geld voor over had
:+

[Reactie gewijzigd door Tim Lamein op 28 augustus 2020 17:13]

GDDR6 op een kaartje zou leuk zijn, kun je uitbreiden zoals je pc :) alleen het geheugen koelen zou een opgave zijn :/
De 3080 Super wordt volgens mij 16GB vram als we de geruchten mogen geloven. Ik vind het verschil dan toch wel behoorlijk met de 3080. Je zou dan toch verwachten dat ze met minimaal 12 of 14 gb zouden komen. Dit staat even lost van het feit of je het wel of niet nodig hebt natuurlijk.

3090 is dan een vervanger van de Titan neem ik aan en niet van de 2080TI?
De 3080 heeft 10 geheugenchips. Dat kan geen 16GB worden, dan zouden 1,6GB per stuk worden. Het moet 20GB worden. Tenzij ze er 12 chips op zetten en van 320bit naar 384bit gaan zoals op de 3090. Dan wordt het 12GB met een hogere geheugenbandbreedte. 24GB verwacht ik niet.
Is er een manier om te berekenen hoeveel vram je nodig hebt als je ook op dit soort technieken let?
is 10GB niet onderhand genoeg nu nvidia keihard heeft ingezet op DLSS ? Nu DLSS 2.0 uit is zie ik in de reviews van de techniek op Digital Foundry hun versteld staan dat de "4K" upsample van 1080P internal er net zo goed, of soms iets beter uitziet dan native 4K. Link naar filmpje

Dus ja, in feite heb je dan aan 10GB meer als genoeg VRAM voor 1080P textures + calc/compute van Ray Tracing. 24GB op de 3090 lijkt mij dan ook meer interesant voor compute doeleinden en niet zozeer gaming doeleinden.
DLSS scheelt inderdaad ook in Vram. Niet aan gedacht. En games gebruiken inderdaad minder ram op lagere resoluties:
https://www.tweaktown.com...abled/index.html?&ampcf=1

Ann de andere kant. DLSS moet nu per game ontwikkeld worden. Wat het nut nogal beperkt. Zo zou het zeer welkom zijn geweest in Horizon New Dawn en Flight Simulator.

Mijn hoop is dan ook dat DLSS 3 automatisch op elk spel kan werken of dat AMD met een betere Radeon Image Sharpening komt.
Kan iemand in procenten uitdrukken hoeveel "beter" de 3090 is tov een 2080ti? Of gaat dat niet zo makkelijk?
Dat gaat *nog* niet zo makkelijk, ik ga ervan uit dat een groot deel van de pers als kaarten heeft onvangen voor benchmarks, maar deze nog niet mogen laten zien.

Pas als de embargo gelift is kunnen mensen vergelijkbare metingen publiceren.
HWI heeft gezegd dat ze nog geen Ampere-kaart hebben gezien. Vaak krijgt men de kaarten pas een paar dagen voor het aflopen van de NDA.
RTX 2080Ti; 13,45 TFLOPs
RTX 3080; 14,88 TFLOPs
RTX 3090; 17,79 TFLOPs

Het probleem is alleen dat je Turing en Ampere niet één op één kan vergelijken. Naast dat geheugen een rol speelt, mag je ook verwachten dat Ampere efficiënter is dan Turing per FLOP. De vraag is hoeveel dat is. De 1080Ti en 2070 Super presteren ongeveer gelijkaardig (er is een klein voordeel voor de 1080Ti) op clocks van 1850-1900Mhz, echter heeft de 2070 Super wel slechts 2560 CUDA cores, terwijl de 1080Ti er 3584 heeft. Ik schat het verschil op zo'n 25% efficiënter per core.
Vergeet niet het geheugen: de 3090 heeft verbazingwekkend genoeg blijkbaar 24 GB geheugen, t.o.v. 11 GB voor een 2080 Ti, en 10 GB voor de 3080.

Als je veel geheugen wilt, wat waarschijnlijk voor professionele toepassingen handig is, dan is een 3090 ineens een grote stap, en bevat even veel geheugen als een Titan RTX. Een 3080, daarentegen, heeft minder geheugen dan een 2080 Ti.

Ik denk dus ook dat je de 3090 niet zozeer als betere 3080 moet zien, maar als opvolger van de Titan RTX, die toch een andere markt bedienen.
Zo kijk ik er inderdaad naar, als de 3090 $1400 gaat kosten is dat een koopje tov de Titan RTX en koop ik er zodra ze te koop zijn. Ik loop nu al tegen de grenzen aan van de 2080Ti en de Titan RTX is boven budget.
mag je ook verwachten dat Ampere efficiënter is dan Turing per FLOP.
Waarom mag je dat precies verwachten? Ik heb niks gehoord over grote architecture wijzigingen dus ik verwacht eigenlijk dat er weinig verschil zit in de verhoudingen flops/game prestaties (buiten ray tracing om dan, wat hele andere redenen heeft)
Of het ook die ~25% is zoals bij Pascal naar Turing is maar de vraag, ik kan me alleen niet voorstellen dat Nvidia 2 jaar heeft stilgestaan qua architectuur. Tevens gaan ze van 12nm naar 7nm.
Daarvoor zijn verschillende benchmarks nodig.
Kan iemand in procenten uitdrukken hoeveel "beter" de 3090 is tov een 2080ti? Of gaat dat niet zo makkelijk?
Dat weet je pas zodra de kaarten beschikbaar zijn en je ze aan een benchmark kunt hangen.
Eigenlijk kun je makkelijk de minimum verbetering berekenen. Als er vanuit gaat dat de cuda cores hetzelfde presteren dan zit je al aan 20% meer power. Vervolgens dubbel de memory bandwith. Bij de GTX 1660 zagen we dat een memory upgrade van 192GB/s (GDDR5) naar 336GB/s (GDDR6) heeft gezorgd voor al gauw 10% extra performance in fps. Dan zou je bij van GDDR6 naar GDDR6x een gelijkaardige sprong kunnen verwachten en dan is de bus ook nog groter.

FPS meer:
20% door cuda + 20% door geheugen + 10% door IPC

Dan zou de RTX 3090 minstens 50% meer performance moeten kunnen bieden en zelfs veel meer dan dat bij games die de extra hoeveelheid geheugen nodig hebben zoals Flight Simulator.
Hangt eraf wat je wilt doen.

Voor games denk ik dat het weinig verschil gaat opleveren, wat je momenteel op de 2080 al kunt spelen op 120fps ga je niet veel verschil merken. Als je gewoon benchmarks wilt, rond de 10-20% meer fps voor games.

Voor ander werk zoals AI training en Tensor Flow is de architectuur veel beter geoptimaliseerd, er wordt zoveel silicon toegevoegd voor speciale zaken dat die speciale berekeningen soms 2-300% beter wordt tov de vorige generaties.

Naar behoren (ik werk met mensen die gratis een kaartje krijgen onder NDA met nVidia) is de Tensor Flow tweemaal sneller tov de vorige generatie en Ray Tracing to 4x sneller (dat zijn wel specifieke software pakketten geoptimaliseerd met nVidia voor specifiek gebruik)

[Reactie gewijzigd door Guru Evi op 28 augustus 2020 16:22]

Nee.

Eerst een hele lading benchmarks draaien om te zien wat de verschillen zijn dan zullen er vast nog wel weer meerdere driver versies uit komen die de prestaties in bepaalde games een flink stuk verbeteren en dus de verschillen nog groter maakt. Maar de kans is groot dat andere games door deze driver updates juist trager worden dus ook dan zegt het nog lang niet alles wat vaak zijn het de oudere games die minder aandacht krijgen in de driver updates en dus af en toe wat minder presteren dankzij een driver update.

Daarom je het heel moeilijk om zelfs met benchmark resultaten te bepalen hoe veel sneller de kaarten precies zijn. Synthetische benchmarks zijn dan een leuk idee maar ook die kunnen door driver optimalisaties flink beter of slechter presteren met een en de zelfde kaart.

Zullen deze nieuwe kaarten flink sneller zijn dan de huidige kaarten vast wel hoeveel sneller 5%, 20%, 80% geen idee, vast geen 80%, maar sneller kun je redelijk zeker van zijn.
Zelf denk ik dat het heel erg afhangt van hoe goed of slecht Cyberpunk draait op mijn huidige kaart. Als deze de game op medium nog redelijk kan draaien dan vind ik het vast wel goed genoeg als dat niet meer wil lukken dan koop ik waarschijnlijk een 3080 of 3090 al dan niet in Ti editie als die tegen die tijd al beschikbaar zijn. Ik hoop dat dat niet nodig zal zijn, en denk dat het zo'n vaart niet zal lopen maar als dat wel het geval is ach dan koop ik gewoon de beste kaart die ik op dat moment kan vinden (en redelijkerwijs kan betalen) hoe veel sneller deze kaart dan ook moge zijn het zal hoe dan ook een stuk sneller zijn dan mijn huidige kaart (geen idee welke kaart dat is het ding is al weer een paar jaar oud)
@Xtuv
De RTX 3090 zou 24GB gddr6x krijgen en tot 350W verbruiken.
TGP staat voor typical gaming power, dus het gemiddelde verbruik tijdens een game die de videokaart vol belast. Dat is altijd lager dan het maximale verbruik, al komt het steeds dichter bij elkaar. 5 jaar geleden zag je nog wel eens een 100W verschil, tegenwoordig is dat vele malen kleiner.
In de huidige genereaties is dit gewoon 100% gebruik zodra de powerlimit is bereikt ondanks dat er misschien thermisch gezien nog verder geboost zou kunnen worden.
Bron? Afaik is TGP total graphics power. Ik zie dat hier ook in een Nvidia-document, al staat daar geen datum bij.
Ik zie idd dat het niet meer zo is. Maar echt strikt neemt nVidia die waarde niet. Bij meerdere videokaarten gaat men er overheen. Zie bijvoorbeeld een RTX 2080 Super met een TGP van 250W, terwijl het maximum verbruik 275W is tijdens games en juist het gemiddelde net onder de 250W zit.
https://www.techpowerup.c...-founders-edition/30.html
Ik val eigenlijk bijna achterover van het verbruik. 320W voor de 3080. 350W voor de 390. De 2080 Ti zit al aan 280W en is een stevige heethoofd.

Ik zie in de comments hier dat de meeste verwachten dat de 3080 ongeveer het kaliber van de 2080 Ti zou zijn, misschien 10-20% rapper. Als je gaat kijken naar het verbruik lijkt me dit eigenlijk een vrij slecht resultaat want de kaart verbruikt ook gewoon 15% meer. Dit is niet wat je zou verwachten van een nieuwe generatie bij een zeer stevige die-shrink.

We zullen volgende week wel meer te weten komen, maar als dit gerucht waar is denk ik dat Nvidia erg kwetsbaar is deze generatie. Ik krijg meteen flashbacks naar Fermi, wat een meme-status werd met "slechts" 250W... Ik hoop dat we hier ergens een cruciaal stuk informatie missen.

[Reactie gewijzigd door Niosus op 28 augustus 2020 15:49]

Het is onwaarschijnlijk dat deze nieuwe generatie op een flink beter productieproces niet weer een stap doen qua performance per watt.
Ik gok eerder dat de 305W, 375W kan worden gezien de power connectors op de kaart zelf dit mogelijk maken. En ik denk dat de sprong van 10 a 20% sneller helemaal niet zo verkeerd is voor een gemiddelde. Voor zo ver ik begrepen heb van de rummor mill lijkt het er op dat NVidia met deze kaarten juist de ray tracing verbeterd heeft en dat men vooral daar flinke stappen heeft gemaakt die de performance dip die we tot nog toe zagen bij veel games zodra men ray tracing inschakelde flink terug weet te dringen zo niet helemaal ongedaan weet te maken.
Als dat zo is zal het vast zo zijn dat de gemiddelde performance increase maar een "schamele" 10 a 20% is maar de ray tracing zo maar 50% of meer beter zou kunnen zijn. Als dat laatste echt het geval is dan mogen het duidelijk zijn dat NVidia zich steeds meer zal willen richten op het gebruik van ray tracing in games en dat men de huidige 3d texture mapping logica als een afgerond project beschouwd, een beetje zo als niemand meer moeite doet om de 2d weergave nog te verbeteren.

Als dat echt zo is, tot we de kaarten buiten de NVidia labs op test benches zien liggen en bij consumenten in handen zien komen weten we dat niet met zekerheid, dan vind ik het eerder heel erg veel interessanter wat AMD en Intel hier mee gaan doen.
AMD lijkt ook hard te werken aan ray tracing op het moment om in ieder geval niet te veel achter te raken bi NVidia als ze echt die kant op gaan. Maar Intel met hun eeuwig durende Xe project dat tot op heden maar weinig durft te vertellen over prestaties zou wel eens een grote verassing kunnen zijn, waarschijnlijk een grote teleurstelling gebaseerd op het success van voorgaande Intel GPU projecten maar toch, laten we hopen dat het niet weer een DOA verhaal wordt bij Intel al heb ik er een hard hoofd in dat het iets anders zal worden dan dat voor de consumenten markt.

Dat NVidia kaarten heel erg goed zijn in ray tracing is leuk en aardig maar ik hoop dat de concurrenten we mee blijven doen en dat het niet een verhaal wordt waarbij we allemaal alleen nog maar NVidia kaarten zullen kopen omdat de concurrentie te veel moeite heeft met ray tracing en dat nu eenmaal de toekomst blijkt te zijn.
Ik denk dat het inderdaad voor een groot deel door RT hardware komt. Anders kunnen deze getallen niet echt kloppen. Toch niet als het op TSMC 7nm is. Voor Samsung 8nm kan ik dit wel geloven, maar TSMC 7nm is een erg goede node als je ziet wat AMD er mee op de markt zet. Die stroom moet ergens naartoe.

Ik zou wel niet te veel hoop hebben voor de Intel GPUs. Als je de geruchtenmolen wat volgt lijkt het er op dat de Xe graphics mogelijk een dood spoor zijn. De DG2 zou nog verschijnen, maar blijkbaar zou de DG3 al geannuleerd zijn. Er is echt een ware burgeroorlog aan de gang binnen Intel, met verschillende kampen die elkaar niet goed kunnen hebben. Dat is heel pijnlijk duidelijk gemaakt door de recente investors call met de CEO waarbij de hardware chief (Venkata “Murthy” Renduchintala) basically publiek buitengewerkt is geweest. We zullen zien wat dat als impact gaat hebben op termijn, maar echt gezond is de situatie niet te noemen. Als ze AMD al niet bijgebeend krijgen op CPU vlak, dan kunnen ze het vergeten van zelfs maar in de buurt te geraken van Nvidia...
Mijn MSI GeForce RTX 2080 Sea Hawk X videokaart gebruikt 245 watt en vind ik geen heethoofd. Doordat deze watergekoeld is hoor je hem zelfs amper tot niet tijdens vollast gedurende langere tijd. De warmte gaat direct de kast uit.
Het enigste waaraan je merkt dat deze lang op 100% zit te stampen is de airflow die naar buiten gaat. De lucht is dan handwarm. Zelden dat mijn kaart warmer wordt dan 44 graden.

Bij een toekomstige upgrade zal het weer een watergekoelde kaart worden. De mijne zit met een riser verticaal in de kast, dus gewicht is geen issue. En dan hebben wij ook nog airconditioning dus warmer dan 22 graden wordt het hier niet. Als zo'n kaart koele lucht kan aanzuigen dan is de Tmax ook lager. Ik zie wel problemen als je zo'n 3 slotter wil plaatsen direct op het PCI-E slot. Alle warmte gaat direct de kast weer in en zo wordt alles goed warm na een flink potje gamen.

Maar ik ben nog dik tevreden met mijn kaart dus deze line-up sla ik nog even over. Om nu na 1 jaar mijn kaart te vervangen is onzin en verspilling van tevredenheid :)
Oké, maar dat is 245W watergekoeld. Daar komt dan nog eens 100W bij. Dat gaat toch een uitdaging worden bij luchtkoeling. Om nog even een voorbeeld aan te halen: De RX 290 was 285W en die was toch ook wel erg heet en luid op luchtkoeling.

Ik weet eigenlijk niet wat de laatste kaart was die op papier alleen al significant meer dan 300W verbruikt zonder OC. Zou leuk zijn moest iemand dit kunnen uitvogelen Zodat we iets hebben om mee te vergelijken.

Ik zeg niet dat het slechte kaarten gaan worden, maar zo'n hoog verbruik is toch wel uitzonderlijk hoor.
Combineer een toename in vermogen met een toename in prestaties per watt en het resultaat is een grote toename in performance. Dat lijkt mij voorlopig de zinnigste verklaring. Voor de consument met minder geld en een wens voor kaarten die minder verbruiken (en dus minder presteren) zal het ongetwijfeld alleen maar beter gaan worden. Wellicht moet je dan een een 3060 of lager denken, dat is nog even afwachten.

[Reactie gewijzigd door sdk1985 op 28 augustus 2020 20:38]

Voor zover ik weet staat het voor Total Graphics Power en staat het niet voor gemiddelde belasting maar voor toppunt wat de kaart trekt.

Edit: bron van Meneer Nvidia zelf:

https://www.nvidia.com/co...rameview/Power_Primer.pdf
"TGP, or Total Graphics Power, is a more specific term for the power that a power supply should provide to the graphics subsystem, an add-in-card in most cases. The application used to define TGP and TDP is a stressful “real world” application."

[Reactie gewijzigd door paoper op 28 augustus 2020 15:10]

Heb nu een 650w voeding, en een 1080ti. Niet veel verstand van de genoemde Tgp's, maar betekent dit dat ik mijn voeding ook moet 'upgraden' bij een RTX 3090?

[Reactie gewijzigd door Nolimit89 op 28 augustus 2020 14:51]

Ze raden voor die kaart geloof ik al een 850W voeding aan.
Met 650W zit je prima verwacht ik. Mits deze natuurlijk van kwaliteit is en niet te oud.

Ze raden 850W aan omdat ze alle soorten voedingen moeten meenemen, dus ook de erg matige voedingen.

400W op GPU en 250W op CPU+de rest constant is geen realistische belasting. Een goede Seasonic 650W kan veel meer piek geven dan die 650W en waarschijnlijk constant 700 leveren, je moet het alleen niet willen.

[Reactie gewijzigd door Randomguy369 op 28 augustus 2020 15:09]

Je hebt ook te maken met dat efficiëntie niet op het piek vermogen zit en je ook een stille voeding wil. Dus, dat kan wellicht een argument zijn om een zwaardere voeding te nemen. Een 850W voeding die 500W verbruikt is misschien beter dan een 650W voeding die 500W verbruikt?
Op 50% zijn PSU's het efficient's, dus met 650W zit je dan op 325W.

Ik vermoed dat je met een zware belasting op 350-400W zit, zeker omdat je vaak de CPU of de GPU zwaar belast. Dus dan zit je vrij dicht rond die 325W. Een 850W PSU is misschien zuiniger bij zware belasting.

Maar, hoeveel van de tijd draait een computer idle tegenover die zware belatsing. Een PSU met 20% belasting is 87,5% efficient. Als je een 1,5x hogere wattage PSU hebt zal je idle verbruik ook een stuk hoger zijn.

Het is eigenlijk altijd zuiniger om dichter tegen het wattage aan te zitten dan verder af omdat computers draaien niet 100% van de tijd die belasting. Ook hebben we het in dit draadje over je PSU upgraden wat de potentiele bespaarde stroom al helemaal te niet zou doen.
Dan nog als laatste punt is dat deze nummers van Seasonic zijn welke een van de beste merken is en misschien een 'wij van WC-eend' geval.

https://seasonic.com/focu...6UumPmU6UDuuN___mn6fRL8p#
Vanaf 50% heb je efficientie die redelijk doorloopt tot 90%

Met andere woorden je pc is inefficiënt op de desktop en je wilt je load minimaal op 50% hebben om je efficiëntie te behalen.

Maar een 650 watt voeding A merk kan zonder problemen een efficiëntie halen van 90% op 90% load oftewel 590 watt.

Sterker nog bepaalde voedingen zoals degene die ikzelf heb "corsair hx750i" kan zonder problemen zelfs 850 watt leveren maar is gerelabeld als 750 watt omdat
hij dan het label platinum mag dragen.

Maar door alle hokiepokie merken alla "sweex" classificeren ze vele male hoger om safe te zijn.

https://youtu.be/4M5yTrzdcxY voorbeeldje met waarom.

https://www.techpowerup.com/review/corsair-rm650i/7.html 10 voedingen die 90% behalen.

[Reactie gewijzigd door TRAXION op 28 augustus 2020 22:07]

De beste efficiëntie is zover ik weet 50% load, bij pc voedingen.
Maar dan zou je al een 1000W voeding nodig hebben bij 500W verbruik.
Het meeste wat gebruikt word is rond de 80%.
Veel hoger zal de voeding ook niet ten goede doen.
Dit allemaal op 24/7 belasting.
Beste efficiency bij 50% =/= als een 1000w voeding nodig hebben voor een 500W systeem.

Daarnaast is het verschil tussen 50% en 100% op z'n ergst slechts 5%.

https://en.wikipedia.org/wiki/80_Plus
Dat zou dan een beste stap zijn.. Van 650 naar 850w. Gezien veel andere reacties hier heb ik misschien nog voldoende aan 650, dus wacht de benchmarks nog af!

[Reactie gewijzigd door Nolimit89 op 28 augustus 2020 15:21]

Ga er maar vanuit dat de prijs van een nieuwe voeding verwaarloosbaar gaat zijn naast de prijs van een 3090...
Ze kunnen net zo goed die game bundels verwisselen voor een GPU+PSU bundel :+
Zal ook een beetje aan je voeding liggen maar 650W zal wel heel dicht tegen de grens aan liggen.
Een Corsair RM650x. Zit ook niet te wachten om weer over te gaan op 850, want dat had ik een paar jaar terug juist.. Even afwachten dus.
Wat @dezejongeman hier onder al aangeeft, je houd 300w over. Afhankelijk van je overige hardware zal het waarschijnlijk niet nodig zijn. Je voeding heeft het Gold label dus dat is goed. Ik denk dat deze voeding het wel moet redden.
die 350w is dan wel echt het piek verbruik he..
Ik heb zelf bijvoorbeeld de 1080ti die volgens de specs 250w zou trekken, maar ik heb hier een stroom meter aan de pc hangen en die heb ik nog nooit meer dan 300w in totaal zien trekken (voor de hele pc dus).

Ik denk dat je die 350w bij de 3090ti ook alleen zal halen als je bijvoorbeeld furmark oid draait.

Waarschijnlijk zal 650w nog wel net zal gaan met de rm650x, dat is best een prima voeding.
Als je het zeker wil weten zou ik gewoon even wachten tot er benchmarks uitkomen die het exacte verbruik laten zien.
De RM650x is wel een stukje beter dan een budget 650W voeding en kan ook beter pieken opvangen. Igor doet altijd veel moeite in zijn testen om het werkelijk verbruik en de pieken te tonen, zie hieronder zijn MSI RTX2080 test als voorbeeld, dus ik zou zeggen kijk daar eens zodra de RTX 3090 getest is en bij twijfel stuur hem een berichtje voor advies:

https://www.igorslab.de/m...cken-auf-leisen-sohlen/6/
zwaardere voedingen zijn meestal efficiënter, als je van plan bent een xx70-80-90 te halen, gooi er gewoon een voeding van 1000W in met platinum
Als je dan een groter corsair model uit dezelfde serie koopt kun je misschien zo wisselen zonder heel je pc opnieuw te bekabelen, enkel even de kabels overprikken.
Zit hier met een 1080TI die een TDP heeft van 250W. tezamen met x570 bord (ook niet bepaald zuinig) aantal disken, fans kom ik met gamen rond de 338W uit.. Mijn seasonic 650W trekt het dus prima.
Die 3080 zal ook geen probleem zijn, Zolang je voeding maar genoeg ampere kan leveren op de 12V rail.
Voor het voeding gebruik moet je naar de watts kijken. Afhankelijk van je systeem moet het wel of niet. Je overig3 componenten 650watt-350watt= 300watt nemen. Dan hoeft het bij een enkele kaart niet.

Kortom zolang je een goed merk voeding hebt die niet 650watt als piek vermogen heeft, dan hoeft het vermoedelijk niet.
Dat is niet altijd zo even makkelijk te berekenen. De watt calculators zijn variëren toch wel veel. Hier een voorbeeld op reddit van vorig jaar.
Ik zou gewoon kijken wat een willekeurige PSU calculator er van gaat zeggen.
Voorbeeld: https://www.newegg.com/tools/power-supply-calculator/
Men lijkt 850W aan te raden nu kun je waarschijnlijk met 650W ook nog wel weg komen maar als je ook wil overclocken dan ben ik bang dat je al snel tegen issues met je voeding aan gaat lopen bij een beetje serieuze game sessie.

Als je dan toch 1400,- uit gaat geven aan een 3090ti dan kun je net zo goed ook even die 850W voeding er bij kopen zo'n ding kost in verhouding tot die kaart vrijwel niets. :+
De 3080 zit dus op 2080ti niveau qua cudacores, maar heeft meer geheugen bandbreedte
Dan heeft de 3080 niet dezelfde kracht, omdat het een nieuwe familie is
Er waren geruchten dat de RTX 3080 tot wel 20% sneller kan zijn wegens IPC verbetering en sneller geheugen. Ziet ernaar uit dat dat waarschijnlijk klopt. Ben benieuwd naar de prijs. Ik hoop dat het niet meer wordt dan de MSRP van de RTX 2080 dus rond de 800 euro.

Ben van plan deze of een 2de hands RTX 2080 Ti te halen. Ziet ernaar uit dat die een stuk goedkoper zal zijn.
Ja en WOW, de Geforce RTX 3080 gebruikt een enorme 320w, wat al weer 66w meer is dan de gemiddelde Geforce RTX 2080 Super.

Dus dat is:

Geforce GTX 980 175w.
Geforce GTX 1080 184w.
Geforce RTX 2080 230w.
Geforce RTX 2080 Super 254w.
Geforce RTX 3080 320w.

https://www.guru3d.com/ar..._2080_super_review,5.html

Wow wat zijn de wattages ENORM omhoog gegaan van Grafische kaarten, ook al zijn ze VEEL sneller geworden is het nog steeds veel.
Daar moet ik je wel gelijk in geven. Je zou denken dat ze het toch beter onder controle kunnen houden wegens het gebruik maken van een beter proces maar aan de andere kant zitten er ook veel extra features in die van stroom moeten worden voorzien (daargelaten of ze nu nodig zijn op dit moment of niet)
De beste Grafische kaart opvolger die Nvidia gemaakt heeft is de Geforce GTX 1080, die MAAR gemiddeld 10w meer gebruikte dan de Geforce GTX 980 en met gemak 60 tot 80% sneller was in spellen, wat we nu al lang niet meer gehad hebben, en nu nog maar iedere keer +/- 35% sneller is dan de vorige, als de Geforce RTX 3080 ook maar weer rond de 35% sneller is dan de Geforce RTX 2080 Super.

[Reactie gewijzigd door AmigaWolf op 28 augustus 2020 15:53]

Hoe weet je dat, er zijn nog helemaal geen benchmarks uit? Als de rtx3080 20-30% sneller is dan de 2080ti wat de verwachting is zal hij dus 50%+ sneller zijn dan een RTX2080 super. Daarnaast is super een vernieuwde versie van de 2080. Oftewel je moet de 3080 met de 2080 vergelijken en niet met de super. dan kom je al snel op 60%+ uit.
Als eigenaar van een GTX 1080 zag ik dat niet aankomen. Van 180w naar 320w zou zomaar een nieuwe PSU kunnen vereisen. Een overstap betekent ongeveer 88% meer energieverbruik en 68% meer TFLOPS, hoewel ik weet dat TFLOPS geen goede manier zijn om de kracht van verschillende generaties te vergelijken.

Ik dacht eraan om over te stappen naar een 3080. Nu denk ik dat ik zal moeten kiezen tussen de 3070 en niet upgraden. De hoofdzaak voor mij om te upgraden is toch wel DLSS 2.0 wat niet met mijn kaart werkt. En nu maar wachten op de prijzen die vast ook gegroeid zijn.

[Reactie gewijzigd door NoThankYou op 28 augustus 2020 17:35]

De TI range van die series zitten anders behoorlijk in het zelfde straatje, de 980 TI, 1080 TI en 2080 TI zitten allen rond de 250 watt TDP..

Overigens praten ze in deze tabel over de TGP, een term die mij nieuw is maar op mij aankomt op de 'power' die de PSU moet kunnen leveren. Of de kaart het ook gaat gebruiken is dan een 2e.

Immers zijn er reference modellen, maar zullen er ook wel kaarten uit komen die een bepaalde overclock hebben. Ik neem aan dat die laatste dan mogelijk ook wat meer stroom vragen.

Hoe dan ook is het gat met de huidige generatie wel wat groot, maar zo mogelijk zijn de prestaties daar ook naar... Maar mijn 1080 TI stookt hier de boel al lekker warm in de lente/zomer maandjes.. dat zal met die 3080 dan ook wel gelden voor de herst/winter maanden XD.
Zometeen heb je een extra power supply nodig in je PC alleen al om de Gafische kaart te draaien.
Idd ik verschiet enorm van dat verbruik. Zal misschien ook wel door die extra RTX en tensor cores komen.
Alfa1970 Zometeen heb je een extra power supply nodig in je PC alleen al om de Gafische kaart te draaien.
Sorry voor de late reactie

Ja als dat zo door gaat wel ja.
Idd ik verschiet enorm van dat verbruik. Zal misschien ook wel door die extra RTX en tensor cores komen.
Ja denk het, maar dan nog met nieuw techniek en kleinere core en meer had ik niet 320w verwacht voor de Geforce RTX 3080.

[Reactie gewijzigd door AmigaWolf op 31 augustus 2020 01:44]

Met een minder brede geheugenbus (320 vs 352Bits) en minder geheugen (10GB vs 11GB).

Ik denk dat de 2080ti en de 3080 qua prestaties redelijk dicht bij elkaar gaan liggen eerlijk gezegd, de 3090 is het paradepaardje met een bredere geheugenbus en veel meer cores beschikbaar. Ik ben benieuwd wat we gaan zien gebeuren hier.
Hoezo?
Op niveau van cuda maar net minder dan de 2080 Ti en qua geheugen heeft de 3080 ook 1GB minder geheugen.
Nu ja ik verwacht inderdaad dat de 3080 op niveau of zelfs hoger gaat scoren dan de 2080 Ti door de nieuwe architectuur etc...
7nm zie ik, dan zou het dus toch TSMC zijn ipv. 8nm bij Samsung wat er rondging?
Was 7nm niet alleen voor het hogere segment, omdat nVidia niet genoeg capaciteit bij TSMC kon krijgen voor de midrange dies met een hoger volume?
The data that we saw clearly mention the 7nm fabrication node. At this time we are unable to confirm if this is indeed true.
https://videocardz.com/ne...080-specifications-leaked
Ben benieuwd naar de prijs van die 3090...
van wat ik gelezen heb is het rond de $1400
Maar dan niet met 24 GB, denk ik zo.
Vreemd dat de 3080 minder geheugen krijgt dan de 4 jaar oude 1080ti.
Vind het niet zo vreemd, aangezien AMD al heeft aangekondigd, op de presentatie van Nvidia te wachten zodat ze eventueel nog extra geheugen kunnen toevoegen. Verwacht dan ook dat vrij snel na de release van de AMD kaarten er weer nieuwe Super kaarten met meer geheugen komen.
Dat voeg je niet zomaar snel even toe hoor, die designs liggen meestal al een tijdje vast en die rollen als het goed is momenteel al van de band om voldoende voorraad te hebben. Het zal eerder voor de prijsbepaling zijn dat ze afwachten, het design gaan ze echt niet meer radicaal veranderen. Dan zullen ze eerder kiezen voor een refresh of iets dergelijks, ergens volgend jaar dan.
Deze PCBs kunnen gewoon ruimte over hebben voor extra geheugen chips, die nu niet gepopulate zijn voor kosten..
De "super" geheugen variant kan dus zelfs op dezelfde picking machine gemaakt worden, met enigste verschil 4-6 extra geheugen chips

[Reactie gewijzigd door Icekiller2k6 op 28 augustus 2020 16:58]

Waarom displayport 1.4a en niet meteen 2.0?

Ik zou dat vreemd vinden.
Omdat de displayport 2.0 specificaties pas in juni 2019 zijn aangekondigd. Displayport 2.0 biedt ook een stuk meer bandbreedte dan 1.4 en is een relatief grote wijziging tegenover eerdere updates. Dit zorgt er wellicht voor dat er wat tijd nodig is om dit te implementeren en een videokaart wordt nu eenmaal niet op een paar maanden ontworpen.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True