Gerucht: RTX 4080 krijgt tbp van 340W en 16GB GDDR6X op 23Gbit/s

Nvidia-leaker kopite7kimi heeft nieuwe specificaties naar buiten gebracht van de GeForce RTX 4080. Die zou geen tbp van 420W hebben, maar slechts 340W. Ook zou het apparaat 16GB GDDR6X hebben op 23Gbit/s.

De leaker noemt in een tweet een aantal nieuw gelekte specificaties van de aankomende RTX 4080. Die heeft een AD103-300-A1-gpu, die is gebaseerd op de Ada Lovelace-architectuur. Opvallend is dat de kaart een total card power zou hebben van 340W. Aanvankelijk wezen leaks erop dat de kaart een tbp van 420W zou hebben, maar nu zegt kopite7kimi dat Nvidia de tdp heeft gewijzigd naar 340W.

De RTX 4080 zou daarnaast 16GB aan GDDR6X-vram krijgen, meer dan de huidige GeForce RTX 3080 die 10GB of 12GB van dat geheugen heeft. De snelheid daarvan zou 23Gbit/s zijn. Eerdere leaks wezen erop dat de kaart mogelijk 21Gbit/s-geheugen zou krijgen, hoewel inmiddels ook bekend is dat geheugenfabrikant Micron is begonnen met de massaproductie van sneller GDDR6X-geheugen. De kaart zou verder 9728 CUDA-cores krijgen. Dat zijn er wel minder zoals eerder voorspeld; dat zouden er aanvankelijk 10.240 worden.

In aanloop naar een nieuwe generatie gpu's doorlopen videokaartfabrikanten verschillende mogelijke configuraties, om zo de prijs en prestaties te evalueren. Voorafgaand aan de release verandert Nvidia daarom meermaals de specificaties van zijn komende gpu's, schrijft ook VideoCardz, die een deel van de nieuwe informatie van kopite7kimi met eigen anonieme bronnen kon verifiëren. Kopite7kimi deelde in 2020 vroegtijdig de correcte specificaties van Nvidia's RTX 30-serie.

kopite7kimi rtx 4080

Door Tijs Hofmans

Nieuwscoördinator

23-08-2022 • 10:30

223

Reacties (223)

223
221
81
3
0
114

Sorteer op:

Weergave:

Met de huidige energieprijzen is ook 340W niet aantrekkelijk.

Zou het nu echt technisch onmogelijk zijn om een vergelijkbare videokaart te maken met een tbp van max 100W. Dat zou een welkome ontwikkeling zijn.
Dan cap je je framerate toch gewoon. Qua FPS per watt zit er nog steeds vooruitgang in videokaarten. Soms lijkt het een beetje op stagnatie, maar het is in ieder geval geen achteruitgang. Als je je dus écht zorgen maakt over het verbruik kun je gewoon een framecap instellen op de framerate die jij voldoende acht en dan kun je rustig slapen in de wetenschap dat je die op de momenteel efficientste manier behaalt

https://www.techspot.com/review/2099-geforce-rtx-3080/ In deze launch review van de RTX 3080 kun je bijvoorbeeld zien dat die een betere efficientie heeft dan alle voorgaande generaties.

Alternatief kun je het wattage van nvidia kaarten gewoon begrenzen in MSI Afterburner.

En de andere, makkelijkste, goedkoopste optie, is de snelste nvidia kaart kopen die volgens jou een acceptabel maximaal verbruik heeft. Het is immers nog steeds de snelste kaart ter wereld met maximaal dat verbruik. Dan heb je precies waar je om vraagt.

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

Maar dan beperk je alleen de performance van de kaart en als gevolg het energieverbruik.

Mijn vraag of het technisch ook mogelijk is om een vergelijkbare videokaart te maken in performance die standard veel minder energie verbruikt. Waarom gebeurt dit niet? Is het gemakzucht, net zoals vroeger met de gloeilampen.

Nu gaat heel veel energie verloren door onnodige warmte. Waarvoor je ook weer energie moet verbruiken aan koeling.
Ik zeg net dat de RTX 3000 generatie dé efficientste generatie ooit gemaakt is. Er wordt generatie op generatie geïnnoveerd. Als je dus de performance van een RTX 4080 op 100 watt wilt, zul je gewoon moeten wachten op de RTX 6050 ofzo.

Dus ik vat niet helemaal wat je bedoelt. Je vraagt waarom het niet mogelijk is om de performance per watt nog even met een factor 3 te verbeteren? Omdat de technologie nog niet zo volwassen is?

Ga anders ff aan volkswagen vragen of ze niet even een EV kunnen bouwen die 1000 pk heeft en 2000 kilometer kan rijden op een accu van 50 kWh. Dat is feitelijk dezelfde vraag.

Dan krijg je als antwoord, is goed, maar dat gaat je dan enorm veel geld kosten. Dus is er geen markt voor, dus ontwikkelen we niet op die manier en ontwikkelen we rustig door zodat we iedere 2 jaar weer een interessant product kunnen verkopen

Dan ga jij nu zeggen "natuurlijk is er een markt voor een ultra zuinige ultra snelle videokaart" "meneer dat wordt dan 2500 euro" en dan lach jij daarom en plaats je een comment op tweakers dat je dat idioot vindt en koop jij gewoon een RTX 4070/80.

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

Mijn vraag is waarom het rendement per Watt nu zo beroerd is dat heel veel energie in warmte omgezet moet worden.
Die kaarten worden nog steeds loeiheet. Heeft dit niet de aandacht of is dit technisch niet mogelijk. Waarom zo inefficient. Helemaal in deze tijd van een energiecrisis.

Of moet eerst Europa of de VS met een verbod komen voordat de markt gaat bewegen om wel energiezuinige videokaarten en andere computercompnenten te ontwikkelen. Vergelijkbaar met de gloeilampen en auto's met verbrandingsmotor. Pas toen en kwamen er volop ontwikkeling in LED-lampen en elektrische auto's.

Nu ken ik alleen Apple met Apple Silicon en de efficiente M-processoren met geintegreerde CPU en GPU.
Waarom niet NVidia, AMD, etc. Nu wordt het gebracht dat het 'maar' 340W is.
Je snapt dat computers per definitie een warmte efficientie van 0% hebben toch? Er bestaat niet zoiets als natuurkundige arbeid voor computers. Alle elektriciteit die zij gebruiken eindigt per defintie als warmte aan het einde van de rit. De enige energie die computers efficient inzetten is de energie die zij gebruiken om hun ventilatoren en hardeschijven te draaien, letterlijk ronddraaien.

Als er een maximale vermogensgrens komt voor computers of computer onderdelen, neemt de performance van computers simpelweg af. Niets meer, niets minder.

Er wordt continu geïnnoveerd qua performance per watt. Als er een vermogensgrens komt verandert de verhouding tussen nvidia en AMD ook niet. Dan moeten ze simpelweg met lagere wattages hetzelfde gaan doen. Zit unlockt niet ineens zwarte magie die de performace per watt x3 doet.

Nogmaals, als je minder warmte wil uitstoten. Koop lower end hardware. Die is meestal niet minder efficient dan high end hardware. Nvidia, AMD en Intel maken gewoon waar de klant om vraagt en de klant vraagt om 350 watt trekkende videokaarten.
Videokaarten zijn enorm goed schaalbaar, zeker naarmate de render resolutie hoger wordt. Ze kunnen letterlijk alles in de core verdubbelen, inclusief het wattage en dan neemt de performance gigantisch toe. Daarom bestaan die super kaarten.

En als je het daar allemaal niet mee eens bent dan ga je toch natuurkunde studeren, even promoveren in silica fabricatie en zelf een microprocessor ontwerpen die een RTX 3080 eruit kan rekenen met 300 watt.
Ik weet zeker dat jij dat kunt, ondanks dat de grootste techbedrijven van deze planeet daar al decennia lang miljarden tegenaan gooien.

En wat bedoel je trouwens met "zo slecht" de efficientie is helemaal niet slecht. Hoog verbruik betekent niet slechte efficientie. Het betekent hoge performance. De efficientie neemt immers generatie op generatie alleen maar toe.
Een "efficiente apple M processor" zij interne GPU wordt volslagen kapot gemaakt in rekenkracht door een 3080. Kun je dus wel zuiniger zijn, maar je doet ook veel minder

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

Een GPU met een SoC vergelijken en vervolgens daar conclusies uit trekken?
Die kaarten worden nog steeds loeiheet. Heeft dit niet de aandacht of is dit technisch niet mogelijk. Waarom zo inefficient. Helemaal in deze tijd van een energiecrisis.
Kort door de bocht uitgelegd:

Vroeger had je nagenoeg elke generatie een significante verbetering (of misschien zeg ik beter verkleining) van het productieprocess. Waardoor we met veel minder energie hetzelfde werk konden verzetten.
Vandaag lopen we tegen de limieten aan van wat mogelijk is op gebied van verkleining. Dit heeft de volgende gevolgen:
* de ontwikkeling van nieuwe kleinere productieprocessen verloopt trager waardoor we langer op dezelfde node blijven zitten
* er is minder winst per generatie op gebied van performance per watt
* gpu dies worden groter
* gpus worden duurder

In het kort: performance zal wel blijven stijgen. Maar zonder een significante verkleining van het productie process zal ook de nodige energie toenemen.

Manufacturers proberen dit op te vangen door de architectuur efficienter te maken maar hier bereik je op een bepaald moment ook een limiet.
Vrij simpel door een fps cap instellen en op lager resolutie gaan gamen.
Kan gewoon in Nvidia control panel daar is geen 3e partij software voor nodig.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

1440p60 is de sweet spot. Dan draait mijn 1080Ti altijd 1240MHz. Alleen bij 2160p stijgt het MHz. En wat mij opviel is, toen ik een high-refresh tv/monitor had, steeg het MHz zodra een spel vanaf 70FPS draait en de resolutie wel gewoon op 1440p.

Een ander bijkomend effect is, zodra je bijvoorbeeld Firefox open hebt staan of Chrome, dan maakt het niet meer uit want GPU draait dan op volle vermogen ondanks niets aan de instellingen van het spel zelf te hebben veranderd. Die browsers gebruiken dus GPU-versnelling.
Als energie een probleem is dan blijven bij een 1080p monitor, gamen op 75-144hz geeft zoveel voordeel.

GPU versnelling staat hier uit btw in browsers maar in algemeen wordt dat alleen gebruikt wanneer je video,s gaat afspelen op website,s.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Gewoon alleen in de winter gamen op 4K 120Hz scheelt weer verwarmingskosten. Mijn 1080TI was genoeg om mijn kamer te verwarmen deze winter.

[Reactie gewijzigd door PuzzleSolver op 23 juli 2024 09:38]

Cappen van je FPS doet idd heel veel.

Voorbeeldje, ik heb mijn systeem al enige tijd gecapped op 90 FPS met een GTX 1070ti kaart. Monitor is een 3440x1440 exemplaar dat 144Hz aan kan. Ik laat GPU-Z al een tijd logs samenstellen tijdens het gamen. De games die ik vooral speel zijn ETS2 en ATS, wat F1 games en rally games.

Zet ik alle registers open in bijvoorbeeld ETS2, dan gaat er 180W door de GPU, komt de hotspot op 95 graden en krijgen de ventilatoren de mogelijkheid om rond de 3k rpm los te gaan. GPU clock is dan rond de 1822 MHz en geheugensnelheid rond de 2000 MHz.

Gecapped op 90 FPS (zonder framedrops trouwens, dat heb ik met alle registers open wel) gaat er om en nabij de 70W doorheen, komt de hotspot op ongeveer 75 graden, en gaan de ventilatoren rond de 2k rpm. GPU clock slechts amper 700 MHz !!! en de geheugensnelheid pakt dan 1900 MHz. Grafische instellingen in beide gevallen maximaal, maar die framerate doet zo vreselijk veel aan verbruik dat ik de boel maar vastgezet heb.

CPU ook altijd maximaal een 65W model gehad, nu een Ryzen 5 5600 en dat werkt prima samen. Ray tracing vind ik niet interessant dus ik zal ook niet snel een kaart uit die generatie kopen, maar dat is ieder voor zich natuurlijk ;)

Heb ik die monitor gekocht om op zo'n lagere snelheid mijn games te spelen ? Nee, vooral voor het formaat en de functionalitiet door altijd minstens 2 dingen naast elkaar te kunnen hebben openstaan. Dat gamen er ook lekker op gaat is mooi meegenomen en wel enigszins rekening mee gehouden uiteraard, maar het cappen van je framerate scheelt je een hele bak verbruik.
Wow thanks voor de tip en info! Scheelt weer en in sommige games kun je indd framerate cap instellen
Bedoel je met het cappen van frames V-sync? Want niet bij alle games kun je de max fps instellen.
Maar wel in de driver utility van zowel nvidia als amd. je hebt de game settings niet nodig, maar het is altijd fijn als devs de moeite nemen
Het is weer een jaar geleden dat ik de full specs tijdens benchmarks en gamen erbij had gehaald.
Maar m`n 3080 doet ook gewoon 320W. Dus die +20 W .. afhankelijk van hoeveel procent beter die 4080 presteert is 20W increase mischien wel goed rendament dan.

Natuurlijk is dit wel in de meest demanding situaties. Als ik wat lichte games speel zoals Towerfall of Axiom Verge is de verbruik ook amper wat natuurlijk. Soms komt ie nieteens boven zijn min.clock uit,

[Reactie gewijzigd door lithiumangel op 23 juli 2024 09:38]

Als je bezorgd bent om je verbruik, is het eenvoudigste antwoord om je framerate te cappen op 60 FPS en de instellingen rond High te zetten. Ik heb dat getest met een aantal games, en mijn 6700XT op een resolutie van 1440p gaat van 200W naar rond de 100W als ik dat doe. Ik zou ervan uit durven gaan dat een 4080 met gelijkaardige limitaties een gelijkaardig verbruik heeft...
Tip voor wie een AMD kaart heeft: met Radeon Chill kan je dit systeembreed instellen.
Dat is juist adaptief, in intense scenes (veel beweging) zal de driver die limiet niet toepassen. Persoonlijk gezien vind ik dit juist beter dan een permanente limiet.
Eens, zolang enhanced sync dan maar wel werkt, toch? En dat is af en toe wel een issue... heb je bij de intense scenes opeens dus dingen die je normaal in die game niet hebt, zoals tearing (of algehele stutter zoals wanneer je in Fifa de frames de vrije loop laat zonder maatregelen).
Wat je zelf wilt: je kan namelijk twee limieten instellen: eentje als er geen user input is, en eentje als die er wel is, en dit kan dan nog eens per app. De aaname is hier dat user input betekent dat er actie op het scherm te zien is waardoor je een hogere framerate wilt.

Zo kan je dus in je competitieve FPS instellen dat je als je stilstaan de framerate op 60 fps capt, en wanneer je wel beweegt op 144 fps. In Civ kan je instellen dat die limieten 30 en 60 zijn, etc.

Echt een geweldige tool, en ik mis het wel nu ik weer een GeForce kaart heb.
Ook bij veel beweging kan er een limiet zijn. Je hebt een min en max om in te stellen. Zelf heb ik het op 40-60 ingesteld en het werkt over het algemeen donders goed, als er weinig op het scherm gebeurd, merk ik die 40fps totaal niet, als er een beetje actie is, 50, bij veel bezigheden op het scherm netjes 60. Het systeem werkt naar mijn idee donders goed en weet goed in te schatten hoeveel FPS handig is.
Schijnbaar schalen Radeons in veel gevallen efficiënter terug bij een framerate cap dan kaarten van Nvidia, dus er is geen garantie dat dat met een RTX 4080 (of andere GeForce-kaart) ook zoveel winst gaan opleveren.
Als ik mn oude GTX 980Ti cap op 60fps in games waar hij zonder cap +/- 100 fps haalt, dan scheelt dat toch een serieus stuk qua temperatuur en lawaai van de fans (en dus vast ook qua verbruik aangezien al dat verbruik in warmte wordt omgezet).
Valt wel mee. Als ik kijk naar de link van iemand een stuk lager in dit topic van een 3080 met undervolt en mijn eigen 6900XT undervolt dan is die van mij veel agressiever terug geclocked en is het verminderde stroomverbruik minder gezien de amd drivers chip power draw aan geven en niet TBP.

Je moet natuurlijk naast je underclock ook wel even een undervolt toepassen. Met alleen een underclock haal je nooit de ideale power to performance ratio.
Als je bezorgt bent om gebruik, moet je zo'n kaart al helemaal niet kopen. Je koopt toch zo'n kaart om alles Max te spelen. Koop dan een 4060.
Werkt dit niet hetzelfde als met een auto? Een zwaardere motor verbruikt in de regel ook minder op de snelweg bij gelijke snelheden omdat de toeren lager zijn.
Niet per definitie, want al is het aantal omwentelingen minder, per omwenteling wordt er meer lucht (en dus brandstof) gepompt omdat de cilinderinhoud groter is.
Het is een leuke smoes om een "zwaardere" motor te verantwoorden :)
De trend is niet voor niks steeds kleinere motoren, vaak efficiënter.
Nou nee motor heeft verbruiks curve en egens in midde toeren verbruikt het minst per km. Gezien krachtige motor aan ander eind overbrengings verhouding kan tamme 1 liter het zuinigst zijn bij 90km/u een 1.6 110kmu 2.0 120. Die 3.0 kan met zijn overdrive 140 kruis snelheid liggen maar uiteraard zal bij hogere snelheden die kruis snelheid omlaag drukken mogelijk dat SEC 5.0 160 kan kruisen.
Down sizing kleine motor met turbe. Dan krijg je deels voordeel van 1.0 die stationair draaid en als de turbo zwaar bij spring is het alsof je 1.6 hebt. Alleen krijg je een turbo lag erbij.
Maar ja dat geld niet voor g-kaart.
Nou nee motor heeft verbruiks curve en egens in midde toeren verbruikt het minst per km
Kan, maar dat is het verbruik van die motor, en dat kan nog steeds hoger zijn dan een kleinere motor die niet op het meest efficiënte toerental draait.

btw, SEC 5.0 en turbo lag.. de autotechniek is al wat verder sinds de jaren 80 :)
Geen énkele moderne motor zal zuiniger zijn aan 110/120km/u dan aan 90 of 70km/u, dat is dikke zever, want de rol- maar vooral luchtweerstand aan die hogere snelheden is belachelijk veel hoger dan aan die lagere snelheden.

Vergeet trouwens niet dat de motorinhoud er nog amper toe doet met de totale normalisatie van de turbocompressor, en terecht.
Ik zou dan eerder framedrops als argument gebruiken voor een goeie kaart icm frame limit. Lekker steady gegarandeerd op 60 frames gamen zou nog meerwaarde kunnen hebben.
Das al even mijn vaste strategie, ik zet hem in de praktijk wel op 65. Als je dan eens een mini dipje hebt, krijg je geen screen tearing.
Voor het ene spel moet mijn kaart al harder werken om aan 65 fps te komen dan in het andere. Maar qua verbruik is dat een heuse slok op de borrel.
Het tegenovergestelde is waar. Een lichtere motor verbruikt op de snelweg minder omdat de load op de motor hoger is, waardoor de pumping losses van de motor lager worden. Toerental en verbruik zijn niet per definitie omgekeerd evenredig met elkaar. De reden dat dezelfde auto bij hogere toerentallen meer verbruikt, is omdat je bij hogere toerentallen minder ver de gasklep hoeft te openen om dezelfde arbeid te verrichten. Dit is slecht voor efficiëntie omdat door een rietje inademen moeilijker is dan door een dikke pijp.

Bovendien hebben grotere motoren met meer vermogen en koppel dan ook evenredig zwaardere bewegende delen waardoor er meer arbeid (en dus efficiëntie) verloren gaat aan het ronddraaien van de motor.

Ga maar eens kijken bij de verbruikcijfers van een auto die je met een grote range verschillende motoren kunt kopen, zoals de BMW 5 serie. Die gaat van kleine 4 cilinders naar dikke 8 cilinders. Dan zie je dat hoe zwaarder de motor, hoe hoger het verbruik, ook op de snelweg.

Zou ook een beetje vreemd zijn toch? Als zwaardere motoren zuiniger waren op de snelweg, dan zouden we nu niet allemaal rond rijden in 3/4 cilinder turbo autootjes, maar met dikke 6 cilinders

Een ander handig voorbeeld is europa vs amerika. In amerika is de brandstof veel goedkoper, dus heeft de gemiddelde auto daar een dikkere motor. Als jouw verhaal klopte, hadden we hier in europa dikkere motoren in onze auto's dan in amerika.

Natuurlijk is er een sweetspot en zijn hele kleine autootjes vaak nogal onzuinig bij 130 vergeleken bij 100. Dit komt omdat ze dan wel heel erg hard moeten werken. Luchtweerstand is immers kwadratisch, dus dat betekent 69% harder werken om de luchtweerstand te overwinnen. Bij hele hoge belasting moet de motorcomputer meer benzine bij spuiten om de verbrandingskamer af te koelen en voorontbranding te voorkomen, omdat dat motorschade veroorzaakt. Die benzine die je extra bij spuit wordt niet allemaal verbrand en dus gaat je verbruik naar de knoppen.
Dit verhaal gaat echter al niet meer op bij bijvoorbeeld een Toyota Aygo. Die heeft alweer een te sterke motor voor dit fenomeen waardoor hij bij 130 hetzelfde brandstof/lucht mengsel aan kan houden als bij 100. Dit geldt dus echt alleen voor het kleinste van het kleinste. Auto's die we tegenwoordig niet eens meer verkopen in nederland

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

Jullie hebben allebei gelijk.

Denson zegt: een te lichte motor zal op de autosnelweg meer verbruiken dan een geschikte motor. Waar.

Jij zegt: een te zware motor zal op autosnelweg meer verbruiken dan een geschikte motor. Ook waar.

Denson zegt: een geschikte motor zal zelfs bij relatief lagere toeren genoeg vernogen leveren en zo zuiniger zijn dan een te lichte motor die énkel het benodigde vermogen kan opwekken door richting zijn grens te gaan en dus veel te hoge toeren zal moeten maken. Waar, want zie hoe de meeste motoren van 120-200pk een zesde, zevende of achtste versnelling gebruiken om te cruisen op de autostrade: een motor is relatief efficiënter wanneer die relatief tot zijn totale vermogen ( bij zekere toeren) zwaarder wordt belast. Het is dus efficiënter en zuiniger om aan 1500rpm aan 70% belasting te rijden dan aan 3000rpm en 30%. Akkoord, 1500rpm 70% voelt veel lomer aan omdat je maar 30% vermogen overhoudt om vanuit die snelheid te versnellen, maar daarvoor heb je een versnellingsbak nietwaar?

Jij zegt: een te zware motor zal dankzij inertie van de totaal overbemeten onderdelen veel minder efficiënt zijn dan een normale geschikte motor. Ook waar.
Als je bezorgd bent om je verbruik, is het eenvoudigste antwoord om je framerate te cappen op 60 FPS en de instellingen rond High te zetten. Ik heb dat getest met een aantal games, en mijn 6700XT op een resolutie van 1440p gaat van 200W naar rond de 100W als ik dat doe.
Ik doe iets gelijkaardig met mijn 6700XT, ik cap mijn framerate op 165 (want ik heb een 165Hz-monitor), undervolt van 1200mV naar 1145mV (hangt erg af van kaart tot kaart) en verlaag de kloksnelheid van 2644MHz naar 2450MHz, waardoor de kaart amper (i.e. ~10%) trager is, maar wel een pak zuiniger wordt met maar 120W.

Als je dat nog te veel vindt, kan je ook nog wat lager klokken naar 2400 of 2350MHz, dan belandt die op de 100W of net lager.

Iedereen met een 3080 (of andere Ampère-kaart) kan exact hetzelfde doen door de frequentiespanningscurve ("frequency voltage curve" genoemd in het Engels) te verleggen, zodat je kaart ineens 25 tot zelfs 50% minder verbruikt met verhoudingsgewijs veel kleinere verliezen in prestaties.

[Reactie gewijzigd door RuddyMysterious op 23 juli 2024 09:38]

Gewoon terug gaan op 1080p.
Als je weet hebt van een degelijke 1080p monitor met kwalitatieve HDR implementatie, dan mag je die altijd delen... Maar ik ben nu gewoon van een 1440p monitor te gebruiken (wat een verschil geven die extra piixels tijdens kantoorwerk) en als ik volgend jaar een nieuw tweede scherm koop, zou ik graag deftige HDR willen hebben voor beter beeld tijdens games.
Ik reageer op de mensen die van energieverbruik een probleem maken, een 1440p monitor kan je terug scalen naar 1080p maar wel de pixels op 1:1 laten zodat het geen blur feest wordt, daardoor wordt het beeld wel iets kleiner en heb je zwarte randen maar blijft de scherpte houden.

Ik zelf heb een 24" 1440p en wil ook niet terug naar 1080p, de stap naar 4k stel ik sowieso nog uit gezien er geen fatzoenlijk scherm is in klein formaat, verschil met 1440p is nog duidelijk te zien op 24".

De drang naar 27/30" schermen heb ik nooit begrepen maar uiteindelijk zal ik wel moeten wil ik 4k.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Is dat een Windows optie voor die schaalverkleining te doen zoals je dat zo voorstelt? Of heb je daar een extra programma voor nodig?
Iedereen klaagt over verbruik maar wie koopt nou een 3080 of een 4080 samen met en 12900/13900? Dat is toch wel een heel specifieke niche hardcore computer gebruikers die het beste van het beste willen en niets minder? Ik zie mezelf nog niet snel zo'n beest kopen voor m'n dagelijkse excel gebruik.

Ik zie dan ook niet echt het probleem zeker als ik later met m'n 4060/4070 eigenlijk veel meer capaciteit per watt krijg vergeleken met een 3060/3070. En daar draait het nou net om met een systeem, hoeveel krijg je ervoor terug voor het verbruik en gezien de huidige benchmarks lijkt het erop dat je beduidend meer krijgt voor minder verbruik, dat is toch mooi?

On a side note ik zou het wel leuk vinden als bijvoorbeeld Dell dit soort systemen een verbruikers-rating geeft, ie een 13900/4080 Inspiron verbruikt 1200 euro per jaar.
ik heb zelf een 3080 en een i9 10900k, was destijds beide het nieuwste dat je kon krijgen (alhoewel ja een 3090, maar die prijs daarvan was niet te rechtvaardigen)

als je een beetje wilt gamen op 1440p144hz zit je al snel aan zoiets
1440p en 144hz kon ook al met een GTX1070, RTX2070, RTX3070 en hun Ti modellen. Daar zijn/waren deze aanvankelijk ook wel een beetje voor bedoeld.
De ##80 modellen zijn er toch wel meer voor de 4K resolutie met respectievelijk een hoop fps.
De ##80 modellen zijn er toch wel meer voor de 4K resolutie met respectievelijk een hoop fps.
Niet dus. Ik heb ook een 3080/12900K, en ik game nauwelijks op 4K omdat dat gewoon niet voldoende frames oplevert. 1440p is de sweetspot voor deze kaart. Liever hogere frames dan hogere resolutie.
Ligt er ook aan welke spellen je speelt.
Ik kwam met de meeste spellen op 1440p/144hz keurig uit de voeten met een RTX2070. En dat was vaak genoeg op High tot zelfs bepaalde settings hoger.
Andere spellen moest je soms een beetje mee knutselen in de instellingen om bepaalde settings die veel impact hadden naar beneden te zetten maar weinig impact hadden op fraaiheid van het beeld. (Dit was ook goed te zien bij Red Dead Redemption 2, Cyberpunk 2077 en andere van dit soort mooie titels. Maar bij deze titels moest ik genoegen nemen met 1440p op 60fps/hz.)
Nu heb ik een laptop met RTX3070Ti en i7-12700H en speel ik op "1600p" met 165hz scherm en veruit de meeste spellen haalt die daar makkelijk bij en ook bij de mooiste titels moet ik uiteraard nog genoegen nemen met 60-100 fps.
Vraag mij dan écht af bij welke spellen jij zo'n moeite hebt om 144fps te halen op 1440p met een RTX3080?
Vraag mij dan écht af bij welke spellen jij zo'n moeite hebt om 144fps te halen op 1440p met een RTX3080?
Op 1440p niet. Dat geef ik toch ook aan? Op 4K echter haal ik in moderne games echt geen acceptabele framerates.( minimaal 100+ ). Daarom game ik doorgaans op 1440p. Enkel oudere games, en goed geoptimaliseerde games als DOOM speel ik op 4K 100+
Oh mijn excuses inderdaad.
Alhoewel ik van mening ben dat je ook goed af was geweest met een RTX3070(Ti).
In ieder geval zal die wellicht qua wattage nu wel onder de RTX3070(Ti) liggen doordat die het iets minder zwaar heeft ;)
natuurlijk wel op maximale settings :), heb geen 3080 om vervolgens op medium quality te spelen.
Tja op zich is gamen natuurlijk energie verbruiken puur voor de fun. Dus in dat opzicht kan je dan beter helemaal geen games spelen, ofwel het houden op Doom en tetris ofzo.

Het feit dat iedereen streeft naar 120+ fps op 4K met zoveel mogelijk eye candy kost natuurlijk altijd maar meer en meer watts, ook al komt er elke generatie wat efficiëntie bij.

Vroeger was een dual slot GPU cooler al epic, nu zijn er kaarten met 4 slot coolers, wat genoeg zegt over het bijhorende stroomverbruik. Toen ik begon met PC's bouwen was een 500 watt PSU al heel veel, nu wordt pas 1000 Watt als echt overkill beschouwd. Dus het is doorheen de jaren altijd maar meer, meer, meer geworden.
En toch merken we op onze Lan (ongeveer 40 tot 50 man) dat het stroomverbruik de laatste jaren elke maal nare beneden gaat, ook al zijn er meer en meer die topkaarten gebruiken zoals de 3090... De voedingen zijn wel zwakker en efficiënter geworden. Vroeger waren er nog bij die kaarten in sli gebruikten, wat dan meer verbruikt dan nu een singlekaart te gebruiken.
Bij onze lan precies hetzelfde maar komt ook dat wij de oudere games spelen met LAN support en een enkel keer een online only game zoals Overwatch.

Games met LAN support functioneren altijd, ondanks stabiel en snel glasvezel toch wel eens issues.
En 8 pc,s op 1 stroomgroep nooit problemen mee terwijl het volgens de specs niet hoort te kunnen.

Op de slimme meter valt die dag ook niet veel spectaculairs te zien.
Iedereen over op bordspellen met met bio kaarsen kaarslicht, probleem opgelost.
Een kaars kost meer dan 1 ledlamp.
En is geen schone verbranding
Ah, techies en sarcasme niet oppikken :+
Helemaal mee eens, als stroomverbruik van een kaart een probleem is dan koop je de kaart niet. Het mooie is dat er een hele line up komt (uiteindelijk) dus je kan zelf kiezen in welk performance/verbruik segment je uiteindelijk wil gaan zitten.

Ik denk dat waar de handschoen wringt is dat mensen graag de 'top' kaart willen hebben, maar niet willen dat het stroomverbruik astronomisch is. Ik was ook altijd zo, altijd de xx80ti versie kopen.

Maar zit nu op een 3070, met undervolt erop verbruikt die slechts 190w. Ik vind het wel prima zo. Als de 4070 wat hoger zit qua verbruik maar veel hogere prestaties biedt dan vind ik dat prima. Maar van wat ik nu zie ga ik de 4080 en alles wat daarboven zit lekker links laten liggen.
Ik hoorde bij die niche, en ik doe niet meer mee.
Ik zat op een 3080ti en 4k 144hz bladiebla. De huidige stroom prijzen zijn nu te extreem en niet de moeite waard. Gezien de lage euro ga ik er beetje vanuit dat nieuwe gpu's op ze minst 20% duurder gaan zijn, reken hierbij de stroom kosten op en het gaat helemaal nergens over.
Ik betaal nu 30/35cent per kwh, maar bij een vernieuwing zal dit vast rond de 70cent zitten.

High end cpu+4080+144hz monitor komt flink in de buurt van 1kwh per uur. Met mijn gebuik is dit bijna 1000 euro per jaar om "spelletjes" te spelen. Een kaart van 1200 kan ik goed praten, maar dit er boven op niet. Gpu is verkocht, en speel nu spelletjes op 1080p 60fps. De gpu tikt nu 50 tot 70 watt aan.
Je had ook een 1080p monitor kunnen nemen was de energieverbruik enorm gedaalt, iets dichterop een kleine monitor zitten is geen ramp, was vroeger heel normaal.

De GPU had je daarvoor niet weg hoeven doen, deze gaat gewoon langer mee.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Een 3080 kun je undervolten met ongeveer 100w. Dus zit je zo op 240-260 voor minimale tot geen performance loss en een kaart die 5 tot 10 graden koeler is. Mijn oude kaart ervoor, de Sapphire R9 290 Tri-X zat zelfs op de 275w zie ik nu :D Die had ik niet geundervolt dus ik gebruik nu minder stroom dan met mijn oude videokaart. Het is eigenlijk schandelijk dat fabrikanten deze kaarten niet standaard efficient verkopen en de clocksnelheden zo ver mogelijk opschroeven voor de marketing.

Dus gewoon undervolten die dure kaarten. Dan blijft je verbruik acceptabel en die paar tot geen fps loss merk je niks van.
De vraag is hoe lang we nog in een wereld (willen) leven waarin alles maar ondergeschikt is aan de wensen en vrijheden van het individu. Stroom kost niet alleen geld, maar ook natuurlijke resources en is daarmee een belasting op het milieu. Dit geldt overigens ook wanneer stroom op groene wijze is opgewekt. Leuk of niet, maar het aantal mensen dat zich bewust is hiervan is groeiende en daarmee neemt ook de groep in omvang toe die de vraag stelt of we dit wel moeten willen als maatschappij.
Alles, maar dan ook werkelijk alles, komt met een prijs. Niets komt uit het niets. Zonder input geen output.
Als u graag uw vrijheid wilt opgeven voor een, al dan niet, 'goed doel', ga gerust uw gang. Maar laat ieder a.u.b. zijn/haar eigen keuze maken / bewustwordingsproces doorlopen. Forceren werkt op het lange termijn enkel averechts.
Bovendien, wanneer energie werkelijk schaars wordt zal dit vanzelf worden opgevangen door de vrije marktwerking - in zoverre die nog bestaat :')
Dit is volledig gereageerd vanuit precies die individuele vrijheid waar Verder nu kritiek op heeft. En dat is prima, maar dan ga je niet echt op zijn punt in (namelijk dat die vrijheid op termijn (mogelijk) niet houdbaar is).
De prijs die we zullen betalen voor onze huidige vrijheid is onze toekomstige vrijheid, maar dan met een dikke rente erbovenop.
Opzich prima hoor, daar kan de overheid regelgeving voor opstellen dan. Maar dan denk ik eerder aan het beperken van autoverkeer en vliegverkeer, het inzetten van een vleestax en suikertax dan aan een probleem maken van een een kleine niche die dure grafische kaarten koopt. Om op stroomgebruik terug te komen, dat geldt dan ook voor mensen met een 55 inch oled in huis, mensen met een airco of een bubbelbad. Het eenvoudigste is dan zorgen dat dingen duurder worden die we minder willen zoals stroomverbruik, autorijden. Als mensen er dan toch voor kiezen is dat prima, maar dan betalen ze de rest van de samenleving voor de verborgen kosten die meespelen, zodat we die op een andere manier weer kunnen compenseren.
Het is alleen geen niche meer. De prijzen van crypto zijn in elkaar gezakt, maar zodra dat weer in de lift zit, worden er weer pakhuizen vol gegooid met die kaarten die 24/7 staan te stampen op max vermogen. Nee het wordt tijd dat op internationaal niveau afspraken gemaakt worden over het verbruik van apparaten. En dus ook van pc's en videokaarten. Alles moet een factor 10 efficiënter en zuiniger. En als dat aan de markt wordt overgelaten gebeurd enkel het tegenover gestelde.
Dat van de crypto zal niet zo snel meer gebeuren, er is te veel gebeurd rondom de hele mining coins, het vertrouwen is weg, en de grootste spelers (zoals china) hebben het volledig verbannen.

Een terugkomst zal er wel zijn, maar die lift zal deze keer niet zo gek ver meer gaan denk ik zo.
Daarnaast was winst behalen zonder onze energieprijzen nog wel een beetje rendabel maar dat zal nu ook wel een stuk minder zijn.
@laser50 Het kan dat je gelijk hebt alleen ik kan je verzekeren dat als er weer geld te verdienen valt dat die markt binnen weinig tijd weer op volle toeren draait en de GPU`s weer niet verkrijgbaar zullen zijn.

En al die smeerlappende cryptominers maar volhouden dat de cryptominers maar een verwaarloosbaar onderdeel waren van het tekort aan GPU`s.
Hou er ook rekening mee dat Crypto miners vaak juist efficiëntie zeer belangrijk vinden en dat dus juist die rigs normaliter niet op 'vol vermogen' staan de stampen. Juist die installaties worden normaal gesproken altijd getuned om het verbruik te minimaliseren, want daar krijg je simpelweg een hogere Roi en lagere terugverdien tijd door. Professionele miners zullen normaliter puur vanwege winst maximalisatie de kaarten altijd zover mogelijk undervolten e.d.

Als voorbeeld, ik heb zelf bijv mijn RX6900XT terugverdiend met mining, maar dat ging wel bij een max verbruik van 150W door een goede undervolt toe te passen en niet bij het 300W+ verbruik dat je ziet bij gaming
Ik had ook een paar duizend euro kunnen verdienen met minen en mijn kaart zijn aankoopprijs kunnen terug verdienen. Ipv daarvan heb ik mijn videokaart laten draaien op het programma "Folding@home" waar je proteins laat berekenen om nieuwe medicijnen mee te kunnen maken. Ik verwacht echt geen schouderklopje alleen stop aub toch met het voeden van een nutteloze markt die er is zodat mensen snel veel geld kunnen verdienen. Al mijn vrienden die op een dag in crypto investeerden werden op dat moment ook gelijk verkopers en probeerden de voordelen van het geld verdienen, het herverdelen van geld over de wereld en allerlei onzinnige ideeen te verkopen waar je als je een beetje verder doordenkt je ziet hoe naief hun gedachtengang is. Ik was degene die het niet begreep volgens hun en toen ben ik er maar over opgehouden. Zo droef dat mensen snel geld willen verdienen en hun eigen beredering ervan niet in kunnen/willen zien en vervolgens dit maskeren met idealen voor een betere wereld die niet kloppen.
Valt wel mee genoeg mensen die een high-end kaart kopen en totaal niet naar energieverbruik kijken, andere hobby,s zijn ook fors duurder geworden.

De energie gaat bovendien niet verloren maar wordt nog omgezet in warmte.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Het schijnt dat rdna 3 erg efficient is. Het kan dus op die manier nog wel een dingetje worden.
Zou je de kaart niet ook kunnen under Volten? En dan nog steeds een betere prestatie dan een 3080 krijgen voor minder Watt.
-edit-
Al beantwoord hieronder

[Reactie gewijzigd door J_Koedijk op 23 juli 2024 09:38]

Lijkt me een vreemd argument. Stel dat je 8 uur 100% gamed per dag.

8 * 0.340 = 2.72 kWh per dag
365 * 2.72 = 992.8 kWh per jaar indien je zonder falen iedere dag 8 uur gamed. En dus 2920 per jaar aan het gamen bent.

We kunnen aannemen dat er geen zonnepanelen zijn en dus geen "gratis" energie beschikbaar is doorheen de dag.

Huidige prijs (Belgie) is +- 0.46 euro per kWh.
992.8 * 0.46 = 456.688 euro per jaar.

Zelfs in dit totaal onrealistische scenario kost uw hobby je slechts 456.688 euro per jaar. Los van de overige componenten natuurlijk. Lijkt mij een goedkope hobby zelfs al reken je er aangekochte games en overige hardware stroom bij.
Zelfs in dit totaal onrealistische scenario kost uw hobby je slechts 456.688 euro per jaar.
456.688 vind ik anders wel een behoorlijk bedrag. Daar koop je vandaag de dag een gemiddeld rijtjeshuis voor. Ik hoop dat je 456,688 bedoeld, anders gaat mijn graka vandaag nog de deur uit. :Y)

maar ff serieus,

Ik game denk ik gemiddeld 1 uur per dag. ( 2 maal in de week zo een 3 a 4 uur ). Dat maakt mijn verbruik volgens jou som dus ongeveer 57 euro per jaar. Dat is nog geen 5 euro per maand. Mijn afschrijving is al een stuk hoger dan dat. Je zou dus eigenlijk gek zijn om NIET te gamen. :) Best een eye opener haha.. Ik ga snel even een spelleke opstarten. ;)
Een computer draait nooit constant op 1 bepaalde wattage, er bestaan ook nog zaken als speedstep en een GPU heeft dat ook.

Per spel en per level schommelt dat nogal.
In praktijk is die 340 watt dus veel minder.
In jouw voorbeeld reken je enkel met het verbruik van de videokaart, of zie ik dit verkeerd? Onder constante full load (wat niet veel gebeurd) heb je toch ook andere componenten in je computer hangen die verbruiken? Dus zal het met de huidige prijzen toch een stuk hoger liggen.

Echter, de tijden dat ik 8 uur per dag kon gamen zijn helaas voorbij :)
Totaal verbruik in praktijk kijk ik naar niet de theoretisch maximum op papier.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Je kan ook stellen dat je hobby je 250 euro per jaar meer kost als wanneer de gpu 150 watt gebruikt had. Oftewel een gratis gpu per 3 jaar. En 46 cent per kwh is momenteel echt een koopje aan de andere kant van de grens.
Dat is nog steeds veel geld en jaar op jaar. Mijn vraag is waarom er geen energiezuinige videokaarten worden ontwikkeld. In plaats van ook een hele bak hitte zoals nu waar niemand op zit te wachten.
Tot op een duizendste euro nauwkeurig is wat overbodig lijkt me.
Centieuro is het kleinst, niet milieuro :)
Oja? Bij de benzinepomp rekenen ze ook gewoon in milieuros hoor. Ze drukken de prijs daar altijd drie cijfers achter de komma uit en ronden pas af bij de totale transactie

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

Is dat nodig dan? Het voorbeeld dat ik noem is relevant voor ieder huishouden in heel nederland die minimaal 1 verbrandingsmotor gebruiken. Dat is dus (bijna) iedereen. Verder kun je ervan uitgaan dat bijna alle kosten en opbrengsten in zoveel cijfers achter de komma als er maar zijn worden uitgerekend door alle boekhoudpakketten. Die rekenen in de backend echt gewoon in floating point precision en niet in een arbitraire precisie van 2 decimalen. De enige plaats waar de euro maar twee decimalen heeft is op rekeningen en bij de pin

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

'Relevant' is wel HEEL erg uit zijn verband gerukt.
Je hebt slechts een enkel voorbeeld wat enkel bestaat om mensen die ene cent goekoper te laten denken uit te zijn wat netto nog geen dubbeltje verschilt op een tank. Nergens anders wordt dit gebruikt voor en door consumenten, nergens. Dus please, doe niet alsof ik zo onwetend ben van deze niet-universele standaard.
Scheelt geen dubbeltje op een tank nee, maar als je 15.000+ kilometer per jaar rijdt, zoals ik, heb je toch liever dat die milieuro er wel af gaat.

Het hoeft ook niet voor en door consumenten gebruikt te worden. Als het maar nergens anders tijdens de berekening wordt afgerond. Dat mag je eigenlijk bij geen enkele berekening doen

Het mag dan een vies trucje zijn, maar ze doen het allemaal, dus wat betreft concurrentie maakt het geen drol uit. Benzine is een primair goed in nederland dus wat ga ik doen, het niet kopen? 99% van mijn kilometers kán ik niet anders maken dan met de auto.

Dus als het toch niet uit maakt, doe mij dan toch maar die milieuro korting

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

Wat is dit voor triest gebeuren??? Als je 15000 km per jaar rijdt en je auto doet 750km op een tank dan betekent dat je 20 keer die 1 tot 9 milieuro verliest op een jaar als er naar boven afgerond wordt. Gemiddelde is 5 dus 100 milieuro per jaar. Je praat over 10 cent per jaar... Wist je dat je tankbeurt met cash kan afrekenen ook? Dan tank je toch lekker 100,02 euro dan betaal je 100 euro. Maak je 20 milieuro per beurt winst!! Jippie!! Milieuronaire!
ja precies. Het is met 15000 km met mijn auto €1,07 En dat is niet veel, maar ik vind het nogal wat om uberhaupt geld te moeten betalen voor afronding
Ronden ze niet af. Betaal je het ook, maar merk je het niet. Vind je het dan wel goed?

[Reactie gewijzigd door Hulleman op 23 juli 2024 09:38]

Energie- en gasprijzen.
Intel arc kaarten zouden meer rond de low en mid end moeten zitten qua performance, zouden die ook minder energie slurpen?
helaas voor intel is ook dat niet het geval, niet alleen is performance soms een groot vraagteken, ook kwa power gaan ze gewoon mee met de oude generatie van nvidia/amd, terwijl dit de "nieuwste" generaie is van Intel.

https://www.techspot.com/review/2510-intel-arc-a380/
Ik had begrepen dat de tdp van de A380 rond de 75W zou zitten. Laag vergeleken met de high en higher-ends, maar hoog vergeleken met de 53W van de beter presterende RX6400.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 09:38]

Volgens mijn was de hoogste intel kaart (770) een 225 watt kaart met de prestaties tussen een 3060 en 3070 afhankelijk van api.
Dus echt zuiniger zijn ze niet vs de 3060 (dus de slechte api door drivers) maar bij de goede games die rond de 3070 zitten is hij gelijk.
Is dat niet een beetje vragen om een auto met 400PK die 1 op 25 rijd?

De Nvidia RTX 2060 en AMD RX 6600 gebruiken zo'n 100W. De meest efficiënte kaart qua FPS per Watt is op dit moment de Nvidia A2000.

Een leuke vergelijking tussen de meeste efficiënte kaarten:
https://www.youtube.com/watch?v=tyv-4k_k34g

Dus ja, het is op dit moment technische echt onmogelijk om 3080 prestaties te krijgen tegen een TDP van een 3060.
Het is best grappig om te zien hoe iedereen aan het klagen is over het wattage, terwijl deze mensen geen FPS cap op hun games zetten. In Nvidia Control Panel kan je FPS limits inzetten voor games in- en uit focus. In de instellingen van games zelf kan je vaak ook de menu FPS instellen (zo laag mogelijk).

Maar helaas is dit geen verplichting en doen veel developers het ook niet. Dus klaag wanneer je het kan om in de menu en tijdens loading screens geen hoge FPS te hebben. Het is gewoon niet nodig en een verspilling van energie.
In het menu en op de loading screens zou een simpele videorender prima volstaan als je de achtergrond wil animeren, ipv live engine rendering wat veel meer energie kost.
Nou precies!

Mensen begrijpen niet dat je nieuwere kaarten niet maximaal hoeft te belasten om hetzelfde te bereiken.

Ik kom van een 980Ti, watergekoeld en overclockt. Gebruikte ruim boven de 300W aan stroom om Rocket League op ultra-wide 1440p 144Hz te draaien met teruggeschroefde grafische kwaliteit.
Nu met een 3080Ti, watergekoeld en overclockt. Gebruik in diezelfde Rocket League met nu maximale grafische settings op ultra-wide 1440p 144Hz maar 150W op de GPU.

Dus én de settings zijn beter én de benodigde elektriciteit is gehalveerd om dezelfde FPS te behalen!

Haal ik die 144FPS limiet er nu af knal ik met die 3080Ti ook door naar de 300W verbruik, maar zit ik wel ruim boven de 300FPS (wat totaal geen nu heeft en complete verspilling is).
Precies dit, of kijk dus naar de efficiënte kaarten en neem mindere prestaties voor lief.

Als je 4K 144hz met ray tracing op ultra wilt draaien dan staat daar op dit moment een fors gebruik tegenover.

Maar je kunt prima op 60 (of 144hz) 1440p draaien voor rond de 100 watt, met een rtx 3060 of een rx 6600.

Je kunt nog undervolten in de programma’s en een fps limiet instellen.

Het is nogmaals alsof je steeds volgens met Lamborghini rijd, maar toch het verbruik wel erg hoog vind.
Zie nergens een FPS limits setting in het NVIDIA settings programma. Ik heb de laatste NVIDIA driver 515.65.01 onder Arch Linux. Of is dit soms alleen iets voor Windows?
Even een snelle google wijst naar Mangohud en Goverlay. Daarmee zou je veel controle over je kaart in handen hebben en ook FPS limieten in kunnen instellen.
Ik ga echt niet terug op 60fps, 144fps is heerlijk dan zou ik nog eerder terug schalen op 1080p.
(maar ik klaag dan ook niet).

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Dat mag ook gewoon. Het gaat erom dat je games niet op 250 FPS draait terwijl je monitor 144hz is. Zet 'm dan lekker een beetje hoger dan 144hz (of een beetje minder als je free/g-sync aan hebt). Enige uitzondering zou zijn in spellen met een bijzondere engine waardoor je sneller kan lopen of hoger kan springen bij bepaalde framerates.
Waarom zou je dat doen gezien je dan tearing krijgt.
Hier staat G-sync correct aan waardoor de FPS nooit voorbij de hz van het scherm gaat, regelt die helemaal zelf.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Misschien dat het technisch mogelijk zou zijn, maar zeker niet financieel. Het is niet alsof Nvidia/AMD/Intel expres producten maken die veel stroom vreten, maar door de demand voor steeds betere game prestaties zal men daar aan moeten voldoen om concurrent te blijven. Demand loopt voor op de ontwikkeling en om dat te compenseren ramt men er gewoon veel meer stroom doorheen. Op het moment dat de vraag naar constante verbeteringen op prestaties afneemt kan de performance/watt weer aan een inhaal slag beginnen.
Die vraag zal vanzelf wel komen. Vele sites / reviewers nemen het natuurlijk al mee, Tweakers onder andere ook. Hoe duurder het verbruik wordt, hoe meer de nadruk er op komt te liggen.

Maar ja, het is een beetje net als met auto-reviews. Het is een stuk leuker om te schrijven over de laatste Ferrari dan een 120 pk Renault Mégane ondanks dat die laatste de interessantere/relevantere auto is voor degenen die ook daadwerkelijk een auto rijden.

Wat mij betreft zou underclock/undervolt prestaties een standaard onderwerp mogen worden, daar waar men vroeger juist de overclock prestaties meenam.
Dat is een goed idee zeg, die underclock/undervolt prestaties meenemen in de review. Met overclocken valt toch bijna niets extra's te behalen, de kaarten zijn al behoorlijk hoog geclockt en je moet eerder 100 Watt extra verbruiken voor 5% extra prestaties, als je dat uberhaupt al haalt (met de meeste overclocks is het in de praktijk eerder 2,5% aan frames per seconde erbij). Maar underclock/undervolten is erg interessant. Daarmee verandert ook in een keer de hoeveelheid geproduceerde warmte, dus het heeft een enorme invloed op je koeling en geluidsproductie van zo'n kaart.

Het hele underclock/unvervolt verhaal met guides en benchmarks over een set aan kaarten heen zou sowieso wel een deep dive Tweakers artikel waard zijn. Informatie hierover vind je nu vooral op de wat specifiekere sites and YouTube kanalen en forums.

[Reactie gewijzigd door xtlauke op 23 juli 2024 09:38]

Eens, draai m'n GPU regelmatig undervolted en m'n CPU al sinds dag één, scheelt 20 graden en een hoop verbruik.
Hier een test met een RTX 3080. Het scheelt 7 graden, 100w verbruik en minder geluid met amper performance verlies.:

https://bjorn3d.com/2020/...-rtx3090/2/#split_content
Grappig om te dien dat the Division wel een enorme dip in prestatie heeft\. Zal bij mijn volgede sessie die game ook eens testen om daar het prestatieverlies te zien.
Klopt maar eigenlijk enkel op 4K. Op 2k zijn het maar 4 frames. Benieuwd naar je resultaat.
Dit zou inderdaad een interessante deepdive zijn.

Ben zelf aan het rotzooien geweest bij het undervolten van mijn 3060 TI en ik heb zelfs bij sommige gezien dat het zelfs kan leiden tot stabielere boosts en dus betere performances...met minder verbruik.

En niet te vergeten betere load temperaturen die gepaard zijn met de lagere voltages.
Ja en nee. underclock en undervolt is namelijk geen garantie. Mijn 6900XT is voor undervolting echt een bagger sample. Ik kan naar max 1130vm undervolten en moet de clocks naar beneden gooien daar waar anderen naar 1025 mv kunnen en een hogere clock realiseren.

Het is een leuke extra als het kan maar je moet er vanuit gaan dat het niet kan. Dat is namelijk waarom die base voltage zo hoog is. Omdat er chips zijn die het nodig hebben en dan is undervolten dus geen optie en moet je draaien op de stock specs.
Dat denk ik niet als gemiddelde neemt van wat 1000nm 130nm 90nm 45nm 28nm 22 nn 14nm 10nm 8nm 7 nm 6nm 5nm dan zie natuurkundige wet dat per chip opervlak de klok ceiling omhoog gaat maar het vermogen ook hoger wordt.
De reden dat voor de 3dfx tijd het de grens van passief naar klein fannetje.
GTX480 300wat grens komt en deze nextgen voorbij de 350wat gaan.
Dus dit is normaal en onvermijdelijk.

Wat men vergeet is dat je dezelfde performance zuiniger krijgt.
Dus was 1st core gen genoeg voor je surfen email en typemachine gebruik. Dan kan dat nu zuiniger met mogelijk binnen kort met nuc met 15watt alderlake igpu

Als nextgen 3090ti performance wilt 350 kan je dan 4070 pakken op of net onder de 300watt. Wil 1080ti vermogen kan 4060 voldoende zijn.

Ik heb Vega 56 en zou dus voor navi 33gegaan. Ik game meer op PS4 en soms op PC. Regulier simpel gebruik doe ik op mac mini. Wintel tegen hanger is NUC.

Daarnaast ben ik uiteraard voor 80plus platinium of titanium ook wat meer rendement er uit halen.
Je bent niet alleen naar stroom aan het kijken, maar vooral 340W aan hitte. Helaas is dit tegenwoordig de trend geworden.
Met uitzondering van Apple uiteraard. Goede performance tegenover relatief laag verbruik en hitte.
Misschien dat ze voorsorteren op de gasprijzen?
Een uurtje gamen en je huis is ook nog eens lekker warm... dat scheelt in de kosten! :)
Om het rekenen even makkelijk te maken, laten we er 3 uurtjes gamen van maken, heb je bij benadering een kilowatt. Mag je zelf de kosten van berekenen op basis van je elektriciteitsprijs, maar laat het 50 cent zijn.

Het aantal benodige kuub aardgas voor eeen kilowattage mag je door 10 delen (eigenlijk 9,5, maar we willen makkelijk rekenen). (zie ook: Keypunchie in 'Nieuw windpark Hollandse Kust Zuid levert eerste stroom aan elektriciteitsnet' )

Dus 0,1 m3 gas bespaard voor dezelfde verwarming. Tsja, je gasprijs, zal snel een euro of 2 a 3 per kuub zijn? Dus dat is 20-30 cent.

Gas lijkt voorlopig nog steeds goedkoper om mee te verwarmen...

Aan de andere kant. Heb je wel 3 uur lol gehad :-)

[Reactie gewijzigd door Keypunchie op 23 juli 2024 09:38]

Dat scenario werkt ook alleen in de winter. Momenteel hebben maar weinig mensen behoefte aan extra warmte. Nu draaien mensen zelfs een airco naast de game pc. Dus kun je gewoon een paar dubbeltjes optellen bij de stroom kosten van de pc.
True, ik heb mijn pc momenteel dermate undervolt en underclocked dat hij 40% minder verstookt omdat het hier ondanks dat het niet heel heet was afgelopen week nog steeds 28 graden is.
Jep ik heb deze berekening tik keer gemaakt en totdat gas met huidige kwh prijzen tegen de 6 euro aan zit is heeft verwarmen met stroom geen nut.

tenzij je zonnepanelen heb en terug levert. Ik ga de komende winter mijn pc van de energiestand af halen naar beneden verplaatsen en mijn overige 1000 kwh verstoken. Dat is dan 11 cent per kwh die ik er nu voor terug krijg vs 28 cent aan gas met die huidige prijzen. Maar over 2 jaar na salderen gaat dat feest ook niet meer op.
Met een warmtepomp wel omdat je rendement vele malen hoger ligt.
Ja maar als ik dan de berekening van de kosten van een warmtepomp maak en mijn relatief lage stroomverbruik denk ik niet dat dat voor mij rendabel is. Ik gebruik jaarlijks 300 M3 voor het huis verwarmen dan is een airco aanschaffen niet echt een top idee.
Daarnaast zit ik in een huurhuis en ik ga echt niet betalen voor dat soort verbeteringen aan het huis.
Waarom maak je de berekening dan tig keer?
Omdat de kwh/gas prijs ratio de afgelopen 6 maanden flink aan het veranderen was. oude contracten waren ongeveer 3 kwh voor de prijs van 1 m3 gas. nieuwe contracten zijn heel erg variërend van 1.80 tot 3.5 euro per m3 gas en 28 tot 70 cent per kwh. En waar de 1 goedkoop in is is de ander weer duur in dus het vergt af en toe een nieuwe berekening.
340 watt slaat geen deuk in verwarmingskosten daarvoor moet je echt richting 2000 watt gaan.
Je zal versteld staan hoeveel een pc met 100 watt cpu en 340 watt gpu aan warmte af stoot.
Mijn hele pc stoot momenteel zo'n 280 watt uit maar na 2 uur gamen is het hier 4 graden warmen in een kamer die de halve grootte van mijn woonkamer is en de deur eigenlijk altijd open staat naar de gang.
In de winter is deze kamer in notime van 16 naar 19-21 graden.
Sorry maar met 280 watt in 2 uur tijd 4 graden warmer is onmogelijk, er spelen meer factoren mee zoals je eigen lichaamswarmte en eventueel toch nog wat zon op de ramen.

Zelfs voor een bezemkast ben je al minimaal 500 tot 1000 watt nodig.
Deze woning heeft een warmtepomp dan is 280 watt wel mogelijk maar dat is 5x warmteafgifte ofwel 1400 watt.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Is jou bezemkast van 2 mm decoratieglas en aan 3 van de 4 muren verbonden aan de de vriezer ofzo? Sorry maat 1000 watt is echt heel veel tenzij je in een ongeïsoleerd tocht hok woont.
Mij hoef je niet te vertellen hoe warmteberekeningen in het werk gaan want het kan simpelweg niet wat je zegt, er zijn meer externe warmtebronnen aanwezig om dat mogelijk te maken.

Een ruimte van 16 naar 20-21 graden verwarmen in 2 uur tijd is heel wat energie voor nodig.
Wij hebben het over een ruimte opwarmen, niet op temperatuur houden.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Ik merk het ook wel. Bij mij word het ook zeker wel 2 graden warmer en dat in een woonkamer dus undervolt ik ook. Ik hoef ook niet meer dan 60 fps in games die ik speel dus ik cap de fps ook nog ook al is mijn TV 120hz. VRR helpt ook mee met een betere game ervaring.
Met uitzondering van Apple uiteraard. Goede performance tegenover relatief laag verbruik en hitte.
Wat heeft Apple echt gepositioneerd tegen een NVidia 4080? Denk dat je m2 eerder moet vergelijken met een 3050... die al vrij weinig verbruikt.
Dat is maar net wat je ermee doet. Die apple chip is voor sommige dingen indrukwekkend maar voor andere taken natuurlijk compleet onbruikbaar.

En juist doordat het minder all round is word het al snel zuiniger omdat het minder verschillende taken hoeft te verzetten.
Maar Apple levert deze performance ook niet, wat een heerlijke vergelijking weer.
Het gaat hier om performance per watt. En daar doen ze het goed in.
Niet meteen gaan bashen..
Daar gaat het wel degelijk om, dit zijn top kaarten, je gaat ook geen vergelijking maken met een lamborghini murcielago en een fiad panda kwa brandstofverbruik om te vergelijken met A naar B.

Apple heeft het simpelweg niet daar zijn ze niet voor bedoelt, als je performance per watt wil vergelijken moet je dat in hetzelfde segment doen.

Als jij een benchmark hebt waarbij de Apple hetzelfde presteert als de rtx 3080/4080 zou je een punt hebben.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:38]

Vergeet niet dat piek verbruik =/= consumptie.
Wanneer je minder intensieve games speelt, of iets anders doet als browsing, waarbij de kaart niet voor de volle 100% belast worrdt dan heb je dat volle verbruik ook niet. Bovendien staat menige computer toch vooral uit (snachts, tijdens school/werktijd, etc).

Bij de BBG laatst was er iemand die de stroomprijs/verbruik probeerde mee te nemen. Uitgaande van zeer intensief gamen van gemiddeld 4 uur/dag ofzo. Het ging om zo weinig geld (scheelde wat euro's per jaar) dat het geen doorslag gaf in de GPU keuze. Was geloof ik 41 om 47 euro aan elektra verbruik over de volledige levensduur.
De prijs van de GPU zelf is met 500-1000 euro (afhankelijk van budget) zo enorm veel hoger dan de totale verbruikskosten over de levensduur, dat je beter goed kan opletten in de aanschaf.

[Reactie gewijzigd door Xanaroth op 23 juli 2024 09:38]

Sorry, ik moet ff met cijfertjes spelen en je claim checken ;)

GPU die 4 uur per dag op vol vermogen van 340W draait, 5 dagen in de week en 40 weken per jaar = 272 kWh. Punt is natuurlijk dat de huidige prijzen absurd zijn, ik lees over tarieven tot bijna 70 cent! Maar laten we een "normaal" tarief van 30 gebruiken, dan kom je rond de €80 (ipv 190) uit.

Zelfs bij een (op dit moment) onrealistisch laag tarief kom je dus per jaar al op het dubbele van de genoemde 41-47 euro voor de hele levensduur uit. Bij een levensduur van 4 jaar heb je het over minimaal €320, nog niet genoeg om een high-end GPU van te kopen, maar wel significant.

Dit zijn dan alleen de GPU gaming kosten; je CPU zal meer verbruiken en je hebt waarschijnlijk een grote 4K TV/monitor die tot 100W zou kunnen verstoken.
Je eerste uitgangspunt is al foutief. De GPU draait niet 4 uur op 340W. Geen enkele game is 100% 100% van de tijd. Er zijn altijd momenten die minder intensief zijn. Of het nou laadtijd is, wachttijd tussen spelrondes, beperkter gebied (zoals binnen in een kamer) of een rustiger spelmoment zonder veel effecten, of domweg pauze omdat je even naar toilet gaat en wat drinken pakt.
Daarbij spelen veel mensen ook games die gewoon minder intensief zijn op de GPU. Ik ken er niet veel die het hele jaar lang maar 1 en dezelfde game spelen en die ene game non-stop.

Voor je het weet doe je 70% gemiddeld over die 4 uur.

Je 2e punt kan kloppen, dat het 41 om 47 euro op jaarbasis was ipv hele levensduur. Dan nog zit je na 5 jaar op 1/5e van de aanschafprijs van de GPU - nog altijd kun je dan sneller meer geld besparen op de GPU zelf dan op het verbruik.


Je 3e punt dan weer niet. De CPU gaat niet meer verbruiken omdat je een goede GPU hebt. Beetje CPU draait tegenwoordig op 20-30% tijdens intensief gamen, en past daarbij gewoon zelf het verbruik aan.

Je 4e punt snap ik uberhaupt niet, waarom zou je upgraden naar een 4k monitor als je zo op de euro's let? Dan houd je toch je oude 1080p of 1440p zo lang mogelijk in gebruik.
Als je niet met een framerate cap speelt dan zal een AAA game toch wel grotendeels op 100% draaien. Altijd 100% zal het niet zijn maar je kan toch wel in de buurt komen.

Een betere GPU betekent hogere framerates dus de CPU zal harder moeten werken. Ik denk dat hij het ook algemener bedoelt en dat iemand met een 4080 eerder een high end CPU (i7/9 of R7/9) zal hebben die gemiddeld wel meer gaat gebruiken dan een i5 of R5.
Het gaat mij helemaal niet om wel of niet besparen, ik gebruikte wat jij schreef icm het artikel puur om een beeld van het verbruik/kosten (van een high-end gaming systeem) te geven.

Over die 70 ipv 100% belasting, het zal liggen aan het soort spel en de details, maar mijn GPU draait zoveel mogelijk op 100%. Als dat niet zo zou zijn had ik wel een goedkoper model gekocht.

Anyway, Die lagere belasting kun je wegstrepen tegen de lagere energieprijs die ik gebruik, links- of rechtsom kom je om en nabij de €100 aan stroom per jaar - enkel voor de videokaart.

Dat die 5x €100 één vijfde van de aanschafprijs zou zijn, zou betekenen dat je € 2500 voor je GPU betaald? Laten we alsjeblieft hopen dat die ellende een once-in-a-lifetime gebeurtenis was. Als de markt een beetje normaal blijft zal een 4080 toch niet (veel) meer dan €1000 mogen kosten.

Wat betreft de CPU, sorry maar nee. Afhankelijk of je voor fps of hogere resolutie gaat verschuif je je bottleneck respectievelijk naar je CPU of GPU. Sowieso, hoe krachtiger je GPU, hoe meer frames je CPU moet berekenen/klaar moet zetten.

En punt 4, waar heb je het over? Wie heeft het over op de centen letten? Als we het over een GPU hebben die 340W kan verstoken, gaat het over een high-end gaming systeem, waarbij zowel de GPU als het systeem in de buurt van de €1000 zullen kosten. Als je zoveel geld uitgeeft ben je goed gek als je daar niet een fatsoenlijk scherm bij hebt/koopt: high refreshrate of 4K (of zelfs beide) en waarschijnlijk groot (>27")
Vergeet ook niet dat een lagere tier GPU ook stroom verbruikt. Dus misschien betaal je geen 100 euro per jaar, maar de helft. In dat geval heb een stuk mindere GPU (170W TDP). RTX3060 achtig.
Ik denk dat we behoorlijk wat jaren verder zullen zijn voordat dit mogelijk is. Als het mogelijk zou zijn, zouden ze het vast wel doen. ;)
Denk dat hij bedoeld met huidige procede zo een bakbeest chip te maken die 4080 evenaard met maar 100watt.
En dat druist tegen de natuurwetten in dat van 10000nm naar 3nm de tdp gemiddeld toe neemt kwa performance ceiling bij gelijke diespace
We hebben het over videokaarten van waarschijnlijk rond de €1000, die waarschijnlijk je in een systeem plaatst wat net zoveel kost, en dan is een kwartje extra stroom per uur een probleem?

En ja, het is technisch onmogelijk iets "vergelijkbaars" te maken. We hebben het hier op het hoogste segment, daar telt prestatie eerst. Minder verbruik is minder prestaties, dus als jij 100W wil verstoken moet je op de RTX 4030 wachten, of gewoon lekker op je iGPU gaan gamen.
Dat kwartje per uur keer 4 a 6 uur per dag voor velen gamers keer 365 keer vaak 3 a 4 jaar een een behoorlijke duit. Dat is een compleet nieuwe poc iedere 4 jaar die je jezelf door je neus boort.

Stroomprijs is relevanter als ooit tevoren.

[Reactie gewijzigd door computerjunky op 23 juli 2024 09:38]

In principe is dat ook wat men de hele tijd doet en nastreeft. Er worden iedere generatie toch weer aardige stappen gezet in performance. Alleen, diezelfde videokaart die op een gegeven moment die gewenste resultaten op 100 Watt neerzet, die kan alsnog op 300 of zelfs 400 Watt draaien, en dan doet hij het 2x zo goed. En aangezien de concurrent dat ook doet en je graag videokaarten wil verkopen, is de vervolgstap logisch.

Maar Nvidia en AMD zijn ook enorm op zoek naar efficiency, want ze willen graag ook zoveel mogelijk verkopen in de zakelijke markt waarbij dezelfde soort chips 24/7 moeten draaien, zo stabiel mogelijk, dus dan telt energieverbruik en lagere clockspeeds veel meer. Hetzelfde geldt voor videokaarten voor gaming laptops, die markt is ook behoorlijk groot.

Het gebeurt gewoon, alleen de ontwikkeling gaat blijkbaar niet snel genoeg, want het is op dit moment de trend om er bij ieder nieuwsbericht over te klagen (Tweakers.net vraagt er ook wel om met de headlines met extreme cases van max verbruik van RTX 4090s en 13900Ks, o.b.v. geruchten). Maar ja, zo'n bericht krijgt dan wel weer veel hits, en dat is om een reden. En mensen willen altijd meer performance, dat speelt ook mee. Als je die zware game als hobby wil spelen kiezen de meeste mensen er toch voor om die videokaart even wat sneller te laten lopen, i.p.v. met een undervolt. Zo werkt het nou eenmaal.
Ik snap dit soort opmerkingen aan de ene kant wel en de andere kant niet.
Hoe ik het zie: Ik speel World of Warcraft, 120 FPS cap op 2080 Super meestal is het gebruik 100-230W afhankelijk van waar ik kijk.
Als ik upgrade en nog steeds 120 FPS haal omdat ik het cap, zal de GPU minder belast worden omdat hij waarschijnlijk 100% sneller is Misschien zelfs meer. Zelfs al kan hij 100W meer verbruiken zal hij dat nooit of bijna nooit doen. Sterker nog omdat hij 100% sneller is zal het gebruik eerder 50-115W zijn +- 10% omdat ik rekening moet houden met andere factoren.

Aan de andere kant... Hij kan wel degelijk 340W gebruiken en dus zullen er situaties zijn waarin hij dat ook gaat doen. Dat is zeker het geval als spellen weer mooien worden. Vanuit dat opzicht snap ik het zeker. Ik had ook verwacht dat Europa wel zou reageren op het oplopende gebruik van PCs.

Heb ik het nodig? Nee, maar ik ben de coil whine in Ardenweald zat. Minder gebruik vertaald zich in minder geluid.
WoW is nou niet meteen de meest zware titel ooit. Als je al een fps cap erop zet, dan gaat ie niet max vermogen eisen, maar met nieuwe titels worden de eisen alleen maar hoger en hoger. Zeker als je 4K wilt of straks meer dan dat.
Hoewel de vergelijking van @RobertPeterson niet helemaal op gaat (een 400pk auto kan prima 1:25 rijden, maar niet op maximaal vermogen), zit daar wel het hele principe achter voor een videokaart.

Wat als we een auto maken van max 100kg, dan hebben we ook geen 400pk nodig, maar misschien maar 100pk om dat ding voor te duwen (in sportieve vorm) met een gelijke verbruik. Maar een 100kg auto maken die alle veiligheid, comfort en eigenschappen heeft van je huidige 400pk auto's. EV of ICE, denk aan magneten, druk van de cilinders, glas rondom, er zou prima materiaal bestaan (syntetisch of niet) dat deze eigenschappen kan behalen, dat het theoretisch mogelijk kan zijn.

En dat geld precies hetzelfde voor een videokaart. Wat als alle transistors op de kaart met slechts 0,2v gestuurd kunnen worden? Dat weerstand (=hitte) tot een 0,000001% kan worden gebracht? Dan zou je theoretisch met 100W dezelfde prestaties kunnen halen.. Maar buiten dat je daar methodes en materialen voor moet gaan gebruiken die niveau 'exotisch' zijn, moet je gelijktijdig rekening houden dat de kleinste fluctuatie al storing geeft. Dus niet alleen zit je dan met een zeer instabiele videokaart (of je moet deze 100% afschermen van externe invloed), maar ook nog eens bijna onbetaalbaar vanwege toegepaste techniek en materialen.

Is het technisch mogelijk? Dit moment denk ik simpelweg niet. Theoretisch? Zeker. Praktisch? Is het gewoon een rekensommetje van alle toegepaste technieken en je pakt daar de meest toegankelijke, massa-productie-mogelijke, stabiel/veiligwerkende versie.
Hier de uitgebreide uitleg haha ;).

Vandaar ook het aankaarten van de A2000. Dit is een videokaart die gemaakt is voor efficiëntie.

De A6000 is qua prestaties bijvoorbeeld gelijk aan de 3090. Maar zo'n 10% efficiënter en 3 keer zo duur.

https://www.youtube.com/watch?v=1PNka8UjAMk

[Reactie gewijzigd door RobertPeterson op 23 juli 2024 09:38]

[...] een 400pk auto kan prima 1:25 rijden, maar niet op maximaal vermogen [...]
Doe me dan eens een lol en stuur even een link van een auto met 400 pk met alleen een verbrandingsmotor die een verbruik van 1 op 25 kan halen in verbruikstests. Maakt niet uit of het stad, snelweg, buitenweg of gecombineerd verbruik is. Pak voor mijn part de ideale situatie, maakt mij niet uit.

Je gaat er namelijk nul vinden, zeg ik zonder zelf te googlen. Om een verbrandingsmotor te maken die een piekvermogen van 400 pk kan leveren moeten er zo ontzettend veel concessies worden gedaan op het gebied van efficiëntie dat dit in de praktijk niet voorkomt. In de praktijk is 1 op 15 halen op de buitenweg al een hele prestatie voor een auto met 400 pk
Ga jij even voorbij het hele principe..
Ja klopt. Daarom quote ik ook specifiek je analogie die nergens op sloeg. Om aan te geven dat ik het specifiek daar over heb
Door de concurrentie strijd op gpu en cpu gebied staat power efficiency voorlopig onderaan het lijstje. Men wil vooral de snelste kaart hebben omdat dat het beste werkt qua marketing. Zodra Nvidia of AMD (Of intel/amd op cpu gebeid) een voorsprong heeft zal men weer meer focussen op energiezuinig zijn en in de marketing laten zien dat ze de zelfde performance hebben met veel minder stroomverbruik als de concurrent.
Nee dat kan niet, over ongeveer 10 jaar zal dat kunnen.
Met de huidige energieprijzen is ook 340W niet aantrekkelijk.
Bijna 2 uur gamen voor 1 euro? Ik zie het probleem niet helemaal? En dat is met de hoogste energieprijzen van de wereld :)

En tuurlijk is het technisch nog niet mogelijk datzelfde werk met 100watt te verzetten, anders had Nvidia het echt wel beter gedaan, wat je wel kan doen (maar je beter gewoon een goedkopere kaart kan kopen) is een kaart kopen die maar 100watt tbp heeft.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 09:38]

Ja dat is nu onmogelijk ja.
Of.. het is heel goed mogelijk maar nVidia speelt onder een hoedje met de energiemaatschappijen.
Als we nog even doorgaan zo moet je PC straks op een eigen groep in de meterkast.
In dit tempo gaat het nog heel erg lang duren voordat we op 16A * 230V = 3680 Watt zitten. Een huidig game systeem met een RTX 3090Ti zit op ongeveer 670 watt tijdens het gamen. We moeten dus nog met 450% stijgen voordat we in dat territorium komen.
Technisch gezien kom je ietsje eerder in de problemen gezien je rekening moet houden met de andere apparaten op de groep natuurlijk. Nu neem ik even aan dat je PC niet op de groep zit met de wasmachine, droger, waterkoker of elektrische kookplaat, maar dat moet je natuurlijk zelf weten.

En die RTX 3090Ti heeft een tbp van 450 watt. 110 watt hoger dan deze 4080.

Overigens is het verschil tussen de 3080 en deze verwachting maar 20 watt. Dus als je echt flipt, kun je in een OC utility de powertarget op 94% zetten en dan zit je weer op het niveau van 2 jaar geleden.

[Reactie gewijzigd door youridv1 op 23 juli 2024 09:38]

670 watt op een stopcontact met meer dan alleen maar de pc gaat al wel veel sneller. Tel monitoren en andere hardware erbij en het gaat al hard. Bovendien zit op dezelfde groep vaak nog veel andere zaken. Hier op 1 groep de hele woonkamer en slaapkamer. Dat gaat toch al snel, mits alles aan staat. In de zomer heb ik er ook nog een airco op zitten, een tv met allerlei zaken, waaronder consoles daar omheen en lampen en vanalles.

Verder is de wereld groter dan Nederland. In landen met 110 volt gaat het al een stuk rapper tot de limieten van een groep. Verder gaat het dan nog alleen over de GPU. De Processor zit ook al tegen de 100 watt aan te hikken, plus je hebt tegenwoordig ook nog vaak meerdere monitoren, controller, laders van allerlei zaken, webcam of camera met losse microfoon en dergelijke. 1000+ watt piekbelasting op alleen de pc is al niet heel raar meer. Bovendien heb ik het niet over het nu, maar pak em beet 10 jaar vanaf nu. Grote kans dat het alleen maar meer en meer wordt omdat ze anders niet de performance omhoog kunnen gooien in de vele benchmarks. En het maakt veel reviewers weinig uit dat het al zo snel omhoog gaat. Ondertussen zitten steeds meer mensen met airco's te gamen omdat het anders gewoon niet meer uit te houden is in de zomermaanden. Niet eens alleen meer de warme dagen.
Is het niet realistischer om dan te zeggen dat je met minder hoge kwaliteit ga gamen? 4k is mooi maar onnodig, als je verbruik dus zo belangrijk vind kun je gewoon een fhd scherm en een videokaart met tdp van 100w.
Mwoch.. Het is veel, maar ik ben ook niet de hele dag aan het gamen. Als de kaart idle draait, draaien de fans niet eens. Die paar uurtjes gamen hoeven ook niet niks te kosten, games zijn ook niet gratis. Het is gewoon niet van een niveau dat ik me er echt druk over zal maken. En de rest van de doelgroep van zo'n dure high-end kaart ook niet, anders koop je wel wat goedkopers. Dat bovendien ook zuiniger is.

Al met al gaat die 4080 in gaming gebruik nog steeds in zijn hele leven minder aan energie opstoken dan je voor het ding betaalt. Tenzij je er mee gaat minen, maarja dan levert het ook geld op. Als dat niet meer rendabel is, is dat alleen maar geweldig voor ons gamers, want dan houden die miners eens op met kaarten scalpen.

En die energieprijzen gaan ook wel weer eens omlaag, als Putin Oekraine uit is getrapt bijvoorbeeld.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 09:38]

Dat is misschien wel mogelijk maar dan werk je met dermate exotische materialen dat de kaart gelijk 10x zo duur wordt. :)
Die zijn er al, sterker nog, je kunt zelfs een 3080 Ti krijgen met een max TGP van 90W ;) pricewatch: MSI Creator Z16P B12UHT-016NL
Daar zou ik ook vrolijker van worden! heb gt1030 kaarten die mogen over een paar jaar de deur uit. Maar of er dan weer goeie 30 watt kaarten zijn zoals die ik nu heb ?
Als het kon dan zouden ze dat echt wel doen. Maar wil natuurlijk niet zeggen dat die ook continu zoveel vreet.
Krijg toch binnenkort zonnepanelen.
We hebben nu eenmaal te maken met natuurwetten. En in principe worden kaarten steeds efficiënter. Echter stoppen ze dat liever in performance dan in zuinigheid blijkbaar.
Total Card Power, TBP, TDP... Wordt allemaal door elkaar gebruikt als ik het zo zie. Whats the difference?
TBP = Total Board Power. Dus het totaal wat de gehele videokaart kan gebruiken bij max load.

TDP = (meestal) Thermal Design Power. Dus hoeveel cooling capaciteit de GPU nodig heeft om te werken zonder throttling. Dit is echter meestal gebaseerd op de base clock en nooit de turbo clock dus in dat geval een nutteloze waarde. Zo is een 12900k bijvoorbeeld 125 watt maar kom je echt niet weg met een 125 watt TDP cooler als je het maximale er uit wil halen aangezien hij meer als 125 watt aan hitte genereert. Bij 125 watt cooling capaciteit zal hij waarschijnlijk terug clocken naar de base clock van 3.2 Ghz ipv rond de 5 Ghz zijn werk doen.
En helaas word TDP ook wel eens gebruikt om het verbruik van een chip zonder alle overige fratsen aan te duiden. Gelukkig is dit steeds minder het geval.

[Reactie gewijzigd door computerjunky op 23 juli 2024 09:38]

Mijn 3080 (aorus xtreme) kan tot 450w met de speciale bios. Heb echter sinds het begin al draaien met een undervolt. Nu maximaal 250w en voor de performance maakt het niet heel veel uit. Volgens mij kan het ook nog wel naar max 220w.

Vind 340w nog best veel. De afgelopen weken zorgt gamen op een wat kleinere kamer duidelijk voor een onaangename temperatuursverhoging van de kamer.

[Reactie gewijzigd door Angelol op 23 juli 2024 09:38]

vraag me af hoe de prestaties zich verhouden tot de huidige 3090 kaart
Ik heb echt het vermoeden dat deze kaarten een veel hoger TBP gepland hadden maar dat ze door alle negatieve feedback dit toch weer terug geschaald hebben.
Dit betekend 2 dingen:

1. Deze kaart word een mega goede overclocker voor diegene die dat leuk vinden.
2. Deze kaart is mogelijk niet meer te undervolten en underclocken voor een enorme prestatie per watt verbetering wat betekend dat deze kaart voor mij onder de streep meer zou gebruiken dan mijn huidige 6900XT die met wat tweaken maar 190 watt gebruikt voor een minder als 5% prestatieverlies.
Nu nog een videokaart met maximaal 75 Watt TDP, zonder externe 6-pin/8-pin connector (uitsluitend stroom via het PCI-E slot waarin het gestoken is) die meer dan 60 fps haalt op 4K op de hoogste kwaliteitssetting.
Grapjas, voor kaarten die 4K @ 60fps met ultra settings kunnen draaien vinden ze juist 12 of 18 pins connectors uit, maar jij wil er gewoon geen...

De meest moderne kaart die ik kan vinden die alleen PCIe stroom gebruikt is de RTX 1630, daarbij haal je op hoge settings op 1080p nog geeneens 20 fps.
De 1630 is een knap waardeloze kaart, maar als NVidia of AMD zouden willen zou een redelijk low-end kaartje zonder externe connectors best mogelijk moeten zijn. Ik heb zelf nog een GTX750, en hoewel het niet de nieuwste of zwaarste is is het toch echt wel een kaart bedoeld voor gamen, niet voor desktop-werk op meerdere monitoren als een veredelde IGP.

In plaats daarvan krijgen we kaarten als de RTX 1630 en de RX6500. Laptopchips die anders op de plank zouden blijven liggen, dus plak ze maar op een PCB om er nog 150-200 euro voor te krijgen. Totaal inefficient, omdat ze veel te hoog geklokt zijn om toch nog wat uit die laptopchip te halen.

Strip een paar CU's van de RX6600 en zet de kloksnelheid 200MHz lager en je komt prima op 75W uit, en je hebt een kaart waar je best prima mee kan gamen op medium instellingen. Maar he, de yields zijn goed dus die chips kun je ook gewoon op een RX6650XT plakken om er 400 euro voor te krijgen. :/

[Reactie gewijzigd door bwerg op 23 juli 2024 09:38]

De '30' in 1630, geeft aan dat het het laagst mogelijke segment is, die kun je niet vergelijken met een GTX750 die (8,5 jaar geleden) als midrange om de markt gezet werd. Een 1630 is in mijn ogen niet eens voor gaming bedoelt, maar vooral een manier om extra monitoren op je PC aan te kunnen sluiten.

Wat betreft je opmerkingen over underclocken van goede chips, of laptop chips op een PCB plakken, tsja, dat is een ander verhaal en bovendien logisch - bedrijven bestaan om geld te verdienen, niet om jou als consument de beste deal te geven.

Anyway, ik snap het punt van geen voedingkabeltje naar je kaart willen niet, die kabel komt sowieso al uit je PSU en waar ik vooral op reageerde is de onrealistische verwachting dat je met minder dan 75W op 4K zou kunnen gamen.
Een 1630 is in mijn ogen niet eens voor gaming bedoelt, maar vooral een manier om extra monitoren op je PC aan te kunnen sluiten.
En ondanks dat heeft het ding dezelfde TDP als mijn GTX750, namelijk 75W. En nee, de PSU van mijn OEM-bak heeft trouwens geen kabeltje terwijl hij die 75W wel prima trekt.

Ik snap dat een bedrijf geen liefdadigheidsinstelling is maar er is veel vraag naar, dus je zou denken dat het aanbod dan volgt. Het aanbod van videokaarten van 100-200 euro is echter huilen met de pet op.
Dan kom je dus bij de hierboven genoemde A2000 uit: feitelijk een RTX 3060Ti, underclocked naar RTX3050 performance (dus ver boven die 1630). Alleen: niet in de buurt geprijsd van een 3050.
Je hebt eventueel ook nog modellen van de 1650 en 1050ti die kunnen leven met alleen de 75W over het PCIe slot
Ah, die had ik zo snel niet gevonden.

Ik vraag me af hoeveel fps je daarmee op 4K ultra settings haalt, misschien heb je in het beste geval net de vingers van je tweede hand nodig op het te tellen.
Dan geloof ik dat de gtx950 die nog uit het water slaat, persoonlijk vielen mij de prestaties daarvan voor een kaart zonder pcie-power nog wel mee, maar daar was dan ook wel alles mee gezegd.

Voor 4k zal het gros van dat aanbod ook geheugencapaciteit danwel snelheid missen, vram-load loopt (dankzij de framebuffers voor postfx) soms rap op met een grotere uitvoerresolutie.
Een 950 (van 7 jaar oud) zal het denk ik ook wel beter kunnen doen dan een 1630 van dit jaar (denk dat het wel afhankelijk is van de resolutie & hoeveelheid geheugen?) Maar een 1080Ti van 5 jaar oud doet het ook minstens net zo goed als een 3060, dat is het toch verschil tussen budget (xx30), middle (xx50/xx60) en high-end (xx70 en hoger) segmenten?

Wat ik vooral zie zijn onrealistische verwachtingen van de consument, de enige reden dat we nu op met redelijke framerates en settings op 4K kunnen gamen zijn slimme revolutionaire technieken als DLSS. De gemiddelde consument heeft geen flauw idee hoeveel meer rekenkracht en geheugen er voor 4K nodig is in vergelijking met 1080p.

Minimaal 60fps op 4K met de hoogste instellingen, zoals in de reactie waar ik op reageerde, legt volgens mij zelfs een 3080Ti nog het vuur aan de schenen als DLSS uitgeschakeld is?
Hangt zeer van de game af (ik game nu 5 tot 6 jaar op 2160p, begon ooit vanaf triple crossfire hd6950's)
Maar bij voorbeelden als een cyberpunk, star citizen mag je idd minstens een 3080/6800 aan t werk zetten voor behoorlijke framerates *op 2160p zónder DLSS/etc..
Ander uiterste van het spectrum vind je eerder bij Rocket League, CS:GO en DOOM, vooral die laatste serie is naar mijn persoonlijke mening vaak zeer goed geoptimaliseerd.

* toevoeging achteraf

[Reactie gewijzigd door Annihlator op 23 juli 2024 09:38]

in dying light 2 met DLSS uit 1440p haal je al 40-50 fps zonder DLSS met alles max op een 3080
Je moet het zien van een gedroomd staaltje van technische vooruitgang en energiezuinigheid als dit snelheidniveau gehaald kan worden tegen een minimaal energieverbruik. De M1 is een voorbeeld van uitermate energiezuinigheid met een zeer hoge verwerkingsnelheid, dus ?
Je moet het zien als toekomst muziek. Ja alles wordt sneller en efficienter en over 40 jaar kun je vast wel 32K met 128x AA en weet is wat voor settings draadloos vanaf je telefoon naar je VR/AR bril streamen, maar we leven nu in 2022.

Leuk dat Apple idd een fantastiche chip heeft (jaja, je hoort mij als Apple hater ze er zelfs een compliment voor geven), maar gamen doe je niet op een Mac. En op een PC kosten prestaties power, veel meer power dan 75W.

Voordat 75W genoeg is voor wat jij wil zijn we een aantal generaties verder, ik gok een jaar of 6 minimaal in de allerbeste omstandigheden.
Moest je nu op 1080p zeggen, zou ik het een interessante idee vinden waar je wel wat aan kan hebben.
In principe komt de 1650 al redelijk in de buurt van 60 fps op 1080p en dat zonder externe stroomconnector.
En hoeveel meer pixels is 4K in vergelijking met 1080p? 4x

4x 75W = 300W

Dat is dus precies het probleem, je wil 4x de prestaties, maar zonder er 4x meer energie in te proppen.
Dromen kunnen we altijd!
Prima, graka uit 2035 pakken en stevig underclocken/undervolten.
Lukt prima op een Apple M1, als je Quake 3 draait :+
Toen werd je wakker.
Elke week weer nieuwe specificaties van de 4000 series van Nvidia dat ik nu echt niet meer weet wat ik moet geloven :P
Ik denk dat het niet alleen valse geruchten zijn maar dat Nvidia nog wat speelt met de configuraties.
RAM is duidelijk, dat kun je erbij zetten als Nvidia of niet en dan. Zeg je dat een 4080 16 GB moet hebben i.p.v. 12, dat maakt hem duurder maar ik wat krachtiger.
Iets ander verhaal met de CUDA cores: als er 10000 cores op een chip zitten kan Nvidia specificeren dat dat ding 9600 of 9700 cores heeft en hoeven ze de chip niet als 4070 te verkopen als er meer dan 300 cores niet werken, of ze laten nog wat ruimte voor de 4080 Ti.
Er moet natuurlijk wel ruimte overblijven voor de 4080ti met 10.240 CUDA cores en een tbp van 420W. Consumenten moeten tenslotte uitgemolken worden.
Ziet er prima uit.
Ben benieuwd wat de uitkomst gaat zijn.
Zelf nog erg blij met mijn RTX3080ti, denk dat die nog wel even meegaat.
Ik heb ook de 3080 Ti, met name gekocht omdat ik het geheugen van de gewone 3080 te laag vond (de 12GB versie was er toen nog niet). De 3090 met 24GB was te duur maar zelfs nu heb ik nog maar 12GB.

Maar dat probleem hebben ze nu dus gefixt, dan had ik toch beter op de 4080 kunnen wachten die 16GB heeft. Maarja.. Misschien kan ik hem dan wel netjes verkopen tegen die tijd, de prijzen zijn aan het zakken maar ik had toen de 3080Ti voor de adviesprijs gevonden (founders edition). Die FE zou ik zo weer halen trouwens. Mooi vormgegeven kaart en werkt goed en niet te luid. Veel mooier dan die lelijke gaming kaarten die er zo schreeuwerig uitzien. Het is jammer dat de FE altijd zo beperkt verkrijgbaar is.

PS: Voor wie wil roepen: Meer dan 10GB heb je niet nodig, dat is niet zo. Far Cry 6 bijv. heeft al een speciale mode die met meer overweg kan en bovendien speel ik veel VR dat ook geheugen slurpt.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 09:38]

Ik ben eigenlijk heel blij met mijn schreeuwerige Gaming edition haha. gigantisch koelblok, super airflow, beetje RGB erbij. Je hebt gelukkig al een tijdje kunnen genieten dan te wachten op een 4080. Ik had niet veel langer willen wachten. Ik kom van een 970 af haha.
Hahaha, een videokaart van 340 Watt om thuis een spelletje te spelen.

[Reactie gewijzigd door zetje01 op 23 juli 2024 09:38]

Bekijk eens wat een gemidddelde TV al verbruikt...
Hobby's kosten geld.

Op dit item kan niet meer gereageerd worden.