Gerucht: Nvidia RTX 4070 is vanaf 13 april te koop

Nvidia introduceert volgens een gerucht de RTX 4070 op 13 april. Eerdere geruchten wezen ook al op de introductie van de videokaart in de maand april. Het is nog niet duidelijk hoeveel de RTX 4070 uiteindelijk zal kosten.

Het gerucht komt van Twitter-gebruiker en leaker Hongxing2020 die volgens VideoCardz in het verleden al betrouwbare informatie heeft gegeven over releases van Nvidia-gpu’s. De leaker vermeldt buiten de datum geen verdere details. VideoCardz merkt op dat er op 21 maart een evenement plaatsvindt waarbij de ceo van Nvidia een keynote zal houden en vermoedelijk ook over aankomende producten zal vertellen.

Het is niet de eerste keer dat er geruchten over de RTX 4070 worden verspreid. Techwebsite Wccftech heeft enkele maanden geleden vermoedelijke specificaties van de RTX 4070 gepubliceerd. Die zou 5.888 CUDA-cores bevatten, 12GB aan GDDR6X-geheugen en 36MB aan L2-cachegeheugen. De RTX 4070 heeft volgens VideoCardz een tdp van 200W.

Nvidia RTX 4070
Nvidia RTX 4070

Door Jay Stout

Redacteur

11-03-2023 • 13:00

137

Reacties (137)

Sorteer op:

Weergave:

kun je hier mee op 4k 120hz spelen denk je?, ik heb totaal geen verstand ervan, ben meer een console gamer

heb een sony 4k 120 hz oled, en zit te wachten op ps5 pro, maar bang dat ik niet de volledige experience krijg dus zit ik voor het eerst naar pc te kijken
Nee. Het geheugen werkt met 192bit te langzaam waardoor je veel last krijgt van stuttering, zie

https://youtu.be/tk189Wp115M
Een test met hogwards? Die game is uberhaupt niet optimized en heeft vram memory leaks dat zegt dus helemaal niks. Stuttering heeft niks met de geheugenbus te maken.

UE4 waar hogwards op draait heeft sowieso last van stuttering op letterlijk alle soorten hardware.
Daarnaast is de 4070 Ti niet eens een 4K GPU.
Tuurlijkis het een 4K GPU... 4K60P is nog steeds 4K. Zoals 4K30P..
nee 4k30fps is te lage fps om het echt een 4k gpu te noemen. 60fps wel
Lijkt me een redelijk discutabele stelling die je daar aanneemt. Vroeger, tijdens de opkomst van 3D-games in de late jaren 90 en begin 2000 was over het algemeen de gemiddelde framerate ergens tussen de 60 en de 30 fps, soms zelfs lager. Een keuze die de spelontwikkelaar (vaak) voor je maakte omdat ze, naast beperkingen rondom platformondersteuning, een beperkt 'performancebudget' hadden en dus keuzes moesten maken tussen meer FPS of meer polygonen, meer effecten, of wat dan ook, en ze kozen (vaak), natuurlijk tot een bepaalde hoogte, voor het laatste. Menu's en cutscenes liepen vaak in een hogere fps dan het spel zelf.

Zo werden in Unreal Tournament uit 1999 maps vaak ontworpen met een beperkt aantal objecten om de prestaties stabiel te houden. Over het algemeen was het aanbevolen om niet meer dan 100-150 objecten tegelijkertijd in beeld te hebben, afhankelijk van de grootte en complexiteit van de objecten.
In the pre-high definition era, regional video formats standardized TV performance parameters. In Europe, that format was called PAL and had a refresh rate of 50hz and a frame rate of 25 fps. In North America, the format was NTSC, and had a higher refresh rate of 60hz and a standard frame rate of 30fps.
Zelf heb ik een veel te dure game PC met dito 4K scherm en daaruit kan ik concluderen dat 30 fps op 4k prima speelbaar is als bare minimum zolang er geen drops zijn. Het zijn genoeg frames om tijdens het spelen alles te kunnen doen wat je zou moeten doen. Betekend dit dat je de meest perfecte game-ervaring hebt? Nee, natuurlijk niet. Het is natuurlijk genre afhankelijk en binnen het genre ook nog eens afhankelijk of het spel een fast paced first person shooters is of een RTS waarbij je lekker rustig van bovenaf, met niet al te vele units, aan het klikken bent.

Echter, idealiter zou je een zo hoog mogelijke frame rate willen hebben. Zelfs bij 240 vs 144 merk je dat de eerste een stukje smoother is en dat kan weldegelijk uitmaken in je prestaties. Zeker bij fast paced games is het fijn voor objectherkenning (er loopt iets) of om meer up to date frames te hebben om op te schieten en dus sneller kan klikken op de correcte plaats.

Linus Tech Tips heeft bijvoorbeeld een test gedaan waarbij vijf personen CS Go speelde op drie monitoren van 60, 144 en 240 en ook daaruit kwam naar voren dat je gemiddeld beter af bent met een hogere frame rate. De reactietijd van de (meeste) proefpersonen was bij elke increase in frame rate sneller.

De meerwaarde van bijvoorbeeld een hoger Hz scherm is er dus wel degelijk, waar de limiet van effectief gebruik ligt kan ik zo niet vinden maar die ligt dus in ieder geval wel boven de 240 Hz die op dit moment op de markt te vinden zijn. Het lijkt me dat een scherm met 500 Hz zeker een effectieve toevoeging kan zijn voor voor gamers (Fast paced shooters, in de toekomst vr?, pro drone vliegen) met een degelijke use case.

Conclusie:
Naar mijn idee is 4K30 prima speelbaar zolang je niet onder deze ondergrens schiet. Voor alle pracht en praal en als minimum prima te gebruiken, zeker in single player games. Wil je competitief spelen? Dan moet je een afweging gaan maken tussen 'pracht en praal' en prestatie. 30fps voldoet dan prima, maar er is reeds aangetoond dat, zeker bij first person shooters, meer fps een betere prestatie oplevert en je dan misschien toch voor een lagere resolutie of settings kunt gaan. Daarbij niet zeggende dat 30fps onspeelbaar is maar je met een hogere framerate gewoon nog beter kunt spelen.

Vergeet we een belangrijk detail nog niet weten: De prijs.... die zal uiteindelijk voor een groot deel bepalen of bovenstaande acceptabel (wanneer deze goedkoop is) is of juist iets is wat teleurstelt (wanneer je de hoofdprijs betaald en hier dus ook iets terug voor mag verwachten).

Zie ook: jdh009 in 'BOE toont eerste full-hd-monitor met 500Hz-refreshrate'

[Reactie gewijzigd door jdh009 op 24 juli 2024 06:49]

Een significant deel van de games voor ons uit de jaren 90 waren 50fps ;) Pas vanaf laat PS2 begin PS3 werden 60-100hz (of die "200-400hz" CRT's) TV's hier de norm Daarvoor waren alle consoles 50hz.

Op de consoles was het gross van de games gewoon PAL/NTFS fps. Sonic en Tekken waren hier bv wat makkelijker/langzamer.
Vergeet niet dat die 50 Hz interlaced was. Er hoefden dus typisch maar ~200 lijnen per frame uitgerekend te worden.
Ik heb een 6800. Genoeg games die je op 4k60 high kunt draaien.. 4070 zit er nog boven op.
Medium settings, oudere games. Hoop mensen die het concept van PC gamen idd niet snappen. Je hebt het zelf in de hand.
Mijn 3070Ti draait een boel games op 1440p120, dus ik zie 2160p90 echt wel mogelijk zijn voor een 4070.
Dat is hij dus wel.
Zeker wel. Met gemiddeld 80-90 fps op 4K is de 4070Ti wel degelijk een 4K GPU. Settings een beetje optimaliseren (primair gewoon AA uitzetten en voor de rest een paar dingen 1 standje onder max) en je hebt zeer goede performance.

Het is geen 4K 120 fps Ultra GPU, maar niet iedereen stelt die eis voor 4K gaming. Sterker nog, tenzij je over de 1200 euro uit wil geven aan alleen je videokaart kun je die eis nieteens stellen, want dat is niet te koop.

En icm een beetje DLSS upscaling valt 4K 120fps vaak wel te halen en DLSS is verrekte goed geworden.

https://www.techspot.com/...idia-geforce-rtx-4070-ti/

[Reactie gewijzigd door youridv1 op 24 juli 2024 06:49]

Hogwards is inderdaad een vreemde eend in de beit. Sinds ik de helft van mijn cores heb uitgeschakeld loopt dit spel als een zonnetje. Heeft dus weinig met memmory leak te maken .
Dat dus, naast het feit dat de Nvidia gpu's zoals de RX 6000 series enorm veel meer cache hebben, tientallen MB's, waardoor het de veel kleinere bus compenseert.
Als je 4k wilt gaan gamen zit je al snel aan de 4080 minimaal om op redelijke fps te gamen.
Zover ik weet is dan de 4090, vereist om op 4K te gamen.
Met technieken als DLSS kan het zelfs met een 2060 en 2070 al prima.
Daarbij is het bijna niet te onderscheiden van native 4K.

Echter ondersteunen nog niet veel spellen DLSS.
Je ziet het verschil wel.

Ik game op 4K met een rtx3080 en ik heb alle settings in DLSS getest.
DLSS performance: matige scherpte, maar ziet er goed uit
DLSS balanced: meer scherpte in details, ziet er wat beter uit
DLSS quality: veel scherper en ziet er fantastisch uit

Het verschil tussen performance en quality is overduidelijk waarneembaar. Nu zorgt DLSS voor een goede opschaling, maar het kan niet toveren. Op quality heeft het meer pixels dan in performance mode. Ik weet dat quality een opschaling heeft van 1,50x, dus 2560*1440 voor 3840*2160 en dat performance een opschaling heeft van 1920*1080 voor 3840*2160. Er zijn dus minder beeldpunten gerenderd om op te schalen. Ik vind DLSS performance niet echt 4K. Het geeft wel een goed beeld en het ziet er goed uit, maar de hogere instellingen brengen beduidend meer scherpte. :)
Het ligt er natuurlijk ook een beetje aan met hoe dicht je met je snuffert op de monitor zit hé. :P
Op 60 cm ongeveer.

Begrijp me niet verkeerd. DLSS performance ziet er prima uit en als je bezig bent met je game let je hier niet zo op. Ik zelf vind DLSS de uitvinding van dit moment.
Ik game op 4K met een rtx3080 en ik heb alle settings in DLSS getest.
Dat hangt ervan af wat de resolutie is waarvan geupscaled wordt. Als je een scherm van 1080p hebt en je begint dan met performance dan zou ik niet zeggen dat dat er goed uit ziet.
Zo denk ik er ook over en wil daar nog aan toevoegen dat bepaalde settings voor kwaliteit soms weinig uitmaken tussen native 4K high en 4K ultra maar dat de fps daar wel sterk op reageert.
Het verschil tussen de diverse DLSS settings zijn niet slecht. Zelfs op DLSS performance is het beeld heel goed.

Wat je zegt:

In TW3 met alle settings op high kan ik vloeiend spelen op DLSS performance. Zet ik hem hoger dan is het beeld net wat scherper, maar krijg ik framedrops. Ik heb dan liever 'iets' waziger beeld dan framedrops. Het bewijst dat 4K een flinke wissel trekt op je videokaart en daar is mijn rtx3080 niet altijd blij mee.

Waarin zie ik dit?
In de kleine details en alleen als ik stil sta.

In God of War kan ik alles op ultra spelen met DLSS quality en in dit spel zie ik wel een flink verschil tussen de DLSS modi.

In CP77 kan ik ook alles op high spelen met DLSS quality zonder enige hapering.

Alleen is ray tracing voor een rtx3080 op een 4K monitor een volstrekt onmogelijke optie. Die kun je meteen vergeten. The Witcher 3 is het zwaarste spel van de 3. Ik denk dat TW3 en CP77 heel dicht bij elkaar liggen qua performance.

Ik heb een 27 inch beeldscherm en ik zit er 50-70 cm vanaf; gewoon op mijn bureau. Dan is 4K zeker heel fijn werken. Foto's zien er fantastisch uit en text is messcherp. Volgend jaar komt er een rtx4080 of rtx4090 in huis met dito hardware en probeer ik ook met RT te spelen.
Echter ondersteunen nog niet veel spellen DLSS.
Die lijst is inmiddels behoorlijk. Vrijwel alle nieuwe AAA games hebben dit. Oudere en minder vereisende games hebben dit niet nodig.
Ik zou eerst wat youtube reviews kijken en niet alleen naar Nividia marketing. ;p

https://youtu.be/0CunGt3cQXc?t=133
Tweakers, zelf heeft dit ook aanbevolen. Maar goed als je het op marketing gebied wil bekijken. Ben ik van mening dat je beter even kan wachten tot de 5xx series.
Ik game 4k met de 4080, Forza Horizon 5 en Destiny 2 en beide lopen prima 120fps.
Nice op een 32 inch scherm ook?
Resolutie en scherm grootte staan los van elkaar.
4090 is voor 4k 120hz+
4080 is voor 4k 60hz
4070 ti is voor 2k 144hz+
En dit is voor de meeste instellingen op ultra met raytracing
Ja zie je wel bedankt voor de bevestiging.
Onzin,

Heb met Forza Horizon 5 vrijwel alles max Inc rat tracing en haal met wat kleine aanpassingen gewoon 120fps. Zet je echt alles op max max loopt ie 90/100fps.

Mijn punt is tune je de settings is 120fps eitje want de dingen die je nog hoger kan zetten zie je niet of nauwelijks.

Games zoals Hogwarts zijn gewoon slecht geoptimaliseerd als je het mij vraagt want waarom die game zo zwaar is als je kijkt met wat je op beeld ziet......

Zelfde met Destiny 2 wat dat betreft. Draait ook zwaarder dan nodig.
Ik heb een 4080 en een 48" LG C2 Oled op 120hz zonder lag en stuttering. 4080 kan dan ook prima 120hz aan.
Lijkt mij sterk als je Raytracing ook aan zet ;)
Goede grap :D
On a more serious note, met een 3090 lukte dat niet eens: https://www.youtube.com/watch?v=lGQsKCRVKCk
Zwaar spel.
4K 120 is een hele hoge eis. Ik denk dat je dat in de nieuwste games sowieso niet haalt, welke hardware je er ook tegenaan gooit.
Probeer eens een desktop, onder de 160fps speel ik een spel niet eens.
Ik weet niet welke spellen je speelt maar 9 van 10 halen dat niet.
Ik denk juist dat 9/10 dat wel halen, er zijn namelijk meer oude dan nieuwe spellen. Dat de huidige games niet op 160fps draaien op hardware van €4000 heb je waarschijnlijk wel gelijk.
Ja, dat zijn inderdaad echt de oudjes en dat kan ik mij wel voorstellen maar naar mijn mening is 60fps toch genoeg? Ik zie veel 120hz en 120fps voorbijkomen ;) maar het 120fps is gewoon te gecompliceerd nu en of dat met de huidige graphics gehaald gaat worden, denk het niet namelijk.

Persoonlijk snap ik echt die behoefte van 120fps niet :D Als ik 60fps speel met een game dan is dat toch genoeg?
Als ik een drop onder de 80 fps heb vind ik het persoonlijk juist al aan de lage kant worden. Je kunt bij CoD en CS:GO wel echt het verschil merken tussen hogere fps. Tuurlijk als je stabiel 60fps hebt zonder drops dan wen je daar ook wel aan, maar als je 144hz scherm en 144fps gesynchroniseerd gewend bent is 60 echt te weinig
Ik speel pc games op een vergelijkbare tv, met een 3090 haal ik in heel veel games ver boven de 60 FPS, als je een 40 serie kaart haalt met vergelijkbare prestaties ga je denk ik geen spijt krijgen.
Ik vind dat men teveel kijkt naar de allernieuwste games op 4k ultra, en dan 120 fps capped willen halen zonder DLSS, ja dan zul je flink je portemonnee moeten trekken, maar een 3080 of beter is RUIM voldoende voor zeer respectabele prestaties
Ja eens! Heb zelf een 2 slots EVGA ⚰️ 3080 in een mini itx liggen geheel luchtgekoeld. 4000 serie 2 slots ga ik me niet aan wagen plus dat waterkoeling dan echt wel een vereiste wordt.
4k120p ga je alleen met flinke upscaling halen of het moet een heel licht spel zijn.
kun je hier mee op 4k 120hz spelen denk je?, ik heb totaal geen verstand ervan, ben meer een console gamer
Het enige juiste antwoord: Het ligt er geheel aan welke game je neemt en op welke kwaliteit je deze instelt.

Geen enkele kaart trekt momenteel Cyberpunk 2077 op 4k Ultra en op 120fps+, maar een aantal (dure) kaarten komen wel in de buurt op Medium settings. Een Counter Strike zal je op veel lichtere kaarten op 4k 120fps+ kunnen spelen op hoge settings. Het ligt dus geheel aan de game (en hoe goed deze is geoptimaliseerd).

Bij een console wordt de game aangepast op de hardware en de hardware staat vast. Bij PCs heb je 1001+ configuraties, waardoor de gebruiker de game aanpast op wat hij/zij graag wil. Hoge kwaliteits settings en hoge resolutie, maar minder fps. Of lagere kwaliteitssettings en resolutie, maar meer fps. En alle mogelijke variaties daartussen...
Nee, tenzij je DLSS 2 en frame generation aan wilt zetten. Dan nog zal je het in veel gevallen niet halen.
Beter zoek je een review van TechPowerup, Hardware Unboxed, Gamers Nexus op van de 4070 Ti, haal daar 10-20% van af en dan heb je je antwoord.

Heeft je oled een vorm van VRR (Freesync/GSync)? Indien nee, dan zal je settings omlaag moeten zetten.

Edit:
Als je de settings lager zet dan zal het prima kunnen overigens.

[Reactie gewijzigd door Sp3ci3s8472 op 24 juli 2024 06:49]

Met DLSS aan, ja. Zeker als je een spel met DLSS 3 support speelt.

Native 4K 120Hz kan geen enkele videokaart van dit moment garanderen.
Je kan met elke beetje recente GPU 4K gamen, zeker nu DLSS en FSR een ding zijn. Wat settings omlaag en je komt een heel eind, hoewel ik denk dat de 4070 krachtig genoeg zal zijn om ook met hoge settings en DLSS knappe prestaties neer te zetten in 4K. Met wat oudere games moet native ook wel lukken. Er zijn genoeg mensen die op deze manier zelfs met een 3060ti 4K gamen en daar is niks mis mee. Ikzelf heb het een tijdje gedaan met een RX 5700 voor ik overstapte naar een 4070ti.
Als je 4k 120hz max settings wilt spelen heb je een 4090 nodig. Alles daaronder gaat het niet trekken. Wil je concessies doen naar medium/low settings is een 4080 een optie. Maar het is het eigenlijk net niet allemaal.
Hangt ervanaf welke game/setting maar verwacht geen 4k ultra settings dan zit je bij dit eerder op 60fps niet 120 .
Prima, als je je settings iets omlaag doet :)

Bron: Ik speel 4k120Hz op een 3070
Wow ik zat te denken om voor een ps5 te gaan vanwege 120hz 4K, dus dat is niet zo? Ook een illusie armer.
ik doe csgo 4K144 op een RTX3070 en die 144fps haal ik makkelijk. ligt er een beetje aan wat je wil spelen natuurlijk.
Ja en nee.
Oude games? Zeker. Op mijn 2080ti speelde ik flink wat games dik in de 100fps op 4k maar nieuwe games zijn natuurlijk zwaarder.
Nu heb ik een 7900xtx, die vergelijkbaar is met een 4080. Nu heeft hij volgens benchmarks gemiddeld een "gemiddelde game fps" van 4k 123fps(+-).
Maar nu vraagt de Last of Us remake een 7900xtx voor 4k 60, dus die is even snel in minder dan een half jaar 50% kwijt van de verwachtingen.

Dus voor nieuwe games, nee.
En ik durf zelfs bijna te zeggen dat een goed geoptimaliseerde ps5 game beter kan lopen dan een 4070.
De maker van Final fantasy 16 beweerd zelfs dat je op ze minst een " 2k pc" nodig hebt om de ps5 versie te evenaren, en dan denk ik toch snel aan een 4080.

Ben al een tijdje lid van de "pc master race gang" maar als ik nu naar de recommend specs kijk en het prijskaartje die daar aan vast zit(4x een PS5) dan trek ik toch nu zo mijn twijfels.
Mocht je hier een coherent antwoord op willen, in plaats van een spam van 400 behulpzaam bedoelde reacties, kijk dan even het forum mapje Desktop Koopadvies. :) Misschien is het wel goed te doen voor de games die jij wil spelen.
TDP zou meevallen. Snel gecheckt, en natuurlijk, puur op typenummer vergelijken is ook niet helemaal eerlijk, maar alsnog:
GTX1070: 150W
RTX2070: 175W
RTX3070: 220W
En nu deze 200W, is iig niet in dezelfde richting doorgegaan.
Inderdaad, ik heb een 670 vervangen door een 3070. PSU blijft dezelfde: 450W corsair VX. Waarom? Omdat het kan. De 12V tak kan de extra 60-80W nog wel gaan voeden. Dan is het toch 90% belast, maar kan nog steeds.

Ik zie vaak dat man een zo'n sterk PSU koopt dat onder volle belasting gebruikt nog steeds 60-70% van het maximum. En dan in idle misschien 5-10%? Dat is echt niet de bedoeling. De doel is ong. 80%, dan zijn de voedingen meest effectief.
Waarom? Omdat het kan.
Het allemaal aan een 400W HKC-voeding hangen kan ook, dat wil niet zeggen dat het een goed idee is...

Waarom niet? Omdat de 3070 power spikes heeft die 100W boven het standaardgebruik uitschieten, in tegenstelling tot een GTX670, dus die GPU haalt echt regelmatig de 300W-350W. En dat op een 450W-PSU uit 2009, waarvan de fabrikant nooit op dit soort power spikes heeft geanticipeerd... Over "echt niet de bedoeling" gesproken. Die voeding ondersteunt ook helemaal niet de powerstates van moderne hardware.

Mocht dit iemand op ideeën brengen, probeer het dan vooral niet bij een RTX 40x0-GPU, want die hebben nog veel heftigere power spikes, daar is de PCIe-specificatie zelfs voor opgerekt (en flink ook).

Ik weet niet welke CPU eraan hangt, maar als je een keer leuk furmark plus prime 95 draait heb je best kans dat die voeding direct boem zegt.

Die 80% is, behalve incorrect, ook gewoon niet heel relevant. Pas bij echt lage vermogens kakt de efficiëntie doorgaans pas goed in, het efficiëntieverschil tussen 40%, 60% of 80% belasting is echt lood om oud ijzer. Wat wél inefficiënt is: een voeding met een efficiëntie van 83% (80 plus, nog niet eens bronze) uit de steentijd gebruiken, terwijl elke moderne budget-voeding al veel efficiënter is...

[Reactie gewijzigd door bwerg op 24 juli 2024 06:49]

Ik geef je groot gelijk, en had ook twijfels toen het ging aan het aanschaf van een nieuwe PSU (heb ook zelfs de PSU tier lijstje goed door-ge-googled).

Maar... er is gewoon geen informatie over de duurzaamheid van een PSU. Vuistregel is, na 10 jaar vervang 't ding gewoon. Maar dan ook is het vuistregel om de nodige belasting 50% overschatten, he?

Ik heb goed nagelezen, en blijkbaar biedt mijn huidige corsair VX bescherming tegen overbelasting en oververhitting. Ik heb 't ook apart gezet en met blote oog even gecheck'd. Maar alles was oke, geen dikke condensators of beschadigde onderdelen.

Dus in theorie zou het wel werken, en dat is ook wat in het praktijk gebeurt.

Ik weet niet over de powerspikes van nvidia, volgens mij was dat een echt grote probleem alleen in de 40 serie. Dus betekent dat dat de 230W TDP is eigenlijk niet waar? Overal heb ik 220-230W gelezen.

Het CPU is trouwens een 5700X (zonder overclock natuurlijk), en anders zit er nog een NVME ssd en de toetsenbord/muis aangesloten, that's all.

[Reactie gewijzigd door harakiri576 op 24 juli 2024 06:49]

"TDP" betekent "thermal design power". Oftewel, hoeveel de warmte de koeling af moet kunnen voeren. Warmteproductie is op zich gelijk aan stroomverbruik, maar dat is buiten stroompieken gerekend. De TDP van 230W is dus wel waar, het zegt alleen niks over de belasting op de voeding.

Daar komt nog bovenop dat moderne hardware regelmatig zijn kloksnelheden (en daarmee zijn verbruik) aanpast op basis van de temperatuur, onafhankelijk van de TDP. Dan geeft de TDP aan wat de koeling minimaal af moet kunnen voeren, maar als de koeling beter is gaat het verbruik daar gewoon hard overheen. Bij CPU's is dat nog een stuk extremer dan bij GPU's, maar toch.

De corsair VX was kwalitatief wel een goede voeding, dus op zich heb je gelijk dat het waarschijnlijk nog wel goed gaat bij deze hardware. Maar het is qua efficiëntie en features inmiddels wel een gedateerde voeding.
Inderdaad, ik heb een 670 vervangen door een 3070. PSU blijft dezelfde: 450W corsair VX. Waarom? Omdat het kan. De 12V tak kan de extra 60-80W nog wel gaan voeden. Dan is het toch 90% belast, maar kan nog steeds.
Dat is echt vragen om problemen.. zo dicht op de grens van de limiet van je voeding gaan zitten, maar doe wat je niet laten kan.. als de boel knalt is het jouw hardware die er kapot aan gaat. :+
Ik zie vaak dat man een zo'n sterk PSU koopt dat onder volle belasting gebruikt nog steeds 60-70% van het maximum. En dan in idle misschien 5-10%? Dat is echt niet de bedoeling. De doel is ong. 80%, dan zijn de voedingen meest effectief.
Ik weet niet wie je dat vertelt heeft maar dit is incorrect.
PSU's halen hun best efficiency eigenlijk altijd rond de 50% belasting.
Daarna gaat de efficiency alleen maar omlaag.
Hier een stukje uit een video van jayztwocents die het goed uitlegt.

[Reactie gewijzigd door xenn99 op 24 juli 2024 06:49]

Lekker dramatisch.

Moderne voedingen gaan gewoon uit bij overbelasting, er gaat niets kapot (behalve je windows install als het op een verkeerd moment gebeurt)

Een voeding van 15 jaar oud begint toch wel een beetje "hmm misschien even een nieuwe halen" te worden, maar dat ligt niet aan die 450 watt.

[Reactie gewijzigd door Gamebuster op 24 juli 2024 06:49]

"Moderne voedingen gaan gewoon uit bij overbelasting"
En dit is dus niet altijd het geval, zelfs niet bij een gerenommeerd merk als Gigabyte waarbij de GP-P750GM en GP-P850GM zeer berucht zijn omdat ze bij veel gebruikers spontaan ploffen/ploften.

Het ene model voeding is duidelijk de andere niet, zelfs niet bij hetzelfde merk.

[Reactie gewijzigd door Pietjeball op 24 juli 2024 06:49]

https://www.youtube.com/watch?v=7JmPUr-BeEM

hah. Nou, dit lijkt me uitzonderlijk (hoop ik).

Voortaan haal ik ze wel bij Seasonic

[Reactie gewijzigd door Gamebuster op 24 juli 2024 06:49]

Wat ik aan die doemverhalen nooit snap is dat de voeding op het gespecificeerde wattage moet kunnen werken. Waarom dan die belachelijk grote marges? Tuurlijk, leuke manier voor de fabrikanten om duurdere producten te verkopen, maar ze zeggen zelf dat 'ie het moet kunnen.

Wellicht iets met hele snelle fluctuaties die dan boven het maximum uitkomen als je er echt óp gaat zitten maar het is goed als mensen de randjes op blijven zoeken om zin van marketingonzin te onderscheiden.
Ik gebruik 1000watt voeding. En heb een am4 r5 3600, 16 gb, rx6600xt. Ik verbruik max maar 300 watt.
Ok ik had vroeger 2x hd6970, daarom heb ik een 1000 watt voeding. Maar minder verbruik op je voeding is beter.
Een voeding is nochtans een stuk efficienter naarmate de load stijgt, tot pakweg 50-60%, zie ook het comment hieronder. Zoek dus altijd de sweet spot!
De efficientie die op het label prijkt, bijvooreeld Platinum, wordt alleen gehaald bij een load boven de 75%. Met andere woorden: jij belast de voeding maximaal voor 30% maar haalt nooit de rated 90% efficientie. Nu scheelt het maar een paar watt, je was dus *ietsje* zuiniger uit geweest met een 500W voeding, maar een nieuwe voeding kopen is vaak nog minder voordelig ;)
Edit want bovenstaande is onjuist.

[Reactie gewijzigd door TheGreatAtuin op 24 juli 2024 06:49]

Nog iemand die de labels niet goed begrepen heeft..
Een voeding haalt zijn beste efficiency rond de 50% daarna gaat het alleen maar naar beneden.

Die 80 plus platinum gaat over iets heel anders, namelijk dat de voeding 80 procent van het opgenomen vermogen uit de muur om moet zetten naar stroom voor de pc.

Het gaat er daarbij dus puur om hoeveel "verlies" de power supply heeft bij de conversie van 220v naar 12v.

Over het algemeen is het dus het beste om een voeding te kopen die 2 keer zo sterk is als wat je verwacht te gaan gebruiken.

Er zijn verder ook niet echt nadelen (op de aanschafprijs na) want een voeding gebruikt alleen zoveel stroom als de pc nodig heeft.
Dus ook al heb je een 1000 watt voeding, als je pc slechts 500 gebruikt zal de voeding ook maar 500+~10-20% uit de muur trekken.
Ik begrijp die labels prima, maar ik heb curves zoals deze al lang niet meer bekeken ;)
Je hebt helemaal gelijk over de sweet spot - ik heb dat simpelweg fout herinnerd. Heb m'n comment ook aangepast.

Mijn punt over de 80+ efficientie blijft wel staan (soort van): een voeding moet X% efficient zijn bij de conversie bij een bepaalde belasting, en dat zijn meerdere ijkpunten zoals 25% load, 50% load etc.

[Reactie gewijzigd door TheGreatAtuin op 24 juli 2024 06:49]

Weet je in ieder geval wat er aan de hand is bij die plotseling opspelende BSOD's.
Maar wel alsnog een stijgende lijn. Met 200W dan lichtelijk lager, het is alsnog een pak (33%) meer dan de GTX1070. Hopelijk zet de dalende lijn qua verbruik en prijs door!
Nee de lijn daalt. Er staat toch 3070 220/ 4070 200?

Reken overigens maar niet op een lage prijs. Hun 30 serie is ook nog steeds te duur.

[Reactie gewijzigd door WillemJanJansen op 24 juli 2024 06:49]

Dat zeg ik toch ook? Met 200W is het lichtelijk lager (een daling van nog geen 10% is niet veel, maar alsnog wel 33% meer verbruik tov een GTX1070). Om dan te zeggen dat de dalende lijn doorzet (of dat met 1 GPU die minder verbruik heeft de lijn dalende is) is wat (te) vroeg denk ik. Dat zal de 5070 moeten aantonen volgend jaar. ;) Gezien alles tegenwoordig steeds duurzamer moet, lijkt het mij vrij logisch als in GPU en CPU land deze trend ook ingezet wordt.

[Reactie gewijzigd door CH4OS op 24 juli 2024 06:49]

Dat zou je denken, maar Intel bewijst het tegenoverstelde met hun 13de generatie CPU's.
bij die cijfers zou het mooi zijn als je verbetering in % zou neerzetten.
Of is er ergens zo'n tabel te vinden?
Zou idd erg mooi zijn, ik heb een 3070 en dan zou er een 4070 in kunnen zonder de voeding aan te passen
Heel mooi inderdaad, ik zat wel naar de 4070 Ti te kijken, maar ik vind 285 watt TDP wel erg gortig; versus de 220 watt van de 3070. Zou toch mooi zijn als hij zo'n 40% sneller is tegen een TDP dat 10% lager is.
zouden ze nog steeds die 12 pins erop zetten ook al heb je die verreweg niet nodig?

200w vind ik wel de sweetspot qua verbruik
Ik verwacht dat je voor de nieuwprijs een hele mooie vorige generatie kaart kunt kopen met de zelfde prestaties, of misschien zelfs beter.
Nee dat is dus niet zo, de 3080 is nog amper te krijgen en kost al bijna net zo veel als de betere 4070 Ti, deze zal onder de huidige prijs van de 3080 komen. Dus zal wel 799 zijn, hoopte op 699, maar er moet ook nog een 4060 en 4060 Ti onder en die worden denk ik geen 499 en 599.
voor nu wordt het zo 750 dollar. dus hier zo 800 misschien. Veelste veel natuurlijk. Maar de goedkoopste 3080 is hier te koop voor zo 789 euro. en beschikbaar dus. waarschijnlijk zal de 4070 ongeveer net zo snel zijn als een 3080.
vraag is of die vorige generatie dezelfde performance per watt heeft en net zo stil is bij gelijke performance.

[Reactie gewijzigd door PjotterP op 24 juli 2024 06:49]

Rtx4070 heeft als goed is prestaties van een rtx3080. Hoeveel koste de 3080 msrp, 700-750. Dus deze word zoveel in dollars. En word dus boven 700 euros en kan naar 900 gaan voor duurste variant.
Prijzen van Nvidia is tegenwoordig makkelijk.
Kijk hie het presteerd vergeleken met vorig generatie. En de prijs is zelfde als zelfde presterende van vorig generatie. En zo worden gpu's alleen maar duurder en nooit meer goedkoper als het aan Nvidia ligt.
Klopt ook weer niet helemaal wat je hier schetst. Dan zou een RTX 4070TI ($799) evenveel moeten kosten als een RTX 3090TI ($1999) wat absoluut niet het geval is.

https://www.pcworld.com/a...e-of-the-generations.html
daarom ga ik ook geen pc meer bouwen als de mensen te hebzuchtig zijn geworden. Dan maar genoegen nemen met mijn smartphone en een ps5 of een xbox series x
Volgens de speculaties zou de RTX 4070 de AD104 chip krijgen en er wordt gezegd dat het 5888 shader cores zal bevatten. De RTX 4080 mobile heeft er 7424 en met zijn TGP van 175W presteert het beter dan een RTX 3080 FE (320W TGP) in RT titles volgens computerbase.de zijn review van de MSI GT77.
Ik denk dat het wel een goede indicatie is van de mogelijke prestaties. Alles is uiteindelijk afhankelijk van de prijs voor GPUs tegenwoordig.
Wel gelukkig 12GB GDDR6X.

https://www.techpowerup.com/gpu-specs/nvidia-ad104.g1013
https://www.computerbase....4080_laptop_gpu_im_detail

[Reactie gewijzigd door slamhk op 24 juli 2024 06:49]

Alles is uiteindelijk afhankelijk van de prijs voor GPUs tegenwoordig.
Verwacht niet minder dan 800 euro: de 4070 Ti is tenslotte ongeveer 1000 euro, groter dan 20% zit er nooit tussen een Ti en non-Ti kaart. Zie de historische MSRPs:

3070 Ti/3070: 599/499 -> Ti was 17%duurder
3060 Ti/3060: 399/329 -> Ti was 18% duurder
1070 Ti/1070: 449/379 -> Ti was 16% duurder

De 2000 serie Super kaarten heb ik even buiten beschouwing gelaten, omdat deze eerder als een mid-gen refresh werden gelanceerd, niet naast de non-Super kaarten. deze hadden dan ook dezelfde MSRP als de non-supers.
de 4070 ti zit nu iets over de 900€, dus ik hoop toch dat die eerder rond de 750 gaat landen (introductie mss wat hoger)
Oh, je hebt gelijk!

Nou ja, in dat geval dus toch onder de 800: 80% van 900 is 720.

Mijn gok is dan een MSRP van 750 euro, met in het begin winkelprijzen boven de 800.
Is toch gewoon belachelijk.. 70 tier kaart voor ruim 800.. in welke slechte film zijn we beland?
Klopt mooi dat je het onder elkaar zet.
Wat mij betreft bestaat er vrijwel ook geen midden-segment voor NVIDIA meer, want dat is de generatie ervoor (aka Apple model; "De generatie ervoor is beter dan het nieuwste editie voor velen"). Altans zo zie ik het. Inmiddels is NVIDIA gestopt met het verkoop van de FE (niet dat het in NL al gemakkelijk was), maar je bent dus afhankelijk van de AIB's die hierbij kunnen profiteren door >2 jaar ver boven de MSRP hun GPUs kunnen verkopen.

Het is opzich wel ok om nu een PC te bouwen, maar voor men die willen upgraden zijn zulke prijzen nog steeds vreemd aangezien je vrijwel altijd >200 EUR betaald. Ik heb in mijn eigen kring men zien overstappen naar consoles weer aangezien je ook niet meer te maken hebt met PC releases die te veel mankementen hebben op release :'( .
ze hebben gewoon zwaar misrekend met het wegvallen van de miners en willen die oude voorraden aan dezelfde prijs blijven verkopen, da's de enige reden waarom de 40-series zo hoog zijn ingezet qua prijs.
Het zal nog wel een tijdje duren, maar het middensegment kunnen ze gewoon niet negeren aangezien mensen nog steeds nieuwe kaarten van 400-500 willen kopen en nu gewoon wachten.
Even ter verduidelijking de 4070 ti is ruim 50% sneller dan de 3070 ti. Iedereen heeft het maar over de hoge prijzen. Ik heb net een nieuwe pc gebouwd met een 4070 ti. Mijn vorige pc van 2019 heb ik ook nog. Je kunt niet vergelijken met 4 jaar terug. Die prijzen ga je niet weer zien. Kijk maar naar de moederborden, voedingen die ook duurder zijn geworden of loop is door de supermarkt. Alles is duurder geworden. De 4070 ti kun je voor 909 euro kopen en dan heb je praktisch de prestaties van een 3090 ti met een veel lager verbruik. Ik vind het allemaal maar overdreven en aanstellerij met die ophef over de prijzen. Tuurlijk koop ik het ook liever goedkoper, maar tijden zijn veranderd mensen. Koop een console als je een stuk goedkoper uit wilt zijn.
nvidia heeft het zélf gezegd:
25/08/22 nvidia hint op verdere prijsverlagingen
Nvidia bevestigt dat het met een grote voorraad onverkochte videokaarten zit. Huang zegt daarover dat Nvidia heeft geproduceerd voor een markt met veel vraag. "En dus kwamen we te zitten met een te grote voorraad. Onze strategie is om aan partners minder te verkopen dan zij aan klanten verkopen, zodat zij hun voorraad kunnen corrigeren. Dat gaan we in de komende kwartalen doen."
01/07/22 amd, apple en nvidia gaan minder chips afnemen
08/08/22 nvidia verlaagt omzetverwachting
17/11/22 nvidia noteert opnieuw omzetverlies door afnemende vraag
23/02/23 nvidia: omzet uit gamingproducten daalde vorig jaar met 27%

ze willen hun winst natuurlijk blijven pakken en die oude kaarten kunnen ze daarom niet met verlies verkopen, dus de enige manier is om de verkoop te spreiden in de tijd en de vraag naar nieuwe kaarten afremmen door ze duurder in de markt te zetten.

Natuurlijk gaan de prijzen hoger zijn dan vroeger, inflatie is geen illusie, maar de grootste absolute omzetten worden nog altijd in het middensegment gehaald, die markt wil je niet opblazen, want de fabcapaciteit voor die chips is al lang vastgelegd terwijl hun vaste kosten blijven doorlopen. Dat zag je bij het begin van de schaarste door miners en het tegenovergestelde zie je nu, met dat verschil dat voorraden achterhouden veel makkelijker is dan fabs opschalen.
Natuurlijk is de nieuwe generatie sneller dan de vorige.
“Vroeger” was zo’n nieuwe generatie even duur als de vorige en noemden we dat vooruitgang. Nu is iedere stap significant duurder dan de vorige en maken we onszelf wijs dat de verbeterde prestaties het helemaal waard zijn.
En ze blijven stug met 8GB zitten in de 4060 en 4060 Ti, dus dat wordt ook weer een te dure kaart eigenlijk, in ieder geval voor mij geen upgrade vanaf een 3060 Ti. Blijft de 4070+ over.
8GB voor zulke kaarten is echt belachelijk weinig, zelfs 12,GB voor de 40xx serie is al schandelijk. 16GB zou het nieuwe minimum moeten zijn voor 40xx kaarten.
Ja ik snap dat ook niet, met AI klapt ie er al regelmatig uit met 8GB.

Doe op z'n minst 12, ik wachtte vorig jaar met smart op de 3070 16GB, was gerucht, maar die kwam nooit.
Mijn GTX 1080 was ook 750 euro in 2016.
4070 - 3080 12gb prestatie voor 3080 12gb prijs. Halleluja! ;)
Ik had mijn ogen ook op een 4070, maar ultiem ging voor 1-1.5 jaar oud gigabyte 3070 voor 350 euro. Volgens mij kan je betere prijs/prestatie niet vinden.
tenzij hij na 3 maanden stuk gaat en je geen garantie meer hebt
Dat kan gebeuren, dat is een risico die je neemt. Hij heeft wel 250 euro korting op de nieuwprijs.
na 1 of 1,5 jaar heb je nog steeds garantie.
Veel kaarten hebben zelf 3 of meer jaar garantie.
Yep, en das erg jammer. Voor 500 had ik hem zo gekocht. Maar niet voor 800.
Yesterday’s price for yesterday’s performance :+

Ik ga deze reeks ook met trouwe 3080 fe gekocht tegen msrp uitzitten totdat er iets waardigs tegen redelijke prijs zal komen.
Ik verwacht een teleurstelling wanneer we de prijs zien. Zoals met deze hele generatie tot dusver, alsook de vorige generatie.
De vorige generatie advies prijs was bij lancering duur maar niet zo extreem als deze.
Helaas is er vrijwel geen kaart voor de adviesprijs verkocht
Als ik zo naar de hedendaagse prijzen kijk van de Nvidia videokaarten dan zal dit denk ik de meest betaalbare 'high-end kaart' worden voor velen. En dat dan tegen een denkelijke prijs waarvoor je voor een paar jaar terug een echte high-end kaart kon kopen.
Tja, zie de laatste best buy videokaarten hier op tweakers: momenteel is AMD simpelweg de betere keus, tenzij je veel geld wilt weggooien besteden aan RT.
DLSS lijkt me een aantrekkelijker punt dan RT nog. En beide features krijgen wel redelijk wat games waarin ze te gebruiken zijn nu. Wisselt nog per persoon hoeveel maar het begint wel te komen nu.
Voor mij persoonlijk zit ik wel ietwat vast aan de Nvidia videokaarten vanwege de Cuda cores en rendering van video's. Mijn ervaring met AMD videokaarten is gewoon minder op dat gebied qua ondersteuning binnen b.v. Adobe Premiere Pro. Maar goed, voor video editing heb je dan ook weer niet echt een high-end videokaart nodig. Momenteel werk ik met een Nvidia RTX3050 die het verder prima doet en ook voor mij snel genoeg rendert.
Tuurlijk, er zijn zat redenen toch voor NVIDIA te kiezen, het is alleen dat op dit moment de price-performance domweg slecht is t.o.v. AMD - dat kan er over een paar maanden weer anders uitzien!
O nou, als AMD videokaarten goed ondersteund werden in b.v. Adobe Premiere Pro zou ik net zo goed voor AMD kiezen. Dus bij mij is het puur uit noodzaak maar verder niet omdat ik Nvidia fan ben of ook niet AMD fan.

Ben er eerder wel blij mee dat AMD weer de 'oude' tour ingeslagen is en weer goedkoper geworden is dan Intel met dezelfde en zo niet zelfs betere prestaties.
Dat zal wel weer een rib uit iemands lijf gaan kosten vrees ik.
Als je een nier verkoopt kun je je de rest van het systeem er ook bij kopen i.p.v. alleen de videokaart.
Eerst even een review van tweakers afwachten 🤗. Neem aan dat tweakers er voorlopig niks officieels over mag zeggen. NDA, maarja wat de ander zegt mag je wel herhalen.

Op dit item kan niet meer gereageerd worden.