Gerucht: Nvidia brengt eerste RTX 4000-kaarten halverwege juli uit

Nvidia brengt wellicht in juli de eerste RTX 4000-videokaarten uit. Dat blijkt uit informatie van leaker kopite7kimi, die vaker juiste details over nog niet aangekondigde Nvidia-gpu's heeft gedeeld.

Vorig jaar stelde kopite7kimi al dat de videokaarten op basis van de Lovelace-gpu's 'eerder' zouden uitkomen dan de kaarten van de huidige generatie. De RTX 30-gpu's werden in september aangekondigd. Nu claimt de leaker dat het gaat om een release aan het begin van het derde kwartaal.

In de afgelopen maanden is er al veel informatie naar buiten gekomen over de gpu's die bekendstaan onder de codenaam Lovelace. De grootste gpu uit de serie, de AD102, zou over maximaal 18.432 CUDA-cores beschikken. Dat is bijna een verdubbeling dan het aantal cores van de grootste Ampere-gpu, die 10.752 cores heeft. Ook zouden de gpu's veel meer cache krijgen dan hun voorgangers.

De eerste videokaarten in de RTX 4000-serie zijn vermoedelijk hoog gepositioneerde modellen. Het zou bijvoorbeeld om de RTX 4080 en RTX 4070 kunnen gaan. Nvidia houdt op de Computex-beurs in Taiwan eind mei een keynote. Mogelijk geeft de fabrikant daar zelf informatie over de komende videokaarten.

Update, 11:51: Kopite7kimi noemt nu specifieker halverwege juli. Het artikel is daarop aangepast.

Videokaart Gpu Geheugen Tgp
RTX 4090 AD102-300 24GB GDDR6X @ 21Gbit/s 450W
RTX 4080 AD102-200 16GB GDDR6X @ ? 400W?
RTX 4070 AD104-400 12GB GDDR6 @ 18Gbit/s 300W

Specificaties volgens geruchten

AD102-gpu
Opbouw van AD102-gpu, volgens kopite7kimi

Door Julian Huijbregts

Nieuwsredacteur

16-05-2022 • 10:12

280

Reacties (280)

280
278
82
2
0
136

Sorteer op:

Weergave:

Ligt het aan mij of is dit heel snel na de 3000 lijn? Ik heb het idee dat die nog amper verkrijgbaar zijn op de markt en de opvolger al weer van de band rolt. Misschien is het verstoorde perceptie van tijd door de pandemie, maar naar mijn idee zijn de 2000-lijn kaarten veel langer relevant geweest?
Valt wel mee. Nvidia doet al langer een nieuwe videokaart generatie ongeveer elke 2 jaar.
900 = 2014
1000 = 2016
2000 = 2018
3000 = 2020
4000 = 2022
weet je wat het nu het rare aan dit is,is dat de vorige generatie gewoon dezelfde prijzen blijven hanteren.
Ik heb het nu over de 3000 serie, als ze met deze nieuwere 4000 serie komen blijven de prijzen van de 3000 serie bijna hetzelfde.En dat vind ik een beetje vreemd bij nvidia.Waargoed het zijn wel goede producten volgens mij zijn die videokaarten de enige kaarten die altijd goed in de markt blijven gehanteerd.Moederbord en processor is na de volgende platform geen ruk meer waard, maar die videokaarten blijven gewoon hoog staan.Hoe dat komt weet ik ook niet, het zal wel de marketing van nvidia zelf zijn.De vraagprijzen zijn sinds covid 19 flink omhoog gegaan ik ben benieuwd of ze die prijzen nog naar onder gaan duwen, het was weer een reden om meer te betalen voor je videokaart.
Iedereen is weer volop aan het werk nu, als ze eerlijk zijn gaan die prijzen omlaag.

[Reactie gewijzigd door rjmno1 op 23 juli 2024 11:23]

Meestal hou ik er niet van om taalnazi uit te hangen maar ik kan het niet laten.... Na een punt komt een spatie. Dat maakt je tekst een stuk leesbaarder en zorgt er ook voor dat de browser de regel kan afbreken indien nodig. Sorry, min me maar...
https://nl.m.wikipedia.org/wiki/Beletselteken bestaat uit 3 puntjes met een spatie ervoor
:+
Nogal lastig met autocorrect.
Heb ik nooit last van, ook niet op mijn telefoon, net getest ...
Mijn autocorrect kan hier hier zelfs 1 leesteken van maken, kijk maar naar deze …
https://www.compart.com/en/unicode/U+2026
Omdat ik SwiftKey gebruik, en die zorgt er voor dat je niet plenkt met een extra spatie na een punt. Unicode handmatig is me te omslachtig.
Dan ligt het dus niet aan autocorrect, maar aan SwiftKey ...
Yep zit wat in. Op iOS en met Gboard net geverifieerd, zit deze bug inderdaad niet in.

EDIT: Betrof de auto space optie in SwiftKey. Of/hoe het bij andere keyboards ook zo werkt weet ik niet. Weet ook niet of die standaard aan of uitstaat.

[Reactie gewijzigd door Jerie op 23 juli 2024 11:23]

Ik denk dat het ook komt dat bijv 2000 serie en ouder nog goed 2de hands gaan vanwege de goede drivers van nvidia, dat had amd toen gewoon niet op orde, nu wel, maar ja het leed is geschiet ;)
En ik denk dat ook veel mensen worden beïnvloed door influencers die nvidia aanprijzen ipv amd, terwijl amd ook gewoon goede en betere bang for the buck kaarten heeft.
ze zijn idd nog altijd goedkoper die videokaarten van amd, maar die zijn ook met de covid flink omhoog gegaan maar nog altijd goedkoper dan nvidia natuurlijk.
Het is normaal gesproken niet zo dat NVidia nog massaal 3700 kaarten gaat maken als de 4700 al in de winkels ligt. Dan is het toch vooral een kwestie van vraag en aanbod wat winkels en tweedehands verkopers rekenen voor die oudere kaarten. Vraag is er de afgelopen generaties telkens nog genoeg (zie bijv. je eigen post waarin je aangeeft graag zo'n kaart te kopen) en het aanbod is beperkt dus dan zul je niet snel enorme kortingen zien.
Het feit dat de nieuwe 4000 serie zo duur is, zorgt het ervoor dat de vraag naar 3000 serie kaarten hoog blijft, waardoor de prijs van de 3000 serie hoog blijft, vooral als die kaarten schaars blijven. Is gewoon typisch marktwerking (vraag en aanbod).
of het is te kort aan chips.Dat ze moeten wachten met de productie zodat ze de kaart niet volledig kunnen maken.
3000 series is prima te verkrijgen en inmiddels al een tijd uit. De ti updates zijn ook al wel een tijdje uit.

Bovendien is er stevige concurrentie en is de max wel uit de 3000 serie geperst.

[Reactie gewijzigd door PjotterP op 23 juli 2024 11:23]

Ik ben wel benieuwd wat dit met de prijzen van de 3000 gaat doen. Kun je dadelijk een 3080 voor 400 of 500e krijgen?
Dat waren wel de richtprijzen volgens mij, dus zou goed kunnen.
Ehhh nee.

reviews: Nvidia GeForce RTX 3080 - Maakt Nvidia de hoge verwachtingen waar?
De 3080 werd dus op 719 euro MSRP gezet.

Maar alles zal afhangen van wat de markt doet, en hoeveel beter de kaarten zullen zijn. Kan me niet voorstellen dat de met het uitbrengen van 4000 serie alle problematiek rond prijzen/voorraad/miners/scalpers/grondstoffen/chipvoorraden etc. allemaal opeens is opgelost. De werkelijke prijs (dus niet de MSRP, of een FE-kaart) van een echte 4080 kaart zal zo maar weer 1000 eu of meer zijn en wellicht dat een 3080 dan eindelijk richting de 700eu/800eu gaat zakken.
400/500 euro is meer voor 3060ti/3070.

Scroll voor een overzichtje van prijzen 3060 ti - 3090
https://www.club386.com/n...-edition-cards-in-europe/
Dat ligt aan zeer veel onderdelen, de markt heeft tijdens Corona veel meer vraag gehad dan dat er aanbod was. Er was een productie tekort, mensen waren meer thuis dus waren van plan een systeem te bouwen, het minen van coins was winstgevend en zorgde voor een enorme vraag naar kaarten.

Inmiddels is het tij aan het keren:
- Mensen mogen weer naar buiten
- coins hebben in afgelopen week een daling laten zien, Luna was echt dramatisch.
- Er zijn nog steeds chip tekorten.
- Men spreekt van een mogelijke depressie waardoor retailers op dit moment een vermindering in aankopen zien.

Het worden interessante tijden qua videokaarten.
De vraag is nog steeds hoog, ondanks dat veel mensen nu wachten op de volgende generatie kaarten. Dat is ook te zien aan het feit dat de prijzen nog steeds niet genormaliseerd zijn. Ik denk eerder dat de RTX4000 direct uitverkocht is, en de mensen die niets hebben dan maar overgaan op de oudere kaarten. Hetzelfde gebeurde met de release van de RTX3080. Toen schoten de prijzen voor oude kaarten ook de lucht in, ineens betaalde je voor een tweedehands GTX1600 dubbel de adviesprijs.

Ik denk dat je voor 400-500 euro nog geen RTX3050 zal kunnen krijgen.
Weet niet in welke wereld je leeft, maar de 3000 serie is hier in Canada nog steeds erg slecht te krijgen. Heb vorige week eindelijk mijn 3080 kunnen ophalen die ik vorig jaar begin Januari heb besteld bij een grote computer winkel. De prijzen liggen ook nog steeds hoog tov MSRP en scalpers doen nog steeds goede zaken. Best Buy heeft hier bijvoorbeeld af en toe zogenaamde drop events voor kaarten uit de 3000 serie die at random gebeuren en waar mensen veelal >12 uur voor in de rij staan, zonder dat ze weten welk merk, welk model en hoeveel van ieder er gedropt worden bij het betreffende filiaal waar men staat te wachten. Dus nee, makkelijk te verkrijgen absoluut niet!
Wel voor ongeveer 150-300 euro meer dan ik er op release voor heb betaald
Je reactiescore staat nu op 0, maar je hebt wel een punt natuurlijk. Ongeacht tekorten is het zeer onwenselijk dat je 2 jaar na release nog boven MSRP zit.

Heb het idee dat ze de prijzen nu ook maar zo hoog laten omdat mensen het toch wel betalen.
Ik denk dat de vraag nog steeds heel hoog is. En dat terwijl veel mensen nu ook wachten op de nieuwe kaarten. Ik voorzie weinig goed nieuws voor de komende generatie. Direct uitverkocht, waarop mensen zich maar op oudere kaarten storten die ook de lucht in schieten.
Valt mee. De 3000 serie was iets van 2 jaar geleden. Dat is geen ongebruikelijke periode. Het lijkt alleen kort omdat videokaarten nog steeds te duur en moeilijk verkrijgbaar zijn.
Niet meer moeilijk verkrijgbaar. Nog steeds wel (veelte) duur.
Zo lang de verkoopprijs boven de adviesprijs ligt, kun je wel spreken over moeilijk verkrijgbaar - namelijk niet voor de adviesprijs.

2 jaar na een release met de 4000 serie die eraan komt, is zelfs de adviesprijs veel te duur in een eerlijke markt.
1.5 jaar geleden.
klopt en wanneer 4000 serie uitkomt, 2 jaar.
Door al het Coronagedoe lijkt de tijd sneller te gaan. De 3080 is bijna 2 jaar oud.
Zit elke keer gewoon 2 jaar tussen, dus ligt toch echt aan jou :)

- 10xx 2016
- 20xx 2018
- 30xx 2020
- 40xx 2022
Gemiste kans op 'Ampere verkrijgbaar zijn'
Hetzelfde hier maar we moeten niet vergeten dat het al bijna 2 jaar sinds de komst van de RTX30(!!) Zo erg was de beschikbaarheid en de prijzen zijn ook nog steeds absurd.
Veel te snel wat mij betreft
omdat je de huidige serie nog scalped of zojuist boven mrsp prijs eentje aangeschaft hebt?
Nee. Sowieso te snel achtereenvolgend. By the way heb ik vorige week net een RX 6750 XT gekocht in de AMD shop voor adviesprijs. Voor mijn eerste mini itx build.

[Reactie gewijzigd door BlueBird022 op 23 juli 2024 11:23]

Zoals hierboven aangegeven er zit vrijwel 2 jaar tussen. Dat is niet echt snel toch.
Elektronica moet lang meegaan vind ik. Iemand die er gevoelig voor is en de drang heeft om te uprgaden ( ik zelf niet ), voelt zich misschien wel genoodzaakt om elke 2 jaar te upgraden. Kost heel veel. Ik wil er sowieso 5 jaar mee kunnen doen en geen gezeur hebben.
LOL, ze zijn ook Amper verkrijgbaar.
Inmiddels zijn de 3 serie prima leverbaar, echter niet voor de prijs die je wil maar dat is een ander verhaal.
Al best lang. Meer dan 1,5 jaar.
Dat komt doordat de 3 serie lange tijd niet leverbaar was voor de gewone consument, hierdoor lijkt het dat de kaart maar kort is geweest.
Hopen dat het geen paper launch gaat zijn. Anders gaan de oude GPUs weer in prijs omhoog.
Ik ga daar wel al van uit. De vraag is nog steeds hoog, de prijzen nog steeds niet genormaliseerd. En scalpers hebben ook wel door hoe lucratief videokaarten zijn. Die RTX4000 kaarten zijn direct uitverkocht, net als destijds bij de RTX3000. De mensen die nu hun aankoop uitstellen tot de release van de nieuwe kaarten zullen zich dan ook wel op oudere kaarten storten. Die prijzen gaan wel weer flink omhoog.
de prijzen nog steeds niet genormaliseerd.
Is dat zo? Laat ik als voorbeeld nemen, de RTX 3080, allen de Founders Edition zou een MSRP hebben van €719. Zelfs voor de enorme prijs verdubbelingen, was al duidelijk dat de producenten nooit een videokaart voor die prijs inelkaar konden zetten door de prijsstelling van Nvidia aan de producenten...

Dat is ondertussen alweer 20 maanden geleden, in die tijd zijn er een hele hoop chip foundries die structureel de prijzen hebben verhoogd, laatst nog Samsung met 20%. Dus kan je jezelf afvragen hoe realistisch die 'magische' MSRP van €719 is, imho geheel niet! Pak de MSRP, gooi er 10% bovenop die de andere producenten zouden rekenen voor een nieuwe videokaart en nog eens een algemene 20% inflatie correctie vanuit de chip foundries, dan is de laagte prijs van €949 voor een RTX 3080 niet heel vreemd...

Aan de andere kant, de RTX 3090 Ti had een MSRP van €2250 bij introductie, nog geen twee maanden geleden. Echter kan je deze al krijgen vanaf €1999, dus significant (-11%) onder de Founders Edition MSRP...

Zeker in Nederland ga ik me dan afvragen of er wel zoveel vraag is naar mini kachels in het warmste kwartaal (3e) van het jaar... Naast natuurlijk de veel minder winstgevende crypto markt, meer energie verbruik van de nieuwe kaarten, etc. Maakt het wellicht ook veel minder interessant voor crypto mining... Ik zie sommige calculators al verlies rekenen bij een RTX 3090 Ti ivm. de hoge energie prijzen...

Als iemand die al een eeuwigheid op een GTX 970 zit te werken, zou een nieuwe videokaart welkom zijn. Maar die ga ik niet voor het einde van de zomer aanschaffen, ivm. dat ik deze gewoon niet fatsoenlijk kan gebruiken ivm. warmte ontwikkeling. En ik ben verre van de enige...

Daarnaast zullen een hoop mensen zich kapot schrikken van de MSRP prijzen (kijk naar de RTX 3080 Ti en RTX 3090 Ti prijzen). En veel scalpers hebben al moeite om hun kaarten met winst te verkopen, de meeste zullen het zelfs met verlies moeten verkopen...
Kan je even aangeven waar je dan een RTX 3090 Ti voor minder dan 2k kan krijgen bij een betrouwbare shop? Die seller op bol.com dus niet meegenomen? RTX 3090 Ti kaarten gaan vandaag nog steeds voor of boven MSRP...

Bij de lancering van de RTX 3080 10GB zijn er echter wel degelijk AIB kaarten beschikbaar geweest aan MSRP, de Asus TUF Gaming non OC of de MSI Ventus 3X zijn voorbeelden daarvan.
De volgende in het rijtje is Proshop.nl @€2249, een hele euro onder MSRP... ;-)

Je voorbeeld van de MSI RTX 3080 Ventus 3X voor €719 was Alternate, (nog) niet leverbaar op zelfs de 22e en onbekend wanneer wel.
https://web.archive.org/w...080-ventus-3x-10g-oc.html
De vraag is zeer of Alternate die kaarten ooit voor die prijs heeft geleverd, zie bv:
https://tweakers.net/shop...e-punt-nl/shopreviews/35/
https://www.reddit.com/r/...he_alternatede_situation/
Er zijn zeker 3080's @ MSRP geleverd door de Nederlandse webshops, had je echter pech en bestelde je een kaart waar je niet tussen de gelukkigen zat die in de eerste dagen / paar weken hun kaart kregen kon je soms maanden wachten op je kaart. Een aantal van die orders zijn zelfs na +- een jaar geannuleerd wegens niet meer leverbaar.

Waar mensen wel in dit hele verhaal rekening mee moeten houden is dat Nvidia's MSRP in principe maar voor 1 kaart geldt, hun eigen FE modellen (of wanneer er geen FE is, 3rd party modellen gebaseerd op het reference design).

Het is dus niet zo, wat sommige mensen lijken te denken dat iedere RTX 3080 kaart een MSRP heeft van €719 (of nu €749) omdat dit toevallig het MSRP is van de FE. Vaak hebben alleen de AIB instap modellen datzelfde MSRP (of tot enkele tientjes boven), de luxere AIB modellen zullen normaliter veel hogere MSRP's hebben.

[Reactie gewijzigd door Dennism op 23 juli 2024 11:23]

Er zijn inderdaad wel kaarten voor msrp geleverd, maar precies niet de kaarten die @Skyline GT-R noemt. Ik heb zelf de eerste 3 maanden na release vol op het forum hier bijgehouden en heb echt geen enkele non-oc kaart voorbij zien komen (laat staan een andere kaart die eigenlijk die €719,- zou moeten zijn)

Heb zelf in December een tuf OC voor msrp kunnen kopen, dus daarna ben ik ook gestopt met het forum volgen.
Dat is tenminste een informatieve reactie, i.p.v. al dat negatieve en ongefundeerde gespeculeer! :)

Ik merk zelf dat ik (binnen een budget en warmte afgifte tolerantie) altijd voor een 150w - 200w grafische kaart ga.
Wellicht dan een 4060 (ti) of een 4070 met een flinke undervolt.

[Reactie gewijzigd door HugoBoss1985 op 23 juli 2024 11:23]

Benieuwd hoe de (uiteindelijke) verbruik van de nieuwe AMD kaarten zich hierover verhouden. AMD was toen met de CPU's (dat wat meer gevolgd) nogal van het performance per wat, en effectief, la(a)g(er) strromverbruik etc.
Dat zet zich hopelijk ook door naar de GPU's. Al zullen die ook vast wel wat vragen van het stopcontact.

Toendertijd een flinke smak geld (voor mij ieg zeker) uitgegeven aan een 1080TI maar dat is op zich nog niet een hele slechte koop geweest.
Waarom denken jullie dat? De hele mining hype is over voor GPU's toch?
Denk dat dat de grootste driver was voor de prijzen. Natuurlijk verwacht ik ook wel hogere prijzen dan de adviesprijzen maar juist nu miners hun kaarten gaan dumpen krijg je een hele gezonde markt.

Of heb ik het verkeerd en is GPU mining nog steeds lucratief?
Miners zijn extreem slecht in wiskunde. Bij aankoop van kaarten maken ze vaak een berekening tegen huidige koers ipv toekomstige dalingen in te rekenen.

Ik weet nog goed dat miners dachten dat het slim was om door te minen wanneer de stroomprijs hoger is dan mining kosten wanneer je gelooft in crypto, omdat de crypto in de toekomst meer waard wordt(tm).

Moest wat heel hevige discussies voeren in comment secties om mensen uit te leggen dat je dan beter direct crypto kan kopen ipv te minen.

Dalende winst maakt veel uit maar sommige miners gaan gewoon stug door met uitbreiden onder het venture capital principe van "verlies maken maakt niet uit, gewoon zoveel mogelijk groeien".
Dit soort opmerkingen/gedachtegangen heb ik ook bij sommige miners gespot. Dat ze het verstandig vinden om met verlies te blijven minen in een markt met dalende crypto valuaties en dalende GPU valuaties, in de verwachting dat de koersen weer gaan stijgen. En ik ben het natuurlijk eens met jouw stelling, dat je dan beter direct in crypto's kan investeren (indien men denkt dat de huidige koers laag is).

Echter, om daarmee te zeggen dat (alle) miners extreem slecht in wiskunde zijn is wel erg kort door de bocht. Het feit dat je een aantal fanatiekelingen heb getroffen op forums die het niet zo logisch aanpakken betekent niet dat (alle) miners extreem slecht in wiskunde zijn. Ik geloof dat de groep heel divers is en er ook een hoop mensen tussenzitten die hun huiswerk wel goed doen.
Het was echt een hele prominente gedachtengang op zowel Reddit als Youtube.Youtuber VoskCoin had er een video over gemaakt waar hij later dus wel op terugkwam en toegaf dat het achteraf niet compleet doordacht was. Unbacked currency waar mensen heilig in geloven zoals Tether en Terra... Heel veel van de crypto bro's snappen gewoon helemaal niks van waar ze mee bezig zijn.

Het gaat zo ver dat ik heel slecht doordachte wiskunde tegenwoordig crypto math noem.

Dat zeggende ben ik zelf wel een crypto fan. Alleen veel van de community lijkt er niet veel van te snappen en alleen maar te hype-beasten.
Ik weet nog goed dat miners dachten dat het slim was om door te minen wanneer de stroomprijs hoger is dan mining kosten
Inderdaad, minen is een optie wanneer de stroomkosten lager zijn dan de opbrengsten, anders kan goedkoper kopen.

Of je moet een solo miner zijn die hoopt een block op te lossen oid. Ook kan minen wellicht een manier zijn om relatief anoniem aan crypto te komen aangezien je je tegenwoordig met ID moet registreren als je wilt kopen. Maar deze twee redenen zijn wel enorm niche.
De vorige kaarten waren al uitverkocht voordat de mining hype een kans had om te beginnen. Bij Alternate was het zelfs al uitverkocht voor de officiële release om 3 uur die dag. Het was toen nog helemaal niet bekend dat de kaarten überhaupt konden minen, en toen was het al helemaal mis. En je ziet nu ook dat het laat is om nog kaarten te kopen voor mining, maar dat de prijzen nog lang niet genormaliseerd zijn. Wat mij betreft zijn miners dan ook nauwelijks relevant. Ze maken een slechte situatie erger, maar zonder miners zijn er ook geen kaarten. En daarnaast zullen scalpers ook wel flink staan te hypen.
Ik had geen enkel probleem een 3080 te kopen toen die uitkwamen, het was pas later dat de grootte schaartste ontstond.
Ook op launchday waren er zeker problemen, en moest je geluk hebben voor een day 1 kaart wanneer je de binnen een paar dagen wilde hebben. Wel is het zo dat hoe langer je wachtte, hoe erger het werd. Maar bijv. de dag 1 bestelde kaart die ik een kennis van mij liet bestellen omdat hij deze wilde voor de PC die ik voor hem aan het bouwen was werd bijv. pas 2,5 maand later geleverd en dan had hij nog redelijk mazzel dat hij een dag 1 besteller was, anderen hebben 6 maand+ op hun kaarten mogen wachten en uiteindelijk zijn er zelfs mensen geweest die hun day 1 kaarten nooit ontvangen omdat diverse webshops na maanden en maanden wachten op een gegeven moment geannuleerd hebben i.v.m. niet meer leverbaar.
Eens gekeken: launche date : 1 september 2020
Ik heb die besteld 20/11 (dus 2.5 maand later) en verzonden 02/12 . Bij alternate wat een doorsnee winkel is.
Die launch date klopt al niet, aankondig was 1 september, launch op 17 september voor de RTX 3080.
Maar je hebt die kaart dan ook voor MSRP kunnen kopen op 20/11 en geleverd gekregen op 2/12 of heb je een model met (flinke) markup gekocht.

Beschikbaarheid was immers zeer divers per Sku, waarbij de Sku's die op MSRP verkocht verder de grootste problemen hadden qua leveringen de maanden na lancering.

Als jij dus bijv. een luxe Asus ROG Strix besteld hebt van bijvoorbeeld €899, zal je mogelijk een hele andere ervaring gehad hebben dan iemand die op 17-9-2020 (of in de weken erna) een Asus TUF, MSI Ventus of Gigabyte Eagle besteld heeft bijvoorbeeld, die kaarten hadden soms wachtrijen die bij bepaalde webshops opliepen tot 1+jaar.....

[Reactie gewijzigd door Dennism op 23 juli 2024 11:23]

899 voor de GIGABYTE GeForce RTX 3080 Gaming OC in de tijd wat zo goed als de lanceer prijs was geloof ik.
En 2 maand na launch datum dan , dat veranderd niks.Die kaart is maar beginenn stijgen in 01/2021 tot zelfs 2500 euro.
MSRP vanuit Gigabyte voor die kaart is €769 geweest, dan heb je dus al flink teveel betaald voor die kaart Al was €899 op momenten van kopen door jou waarschijnlijk een koopje, gemiddeld liep deze kaart eind november al op €1000+ qua prijs.
Niet volgens de pricewatch : daar begint die op 849 en midden jan 2021 zit die nog steeds op een 900 euro, pas dna beginnen die absurde stijgingen.
Kijken we dan wel naar hetzelfde product? pricewatch: Gigabyte GeForce RTX 3080 Gaming OC 10G (rev. 1.0) komt redelijk overeen met de data die ik ook in onze eigen zakelijke systemen zie, inclusief de price spike die ik al noemde halverwege tot eind november.
Ja, 19 september : 849
12 jan : 899
Toch 4 maand dat die prijs amper bewoog en waar ik in het midden die kocht en geleverd kreeg.

Dan gaat het snel :April : 2700 LOL
Mijn pre-order op launch date is anders nooit geleverd en een jaar later geanuleerd.
Lag er maar net aan welke kaart je had besteld of je hem wel of niet kreeg.
Vermoedelijke TDP van 400w voor de 4080 en 600w voor de 4090, hoe ga je dit nog fatsoenlijk met fans kunnen koelen? :|
Buiten het feit dat koeling moeilijker is dan de vorige generatie; zou ik me niet meer lekker voelen als ik een paar KiloWatt aan stroom verbruik omdat ik een spelletje op ultra wil spelen. (Wetende dat stroom in Nederland niet schoon is)

Gewoon gezond verstand gebruiken. Waar stopt dit? Is het punt niet dat computers efficiënter moeten worden naarmate nieuwere technieken voorhanden zijn? Deze trend is nonsens als je het mij vraagt.
Ik begrijp het sentiment maar dan koop je toch gewoon een kaart die zo veel verbruikt als jij wenst?
't Is duidelijk dat het verbruik omhoog moet als we vooruit willen met de huidige technieken. Ergens in de toekomst daalt dat mogelijk weer wel maar vermoedelijk niet.

In de toekomst maakt het toch niet veel meer uit behalve de kost dan, aangezien we volledig overgaan op hernieuwbare energie. Die paar duizenden videokaarten gaan het verschil niet maken voor de energietransitie. En dat zeg ik als "groene jongen".

[Reactie gewijzigd door MacGuyver op 23 juli 2024 11:23]

Ik begrijp het sentiment maar dan koop je toch gewoon een kaart die zo veel verbruikt als jij wenst?
Ok, en noem mij eens een recente kaart voor desktops die minder dan 100W trekt? Zelfs een RX 6500 XT zit op 120W. Misschien dat een RX 6400 er nog onder valt, maar de prestaties daarvan zijn niet geweldig.
't Is duidelijk dat het verbruik omhoog moet als we vooruit willen met de huidige technieken.
Dat is jouw mening. Ik vind dat de fabrikanten wel eens wat inspanning mogen doen en ervoor zorgen dat de nieuwe generatie een stuk efficiënter is. Het is wel degelijk mogelijk, kijk maar naar de Ryzen 7 6800U (hoewel nog steeds niet verkrijgbaar). Een verbruik van 28W en een relatief krachtige igpu. En dat is een processor en gpu samen.
Dat het dan niet mogelijk is om een gpu te maken voor 1440p die ongeveer 100W verbruikt gaat er bij mij niet in.
In de toekomst maakt het toch niet veel meer uit behalve de kost dan, aangezien we volledig overgang op hernieuwbare energie. Die paar duizenden videokaarten gaan het verschil niet maken voor de energietransitie. En dat zeg ik als "groene jongen".
Maakt wel degelijk uit. De totale hoeveelheid beschikbare energie is beperkt. Hou er ook rekening mee dat als we niet meer verwarmen op gas, dat ook veel elektriciteit kost, net als elektrische wagens. Je hebt het trouwens over een 'paar duizenden videokaarten'. Op de hele wereld zijn er momenteel net geen 8 miljard mensen. Als er één op de 1000 een videokaart heeft, zijn dat 8 miljoen videokaarten, mocht het over 1 op de 100 gaan, 80 miljoen. Dat is wel een pak meer dan een 'paar duizenden'.
Je HOEFT het niet op max power te draaien he. In draai mijn 3090 ti op max 300 watt (effectief rond de 275) en is dan heel efficient. Veel cuda cores en geheugen op lagere clocks nog steeds betere performance per watt dan bijv een 3070 op 300 watt die daarvoor veel hogere clockspeed draait en dus minder efficient.

Ik ga ook de 4000 serie kopen en dan terugklokken.
Ja, maar een 3070 is stock toch wat efficiënter dan een 3090 Ti. Bovendien trekt een 3070 geen 300W, maar wel 215 (volgens de review van Tweakers). Dus als je een 3070 op pakweg 120W zou draaien, zal die alsnog efficiënter zijn dan jouw 3090 Ti op 275W.
Ik ga ook de 4000 serie kopen en dan terugklokken.
Dat snap ik niet helemaal, je hebt net een 3090 Ti gekocht, de snelste kaart die er is. En over enkele maanden ga je de 4000 serie kopen? Vind ik niet erg duurzaam.
Het gaat om efficientie in termen van performance per watt. Een 3070 is niet efficienter dan een 3090ti als je hetzelfde aantal frames wil bereiken, simpelweg omdat een 3090 ti dat veel lager geklokt kan bereiken.

Een 3090ti die op 120watt draait perst er meer frames uit dan een 3070 op 120 watt.

[Reactie gewijzigd door PjotterP op 23 juli 2024 11:23]

Leg mij eens uit waar voor jij die 3090 ti gebruikt? welke game?
En waarom de 4000 serie?

Er is denk ik geen ene game die dat gebruikt.
In mijn ogen zijn het ...te dure kaarten en gebruiken teveel energie!

[Reactie gewijzigd door noway op 23 juli 2024 11:23]

Nieuwe games met maximale raytracing . setting. Cyberpunk 2077 etc.

Ja raytracing maakt echt een verschil bij dat soort games qua immersie.

Draai hem op sub 300 watt. En zit over het algemeen goed over de 60 fps

Dat gaat niet met met een gewone 3080 of minder

[Reactie gewijzigd door PjotterP op 23 juli 2024 11:23]

Lekker bij 1080p/1440p @ 60 FPS blijven, geen 600 watt GPU nodig en dan ook geen last van warmte en geluid.
Vraagje. Ik ben me aan het oriënteren op een 1080p30 gaming laptop. Wat voor CPU/GPU zou je hier ongeveer voor nodig hebben?

Ben een aantal jaar 'uit' gaming geweest dus ik weet niet zo goed waar ik me op moet richten.
Ben niet thuis wat Laptops betreft, maar voor 30 FPS zou ik zeggen iets met een Intel 12400 en RTX 3050. Je zou zelfs op de GPU van de CPU kunnen gamen, maar dan zou ik persoonlijk een 12600 nemen.

Denk dat iemand met Laptop ervaring je hier beter bij kan helpen.
Thanks, ik open binnenkort misschien een topic op het forum dan :)
Door met zo’n RTX 3070 Noctua edition achtige koeler te komen natuurlijk :)

Ik vrees wel dat we echt van dat soort monsters gaan zien en dit keer veel vaker dan alleen bij speciale dure uitvoeringen

Ik vind het niet zo erg, ik heb al jaren een Morpheus II met casefans op mijn GTX1080 en daardoor een full 4 slot kaart

[Reactie gewijzigd door youridv1 op 23 juli 2024 11:23]

tripple slot cards of net als wat amd jaren geleden deed waterkoeling 120 rad zou 350w aan koeling moeten geven dus 120 voor 4070, 240 voor 4080 en 360 voor 4090.
Ik denk at Nvidia nattigheid voelt van AMD en daarom de launch naar voren haalt. Dan zijn de wachtende gamers eerder geneigd om nu een Nvidia kaart te kopen i.p.v. wachten tot RDNA 3 uitkomt.
Als Nvidia zicht echt zorgen zou maken om AMD zouden ze iets moeten doen aan die bizarre 400 tot 600W tgp.
Je HOEFT het niet op max power te draaien he. In draai mijn 3090 ti op 300 watt en is dan heel efficient. Veel cuda cores en geheugen op lagere clocks nog steeds betere performance per watt dan bijv een 3070 op 300 watt die daarvoor veel hogere clockspeed draait en dus minder efficient.

Ik ga ook de 4000 serie kopen en dan terugklokken.

[Reactie gewijzigd door PjotterP op 23 juli 2024 11:23]

Leuk dat jij dat doet. Maar de meeste gamers gaan dat niet doen en spelen op het TDP waarmee de kaart uit de doos komt.

Het is gewoon zonde dat in een tijd van vergroening en 'klimaatbewustwording', we welk steeds meer stroom gaan verbruiken voor randzaken zoals plezier of de idioterie uit de cryptowereld.

Heeft toch geen enkele nut als we aan de linker kant ons energieverbruik minderen terwijl we aan de rechterkant ons energieverbruik de spuigaten uit laten lopen 8)7 . (niet politiek links/rechts)
Naast de kwestie. Het probleem moet opgelost worden aan de bron, niet het verbruik.
In de wat verdere toekomst gaan we meer goedkope elektriciteit/energie hebben dan we gaan weten wat ermee gedaan. Dat idee is duidelijk nog niet doorgedrongen maar komt wel.
In de tussentijd moet vooral de vervuiling in de prijs doorgerekend worden, dat versnelt de transitie en kan inderdaad gedrag tijdelijk sturen.

Nogmaals; mensen die al klimaatbewust zijn (zoals ikzelf ook) kunnen zelf de afweging maken: lagere TBP kaart kopen, meer uitgeven aan een hoger model en undervolten en/of zelf groene stroom opwekken/afnemen.

Veel te veel negativisme rond de energietransitie: de nabije toekomst gaat veel beter zijn dan wat we ooit gehad hebben. Tijdelijk is het even minder maar dat is van korte duur als we dat willen. Hoewel iedereen ironisch genoeg vooral voor de lange pijn lijkt te kiezen.
Zolang we niet massaal gaan inzetten op kernenergie, zal die nabije toekomst die veel beter is, niet zo nabij zijn.

De huidige vergroening kost bakken met geld en schopt momenteel een hele groep mensen de armoede in. Mensen in armoede hebben andere korte termijn zorgen dan lange termijn klimaat. Hoe meer mensen in armoede, hoe minder van belang het wordt om zuinig om te gaan met onze planeet.

De meeste gamers kijken niet naar stroomverbruik, een gemiddelde game setup verbruikt bakken met energie. Dat jij en ik daar op letten, wij zijn een minderheid.

Persoonlijk zie ik liever dat we dit wat hoger in de keten opvangen en niet bij de eindgebruiker.
Jij hoeft helemaal niet die 4000 serie te kopen is nergens goed voor!
DIE 3090TI KAN DIK 10J MEE.
Niet voor raytracing games op 144hz

En ik verkoop dat kaart aan iemand anders die er nog wel jaren happy mee is. Ik gooi hem niet weg

[Reactie gewijzigd door PjotterP op 23 juli 2024 11:23]

De gamers van het high end segment boeit het toch niks dat ze duizend euro per jaar aan stroom betalen om hun videokaart te runnen.
Nee joh, bij een stroom gebruik van 400watt, 6uur per dag, 365dagen met een energieprijs van €0.50,- per kwh zit je op €432,- per jaar.
Verwarming uit, computer aan. Prima toch? Boeit inderdaad niks.
Desnoods in de winter lekker Mersennegetallen doorrekenen. Kijken of er een priem tussen zit. 8-)
Alleen is een warmtepomp tot ~5 keer efficiënter dan een GPU straalkacheltje.
Alleen worden de meeste huizen met nog gewoon een radiator verwarmd. ;)
Ook een CV ketel is efficiënter dan een straalkachel.
Kan niet, als je inderdaad de straalkachel alleen aanzet heb je gelijk. Maar als je bijvoorbeeld aan het gamen bent of crypto aan het minen bent dan heeft het ook nog een doel en dan gaat het zelfs qua efficiëntie een warmtepomp te boven.
Het is niet efficiënter, je neemt het hogere verlies voor lief in ruil voor vermaak of cryptocoins.

Een moderne CV ketel geeft 100% (of net iets meer) aan warmte terug dan wat je er aan energie instopt.

Datzelfde gas opstoken in een centrale en vervolgens die elektriciteit in een GPU of straalkachel gooien haalt ~60% bij productie en verliest onderweg ook her en der een paar procentjes. Meer dan 100% efficiëntie ga je er niet mee halen.

Een zuinigere GPU en een CV ketel of warmtepomp gebruiken voor je verwarming is een stuk beter voor je portemonnee en onze aardbol.
Maar op een warmtepomp kan ik niet gamen, dus dan ga je er vanuit dat gamen/crypto 0 watt moet gebruiken, in andere woorden, het mag eigenlijk niet meer.

Daar ga ik persoonlijk niet vanuit in mijn berekening. Maar als je het heel plat wilt maken en enkel naar de warmte kijkt (niet het gehele plaatje dus) dan heb je gelijk.
Meer dan 100% efficiëntie ga je er niet mee halen.
Klopt, maar die 100% wel. Namelijk hetgeen je gebruikt om je pc te draaien en je restwarmte. Niet verkeerd hoor.
Als gamer heb ik liever AMD.

Echter als iemand die gewoon CUDA cores nodig heeft om te renderen neig ik naar nVidia, omdat ik dan en kan gamen(hopelijk, de Linux drivers zijn ruk) en kan rekenen.
Ik neem aan dat de entry level kaart minimaal een advies prijs van 1500 euro krijgt en een retail prijs van over de 2000 euro wegens inflatie. Ze hebben immers nog geen slechte kwartaal cijfers hoeven presenteren vanwege de afname van cryptomining. Daarna zullen ze wel snel tot bezinning komen. Het lijkt me dan ook een kwestie van afwachten tot die prijzen zo snel kelderen dat je ze ver onder msrp kunt krijgen.
geen idee of je post sarcastisch bedoeld is. Maar de 30xx serie heeft hele schappelijke MSRP van Nvidea gekregen. Dat deze kaarten door schaarste nooit voor die prijzen geleverd zijn door handelaren is een heel ander verhaal.
Dat klopt op papier zijn ze heel goedkoop. Je hebt er in de praktijk echter helemaal niets aan. Zelfs vanuit Nvidia zelf kun je alleen kaarten kopen die ruim twee keer zo duur zijn. Andere fabrikanten van producten maken prijs afspraken om er zeker van te zijn dat hun producten redelijk geprijst blijven. Nvidia maakt prijs afspraken om hun omzet en winst te verdubbelen.
Everybody loves capitalism, unless they're on the receiving end of the stick.

Vraag en aanbod. Lost zich vanzelf wel op. Vergeet niet dat intel ook op komst is en ik verwacht ook een grote sprong van AMD op alle vlakken. Ray-tracing vooral, zeker nu in combi met FSR 2.0 en IMO vermoedelijk een AI versie in een toekomstige versie.
Met een 1000 of 1500 watt voeding?
Gaat toch nergens meer over? Alles moet zuiniger, milieuvriendelijker, en dan komen ze daarmee.
Je kan gewoon terugklokken hoor. Performance per watt bij nieuwe generaties neemt nog steeds toe
Dat is waar en misschien dat een paar tweakers dit doet. De rest weet niet eens waar je het over hebt en gaat gewoon nog meer energie verbruiken.
Prima toch, kan de verwarming uit, of lekker aircootje aan. :)
Je gamed toch niet de hele dag door toch. Neem aan dat tie in idle niet veel gebruikt.
met oog op de toekomst adviseren hardwarewinkels nu minimaal 1600watt in een nieuwe build te installeren :9
Belachelijk hoog vebruik. Is dit technologische vooruitgang? Ik zie het als een stap terug op deze manier.

Voor de 4080 en hoger heb je echt een dikke PSU nodig. Ik zelf zit nog met een MSI 980 maar ben enthousiaster over de mogelijke aanschaf van een 3080 dan wat erna komt (dit ivm verbruik)
Je vergeet efficiëntie mee te wegen in je afweging :).

Ze willen nog krachtigere GPUs uit brengen. Dat kan door slimmer een berekening uit te kunnen voeren, of door meer rekeneenheden er tegenaan gooien. (En natuurlijk iets harder pushen.)

Verbeteringen in de manier van berekenen gebeurt meestal pas bij een volgende generatie. Meer rekeneenheden is normaal binnen een generatie (3070Ti vs 3080 bijvoorbeeld; de laatste heeft veel meer rekeneenheden).

Van 3xxx naar 4xxx ga je waarschijnlijk beide zien. Een 3080 met een 4080 vergelijken en concluderen dat het achteruitgang is omdat deze meer verbruikt, is veel te kort door de bocht. De vergroting van hoeveelheid rekeneenheden is meer dan wat je aan efficiëntie wint door de nieuwe generatie: stroomverbruik gaat daarom omhoog.

Zo kan je je 980 niet vergelijken met een 3080. Een 3060 is net zo snel of sneller dan je 980 en significant efficiënter. Staat compleet los van het feit dat een 3080 meer verbruikt :).

Koppelen GPU op de rekenkracht die je nodig hebt. En bepaal dan welke dat is. Dat kan voor jou dus een 4070 worden IPV een 3080 :).
Toen ik mijn PSU Be quiet van 750 W (gold) kocht toen vond ik dat al heel wat voor een PSU. Deze is volgens sommige fabrikanten al kantje randje voor de 3080 (ti)... En dan lees ik dat de volgende GPU's nog meer verbruiken. Dat vind ik dan echt een stap terug, vooral in tijden waarin we steeds bewuster om moeten gaan met onze energie...

Als je kijkt naar CPU's dan zie je dat nieuwe cpu's minder verbruiken, minder koeling nodig hebben en toch sneller zijn. Waarom hebben we dit niet bij GPU's?

De 4070 zou wel eens vergelijkbaar kunnen zijn met de 3080 net zoals de 3070 vergelijkbaar is met de 2080 (ti) maar dat is nu uiteraard nog speculeren.
Als je kijkt naar CPU's dan zie je dat nieuwe cpu's minder verbruiken, minder koeling nodig hebben en toch sneller zijn. Waarom hebben we dit niet bij GPU's?
Dan kijk je maar naar een heel select aantal cpu's denk ik, bij cpu's de trend ook steeds meer naar gelijkblijvende of hogere TDP's toe. Zo gaan de geruchten dat AMD voor Zen 4 naar maximale TDP's wil van 170W (nu bij Zen 3 maximaal 105W) en AMD processors mogen op stock settings normaliter 35% meer verbruiken (de PPT rating) dan de toegekende TDP waarde. En ook Intel heeft niet al te lang geleden hun PL1 (langduring maximaal verbruik bij maximale belasting) waarde verhoogd van 95W op de top modellen naar 125W, en tijdens boosts mogen Intel cpu's tussen de 150W en 241W verbruiken op stock settings.

Maar ook bij server cpu's zie je een trend die niet klopt met jouw verwachting. Waar in Q1 2011 een van de top modellen Xeons een TDP (en PL1) had van 130W is dat tegenwoordig 270W voor het top model. Nu het top model van nu natuurlijk vele malen efficiënter, maar het verbruik is zeker meer, de noodzakelijke koeling is ook een stuk meer.

[Reactie gewijzigd door Dennism op 23 juli 2024 11:23]

Het is ook belangrijk om te kijken naar idle verbruik. Als een CPU veel sneller / efficienter is dan een oudere CPU dan zal deze dus sneller klaar zijn met een taak en vaker in idle draaien (en dus niet op piek). Voor een GPU is de vraag in hoeverre een dergelijke logica opgaat omdat men tijdens het hoofdzakelijk gebruik van een GPU (bijv. gamen) zo veel mogelijk uit de GPU probeert te persen met weinig / geen idle time.
Voor cpu's is dat natuurlijk ook heel verschillend, mijn cpu in mijn thuis PC draait bijv. het gros van de dag inderdaad in idle of daar dichtbij, maar bij klanten van me staan de werkstations dan weer hele dagen te stampen tijdens werktijd. Terwijl sommige servers die ik beheer zitten dan weer cpu's hebben die amper in idle draaien, terwijl weer andere servers de hele dag uit hun neus staan te eten.
Voor die workstations die 100% draaien geldt dan weer dat ze hun taken eerder af hebben. Vermogen is één van de twee factoren in het energie-verbruik, tijd is de andere. 600W * 10 minuten < 500W * 20 minuten.
.
Uiteraard, maar dat betekent niet dat ze daarna idle zijn. Bij de betreffende relatie waar ik dat voorbeeld op baseer zijn de workstations amper idle. Als een taak klaar is staat normaliter de volgende taak al weer klaar.
Volgensmij is het net als inflatie.
Vroeger kocht ik een mars voor 50 cent, nu kost het een euro. Belachelijk dat ik daar zoveel voor moet betalen! GPU’s worden en trekken dus ook steeds meer stroom, ik vind het een heel logisch vervolg
Ik volg de 4000 serie al een tijdje, en volgens mij is er kwa innovatie helemaal niks nieuws in de 4k. Precies dezelfde architectuur op een 2x zo kleine node gebakken, en dus 2x het stroomverbruik. Ik kan er totaal niet enthousiast van worden.
Wat is het probleem precies? Wat zegt watt over een kaart? Is namelijk een heel eendimensionaal getal waar je geen conclusies uit kan trekken.

Ga kijken naar watt/frame (bij recente games tegenover andere kaarten) en dan mag je azijn zeiken.
Waarom zou dit geen technologische vooruitgang zijn? Volgens de geruchten gaat het top model 33% meer verbruiken, terwijl dat de performance verdubbeld. Dat is gewoon een mooie sprong qua efficiëntie als het gerucht klopt.

Mensen moeten zich niet blindstaren op enkel het TBP/TGP, maar ook kijken naar de gerealiseerde performance verbetering. Als een kaart minder efficient gaat zijn als de voorganger, ben ik het zeker met je eens, dat zou geen vooruitgang zijn. Echter is er niets dat daar op wijst momenteel. De geruchten voorspellen juist een verbetering qua efficiëntie.
Check, neem dan de 4060 performance van een 3080 met 60% van het energieverbruik. De cijfertjes zuig ik uit de dikke duim natuurlijk.
Op zich is het ook nog wel iets te begrijpen. Zeker, de efficiëntie gaat omhoog, maar dan alsnog ga je een kaart hebben die meer verbruikt.
Dat jij het niet erg vind dat een GPU in ze eentje al 600W kan verbruiken prima, maar je hoeft heen klimaat knecht te zijn (wtf is dat voor een woord) om er problemen mee te hebben, ik denk daarbij meer aan de kosten en aan hoeveel meer het wel niet is ten opzichte van wat ik nu heb

Ik vind het persoonlijk dus ook niet echt een (goeie) vooruitgang, ook al zullen ze vast vele malen sneller zijn

[Reactie gewijzigd door Sinester op 23 juli 2024 11:23]

klimaat knechten? typ dan niks

Wat een onzin...dus jij wilt beweren omdat ik het niet mee eens ben met jouw redenering ik een klimaat knecht ben?

WTF heb jij geldboom in de tuin staan of geld teveel?
Of tap jij illegaal energie af?

Als je dit al normaal gaat vinden......s6 verder
Veel mensen noemen in de reacties de totale hoeveelheid energie die gebruikt wordt. Zelf vind ik dat minder interessant. Ik kijk liever naar prestatie per watt. Je kan uiteindelijk maar zoveel koelen in een realistische configuratie, en meer energie (warmte) toevoegen is niet altijd een optie.

De 'sweet spot' zit bij mij rond de 200 watt. Dit is wat nog redelijk te koelen is in een compacte behuizing (denk aan de Fractal Node 202) met enkel fans, gekeken naar mijn ervaring met een GTX 1080. Daarom is het voor mij veel interessanter hoe kaarten rond dit verbruik gaan presteren in nieuwe generaties, en dat tegenover de prijs die gerekend gaat worden voor die kaarten.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 11:23]

Precies!

Een 3090 ti teruggeklokt naar 300 watt heeft veel meer performance dan een zwaar overgeklokte 3070 ti op300 watt.

De 4090 zal nog meer performance uit 300 watt kunnen halen.
Juist datgene is hetgeen mij zorgen baart. Je ziet nieuwere, snellere kaarten uitkomen, maar ze verbruiken vrijwel allemaal flink meer energie dan hun voorgangers. Wordt er hier dus wel vooruitgang geboekt?

De AMD refresh is hier ook een perfect voorbeeld van. De 6750XT verbruikt eigenlijk evenveel stroom als de 6800. Echter met een lagere performance. De reden is simpel: De 6700/6750 probeert met flink minder cores toch een nette prestatie te leveren. Dan moet dus de kloksnelheid omhoog, hetgeen efficiëntie kost.

Ik hoop ook op een mooie 200W kaart die in feite de performance biedt van de topkaarten van nu die 300 à 400 verbruiken. Maar ik zie beide concurrenten eerder sparen op cores dan dat ze inzetten op efficiëntie.
Ja.Er gebeuren twee dingen tegelijk:

1. De kaarten worden efficienter per watt
2. NVIDIA verhoogte het wattage.

Dat tweede kan je als gebruiker weer terugzetten (i.e. een 4000 serie terugzetten naar 250 or 300 watt). Je performance op die 300 watt zal dan echt wel beter zijn dan een 3090 or 3080 op dat soort wattages.

Kortom, er is dus wel vooruitgang, ook qua efficientie. Alleen voor Nvidia is dat niet v oldoene en dus gooien ze de poweruse nog verder omhoogo.
Ik droom er over soms.... dat ik een RTX4080 kan bestellen bij launch voor +/- 1000 euro, en dan iets undervolten om op een dikke 300W max uit te komen met betere prestaties dan een RTX3080TI op 350W. Helaas wordt het een nachtmerrie als ik wakker wordt :( Er is ook weinig kans op dalende prijzen van (2e hands) 3000 series kaarten omdat er nog steeds nauwelijks iets leverbaar is. Weinig zullen upgraden, dus weinig komt 2e hands op de markt. Prijzen zullen eerder stijgen zoals al eerder gemeld omdat iedereen nu wacht en straks toch maar een 3000 series kaart gaat kopen omdat de 4000 series duur / niet verkrijgbaar / een stroomvreter is.
3 serie kaarten zijn inmiddels prima leverbaar.
Hopelijk bieden ze hem ook weer aan via de Nederlandse shop.

Op dit item kan niet meer gereageerd worden.