Gerucht: AMD Radeon RX 9070 XT heeft 3,1GHz-boostclock en tbp tot 330W

AMD's Radeon RX 9070 XT klokt aanzienlijk hoger dan de huidige RX 7000-serie. Dat beweert de doorgaans goed geïnformeerde Chiphell-gebruiker Zhangzhonghao. De RDNA 4-gpu levert naar verluidt soortgelijke prestaties als de Nvidia GeForce RTX 4080, maar met een lager stroomverbruik.

Volgens Zhangzhonghao's post op het Chinese Chiphell-forum heeft het referentieontwerp van de RX 9070 XT een tbp van ongeveer 260 watt. Custom modellen van partnerfabrikanten zouden het stroomverbruik met een kwart kunnen opdrijven, tot 330 watt. Daarnaast noemt de leaker een basiskloksnelheid van 2,8GHz en een boostclock tussen 3GHz en 3,1GHz. De RX 7600 XT heeft met 2,75GHz de hoogste boostclock van de RX 7000-serie. De hoger gesegmenteerde modellen gaan tot grofweg 2,5GHz.

Zhangzhonghao claimt dat het referentieontwerp van het vermeende RDNA 4-vlaggenschip soortgelijke prestaties levert als Nvidia's GeForce RTX 4080 in games, met 'een verschil van minder dan vijf procent'. De RX 9070 XT zou dit doen met het voorgenoemde 260W-tbp. De RTX 4080 heeft een tbp van 320W. De Chiphell-gebruiker maakte eind november soortgelijke claims op het gebied van stroomverbruik en prestaties.

AMD gaat naar verwachting de RX 9070 XT introduceren op een persconferentie op 6 januari, tijdens de CES in Las Vegas. Volgens leaker Hoang Anh Phu brengt het bedrijf deze videokaart uit rond eind januari, samen met FSR 4 en de Ryzen 9 9950X3D en Ryzen 9 9900X3D.

Door Idriz Velghe

Redacteur

27-12-2024 • 09:59

120

Lees meer

Reacties (120)

Sorteer op:

Weergave:

Lijkt me een prima kaart voor de meeste gebruikers. Alleen of het een topper wordt hangt natuurlijk weer af van de prijs. Als ze een beetje gelijkwaardig zijn aan de 4080 en dan een procentje of 30 goedkoper kunnen zijn...... Als ze uitgaan van het prestatie niveau en daar de prijs op baseren, dus ongeveer gelijk aan de 4080 zal de belangstelling niet heel hoog zijn vrees ik of ze moeten een aantal killer functies hebben toegevoegd.
En wat Intel en Nvidia nog gaan doen w.b.t. dezelfde punten.
Alhoewel ik niet denk dat Intel bij dit soort prestaties in de buurt gaat komen.
Intel heeft al laten zien dat er gewoon ruimte is in het lagere segment met 250 piek kaarten. De animo is er, de beoordelingen lijken goed, etc.
Deze 250 piek kaarten zijn alleen in de US. Echter heeft INTEL deze kaarten maar in hele kleine oplagen geleverd en gaan ze ook niet meer doen, omdat ze verlies draaien op deze kaarten. Oftewel paper launch.
In Nederland is de goedkoopste RTX 4060 op dit moment €295 (meeste over de 300 euros) en de goedkoopste Intel B580 €320. Je krijgt meer VRAM, grotere geheugen busbreedte en meer performance voor de meeste games. Kan ook aardig gamen op 1440P dankzij de genoemde specs.
Nadeel is de hoge idle verbruik, maar bij games over het algemeen weer zuiniger dan de RTX 4060.
maar nog niet de performance boost van DLSS 3.0 en gewoon de bredere ondersteuning in algemene games, laat staan indiegames waar devs vaak zelfs niet weten van het bestaan van de Intel GPU's en er dus helemaal géén optimalisaties zijn (niet vanuit de Dev en niet vanuit Intel).
Ja drivers worden heel erg onderschat. Daar heeft Nvidia een groot voordeel.
Intel heeft wel degelijk een product ter concurrentie van dlss 3. De XeSS heeft ook frame gen.
Nee een B580 verbruikt een 180watt in gaming, 4060 een 130 , de b580 heeft een 5% meer fps in native maar elke game die dlss ondersteunt zal een 4060 veel sneller zijn anders kan je FSR gebruiken die beide ondersteunen.

Kaarten zijn dus heel gelijkwaardig imho
320 is niet de moeite waard. Kan ook 7600xt kopen met 16gb voor 330. Maar die is ook niet de moeite waard.

[Reactie gewijzigd door Darthpaulx op 28 december 2024 13:54]

RX 7600XT heeft een geheugen busbreedte van 128 Bit en Intel B580 heeft 192 Bit. Daarnaast heeft Intel (iets) betere upscale technology dan AMD.
Deze 250 piek kaarten zijn alleen in de US. Echter heeft INTEL deze kaarten maar in hele kleine oplagen geleverd en gaan ze ook niet meer doen, omdat ze verlies draaien op deze kaarten. Oftewel paper launch.
Ik zie een hoop beweringen zonder onderbouwing. Waarom zou Intel verlies draaien op de B580? De chip is veel kleiner dan bijvoorbeeld een RTX 2060. Verder kun je hem ook in Nederland gewoon bestellen en hij is dan morgen in huis. Niet voor 250 dollar, wel voor minder dan 320 euro. Een paper launch is het daarmee per definitie niet. Bij een paper launch is het product uberhaupt niet verkrijgbaar.
Het zegt al genoeg dat je moet vergelijken met een 5 jaar oude kaart, die destijds al op een relatief slecht productieproces gebakken werd, om een punt te maken.

Zolang NVidia hoge prijzen blijft hanteren is er ruimte voor Intel om te concurreren, maar Intel gaat duidelijk minder efficiënt met zijn GPU-dies om dan NVidia en AMD. Op dezelfde TSMC-node scoort Arc daarin significant slechter. De winstmarge ligt dus ook lager. En dat is jammer, want anders had Intel de GPU-markt beter onder druk kunnen zetten. Intel zal zeker niet de goude bergen oogsten die NVidia nu wel oogst.

Aan de ene kant zou het mooi zijn als AMD en NVidia zich nu genoodzaakt voelen om hun prijzen te verlagen, want dan hebben we goedkopere GPU's. Aan de andere kant kunnen ze Arc uit de markt duwen, en dan gaan we weer terug naar een duopolie.

[Reactie gewijzigd door bwerg op 27 december 2024 23:04]

Maar dat was toch juist het punt, dat die RTX 2060 duurder was om te produceren dan deze B580...
Dat de chip groter was is iets heel anders dan dat de kostprijs hoger was, dus die redenering klopt gewoon niet. TSMC 12nm kostte in 2020 al nog maar $4000 per wafer, terwijl 5nm nu een veelvoud daarvan kost.

[Reactie gewijzigd door bwerg op 28 december 2024 09:05]

Ik zou eerst eens proberen een hele bill of materials samen te stellen, vanuit het perspectief van het moment dat de kaart in productie ging. Mij valt op dat de BGM-G21 überhaupt ongeveer 30% kleiner is dan de ACM-G10 van de Arc A7x0. Verder ziet het PCB er ook niet heel spannend uit. In beiden zie ik geen aanwijzingen dat Intel dit met verlies zou verkopen. Laat staan bewijs om een harde bewering op te staven.
Wat jullie allemaal vergeten is vraag aanbod tussen gpu chip maker en AIB. Intel wel te smeken bij AIB voor dumpprijs de aib zullen wel wat marge hebben
Een RTX 2060 werd op TSMC 12nm gemaakt wat een stuk goedkoper is dan TSMC 5N. Puur qua inflatie zal de boel ook al 23.4% duurder zijn.

Release prijs RTX 2060 = 349
349 + (349 * 0.234) = $430.66

Laten we zeggen dat het verschil in die size met inflatie en hogere kosten van 5N op hetzelfde uitkomen dan is de b580 nog steeds erg goedkoop voor zo een grote die (vergeleken met de RTX 3060/RX 6600 [XT]. Of ze er verlies op draaien weet ik niet maar de marge zal zo goed als niets zijn.

[Reactie gewijzigd door Xthemes.us op 27 december 2024 18:59]

NL is ie puur verkrijgbaar omdat winkels het veelste duur verkopen.
280 tot 300 Kan wel kopen.
Ik verwacht eerlijk gezegd dat de prijzen van intel kaarten in Nederland nog gaan zakken de komende tijd. (als de productie/voorraad wat meer op orde komt)
Laten we hopen dat er een Intel B770 en/of B780 komen en dat deze concurrent of beter (qua prijs) zijn.
Daar zit ik ook op te wachten. hopelijk geven ze die 24gb geheugen. Dan is het een leuke kaart om lokaal A.i. mee te draaien.
Als goed is komen die niet. Had gehoord dat Intel die heeft laten vallen.
Ik hoop ook dat ze Komen.
Het is een kaart mety de benaming xt op het laatste ik denk dat dit wel een snelle kaart zal zijn.
Maaar het hangt natuurlijk idd van die prijs af.
Er zijn timespy resultaten gelekt. Zie https://overclock3d.net/n...xt-benchmark-score-leaks/. Prestatie vergelijkbaar met de RTX 4070 Ti, trager dan de 7900 XT en de 4070 Ti super. AMD heeft dit jaar aangegeven niet meer in high-end mee te gaan doen dus in die zin is een 'current gen' 4070 Ti super tegenhanger geloofwaardig. Vermoedelijk wordt de RTX 5070 een stukje sneller. Meestal doet Nvidia 25-35% per generatie binnen dezelfde variant. Waarmee de RTX 5070 dan sneller zou moeten worden dan een 4070 Ti Super.

[Reactie gewijzigd door sdk1985 op 27 december 2024 15:56]

Een 4070ti op 330 watt in 2025 is best wel ruk om eerlijk te zijn. Had graag weer is amd willen proberen. En uit ervaring met de 6900xt en de 7900xtx die max wattage tik je bijna continu aan.
30% goedkoper zal wel ongeveer zijn waar het op neerkomt, en dat is niet zo indrukwekkend. Immers je hoopt toch dat Nvidia ook wel een 20% verbetering geeft in prijs/prestaties met een nieuwe generatie. Dan is het AMD alternatief 10% goedkoper, wat redelijk standaard is gemiddeld genomen.
AMD zou vooral nog kunnen stunten met één speciaal model kaart met dubbele hoeveelheid VRAM. Voor mensen die (ook) eens een LLM lokaal willen draaien is geheugengrootte de primaire beslissingsfactor momenteel. Dus een midrange kaart met dezelfde 32GB VRAM als voor de 5090 verwacht wordt zou daar echt heel prima verkopen voor duizend euro, en durf ik zeggen, ook nog wel wat duurder zelfs als AMD een hogere geheugenbandbreedte dan de 3090 kan neerzetten. Dan zijn enkel NVidia's 4090 en 5090 en de AMD 7900XTX nog maar concurrentie op dat vlak.

[Reactie gewijzigd door OruBLMsFrl op 27 december 2024 11:24]

Ik dacht dat je voor AI taken eigenlijk CUDA wil hebben, is dit recentelijk veranderd? Ben zelf op zoek naar een kaartje voor AI maar kom voornamelijk Nvidia tegen (met 16gb RAM of meer) als recommendations. Helaas zijn deze kaartjes best prijzig om aan te schaffen als "speelgoed".

Als AMD een goed alternatief is zou dit zeker interessant zijn.
https://ollama.com/blog/amd-preview

Er komt steeds meer support voor AMD. Tegelijk ligt het gemiddeld wel wat achter op NVidia, dus altijd even kijken voor de specifieke modellen die je wilt draaien, hoe het daar ervoor staat. Er is met ROCm een vertaling voor CUDA mogelijk, altijd even zien wie er de moeite voor neemt om de AMD support ook echt in te bouwen.

[Reactie gewijzigd door OruBLMsFrl op 27 december 2024 12:25]

Ik lees hier altijd LLM lokaal draaien etc ... Hoeveel mensen zijn er nu dat dit ook effectief echt doen ? Hier op tweakers kan je misschien wel een paar mensen meer vinden die dit doen. Maar globaal bekeken is dat een niche. Ik zeg niet dat het niet mogelijk is uiteraard, maar waarom zou een maker dit uberhaupt doen, voor die 1% binnen X aantal % te bedienen ? Dat is gewoon als je het geldplaatje bekijkt helemaal niet interessant.
Als je marge dan een stuk hoger is, je AI marktaandeel stijgt, zeker wel interessant. Toekomstig marktaandeel kan dan weer hoger zijn en sneeuwballen. Plus kopen velen dan weer meerdere kaarten in die toepassing
Ja, maar AMD wordt erg slecht ondersteund. Dan kun je beter hopen op een intel kaart met veel geheugen.
Ik zou juist zeggen AMD heeft een gouden kans daar om die ondersteuning te laten groeien. Als de hele komende generatie van de AMD 9070 niet meer dan 16GB VRAM heeft en we het daar dan twee jaar mee moeten doen, dan verliest AMD mogelijk nog heel die wedstrijd. Stel ze komen met, geheel ongeloofwaardig, maar stel 64GB VRAM. Dan geloof mij, zit voordat 2025 om is voor alle AI die past in 64GB VRAM plots wel AMD support ingebouwd, zit toch ook best wat vrijwilligerswerk en studentenwerk in en rond die AI frameworks, en deels gaat dat toch ook nog wel om wat je aan hardware kunt krijgen. Uiteraard heeft NVidia met CUDA extreem goed vooruit gezien en blijft AMD nog even volgen op positie twee als gevolg daarvan. Maar een stap dichterbij zou allicht kunnen met zo een stunt. En uiteraard kopen weinig gamers die kaart met voor hen onnodig veel VRAM, en mag die relatief een stuk duurder zijn, maar zijnde puur een bestaand ontwerp aanpassen qua geheugenchip grootte, zie ik dat makkelijk genoeg verkopen om rendabel te zijn.

Ook al lukt de gaming performance even niet, dan zou AMD hiermee alsnog wel kunnen scoren. Maar er zou ook graag wat vanuit de Intel GPU hoek komen natuurlijk, hoe meer concurrentie daarin hoe beter. En Intel heeft net al een hele mooie zet gedaan met 12GB VRAM voor € 300. De vraag is wie levert er straks als eerste 30+ GB VRAM voor die magische € 1.000?
Je zou voor macstudio m4max zomer kunnen gaan met 128GB
Dat is zeker een technologisch alternatief ja, tegelijk met zoveel ram zul je snel richting vierduizend euro gaan vrees ik met de m4 max? Allemaal speculaties nu, iets voor de zomer zoals je zegt, maar zeker iets om niet komende maand al all out op gpu budget te gaan als vram weinig groter wordt deze generatie.
Zou wel heel raar zijn als ze de prijs van de 4080 aan zouden houden de 7900xt heb je voor 739 euro en is vaak sneller dan de 4080
Dit is waarom ik Nvidia koop. AMD loopt een hele generatie achter en kan de beste kaart van Nvidia nog steeds niet evenaren.

[Reactie gewijzigd door TrafalgarLaw op 27 december 2024 10:42]

Dat snap ik als je iets snellers wilt dan de 4080 of 9070/7900XT.

Maar iedereen die opzoek is naar een midend kaart kan wel kiezen natuurlijk. En dan speelt prijs en verbruik de grooste rol lijkt me (en helaas naamsbekendheid).

[Reactie gewijzigd door watercoolertje op 27 december 2024 10:48]

Of de midrange goed is, kun je pas zeggen als de prijzen bekend zijn. Misschien presteert de RX9070 uiteindelijk wel meer in de richting van een RTX 5060 Ti, bijvoorbeeld.

Ik ben erg benieuwd of AMD de beloften op het gebied van raytracing kan waarmaken. Ray tracing wordt deze keer een veel belangrijkere factor, zeker nu we dit jaar al de eerste games hebben gezien waarin ray tracing niet langer kan worden uitgeschakeld (zoals Star Wars Outlaws en Indiana Jones).

Aangezien het voor ontwikkelaars goedkoper is om RT-belichting te implementeren en een steeds groter percentage van de pc-gamers beschikt over RT-hardware, is de verwachting dat er in de komende vier jaar veel meer games uitkomen die niet meer zonder ray tracing speelbaar zijn. De gemiddelde gebruiker wil immers toch zeker vier jaar met zijn of haar nieuwe kaart doen, lijkt me.

Het energieverbruik is overigens vrijwel te verwaarlozen, naar mijn mening. Als het verschil in verbruik 50 watt bedraagt en je gamet 10 uur per week bij een stroomprijs van 30 cent per kWh (wat vrij hoog is), kost dat je 15 cent per week extra. Dat is echt verwaarloosbaar.
Helaas is ook je Nvidia 5070 dadelijk waarschijnlijk equivalent aan een 4080 qua effective prestaties, zie bijvoorbeeld vergelijkende tests tussen de 4070 en 3080.

En laat de 5070 nu de concurrent van deze kaart zijn, zoals de nieuwe naam al doet vermoeden, en niet de 5080.
Dat is niet elke generatie zo. zie het verschil 3070 en 4060.
Idd, 4060 is trager dan een 3060ti
Ze hoeven van mij de beste kaart niet te evenaren.
Dan is een race gevecht.

Maar brengen ze b.v een kaart van €500 die even snel is als een 4080 ofzo....

Dan koop ik die.
Dat dus. Ik kijk altijd in dat overzicht van Tom's Hardware (enige reden waarom ik er eigenlijk nog kom: omdat er ook oudere kaarten in staan). Ik wacht dan tot een nieuwere kaart genoeg snelheid wint tegenover mijn huidige; zeg +50% minimaal, bij hetzelfde wattage.

Ik ben van een GTX 1070 naar een RX 6750 XT gegaan (35 FPS -> 75 FPS). Als ik naar een RX 7800 XT had kunnen gaan, wat eigenlijk de bedoeling was, dan was het zelfs 35->105 FPS geweest. (De 6750 zit wel in een nieuwe computer overigens.)

Als er nu een RX ???? XT uitkomt die in deze chart gemiddeld ~125 FPS haalt (RTX 4070 Ti Super niveau), bij iets van 250W stroomverbruik, da ga ik overstappen vanaf de RX 6750 XT want dat zou een snelheidsverbetering van 67% betekenen. Met een dergelijke kaart zou ik makkelijk 5 jaar kunnen gamen.

(Ik heb het trouwens over deze ranking: https://cdn.mos.cms.futur...L8Xs4WUL-1200-80.png.webp)
Je hebt zelf ook "maar" een 4070ti
Prima kaart, ik kan alle games die ik speel op max settings spelen en op max resolutie. Tzt. ga waarschijnlijk toch naar een 5090 upgraden. :*)
Dit is waarom ik Nvidia koop. AMD loopt een hele generatie achter en kan de beste kaart van Nvidia nog steeds niet evenaren.
En dan spreken we nog niet eens over het gemak met updates en compabiliteit dat Nvidia telkens aanbied

.. met AMD mag je het altijd wel uitzoeken, blijven wachten in de hoop dat een probleem opgelost wordt of gewoon niet. Heb in een van mijn builds nog altijd een AMD RX VEGA64 8G zitten, toen met te upgraden van Windows 8 naar Windows 10 nog niet anders dan problemen gehad. Sommige games of programma's werken gewoon niet, zwart scherm of systeem valt uit, start telkens opnieuw op als je een bepaalde game opstart. Als je al diezelfde zaken met een Nvidia GPU uitvoert, geen enkel probleem en alles werkt gewoon. Op een bepaald moment heb je het dan wel gehad met AMD en betaal je liever iets meer voor een Nvidia GPU.
Precies, ik heb geen zin om een heel forum af te struinen om mijn drivers te downgraden voor de specifieke driver om mijn game werkende te krijgen of zonder grafische bugs. Dat was enorm frusterend met AMD. Het AMD-gezeik vaarwel gezegd en vanaf nu gewoon team groen. Geen enkel probleem tot nu toe gehad met mijn 4070Ti.
Lol ouwe koeien uit de sloot halen.
Dit is allang geen probleem meer.
Zelfs nvidia heeft software problemen ( check forum )
De snelste en daarmee de duurste kaart(1200 euro) gaat je niet het meeste geld opbrengen, dat is het low-en middensegment van de kaarten.
Die 1200 is net iets meer dan de helft van wat je nodig hebt voor de snelste kaart hoor...
Ik zag de Nividia RTX4090 voor 1200 euro.
Dat zal een foutje of scam geweest zijn :)
In de pricewatch is de laagste prijs bij een bekende winkel (Megekko) 2279 (er zit er een op 2108 maar dat is een aanbod op bol plaza van een aanbieder met welgeteld 1 beoordeling, zou ik niet vertrouwen, en er is er een die nog 2 euro onder Megekko duikt maar ken ik niet en geen shopreviews hier op t.net).
Wie zegt dat ik "het meeste geld" wil opbrengen? De 4090 was destijds ook meeste bang voor je buck als je naar performance per euro/dollar kijkt. Ik haal geen xx60-tier kaarten om mijn PC games op console settings te spelen, had ik net zo goed bij consoles kunnen blijven.

[Reactie gewijzigd door TrafalgarLaw op 27 december 2024 21:14]

Omdat AMD ervoor kiest niet met Nvidia te concurrent in het top segment betekent niet dat ze een generatie achterlopen. Op pure rasterisatie doen ze het meestal like voor like beter dan Nvidia in de huidige generatie, niet iedereen voelt de nood voor raytracing.
Dat kunnen ze wel evenaren maar dan heb je dat prijsverschil niet vergeet niet dat ddr7 geheugen best duur is.Als je alles doorberekend dan kom je even duur uit als nvidia.en dat wilt amd niet hebben.

[Reactie gewijzigd door rjmno1 op 28 december 2024 18:24]

Wat? Je staat verbaast te kijken dat een GPU die waarschijnlijk rond de €600 gaat kosten, in een generatie waarin de producent heeft gezegd niet mee te doen aan de high-end markt niet sneller is dan een GPU van €2000-2500?

Sorry hoor, maar wat een domme opmerking
Persoonlijk vind ik het een goede stap dat AMD even een 'stapje terug doet' en zich meer richt op efficiëntie en betaalbaarheid (althans dat gaan we zien). De prijzen en het energieverbruik van gpu's is de laatste tijd echt buitensporig geworden. Het is natuurlijk leuk als je het beste topmodel hebt (en goed voor de marketing), maar laten we dingen weer gewoon wat meer betaalbaarder maken voor de gemiddelde gebruiker.

Ook zouden ze als je het mij vraagt wel wat meer regulaties mogen invoeren voor het energieverbruik. Leuk dat je stofzuiger van de EU niet teveel mag verbruiken maar bepaalde efficiëntie normen voor pc componenten zou van mij ook wel mogen.
De efficientie van GPUs is juist schrikbarend toegenomen!

Stel dat een processor 100x zo veel rekenkracht heeft, voor 2x het stroomverbruik, dan is dat een enorme slag in efficientie, toch:

GTX280; 236 Watt, 0.6 TeraFLOPS
RTX4090: 450 Watt, 82 TeraFLOPS

Dat klinkt dat alsof efficientie een topprioriteit is. Een factor 50 efficienter!

(en dan ben ik nog pessimistisch geweest, en heb van de RTX de double precision FLOPS genomen, en van de GTX de single precision FLOPS. De double precision snelheid van de GTX is 0.08 TeraFLOPS.
Dat is een verbetering in performance van een factor DUIZEND (!!!) voor slechts twee keer de stroom. :o
Ja maar dat kan niet doorgaan he.
Efficiente zal omhoog moeten aan gelijk aantal watts.

Dus omdat over 3 generaties de gpu wel tich keer sneller is mag de gpu wel 2500W gebruiken?

In jouw theorie.... Gpu,s blijven sneller worden dus over X jaar heb je een aparte stroom groep voor je gpu nodig...

Zeker met duurzaamheid heeft dat geen toekomst.
En ja het is best effiecient geweest maar in het verleden zijn er zat cpu,s etc geweest die sneller werden en nog zuiniger ook dat moet ook bij gpu,s.
Ja maar je hoeft toch geen RTX4090 van 450 Watt te kopen? Er zijn prima videokaarten te koop van rond de 236 Watt, die ook tientallen keren sneller zijn dan de GTX280. En je kunt het ook omdraaien, een videokaart met de performance van een GTX280 zal nu tientallen keer minder stroom verbruiken dan die GTX280.

Dus een en ander is zeker wel efficiënter geworden.

Er zijn echter ook extra opties bijgekomen. In plaats van dat de beste kaart nu maximaal op 236 Watt, zit die op 450 Watt. En is dan ook nog weer een aantal keer beter dan een hedendaagse kaart op ~236 Watt. Maar ja, hoe sneller en energieslurpender de kaart, hoe minder efficiënt de kaart is vergeleken met de prestaties (stop er 2x zoveel energie in en hij zal waarschijnlijk niet 2x zo snel zijn).

Vervolgens lijkt het me aan ieder voor zich om te bepalen wat voor kaart zij willen. Het staat iedereen vrij om een energiezuinige kaart te kopen. En voor wie wil, zijn betere kaarten óók te koop.
Ik undervolt mijn 4090 en verbruik daarbij ongeveer 350 watt onder hoge belasting, met nagenoeg dezelfde prestaties.

Overigens denk ik dat de kosten voor een hoog verbruik nog wel meevallen. Stel dat je de kaart 100% van de tijd op 450 watt laat draaien (wat in de praktijk nooit gebeurt), dan kost je dat nog geen 15 cent per uur bij een (vrij hoge) stroomprijs van 30 cent per kWh.

Als je 10 uur per week gamet, kost dat je ongeveer €1,50 in dit theoretische voorbeeld (in de praktijk waarschijnlijk minder dan een euro). Bovendien moet je niet vergeten dat zelfs een zuinige kaart ook niet nul watt verbruikt. Het verschil onder de streep is dus echt minimaal.
Ja de efficiëntie neemt natuurlijk toe, maar ik bedoel dan in een generatie zelf (ook voor cpu's) waar je vaak ziet dat topmodellen significant slechtere verhoudingen hebben dan de midrange. Maar ook mag er wat mij betreft wel gewoon een limit zijn aan hoeveel vermogen een 'huis tuin en keuken computer onderdeel' mag verbruiken, eg een GPU mag xxx watt.
Wat je zegt is niet altijd waar, want het kan zijn dat de vorige generatie iets zuiniger is dan de aankomende. Zie bijvoorbeeld GTX1080 met RTX2080 op FP32, of GTX780 met GTX980 op FP64.

Overigens is een veel vergeten factor dat bijna niemand bewust is van hoe vaak de videokaart onnodig veel werk verricht, en vaak stamt dat ook uit het feit dat bijna geen enkel spel opties aanbied voor FPS limieten in verschillende scenarios (Menu (24 genoeg), Lobby/Idle (60/30 genoeg), Live Match (monitor Hz-1fps genoeg voor shooters, anders 120 voor rts's en moba's, 60/80fps voor civ-likes en citybuilders)).

Je kunt je dus voorstellen hoeveel energie verspilt wordt als je een potje Civilization van 12 uur op een RTX4090 doet waarbij 'ie constant 1000FPS genereert (even als voorbeeltje). Die verspilling is iets minder als je dan een onzuiniger kaart gebruikt maar die een veel lagere TDP heeft.

[Reactie gewijzigd door Memori op 27 december 2024 14:54]

Gelukkig kan je in de drivers een fps limiet instellen, anders hoor je het wel aan de fans.
Het probleem van stofzuigers was heel anders: Daar was het een verkoopstrategie om zoveel mogelijk vermogen te verbruiken, omdat dat goed stond op de verpakking. 2000W stofzuiger!!! Terwijl geen enkele GPU fabrikant pocht met hoeveel stroom hun GPU wel niet verbruikt.

Ik zie niet echt een significante verbetering in energieverbruik hier tov wat er al is. De nieuwe generatie AMD doet met 260W-330W hetzelfde wat Nvidia bij de oude generatie deed met 320W. Oké, hij zou bij 260W er binnen 5% van moeten zijn, maar er gaan dus een hoop GPUs verkocht worden die meer op de 330W zitten en dan net een fractie sneller zijn.
Kijk daar heb je gelijk in.
Tja, allemaal gratis reclame, om zo de spanning maar op te drijven. Zolang de fabrikant niet zelf verteld hoe en wat, is het gokken en blijft het afwachten....

Het is tegenwoordig meer een uitzondering, dat er een product op de markt komt waarvan helemaal niets bekend is. Zo bekeken, kan je ook zeggen, dat het beetje bij beetje ( bewust laten ) uitlekken van informatie gewoon bij de verkoop strategie hoort en dus gewoon een onderdeel is van de reclame campagne. Waarbij cherry-picking natuurlijk ook een onderdeel is en de wat mindere zaken nog even achter worden gehouden.

Gewoon nog ff wachten tot de persconferentie!
 

[Reactie gewijzigd door PsiTweaker op 27 december 2024 10:49]

Tsja, marketing gonna marketing.

Net zoals Nvidia zorgt dat ze met een niet te betalen flagship bovenaan de benchmarks staan en mensen daarom een Nvidia kaart willen, ook al kunnen ze alleen een kaart betalen die 1400 euro goedkoper is. Net zoals dat elk jaar de begroting 'uitlekt' een maand voor Prinsjesdag (door een ambtenaar rechtstreeks naar een krant gemaild) om de hete angels er vast uit te halen. Net zoals we elk jaar in november een bericht te krijgen dat de zorgverzekering 50+ euro/maand duurder wordt waardoor iedereen verontwaardigd is, ze de zorgverzekering 30 euro duurder maken en iedereen superblij hosanna roept ook al is deze weer gigantisch omhoog gegaan.

Mensen slobberen dat gulzig op. Marketing bestaat omdat marketing werkt.
Marketing bestaat omdat marketing werkt.
Marketing = misleiding in veel gevallen. Mensen die marketing als studie kiezen, zouden na hun afstudeerceremonie levenslang opgesloten moeten worden. En ja, ik heb geen hoge pet op van "marketing en communicatie." Veel gescheer en weinig wol. Die mensen zijn specialist in het verkopen van gebakken lucht.
4-6 jaar studeren hoe je met psychologische manipulatie zo veel mogelijk geld uit iemand kan wringen. Actief meedoen aan de demoralisatie van de samenleving, en de meesten zijn er nog trots op ook.
Leaks persconferentie eerste benchmarks etc allemaal met een kilo zout nemen tot dat de eerste normale mensen de kaarten in handen hebben. Er zit zo veel compleet irrationele hype achter wat uiteindelijk gewoon een teken kaartje van misschien een paar procent sneller is.
De RX 9070 XT zou dit doen met het voorgenoemde 260W-tbp. De RTX 4080 heeft een tbp van 320W.
Worden ze gebakken op hetzelfde procede? Als de Radeon een nieuwer procede gebruikt is dit minder indrukwekkend.
De 4080 is op TSMC 5nm gebakken en de 9070 vermoedelijk op TSMC 4nm.

Ja een kleiner procedé maar tegenwoordig zijn de stappen niet meer zo spectaculair dat er alleen daaruit even 20% vermogen bespaard word. Zal dus deels de kleinere node en deels de architectuur zijn.

Als dit een top midrange kaart word met dito prijs vind ik het als nog best indrukwekkend :)
4nm is een geoptimaliseerde versie van 5nm en is maar ietsjes compacter het is zeker geen 20% eerder 10 als dat al gehaald wordt. Ze noemen het 4nm maar tegenwoordig zegt dat niet zo heel veel meer over de daadwerkelijke grote van de transistor gate.
Waardeloze naam. Als leek zou ik geen idee hebben waar de RX 9070 XT staat ten opzichte van een RX 7700 XT. Één generatie ouder en zelfde tier? Had net zo goed 2 generaties ouder en een entry lvl GPU kunnen zijn zwakker dan de RX 7600.
Dat heeft ze ook niet tegengehouden met de 7900/7800/7700 benaming en die was een aantal jaar recenter nog in gebruik :+
Dat was 7950 / 7970 vs 7900, niet 9700 vs 9700.
Dat is ook de insteek van de naam verandering. Ze kunnen niet echt concurreren met de nieuwe kaarten van Nvidia. Ze willen markaandeel winnen door volledig in te zetten op de kaarten in de prijsklasse die het meest verkocht wordt. Ze vergeten alleen dat het de naam is die uiteindelijk bepaald welke het meest verkoopt. En het is juist Nvidia die veel inzet op marketing.

[Reactie gewijzigd door Seth_Chaos op 27 december 2024 10:40]

Die marketing en blind faan op nvidia krijg je niet zomaar uit de consument.
Met software stack achterstand tegen nvidia cuda sdk framework etc haal je niet zomaar in.
Dan 3 a 5 gen kapitaal bloeden met big chip design bij top dure nodes van tSMC met die software stack handicap is kapitaal vernietiging. Helemaal als generaties tegen vallen en je in prijs moet zakken.
UDNA geeft radeon pro trekjes wat nV ook gebruikt om AI RT in de client tak zwaarder te kunnen leunen op pro features.
AMD gaat voor efficiëntie en daarbij is dat goede ASP bij lage kosten. Kroon imago prestige producten die niet goed in de pro markt kan slijten is niet productie efficient.
Dus geen €2000,- van AMD want AMD mag er vooral niet aan verdienen. Marge is deels ook wat nextgen financiert.
Er zit een groot verschil tussen verdienen en uitbuiten. Nvidia buit uit. Je komt niet in de top tien (en in dit geval plaats nummer 1) van rijkste bedrijven op aarde door alleen maar een gezonde marge te pakken.
Net een goede naam ..

Mogelijk staat de RX 9070 XT lijnrecht tegenover de toekomstige Nvidia RTX5070 .. ;)
En van wat ik begrijp zou dit dus de zwaarste kaart worden dus niet echt een upgrade pad vanaf de 7900 xt of xtx zoals verwacht helaas...
Maar als hij (aanzienlijk) goedkoper en dus energie zuiniger is dan de 4080 kan het voor veel mensen een goede optie zijn lijkt mij. Niet altijd hoeft alles sneller, goedkoper en efficiënter lijkt mij zeker een goede verbetering en focus. Verre van de meerderheid koopt high end gpu's. Lijkt mij ook dat ze hiermee wellicht meer interessant worden voor OEM pc's. Die worden vaker (als er al een dedicated GPU in zit) toch verkocht op de low en mid range. Dus daar valt een hoop geld te verdienen als ze erin slagen die te gaan domineren.
Tuurlijk, alleen jammer voor wie nu op een high-end AMD kaart zit. Nou doen die het ook nog prima op zich en gaan voorlopig wel even mee nog, maar RT wordt steeds belangrijker en is wel echt een zwakke plek. De nieuwe kaarten lijken een stuk zuiniger te worden en betere RT performance te bieden, maar je gaat geen kaart vervangen voor bijna dezelfde raster performance en alleen betere RT en zuiniger. Ik niet tenminste.

Dat het voor AMD misschien wel de betere strategie zou kunnen zijn dat zou goed kunnen, ik keek puur vanuit mezelf :)
Tuurlijk, alleen jammer voor wie nu op een high-end AMD kaart zit.
Dat is waar, maar bedenk wel dat de stappen in productieprocessen niet meer zo snel gaan als vroeger. Je ziet nu steeds vaker dat hardwareproducenten nieuwere generaties sneller maken door gewoon het energieverbruik op te schroeven, op hetzelfde productieproces als de vorige generatie. Leuk voor degenen die topprestaties willen ongeacht het verbruik (en bij-effecten als warmteontwikkeling), maar dat kun je natuurlijk niet blijven doen. Op een gegeven moment moet je qua verbruik ook weer een stapje terug nemen. En gegeven dat nieuwe productieprocessen dat niet meer volledig compenseren betekent dat zo nu en dan een generatie zonder prestatiewinst.

Datzelfde zie je nu bij Intel. De rek was eruit, en de nadelen van het energieverbruik werden te groot. Dat de tech-reviews slecht zijn is jammer, maar het enige alternatief is dat we gewoon 4 jaar wachten per generatie.
De RX 5000 generatie was toch ook een generatie zonder een hoger segment.
De RX 5000 generatie was toch ook een generatie zonder een hoger segment.
Maar wel sneller dan de generatie er voor.
Wel voor mensen die een nog wat oudere kaart hebben. Mocht de prijs concurrerend zijn is het eventueel wel interessant.
Ja dan loopt jouw pad dus niet vanaf een 7900 XT/XTX 8)7
Ik zeg toch niet dat het voor niemand interessant is... Is toch niet zo gek dat mensen die nu op de dikste AMD kaarten zitten het jammer vinden dat de nieuwe generatie niet echt iets voor hun biedt?
Het is nextgen dus midrange met betere RT performance
Misschien interessant voor 1080p gamers met RT on
Even prijzen en concurrerende kaarten en bijbehorende prijzen afwachten. En de echte reviews.
Maar tot nu toe staat deze hoog op mijn lijstje als vervanger voor mijn 3070.
Mocht dit kloppen, dan is deze kaart maar iets sneller dan de huidige 4070 Ti SUPER? Die is momenteel rond de € 845 euro. Lekker koffiedik-kijken voor de prijs, maar als AMD echt wat wil met dit prestatieniveau, dan mag de kaart hier in NL toch niet veel meer dan € 599 worden toch?
Ik hoop dat de RX 9070 XT een euro of 500 word. Klinkt als een mooie upgrade voor de RTX 3070. Er zijn al geruchten dat de RTX 5080 1800 euro word dus die serie gaat hem hoogstwaarschijnlijk niet worden voor me.

Op dit item kan niet meer gereageerd worden.