Gerucht: Intel Arc B770 heeft met 300W hoogste tdp van alle Arc-gpu's

De Intel Arc B770 krijgt naar verluidt een tdp van 300W. Daarmee zou deze gpu het hoogste maximale vermogen verbruiken van alle videokaarten die Intel tot dusver heeft uitgebracht voor consumenten.

Uit leveringsdocumenten valt op te maken dat de Intel Arc B770 een tdp van 300W heeft, meldt VideoCardz. Dat zou de hoogste tdp zijn in Intels Arc-consumentenlijn. De Arc A770 en A750 uit 2022 kunnen momenteel het meeste verbruiken, met een tdp van 225W. Overigens heeft Intels grootste concurrent, Nvidia, al consumenten-gpu's uitgebracht met veel hogere tdp's. De RTX 5090 verbruikt bijvoorbeeld maximaal 575W.

Intel heeft de Arc B770 nog niet officieel aangekondigd, hoewel er in de afgelopen maanden meermaals verwijzingen naar de kaart zijn verschenen. Het zou gaan om een hoger gepositioneerde videokaart op basis van Intels Battlemage-architectuur. Volgens geruchten krijgt de videokaart 32 Xe2-cores en een 256bit-geheugenbus. Ook moet de videokaart beschikken over een PCIe 5.0 x16-interface en 16GB GDDR6-vram. Meerdere ingewijden vertelden eerder dit jaar tegenover Tweakers dat de videokaart in de tweede helft van 2025 verschijnt, maar het is niet duidelijk of dat nog altijd het plan is.

Door Kevin Krikhaar

Redacteur

08-12-2025 • 18:07

89

Submitter: Scribe

Reacties (89)

Sorteer op:

Weergave:

Als je naar de concurrenten kijkt valt 300 watt nog wel mee.
300 watt vind ik zelf toch nog steeds wel veel. Ik had gehoopt dat men meer richting efficiëntie gaat dan brute force. Als je 33% meer stroom verbruikt en minder dan 33% extra performance hebt doe je absoluut niets met die extra power.

Ik ben dan wel benieuwd hoe veel een undervolt uitmaakt. In veel gevallen kun je in ruil voor 5% minder performance 33-50% minder stroom verbuiken (en dus minder hitte en minder fan speed, dus stiller).
TDP van AMD Radeon RX 9070 XT is 304 watt. Niet overdreven veel dus. Als de prestaties ook nog een beetje mee kunnen komen.
TDP van AMD Radeon RX 9070 XT is 304 watt. Niet overdreven veel dus. Als de prestaties ook nog een beetje mee kunnen komen.
Weinig kans! Waarom? Omdat:
- de B580 20 Xe2-cores en een tdp van 190W heeft
- de B770 32 Xe2-cores en een tdp van
(ongeveer) 300W heeft
- B580 190W / 20 = 9,5W per core
- B770 300W / 32 = 9,375W per core
- B580 zit ongeveer op 'RX 7600 XT en RTX 4060 niveau'
- doe dat keer (32 / 20 =) 1,6 en je komt
- ongeveer op 'RX 7800 XT en RTX 3080 niveau' voor de B770
- de RX 9070 XT is maar liefst 41% sneller dan de 7800 XT en RTX 3080
- ja, hierboven is een bierviltjes berekening... , maar 1 ding is wel duidelijk Intel kan nooit zomaar ineens 41% prestatie winnen t.o.v. de B580 met exact dezelfde cores met ook hetzelfde verbruik

Alstublieft en graag gedaan! :)
Je kunt het ook omdraaien. Als we naar de B580 review kijken zien we bij effiency dat die kaart het beter doet dan een 4060 Ti en een 4060. Kijken we naar de 9070Xt dan doet deze het een paar procent slechter dan een 4060 Ti. Intel heeft an sich dus in potentie een techniek die gelijkwaardig of zelfs iets beter scoort op performance per wat. Overigens is de non-XT een procent of 10-20% efficiënter dan de 4060 Ti dus daar zie je meteen waar de uitdaging ligt; AMD heeft extra stroom ingezet met diminishing returns. Het is even de vraag in welke mate Intel dit ook gaat doen. Maar in de basis lijkt Intel eigenlijk een prima startpunt te hebben.

[Reactie gewijzigd door sdk1985 op 9 december 2025 00:27]

Je kunt het ook omdraaien. Als we naar de B580 review kijken zien we bij effiency dat die kaart het beter doet dan een 4060 Ti en een 4060. Kijken we naar de 9070Xt dan doet deze het een paar procent slechter dan een 4060 Ti. Intel heeft an sich dus in potentie een techniek die gelijkwaardig of zelfs iets beter scoort op performance per wat. Overigens is de non-XT een procent of 10-20% efficiënter dan de 4060 Ti dus daar zie je meteen waar de uitdaging ligt; AMD heeft extra stroom ingezet met diminishing returns. Het is even de vraag in welke mate Intel dit ook gaat doen. Maar in de basis lijkt Intel eigenlijk een prima startpunt te hebben.
Leuke vergelijking, aangezien ik zelf een RX 9070 (non XT dus) gebruik, maar ook daarmee vergeleken (ook de Techpowerup cijfers gebruikt) kom ik gewoon tot dezelfde conclusie:

- RX 9070 220W = 102% (!!!) beter dan B580 190W
- RX 9070 220W = 26% beter dan 7800 XT 263W
- B770 300W = ongeveer (zie 'bierviltje' hierboven) gelijk aan 7800 XT 263W

De RX 7000 serie heeft niemand ooit efficiënt genoemd voor zover ik weet dan is de B770 al helemaal niet efficiënt te noemen. Aangezien meer cores (t.o.v. B580) meestal ook niet heel lekker lineaire schalen gaat de B770 het waarschijnlijk ook nog minder goed doen dan op 'de bierviltjes berekening'

En ja, als je de RTX 4060 en RTX 4060 Ti 16GB als vergelijkingsmateriaal neemt ziet het er nog redelijk uit voor de B580, maar zijn dat nou echt efficiënte kaarten? Niet echt...

Intel zal het toch duidelijk van een scherpe prijs moeten hebben, net als bij de B580, en zeker niet van de performance/watt.
En ja, als je de RTX 4060 en RTX 4060 Ti 16GB als vergelijkingsmateriaal neemt ziet het er nog redelijk uit voor de B580, maar zijn dat nou echt efficiënte kaarten? Niet echt...
Zeker wel, de hele 4xxx serie van Nvidia is specifiek gericht op efficiëntie. Sterker nog de 4060 halveerde het benodigde TDP ten aanzien van de vorige generatie;
NVIDIA rating the RTX 4060 with a typical graphics power of just 115 W, around 50% less than that of the RTX 3060.
Aangezien Intel zich met die kaart kan meten, zowel in performance als in verbruik, kun je de Intel GPU's van alles verwijten maar niet dat ze een slechte performance per watt hebben. Je vergeet in je bierviltje rekening te houden met de performance die uit zo'n core kan worden gehaald.

Daar ligt in geval van Intel meteen ook de uitdaging. Want het ging bij Intel vooral mis in de drivers. Wat an sich te verwachten was aangezien ze een nieuwe speler zijn. Eindstand staat en valt performance per watt natuurlijk met je performance. Maar die performance is geen vaststaand feit. Zie bijvoorbeeld de her test van oktober jongstleden:
Switching to the Ryzen 5 5600 and checking four driver versions released between July and August, we see how slow the B580 was: just 87 fps on average, when it should have been CPU-limited to the same 117 fps as the 9060 XT. That's a typical 26% overhead hit.

What shocked us was the result with the latest driver. The B580 now reaches 118 fps, matching the 9060 XT. For systems with CPUs like the 5600, that's a 36% performance boost thanks solely to a display driver update. We narrowed down this major leap in performance to driver version 7028, released just four days after version 7026 in late August.
De Intel Arc drivers zijn nog volop in ontwikkeling, niet alleen voor cpu overhead.
Je vergeet in je bierviltje rekening te houden met de performance die uit zo'n core kan worden gehaald.
Serieus? Dat vergeet ik juist niet, de Intel B580 (en nogmaals; dat zijn EXACT dezelfde cores als de B770, die krijgt er alleen meer van) loopt
VER
achter op de actuele concurrentie


En dat is OOK gewoon keihard de conclusie van de, voor je quotes gebruikte, review van TechSpot:
"As things stand today, the 9060 XT 8GB costs ~10% more, yet delivers about 30% greater performance."

En de commentaren op het artikel zijn:
"The real winner of this test is the 9060XT 8GB. Intel is just not moving fast enough in the GPU sector, unfortunately."

"The Arc B580 wasn’t intended to directly compete with the 9060XT at launch, it was aimed at the 4060 and RX 7600. That said, I agree that Intel’s GPU division does need to step up its pace."


En de drivers? Daar hebben ze nu dus al een jaar lang heel veel werk aan verzet en nog steeds lopen ze ruim achter, zoals dus (zoals hierboven al aangehaald) ook te lezen in het laatste stuk van je TechSpot link, dat is immers allemaal met de verbeterde drivers. Er is misschien nog 'een paar procentjes meer te halen' maar ook daar is een 'wonderlijke ommekeer' verwachten simpelweg compleet onrealistisch...
Tja zo werkt dat bij videokaarten dus niet. Zie het voorbeeld dat we eerder al besproken; de 9070 en de 9070 XT. Beiden dezelfde architectuur en zelfs dezelfde chip. De 9070 zit qua performance per watt op het prestatie niveau van de marktleider Nvidia. Terwijl de 9070XT terug zakt naar het performance per watt niveau van een generatie ouderere 4060. Dit komt doordat een hogere frequentie een hoger voltage vereist en dat hogere voltage telt dubbel in de vermogensformule. Met andere woorden daar is geen pijl op te trekken. Niet zo lang je niet weet of Intel hogere frequenties binnen die 300W heeft toegepast om het target te bereiken, zoals bij een 9070XT, of dat ze simpelweg op lage frequentie kunnen draaien, zoals bij een 4070. Kijk maar eens wat deze kaart voor prestaties die neerzet met een TDP van 200W. Wanneer Intel dat prestatie niveau haalt binnen de gestelde 300W dan zetten ze een mooie stap vooruit. Of de kaart een aanrader wordt zal uiteindelijk afhangen van de prijs. Performance per watt is daar niet echt een factor in, zie de 9070 XT.

Intel heeft hoe dan ook de mogelijkheid om een spectaculair product op de markt te zetten, kwestie van de juiste prijsstelling. Bijvoorbeeld RTX 4070 prestaties voor $400 dollar, dat zou ik al spectaculair vinden.

Is het waarschijnlijk dat Intel dit gaat doen? De vorige producten leken eerder een proef om een beperkt exemplaren in het wild te krijgen. Ik acht de kans groot dat deze opvolger ook dat pad zal volgen en ze pas vol inzetten op volume wanneer voldoende progressie is gemaakt met de drivers.

[Reactie gewijzigd door sdk1985 op 9 december 2025 16:25]

De B580 doet het misschien beter dan de 4060 (Ti) maar die wederom doet het helemaal niet beter dan de 9070XT. Sterker nog, de 9070XT is zoveel efficiënter dan de 4060 (Ti), dat ie ook nog steeds grofweg 10% efficiënter is dan de B580. In die ene specifieke Test van TPU dan tenmiste. Geen idee waarom je zoveel moeite doet om te speculeren als er daarover gewoon hard cijfers bestaan.
Wat is nu precies het punt dat je probeert te maken? Dat performance per watt wisselt per TPU test? Dat klopt, dat komt omdat er geen perfecte test bestaat. Bij de test die ik pakte baseerde ze het op Cyberpunk. Bij de test die jij pakt baseren ze het op Cyberpunk 2077, Stalker 2 en Spider-Man 2. Voor het punt dat ik maakte is er eigenlijk geen verschil; de B580 heeft een TDP van 190W dus wanneer ze met een 300W TDP kaart komen op basis van dezelfde techniek zitten ze dichtbij genoeg qua performance per watt om een interessant product te produceren.
Jij haalde en jaar oude test aan van de B580 om vervolgens met losse speculaties tot de die conclusie te komen terwijl je gewoon betrouwbare data had kunnen gebruiken in je argument.

Verandert verder niks eraan dat de B770 wel degelijk interessant kan zijn en waarschijnlijk ergens tussen 9060XT en 9070 in komt kwa prestaties. Echt in de buurt van een 9070 (laat staan XT) zal de B770 niet komen. Meer richting de 7800XT verwacht ik op basis van de Xe-Unit bump en het vermogen.
Vreemde en onnodige aanval. De review van de 9070XT kwam uit maart 2025, logisch want toen kwam dat product uit. Jij komt met een review van een 9060XT uit juni 2025. Ook logisch want de 9060 XT toen uit. Scheelt letterlijk 3 maanden, dus de framing over oude en onbetrouwbare test is ongepast. Het verandert zoals je zelf ook aangeeft niks aan het verhaal. Zoals besproken is er in beide reviews geen sprake van een absolute waarheid omdat de fps in een game wordt gebruikt om de efficiëntie te berekenen. Die fps is weer afhankelijk van game specifieke voordelen, driver updates en updates van de games zelf.

Wat je er wel mee kan, en waar ik het voor heb gebruikt, is de B580 te plaatsen binnen wat de concurrentie doet. De data is goed genoeg om vast te stellen dat de B580 vergelijkbaar met de Nvidia 4xxx presteert op gebied van performance per watt. Tussen de review van maart en juni zit daarin geen verschil wat betreft 'betrouwbaarheid van de data', beide zijn moment opnames met dezelfde conclusie.

Op basis van de vaststelling dat de performance per watt gelijkwaardig is aan de RTX 4xxx serie kun je concluderen dat het aannemelijk is dat een TDP verhoging naar van 190W naar 300W voor een interessant prestatie niveau kan zorgen. Interessanter dan wanneer bijvoorbeeld uit de voorgaande tests was gebleken dat Intel qua performance per watt vergelijkbaar met een RTX 3xxx /RX 6xxx zou zijn. De performance per watt van een 9070 behalen is niet aan de orde en ook totaal niet nodig om een interessant product te introduceren.

Met andere woorden ik zie het probleem niet. Ik zie ook niet wat je reactie toevoegt aangezien je uiteindelijk tot dezelfde conclusie komt.

[Reactie gewijzigd door sdk1985 op 10 december 2025 13:35]

Dit is wel heel kort door de bocht, en geen idee waarom je hier een +2 voor krijgt. Een GPU bevat nog veel meer componenten (ook op de chip) die stroom verbruiken. Zeg dat die 50W verstoken (nog steeds compleet gegokt en dus waarschijnlijk compleet onwaar), dan verdeel je dus nog maar 140W over 20 cores, dat is 7W per core, 7 x 32 = 224W, dan houd je dus ineens ~76W over. Dat zou dus zomaar eens een 50/76 x 100 = 65,789% hogere kloksnelheid op kunnen leveren!!!111oneone...

Ja of niet dus... Sorry, maar dit soort berekeningen kun je echt niet zomaar maken.
Dit is wel heel kort door de bocht, ...
...
Sorry, maar dit soort berekeningen kun je echt niet zomaar maken.
Het is een 'bierviltjes berekening'... Dat is uiteraard geen exacte wetenschap omdat; dat uiteraard helemaal niet kan bij een product dat er helemaal nog niet is!

Wat wel kan is doorrekenen wat je wel zeker weet en dat is echt WEL meer dan genoeg om nu al zeker te weten dat het voor Intel met de B770 letterlijk onmogelijk is om een 'spectaculair product' op de markt te zetten.

Omdat het niets meer, en niets minder, is dan een 'grotere B580', daarom klopt het geschetste totaalbeeld in mijn 'bierviltjes post' weldegelijk. Wonderen bestaan namelijk niet in het videokaart-landschap waarbij je de achterliggende architectuur al kent.

[Reactie gewijzigd door HuisRocker op 9 december 2025 10:25]

Inderdaad, mijn 6900xt draait op 250 mhz lager dat acheelt 55% stroomverbruik voor 8% prestaties op zijn meest. Dat scheelt een bak centen uiteindelijk.
Ik undervolt ook (voor koeling en geluid).. maar een kWh kost minder dan 25 cent. Dan moet je wel héél veel gamen om er een flinke bak centen mee te besparen. Tientje per jaar ofzo als je 365 dagen per jaar elke dag een uur gamed.

(Zeker als je bedenkt dat de kaart in de praktijk ook niet constant 100% load nodig heeft.)
Bij mij kost een kwh 32 cent en het kan nog hoger, dus de verschillen ook ;)

De meeste Nederlanders in ieder geval hebben geen dynamisch/variabel energiecontract en dus zijn de verschillen in tarieven potentieel nog best groot :)
Dat tikt toch harder aan dan je denkt. Een gpu gaat bij mij gemiddeld 5 jaar mee en ik game gemiddeld 5 uur per dag.

Dat is dus 5 x 0,155 watt x365 dagen x 5 jaar x tarief.

Dat is dus 350 euro wat je bespaard en wat een minder zuinige kaart dus extra kost. Dat is toch weer een halve gpu upgrade of a andere upgrade. Cpu zelfde mijn 9800X3D pc was idle standaard 105 watt put of the box. Dat heb ik weten terug te brengen naar 64 watt. Dat scheelt met de ruim 6 uur oer dat dat de pc zo goed als idle is dus ruim 100 euro.


Al met al bespaart een beetje tunen dus al snel een halve High ens gpu pf een CPU of vorige maand nog een ram plus mobo setje. (Die goeie ouwe tijd haha)
Vraagje, op wat voor een idle verbruik heb je jouw 9800X3D kunnen krijgen? Ik overweeg te upgraden, maar gezien mijn computer het gros van de tijd op idle staat vind ik dit erg belangrijk. Ik heb ook moeite om online mensen te vinden die daadwerkelijk hun best doen het verbruik omlaag te krijgen.

Zit zelf op een 5700G met DDR4 @ 1866MHz voor een 4.5W idle op het moment van schrijven. 12W oid voor een 9800X3D zou mijn inziens nog te behapstukken zijn indien dit mogelijk blijkt.
Mijn hele systeem met 2 sata en 1 nvme ssd en een 3 watt led string is 64 watt idle en dat is met een x650e WiFi bord.

Energie plan balanced

Undervolt naar 1,138v op geheugen (vdd)

Undervolt naar 1.17 op cpu/nb

Dram vddq op 1,25v

Vdd89 op 1.25v

En cpu voltage staat op auto maar is onder cinebench load max 1.089v

Idle cpu power draw is 17 a 18 watt full load 108 watt.


Lager is me gelukt maar dat is niet stabiel onder iedere game. Hiervoor moet je de PCIe power plan op max besparen zetten maar er zit ergens een fout in windows, drivers of in de architectuur waardoor dit crashes veroorzaakt bij het uit slaap komen van een hard drive. Met alleen een nvme ssd werkt dit mogelijk wel maar dat heb ik niet getest omdat ik wel meerdere sata hdd nodig heb. Met deze besparing gebruikt de hele pc maar 54 watt idle.


Maar ik draai dus in totaal 64 watt idle.
Thanks voor het delen, 18w is best netjes op Balanced. Op welke snelheden draai je je werkgeheugen? Naar mijn ervaring scheelt dit onwijs veel verbruik pp idle, en vrijwel geen prestaties in gaming.

Je benoemt "PCIe power plan op max besparen zetten". Wat bedoel je hier precies mee? Ik ken zelf alleen de opties in Energiebeheer. Zou mooi zijn om een paar extra wattjes te kunnen besparen als dit iets is waar ik nog nooit van op de hoogte was :D

Heb je het verbruik van de 9800X3D ook wel eens gemeten met het Power Saving power plan in Energiebeheer? Scheelt bij mijn processortje best veel tov Balanced: 4.5W VS 9-10W

[Reactie gewijzigd door TheRollinLegend op 9 december 2025 15:59]

Mij geheugen is 6000 cl28 met de timings van hardware overclocking die het geheel flink sneller maken. (In benchmarks haha)

Als je in je balanced energie profiel naar geavanceerd gaat kan je bijvoorbeeld je min cpu clock instellen op 5% maar ook kan je je pcie power setting beheren op standaard geen besparing of max besparen. Max scheelt 13-15 watt maar is dus niet op alle builds stabiel.

Power saving en max performance zijn eigenlijk profielen die je niet wil gebruiken omdat dat het gedrag van de cpu beïnvloed en of de boosts of the idle piwer draw beïnvloeden.
Die min cpu clock setting heb ik nooit echt begrepen eerlijk gezegd. Waarom zou een processor minimaal voor "5% actief blijven" als deze nog lager kan idlen? Of begrijp ik hem niet goed? Ik heb deze zelf altijd op 0% staan.

Ik ga die pci-e instelling eens controleren, dankjewel voor het delen!

Ik heb via een tooltje genaamd Winaero Tweaker de instellingen van het Energiebeheer tabblad aan het "Context Menu" (zo heette het volgens mij?) in Windows toe kunnen voegen. Dus 2 klikken en ik zit weer even op power saving voor langdurig idlen of lichte games. Misschien is dit ook een handige voor jou.

Mijn pc zit momenteel als geheel tussen de 50-60W volgens mij, dus wat jij hebt kunnen bereiken vind ik erg indrukwekkend. Al heb ik er weer een geluidskaart bij, wat ook niet meehelpt (+6W).
Ja dit is echt een PCU en scenario specifieke setting.
Sommige settings zoals C states uit in de bios zorgen ervoor dat je CPU altijd 100% frequentie blijft draaien. Door min 5% in te stellen overruled windows dit en gaat hij dus terug naar de min clock van de cpu. Bij mijn vorige intel build was dit 800 Mhz wat meer was als 5% van de 5100 Mhz all core waar hij op draaide onder load.
Mijn huidige AMD CPU kan bijvoorbeeld de cores helemaal uit zetten maar heeft een minimale clock van 2350 Mhz. Ver boven de 5% dus en daarna gaat de core gewoon in park. Het voorkomt echter wel dat de cpu op 5225 Mhz blijft draaien.
% is gewoon een veilig minimum wat voor veel processoren door de tijd werkt. Dit is echter geen regel en doet in veel gevallen zelfs helemaal niets maar beter ingesteld als niet ingesteld zeg ik altijd maar. Het kan namelijk geen kwaad.

Wat betreft energie beheer ik heb zelf een bug gehad waarbij het installeren iets in de power plan op de achtergrond veranderde waardoor hij om misterueuze wijze flink meer verbruikte. Als je na een chipset driver update even in het profiel defaults herstelt en je instellingen weer aan past is alles weer goed.

En ja winearotweaker is een must.


Poer draw word natuurlijk ook bepaald door features. Ik heb bijvoorbeeld wifi en Bluetooth uitgeschakeld en ook de onboard GPU via de bios uitgezet. En ik was zelf ook onder de indruk van hoeveel ik alles kon undervolten zonder enig verschil.

vddio en vddq konden van 1.3 naar 1.25 bijvoorbeeld en zonder problemen draait PBO -40 wat 32 watt load scheelt en 5 a 6 watt idle.

Volgens mij was ik PBO offset -40 vergeten te vermelden bij de vorige post.

[Reactie gewijzigd door computerjunky op 11 december 2025 14:18]

Een X3D cpu is dan geen logische keuze. Out of the box heb ik hier een idle van 17W (2W cores, 1.41W L3 cache). Maar een stukje verderop staat ook nog Radeon graphics (de IGP) en daar staat 18W idle met 5W SoC en die zie ik regelmatig richting de 40W schieten. Dit terwijl ik een RTX 4070 in het systeem heb zitten met idle 14W.
Ik ben ook al van een 5700X3D naar de 5700G gegaan, scheelde 8w in idle.. Ik was echter benieuwd of een "best-of-the-best" cpu te behapstukken zou zijn in een systeem gericht op zuinigheid :D

Het enige dat ik wel uit je reactie haal is dat een 4070 als een goede upgrade klinkt :9 Momenteel een 2080 met 10W idle in gebruik, maar hij komt wat tekort in prestaties. Al geld dat volgens mij voor elke videokaart met de eis voor 4K native gaming |:(
Hoeveel scheelt em dat echt? Het gaat zo vaak over stroomverbruik maar op jaarbasis gaat dit toch echt over absolute peanuts? Hoeveel spaar je in absolute euro's dan uit op een maand volgens jou?

Theorie: Drie typische verbruiken onder volle belasting (100 W, 200 W, 300 W), drie onderclock/undervolt-resultaten (10%, 20%, 30% reductie) en drie gebruiksprofielen (4 u/dag typisch gamen, 8 u/dag zwaar gebruik, 24 u/dag continu). Besparing in €/maand bij €0,30/kWh

100 W GPU
  • 10% → bespaart 1,2 kWh (4 u/dag) → €0,36/maand
  • 20% → bespaart 2,4 kWh (8 u/dag) → €0,72/maand
  • 30% → bespaart 7,2 kWh (24 u/dag) → €2,16/maand
200 W GPU
  • 10% → bespaart 2,4 kWh (4 u/dag) → €0,72/maand
  • 20% → bespaart 4,8 kWh (4 u/dag) → €1,44/maand (rekenvoorbeeld)
  • 30% → bespaart 21,6 kWh (24 u/dag) → €6,48/maand
300 W GPU
  • 10% → bespaart 3,6 kWh (4 u/dag) → €1,08/maand
  • 20% → bespaart 7,2 kWh (8 u/dag) → €2,16/maand
  • 30% → bespaart 64,8 kWh (24 u/dag) → €19,44/maand
Een scenario van 100% belasting 24/7 onder load bespaart je met moeite een Big Mac menu bij Mcdonalds.

[Reactie gewijzigd door JacobsT op 9 december 2025 09:55]

Mikn gpu underclock bespaart letterlijk 155 watt met gamen. Dat keer gemiddeld 5 a 6 uur per dag. Keer 365 keer 5 jaar is dus al snel 350 a 400 euro. En dan heb je nog tweaks voor idle power draw van de pc.
Je spreekt hier dus letterlijk over een gemiddelde dan van 6 euro per maand volgens jouw cijfers oftwel 20 CENT per dag en dan moet je die 5u per dag 100% load halen in optimale omstandigheden, want niet elke type game belast een GPU hetzelfde. In de realiteit ga je zelfs geen 6 euro per maand halen dus.

Undervolten op handhelds voor battery life? Sure, makes perfect sense.
Argument om kosten te besparen? Complete onzin wat mij betreft.
Tot zover 'de bak centen'.

[Reactie gewijzigd door JacobsT op 9 december 2025 13:39]

Het probleem voor mij is eerder dat je bij een hoger verbruik dus ook gevolgen in de tweede instantie hebt:

- Je hebt een zwaardere (duurdere) voeding nodig

- Je produceert meer hitte, dus de GPU heeft betere koeling nodig, mogelijk gepaard met meer herrie

- De hitte van je GPU heeft weer invloed op de temperatuur van de overige componenten, of de hoeveel / kwaliteit fans die je nodig hebt, ook weer met extra geluid

Nu is 300W nog soort van een acceptabele bovengrens, zeker wanneer je een verder vrij decente X3D gaming chip er naast hebt. Maar heb je verder een dorstige CPU, is een 600-700W voeding al snel (te) krap bemeten.
Het is niet omdat je een zwaardere PSU hebt dat je ook meer verbruikt. Integendeel. Voedingen die je meer headroom geeft werken doorgaans efficienter...
Dat was niet het punt. Je hebt wel een zwaardere voeding nodig indien je huidige voor het nominale verbruik, of eventuele pieken, onderbemeten is. Heb je een GPU die weinig verder gaat dan 200W, kan je met 100W minder uit dan een 300W GPU, dat scheelt gewoon kosten en mogelijk zelfs de aanschaf van een nieuwe voeding. En een GPU die op z’n tenen wordt getrapt qua voltage zal ook hogere pieken tonen, wat je ook mee dient te nemen. Daar had AMD ook wat last van in voorgaande generaties.

Een hoger verbruik kan dus ook de doorslag geven voor een ander merk te gaan, omdat diens GPU wel binnen de vermogensgrenzen van je huidige systeem blijft. Al met al is het voor je directe kosten dus wellicht om het even, maar indirect is het dus wel een factor van belang in de koopoverweging.
We horen vaak dat de stroomnet in Nederland vol is. Zwaar belast. Kan niks meer bij. En dan hebben we moderne electronica waarbij een klein beetje minder frequentie meer dan de helft van het verbruik bespaart. GPU's (en ook CPU's) zijn behoorlijk geschift geworden.
Ja alles is tegenwoordig maximaal overclocked vanuit de fabriek. Een 5090 gebruikt 575 watt maar als je hem limiteert op 225 watt is hij nog steeds rete snel en verlies je maar een paar procent prestaties maar scheelt dat dus enorm veel verbruik.
Of juist verder overclocken.
Meestal is het verbruik bij overklokken (ver buiten het optimum) niet lineair hoger. Dan geldt: meer verbruik, minder extra prestaties: diminishing returns. Als het wel lineair was zou de gpu standaard hoger geklokt zijn in de race om snelheid. Ook heeft Intel er sinds ongeveer 6 jaar een handje van zelf te overklokken bij desktop processoren. Die werkwijze leidde tot stabiliteitproblemen bij 12-14th gen processoren. De grenzen zijn al ver opgerekt, wat leidt tot (extreem) hoog verbruik.

Ook underclocken heeft een grens. Intel is al jaren bezig deze grenzen op te schuiven om yields/returns te optimaliseren.

Ik verwacht dan ook dat een gpu met 300W DTP van hetzelfde laken een pak is.
is laatste jaren toch vaak hoe ze "sterkere" kaarten op de markt brengen? het is weliswaar een kaart die af fabriek hoger geklokt is dan het normaal zou zijn, om dan te kunnen zeggen "hij is x keer sterker"

de 5090 kan je 70%-80% power limit op zetten en je verliest relatief weinig performance, dan hadden ze die kaart dus ook als een 450W kaart kunnen uitbrengen met minimale winst tov de 4090 (uiteindelijk zelfde node) en dan had de eindgebruiker zelf veel meer kunnen overclocken.
Nu krijg je een hogere clock van de fabriek af, dat is toch prima? Underclocken kan je nu altijd nog om energie te besparen.

Het is een beetje alsof je een auto koopt met een af fabriek chiptuning. Nu hoef je dat niet achteraf te doen.
Je weet de efficiëntie toch niet met alleen het verbruik. Als straks blijkt dat die +20% meer FPS genereert dan een Radeon RX 9070 XT, dan is die 20% efficiënter.

Undervolten kan overigens vaak ook met hoger dan stock clock speeds, en dus prestatiewinst realiseert icm met minder stroomverbruik.
Ik betwijfel of dat de intel kaart in de praktijk sneller zal zijn dan de 7090XT. Het zou wel gaaf zijn..
Performance per watt bij de B580 is anders niet slecht:

review: Intel Arc B580 - Grote stap voor Intel, kleine stap voor gamers

Dus met genoeg HPU cores op de kaart is dat geen onmogelijkheid. Het blijft natuurlijk afwachten op benchmarks.
ls je 33% meer stroom verbruikt en minder dan 33% extra performance hebt doe je absoluut niets met die extra power.

Ik ben dan wel benieuwd hoe veel een undervolt uitmaakt. In veel gevallen kun je in ruil voor 5% minder performance 33-50% minder stroom verbuiken (en dus minder hitte en minder fan speed, dus stiller).
Of het naar ratio nuttig is valt te betwijfelen maar het doet dus wel degelijk iets. En jij mag 300 watt veel vinden maar voor een game oplossing is het gewoon gemiddeld. Dus als je élke dag 2 uur zware spellen speelt kost het ~200 kWh afhankelijk van je energiecontract ergens tussen de 40 en 60 euro per jaar, dat zou geen pijn moeten doen als je ook 1000+ uit geeft aan een PC.
Mijn 4070ti slurpt maximaal 220w, en daarmee speel ik CP77 op 3440x1440 met path tracing op ~90 fps (met dlss uiteraard wel). Dat is de enige game die meer dan 200w vraagt. BF6 loopt op 144 fps zonder dlss en verbruikt ~30w minder.

Ik heb waarlijk geen idee waarom 300w 'gemiddeld' zou moeten zijn. Het is klaarblijkelijk nergens voor nodig. Ik vraag me echt af waarom mensen zo blij zijn met een straaloven en stofzuiger op hun bureau - De stroombesparing is hier nog niet eens zo belangrijk als de afname in hitte en dus de afname in fan speeds.
Het moet ook niet gemiddeld 300 watt zijn, het gemiddelde TDP is 300 watt in dit segment, het verbruik is wat ik al aangeef veel lager.
Zonder undervolt gaat mijn GPU tot 280-300w, dat is ook de TDP van die kaart. Met undervolt zit ik tussen 160 en 220w afhankelijk van de game.

In tests and reviews komt de geadverteerde TDP van GPU's vrijwel altijd overeen met het (piek)verbruik op 100%. Dat cijfer kun je dus niet zo eenvoudig negeren binnen deze context. Het gemiddelde verbruik zal toch wel vaak op of rond de TDP liggen, in ieder geval bij moderne games.

EDIT: Wellicht heb ik je idd verkeerd begrepen, het gemiddelde verbruik ligt inderdaad lager, maar het piekverbruik in de standaard configuratie komt wel goed overeen met de TDP.

[Reactie gewijzigd door Khrome op 11 december 2025 12:53]

Deze manier van rekenen is waarom mensen arm blijven. Als je pc zoveel meer stroom verbruikt betaal je effectief dus geen 1000 euro voor je gpu maar wel tot 1500. Je betaalt alleen een deel van de kosten pas achteraf. Je kan dua beter een gpu kopen die 100 watt zuiniger is voor zo goed als dezelfde prestaties en dus 500 bespaart over de levensduur.
Ik zie niet hoe de berekening mensen arm houd want ze zijn ruim 7 jaar gamen verder, prima tijd voor weer een nieuwe PC.
Als je overal zo makkelijk honderden euros weg gooit is dat over een heel leven en alle aspecten van je financiën waarschijnlijk flink meer dan je door hebt door de manier van denken.

Ik ben echt een centen neuker maar daar ben ik trots op want ik heb altijd meer uit minder weten te halen door alles volledig door te rekenen en niet te doen alsof bepaalde kosten niet bestaan zoals velen doen.

Alle beetjes bij elkaar telt heel hard op.
Intel heeft alle reden om te brute forcen. Ze hebben een killer kaart nodig met above-midrange performance. Dat gaan ze nu niet bereiken door op efficiency te richten.
Ik vind het persoonlijk ook erg veel. Met de 9070 XT was een goede undervolt voldoende om het richting de 210W te drukken. Als je dat inderdaad afzet tegen een 3090 TI of een 7900 xt(x) uit de generatie daarvoor, is het daardoor een zeer krachtige kaart die veel terrein had gewonnen op efficiëntie, voor een degelijke prijs (op huidige markt).

Hiervoor altijd laptops gehad en mij verbaast hoever desktop kaarten eigenlijk van hun optimum zitten qua perf/watt, voor soms (bv 9070xt) enkele procentjes in fps winst.
Tuurlijk is efficientie beter, hier is Nvidia op dit moment het best in. Hierdoor verbruikt de concurrentie meer om dezelfde prestaties te halen. Nvidia heeft de basis in handen. Als zij hun wattage verminderen en minder prestaties leveren dan volgt de rest.
M'n 5070Ti verbruikt ook 300W max, maar gamed wel erg fijn ;) had ook verwacht dat die zuiniger was, maar m'n 7800XT verbruikte ook ruim 270W met gamen, dus 30W meer verbruik en (veel) meer gaming.
Het ligt er echt aan wat je met een GPU wilt gaan doen, voor non-gaming is het wel veel ja.
Voor non gaming springt je gpu in idle en verbruikt dan bijna niets. ;)
Dat verschilt echt enorm per gpu. Die van mij is 5-7 watt afhankelijk van de drivers maar andere gebruiken nog gewoon 35 of zelfs 100 watt met multi monotor setup.
Door mijn 144Hz monitor gaan op zowel mijn interne GPU (van mijn APU) en mijn dedicated GPU de wattages flink omhoog. Op 60Hz zou het maar enkele watt zijn. Met smartphones heb je tegenwoordig LTPO om verbruik omlaag te drukken. Vraag me wel af waarom zoiets niet wordt toegepast icm met een al bestaande technieken zoals Freesync/Gsync in desktops en monitors.
Mijn gpu draait op 5 tot 7 watt idle met een 185 hz 1440p panel en een 75 hz panel maar die 2de moet daarvoor wel op 59.95 hz staan.

Zet ik hem op 60hz of 75 hz dan gaat de power draw naar 27 watt.

Puur een driver probleem dat AMD maar niet gefixed krijgt.

Met de nieuwe drivers os het nu 7 watt maar mer 23.5.1 is het maar 5 watt. En met 24.10.1 is het 11 watt omdat er toen maanden lang weer een bug in zat. Voor 7000 en 9000 is het helemaal een drama.
Dankjewel voor je reactie, had inderdaad ook zelf al wat exotische fixes gezien (bv 143Hz) on de driver bug te fixen. Het rare is dat de 680M in mijn minipc hier minder last van had op 144Hz.

Het is winter, dus dat kleine extra beetje stroom (20W) gaat op als kamerverwarming, zo zie ik het maar. Desalniettemin zijn mobiele chips (ook icm LTPO schermen en dynamische verversing) een stuk beter uitgeoptimaliseerd. Valt nog veel te winnen.
Ik zie daar tegenwoordig wel een optie voor in Windows, maar ik kan hem igg niet aanzetten.
Juist de A series van Intel kaarten was een energie slurper in idle, lees de reviews maar terug.
Alles valt of staat met de performance per watt natuurlijk, 300W is hetzelfde TDP als een 5070 Ti of ongeveer dat van een 9070 XT.

Als de B770 ongeveer dat performance niveau weet te halen dan is er dus helemaal niks aan de hand. Maar blijkt de B770 bijv. slechts ~60-70% van de prestaties als de AMD en Nvidia opties neer te zetten, dan is het qua stroomverbruik of beter gezegd efficiëntie betreft gewoon een minder product.
In dat tweede geval wordt het gewoon een rekensommetje op basis van hoeveel uur je per week gamet, hoelang je je kaart denkt te houden en wat de stroomkosten voor je zijn wat de betere keuze is over de volledige levensduur.

[Reactie gewijzigd door !mark op 8 december 2025 18:36]

Dat gaat gewoon niet gebeuren. 50% meer cores die historisch nooit tot 50% meer prestaties leiden door gedeelde resources elders.

En dan nog het feit dat de b580 al 190 watt slurpt en de 9070XT gewoon ruim 2x zo snel is.

Dan zal de kaart dus minimaal 50% clock snelheid omhoog moeten gaan wat gewoon onmogelijk is omdat hij dan bijna 4300 mhz zou moeten draaien en dat is ALS allei 1 op 1 zou schalen wat het nooit doet.
Ja, als de aanschafprijs lager ligt en niet veel gebruikt dan kan het qua kosten wel waard zijn. Ik ben benieuwd.
Probleem gaat worden dat als ze de kaart nu nog moeten maken dat de geheugen prijzen enorm zijn gestegen, gaat het moeilijk maken om te concurreren met kaarten van Nvidia en AMD die al gemaakt zijn met goedkoper geheugen.
Ga er maar van uit dat die niet die performance van de 5070ti/9070xt gaat halen, denk dat je al blij mag zijn met 5070. Maar wie weet verrast Intel ons nog. Hoop wel dat die dit keer wel SteamVR goed ondersteund, want de A770 deed dat niet.
Dit concurreert dan ook niet met een 5090.
Intel GPUs (Battlemage ook) hebben altijd wat meer watt nodig dan de concurrentie, hun performance/watt is gewoon nog niet daar... Ik denk als ze een leuke optie willen zijn in het RTX5070 segment, dus ze het wattage wat hebben opgeschroefd om daar mee te kunnen concurreren qua performance... en hopelijk weer op een concurrerende (of op z'n minst vergelijkbare) prijs uit te komen.

(ze hebben met de A770 / A750 de kaarten ook eigenlijk veel goedkoper gemaakt dan eerst van plan.. de performance (per watt) was niet waar ze gehoopt hadden, dus dan maar verkopen als een goedkoper instapmodel wat meer stroom gebruikt dan de concurrentie).
Ligt aan de efficiëntie, als deze Intel kaart 300 watt gebruikt en niet sneller is dan bijvoorbeeld een rx9070 die 220 watt gebruikt, dan is die 300 watt niet goed.
Zonder te weten hoe de kaart presteert zegt die 300W niets.
Ze gebruiken de zelfde Xe2 cores als de andere Battlemage (B serie) videokaarten. Daar is van bekend hoe die presteren.
kaart is nog niet aangekondigd en iedereen weet al wat er in zit,

zou me niet verbazen als het een refresh is of kleiner procedee,

Nu nog een kaart uitbrengen met 4 jaar oude cores is wel een beetje slecht als ze dat doen.
4 jaar oude cores? Xe2 is in december 2024 aangekondigd. Het is nog maar net een jaar oud.
In zoverre dat ze niet meer verbruiken dan de concurrentie, ongeacht de prestaties. 300watt max. is 300 watt max.

Afwachten wat deze grafische kaart gaat doen.

[Reactie gewijzigd door Tourmaline op 9 december 2025 14:20]

Benieuwd naar de prestaties, hoe langer ze het nog uitstellen hoe achterhaalder die wordt wss.

De stijgende geheugen prijzen zal ook vast negatieve invloed op de prijs hebben.
Als ie ongeveer gelijk presteert als de Radeon RX 9070 XT maar goedkoper is, hebben ze een goede kans.
Maar dat gaat niet gebeuren want daarvoor moeten de clocks met minimaal 50% omhoog. Je gaat immers van 20 naar 32 units die overige prestaties zouden dan uit de clock moeten komen en dat is nog een best gat van 25-35%
Ja inderdaad, en zo moeilijk te begrijpen is dat toch niet? Ik heb er een 'bierviltjes berekening' op losgelaten hierboven en kom tot dezelfde conclusie.
Ja, precies. Zolang de zelfde Xe2 cores worden gebuikt is het vrij goed te voorspellen wat de prestaties gaan worden. En dat is precies wat ze gaan doen. Dus jammer, hij gaat kwa prestaties en efficiëntie weer flik achterblijven bij Nvidia en AMD.

Hij moet sneller en goedkoper worden dan een RTX 5060 Ti en RX 9060 XT 16 GB anders is ie DOA.

[Reactie gewijzigd door The Reeferman op 8 december 2025 20:11]

Voor mij zal het ook enigszins uitmaken hoe lang die is. de Intel GPU's zijn vaak niet zo groot qua afmeting en dat scheelt voor mini-pc's.
Tja ik weet niet of dit nou iets is om trots op te zijn, 300 watt, een hoger verbruik. Sowieso zal eerst eens bekend moeten zijn wat de prestaties zijn, maar ja dan nog vind ik 300 watt behoorlijk.

Snap ergens ook niet dat je daar niets van hoort dat videokaarten zoveel stroom wegvreten terwijl aan alle kanten geroepen word om energie te besparen. Alles moet steeds zuiniger worden en labels krijgen wat ook prima is verder maar ja, blijkbaar hoeft dat bij videokaarten niet.
ik weet het niet hoor, maar ik heb m'n videokaarten altijd al gekocht op 'max verbruik'. Ik hoef gewoon geen extra verwarming in mijn kantoorkamertje in de zomer, en ik ben al best snel tevreden met de performance, en hoef niet perse het beste van het beste.


Probleem van deze kaart is dat hij een volle 300 watt nodig heeft wat waarschijnlijk nodig is om zijn efficiëntie tegenover de concurrentie weg te werken. Oftewel, ze willen qua kosten en performance concurreren met een rtx5060ti / rtx9060, maar moeten daarvoor het stroomverbruik _veel_ hoger opschroeven dan deze concurrenten, om ze qua performance te kunnen matchen.

(dit is mijn gok uiteraard, nog weinig bekend over de kaart. Maar perf/watt is niet Intel z'n best selling point zeg maar).
Bij mij hetzelfde, ik gebruik nu al een jaartje of 3 een simpele RTX3050 die voor mij prima voldoet.
Iemand een idee waarom Intel GDDR6 op deze kaarten gaat plaatsen?
GDDR7 is toch ook al weer een tijdje verkrijgbaar, dan zou ik eigenlijk verwachten dat ze dat zouden gebruiken, en dan eigenlijk ook meteen 24Gb i.p.v. de nu geplande 16.
Dat is voor gebruikers die veel met AI beeldgeneratie werken wel prettig namelijk en had mij over de streep kunnen trekken om voor het eerst een Intel GPU aan te gaan schaffen.
Heb je enig idee hoe duur en onmogelijk te krijgen dat is? Behalve dat de Battlemage architectuur al ouder is en uitkwam voor de eerste kaarten met GDDR7 uitkwamen, is er zo'n groot tekort aan GDDR7 op dit moment dat zelfs Nvidia hun SUPER generatie uit moet stellen. Daar kan Intel dus al helemaal niks mee.
Ze mogen wel haast maken met een 2025 release (y)
Vond je opmerking wel grappig, maar blijkbaar vind niet iedereen hem dus grappig. ;-)

Op dit item kan niet meer gereageerd worden.