Gerucht: Intel Arc B770 heeft met 300W hoogste tdp van alle Arc-gpu's

De Intel Arc B770 krijgt naar verluidt een tdp van 300W. Daarmee zou deze gpu het hoogste maximale vermogen verbruiken van alle videokaarten die Intel tot dusver heeft uitgebracht voor consumenten.

Uit leveringsdocumenten valt op te maken dat de Intel Arc B770 een tdp van 300W heeft, meldt VideoCardz. Dat zou de hoogste tdp zijn in Intels Arc-consumentenlijn. De Arc A770 en A750 uit 2022 kunnen momenteel het meeste verbruiken, met een tdp van 225W. Overigens heeft Intels grootste concurrent, Nvidia, al consumenten-gpu's uitgebracht met veel hogere tdp's. De RTX 5090 verbruikt bijvoorbeeld maximaal 575W.

Intel heeft de Arc B770 nog niet officieel aangekondigd, hoewel er in de afgelopen maanden meermaals verwijzingen naar de kaart zijn verschenen. Het zou gaan om een hoger gepositioneerde videokaart op basis van Intels Battlemage-architectuur. Volgens geruchten krijgt de videokaart 32 Xe2-cores en een 256bit-geheugenbus. Ook moet de videokaart beschikken over een PCIe 5.0 x16-interface en 16GB GDDR6-vram. Meerdere ingewijden vertelden eerder dit jaar tegenover Tweakers dat de videokaart in de tweede helft van 2025 verschijnt, maar het is niet duidelijk of dat nog altijd het plan is.

Door Kevin Krikhaar

Redacteur

08-12-2025 • 18:07

20

Submitter: Scribe

Reacties (20)

Sorteer op:

Weergave:

Als je naar de concurrenten kijkt valt 300 watt nog wel mee.
300 watt vind ik zelf toch nog steeds wel veel. Ik had gehoopt dat men meer richting efficiëntie gaat dan brute force. Als je 33% meer stroom verbruikt en minder dan 33% extra performance hebt doe je absoluut niets met die extra power.

Ik ben dan wel benieuwd hoe veel een undervolt uitmaakt. In veel gevallen kun je in ruil voor 5% minder performance 33-50% minder stroom verbuiken (en dus minder hitte en minder fan speed, dus stiller).
TDP van AMD Radeon RX 9070 XT is 304 watt. Niet overdreven veel dus. Als de prestaties ook nog een beetje mee kunnen komen.
TDP van AMD Radeon RX 9070 XT is 304 watt. Niet overdreven veel dus. Als de prestaties ook nog een beetje mee kunnen komen.
Weinig kans! Waarom? Omdat:
- de B580 20 Xe2-cores en een tdp van 190W heeft
- de B770 32 Xe2-cores en een tdp van
(ongeveer) 300W heeft
- B580 190W / 20 = 9,5W per core
- B770 300W / 32 = 9,375W per core
- B580 zit ongeveer op 'RX 7600 XT en RTX 4060 niveau'
- doe dat keer (32 / 20 =) 1,6 en je komt
- ongeveer op 'RX 7800 XT en RTX 3080 niveau' voor de B770
- de RX 9070 XT is maar liefst 41% sneller dan de 7800 XT en RTX 3080
- ja, hierboven is een bierviltjes berekening... , maar 1 ding is wel duidelijk Intel kan nooit zomaar ineens 41% prestatie winnen t.o.v. de B580 met exact dezelfde cores met ook hetzelfde verbruik

Alstublieft en graag gedaan! :)
Of juist verder overclocken.
Je weet de efficiëntie toch niet met alleen het verbruik. Als straks blijkt dat die +20% meer FPS genereert dan een Radeon RX 9070 XT, dan is die 20% efficiënter.

Undervolten kan overigens vaak ook met hoger dan stock clock speeds, en dus prestatiewinst realiseert icm met minder stroomverbruik.
Inderdaad, mijn 6900xt draait op 250 mhz lager dat acheelt 55% stroomverbruik voor 8% prestaties op zijn meest. Dat scheelt een bak centen uiteindelijk.
M'n 5070Ti verbruikt ook 300W max, maar gamed wel erg fijn ;) had ook verwacht dat die zuiniger was, maar m'n 7800XT verbruikte ook ruim 270W met gamen, dus 30W meer verbruik en (veel) meer gaming.
Het ligt er echt aan wat je met een GPU wilt gaan doen, voor non-gaming is het wel veel ja.
Voor non gaming springt je gpu in idle en verbruikt dan bijna niets. ;)
Dat verschilt echt enorm per gpu. Die van mij is 5-7 watt afhankelijk van de drivers maar andere gebruiken nog gewoon 35 of zelfs 100 watt met multi monotor setup.
Alles valt of staat met de performance per watt natuurlijk, 300W is hetzelfde TDP als een 5070 Ti of ongeveer dat van een 9070 XT.

Als de B770 ongeveer dat performance niveau weet te halen dan is er dus helemaal niks aan de hand. Maar blijkt de B770 bijv. slechts ~60-70% van de prestaties als de AMD en Nvidia opties neer te zetten, dan is het qua stroomverbruik of beter gezegd efficiëntie betreft gewoon een minder product.
In dat tweede geval wordt het gewoon een rekensommetje op basis van hoeveel uur je per week gamet, hoelang je je kaart denkt te houden en wat de stroomkosten voor je zijn wat de betere keuze is over de volledige levensduur.

[Reactie gewijzigd door !mark op 8 december 2025 18:36]

Ja, als de aanschafprijs lager ligt en niet veel gebruikt dan kan het qua kosten wel waard zijn. Ik ben benieuwd.
Dat gaat gewoon niet gebeuren. 50% meer cores die historisch nooit tot 50% meer prestaties leiden door gedeelde resources elders.

En dan nog het feit dat de b580 al 190 watt slurpt en de 9070XT gewoon ruim 2x zo snel is.

Dan zal de kaart dus minimaal 50% clock snelheid omhoog moeten gaan wat gewoon onmogelijk is omdat hij dan bijna 4300 mhz zou moeten draaien en dat is ALS allei 1 op 1 zou schalen wat het nooit doet.
Zonder te weten hoe de kaart presteert zegt die 300W niets.
Benieuwd naar de prestaties, hoe langer ze het nog uitstellen hoe achterhaalder die wordt wss.

De stijgende geheugen prijzen zal ook vast negatieve invloed op de prijs hebben.
Als ie ongeveer gelijk presteert als de Radeon RX 9070 XT maar goedkoper is, hebben ze een goede kans.
Maar dat gaat niet gebeuren want daarvoor moeten de clocks met minimaal 50% omhoog. Je gaat immers van 20 naar 32 units die overige prestaties zouden dan uit de clock moeten komen en dat is nog een best gat van 25-35%
Ja inderdaad, en zo moeilijk te begrijpen is dat toch niet? Ik heb er een 'bierviltjes berekening' op losgelaten hierboven en kom tot dezelfde conclusie.
Vond je opmerking wel grappig, maar blijkbaar vind niet iedereen hem dus grappig. ;-)

Om te kunnen reageren moet je ingelogd zijn