Intel hint op komst Arc B770-videokaart op sociale media

Intel lijkt de komst van een Arc B770-videokaart te teasen op sociale media. Het bedrijf reageert massaal op gebruikers die daar om vragen met de tekst 'stay tuned'. Het zou een hoger gepositioneerde videokaart moeten worden ten opzichte van de huidige B580.

Intel reageerde in de afgelopen dagen herhaaldelijk op gebruikers die om de Arc B770 vragen op sociale media. Het bedrijf zegt daarbij steeds 'stay tuned', zo merkte techwebsite VideoCardz als eerste op. De chipmaker deed dat onder een bericht over de Computex, waar het bedrijf in ieder geval nieuwe Arc Pro-videokaarten voor workstations gaat aankondigen.

Hoewel de komst van een Arc B770 nog niet definitief is bevestigd met Intels socialemediaberichten, gaan er wel al langer geruchten rond over deze videokaart. Het zou een videokaart in het hogere middensegment worden, op basis van dezelfde Battlemage-architectuur uit de lager gepositioneerde Arc B580. Recent verscheen een Arc-videokaart met een nog onbekende BGM-G31-gpu op een verzendlijst.
Bekende leaker OneRaichu meldde onlangs ook dat we binnenkort meer details kunnen verwachten over deze videokaart, schrijft ook Wccftech.

Mogelijk wordt de Arc B770 aangekondigd tijdens de Computex in Taipei, samen met de nieuwe Arc Pro-videokaarten voor workstations. AMD kondigt tijdens die beurs ook een nieuwe kaart in het middensegment aan: de Radeon RX 9060 XT. Nvidia brengt op zijn beurt een RTX 5060 uit op maandag 19 mei, hoewel de reviews waarschijnlijk langer op zich laten wachten.

Intel Arc B580
De Intel Arc B580

Door Daan van Monsjou

Nieuwsredacteur

15-05-2025 • 10:08

59

Submitter: Scribe

Lees meer

Reacties (59)

Sorteer op:

Weergave:

Eigenlijk toch wel verrassend. Het was eigenlijk een universeel geaccepteerde opvatting dat Intel van Battlemage geen hoger gepositioneerde kaarten zou uitbrengen voor de consumentenmarkt en dat dus de B770 gecanned zou zijn.

Niet gek aangezien het marktaandeel Arc kaarten nog steeds relatief beperkt blijft én dat de productiekosten (chipproductie via TSMC) en winst (als dat er überhaupt is?) niet al te gunstig zijn, vooral aangezien Intel de kaarten met toch wel agressieve prijzen wilt verkopen aan de eindgebruikers om marktaandeel te verbreden. Althans, zo vat ik de situatie op.

[Reactie gewijzigd door recyclebin op 15 mei 2025 10:33]

Niet gek aangezien het marktaandeel Arc kaarten nog steeds relatief beperkt blijft
Het marktaandeel van AMD Radeon kaarten is ook niet om over naar huis te schrijven en daarvan vinden we het wel heel normaal dat ze ze blijven maken.
Eens, hoewel er nog wel een orde van grootte tussen het aandeel ARC en het aandeel Radeon zit en je met meer verkopen makkelijker uit de kosten komt.
Dat verschil tussen AMD en Intel is nog wel gigantisch.

Maar goed, Intel probeert een nieuwe markt aan te boren en zullen waarschijnlijk verlies leiden de eerste generaties.

Ik juich het toe, een beetje extra concurrentie op de GPU markt is zeer wenselijk.
AMD heeft de consolemarkt in handen en levert eigenlijk ook elke generatie de beste bang-for-buck videokaart zolang als ik me kan herinneren. Deze generatie zitten ze qua verkoopcijfers trouwens dicht bij NVIDIA, zoek maar eens de 5070ti en 9070XT op en ga de aantallen reviews turven.

Verder is het marktaandeel voor dGPU's van AMD nog altijd vergelijkbaar veel groter t.a.v. Intel dan NVIDIA's weer is t.a.v. AMD.

[Reactie gewijzigd door Hardstyler1987 op 15 mei 2025 15:25]

Deze generatie zitten ze qua verkoopcijfers trouwens dicht bij NVIDIA, zoek maar eens de 5070ti en 9070XT op en ga de aantallen reviews turven.
De 5070 Ti komt voor in de steam hardware survey en de 9700XT niet. Hier in de tweakers bubbel doet de 9700XT het vast goed, maar op grote schaal waarschijnlijk niet. Dat is nooit zo met AMD kaarten. De 480 en 580 waren ook een betere deal dan de 1060 maar dat zag je in geen enkele vorm van publiek beschikbare statistieken daadwerkelijk terug

Er staan bijna geen AMD kaarten in dat soort statistieken. Als er een echte no brainer tussen zit op een bepaald prijspunt dan zie je die op de lijsten, maar dan nog steeds kilometers achter de laatste 3+ generaties van de XX60 serie van Nvidia.
Verder is het marktaandeel voor dGPU's van AMD nog altijd vergelijkbaar veel groter t.a.v. Intel dan NVIDIA's weer is t.a.v. AMD.
Obv wat? In de hardware survey is AMD's aandeel minder dan een kwart van dat van Nvidia. Zou zomaar kunnen dat het marktaandeel van AMD's laatste 2-3 generaties kaarten nieteens 4 keer zo groot is als dat van Intel Arc

[Reactie gewijzigd door youridv1 op 15 mei 2025 15:59]

Bekijk de Passmark GPU market share grafiek. Zit geen onboard graphics in, het marktaandeel van AMD en NVIDIA bij elkaar is bijna 100%. De rest is niet slechts Intel, dat zijn bijv. ook van die Matrox-kaarten voor digitale informatieborden en insteekkaarten met graphics die in serverboards geprikt kunnen worden en die je met zo'n m.2-schroef vastzet zodat je de VGA-poort op de i/o-panel kunt gebruiken zonder een iGPU in je processor(s).
Kijken wij naar 2 verschillende links dan? https://www.videocardbenchmark.net/market_share.html
Ik denk het wel namelijk, want intel en AMD zitten maar 4 procentpunt uit elkaar in deze grafiek. Lijkt me dat daar wel gewoon iGPU's in zitten

Maar passmark data is niet representatief en een hele selecte subset van de PC gebruikers. Mensen die de passmark performancetest gedraaid hebben. zelfs onder de diy pc builders is dat een subset

[Reactie gewijzigd door youridv1 op 19 mei 2025 09:04]

Misschien hebben ze de prijzen gezien die AMD en Nvidia vragen en denken er toch onder te kunnen zitten en toch nog iets te verdienen.

Ze zijn niet begonnen met videokaarten te maken en gelijk weer op te geven, de architectuur is er en vraag naar goedkopere videokaarten voor 1024p en 1440p is er ook zeker.

Was mij echter verteld dat het Intel minstens een jaar zou kosten om de chip van ontwerp naar productie te krijgen. Blijkbaar niet of ze hadden hem al bijna klaar en wachten op wat de concurrentie ging doen.
1024p? Dat soort schermen verwijs ik al jaren graag terug naar 2005. Zoveel gamers zullen daar toch niet meer op zitten? 1080p wel natuurlijk.
Doom 3 op 1280x1024 was “mind blowing”
Prince of Persia op 768p was ook wel hippe shit. Op 480p was het wel armoede.
Prince of Persia is volledig uit sprites gebouwd en schaalt helemaal niet op de resolutie. 8-)
Mensen betalen voor goeie CRT's uit die tijd grof geld en spelen daar zelfs moderne games op. De kleuren spatten van je scherm. je hebt alleen minimale (en totaal niet storende) blur als gevolg van de decaytijd van fosfordeeltjes die een paar milliseconden bedraagt.
Ik heb zelf een Sillicon Graphics crt monitor, met een Sony buis, 85hz 1280x1024 :P

Voor bijna niks ergens opgehaald, net voor de retro gekte en de populariteit van LGR op YouTube.
Misschien 1024 met de p van progressive scan als framerate?
zoals 24p? ;)
Dat is het zeker! Maar zelf zou ik het dan aanduiden met 1024p60. Breek me de bek trouwens niet open over interlacing. Wie ooit heeft verzonnen dat we dat deze eeuw nog moeten gebruiken…
nope ik bedoelde 1080p1024 ;)

Als de bron 50i zou zijn had ik het nog gesnapt. Denk aan wielrennen of voetbal.
Maar waarom men 25p over 50i uit zend is een raadsel.
Zelfde waarom men de moeite niet doet om beter geluid door te sturen.
Als de bron 50i zou zijn had ik het nog gesnapt. Denk aan wielrennen of voetbal.
Maar waarom men 25p over 50i uit zend is een raadsel.
Dat snap ik dan weer wel, want lineaire tv moet nou eenmaal een bepaalde standaard aanhouden en dat is in veel oude PAL-landen 1080i50 geworden. Maar waarom niet gewoon 1080p50? Dat was 20 jaar geleden toch technisch ook al niet écht meer een uitdaging (of tenminste niet veel meer dan interlaced)? Ook toen al waren de meeste nieuwe tv's lcd's of plasma's waarbij je uiteindelijk toch naar een progressive beeld moet. Desnoods hou je de bitrate gelijk, want die is met ~14 Mbps (op de wat populairdere zenders bij Ziggo) op zich niet zo verkeerd. Digitenne is sinds een jaar of wat wel om, maar dan krijg je weer interlaced uitzendingen in een progressive container.
Simpel. 1080p50 neemt dubbel zoveel ruimte in.
Als je de bitrate gelijk houdt neemt het exact evenveel ruimte in.
Maar verlies je een pak kwaliteit....
Heb je daar een bron van? Volgens mij kan een H.264-encoder wel een efficiëntere manier verzinnen om met z’n bits om te gaan dan domweg de helft van de pixelrijen om en om weg te gooien - om die er later op praktisch iedere tv toch weer bij te moeten verzinnen. Ik ben wel benieuwd of iemand dit ooit vergeleken heeft.
Net daarom dat Youtube niet alles in 4k120p ter beschikking stelt.
Hoe hoger de resolutie en fps, des te hoger de bitrate moet zijn om dezelfde kwaliteit te behouden.

Kan je een bron geven die aan toont dat hogere fps geen hogere bitrate nodig heeft foor dezelfde kwaliteit?
Dat is niet vergelijkbaar, want bij interlaced video probeert je tv er uiteindelijk toch 1080p50 uit te trekken. Daarom is mijn vermoeden dat het efficiënter is om het dan ook als zodanig te encoden, in plaats van dat je altijd de helft van je pixelrijen op één of andere manier moet interpoleren.
Je maakt de fout door 50i te vergelijken met 50p terwijl je dit eerder met 25p moet doen.
50i en 25p bevatten nagenoeg evenveel data.
50p bevat dubbel zoveel data als 50i.
Je maakt de fout door 50i te vergelijken met 50p terwijl je dit eerder met 25p moet doen.
Daar ben ik het niet mee eens. Ik snap wel wat je bedoelt, maar een tv maakt er toch 50 volledige frames per seconde van - of doet in ieder geval een poging. Dan kan het wel evenveel data bevatten als 25, maar dat is niet wat je te zien krijgt.

EDIT: het is natuurlijk heel goed mogelijk dat er destijds voor 1080i is gekozen vanwege iets dat ik nu niet meer logisch vind, omdat ik er met een bril van 2025 naar kijk. In 2015 werd ik er weliswaar ook al boos op, maar 1080i is al een veel oudere standaard. Ik weet niet wanneer tv-programma's er voor het eerst in werden geproduceerd, maar in Nederland is 1080i volgens mij geïntroduceerd door een Ziggo-voorloper in 2006 in combinatie met een ontvanger van Samsung. Buiten Europa bestond het op D-VHS en dergelijke natuurlijk al veel langer. Hoe dat bij tv-producties is gegaan durf ik niet te zeggen.

Inmiddels zendt bijvoorbeeld Digitenne wel uit in 1080p50 met zelfs een behoorlijk lage bitrate (volgens google 5 Mbps, maar dan wel HEVC, volgens digitalbitrate.com zelfs eerder rond de 3-3,5), maar Digitenne is in 2018 nog helemaal op de schop gegaan toen het naar DVB-T2 ging. Naar de maatstaven van lineaire tv is dat best recent. Als Ziggo nu ineens naar 1080p gaat, is er ineens een hele sloot aan ontvangers incompatibel. Mijn Humax kan volgens mij geen 1080p ontvangen - en zeker geen HEVC. En dan is 1080i waarschijnlijk ineens "goed genoeg" om te voorkomen dat er een hoop klachten binnenkomen vanwege een verbetering die Henk en Ingrid en hun buurman Jan met de pet nooit gaat opvallen.

[Reactie gewijzigd door SterkeYerke op 21 mei 2025 14:14]

Ik vond de 720i resolutie altijd intrigerend.
Hoe groot is een 4nm video chip? Een 9070xt 351mm
Hoe veel kun je er uit een wafer halen? Dat valt vies tegen.
Hoe groot is een amd cpu ccx die? 70-71 mm
I/O die is om 6nm dus veel minder duur.
Je kunt dus 5 cpus maken ipv 1 videokaart.
Tevens omdat ze kleiner zijn het je veel minder snij verlies om de randen dus haal je er meer uit 1 wafer. Videokaarten voor consumenten levert gewoon weinig op. Amd krijgt de server cpus niet aan gesleept daar wordt grof aan verdiend.
Ook de nieuwe amd cpus strix point is maar 235mm groot maar gaat voor veel meer over de toonbank dan een videokaart.
Dat de prijzen hoog zijn heeft een reden. Silicon is duur.
Het zou ook kunnen dat alle slots volzaten en ze pas later wafers konden krijgen. Het is echt file bij tsmc. Intel nvidia amd . maar ook alle arm fabrikanten staan in de rij
Misschien een binned versie van die pro kaarten? Dat die de volledige chip gebruiken, en deze dus niet, vandaar B770 en niet B780
Bij Alchemist was er ook alleen maar een A770, die hadden wel alle execution units aan volgens mij. Maar ik kan me voorstellen dat nu bij Battlemage de pro kaarten sowieso de volledige chip gebruiken en dat overgebleven chips met net wat execution units minder naar de B770 kunnen gaan.
Is er al/ook meer bekend over het verschil tussen de Arc PRO workstation en de ARC B770/B780 kaarten?

Vanuit het oogpunt van productiviteit en gaming, zoals RAW developers die GPU afhankelijk zijn en huis tuin en keuken games als METRO series, richt Intel de Pro of de B serie op de prosumers?

Anders gezegd: is de PRO bedoeld voor de server markt? Of is de Pro workstation versie juist ook bedoeld voor de professionele thuisgebruikers?
Hoewel de komst van een Arc B770 nog niet definitief is bevestigd met Intels socialemediaberichten, gaan er wel al langer geruchten rond over deze videokaart.
"Stay tuned" van Intel kan ook refereren naar een aankomende videokaart in de Celestial (C)-lijn.

Interessante ontwikkelingen en fijn dat Intel niet opgeeft. Zelf heb ik slechts een Arc A310 in gebruik vanwege de geweldige video decoders en encoders (net als de rest van Intel's GPU). Het zou leuk zijn als ook videokaarten van Intel een kans maken om gebruikt te worden in een volgende gaming PC. :)
Celestial zou volgens meerdere bronnen pas in de pre-silicon validation stage zijn (Intel Arc Xe3 Celestial GPU enters pre-validation stage (via Tom's Hardware)) dus het lijkt me nog te vroeg. Het zou hoogstens dan meer een teaser blijven aangezien ik verwacht dat ze de pas over misschien een jaar komen met concrete(re) details.
Zou iemand met meer verstand hiervan ongeveer in kunnen schatten hoe lang er zit tussen pre-silicon validation stage? Met alle geruchten over Celestial omtrent 18A, GDDR7 etc. lijkt het mij een best veelbelovende generatie. Ben benieuwd of dit voor RDNA5/UDNA en RTX-60xx zal uitkomen
Tussen pre-silicon validation en product release? Dat kan makkelijk nog een jaar duren tegenwoordig.

Bij pre-sillicon validation wordt de GPU chip via software of FPGA geëmuleerd om te kijken of er ergens nog structurele fouten aanwezig zijn en er wordt vrij grondig en lang getest. Pas daarna worden er test chips gebakken; daar gaan wel een paar maanden overheen. Give or take 2-3 test rondes en daarna komen pas de echte productie chips zou ik zeggen.
Een jaar is opzich nog best te doen, zit er nog 1.5-2 jaar tussen Battlemage en Celestial. Beter dat ze even de tijd nemen ipv een release zoals die van de RTX 50 series.
Een goed punt. Als het een teaser zou zijn, dan zou ik verwachten dat het een mid/high-range achtige kaart zou moeten zijn. Des te verder het in de toekomst ligt, des te groter de belofte moet zijn om het interessant te houden.

Dus een kleine kans dat het een teaser betreft. Waarschijnlijk is het dan alsnog een aankondiging van de B770. Ook goed. :P
Als de B580 enige indicatie is, dan wordt de B770 ook een deftige kaart voor een goede prijs. Het enige waar ik me een beetje zorgen om maak is de power consumption, zowel idle als met een load. De B580 is al geen hoogvlieger met z'n 13W idle en 175W tijdens gamen (zie de T.net review). Ben zeer benieuwd wat een beefier Battlemage variant qua stroom gaat verbruiken.

Edit: ergh... Ik kan niet lezen, 40W idle hoort bij de A580... :(

[Reactie gewijzigd door JSLV op 15 mei 2025 10:46]

175W tijdens gamen
De B580 is letterlijk net zo efficiënt als de kaarten van AMD en Nvidia die destijds op de markt waren.
review: Intel Arc B580 - Grote stap voor Intel, kleine stap voor gamers
Doet gewoon niet onder voor RTX 4000 of RX 7000 in game als het op fps/watt aan komt.
Voor een bedrijf wat pas op zijn 2e generatie dedicated videokaarten zit is het feit dat ze Nvidia kunnen bijbenen in efficiëntie onder load fucking bizar.

In de idle grafiek zijn ze ook geen uitschieter te noemen

Dus ik heb geen idee waar je je precies zorgen om maakt.

[Reactie gewijzigd door youridv1 op 15 mei 2025 11:11]

De B580 is letterlijk net zo efficiënt als de kaarten van AMD en Nvidia die destijds op de markt waren.
Het schijnt dat Intel Arc-kaarten meer van CPU's vragen. Ook dat lijkt mij belangrijk om mee te nemen in de vergelijking als het om energie gaat.
Voor een bedrijf wat pas op zijn 2e generatie dedicated videokaarten zit is het feit dat ze Nvidia kunnen bijbenen in efficiëntie onder load fucking bizar.
Bizar is denk ik overdreven. Intel heeft heel lang niets met dGPU's gedaan, maar heeft wel veel ervaring met iGPU's. Ook dat draagt bij aan de vliegende start. Wel is het belangrijk dat ze op stoom blijven.
Het schijnt dat Intel Arc-kaarten meer van CPU's vragen. Ook dat lijkt mij belangrijk om mee te nemen in de vergelijking als het om energie gaat.
De driver heeft een beetje overhead als ik het goed begrijp. Als dat zo is, wordt dat op den duur waarschijnlijk wel minder.
Ik ben erg blij dat Intel toch niet de stekker uit de Arc GPU's getrokken heeft (daar waren recent nog geruchten over).
De (GPU) industrie heeft heel hard actieve concurrentie nodig.
Vorige en huidige iNtel CEO zien het enorme Succes van nVidia. Dus pro gpu zullen ze niet snel opgeven. En daar profiteert de cliënt dgpu tak van.
Kan zijn dat ze in verleden door diepe dal gingen en dus cancelen overwogen werd. Gezien US staat belang bij heeft hun te redden. Moet heel extreem gaan met doom scenario.
En wellicht als Intel een competitieve GPU heeft krijgen we misschien ook op de console-markt nog concurrentie.

Ik stel mij zo voor dat een order van in totaal zeker zo'n 150 miljoen console cpu/gpu combinaties wel een leuke meevaller zou zijn.

Nu gaan die allemaal naar AMD omdat die blijkbaar de enige zijn die die combi kunnen leveren.
NVidia levert de SOC voor de Switch2 dus die kunnen het in elk geval ook.
Ja, maar dat is obv ARM als ik mij niet vergis en bovendien (nog) niet op het performanceniveau waar een volgende generatie console behoefte aan zou hebben.

Een nieuwe Playstation of Xbox gaat vermoed ik (zo lang Windows op ARM nog niet echt gemeengoed is) denk ik toch weer gewoon op x64 draaien en dan had je voor een geïntegreerde SOC alleen maar AMD als partner. Of je moest een lossen CPU/GPU combinatie gaan nemen, maar dat is voor een console minder interessant lijkt me.
Klopt dat is ARM en NVidia biedt nu nog niets aan op het niveau van Xbox of Playstation voor zover ik weet, maar als je ziet hoe snel windows op ARM gaat en hoe snel ARM SOC's kunnen zijn (bijv. Apple M-serie) dan denk ik niet dat het een zekerheid is dat de volgende generatie consoles weer op x86 gebaseerd zal zijn.

AMD werkt ook al aan ARM SOC's las ik laatst.
De M-chips van Apple zijn fraai ontworpen en zeer efficiënt, maar blijven qua grafische prestaties achter bij moderne midrange GPU’s (laat staan high-end of enthusiast modellen) wanneer het op zwaardere games aankomt. Dit geldt zelfs voor titels die draaien op Metal en specifiek zijn geoptimaliseerd voor Apple, zoals Resident Evil Village.

Ook op Windows laten de grafische prestaties van ARM-chips (die van Qualcomm), best te wensen over. Al moeten die door een translation layer, maar zelfs als je die wegdenkt is het niet veel.

ARM lijkt (voorlopig) vooral geschikt voor mobiele, energiezuinige consoles zoals de verwachte Switch 2, maar (nog) niet voor krachtige systemen zoals de PlayStation 6 of gaming-pc’s. Maar goed, misschien komt er verandering in. Hoe meer concurrentie hoe beter voor de consument 👍

[Reactie gewijzigd door DLSS op 15 mei 2025 15:57]

Fair enough, voor nu, maar volgens mij is er niets dat er aan in de weg staat voor bijv. AMD om RDNA cores voor de GPU in een SOC met ARM cores te bakken of voor NVidia om een ARM SOC met een grote RTX GPU te maken (ze maken die al met een kleine RTX GPU voor de Switch).

Apple heeft laten zien dat ARM CPU's zeker niet onder hoeven te doen voor x86 ook al hebben zij niet vol ingezet op een dikke GPU voor gaming in hun SOC's.

Ben benieuwd hoe dit verder zal gaan, maar het lijkt mij zeker geen gelopen race voor x86.
Ja klopt, op het CPU vlak presteren ze erg goed.

Nou leunen games in de praktijk wel onevenredig veel op single core prestaties. Ze presteren een stuk beter op een chip met 8 super snelle cores (zoals de 9800X3D) dan op veel duurdere en veel krachtigere CPUs met meer cores.

Volgens mij halen ARM chips nu juist doorgaans hun mooie CPU prestaties door een design met heel veel cores. Nou weet ik niet of we die lijn kunnen doortrekken naar de praktijk (heb nog nooit een arm cpu gecombineerd gezien met een high-end 4090 of 5090 om te testen hoe ver de CPU bottleneck zit).

Ik ben benieuwd of het er van komt. Het zou wel mooi zijn, meer keuze is beter
Nvidia heeft op het vlak van GPUs wel het een en en ander op de plank liggen dat prima zou presteren voor die consoles. De console

Het probleem zit hem in productiecapaciteit, Nvidia kan alles wat het produceert makkelijk kwijt op de PC GPU markt (het marktaandeel is meer dan 5x zo groot als dat van AMD, inclusief onboard graphics) en vooral bij de AI/servermarkt. Een GPU op dezelfde node als de PC GPU’s / AI/server GPUs zal dus van die capaciteit weggehaald moeten worden (want die draait al 100%).

Die GPUs verkoopt Nvidia momenteel voor de hoofdprijs dus ze zouden ze omzet mislopen als ze capaciteit beschikbaar maken voor goedkopere consoles GPUs.

Switch 2 is een uitzondering want die chip is op basis van een ouder node dat boedt niet in op de productiecapaciteit van de duurdere producten.

Daar komt nog bij dat ze een CPU en GPU zullen moeten hebben zoals je al zei. Dat kan in principe, maar dat zal duurder zijn dan een geïntegreerde chip. Nvidia heeft in het verleden een geforce 3 achtige GPU geleverd voor de originele xbox die werkte met een intel CPU.

En dan heb je óók nog backwards compatibility dat lastiger zal worden als de consoles overstappen van AMD naar Nvidia (al zijn van veel modernere Xbox games wel PC ports die in principe prima met Nvidia werken)

[Reactie gewijzigd door DLSS op 15 mei 2025 15:56]

Klopt, maar het gaat dan ook juist niet om de GPU, maar om een SOC als geheel. De SOC's die Nvidia produceert zijn allemaal ARM-gebaseerd en presteren nu op het CPU-vlak gewoon een stuk minder dan de x64 CPU's in de AMD SOC's.

Ik weet niet hoe makkelijk Nvidia bijvoorbeeld een 5080 GPU zou kunnen uitbreiden met een stel snelle ARM-cores tot een volwaardige high-end SOC, maar ik heb de indruk dat dit aardig tegenvalt, gezien de honderden miljoenen die ze zouden kunnen verkopen als ze het doen.

Ik weet alleen wel dat consolebouwers er niet op zitten te wachten om een aparte CPU en aparte GPU te gebruiken.
Een aparte CPU en een aparte GPU kan wel. Zie ook niet in waarom console gamers dat niet zouden willen. Waarschijnlijk is dat ook veel sneller (want beter te koelen). Het probleem is dat het duurder is en je meer koeling kwijt moet. (De CPUs die we nu in consoles vinden zijn overigens zeer matig volgens Digital Foundry. Het is voor de ps5 pro zelfs een zeer grote bottleneck waardoor veel games niet op 120 fps kunnen draaien.)

Die 5080 is een mooi voorbeeld overigens. Daar vangt Nvidia voor de p nu 1200 euro per stuk voor en ze kunnen niet meer produceren want ze produceren al maximaal. Die chips gaan ze natuurlijk never nooit niet verkopen voor een console waar het hele apparaat incl GPU waarschijnlijk nog geen 800 mag kosten.

Iets als een 5060ti zou misschien kunnen maar dan zou de PS6 maar een klein beetje sneller zijn dan de PS5 pro.
Daarom zei ik ook dat de consoleBOUWERS daar niet op zitten te wachten. Dat gamers meer power willen geloof ik direct, maar de bouwers moeten deze extra complexiteit en de bijbehorende kosten ook willen dragen.
Aah, dar heb ik overheen gelezen :P
Ben zeer benieuwd, hoop dat ze nu wel ook zorgen dat ze goed met SteamVR/OpenXR werken. De release van de A-serie was een drama wat betreft drivers, maar inmiddels zijn die drivers zoveel beter dat de performance verschil met release gigantisch is.

Op dit item kan niet meer gereageerd worden.