Nieuwe Intel-gpu met PCIe 5.0 x16 verschijnt in registratie, mogelijk Arc B770

Bij PCI-SIG is een nieuwe videokaart van Intel verschenen. De gpu ondersteunt PCIe 5.0 x16 en heeft een bussnelheid van 32 GT/s. Mogelijk gaat het om de Intel Arc B770 op basis van de Battlemage-architectuur.

Videocardz merkt op dat PCI-SIG een nieuwe Intel-gpu noemt, met productnaam 99CMLN. De website schrijft dat dit op basis van technische specificaties ook kan gaan om de Arc Pro B60 Turbo van MaxSun. In dat geval zou PCI-SIG echter niet Intel als het producerende bedrijf moeten opgeven.

Eerder dit jaar gingen geruchten dat Intel de B770 geschrapt had. In mei hintte de fabrikant echter op sociale media op de komst van de videokaart en later bevestigden meerdere bronnen op Computex tegenover Tweakers dat het bedrijf nog steeds werkt aan de B770. Tot nu toe heeft Intel de lager gepositioneerde B580- en B570-videokaarten op basis van de Battlemage-architectuur uitgebracht.

Door Imre Himmelbauer

Redacteur

12-06-2025 • 15:23

31

Submitter: Scribe

Reacties (31)

Sorteer op:

Weergave:

Intel's grootste probleem blijft hun overhead. Je kunt de kaart nog zo goedkoop maken, als je een $250 markt probeert te benaderen, maar je moet een 9800X3D hebben om de potentie eruit te halen, dan gaat het nooit werken.
Verwar games niet die CPU bound zijn, dat staat er los van.

[Reactie gewijzigd door mr_evil08 op 12 juni 2025 20:26]

Nee? Ik zeg de drivers hebben een hoge overhead in vergelijking met Nvidia en AMD in soortgelijke titels.
YouTube: Intel Arc B580 Overhead Issue! Upgraders Beware
Wat heeft een AMD CPU daarmee te maken dan?
De CPU laat aan de GPU weten wat het moet doen. Maar, bij Intel GPU's moet de CPU meer werk doen voor hetzelfde resultaat. Bij high end CPU's geen probleem, maar bij budget en oudere chips wel. Maw: lagere performance dan verwacht. Kort gezegd dan.
Ja precies en dat kan ook met een Intel CPU i.p.v. AMD CPU.
Heb een i9 9900K net een MSI 4090 Suprim-X, idee was dat ik maand later de rest onder handen zou nemen.
Mwoah, middels 2 jaar verder. Net een 9950X3D setup gekozen, zou er een 5090 bij hhalen, maar wacht wel tot de 6090 uit komt.
Sorry maar ik zie niet echt in wat dit met mijn comment te maken heeft. Gratz?
Overdrijven is ook een vak
* Ik denk niet dat je per se een 9800X3D nodig hebt om het meeste uit de B580 te halen.
Met een tamelijk moderne mid-range cpu zit je ook wel goed. Denk aan een Core i5-12400KF of een Ryzen 5 5600X.

* Hoe goed werkt de ReBar support (4G decoding) op dusdanig oudere platforms?
Het kan zijn dat het in de BIOS wel aan staat, maar dan is wel de vraag hoe goed dat echt werkt. Ik denk dat het enorm kan verschillen, zeker met een eerste generatie van ReBar op een mobo.

De Arc videokaarten zijn sterk afhankelijk van ReBar. Wellicht heeft dat er ook iets mee te maken. Op een AMD platform heet ReBar dacht ik SAM 'Smart Memory Access', ter info :)


* Dit probleem verschilt per game. Ze hebben er niet allemaal evenveel last van. Soms ook vrijwel niet.

* Intel Arc bestaat een aantal jaren. Radeon en GeForce bestaan dacht ik langer dan 2 decennia. Maw: ik vind dit zelf voor nu geen kwalijke zaak om te noemen.
Ik hoop dat dit een succes gaat worden. Een beetje extra concurrentie op GPU-gebied zou wel gezond zijn.

Lange tijd was ik ervan overtuigd dat NVIDIA de enige juiste keuze was, zelfs nog tot vorig jaar, toen ik een RTX 4070 Ti Super heb aangeschaft. Maar inmiddels hebben ze zich wat mij betreft compleet uit de markt geprijsd.
De concurrent biedt tegenwoordig ook sterke raytracing-prestaties en geavanceerde upscaling-technieken, waardoor ik nu eerder geneigd ben de underdog een kans te geven.

Ik ben alleen de product-placement van NVIDIA met hun 60, 70, 80 en 90 kaarten gewend, waardoor ik niet goed weet hoe ik dit moet vergelijken met Intel en AMD.
Ik kan je een snel overzicht geven voor de huidige generaties:

Qua rasterization performance:
  • 9060 XT 16GB -> wat zwakker dan de rtx 5060 ti 16GB
  • 9070 -> wat sterker dan de 5070
  • 9070 XT -> ietsje zwakker dan de 5070 ti
Raytracing prestaties ken ik wat minder goed. Maar als ik de Tweakers benchmarks moet geloven:
  • 9060 XT 16GB -> iets sterker dan de rtx 5060
  • 9070 -> iets zwakker dan de 5070
  • 9070 XT -> tussen 5070 en 5070 ti in
Ik weet niet of dit is wat je zocht. Zo niet, vraag gerust.
De huidige prijzen zijn niet veel anders dan bij de 40xxx serie, en AMD is in verhouding niet veel goedkoper.
Wel hopelijk blijven ze GPU's maken want alles rond GPU's is gewoon idioot.

Als ik dan eens kijk bij Alternate vlakbij , goedkoopste 9060 8gb vs 16gb
ASRock Radeon RX 9060 XT Challenger OC 8GB ,boost 3290 Mhz 319 euro
GIGABYTE Radeon RX 9060 XT GAMING OC 16GB,boost 3130 449 euo

minder boost maar 8gb meer is dus 130 EURO , 1/3 van de prijs , voor de rest identiek tis echt te zot.

Ik vraag me altijd af , het maken van een gaming GPU op een oudere/goedkopere productieproces en geheugen niet te toekomst is voor budget gaming. Enige die dit bewust doen is Nintendo. Maarja ik ken niet vaste kosten/engineers krapte/verkoopbaarheid etc etc

[Reactie gewijzigd door soulieke op 12 juni 2025 22:40]

Budget is iGPU: geen extra geheugen maar gewoon DDR delen. Geen extra PCIe lanes in socket maar in-package verbonden.
Tja, wordt tijd dat PC's ook een overstappen op unified memory, zodat je er zelf zoveel bij kan pluggen als je wilt.
Gaat niet gebeuren in de high end. Signaal toleranties zijn te scherp voor moderne GDDR. En je ziet bij DDR5 ook al dat geheugen toevoegen de timing beïnvloedt.
Zal sowieso natuurlijk een behoorlijke architectuur wijziging nodig hebben, maar uiteindelijk zie ik het daar wel naar toe gaan, zelfs nog dat je ook geen verschil meer hebt tussen RAM geheugen en SSD. Maar dat zal nog wel een decenium duren.
We hebben al 50 jaar een hiërarchie. SRAM in cache. DRAM in geheugen. Nog langzamer geheugen (tape/hdd/ssd) als laatste, trage, goedkope laag. En al 50 jaar roepen er mensen dat dat gaat veranderen.

Niet dus. Dat is fundamentele natuurkunde, energie per bit en per transitie. Stabiele bits kun je per definitie niet snel veranderen.
Nouja, unified memory hadden we tentijde van de Amiga al, en met de huidige consoles ook, en gezien vaste opslag ook steeds sneller wordt zal het uiteindelijk, niet dus binnen enkele jaren van nu, ook wel dus dat alle 'RAM' samengevoegd wordt.
Tja, 50 jaar geleden hadden we ook geen smartphones, OLED TV's of een hoop andere technologie, over 50 jaar zullen we ook weer een helehoop technologieen hebben waarvan we nu alleen nog maar van kunnen dromen.
iGPUs hebben ook geen GDDR. Het idee is niet zo gek, het bespaart geld. Het probleem is dat de performance keldert. Dat is waarom elke dGPU GDDR gebruikt, met de bijbehorende design constraints zoals geen sockets.

DRAM weglaten en rechtstreeks van SSD naar cache is op dezelfde manier technisch mogelijk en praktisch onzinnig
Wat jij als praktisch onzinnig vindt, vindt ik toch niet. Maar zoals ik al zei, dit is niet iets voor binnen enkele jaren maar voor langere termijn.
Ben benieuwd naar de verbeteringen tegen over zijn voorganger en of die vergelijk baar gaat zijn als de in stap kaarten van Nvidia en AMD. Maar tot nu toe niet veel gelezen over AI voor deze kaart.
Deze kaarten zouden 24GB tot 48GB geheugen hebben. Dat is iets wat de andere merken pas over anderhalf tot drie jaar voor de instap kaarten willen aanbieden.

Nu is het wachten op het moederbord welke vier van deze voluit kan benutten.

[Reactie gewijzigd door SoLongAgo op 13 juni 2025 10:57]

Daarom ben ik dus ook blij met Intel. Als ze dit door blijven zetten dwingen ze Nvidia(Mits die uberhaupt nog gaming gpu gaan uit brengen) en AMD dit te volgen.
Als de B580 een indicatie is kan dit met genoeg VRAM en een leuke prijs nog best een mooie keuze zijn.
als intel enigzins can concuren met met the 9070. gaan de 9060xt mogenlijk nog wel 50-75 omlaag
Met een schuin oog kijkend naar de B580.
Zou ik niet weten waarom niet.

Op dit item kan niet meer gereageerd worden.