Intel fixt deel van prestatieprobleem van Arc-gpu's met oudere cpu's - update

Nieuwe drivers van Intel voor zijn Arc-gpu's lossen het prestatieprobleem deels op dat die grafische chips hebben in pc's met oudere processors. De Arc-gpu's liepen achter op concurrerende gpu's in hetzelfde prijssegment. Dit probleem is vijf maanden geleden ontdekt.

De fix voor de tegenvallende prestaties is getest en bevestigd door Hardware Unboxed, schrijft Videocardz. Het probleem is oorspronkelijk breed onder de aandacht gekomen door YouTube-kanaal Hardware Unboxed. Gebruik van oudere processors geeft normaal gesproken mindere prestaties, ook voor gpu's.

Dit was bij Intels Arc B580 echter opvallend slechter dan bij vergelijkbare Radeon- en GeForce-gpu's van respectievelijk AMD en Nvidia. De prestaties vielen soms wel dertig procent lager uit dan wat in potentie haalbaar was. De 7028-drivers die Intel eind augustus uitbracht, lossen het prestatieprobleem nu op voor games als Cyberpunk 2077 en Spider-Man Remastered. De fix helpt niet voor alle games, blijkt uit nieuwe tests van Hardware Unboxed.

Update, 9.53 uur – Aangepast dat de nieuwe Intel-drivers het prestatieprobleem niet volledig oplossen. Het gaat nu om een beperkt aantal games, waarbij het erop lijkt dat Intel optimalisaties heeft doorgevoerd voor bijvoorbeeld Spider-Man Remastered. Opvallend genoeg noemt de gpu-maker dat niet in de releasenotes voor deze driverrelease. Voorheen deed Intel dat wel voor bijvoorbeeld DOOM: The Dark Ages.

Door Jasper Bakker

Nieuwsredacteur

02-10-2025 • 08:06

17

Submitter: Scribe

Reacties (17)

Sorteer op:

Weergave:

Zo blijkt maar weer dat de software veel bepalend is over de performance en dat daar steeds minder tijd aan besteed wordt.
Ik denk dat als Xbox een ARC GPU heeft ipv een AMD. Je zult zien dat de prestaties op de pc ook beter word want games worden dan meer geoptimaliseerd voor de ARC.
Als dat het geval was had ik inmiddels ook wel beter drivers voor AMD GPU's verwacht. Helaas zijn die van nVidia merkbaar beter.
Wat is er zo veel beter aan de NVidia drivers dan? Ik heb twee systemen, een met 5070Ti en een 9070XT, en ik kan nu niet zeggen dat ik veel verschil merk in driver kwaliteit, ook niet in relatieve performance, beide kaarten zitten super dicht bij elkaar. Het voordeel van NVidia is dat DLSS beter en breder ondersteund is dan alle FSR tot aan FSR4, maar als games FSR4 ondersteunen (en dat zijn er steeds meer) dan is dat ook geen enorm verschil meer (plus dat ik toch al prefereer om gewoon op 1440 zonder upscaling te spelen dan op 4K met)
De AMD drivers zetten mijn primaire monitor van beperkt RGB met regelmaat op een van de YUV varianten. Met regelmaat komt Windows met de melding dat de hardware veranderd is en dus een herstart nodig heeft. Of het vastlopen van een display (wat dan op te lossen is door het andere scherm een keer uit en dan weer aan te zetten). Of wat ook het meest vervelende is dat als je je secundaire monitor uit hebt en later aan zet je hele bureaublad opnieuw gerangschikt word.

Iets waar ik geen last van had met nVidia producten.

Dit zijn de meest storende punten die ikzelf ervaar. Momenteel zit ik op een 9070XT voorheen elke generatie nVidia vanaf de GTX400 serie wel gehad en daarvoor AMD. Zakelijk altijd AMD en nVidia moeten beheren.

[Reactie gewijzigd door Jurrian120 op 2 oktober 2025 11:00]

En in mijn primaire PC's zit ik al heel wat jaren op AMD videokaarten en dus drivers.
Meestal een wat ouder exemplaar (tot voor een half jaar geleden enkele jaren een RX570 met 4GB),
maar sinds een half jaar een 9070XT.

En ik heb nooit dit soort problemen gehad.
Behalve een enkele keer herschikken van pictogrammen door wel en niet aanwezig
zijn van één van meerdere schermen. Maar dat is volgens mij meer een Windows issue dan een graphics driver issue.

Dus your mileage may vary...
Is toch altijd al zo. Hardware zonder goede firmware en drivers is een hoopje siliconen en wat koper en plastic.
Het is toch zeer voor de hand liggend dat kaarten van Intel, AMD en Nvidia volledig anders zijn qua architectuur, type rekenkernen, hoe alles verbonden is en in welk type operaties ze net snel zijn.
Sommige instructies zijn hardwarematig, andere niet.

En het is net de driver die de standaard instructies van het OS of de game omzet in instructies die voor die specifieke kaart optimaal zijn. Maar de driver moet dit snel genoeg kunnen doen; de kaart moet een bepaald type berekeningen niet overloaden (het ene spel doet berekeningen van een bepaald type meer dan een ander spel) en de CPU mag geen bottleneck zijn in dit proces. Ik vermoed dat de oude drivers een bepaalde instructie gebruikte die op die oude cpu's niet hardwarematig aanwezig was en dus softwarematig afgevangen werd. Door dit nu 'anders' te doen op een hardwarematige manier kan dit dan sneller gaan.

Puur giswerk natuurlijk, maar het zal wel in die richting liggen gezien we spreken over algemene performanceverbeteringen op "oude cpu's".
Steeds minder je bedoelt steeds meer tijd . Bij alle drie de gpu leveranciers werken er meer mensen aan software ontwikkeling dan 10 jaar geleden. En worden er op zeer regelmatige basis updates van drivers uitgebracht.
Probleem is tegelijk dat het aantal games en de bijbehorende complexiteit ook al flink toeneemt omdat allerlei patches maken per game om de prestaties te maximaliseren .
Het mag wel wat duidelijker gemaakt worden dat zij dit nog niet voor alle games gefixt hebben. Het word wel in het artikel genoemd maar de titel klinkt alsof het in het algemeen opgelost is.
Klopt, maar een kanttekening is dat dat ook het originele probleem was. De ARC GPU's hebben geen algemeen enorm overhead probleem. Het ding is juist dat zowel de overhead als algemene performance wisselvallig is van game tot game. Er is geen algemene oplossing want het probleem is ook niet algemeen
De lagere prestaties met oudere CPU's worden juist wel als algemeen probleem benoemd. Zónder algemene oplossing.
Dat vond ik in de video ook. Ik was erg enthousiast en na het kijken van de video kom je tot de conclusie dat het enkele games betreft die ook nog eens gereviewed worden.
Aanvulling op de video: ze hebben ter representatie van een processor met lage performance oa een Ryzen 2600 gebruikt, en ze maken het argument de B580 nog steeds veel CPU kracht gebruikt, gezien een 9060XT in verhouding beter scoort op deze oude processor.

Maar dat is niet helemaal eerlijk: een 2600 ondersteunt alleen PCIe 3, en een B580 heeft maar 8 lanes terwijl de 9060XT 16 lanes heeft. Het zou dus net zo goed aan de PCIe bandbreedte kunnen liggen dat de B580 het naar verhouding slecht doet op een 2600.
Het klopt dat als je de chip zelf wilt gaan beoordelen, dat je effectief appels met apples moet vergelijken en met deze zaken moet rekening houden.

Echter was het Intel zijn designkeuze om deze kaart met 8 lanes uit te rusten ipv 16 lanes. Voor een gebruiker is het dus effectief zo dat deze kaart minder zal presteren op een systeem dat "maar" PCIe 3 heeft.

Moest Nvidia op een 5090 een VGA aansluiting zetten en geen HDMI of DP oid. Dan mocht de chip ook nog zo krachtig zijn als dat je wou, maar uiteindelijk zou de consument van die designkeuze hinder ondervinden en is er geen weg omheen. (voor de gemiddelde mens).

Ik denk dat de video meer de "kaart as is" evalueert en niet de chip zelf. Het is dan ook fair om te laten zien dat dit aspect ook een negatief effect heeft.
Naast de al eerder gegeven reactie is het in de praktijk ook zo dat
het verschil in bandbreedte tussen processor en/of RAM geheugen van de PC
en de Videocard die met 8 of 16 lanes is aangeloten bijna nooit echt merkbaar
is. En als het al merkbaar is dan is het bij specifieke situaties, dus specifieke games
die bijv. niet alle data kwijt kan op het geheugen van de videocard.
Het is natuurlijk wel een punt als je PCIe 4 met 16 lanes vergelijkt met PCIe 3 met 8 lanes.
Dit is het dubbel aantal lanes met het dubbel aan snelheid; dat is een factor x4 verschil. Je kan wel minimaal stellen dat het geen appels met appels vergelijken is.

Dus PCIe-3 8x = 8GB/s
Dus PCIe-4 16x = 32GB/s

Aan 60Hz is dit bij de ene 125MB/frame dat op te halen is en bij de andere 500MB/frame. Bij data-streaming is dit toch een duidelijk merkbaardere stutter.

Het lijkt me ook realistisch dat een persoon die nog een R5 2600 heeft en daarbij een "goedkope" Intel kaart koopt voldoelt aan de criteria dat deze geen interesse heeft in "the latest and the greatest" of dit financieel niet aan kan/kan rechtvaardigen.
Het lijkt me dan ook dat een deel van deze 'doelgroep' ook geen GB's aan RAM op overschot heeft en misschien zelfs nog geen nvme SSD heeft omdat die SATA HDD of SATA SSD het ook nog doet.
Het lijkt me ook dat net deze doelgroep misschien dus net ook oudere games speelt, omdat hun systeem dit beter aan 'zou moeten kunnen'.
Ik ben het dus wel helemaal eens dat die 8GB/s ook nog effectief gebruikt moet kunnen worden; er moet een bron zijn die dat kan leveren of verwerken. En net ook die oudere games vereisten minder GB's VRAM aan texturen en modellen.


Om te kunnen reageren moet je ingelogd zijn