Intel belooft aanzienlijke prestatieverbetering bij Arc-gpu's en DirectX 9-games

Intel brengt een nieuwe driverversie voor zijn Arc Alchemist-gpu's uit die vooral merkbare prestatieverbeteringen met zich mee zou moeten brengen bij DirextX 9-games. Het was al bekend dat de Arc-gpu's minder goed presteerden in combinatie met de oudere api's.

Intel toont op basis van eigen bevindingen de prestaties van de Arc A770 in zes populaire DirextX 9-games, waarbij wordt vergeleken tussen de releasedriver van oktober (v3490) en de nieuwe v3959-driver die zich specifiek op DirectX 9 richt. Het gaat om Guild Wars 2, Payday 2, Stellaris, Starcraft 2, League of Legends en Counter-Strike: Global Offensive. Wat de gemiddelde framerate betreft was er bij CS:GO sprake van een verbetering van bijna 80 procent; de overige games scoorden relatief gezien wat lager.

Intel Arc DirectX 9Intel Arc DirectX 9Intel Arc DirectX 9

Volgens Intel is er vooral bij League of Legends en CS:GO sprake van een merkbare verbetering in het aantal frames per seconde. Bij 1440p en de grafische instellingen op ultra zou de gemiddelde framerate in CS:GO bij de oude driver uitkomen op 179fps, terwijl dat met de nieuwe driver 317fps is. Bij League of Legends gaat dat van 228 naar 346fps. Wat de 99-percentielwaarden betreft is de relatieve verbetering bij CS:GO 2,15 bij 1440p en ultra-instellingen, wat zou moeten betekenen dat de frametimes beter zijn en daarmee de gameplay merkbaar vloeiender.

Intel erkent dat de DirectX 9-ervaring 'meer aandacht behoefde'. Het was al bekend dat de videokaarten niet goed geoptimaliseerd waren voor oudere grafische api's zoals DirectX 11 en ouder. Tot nu toe moest Intel nog gebruikmaken van api translation layers om oudere DirectX 9-titels via DirectX 12 te ondersteunen. Populaire games als CS:GO maken daar nog steeds gebruik van.

Deze translation layers worden niet allemaal verwijderd; Intel zegt meerdere manieren te gebruiken om per game de beste resultaten te boeken. In die zin is v3959 een driverversie die ook als startpunt gezien moet worden; deze driver brengt niet meteen native ondersteuning voor elke DirectX 9-titel. Voor sommigen games zal dat het geval zijn, maar bij anderen worden de translation layers nog gebruikt.

Door Joris Jansen

Redacteur

07-12-2022 • 12:30

62

Lees meer

Reacties (62)

Sorteer op:

Weergave:

Dus ze gaan nu maar de populaire oude games af en de rest kan de baggere translation layer blijven gebruiken. Jammer als je wat minder bekends speelt.
Ik zie niet waarom dat een fout iets is. Resources zijn beperkt, dus je moet strategisch kiezen waar je je tijd en geld in stopt. Ervoor kiezen om eerst moderne games te optimaliseren en dan steeds een stapje terug in de tijd voor de populaire titels lijkt mij de minst slechte strategie om een door-ontwikkelde markt als deze te betreden.

Anders verwoord, in de realiteit zie ik geen betere optie als wat Intel hier doet.

Bovendien verwacht ik dat de wijzigingen die ze doorvoeren bij bijv. CS:GO ook impact hebben op andere titels. Door een selectie games te optimaliseren is het aannemelijk dat andere games die vergelijkbare structuur hebben ook beter draaien. Ik neem aan dat ze hier ook op testen om te voorkomen dat andere games opeens slechter draaien.

[Reactie gewijzigd door Gamebuster op 23 juli 2024 12:54]

Dat hangt er vanaf hoe moeilijk het is om DX9 native te ondersteunen. Nvidia en AMD maakten al grafische kaarten toen DX9 actueel was; toen was native de enige optie en dus werd dat ondersteund. Dat kostte vast de nodige tijd en voortschrijdend inzicht, want veel games doen dingen weer net even anders en de driver-makers moesten daar in mee.

Voor een "nieuwe" partij als Intel is het dan volgens mij gewoon inhalen geblazen. Dat lukt misschien niet in één keer 100%. Maar dat Intel nu zo hun Arc-kaarten heeft uitgebracht met alleen DX9-emulatie, zonder ook maar iets van die tijd of moeite te investeren in native DX9-ondersteuning, dat is wel het andere uiterste. Nu komt het eerste stukje van DX9-ondersteuning, da's beter dan niks, maar we hebben het hier niet over een echt nieuwe speler. Intel maakt al decennia lang iGPU's, dus dit wereldje zou ze niet helemaal vreemd moeten zijn. Het bedrijf krijgt wat mij betreft niet oneindig het voordeel van de twijfel; dan argumenteren we voor meer onafgewerkte producten in de toekomst.

Volgens mij had Intel prima hun kaarten eind dit jaar kunnen uitbrengen, of eerste helft 2023. Intel wilde snel want de videokaarten verkochten als warme broodjes vanwege crypto en lockdowns. Maar daar was de release sowieso al te laat voor want dat effect is voorbij. Dat hadden ze vóór de release prima kunnen bedenken, een jaartje langer doorwerken aan de drivers, en dan deze kaarten uitbrengen. Dan was er echt respect geweest voor de afnemer.

[Reactie gewijzigd door geert1 op 23 juli 2024 12:54]

Dat hadden ze vóór de release prima kunnen bedenken, een jaartje langer doorwerken aan de drivers, en dan deze kaarten uitbrengen. Dan was er echt respect geweest voor de afnemer.
En nu is het de vraag wanneer een koper goede prestaties op DX9 kan verwachten. Aangezien ik nog betrekkelijk veel DX9-games doe is het op zich wel fijn dat ze in ieder geval even goed draaien als op mijn huidige kaart, wil ik voor een Intel-gpu gaan. Ik kan me voorstellen dat meer kopers deze gedachtengang hebben.
"never buy a promise"

hetzelfde zag je lang geleden met oude 8/16-bit spellen die dusdanig geprogrammeerd waren dat ze niet compatibel te krijgen waren. Deze kaarten zijn gemaakt voor de huidige en toekomstige technologieën en DX9-support is "best-effort"
hetzelfde zag je lang geleden met oude 8/16-bit spellen die dusdanig geprogrammeerd waren dat ze niet compatibel te krijgen waren
Dat is eerder het gevolg van games die geprogrammeerd zijn voor de timings van de 8086/8088, als je er vervolgens een 386 tegenaan gooit gaat het fout - niet per se voor driversupport. Pas vanaf de Pentium was dat fenomeen pas echt verdwenen.
Ik denk nooit, want ze mikken heel duidelijk op DX12 en hoger. Daar zijn ze imho ook altijd heel duidelijk over geweest.
Toch niet. De prijzen van de videokaarten zijn nu net zo hoog als dat scalpers ervoor vraagde.
Bedankt iedereen die een kaart heeft gekocht van een scalper.

De prijzen in de wereld zijn nu zo hoog omdat wij bewezen hebben het er gewoon voor uit te geven.
Scalpers krijgen de laatste tijd het deksel op de neus. Nieuwe GPUs zijn vandaag vrij vlot te verkrijgen in de handel.
Ja, maar het probleem blijft dat iemand bij Nvidia dus opmerkte dat mensen toch die kaarten wel kopen ook als deze >2000 euro liggen...

Dus nu gaan ze ook mooi gebruik maken van dit weetje en nu blijven de prijzen zo bizar hoog.

Entry level cards bestaan ook niet meer, dan moet je maar een last gen halen die toevallig ook nog steeds erg duur zijn
True enough, ben toch nog steeds blij met mijn ruim 5 jaar oude 1080ti, waarmee ik vrijwel alle games die ik wil op 60+fps kan spelen op 1440p met fatsoenlijke graphics.
Mijn eerste zelfgekochte PC kostte me fl2400,- (exl monitor) voor een pentium 2 300mhz en voodoo2 (met inflatie zou dat nu €2400,- zijn) voor een fantastische 30-60fps op een magistrale 800x600 resolutie in bijv quake2.
Die was 2 jaar later hopeloos verouderd en kon bijna niets nieuws meer fatsoenlijk draaien.

Ik zeg niet dat het prima is wat ze nu doen qua prijzen, maar als vaste klant kunnen ze zo zeer slecht op mij rekenen.
#ikwordoud
Hetgeen waar Nvidia geen rekening mee gehouden had was dat de mensen die deze kaarten kochten aan die bizar hoge prijzen dit deden voor cryptomining. Tijdens de piek van ETH in November vorig jaar kon je met een 3080 Ti van rond de 1800 USD iets van een 5,25 USD per dag verdienen, wat na 10-11 maanden break-even betekende. Dus het maakte voor deze mensen niet echt uit dat de kaarten zo duur waren, want ze waren toch van plan om binnen het jaar dit terug te verdienen.

Maar nu is het meeste wat je kunt verdienen met een kaart nog geen tiende van wat het een jaar geleden was, dus is er niemand die er binnen een redelijke termijn geld mee zal kunnen verdienen. Of je moet al hopen dat er een opvolger van ETH zal verrijzen die alsnog rendabel genoeg is. Maar ondertussen zijn de enige potentiële klanten voor nieuwe kaarten gamers, en gamers kopen geen kaarten om winst mee te maken (hooguit om mee te kunnen winnen in games) maar om mee te gamen. En dan heb je in feite 2 kampen: enthousiasts die enkel met het allerbeste genoegen nemen en dus voor het topmodel gaan, ongeacht wat het kost (dus de 4090); en spelers die een specifieke combinatie van framerate en resolutie in gedachten hebben en daarvoor een budget vastleggen. en geen van beide groepen wordt ietwat bediend door de 4080.
Ze zijn vlot te verkrijgen, maar wel aan prijzen die ABSURD hoog zijn. De 4080 aan MSRP kost zowat het dubbele van de 3080 MSRP. En dat allemaal omdat die gortige cryptobandieten bereid waren om gelijkaardige bedragen te betalen voor die 3080. En nu betalen wij gamers het gelag voor hun diepe zakken, terwijl die kaarten voor ons helemaal niet zoveel waard zijn. Eerlijk gezegd ben ik dan zelf ook uitermate blij dat al die cryptomunten gewoon aan het instorten zijn...
Ik begrijp ook niet helemaal hoe dit zit. Blijkbaar is het niet generiek voor alle dx9-11 titels maar moet het per game uitgerold worden?
Nee, bepaalde games zullen bepaalde aspecten van DirectX 9 meer gebruiken dan andere. Puur optimaliseren voor die games zal dus een grote boost geven terwijl games die een andere greep uit de DX9 APIs heeft gebruikt alleen maar profiteert van daar waar er overlap is. Uiteindelijk gaan ze het grootste deel wel bereiken. Je ziet AMD en Nvidia ook specifieke games altijd aanhalen bij driver updates, maar dat betekend niet dat die games de enige zijn die verbeteringen zien.
.oisyn Moderator Devschuur® @Loller17 december 2022 19:33
maar dat betekend niet dat die games de enige zijn die verbeteringen zien.
Maar daarentegen zijn de verbeteringen ook niet zo generiek als je lijkt te suggereren. Nvidia en Amd steken enorm veel tijd in het maken van game-specifieke optimalisaties. De games die ze noemen in de driver updates zijn wel games die specifieke aandacht hebben gehad. En vooral in de tijd van DirectX9 was dit erg belangrijk.

Intel heeft die geschiedenis niet, dus die moet nu met terugwerkende kracht al die games gaan optimaliseren om een beetje mee te kunnen komen.
Dat is omdat DX9-11 niet heel erg expliciet is. Simpel gezegd, met DX9-11 kan de game aangeven wát je wil, niet hóe je het wilt. Daarom zitten drivers ramvol met per game optimalisaties. DX12 en Vulkan bieden low level hardware access en daarmee is het probleem uit de wereld.
Dank alle heren hierboven. Dat maakt het duidelijk :)
En OpenGL is nog hoger niveau toegang dan ook oudere DirectX versies, waardoor Microsoft wel echt een edge had in performancemogelijkheden.
waardoor Microsoft wel echt een edge had in performancemogelijkheden.
hehe, nice pun ;)
Er staat volgens mij nergens dat de verbeteringen beperkt zijn tot de genoemde titels!

Lijkt me dat ze per (populaire) game kijken welke api-calls er precies gedaan worden en specifiek die api-calls aanpakken, daarmee heb je dus niet alle calls van alle games afgevangen maar wel degene die populair zijn en daarmee zijn games die niet populair zijn maar wel dezelfde api-calls doen ook geholpen.
Stel je hebt 100 mogelijke plekken waar je je driver kan optimaliseren. Voor de grootste impact per tijd kijk je naar de optimalisaties die de meeste impact hebben op de meeste populaire games en die pak je op.

Andere games, die je niet meet of die minder belangrijk zijn, zullen vervolgens (waarschijnlijk) ook baat hebben tenminste een deel van de optimalisaties.
Voor het gros van de games waar fps over de 140 komt is het dan ook totaal niet relevant.
Dit zijn fps games die baat hebben bij meer fps. Al kan je stellen dat van 200 naar 350 voor het gros geen bal uit maakt omdat er maar een paar zijn die hier überhaupt voordeel uit kunnen halen en die hebben een high end rig.

Mijn 6900XT kan ook in veel games hoge fps halen maar ik cap het op 120 omdat ik meer niet echt merk maar wel bakken stroom kost.
Deathloop op 120 fps kost me 130 watt 1440p terwijl 180 fps me 140 watt meer kost. Totaal de stroom niet waard dus.
Upvote daar de moderatie kennelijk lastig is.

Ja het is waardeloos dat de Arc kaarten niet goed geoptimaliseerd zijn, maar dan alsnog 99% van de gamers heeft een scherm dat niet meer dan 144 frames weergeeft dus een framecap instellen is helemaal niet verkeerd.
Aangezien de 144+ al gehaald werd zie ik niet zo goed waar het voordeel behaald wordt.
Wat @computerjunky al zegt de mensen met een 240/360hz scherm hebben een high end systeem en dan kies je niet voor een Intel Arc.

Hier met nvidia settings de fps gewoon op 145 fps gecapped waardoor het verbruik in simpele spellen terug valt van 250 watt naar 100 watt omdat je niet zinloos frames aan het produceren bent.


@Loc Hardware De verbeteringen zitten dus voornamelijk in de 1% en 0,1% lows daar kan ik me dan wel weer in vinden.
Blijft een fps cap een goede oplossing voor 99% van de gamers.

[Reactie gewijzigd door TRAXION op 23 juli 2024 12:54]

Nou hoe beter de kaarten presteren, hoe meer games die gerunt kunnen worden die nu net onder het randje van speelbaarheid zitten
Het gaat niet om de translation layer die verbeterd is maar specifiek bepaalde games welke geoptimaliseerd zijn, dus misschien dat de source engine games verbeterd zijn maar dan blijven er nog honderden games over die via de translation layer bagger blijven draaien.

Begrijp me niet verkeerd ik juich optimalisatie aan maar je richten op een game die al 144+ fps voorbrengt op 1440p ultra settings slaat bij mij de plank mis.
Het probleem met bijvoorbeeld CS:GO op de intel grafische kaarten was dat het gemiddelde wel boven de 144fps uit kwam, maar de 1% en 0,1% lows bijna in de enkele cijfers uit kwamen. Daarom was de optimalisatie ook nodig, op het moment dat je 144fps hebt maar gigantische framedrops is optimalisatie wel vereist.

Bron: https://youtu.be/w0MLGg5jJnM?t=74
..deze driver brengt niet meteen native ondersteuning voor elke DirectX 9-titel. Voor sommigen games zal dat het geval zijn..
Ik lees hier niet dat "sommige games" per definitie de populaire games zijn, maar als ze inderdaad spel voor spel iets moeten doen, dan is het toch logisch dat je van populair naar minder populair werkt? Op een gegeven moment moeten ze ook zeggen 'hier stoppen we', want wat is het nut van tijd en moeite in spellen steken die (bijna) niemand meer speelt?

Tuurlijk zijn er nog een aantal spellen die populair blijven, maar het gaat over DX9, dat is nog uit het Windows XP tijdperk. Zelfs DX12 is ondertussen al 7 jaar oud.
Tuurlijk zijn er nog een aantal spellen die populair blijven, maar het gaat over DX9, dat is nog uit het Windows XP tijdperk. Zelfs DX12 is ondertussen al 7 jaar oud.
Maar omdat nieuwe DirectX versies voorheen bij een nieuw Windows OS geïntroduceerd werden, zijn veel versies nog veel langer gebruikt. Stellaris is bijvoorbeeld uit 2016.
DirectX12 is zelfs zo'n nieuwe richting dat er genoeg redenen zijn om nog steeds voor 11 te kiezen.

[Reactie gewijzigd door Wolfos op 23 juli 2024 12:54]

Nou, als je nu een renderer gaat schrijven dan moet je toch echt wel DirectX12 gebruiken en Metal en Vulkan. Anders zou je jezelf geen professional mogen noemen. Anders dan dat er uitzonderingen bestaan zoals dat je een product maakt wat op XP moet draaien als voorbeeld.

Belangrijke Engines moeten onderhand ook wel echt zijn overgestapt wil je betere prestaties en mooiere effects uit graphics cards halen.

Xbox One is geloof ik ook alleen DirectX12. Dus als je game daarop uitbrengt heb je sowieso al DX12 nodig.

[Reactie gewijzigd door Zezura op 23 juli 2024 12:54]

Nou, als je nu een renderer gaat schrijven dan moet je toch echt wel DirectX12 gebruiken en Metal en Vulkan. Anders zou je jezelf geen professional mogen noemen.
Als je een nieuwe schrijft misschien, maar het is zoveel extra werk dat zeker voor kleinere teams echt geen doen meer is, waar dat met DirectX11 nog wel kon.
Als je niet aan de nieuwste graphics doet is dat meer werk dan dat het waard is.
Belangrijke Engines moeten onderhand ook wel echt zijn overgestapt wil je betere prestaties en mooiere effects uit graphics cards halen.
Unity 2022.2 (beta) heeft voor het eerst redelijke DX12 ondersteuning op Windows, en er zijn nog steeds situaties waarin de DX11 renderer sneller is.
Voordat deze versie in nieuwe games verschijnt ben je sowieso al een aantal jaar verder.
De focus lijkt vooral te liggen op de competitieve games die veel gespeeld worden. Aan de cijfers te zien had geen van de genoemde games echt problemen. 75FPS in Stellaris hoor je niemand over klagen, en dat was de laagste framerate die hier voorbij komt.

Dus leuk dat ze het verbeteren (vooral voor de Counter Strike spelers), maar die vertalingslaag is ook geen drama.
Ik vind het zo jammer want die vertalingslaag hoeft geen drama te zijn.
Kijk eens naar dxvk (dx9-11 -> Vulkan), vkd3d (dx12 -> vulkan), wined3d (directX -> opengl), allen, met als kleine uitzondering wined3d, performen praktisch hetzelfde als de hetgene dat ze vertalen.
Zink zal in de praktijk niet echt gebruikt gaan worden omdat de native opengl drivers vaak nog net iets sneller zijn. Maar het kan gigantische performance gains opleveren op gpu's die geen opengl meer ondersteunen, alhoewel ik die nog niet voorbij heb zien komen.
dxvk is de standaard geworden voor linux gaming omdat het zo retegoed performed, ik haal zelf praktisch dezelfde framerates als op windows met dxvk op linux.
Vkd3d is helaas alleen nuttig op iets nieuwere nvidia kaarten en bijna alle AMD kaarten. Voor maximale performance op een nvidia is helaas een 16xx of hogere kaart benodigd, men zegt dat dit komt door hardware limitaties van de oudere gpu's.
Wined3d was tot dxvk uitkwam de koning onder de linux gamers, performed niet zo heel geweldig maar was acceptabel.

Punt is, als het al eerder gedaan is, met goede performance, waarom kan intel het dan niet?
Het begin is er nu iig; best veel kans dat ze alleen de bekendere doen want iets met kosten/baten, echter ook kans dat er een meer algemene fix komt waar ze dan na genoeg feedback weer een 'oh wacht, deze is ook populair' driverhackoptimalisatie bij kunnen doen...

We gaan vanzelf zien hoe Intel zich in deze markt wil positioneren en hoe belangrijk hun bereidheid tot 'legacy'-compatibility is... voor nu is extra concurrentie altijd welkom, als die 90% vd performance doet van de leiders voor een lagere prijs is dat waarschijnlijk wel goed voor de prijzen...

[Reactie gewijzigd door IrBaboon79 op 23 juli 2024 12:54]

Dat is inderdaad jammer en ook een risico, je weet niet wat je in de toekomst voor spellen gaat spelen. Daarentegen Intel werkt er nu wel aan en ze boeken ook resultaten.
Dat zal vanzelf geen issue meer zijn voor Intel, elke nieuwe generatie zal de kaart sneller zijn en er meer games ondersteund worden. Is echter het spelen van Civilization #1 een issue op de Arc kaart? Nee (tenzij er andere issues mee zijn), want de hoeveelheid frames die de baggere translation layer opleverd is genoeg om mee te spelen.

Ik vermoed echter dat er voorlopig teveel (oudere) games niet van de Intel kaart zullen profiteren en dat is problematisch voor een steeds kleinere groep gamers... Naar mijn mening is dit nog een alpha product van een bedrijf die geen goed trackrecord heeft met de ondersteuning van bepaalde hardware. We moeten nog maar eens gaan zien of dat gaat veranderen voor Ark...
Dus ze gaan nu maar de populaire oude games af en de rest kan de baggere translation layer blijven gebruiken.
Wat ik niet snap is waarom die translation layer blijkbaar zo slecht werkt en waarom ze er niet meer aandacht aan besteden om die beter te maken, want op zich is het idee van zo'm translatielaag gewoon prima. Proton doet hetzelfde voor DX12/11/10/9 bovenop Vulkan, en dat werkt behoorlijk goed, zeker goed genoeg om oudere spellen te draaien met prima prestaties. Zo'n translatielaag heeft allerhande voordelen, zoals de mogelijkheid om aangepaste of gepinde versies te shippen voor games met bekende problemen, in plaats van de complexiteit van je de drivers zelf extreem op te blazen met 1001 game-specifieke workarounds en hacks zoals AMD en NVidia doen.
Het zou heel mooi zijn als deze 3e deelnemer in de gpu wereld, de testen buitenshuis had laten doen.
Nu klinkt het meer als; "Wij van WC Eend ............
Maar laten we ind duimen dat deze speler nu mee kan spelen met de gpu war.
De grafieken zijn anders wel heel gedetailleerd. Geen "up to 300% performance" grappen. Exacte metingen en waardes en onder welke omstandigheden staan direct op de grafieken. Als ze onwaar zouden zijn, komt men daar snel achter.

Ik vertrouw erop dat de grafieken op waarheid gebaseerd zijn.
Inderdaad, als ze zulke exacte cijfers geven dan zal dat wel ongeveer kloppen, maar vooral Apple wil nog weleens een "up to 300% performance" doen en dat betekent in de praktijk dus geen drol.
Intel doet wmb in ieder geval hun best om hun product te verbeteren en wat goodwill te genereren bij de gaming community. Ik ben blij om dit te zien.
Er zijn zat tech reviewers met deze kaarten in huis. Wacht gewoon af wat zij zeggen.
Linus van LTT draait een maand lang alleen maar ARC op dit moment.
Die tests komen vanzelf wel
https://twitter.com/Dayman58/status/1600311570076438529

Er zijn al gebruikers die de prestatieverbeteringen kunnen beamen.
Wel, is het niet normaal dat intel deze zelf doet ?
Als ze hun drivers willen verbeteren, moeten ze dit ook testen en meten, anders kan je niets weten.
Verder is het geen vergelijk tov derden, maar tov hunzelf.

Bevestiging van een extrene partij is natuurlijk beter, maar Zelfs als intel dit zou vragen aan een externe partij, dan zou je de opmerking krijgen dat die betaald werden door intel, dus ....

door dit nieuws nu de wereld in te sturen geeft intel het vrij aan iedereen om dit te bevestigen of te betwisten. En je kan er zeker van zijn dat een aantal gekende test sites dit zullen doen.
Als we hier nu niets maar van horen, mag je ervan uitgaan dat de claims kloppen.
indien niet dan zal er wel een artikel verschijnen van: "verschillende sites betwisten de intel Arc driver verbeteringen"
Deze driver is een klein weekje uit al, dus je kan het zelf gaan testen als je ze niet gelooft.
Nou, ik geloof dit rustig wel bij de games die ze dus presenteren.
Guild Wars 2 is dit jaar van DirectX 9 naar DirectX 11 gegaan. Je kunt momenteel nog steeds voor DirectX 9 rendering kiezen maar het kan dat deze optie in de toekomst geheel wordt verwijderd.

Het is in ieder geval essentieel voor een gaming videokaart als de Intel Arc serie dat de graphics performance in deze oudere API's prima in orde is, simpelweg omdat er nog heel veel spelers zijn die deze en andere DX9-10-11 games spelen.
Persoonlijk denk ik dat het wel mee valt. Vaak zie je veel mensen die zelfs maar voor 1 game een pc kopen en een deel speelt alleen nieuwe games. Het deel dat nog oude games speelt zal echt heel laag zijn.
En bij veel oude DX9 games is 50% performance meer als genoeg voor meer fps dan je monitor aan kan.

Ik denk dat te veel mensen te veel focus leggen op zaken die niet belangrijk zijn. Stabiele drivers en betere software is veel belangrijker.

[Reactie gewijzigd door computerjunky op 23 juli 2024 12:54]

Wel is het zo dat je bij oudere games al sowieso redelijk goede performance hebt om te kunnen spelen. Kijk naar bv CS:GO wat van 179fps (ofwel al perfect speelbaar) naar 317fps (ofwel nog steeds heel erg goed speelbaar), en LoL van 228fps (ofwel ook al perfect speelbaar) naar 346fps (ofwel nog steeds perfect speelbaar). Bij de voorgenoemde games is het dus vooral voor mensen die misschien met een monitor van 240hz dat het echt een merkbare vooruitgang zou zijn, maar voor de doorsnee speler zal het wat betreft belevenis niets uitmaken omdat de oude 'trage' driver al behoorlijk boven de 144fps zit.
Dus het is vooral pik-meten waar het bv bij deze games om draait.. Andere games kan het natuurlijk een andergeval zijn als het eerst 50fps is en nu 100fps, dat zullen al heel veel meer mensen ook daadwerkelijk merken met een fatsoenlijke monitor.
Jammer dat ik niets lees van prestaties binnen b.v. Adobe Premiere Pro of Adobe Photoshop van de Intel ARC kaarten. Weet niet of er al gebruikers zijn van de ARC kaarten die dit getest hebben of dat Tweakers zelf dit al getest heeft.
Voor een 1st gen product doet de Arc kaarten het volgens mij toch redelijk goed als je naar prijs/prestaties kijkt. Lijkt erop dat intel in eerste instantie vooral naar dx12/ray tracing heeft gekeken. Opzich wel te begrijpen aangezien daar het geld/toekomst zit.

Dat er nog veel winst valt te behalen met drivers was ook wel te verwachten. Al vind het het geklaag over dx9 af en toe ook wel een beetje overdreven. Of je nou 200fps met een Arc of 300+fps haalt met and/nvidia valt wat mij betreft ook een beetje in te categorie van want maakt het nou echt uit? Er zullen ongetwijfeld wat mensen zien de beweren het verschil te merken maar behalve dat het eene nummertje hoger is, maakt het nou echt uit voor 99.99% van de gebruikers?
Geef deze kaart nog wat tijd en je zult zien dat deze later prima kan meekomen in het lagere/midden segment. Op lange termijn is dit alleen maar goed voor de GPU markt.
Goede ontwikkeling. Een jaar verder komen de drivers hopelijk op niveau van AMD/Nvidia. Misschien gaat Intel dan hun eigen fabs gebruiken, zodat de extra kosten van TSMC uit het productie process kunnen. Productie is dan zowat ongelimiteerd, dus lijkt me dat ARC GPUs de low-end markt kunnen veroveren.
Na de rommelige start en tig keer zijn uitgesteld lijken de kaarten zich inmiddels redelijk staande te kunnen houden -onder de juiste omstandigheden-. Het is zeker geen kaart om in een ouder systeem zonder ReBar of PCIe 4.0 te plaatsen als drop-in upgrade en veel mensen zullen de kaart terugbrengen als die niet optimaal bij ze werkt.

Ik zag al wel advertenties van webshops die ze in nieuwe systemen wegzette.
Ik hoop echt dat Intel de komende jaren op een kortere release interval zit als AMD en Nvidia waardoor ze sneller vooruitgang kunnen boeken en meer druk kunnen zetten op de overige 2 geldwolven. Hoe sneller ze prestatie winsten boeken des te meer kans ze hebben op een ideale launch die nog ver verwijderd is van de andere 2 waardoor mensen die in het lagere segment maar 1 beste koop over houden.
Dat drukt of de prijzen van AMD en Nvidia of ze nemen voor lief dat ze marktaandeel afstaan.
Je kunt hopen wat je wil, maar het probleem is dat Intel voorlopig veel minder geld per kaart verdient dan AMD & NVidia. Deze Arc is simpelweg verliesgevend. De R&D kosten nog verder omhoog jagen door veel nieuwe GPU's uit te leveren met maar een paar kleine verbeteringetjes maakt het nog langer verliesgevend.
Als de nieuwe revisie klaar is hebben ze er geen baat bij om het uit te stellen. Als het sneller is zal het beter verkopen.
Als ze op een 2 jaar rotatie blijven zullen ze absurde sprongen moeten maken om in te lopen op nvidia.
Helaas dat de A770/16GB hier in nederland nergens te krijgen is en het lijkt er ook niet op dat die nog op korte termijn beschikbaar gaat komen. Heb wel interesse in deze om eens een keertje wat afwijkends te kopen, en RTX3070 of hoger vind ik toch echt te duur gaan worden, en de AMD vergelijkbare kaarten passen niet in een NUC 12 extreme Dragon Canyon helaas.

Op dit item kan niet meer gereageerd worden.