Eerste gamingbenchmarks van Intel Arc A730M-laptopvideokaart verschijnen online

De eerste gamingbenchmarks van de Intel Arc A730M-laptopvideokaart zijn verschenen. Een Weibo-gebruiker heeft de laptop-gpu op twee verschillende resoluties getest in drie games. Laptops met de Intel Arc A730M verschijnen officieel deze zomer.

Weibo-gebruiker Golden Pig Upgrade heeft de videokaart getest in een laptop van de Chinese fabrikant Machenike. Het systeem beschikt, naast de Arc-gpu, over een Intel Core i7-12700H-cpu en 16GB DDR5-4800-geheugen.

De Arc A730M beschikt daarbij over 12GB GDDR6-geheugen op een 192bit-geheugenbus en 24 Xe-cores, wat neerkomt op 384 executionunits. Het is niet bekend of de Weibo-gebruiker Intels Dynamic Tuning Technology-functie gebruikte bij de tests. Die feature leek in eerdere tests een negatieve invloed op de prestaties te hebben, merkt techwebsite VideoCardz op. Omdat de videokaart nog niet uit is, is het ook mogelijk dat de drivers nog niet volledig af zijn. Deze resultaten dienen daarom met een korrel zout genomen te worden.

De videokaart is getest in Assassin's Creed: Odyssey, Metro Exodus en F1 2020, op 1080p- en 1440p-resoluties. Metro Exodus haalde gemiddeld 70fps op 1080p en 55fps op 1440p met de High-preset. De minimale framerates in die game bedroegen 9fps. In F1 2020 presteerde de gpu beter, met minimale framerates boven de 80fps op 1440p. In Assassin's Creed: Odyssey haalde de videokaart 38fps op 1080p en 32fps op 1440p met de Very High-preset. Tegelijkertijd schrijft de Weibo-gebruiker dat Shadow of the Tomb Raider niet startte door driverproblemen.

De Intel Arc A730M presteert hiermee tussen de GeForce RTX 3050- en RTX 3060-laptopvideokaarten van Nvidia, afhankelijk van het spel. Eerder publiceerde Golden Pig Upgrade al 3DMark Time Spy- en Fire Strike-benchmarkresultaten. In eerstgenoemde was de gpu sneller dan een RTX 3070-laptopvideokaart, in Fire Strike presteerde de kaart tussen een RTX 3060 en RTX 3070.

Intel brengt zijn A500- en A700-laptopvideokaarten deze zomer uit. Naast de A730M, komt het bedrijf nog met een hoger gepositioneerde A770M en een lager gepositioneerde A550M. Later volgen ook losse Arc-videokaarten voor desktops en workstations.

Intel Arc A730M-prestaties via Golden Pig Upgrade (Weibo)
Game Maximale framerate Gemiddelde framerate Minimale framerate Resolutie Grafische preset
Assassin's Creed Odyssey 64 38 10 1920x1080 Very High
Assassin's Creed Odyssey 71 32 9 2560x1440 Very High
F1 2020 133 123 106 1920x1080 High
F1 2020 105 95 84 2560x1440 High
Metro Exodus 122 70 10 1920x1080 High
Metro Exodus 97 55 9 2560x1440 High

Afbeeldingen door Golden Pig Upgrade via Weibo

Door Daan van Monsjou

Nieuwsredacteur

07-06-2022 • 10:42

44

Lees meer

Reacties (44)

Sorteer op:

Weergave:

Nou, als je met je midrange kaart zonder geoptimaliseerde drivers ergens rond de 3060 presteert dan heb je het, volgens mij, helemaal niet slecht gedaan.

Uiteraard is de enige zinnige vergelijking de praktijk met echte laptops met echte hardware en echte drivers maar deze resultaten geven wel hoop.
Prestaties soms onder de 3060 en soms al boven de 3070. Laat duidelijk zien dat Intel nieuw is en er nog het nodige werk zit aan bugfixes en optimalisaties in de drivers, de uitschieters geven wel te denken dat er serieus kracht onder de motorkap zit.

Kan dan prima all-round concurrent blijken van de 3070. Nvidia/AMD hadden soms wel 10-15% prestatie verhogingen bij software updates (met specifieke benchmarks of games rustig >30% increase met dedicated support), dus niet ongehoord dat deze mogelijk zelfs met de 3080 kan gaan concurreren afhankelijk van hoe groot de fixes daadwerkelijk uitvallen (en of deze snel genoeg uitgebracht worden).

Niet slecht voor een 1e poging om een volwaardige GPU te ontwerpen.

[Reactie gewijzigd door Xanaroth op 26 juli 2024 00:05]

Zeker als ze wat gangbaarder worden en game/engine devs ook gaan testen en optimaliseren voor de Intel architectuur. Het zal bij deze generatie kaarten nog verre van optimaal zijn, maar als ze zo door gaan kunnen ze over 5 jaar goed concurreren denk ik.
Niet slecht voor een 1e poging om een volwaardige GPU te ontwerpen.
We hebben het hier natuurlijk wel over Intel. Je kunt wat van het bedrijf vinden maar ze gaan niet over 1 nacht ijs en als ze willen kunnen ze hier natuurlijk serieus geld en menskracht tegenaan gooien. Dat hebben ze gedaan en met succes zo lijkt. Ze lijken idd een mooie eerste GPU neer te zetten.

Echter concurreren met de 30XX serie/6XX0 serie is, als ze er eindelijk zijn, wel op de valreep van de oude generatie Nvidia/AMD. Daar zit alweer van alles nieuw aan te komen en de Intels laten op zich wachten. Kan dus zomaar zijn dat deze Arc over een paar maanden tov de nieuwe kaarten als "low-end" gaan bestempelen. Intel moet dan óf vrij snel weer over gaan naar de volgende generatie óf de volgende generatie moet een hele grote stap voorwaarts gaan zetten om bij te gaan benen.
Ik vind dit niet verkeerd voor een eerste voorzichtige benchmark.
Persoonlijk ben ik heel erg benieuwd naar de verdere ontwikkelingen.

Te veel concurrentie is niet goed, dan krijg je te veel versnippering, maar het is al veel te lang geleden dat er een behoorlijke derde partij in de markt voor grafische kaarten was.

Hopelijk zorgt de komst van Intel er voor dat we wat meer realistische prijzen kunnen gaan betalen voor grafische kaarten.

Ik hoop alleen niet dat Intel, weer, gaat proberen om afspraken te maken omtrent levering van hun grafsiche kaarten in verplichte combinatie met een CPU zodat ze nu niet één, maar twee partijen tegelijk uit de markt kunnen drukken.
Qua Metro bijvoorbeeld heb je gelijk, maar als ik kijk naar AC Odyssey dan is de performance vergeleken met een 3060 ronduit slecht. Ook in F1 2020 doet de 3060 het een stuk beter.
In dat artikel wordt vergeleken met een laptop RTX3060, welke toch wel een flink stuk trager is dan een desktop RTX3060 in jouw link.

!mark vind het nog altijd vervelend of zelfs misleidend dat Nvidia het 'm' achtervoegsel heeft laten vallen bij laptopchips zodat het onderscheidt duidelijk was gezien een laptop 3060 en een desktop 3060 niet vergelijkbaar zijn.

[Reactie gewijzigd door !mark op 26 juli 2024 00:05]

Goed punt inderdaad. Speelt daar trouwens niet ook de afstelling een grote rol? Ik meen op Tweakers een artikel te hebben gelezen dat de ene mobiele kaart binnen dezelfde serie de andere niet is en dat daar onderling ook al een groot verschil kan zijn qua performance.
Klopt, de hardware is wel hetzelfde maar de instellingen die bepalen hoeveel stroom een kaart mag verbruiken en de koeling voor de kaart bepalen voornamelijk wat een kaart kan presteren.
Gaming laptops lopen vaak tegen een temperatuurlimiet aan en dan gaan de prestaties omlaag. Dat zal bij de 3060 minder spelen dan bij bijvoorbeeld een 3080.
Maar het betekend wel dat een laptop met betere koeling dus beter zal presteren.

[Reactie gewijzigd door Wolfos op 26 juli 2024 00:05]

Qua Metro bijvoorbeeld heb je gelijk, maar als ik kijk naar AC Odyssey dan is de performance vergeleken met een 3060 ronduit slecht. Ook in F1 2020 doet de 3060 het een stuk beter.
Drivers kunnen een groot verschil maken. De 3D mark scores zeggen daarom wat mij betreft veel meer over de potentie van de kaarten. Echter, goede drivers kunnen behoorlijk wat tijd en geld kosten. Kijk bijvoorbeeld naar de drivers van AMD en Nvidia. Deze kunnen bij games voor 10 tallen % verbetering zorgen.

Intel is nog leek op het gebied van gamegpu's en heeft eigen nieuwe architectuur. Ik verwacht daarom ook dat goede drivers de grootste uitdaging wordt de komende tijd. Echter, verwacht ik ook dat de gameprestaties nog flink zullen verbeteringen de komende tijd.
En goede drivers is al jarenlang het probleem bij Intel.
Ik heb hier een intel XE videokaartje in m'n laptop zitten. In theorie meer dan snel genoeg voor Photoshop en andere openGL acceleratie van bepaalde apps (AI software enz).

Echter in de praktijk is het gewoon ronduit buggy en werkt het half, soms of niet. Klooien met driverupdates helpt niets. Intel's drivers zijn prima voor een spelletje of wat photoshoppen maar zodra je bijv. in Photoshop met de AI filters gaat spelen, of andere AI software gebruikt die hardwarematige acceleratie bied dan ziet het er lelijk uit of werkt het niet (error).

Voor mij dus voorlopig geen intel videokaarten meer.
Ik vraag me af wat er met de langere termijn driversupport gebeurd in het geval dat de ARC gpu's een flop worden mbt de verkoopaantallen.
Er is weinig reden om aan te nemen dat Intel op dit gebied steken laat vallen. Ze hebben een zeer ruime catalogus hardware, veel ervan "oud" in hardwaretermen, dat allemaal nog gewoon support krijgt. Je moet dan uiteraard niet verwachten dat ze 5 jaar later de boel nog gaan optimaliseren voor de nieuwste lading games, maar het zal wel gewoon blijven draaien.

Sowieso beetje een raar ding om je zorgen over te maken, aangezien grafische hardware qua performance doorgaans de houdbaarheid heeft van een pak melk, drivers helemaal daargelaten. Als je iemand bent die 10 jaar lang met z'n setup wil doen moet je wellicht niet straks naar de winkel rennen voor de eerste lichting Intel GPU's nee, dat niet.

[Reactie gewijzigd door MneoreJ op 26 juli 2024 00:05]

Nou ja, 10 jaar lijkt me wat lang, maar ik ben wel iemand die doorgaans niet elk jaar nieuwe hardware koopt. Ik zal dan zeker eerst de komende tijd kijken wat de Intel GPU's gaan doen. En een derde speler op de markt geeft in elk geval meer keuze aan de consument.
Aan de andere kant, als ik op Youtube soms zie wat er nog aan prestaties uit oudere videokaarten kan worden geperst, vind ik het wel meevallen met die houdbaarheid. Dan is het gewoon een kwestie van settings aanpassen (voor zover de gebruiker daartoe bereid is, diehard gamers willen denk ik wel steeds het snelste en nieuwste. Ieder z'n ding natuurlijk).
Intel heeft best eem ambitieuze roadmap, dus lange termijn support lijkt initieel okay te zijn. Intel is zich er echt wel van bewust dat je niet in een generatie een grote hap uit een markt neemt waar twee super dominante spelers al jaren heersen.... Technisch concurreren met 2 grote partijen die dit al veel langer doen is echt niet makkelijk. Dit is zelfs voor Intel eengroot project met grote inverstering.

Maar ook bij Intel kan een groot ambitieus project floppen, *kuch*ia-64*kuch*. Mocht dit project dus enorm tegenvallen en de hele intel GPU architectuur floppen, ben je als 'early adaptor' gewoon genaaid en zal je support nooit goed worden!

[Reactie gewijzigd door Luxx op 26 juli 2024 00:05]

Ik ben meer benieuwd naar de prestaties van video decoding en ondersteunde resoluties/kleurdiepte en of dit zonder fans kan. Er is een groot gebrek in de markt aan onhoorbare videokaarten met ondersteuning voor meerdere schermen en hardware accelerated video decoding.
Dit lijkt me eerder een zakelijk vraagstuk dan iets dat door consumenten kaarten afgedekt zal worden. Zijn er geen zakelijk georiënteerde kaarten die kunnen voorzien in deze gewenste product eigenschappen?
Zal best te doen zijn met een flinke heatsink, iets waar je in een laptop geen ruimte voor hebt. Wellicht dat ze deze laptopkaart als ene losse gpu kunnen verkopen met een dikke heatsink erop ... maar dat lijkt mij (nog) niet de insteek
Het is niet bekend of de Weibo-gebruiker Intels Dynamic Tuning Technology-functie gebruikte bij de tests. Die feature leek in eerdere tests een negatieve invloed op de prestaties te hebben, merkt techwebsite VideoCardz op. Omdat de videokaart nog niet uit is, is het ook mogelijk dat de drivers nog niet volledig af zijn. Deze resultaten dienen daarom met een korrel zout genomen te worden.
Bovendien zijn bij mobiele videokaarten de thermische en stroomlimieten vaak nog belangrijk. Afhankelijk van de koeloplossing en de instellingen van de fabrikant kunnen de prestaties nog sterk verschillend uitpakken. Bij een hoger geconfigureerde TDP kan de kaart (langer) hogere kloksnelheden gebruiken bijvoorbeeld.

[Reactie gewijzigd door Admiral Freebee op 26 juli 2024 00:05]

Belangrijk punt is wel dat de A730M volgens eerder bekende data een tdp van tussen de 80 en 120 watt kan hebben. Afhankelijk van de configuratie zijn deze test resultaten of best netjes, of simpelweg indrukwekkend
Vraag me af hoeveel hij gaat kosten
Als dat effectieve resultaten zijn dan kunnen we helaas alleen maar spreken van een "niet in balans" CPU + GPU combo laptop.
Er werd al aangegeven dat de drivers nog niet volledig klaar zijn. Dat zal het beeld ongetwijfeld verstoord hebben. Ik ben benieuwd naar dezelfde test wanneer alles klaar is.
Hoezo? Omdat het voor games niet helemaal optimaal is? Voor zaken als video editting, fotobewerken en 3D werk is deze laptop configuratie bijna ideaal

Je conclusie is verschrikkelijk kort door de bocht

[Reactie gewijzigd door youridv1 op 26 juli 2024 00:05]

dan heb je geen dGPU nodig, dan heb je genoeg aan een degelijke embedded GPU. Nu is er geen balans tussen de mooie performance die de CPU geeft en de "lager dan verwachte GPU perfromance" whatever driver het mogen wezen.

tot zo ver verschrikkelijk kort door de bocht.....
Voor wat? 1080p vakantiefilmpjes? Voor alles daarboven en zeker voor h265 is een goede dGPU een mus

h265 4K encoden op een laptop cpu is, uit ervaring, verschrikkelijk, ook met quicksync

[Reactie gewijzigd door youridv1 op 26 juli 2024 00:05]

single usecase ga je dus iedereen een dGPU verplichten? Tig users gebruiken een laptop voor alledaags gebruik.

Kijk eens in de pricewatch recent en zie hoe het aanbod van dGPU aan het verkleinen is... dat is voor een reden. Natuurlijk met een Intel CPU laptop ben je al meer verplicht om een dGPU te nemen.
Een GPU die nog niet uitgebracht is presteert zwakker/bijna op het zelfde niveau als een GPU die zowat anderhalf jaar op de markt is...
Het is natuurlijk volslagen eerlijk om van intel te verwachten dat ze bij hun eerste poging gelijk Nvidia, dé GPU juggernaut en marktleider er gelijk uit slaan. Die jaren en jaren ontwikkeling die Nvidia heeft doorlopen tellen natuurlijk voor niks. 8)7
Ook negeren we volledig dat deze GPU op prerelease drivers draait die nog helemaal niet klaar zijn voor de markt. Ook weten we helemaal niets van het koelvermogen van de laptop en niet op wat voor TDP de kaart geconfigureerd staat. :?
Ook over de prijs weten we nog helemaal niks. Wie weet zijn laptops met deze gpu veel goedkoper dan die met een RTX 3060 en verder dezelfde hardware.

Maar nee, Intel bad, Nvidia good, toch?

[Reactie gewijzigd door youridv1 op 26 juli 2024 00:05]

Ook een manier om een eerste poging te duiden.
Dit is bepaald niet de eerste poging van Intel op grafisch gebied, ook niet voor discrete graphics ten opzichte van iGPU -- dat was Larrabee. Het is wel de eerste poging die het daadwerkelijk tot verkoopbaar product geschopt heeft (of dat hopen we althans, nog een kleine slag om de arm), maar Intel is hier al vele jaren mee bezig. Kan natuurlijk ook niet anders, zoiets schud je niet zomaar uit je mouw, ook niet als je Intel bent.

Moet frustrerend zijn als je bij Intel aan de grafische hardware werkt en die doet het prima (gegeven de synthetische benchmarks), maar de driverbakkers laten het afweten. Hopen dat die nog een inhaalslag kunnen maken voor het momentum definitief weg is en de volgende generatie pas indruk zou kunnen maken.
Intel had al ruim 10 jaar eerder (dan Larrabee) de i740.
Ah ja, het stond me bij maar ik kwam er niet meer op. Dit wordt inmiddels Intel's derde poging om door te breken als producent van discrete grafische hardware. Eens moet de eerste keer zijn!

In tegenstelling tot de eerdere pogingen lijkt het probleem dit keer niet bij de hardware te liggen, dat is in ieder geval bemoedigend.
Het is gewoon een vaststelling.

Volgens mij maakt Intel al meer dan 10 jaar videochips.
De oude i7-6500U laptop uit 2015 waar ik nu op werkt heeft ook een Intel HD Graphics 520
Tja van andere kant, het kan ook zo zijn dat AMD en Nvidia gewoon aan oude meuk vasthouden en daarop itereren; en dat ze bij Intel letterlijk vanaf 0, fris, met alle moderne kennis een GPU hebben gebouwd. Oude meuk kan nogal veel zaken bij bedrijven vertragen of de grond in boren. Maar bedrijven zijn vaak bang om 'los te laten' want 'het werkt'. Vanaf 0 beginnen is niet zo handig vanaf een shareholder perspectief. Waarom alles weggooien wat je hebt en vanaf 0 beginnen? Gewoon volgende iteratie en centen kloppen..
AMD/Nvidia maken vaak genoeg radicale veranderingen aan hun architectuur. Ze hebben zich niet te houden aan legacy zoals x86 dat moet. En dan nog, er is zelfs een verschil met hoe x86 zich naar de software toe presenteert en hoe het intern werkt.

AMD heeft bvb de volgende architecturen in gebruik gehad:

- Terascale (2007-2012)
- GCN (2012-2019)
- RDNA (2019-nu)

En binnen elke generatie waren er ook meerdere evoluties. Die zitten echt niet stil.
That may be. Maar als de prijs goed (dus laag) is, maakt dat toch niet uit?
het gaat niet over de balans van de ene of de andere, het gaat over het feit dat deze dedicated GPU (wat ze ook mogen kosten of verbruiken) in de opzet dat deze dus nog released moet worden binnen X maanden eigenlijk maar evnesnel of zelfs trager zal zijn als de embedded GPU van de nieuwe AMD raphael 6000 serie.... dan kan je toch wel eens de vraag stellen van de toegevoegde waarde van deze nog te releasen dGPU voor laptop.
Waarom publiceren we zaken die we "met een korrel zout moeten nemen"?
Omdat er wel degelijk redelijk standaard tests zijn uitgevoerd door een doorgaans betrouwbare bron.

Wanneer nVidia weken voor de release van een kaart met benchmarks komt, wordt daarover ook gerapporteerd. Het idee is dat je een indicatie krijgt wat voor kaarten deze Arcs in de praktijk gaan zijn.
Dat ziet er best goed uit.

Op dit item kan niet meer gereageerd worden.