Intel kondigt over twee weken eerste Arc-gpu voor laptops aan

Intel gaat over twee weken de A370M aankondigen, zijn eerste gpu in de Arc-serie voor laptops. Intel beloofde al langer in de eerste maanden van dit jaar zijn eerste gpu voor laptops te presenteren.

Het evenement is op 30 maart om vier uur Nederlandse tijd, zo heeft Intel laten weten. De A370M, de eerste gpu van Intel voor laptops, biedt ongeveer dubbele prestaties ten opzichte van de huidige integrated graphics, schrijft de fabrikant. Intel belooft later meer details bekend te maken over de prestaties en stabiliteit van zijn gpu's.

Intel zei in augustus vorig jaar dat het grafische kaarten voor desktops en laptops zou gaan uitbrengen. Dat gaat om de gpu die bekendstaat onder de codenaam Alchemist en gebaseerd is op Intels Xe HPG-architectuur. Op het evenement toont de fabrikant ook XeSS en Deep Link. Die laatste is een software-raamwerk dat schat of een taak goed uitgevoerd kan worden door de igpu, de dgpu of beide. XeSS is een tegenhanger voor AMD FSR en Nvidia DLSS. De kaarten ondersteunen ook raytracing.

Tijdens de CES in januari zei Intel dat zijn Arc Alchemist-videokaarten in het eerste kwartaal zouden uitkomen, maar het repte toen alleen over 'integratie in systemen' van oem's. In totaal verwacht Intel 4 miljoen losse gpu's te leveren in 2022. Dat is inclusief andere gpu's, zoals de komende Ponte Vecchio-chip voor datacenters en high-performance computing. De modellen voor desktops komen in het tweede kwartaal en die voor workstations volgen daarna in het derde kwartaal.

Intel Arc-presentatie 30 maart 2022

Door Arnoud Wokke

Redacteur Tweakers

15-03-2022 • 09:59

26

Reacties (26)

Sorteer op:

Weergave:

Toen ik de berichten in het begin las kreeg ik de indruk dat het om een echte "kaart" ging met op z'n minst semi-indrukwekkende performance. Maar zoals het nu klinkt wordt het een middenmoot, een kaart of chip die "tot 2x de prestaties van een iGPU" heeft. Dat klínkt geweldig, maar de huidige iGPU's vond ik nooit zo om over naar huis te schrijven, in tegenstelling tot wat Apple met hun M1 chips voor elkaar krijgt (en zeker met hun M1 Max en Ultra varianten). En dat zijn chips die niet eens gericht zijn op gaming.

Het hangt er een beetje vanaf op welke iGPU Intel hun "tot 2x" claim mee vergelijkt, maar 't komt bij mij een beetje over alsof het om een minder spannend product gaat dan wat ik eerst dacht.
Klopt, echter is dit een stap in de richting van meer concurrentie op dat gebied. Ik vind dat geweldig te zien. Ik kan niet wachten op een “M1” laptop voor Windows/Linux.
Dat is absoluut waar. Meer concurrentie dan alleen nVidia en AMD in het topsegment kan ik ook alleen maar verwelkomen. Ik hoop alleen dat men niet hun eigen product teveel hyped en dat mensen achteraf teleurgesteld zijn. Laat ze realistisch zijn, en werk je naar boven toe.

Daarnaast ben ik ook heel benieuwd naar de zuinigheid van hun GPU's… Intel had voor zover ik kon zien al lange tijd wat moeite met echt zuinige CPU's maken met veel performance (iets waar bijv. de M1 wel in slaagt), dus ik hoop dat ze dat met hun GPU's wel lukt.
Dat is geen echte concurrentie, dat is wederom monopoly misbruiken. Intel gaat op dat moment financiele stimili geven om cpu+chipset+gpu te combineren en dit doorduwen naar OEM met extra R&D budget. Dit staat zelfs al in hun financieel resultaat dat zij verwachten de eerste GPU reeksen met erbarmelijk lage ASP te verkopen. " free gifts noem het maar"

Gevolg heel veel laptops ENKEL met die combo. Resultaat: consument is weer de dupe, want *2 perf van een erbarmerlijke iGPU van Intel nu is nog steeds niks en ver zelfs van de AMD APU of iets zoals de M1
Die zuinigheid van de M1 komt vooral doordat Apple die bakt op TSMC's 5nm-node, terwijl Intel nog op hun eigen 7-node zit. De Arc-GPU wordt op TSMC 6nm gebakken, dus dat zou in de buurt moeten komen van de M1 maar zal waarschijnlijk nog net wat minder efficiënt zijn.
Dat kan met Asahi Linux al. Het is alleen een beetje zonde van de M1 op dit moment, zonder GPU support.
Dat project heeft nog jaren te gaan voordat het een bruikbare desktop omgeving oplevert. Als dat al gebeurt.
GPU (en zeker dit soort GPU) is bij mijn weten nooit een echt doel geweest van intel. Dat gezegde vind ik "2x prestaties van een iGPU" al een verwezenlijking. Het is denk ik heel moeilijk om direct een 3080-3090-vergelijkbare kaart op de markt te kunnen brengen.
Als je ook kijkt naar de geschiedenis, is dit ook hoe vb. hisilicon en talloze anderen in de markt zijn gekomen. Begonnen met iets verkoopbaar (al dan niet vooral markteting) en meer en meer gegroeid.
maar als je bedenkt dat AMD's APU ook al 2x de iGPU prestaties bieden is dit wellicht een kaart die met de beste APUs van AMD mee kan komen... dat is weinig om extatisch van te worden. :'(
De GPU van een APU is toch een iGPU? M.i. wel, in ieder geval. Aangezien IGP's als losse chip op het moederbord al lang dood zijn is dat de enige vorm van IGP's die nu nog bestaat.
Tuurlijk, maar ik bedoel dat Intel nu losse grafische kaarten aanbied, die kennelijk zo "krachtig" zijn als de al ingebouwde GPU van AMD's APU ... en dus eigenlijk niets nieuws te bieden heeft!
Als het echt zo zwakke kaarten zijn, ben je beter af met de AMD 5700G als met een Intel processor plus deze kaart.
Toen ik de titel las dacht ik eerder iets in de zin van: "Waarop ben ik dan nu aan het zien"?
Ik denk dat het een verstandige zet is om niet direct te willen concurreren met Nvidia/AMD, en in plaats daarvan een betere prestatie neer de zetten dan hun eigen Igpu. Als je hiermee dan een beetje budget kunt gamen zonder direct veel meer uit te hoeven geven zou dat best interessant kunnen zijn.
Voorzover ik weet zit M1 in Shadow of the Tomb Raider en WoW onder zeg 4800U. Wat is er zo indrukwekkend aan?
Die GPU's zijn niet gericht op gamen, maar vooral op snelheid m.b.t. werken (Photoshop, Premiere, dat soort zaken). Daarnaast krijgen ze een dergelijke performance met enkele tientallen Watts. Dat is er indrukwekkend aan.
Ik vraag me af of deze dedicated memory gaan hebben. Maar als ik verder naar de details kijk, zie ik dat de voetnoot over hun 2x performance zegt:
...32GB 4800Mhz system memory...
Dus het ziet er naar uit dat deze geen eigen geheugen krijgen en alleen 2x halen met extreem snel ram geheugen. De echte performance voor realistische typische zakelijke laptops zou wel eens lelijk kunnen tegenvallen.
De M1 chips en de game console's hebben ook geen dedicated memory.

Wat versta je onder een zakelijke laptop want dat kan nog al ver uit elkaar liggen?
Waarschijnlijk bedoelen ze 4800MT/s, wat de standaard (laagste?) DDR5 snelheid is.
Nou is DDR5 nog duur, maar dat is niet omdat het zo extreem snel is, maar vooral door eoa crisis (corona/chiptekort/shipping? ik hou t niet meer bij).
Als men daarom voorlopig vaker DDR4 kiest, dan moet je daar natuurlijk wel rekening mee houden, maar vlgs mij duurt het niet zo lang voordat die snelheid al n stuk normaler is.
Goed nieuws denk ik. Vooral als dit een betaalbare kaart gaat worden. Ik ben geen gamer, dus heb geen nVIDIA of AMD kaart nodig. Ben tevreden met een simpele kaart. Tot nu toe doen de geïntegreerde GPU's prima hun werk, voor wat ik er mee doe. Ben benieuwd wanneer deze kaart in NL te koop zal zijn, en wat de vraagprijs gaat worden.
Als je niks met de GPU doet is een losse videokaart natuurlijk onnodig. Denk dat dit meer is voor degenen die wel een low power laptop willen maar ook nog een beetje willen kunnen gamen.
De geïntegreerde GPU pakt wel een deel van je werkgeheugen, dat is weer een nadeel en als er dan een zeer betaalbare kaart komt die ongeveer dezelfde performance heeft en betaalbaar is, waarom zou ik dit dan niet overwegen.
Kan je er dan niet beter meer geheugen bijprikken? Die pak 'm beet 1GB die je geïntegreerde GPU gebruikt zal altijd goedkoper zijn dan een losse kaart.

Overigens gebruikt een losse GPU ook nog DRAM. Hij heeft hier maar liefst 16GB gereserveerd.

[Reactie gewijzigd door Wolfos op 25 juli 2024 05:06]

Interessant,

Lijkt me opzich wel een fijne kaart voor de -net niet- basis laptops. Dubbele performance tov een IrisXE is opzich ook niet heel gek. Als ik zo zie zou die in de prestatierange richting de GTX1650 kunnen komen.
Ben benieuwd naar de prijs tov de Nvidia kaarten.
Ik ben benieuwd of deze kaart dan als enkele GPU gebruikt wordt, of dat het een hybride combinatie wordt met de interne GPU, zoals wat Nvidia met Optimus doet.
Ik kan meer concurrentie alleen maar toejuichen, en ik denk dat er vast wel goede toepassingen te bedenken zijn voor deze GPU.

Als ik naar mezelf kijk, ik ben niet zo veeleisend, ik hoef geen 300fps shooters op ultra te spelen.
Maar de iGPU is vaak net wat te weinig. Er zijn genoeg games waar reactievermogen niet zo belangrijk is, dan is een langzamere kaart ook voldoende.
Ik denk hier aan Civilization, een RTS game, Dyson Sphere project.... Loopt allemaal net niet lekker op iGPU, maar heeft zeker ook geen €1000+ kaart nodig.
Intel neemt hun Q1 claim wel echt tot het uiterste

Op dit item kan niet meer gereageerd worden.