Intel brengt Arc A580-desktop-gpu uit

Intel heeft de Arc A580 uitgebracht. De budgetvideokaart voor desktops heeft een G10-gpu met 24Xe-cores en een tbp van 185W. Er zijn versies van drie fabrikanten uitgebracht, die de kaart verkopen voor 179 dollar.

Er zijn drie modellen van de Intel Arc A580 uitgebracht. Die zijn van ASRock, Gunnir en Sparkle. Het gaat om modellen voor lage- en middelhoge specificaties voor gamers die daarmee minimaal een 1080p-resolutie zouden moeten halen. De kaarten hebben 24 Xe-cores, 8GB aan GDDR6-geheugen en een geheugenbandbreedte van 512GB/s. Verder hebben de kaarten nog 24 raytracingunits en 384 XMX-engines. De kaarten hebben een total board power van 185W. De kaarten hebben een officiële kloksnelheid van 1,7GHz.

Uit benchmarks die Intel zelf heeft vrijgegeven zou blijken dat de kaart beter presteert dan de vergelijkbare RTX 3050 en de RX 6600. De eerste reviews van het model van onder andere TechPowerUp lijken die conclusie te ondersteunen.

De gpu kost 179 dollar. Europese prijzen zijn vooralsnog niet bekend, maar omgerekend naar euro's in inclusief btw zou dat neerkomen op 204 euro. Eerder kwamen er geruchten naar buiten dat de kaart tussen de 189 en 245 euro zou moeten kosten. Daarmee lijkt de A580 enkele tientjes goedkoper te worden dan de Arc A750, een beter model dat inmiddels voor iets meer dan 260 euro te koop is. Dat model heeft vier Xe-cores extra en een basiskloksnelheid van 2,05GHz.

Intel Arc A580

Door Tijs Hofmans

Nieuwscoördinator

10-10-2023 • 20:51

44

Submitter: Xtuv

Reacties (44)

44
44
24
3
0
10
Wijzig sortering
Vergelijkbaar snelheid als de RX 6600 uit 2021 voor ongeveer 10% lagere prijs maar wel met 35% meer stroomverbruik waardoor de totale kosten van aanschaf en stroomverbruik boven de 10% prijsverschil kan komen.

Goed dat we een 3de speler hebben op de GPU markt en ik hoop dat Intel verbeterd op het gebied stroomverbruik. Ik ben benieuwd naar hoe de drivers en ondersteuning is voor gaming.
Snap je punt en je hebt gelijk, het is natuurlijk ook zo dat sinds 2021 de prijzen sowieso totaal anders zijn (correct me if im wrong).
6600-niveau is voor mij zat.
Tuurlijk, 6600 is prima. Maar je kunt natuurlijk ook gewoon nog een 6600 voor hetzelfde geld kopen. In het gros van de gevallen zul je met die 6600 beslist gelukkiger zijn dan met de A580. De A580 is iets krachtiger voor RT en heeft AV1 encoding maar gemiddeld is de RX 6600 toch een stukje sneller, de software en drivers van AMD zijn Intel ver voor en de RX6600 verbruikt zowel in idle als ook onder load flink minder. En we hebben het echt over massale verschillen bij het verbruik. Onder load gaat het om rond 50% (pakweg 200W vs 130W) meer en in idle verbruikt de Intel gauw 5-10x meer (50W tegenover 5-10W)
In het artikelen staat dat de kaart sneller is dan de 6600, heb jij een bron voor je claim dat dat niet zo is?
Hardware Unboxed. Hoewel de A580 ook daar wel beter scaled naar hogere resoluties door de breedere geheugeninterface. Ook TPU komt tot die conclusie net als kitguru. Hij is wel ruim sneller dan de RTX 3050 maar met de 6600 is het helemaal niet clear-cut.

Met het rooskleurige brilletje "we nemen alleen titels die heel goed op Arc lopen" komt ie op 1080p in de buurt en is ie op 1440p sneller maar de realiteit is nou eenmaal dat veel titels echt suboptimaal op Arc lopen. Vooral ook nieuwe titels zijn verre van geweldig (denk Starfield en TLOU:P1 waarvan de twee inmiddels meer dan 6 maanden uit is). Het potentieel van de A580 is vrijwel zeker hoger dan de RX6600 maar of de drivers dat potentieel uit helemaal benutten is nog maar de vraag en je moet sowieso geen producten kopen op beloftes.

[Reactie gewijzigd door Darkstriker op 22 juli 2024 19:22]

Het is eigenlijk geen goede deal tov de rx6600. Los van de energie is het qua drivers nog best wel tricky.

Hopen dat ze het verbruik kunnen terugschroeven in een volgende gen en dat ze doorgaan met het verbeteren van de drivers.

Ik heb er echter een hard hoofd in, ik vraag me echt af of Intel gaat doorpakken en niet de handdoek in de ring gooit.
Ik verwacht niet dat Intel de handdoek in de ring gooit. GPU's worden steeds belangrijker (ook voor AI). Intel heeft voldoende kennis en kapitaal om een 3de speler te worden, mits ze het nog 1 a 2 generaties volhouden en hun niche gaan vinden en daar winst kunnen maken.
Intel heeft kapitaal genoeg, maar staat ook onder grote druk van Wall Street. De beurs wil winst zien, hoge marges. En dat lukt moeilijk op dit moment, waar ze ook extra fabs aan het bouwen zijn en nog volle bak hun foundry-business moeten opstarten.

Ik vind het dus een dubbeltje op zijn kant, als de volgende generatie GPUs het ook niet goed zou doen...

Intel heeft wel al de FPGA-afdeling (ex-Altera) terug zelfstandig gemaakt, dus het lijkt erop dat die als eerste in de verkoop kan als er geld tekort is.
Intel heft AMD kennis ingekocht.
Stroomverbruik is voor veel mensen totaal niet relevant (relatief weinig gamen, geen eigen stroom betalen, zonnepanelen overschot hebben etc). Bovendien zit zo'n kaart niet continu z'n max vermogen op te stoken dus of het echt significant verschil maakt betwijfel ik.
Als je echt zuinig wil zijn moet je genoegen nemen met mindere graphics (mobile of Nintendo bijvoorbeeld)
Maar het begint al bij het type voeding ... Ik koop alleen een titanium voeding omdat die nog 90% efficiënt moet zijn bij laag verbruik. En de meeste pc's doen dan. Alle andere voeding mogen doen wat ze willen, daarmee zeg ik niet dat een gold misschien op dat gebied niet beter kan presteren, maar er zijn geen garanties. Daar begint stroomverbruik al. Maar dat is leuk al je 10-12u per dag je computer gebruikt. Als je die 4a5u per dag gebruikt dan moet je op 4 jaar tijd al veel stroom verbruiken om de meerkost er uit te halen. En ook als je je computer bijna alleen gebruikt om te gamen heeft een "betere" voeding weinig nut omdat bij je optimale belasting het verschil kleiner is. Maar voor kantoorwerk en af en toe gaming kan je dus wel enorm voordeel halen uit een betere voeding. Ik koop alleen titanium en normaliter een 60 reeks kaart. Om Wow, Diablo te spelen heb je geen monster nodig. En af en toe COD, maar dat is toch op lagere settings, maar maakt met niet zoveel uit. Hoe hoger de stroomprijs en hoe meer je gebruik maakt van een pc hoe interessanter een titanium is op 4-5 jaar gezien. Om de 4 jaar koop ik nieuwe hardware, volledig nieuw. Kan me niet permitteren als bedrijf dat ik even zonder val. Dus vorige pc staat hier gewoon nog. Maar doe jij langer met je pc/voeding dan is het nog interessanter. Ik heb ooit de berekening eens gemaakt en op 4 jaar tijd zou je zo een +-100 euro besparen. Dat is uiteraard niet veel, voor sommige dan wel weer, dat is een andere discussie. Maar ik heb dus minder verbruikt, zo groen ben ik nu ook weer niet. Maar het is hier een paar watt, daar een paar watt en zo kom je vlug aan ettelijke kwh per jaar dat je niet hoeft te betalen.

Bij reviews van videokaarten (of generaties) kijk ik naar het volgende stroomverbruik idle, stroomverbruik 2 schermen en dan gaming. En dan bij specifieke kaarten ook naar geluidsproductie, 25 jaar geleden maakte een helikopter in de kamer niet uit, nu moet het stil zijn.
Vroeger kocht ik ook altijd de "top" cpu. Nu kijk ik naar stroomverbruik. Zo heb ik nu nog een 3700x, voor beetje te programmeren is dat meer dan goed genoeg. Ik kon ook een 3950x toen kopen. Maar cores zitten nu al meestal gewoon op 1-2% de hele tijd, dusja wat heeft het dan nut om er nog meer geweld in te steken voor mijn situatie dan.

Een ander voordeel van een titanium voeding is dat er minder restwarmte is, want er mag max zoveel energie verspilling zijn, dus die warmte moet ergens naar toe. Om die gegarandeerde efficiëntie te halen moet je ook betere componenten gebruiken. Door een "lagere" cpu te kiezen en een "lagere" videokaart haal je niet alleen je stroomverbruik naar beneden, maar moet je ook geen 20 extra fans installeren om je systeem koel te houden. Als cpu koeler neem ik gewoon een dark rock pro. Zo heb ik een system dat stil, koel en efficiënt is.

Ik zou gerust de jump naar Intel kaarten willen maken. Maar zolang ze niet efficiënt zijn zal het bij team groen worden. En ik gebruik Linux dus als OS. Komend jaar gaan we nog eens kijken naar een nieuwe build, tenlaatse het jaar nadien. We zien dan wel weer wat het meest efficiënte zal zijn, als dat Intel is, dan zal het een Intel kaart worden. Aangezien gaming bij mij 5 tot 10% van de tijd is op maandbasis, is verbruik bij zware belasting wat verwaarloosbaar, maar idle, normaal gebruik en multi monitor is dus het belangrijkste

Ik betaal eigen stroom, heb zonnepanelen en elk jaar komen we ongeveer op 0 uit. Maar hier staan constant 2 schermen aan (32inch 4k en 27inch 1440p) om te programmeren/werken. Dat verbruikt toch wel wat op een dag.
Heel veel woorden om te zeggen dat je geen 'onzuinige' zware Intel GPU wil omdat je eigenlijk helemaal geen zware GPU nodig hebt?
Intel heeft ook prima on-board GPU's die perfect zijn voor kantoorwerk.
AMD heeft basis on-board GPU voor kantoorwerk en goede APU waar je zowel goed kantoorwerk op kan doen EN basis gaming, dat heeft intel niet in de desktop serie. Nu is het alleen nog steeds wachten op de nieuwe reeks op het nieuwe platform.
Ja maar niet om te gamen. En ik doelde op "Stroomverbruik is voor veel mensen totaal niet relevant (relatief weinig gamen, geen eigen stroom betalen, zonnepanelen overschot hebben etc). Bovendien zit zo'n kaart niet continu z'n max vermogen op te stoken dus of het echt significant verschil maakt betwijfel ik."

Niet omdat dit voor mij nog niet aan de orde is, ik wil gerust overstappen, maar ik hou gewoon rekening met alles
https://www.techpowerup.c...c-a580-challenger/38.html

De arc 580 en 750/770 zijn idle gewoon power hunger monsters. en juist relevante als je pc vaak idle staat. Ze verbruiken namelijk het meeste van alle recente kaarten.. En ja leuk geen eigen stroom betalen(links om of rechtsom betaald die persoon er zeker wel voor)

[Reactie gewijzigd door loki504 op 22 juli 2024 19:22]

Dat energieverbruik kan zeker beter, maar het is in mijn optiek niet zo heel zinvol daar over te zeuren met mid/high-end kaarten die inherent verspillend zijn.
Je kan je PC altijd nog uit zetten of de slaapstand gebruiken. 10-20W verschil is misschien 10% van het totaal gebruik van je PC en bij 8 uur gebruik per dag zelfs met de huidige stroomtarieven rond de 20 euro per jaar. Op het totaalverbruik is dat maar een heel klein deel maar dat ligt er natuurlijk helemaal aan hoe je de rest van je systeem volgepakt hebt. Neem je dan ook de afschrijving mee is het helemaal een afrondingsfout...

[Reactie gewijzigd door bzzzt op 22 juli 2024 19:22]

Maar een verschil van 20 euro per jaar ga je met 1 max 2 jaartjes overheen en is de Rx 6600 weer goedkoper.

Ik vind voornamelijk de grote verschillen tussen bepaalde games gewoon een no go voor mij. Liever weten wat je kaart aankan ipv hopen de drivers je gaan redden.

[Reactie gewijzigd door loki504 op 22 juli 2024 19:22]

Een vergeet niet dat in het NL klimaat nog steeds het grootste gedeelte van het jaar de verwarming aan staat. Iedere Watt warmte die uit je PC komt hoeft niet uit je CV te komen.

En voor mensen voor wie een paar euro electriciteit echt een probleem is, houdt het dan idd bij een iGPU of ga een (bibliotheek)boek lezen ipv gamen.
Neem dan een mini pc of Intel NUC.
Jammer dat die A580 niet vorig jaar op de markt gekomen is want ik heb nog bijna tegen de 400 euro betaald voor een Nvidia RTX3050. Enigste wat ik mij wel af vraag is of die A580 wel compatibel is met Adobe want dat is eigenlijk de enigste waarvoor ik een videokaart nodig heb.
Volgens mij zijn alle kaarten "compatibel met adobe".

Oftewel je kan alle adobe software draaien.

Echter de speciale acceleratie die nvidia en adobe hebben gemaakt, maakt gebruik van cuda cores die enkel een nvidia kaart heeft voor zover ik weet.

Edit:
Bron https://helpx.adobe.com/p...remiere%20Elements%202023.

[Reactie gewijzigd door John Doos op 22 juli 2024 19:22]

Volgens mij zijn alle kaarten "compatibel met adobe".
Dat weet ik, zo lang de videokaarten maar OpenGL ondersteunen maar dit toch minder werkt uit mijn ervanring met b.v. AMD videokaarten. Althans regelmatig liep b.v. Adobe Premiere nog wel eens vast met AMD videokaarten die ik wel eens heb gehad.
Echter de speciale acceleratie die nvidia en adobe hebben gemaakt, maakt gebruik van cuda cores die enkel een nvidia kaart heeft voor zover ik weet.
Dat is dus de rede waarom ik voor Nvidia gekozen heb en inderdaad alleen Nvidia met Cuda cores werkt.
Een kaart die beter presteert dan de vergelijkbare RTX 3050 (instapkaart uit januari 2022) en de RX 6600 (nog oudere kaart uit oktober 2021).
Sorry Intel, ik en niet onder de indruk....
Het is een budgetkaart, daar hoef je niet van onderr de indruk te zijn ;)
Feit is dat Intel met z'n eerste generatie GPU's (net) meekan met de concurrentie (van AMD en Nvidia); dat is op zich wel een indrukwekkende prestatie!

Nu is het aan Intel om evolutie te laten zien (revoluties verwachten is weinig realistisch). Als ze kunnen blijven meespelen (al is het als kleine derde) is dat alleen maar goed nieuws: meer concurrentie is bijna een garantie op betere prijs/prestatie!
meekan met kaarten van 2j geleden, al een geluk dat amd en nvidia weinig interesse tonen voor de low end markt. ALs nvidia of amd een refresh anbieden die niet beter is dan vorige generatie is het hier op tweakers moord en brand. Als intel een kaart brengt on par met een 2j oude kaart dan is het ok? hmmm ;)

[Reactie gewijzigd door d3x op 22 juli 2024 19:22]

Wat heeft leeftijd nu voor relevantie in deze? Als het zou presteren als een nog oudere rtx3080 was het dan ook nog niet goed?

[Reactie gewijzigd door emphy op 22 juli 2024 19:22]

En dan kijk je naar wat die 'oude' kaarten op dit moment kosten, en denk je toch, hmmm, 10% beter met al de releasedriver, en een stuk goedkoper, dat is dan toch wel een mooie deal. Ik verwacht niet dat ze zulke performance vooruitgang kunnen boeken vergeleken met de releasedrivers van de A750/A770, want anders zou het wel een heel veel groter performance verschil met die 'oude' Nvidia/AMD kaarten worden.
Ik vraag me af of ze het idle verbruik, wat ongekend hoog was, middels nieuwe drivers hebben kunnen temmen in de achterliggende tijd. Ik wacht een nieuwe review met spanning af.
In dit artikel staat een link naar de review van techpowerup.

Conclusie: nee, absoluut niet. Single-monitor idle lopen ze mijlenver achter. Dual-monitor kakt ook AMD in maar nog steeds niet zo ver als het idle-verbruik van Intel.

Aangezien we daar nog steeds niks van verbetering zien denk ik ook dat we daarvoor op een nieuwe generatie moeten wachten.

Heel ongekend is het trouwens niet, jaren geleden zaten AMD ook op dit niveau, soms zelfs nog erger. Intel moet nog inlopen op die ontwikkelingen.
ik had iets gelezen dat ze het konden oplossen/reduceren met PCI-e BIOS aanpassingen, maar ik heb het niet verder gevolgd want heb geen interesse in deze intel GPU generatie.
Dat kan inderdaad, en dat helpt ook, maar dat heeft zeker ook nadelen. Zo uit mijn hoofd geeft dat problemen met bepaalde powerstates, specifiek met bepaalde slaapstanden. Dat voelt dus als een hacky workaround die je kan doen als je écht wil, maar niet als een oplossing die de gemiddelde consument zou willen doen.

Reviewers die het stroomverbruik meten negeren die oplossing dan ook gewoon in hun metingen.
Reviews van Hardware Unboxed en Pauls technews waren matig positief. Volgens Paul zou de fair price $150,- zijn. Advies was niet om deze te kopen. Blij dat Intel meedoet maar deze generatie is gewoon slecht. AMD best bang for the buck en Nvidia best Power/Watt consumptie. Zeker wanneer je zo weinig betaald voor een kaart gaat de stroomprijs meetellen.

Op basis van hardware unboxed cijfers zou deze kaart je 2,66 per u in de week op jaarbasis kosten. (40c kWh). Een 3050 en 6600 de helft. 2 jaar afschrijving en 20u per week geeft al een verschil van €53.

Ik kan niet de cijfers vinden van een 4060 in dezelfde testsetting dus van die appel ga ik geen peer maken, maar naar wat ik verneem is die kaart nog efficiënter. Ben geen fan van nvidia, maar op het vlak van powerefficiency verdienen ze complimenten en zou zomaar een nieuwe generatie 4060 nog wel eens de goedkopere koop kunnen zijn. Zeker EU markt met onze kWh prijzen.

[Reactie gewijzigd door GeorgesT op 22 juli 2024 19:22]

De 4060 zit wat energieverbruik betreft rond de rx6600 (niet xt), prestaties ongeveer halverwege tussen de 6600xt en 6700xt.

Bron: https://www.techpowerup.c...eforce-rtx-4060-gaming-x/
Mooi zo, meer concurrentie in de entry level markt. Als ik de reviews op TPU lees kan dit ding zich meten met de rx6600, en dan lanceren op 10% goedkoper dan de huidige rx6600 prijzen.

Ik ben toch best benieuwd naar hoe zon intel kaart in het dagelijks gebruik is
Had verwacht dat de A580 gewoon gecancelled was. Het nu nog een jaar later uitbrengen lijkt zo vreemd. Zeker omdat ze eerst blijkbaar van plan waren rond deze tijd een refresh uit te brengen. Ik vraag me af of deze het nog waard gaat zijn tegenover de A750.
Waar het energie verbruik tot een 2 jaar geleden voor de meesten niet zo boeide..
Maar met de huidige prijzen het welee gaat spelen...

Denk dat Gpu fabrikanten en ook cpu trouwens ook wel moeten kijken hoe krijgen we toch een goede performance vs het opgenomen vermogen

[Reactie gewijzigd door SMSfreakie op 22 juli 2024 19:22]

Dan haal je toch een midrange kaart, heb je 75% van de performance voor minder dan de helft van de energie. Of je gaat gamen op een Switch of mobiel, trek je minder dan 20W voor net zoveel gameplay.
Topprestaties krijg je alleen door veel energie te verbruiken.

De mensen die koste wat kost de beste performance willen en het zich ook kunnen veroorloven 1000+ euro voor een GPU af te tikken zullen zich waarschijnlijk niet zo druk maken over energie.
Trekken ze niet een beetje veel stroom met die 185W als de performance vergelijkbaar is met een RTX3050? Die laatste is rond de 130W. Nog steeds veel, maar wel wat efficienter.
Met een Prestatie per Watt van de Nvidia 900 serie die 9 jaar geleden uit kwam.

Op dit item kan niet meer gereageerd worden.