Intel Arc A580 duikt op bij retailers: kost tussen 189 en 245 euro

De Intel Arc A580-videokaart voor desktops is opgedoken bij Amerikaanse, Canadese en Japanse retailers. De prijzen voor de videokaart zouden omgerekend tussen 189 en 245 euro liggen. Voorlopig zijn er enkel uitvoeringen van de fabrikanten ASRock en Sparkle waargenomen.

De ontdekking werd gedaan door Twitter-/X-gebruiker momomo_us. De leaker deelde een screenshot van een Japanse retailer die de Intel Arc A580-gpu in stock had en kon aanbieden voor 38.880 Japanse yen. Omgerekend is dat momenteel ongeveer 245 euro.

De redactie van Videocardz heeft ook nog enkele listings van de videokaart ontdekt, maar dan bij retailer Newegg. Deze winkelketen verkoopt de Arc A580-desktopvideokaart op zijn Amerikaanse website voor 209,96 dollar, ofwel 198 euro. Op de Canadese website van Newegg zou de videokaart 274 Canadese dollar kosten, ofwel ongeveer 189 euro.

De Intel Arc A580 is in 2022 aangekondigd. Deze gpu krijgt 24 Xe-cores, 24 raytracingunits en 384 XMX-engines. De videokaart beschikt over 8GB aan GDDR6-geheugen en een geheugenbandbreedte van 512GB/s. De grafische rekenkernen draaien op een kloksnelheid van 1700 MHz. De Arc A580 behoort tot het middensegment van de Intel Arc Alchemist videokaarten. De introductie van de eerste Arc-videokaarten verliep langzamer dan Intel aanvankelijk had gepland.

Listing Intel Arc A580 - Bron: Momomo
Listing Intel Arc A580 bij Japanse retailer - Bron: Momomo_us

Door Jay Stout

Redacteur

08-10-2023 • 10:17

90

Reacties (90)

90
85
43
4
0
30
Wijzig sortering
Hoe goed is de support op Linux voor die Intel Arc kaarten?
Wordt gewoon ondersteund, Intel bied er ook drivers voor aan: https://www.intel.com/con...aphics-driver-ubuntu.html

Hier is ook een aardig artikel over Intel Arc op Linux: https://www.phoronix.com/review/arc-graphics-compute-q1 met een follow-up op https://www.phoronix.com/review/intel-arc-march23
Als je het over spellen hebt; Gezien Intel al gebruik maakt van DXVK om DX 9/10/11 te emuleren waarschijnlijk goed. Dit verklaart ook waarom Intel met die versie van DX ineens zoveel performance winst had.
https://www.tomshardware....ge-valves-dxvk-translator

Hele logische stap van Intel om dat te doen, en iets wat ik had verwacht dat ze zouden doen omdat het goedkoper is dan voor elk spel je driver te moeten optimaliseren als er gebruik wordt gemaakt van de oudere APIs.

[Reactie gewijzigd door Sp3ci3s8472 op 23 juli 2024 00:41]

Mesa drivers ondersteunen Intel Arc en zover ik begrijp van het web werkt het verder goed. Of prijs/prestatie het waard is, dat lijkt mij niet aangezien veel AMD kaarten goedkoper zijn en betere prestatie geven

[Reactie gewijzigd door Kadardar op 23 juli 2024 00:41]

De A750 is voor 259 te koop en is tevens de enigste ARC kaart die nog een prijs vermelding heeft. Ik heb het idee dat Intel deze race niet alleen verloren heeft maar bij de start lijn zichzelf door het hoofd heeft geschoten. Op reddit.com/r/intelarc wordt de copium met scheepladingen genuttigd.
En niet voor de eerste keer. IN het verleden hebben ze het 2x geprobeerd zo ik me herinner.
Er zit zoveel geld in de GPU markt. Nu moeten ze doorzetten als ze daar optimaal van willen profiteren.

Ik weet niet of het stoppen een vergissing was in het verleden want ik heb geen inzicht in de kwaliteit destijds tov concurrentie.
De Intel 740 was samen met Lockheed ontwikkeld als de "Real3D starfighter", en als die op de markt had gekomen in de Voodoo1/2 tijd, had het een goede kaart geweest, hij was alleen 1 tot 2 jaar te laat op de markt, waardoor die totaal niet interessant was(ik stond ze weg te bouwen in samengestelde als extreme budgetoptie), want qua performance waren ze zwaar achterhaald vs bv een Riva128 en zelfs een AtiRage128. De kaart was op zich niet slecht en veel ervan is hergebruikt in de "intel extreme graphics" die zo'n beetje voor elke zakelijke desktop tussen 2002 en 2008 standaard de graphics deed. Stoppen was verstandig want veel concurrenten die te ver voorliepen, en de ene na de andere chipsetonwikkelaar ging ten onder tot alleen ATi en Nvidia over bleven.

De andere, de larabee, is volgens nooit op de markt gekomen en volgens mij had alleen Linus ergens een prototype opgedoken wat die niet aan de praat kreeg.
Larabee zelf heeft inderdaad het niet uit de prototype fase gered. Echter de technologie erachter is later als Intel Xeon Phi toegepast in compute coprocessors in supercomputers.

Waarschijnlijk hebben ze de ontwikkelkosten voor Larabee hiermee echter nooit terugverdient.
Intel begint net. Je kunt niet verwachten dat ze direct uitkomen met een 4090 vergelijkbare kaart.

Als je de driver updates een beetje volgt zie je dat ze hard bezig zijn die te optimaliseren, met soms 100% meer fps, of nog meer.

Combinatie van betere drivers en goedkope vrij snelle kaarten zorgt ervoor dat het voor steeds meer mensen interessant is.
"betere" drivers. Heb je het debacle rond Starfield gevolgd waar Intel gewoon niet werkte. Niet buggy, gewoon helemaal niet.
En eh, als mensen ze willen kopen moet Intel wel zorgen dat ze te koop zijn, kijk maar op pricewatch hoe het daarmee staat.

[Reactie gewijzigd door sfc1971 op 23 juli 2024 00:41]

Wat al meer dan een maand geleden grotendeels gefixed is: download: Intel Arc & Iris Xe Graphics driver 31.0.101.4676, en deze week is er nog een nieuwere driver uitgebracht: https://www.intel.com/con...-xe-graphics-windows.html

Echt, een hele fabrikant afschrijven omdat er één driver een keer een probleem heeft, dat is nogal kort door de bocht. Zacht gezegd.

FYI: ook Nvidia en ook AMD hebben in het verleden drivers gehad waarbij één of meerdere games niet wilden starten, continue crashten, divers glitches/artifacts hadden, of zeer slechte performance hadden.

Guess what? Dat wordt doorgaans binnen enkele dagen opgelost met een nieuwe driver. Zoals dat dus ook bij Intel is gebeurd.
FYI: ook Nvidia en ook AMD hebben in het verleden drivers gehad waarbij één of meerdere games niet wilden starten, continue crashten, divers glitches/artifacts hadden, of zeer slechte performance hadden.
Zoals nvidia nu met Forza Motorsport.. Zullen we nvidia dan ook maar meteen afschrijven @sfc1971 ?
Laat staan dat sommige drivers zelfs video kaarten om zeep brachten.
Maarja, als Intel geen testversie van te voren heeft gekregen zoals AMD en Nvidia wel, dan is het lastig voor Intel om de grootste problemen er voor release uit te halen. Het probleem ligt hier dus bij de makers van Starfield, niet bij Intel.
beetje kort door de bocht... ik denk dat de meeste niet beseffen hoe die afspraken en regelingen allemaal gaan tussen game dev en fabrikanten. Feit is wel dat als het doelpubliek klein is ( in dit egval dus de game kaarten van intel) dat er vanuit een sw leevrancier minder snel focus zal zijn.
Wel is het zo dat veel van dit soort grote developers vaak het testen outsourcen aan bedrijven die daar in gespecialiseerd zijn. En die zouden toch echt gewoon op zijn minst 1 machine moeten hebben met een Intel GPU, al is het alleen de A770 of de A750. Het afgelopen jaar zijn deze kaarten toch echt vaak genoeg in het nieuws geweest dat ze in een testopstelling voor (grote) gamedevelopers aanwezig moeten zijn. Let wel, we hebben het hier dus niet over een kleine indie-developer met zeer beperkte resources.
....en bij de klanten. Als klant zal het de meeste mensen een zorg zijn dat het allemaal niet zo makkelijk is voor Intel.
Ze mogen dan niet dozijnen aan verschillende varianten van elke chip hebben maar de AsRocks zijn gewoon prima en elke variatie is gewoon binnen 24 uur te krijgen in NL.
Zo interessant zijn ze momenteel niet. Het is vooral wachten op de volgende generatie, die in het tweede kwartaal van 2024 moet verschijnen. Volgens een gelekte roadmap zou deze een kaart hebben in het "enthusiast" segment. Dus misschien een 4080 concurrent?
Ik noem het zeker geen daverend succes of markt opschuddende lancering maar is de Pricewatch stuk bij jou? Ik zie namelijk 8 kaarten waar onder de A380, A750 en de A770 en bij een ruim tiental aanbieders, zelfs als je een aantal "aanbieders" er uit filtert.
serie: Arc toont het dan blijkbaar verkeert.
Dat zijn de kaarten van Intel zelf. Founders editions kom je zelden tegen na release in de winkel.

Nvidia en AMD doen het dan ook niet goed?
categorie: Videokaarten

[Reactie gewijzigd door loki504 op 23 juli 2024 00:41]

Dit is een project van 10+ jaar. Jammer dat je zo negatief bent, we hebben juist meer concurrentie nodig in GPU land.
en als je denkt dat Intel daarvoor een betrouwbare partner is? think twice.... kijk maar wat ze allemaal doen op cpu en chipset. Op elke manier drukken ze een dominantie uit om concurrentie tegen te gaan of markt te manipuleren.

Daarbovenop gaan ze echt wel prijzen marktconform zetten als ze volume hebben en concurrentie, ze kunnen niet op verlies blijven draaien.

[Reactie gewijzigd door d3x op 23 juli 2024 00:41]

Het is een 3-way gevecht tussen 3 techreuzen. Ik denk dat dat wel goed zit.
De A750 is voor 259 te koop en is tevens de enigste ARC kaart die nog een prijs vermelding heeft.
Deze is nu al €269 (A750), dat was volgens mij de duurste (consumenten) Intel Arc kaart op het moment, de goedkoopste Nvidia RTX4000 kaart is een 4060 van €310. De goedkoopste Radeon RX7000 is momenteel een 7600 van €279. Intel is dus bezig op een heel ander prijssegment.

Even in context: 9 jaar geleden kocht ik een MSI GTX 970 4GB voor €377 (niet de goedkoopste trouwens), dat werd toen gezien als een high-end kaart... Dat zijn nu qua prijs de goedkoopste instap modellen. We zitten wel op bijna 25% inflatie over die periode, maar daar koop je nu misschien een 4060Ti voor (Mid-range...
We hebben ook de 770 toch.
Dat is wel heel erg prematuur. Voor een eerste serie doen ze het echt zo slecht nog niet, zeker niet met de meer recente drivers waar veel (performance)problemen zijn opgelost of aanzienlijk verbeterd zijn.

Je moet natuurlijk ook niet vergeten dat dit geen concurrenten voor een Nvidia 4090 of AMD 7900 zijn, deze kaarten zijn een stuk lager gepositioneerd. Met bijbehorend prijskaartje.

En in dat lagere segment worden doorgaans ook minder eisen gesteld.

Hopelijk kan Intel met de opgedane ervaringen de volgende generatie weer een heel stuk verbeteren. Want meer tegenwicht tegen het duopolie AMD/Nvidia lijkt me voor iedereen, maar zéker de consument, alleen maar gunstig. Daar wordt iedereen beter van, want het houdt alle fabrikanten scherp.
Het heeft maar liefst een kleine week geduurd voordat dat opgelost was, dus zo'n groot probleem is het allemaal niet.
In tijden waarin gamers met grof geld smijten om drie dagen eerder een game te kunnen spelen zonder te weten of deze überhaupt het spelen waard is, kan ik me voorstellen dat dit best wel een drama van epische significantie is.

Een Nvidia gpu mag dan een flink stuk duurder zijn, maar onderschat de kosten van therapie niet.
Men kan ook overdrijven hoor. Als je geen issues wil had je toch geen Intel GPU moeten kopen, het is gewoon een first-gen product. En ze waren vrij duidelijk over eventuele driver problemen. Kijk dat Bethesda Bethesda is en dat soort dingen niet test is sowieso natuurlijk te verwachten, dat de game überhaupt voor iemand opstartte was al een wonder natuurlijk. En laat dit nog weer een les zijn dat pre orders geen goed idee zijn. maar goed denk niet dat ik dit aan jou hoef te vertellen ;)
Nou, het draaide helemaal niet tijdens de eerste week voor de early access en crashde daarna regelmatig.
heeft meer te maken met pushen vd release, gezien ook Nvidia drivers nog wel wat tweaks nodig hadden/hebben
Draai hetzelf op een 4080 via geforce now en draait perfect.
Via GeForce Now? Klopt het dat dat cloudgaming is? Als dat zo is, dan "draai" je zelf toch niets?
Ik zeg toch niet dat ik het zelf draai, ik zeg dat het perfect draait, bij Nvidia voor mij.
Grappig - ik heb het idee dat Intel juist aan het winnen is - Nvidia wordt te duur / stop met gaming kaarten omdat ze meer verdienen aan AI accelerators en AMD heeft veel minder naamsbekendheid dan Intel. Als ze voor relatief weinig geld goede betrouwbare instapkaarten kunnen leveren, dan kan het wel eens heel hard gaan.
ze bestellen ze bij TSMC, hoe hard kan het gaan denk je? waarom zouden ze meer marge hebben dan een nvidia of amd die bij zelfde producent laten maken, waarbij beide al veel minder chip oppervlakte nodig hebben om een bepaalde performantie te leveren. Nee het enige wat intel momenteel doet is poging om de markt te betreden en het zal nog wel een tijdje duren.
Lol, NVidia stopt met een markt waar hun marges uitstekend zijn en de marktpositie desondanks dominant? Ja, de AI markt is ook lucratief, maar NVidia is groot genoeg dat ze niet moeten kiezen.

Het "probleem" van NVidia is dat ze hun eigen concurrent zijn. Een 4050 uitbrengen die qua prijs met Intel de concurrentie aankan is zeker een optie, maar trekt tegelijkertijd klanten weg van de 4060. Dan maar liever de budgetmarkt aan Intel laten.
Dan doe je 4050 software matig slechter maken. Zodat ze nipt beter zijn als de Intel variant en je verkoopt nog steeds de 4060 even goed.
Dat is dus economie voorbij het middelbare school nivo. Jouw aanname dat de "4060 not even goed verkoopt" blijkt empirisch niet waar. Er zijn gewoon consumenten die de goedkoopste NVidia kaart kopen, of dat nu de 4050 of de 4060 is. Met het huidige aanbod komen die dus op de 4060 uit. NVidia verliest daar omzet als een 4050 uitbrengen.

En tegelijkertijd is het niet goed voor NVIdia's imago als ze een opzettelijk gemankeerde 4050 uitbrengen die het aflegt teden Intel. Dat imago is belangrijk, want NVidia's dominante marktaandeel en hoge prijzen zijn voor een groot deel het gevolg van hun imago. "Kost wat, heb je wel het beste". Dat imago heeft dus óók gevolgen voor de prijzen die ze hogerop in de portfolio kunnen vragen.
Vroeger was het mank maken van kaarten anders vrij normaal als de yields goed waren maar de vraag naar top kaarten niet.

En ja er zullen vast de goedkoopste en nieuwste Nvidia kaart willen maar ik denk dat er meer mensen zijn die een goedkopere kaart willen en niet perse Nvidia willen. Maar goed Intel is de enigste die een nieuwe echt betaalbare kaart <250 euro hebben uitgebracht de rest is oude generaties.
Zelf heb ik well zitten kijken naar Arc GPU's niet voor gamen maar als een GPU voor een media server, want daarvoor lijken ze well ideaal. Low power, hebben alle transcoding hardware die je zou willen hebben. Heeft iemand hier dit mogelijk all gedaan inplaats van de meer voorkomende Nvidia P series voor in een old enterprise server?
Ik heb toevallig een paar weken terug nog een nieuwe PC voor mijn ouders samengesteld, hun oude beestje (eigenlijk mijn oude systeem), begon nu wel erg outdated te raken en enkele kuren te vertonen.

Ze gebruiken hem weliswaar niet als media/home-server, maar als 'gewone' werkplek. Wat simpele (oudere) spelletjes, browsen, mailen, Facebooken, videochatten, je kent het wel. Niks bijzonders.

Ik wilde geen integrated graphics (in het verleden mindere ervaringen mee gehad), mijn keuze is uiteindelijk gevallen op de "ASRock Intel Arc A380 Challenger ITX", van 148 euro.

Moet zeggen dat ik best positief verast ben door het kaartje. Erg stil, doet wat het moet doen en in de eenvoudige games doet hij het prima. Drivers zijn stabiel en hebben best wel wat instelmogelijkheden eigenlijk. En low-power idd, dat was ook een belangrijke vereiste ivm stroomkosten.

Nog geen enkel probleem tegengekomen.

Voor het entry-level en mid-level denk ik dat Intel Arc-kaartjes best zou kunnen aanraden eigenlijk. Voor het high-end niveau zijn ze iets te licht, maar daar richt Intel zich dan ook niet op, en het prijskaartje is uiteraard ook zodanig dat je dat realistisch gezien niet kan verwachten.

[Reactie gewijzigd door wildhagen op 23 juli 2024 00:41]

En low-power idd, dat was ook een belangrijke vereiste ivm stroomkosten.
Ik vraag me echt af of we naar dezelfde kaart zitten te kijken. Een dergelijke kaart draait 99% van de tijd idle en dan ligt het stroomverbruik van Intel Arc echt ver boven die van de concurrenten.

Het idle-verbruik van de A380 is nog te overzien, maar een pluspunt kun je het zeker niet noemen. De meer high-end varianten zijn met een eco-hoedje naar moderne maatstaven echt niet meer oke. Al is het verschil in termen van stroomkosten rationeel gezien nog steeds niet goed genoeg om ooit een RTX40x0 terug te verdienen.

Voor een servertje dat 24/7 aan staat zou ik Arc om die reden zelf wel afschieten.

[Reactie gewijzigd door bwerg op 23 juli 2024 00:41]

Als ik naar dit artikel kijk zijn er tenminste dingen veranderd: https://www.techpowerup.c...or-power-draw-of-arc-gpus ook wat betreft single monitor setups. Wat mij betreft ben je aan het schermen met verouderde gegevens.
Ik vraag me af of die "nieuwe gegevens" ook echt gegevens zijn of een marketing-praatje van Intel. In ieder geval initieel lag het probleem helemaal niet bij multi-monitor setups, idle in single-monitor had al een relatief hoog verbruik. Ik zie het zo snel niet expliciet in de tweakers-review die ik noemde en die review is redelijk consistent met dit techpowerup-artikel, dus ik neem aan dat ook tweakers gewoon single-monitor test (anders had AMD ook een hoger verbruik gehad, die verbruikt ook significant meer bij multi-monitor).

Deze her-review test helaas niet met de drivers die jij noemt, maar wel met drivers van vlak daarvoor, en daarin lijkt het in single-monitor totaal niet beter geworden te zijn. Aangezien de drivers waar jij naar refereert vooral iets lijken te doen aan multi-monitor setups concludeer ik uit de metingen in ieder geval nog geen verbetering.

Maar als iemand recentere metingen heeft laat ik me natuurlijk graag verrassen.
Nou ja, in dat eerste artikel spreekt men van 40W, terwijl ik in de GitHub meer iets zie van 7/8 tot 11W ofzo. Of ik moet dingen door elkaar heen halen. Nou zou ik zelf ook al niet blij zijn met 11W voor een GPU in een server, maar het is wel een ander getal.
In dat artikel wordt genoemd dat "the older 101.4091 drivers had a typical single-monitor idle power-draw of around 11 W", ik vraag me dus af of dat van Intel afkomt of van een meting van techpowerup zelf. Want in de tweakers-hertest zie ik in de 4091 nog geen verbetering t.o.v. de eerste metingen, en in die eerste metingen zat de A380 gewoon rond de 20W.

Dus al met al geloof ik er vooralsnog niet veel van zolang ik geen goede meting zie.

Het helpt ook niet mee dat Intel zelf een "fix" heeft genoemd om je energieverbruik te verminderen door PCIe-settings in de BIOS te wijzigen, en ik kan niet beoordelen of ze dat meetellen. Want dat zijn hacks met nadelen die je als gemiddelde gebruiker niet zomaar wil doen.
Toevoeging: kijk eens aan, een nieuwe review van de nieuwste Arc, de A580. :)

Idle-verbruik zowel single-monitor als multi-monitor richting de 40W. De A380 is niet gemeten maar de algemene trend lijkt nog steeds te zijn dat het idle-verbruik gewoon erg hoog is.

[Reactie gewijzigd door bwerg op 23 juli 2024 00:41]

Hmm, OK, jammer. Wat voor mij een reden om het ding sowieso links te laten liggen. Linux support, goede idle en fan stop zijn voor mij belangrijker dan gaming. En multi-monitor support natuurlijk: zonder dat heb ik niet eens een GPU nodig. Ik speel wel eens CS:GO of nu CS2, maar daar kan ik zonder als developer.
Ik wilde geen integrated graphics (in het verleden mindere ervaringen mee gehad)
Over hoe ver in het verleden hebben we het dan?

Mijn indrukken van moderne integrated graphics zijn echt wel bijgeschaafd de laatste jaren. Ik gebruik zelf een Intel Iris Xe 96EU in mijn laptop, en heb ook ervaring met de Radeon Vega 8 en 680M, en die zijn toch allemaal best te pruimen voor huis-tuin-en-keuken gebruik. De laatste is zelf geschikt voor veel games te spelen.
Bedankt voor de info, ik zat specifiek naar dezelfde kaart te kijken(A380) omdat het een H264, H265, AV1 en V9 encoder en decoder aan boord heeft(alle arc cards hebben dat). Dus daarom lijkt het een zeer aantrelijke optie want ik kan hem zelfs plaatsen in een server zonder 6/8pin power adapater als ik voor de A380 gaat want die haalt all zijn stroom uit de PCIE slot.
Voor.de.genoemde.toepassing zijn integrated graphics roch meer dan voldoende? Mijn werkPC's hebben dat al jaren en het werkt allemaal prima.
een GPU in een systeem steken zonder enige reden... je hebt zo van die computer bouwers, je eigen familie is de beste klant die geen vragen steld over de kennis neem ik dan maar aan....

Je had evengoed een 5600G of 5700G kunnen kopen en je ouders waren 9/10 goedkoper af, minder verbruik, minder dingen in systeem etc... en zelfs dat zou dan nog overkill zijn.

maarja, ik vermoed dat je dan ook wel een Intel cpu gekocht hebt, want dat past er natuurljik best bij :)

[Reactie gewijzigd door d3x op 23 juli 2024 00:41]

Dat veronderstelt wel dat een 5600G zou passen in het bestaande systeem. Als het een upgrade van een Intel systeempje was, dan kun je er niet zomaar een AMD in duwen. Het bijkomende voordeel van een dGPU is dat je ook extra RAM hebt, met extra bandbreedte. Zeker voor een oud systeem wat mogelijk nog DDR3 heeft kan dat schelen.
het helpt de originele thread te lezen...

Ik heb toevallig een paar weken terug nog een nieuwe PC voor mijn ouders samengesteld, hun oude beestje (eigenlijk mijn oude systeem), begon nu wel erg outdated te raken en enkele kuren te vertonen.

een dGPU geeft geen extra RAM :) het geeft bandbreedte in zijn eigen GPU
Een Arc A380 geeft 6 GB extra GDDR RAM. Dat betekent dat de iGPU geen hap meer hoeft te nemen uit het "gewone" RAM, wat daardoor vrij is voor CPU doeleinden.
dat design je bij aankoop als je er wat kennis van hebt... DDR4 ram op een AM5 kost niks meer tegenwoordig.

nogmaals de topicstart was NIEUW systeem! er zijn genoeg low end alternatieven om in een oud systeem te steken, dat was de usecase niet en al zeker geen reden om een ARC 380 te nemen.

[Reactie gewijzigd door d3x op 23 juli 2024 00:41]

low power intel GPU? heb jij de reviews al even bekeken?

ze hebben gelijke power nodig in load vs concurrentie en op idle scoren ze ook helemaal niet.
De ene prijs is niet de ander...
38.880 Japanse yen is inderdaad ~€245, maar in Japan zit er 10%BTW op (zoals ook onder de prijs staat op het plaatje). Zonder BTW is dat dus ~€223.
209,96 Amerikaanse dollar is inderdaad ~€198, maar geheel zonder BTW.
274 Canadese dollar is inderdaad ~€189, maar geheel zonder BTW.

Een Nederlandse prijs, die inclusief BTW gegeven hoort te worden voor consumenten, is dus tussen de €229 en de €270...
(...) Een Nederlandse prijs, die inclusief BTW gegeven hoort te worden voor consumenten, is dus tussen de €229 en de €270...
En laat ~€245,- daar nu zo'n beetje middenin liggen. Dus dat klopt heel aardig, nietwaar? ;)
Nvidia geeft toch wel wat ruimte aan intel door zijn nieuwe serie grafische kaarten te duur en te langzaam te maken (het is meer een refresh dan nieuwe gen)

Hopelijk kan intel sleutelen aan drivers, maar ben bang dat dit zelfde eindigt als Microsofts Lumia telefoons. (Leek een goed idee, uitwerking was ruk)
Eigenlijk wordt dit kaartje dus een directe concurrent van de AMD RX 7600 en de Nvidia RTX 4060 gezien de prijzen.
Ik hoop dat Intel bij deze A580 de drivers op orde heeft en volop mee kan doen.

Het zou toch voor iedereen fantastisch zijn als er een respectabele 3e grote GPU-speler op de markt blijft: lagere prijzen, meer innovatie en meer keuze op de markt.

Dat Intel niet de snelste GPU op de markt brengt die er bestaat, maakt eigenlijk niet zoveel uit.
De meeste kopers geven immers geen 1000+ euro uit aan een grafische kaart, maar shoppen in het middensegment of nét iets hierboven.
Als Intel deze doel groep voor zich weet te winnen, zijn ze al heel ver en bedienen ze een groot publiek.
Puntje van aandacht is wel dat de TDP 175 watt is voor de ARC 580? vrij veel eigenlijk voor zo'n low budget model.
De nieuwe 3050 zou TDP 75 moeten doen.
Van wat ik begrijp is dat TDP per merk/product verschilt, werkelijk energieverbruik verschilt en kan dus hoger of lager zijn.
Wat betreft video kaarten zal dat verschil meevallen. Natuurlijk kan een fabrikant hoger of lager klokken. Maar meestal is het geheugen / VRM etc. vergelijkbaar en ligt het relatief dicht bij referentie modellen. Zoveel verschil zal een fabrikant toch niet maken op de TDP van het geheel, laat staan van de GPU.
Een belangrijk punt is dat 75W via het PCIe slot kan, terwijl 175W een losse stekker vereist. Dat betekent dat je veel oude kantoor-PC's niet kunt upgraden hiermee, terwijl een 3050 daarvoor wel geschikt is.
Leuke screenshot, deed mij denken aan vroeger,
Toen de meest exclusieve hardware op een marktkraampje gespot werd in Akihabara. Er stonden veel foto's van videokaarten en cpu's op Tweakers.
Je kunt er nog steeds exclusieve of beter gezegd bijzondere hardware vinden hoor :)
Even een beetje offtopic (al is dit misschien meer iets voor het forum): moet er ondertussen niet eens een andere naam voor GPU worden ingevoerd. Die dingen worden voor zoveel andere taken dan graphics gebruikt.
VPU zoals in vector processing unit? Zit ook dicht bij video processing unit zodat mensen het blijven begrijpen.
Hopelijk hebben ze meer succes dan met de 740 destijds.

Op dit item kan niet meer gereageerd worden.