Intel kondigt Arc A310-budgetvideokaart met 4GB geheugen aan

Intel heeft de specificaties van zijn Arc A310-desktopvideokaart gepubliceerd. De budgetkaart krijgt onder meer zes Xe-cores en 4GB GDDR6-geheugen. Intel deelt nog geen concrete releasedatum en meldt ook geen adviesprijs.

Volgens de specificaties die Intel heeft gepubliceerd krijgt de Arc A310 een 64bit-geheugenbus. In combinatie met een geheugensnelheid van 15,5Gbit/s geeft dat een geheugenbandbreedte van 124GB/s. Of die termijn ook gehaald zal worden, is niet duidelijk. Volgens de Ark-website van Intel krijgt de Arc A310 een PCIe 4.0 x16-interface, maar dat betreft vermoedelijk een fout. De hoger gepositioneerde Arc A380-kaart heeft een PCIe 4.0-interface met acht lanes.

Intel bracht die Arc A380-desktopkaart eerder dit jaar al uit. Ter illustratie: die gpu beschikt over acht Xe-cores en heeft 6GB aan GDDR6-geheugen aan boord. Door middel van een geheugenbus van 96bit en een geheugensnelheid van 15,5Gbit/s, bedraagt de geheugenbandbreedte van die videokaart 186GB/s. De adviesprijs van de Arc A380 zou op 130 tot 140 dollar liggen. Het is niet duidelijk hoeveel de Arc A310 gaat kosten.

De Arc A380 werd in juli nog getest door enkele Duitse hardwaresites waaronder Computerbase. Volgens de reviewers stelden deze kaart teleur en kwam dat hoofdzakelijk door de staat van de drivers op dat moment. De release van Intels Arc-serie werd de afgelopen maanden ook al meermalig uitgesteld. Eind augustus publiceerde Tweakers nog een achtergrondartikel over de problemen die tijdens de ontwikkeling van de Arc-videokaarten de kop opstaken.

Intel Arc A310

Door Jay Stout

Redacteur

28-09-2022 • 13:26

48

Lees meer

Reacties (48)

Sorteer op:

Weergave:

Volgens mij is dit een super interessante kaart voor HTPCs en andere computers die voornamelijk met video omgaan:
  • TBP: 75 W
  • # of Displays Supported: 4
  • Graphics Output: HDMI 2.1 en DisplayPort 2.0 (up to UHBR 10)
  • Hardware Encode/Decode: H.264, H.265 (HEVC), AV1, VP9
Oftewel, hij heeft identieke video en display eigenschappen als de rest van de serie, maar dan in een goedkope package van 75 watt.

Vooral AV1 encode en DisplayPort 2.0 is echt uniek in dit segment (dat laatste heeft de RTX 4090 geen eens).
DisplayPort 2.0, daar ben ik ook erg verbaasd over.
De tech specs zeggen: "up to UHBR 10", dat is onderdeel van DisplayPort 2.0
Maar er staat ook "7680 x 4320@60Hz", echter op UHBR 10 haal je slechts 47Hz op 7680x4320 (8 bpc).
Voor 60Hz heb je minimaal UHBR 13.5 nodig.
Wat mij betreft zijn de specs van Intel ten minste enigszins tegenstrijdig.
Ik zou niet raar staan te kijken als uiteindelijk blijkt dat DisplayPort dan toch maar tot 1.4 wordt ondersteund,
HDMI specificaties zijn een vergelijkbaar (of erger) verhaal bij deze Intel kaarten. Er staat dat er ondersteuning is voor HDMI 2.1, maar tegelijkertijd dat de max. bandbreedte op 4096 x 2160@60Hz ligt. Het zou kunnen zijn dat Intel HDMI 2.0 onder de HDMI 2.1 omdat dat tegenwoordig blijkbaar mag. Naar mijn weten is dit echter wel de eerste fabrikant die dit op deze manier in de specificaties verwerktk, jammer.

Normaliter, bij de CPU's geeft Intel consequent de max. resoluties en refresh rates netjes aan voor HDMI en DisplayPort, gelijk op de specificaties pagina van de processor. Dat is bij anderen zoals AMD toch wel een stuk minder.

Maar nu ook dit gedoe dus bij hun dedicate GPU's. Man, wat maakt men het moeilijk. Hoe lastig is het om simpelweg iemand van engineering die ook nog communicatief is een uurtje te laten spenderen om dit helder op te schrijven. Hele fora staan vol of een stuk hardware wel of niet gaat werken met een ander stuk hardware op het gebied van resoluties en refresh rates.

[Reactie gewijzigd door xtlauke op 23 juli 2024 07:38]

Misschien dat dat met DSC is? Voor mijn G9 heb je ook DSC nodig om 5120x1440@240hz@10bit te doen.
En met 6 bpc haal je dus 60hz 8K.
Hardware Encode/Decode: H.264, H.265 (HEVC), AV1, VP9
Biedt dit een voordeel voor bijvoorbeeld Plex ten opzichte van de hardware decoding die Intel met een moderne CPU aanbiedt?
Probleem is echter dat ze niet werken op AMD-systemen en de performance brak is en de stabiliteit slecht. Eigenlijk hebben ze voor nog een beetje performance en stabiliteit BAR-ondersteuning nodig, wat pas vanaf de 10e generatie Intel ondersteunt wordt.

Toch wel heel veel zaken waar de meeste HTPC’s niet aan voldoen.

Voor de mensen die denken dat dit een trilplaat is en vinden dat een -1 gerechtvaardigd is: lees je eens in, de vorige generatie werkte niet op AMD: nieuws: Intel Xe DG1-videokaart voor oem's werkt niet in combinatie met AMD-p...

De huidige generatie werkte volgens Tweakers afgelopen juli nog niet op AMD: nieuws: Intel Arc 380-videokaart stelt teleur in eerste reviews

(Blijkt achteraf niet het geval te zijn, er vaas not niet gevalideerde blijkbaar.)

[Reactie gewijzigd door White Feather op 23 juli 2024 07:38]

Probleem is echter dat ze niet werken op AMD-systemen
Waar haal je die vandaan? Alle berichten die ik erover gelezen heb zeggen juist dat het prima werkt in AMD-systemen, met RBAR aan. Het is ook absoluut Intel's bedoeling niet om Arc exclusief voor systemen met Intel CPU's te maken, daar hebben ze zichzelf mee.
Ik vermoed dat @White Feather nog doelt op Intel Xe DG1-videokaart voor oem's werkt niet in combinatie met AMD-processors.

Maar dat was z'n vreemde eend GPU van Intel, mag hopen dat dit met Arc niet meer het geval is :)

[Reactie gewijzigd door rlkz op 23 juli 2024 07:38]

Jouw link klopt.

Bovendien: nieuws: Intel Arc 380-videokaart stelt teleur in eerste reviews
De huidige drivers voor de Arc 380 kunnen daarnaast niet overweg met ReBar op AMD’s Ryzen-processors; de feature werkt enkel met deze techniek op Intels eigen processors.
Afgelopen juli werkte het dus nog steeds slecht op AMD.
Dit heeft Tweakers gepubliceerd, maar het klopt niet. Computerbase (een van de bronnen) meldt:
Intel hat ComputerBase informiert, dass Arc Resizable BAR bereits jetzt auf Ryzen-Prozessoren unterstützt, die Kombination aber noch nicht auf entsprechenden Systemen validiert ist. Darum wird das Feature offiziell noch nicht in Verbindung mit Ryzen-CPUs genannt, sollte aber generell lauffähig sein. In einem ComputerBase vorliegenden Intel-Dokument ist dies anders beziehungsweise missverständlich beschrieben. Entsprechend hat die Redaktion die entsprechenden Textstellen geändert.
M.a.w. het werkt nu en het werkte toen ook al, het was alleen nog niet officieel gevalideerd en Intel communiceerde het blijkbaar ook niet goed, vandaar dat er enige verwarring ontstond.

[Reactie gewijzigd door MneoreJ op 23 juli 2024 07:38]

BAR BAR word ook ondersteund op Intel 8 en 9 gen daar zijn bios updates voor geweest.
Ik vind het toch een opmerkelijke gang van zaken, tot nu toe gaat iedere release van een Arc-kaart mis op gebied van drivers. Intel kiest er desondanks gewoon voor om gewoon steeds nieuwe kaarten te lanceren, en laat de consument eigenlijk gewoon zwemmen iedere keer.
Dat lijkt me nu niet echt de manier om als nieuwe speler in GPU land de mensen voor je te winnen.
Het is maar een enkele set drivers en die is voor de hele, eerste generatie Arc-kaarten. Beetje raar om dan te zeggen dat de drivers "bij iedere release" verkeerd gaan, je kunt beter zeggen dat Intel de kaarten released terwijl de drivers nog in volle ontwikkeling zijn. Het is een voortdurend proces, niet een opeenstapeling van fouten. :P
En het gaat als ik het goed heb voornamelijk om oudere games die niet of niet lekker draaien. Die hebben geen upgrade gehad naar DX12 etc.

Ik begrijp dat niet iedereen staat te springen vanwege de niet perfecte drivers. Maar tegelijk willen we allemaal een nieuwe concurrent erbij. En je maakt niet vanuit niets zomaar drivers voor 1000en games. Nvidia en AMD hebben alle ontwikkelingen van de afgelopen decennia verwerkt in hun nieuwe drivers iedere keer. Wat verwachten we nu eigenlijk van Intel?
Moeten ze dan maar stoppen met het maken van videokaarten?
Denk je dat dezelde mensen die de hardware ontwerpen ook de drivers schrijven?

Voor een groot deel zullen deze videokaarten hardwarematig op elkaar lijken en is het uitbrengen van verschillende modellen niet eens zoveel moeite voor een bedrijf als intel.

Goede drivers maken kost gewoon jaren. Dat is iets wat NVIDEA en AMD al hebben gedaan omdat zij al jaren in de GPU markt zitten. Er zijn zoveel verschillende applicaties en er is zoveel verschillende hardware dat dit niet in een paar jaar voor elkaar kan hebben.
... tot nu toe gaat iedere release van een Arc-kaart mis op gebied van drivers. Intel kiest er desondanks gewoon voor om gewoon steeds nieuwe kaarten te lanceren ...
Dit kan ook niet anders. Op het moment dat Intel GPUs op de markt heeft en een redelijk markt aandeel, dan zal een ontwikkelaar van games daarmee testen, en zorgen dat het goed draait. Mochten er zaken in zitten waar niet omheen kan worden gewerkt zal die zelf bij Intel aan de bel trekken.

Want zelfs als Intel 100% bug vrije drivers oplevert die 100% volgens specificatie zijn. Dan zullen er nog steeds oneindig veel problemen met bepaalde games zijn. Simpel weg omdat die de specificatie iets anders hebben geïnterpreteerd, of bugs bevatten die (bij toeval) op een Nvidia GPU geen probleem gaven. Omdat bugs die wel problemen opleverde al tijdens testen met Nvidia hardware aan het licht kwamen.
Ik kan mij een periode herinneren dat de drivers van ATi, toen volgens mij ook al onder de vlag van AMD, ook bij iedere nieuwe generatie ronduit ruk waren of dat een bepaalde combinatie van hardware tot bluescreens leidde. Gewoon afwachten. Het is gewoon goed dat intel deze stap maakt/ durft te maken. Haha straks gaat nvidia ook processoren maken ;)
Als deze onder de €100 zit zou het zomaar een redelijk alternatief kunnen zijn voor de stokoude en slecht benaamde GT1030, inachtneming dat de stabiliteit-issues en drivers gefixt worden.

Ik vraag me af wie de doelgroep hiervan zal zijn over een paar jaar, gezien de nieuwe Ryzen 7000 allemaal iGPU's hebben.
Heb ik daar iets gemist? Heb je dan straks niet meer de 'G versie' APU's naast de CPU's? Zoals je nu de 5600G en 5700G hebt, zeg maar.
Klopt. Alle Ryzen 7000 CPUs hebben een iGPU en dus geen G variant meer nodig. Toch zou het nog kunnen dat ze met een G model komen die meer die-space gealloceerd heeft en zo snellere gpu performance heeft.
Beetje tegenstrijdige comment. Er is zoals je zegt nog wel een G variant nodig omdat de iGPU geen 1 op 1 vervanging is van de gpu in de G modellen. Hij is voor 3D games onbruikbaar
Voor e-sports games in 1080p is die igpu gewoon voldoende. Het is maar net waar je hem voor gebruikt.
https://www.youtube.com/watch?v=XNugmJJpCZs

minder dan 80 fps gemiddeld in csgo = onbruikbaar voor enig serieus potje competitive matchmaking. Het is oke als je csgo speelt als casual of een surfer bent, maar als je competitive matchmaking wil spelen is het een objectieve handicap. En dat is gewoon naar aangezien je esports vaak met een sport mindset speelt en op zijn minst je best doet te winnen.

Valorant en Fortnite doen het een stuk beter inderdaad
Niet voldoende voor e sports shooters. Daar wil je echt wel meer dan 100 fps
De nieuwe ryzens hebben allemaal een igpu. Geen krachtige, maar wel handig.
Het is niet uit te sluiten dat er nog een G versie komt daar de nieuwe iGpu's uitermate zwak zijn vergeleken met de G serie.

De insteek is vermoed ik ook anders. De G serie was als je een simpel spelletje wou kunnen spelen. De nieuwe igpu is gericht op het niet hoeven toevoegen van een dedicated gpu voor office gebruik. Voor OEM's veel interessanter
Wat ik altijd begreep (en dat is jaren geleden) is dat de meeste verkochte Nvidia gpu de GT710 nog steeds was. Super goedkope low end gpu voor de miljoenen office pc's die wereldwijd verkocht werden. En toen had je al APUs en igpu in Intel cpus. Dus er is een markt voor en nog een grote ook.

Wij denken vaak dat nvidia en AMD dik verdienen aan de rtx 3080 en rtx 3090 type kaarten. Maar die zijn op het geheel van de verkopen niet zo heel belangrijk. De midrange en vooral server oplossingen leveren veel meer geld op.
OEM's die de goedkoopste gaming PC willen verkopen waarschijnlijk. Of mensen die niet zoveel met de GPU doen maar wel extra HDMI / DP poorten willen.
Ik vraag me af wie de doelgroep hiervan zal zijn over een paar jaar, gezien de nieuwe Ryzen 7000 allemaal iGPU's hebben.
De Ryzen 7000's ondersteunen geen QuickSync, de A310 hoogstwaarschijnlijk wel. Als de AV1 encoding een beetje goed presteerd kan dit een leuke kaart zijn voor streamers, naast een Nvidia GPU voor gaming bijvoorbeeld. Daarnaast is de kaart mogelijk interresant voor htpc's en homemedia-servers.
Vooral voor de laatste groep zou de A310 best wel eens een hot item kunnen worden.
Ik koop er iig direct één als er een low-profile A310 beschikbaar komt.
Beetje dubbelop, "Intel budget videokaart". Het is allemaal erg budget.

Jammer dat Intel er zo'n puinbak van heeft gemaakt. Dat komt deze generatie niet meer goed denk ik. Toch hoop ik dat ze op de markt blijven en een volgende generatie het beter doet.
Hoezo puinbak, alleen vanwege een aantal preview testen en speculaties.

Ik denk dat we eerst de definitieve kaarten met de laatste drivers moeten hebben om een oordeel te kunnen vellen.

Voor mij wordt het een no brainer om een van de lager gesitueerde kaarten in mijn systeem te zetten, ik ben geen gamer maar wil gewoon een goede basic kaart die mijn beide 32" / 4K schermen aan kan sturen. dit wordt nu gedaan door een Radeon Pro WX 3200.
Maar als de ARC kaarten uit zijn gaat er zonder meer 1 in mijn systeem. Iederen hier struikeld over de hoger gesitueerde kaarten, en of die wel kunnen concureren met AMD en Nvidia.
Veel users hebben gewoon belang bij een goede basic kaart,die de laatste technieken ondersteund en een kwalitatief goed beeld geeft. en Intel kennende zal dat wel snor zitten met deze kaarten.
Ze hebben jaren lang ervaring met het ontwikkelen van de Igpu's en de daaraan verbonden drivers.

[Reactie gewijzigd door Terrier529 op 23 juli 2024 07:38]

Dit. Ik ben niet op zoek naar een high end kaart met een verbruik van heb-ik-jou-daar. Ik wil eentje die inderdaad een monitor op 4K kan aansturen en waarbij ik af en toe een game kan spelen met hooguit medium settings. Daar zijn deze kaarten uitermate geschikt voor, niet in de laatste plaats omdat je eindelijk weer bij prijzen uitkomt die niét de pan uit rijzen. En dat ook nog met een verbruik van 75W. Zodra de drivers geoptimaliseerd zijn, is dit voor mij ook een no-brainer. Ook voor de desktops van mijn kinderen.
Maar juist voor exact dat kan je prima terecht met een APU? Ik kan genoeg gamen op high settings met 1080p en 4K afspelen lukt prima op de streamingdiensten.
Voor het merendeel van die mensen zit de GPU al ingebakken in de CPU.

Even los van de prestaties zijn er gewoon heel veel problemen met de drivers. Die ga je waarschijnlijk inderdaad niet ervaren als je zit te browsen of te Netflixen. Ik zie reacties van Tweakers over HTPC setupjes, en het lijkt er op dat dit ook prima gaat met Intel's kaartjes.

Maar helaas zijn wij Tweakers niet representatief voor de doorsnee PC gebruiker. Het absolute leeuwendeel van de discrete GPUs wordt gebruikt door gamers, en die willen Intels' misbaksel niet. Bijna alle andere PC gebruikers hebben geen idee wat er in hun machine zit - en naar grote waarschijnlijkheid is dat dus een ingebakken GPU.

Met andere woorden, dit is een enorm debacle. Intel gaat hier geen significant marktaandeel mee pakken.
Mooi om te zien dat er meer concurrentie op de GPU markt ontstaat. Hopelijk is Intel in staat om hun ervaring met integrated graphics toe te passen om de markt een beetje op zijn kop te zetten.

Wel jammer om te zien dat reviewers tot nu toe teleurgesteld zijn. Ik ben benieuwd of dit voornamelijk voor gaming of ook voor productiviteit is, want juist in die laatste categorie ben ik geïnterresseerd.
Gaming is echt een drama, compute is volgens mij redelijk en vooral de AI en encoding engine is heel goed.
Ik hoor hele goede verhalen over de AV1-encoder van de Arc kaarten, dus dit kan een heel interessante (extra) kaart zijn voor streamers en video-encoders, als de stabiliteit van de drivers voldoende is.
Waar een begin is, is een weg moeten maar denken!
Zeker niet verkeerd dat er wat meer beweging op deze markt komt, en draagt misschien wel toe tot een zeer aangename innovatie ?!
Dit lijkt me een race naar de bodem? Ik heb ook gelezen en gezien volgens reviewers dat deze kaart erg kieskeurig lijkt in wat voor mainboards die gestoken word, en zelfs helemaal niet zou werken in oudere machines.Een GTX 1030, RX5300 of RX6400 lijkt me dan een meer voor de hand liggende keuze.

Zouden ze niet gewoon beter gewoon gaan zorgen dat volgende generatie igpu's met bijbehorende mainboards meer dan 2 schermen kunnen aansturen?
Was het niet zo dat intel bij deze kaarten virtualisatie ging toestaan ?
if so, erg interesante kaartjes voor de home servers.
Gaming directX 12 is competitief (prijs afhankelijk uiteraard) https://www.computerbase....l-arc-a380-review-test/4/

Dx11 en lager is het probleem. Omdat NVidia en AMD 1000 fixes hebben voor die games, simpelweg bugs van ontwikkelaars fixen of optimalisaties.

Kwestie van keuze, als jouw favoriete game dx12 is en het verder goedkoop moet dan is het een optie (of iid non gaming)

Op dit item kan niet meer gereageerd worden.