SiSoftware publiceert benchmarkresultaten Intel Arc Alchemist A380-videokaart

Het bedrijf achter de SiSoftware-benchmarks heeft nieuwe mogelijke details van Intels komende Arc Alchemist-videokaarten gedeeld. Het bedrijf toont onder andere mogelijke OpenCL-benchmarkresultaten van een laag gepositioneerde Arc A380-videokaart.

SiSoftware schrijft op zijn website dat Intel met drie Arc Alchemist-series komt. Intel zou een A300-serie met laag gepositioneerde videokaarten, een A500-serie met midrangekaarten en een A700-serie met flagships introduceren. Dat komt overeen met eerdere geruchten. De series verschillen onderling in het aantal execution-units en de geheugenopstellingen.

Daarbij schrijft de website dat de videokaarten op 7nm geproduceerd worden bij TSMC, maar dat klopt niet. Intel heeft eerder zelf bevestigd dat de videokaarten worden geproduceerd op TSMC's 6nm-procedé, hoewel dat in feite een doorontwikkelde versie is van TSMC's 7nm-node. De videokaarten ondersteunen verder DirectX 12 Ultimate en krijgen onder meer matrix-engines voor deep learning. Fp64-ondersteuning zou ontbreken.

Intel Arc Alchemist-series (via SiSoftware)
Serie Arc A300 Arc A500 Arc A700
Execution-units 128 384 512
Shaders 1024 3072 4096
Geheugen 6GB GDDR6 12GB GDDR6 16GB GDDR6
Geheugenbus 96bit* 192bit 256bit
Geheugensnelheid 14Gbit/s* 16Gbit/s 16Gbit/s
Geheugenbandbreedte 192GB/s* 384GB/s 512GB/s

*Op basis van het bericht van SiSoftware. 96bit en 14Gbit/s levert in feite een bandbreedte van omgerekend 164GB/s op.

Intel Arc A380-benchmarks

Verder publiceert SiSoftware enkele benchmarkresultaten van een Intel Arc A380-desktopvideokaart, die eerder al in drivers verscheen. Die videokaart zit in de A300-serie met lager gepositioneerde gpu's. In de SiSoftware-benchmarks worden onder meer de OpenCL-prestaties getest. Daarin presteert de videokaart bijvoorbeeld vergelijkbaar met de Nvidia GeForce GTX 1660 Ti en liggen de prestaties dicht bij die van AMD's Radeon RX 6500 XT en de Nvidia GeForce RTX 3050, afhankelijk van de test. Het bedrijf deelt echter niet welk platform of welke drivers zijn gebruikt voor de tests.

SiSoftware gaat ook in op de geheugenbandbreedte, die hoger is dan de Radeon RX 6500 XT-bandbreedte, maar lager uitvalt dan die van de GeForce RTX 3050 en GTX 1660 Ti. In AES-cryptografie is de A380 fors langzamer dan de andere videokaarten. SiSoftware test verder workloads voor financiële en wetenschappelijke analyses.

Het is niet precies bekend wanneer de Arc A380-videokaart precies uitkomt. Intel introduceert Arc Alchemist-videokaarten voor laptops en desktops. Die videokaartenseries verschijnen respectievelijk in het eerste en het tweede kwartaal van dit jaar. Workstationmodellen verschijnen 'tegen het derde kwartaal'. De videokaarten krijgen onder meer ondersteuning voor raytracing en Intel XeSS, een tegenhanger van AMD FSR en Nvidia DLSS.

Intel Arc A380-benchmarks van SiSoftwareIntel Arc A380-benchmarks van SiSoftware

Door Daan van Monsjou

Nieuwsredacteur

22-02-2022 • 12:48

41

Reacties (41)

Sorteer op:

Weergave:

Ik wil toch even reageren. Intel XeSS zou volgens het artikel een tegenhanger zijn van AMD FSR en Nvidia DLSS. Dat is niet geheel correct.

Intel XeSS is net als DLSS een deep learning AI upscaling techniek. Dus tot zover klopt de vergelijking. AMD FSR is dat pertinent niet. Dat heeft ook AMD zelf al aangegeven. AMD FSR zit veel meer in de hoek van de conventionele upscaling technieken zoals checkerboard rendering.

Zie ook: https://wccftech.com/no-a...e-is-why-you-should-care/

[Reactie gewijzigd door FrankoNL op 24 juli 2024 10:18]

Wat het probeert is hetzelfde, de manier waarop het probeert is alleen anders.
Ja maar het is dus niet de tegenhanger van die andere 2 technieken.
Klopt inderdaad. FSR2 is de concurrent voor DLSS maar daar is nog weinig over bekend.
Als intel XeSS meteen kan opleveren en het goed werkt hebben ze daar wel een voordeel te pakken.
Er zijn 2 varianten van XeSS. Een hardware versnelde versie a la DLSS en een softwarematige a la FSR.

Edit: er is een XMX methode (hardwareversneld):

In choosing their approach, Intel seems to have gone in a similar direction as NVIDIA’s second attempt at DLSS. Which is to say, they’re using a combination of spatial data (neighboring pixels) and temporal data (motion vectors from previous frames) to feed a (seemingly generic) neural network that has been pre-trained to upscale frames from video games
...
Meanwhile, given the use of a neural network to handle parts of the upscaling process, it should come as no surprise that XeSS is designed to leverage Intel’s new XMX matrix math units, which are making their debut in the Xe-HPG graphics architecture.


en een DP4a methode (softwarematig):

With that said, Intel has gone one step further and is also developing a version of XeSS that doesn’t require dedicated matrix math hardware. Owing to the fact that the installation base for their matrix hardware is starting from 0, that they’d like to be able to use XeSS on Xe-LP integrated graphics, and that they want do everything possible to encourage game developers to adopt their XeSS technology, the company is developing a version of XeSS that instead uses the 4-element vector dot product (DP4a) instruction.

bron: anandtech

[Reactie gewijzigd door oef! op 24 juli 2024 10:18]

Checkerboarding zit dichter bij DLSS/XeSS dan FSR.

Het feit dat XeSS motion compensated is, net als de meeste checkerboarding implementaties, is belangrijker dan dat het ANNs gebruikt.
Naar ik begrijp is GPGPU performance momenteel redelijk slecht, omdat wordt gefocust op echt video aspecten, en niet zozeer op OpenCL of cryptografie. Alsnog heb ik de indruk dat het nog meevalt hoe slecht de performance is. We zullen nog eens moeten zien wat de framerates doen.
Dat is nog even afwachten.

Ik vind het maar raar de focus op OpenCl en coin-minen. Het neigt meer naar een fpga/asic dan een GPU, en daarvan hebben ze een complete toko van gekocht,
nieuws: Intel neemt Altera over voor 16,7 miljard dollar


AMD heeft versneld Altera Xilinx overgenomen en de koop afgerond,
nieuws: AMD verwacht overname van Xilinx op 14 februari af te ronden

Nvidia ziet steeds meer inkomsten uit server-gerelateerde diensten komen.


Als ik naar de toekomst kijk denk ik dat GPU zoals we die altijd gekend hebben steeds minder van belang wordt omdat het een redelijk plateau lijkt te hebben bereikt en dat de snelste gpu-steeds minder van belang wordt als op andere vlakken beter wordt gepresteerd en dat lijkt Intel hier te doen.

[Reactie gewijzigd door Iblies op 24 juli 2024 10:18]

[quote]
AMD heeft versneld Altera overgenomen en de koop afgerond,
nieuws: AMD verwacht overname van Xilinx op 14 februari af te ronden

Xilinx bedoel je (staat ook vermeld in jouw link).
omdat het een redelijk plateau lijkt te hebben bereikt
Waar baseer je dat op? De laatste generatie was juist een van de grootste sprongen in tijden, en de volgende sprong lijkt nog groter te worden (RDNA3 en Lovelace)

[Reactie gewijzigd door DoubleYouPee op 24 juli 2024 10:18]

Intel heeft laten zien dat ze vermogen los hebben gelaten om maar de snelste te zijn 🙂


Eerst zien en dan geloven aangezien RDNA3 en Lovelace benchmarks en nog niet vrij zijn en nog niet geproduceerd worden.
6nm, noemen ze het dan Intel 3 of 4?
Nee, dit is TSMC 6nm. Zo noemt TSMC het zelf. Dat is al een lager getalletje dan redelijk is op basis van transistordichtheid, om marketingtechnische redenen (dan is het eerder 10nm).

Dat was nou net het hele punt van het hernoemen van Intel's 10nm naar "Intel 7": dat TSMC's 7nm in technisch opzicht vergelijkbaar zou zijn met Intel's 10nm.
Als Intel's 10nm 7nm was geweest, hadden ze het echt wel 7nm genoemd.

TSMC zal vast technische redenen hebben om het 7nm te noemen, dus het lijkt me meer marketingtechnisch geneuzel vanuit Intel.
Als Intel's 10nm 7nm was geweest
Je mist dus het punt: er is geen duidelijke definitie van wat nou precies wel of niet 7nm is.

Er is al lang en breed uitgezocht en beschreven wat 10nm of 7nm tegenwoordig nou eigenlijk betekent, of eigenlijk dat het helemaal niet meer duidelijk is wat het betekent. Dat de benaming "7 nm" daadwerkelijk door een marketingafdeling wordt bedacht, en dat TSMC en Samsung die maar zodanig kiezen dat het lijkt alsof ze voorlopen. En dat Intel gewoon duidelijk aangeven dat zij vinden dat daar technisch weinig van klopt, en dat ze het hernoemen puur doen om de getalletjes vergelijkbaar te houden met de concurrenten. Dus waarom je dat nu omdraait en stelt dat Intel wil doen alsof ze voorlopen, terwijl dat andersom is?

Als je betekenisvolle getalletjes wil moet je gewoon naar de transistordichtheid kijken, waarbij Intel's 10nm, of Intel 7, een hogere dichtheid geeft dan TSMC's 7nm. En zelfs dat is natuurlijk niet volledig, energie-efficiëntie en productiekosten kunnen natuurlijk ook los van transistordichtheid nog variëren.

[Reactie gewijzigd door bwerg op 24 juli 2024 10:18]

TSMC zal vast technische redenen hebben om het 7nm te noemen,
Niet echt, daarom noemt TSMC het ook N7, N7P, N7+ en N6
https://en.wikipedia.org/...des_and_process_offerings
Het is altijd marketing geneuzel, ongeacht wie het beweert. TSMC, Intel, Samsung, GF - maakt allemaal niets uit, de namen van de nodes hebben al jaren geen bal met welk fysiek aspect dan ook te maken. Tweakers schreef hier 5 jaar geleden al een artikel over, maar het is al langer dan dat aan de gang. Het is een tijd lang zo geweest dat het tenminste refereerde naar de kleinste "feature", maar ook dat is al lang niet meer zo.

Intel's 10nm (P1274) heeft flink hogere fins dan zowel TSMC's 7nm als 10nm. Ze zijn 1nm dikker en de afstand ertussen valt precies tussen TSMC's 10nm en 7nm in (TSMC's 10 en 7 zijn 36 en 30nm; Intel's 10 komt op 34nm). En toch is Intel's mmp (de afstand tussen twee contact punten) kleiner met slechts 36nm tegenover 40nm op TSMC's N7 (44nm). En hun CPP is ook lager dan TSMC's N7. En als laatste pak ik maar gewoon de dichtheid erbij; Intel's 10nm heeft zo'n 25% hogere dichtheid vergeleken met TSMC's 10nm; TSMC's N7 is echter slechts zo'n 13-14% dichter dan Intel's 10.

Zeg jij het maar, welke is "echt" 7nm? :)

Er is geen enkele feature die ook maar in de buurt van 7nm komt op eender welk procedé. Het is allemaal marketing geneuzel waar je niet te veel op moet letten. Wat een node kan is een stuk minder belangrijk dan de chip die er op gebakken wordt. Nvidia's Fermi had een lagere dichtheid dan AMD's Cypress, kwam niet in de buurt van dezelfde kloksnelheden maar had toch fors meer sap nodig. Eindresultaat was dat AMD's zuiniger waren en beter presteerden (met gelijke chip groottes) door hun hogere kloksnelheid (GTX 460 vs 5850; laatste was gemiddeld ~10% sneller en toch nog zo'n 10-15% zuiniger). Allebei op TSMC's 40nm, maar Nvidia had wat fouten gemaakt.

Het maakt dus niet uit wat de fabs hun procedé's noemen, het gaat om de eigenschappen die hun klanten er mee kunnen realiseren. De theoretische eigenschappen worden voor grote chips als GPU's of desktop CPU's toch nooit gehaald, enkel kleine SoCs zullen daar ooit ook maar enigszins bij in de buurt komen (Apple's A12 had een 75% hogere dichtheid dan de huidige generatie GPU's ;)).
Lijkt toch wel dat we voor de A500 en A700 modellen redelijke prestaties mogen verwachten ten opzichte van bijvoorbeeld een 3080. Nu wordt ik toch wel nieuwsgierig. :)
Synthetische tests zijn wat anders dan daadwerkelijke games. Als ze de 3070 en 6700XT kunnen evernaren vind ik het al heel wat :)
Als ie dan een mooi prijsje heeft, dan is dat goed genoeg voor mij!
Ik vind stroomverbruik, geluid productie en game support ook wel belangrijk.
Je hebt er weinig aan als games niet werken / crashen. Maar gezien de delays is de kans groot dat ze daar wel hard aan werken.
plus dat ze geen legacy moeten mee dragen voor "heel oude" kaarten, dat scheelt ook wel een slok op de borrel wat betreft performantie en stabiliteit.
Daar zou ik niet te zeker van zijn met de onboard GPU's/iGPU's van Intel.
Ja het zal er idd vanaf hangen of ze die samentrekken #fingerscrossed
Ja dit zou zeker heel wat zijn :Y) :Y) maar denk niet dat het ze lukt met hun eerst gen top kaarten.
Als er een bedrijf is wat het zou moeten kunnen qua mensen en geld wat ze hebben om te investeren in het ontwikkelen er van. Apple is ook zo'n bedrijf en als je ziet wat die doen qua CPU's en GPU's is het niet onmogelijk.
Zeer zeker! Ook fijn dat we dan nog meer keuze hebben uit GPU's, zeker in deze tijden.
Eens, die bandbreedte en hoeveelheid nvram ziet er ook leuk uit. Hoeft nog niks te zeggen maar het kan wel interessant uitpakken. Erg benieuwd ja, ik zit zelf helaas beetje vast aan Nvidia maar wellicht voor de computer van mijn vriendin.
Idd gaan prijzen dan eindelijk normaliseren.
Met de invasie van Ukraine - voorlopig nog even niet denk ik.
Alles hangt af van de prijs. Een low-end videkaart voor een paar tientjes zou een topproduct zijn. Nou zal dat optimistisch zijn, maar als dit op prijs wat concurrentie zou bieden aan de RTX3050/RTX3060 en de 6500XT/6600XT zou dat voor de markt als geheel al winst zijn.

Wiens vlaggenschip de prestatiekroon in handen heeft is voor de overgrote meerderheid van de consumenten eigenlijk toch niet interessant.
Als Intel slim is, dan zetten ze in op "normale" prijzen voor videokaarten van dit kaliber. Als het product dan goed is, dan zetten ze zichzelf meteen stevig in de markt - je hebt namelijk in 1 keer 4 miljoen mensen overtuigd, die dat dan ook weer aan anderen doorgeven. (Intel zegt 4 miljoen kaarten te fabriceren dit jaar, dat is niet heel veel)
Het probleem is als ze concurreren met een kaart die nu €500 kost en ze gaan hun kaarten verkopen voor wat wij als "normale" prijzen zien (bv €300) snijden ze zichzelf gewoon in de vingers. Aangezien er schaarste is verkopen ze waarschijnlijk dezelfde hoeveelheid, en die persoon die de kaart voor €500 koopt zal ook tevreden zijn en het doorvertellen.
Dat kan zeker het geval zijn inderdaad. Maar Intel heeft echt nog wel wat werk te verzetten in de goodwill area voor hun GPUs. Dit zou een mooie zet zijn voor ze. We'll have to see.
En ze moeten marktaandeel winnen. Dan moet je de komende jaren pijnlijden, ook in vorm van verlies(=investering).
Als deze benchmarks 1 op 1 doorschalen naar gaming performance (wat ongetwijfeld niet zo zal zijn, maar toch), dan is de A380 hooguit concurrentie voor de 6500xt en 1660s, daar ga je in het 6600/3060 segment weinig van merken, want die dingen zijn twee keer zo snel, er zal weinig overlap zijn kwa potentiele klanten.

Ik wil zelf ook graag een nieuwe GPU, en ten opzichte van mijn rx570 is een 6600 interessant, een 6500xt is potentieel een downgrade, en zelfs met geld toe zou ik drie keer moeten nadenken.
Voor de A300 geldt dat natuurlijk zonder meer. Maar de A500 of desnoods de A700 moet daar toch zeker kunnen komen.

Mensen hebben de neiging om de kaarten te vergelijken op basis van marktsegmenten en technische specs, maar het enige wat telt is dat Intel iets leuks voor een prijsje van <400 euro neerzet, dat is vooral mijn punt. Ik zou graag weer het segment van <100 euro tot leven zien komen. Voor de kleine portemonnee waren kaarten als de HD4670 of de HD5750, inmiddels al weer een tijdje geleden, topdingen.
Ja, de HD4670 was een top kaartje voor die tijd, doet me ook denken aan o.a. de 9600pro die ik laaaang geleden had.

Helaas is inflatie ook een ding, en als ik zo naar de markt kijk, krijg je de prijsverhoging-geest niet meer terug in de fles. De prijzen zullen nog wel wat zakken door de cryptocrash, maar een nvidia x60 kaart voor 200-250 euro gaat gewoon nooit meer gebeuren.
Exact ik schaf gerust een Intel kaart aan mits concurrerend met AMD / Nvidia. Welk logo erop staat zal me een zorg zijn.
96bit * 14Gbit/s is 168 GB/s bandbreedte, niet 164.

De architectuur van de kaarten duidt op 16,12 en 4 clusters. Dit zou het volgende voor de A380 kunnen betekenen:
Er zitten 2 modules van 16-Gbit GDDR6 op in 32-bit* mode.
Er zitten 2 modules van 8-Gbit GDDR6 op in 16-bit mode.
De modules draaien op 16-Gbps, maar omdat de 16-Gbit 16-Gbps module bij Samsung nog sample status heeft, gebruikt Intel de mass-produced 16-Gbit 14-Gbps module die ze op 16 Gbps laten draaien.

* GDDR6 heeft 2 onafhankelijke 16-bit kanelen die samen aangestuurd kunnen worden als een pseudo 32-bit kanaal.

[Reactie gewijzigd door TweakerNummer op 24 juli 2024 10:18]

Op dit item kan niet meer gereageerd worden.