Intel levert Arc-gpu's aan fabrikanten, maar geeft weinig details

Intel is begonnen met het leveren van zijn Arc-gpu's aan fabrikanten van laptops en pc's. Volgens Intel komen er binnenkort vijftig laptops en desktops uit met Arc-gpu's. Details, specificaties of prijzen van de gpu's noemt Intel nog niet.

Volgens Intel zijn de vijftig ontwerpen afkomstig van de fabrikanten Acer, ASUS, Clevo, Dell, Gigabyte, Haier, HP, Lenovo, Samsung, MSI en NEC. Het gaat zowel om mobiele apparaten als om desktops, die met Intels Arc-videokaarten zullen worden uitgerust. Wanneer de producten op de markt komen, zegt Intel nog niet.

Tijdens zijn CES-keynote liet Intel een Alienware X17-laptop en een Lenovo Yoga-convertible zien die zouden zijn uitgerust met een Arc-gpu. Welke gpu daarin zit, is echter niet duidelijk. Intels eerste generatie Arc-videokaarten krijgt de naam Alchemist en volgens geruchten komen er tal van variaties, variërend van instapmodellen die prestaties bieden vergelijkbaar met de Nvidia GeForce GTX 1650 tot aan high-end videokaarten die RTX 3070-prestaties zouden bieden.

De Arc-gpu's van Intel ondersteunen hardwarematige raytracing en Intels Xe Super Sampling-techniek. XeSS is een tegenhanger van Nvidia's DLSS en AMD's FSR, voor het upscalen van games. Intel kondigt in samenwerking met 505 Games aan dat de pc-versie van Death Stranding de eerste game zal zijn met XeSS-ondersteuning.

Naast 505 Games werken volgens Intel ook Codemasters, EXOR Studios, Fishlabs, Hashbane, IOI, Illfonic, Kojima Productions, Massive Work Studio, PUBG Studios, Techland, Ubisoft en Wonder People aan integratie van XeSS in hun titels. Dit jaar zal XeSS volgens Intel in een 'brede selectie' van games beschikbaar zijn.

Intel laat weinig nieuws los over zijn Arc-videokaarten in zijn CES-presentatie. De fabrikant heeft eerder al gezegd dat de Arc-gpu's vanaf het eerste kwartaal van 2022 op de markt zouden moeten komen. De fabrikant spreekt nu alleen over integratie in systemen. Wanneer losse videokaarten met Arc-gpu's verschijnen, is nog niet duidelijk.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Julian Huijbregts

Nieuwsredacteur

04-01-2022 • 19:31

43 Linkedin

Lees meer

Reacties (43)

Wijzig sortering
Even een klein detail: moeten we niet stoppen met de kreet "videokaarten" in deze context? Een videokaart is een product dat je kunt kopen en in je PC kunt stoppen. Dit artikel gaat over levering van GPUs die op zo'n videokaart (of op het moederbord) worden geplaatst.
Discrete GPU (want kan zowel NL als EN) zou wellicht een betere term zijn inderdaad.
Als je het zo noemt, dan ben je mij wel meteen kwijt hoor. Dan moet ik eerst gaan opzoeken wat een 'discrete GPU' is. Ik snap dat Tweakers schrijft voor een onderlegd publiek, maar ik weet niet hoeveel mensen de term 'discrete GPU' hebben gehoord.

Overigens: dit soort discussies kun je het beste via het forum voeren, daar krijg je antwoord op dit soort suggesties.

[Reactie gewijzigd door Risce op 5 januari 2022 09:54]

Ik snap je punt. Ik wilde alleen een mogelijk antwoord aanbieden op de vraag van Frame164.
Dat wel gezegd hebbende, wanneer je iets veel herhaald zullen mensen het ook meer onthouden en ook zelf gebruiken. Zie het als lichte indoctrinatie :P
Daar heb je ook weer helemaal gelijk in en dat is de afweging die een redactie van een specialistisch magazine natuurlijk altijd moet maken.
Discrete GPU is waarschijnlijk de beste benaming inderdaad. Alleen 'GPU' is niet onderscheidend genoeg, immers , een GPU die samen met een CPU onderdeel uitmaakt van een APU is nog steeds een GPU,

[Reactie gewijzigd door PjotterP op 4 januari 2022 20:09]

Edit - verkeerde post

[Reactie gewijzigd door Dennism op 7 januari 2022 14:31]

De arc desktop-GPU’s zouden gewoon insteekkaarten moeten worden. Het omzetten van losse chip naar kaart zullen de board partners moeten doen, net als bij AMD/nVidia (op de reference kaarten na).
Gpu's is inderdaad beter in deze context. Aangepast :) Overigens staan er ook pc's bij de voorbeelden, er kunnen dus ook daadwerkelijk videokaarten bij zitten. Ik gok erop dat het voorlopig alleen om instapmodellen gaat die alleen aan oem's geleverd worden, net zoals de DG1 van vorig jaar. Intel is echter schaars met de details, dus het is afwachten...

[Reactie gewijzigd door Xtuv op 4 januari 2022 19:55]

Klopt, aan de andere kant is het wel makkelijk om die twee termen door elkaar te gebruiken. Ik denk dat dat mede komt doordat een CPU een op zichzelf staande module is binnen de PC, maar een GPU een onderdeel is van een videokaart wat de verwarring schept.
Eindelijk, het is zover! In de markt waar maar twee fabrikanten losse GPU’s leveren (Apple GPU’s zijn niet los te koop) en waarin er al lange tijd veel meer vraag dan aanbod is, heeft Intel veel betere kansen dan pakweg twee jaar geleden om marktaandeel te winnen. Het zal de overspannen GPU-markt niet direct sterk veranderen, maar op langere termijn kan dit wel degelijk het geval zijn.

Veel van het succes van Intel zal afhangen van de kwaliteit van de GPU-drivers. Zeker in het begin zal Intel op dat gebied mijlenver achterlopen op Nvidia en AMD. Ik ben benieuwd hoe snel Intel deze achterstand zal weten te verkleinen.
Wanneer losse videokaarten met Arc-gpu's verschijnen, is nog niet duidelijk.
Nu hebben ze de igp/apu upgrades gegeven….
en gaan ze ook losse chips verkopen die “beter” moeten zijn dan de eigen igp…. maar waar ze al van zeggen dat ze aan de onderkant zijn gepositioneerd vergeleken met de concurrenten 🤔?!?


Het is dat alles schaars is momenteel en dat mensen bereid zijn wat meer te betalen als het wat beter presteert.
Mijn ervaring is dat de drivers van intel het fijnst werken. iig op Linux....
Veel van het succes van Intel zal afhangen van de kwaliteit van de GPU-drivers. Zeker in het begin zal Intel op dat gebied mijlenver achterlopen op Nvidia en AMD. Ik ben benieuwd hoe snel Intel deze achterstand zal weten te verkleinen.
Intel heeft al bijna 20 jaar ervaring met (i)GPU drivers, en op een aantal gebieden lopen ze zelfs voor op AMD en Nvidia, zoals goede Linux ondersteuning.
Sinds wanneer heeft Apple GPU's?
Al sinds Apple zijn eigen chips ontwerpt. Of je nu een Mac, MacBook, iPad of iPhone gebruikt, er zit een door Apple zelf ontwikkelde (geïntegreerde) GPU in. Alleen in de Mac Pro stopt Apple AMD Radeon GPU’s.
In Intel cpu's zitten ook al langer zelf ontwikkelde geintergreerde GPU's..... Apple heeft daar zelfs jarenlang gebruik van gemaakt....
Wel interessant dat Intel weer groot inzet op GPUs, hun werk in software was zijn tijd vaak ver vooruit. De visibility buffer is de basis van de UE5 renderer en alweer bijna 10 jaar terug door Intel gepushed (heeft niet veel toekomst meer als alles naar raytracen gaat, maar voor nu is het nog relevant).

Hopelijk zal XeSS ook AMD dwingen om iets ambitieuzer te zijn met upsamplen.

[Reactie gewijzigd door Pinkys Brain op 4 januari 2022 19:48]

Hopelijk zal XeSS ook AMD dwingen om iets ambitieuzer te zijn met upsamplen.
Ik hoop eigenlijk dat AMD en intel samen gaan werken met XeSS en daarmee het proprietary vendor-locked DLSS buiten spel zetten (of dwingen ook open source/standaard te gaan net als met physX gebeurde).

Dat zou voor de gaming markt als geheel veel beter zijn.
Hedendaagse grafische kaarten van AMD hebben geen Tensor-cores of equivalent ervan, dus dat kan helemaal niet, net zomin als dat NVIDIA DLSS kan unlocken op hun oudere kaarten die geen Tensor-cores hebben. Dan moeten AMD en Intel zelf ook deep learning-circuitry op hun GPU's gaan toevoegen.
Aan je comment te zien lijkt nvidia's marketing zijn werk goed te doen helaas.

XeSS werkt dus ook met alle GPU's die de DP4a instructie ondersteunen, inclusief de rx6000 series (en nvidia's 10 series!), dat kan dus prima, met alleen een iets hogere overhead, ondanks dat nvidia's marketing zegt dat 16bit matrix solvers (wat nvidia tensor cores noemt) nodig zijn voor AI upscaling.

Ironische genoeg heeft ook nvidia zelf al heeft aangetoond dat dat niet het geval was, aangezien DLSS 1.9 (de eerste DLSS versie die fatsoenlijke resultaten gaf) geheel op de shaders werkte. (en die dus ook prima op nvidia's oudere kaarten had kunnen werken.)

intel heeft overigens al 16bit matrix solvers en market ze als XMX cores (wat staat voor Xe Matrix Extensions)

Jammere van nvidia's en intel's aanpak is dat hun matrix solvers niet universeel aanspreekbaar zijn en er dus geen standaard kan komen voor het gebruik van matrix solvers die gaat werken op alle GPU's. Niet zonder dat, waarschijnlijk Microsoft, dat gaan afdwingen tenminste. maar nu is al duidelijk dat dat waarschijnlijk via een driver-laag moet gaan moeten omdat intel niet compatible is met nvidia, omdat ze dat niet konden zijn omdat nvidia er niks over prijs geeft.

Dat allemaal is slecht nieuws voor gamers, en gaat ons nog jaren van ellende opleveren waarschijnlijk.

[Reactie gewijzigd door Countess op 5 januari 2022 16:48]

Ik heb het niet over XeSS maar over dat DLSS Tensor-cores vergt en dus niet direct geschikt is voor grafische kaarten zonder dedicated deep learning circuitry.

DLSS 1.9 werkte op shaders, maar was ook bij lange na niet zo goed als de nieuwere versies die van dedicated deep learning architectuur gebruik maken.

Zelf heb ik een sterke voorkeur voor AMD boven Intel en NVIDIA, dus dat marketingverhaal snap ik ook niet zo.
XeSS is, net als DLSS, ook machine learning based upscaling.
En XeSS werkt op alle GPU's met de DP4a instructie, zoals AMD's rx6000

Dus wat zou er precies niet kunnen dan?

Of bedoel je het opensource gaan van DLSS? Zelfde verhaal eigenlijk. Als ze dat doen kan intel meteen een driver/variant maken die de 'tensor core' instructies omzet naar hun eigen XMX (want zoals al gezegd, beide zijn niks meer als simple matrix solvers), en kan AMD kijken hoe ver het komt met de DP4a instructie (matrix solvers doen niks anders als veel van die instructies tegelijk oplossen) en met XeSS heeft intel al laten zien dat AI upscaling daarmee mogelijk is.

Die tensor cores zijn geen magie. het zijn simple matrix solvers zoals die al decennia lang bestaan, alleen nu in een GPU. ze doen ook niks magische, alleen bepaalde instructie snel uitvoeren. met brute force kan je dat zelfde doen.

nvidia's marketing wil ons doen geloven dat de tensor cores essentieel zijn voor DLSS en dat zonder het totaal onmogelijk zou zijn om dergelijke resultaten te krijgen. XeSS toon aan dat ze, weer, staat te liegen dat ze barsten, net als dat ze vaker hebben gelogen over de hardware requirements van een nieuwe technologie van ze (Zoals met PsysX bijvoorbeeld)
dus dat marketingverhaal snap ik ook niet zo.
Omdat je de marketing van nvidia na praat. Dat het zelfs aanslaat bij mensen met een voorkeur voor AMD toont maar weer eens aan hoe krachtig die is.

[Reactie gewijzigd door Countess op 5 januari 2022 18:16]

DLSS 2.0 en verder is toch specifiek gebouwd rondom de architectuur van de Tensor-cores? Ik heb nergens gezegd dat je niet op een andere manier dezelfde resultaten kunt krijgen, stel je bouwt een ASIC die 100% gericht is op upscaling, net zoals ze in bepaalde 'slimme' HDMI-kabels hebben zitten. Of AMD dat via een niet op deep learning gebaseerde manier een in kwalitatief opzicht redelijk alternatief biedt met FSR. Maar wil dat dan zeggen dat die specifieke technologie zelf dan probleemloos te draaien valt zonder de hiervoor bedoelde hardware, en ook met praktisch nuttige resultaten? Dwz. niet net op de manier waarop raytracing op een 1080TI werkt (tegen een compleet onacceptabele performance hit)

En nee, er is niks magisch aan deep learning, maar hoe een fabrikant dat precies uitvoert en of die wel of geen gebruik maakt van een specifiek soort microarchitectuur bepaalt wel of het op apparatuur van derden wel of niet gaat werken in bestaande vorm.

Je kunt ook zonder enige onoverkomelijke bezwaren code voor de PS4 draaien op de PC via brute forcing. Dat gaat om een vrij oude en zwakke console die ook nog eens een GCN-GPU en een (meen ik?)Piledriver-CPU bevat, dwz. onderdelen die je ook in PC's kon aantreffen. Toch heb je een stevige game-PC nodig om met een emulator PS4-games met speelbare framerates te kunnen draaien.

Het is toch helemaal niet vreemd om te veronderstellen dat een specifieke softwaretechnologie die rondom en tezamen met een bepaalde microarchitectuur is ontwikkeld, zelfs als die open source was, niet echt een realistische optie is om zomaar op een ander type hardware te draaien?

[Reactie gewijzigd door Pianist1985 op 5 januari 2022 18:38]

Als DLSS open source zou zijn dan is er geen emulator nodig.
Een emulator heb je nodig als je alleen de binary blob hebt van de software die je wilt draaien.
Met de source code kan je zelf compilen en de compiler zal de instructies dan zo omzetten dat ze voor jouw hardware direct begrijpelijk zijn. (net als dat je linux broncode zelf kan compilen voor x86,AMD64, ARM, MIPS, of nu RISK-V. dat werkt ook allemaal zonder emulatie)

moet je alleen de code nog zo aanpassen dat jouw hardware juist geïnitialiseerd wordt, en de nu helaas onvermijdelijke eigenaardigheden tussen jouw hardware en die van nvidia wegwerken.

Daarbij is het belangrijkste deel van DLSS is het ML model. die zijn over het algemeen niet gebonden aan een specifieke hardware implementatie. Dat model, als dat op een beetje gangbare manier is gemaakt, is op bijna alle hardware uit te voeren met als enige verschil de uitvoer snelheid. En aangezien de tensor cores origineel juist zijn gemaakte om gangbare ML modellen snel uit te voeren zou het me heel erg verbazen als het model van DLSS ineens radicaal anders zou zijn.

Alle gangbare (consumenten) AI hardware ondersteund tenslotte de zelfde FP16/8/4 en bfloat16 datatypes, en ze voeren allemaal de zelfde, relatief simple, berekeningen uit.

[Reactie gewijzigd door Countess op 6 januari 2022 01:55]

groot inzetten is veel gezegd voor een product waarvan amper details gedeeld worden en enkel aan OEM's zal worden geleverd in de voorziene toekomst. Ja ze hebben serieus wat human capital aangetrokken, maar echt grote investeringen heb ik er nog niet over gehoord (naar Intel normen).
De technologie wordt ook in Ponte Vecchio gebruikt voor supercomputers. Intel heeft gigantische investeringen in deze nieuwe GPUs gedaan. Dat moet ook wel als ze niet de hele supercomputer markt aan AMD en nVidia over willen laten.
Het jeukt toch altijd wel een beetje wanneer een producent (Intel in dit geval) geen benchmarks durft te laten zien. Loze kreten als "even goed als" is vreemd. Uiteraard zullen de benchmarks zelf ook een beetje opgeblazen zijn (zoals we ook hebben gezien bij AMD en Nvidia vaak zat), maar mensen willen vergelijkingsmateriaal zien. Niet zozeer om "het beste" te kopen, maar wel om te kijken waar de sweetspot qua prijskaartje zou moeten liggen.
Maar mensen willen vergelijkingsmateriaal zien.
Ik ben een mens :p wil inderdaad vergelijkingsmateriaal zien maar liever wil van producten die ik gisteren kan kopen :p

Natuurlijk is het altijd leuk om zien wat er in theorie kan maar ik heb me er flink aan geïrriteerd dat het internet vol stond met benchmarks van AMD nuc killers maar geen enkele winkel iets had (zelfs geen producten die niet op voorraad waren).
Als Intel hier goed scoort, heeft mijn wachten mij echt wel beloond.
Momenteel nog een GTX 980 in mijn systeem. Is al zo oud dat ik bang ben dat het binnenkort zal stoppen met werken. Schiet op Intel!
Laat deze SR-IOV ondersteunen, dat zou echt tof zijn.
Dat je de fysieke kaart kunt opdelen in meerdere logische kaarten. Mocht je een VM draaien dan kun je daar een logische GPU aan koppelen (wat een subset is van je fysieke kaart).
https://blog.scottlowe.org/2009/12/02/what-is-sr-iov/

The short answer is that SR-IOV is a specification that allows a PCIe device to appear to be multiple separate physical PCIe devices.
Minieme kans. Welke markt bedient Intel daarmee? Hoeveel extra omzet levert het op, en hoeveel werk staat daar tegenover? Dit zijn al geen GPU's die de strijd aan kunnen met een 3090, ga maar na wat er overblijft als je de performance nog moet opdelen over meerdere VM's. En ze hebben ook al geen CUDA ondersteuning, dus GPGPU werk is ook al marginaal.
Ze ondersteunen nu ook al een vorm van SR-IOV op hun IGPUs dus zoveel extra werk zal het niet zijn voor ze. Als dit een redelijke kaart is die bij een 3060 oid in de buurt komt dan zou ik direct een kopen als het SR-IOV ondersteunt. Zo zijn er nog wel een paar denk ik.
Intel loopt misschien een half jaar achter met ARC productpositionering. Nu Nvidia met de Ti's komt en AMD niet stil zit met mobile gpu's.
Ti`s zijn er al een bijna jaar :-) heb een 3080ti Al 5 maanden
Ik heb bedenkingen bij Intel - zeker hun moederborden indertijd kregen niet lang genoeg ondersteuning.
Snap ik wel. Wel een handige zet denk ik, kunnen ze beter kijken hoe de GPU's in het wild presteren enzo, zonder dat de mining markt gelijk de hele stock wegkaapt.
Ik hoop dat de high end gpu van Intel daadwerkelijk rond de 3070 zit en niet rond de 3060(ti) zoals wel vaker gebeurd kugh kugh 6700xt

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee