Intel bevestigt release Arc Battlemage-videokaarten in 2024

Intel heeft bevestigd dat de volgende generatie Arc-videokaarten volgend jaar uitkomt. Het bedrijf toonde tijdens een evenement in Japan een roadmap waarop dat releasejaar wordt genoemd. Er zijn nog geen specificaties bekend.

Intel bevestigde de komst van de Battlemage-gpu's in 2024 tijdens een Japans evenement rondom de release van zijn Meteor Lake-cpu's, schrijven ook Japanse website 4Gamer en techwebsite Wccftech. Intel brengt zijn volgende Arc-gpu's uit onder de codenaam Battlemage. Deze worden gebaseerd op een nieuwe Xe2-architectuur, zo werd eerder al bekendgemaakt.

Wanneer de videokaarten precies uitkomen, is nog niet bekend. Een eerder uitgelekte roadmap stelde dat Intel zijn eerste Battlemage-gpu's in het tweede kwartaal van 2024 wil uitbrengen, maar dat is nog niet officieel bevestigd.

Battlemage wordt de tweede generatie in Intels Arc-serie van losse videokaarten. Deze volgen de Alchemist-serie op, die vorig jaar uitkwam. Intels eerste Arc-videokaarten hadden te maken met een moeizame release, met meermalig uitstel, driverproblemen en matige prestaties, vooral bij oudere grafische api's als DirectX 9 en 11. Intel noemde eerder Battlemage al als opvolger van Alchemist, die op zijn beurt zal worden opgevolgd door Celestial en Druid.

Intel-roadmap Battlemage 2024
Intels roadmap, die de release van Battlemage in 2024 bevestigt. Bron: Intel/4Gamer

Door Daan van Monsjou

Nieuwsredacteur

20-12-2023 • 11:20

63

Lees meer

Reacties (63)

63
63
25
0
0
33
Wijzig sortering
Wat zou het toch fantastisch zijn als we straks 3 volwaardige gpu boeren hebben en de consument kan profiteren van de onderlinge concurentiestrijd. Ik ben heel benieuwd naar de prestaties en het prijspunt waarop ze de kaarten introduceren. RTX4080 prestaties voor een 4060 prijs misschien?
Volgens mij is de hele reden van hun huidige prijspunt dat de prestaties er ook gewoon niet zijn. Ze moeten wel met iets echt goeds komen, een heel forse stap vooruit, om in het 4080-segment (of equivalent) te kunnen concurreren. Dat is al minimaal twee stappen hoger dan waar ze nu zitten. Maar ook daar heeft het weinig zin om heel ver onder de prijs van de concurrentie te gaan zitten. Het kan een prijzenoorlog uitlokken maar ik weet niet hoe goed dat is voor Intel zelf, ook al heeft het bedrijf behoorlijk veel geld, volgens mij maakt die afdeling nog lang geen winst.

[Reactie gewijzigd door DataGhost op 22 juli 2024 18:48]

Vraag is echter of ze in dat segment moeten komen te zitten. Het zou natuurlijk mooi zijn, maar ik vermoed dat er voor Intel meer te halen is in het OEM segment en dan vooral het laag tot middensegment dGPU. Ik vermoed immers dat juist de kopers in het hogere en halo segment een stuk honkvaster zullen zijn dan de groep consumenten die een 'game' PC koopt bij de Mediamarkt, Cooblue of andere kant en klaar shop.

Die paar kaarten die Intel los zal verkopen zetten verwacht ik nog geen zoden aan de dijk.
Ik denk dat de gemiddelde gamer voornamelijk naar prestaties en prijs kijkt, en zo is overgestapt als Intel daar een goede mix in biedt. Intel heeft al laten zien de drivers goed te ontwikkelen en hebben sowieso een reputatie die ze hoog moeten houden.

De overstap van Intel cpu naar AMD was ook vrij vlot gemaakt tot Ryzen zo sterk bleek. Ik juich een derde videokaartproducent zeker aan. En ze zullen ook vast in het hoogste segment willen eindigen, al is het maar om te kunnen zeggen dat ze de snelste videokaart hebben. Maar dat zal nog wel een paar generaties duren, maar je weet het nooit, één goede vinding en patent oid en je kan zomaar een flinke inhaalslag maken.
Zo snel gaat dat anders niet met Ryzen, AMD's marketaandeel voor Ryzen is bijvoorbeeld na jaren van Intel verslaan op diverse metrics en sinds de X3D Sku's ook de performance crown in games nog altijd 'maar' 19.2% in Q3 2023. 'Maar' tussen quotes omdat gezien waar AMD vandaan kwam toen ze in 2017 Ryzen begonnen te leveren dat natuurlijk al een enorme prestatie is.

Neemt echter niet weg dat buiten DiY, waar AMD het goed doet (lees de Tweakers onder ons), over het algemeen Intel nog steeds heerst in de consumenten / client PC markt.

En zo zal het met Intel GPU's ook gaan in DiY wereld, Intel zal zich eerst moeten bewijzen voordat ze echt kunnen gaan zagen aan de stoelpoten van Nvidia en in mindere mate AMD in de dGPU markt. Maar als ze eenmaal conpetitief zijn kan het in DiY snel gaan inderdaad. Echter heeft Intel een voordeel dat ze nog altijd heel sterk zijn in het OEM segment, en daar dus ook veel sneller hun GPU's aan de man moeten kunnen brengen.
Intel heeft nu eenmaal de reputatie van solide speler, terwijl AMD nog steeds een reputatie heeft als soms kwakkelende speler. Vooral de grote spelers op de markt zijn gevoelig voor dit soort zaken. Dan hebben ze liever een solide, maar misschien minder presterende oplossing dan de oplossing met de meeste performance maar soms rare issues

Intel speelt hier natuurlijk graag op in en zal achter de schermen ook vooral proberen om de reputatie van AMD onder de grond te schoffelen.
Als je servers en supercomputer bouwt dan is de vertrouwen er wel. Men moet alleen de complete softwarestck en validatie omgooien logistiek en dat is barrierre. Ook goede braag aanbod. En AMD heeft niet samen met tsmc voldoende capaciteit om groot markt deel in te nemen.
I think it will be years before they can challenge nVidia's top end cards. Right now they will be squarely aiming themselves at AMD's mid-range - up to 7700xt/7800xt type performance.

If you are buying nVidia at the 500 EUR and under pricepoint, you are loyal to nVidia. Intel are new, so are going to have to discount hard to enter the market. If they get it right, I think AMD will feel the pain first. Then they can set their sights on a high end card that will challenge the 4080/7900XTX bracket.
Might be a factor in AMD's decision to drop their top-end card(s) to focus on the rest of the range, next gen.
Helemaal eens met je bericht. Echter helpt het natuurlijk wel marketing technisch gezien als je de snelste/beste kaart hebt voor je naam. Ook al is dat dan een vlaggenschip voor een niche. Eenmaal de snelste verkoopt hetgeen wat eronder zit ook beter.

Maar zoals je al aangeeft zitten waarschijnlijk de grote getallen in de kant en klare pc's voor particulieren en bedrijven ipv de losse verkoop aan de hardcore gamer.
Marketing technisch zal dat inderdaad kunnen helpen, echter moet je dan wel de kroon pakken. Lukt je dat niet, en ben je de langzaamste van de flagships van alle 3 fabrikanten, achter ik het mogelijk beter om geen flagship te hebben dan altijd laatste te staan.

Kijk bijvoorbeeld naar AMD, iedere keer dat die een flagship lanceren en ze pakken niet de ultieme performance kroon zijn ook vaak de commentaren niets eensgezind positief.
Bij RDNA3 hebben ze het gewoon niet geprobeerd, een 4090 overstijgen is op dit moment zinloos (op raster, rtx is een ander punt) want de performance van een 4090 overstijgt vele noden, zelfs een 4070 draait alle AAA soepel genoeg.
Waar ze wel heel hard op inspeelden was een sub-1000 dollar flagship die niet spontaan in brand vloog.

En wat die retailers betreft, nvidia kaarten werken gewoon goed, daar heb je weinig support voor aan te bieden. Arc daarentegen is nog te veel voor tinkerers die niet persé de dag na een AAA release willen spelen. De drivers zijn al een pak beter, maar bij Starfield heeft het lang geduurd eer het speelbaar was en mensen gaan dan klagen bij Mediamarkt en zeggen dan tegen iedereen dat pc's van het merk X slecht zijn. Risico's die bedrijven niet graag nemen.

[Reactie gewijzigd door Hardfreak op 22 juli 2024 18:48]

Bij RDNA3 hebben ze het gewoon niet geprobeerd, een 4090 overstijgen is op dit moment zinloos (op raster, rtx is een ander punt) want de performance van een 4090 overstijgt vele noden, zelfs een 4070 draait alle AAA soepel genoeg.
Waar ze wel heel hard op inspeelden was een sub-1000 dollar flagship die niet spontaan in brand vloog.
Veel geruchten wijzen erop dat AMD het wel degelijk geprobeerd heeft en de 4090 had willen verslaan (in ieder geval flink in raster accross the board), maar dat ze dit niet gelukt (o.a. omdat bepaalde functionaliteit in hun chips die +-30% performance zou moeten brengen in raster helaas niets lijkt te doen) is en die $999 simpelweg een marketing cop out is geweest om minder gezichtsverlies te leiden. Wat slechts deels gelukt is, want nog altijd zie artikelen en commentaren in de community waar niet positief gekeken wordt naar AMD 7900 serie chips (die eigenlijk gewoon 7800 serie chips hadden moeten zijn als je kijkt naar de performance die behaald is).
En wat die retailers betreft, nvidia kaarten werken gewoon goed, daar heb je weinig support voor aan te bieden. Arc daarentegen is nog te veel voor tinkerers die niet persé de dag na een AAA release willen spelen. De drivers zijn al een pak beter, maar bij Starfield heeft het lang geduurd eer het speelbaar was en mensen gaan dan klagen bij Mediamarkt en zeggen dan tegen iedereen dat pc's van het merk X slecht zijn. Risico's die bedrijven niet graag nemen.
De retailer zal misschien wat vragen krijgen, maar vergis je niet in de kortingen die de fabrikanten (HP, Dell, Asus, MSI e.d. binnenhalen via Intel met de volumes die ze draaien, als de kortingen op die GPU's groot genoeg zijn komt die markt vanzelf, of de retailer nu wat vragen krijgt of niet bij een bepaalde spel release. Helemaal omdat Intel dan cpu en gpu kan bundelen, wat weer voor extra kortingen zal zorgen.

[Reactie gewijzigd door Dennism op 22 juli 2024 18:48]

Ik denk dat ze het wel geprobeerd hebben, anders zou de 7900XTX niet de 7900XTX geheten hebben, ik denk echter dat ze volstrekt overrompeld waren door de brute performance van de RTX 4090.

Marketing technisch hebben ze dat vervolgens proberen om te buigen door te roepen dat ze met de RTX 4080 wilden concurreren (na intern berekent te hebben wat de performance daarvan zou zijn gebaseerd op de data van de 4090 en de specs van de 4080) om maar vooral niet voor schut te staan.
Nivia beleid is ook gaan voor super grote chip om de kans op de kroon te vergroten.
Deze presige imago aanpak is erg duur. Bin yield is slecht voor zeer grote chips.
ATI in hun tijd gingen erin mee ook big chips. Onder AMD had ivm slechte cpu tak productie efficentie voorrang dus niet al te grote chips en heb je betaalbare sup top.
AMD staat ook niet te springen om TSMC allocatie voor laag renedemnt big chip gpu te doen. Zonde voor ande chip sku.
Nvidia heeft nog steed grote core business gpu chips en doet er wat arm bij.
Intel en AMD is cpu toch meer hun core business.
Is er überhaupt nog een markt voor budget video kaarten?
De gpu die vaak al standaard in de cpu zit is krachtig genoeg voor standaard huis tuin en keuken gebruik. Uit ervaring weet ik dat een 5 jaar oude cpu veel games nog speelbaar zijn, al dan niet op lage settings.
Volgens mij is de hele reden van hun huidige prijspunt dat de prestaties er ook gewoon niet zijn.
Ook gewoon de kwaliteit. Er wordt vaak direct naar prestaties gekeken omdat de randzaken bij AMD en NVidia wel redelijk goed zitten. Ja, er zijn soms subtiele verschillen in details maar dat is voor 95% van de kopers niet relevant.

Bij Intel Arc zaten er gewoon veel ruwe randjes aan. Nog niet werkende features en matige driver-support speelden vooral aan het begin, hopelijk is dat inmiddels beter. Maar dan heb je bijvoorbeeld ook het hoge energieverbruik in vergelijking met de concurrentie, en de inferieure kwaliteit van XeSS vergeleken met de concurrentie.

Intel Arc voelde voor veel consumenten toch nog wat te experimenteel aan. Hopelijk kan deze volgende generatie hierin wat stappen zetten.
XeSS in alle vormen> FSR. Hardware unboxed heeft er gisteren nog een video over gemaakt.

En AMD heeft ook nog altijd idle verbruik problemen met de 7000 series in bepaalde situaties.
Klopt. Alleen heeft Intel problemen met idle-verbruik in alle situaties, behalve als je een gore hack in je BIOS toepast waarbij je weer kans loopt op andere problemen. En dat gaan ze voor Arc ook niet meer fixen. Lijkt echt een hardware-dingetje te zijn.
Klopt, zou ook al meerdere malen opgelost moeten zijn, maar blijkt toch telkens niet het geval.
Ik zat even te zoeken en zag dat het mogelijk is de idle terug te brengen tot 0 watt. Best interessant maar idd een hoop gedoe en multi monitor is dan niet mogelijk.
Dit lijkt echter niet te werken met de combinatie AMD 7000+ Intel Arc gpu.

Je kan ook via ASPM het terug brengen naar 12 watt wat ongeveer gelijk is aan de 30/40 series. Deze bios functie staat standaard uit maar het lijkt een beetje hit en mis of je bord die support heeft in de bios.

Het is duidelijk hoog tijd dat alle fabrikanten beter gaan samenwerken... Er is in software een hoop te winnen.

225 watt load voor de gegeven performance blijft een watt of 50 te hoog helaas. Maar geen diee wat hier te winnen is met een undervolt/underclock. Mijn 6900XT heeft extreme power savings met een lichte underclock.
Het is duidelijk hoog tijd dat alle fabrikanten beter gaan samenwerken... Er is in software een hoop te winnen.
Mwah, AMD en NVidia lukt het wel om gewoon een laag idle-verbruik te krijgen. De features van moederborden die Intel gebruikt lijken een beetje een hack om toch een antwoord te hebben voor diegenen die idle-verbruik belangrijk vinden maar dat is niet waar het in de toekomst heen zou moeten gaan.
Als intel rond de 4060 - 4070 kan komen met een lagere prijs dan zou dit pas goed zijn. Dat is waar de meeste kaarten verkocht worden. Er zij nu eenmaal niet zoveel mensen die even 1.2k (kunnen) neerleggen voor een videokaart. Maar een pak meer die maar de helft willen uitgeven (of kunnen). Als jij kan kiezen tussen rode of groene kaart of dan een blauwe die mooie prestaties heeft aan een pak minder ? Dan gaan er toch mensen de sprong wagen. Kijk ik heb altijd intel cpu's gehad. In 2020 een 3070x gekocht en werkt gewoon goed. Ik heb een 4k scherm, maar in de nieuwe pc moet een videokaart komen. Gamen is "bijzaak". Ik heb gewoon weinig tijd om te spelen, dus een 4080 is gewoon overkill. Ben nu aan het wachten op die 4070 ti super. Ik kan gerust een 4090 kopen, is toch de zaak die betaald, dus who cares, maar vind dit gewoon weggesmeten geld en stroom. Ik hoef ook geen 100fps en ultra max settings, gewoon normale settings en 60fps is meer dan goed genoeg. En dat dit met DLSS is, is even goed voor mij. Een 4080 zou ik nog overwegen. Maar ik kocht vroeger altijd de xx60 reeks, gewoon omdat dit voor mij doen goed genoeg was. Maar een intel kaart zou ik serieus overwegen. Uiteraard kan ik blijven wachten, maar de onderdelen van de nieuwe pc buiten de videokaart liggen hier al een week of 2 stof te happen. Kan gerust nog wel een maand wachten. Maar begin Februari ga ik die nieuwe pc beginnen te gebruiken. Maar als intel er in slaagt in het midden segment zelfde prestaties neer te zetten voor een mindere prijs, dan hebben ze een winner volgens mij
Ze kunnen op een ander vlak concurreren door bijvoorbeeld een grote hoeveelheid VRAM aan te bieden voor AI.
In de basis is de architectuur schaalbaar een snellere kaart is dus zeker niet onmogelijk. Echter voor de eerste launch zou Intel daar weinig mee winnen. Het lijkt er sterk op dat de strategie is om een beperkte uitrol te doen zodat ze de feedback en fouten kunnen meenemen. Je ziet dat de drivers momenteel enorme sprongen maken. Wanneer dat stabiliseert verwacht ik dat Intel een volledige line-up zal uitrollen.
Er is voor Intel vanuit commercieel oogpunt toch geen enkele reden om 4080 prestaties te verkopen voor 500 euro, als vergelijkbare performance bij de concurrent tegen de 1000 euro kost? Dan gaan ze er 100-200 euro onder zitten en hebben ze nog steeds by far de beste prijs/prestaties en maken ze veel meer winst.
Ze hebben eerst veel meer aan een goede verkoop van hun nieuwe product, dus dan denk ik dat je beter flink kan concurreren en niet belachelijk veel winst maken. Dat komt daarna wel weer. Dat is althans wel wat ik hoop want de hele gfx business is gewoon overpriced.
Zoals met veel producten, zijn de prijsverhogingen op het moment vaak wel gerechtvaardigd, chip tekorten, corona, inflatie noem maar op. Maar op het moment dat die excuses niet meer op gaan, gaan die prijzen niet terug omlaag. Men is "gewend" geraakt aan deze prijzen, en aangezien de concurrentie toch nihil is (of op dezelfde prijzen blijft plakken) is er geen reden die prijzen terug te brengen naar een eerlijke winstmarge.

Zou best tof zijn als intel met een goedkopere 4080-killer komt, het is niet zo moelijk om daar verder onder prijs van te gaan zitten en toch een redelijke marge te houden. Zou voor intel best een sterke zet kunnen zijn om een flink wat marktaandeel te pakken.

Sure, er is best wat fanboyism, zeker bij het high-end spul, mensen zweren bij hun merken en stappen niet zo maar over. Maar dat wordt een stuk makkelijker als het gewoon een kwart/helft aan prijs scheelt. En doen hoeft het niet eens een perfecte 4080-killer te zijn. Er valt gewoon heel veel te halen op prijs alleen.
Gelukkig zijn de prijzen wel omlaag gegaan. De RTX 3060 is wel €600 geweest. De 4060 is met ~325 een stuk bescheidener.
Dat is als je uitgaat van een gelijk speelveld. Als Intel voor vergelijkbare prestaties maar een beetje goedkoper is, kiest een geïnformeerde klant toch liever een product van een gevestigde naam waar de kans op kinderziektes een stuk kleiner is.

Intel zal nog wel wat harten moeten winnen voordat mensen bereid zijn ze als volwaardig alternatief te beschouwen. En hoeveel andere middelen zijn er dan voor Intel behalve een heel agressieve prijsstelling?
Toch zijn ze met Arc Alchemist behoorlijk onder de prijs gaan zitten.
Dat heet markt aandeel proberen te kopen. Nu verlies nemen en een stuk marktaandeel kopen en jezelf een reputatie als goedkope aanbieder geven en later als je een wat breder marktaandeel hebt vervolgens de prijzen omhoog brengen om de winst te maken.

AMD deed iets soortgelijks met Ryzen. Eerste generatie goedkoop aanbieden om marktaandeel te scoren en zodra de volgende generaties populairder werden, de prijzen omhoog zetten.

Dus ik vermoedt dat de prijzen van de Battlemage kaarten niet zo scherp zullen zijn als die van Alchemist. Dat soort verliezen kun je niet blijven nemen als je als bedrijf wil blijven voortbestaan.
Op de lange termijn kan marktaandeel vergroten, ondanks op korte termijn lagere winsten, zeer verstandig zijn.

Als je kopers super blij zijn met je produkt zijn, is de kans groot dat ze volgende keer weer jouw produkt kopen,dan misschien met een mooie marge. Daarnaast ontneem je de concurrentie omzet, wat hun mogelijkheden beperkt. En grotere aantallen hebben vaak relatief lagere kosten. Al is het maar omdat je research kosten over meer producten kan uitsmeren.
Hopelijk weten ze iets aan het idle-verbruik te doen, dat is voor mij nog het grootste struikelpunt. Wat softwareondersteuning & drivers betreft heeft Intel laten zien dat ze capabel genoeg zijn om concurrerend te zijn (zie bijvoorbeeld XeSS 1.2).
Een tijdje terug kwam ik wat speculatie tegen dat Intel zich bij de ontwikkeling van de huidige generatie kaarten richtte op betere prestaties, maar dat dit simpelweg niet gelukt is. Met als resultaat dat je kaarten hebt die een stroomverbruik hebben die overeenkomt met een hogere prijsklasse, maar niet de prestaties.
Dat verklaart de matige efficiëntie onder load, maar idle-verbruik is gewoon iets wat goed te krijgen moet zijn, als je daar voldoende moeite in steekt. Terugklokken en delen uitschakelen is in theorie altijd mogelijk, het kan alleen flink wat prutsen zijn om dat betrouwbaar te laten werken.

Het zal gewoon niet hoog genoeg op het prioriteitenlijstje gestaan hebben.
Gezien de noodzaak van ResizableBAR voor goede prestaties, waarvan vermoedt wordt dat het nodig is vanwege een bug in het design van Alchemist, kan het best zijn dat ook het hoge verbruik in idle veroorzaakt wordt door een bug in het design. Als Intel hier pas achter kwam nadat ze een grote hoeveelheid Alchemist GPU chips hadden laten produceren, dan was de enige keuze gebruiken of een nieuwe batch GPU chips laten bakken.

Ik vermoedt dat door de vertraagde ontwikkeling dit laatste niet gezien werd als een haalbare kaart (zo de launch van Alchemist weer met maanden naar achter geschoven hebben en weer een flinke zak geld gekost hebben) en men dus de Alchemist gelanceerd heeft met deze bugs aan boord.

Waarschijnlijk was de gedachte dat ze dit in Battlemage zouden oplossen.
Qua performance per watt kan de arc 770 onder load zich meten met de RX6000 serie en de RTX 20/30 series (zie https://www.techpowerup.c...md-radeon-rx-7600/39.html) wat op zich niet slecht is, de kaarten zijn enkel een á twee jaar te laat uitgebracht. Qua features zijn de kaarten competitiever, o.a. door een goede AV1 encoder, XeSS dat on par begint te komen, oneAPI ondersteuning voor compute, drivers die sprongen vooruit hebben gemaakt.
Ik mag toch hopen dat er iets ambitieuzere doelen worden gesteld. De casus die jij noemt (xx80 prestaties voor een xx60 prijs), was tot 2020 ongeveer namelijk gewoon de realiteit, en toen hadden we ook alleen AMD en Nvidia. Daarna pas gingen we down the shitter met crypto en covid.

Bijvoorbeeld de GTX 260 die sneller was dan de vorige 9800GTX+/8800 Ultra. Opeens 900+ dollar prestaties voor 400 dollar.

Of de 1060 die de GTX980 versloeg.
RTX4080 prestaties voor een 4060 prijs misschien?
Wishfulthinking much? Een A770 kon al geen 3060Ti bijbenen qua prestaties en verbruikte ook nog eens meer dan een 3060Ti... Voor een dergelijke prijs haal je al een 4060 tegenwoordig. En nu 4080 prestaties verwachten?
Sinterklaas is al voorbij, kerstman komt nog. Heeft Intel ooit goedkoop geweest? NEE

INtel maakt gigantisch veel verlies op de GPU business, als ze nu ineens een vergelijkbaar product kwa performantie op de markt kunnen zetten gaan ze zeker niet extreem onder de concurrentie gaan al zeker niet als ze het niet zelf in eigen fabs produceren....

[Reactie gewijzigd door d3x op 22 juli 2024 18:48]

Nog afgezien van hoe realistisch het is om van een nieuwe speler te verwachten in het top-segment te kunnen doen, zou het fijn zijn als ze zich op de consumenten segmenten focussen: xx60 en xx70.

Ik snap dat het Tweakers is hier en 'de dikste en de snelste' natuurlijk interessant is, maar alle focus op xx80 en xx90 kaarten, het begint steeds meer op Reddit te lijken waar op je neergekeken wordt als je gewoon een normaal budget aan een normale kaart uitgeeft.
Ik ook maar AMD heeft concurrentie op de high-end GPU al opgezegd, Nvidia zal dus gaan domineren op kaarten zoals 5070 en hoger omdat er geen alternatief beschikbaar zal zijn in volgende generaties.
Zou heel mooi zijn ja, maar er moeten dan 3 dingen gebeuren:

1. Intel moet meer op performance inzetten en stoppen met geloven in budget-performance voor midrange-prijzen. Ze kunnen het, ze hebben de mankracht en know-how. Nu nog daadwerkelijk doen.
2. Game devs moeten stoppen met exclusivity deals met GPU-boeren. Zo had (of heeft?) Starfield alleen FidelityFX, maar DLSS ontbrak. Andere games hebben het andersom. Zelfde verhaal met G-Sync vs FreeSync support.
3. Ze zullen OEM-leveranciers moeten overtuigen van betere praktijken, want die kiezen nu gewoon wat het snelste verkoopt, en dat is meestal de goedkoopste videokaart die "4K" of een andere populaire feature kan.

Gelukkig werken we met een vrije markt waarin deze zaken mogelijk zijn. Helaas is diezelfde markt zó geldgedreven dat deze zaken altijd op losse schroeven staan.
Het lijkt mij niet helemaal realistisch om te denken aan RTX4080 prestaties, laat staan voor een absurd lage prijs. Ten eerste is zeer lastig om Nvidia naar de kroon te steken, dat lukt AMD(ATI) ook niet, terwijl ATI langer bestaat dan Nvidia. Ten tweede gooit AMD, net als alle andere fabrikanten die een topproduct hebben, haar prijzen voor CPU's en GPU's omhoog zodra ze concurrerend zijn. De tijden dat AMD budgetproducten verkocht, die flink op te voeren waren door ons tweakers, ligt lang achter ons. Wij betalen een behoorlijk bedrag voor de AMD Zen architectuur, en terecht.

Daarnaast mag je wat duidelijker zijn wat voor prestaties je bedoelt, want ik verwacht dat jij prestaties in gaming bedoelt, terwijl Intel zich vermoedelijke vooral op deze markt heeft gestort voor de ontluikende AI markt. Ik denk verder dat het grote geld in AI, GPUs voor consoles en mainstream gaming zit en niet in high-end videokaarten specifiek voor gaming bedoelt.

Dat gezegd hebbende, concurrentie is geweldig; hoe meer, hoe beter. Ik vond de eerste generatie heel indrukwekkend qua prestaties voor een 'newbie', en ik kijk uit naar wat Intel in petto heeft voor de volgende generatie.

Overigens is Intel natuurlijk niet helemaal een newbie, Intels integrated GPU's waren al best aardig en werden steeds beter, maar Nvidia en AMD GPUs acteerden op een ander niveau.

[Reactie gewijzigd door ABD op 22 juli 2024 18:48]

Als deze kaarten vergelijkbaar presteren met Nvidia en AMD, dan zullen de prijzen ook vergelijkbaar zijn. Het blijft wel Intel.
Nvidia en AMD hoeven sowieso niet op prijs te concurreren, want zij pakken liever de marge uit de AI-markt. Kortom, echt goedkoop worden goede videokaarten voorlopig niet. Zelfs niet met een extra concurrent.
Ik kan heel weinig informatie vinden over Intel Arc en de mogelijkheden voor compute. Het lijkt heel erg gefocust op gaming. Ik hoop zeker voor ze dat ze echte competitie kunnen vormen tegen Nvidia en AMD, maar opzich zou compute een mooi meepakkertje zijn.

Nvidia heeft Cuda al sinds altijd op hun consumentenkaarten geplaatst, wat nu voor ze uitpakt omdat elke developer Nvidia gebruikt. AMD verpest eigenlijk elke stap die ze nemen met ROCm (hun Cuda competitie), van het initieel beperken van ROCm tot enkel datacenter/workstation kaarten, naar nu met slechte support voor eigenlijk alles.

En als je even rondneuzelt op Intel's website kom je er al snel achter dat qua GPU's voor AI ze eigenlijk maar 2 echte producten hebben om aan te bieden, de Intel Max 1550 en Max 1100, met 128GB en 48GB VRAM respectievelijk. Dus voordat je met het argument komt dat ze geen compute doen op Arc omdat ze anders competitie zijn voor zichzelf, dat is onzin, want die datacenter kaarten zijn ver buiten bereik van de dingen die consumentenkaarten kunnen (24GB is het hoogste VRAM dat je kan krijgen op een kaart voor wij gewone stervelingen: RTX 3090/4090 en RX 7900 XTX).

Intel MOET gaan concurreren als compute aanbieder, en niet dezelfde fout maken als AMD. Met gaming alleen gaat het je niet lukken.

Oh en ja, ik zie de OpenCL ondersteuning, maar moet je even eerlijk met jezelf zijn... Is OpenCL niet kinda aan het sterven?
AMD heeft nu met hun data center GPUs een aardige concurrent op de markt weten te zetten die Nvidia verslaat op AI-gebied (ook bij vergelijkingen met een geoptimaliseerde tech stack). De meeste mensen en bedrijven houden het nu bij Nvidia vanwege CUDA, maar als de datacenters straks vol hangen met AMD GPUs weet ik niet of dat zo blijft. ROCm wordt ook steeds beter, dus CUDA begint steeds minder een argument te worden om Nvidia te nemen. Ik hoop dat AMD de druk blijft opvoeren, want dit kan met als Ryzen de markt flink overhoop gooien.

Intel kennende gok ik dat ze qua compute niet heel veel moeite zullen steken in hun consumentenkaarten. Ze zijn nogal van het "geef de consument wat ze nodig hebben, maar niks meer", en deze kaarten zijn duidelijk gemaakt voor games. Ik denk wel dat een AI-kaart gebaseerd op Battlemage de logische volgende stap is, maar daar zullen ze toch wel professionelere namen voor gebruiken, die niet per ongeluk expres worden gelekt naar de pers.

Ik zie Intel ook in staat om het hele GPGPU-gedoe te negeren en AI accelerators te maken die daar expliciet voor bedoeld zijn. Dat soort technologie kan worden gebruikt in datacenters maar bijvoorbeeld ook als een manier om de strijd aan te gaan met Apple's MLX en Google's Tensor.
Intel heeft oneAPI / SYCL (https://www.intel.com/con...ning/sycl-essentials.html) als antwoord op CUDA, waar ik meer vertrouwen in zou hebben (persoonlijk) dan in ROCm.
Voor een eerste stap op de markt heeft Intel het niet slecht gedaan, natuurlijk is het een moeizame release als je nieuw op de markt komt met een product dat niet significant beter is dan de concurrentie, maar dat is lastig in deze markt.

Als ze één keer een GPU uitbrengen in de 'sweet spot' (RTX4050/4060 of AMD equivalent) die gelijk of beter presteert dan de gevestigde orde voor een lagere prijs, dan zijn ze een heel eind.
De A770/16GB kan heel goed meekomen met de RTX4050/4060 reeks, helaas dat ze geen refresh nog dit jaar daarvan hebben uitgebracht waarbij de kinderziektes in de hardware opgelost zijn. Hun drivers hebben gigantische stappen gemaakt sinds de introductie, en blijven ook elke keer weer verbeteren.
moeizame release
Alles is relatief, een compleet nieuw product mag je van verwachten dat er wat problemen zijn toch? In mijn herinnering was het juist een product dat verbazingwekkend goed mee kon komen voor een eerste versie?

Ik wens ze in ieder geval succes, zou het erg fijn vinden als ik over 2 of 3 jaar uit drie merken kan kiezen in het midden segment.
Een stoere naam, nu nog de bijbehorende stoere performance... :+
Denk dat ze het redelijk goed deden voor hun eerste release. Helaas is het gewoon enorm moeilijk om op gelijkwaardig niveau te concurreren met Nvidia en AMD die al jaren aan driver support hebben opgebouwd. Dat zal gewoon een aantal generaties duren voordat het uit de kinderschoenen is.
Helaas is het gewoon enorm moeilijk om op gelijkwaardig niveau te concurreren met Nvidia en AMD die al jaren aan driver support hebben opgebouwd.
Dat is inderdaad ervaring die moet worden opgebouwd. Bij AMD hebben drivers van een nieuwe generatie vaak ook issues en duurt het een paar maanden voordat deze echt laten zien wat de kaarten kunnen.

Hoewel de prestaties van de Intel kaarten bij introductie op veel vlakken ook echt dramatisch waren, is er daarna al een hoop verbeterd in de drivers.

Dus als het Intel lukt om die verbeteringen en lessons learned van de eerste generatie (gedeeltelijk) mee te nemen naar de nieuwe generatie starten ze al beter.
Ik denk dat ze toch nog aardige fouten gemaakt hebben. Hun pogingen om hun schedulerprobleem in drivers op te lossen en hun gebrekkige performance in DX11/DX9 zijn toch weer dingen die hun reputatie flink hebben beschadigd.

Hopelijk hebben ze hun hardware kunnen repareren voor Battlemage, zodat hun drivers minder trucerij nodig heeft om performance te behouden. GPU-land kan wel een derde partij gebruiken.
Die kinderziektes waren te verwachten, daarom waren die kaarten ook zoveel goedkoper.
Mwah, voor zover ik het heb begrepen waren de kinderziekten de reden dat Intel de prijs naar beneden moest bijstellen, ze wilden volgens mij meer vragen maar konden dat niet voor elkaar krijgen met softwarepatches. Ze wisten al van de hardwareproblemen toen de kaarten nog in ontwikkeling waren, maar toen bleek dat het met software niet te fixen viel, hebben ze naar mijn weten de kaarten voor een lagere prijs op de markt geïntroduceerd. Voor zover ik het verhaal gevolgd heb, leek het erop dat het plan was om de kaarten voor veel meer geld te verkopen (en dat was ook de reden dat het gerucht ronding dat ze Arc wilden stopzetten, aangezien ze zo te weinig geld zouden verdienen voor de investering).

Overigens weet ik niet of je van kinderziekten kan praten bij Intel, het bedrijf produceert al 25 jaar GPU's in allerlei configuraties. Zelfs voor PCIe-GPU's is Alchemist de tweede generatie, met Intel Xe (en kaarten als de H3C XG310) als voorloper.

Ik denk dan ook dat de volgende generatie veel duurder wordt, aannemende dat ze hun fouten hebben gecorrigeerd. Misschien dat de prijs alsnog zakt als er weer fouten worden gevonden.
"Battlemage"
Mooie naam.

Meestal zijn de namen van Intel maar saai en/of nietszeggend. Op zich is dat prima, het gaat me om de specs, niet om een sexy naam. Maar toch wil ik even kwijt dat ze nu toch wel een mooie naam gekeozen hebben. Deze naam spettert en roept een beeld op van licht, rook, vuur en spetterende actie. Precies wat je wil van een grafische kaart (figuurlijk!).

Goed gekozen.
Hoop op een goede prijs/kwaliteit verhouding.
Ze hebben onwijze stappen gezet sinds de release van hun Arc kaarten, die een hardware bug hebben, met de performance voor die kaarten.

Ik denk dat deze battlemage kaarten nog wel eens behoorlijk goed kunnen worden! Intel is natuurlijk niet een klein startup bedrijfje, die lui hebben onwijs veel kennis op hardwaregebied, en nu ook steeds meer op drivergebied.
Als alles meteen goed werkt en de kaarten gaan weer Max +-400 kosten, dan kan dit best en succes worden.

Een 4070 niveau kaart met 16gb is een instant koop als deze 400 euro gaat kosten.
Aan die performance zouden ze wel eens kunnen zitten, het aantal Xe cores is namelijk verdubbeld tov de A770

De prijs is echter nog gokken.
Ze zouden veel geleerd moeten hebben van de launch van hun eerste kaart. Dx09/11 zou wat beter moeten gaan na de verbeteringen. Meer concurrentie is alleen maar goed. Zeker nu Nvidia steeds meer zijn interesse kwijt lijkt te raken in consumenten GPU's.

Op dit item kan niet meer gereageerd worden.