Intel toont gameprestaties Arc A750-videokaart die moet concurreren met RTX 3060

Intel heeft prestatieclaims voor zijn Arc A750-gpu in 49 verschillende games gedeeld. De Intel-gpu zou in DirectX 12- en Vulkan-titels gemiddeld tot vijf procent sneller zijn, afhankelijk van de resolutie. De gpu is nog niet uit en er zijn nog geen onafhankelijke reviews.

Intel heeft op zijn website de gemiddelde prestaties van de Arc A750-desktopvideokaart in 49 verschillende games vergeleken met de GeForce RTX 3060 van Nvidia. Het gaat daarbij om 43 DirectX 12-games en 6 games die draaien op de Vulkan-api. De fabrikant testte beide gpu's in combinatie met een Core i9-12900K-cpu, 32GB DDR5-geheugen, een MP600 Pro XT-ssd en Windows 11. Het bedrijf zegt niet of features als resizable bar zijn ingeschakeld. De Arc-videokaart draaide verder op een engineering driver van Intel, terwijl de RTX 3060 draaide op de Nvidia GeForce 516.59 WHQL van eind juni.

Intel Arc A750 vs. Nvidia GeForce RTX 3060

Volgens Intel presteert de A750 in deze opstelling gemiddeld drie procent beter dan de RTX 3060 op een 1080p-resolutie in DirectX 12-games. Op een resolutie van 2560x1440 pixels zou de Intel-kaart gemiddeld vijf procent sneller zijn dan Nvidia's tegenhanger. Met Vulkan is de A750 volgens de chipmaker vier procent sneller op 1080p en vijf procent op 1440p. Onderaan zijn blogpost publiceert het bedrijf de gemiddelde framerates in alle geteste games. De videokaarten zijn onder meer getest in titels als Control, Cyberpunk 2077, DOOM Eternal, F1 2022, Far Cry 6, Microsoft Flight Simulator en Red Dead Redemption 2. Het bedrijf toonde de prestaties van de A750-videokaart eerder al in een beperkt aantal titels.

De specificaties van de Intel Arc A750 zijn nog niet officieel bekendgemaakt. Volgens eerdere geruchten krijgt de videokaart echter 24 Xe-cores, wat overeenkomt met 384 execution units. De kaart zou verder worden uitgerust met 12GB GDDR6-geheugen op een 192bit-geheugenbus. De videokaart wordt geproduceerd op TSMC's N6-procedé. Verdere specificaties zijn nog niet bekendgemaakt en Intel deelt ook geen adviesprijs van de A750. Twitter-gebruiker en hardwareleaker 9550pro claimt echter wel dat de A750 een die-size van 406mm² heeft. Opvallend genoeg is dat 47 procent groter dan die van de RTX 3060, die een chipoppervlak van 276mm² heeft.

De Intel Arc A750-videokaart is nog niet uitgebracht en er zijn nog geen onafhankelijke reviews van de gpu verschenen. Tot nu toe is de release van Intels Arc-videokaarten echter niet vlekkeloos verlopen. De videokaarten zouden eerder dit jaar al uitkomen, maar zijn in de tussentijd meermaals uitgesteld. In de eerste reviews van een Arc A380-videokaart, die inmiddels wel op de markt is verschenen in China, bleek dat de videokaarten onder meer kampen met driverproblemen en tegenvallende prestaties in bepaalde titels. Intel bevestigde eerder al tegen media als Linus Tech Tips dat de Arc-videokaarten niet goed geoptimaliseerd zijn voor games die draaien op oudere grafische api's, zoals DirectX 11. Het bedrijf zei onlangs in een blogpost dat de Arc-videokaarten later dit jaar breder beschikbaar komen en dat het bedrijf blijft werken aan de drivers en de prestaties in oudere titels.

Door Daan van Monsjou

Nieuwsredacteur

11-08-2022 • 16:45

58

Submitter: NitroX infinity

Lees meer

Reacties (58)

Sorteer op:

Weergave:

Interessante getallen, maar tenzij Intel bergen verzet mbt het supporten van oude games, moet de prijs heel interessant zijn.
Net als bij elk ander product, valt of staat dit product met de prijsstelling. Wat er door de Intel Engineers werd gezegd is dat de prijsstelling wordt bepaald door de positie van de kaarten op basis van het gros van de games, dus niet waar deze het beste in presteert (zoals hier getoond). Of die claim ook daadwerkelijk waar gaat zijn is natuurlijk de vraag.
Net als bij elk ander product, valt of staat dit Wat er door de Intel Engineers werd gezegd is dat de prijsstelling wordt bepaald door de positie van de kaarten op basis van het gros van de games, dus niet waar deze het beste in presteert (zoals hier getoond).
Een aparte claim, omdat engineers niet de prijs bepalen.

Deze kaarten kunnen mogelijk leuk zijn als (extra/betere) hardware video encoder voor streaming of iets als Plex/Jellyfin, mits de drivers stabiel zijn.
Een aparte claim, omdat engineers niet de prijs bepalen.
Engineers zitten tegenwoordig niet meer opgesloten in een donkere kelder van het bedrijf (naast de support-afdeling) maar spreken ook met andere werknemers van andere afdelingen....
Nergens claim ik anders. Dan nog is het niet aan een engineer om de prijs te bepalen of daar publiek aankondigingen over te doen.
of daar publiek aankondigingen over te doen.
De engineers waar het om gaat waren specifiek er op uitgestuurd om dergelijke aankondigingen te doen...

Maar uiteindelijk valt de beslissing over de prijs onder de CEO, Patt Gelsinger..... en dat is een engineer :P
De persoon die dit vertelde was Tom Petersen (Intel Engineering Fellow), ook Ryan Shrout (Intel Graphics Marketing) was daarbij aanwezig. Dat zijn imho niet de eerste de beste en er was niets specifieks over prijzen of exacte prestaties.
... of daar publiek aankondigingen over te doen.
Lijkt me dat ze het zeggen juist omdat anderen bij Intel daar heel duidelijk akkoord voor hebben gegeven. Dat is hoe het tegenwoordig werkt, je zegt niks waar je vooraf geen 'OK' voor hebt. (Of dat wat men zegt wel of niet de waarheid gaat blijken te zijn is dan weer een andere zaak... ;) ) Wie dan precies wat mag zeggen is duidelijk helemaal niet zo zwart/wit, een engineer kan het tegenwoordig dus af een toe ook gewoon over prijs gerelateerde zaken hebben zoals o.a. de LTT video bewijst. :)
"Het gros van de games" is open voor interpretatie aangezien er de laatste paar jaar iedere dag honderden indie meuk op Steam verschijnt.
En hoeveel van die meuk gebruik geoptimaliseerde DX12? Waar de Intel kaart juist zo goed in is? Erg weinig! Dus zal het nog steeds relatief bagger werken...

Ik krijg een beetje het gevoel bij Intel dat daar een tweestrijd gaande is tussen management en de engineering afdeling voor videokaarten. Die laatste zijn druk bezig om iets nieuws te bouwen wat niet rust op oude legacy, dat zou Intel een enorme boost kunnen geven. Maar aan de andere kant hoor je dan weer dat men de stekker uit van alles en nog wat wil trekken.

De Intel meuk is imho uitstekend voor de gamers die alleen het nieuwste spelen en eigenlijk niet teruggrijpen naar oude games. Naast natuurlijk encoding, etc.
Nee, dit product moet allereerst stabiel genoeg zijn om de features die het zegt te hebben ook echt te leveren. En in het geval van de core business, gaming, dan ook graag zonder artifacts en stutter.

DAARNA gaan we inderdaad op prijs selecteren ja ;) Beschikbaarheid is dan overigens ook nog wel een klein puntje van aandacht :)

AMD heeft al meermaals bewezen dat het met slechte launches en brakke drivers behoorlijk inboet aan marktaandeel; net als wanneer je niet verder komt dan concurreren met de midrange van anderhalf jaar geleden. Intel doet het nu dunnetjes over. Raja & Vega all over again - waar dacht je dat de strijd intern vandaan komt, en de 'overpromise/underdeliver' uitkomst die er nu is? Dit is een patroon.

Er is momenteel nog geen enkel unique selling point voor Arc te bedenken. Prijs is overigens nooit een USP... slechts een keuze of noodzaak.

1st gen ARC is geen kwestie van prijs. Het is DOA. Op naar de volgende!

Oh en geen DX11 support willen is natuurlijk gewoon zelfmoord. DX12 is er net. Hoe begrijpelijk ook, wie koopt er nou een GPU die alleen de minst interessante generatie games redelijk kan draaien?! De DX11~9 library is gigantisch... en kwalitatief ook veel interessanter imho.

[Reactie gewijzigd door Vayra op 23 juli 2024 07:59]

Je zegt het zelf, AMD heeft al meermaals bewezen dat het met slechte launches en brakke drivers behoorlijk inboet aan marktaandeel, maar niet van de markt verdwijnt. Dat is waardoor ik persoonlijk een voorkeur heb voor Nvidia voor mijn GPUs. Maar 20+ jaar Tweakers.net heeft laten zien dat er genoeg tweakers zijn die liever voor het goedkoopste gaan en dan zelf gaan aanklooien om de beste prestaties voor een relatief lage prijs te krijgen. Dat heb ik vroeger ook gedaan, ga ik nu echt niet meer aan beginnen, want mijn tijd is nu significant meer waard. Echter is niet iedereen hetzelfde. Intel zal duidelijk de 3e/laatste plaats innemen, maar een voet in de deur voor een relatief extreem lage prijs zal veel mensen over de streep trekken vermoed ik. Maar Intel heeft zeker met de ARC GPUs meer claims gemaakt waar uiteindelijk niets van terecht is gekomen, dus ik moet nog maar zien of ze in dit geval doen wat ze gezegd hebben.

De DX9-11 en oudere library is gigantisch en dat is voornamelijk ook mijn library. Dus voor mij geen optie, maar er zijn zat gamers die alleen het nieuwste van het nieuwste spelen, dus wellicht toch een optie voor hun. En als de titels maar oud genoeg zijn, maakt het eigenlijk niet zo heel erg uit dat ze niet zo goed draaien, als ze maar goed genoeg draaien.
Goed punt inderdaad dat niet iedereen hetzelfde is. Maar ik denk dat we het met wat je beschrijft wel hebben over dermate kleine doelgroepen dat het de moeite niet gaat lonen om uberhaupt wel goede support te gaan bouwen. Want waar de hardware wél goed werkt, is het nou ook geen geweldig product qua perf/watt of perf/die size, of featureset...

En zat gamers die het nieuwste spelen - ja - maar ook die willen weleens wat anders en ook die gaan retro gamen, of lopen tegen titels aan die op een oudere api draaien. En juist de jonge generatie is ook geneigd om naar indie titels te kijken die heel vaak niet op DX12 zitten.

Maar ook dan; DX12 heeft dan misschien onder ARC geen slechte prestaties, maar stabiel is het allerminst. Ze hebben een handjevol games flink de aandacht gegeven maar in de basis is nog van alles mis. Hoe beprijs je dit product nu correct? Je kunt niet zeggen dat het evenveel waard is als een gelijk presterende Nvidia of AMD GPU op DX12. Bij lange na niet.

Verder hoor ik zeker wat je zegt met de vergelijking AMD. Dat is ook waar. Maar we leven nu wel in 2022 en qua node shrinks is er geen laaghangend fruit meer over. Intel speelt volgens dezelfde regels als de concurrentie, en de achterstand is enorm terwijl de markt schuift. En moet je eens kijken wat AMD allemaal met prijs moest doen met slechts een betrekkelijk kleine achterstand? Een 'slechte' AMD driver staat in geen verhouding tot wat je bij Intel nu krijgt.

Al met al ziet het er niet rooskleurig uit.

[Reactie gewijzigd door Vayra op 23 juli 2024 07:59]

Is dat zo? Zijn er niet hele hordes gamers die voornamelijk DX12/Vulkan games spelen? De games uit ons jeugd zijn gewoon antiek voor de jeugd van nu heh, vergeet dat niet.
Volgens mij komen er nog zat games uit die met DX11 werken.
Het is geen toeval dat het exclusief DX12 en Vulkan lijkt te zijn. Want met de kleinere ARC A380 was al duidelijk dat Intel hun DX11 drivers eigenlijk dramatisch slecht zijn. Zo slecht dat ze het bij Intel moesten toegeven alsmede beloften maken over lage prijzen. We hebben het hier over makkelijk tientallen procenten slechter dan DX12 of Vulkan.

Dit is dus zeker het best mogelijke scenario voor Intel hun grootste chip. Overigens kan je deze beter vergelijken met Navi 22 (RX6700 series). Immers dezelfde TSMC node met dezelfde PDK, maar die is 335mm2 en een stuk sneller. Dit ziet er dus alles behalve goed uit voor deze generatie. Weinig anders meer dan dit ding ver onder de prijs op de markt brengen, zit er helaas niet in voor Intel.
Nou ja, voor zover ik het begrijp is het ook niet helemaal eerlijk om te spreken van 'dramatisch slechte' drivers. Het probleem zou vooral zijn dat er heel erg veel handmatig tweak werk zit in de drivers om games goed te laten lopen. Je zou denken dat als je de API fatsoenlijk implementeert dat het wel goed moet komen, maar dat is dus niet zo. Vandaar dat er ook steeds nieuwe drivers met weer meer optimalisaties voor nieuw uitgekomen games in zitten. Nvidia en AMD doen dat al jaren en hebben dus een enorme historie aan die optimalisaties in de driver zitten. Intel heeft nu er (logischerwijs denk ik) voor gekozen om zich in eerste instantie te focussen op vooral nieuwere games, maar daardoor missen oudere games dus wel die optimalisaties.

Uiteraard maakt het voor de klant uiteindelijk weinig uit, het blijft gewoon zo dat je wisselvallige prestaties krijgt... maar ik begrijp ook wel waarom het zo lastig is om dat 'perfect' te doen. Zelfs voor Intel.
Nee, dat is wel eerlijk de drivers zijn van een dramatisch niveau. Kijk ook naar de volgende analyse van GamersNexus (en die staan er niet om bekend dat ze titels opblazen, wat je eerder bij LinusTechtips ziet).
Worst We've Tested: Broken Intel Arc GPU Drivers

Conclussie van GamersNexus is dat ze Intel prima wat speelruimte gunnen op het gebied van DX9 en DX11 performance; maar dat het stukje GUI voor de extra features en installatie gewoon helemaal kapot is is niet acceptabel.
Intel komt er uiteindelijk wel met DX9 en DX11 geloof ik; maar dat hadden ze prima kunnen doen met gewoon een werkende driver die wat features mist.

Kleine edit:
Je moet niet vergeten dat Intel al voor veel meer dingen drivers moet bouwen en dus genoeg ervaring in huis zou moeten hebben. Daarnaast hebben ze meer geld om er tegen aan te gooien dan AMD.

[Reactie gewijzigd door Sp3ci3s8472 op 23 juli 2024 07:59]

en die staan er niet om bekend dat ze titels opblazen
Nope, maar wel bekent om uitgesproken negatief te doen als ze een slecht punt kunnen vinden..
Linus zijn titels mogen dan meer "opgeblazen" zijn (wat ik durf te betwisten), in ieder geval weet hij wel vaak veel beter te relativeren.
Ik heb het gevoel dat GN maar al te graag gebruikt maakt van het feit dat schoppen tegen de grote bedrijven clicks op levert.
Doen ze vaker inderdaad. Ik snap ook niet waarom ze zo ontzettend negatief zijn over alle gaming stoelen in het universum nadat ze er 3 of zo geprobeerd hebben. Ze zijn technisch heel sterk maar hebben zeker zo hun zwakke punten, waar dit er inderdaad een van is.
Omdat veel stoelen van dezelfde fabrikant komen en daadwerkelijk puur rebrand meuk is. Daarnaast werken dat soort stoelen goed in een auto, juist hier langdurig inzitten is helemaal niet goed voor je lichaam. De meeste #gamers# stoelen drukken de schouders en bladen onlogisch naar voren. Dus ja de kwaliteit kan misschien oke zijn echter voor 300-350 heb je 1000000% veel betere alternatieven. Gamer stoelen ontbreken echt teveel ergonomische zalen welke zelfs 100 euro kostende stoelen al hebben tegenwoordig. Vaak kan alleen de rug leuning versteld worden, dat is echt niet voldoende om een stoel gezond af te kunnen stellen.

[Reactie gewijzigd door marco-ruijter op 23 juli 2024 07:59]

Ja, maar jij zegt 'veel' en 'meeste', niet 'alle'. GN wel, die verketteren ze allemaal.
Naar mijn idee zijn Maxnomic en Secret Lab stoelen een stuk beter. Hebben ook veel instel mogelijkheden en ik zit er zelf in ieder geval heel goed in terwijl die goedkopere stoelen die jij noemt mijn gewicht vaak niet eens kunnen hebben (of niet over jaren gecombineerd met dat ik nogal eens heen en weer beweeg en van positie verander). Verder zat Steve laatst bv ook weer de termen 3d en 4d armleuningen belachelijk te maken terwijl het juist goed is om je armleuningen goed in te kunnen stellen. En dat is het punt... Ze weten veel, maar niet alles, maar pretenderen dat wel.
Naar mijn idee zijn Maxnomic en Secret Lab stoelen een stuk beter.
Je hebt het hier dan over stoelen van 450+ euro waarbij je nog steeds amper echt de rug kunt verstellen, de rug leuning in alleen rechtop of plat te leggen. Daarbij zijn de neksteunen van deze "ergo gamestoelen" vaak een kussentje welke d.m.v. een bandje vast gemaakt worden, dit geld ook vaak voor de onderrug ondersteuning. Dit betekent automatisch dat je voor de meeste mensen totaal geen geschikte ondersteuning aanbiedt.

Zodra ik bij zo een stoel die kussens gebruik wordt mijn lichaam juist naar voren gedrukt omdat kussentjes niet in diepte te verstellen zijn. Daarnaast moet een goed zitvlak ook de mogelijkheid bieden om je benen los goed te kunnen bewegen, dus naar buiten of naar binnen (gespreider). Een autostoel heeft vaak aan de linker en rechter kant van het zitvlak dat deze omhoog staan, dat is ook de bedoeling omdat je pedalen recht voor je zitten. Nogmaals dat is een goede houding voor het auto rijden (sport auto's) maar totaal niet voor het 8+ zitten achter een computer.

Daarbij geven GN vooral af omdat het frame in de stoelen vaak maar van een fabriek afkomt, vervolgens doen de rebrands er een rebranded 4D armleuning op en ineens willen ze overkomen als een ergonomische stoel die voor gamers echt top is (dat is gewoon totale bs).
Het is duidelijk dat je nog steeds gegeneraliseerde kennis toe aan het passen bent hier. De stoelen waar ik het over heb gebruiken geen kussentjes in de rug (alleen optioneel een hoofdkussentje, gebruik ik meestal niet), die hebben een draaiknop om de ondersteuning naar voor of achter te bewegen (zit in de leuning zelf verwerkt). Ook worden mijn benen totaal niet vooruit geforceerd. Ook mijn schouders waar je het eerder over had worden niet vooruit geduwd, de leuning van de Maxnomic heeft wel inderdaad naar voren staande leuningen, maar die lopen juist terug omhoog waardoor ze mijn schouderbladen totaal niet meer in de weg zitten.

Ik ben het met je eens dat er heel erg veel crap te vinden is in de gaming chair categorie. Waar ik het over heb is dat het niet ok is om daarmee ALLE gaming stoelen gelijk af te schrijven zonder werkelijk te weten of ze inderdaad allemaal slecht zijn.
Ik ben het met je eens dat er heel erg veel crap te vinden is in de gaming chair categorie. Waar ik het over heb is dat het niet ok is om daarmee ALLE gaming stoelen gelijk af te schrijven zonder werkelijk te weten of ze inderdaad allemaal slecht zijn.
De stoelen die jij noemt welke dus een iets betere onderrug afstel mogelijkheid hebben kosten 500+ euro. Als we qua stoelen in een 500 euro segment gaan kijken wat betreft stoelen dan vind ik persoonlijk de Secret Lab stoelen in dat segment ook onder de crap stoelen vallen.

Nog steeds is de stoel gebasseerd om een design en ergonomie voor de autosport. Dus dat betekend dat de zijkanten van de rugleuning en zitvlak omhoog moeten lopen zodat je als het ware in de stoel valt en blijft zitten zodra je bijvoorbeeld hard door de bochten gaat en tevens de nieren wat meer beschermd tegen de schokken en klappen van het racen.

Pas je al het bovenstaande toe op het werken achter de computer zijn de eigenschappen van een racestoel juist de eigenschappen welke niet ergonomisch zijn achter het zitten van de computer. Mijn benen en dus onderrug zijn niet makkelijk te bewegen (daarom zijn rug oefeningen in machines waarbij de benen vast zet juist onwijs slecht). Je lichaam moet bij lang zitten juist makkelijk kunnen bewegen en niet in een vorm/positie gedrukt worden daar komen juist klachten door. Een goede stoel moet ondersteuning bieden waar nodig maar moet niet de houding voor je gaan bepalen omdat ieder lichaam qua afmetingen net even anders is.
Zolang ze objectief blijven en dat zijn ze maakt het mij vrij weinig uit. Als AMD, Nvidia of Intel foute dingen doen dan heb ik liever dat er geluid wordt gemaakt. Dit doen ze overigens ook bij alle AIB partners van de grote drie en dit juig ik alleen maar toe. Vergeet niet dat als die bedrijven iets goeds doen dat ze dit ook promoten.
Linus is veel meer van de clickbait titels en het overmate enthausiast zijn. GamersNexus houdt het meer bij de feiten en neemt ook de tijd om ze goed neer te leggen. Dat is iets waar Linus vaak wat steken laat vallen; en dat doen ze met een goede reden, hun publiek wil graag snel de informatie en hoeven niet alle details te weten. Het interesseerd ze niet of ze hebben de kennis niet (het publiek dus).
Geld is één ding, bemensing is een tweede, en daarin is een wereldwijd tekort, zeker ook in de IT. En je moet ook nog eens opleiden. Als je geen historie hebt met GPU driver teams dan heb je dus een behoorlijke klus voor je liggen, hoeveel geld er ook is.

[Reactie gewijzigd door Vayra op 23 juli 2024 07:59]

Het komt omdat er voor de oudere API's veel meer game-specifieke driver optimalisaties nodig zijn, terwijl bij DX12 deze verantwoordelijkheid bij de game zelf ligt.
Dit is dus zeker het best mogelijke scenario voor Intel hun grootste chip. Overigens kan je deze beter vergelijken met Navi 22 (RX6700 series). Immers dezelfde TSMC node met dezelfde PDK, maar die is 335mm2 en een stuk sneller.
De RX6700 is inmiddels bijna anderhalf jaar oud, op 7nm in plaats van 6nm (min of meer dezelfde node maar toch wel significant doorgeoptimaliseerd) en een stuk kleiner dan de A750. En de A750 is nog niet verkrijgbaar. Dus ik ben bang dat we hem eerder zullen moeten vergelijken met navi33 - als de geruchten kloppen ongeveer dezelfde die-grootte, ook op 6nm, en ook binnenkort klaar voor verkoop. En navi33 zou wel eens richting de prestaties van een RX 6800 kunnen gaan...
Leuk hoor, maar toch echt maar "de kat ff uit de boom kijken" na die Youtube video van Gamers Nexus.
Sowieso lijkt het een beetje een shitstorm te zijn... inconsistente prestaties, een board partner die er al helemaal mee gestopt zou zijn, geruchten dat Intel overweegt er helemaal mee te kappen... en ondertussen komen dit soort verhalen ook nog naar buiten. Het komt op mij sowieso ook over alsof je hier nauwelijks over een enkel Intel kunt spreken maar dat er verschillende facties bezig zijn met hun eigen doelen.
Ik hoop van harte dat het wat wordt, altijd goed om er een concurrent bij te krijgen... Maar ik zal ook zeker niet bij de early adopters zitten (even los van dat ik al een 3070 heb en vooralsnog dus ook niet de doelgroep ben).
Ik denk ook in mijn achterhoofd dat ze op grafisch gebied met amd kunnen concureren maar niet met nvidia vrees ik.Maar volgens mij zijn het leuke kaartjes waar gelukkig een lager prijskaartje aan zit.
Vulcan drivers hebben ze al gereed gemaakt in een github project voor unreal tournament 99.
Ik geloof als ze er gddr 6 x in duwen en meer gpu cores maken dat ze best snel zullen zijn.Deze kaart van dit artikel was gebaseerd op gddr5 geheugen.En ik hoop dat ze in de toekomst hierdoor mee gaan, en om de zoveel tijd met een meer geüpdatet versie komen meerdere cores op de cpu misschien sneller gpu geheugen.
ik ben wel van plan zo een kaartje te kopen.
Ik geef je hier ook gelijk in, zeker in het begin zullen ze geen concurrent voor Nvidia kunnen zijn.
Het gaat ze zeker nog wat doorzettingsvermogen kosten om hun product goed op de markt te krijgen.
In het begin zullen ze het moeten hebben van OEM deals en lage prijzen.
Pas na een paar generaties zullen ze de echte gamer misschien kunnen overtuigen.

Waar ik wel benieuwd naar ben is of deze GPU’s softwarematig gelimiteerd worden (zoals Nvidia dit doet)

Ik heb een plex server en Intel GPU’s kunnen best goed transcoden. Als ik met deze GPU straks een “4K 10-bit dolby Vision” met een “Dolby trueHD 7.1” geluidsspoor live die bij elkaar rond de 100mbps bitrate hebben, kan omzetten naar een mobiel scherm met een bitrate van 5mbps.
Dan hebben ze een leuke kaart voor de mediaservers.
Nvidia heeft deze mogelijkheid alleen ingeschakeld op hun Quadro kaarten indien je gebruik maakt van de officiële drivers.
Een vreemde opmerking wat mij betreft dat Intel wel met AMD maar niet met Nvidia kan meekomen op GPU gebied.

AMD zit qua prestaties behoorlijk dicht in de buurt van de 3090ti met haar 6950xt. In ray-tracing lopen ze inderdaad nog achter, maar qua verbruik loopt AMD weer goed voor. Dus een vreemde bewering wat mij betreft. AMD en Nvidia zijn al jaren goede concurrenten van elkaar enkel voorgaande jaren wat minder doordat Nvidia een wat grotere voorsprong had. Echter met de 6000 serie is AMD wel bij.

Verder zullen we zien wat betreft Intel. Ik geloof niet dat ze opeens gaan stoppen. Daarvoor heeft Intel teveel geld en is de gaming industrie toch lucratief genoeg. En ze hoeven niet AMD en Nvidia te verslaan zolang ze maar een goede midrange voor een mooie prijs hebben. Niet eens 10% van de mensen koopt een 3060ti en hoger.

Sweetspot is voor veel mensen nog altijd een kaart ergens tussen de 200 en 350€. Als Intel erin slaagt met bv de Arc 770 een goede kaart uiteindelijk op de markt te zetten die voor zeg 299 over de toonbank gaat zullen AMD en Nvidia omlaag moeten gaan met die series waarin Intel mee kan. Een win-win.

AMD en Nvidia komen over een niet te lange tijd al met nieuwe series kaarten uit dus Intel zal de komende jaren enkel moeten proberen het gat kleiner te maken. Uiteindelijk zal het ze wel lukken vermoed ik.
Precies dit, en afhankelijk van je perspectief kun je zelfs zeggen dat AMD nu de voorsprong te pakken heeft. Het grote wachten is op hun implementatie van RT en hoe het perf/watt verhaal er dan uit ziet. Maar RDNA2 is qua architectuur echt wel op een beter pad dan Ampere nu is. Dat zit vooral in, ironisch genoeg dit keer, de keuze voor trager geheugen. GDDR6X slurpt als een gek.

Het interessante in dit verhaal wordt vooral dat AMD ook dirigeert hoeveel resources voor RT de toekomstige consoles waarschijnlijk krijgen, ze zijn dus een sturende factor in dit geheel want Nvidia heeft met veel zakken geld nog niet echt momentum weten te bouwen op het PC platform. Dat biedt AMD kansen om de GPU lijn perfect daarop af te stemmen. En er lijkt een behoorlijke TDP bump voor ons te liggen met de komende generaties, als we de geruchten over ADA moeten geloven. Nvidia zou zijn hand weleens kunnen overspelen.

[Reactie gewijzigd door Vayra op 23 juli 2024 07:59]

Gamers Nexus hebben op hun eentje het hele project tot zinken gebracht. :)
Dat is nog niet duidelijk dan wel bevestigd. Gamers Nexus heeft laten zien dat de software nog niet goed genoeg is.

Daar kan aan gewerkt worden.
Daar moet zeker aan gewerkt worden ;)
Intel zet wel vol in op directx 12 en alle nieuwe games, oudere games zou je niet moeten spelen met deze kaarten, maar ja wie speelt alleen de allernieuwste games en geen oude ??
Dus ja ik zou zeggen afwachten en hopen dat ze het voor de Battlemage serie beter voor elkaar hebben, dan zouden ze zeker kunnen concurreren met Nvidia en AMD.
Lets wait and see :P
Niet om het goed te praten, maar een nieuwe kaart koop ik vooral omdat nieuwe(re) games niet meer snel genoeg (=subjectief) draaien op de settings die ik graag wil.

Dat oude games amper beter (of zelfs iets slechter) draaien op een nieuwe kaart zou ik accepteren bij een duidelijke sprong bij nieuwe games. CTD's en dergelijke zijn natuurlijk wél uit den boze. Al is oud en nieuw ook weer niet geheel een goed onderscheid aangezien er volgens mij om verscheidene redenen nog steeds aardig wat nieuwe DX11 games uitkomen en we het niet over nieuw versus oud hebben, maar DX12 vs DX11 en lager.
De oude spellen uit het vorige artikel speelden totaal niet. Gewoon niet starten.

En ze hebben nog niets laten zien dat ze dat in afgelopen weken hebben gefixed, het zijn weer recente spellen.

Dat is leuk en aardig maar de performance is maar 3% beter in zorgvuldig uitgezochte spellen. Dan moet de kaart wel echt flink goedkoper zijn wil je een onbewezen product kopen tegenover een bewezen product waarvan binnenkort nog eens een nieuwe versie vanuit komt.

De krapte op de markt begint ook af te nemen dus Intel kan ook geen kaarten verkopen puur omdat er geen keuze is.

En ik zie Intel er niet echt voor aan om zich als prijsvechter op de markt te begeven.
Ik zie tussen de games mijn favoriete spel staan, Division 2. Ik ken haast niemand die het in DX12 speelt omdat Ubisoft dat simpelweg nooit stabiel gekregen heeft.
Dat vind ik wel meevallen. Gamers nexus vond de kaart zelf goed werken, de drivers waren ook nog ok om mee te gamen. Alleen alle andere zaken waren diep en diep triest. Van installatie tot de features, niks werkte. Lijkt me te fixen, dat zei Steve ook.
Het hele issue dat DX11 spellen (Waar nog genoeg van zijn) slecht draaien is toch wel de meest grote domper. Gamer Nexus en LTT hebben hier al uitgebreid over gehad. Meest aparte lancering van GPU's die ik heb gezien zolang ik game/pc's bouw.
Ik vermoed dat MS al iets anders heeft klaarliggen. Het kan niet zo zijn dat ze een high-tech GPU fabriceren die dan kreupel blijkt te zijn door waardeloze software-ondersteuning. Van DirectX gaat het uiteindelijk vast niet afhangen.
Kunnen we aan de hand van deze grafiekjes en de grafiekjes van de ander Intel Arc kaarten niet een wat betere schatting maken van de werkelijke prestaties. Van die kaarten is inmiddels wel bekend hoeveel slechter ze in werkelijkheid presteren dan wat Intel met hun grafieken en eigen gedraaide benchmarks beweerde.
Dit soort benchmarks van de fabrikant zelf kan je denk ik beter met een korrel zout nemen, althans ik kan mij niet voorstellend dat Intel dezelfde benchmarks zal publiceren als ze negatief zouden uitvallen. Daarbij is er nog niets bekend qua prijs t.o.v. een RTX 3060, plus ik mis alweer benchmarks voor b.v. renderen.

Evenzogoed om niet te zeer alles in het negatieve te trekken hoop ik dat die Intel kaarten daadwerkelijk goed gaan presteren. Dat kan alleen maar gunstig zijn wanneer er een 3de gpu speler op de markt komt en daardoor de prijzen misschien nog meer dalen. En ja ik hoop ook erop dat als Intel een beetje succesvol is met die externe gpu's dat ze ook de stap maken om de interne gpu's flink aan te gaan pakken.
Als de benchmarks correct zijn is het interessant om te zien dat ze op 1440p meer voorsprong krijgen. Bij AMD zie je vaak dat de Nvidia kaarten op hogere resoluties weglopen; bij Nvidia komt dit door de volgende factoren, architectuur van de chip, meer geheugenbandbreedte en eerder gelimiteerd door de cpu op lagere resoluties (doordat hun driver een grotere overhead heeft).
Voor meer details zou je de CJ's AMD en Nvidia nieuwstopics moeten lezen. Waar een aantal hele interessante posts staan over de architectuur door Werelds.

Ben dus erg benieuwd of dit doorzet op hogere resoluties. Het kan ook goed zijn dat de Intel kaart gewoon eigenlijk voor een hoger segment bedoeld is en dat hij daardoor sowieso meer ruimte heeft wat betreft geheugen en geheugenbandbreedte. Dat zou betekenen dat de drivers gewoon nog niet op het niveau zijn, waarvan we weten dat dit sowieso is op gebied van DX9 en DX11 en de GUI.
Het bedrijf zegt niet of features als resizable bar zijn ingeschakeld
ga er maar van uit van wel, anders proppen ze er geen 32GB in terwijl hun kaartjes dan toevallig vaak een pak beter presteren. Het is een PR-artikel om aan te tonen hoe goed hun product wel niet is (dat er letterlijk tienduizenden, zoniet honderdduizenden games zijn is maar bijzaak)
Ik vraag me af hoe goed Linux ondersteuning zal zijn voor de dGPUs van Intel, en natuurlijk ook de prijs in vergelijking tot team rood en groen.
Genormaliseerd tegen de 3060. Dat is een leuk statistiek trucje om je kaart beter te doen lijken. Jammer Intel.
Jammer? Heel fijn, wie wil nou weten of deze kaart beter is dan een gtx 780?
Gtx780 ?

Wat ik bedoel is dat ze door het normaliseren met de mean de kaart in sommige gevallen boven de 3060 uitkomt terwijl als je de ruwe FPS data bekijkt de 3060 toch in de meeste game beter presteert.

Voorbeeld

3060 in game A: 100fps
A750 in game A: 80fps 80%

3060 in game B: 80fps
A750 in game B: 100fps 125%

Mean (80,125): 2,5%

Intel rekent zo dat de A750 2,5% sneller is dat de gtx3060. Terwijl ze in het voorbeeld gemiddeld identiek presteren.
Als je de gedetailleerde grafieken bekijkt zie je dat hij gemiddeld ook sneller is in deze dataset.

Op dit item kan niet meer gereageerd worden.