Intel Arc 380-videokaart stelt teleur in eerste reviews

Verschillende hardwaresites hebben vanmiddag reviews van de Intel Arc 380-videokaart online gezet. De Arc 380 werd recentelijk uitgebracht, maar wordt door Intel vooralsnog alleen in China beschikbaar gesteld. De Duitse hardwaresites Computerbase, Golem en Igor’s Lab kochten zelf Intels nieuwe videokaart via Chinese platforms en testten deze.

Met de Arc-reeks betreedt Intel de markt van losse videokaarten. Ten opzichte van concurrenten AMD en Nvidia wordt de Arc 380 tegenover de Radeon RX 6400 en GeForce GTX 1650 Super gepositioneerd. De adviesprijs van de Arc 380 zou op 130 tot 140 Amerikaanse dollar zijn vastgesteld.

Tegenvallende prestaties en stabiliteit

Gunnir Intel Arc A380

De prestaties van de Intel Arc 380 vallen tegen volgens de publicaties. De oorzaak hiervoor lijkt niet zozeer de beperkte rekenkracht voor het prijssegment, maar met name de huidige staat van de drivers. Meerdere spellen konden niet worden gedraaid, vooral wanneer op het testsysteem Resizable BAR uitgeschakeld was. Deze techniek is onderdeel van de PCI-Expressstandaard en maakt efficiëntere toegang tot grotere hoeveelheden videogeheugen mogelijk. Dat de Arc-videokaart zo op ReBar leunt om stabiel te functioneren is opvallend omdat AMD en Nvidia wel wisselende prestatiewinsten halen uit deze techniek, maar ReBar niet vereisen voor een stabiele werking.

De huidige drivers voor de Arc 380 kunnen daarnaast niet overweg met ReBar op AMD’s Ryzen-processors; de feature werkt enkel met deze techniek op Intels eigen processors. In combinatie met de stabiliteitsproblemen zorgt dit ervoor dat Intel Arc-videokaarten momenteel maar in een beperkt aantal scenario’s inzetbaar zijn voor gamingdoeleinden. Het is vooralsnog onduidelijk wanneer Intel ondersteuning voor ReBar op Ryzen-processors gaat toevoegen aan de Arc-drivers.

Intel Arc 380
(ReBar aan)
Intel Arc 380
(ReBar uit)
Radeon RX 6500 XT GeForce GTX 1650
Anno 1800 - 1080p High
Gem. fps (1% low fps)
32,2fps
(24,9fps)
29,5fps
(22,1fps)
57,8fps
(46,7fps)
37,1fps
(28,6fps)
CS:GO - 1080p Very High
Gem. fps (1% low fps)
121,8fps
(60,4fps)
- 249,4fps
(142,2fps)
143,1fps
(94,9fps)

Gears 5 - 1080p High
Gem. fps (1% low fps)

61,1fps
(36,3fps)
44,9fps
(29,1fps)
80,9fps
(63,5fps)
63,7fps
(42,8fps)
God of War - 1080p Original
Gem. fps (1% low fps)
40,4fps
(34,7fps)
30,8fps
(20,5fps)
60,3fps
(50,7fps)
42,3fps
(36,8fps)
Jurassic World 2 - 1080p High
Gem. fps (1% low fps)
- - 48,7fps
(30,5fps)
35,2fps
(24,4fps)
The Witcher 3 - 1080p High
Gem. fps (1% low fps)
33,9fps
(11,3fps)
29,7fps
(10,2fps)
53,8fps
(40,8fps)
36,5fps
(21,1fps)

Testresultaten van Golem.de op een Intel Core i5 12400F, 32GB DDR4-3200, Windows 10 x64.

Stotterende reeks beelden

De Intel Arc 380 kan zich volgens de testresultaten van de Duitse site Golem.de bijna meten met een GeForce GTX 1650 wanneer ReBar ingeschakeld is. Zonder deze functie zijn zowel de gemiddelde framerates als de frametimes slechter. Per game verschillen de verhoudingen tussen de achteruitgang in framerates en frametimes wanneer ReBar uitgeschakeld wordt. In The Witcher 3 zijn de frametimes zowel met als zonder ReBar bijzonder slecht. Golem besloot daarop een uitgebreidere frametimegrafiek te plotten, waarmee pijnlijk duidelijk wordt hoeveel werk Intel nog op het gebied van drivers voor de Arc-reeks van videokaarten te verzetten heeft voordat we kunnen spreken van een vloeiend opvolgende reeks beelden, en dus een prettige spelervaring.

Intel Arc 380 en Radeon RX 6400 in The Witcher 3. Via Golem.de.

De volledige reviews van de Intel Arc 380 kun je lezen op ComputerBase, Golem en Igor's Lab.

Door Reinoud Dik

Redacteur

20-07-2022 • 12:07

162 Linkedin

Reacties (162)

Wijzig sortering
Tsja... hate to say "I told you so" maar... "I told you so". Ik droeg het argument aan dat Intel érg goed is in hardware bouwen, maar niet zo goed in drivers bouwen (voor gaming GPU's). Het tegen argument wat ik hoorde is dat Intel een van de oudste GPU-bouwers is die er is. En hoewel ik het daarmee eens ben, was ik het er niet mee eens in de context van deze GPU's. Deze GPU's doen namelijk exact wat de huidige Intel IGP's goed doen óók goed. Daar valt niks aan af te dingen.

Waar je nu ineens wel wat aan merkt is dat Intel game optimalisatie nóg niet zo goed snapt. Dat komt er op neer dat ze specifiek alle legacy van 20+ jaar aan 'werkende' videogames niet in hun driver hebben, en de lagen tussen Vulkan, DX12, pre-direct hardware (DX11 of 12d11) NOG (lees de NOG) niet goed snappen.

Er is een reden dat de groene en rode drivers zo absurd groot zijn (en hoewel een factor is GeForce Experience -- waar ik graag van zou willen da nVidia drivers zou gaan aanbieden zonder dat erbij...). Het zit vol patches, nuances, en hacks. Want game developers gebruiken patches, nuances, en hacks om sneller/beter/goedkoper games te bouwen. Hoe lang hadden sommige games wel niet 'knipperende schaduwen' als known issue in de GeForce 470-490 reeks drivers? Hoe lang is VR wel niet kapot geweest?

Intel zie je momenteel redelijk goed werken op het moment dat er geen geheugen gebruikt hoeven te worden (het klinkt gek maar de reden dat nVidia en AMD consistent blijven zonder resize-bar is eerder een truc met slim geheugen vullen dan dat de performance van Intel mét resize bar een beeld is van inefficientie). Resize bar is een oplossing van een probleem wat PCIe (en zelfs AGP daarvoo rmet die losse 8-bit bus naar de CPU naast de 32-bit hoofdbus) al erg lang heeft (en waar AMD/nVIdia dus trucs voor hadden). Intel zie je bovendien vrij redelijk in nieuwe DX12 games werken. En dat geeft duidelijk aan wát de focus is van team Blauw... Eerst 'huidig', dán pas de legacy (als ze het al doen want het is net zoiets als Wine/Proton momenteel in onderneming, elk handig truukje van een dev op een niche game uitvinden en zorgen dat de driver er goed mee om kan gaan is soms niet belonend). Vandaar dat je DX11 games ook echt gaar ziet zijn op Arc.

Games zijn enorm trendgevoelig. AMD en nVidia werken al heel lang om een driver uit te geven die specifiek goed werkt op een specifiek spel (als ze al niet rechtstreeks met de devs werken), en nemen die patches mee in de volgende driver versie, en zo heeft een driver ~20 jaar aan patches in zich soms. Games volgen echter een soort van Rogers' curve. Ze kennen een early minority, majority, mainstream, en daarna verdwijnen ze doorgaans (voor het volgende). Een enkele keer blijft een spel lang hangen (Blizzard doet dat doorgaans goed, hoewel ze doorgaans de games ook evolueren naar een punt dat ze niet meer lijken op hoe ze ooit waren qua tech, soms ook content). Maar de meeste games worden snel 'niche'.

Intel zit daarmee in een lastige spagaat... maar ze laten zien dat ze wel wát doen... echter voor mainstream gebruik denk ik dat het nog een paar generaties nodig heeft.
Ja dit verhaal staat als een bus. Verwachtingen dat de drivers competief zijn vanaf de eerste generatie zijn gewoon irrealistisch. Het is nu aan Intel om de driver development zo snel mogelijk door te ontwikkelen.

Maar er is nog wel een andere plek waar ik toch naar benieuwd ben. En dat is Linux. Intel heeft daar een driver voor de hardware en voor API's delen Intel en AMD de MESA driver waardoor deze beter ontwikkeld is voor gaming door AMD, Valve, Feral, etc. En juist omdat Linux net als Intel geen echte history heeft met games, draaien games op Linux nu vooral op translation layers. Dus de DX9/11 driver is DXVK welke op Vulkan draait, DX12 is de VKD3D driver die wederom op Vulkan draait, een goede OpenGL driver hebben ze wel maar ook Zink word beter wat alweer een driver op Vulkan is en ga zo maar door. En al deze drivers bevatten steeds meer game specific patches die je ook van de gameready Windows drivers verwacht die Intel nog niet af heeft.

Als Intel ervoor kan zorgen dat hun Vulkan implementatie op Linux goed werkt ben ik benieuwd hoe deze kaarten daar presteren. Ze kunnen daar letterlijk gebruik maken van hun eigen werk, AMD's werk, Valve's werk, Ferals' werk, etc inplaats van dat ze nu nog alles zelf hoeven te doen.
Sluit als een zwerende vinger.
Ikzelf had geen verwachtingen van Intel en was zeker van bewust dat ze willen mengen in een zeer oude tweestrijd waar al veel op geborduurd is. Ook mijn verwachting is dat het enkele generaties zal duren voordat ze enigzins op dezelfde niveau zitten. Maar het is fantastisch dat ze het flikken en de lijn gaan doorzetten. Meer concurrentie is meer beter (in deze context).
en hoewel een factor is GeForce Experience -- waar ik graag van zou willen da nVidia drivers zou gaan aanbieden zonder dat erbij...)
Officieel niet, maar er zijn wel methodes voor. Ikzelf heb al enige tijd een rode rakker, maar toen ik groen was, maakte ikzelf gebruik van deze tool: https://github.com/ElPumpo/TinyNvidiaUpdateChecker

[Reactie gewijzigd door Settler11 op 20 juli 2022 12:57]

Kun je gewoon uitvinken hoor tijdens de installatie..gewoon officieel.
Klopt. Maar ik zou het liever vóór ik de download doe al uit willen zetten. Ja, ik heb snel internet. En ja, ik heb een grote NAS waar m'n downloads naar toe gaan zodat m'n "kleine" SSD niet onnodig belast wordt, maar van de gedownloade installer is ongeveer 350 megabyte (soms 300... gek genoeg) GeForce Experience. Ik zou liever die 350 megabyte niet downloaden. Idealiter, voor mij, maakt nVidia een mega kleine download (~400kb, zoals de chrome installer) die ná dat vinkje pas de echte driver download doet. Hoe fijn het ook is om na een behoorlijke tijd op m'n NAS een reeks oude versies te hebben (zodat ik terug kan als de driver gaar is).

Dus nogmaals: uitvinken is leuk, maar dan is hij al gedownload. Alleen niet geinstalleerd.
U hebt snel internet maar een zéér beperkt volume?
Het is altijd handig om wat drivers te hebben om op terug te vallen. Zeker met DLSS en als er nieuwe generaties kaarten worden geïntroduceerd, als je om wat voor reden dan ook een oudere Windows wilt installeren, bugs met monitoren / VR spul, noem maar op.

Het is leuk dat die bundel van 500-900MB in 5 a 10 seconden op je schijf staat, maar je hebt na een tijdje 5 drivers in backup staan, en daarin dus 5x 150MB aan GF experience rotzooi. En dan hebben ze de NVidia control panel er nog uit gesloopt ook, terwijl die nu juist handig is, maar goed dat is weer een ander probleem.

Voor m'n 2080Ti heb ik 3,89GB aan verschillende driver versies in opslag gehad. Als je Nvidia z'n gang laat staan heb je rustig 6GB aan installers op je OS SSD staan aan enkel WHQL drivers.
Waar van 30% GFE is. Laat Windows backup z'n ding doen en ze gaan mee naar Azure / Onedrive of andere diensten.

En dat allemaal omdat Nvidia graag je gegevens wil oogsten met deze tool. 3.0 doet daarnaast dit allemaal realtime (officieel alleen voor performance & crash reports).

C:\Program Files\NVIDIA Corporation\ zonder GFE? 2,1GB
Dezelfde map maar met alle telemetrie en verzamelde data die daar blijft staan? Iets van 5,5GB na 3 maanden. (Sterk wisselend afhankelijk van gebruik / hardware etc)
Kijk, dit is nu eens een duidelijke uitgebreide uitleg die ik helaas geen +2 kan geven. _/-\o_
Wat jij zegt over de Chrome Installer, ik heb dat toch liever niet.
Dan maar wat meer data, want als de download uit de server offline wordt gehaald (want Nvidida vind de nieuwere drivers beter of data in server moet opgeschoont worden noem maar op) heb je niks aan je installer.
inderdaad geef mij ook maar de optie om of wel of niet de Nvidida Experience te downloaden of niet.
Maar ik zou het liever vóór ik de download doe al uit willen zetten
Er zijn zoveel dingen die ik liever anders zou zien, maar soms moet je gewoon een klein ongemak op de koop toe nemen. Je kunt je druk maken over die 300/400 mb, maar daar heb je voornamelijk jezelf mee, nvidia gaat dat waarschijnlijk niet voor je veranderen.
Daarnaast, enig idee hoeveel megabytes aan zooi je dagelijks download door op internet te browsen? Als die scripts, plaatjes etc maken pagina's veel groter dan nodig is voor de daadwerkelijke informatie die er in staat.
Ik ben liever de luie slimme gebruiker dan bij elke installatie genoemde vinkje moet uitzetten. :P Er zit wel meer handige functies op zoals in de achtergrond bij elke inlog ff checken of er een update aanwezig is.
Ik denk dat Intel voorziet dat casual gamers deze kaarten wel willen kopen, vanwege de naam of wellicht een goede deal van een OEM. En voor sommige gamers zal dit een ok kaartje zijn. Met dat momentum kunnen ze dan blijven investeren in de drivers. Ze kunnen hun entree in de markt ook uitbaten door juist niet alle games van de afgelopen 20 jaar goed te laten werken maar te concentreren op populaire/moderne games.
Ja, LTT had er een video van waar het helder werd uitgelegd. :) het probleem zat vooral in de oudere DirectX titels. 'Tier 1' games doen het verrassend goed was het kort samengevat. Maarja, je hebt natuurlijk te maken met gamers die allerlei verschillende games spelen.

Maar ik ben benieuwd ook al sla ik de 2-3 generaties over denk ik. :)
Je kunt de drivers van nVidia zonder Geforce direct van hun site plukken.
waar dan als ik vragen mag gezien ik ze direct van hun site pluk maar nog altijd GFE mee krijg
https://www.nvidia.com/en-us/geforce/drivers/

Bij installatie voor Custom kiezen en GFE uitvinken.
ja maar dan download ik GFE nog steeds wat ik en vermoedelijk @Umbrah nou net niet wensen
zoals @questarey al vermeldde, moet je uitvinken dat je GFE mee download, anders download die ook mee

zoals je hier kan doen:
https://imgur.com/a/w4qfWN7
dit is de installatie dan heb ik hem al volledig gedownload
hoe dan? want krijg die optie niet voor het downloaden dit zie ik namelijk pas als ik klaar ben daarmee
die link die @questarey stuurde klikken, dan naar manual driver search, jouw videokaart opzoeken dat ding downloaden openen, en dan is het bijna de allereerste keuze die je hebt of je wel of niet GFE wilt
ja maar dan download ik GFE dus al of hoe werkt dat anders
ja dus? je installeert m niet en naderhand donder je de installer gewoon weer weg
ik wens hem simpelweg niet eens te hoeven downloaden allen de drivers als download dus

dat er de optie is om hem niet te hoeven installeren is erg prettig maar ik zou graag een stap verder willen zien
Dat is nádat je de installer van ~800mb (waarvan gecomprimeerd ongeveer 300MB GFE is) al hebt gedownload. De installer download geen nieuwe dingen (anders was het ding ~400kb groot geweest, zo groot is de installer). Een optie voor een barebones driver zou fijn zijn geweest. Elke update die ik wil doen (en ik doe ze niet allemaal omdat ze soms ook dingen stuk maken, zoals VR) betekend min of meer tussen de 300 en de 350MB voor mij 'onnodige' download, omdat ik, zoals je plaatje laat zien, altijd de installatie zonder GFE selecteer. Ik installeer het dus niet, maar heb het (in de vorm van de installer) wél moeten downloaden, en op m'n schijf moeten zetten.
Is er een specifieke usecase waar dit een probleem is? Of loop je gewoon tegen je eigen neurotische grenzen aan?
ja maar wat boeit dat nou weer, heb je geen unlimited data thuis ofzo. en naderhand kun je de installer gewoon weer wegdonderen
ja maar wat boeit dat nou weer, heb je geen unlimited data thuis ofzo. en naderhand kun je de installer gewoon weer wegdonderen
Lijkt mij inderdaad anno 2022 toch geen probleem meer. 800MB, waar hebben we het over.. ?
zit hier in een uithoek met 252 KB per seconde max dus dan vind ik het wel degelijk problematisch
Je wilt niet oude drivers wegdonderen, sommige zijn vrij essentieel om te bewaren.
"Windows kan niet upgraden als je driver ouder is dan 481.39" (522.10 staat erop)
HP G2 wil niet installeren zonder hololensen.inf - oude driver nodig anders gaat de boundry setup op zwart.
DLSS 1.0 files weg, maar game heeft geen nieuwere versie geïmplementeerd.
DX11 performance 40% slechter met 496.x drivers.

En al die tijd heb je dus steeds die 150-300 MB aan GFE op je NAS staan voor niets. En wordt er op je OS SSD als je het niet tegen houdt een extra package neergezet die ook in je online backup mee gaat als je de standaard Windows Backup regels gebruikt.

Het is meervoudig verspilling van opslag ruimte. Die 3 seconden dat het downloaden langer duurt maakt niet zoveel uit, maar het komt overal loos op je opslag te staan.
Jij en een aantal anderen kunnen of willen gewoon niet de usecase van mensen zoals @Umbrah of @atthias begrijpen. Dat ligt meer aan jullie dan aan hen. Er is eerder precies uitgelegd dat hij bijvoorbeeld zijn SSD niet onnodig wil belasten en/of achteraf bestanden wil weggooien die voor niets zijn gedownload. Ik begrijp dat wel. Als iemand alleen al puur voor zijn archief op zijn NAS na een notificatie automatisch de kale drivers wil binnenhalen, zonder GFE, is dat nu niet mogelijk. Dan vind ik een "oplossing" suggereren van "gooi de overbodig gedownloade bestanden dan maar later weg" een beetje kort door de bocht of zelfs zot.

[Reactie gewijzigd door conces op 21 juli 2022 10:43]

dank voor je begrip dat waardeer ik
Als je het allemaal niet snapt, dan mag je ook 'gewoon' Windows Updates gebruiken natuurlijk.
Of je download het 1 keer (en stript m eventueel) en gebruikt dat op al je machines.

Dat kost ons wat minder tijd ook.
Btw, ik wil dat het nu gaat regenen ivm de temperatuur hier binnen 8)7
Voor in de nabije toekomst is optimaliseren van Unreal engine 5 het enige wat nog telt. Veel games zullen dat gaan gebruiken. Maakt het ook een stuk makkelijker voor kaarten bouwers.
Want iemand die een budget kaart als dit koopt heeft verder een systeem dat de laatste Unreal 5 spellen aankan en kan zich die spellen ook veroorloven en zal niet geneigd zijn om wat oudere spellen met lagere eisen te kopen voor minder geld.

En Fiat Panda eigenaren gooien er Euro 98 in en rijden track days.
Goed geschreven. Ik verwachtte een nieuwe i740. Dit is iets beter dan ik had verwacht maar zoveel beter nu ook nou niet. Ik wacht trouwens nog altijd op directx9 3D support op Windows 2k/XP voor die i740.
Ja eens. En toch moet ik zeggen dat ik zelf niet teleurgesteld was. Dit is een eerste poging van Intel en hij is enorm goed. Als ik Tom, de persoon die bij Gamers Nexus is geweest, durf te geloven en zijn passie en enthousiasme ook gedeeld worden met het hele team dan wordt ik wel een beetje hoopvol op wat meer comptetitie voor Groen en Rood.

Ik was eerlijk gezegt meer telleurgesteld in de RX 6400 van AMD, dat sloeg nergens op.
En ook in het bestaan van een GTX 1630. Waarom moet dit een GTX zijn?
xx30 series was altijd GT en meer bedoeld als een goede manier om beeld te geven met voldoende rekenkracht voor ongeveer 80 tot 100 euro.
(en hoewel een factor is GeForce Experience -- waar ik graag van zou willen da nVidia drivers zou gaan aanbieden zonder dat erbij...).
je kon ooit gewoon de Driver, en enkel de driver, installeren vanaf de nVidia website.. Kan dit niet meer? Ik gebruik zelf Geforce experience omdat ik een luiedonder ben en de driver auto install.
Een RX6400 is dan ook gewoon, zoals je zegt: "meer bedoeld als een goede manier om beeld te geven met voldoende rekenkracht voor ongeveer 80 tot 100 euro."

Als het beeld geeft, video kan decoden en wat summiere 3d-applicaties kan draaien is het voldoende. Wil je game-prestaties zal je naar een 6500 (XT) moeten kijken, daaronder wordt het krap lastig om meer dan een potje cs:go te spelen of minecraft.

https://wccftech.com/amd-...-profile-flavors-159-usd/

Het is een low-profile, low-power (geen pci-e power connector) kaartje. Al ben ik het eens dat zoiets tussen de 80 en 100 euro moet kosten, maar videokaartprijzen slaan de afgelopen jaren nou eenmaal als een tang op een varken.

[Reactie gewijzigd door Nox op 20 juli 2022 13:14]

Ideale kaart (of een 1630) ook om HDMI 2.1 in je mediacentertje te stoppen. Voor 4K120 decoding voldoet het verder prima en ze zijn als single-slot low profile kaart beschikbaar.
Dat zou zo zijn als ze zelf niet de grootste cpu leverancier zijn. Intel kan naar de grote OEMs gaan en de kaart gekoppeld met cpu en mainboard verkopen.
AMD Ryzen is de laatste tijd marktleider geweest, geen idee waar jij op dat moment was.
Intel was heel lang de leider inderdaad, maar dat is al langere tijd niet meer echt het geval met Ryzen.
Dus dit is weldegelijk een mogelijke dealbreaker.
Marktleider in nieuwe losse sales misschien, maar onderschat het volume wat die OEMs weg zetten niet.
Begrijp me goed, ik heb zelf ook zo'n fijne AMD Ryzen in mijn PC, maar 'markleider' in wat precies?

Van TechSpot.com:
"Overall AMD ended Q1 (of 2022) with a 27.7 percent market share for x86 processors."

Intel heeft 72,3%...

Bedoelde je 'marktleider in CPU's voor gaming' ofzoiets?
Steam survey zegt over 'processorgebruik per fabrikant (pc)':
AMD 31,73%
Intel 68 27%
Jammer dat Dell bijvoorbeeld nog erg aan Intel vast zit bij de zakelijke reeks van hun laptops. Ik zie liever een zuinige AMD met lange accu duur dan een krachtpatser van intel die ik niet gebruik.
En de AMD is per watt vaak nog veel sneller
https://www.techpowerup.c...e-amd-starts-the-downfall
Info is wel van februari, maar laat zien dat sinds Ryzen, dat AMD weer terug in de race is.
Ryzen is, naar mijn mening, wel een betere CPU dan de heethoofd i9 van Intel.
Die CPU wordt echt, zeer warm in vergelijking met een Ryzen CPU, en vreet wat meer wattage.

[Reactie gewijzigd door Power2All op 21 juli 2022 11:13]

Marktleider in zelfbouwsystemen. Mindfactory houdt de verkoop van CPU's per maand bij en AMD is daar geruime tijd marktleider geweest. Dat waren ze trouwens al toen Zen 2 geïntroduceerd werd.
Dat klopt helemaal, en dat wist ik ook al, niet voor niets zelf ook ingestapt bij Zen 2 voor mijn zelfbouwsysteem. ;)

Echter; wat is 'marktleider in zelfbouwsystemen' precies waard? Dat is toch echt maar een heel klein stukje markt op de gehele markt voor CPU's (dat vergeten veel zelfbouwers/tweakers/gamers nogal makkelijk), en echt iets heel ander dan 'marktleider' [punt] zoals @Power2All schreef.
En de OEM's gaan alle klachten afhandelen van spellen die niet werken?
Ik vind hem, voor de juiste use case, niet tegenvallen eigenlijk. Ja er zijn problemen, maar dit is first gen van een bedrijf dat dit feitelijk nog nooit heeft gedaan én het product is hier nog helemaal niet te koop.

Compatibility issues zijn alleen interessant voor zelfbouw. Een OEM/system integrator heeft de ruimte om dit gewoon van te voren te testen per configuratie. Neemt niet weg dat het voor nu dus feitelijk geen goede optie is voor ons DIY'ers, maar we kunnen er ook niet makkelijk aan komen, dus nogal wiedes

Dit kan intel of oplossen met supersnelle ontwikkelingen op driver gebied, of simpelweg met de prijs.

Dat de kaart (nog) niet goed werkt met AMD processors is ontzettend jammer, maar helemaal geen dealbreaker voor het product. Ja, we zijn gewend dat videokaarten heel erg platform agnostisch zijn, maar wie zegt dat dat een eis is om het product op de markt te brengen? Ook dit valt op te lossen met een competitief prijskaartje

Als er ook maar iemand verwachtte dat dit product polished zou zijn, dan is dat de fout van diegene mbt verwachtingsmanagement. De launch die we hebben gekregen / nu krijgen is stukken beter dan wat ik had verwacht.

Overigens komt dit bericht wel weer lekker laat van Tweakers. Gamers Nexus en LTT zijn bijna universeel bekend in de DIY Pc/Tweaker markt en zij hebben beide al minimaal 6 dagen hun reviews online staan. Hier werd op deze site niets mee gedaan en deze post loopt feitelijk gewoon een week tot twee achter de feiten aan... Wat ik best wel lang vind voor een post waar weinig tot geen eigen werk van tweakers voor vereist is, gewoon reviews van anderen samenvatten. Niet dat er inherent iets mis is met dit soort posts, het is immers wel nieuws, maar een week?
Gamers Nexus heeft in de tussentijd ook een verschrikkelijk interessant interview gedaan met twee engineers van Intel:

4 interessante stukken over intel arc die gamers nexus in de afgelopen week gepost heeft:
https://www.youtube.com/watch?v=La-dcK4h4ZU&t=1528s
https://www.youtube.com/watch?v=AN8ZAf15DrM
https://www.youtube.com/watch?v=qoR0J9NTJyY
https://www.youtube.com/watch?v=8ENCV4xUjj0

[Reactie gewijzigd door youridv1 op 20 juli 2022 12:31]

Ik zoek nog een usecase waar men een kaart accepteert die lomp gezien 'all over the place is', games die niet willen draaien, games die zwaar onder maat draaien, games die juist beter draaien, specifieke driver/hardware issues voor het wel/niet kunnen draaien van ReBar.

In die cases ga je toch gewoon voor consistentie, je weet wat die rx6400 of de 1650 over de hele linie doen, die hebben de jaren optimalisatie voor oude games achter de rug, die hebben geen 'situatie en driver' afhankelijke resultaten bij nieuwere games, en de 6400 heeft zelfs een low-profile versie voor de meer compacte game-setups.

Vergeet niet dat AMD en Nvidia klaar staat voor hun volgende generatie, dat als ze er nu al 2 achterlopen, ze in no-time ook de volgende (die zeker aan de mid-low kant veel meer gericht zal zijn op zuinigheid) lineup meteen weer achter aan te mogen sluiten.
Je doet nu net alsof de drivers niet gewoon het probleem zijn en drivers niet automatisch via windows kunnen updaten…Consistentie kun je fixen, ruwe rekenkracht niet.

De A380, intels goedkoopste kaart, kan zich in usecases die al werken meten met het huidige aanbod van AMD en Nvidia die beide meer dan een decennium meer ervaring hebben. We kunnen allemaal janken dat de 1650 oud is, maar iets nieuws is er niet of wel soms? zolang de RTX 4090 en 80 er nog niet zijn duurt het nog minstens zes maanden voordat nvidia weer iets in het goedkope segment gaat doen. AMD’s 6400 is “net” uit, dus op hen hoef je ook niet te wachten.

Tenzij Intel de architectuur weer helemaal om gaat gooien voor de B serie, wat ik betwijfel gezien ze dus soortvan “on the back foot” zijn. Kunnen ze alle driver ontwikkelingen die ze de komende 18 maanden doen mooi grotendeels meenemen naar de de B serie.

[Reactie gewijzigd door youridv1 op 20 juli 2022 21:29]

De launch die we hebben gekregen / nu krijgen is stukken beter dan wat ik had verwacht.
Niet om het een of ander, maar dan lagen je verwachtingen m.i. wel erg laag. Ik zie eigenlijk niet in hoe het nog veel slechter had gekund, tenzij de kaart helemaal geen output gaf in games (ook niet op Intel platforms) of spontaan in brand vloog of zo.

Dit is toegegeven beter dan Intel's laatste uitstapje op discreet gebied (de i740, nog uit het AGP-tijdperk) en Intel geeft ruiterlijk toe dat de drivers nog niet klaar zijn en dat ze er stevig aan werken -- allemaal positief, maar dat was het dan ook wel.

Alchemist zal als geheel net iets te laat klaar zijn voor prime time succes; de topkaart haalt net RTX 3060 prestaties terwijl de volgende generaties van Nvidia en AMD alweer voor de deur staan. Tegen de tijd van Battlemage (als het driver team ook tijd heeft gehad) wordt het misschien wel eens wat, in ieder geval als "value option". Zelfs daarvoor is het nu nog onder de maat (want als je als budget-gamer genoegen wil nemen met de vorige generatie games omdat die niet zoveel van de hardware vergen kom je bij de Arc drivers nu bedrogen uit, die "doen" DX11 nog niet goed).

[Reactie gewijzigd door MneoreJ op 20 juli 2022 13:06]

Hoe het nog slechter had gekund? Als intel op ruwe rekenkracht zich niet had kunnen meten met bijvoorbeeld de 3060, welke ze nu claimen aan te kunnen.

De rekenkracht is er, dat is bewezen, in games waarvoor de drivers goed genoeg werken kan intel Nvidia aardig bijbenen.

De kaarten vallen of staan dus inderdaad met het ontwikkeltraject van de drivers.

Het feit dat v1.0 van het product van een nieuwe speler uberhaupt door ontwikkeld kan worden tot iets competitiefs in een segment vind ik al heel wat.

De volgende generatie van Nvidia in het 300 euro segment staat nog helemaal niet voor de deur. De RTX 4090 is er nog nieteens en er gaan al geruchten dat nvidia wil wachten tot Q1 volgend jaar. Het is JULI. Het kan dus zomaar nog een jaar duren voordat er een 4060 komt.

[Reactie gewijzigd door youridv1 op 20 juli 2022 21:36]

Dit is natuurlijk bullshit. Er is hiervoor geen "juiste usecase". Intel levert al tig jaar GPU's (alhoewel dan integrated). En nog steeds zijn de drivers compleet ruk. Daar is geen excuus voor.
Als deze launch al stukken beter is, dan wat je had verwacht: wat had je dan verwacht? Letterlijk een videokaart die je PC bricked of vernielt?
Een van mijn eerste reacties toen duidelijk werd dat Intel met dedicated graphics kwam was drivers en dat die waarschijnlijk niet goed zullen zijn in oudere titels. Daar waren weinigen het mee eens want het argument ze hebben al heel lang integrated graphics kwam naar boven. Alleen vergeten die mensen dat die archictectuur heel anders is.

Het is niet voor niks dat Intel een speciaal programma heeft om de 100 meest populaire DX11 titels te optimaliseren. Het zal dus gewoon een tijd duren voordat hun drivers op niveau zijn in oudere titels.
Deze reactie is natuurlijk net zoveel bullshit. Je gaat voor de makkelijke 'ik noem een extreme, en dan lijkt alles wat ik zeg redelijk', oud trucje wat Tweakers goed in de vingers heeft, maar precies 0 toegevoegde waarde.

Ik ben bijvoorbeeld wel benieuwd waar jij aan ziet dat de drivers van de integrated graphics compleet ruk zijn. Het overgrote deel van PC gebruikers draait er op, en volgens mij zijn er procentueel niet meer meldingen van van een NVidia of AMD waarbij er in hele gekke cases rare dingen gebeuren.

Deze launch had een stuk slechter gekund zonder het 'alles naar de tering' extreme voorbeeld wat jij noemt. Denk aan stabiliteit, performance is leuk maar je hebt er niks aan als het niet stabiel is.
Daarnaast is er zeker wel een juiste use case. Als jij een 3090 koopt om alleen je desktop te draaien, dan is dat geen juiste use case. Als jij een ARC koopt om die-hard 4K ultra gaming PC master race te gaan terwijl je op de achtergrond crypto mined en NFT's mint, dat is geen goede use case (en een mooi voorbeeld van, extremen noemen voegt niks toe behalve laten zien dat je boos bent dat een product niet aan je onrealistische verwachtingen voldeed).

Als je had verwacht dat dit direct high-end kon concurreren, dan heb je het gewoon fout. NVidia heeft al zo lang de game markt in een wurggreep dat games zelf worden geoptimaliseerd puur voor closed-source NVidia technieken, en ze daar nog geld voor kunnen vragen ook.
Nvidia maakt mooie spullen, maar zorgt er ook voor dat ze letterlijk nooit slechter uit de bus kunnen komen met de huidige technieken.
Wat betreft gaming heeft Intel met de IGP's een grote achterstand op zowel AMD als Nvidia.
Daarom worden de AMD APU's alom geprezen t.o.v. Intel IGP's want ze zijn niet alleen over het algemeen krachtiger maar met name in de laatste paar jaar ook veel stabieler en je kunt vrijwel alles starten wat je wilt. Of je een speelbaar aantal fps haalt is nog maar de vraag maar bij Intel is er gewoon veel vaker artifacting als het spel überhaupt al wil opstarten. Ze optimaliseren vooral voor de bekende games dus een potje minecraft zal prima gaan. De problemen bij Intel's IGP's zijn juist de spellen die niet geoptimaliseerd zijn.

[Reactie gewijzigd door Skyfox85 op 20 juli 2022 14:09]

Je beseft wel dat je jezelf tegenspreekt toch?

Deze launch had een stuk slechter gekund zonder het 'alles naar de tering' extreme voorbeeld wat jij noemt. Denk aan stabiliteit, performance is leuk maar je hebt er niks aan als het niet stabiel is.

Nou top, Intel heeft geen van beide voor elkaar gekregen: én slechte performance, én niet stabiel:
Meerdere spellen kon niet worden gedraaid, vooral wanneer op het testsysteem Resizable BAR uitgeschakeld was.
Dan schreeuwt bij mij niet direct "stabiel"... 8)7

Ik vraag ook nergens dat ze met high-end kunnen concurreren, maar op z'n minst op kunnen tegen de meest low-end van Nvidia of AMD lijkt ze ook nog niet echt te lukken zoals ik het nu zie qua scores...
Neem gewoon een 3060 die krijgt dezelfde drivers als de 3090.Een paar maanden door sparen is beter dan deze meuk.

Maar ik ben blij dat Intel het in ieder geval probeert.
En welke interessante user-cases zouden er volgens jou zijn dan?


Voor gaming kun je beter een tweedehandsje kopen met betere driver ondersteuning.
Professioneel gezien zou je er niet eens aan moeten beginnen.
Huis-tuin-en keukenwerk of kantoorwerk volstaat een interne GPU.


Wat blijft er dan over. Niks volgens mij.
Huis tuin en keukenwerk met een AMD processor die geen iGPU heeft
De Intel kaart werkt slecht met AMD systemen zoals in het artikel staat.

En voor hetzelfde geld heb je een AMD of NVidia kaart die wel goed werkt.

In Final Fantasy 14 kun je items maken en die aan andere spelers verkopen in low quality or high quality. Ik maak HQ items en verkoop die voor 50.000 gil. Iemand anders maak een low quality item en probeert die te verkopen voor 1 gil minder. Denk je dat die persoon success heeft?

Als je product maakt dat slechter is moet je toch echt beduidend goedkoper zijn. Nep cola van de Aldi is ook niet 1 cent goedkoper maar iets van 15 cent per blikje vs 60 cent.

Als kaarten voor "echt" werk zijn ze te licht alleen lichtere video/photo bewerkingen zijn ze voor geschikt. Daar is zeker een markt voor maar welke OEM gaat het risico lopen eindeloze support klachten te krijgen als iemand voor thuis een kantoor machine koopt en kindlief geen spelletje kan spelen?

Ze zullen echt omlaag moeten met de prijs met de kaart zoals die nu is. Het is alsof je een chinese auto probeert te verkopen voor de prijs van een Fiat Panda... dan toch echt liever de Fiat.
Ik heb een AMD Ryzen 5 1600 liggen die ik voor een HTPC gebruik.
Daar zit nu een GT 710, maar ik zou graag wat krachtigers willen daar zou ik mogelijk een Arc voor kunnen nemen afhangende van de Prijs en stroom verbruik (Zit een 300watt voeding in die kleine behuizing)

Een GTX1630 of eenRX6400 zou ook kunnen.. maar de GTX1630 is msrp al 150 dollar(dit was ook de MSRP van de 1650...) en is al gezien voor 200 en dat is bij de RX 6400 ook niet beter. daarbij.. een xx30GPU was voorheen altijd rond de 80 tot 100 euro.

Persoonlijk komt het voor mij aan op Prijs. Als de prijs goed is dan wil ik het wel wagen.
Dan moet er wel een Low Profile variant van komen.

Disclaimer: Met prijs bedoel ik de prijs in het schap.. niet noodzakelijk de MSPR..

[Reactie gewijzigd door Indentical op 20 juli 2022 13:07]

En welke interessante user-cases zouden er volgens jou zijn dan?
Persoonlijk zit ik te wachten op benchmarks mbt QuickSync. Als deze kaart enigzins leuk presteerd met encoding/transcoding kan ik mijn huidige oude intel cpu met QSV vervangen door een AMD cpu en deze kaart.
Kan je dan niet een 1050ti nvidia oid nemen, evt met een andere bios erop?
Nope, QSV geeft betere resultaten dan NVENC in mijn situatie.
(een 1050 ti is sowieso een minder goede optie, geen b-frame support, een 1650 met een TU116 is dan een betere optie)

[Reactie gewijzigd door Zer0 op 20 juli 2022 15:50]

Tegen dat je hem een beetje kan kopen zal er al wel genoeg getest en gepost zijn

Maar voor het geld heb je dan mss beter een goedkope intel cpu als 2e systeem
Het gaat al om een tweede systeem, en ik zit niet te wachten op nog meer verbruik.
Huis-tuin-en keukenwerk of kantoorwerk volstaat een interne GPU.
Ja, in veel gevallen wel ja, maar toch zijn er nog een hele hoop desktop pc's te koop voor weinig met een outdated nvidia kaartje erin of een GTX 1650. Daar kunnen deze dingen nu ook in icm een i7 12700F oid.
Die oude systemen waar de support helemaal op is ingericht en waarvan de OEM weet dat ze werken met 99% van de spellen zonder dat er support vragen optreden kunnen een andere kaart gaan gebruiken die het zelfde kost maar waar nieuwe support voor moet worden geregeld en waarvan bekend is dat heel veel spellen niet zullen werken?

Ik zie de business case niet helemaal voor me.
Die OEM systemen die over een tijdje pas geleverd gaan worden als de support beter is, waardoor intel ROI kan krijgen voor het driver werk dat ze nu nog moeten verrichten

Intel heeft lopende contracten met deze OEM’s en kan na wat driver werk tegen een interessant inkoopprijsje zorgen dat er ineens heel veel pc’s met een arc gpu voor weinig in het veld komen

De kaart is nog nieteens verkrijgbaar in het westen en mensen klagen nu al. Dit is waarom nvidia en amd een vette NDA meesturen met dit soort kaarten tot de officiele wereldwijde launch. Om dit soort leeghoofdige kritiek voor te zijn

[Reactie gewijzigd door youridv1 op 20 juli 2022 21:19]

En AMD/Nvidia die de huidige kaarten leveren aan de OEM, die hebben geen lopende contracten?

Intel loopt al jaren te verkondigen dat ze kaarten willen gaan maken, ze hebben in al die tijd de drivers nog niet op orde weten te krijgen en jij denkt dat ze dit binnenkort wel voor mekaar weten te krijgen terwijl ondertussen de volgende generatie van kaarten er al aan komt?

Tot nog toe is er geen enkele aanwijzing dat deze kaarten echt scherp gaan worden geprijsd en Intel is het niet gewent om een prijsvechter te zijn.
Want jij hebt enig inzicht in hoe oud de driver is die nu uitgeleverd wordt?

AMD heeft geen goede onderhandelingspositie bij OEM’s. Het is intel én nvidia jaren lang gelukt om hun producten uit veel prebuilts te houden ondanks competitiviteit.

Nvidia is niet in staat combi korting te geven op een CPU GPU combi die ze niet maken. Intel wel.

[Reactie gewijzigd door youridv1 op 20 juli 2022 21:41]

Een interne GPU volstaat vaak wel voor kantoorwerk maar biedt meestal niet de mogelijkheid om meerdere schermen aan te sluiten.
De iGPU van de skylake generatie supportte al triple monitor. Dat was 2016, oftewel 6 jaar terug…

Dat is geen valide usecase. Gewoon een prebuilt/moederbord zoeken met 3 display aansluitingen op het moederbord

[Reactie gewijzigd door youridv1 op 20 juli 2022 21:21]

Dus als ik een tweede scherm aan wil sluiten op mijn bestaande systeem met igp en één aansluiting op het moederbord dan adviseer je mij om een nieuw moederbord te kopen? Dan prik ik er liever een videokaart in.
Die fout heb je gemaakt bij de originele aanschaf van je systeem
Volgens intel gaan ze de prijs van de videokaarten baseren op de gemiddelde performance in de games die het slecht doen. Dus DX11 en ouder. Het zou dus goed kunnen dat ze prijs competitief genoeg zijn om te overwegen voor veel mensen

Bron
https://youtu.be/45n5pnEyw9o
Ik denk dat dit een kaart wordt voor mijn media center.
Dat de kaart (nog) niet goed werkt met AMD processors is ontzettend jammer, maar helemaal geen dealbreaker voor het product. Ja, we zijn gewend dat videokaarten heel erg platform agnostisch zijn, maar wie zegt dat dat een eis is om het product op de markt te brengen? Ook dit valt op te lossen met een competitief prijskaartje
Ik sluit niet uit dat er wat monopoliewaakhonden zijn die dat gaan zeggen, eigenlijk. Een product lanceren dat toevallig alleen te gebruiken is met Intel-CPU's, in een tijd dat betaalbare GPU's zeldzaam zijn en het marktaandeel van AMD in CPU-land aan het groeien is? Ik denk dat er best mensen zijn die daar onterechte uitsluiting van de concurrent in lezen. Laten we wel wezen, als AMD als reactie hun volgende generatie videokaarten ongeschikt zou maken voor Intel-processors zou de wereld te klein zijn voor alle ophef en verontwaardiging.
Ik denk niet dat dat gaat gebeuren, want dan zouden die waakhonden ook moeten gaan eisen dat Intel processoren compatibel zouden moeten zijn met AMD moederborden en omgekeerd.
Behalve dat je een CPU voor een socket en platform koopt. AMDs en Intel's CPUs hebben niet dezelfde socket (pasvorm), laat staan software, dus zijn niet compatibel. PCI-e is in het leven geroepen, net zoals al hun voorgangers, om wel compatibel te zijn. NVIDIA wilt ook geen 3080 kaarten bakken met connectors specifiek voor Intel en AMD.

Nu is echte real-world PCI-e compatibility e.d. altijd een ding, vooral als je de grenzen van een moederbord op zoekt (bijvoorbeeld als je delen van kaarten wilt doorpasen naar VMs). Maar laten we wel wezen: een GPU die Re-BAR nodig heeft is opzichzelf al merkwaardig (hopelijk een kinderziekte), maar dat deze dan niet werkt voor AMD CPUs, terwijl re-BAR in feite een PCI-e 3.0 standard feature betreft, is echt wel belachelijk te noemen. Daarvoor zou je zeker wel een waakhond voor kunnen informeren..

En daarmee wil ik niet zeggen 'alle schuld aan Intel'. Dat enkel voor de re-BAR eis. Ik neem ten gunste van Intel aan dat AMD CPUs wel booten met deze kaarten, maar net zo bedroevend presteren als een Intel systeem zonder re-BAR. De AMD re-BAR compatibiliteit kan ook net zo goed aan AMD liggen. Immers kwamen zij er groot mee adverteren dat deze geweldig werkt met AMD 5000 CPU + AMD GPU, maar daarbuiten nog niet. Misschien was hun implementatie wel super brak (lees: ook niet compatibel met PCI-e 3.0 standaard)?.. en enkel gericht op eigen producten, en is er later gepatched om ook compatibel te zijn met bijvoorbeeld NVIDIA.

[Reactie gewijzigd door Hans1990 op 20 juli 2022 17:12]

Dat de GPU Re-BAR nodig heeft vind ik op zich geen probleem.

Het is al heel lang een PCI-e feature, dus zelfs de low-end markt voor die ARC 380 kaarten heeft dat al in hun moederborden zitten.
En ken nog geen nadelen voor re-BAR waardoor je het niet aan zou willen zetten.

Dus zolang Intel maar duidelijk aangeeft dat het nodig is, dan zie ik het probleem niet.
We weten dat het meestal een kleine performance winst geeft en afhankelijk van de situatie grotere winsten. Zeker als je drivers er dan van het begin af aan rekening mee houden kan ik me voorstellen dat er meer situaties zijn waarin het grotere performance winst geeft.
Omdat AMD in het recente verleden heeft laten zien wel in staat te zijn feilloos op beide platformen te werken.

Intel niet. En waar in de specificatie van een videokaart staat dat hij het AMD platform moet supporten? Is dat een eis? Waar moet zo’n waakhond zich op baseren?
En van Linus tech tips ook al twee weken: https://www.youtube.com/watch?v=mdFnY74dVNE
Daar hebben ze ook e.e.a. nagevraagd bij Intel, en hopen/verwachten dat het in de loop van de tijd wel beter gaat worden.
Voor nu is het in ieder geval nog niet aan te raden als losse videokaart.
Deze nieuwe van LTT is ook wel relevant hier: https://www.youtube.com/watch?v=45n5pnEyw9o
Dit was natuurlijk volledig te verwachten als je naar de staat van intels iGPU's keek. Bij reviewers die handhelds vergeleken met hun AMD variant kwamen driver problemen ook naar voren en Intel heeft een enorme inhaalslag te maken op dat gebied.

Er komt meer bij kijken dan een standaard goed implementeren want dat doen game developers ook niet perfect. Die leunen op optimalisaties van AMD en Nvidia. En als je dan tegen twee concurenten moet opboksen die dat vanaf het begin wel hebben gedaan voor specifieke games zal dat nog best een klus worden.
Gemiddeld 120 fps in CSGO met lows van 60 fps is toch wel diep triest, dat is een titel van 10 jaar oud.
Maar vanwege de hardware eisen van ReBar, op een zeer recent systeem :P
Context: Mijn oude GTX 760 OEM 1.5GB had dubbel zoveel average fps in die game
Hun plan is om eerst te werken aan de performance in nieuwere games, en later oudere.
Als het daaraan ligt, zou het dus nog kunnen verbeteren.
(vlgs mij hoorde ik dat bij Gamersnexus).
De performance komt nog altijd in de eerste plaats van de hardware van de video kaart.

In de drivers kun je bugs oplossen en vreemde performance issues in specifieke games. Maar in grote lijnen levert een videokaart met de eerste drivers al 95% van de prestaties in een willekeurige game.
Als ik nieuwe spellen wil spelen wil ik een kaart die raytracing kan doen en zich kan meten met een RTX3080 op zijn minst om deze spellen tot hun volle recht te laten komen.

Op een GTX1650 systeem speel je oude budget spellen omdat de rest van je systeem de laatste spellen toch niet aan kan.

Als je een budget systeem bouwt doe je dat omdat je een klein budget heb en alles goedkoop moet. CPU/Moederbord/Geheugen/Videokaart EN spellen.
Als ik nieuwe spellen wil spelen wil ik een kaart die raytracing kan doen en zich kan meten met een RTX3080 op zijn minst om deze spellen tot hun volle recht te laten komen.
En als ik nieuwe spellen wil spelen wil ik een kaart die dat zo vloeiend mogelijk kan i.c.m. met mijn monitor, (resolutie en frequentie) en PC en dat betekent niet (zelfs vaak niet) dat de kaart zich moet kunnen meten met een RTX 3080 en ook niet dat de kaart Raytracing moet kunnen doen.
Op een GTX1650 systeem speel je oude budget spellen omdat de rest van je systeem de laatste spellen toch niet aan kan.
Een GTX 1650 kan prima op 1080p nieuwe spellen fatsoenlijk weergeven. Er zijn meer dan genoeg mensen die op een PC in de huiskamer op hun FHD tv games willen kunnen doen zoals een COD, WOW of Efootball. Vaak nog in een betere kwaliteit dan op een Xbox of PlayStation op dezelfde resolutie op dezelfde TV.
Als je een budget systeem bouwt doe je dat omdat je een klein budget heb en alles goedkoop moet. CPU/Moederbord/Geheugen/Videokaart EN spellen.
Jouw verhaal zit echt van egocentrisch lijm aan elkaar...
Er zijn meerdere redenen waarom mensen een budget systeem willen. Daarbij hoeven niet noodzakelijk alle onderdelen goedkoop en zeker niet alle spellen.

[Reactie gewijzigd door conces op 21 juli 2022 11:06]

Dus een vergelijkbare situatie met AMD van zoveel jaar geleden. Eerst maar even de eerste twee generaties afwachten om te kijken of het wat wordt.
De adviesprijs van de Arc 380 zou op 130 tot 140 Amerikaanse dollar zijn vastgesteld.

(...)

De Intel Arc 380 kan zich volgens de testresultaten van de Duitse site Golem.de bijna meten met een GeForce GTX 1650 wanneer ReBar ingeschakeld is.
Ergens eind 2019/begin 2020 betaalde ik minder dan 150 EUR voor een GTX 1650. Hieruit maak ik op dat de videokaartmarkt nog steeds niet afgekoeld is.

[Reactie gewijzigd door The Zep Man op 20 juli 2022 12:17]

Niet zitten trollen!
Zo'n situatie is er nooit met AMD geweest.

Als mensen het over driver problemen hadden, dan ging het over kleine dingetjes waarbij bv een gloednieuwe AMD driver nog niet geoptimaliseerd was voor een bepaald spel, terwijl de Nvidia driver al 4 maanden te tijd had gehad om optimalisaties voor dat spel te maken. En dan ging het over een 5 a 10% verschil in prestatie.

Wat je hier bij Intel ziet kan ik me in de gehele geschiedenis van 3D videokaarten niet herinneren.
Zou Intel de Chinese markt als beta test gebruiken?
Tja, ik was er al een beetje bang voor. Alleen bruikbaar voor Intel CPU i.c.m. ReBar verkleint de mogelijkheden natuurlijk behoorlijk en zonder ReBar zijn de prestaties veel te klein t.o.v. de gevestigde concurrentie.
Ja, hetis natuurlijk ook pas de eerste generatie en verbeteringen op zowel software als hardware zijn nog mogelijk. Maar voordat iemand een toch nog wat onvolwassen kaart koopt i.p.v. Nvidia of AMD moet er toch wel echt een duidelijk prijs/performance voordeel bestaan, en dat lijkt momentaan simpelweg niet het geval.
Dus, tenzij je er vast van overtuigd bent dat er nog veel gewonnen gaat worden met betere drivers is het advies om deze kaarten simpelweg niet te kopen! Het is wel duidelijk uit de eerste resultaten dat er vreemde inconsistente resultaten optrden met werkelijk bizarre vertragingen,zie b.v. deze video 08:10 voor de rampzalige vertragingen zonder ReBar ... daar lijkt verbetering duidelijk mogelijk!
Tja, het zou leuk zijn als er een derde speler bijkwam op de videokaartenmarkt, maar het is niet de taak van de consument te betalen voor Intel's pogingen in een voor hun min of meer nieuwe markt door te dringen.

[Reactie gewijzigd door batteries4ever op 20 juli 2022 12:36]

Resizable bar zit ook op AMD sinds de X570 chipset, maar wordt dan SAM genoemd. Dus dat probleem is er niet (meer)
Overigens is rebar niks nieuws onder de zon, het zit ook al op mijn S2011-3 moederborden.
Nou ja, Intel heeft aangekondigd dat ze AMD SAM gaan ondersteunen, maar zover ik weet is dat nog niet getest. Dus wat mij betreft voorlopig nog onbewezen, met name omdat juist die intel kaarten ongelooflijk afhankelijk zijn van ReBar/SAM... Als jij daar al wat gevonden hebt laat het me weten!

De video over de Intel A750 https://www.youtube.com/watch?v=AN8ZAf15DrM, suggereert 4x de processing units, geheugen en bandbreedte, dus als ik op dit moment moest gokken zou ik zeggen 4x zo snel als de A380, dus dan zou je richting 3060,3070 gaan. Gezien de ongelooflijk variabele performance van de Intel kaarten en natuurlijk de onzekerheid hoe het dan echt met het performanceverschil met de A380 staat met je deze opmerking met heel wat zout nemen.

[Reactie gewijzigd door batteries4ever op 20 juli 2022 13:20]

AFAIK is SAM gewoon een marketing naam voor resizable bar?
Ja, maar dat wil niet zeggen dat hij precies werkt als het intel equivalent, dus niet per se hetzelfde voordeel oplevert voor een scenario. Omdat de performance kennelijk zo afhankelijk is van deze ReBar/SAM zou de uitwerking wel eens behoorlijk kunnen verschillen. het effect van ReBar/SAM wordt hier getoond voor een andere videokaart en lijkt hier niet gelijk te zijn: https://www.youtube.com/watch?v=OiGe2-gLyzk.
Het is een PCIe standaard dus je mag hopen dat ze praktisch hetzelfde werken. SAM is dan puur de naam die marketing erop geplakt heeft.
Volgens het artikel werkt de driver dus niet correct met rebar op AMD CPU's. Dat het er in zit, betekent nog niet dat het werkt.
Ah, heb je ook nog een bron die aangeeft dat het specifiek de AMD-zijde is die het niet doet? Want dat is precies andersom dan het artikel hier eigenlijk impliceert.
Het past aan de andere kant natuurlijk ook precies in het straatje van Intel. De kwaliteit van hun videodrivers was toch al niet geweldig (maar niet per se problematisch voor het segment waarin de GPU's gebruikt werden), en ondersteunen van andere platformen was nooit noodzakelijk. Dat vereist natuurlijk ook een inhaalslag die AMD (GPU-zijde) en nVidia niet hoeven te maken.
Maar resizable bar is een PCI-e standaard die echt niet nieuw is. Intel heeft er met de CPU-chipsets al heel lang ervaring mee. Beide opties zouden waar kunnen zijn. Misschien zelfs tegelijkertijd.
Nouja als Intel eigenlijk altijd 1 ding goed kon was het wel PCIe, USB, Firewire, DDR, Ethernet en andere standaarden deftig implementeren.
Maar dat zou dan de zoveelste AMD implementatie zijn waar iets mis mee is. AMD heeft ook de USB implementatie niet op orde.
Quote
Dus nVidia en AMD videokaarten werken gewoon prima met ReBar/SAM op AMD (waar AMD btw het eerste mee kwam aanzetten) maar die van Intel niet en dan ligt het aan de implementatie van AMD??

Blijf altijd verbaasd dat bij vele mensen de eerste gedachte maar blijft... oh dan doet AMD dat fout..
Na al die jaren hebben ze bij zoveel mensen nog steeds dat Imago...ongelovelijk

[Reactie gewijzigd door Sinester op 20 juli 2022 14:16]

Het was AMD die er pas later mee begon.
Het bestond wel al lang als standaard ja, maar volgens mij was AMD was de eerste die de GPU er mee liet samen werken om zo een prestatie winst te pakken. Waarvoor werd het dan gebruikt op je socket 2011-3?want daar kan ik maar weinig over vinden op Google
Dat komt meer omdat AMD wel vaker dit soort dingen niet goed doet.
Elke bedrijf doet wel dingen fout, maar door deze opmerking moest ik even kijken of het niet opeens weer 2010 was. Tegenwoordig zijn ze niet beter of slechter dan de concurrentie op dat gebied imo
Het bestond wel al lang als standaard ja, maar volgens mij was AMD was de eerste die de GPU er mee liet samen werken om zo een prestatie winst te pakken. Waarvoor werd het dan gebruikt op je socket 2011-3
Ik ken geen concrete producten die deze eis hadden voordat AMD ermee aan kwam zetten, maar ik ken de optie uit het BIOS/UEFI al een lange tijd. Die zit er niet voor niets in denk ik. Het is vooral interessant voor insteekkaarten met veel lokaal geheugen dat moet communiceren met de CPU. GPU's en andere co-processoren dus. Wellicht ook FPGA's en/of storage controllers?
Wie weet levert Intel juist deze kaart alleen in china om te kunnen kijken wat er verbeterd kan worden voordat de kaart wereldwijd geleverd gaat worden?
Dat zou kunnen. Maar is het dan niet een grof schandaal dat Intel (of willekeurig ander bedrijf) dan willens en wetens een niet goed werkend product op de Chinese markt zet en hen als testers gebruikt?

[Reactie gewijzigd door mjtdevries op 20 juli 2022 18:04]

Ik zou iedereen aanraden om naar de informatie te kijken die gedeeld is met Gamers Nexus: https://youtu.be/8ENCV4xUjj0

Intel heeft nog een lange weg te gaan, maar dat is niet gek als je ziet hoeveel voorsprong de andere twee hebben.
Als je weet dat je nog een lange weg te gaan hebt en je kaart absoluut niet klaar is om op de markt te brengen. DOE HET DAN NIET!

Als reviewers zo snel deze issues ontdekken, dan kan Intel dat ook.
Het product toch op de markt brengen in China, is dan de beste manier om je product meteen om zeep te helpen. De hele wereld heeft nu een negatieve gedachte bij de naam Intel Arc. Dat soort reputatie schade kost heel veel tijd om te repareren.
En waarom? Als Intel het ding 3 maanden uitgesteld had om de drivers te verbeteren dan had niemand daar over geklaagd. Want wie zit er op deze kaart te wachten die zou gaan klagen?
Wat opvalt is dat intel blijkbaar geen speciaal team programmeurs heeft om samen met de spelontwikkelaars naar oplossingen voor dergelijke problemen te zoeken, of dat dat team véél te klein is. The witcher 3 is nou niet bepaald een obscuur indie titeltje uit een donker gaatje van itch.io.

[Reactie gewijzigd door emphy op 20 juli 2022 12:58]

Bij elke aankondiging over intel kaarten liepen mensen te schreeuwen dat drivers een probleem gingen worden, met daarop als reactie dat dat iets van vroeger was en dat het lang niet zo erg was nu.... en wat blijkt? Het is nog net zo'n probleem als vroeger.....

Ook al zou de kaart veel sneller zijn dan een gelijk geprijsde kaart van een andere merk dan nog wil ik geen gok nemen als ik een spel opstart. Intel moet eerst eens investeren in drivers voordat ze serieus als alternatief genomen kunnen worden. Zouden ze veranderen? Ik ga er niet op wachten.....

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.



Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee