Sinds jaar en dag zijn de keuzes voor een videokaart in je systeem heel binair; je kiest voor AMD of voor Nvidia. Voordat dit duopolie ontstond, hadden we veel meer keus uit fabrikanten. In de jaren 90 was S3 Graphics gigantisch, had iedereen wel van de Voodoo-kaarten van 3dfx gehoord en waren Trident en Diamond Multimedia bekende namen. Pas in 1995 kwam Nvidia met de NV1 en ATI met zijn Rage-gpu, die samen het begin van het einde voor de competitie inluidden.
Langzamerhand stierf de competitie van ATI en Nvidia op het gebied van desktopvideokaarten uit, hoewel diverse partijen uiteraard nog lucratief bleven op onder meer mobiel gebied. Op de desktop bleven ATI, inmiddels uiteraard overgenomen door AMD, en Nvidia over. Nou ja, bijna dan, want Intel heeft nog altijd een marktaandeel van een whopping 60 procent op de pc-markt. Dat enorme marktaandeel betreft natuurlijk voor het overgrote deel de onboard-gpu in Core-processors, want Intel heeft pas sinds kort 'echte', losse videokaarten in zijn assortiment. Over de hobbelige weg daarnaartoe kun je in dit achtergrondverhaal lezen, maar tldr: Intel heeft sinds krap een paar maanden een soort losse videokaarten in de vorm van de Arc-serie. Een recente, flinke driver-update moet bovendien de grootste prestatieproblemen oplossen, reden voor ons om deze kaart op de pijnbank te leggen.
Die Arc-serie valt onder de Alchemist-videokaarten en na de Arc A310 en A380 moeten krachtigere modellen als de A580, A750 en A770 volgen. We hebben de Intel Arc A380 getest. Die moet concurreren met AMD's Radeon RX 6400 en Nvidia's GTX 1650. De Intel Arc A380 is nog niet verkrijgbaar, al werd een Asrock-kaart korte tijd in een Duitse webshop voor 189 euro aangeboden. We ontvingen een Arc A380 van het Chinese merk Gunnir. Gebruiker Lucofski heeft hem geïmporteerd en aan ons uitgeleend, waarvoor dank! We vergelijken de kaart met zijn directe concurrenten.
Arc en Alchemist in het kort
Zoals wellicht bekend is, timmert Intel al een paar jaar aan de weg om een 'losse' videokaart te maken, een niet-geïntegreerde gpu dus, of, zoals dat bondig in het Engels heet, discrete graphics. Na het Larrabee-experiment, dat uiteindelijk verder ontwikkeld werd als Xeon Phi, was het even stil op het discrete-graphicsvlak bij Intel. Uitstapjes als Iris Pro, met een eigen stukje L4-cache op een aparte die, leverden vooralsnog geen losse videokaart of gpu op die het tegen dergelijke kaarten kon opnemen.
In 2020 volgde de eerste bijna-losse videokaart van Intel: de DG1. Bijna-los, want de DG1 werd onder de Iris Xe- en Iris Xe MAX-vlag in laptops, dus niet als insteekkaart, beschikbaar gesteld. De DG1-gpu werd een paar maanden later ook als insteekkaart verkocht, maar enkel aan oem's. Consumenten moesten dus nog wachten op een echte Intel-videokaart.
Intel Arc A380-pcbIntel Arc A380-koeler
Die kaarten zouden door DG2 mogelijk gemaakt moeten worden. De Arc-serie die we in deze review testen, valt onder die noemer. De Arc-kaarten hebben de codenaam Alchemist gekregen, de opvolger zou Battlemage moeten worden en nog verder in de pijplijn zitten Celestial en Druid. Waar Xe-gpu's op basis van DG1, of Desktop Graphics 1, nog het achtervoegsel LP kregen, voor low power, hebben de DG2-gpu's het achtervoegsel HPG. Dat moet voor high performance graphics staan, al gaf Intel toe niet direct met het hogere segment van AMD en Nvidia te kunnen concurreren. 'Onze' Arc A380 neemt het volgens Intel op tegen de GTX 1650 en RX 6400, niet bepaald kaarten die potten breken dus.
De A380, gebaseerd op de DG2-128-gpu, wordt niet door Intel zelf geproduceerd, maar dat is uitbesteed aan TSMC. Daar wordt de ACM-G10, zoals deze gpu-variant heet, geproduceerd op 6nm en heeft hij 7,2 miljard transistors op zijn 157mm² grote die. De gpu heeft 1024 shaders, verdeeld over 128 execution-units, en beschikt over 8 RT-cores. De L2-cache bedraagt 2MB en het vram bestaat uit 6GB GDDR6-geheugen met een bus van slechts 96bit, wat 186GB/s aan bandbreedte oplevert.
Specificatie
Kaart
Intel A380
AMD RX 6400
Nvidia GTX 1650
Nvidia GTX 1650 Super
Gpu
Familie Variant Architectuur
DG2-128 ACM-G10 Generation 12.7
Navi 24 Navi 24 LX RDNA 2.0
TU117 TU117-300-A1 Turing
TU116 TU116-250-KA-A1 Turing
Procedé
Node Fab Die-oppervlakte Aantal transistors
6nm TSMC 157mm2 7,2 miljard
6nm TSMC 107mm2 5,4 miljard
12nm TSMC 200mm2 4,7 miljard
12nm TSMC 284mm2 6,6 miljard
Config
Shaders Units Tmu Rop RT-cores
1024 shaders 128 EU's 64 tmu's 32 rop's 8 cores
768 shaders 12 CU's 48 tmu's 32 rop's 12 cores
896 shaders 14 SM's 56 tmu's 32 rop's -
1280 shaders 20 SM's 80 tmu's 32 rop's -
Geheugen
Capaciteit Type Busbreedte Bandbreedte L2-cache L3-cache
De eerste reviews gaven een weinig rooskleurig beeld van de A380-prestaties. Vooral oude games presteerden matig door suboptimale DX11-optimalisaties. Inmiddels heeft Intel die problemen niet alleen onderkend, maar ook verbeterde drivers uitgebracht. De prestaties van die drivers, versie 101.3277 om precies te zijn, bekijken we in deze review.
Testmethode
Intel positioneert de Arc A380 tegenover de AMD RX 6400 en Nvidia GTX 1650. We hebben die twee kaarten, en de GTX 1650 Super, daarom tegenover de Intel-kaart gezet. De Arc A380 in de volgende grafieken is steeds blauw gekleurd, de AMD-kaart is traditioneel rood en Nvidia zoals gebruikelijk groen.
We hebben onze videokaarttestsuite gebruikt voor deze test, maar beperken ons tot de laagste resolutie die we testen: 1920 bij 1080, of 1080p. Dat doen we simpelweg omdat de kaarten al nauwelijks voldoende capaciteit hebben om die resolutie fatsoenlijk te draaien in veel games. 1440p of 4k zou geen zinnige framerates opleveren en in veel gevallen niet eens draaien. Daar hadden we in sommige gevallen op 1080p al last van, vooral op de ultra-setting.
Het testsysteem bestaat zoals gebruikelijk uit ons AMD-systeem, met voor de Arc A380 zoals aangegeven de 101.3277-driver, voor de AMD-kaart driverversie 22.8.2 en voor Nvidia driver 516.94.
Gpu-testsysteem
Processor
AMD Ryzen 9 5950X @ 4,65GHz all-core
Moederbord
ASUS ROG Crosshair VIII Hero (bios 4006, Agesa V2 PI 1.2.0.6b, Resizeable BAR-support geactiveerd)
Werkgeheugen
G.Skill Trident Z Royal 32GB (2x 16GB) DDR4-3600 CL16-16-16-36
Ssd
Samsung 970 EVO 250GB (OS) + Kioxia Exceria 2TB (games)
Voeding
Be quiet Dark Power Pro 12 1500W
Koeling
Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Besturingssysteem
Windows 11 21H2 (ver 22000.613)
Synthetische tests: Unigine en 3DMark
In Fire Strike en Fire Strike Extreme komt de A380 aardig mee met Radeon 6400 en is de kaart sneller dan de gewone 1650 van Nvidia. De 1650 Super is echter met uitzondering van Fire Strike Ultra steeds de snelste gpu.
In Unigine is Nvidia wat sterker dan Intel en AMD, en is zelfs de GTX 1650 iets sneller dan de A380. Op de 4k-resolutie haalt geen enkele gpu nog zinvolle framerates, maar houdt de A380 de 1650 nog netjes bij.
De Intel-driver zou vooral problemen hebben met games die op DX11 of oudere api's draaien, maar ook in DX12-game Valhalla op 1080p zien we toch een lagere score dan bij concurrerende kaarten voor de A380. Verhogen we de instellingen naar ultra, dan is Intel opeens - relatief - spekkoper, met veel hogere framerates en lagere frametimes. Dat dankt de Arc waarschijnlijk aan zijn twee gigabyte extra vram.
Waar de A380 zich op ultra-settings in Valhalla wist te revancheren, blijft de kaart in Cyberpunk onderaan bungelen. Een interessant detail: de 1650 Super en de RX 6400 kunnen nog prima Cyberpunk draaien op 1080p-medium.
Doom wil op ultra niet draaien op de 4GB-kaarten, dus alleen de A380 kan hier een score noteren. Die score is niet geweldig, maar op medium kunnen alle gpu's aardig Doom draaien. De Arc komt redelijk mee, maar de game draait veel beter op de 1650-varianten, hoewel Doom toch een lichte AMD-voorkeur heeft.
F1 heeft zo'n voorkeur voor AMD of Nvidia niet, maar de racegame heeft duidelijk ook geen voorkeur voor Intel. De achterstand, zeker ook wat frametimes betreft, van de A380 op de overige kaarten is met medium-settings aanzienlijk, al loopt de kaart op ultra redelijk in op de RX 6400 en GTX 1650.
Far Cry draaide enkel op de AMD- en Intel-kaarten, waarbij de AMD-kaart op medium-instellingen een stuk beter presteert dan de Arc. Op de ultra-preset presteert de Arc echter vrijwel hetzelfde als op medium, terwijl de prestaties van de RX 6400 instorten. Dat laatste komt door de 4GB-vram van die kaart, wat ook de reden is dat Far Cry op de Nvidia-kaarten framerates van nauwelijks meer dan 5fps haalt, dus effectief niet draait.
Forza op de A380 blijft opnieuw flink achter bij de andere kaarten, zowel op medium als op ultra. De frametimes zijn vooral op ultra buitenproportioneel hoog. Niet dat je met amper 21fps Horizon 5 gaat spelen natuurlijk, maar toch.
Guardians of the Galaxy is een game die wat gpu-affiniteit betreft behoorlijk naar Nvidia leunt. Dat is ook te zien aan de verschillen tussen de RX 6400 en GTX 1650, beide vrijwel gelijke gpu's, behalve in Guardians. De affiniteit voor de Intel-kaart is nog veel lager; Guardians wordt gerenderd met de helft van de framerate van de AMD-kaart, die zelf maar de helft van de 1650 haalt. Ultra-instellingen hebben hier verder geen zin.
Guardians of the Galaxy (DX12) - 1920x1080 - Medium
Medium (99p)
Medium (99.9p)
Guardians of the Galaxy (DX12) - 1920x1080 - Medium
Metro: Exodus staat bekend als zware game met een lichte Nvidia-voorkeur, maar Metro blijkt ook wel met Intel door een deur te kunnen. De A380 scoort prima in de game en verdubbelt de framerates van de RX 6400. Alleen de GTX 1650 Super is iets sneller.
RDR2 is al een iets oudere game, maar draait op zowel DX12 als Vulkan. We draaien de game op de Vulkan-api, net als Doom. De 1650 Super zet hier prima prestaties neer, maar de A380 van Intel scoort ook nog acceptabel. De RX 6400 is iets sneller, maar Intel streeft wel de 1650 van Nvidia voorbij. Op hogere settings eindigt Intel zelfs op de tweede plaats.
Total War-games hebben traditioneel een voorkeur voor Nvidia en dat is in de resultaten goed te zien. Met een vergelijkbare framerate als de RX 6400 doet de A380 het niet slecht op medium, maar op ultra wordt het gat een stuk groter, ondanks flink gestotter van de RX 6400.
Het idle-verbruik van de Intel-gpu is nog niet erg onder controle. Met bijna 20W verstookt de kaart bijna net zoveel als een paar hongerige 3080- en 3090-kaarten. Het opgenomen vermogen ingame is wel keurig binnen de tdp van 75W die Intel opgeeft. Dat geldt overigens voor alle kaarten.
Omdat de twee Nvidia-kaarten niet alle tests in de testsuite konden voltooien (Far Cry 6 is de schuldige), hebben deze kaarten geen prestatie-index voor de medium-instellingen. De AMD RX 6400 is in onze index 18 procent sneller dan de Arc, terwijl die laatste theoretisch sneller moet zijn. Geen enkele kaart in de test kon alle games op de ultra-setting draaien, dus ook daarvan ontbreekt een indexcijfer.
Om toch een vergelijking met de Nvidia-kaarten te maken, hebben we een extra index gemaakt, zonder Far Cry 6. De RX 6400 is nog steeds een stuk sneller, maar beide Nvidia-kaarten slaan een nog veel groter gat. Denk nog even terug aan de bouw van de A380. Die heeft meer shaders, meer geheugen, een hogere kloksnelheid en toch veel lagere prestaties dan de GTX 1650.
Tweakers GPU Prestatiescore 2022 - 1080p medium (Arc A380)
Het rammelt aan alle kanten met Intels pogingen om losse videokaarten op de markt te brengen. Alle vertragingen in de aanloop naar de release van de A380 en het nog altijd ontbreken van krachtigere modellen zijn een teken aan de wand. Ook de ogenschijnlijke tegenzin van derden om kaarten onder hun merk uit te brengen zijn een veeg teken.
Aan de ene kant is het prijzenswaardig dat Intel niet over één nacht ijs gaat met zijn videokaarten. Je hebt immers maar één kans om een eerste indruk te maken. Ook het erkennen van de problemen met de Arc-kaarten, vooral de driverproblemen die Intel-ceo Pat Gelsinger tijdens een investeerderscall besprak, én het werken aan oplossingen voor die problemen, pleiten voor Intel.
Inmiddels heeft het bedrijf echter zijn eerste verbeterde versie van drivers uitgebracht en de resultaten daarvan zijn, in combinatie met de Arc A380-kaart, in deze review te zien. En die zijn niet bepaald bemoedigend. Natuurlijk kan er nog flink gesleuteld worden aan de drivers, maar een gpu die op papier een stuk sneller moet zijn dan zijn concurrenten en desondanks significant slechter presteert in de praktijk, is niet echt klaar voor prime time.
Dat is jammer, want juist in een tijd dat gpu-fabrikanten de prijzen tot grote hoogte opdrijven, zou een derde speler welkom zijn. Die moet dan wel een zinnig alternatief voor de gevestigde orde vormen en dat is op dit moment helaas nog niet zo. We hebben het dan niet eens over het midden- en laat staan het topsegment, maar zelfs in het instapsegment is Intel momenteel nog een maatje te klein. En dan is ook 150 tot 200 euro voor een kaart nog te veel. Maar, zoals een groot leider ooit zei: "We shall watch your career with great interest."
Ik vind het geheel toch minder dramatisch dan je zou denken. Deze Arc-reeks toont aan dat Intel serieus wil investeren in concurrerende kaarten. Van een eerste first-gen release lijkt het me dan ook wel normaal dat ze qua performance achterop hinkelen tov AMD en Nvidia die ondertussen al meer dan 20 jaar ervaring hebben in dit soort GPU development.
Op vlak van drivers valt er nog veel te winnen alsook mogen we niet vergeten dat optimalisaties voor de specifieke intel architecturen nog vrijwel onbestaand zullen zijn bij de huidige games.
We mogen er alvast van uit gaan dat Intel here is to stay en dat ze potentieel echt wel een inhaalbeweging zullen maken op vlak van performance. Een bedrijf als Intel is ongetwijfeld 1 van de weinige spelers die de knowhow en resources heeft en wil aanspreken om marktsegment te vergaren in het gpu segment (en dit ook effectief zal kunnen waarmaken). Ik vind het alvast een heel goede evolutie en stap in de goede richting.
[Reactie gewijzigd door JacobsT op 22 juli 2024 21:52]
Ik vind het geheel toch minder dramatisch dan je zou denken.
Ik heb eerst de conclusie gelezen en daarna de benchmarks om te zien of ze echt zo slecht waren en ik ondersteun deze mening volledig. De reviewer is echt veel strenger voor Intel dan de cijfers.
Wetende dat nVidia en AMD over jaren, zoniet tientallen jaren, meer ervaring beschikken dan Intel zie ik Intel hier een kaart neerzetten die, zeker op Ultra settings, best netjes presteert en zelfs regelmatig de anderen achter zich laat. Nog los van het feit dat Intel, dankzij de RT cores en de 6GB RAM, een aantal spellen draait die de anderen simpelweg helemaal niet kunnen draaien. En daarmee dus voor de "budget" gamers een optie biedt om zich te vermaken met spellen die de concurrentie niet aan kan.
Al met al een hele serieuze eerste zet van Intel en een stevige waarschuwing voor de toekomst.
Niets houdt Intel tegen om met een gelijkaardige API te komen zoals Vulcan die meer bandbreedte en minder latency voorziet tussen Arc en Intel cpu’s. Gezien hun positie in de cpu markt zijn er ongetwijfeld onnoemelijk veel mogelijkheden om extra performance te scoren.
Ik vind het ook een enorm goede evolutie dat er een 3de primaire speler op de gpu markt verschijnt. De consument kan er maar beter van worden.
Ik lees ook enorm vaak opmerkingen over het niet meekunnen met het topmodel. Zie je ook constant in de AMD vs Nvidia battles elke gen maar we mogen niet vergeten dat dit enkel een prestigekroon is. Doe mij als fabrikant maar het 80 percent segment van de mainstream gpu’s. Daar wordt het echte geld verdiend en volume gehaald. De topkaarten zijn altijd uiteindelijk een niche product en zal niet gekocht worden door 95 percent van de mainstream gebruiker.
[Reactie gewijzigd door JacobsT op 22 juli 2024 21:52]
Niets houd ze tegen een eigen API te maken zo als Vulcan maar wie zou er gebruik van maken? De markt penetratie is er niet en dus zal je als game developer een partij achterlijk moeten zijn om een gehele development pipeline op te zetten om een API van een niets betekenende speler op de GPU markt te ondersteunen. Vergeet niet dat dit dus ook inhoud dat alles getest zal moeten worden en dat je dus ook specialisten moet hebben die bug die alleen voorkomen in deze specifieke versie van de rendering engine zullen moeten oplossen. De kosten om zo'n extra API te ondersteunen zijn extreem hoog zeker als je bedenkt dat niemand zo'n kaart gebruikt.
Dus ondanks dat fysiek niemand ze tegen zal houden zijn er toch wel degelijk enorme krachten die Intel zullen belemmeren met een eigen API op de proppen te komen.
Wat betreft de kritiek die men op Intel heeft als het om prestaties gaat, het toont alleen maar aan dat de reviewer in deze weinig begrijpt van de complexiteit van de huidige GPU. Zelfs een bedrijf als Intel dat er jaren ontwikkeling in steekt letterlijk miljarden aan R&D tegen aan gooit en een aantal van de beste mensen in de wereld aan neemt om het project te leiden kan met hun eerste kaart de top spelers niet verslaan.
Ik zie deze eerste generatie van Intel dan ook niet als een slechte of minder indrukwekkende release, eerder als een zeer indrukwekkende release. Voor een eerste release, vergeet ook niet dat dit niet de top kaart maar de minste kaart is in de Intel lineup, is dit een zeer indrukwekkende release. Niet alleen zijn deze kaarten erg betaalbaar maar ze zijn ook vrij zuinig met energie hebben alle moderne technieken aan bord en zijn goed genoeg voor de wat oudere games.
De snellere kaart de 770 die men ook al heeft aangekondigd zal hoe dan ook beter presteren is nog steeds een stuk goedkoper dan de concurrentie en lijkt in ieder geval op papier zeker geen slechte kaart te worden.
Natuurlijk zijn er drivers die nog veel werk nodig hebben, vele jaren van werk bij de concurrenten en enkele maanden aan de kant van Intel, dat is niet vreemd. Ook weten we maar al te goed dat als een game geoptimaliseerd is voor NVidia AMD de game niet in haar benchmarks zal mee nemen en andersom. Er is geen enkele game die is geoptimaliseerd voor de Intel kaarten en dus kun je ook hier niet verwachten dat er games zijn waar Intel de vloer aan veegt met de concurrentie.
Van alles dat ik tot op heden heb gezien lijkt het er erg op dat als Intel door durft te zetten met hun eigen GPU's we over een 2 a 3 generaties echt 3 grote spelers op de GPU markt zullen zien.
Op dit moment lijkt het er erg op dat NVidia en in mindere mate AMD tegen een bottleneck aan aan het lopen zijn waarbij de energie consumptie van hun chips tot belachelijke hoogte aan het groeien is. Zeker NVidia heeft in middels bijna een eigen energie centrale nodig om het ding te voeden.
Waar we tot voor kort konden laten zien hoe rijk we wel niet waren door een nieuwe GPU te kopen kunnen we nu laten zien hoe rijk we wel niet zijn door een nieuwe GPU te gebruiken want met een power draw van tot wel 800W voor de 4090 zullen we binnen kort waarschijnlijk een aparte 3 fase aansluiting nodig hebben om onze GPU's te kunnen gebruiken. Ik hoop heel erg dat Intel die valkuil weet te ontlopen en een GPU weet te maken die niet een kleine kerncentrale nodig heeft om wat games te kunnen tonen.
Hum, het is geen totale ramp inderdaad, maar Intel heeft natuurlijk al 10-15 jaar ervaring met GPU’s, ze maker er meer dan amd en Nvidia. Ok, dat zijn igp’s maar die spelen dezelfde games en hebben dus dezelfde drivers… in principe hoeft Intel dat “alleen” op te schalen, en GPU’s staan bekend om hun goede schaalbaarheid. Dat een gpu met 30-50% meer ruwe reken kracht en bandbreedte op een veel nieuwer proces het toch 30-50% slechter doet is wel een beroerde start als je het mij vraagt. Ik hoop voor Intel dat battlemage echt heel wat efficiënter omgaat met energie en chip oppervlakte… een factor 3 beter is zeker nodig om te kunnen concurreren, minimaal. Dat is niet makkelijk…
Nou ja ze gaven in een interview inderdaad aan dat het moeilijker was dan ze hadden verwacht. Wat apart is - het is niet echt een nieuw type video kaart, de architectuur is hetzelfde als in de CPU’s van Intel. Net zoals bij amd de APUs gewoon een kleinere radeon hebben.
Tja, ik ben geen schrijver van gpu-driver-software maar ook al heb je dezelfde architectuur maar wel meer/minder textures-units / shaders / memory of smallere/bredere geheugenbus of weet ik wat, dan moet je daarop je driver wel aanpassen of ieder geval je driver 'slim' genoeg maken dat die nieuwe features ook worden gebruikt. Zeker gezien de wisselende resulaten per game gaan optimalisaties wel ver.
Dezelfde ontwikkeling cyclus zie je ook bij bijv. consoles; ook al zijn alle parameters bekend nij de release en wijzigt de hardware nauwelijks, toch worden steeds meer optimalisaties gevonden/doorgevoerd.
Ik lees ook enorm vaak opmerkingen over het niet meekunnen met het topmodel. Zie je ook constant in de AMD vs Nvidia battles elke gen maar we mogen niet vergeten dat dit enkel een prestigekroon is. Doe mij als fabrikant maar het 80 percent segment van de mainstream gpu’s. Daar wordt het echte geld verdient en volume gehaald. De topkaarten zijn altijd uiteindelijk een niche product en zal niet gekocht worden door 95 percent van de mainstream gebruiker.
Precies dit..... Voordat de AMD 6000 series kwam, heeft AMD zich een aantal jaren helemaal niets van het top-segment aangetrokken en zo enorme bakken met geld verdient om de verdere ontwikkeling te financieren.
Het helpt natuurlijk voor de beeldvorming dat je de snelste kaart hebt ontwikkeld. Ook als je als consument op zoek bent naar het middensegment. Je houdt toch in je achterhoofd dat merk X 'de beste' is. (En ja, je zou moeten kijken naar daadwerkelijke performance en energieverbruik, etc., maar we zijn toch allemaal emotionele wezens...)
Dat bedacht ik me ook.
Toen bedacht ik me vervolgens dat de negatieve toon van dit artikel waarschijnlijk meer schade doet aan Intel's imago dan het niet hebben van de allersnelste kaart.
Helemaal mee eens. Het is dom om te verwachten dat de 1e generatie videokaarten kunnen concurreren met de topmodellen van AMD en Nvidia.
Naar mijn mening zet Intel deze kaart te duur in de markt.
Ze moeten zich eerst bewijzen, en dan ben je eigenlijk genoodzaakt om kaarten goedkoper dan de concurrentie in de markt te zetten, en dat doen ze niet.
Nou ja ze kunnen ook maar zoveel verlies draaien hè. Deze chip is groter, heeft een bredere geheugen is en is op een nieuwer, duurder proces gemaakt dan de concurrentie dus ja, dat kun je lastig voor een stuk minder verkopen.
Daar heb je helemaal gelijk in. Maar de Top kaarten bepalen wel de reputatie en dat verkoopt.
Intel heeft nu een slechte reputatie en wordt hierdoor niet snel door een niet technisch persoon gekocht.
De niet technische mensen zijn waarschijnlijk de 80% van de markt.
En die mensen kopen nu ook al geen intel processors meer gezien na de name change intel processors slecht zijn dus dan maar masaal aan de AMD wat zij de collega, je moet cores hebben en geen intel processors dus tja dan kom je bij AMD
Ik geloof dat heel veel mensen niet eens meer een pc kopen, maar een console. In mijn omgeving zijn de PC-bezitters nagenoeg uitgestorven en staat er nu een PS5 of Xbox (wel AMD) in de huiskamers, met diverse tablets en laptops. Dat was 10 jaar geleden echt wel anders.
Ik denk dat het noodzaak is voor Intel om in de toekomst een aantrekkelijke kandidaat te zijn voor nieuwe generaties van consoles, en ook met GPU's in te kunnen springen op crypto-mining, als dat weer een heropleving krijgt. Dat ze zullen moeten investeren in GPU's lijkt me niet ter discussie staan.
Tja, met de prijzen van vorig jaar betere videokaarten richting €2000.- ben je een dief van eigen portemonnee, je moet dan erg graag voor PC gaan om dat te willen! Momenteel heb je een PC met 3080 voor zo'n 2000,- Die bied betere graphics eb de games zijn vaak goedkoper.... maar voor het prijsverschil kan je aardig wat games kopen plus een abbonnement.
Voor te gamen op PSP of XBOX qualiteit heb je geen 2K vidkaart nodig,
Ik heb zelf al jaren mijn oude 1060 in mijn game PC zitten en een quadro T2000 in me laptop, Tot dus ver nog geen enkele game die het niet trekt op High settings in de instellingen.
Hierin is te zien dat de A770 zich goed staande weet te houden tegen over een 3060 en een 6600 XT.
Maar ook heel verrassend in 1 spel beide kaarten ver achter zich laat.
Conclusie van JTC is;
Heb je een 1440 monitor, koop een A770.
Heb je een 1080 monitor, wacht op driver verbeteringen.
De reviewer is echt veel strenger voor Intel dan de cijfers.
De reviewer wil een aankoopadvies maken. Als het in vrijwel ieder geval slechter is dan de concurrentie dan kan je het toch niet aanraden?
Wat heb je eraan als koper van deze kaart dat Intel een nieuwkomer is?
De reviewer kan hier niet anders dan met een negatieve conclusie komen. Of zou jij 'm kopen als je voor een paar tientjes meer een GTX 1650 super hebt die in sommige van deze benchmarks wel 2x zo goed presteert?
[Reactie gewijzigd door Wolfos op 22 juli 2024 21:52]
De reviewer wil een aankoopadvies maken. Als het in vrijwel ieder geval slechter is dan de concurrentie dan kan je het toch niet aanraden?
Als het in vrijwel ieder geval zo zou zijn zou hij wellicht gelijk hebben. Als Doom Eternal en Farcry überhaupt niet draaien op de andere kaarten dan mag je je als adviseur toch wel eens achter de oren krabben.
Daarnaast is de toonzetting en het taalgebruik niet gericht op aankoopadvies maar op het afkraken van de A380. "Het rammelt aan alle kanten" is geen advies maar een toonzetting.
De "de" in die zin maakt duidelijk dat het over specifieke kaarten van deze review gaat. Moest dat woord er niet zijn was de context anders.
Anderzijds: als ik in de pricewatch kijk naar kaarten met >4GB maar <240 euro vind ik eigenlijk geen kaarten meer, buiten een 1060 van oude stock hier en daar.
Voor mij is het dus wel duidelijk. De A380 heeft in de USA een MSRP van 140$ en wordt zo ook verkocht. Vertaald USD>EUR + BTW komt dat neer op 173 euro. Er is dus in die prijscategorie gekeken naar de alternatieven. Intel zelf noemt het:
Intel positioneert de Arc A380 tegenover de AMD RX 6400 en Nvidia GTX 1650. We hebben die twee kaarten, en de GTX 1650 Super, daarom tegenover de Intel-kaart gezet.
De RX6400/GTX1650 zijn rond de 220 verkrijgbaar en hebben 2GB minder. Een AMD/Nvidia kaart met 6GB heeft dan weer een hogere prijs. We vergelijken toch ook geen RTX3060 tegen een RX6800? Da's een gelijkaardig relatief prijsverschil.
Sorry, maar die 'oorlog' was toen ook terecht. Intel had slecht werk afgeleverd. Toendertijd waren de drivers erg slecht, en waren er meerdere problemen in het gebruik ervan (niet bruikbaar met meerdere monitoren). Ik laat de minder presterende benchmarks nog even achterwegen, omdat dit een nieuw product is tegen twee al langer bestaande grootmachten, te weten AMD en Nidia.
Hoe het nu (en in de toekomst) is met de Intel Arc GPU merken we vanzelf. Dat zal de toekomst uitmaken.
Ook de eerste alinea is niet echt onbevooroordeeld...
Is ARC uitgesteld? Zeker, dat valt niet te ontkennen, maar AMD en Nvidia hebben ook heel vaak launches uitgesteld.
De tegenzin van fabrikanten om videokaarten te maken? Grotendeels gebaseerd op geruchten, en maar een of twee bevestigingen, maar ook daar niets vreemds onder de zon.
Dus de openingszin dat het rammelt is niet echt terecht en heeft geen plaats in een objectieve review.
Daarnaast is het jammer dat er geen aandacht wordt besteedt aan datgene waar de A380 wel echt goed in lijkt te zijn: Hardware Video en/decoding.
[Reactie gewijzigd door knirfie244 op 22 juli 2024 21:52]
Het probleem is alleen dat Hardware Video en/decoding ook al goed werkt op een nieuwe generatie intel intergrated. in sommige gevallen werkt quicksync zelfs beter dan de CUDA variant.
Sorry, maar dat is al lang niet meer het geval. Tot en met de 4e generatie i processors had QSV niet de meest geweldige videokwaliteit, daarentegen was het wel factoren sneller dan de concurrentie, wat vooral fijn was met transcoding op je media server. Maar als je met latere generaties nog problemen hebt met de videokwaliteit, dan is er gewoon iets mis met je instellingen.
[Reactie gewijzigd door knirfie244 op 22 juli 2024 21:52]
Ik heb een 9900k en een GTX 1660 (Turing) in mijn Plex/TVHeadend server zitten, Plex doet h264 encoding (veelal HW x265 naar x264), TVHeadend encode op h265, maar er is een zeer duidelijk verschil te zien tussen QSV en Nvenc. Zelfs als ik de bitrate verdubbel, komt het nog steeds niet in de buurt van NVenc. Waarbij dat laatste eigenlijk zo goed is dat het verschil met origineel zeer klein is.
Qua instellingen is vanalles geprobeerd (op TVheadnend dan, want Plex kent nagenoeg geen transcoding settings), QSV is by far inferieur aan NVenc qua beeldkwaliteit.
En dat zie ik zelf eigenlijk ook terug als ik via transcode kijk op bevriende Plex servers, ik zie meteen of ze met QSV of NVenc werken
Maar goed, dat zegt natuurlijk niets over de nieuwe ARC lijn, hopelijk hebben ze dat nu beter op orde, want qua prijs kan het een zeer interessante optie zijn als video encoder.
[Reactie gewijzigd door Madshark op 22 juli 2024 21:52]
De driver problemen zijn wel een groot minpunt: ATI en later AMD zijn daar altijd zwaar op afgerekend waardoor nVidia jarenlang de onbetwiste heerser was in het hogere segment. Dat Intel dezelfde fout maakt is zorgelijk te noemen voor de toekomst van Intels videokaarten. Zeker omdat Intel de derde speler op de markt wil zijn en om een positie te veroveren moet eigenlijk alles in 1 keer goed zijn, anders loopt Intel het risico niet serieus te worden genomen.
Persoonlijk had ik gewacht met de introductie tot de drivers in ieder geval het idle-vermogen op orde hadden, dat steekt wel erg negatief af tegenover de veel krachtiger nVidia en AMD videokaarten: mindere prestaties én meer verbruiken in idle is géén goede reclame.
De paar games die getest zijn mogen wel werken, maar dat geldt niet voor de miljoen andere games die mogelijk nog buggy zijn of draaien. Deze kaart kopen is gokken op ellende met drivers. Ze releasen ook geen native dx9+ driver meer.
Iets met "Argueing facts not in evidence". Als je zo'n claim maakt dan verwacht ik dat je die onderbouwt. Doe je dat niet dan verwijs ik het naar het land der fabelen.
DirectX11 is 14 jaar oud. Ik ga er rustig van uit dat iemand die 14 jaar oude spellen speelt dat wel op een IGP kan doen. Daar is niets meer voor nodig dan een 5 jaar oude AMD APU. En die loopt heel hard rondjes om de top GPUs uit het DX9 tijdperk.
[Reactie gewijzigd door Croga op 22 juli 2024 21:52]
DirectX11 is 14 jaar oud. Ik ga er rustig van uit dat iemand die 14 jaar oude spellen speelt
Dat iets 14 jaar oud is, betekent niet dat alle spellen die op DX11 draaien in het eerste jaar uitgekomen zijn hè. Zelfs nu nog komen er nieuwe DX11 spellen uit. Het zijn dan niet de grootste namen, maar ze komen wel. Er zijn de afgelopen paar jaar ook populairdere spellen op DX11 uitgekomen.
DX11 is nog steeds relevant, AAA spellen van een aantal jaartjes geleden zijn ook nog in DX11 te vinden en die spelen hoort toch niet zo heel gek te zijn.
Vandaar ook dat Intel DX11 gewoon ondersteund en nog optimalisaties voor DX11 toevoegd aan de drivers. Ik reageerde echter op iemand die stelde dat DX9 niet ondersteund werd.....
Ja, maar dat is het probleem niet zo. Dat waren niet de AAA titels die de toenmalige GPU's tot het randje bracht. Daarvoor is de DX9 emulatie op DX11 goed genoeg. Vandaar Jism's opmerking over native DX9 drivers. Die zijn niet meer essentieel. Het verschil tussen 140 en 150 fps maakt niet meer uit.
Gezien de matige performance zou dit een leuk kaartje zijn om oudere games te spelen,maar dus niet met een slechte DX11 driver.
En dat "Arguing facts not in evidence" betreft: ik denk dat @Verwijderd geen kaart heeft om uit te proberen en ook nergens claimt het te weten, maar het gezien de driverproblemen geen verrassing zou zijn als spellen zo hier en daar niet draaien of problemen hebben. Dus dat "gokken op ellende" is inderdaad maar een vermoeden, maar zeker geen wilde fantasie: als je zo'n kaart koopt loop je simpelweg meer risico dan met een AMD/nVidia, alhoewel we hier zien dat nVidia b.v. Farcry6 niet draait. Misschien worden de Intel drivers nog heel veel beter en presteert de kaart uiteindelijk beter - dan heb je mazzel met zo'n kaart.
Check de reviews eens. De driver problemen waren enorm. Sommige games gewoon niet speelbaar.
AMD of Nvidia heeft veel meer ervaring op gebied van Drivers en ook zero day releases dan Intel. Je gaat gewoon een gok aan met aanschaf van zo'n kaart.
Intel moet doorzetten wil het succesvol worden in de GPU markt. En dan een paar revisies op z'n minst voordat men wat op de tafel kan neerleggen.
Het is uiteindelijk een compute based kaart; een aftakking wat ingezet is als graphics card. Niet nieuws onder de zon (Raja > Mi50 / Vega).
Wat je hier niet terugziet in de cijfers is het feit dat je op ARC DX11 en eerder eigenlijk niet heel lekker draait. Stabiliteit is ruk, features werken niet of half enzovoort.
Dus je mist die performance maar je hebt ook nul zekerheid.
geen enkele kaart in deze test is hier capabel om op ultra degelijke fps neer te zetten. Dus weet niet wat jij best netjes als definitie hebt...
Misschien ook effe mooi bijzetten dat het verbruik/prestaties ook al niet te best is en daar heeft de reviewer dan nog niet te veel over meegegeven.
dus absoluut correcte bevindingen. Kaart is geen concurrentie en deze reeks is direct klaar voor vuilbak en geen alternatieve koop waardig. Het is trouwens ook een vergelijk tegen een nvidia en amd kaart die al hun ouderdom hebben, nieuwe staan om de hoek. Laat staan dat ze ook maariets in de midrange in de buurt zullen komen.
Het product wordt hier gereviewed en niet de mogelijke toekomst lijkt mij? De drivers zijn gewoon niet zo goed als die van Nvidia en AMD. Dat Nvidia en AMD hier bijna 30 jaar over gedaan hebben is toch in een recensie en dus vergelijking niet belangrijk?
Als Pietjepuk een nieuwe auto op de markt brengt, die auto ziet er goed uit, maar rijd als een Lada 1200 dan zeggen we toch ook niet. Ja maar het is een nieuwe speler, met de jaren brengen hun wel een goede auto uit?
[Reactie gewijzigd door RobertPeterson op 22 juli 2024 21:52]
Neemt niet weg dat dit nog steeds een sterke eerste stap is en de Arc onder specifieke omstandigheden eigenlijk helemaal niet zo slecht werkt. Ja als je oude games wilt spelen dan valt het tegen maar met nieuwe games of apps die worden ondersteund is de Arc "value for money".
En daar draait het uiteindelijk om. Eigenlijk is Nvidia/AMD helemaal niet zo anders, ook daar kijk je naar wat je van plan bent alleen zitten zij in een hoger segment.
Dat Intel er nog niet is, zal niemand ontkennen maar tegelijkertijd nogmaals dit is een nette eerste stap, Intel heeft hier veel resources tegenaan gezet en maakt geen indruk dat ze weer snel eruit trekken. Dus als dit het begin is, kunnen we nog wel iets moois verwachten in het onderste segment. Daarnaast heeft Intel nog een ander voordeel, zij kunnen deze GPU bundelen met hun entry CPU's dus het zou me niet verbazen dat we ze toch veel in het wild gaan zien en daarmee voor software ontwikkelaars toch wel nut heeft om de Arc goed te ondersteunen.
Zeg dat maar tegen de vroegste aandeelhouders van Apple, Google, Tesla, en Intel!
Er komt natuurlijk een stukje inzicht bij kijken.
En ook bij producten die buitengewoon goed presteren in de eerste maand, blijft het een gok of die -bij wijze van spreken- het een maand later überhaupt nog steeds doen.
Het is natuurlijk een uitspraak die voor consumenten geld, wat moet een aandeelhouder met een videokaart die niet goed werkt haha .
Ja het is gissen, daarom moet je ook op het moment van kopen kijken hoe het product werkt en of je voldoende vertrouwen heb in het bedrijf waarvan je het product koopt.
Je gaat eraan voorbij dat Apple bijna failliet was en kunstmatig in leven gehouden werd door Microsoft. Om monopoly problemen te voorkomen.
Dat het later goed kwam dankzij hun mp3 speler, welke belegger durfde daarop te wachten?
Of Intel doorzet met haar grafische kaarten is echt maar de vraag nu de crypto markt opgedroogd is. Ik sta er in ieder geval niet van te kijken als men de stekker eruit trekt.
We mogen er alvast van uit gaan dat Intel here is to stay en dat ze potentieel echt wel een inhaalbeweging zullen maken op vlak van performance.
Ik denk aan 3d Xpoint, modems en de mobiele processoren. Intel heeft vaak genoeg opgegeven.
De verdere ontwikkeling van drivers ligt er niet alleen aan of Intel het kan (lijkt er niet echt op) maar ook of ze het gaan proberen vol te houden. De track record is niet echt geweldig daarvoor.
Daar zou ik niet zo zeker van zijn. De fabrieken die worden neergepoot momenteel om zelf chips te gaan bakken im de VS, Italië,…
Dit is echt een superlogisch verhaal en vanzelfsprekend traject om te volgen. Ze zijn niet blind voor hun Nasdaq concurrent AMD waar het geen windeieren gelegd heeft voor hun. CPU en GPU naast elkaar ontwikkelen met directe optimalisaties voor beide platformen is echt een heel grote kans.
Bijvoorbeeld:
Stel dat je een AMD cpu hebt met een prijs/kwaliteit sterke Arc gpu en er zou een specifieke API zijn die enkel met Intel cpu’s werkt en je 5 tot 10 percent extra performance kan geven. Zou je dan daarna een AMD cpu kopen bij upgrade?
Dit is echt een superlogisch verhaal waar ze stevig in zullen investeren. Ben ik rotsvast van overtuigd.
Ik ben het helemaal met je eens dat dit de goede langtermijnstrategie is. Echter is het management van Intel belabberd en heeft keer op keer foute keuzes gemaakt (bv. "ARM kan weg, en 64 bit doen we alleen bij de Itanium"). Er zijn hele horrorverhalen online te vinden over hoe machtslust en vriendjespolitiek er de toon voeren Alleen dat maakte het überhaupt mogelijk dat het 10x zo kleine AMD concurrerend werd.
Ik heb vol vertrouwen erin dat het Intel-management wederom slechte beslissingen nemen zal.
Echter is het management van Intel belabberd en heeft keer op keer foute keuzes gemaakt (bv. "ARM kan weg, en 64 bit doen we alleen bij de Itanium"). Er zijn hele horrorverhalen online te vinden over hoe machtslust en vriendjespolitiek er de toon voeren Alleen dat maakte het überhaupt mogelijk dat het 10x zo kleine AMD concurrerend werd.
Ik heb vol vertrouwen erin dat het Intel-management wederom slechte beslissingen nemen zal.
Intel heeft vaak slechte beslissingen genomen, zoals de Pentium IV, waarop je een ei kon bakken, rekenen was bijzaak. Zij dachten dat het verhogen van de klok de truc was, terwijl RISC fabrikanten (Motorola) het beter deden op een lagere kloksnelheid.
Toen Intel dat door had, herpakten ze zichzelf en kwamen ze met de Core 2 architectuur. In het begin hebben ze nog een blundertje gemaakt door daar ook een 32-bits versie (Core) van uit te brengen, maar het was vanaf 2006/2007 standaard 64-bits (Core 2 / i3 / i5 / i7 / i9).
Nu zit Intel weer "vast" in z'n laatste sub-optimale Core ix versie, en doet ARM het beter. De toekomst zal leren of ze dit overleven, of dat na Apple meer fabrikanten ook op de desktop overstappen op ARM. De mobiele markt heeft Intel al voorgoed verloren aan ARM.
Je weet dat Intel een eigen ARM-archtectuur had en die heeft weggedaan omdat hij "niet nodig" was? En de Core-architectuur was alleen door geluk in Israël te vinden als oplossing voor de gemaakte ellende.
Zelf de hoge kloksnelheid en van de P4 zijn een indicatie. Alle ingenieurs zeiden dat de kloksnelheden niet zo ver konden, maar het management besloot dat het moest gebeuren.
"Zij dachten dat het verhogen van de klok de truc was" is volgens mij niet de goede omschrijving daarvoor. Het management besloot dat dat de truc was, tegen beter advies in.
Ja, daarna deden ze het een tijd beter, todat de processproblemen begonnen en men niet voorbij 14 nm kwam. Hoe is het mogelijk dat zo een enorm bedrijf dermate vast komt te zitten? Dat ligt dus aan het incompetente management.
[Reactie gewijzigd door _Pussycat_ op 22 juli 2024 21:52]
Exact, ook op driver vlak vind ik heel tech journalisten land niet getuigen van gedegen historische kennis. De drivers van AMD en NVIDIA zijn eigenlijk pas 10 jaar niet dramatisch slecht. Daarvoor was het altijd echt huilen en waren er zeer regelmatig bugs en issues, ieder die ooit een crossfire of SLI setup heeft gehad is daar zeker 1 jaar van z'n leven aan kwijt geraakt...
Ik heb een beetje kunnen spelen met de arc drivers en ze zijn er zeker nog niet, maar wel een stuk verder dan ik verwacht had.
[Reactie gewijzigd door Flaat op 22 juli 2024 21:52]
Ik begrijp je insteek, maar je lijkt te vergeten dat Intel heel ruime ervaring heeft in het maken van GPUs en GPU drivers. Dat waren misschien geen discrete GPUs, maar het waren toch echt GPUs. Bovendien is er een enorme bak aan ervaring binnengehengeld. Grote namen uit de GPU industrie werden aangetrokken om dit project te trekken. En dan hebben we het nog niet over de 3.5 miljard die er in is geinvesteerd.
Ik wil ook dat Intel slaagt. Maar dit is gewoon een hele dikke failure.
Ik mis een test bij deze moderne gpu's en eigenlijk niemand doet het, maar een encode/decode test van een video bestand, naar de verschillende populaire formaten zou wel leuk zijn.
Machine Learning is heel erg NVidia gebied. De standaard is CUDA (CUDNN), en dat is een NVidia proprietary methode. Het beste wat Intel daar tegenover kan zetten is niet Arc, maar AVX-512.
Dit is deel van het probleem. Daarnaast, de methodes verschuiven nogal snel en onderliggende code/packages worden met enige regelmaat geüpdatetdus het is best lastig om nu een test te verzinnen die over een paar jaar ook nog relevant is.
Aan de andere kant, GPUs worden alleen maar relevanter binnen ML. Transformer modellen in NLP zijn zonder GPU echt vrijwel niet te trainen. En er zijn er inmiddels zo veel standaard datasets en benchmark tasks dat het op zich niet veel tijd hoeft te kosten om iets op poten te zetten wat in ieder geval een indicatie zou geven. Code en docker image een keertje publiceren en drie, vier jaar later nog eens kijken wat er veranderd moet worden.
Moet het wel een task zijn die makkelijk binnen beperkt geheugen past, wat het allicht minder relevant maakt. Misschien alleen voor kaarten vanaf 6GB ofzo? Anders is het aan de bovenkant niet nuttig of krijgt de onderkant alleen meaar CUDA out of memory...
en dan ga je een rommelkaartje kopen omdat deze een codec support heeft
In de nieuwe AM5 zit deze codec ook in en zoals het er nu uitziet zal die APU zeker zo performant zijn als deze intel GPU... Ook de nieuwe Intel CPU heeft deze codec al.....
Wat denk je dat een heel nieuw AM5 systeem + DDR5 geheugen kost tov dit kaartje dan? Juist om een iets ouder systeempje toch nog nieuwe codecs mee te geven is dit heel leuk voor. Bijv een plex servertje ofzo
Mee eens, ik had graag ook andere aspecten belicht gezien dan alleen maar gaming performance. Dat vind ik toch wel een beetje een manco van de GPU reviews en discussies op Tweakers, alsof er maar 1 use case voor GPU's is en dat is gaming.
- Hoe is de hardware encoding/decoding support en performance
- Hoe is de driver support onder Linux, welke API's ondersteunen de kaarten out of the box
- Hoe is de multi-monitor support vergeleken met de AMD en NVidia kaarten waarmee vergeleken wordt
- Hoe zijn de compute prestaties. Ik snap dat niemand dit soort kaarten voor zware compute taken gaat gebruiken, maar het is nog steeds interessant om een vergelijking te maken, voor een dev workstation zou deze kaart nog best interessant kunnen zijn voor prototyping etc
Wat me vooral tegenvalt aan deze kaart is het stroomverbruik. Lagere prestaties hoeft geen probleem te zijn voor sommige use cases, maar meestal zou ik daar dan wel laag verbruik, weinig warmte en super stille koeling voor terug willen.
Als sporadisch amateur streamer wil ik ook graag weten hoe deze kaart live encoding tackled.
Op AV1 en HEVC.
In combinatie met Intel CPU, met en zonder iGPU, en in combinatie met een AMD en Nvidia dGPU.
Gezien de rampzalige release van rtx4000 incl. diens hybride AV1 ondersteuning, en de matige encoding opties van AMD dGPUs tot nu toe, wil ik graag weten of een opstelling met een Arc als dedicated encoder kaart nut heeft.
Of de verschillende Arc modellen ook verschillende performance hebben of dat ze op het gebied van encoding precies t eender zijn.
Toch vind ik het jammer dat de reviews van een gpu vrijwel wordt gemeten puur op de gameprestaties, dit is iets wat ik heel vaak terug zie over het algemeen.
Vooral in deze huidige markt waarin veel pc's zelfs geen igpu hebben, zouden goedkope kaartjes een interessante oplossing kunnen zijn voor bepaalde gebruikersdoelen.
Ik heb bijvoorbeeld vorige week een nieuwe GT 1030 aangeschaft, voor mij de goedkoopste optie, puur en alleen om mijn 4k scherm aan te kunnen sturen.
(mijn Geforce 710 ging niet verder dan 1080p)
Maar dan heb je ook weer te maken met een verouderde kaart uit 2017.
In alle reviews las ik echter dat er nooit een reden is om überhaupt voor een gt1030 te gaan, maar dat was weer puur gemeten op de prestaties en er wordt niet uitgegaan van de mogelijkheden die dit kaartje wel kan bieden.
Mocht Intel de drivers en stroomverbruik op orde hebben en ook nog eens behoorlijk wat aansluitingen hebben, zouden dit soort kaartjes best wel nog eens redelijk kunnen verkopen.
Maar alles valt of staat uiteraard met de juiste prijs.
Tegenwoordig hoef je niet heel veel geld uit te geven om een cpu met igp aan te schaffen die een 4K scherm kan aansturen. In de basis zit deze IGP in elke celeron en pentium processor. Ook de nieuwe ryzen 7 reeks krijgt weer standaard een IGP in elke processor.
Ik zou eerder je platform vervangen dan een losse GPU aanschaffen.
[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:52]
Helemaal mee eens. Dit is een kaart die goedkoper is dan de 6400 en veel beter in de meeste opzichten. Intel biedt meestal ook goede Open Source support aan, dus dit kunnen ook leuke kaarten zijn voor Linux gebruikers.
Ik zie volgens mij ook een USB-C aansluiting op de kaart zitten, maar daar wordt in het artikel met geen woord over gesproken. Ik bedoel, het belangrijkste van een grafische kaart lijkt me dat het ding een aantal monitoren kan aansturen, toch?
Ik heb zelf een RTX 580, puur gekocht vanwege de 3 DP aansluitingen (en een "fanstop", belangrijk in een silent build). Leuk dat ik er ook eens een spelletje mee kan spelen.
Overigens zijn de fabrikanten hier ook erg lui. Het is zo goed als onmogelijk om uit te vinden of een laptop + dockingstation meerdere QHD schermen kan aansturen. Lijkt me toch geen niche markt meer.
Maar goed, misschien is het voor mij wachten op een review van een echte kaart, in plaats van de GPU zelf.
Ik merk hier ook een tekort aan Productivity benchmarks. Techgage heeft deze onlangs gedaan, en het feit dat de A380 soms de RTX 3060 kan verslaan in video encoding terwijl de RX kaarten in meerdere benchmarks falen zegt voor mij voldoende.
Nvidia is te duur voor wat het is en AMD hun drivers zijn zo slecht dat sommige software gewoon niet te gebruiken valt. En dat is nog eens ondanks het feit dat bedrijven zoals Valve mensen inhuren om te werken aan de opensource drivers.
Intussen heeft Intel al betere drivers qua productie en hun GPU is nog geen jaar uit! Voor Blender komt er Ray Tracing support voor AMD in versie 3.5 en gestoord genoeg komt in dezelfde versie dat er ook voor Intel. Dit toont in mijn ogen aan hoe weinig moeite AMD steekt in HIP als Intel zijn OneAPI in kortere tijd al vaster staat.
Met meer en meer nadruk ook op technologie zoals FSR, DLSS en nu ook XeSS vraag ik me af of pure 1080P benchmarks zelf nog een goede ondergrond zijn voor reviews. Zelf Nvidia market hun nieuwe kaarten met DLSS performance. Als de A380 met FSR op Doom Eternal 60FPS kan leveren op Ultra settings dan is de rest toch zelf geen optie meer? Voor onder de 200 euro kunnen gamen op Ultra 1080P60 lijkt mij wel een goede deal en de twee concurrenten kunnen dat zelf niet eens leveren.
Al in al is Intel niet slecht bezig, de A380 heeft echt wel zijn voordelen die een mooie escape bieden van het huidige duo en Intel lijkt wel de moeite te doen om de "underdog" te zijn die we al jaren van AMD verwachten. Met de huidige Nvidia prijzen nog altijd torenhoog (of gewoon niet in stock want ongeacht het groene wagentje op Tweakers die zegt 3 dagen zie ik de 1650 super nergens in stock behalve voor 374+ Euro) en AMD drivers nog altijd onstabieler dan een land in het midden-oosten is een concurrent die ietstwat te kort valt in performance maar sterker staat in stabiliteit zeer welkom
Tja, ALS hij inderdaad 180/190 gaat kosten dan kunnen ze het wel vergeten, dat kost een AMD 6400 ook en die is met deze drivers iets sneller en heeft betrouwbaardere drivers. Een GTX 1650 is dezelfde snelheid en 2 tientjes duurder. Natuurlijk overweeg je een kaart als deze alleen als je erg op de centen moet letten maar een prijs verschil van 10% is nou niet echt scherp geprijsd.
Maar dit is het eerste resultaat in google shopping. Geen idee van de betrouwbaarheid (sterke twijfels) van de site maar de van voor prijs zijn dan weer een stuk interessanter als je aan een budget wil en perse geen tweedehands kaart wil. De kaarten van de site zouden van crypto farms moeten komen (en dus tweede hands zijn) maar dat kan natuurlijk niet met een kaart die net uit is.
Die AMD kaart zie ik momenteel ook niet leverbaar in PW voor onder de €200.
Ik verwacht dat de MSRP zo rond de €180 zal zijn van de A380, wat de 'straatprijs' uiteindelijk zal zijn is afhankelijk van de vraag en het aanbod, zou zomaar kunnen dat die over een paar maanden €50 onder die van AMD/Nvidia zal liggen.
Ik denk dat ie idd rond de 180 euro zou kosten als die naar Nederland komt wat wel duur is naar mijn mening, in de VS kan je inmiddels de asrock versie krijgen voor 140 dollar bij Newegg. Deze Gunnir koste in China ex. Verzending en importheffing 150 euro (1050 yuan) maar daar zijn ze inmiddels wat goedkoper geworden en kan je nu eentje halen voor ongeveer 130 euro ex. (900 yuan).
Het resultaat helaas zoals verwacht,
We hebben denk ik allemaal gehoopt dat Intel een gamechanger op de markt zou zetten.
Miste alleen wat merken bij het rijtje producenten van weleer...
Hercules mijn eerste video kaartje, geen 3d natuurlijk.
Matrox de vervanger van mijn eerste Voodoo2 3d kaartje
Het resultaat helaas zoals verwacht,
We hebben denk ik allemaal gehoopt dat Intel een gamechanger op de markt zou zetten.
Miste alleen wat merken bij het rijtje producenten van weleer...
Hercules mijn eerste video kaartje, geen 3d natuurlijk.
Matrox de vervanger van mijn eerste Voodoo2 3d kaartje
Ik zou me niet blindstaren op deze eerste generatie, maar kijken naar het toekomst potentieel.
Deze eerste generatie is geen groot succes maar als genoeg mensen het kopen dan is er in elk geval een userbase om de drivers verder door te ontwikkelen en voor intel ook om een volgende generatie gpus te maken.
In elk geval kinderziekten er dan uit. Die volgende generatie moet dan uiteraard wel een flinke slag beter zijn op performance dan deze eerste, anders dan geef ik het weinig kans op de consumenten gpu markt op de middellange termijn.
En hoeveel mensen gaan een kaart kopen die meer stroom vreet maar minder presteert tenzij hij echt de helft van de prijs is? Je moet echt een Intel fan zijn EN dan ook nog eens op dit moment op zoek zijn naar een kaart om dat te doen.
Wellicht kunnen ze de drivers verbeteren maar dan blijft het nog steeds een stroom slurpende kaart.
Ben nu echt benieuwd naar wat ze met de prijs gaan doen.
Nou, op z'n minst de mensen die de spellen willen spelen die de concurrenten gewoon helemaal niet kunnen draaien door te weinig VRAM en/of geen RT cores... Dan heb je de keuze tussen de 380 van €150 of de concurrent die minstens het dubbelen kost omdat je naar een hogere categorie kaart moet.
Let wel: De concurreerd deze 380 dus in feite met de 3060. Die laatste is weliswaar véél sneller maar de 1660 is helemaal niet in staat het spel te draaien.
Ik denk dat ze genoeg gaan verkopen om een goede ‘test userbase’ te hebben voor doorontwikkeling.
Nogmaals ik zou me niet blindstaren op deze eerste generatie kaarten. Veel interessanter is of en wat ze als ‘nieuwe’ speler op de markt met de volgende generaties kaarten gaan doen.
Ik vind de timing van dit artikel heel apart... Overal op internet zijn de unboxings te zien van de A750 en A770, volgens de geruchten verloopt het embargo op reviews daarvan overmorgen... En dit is het moment dat Tweakers met een review van een Chinese A380 komt?
Grote kans dat ergens deze week dan ook een review van de A750 en A770 komt, toch? Ik begrijp de keuze echt wel om daarvoor een review te maken over een kaart die in een andere markt al wel te koop is, om een idee te krijgen van hoe de kaarten van Intel presteren. Het wekt de interesse (in ieder geval die van mij) in de andere kaarten nog meer.
Ja, op zich ik ook wel... Ik denk alleen dat het anders geweest zou zijn als er aan het begin van het artikel wat duidelijker zou staan dat de A750 en A770 er aan komen maar dat ze daar nog niks over kunnen zeggen (als ze zelf onder embargo staan), maar wel al naar de A380 hebben kunnen kijken. Nu is het gewoon heel erg verwarrend...
[Reactie gewijzigd door Finraziel op 22 juli 2024 21:52]
Inderdaad, ik dacht net hetzelfde en dan nog in het artikel vermelden dat die kaarten op komst zijn, terwijl ze er eigenlijk al zijn! Je kan namelijk op meerdere plaatsen zowel de A750 als de A770 pre-orderen
Tevens zijn er hier en daar al wat inventory leaks geweest die laten zien dat bepaalde retailers/e-tailers effectief reeds (beperkte) stock hebben, indien het uiteraard niet om photoshop gaat
Ik mis een frametime analyse met respect in de tijd bij deze reeks aan tests. Waarom is dit van belang? Als je dit zou kunnen vergelijken met hoe AMD en Nvidia GPU’s fluctueren met betrekking tot de A380 dan kan je daaruit opmaken hoe de toekomst zal zijn in performance, bijv. minder fluctuaties kan leiden tot een smoother game-experience.
Niet onredelijk om te vragen, maar dat lijkt me één van de dingen die makkelijker te fixen is met een driver update. Je 50% frame tijd verbeteren is lastig met de gegeven hardware, maar de 1% tijden zijn meer een issue met drivers die ergens over struikelen.
Ik lees net mijn comment terug en ik zie dat deze op 2 verschillende manieren geïnterpreteerd kan worden. Wat ik eigenlijk bedoel is een xy-grafiek waarop de y-as de frametimes staan t.o.v. x-as met de gemeten tijd in secondes.
Voor de generatie GPU gebruikers die zich de ATI kaart nog konden herinneren was de 4890x2 een GPU met 2 chips gebakken op één kaart. Deze was qua fps/frametime de beste kaart toentertijd maar had last van microstutters. Dit werd duidelijk zichtbaar tijdens het spelen ervan en tevens meetbaar met een frametime analyse. Uiteraard zullen drivers ook een rol spelen bij de ontwikkeling hiervan voor Intel in de toekomst en ben ik benieuwd hoe hun hardware is ten opzichte van AMD/Nvidia aangezien ze al meerdere iteraties van plan zijn te lanceren die ook min of meer dezelfde architectuur zullen hanteren.
Ook de ogenschijnlijke tegenzin van derden om kaarten onder hun merk uit te brengen zijn een veeg teken.
Deze zin zegt in principe niet zoveel over de kaart of de ARC-serie zelf maar meer over de 'derden'.
Kijk maar naar de borden die diezelfde 'derden' uitbrachten voor de eerste generatie Ryzen CPU's. Dat ging ook allemaal met frisse tegenzin en er werd op allerlei punten beknibbeld op de borden tov de Intel varianten (zie de te kleine bioschips oa.).
Opzich begrijpelijk gezien AMD's track record de jaren ervoor met spectaculaire producten die allemaal vies tegenvielen maar Ryzen 1x00 was best een succes te noemen uiteindelijk ondanks de frisse tegenzin van mobo fabrikanten.
Zelfs Bulldozer was zo slecht nog niet. Ik heb uit de 8250 gedurende zijn levensduur een heel stuk meer performance gekregen nadat game engines en software het deftig gingen ondersteunen. Frostbite was de eerste engine die het fatsoenlijk ondersteunde en BF4 draaide als een trein. Unreal kwam veel later pas en Unity heeft het nooit deftig ondersteund.
Met terugwerkende kracht moet Intel in die generatie ineens 20% of meer inleveren, want ze hebben wat shortcuts genomen die nogal wat problemen blootlegde (spectre/meltdown).
Als het speelterrein destijds eerlijker was, was het verschil tussen AMD's Bulldozer en Intel helemaal niet zo heel groot en regelmatig in het voordeel van AMD.
AMD heeft eigenlijk een heel goed trackrecord Al sinds de 486jes schoppen ze elke generatie eigenlijk wel kont. Athlon, Athlon 64, Bulldozer en nu Ryzen. Phenom was nog een beetje de vreemde eend in de bijt, maar zelfs die generatie was gewoon on par met wat Intel te bieden had.
Wolfenstein: New Order ooit geprobeerd erop? Je hoorde tot een patch die volgens mij 2 jaar later pas kwam op sommige cutscenes je systeem vastlopen tijdens iets wat als een martelkreet voor je CPU klonk.
Had zelfs de 8370e, zeer fijn systeem, ook een TPM module voor gekocht 2 jaar geleden, Windows 11 draait er op, setup herkende de CPU niet(lol), Kon wel doorgaan.
Ik heb vaak nog steeds het vermoeden dat er door ontwikkelaars per ongeluk/express weinig/niet getest werd op AMD platformen tussen 2008 en 2016. Maar in Red Dead 2, GTAV, Doom 2016/eternal icm met een AMD fury in vrijwel alle games prima prestaties gehad icm een AMD Fury.
Gebruik die machine nu voornamelijk voor thuiswerken en office taken sinds ik vorig jaar een nieuwe gamePC had, maar lichte games zoals die nieuwe monkey Island speel ik tussendoor er gewoon op.
Mwa ik ben nooit zo kapot geweest van Bulldozer en de afgeleide daarvan. Wellicht dat de 8-cores daarvan op termijn best OK waren maar de quad- en hexacores vielen mij iig vies tegen. In de begin tijd was mijn Phenom II sneller en later was ik met productie taken beter af met een courante i5 met een lager stroomverbruik
Ik ben het met je eens dat AMD als je verder terug gaat prima spullen maakte maar vanaf Bulldozer t/m Ryzen was het vergeleken met de toen huidige Intels huilen met de pet op en boden ze vaak minder performance in zowel games als productiviteit tegen een hoger verbruik.
Dat het later minder slecht werd door optimalisaties is voor diegene die een Bulldozer hadden fijn maar heb je op moment dat het uitkomt niets aan. Mensen kopen geen platform 'omdat het in de toekomst misschien beter gaat presteren' . Spectre en Meldown zijn vervelend voor Intel maar op dat moment was Bulldozer al hoog bejaard dus of je daar écht nog blij met zijn
We kunnen het hier natuurlijk eens of oneens over zijn maar bekijk het AMD marktaandeel eens vanaf zeg A64, das geen heel positieve ontwikkeling
Bulldozer werd al niet helemaal lekker ontvangen en als je als AMD zijnde dan later Pilediver, Steamroller en Excavator met de nodige bombarie aankondigt en die keer op keer niet meer dan middelmatige CPU's blijken te zijn tov de concurrentie dan snap ik dat je als Mobo fabrikant op een gegeven moment denk "Joh het zal wel" en het minder prioriteit geeft.
Simpele kosten <-->baten analyse waarschijnlijk.
Als je kijkt naar de GTX 1650 zie je daar ook niet heel veel custom kaarten, en vooral niet van de grote merken
Dus ik vind het inderdaad ook nogal een non-argument
Buiten dat een low-end kaart niet heel populair is, zit er ook gewoon minder winst in vanwege de lage prijs
Ja, de grote merken hebben wel wat kaarten, maar als je het vergelijkt met de high-end kaarten, is het echt maar een schamel aanbod, vooral als je gaat kijken naar wat er nog daadwerkelijk verkrijgbaar is
Ik denk niet dat het volume van low-end veel hoger is dan high-end
Laptops zijn tegenwoordig enorm populair voor veel taken
Als men al een vaste PC neemt, is dat ook vaak een AIO
Dekstops beginnen toch echt steeds meer een niche te worden, vooral voor gamers of ontwerpers
En ontwerpers hebben heel veel rekenkracht nodig, en zullen dus niet gaan voor een GTX 1650 bijvoorbeeld
Het zijn dus eigenlijk alleen gamers met een heel krap budget die dit soort kaarten zullen kopen
En de huidige low-end kaarten concurreren met last-gen mid-range kaarten, die vaak ruim verkrijgbaar zijn op de tweedehands markt, tegen een lagere prijs
Een tweedehands 1650 is zelfs nog duurder dan een tweedehands 1060 6GB, terwijl de 1060 beter presteert
Aan de andere kant hebben nieuwe high-end kaarten eigenlijk geen concurrentie
Die zullen dus veel meer nieuw verkocht worden
Dus voor een bedrijf is een low-end kaart niet echt interessant om in te investeren
Leuk - laat de "RGB-battle" maar beginnen - prima dat intel een poging maakt, zolang het maar niet bij poging blijft en ook echt doorzetten om een goede kaart te maken - zuinig en snel. Is al eerder hierboven gezegd: Het hoeft echt geen niche topsegment kaart te zijn.. Tussen 1/2 en 3/4 van de snelheid van de topkaarten is een goede markt - als die nou prijstechnisch ook nog eens aantrekkelijk is ben ik wel over - mits dat ding inderdaad technisch ook goed in elkaar zit: geen vage uitvallers na 3maanden en geen driver issues.. Als dat aan de orde is, is het denk ik snel gebeurd meet de arc-project
[Reactie gewijzigd door shades op 22 juli 2024 21:52]