Door Willem de Moor

Redacteur

Intel Arc A770 Review

Meer keus in het middensegment

03-11-2022 • 06:00

133

Singlepage-opmaak

Conclusie

Met de Arc A770 heeft Intel een veel betere kaart danwel gpu gemaakt dan de A380. Met de rekenkracht van de A770 kan Intel zich daadwerkelijk meten met de instapkaarten van AMD en Nvidia. Sterker nog, vergeleken met die laatste krijg je gemiddeld gezien betere prestaties voor minder geld dan de RTX 3060. En vergeleken met de RX 6600 krijg je aanzienlijk meer prestaties, maar daar staat wel een hogere prijs tegenover. De prijs-prestatieverhouding van die 6600 is namelijk vrij sterk.

Kaart Gemiddelde prijs* Gemiddelde framerate
alle resoluties
Prijs-prestatieverhouding
(kosten per frame)
RX 6600 319 euro 70fps 4,54 euro per fps
Intel A770 400 euro 87fps 4,61 euro per fps
RTX 3060 470 euro 80fps 5,86 euro per fps
RX 6700 XT 535 euro 115fps 4,65 euro per fps
RX 6750 XT 607 euro 113fps 5,35 euro per fps
RTX 3060 Ti 619 euro 111fps 5,86 euro per fps
RTX 3070 761 euro 111fps 6,86 euro per fps

*Prijzen 28 oktober 2022, gemiddelde laagste prijs van alle verkrijgbare kaarten met desbetreffende gpu

Is het wel zo rooskleurig als het lijkt? Gemiddeld gezien, over alle resoluties, is de A770 8 procent sneller dan de RTX 3060 en zo'n 24 procent sneller dan de RX 6600. Als we een beetje inzoomen op de verschillen tussen de A770 en de RX 6600 en RTX 3060, dan ontlopen de Intel- en Nvidia-kaart elkaar nauwelijks op 1080p, terwijl de RX 6600 vooral op de ultra-presets behoorlijk achterblijft. Op 1440p is de A770 ongeveer 10 procent sneller dan de 3060 en maar liefst 20 tot 40 procent sneller dan de 6600. Op 4k ten slotte is de Intel-kaart ongeveer de helft sneller dan de RX 6600 en weer krap 20 procent sneller dan de RTX 3060.

Nog verder ingezoomd, op het front van frametimes, heeft Intel hier en daar nog wat werk te verzetten. De 99e en 99,9e percentielen frametimes zijn vooral op lage resoluties en medium-instellingen regelmatig een stuk hoger, wat resulteert in lagere minimale framerates en stotters. Goede voorbeelden daarvan zijn AC: Valhalla en Forza Horizon 5. In Red Dead en Guardians zijn de frametimes over de hele linie zwak. Vergeleken met de RX 6600 zijn de frametimes van de A770 op 1440p en 4k gemiddeld genomen wat beter, maar vergeleken met de RTX 3060 is dat eigenlijk alleen bij 4k-ultra het geval.

De gemiddelde framerates lijken dus in orde, maar zijn wel sterk afhankelijk van de game die je draait en we zijn niet onder de indruk van de prestaties op lage resolutie. Dat kan natuurlijk nog verbeteren naarmate Intel zijn driver blijft optimaliseren. Een ander aandachtspuntje is het stroomverbruik. Dat is vooral idle nogal hoog met 40W, waar andere kaarten op een kwart daarvan zitten. Intel is voor zijn processors enorm bedreven in idle-verbruik terugdringen, dus wellicht is dat ook in de toekomst nog te verbeteren.

Er zijn ook genoeg positieve punten. Zo heeft Intel met de A770 een kaart die daadwerkelijk op prijs én prestaties kan concurreren met instapkaarten van AMD en Nvidia. Daarmee lijkt Intel als een derde speler op desktop-gpu-gebied langzaam gestalte te krijgen. Ook op het vlak van media-encoding met zowel AVC en HEVC als AV1, waarmee Intel voorloopt op AMD en Nvidia, presteert Intel goed. De prestaties gaan dus de goede kant op; nu is het alleen nog wachten op goede verkrijgbaarheid.

Lees meer

Reacties (128)

128
125
102
11
0
15
Wijzig sortering
Let wel op! Als je deze kaarten overweegt. Zonder Resizable Bar support haal je maar 75% van de beloofde performance.

https://www.techpowerup.c...dors-if-you-lack-it-intel
En 75% is dan volgens mij nog optimistisch.

In je eigen link staat totaan 40%.

En in dit digital foundry fragment zeggen ze volgens mij dat AC:Unity op de RTX 3060 3x zo snel als ARC 770 met ReBar, en 9x zo snel als ARC 770 zonder ReBar.

En dat is dan meteen het andere wat Tweakers over het hoofd lijkt te hebben gezien, namelijk dat DX11 performance en in algemeenheid performance bij oudere titels van deze Intel kaarten bijzonder slecht is.
Het is gewoon een lastig verhaal voor Intel. Het heeft veel te lang geduurd voor de kaarten op de markt kwamen waardoor AMD zo met nieuwe en Nvdia al nieuwe kaarten heeft.

399€ voor een 16gb kaart is op zich een goede prijs. Wel vind ik dat Tweakers veel te optimistisch is over de Intel en iets heel belangrijk (heb het niet snel kunnen vinden wellicht staat het wel in de review) wat ik in de conclusie mis!

Namelijk dat je Re-bar of vergelijkbaar moet hebben om de Intel GPU op deze frames te krijgen. Even uit mijn hoofd, alles ouder dan Ryzen 3000 serie en Intel 8 of 9e gen cpu met bijbehorend moederbord ondersteunt dat niet.

En dan zakt de FPS gigantisch in zoals vele andere websites laten zien. Waarom zie ik hier niets van terug Tweakers? Zelfs Intel zelf geeft dat aan dat die een vereiste is en je anders beter van de concurrent kan kopen.

Helaas is dit een constatering bij Tweakers dat of de objectiviteit of kunde hard achteruit aan het gaan is. Een kwalijke zaak.

Bij conclusie had daar een groot in rood vermelde tekst met die info mogen staan!

Verder zal Intel nog 100€ van de prijs af moeten halen om echt kopers te vinden. Het is namelijk onduidelijk of Intel wel doorgaat in deze markt en dit niet een eenmalige release zal blijven. Ondersteuning voor drivers opbouwen kost vele jaren.

Nvidia is daar lichtjaren op voor. AMD volgt op gepaste afstand en Intel heeft een enorm gat te overbruggen.

Is de Intel dan louter slecht? Nee zeer zeker niet. Voor een 1e kaart die je uitbrengt is de prestatie gewoon zeker niet verkeerd en de hardware acc is natuurlijk heel fijn te hebben.

Ook 16gb vram is heel fijn, en met optimalisaties verwacht ik dat de kaart nog flinke stappen kan maken in de toekomst.

Maar je moet wel een echte Tweaker zijn om deze kaart te kopen, want je zal meer dan eens moeten troubble shooten. Voor mensen die niet veel verstand van dit soort zaken hebben moet je deze kaart voorlopig laten liggen.

Kijk naar reviews van Linus Techtips, GamersNexus and Jay2cents bv die meer ingaan op de problemen en tekortkomingen van de kaart.

Uiteraard moeten we wel hopen dat mensen de kaart kopen en Intel doorgaat en over 2 of 3 generaties een beetje bij kan komen om echt mee te spelen. Want meer spelers betekend straks meer keuze en hoogstwaarschijnlijk een betere prijs/prestatie.
Anoniem: 1617016 @Mindfree3 november 2022 14:03
Het lijkt me te verwachten dat Intel doorgaat met deze ontwikkeling, immers, ze zullen zelf ook doorgehad hebben dat het pas gaat uitbetalen na een fikse dosis tijd en resources, dus het zou onlogisch zijn als ze maar 1 kaart zouden maken.

Helemaal met je verhaal eens hoor. Maar ik ben vooral blij dat er een nieuwe speler op de markt is. (Al is het jammer dat het dan weer Intel moet zijn - die zijn al zo groot. Maarja, zie als startup maar eens de resources en kennis te vergaren voor zoiets..)

Vind het wel een beetje gek dat ze deze kaart niet met wat verlies verkopen om marktaandeel te winnen.
Intel heeft er een handje van om bepaalde producten maar kort te supporten als ze niet voldoende aanslaan. Zie bijvoorbeeld Itanic, Larrabee/Xeon Phi (GPGPU project) of hun XPoint SSDs... Allemaal na een paar iteraties de nek omgedraaid, en daar zit je dan met je goeie gedrag.
Vind het wel een beetje gek dat ze deze kaart niet met wat verlies verkopen om marktaandeel te winnen.
Dat heeft alleen zin wanneer je het product niet verkocht krijgt. Ik verwacht dat ze met zo'n eerste generatie méér dan genoeg feedback krijgen waar ze wat mee kunnen zonder dat ze extreem veel exemplaren hoeven te verkopen.
Anoniem: 1617016 @sdk19853 november 2022 17:51
Daar zit wat in, als dat hun doel is voor nu. Alleen nadeel is dan wel dat ze gelijk beginnen met een 'slechte naam' in videokaartland.
Daar lijkt het sterk op. Het eerste model is hier niet eens uitgebracht. Die slechte naam krijg je vooral wanneer klanten daadwerkelijk negatieve ervaringen ondervinden.
Helaas zijn er meerdere stemmen en bronnen die zeggen dat Intel mogelijk de stekker eruit trekt.

Dit heeft een aantal redenen maar de belangrijkste zijn: GPU mining is over en prijzen daardoor heel hard gezakt en de voorraden zijn wereldwijd enorm door het tekort destijds en het opschalen van de productie.

Zo zit Nvidia nog met enorme ladingen 3000 GPU's en hebben om die reden maar de 4090 en straks de 4080 die ze lanceren om de oude voorraad op te maken.

AMD heeft ook overschot en heeft teveel ruimte ingekocht voor de GPU's bij TMSC.

Intel heeft een kaart die toch wel behoorlijk achterloopt op de concurrentie en door het moordend tempo is het lastig bij te houden.

Ik zei 2 a 3 generaties, maar eerlijk gezegd verwacht ik veel langer mochten ze blijven om echt bij te komen.

Persoonlijk hoop ik dat ze blijven en goede kaarten maken, want meer concurrentie betekend betere prijzen uiteindelijk.
Wat ik niet begrijp is waarom hier met de 6600 vergeleken wordt. Deze is momenteel al verkrijgbaar vanaf 269€, dus meer dan 30% goedkoper. Waarom wordt deze niet tegenover de 6750XT gezet, gezien deze momenteel in dezelfde prijscategorie zit (verkrijgbaar vanaf 352€)?
Dit zou dan tot een geheel andere conclusie leiden, nl. dat de ARC a770 op een prijspunt van 399€ absoluut niet kan concurreren met AMD wat deze gaming benchmarks betreft.

Edit: 6650XT en de 6750XT omgewisseld
Dus het verhaal ligt ergens tussenin.

[Reactie gewijzigd door jax dayne op 22 juli 2024 21:30]

De 6750XT kaarten beginnen rond de 540-550eur het is eerder de 6700XT die gelijke prijs heeft. Maar je hebt hier zeker een punt.
Ik snap het probleem niet, in de stats hebben ze de 6600 en de 3060 mee genomen, deze zijn minder dan 10% goedkoper, (als je de prijs van het artikel er bij gebruikt) Ze hebben ook de kaarten die er qua prijs er boven zitten er bij betrokken, deze kaarten zijn wel bijna 50% (behalve de 6700) duurder dan de A770.
Lijkt me dan heel logisch dat je deze kaart aan het einde vergelijkt met de kaarten die in die 10% prijs range zitten en niet met de kaarten die 50% duurder zijn. Van die duurdere kaarten kan je wel gewoon alle stats zien. Ik vind dit zelf nog heel netjes gedaan.

Wat wel raar is dat ze hier Dollar prijzen gebruiken, en niet de prijzen die ze op dit moment of op het moment van schrijven in euro's uit de price watch kunnen halen, ook al kunnen die prijzen morgen anders zijn.

[Reactie gewijzigd door bamboe op 22 juli 2024 21:30]

de gemiddelde prijzen die tweakers redactie hier neerzetten ter vergelijk zijn gewoon totaal fout... je kan verschillende types 6700XT kopen tegen 450-470eur... (verre van de 545avg in de review) dan ga je wel 2 keer nadenken om nog een A770 te kopen...
Probleem van amd is dat deze alleen goed te gebruiken zijn voor games.

Wil je de kaart ook gebruiken voor andere zaken zit je veel beter bij Intel of Nvidia.
Jup voor het betere office werk is een Intel kaart geweldig :+ kan nou niet echt vinden waar een Nvidia of Intel beter voor is :?
Dan ben jij de gelukkige die hier geen rekening mee hoeft te houden.
Zo te zien game je alleen en weet je niet waarvoor een videokaart nog meer gebruikt kan worden.
Klopt. Programma’s die ik voor het werk nodig heb zijn grafisch niet zwaar, en voor games koop ik wat op dat moment het meeste waar voor zijn geld geeft.

Las wel dat sommige professionele programma’s beter overweg gaan met CUDA dan de AMD core’s
Waarom wordt deze niet tegenover de 6750XT gezet, gezien deze momenteel in dezelfde prijscategorie zit (verkrijgbaar vanaf 352€)?
Ik zie toch nergens prijzen onder 500€…
Ik vind het een leuke kaart, maar ze moeten die drivers wel even fixen. Wat ik alleen niet begrijp is het idle verbruik. Zou dat ook een driver issue kunnen zijn? Ik zou echt nooit een kaart in m'n pc willen die standaard 40Watt trekt.

Edit van Techpowerup:
Intel Arc A770 "Alchemist" graphics card has an idle power-draw problem. It pulls 44 W (card-only) power when idling. This used to be acceptable some 15 years ago, but GPU idle power-draw has come a long way since. The reigning Goliath GeForce RTX 4090 pulls just 21 W when idling, and the RTX 3070, the card the A770 was extensively compared against, only pulls 9 W—that's 7 LED downlights worth power-difference between the A770 and RTX 3070. Intel has a workaround to this problem: enable the PCI-Express active state power management (ASPM) setting to L1 mode in your motherboard's UEFI BIOS setup program.
(Zou elk mobo deze instelling hebben?)

Volledige url: https://www.techpowerup.c...-aspm-in-motherboard-bios

[Reactie gewijzigd door spokje op 22 juli 2024 21:30]

Dat is deep sleep power mode van de PCI-e bus waarbij je de volledige singnal in L1 gaat afsnijden met wake up latency als gevolg. Lijkt mij dat die workaround toch maar eens deftig moet bekeken worden.
Het hele stukje rond de power management van de Arc kaarten lijkt mij een hele mooie om eens door Tweakers.net te laten uitwerken. testje met verschillende kaarten en moederborden drivers en dan kijken wat de kaarten doen en ook in welke powerstates ze zitten bij welke load. Zo weet ik dat bepaalde kaarten bij sommige resolutie's of meerdere monitoren in een andere powerstate blijven staan terwijl forceren van een lagere powerstate vaak wel werkte zonder rare problemen (tegenovergestelde ook wel eens moeten doen om zo maar niet een kaart te hoeven RMA-en)
Ik zou er niet op rekenen dat dit snel gebeurd. Niet om te bashen maar AMD Radeon heeft bijvoorbeeld al jaren lang een hoog idle verbruik bij multi monitor wat ze ook maar niet opgelost lijken te krijgen. Zie bijvoorbeeld een 6600 XT die in multi monitor van 4W naar 21W idle stijgt. Dit soort problemen blijven soms jaren aan de orde. Een 3080 Ti heeft ook een redelijk absurd multi monitor idle (30W), dubbel dat van een 2080.

Ik zou voorlopig uitgaan van 'what you see is what you get' en niet gaan hopen op 'fine wine' achtige strategieën. Dan kan het altijd nog meevallen.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:30]

Dat probleem is niet enkel bij AMD een dingetje. De 3080 TI schiet dan ook omhoog om een rare reden. de 3090 had daar weer geen last van met een dual monitor setup.
Dat is al op verschillende manieren opgelost volgens de info van AMD zelf en review sites. Als je wil bashen moet je ook wel willen opvolgen of er een fix voor is...
https://www.techpowerup.c...r-consumption-by-up-to-72
Uit je eigen bron: "There are no changes with multi-monitor". Dit probleem met multi-monitor idle speelt in ieder geval al sinds de RX 480 uit 2016. Ook Navi had er al last van.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:30]

En toch is het bij mij nu opgelost met 6800xt en heb ik nu lage idle power. 2 identieke 1440p op 144hz OS. Toen ik een 60 + 144 HZ combo had dan was het hoger verbruik.
€400,- voor een kaart in het instapsegment... Voor €200,- koop je een jaar of anderhalf oude RX 5700 XT die in alle situaties sneller is. Ray tracing is toch te zwaar dus dat gebruik je op een kaart in dit segment in de praktijk niet.
Ik vind het een slechte deal. En dat geldt overigens voor alle andere kaarten in dit segment ook.
Het lijkt er op dat de kaart vooral wint in scenarios die je veelal of toch niet wil gebruiken omdat de prestaties alsnog te laag zijn (en je eerder de resolutie of details omlaag zou zetten) of waarbij de concurrentie alsnog zo goed is dat je in de praktijk weinig verschil zou merken... Terwijl waar hij verliest dat ook gelijk de speelbaarheid negatief beïnvloedt. Ondertussen verbruikt hij zoveel stroom dat als je dat meeneemt in het kostenplaatje dat je bij de concurrent rustig een categorie hoger kunt gaan en over tijd nog steeds goedkoper uit bent...

Nee, het is heel mooi dat Intel een serieuze gooi doet om te gaan concurreren op dit vlak en ik hoop dat ze door gaan en een serieuze optie worden, maar ik zou niemand deze kaart adviseren. Ik vind dan ook dat jullie nog erg mild zijn in jullie conclusie.
De A380 werd hier recent zeer negatief weggezet in de review, bijna bespot. Ja het was een slecht presterende kaart, maar de woordkeuze viel niet bij iedereen in goede aarde getuige de reacties daarop. Dus dat de reviewer mild is, is wellicht ook weer een weerslag daarvan. Men kan het toch nooit goed doen voor iedereen ;)

Dat was genoeg 'meta-gepraat'. Dan nu over Intel:

Intel is nieuw in het dedicated GPU-segment, ze doen pas 'net' mee met de grote jongens. En sinds de eerste info naar buiten kwam zijn er al flinke stappen gezet op gebied van zowel drivers (support voor dx9 bv) als hardware (de A770 is duidelijk een heel stuk stabieler dan de A380).

Het beestje bij de naam noemen is prima; Het is nog niet daar waar het moet zijn. Anderzijds had het echt veel slechter kunnen zijn op dit moment 'in de wedstrijd'. Ik wil Intel echt niet afbranden voor wat ze doen; heel veel geld steken in een markt die al zo lang vast zit op 2 grote bonzen (AMD en nVidia). Wat uiteindelijk goed is voor de concurrentie.

Dus ik zeg; chapeau Intel, ik hoop dat jullie de komende maanden nog meer laten zien van jullie kunnen op GPU-gebied. Deze kaart is het dan net-niet, maar er is genoeg potentie om verder te ontwikkelen.

[Reactie gewijzigd door A Lurker op 22 juli 2024 21:30]

Ja, dat dacht ik ook best wel goed om dit als eerste grafische kaart uit te brengen. Dan doe je het niet slecht. Ik vraag me af of ze nog via de drivers het gebruik om laag kunnen krijgen. Met de huidige energie prijs loopt dat op tot 100 euro per jaar zoals ze in dit stukje schrijven dan kan je net zo goed elke andere kaart kopen die ze in deze vergelijking hebben mee genomen. Als je niet altijd gamed maar je pc ook gewoon lang aan hebt staan voor andere dingen, dan ben je goedkoper uit met een andere kaart na een tijdje.

(Duurste kaart 549, deze intel kost 349, gemiddeld wil je wel 2-4 jaar met je kaart doen als je in dit segment koopt, na 2 jaar 100 euro extra zit je al op de 549 euro van de 6750. De prijzen hier kloppen redelijk alleen de kost de RTX 3070 geen 500 maar dichter bij de 600 euro volgens pricewatch.)
Ik denk inderdaad het zelfde, maar om een stukje markt te winnen zal je niet moeten proberen het zelfde te doen als de concurrent. Je zult iets anders/meer moeten doen dan 'prestaties/euro' neer gaan zetten om toch een verkoopargument te hebben als bovenstaandex nog niet helemaal mee kan komen.
edit wegens terechte opmerkingen

Even wat bedenkingen over wat uitspraken van de redactie in deze review:

Op 1440p is de A770 ongeveer 10 procent sneller dan de 3060 en maar liefst 20 tot 40 procent sneller dan de 6600. Op 4k ten slotte is de Intel-kaart ongeveer de helft sneller dan de RX 6600 en weer krap 20 procent sneller dan de RTX 3060.

Deze kaarten zijn amper midrange te noemen, als je overweegt om 1440 deftig te spelen kijk je al snel naar 3070(ti)-6800(XT) om zeker te zijn dat je op een range van games al deze settings vlot gaat spelen. Niet op wat erbarmeljike games waar je nipt de fps haalt om dan te zeggen dat is de ideale kaart. Dit is een 1080p kaart PUNT, niet de midrange!

Een ander aandachtspuntje is het stroomverbruik. Dat is vooral idle nogal hoog met 40W, waar andere kaarten op een kwart daarvan zitten.

even kijken naar ingame.... het dubbele van een 6600 in verbruik en meer dat een 3070 - 6700XT die rondjes draaien met deze kaart kwa performance.

als laatste:

*Prijzen 28 oktober 2022, gemiddelde laagste prijs van alle verkrijgbare kaarten met desbetreffende gpu

resultaat:
Intel A770 400 euro 87fps 4,61 euro per fps
RTX 3060 470 euro 80fps 5,86 euro per fps
RX 6700 XT 535 euro 115fps 4,65 euro per fps


effe prijswatch bijnemen van de 6700XT: https://tweakers.net/pric...s_vWjrF2rsU8JMn16E21n7-QI er staan dus 14 kaarten die goedkoper zijn en leverbaar tov jullie gemiddelde euro prijs!!!!! met als uitschieters enkele kaarten 100euro goedkoper dan jullie gemiddelde prijs...(zowaar dus bijna even duur als de Intel a770). Iedem bij de 3070 waar je al een ASUS TUF voor 610eu kan kopen. Diegene die op dat idee gekomen is bij de redactie verdient een "excellent" TAG....

[Reactie gewijzigd door d3x op 22 juli 2024 21:30]

Ik vind het goed dat Tweakers even wat dieper gaat om te zien of er ook positieve kanten aan zijn. Of er redenen zijn om deze kaart wél te kopen. Er is hier namelijk meer aan de hand dat gewoon maar een GPU reviewen, dit is de entry van een nieuwe speler in een duopoly.
Klopt, maar ergens had ik van intel toch beter verwacht.
Ze hebben hun reputatie nu eenmaal niet mee (i740).

Misschien dat de opvolger veel beter wordt, dat kan, maar de kans is ook groot dat deze kaart binnen 1 à 2 jaar niet veel ondersteuning meer krijgt en dan zit je bij nVidia/AMD toch beter.
De drivers zijn de achilleshiel van Arc. Dat kan 2 kanten op gaan, AMD en nVidia hebben ook hun slechte periodes gehad qua driver(stabiliteit). Als Intel de drivers aanpakt fixen verwacht ik dat Intel grote impact kan maken omdat de hardware op papier wel snel is.
Intel had ook meer van Intel verwacht. De strategie was om de oude drivers nieuw leven in te blazen maar dat blijkt geen goed idee. De nieuwe strategie is om het fundamenteler aan te pakken en te focussen op de nieuwes frameworks en games. Het gaat nog wel even duren voordat dat vruchten afwerpt.
Ja, maar nee. Ja, een goed achtergrond artikel over Intel die instapt wordt gewaardeerd (en die is er), maar at the end of the day, is dit een review, punt.

In de review moet het product besproken worden, voor en nadelen, marktligging en al die mooie dingen. Als er dan redenen zijn om de kaart "wel" te kopen, dan zie je dat terug in de review; goede prestaties, goede prijs, etc. Wat jij nu een beetje lijkt te zeggen is dat ze naar een reden moesten zoeken om te vertellen waarom we de kaart zouden willen kopen...zo werkt het niet.

Maar die logica volgende, welke reden dan? Prestaties? Nee, blijkbaar niet. Prijs, ook niet echt gekeken naar de concurrentie. Stroomverbruik? Nee, zeer zeker niet. Software? Volstrekt absoluut niet, gezien de vele bugs etc. Dus, objectief kijkend en niet met de spanning dat er een nieuwe speler bij gekomen is, welke reden is er om uberhaupt over deze kaart na te denken?
Ok, eens. Ik vind het zoeken naar positieve punten bij zo'n kaart begrijpelijk is omdat dat journalistiek iets nieuwswaardigs kan opleveren maar dat is hier dus te ver doorgeschoten. Tegelijkertijd heeft de review wel de informatie geeft om te concluderen dat het geen logische aankoop is. De conclusie is uiteindelijk niet correct (meer keus in het middensegment), een kaart die je nooit moet kopen is geen extra keuze.
Man man man, kunnen we gewoon kritiek hebben op de inhoud zonder zo op de man te moeten spelen?
Zelf vind ik de toon ook niet zo netjes, maar er staat genoeg inhoudelijke kritiek in.
Als aanvulling op bovenstaande wil ik ook nog even wat gebreken aanstippen:
  • De huidige staat van de drivers, (free)sync in combinatie met monitor support / herkenning, overlays en screen capture mogelijkheden worden maar niet of nauwelijks aangestipt in de vergelijking met de competitie noch word daar duidelijk naar verwezen (cq op gewezen) Tweakers eigen vorige stukken rondom deze kenmerken. Zou ze toch sieren om daar de lezer beter op te wijzen, ongeacht de directe compare conclusions.
  • Dan het gegoochel met de gekozen kaarten, zeker in combinatie met de huidige prijzen. Niet alleen ten opzichte van de gekozen kaarten met hun huidige winkelprijzen maar waar zijn bijvoorbeeld de in prijs gezakte 6600xt's of nog betere de 6650xt refreshes!?
  • Om dan nog maar te zwijgen over het volgende stukje tekst waar mijn ogen direct over struikelden: "Op alle resoluties en op zowel de medium- als ultra-presets scoort de Intel Arc A770 hoger dan de AMD RX 6600 en de Nvidia RTX 3060." Als ik kijk naar Cyberpunk, Forza, en AC toch echt (voornamelijk) als laatste staan.
Eens. 40W idle komen zelfs onzuinige high-end GPU's van AMD en NVidia niet in de buurt. De prestatie-per-Watt-grafiek is ook erg vertekend omdat het gebaseerd is op één meting waarin de A770 net ontzettend goed scoort (en alsnog verliest de A770 in prestaties per Watt, dat zegt genoeg).

Zo'n kaart koop je omdat je er niet veel geld aan wil uitgeven, en in dat scenario wil je lang met je GPU doen. Dan gaan de stroomkosten flink optellen.

Intel heeft wat dat betreft ook de pech dat de stroomkosten zo zijn geëxplodeerd, dat was niet te verwachten toen de A770 nog werd ontwikkeld.

[Reactie gewijzigd door bwerg op 22 juli 2024 21:30]

Het hangt ook af van wat voor soort gebruiker je bent. Mijn PC staat gemiddeld 2 uur per dag aan en ik betaal (dynamisch contract) nog steeds maar 20 cent per kWh. De extra stroomkosten zijn dan op jaarbasis circa 4 euro.

Voor mij is dit gerommel in de marge. En dat zeg ik met een totaalverbruik in huis van 3,5 kWh per dag gemiddeld.
En voor sommige gebruikers tellen de stroom kosten wat minder mee en gaat het ze vooral om het milieu
Als het je om het milieu gaat, koop je best geen PC maar een energiezuinige laptop.
Ja, maar als je een computer gebruikt voor je werk en alleen 's avonds of in het weekend wat wil gamen, dan is dat, met de huidige gemiddelde variabele stroomprijs volgens het CBS en een 40-urige werkweek, al 40 euro per jaar MEER dan met een van die andere andere kaarten. Totaal verbruik idle dan al standaard 50 euro per jaar... En dat zou minder erg zijn, als het niet anders kan, maar dat kan het blijkbaar wel.
In ieder geval heel goed dat Tweakers die idle-waarden nu standaard vermeld: voor iedereen die daar rekening mee wil houden...
ja dat klopt maar keep in mind dat die gpu prijzen de laatste jaren flink in de lift hebben gezeten met name door de corona en andere ongenoegendheden wat een mens kan hebben.Nu zijn die prijzen weer gestagneert en zijn ze weer een percentage gezakt.ik vind deze gpu van intel best een goede, ik ben nog nooit van plan om meerdere duizende euro's uit te geven aan een gpu die alles al gehaalt heeft.Maar wel van plan deze gpu te kopen alleen al omdat hij ook raytracing aan boort heeft.En dat hij daardoor ook geoptimalizeerd is een leuke bijkomstigheid, ik wilde gewoon een kaartje hebben wat alles aan boord heeft
en natuurlijk ook niet te duur is.En wat tamelijk snel is.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 21:30]

Ik ben trouwens benieuwd of deze kaart ook effect heeft op hun drivers voor hun APU's.

Intel XE graphics zijn ook redelijk krachtig, dus betere drivers zou hier ook een positief effect kunnen hebben.
Het kan maar zo zijn dat je over een jaar een kaart hebt dat 30% meer presteerd dan nu gemeten. Alleen omdat de drivers dan een stuk beter zijn. Kwa hardware is het zeer sterk het komt er alleen nog niet uit.
Volledig mee eens. Wat betreft de review: Ja, er is meer keus, alleen wel de verkeerde.

Ik zie deze kaart vooral als een alternatief zodra de prijs ervan daalt en als sneaky manier voor systeembouwers om een gaming PC te verkopen aan mensen die eigenlijk geen idee hebben van hardware. Klanten die dus naar een Mediamarkt of lokale PC boer gaan in plaats van dat ze op Tweakers kijken of zelfs iets bouwen.

Als gamer zou ik los van het hoge verbruik ook vooral de hoge frametimes niet willen. Belangrijker dan een hoge gemiddelde framerate is dat deze stabiel is. Zie ook de ervaringen die men heeft met het gamen op 40hz/fps op consoles en Steam Deck. Het is niet hoog, maar speelt een stuk prettiger dan wanneer je constant met framedrops en stutters te maken hebt.
Ik moet zeggen dat dit het perfecte voorbeeld is van 'hoe kan ik resultaten cherry-picken'. In PW staan er 3060 kaarten die ruim onder de adviesprijs van €399 zitten en een hele sloot 6600 kaarten die daar ver onder zitten.

Realistisch prestaties in games, zelfs in de hier geteste games (wat imho het slechtste voorbeeld is voor de Intel kaarten), gaan naar extremen. Als in extreem slecht ivm. de concurrentie.

Wat betreft verbruik van de 770 en zeker hoe de tweakers.net redactie de 4090 negatief beoordeelde op verbruik vind ik enigszins schandalig te noemen!

Ik had al geen hoge hoed op van Tweakers.net redactie reviews de laatste jaren, maar ze zijn nu gewoon het 'onbetrouwbaar' gebied ingeschoven met reviews...
Dat zie ik idd ook als het echte nadeel van de ARC kaarten, veelste hoog Idle gebruik. Hopelijk weten ze dat in gen 2 op te lossen. Want ja een derde speler op deze markt is in mijn ogen alleen maar goed.
Ook op het vlak van media-encoding met zowel AVC en HEVC als AV1, waarmee Intel voorloopt op AMD en Nvidia, presteert Intel goed.
Is er ook een bron die deze claim kan onderbouwen?
Tot zover kan ik geen enkele onafhankelijke review vinden die dit daadwerkelijk getest heeft anders dan het napraten van de marketing afdeling van Intel.
Ik overweeg zon kaart als dedicated encoder, maar ik kan (nog) nergens daadwerkelijke testen vinden in performance en vooral de encoder kwaliteit.
Ik heb deze kaart liggen en wil het gerust voor je testen. Laat me maar weten hoe :)
Ik ben ook wel benieuwd naar de mogelijkheden en prestaties op coderings gebied.
Terwijl al meermaals kritiek gegeven is dat het altijd alleen maar over gaming gaat bij het testen van videokaarten, zijn ook nu de codeermogelijkheden weer overgeslagen.
En juist bij deze kaart had dat wel van belang geweest.
@willemdemoor Is het mogelijk om enkele Content Creation benches toe te voegen van Puget? Photoshop en Davinci Resolve, met name.
Ik wil daar met alle plezier met het componententeam over overleggen, maar dat lijkt me een losstaande review van diverse videokaarten van AMD/Nividia/Intel op het gebied van hardware-acceleratie (en mss media-encoding?). We doen voor normale reviews van videokaarten nooit dergelijke tests namelijk, dat krijg ik er nu niet even tussengefrot...
Als je dat door wil geven, heel graag :)

Is dat iets wat in de toekomst standaard meegenomen kan worden? GPU's worden allang niet meer gebruikt puur alleen om te gamen.
Gaat de index wel helemaal lekker?

Ik zie een RTX3070 die nauwelijks loskomt van de RTX3060Ti, en een 6750XT niet zelfs lager scoort dan de 6700XT, terwijl de xx50 variant gewoon hoger geklokt is.

In Doom staat de RTX3070 onder de RX6600....

[Reactie gewijzigd door Jeroenneman op 22 juli 2024 21:30]

Ik heb zeker ook mijn twijfels bij een aantal benchmarks hier, wijkt erg af van eerdere benchmarks van tweakers zelf notabene.
Heel gek. Lijkt me een foutje. De 3070 staat onder de 3060.
Wat is er met die 3070 aan de hand idd?
Ik heb zelf wel eens een lage frame rate met doom gehad bij het opstarten. Opnieuw opstarten verhelpt het dan.

Het klopt niet en daarmee de gemiddelden ook niet meer denk ik.

[Reactie gewijzigd door DavidZnay op 22 juli 2024 21:30]

Dat viel mij ook op, de 3070FE scores lijken abnormaal laag voor die kaart in Doom Eternal.

Uit een snelle benchmark op een PC voor een collega met AMD 5600X en 3070, kreeg ik op 1440P "hoogste" instellingen 140-230 FPS eruit. Absurd veel zoals eigenlijk altijd in die game zonder het te limiteren.

Die score lijkt doormidden geknipt in deze review. Zoveel lager (de helft!) dan de 3060Ti... Dit kan niet kloppen toch?
Anoniem: 57411 3 november 2022 06:49
Die zitten dan wel in het instapsegment, want de A770 presteert maar net iets sneller dan de RX 6600 en de RTX 3060.
Laat je niet gek maken. Dat is het middensegment voor de normale mensen onder ons. Instap is rx6400 en xt6500xt.
noem het instap - midden wat je wil... iemand met verstand kijkt naar de resultaten en dan is dit een 1080p kaart PUNT uit. NIKS meer dan dat, is voor mij dan ook geen middensegment maar soit. De start van het middensegment is de 6700XT die trouwens voor bijna eenzelfde prijs (450eur in prijswatch) vlot zonder zorgen alle 1080P content op ultra kan spelen en waar je 1440p kan gebruiken voor budget gaming.
dan is dit een 1080p kaart PUNT uit. NIKS meer dan dat, is voor mij dan ook geen middensegment maar soit.
En 1080p is nog steeds de meest gebruikte resolutie voor gaming als je kijkt naar de Steam statestieken...
Er zit een klein deel van de gebruikers boven, en een klein deel gebruikt lagere resoluties... 1080p is dus echt het middensegment.
Steam statistieken zijn geen referentie, bulk is geen midrange. Wat je ziet is dat de bulk altijd het lage segment gaat zijn. Dit om verschillende redenen in de gehele wereld....

kijk naar de bulk verkoop van OEM, dat is allemaal 1080p en budget offers...
Bulk is midrange, natuurlijk. Bell curve. Nee, het lage segment speelt 1024x768 oid, of 1080 met lage settings. Het midden segment speelt 1080p met gemiddeld en hoge settings. 1440p is een vreemde eend in de bijt omdat het tussen 1080p en 4k in zit. Je zit dan met scaling. Wat betreft 4k dat is met hoge FPS nieuwkomer en topsegment. Maar het is niet zo dat 1440p middensegment is en 1080p bottom.
deze kaart is nog niet capabel om gem 144fps te halen op 1080p ultra... als je dan toch 1080 als standaard wil zien in 2020 (ik had al 1080p 144hz scherm 8-10j geleden koste toen al geen geld) dan ben je toch verre van vooruit denkend. En 1080p op iets groter dan 24" is erbarmelijk. Dat 1440 misschien een vreemde eend is dat klopt, maar wel de meest voorkomende op 27". Hetgeen vlot over de toonbank gaat vandaag de dag.
Ik had 9 jaar geleden een 27" BenQ monitor, 1080p 144 Hz met gsync (heb 'm nog steeds maar de backlight heh). Gsync alleen al was premium, de monitor idem. Kostte iets van 500 EUR, best veel geld. Tegenwoordig is het goedkoper om meer dan 60 Hz te nemen qua refresh rate maar het is nog niet gemeengoed dat monitoren een hoge refresh rate hebben. Voor zakelijke toepassingen is het ook niet zo nuttig (hoewel men het verschil tussen 60 en 90 Hz makkelijker ziet dan 90 vs 120). De huidige monitoren op mijn gaming rig zijn 2x 27" 144 Hz 1440p waarbij ik enkel freesync gebruik. Nog steeds iets van 400 a 500 EUR per stuk; dat is zeer zeker niet het middensegment.
Qua prestaties misschien middensegment, qua prijs lang niet meer.
dat is hoe je het zelf bekijkt, elk product dezer dagen heeft een gigantische prijsinvloed.
6700XT die trouwens voor bijna eenzelfde prijs (450eur in prijswatch) vlot zonder zorgen alle 1080P content op ultra kan spelen en waar je 1440p kan gebruiken voor budget gaming.
Budget gamen? In de resultaten zie ik 'm bijna overal op 1440p ultra ook prima presteren.
Om een midrange kaart te zijn hoeft hij niet op alle nieuwste spellen op 1440p en ultra presets 140FPS te halen...

Zat mensen hebben een 60Hz scherm. Of spelen niet het nieuwste van het nieuwste. Of vinden wat lagere instellingen ook prima. Als jij op 1440p op ultra ruim boven de 100 FPS wil halen bij de nieuwste spellen, dan zoek je een high end kaart, geen mid end.
Er zijn zat spellen waar je geen 144 FPS nodig hebt. Ik doe het voor mijn ogen omdat ik het rustgevender vind voelen. Ik zeg voelen want het is een gevoel, anekdotisch. Geldt voor zowel gamen als scrollen. Overigens weet ik niet of voor mezelf 90 Hz voldoende zou zijn voor hetzelfde ofwel voldoende effect.
Wow, jij hebt een verdraaide visie op wat speelbaarheid inhoudt. Hoe dan ook praten we hier over een GPU die Cyberpunk rasterized op ultra aankan in 1440p, met slechts af een toe een framedrop naar net onder de 60. Dat is in de ogen van de grote meerderheid dus een 1440p-waardige kaart voor nu.

Overigens valt er doorgaans al heel veel te winnen door een paar instellingen terug naar high te zetten. Dat doet 90% van de tijd eigenlijk niks af aan de beeldkwaliteit, dus ook dat zou ik geen budget gaming willen noemen (dat begrip hoort bij serieuze compromissen). En dan kun je met een 6700XT nog een poos vooruit.

En nee, ik heb 'm zelf niet. ;) :>

[Reactie gewijzigd door SunsetSundae op 22 juli 2024 21:30]

nee dank u ik blijf wel verder doen op mijn 6800XT MBvoor 1440p 144hzhigh/ultra en focus op 144fps minimum.
Alsof je bij de meeste zware games 144 fps op 1440p ultra/high haalt met een 6800XT'tje :+
Wow de marketingverhalen zijn goed aangeslagen bij jou.
Het verbaasde mij ook dat 400,- voor een videokaart weggezet werd als middensegment. In die markt is veel veranderd de afgelopen jaren.

Op dit item kan niet meer gereageerd worden.