Intel Arc A750 en Arc A770 Limited Edition verschijnen in Europese webwinkels

De Intel Arc A750 en A770 Limited Edition-referentiekaarten zijn verschenen bij verschillende Europese retailers. De videokaarten kosten respectievelijk rond de 380 en 460 euro. Intel deelde eerder geen Europese adviesprijzen van deze Arc-gpu's.

De Intels Arc A750 en Arc A770-referentiekaarten zijn onlangs verschenen bij twee grote Franse retailers, merkte techwebsite VideoCardz op. De Intel Arc A750 kost 380 euro, terwijl de hoger gepositioneerde Arc A770 beschikbaar komt voor 460 euro. Beide webwinkels rekenen dezelfde prijzen voor de twee videokaarten, wat doet vermoeden dat dit de officiële europrijzen voor de twee gpu's zijn. Intel deelde bij zijn aankondiging alleen dollarprijzen.

De prijzen zijn daarmee iets hoger dan verwacht. De Arc A750 8GB- en Arc A770 16GB-videokaarten hebben respectievelijk een Amerikaanse adviesprijs van 289 en 349 dollar. Omgerekend en met btw komt dat neer op 360 euro voor de Arc A750 en 435 euro voor de A770. Intel brengt de twee Arc 7-desktopvideokaarten op woensdag 12 oktober uit. De twee Franse webwinkels melden echter dat de videokaarten vanaf vrijdag 14 oktober beschikbaar zijn. Momenteel worden alleen de Limited Edition-referentiekaarten van Intel vermeld. Aangepaste varianten van fabrikanten als ASRock zijn nog niet te vinden bij webwinkels.

De A750 en A770 zijn de hoogst gepositioneerde desktopvideokaarten in Intels eerste generatie Arc-gpu's. De release van die videokaarten is tot nu toe niet vlekkeloos verlopen. De Arc A750 en A770 stonden aanvankelijk in de planning voor afgelopen zomer, maar Intel stelde de release daarvan uit. Het bedrijf had bij de introductie van Arc onder meer last van driverproblemen en tegenvallende prestaties bij bepaalde games. Tweakers schreef een achtergrondverhaal over de moeizame introductie van Intels nieuwe gpu's en publiceerde eerder deze maand een review van de lager gepositioneerde Arc A380-desktopvideokaart.

Intel deelt specificaties van Arc Alchemist-gpu's

Door Daan van Monsjou

Nieuwsredacteur

12-10-2022 • 14:50

82

Lees meer

Reacties (82)

82
82
35
1
0
36
Wijzig sortering
Ik vraag me toch echt af waarom je zo'n kaart zou kopen. Het is een product dat geen usp heeft. Daardoor is de kans groot dat het niet goed genoeg verkoopt en Intel de stekker eruit trekt, en dan blijf je zitten met slechte ondersteuning. Geen usp zoals gezegd en dan ook nog performance problemen hebben bij oudere games...
Al met al kan ik maar één reden bedenken om een ARC kaart te kopen en dat is om een toekomstig museum stuk te hebben.

[Reactie gewijzigd door Edsger op 22 juli 2024 21:40]

Als je specifiek een GPU zoekt voor video transcoding voor plex server, dan is intel arc een goedkope optie, verder dan dat kan ik ook niet echt iets verzinnen
Waarom zou je dat willen ?

Voor een lager bedrag kun je ook een Turing based NVidia kaart kopen, welke uitstekende h264 encoding resultaten geeft, of, met een iets wat mindere kwaliteit, een Intel CPU met onboard iGPU.

Dat de Arc kaarten nu door oa. LTT genoemd worden als video encoding kaarten slaat eigenlijk alleen op het AV1 deel, top als je gaat streamen met OBS ed. Plex ondersteund nog geen eens x265/hevc (intussen 9 jaar oud!) encoding, laat staan dat AV1 snel zal worden opgenomen.
H265 -> H264 wordt in Plex bij mij gewoon hardware accelerated gedaan, voor het apparaat waar je het op kijkt maakt het toch niet super veel uit? Als AV1 straks ook wordt ondersteund kan je dus je source files in AV1 hebben staan, scheelt behoorlijk in opslag.
Helaas, Plex doet helemaal geen <whatever codec> -> H265, dus ik zie dat voorlopig ook niet met AV1 gebeuren.
Waar jij het over hebt is decoding, maar dat is nou net zo'n beetje waar je eigenlijk geen GPU voor nodig hebt, een CPU kan dat prima zonder al te veel processor verbruik.
Dat klopt niet, Plex zet het om van <whatever codec> naar H264 voor clients die het bronbestand niet accepteren of bij een gebrekkige verbinding. Dat heet transcoden en is in feite niet anders dan een videobestand met willekeurig programma omzetten naar een ander formaat. Wat Plex doet is geen decoding.
Lees nog eens goed wat ik schrijf.
Plex doet na 9 jaar nog steeds geen H265 encoding, dus ik verwacht dat AV1 encoding support ook niet al te snel zou komen. Dat Plex wel H264 encoding doet is geheel irrelevant.

Overigens doet Plex weldegelijk aan decoding, zelfs H265/HEVC en ook nog eens HW accelerated over een GPU, moet ook wel, anders kan het niet transcoden.
Dat is met een reden. H265 licentie kosten zijn extreem duur dus ik snap dat Plex daar niet aan begonnen is.

AV1 is gratis dus ik zie dat juist wel sneller gebeuren.

[Reactie gewijzigd door jordynegen11 op 22 juli 2024 21:40]

Daar klopt dus helemaal niets van.
Extreem duur is wat relatief, license kost $0,25 tot $1,25 per device, en dan ook nog eens alleen op cliënt devices waar h265 decoding in de hardware zit. GPU' en SoC's, dus voornamelijk videokaarten, TV's en mediaspelers.
Software h265 decoders zijn al sinds 2017 vrij van licenties.
Maar dit alles heeft niets met Plex server te maken, h265 encoding via ffmpeg (dat is waar Plex stevig op leunt) is altijd al royalty free geweest.
Plex en compatibiliteit gaan ook niet echt zo goed samen hé, betaalde opties daarentegen... Ik koop mij zo een kaartje voor mijn Jellyfin server ;) Maar eerst prijsdaling afwachten.
Jah, zelfs GPU transcoding is een betaalde functie (Plex Pass nodig).
Qua compatibiliteit is het eigenlijk opzich best prima, ze hebben veruit de beste compatibiliteit met uiteenlopende cliënt devices waar Jellyfin helaas nog wat tekort schiet.
Het is alleen best ergerlijk dat Plex nog geen H265 encoding ondersteuning bied, dit zou nl. servers en cliënts met bandbreedtegebrek aardig kunnen helpen, net als AV1 dat in de toekomst zou kunnen doen.
Maar dat maakt toch ook helemaal niks uit? Het gaat er niet om dat Plex het kan encoden naar hevc of AV1. Het gaat er om dat jij je source bestanden in eerste instantie efficient kan encoden naar AV1 om ze daarna direct te kunnen streamen met Plex. Dit encoden naar AV1 kan je door een tool als handbrake laten doen.
Klopt, maar dat haalt nou net juist het gemak van Plex een beetje onderuit.
Ik wil een berg bestanden uit een map delen, en daar zo min mogelijk naar om kijken.
Veruit meeste van mijn bron materiaal is in H264, en dat gaat normaliter netjes via Direct Stream naar de client.
Echter voor de uitzonderingen, zoals clients op 4G/5G of op openbare netwerken zoals in Hotels en Campings, buitenland, kan Plex het transcoden naar een lagere bitrate. Dan zou het mooi geweest zijn als dit in H265/HEVC of AV1 zou kunnen, omdat dit een betere beeldkwaliteit geeft op dezelfde verlaagde bitrate.
Ik vraag me af of Intel wel geïnteresseerd is in gamers.
Voige week was ik bij een presentatie van Intel waarbij de Arc GPU als onderdeel van de hardware voor cloud platformen weergegeven werd.
Ik vermoed dat deze toepassing voor hen veel interessanter is.
Ze kunnen een partner als Microsoft Azure of AWS dan een compleet pakket bieden qua hardware.
Ik hoopte dat het misschien een leuke upgrade was voor mijn Linux systeem, maar helaas, dat werkt alleen met de laatste kernel klaarblijkelijk. Dat betekend meestal dat je een heleboel moet lopen klooien om het überhaupt aan het werk te krijgen. Dus dan wordt het niche in een niche.

Maar goed, de idle power consumption is ook al niet best, dus dat liet hem al afvallen.

Voor een nieuwe multi-monitor support build zou de 380 misschien interessant zijn, gewoon vanwege de prima support voor meerdere monitoren op hoge resolution / refresh rates. Maar goed, de APU's worden ook steeds beter wat dat betreft.
Of Jellyfin for that matter. Er zijn goedkopere/betere kaarten (tweedehands) als het je om puur encoding/decoding gaat, maar de Intel Arc heeft als voordeel wel ingebouwde AV1 encoding/decoding.

Spreekt mij ook wel aan, maar laten we eerlijk wezen, tegen de tijd dat er actief gebruik van gemaakt kan worden zijn we een paar jaar verder en kan je net zo goed een tweedehands Arc aanschaffen :P.
Of een goedkope AMD/Nvidia kaart. Bij hun volgende generatie hebben ze immers ook AV1-encoding ingebouwd, dus het is dan nog slechts wachten tot die uitkomt.
Als limited Edition dus, niet alleen qua oplage.
Limited wijst naar de performance niet oplage. (grapje niet boos worden)

Eerste geruchten zijn er al inderdaad dat Intel van de GPU tak alweer af wil. Wat ik bizar vindt Intel weet dat ze tegen twee titanen moeten opboksen in deze markt, dan kunnen ze niet verwachten dat ze binnen 1 generatie AMD en nVidia kunnen verslaan.
https://wccftech.com/inte...pu-division-says-analyst/
En dat geven ze keurig aan in dit artikel,

review: In gesprek met Intel-ceo Pat Gelsinger - IDM 2.0, chipproductie en Ar...

Hierin geeft de CEO van intel ook aan dat het wel een paar generaties duurt voordat ze echt concurerend zullen worden.

Voor mij zal het een no brainer worden als de goedkopere arc kaarten uitkomen, ik hoef geen dure grafische kaart voor spellen , maar wil gewoon een goede kaart, welke een goed en stabiel beeld geeft op mijn 2 schermen. Ik geef ze zeker het voordeel van de twijfel.
Volstaat de nieuwe generatie on-board GPU's dan niet?
Oh, dat denk ik wel, op een of andere manier heb toch altijd liever een normale grafische kaart in de pc.
Lijkt me toch sterk dat je je GPU tak afstoot precies op het moment dat je je eerste producten gaat uitleveren.
Vrij zeker dat die geruchten allang weer debunked zijn door Intel zelf. Ze gaan nog wel even door.
Ik hoop het. Zou mooi zijn 3de speler op de markt. Zo hoeven ook niet de 4090 te verslaan, als ze in de 200-600 euro range kaarten kunnen uitbrengen met goede prijs snelheidsverhouding zijn veel mensen daar al blij mee.
Maar de performance van deze kaarten is duidelijk lager dan waar Intel op mikte. Deze kaarten worden al met verlies verkocht denk ik. Als je naar de chip grote en transistor count etc kijkt had de performance meer op niveau van 3070/3080 moeten liggen.
Ze leken wel een USP te hebben: de prijs... maar van die belofte is weinig terecht gekomen. Of in ieder geval niet op de huidige markt in vergelijking waar de kaarten mee moeten concurreren. De A750 zou een directe concurrent voor de RTX3060 moeten zijn, maar je kan beide kaarten voor dezelfde prijs krijgen. Dan moet je om een enigszins eerlijke vergelijking te maken wel naar de introductieprijs van de 3060 krijgen en die lag inderdaad nog wel een stuk hoger met rond de €600,- en de kaarten van Intel zullen ook wel in prijs gaan zakken, maar vooralsnog ben je absoluut beter af om een kaart van Nvidia of AMD te halen op dat prijspunt.
Hoezo moet je voor een eerlijke vergelijking naar de intro prijs van de 3060 kijken? De 3060 is nu op dit moment toch gewoon rond de 400? Je maakt de vergelijking op het moment van kopen lijkt me, of dat doen potentiele kopers iig.
Dat is wat ik uitleg... het is ergens een wat oneerlijke vergelijking om de launch prijs van een product te vergelijken met een product wat al een tijd op de markt is, omdat dit laatste product inmiddels (flink) in prijs verlaagd zal zijn. De prijs voor deze ARC kaarten zal ook gaan zakken en dan wordt het wss wel een aantrekkelijk alternatief wat betreft prijs.
Ik zie 1 usp en dat is de HW media encoder met AV1 ondersteuning. Die kan misschien interessant zijn voor professionals. Ik vraag me ook af of je iets met die kaarten bent voor bvb een plex server. Als die encoder echt goed is zie ik daar wel mogelijkheden (nog meer zelf voor de goedkopere ARC kaarten).

Iets om eens te testen tweakers? ;)
Voor gebruik in VM server: als het goed is dan ondersteunt deze kaart SR-IOV om te splitsen in meerdere GPUs en dan iedere VM een stukje GPU geven. Kan ook met een Tesla kaart, maar dan ben je 2k meer kwijt. Ben nog aan het zoeken of er inderdaad SR-IOV aanstaat en op welke modellen.
Dan heb je een collectors item.
Ik denk zozeer niet dat het niet hebben van usps het grote probleem is. Ik denk voor veel mensen dat een goede verhouding tussen prijs/rasterization performance eigenlijk nog wel het belangrijkste is. Ik heb begrepen dat qua hardware de kaarten eigenlijk niet zozeer slecht in elkaar steken en dat ze best goed schalen op hogere resoluties.
Het grote probleem lijkt me echter de drivers: die saboteren als het ware de performance waar de hardware theoretisch over beschikt. Daarnaast zorgen de huidige drivers niet bepaald voor en stabiele ervaring voor de eindgebruiker.
Arc blaast anders best een aardig eindje mee,

https://www.tomshardware....geforce-rtx-4090-review/3

Daar staat de ARC 770 ook tussen vergeleken met 4090


Het is even afwachten hoe de vergelijkingen echt zullen zijn met de (nieuwe) midrange rond de 500€, maar kwa prijsopstelling lijkt het (voorlopig) redelijk goed gekozen.
De 3070 kost vb rond de 600€
Ik kan mij een aantal situaties voorstellen (dit betreft niet alleen de highend modellen):
  • AV1 encoding/decoding dus ideaal voor een HTPC.
  • HTPC waar je ook nog eens een game op wilt spelen (valt eigenlijk onder de eerste).
  • Streamen van content AV1 encoding. Ik kan mij best voorstellen dat mensen deze kaart naast hun "echte" kaart willen gebruiken.
  • Nieuwe hardware wat gewoon leuk is om mee te spelen.
  • Game development, kijken of je spel enigzins draait op Intel hardware?
Ik zou de kaart alleen niet echt aanraden als je niet van tweaken houdt en je zonder problemen wilt gamen. De kaarten zijn snel in DX12 en Vulkan titels maar je kan er niet van uit gaan dat ze ook snel zijn in DX9-11.

Edit:
Ik zou best een A380 kaartje willen om mee te spelen.

[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 21:40]

Paar redenen:
1. Performance dat prima is, bedoel het is op oude games flink minder maar het zijn oude games die voor zover ik zie nog steeds prima draaien. Als je toch (zoals ik) een 60hz scherm hebt en alleen af en toe eens een game speelt dan lijkt het een prima optie.
2. Machine learning? express een vraagteken erbij maar ik las zaken dat bepaalde Floating Point precision op deze kaarten beter is dan Nvidia waardoor de performance daar ook beter kan uitpakken. Ik heb nog geen concrete benchmarks gezien omdat alles op gaming focused natuurlijk maar het klinkt interessant.

De kans dat Intel de stekker eruit trekt is ook zeer klein want ze hebben de upgrades allang al in de pijplijn klaarstaan. Het feit dat ze de kaart nu uitbrengen met slechte drivers betekent denk ik dat ze gewoon te vreog gereleased hebben. Maar ze moesten wat... uitstellen en ze zitten straks tegen 4060's enzo aan te vechten met hun 1st gen GPU die dan helemaal onderuit wordt gehaald. Dan was er nog de optie om de first gen helemaal te scrappen maar nu kunnen ze wel veel waardevolle data verzamelen voor driver development en 2nd gen.

Voor het gros van de mensen zou ik dit zeker niet aanbevelen als GPU, maar voor een bepaalde groep mensen die bijv praktisch nooit gamen maar GPU wel voor andere zaken gebruikt kan het best een interessante optie zijn.
We zijn tweakers! Het lijkt mij nou eens fantastisch leuk om zo'n kaart te hebben!
Sja ik snap dat alle begin moeilijk is. Maar om als nieuwe aanbieder een voet in de markt te krijgen moet je toch echt een fors betere prijs/fps bieden dan de al bestaande merken. Zeker omdat er nog redelijk wat kinderziektes in zitten, die hopelijk nog met drivers opgelost worden.

ik zie dan ook niet in waarom je voor E460 deze kaart zou moeten kopen ipv een 6600/6700 xt of 3060(TI) met vergelijkbare prestatie en een veel beter ondersteund en bewezen platform.

En toch hoop ik dat Intel dit nog kan ombuigen, want een 3e speler op de markt heeft alleen maar voordelen.
Alsof ATI in verleden geweldig begon, het heeft even tijd nodig want is hun 1e generatie.
En het heeft nog lang geduurt voordat driversupport beter werd.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 21:40]

Wat zie jij als de eerste generatie: want ATI begon al in 1985 met het maken van EGA/VGA kaarten.
Maar als ik wat minder flauw reageer... @heuveltje legt het ook al goed uit. In de jaren 90 was er een API war aan de gang en probeerde elke vendor z'n eigen API de "standaard" en dito drivers te maken. 3dfx leek even heer en meester te worden, maar uiteindelijk leek de wereld te neigen naar Direct3D en OpenGL. (Die laatste eigenlijk vooral omdat ID Software een tijdje voorop liep met 3D engines en John Carmack initieel een bloedhekel had aan Direct3D... daar is hij later overigens op terug gekomen omdat OpenGL zich op een gegeven moment veel langzamer aan het ontwikkelen was dan Direct3D).

Ik heb in de Windows 98 t/m Windows XP dagen diverse ATI kaarten gehad en deze bevielen mij aardig. Ik heb het gevoel dat drivers in den beginne lang niet zo vaak geupdate werden als nu. Omdat internet toegang "vroegah" minder snel en vanzelfsprekend was. Mensen zaten al gauw een jaar op dezelfde driver versie of gebruikten jaren de driver die bij het systeem zat.

Ik vind het daarom moeilijk te polsen wie er in die tijd nou beter was met drivers. Het was voor mijn gevoel in die tijd altijd een beetje hit or miss.... ongeachte de vendor.

[Reactie gewijzigd door Laurens-R op 22 juli 2024 21:40]

Ik heb het natuurlijk over de XP tijd daarvoor de MS-Dos tijd met grafische schil van win9x erover was het nog houtjetouwtje. en in de EGA/VGA tijd maakte het nog niet uit want games gingen toen nog hoofdzakelijk over de CPU, zolang je maar minimaal 256kb videogeheugen had en bij de iets latere games 512kb, pas bij OpenGL en Direct3D werd het anders.

DukeNukem 3D was ook nog een game die hoofdzakelijk op de CPU ruste.
Ik zit in de retro wereld, heb nog wel oude Ati en Nvidia kaarten liggen, je zag duidelijk software support verschil, Ati had de wat krachtiger hardware en Nvidia de betere software.

3DFX kan ik niet over oordelen heb daar te weinig mee gewerkt, voodoo 1 & 2 was wel ver zijn tijd voorruit en daarna ging het bergafwaards gezien de TNT2 gehakt van maakte, S3 was ook niet geweldig vroeger, het was eerder een 3D de-accelarator dan accelerator.

De win9x tijd was ATI ook niet zo geweldig bij 3D games, altijd de nieuwste drivers gebruikt, functioneerde game A goed dan ging het weer mis bij game B.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 21:40]

Het was destijds erg afhankelijk van het spel maar ook van de fabrikant. Had zelf een op de TNT2 gebaseerde Diamond Viper V770.

Deftige kaart, maar het ene spel deed het weer beter met hun drivers en het andere weer met nVidia drivers, sommigen met oude versies, anderen met de laatst geleverde. Je zat lange tijd het beste bij 3D FX puur omdat de meeste spellen het daar sowieso wel goed op deden.
Ik heb het natuurlijk over de XP tijd daarvoor de MS-Dos tijd met grafische schil van win9x erover was het nog houtjetouwtje. en in de EGA/VGA tijd maakte het nog niet uit want games gingen toen nog hoofdzakelijk over de CPU, zolang je maar minimaal 256kb videogeheugen had en bij de iets latere games 512kb, pas bij OpenGL en Direct3D werd het anders.
Dat is niet waar wat je zegt. Zelfs op een 386 kon je met Wolfenstein of Wing Commander 1 snelheids verschil opmaken tussen een kaart met een TSENG ET4000 of een ATi VGA Wonder, of een Alliance Semiconductor of OAK chipset. Oude demo's als unreal, second reality toonden dit verschil ook meer benadrukkend aan. Als je iemand zoals necroware of CPU galaxy hier youtube dingen over ziet posten, zie je hem ook benchmarking tools gebruiken welke dit aangeven.

Verder begon het al bij de VESA standaard, de voorgenoemde ET4000 kon nl nog in SVGA games als Wing Commander 4(in true color), 7th Guest en under a killing moon weergeven in een 486dx2, terwijl je uit alles minder dan een S3 Trio of alles minder dan een VLB kaart niet eens hoefde proberen die games op te starten. Videokaarten en Geluidskaarten zoals de Gravis Ultrasound maakten CPU resources vrij in o.a. Doom en Rise of the Triad.

Zoals Laurens-R al aangeeft, Ati had stukken meer ervaring en een groot marktaandeel sinds eind jaren 80, en toen liep Jensen Huang nog bij AMD rond.

[Reactie gewijzigd door mjansen2016 op 22 juli 2024 21:40]

toen ATI begon was het uberhaubt nog het wilde westen in grafische kaarten, en was die markt nog volop in een zeer rappe ontwikkeling en nog te bepalen standaarden.
Volgens mij hadden we toen nog om de 6 maanden een nieuwe direct x versie die echt significant beter was en nieuwe technieken introduceerde. En dan had je nog glide. opengl,powervr, 3dfx en weet ik wat nog meer.

In tegenstelling tot nu waarbij er maar 2 partijen zijn, en elke nieuwe generatie kwa functionaliteit eigenlijk meer van hetzelfde is, maar dan wat sneller. Alleen raytracing is eigenlijk echt nieuw in de afgelopen jaren, en zelfs dat is maar de vraag hoe belangrijk je dat vind.

En blijkbaar hadden ze toen ook een goede prijs/fps verhouding, want ik weet dat ik een 3d rage heb gehad, en ik was toen nogal heel erg budget bewust met mijn folderwijk loontje :)

[Reactie gewijzigd door heuveltje op 22 juli 2024 21:40]

Moah niet helemaal want toen had Nvidia zijn zaken ook al op orde, ik bedoel de tijd na 2004 toen we al in de Windows XP tijd zaten, toen was het ook nog Ati.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 21:40]

2004 was nou niet bepaald de 1e generatie :P

Maar, ik moet zeggen ik heb ik weet niet hoevaak gelezen "ati drivers sucken". Maar persoonlijk heb ik meerdere ati (en nvidea) kaarten gehad rond die tijd , en daar echt nooit problemen mee gehad.

En kaarten als de 4850 waren echt significant beter kwa bang for the buck dan wat nvidia op dat moment te bieden had. of mijn 9700pro met custom zalman waaier koeler.

* heuveltje krijgt nostalgische buien naar gpu's van 150E die een ver 3 voudiging in fps waren t.o.v. van de vorige kaart die ook pas net een jaar oud was :)

[Reactie gewijzigd door heuveltje op 22 juli 2024 21:40]

Ik heb ze in verleden ook gehad maar had toch wel regelmatig driverissue,s met Ati zoals witte velden in games or artifacten, gebeurde regelmatig op meerdere kaarten, of aansturen van de fan ging voor geen meter, tegenwoordig niet meer inderdaad.
In de AMD tijd hadden ze daar ook nog wel last van. De RDNA 1 drivers waren naar het schijnt ook niet fantastisch, hoewel dat inmiddels wel opgelost is.
Mijn laatste AMD kaart was een R9 290 en die heb ik uiteindelijk weggedaan omdat de prestaties zo inconsistent waren. Er waren een aantal games die zelfs op die high-end kaart totaal geen stabiele framerate wisten te halen. In die tijd zonder Freesync was dat wel een dingetje.

[Reactie gewijzigd door Wolfos op 22 juli 2024 21:40]

Kan iemand mij vertellen waarom de kaarten in Europa 70 Euro duurder zijn dan in de US? Zeker gezien de waarde van de huidige koers.
Verschil in btw? Meeste belasting tarieven in Europa liggen rond de 19 a 21% en prijzen moeten inclusief weergegeven worden, in de VS verschilt het belastingtarief meer en daar worden prijzen exclusief getoond.
Prijzen in de VS zijn doorgaans zonder VAT/Sales tax (hun naam voor onze BTW), omdat die per staat anders (kunnen) zijn. In Europa zijn ze wel met BTW, volgens mij is dat in Europa ook wettelijk verplicht om "inclusief BTW"-prijzen te laten zien.

[Reactie gewijzigd door wildhagen op 22 juli 2024 21:40]

De US heeft geen VAT maar Sales Tax :)
omdat ze daar adviesprijs zonder BTW hebben en je daar bovenop een verkoop belasting betaald
BTW en invoerheffing en dat de laatste maanden de Euro veel zwakker is geworden tegenover de Dollar.

[Reactie gewijzigd door Mol_1248163264 op 22 juli 2024 21:40]

De dollar is nog steeds meer waard dan de euro, tel daar 21% BTW bij op en dan zit je nog maar op een verschil van €25.

Daarnaast is de prijs van $329+ voor de A770 die Tweakers.net publiseerde voor het 8GB model, we hebben het hier over het 'Limited Edition' 16GB model van de A770, wat natuurlijk duurder is dan het 8GB model... Dan vind ik €25 extra voor 8GB extra in je videokaart nog wel meevallen.

Bron:
nieuws: Intel brengt Arc A770-desktopvideokaart in oktober uit vanaf 329 dollar
Nog niet genoemd: garantie. De winkelier is het eerste aanspreekpunt, gedurende 2 jaar (in Frankrijk althans, in Nederland is het >=2 ). Met een nieuw product moet je meer risico-marge aanhouden.

In de VS is dat geen issue voor winkeliers, daar is de fabrieksgarantie veel belangrijker.
Ik zou voor marktaandeel gaan, en niet zo zeer winst als ik Intel was. Zij prijzen zich nu uit de markt.
Dat is ook wat ze nu doen, Waarom denk je dat ze op de winst gaan ?
Als je de bouwkwaliteit, koeler grtoe etc. en chipp opervlakte ziet, dan komt dat eerder met een 3080 overeen.
En waarschijnlijk had dit ook een 3070/3080 concurent moeten zijnm die ze door tegenvallende prestaties nu tegenover de 3060 zetten.

[Reactie gewijzigd door heuveltje op 22 juli 2024 21:40]

Een RX6600 is qua prestaties vergelijkbaar met de Arc A750 en die is voor 300 euro te krijgen. Voor 380 of 480 euro heb je respectievelijk een RX6650XT of RX 6700 XT die veel sneller zijn.

Daarmee verliest Intel het al op pure prestaties per prijs, en dan is de kwaliteit van de kaarten vooralsnog ook slechter: ze zijn instabieler (prestaties in oude games, driver issues, de meeste "hippe features" zijn gevoelsmatig nog in beta-fase) en veel onzuiniger.

Er is zo echt geen reden om deze kaarten te kopen tenzij je echt een heel specifiek gebruiksdoel hebt.

Intel's chips zijn relatief groot voor de prestaties die ze leveren, dus de kostprijs is ook relatief hoog en dat zien we schijnbaar terug in de verkoopprijzen. Maar wat heb je aan een winstmarge op een product als het product zo uberhaupt niet verkoopt...
Misschien had Intel beter voor een lagere prijs kunnen gaan om marktaandeel op te bouwen. De GPU divisie zal dan voorlopig geen winst maken maar ze verdienen dan wel een deel van de R&D terug. En de lagere prijs is dan een goede compensatie voor de zwakke driver ondersteuning.
Totaal geen reden om zo'n GPU te kopen, maar stiekem wel heel erg leuk om testjes mee te doen t.o.v. AMD en nVidia. En met een beetje 'geluk' blijf je met een unieke GPU zitten.

Willen ze dit groot krijgen dan moeten ze de GPU zo prijzen dat hij de goedkoopste is van vergelijkbare GPU's m.b.t. grafische kwaliteit en fps op de mainstream applicaties en games. Vervolgens driver optimalisaties tot je er bij neer valt en dan kan je pas gaan ontwikkelen voor een hoger segment. Intel moet dus veel investeren en een lange adem hebben.

[Reactie gewijzigd door Jumpman op 22 juli 2024 21:40]

Als ik het budget had gehad dan had ik er misschien wel 1 gekocht, gewoon, omdat het kan :)
Ik hoop dat Intel ondanks alle negativiteit genoeg marktaandeel kan pakken om door te blijven ontwikkelen, ben er wel echt van overtuigd dat dit alleen maar positief kan werken op de markt.
Voor die prijzen koop je ook een rtx 3060 (ti) met vergelijkbare performance of beter en perfecte support. Dus ik zou hier niet aan beginnen.
De drivers zijn denk ik het grootste probleem met deze kaarten. In de reviews op YT zie ik wel veel problemen voorbij komen. Ik juich het toe dat Intel videokaarten gaat verkopen maar persoonlijk sla ik een eerste generatie graag even over. Dan liever een bewezen product van AMD of Nvidia.
Zeker, maar zelfs met goede drivers zijn de prestaties gewoon niet interessant voor deze prijs en dit stroomverbruik.

Let wel, als je dit ding een uurtje of twee gebruikt, zelfs in idle, dan telt dit met de huidige stroomkosten over een jaar zomaar op tot een paar tientjes extra kosten aan energieverbruik ten opzichte van NVidia/AMD. Iemand die een dergelijke budgetkaart koopt zal niet elk jaar upgraden (niet kostenefficiënt), als je drie jaar met zo'n kaart doet zit je zo op honderd euro aan extra stroomkosten of meer. Tel dat bij de kostprijs op en de A770 moet het al opnemen tegen een RX 6800. En die laat geen spaan heel van de A770...

[Reactie gewijzigd door bwerg op 22 juli 2024 21:40]

De A770 zou aanzienlijk beter presteren dan de 3060.
Hangt van de toepassing af. Maar dan nog is hij iets sneller dan de 3060 maar nog steeds langzamer dan de 3060 ti. Dat en de driver issues maakt nu geen goede koop in mijn ogen.
Ja, maar de 3060ti is wel meer dan 100 euro duurder, op 1 enkele uitzondering na. En wie weet gaat de performance nog wel omhoog nagelang de drivers verbeteren, gisteren waren er schijnbaar weer verbeterde drivers. Ach als Intel een nieuwe all-in-one NUCje met deze kaart erbij voor een leuk prijsje levert dan wil ik misschien nog wel her risico nemen, voordat de 4060 er is zijn we toch minimaal een half jaar verder denk ik, en ik verwachrlt niet dat die 'goedkoop' gaat zijn.
Nou na korte zoektocht vind ik er 4. En een paar die maar 50/60 euro duurder zijn. Maar ben met je eens als die prijs nog wat gunstiger wordt kun je het zeker proberen.
Ik vergeef het Intel, het is hun allereerste gpu sinds jaren en er is nogal wat veranderd in de markt sinds die 8Mb AGP en PCI kaartjes die ik in het verleden van hun had.

Ik hoop stiekem dat we nog een grote speler erbij krijgen op de gpu markt met Intel, maar dan moet iemand wel deze kaartjes gaan kopen uiteraard.
Dit is goed voor de vooruitgang van de techniek en uiteraard voor ons als consumenten voor de portemonnee.

Zie maar eens enkele jaren geleden op de cpu markt wat het kan doen als je geen goede concurrentie hebt.
AMD scoorde jaren slecht met de Athlon FX en de A-series cpu's. (de 8-core FX kon zich niet eens meten met een 1e generatie i7 en zelfs de snelste A10 quadcore was een draak van processor en langzamer dan een i3 dualcore cpu)

In die tijd heb ik 7 jaar met mijn pc gedaan omdat upgraden niet waard was en Intel voor de cpu's kon vragen wat ze maar wilde.
En toen Ryzen kwam, wist Intel niet hoe snel ze hun Xeon servertechniek over moesten brengen naar consumenten pc's om nog een beetje mee te kunnen doen.

Ik heb vernomen uit verschillende reviews en nieuwsartikelen dat er absoluut geen marge is in de prijs en dat deze gpu's nu al tegen de kostprijs verkocht zullen worden.
Het is te hopen voor Intel dat er nog grote winst is te behalen in driver optimalisatie.

Op dit item kan niet meer gereageerd worden.