Gerucht: Intel Arc A770-reviews verschijnen begin oktober

Intel heeft naar verluidt nieuwe embargorichtlijnen voor de Arc A770-desktopvideokaart aan reviewers gecommuniceerd. Dat melden bronnen aan VideoCardz. Media zouden de videokaart op 30 september mogen tonen. De eerste reviews verschijnen een week later.

Volgens de embargorichtlijnen mogen media op 30 september unboxingvideo's van de Arc A770-videokaart publiceren, schrijft VideoCardz op basis van eigen bronnen. De eerste onafhankelijke reviews worden naar verluidt op 5 oktober gepubliceerd. Het unboxingembargo van 30 september is opmerkelijk, omdat de videokaart en diens verpakking al meerdere keren zijn getoond door media.

Als deze data correct zijn, dan ligt het voor de hand dat de eerste Arc A770-videokaarten inmiddels verstrekt zijn aan reviewers. Intel liet onlangs via socialmediakanalen weten dat het bedrijf op zeer korte termijn meer informatie over de Arc A770 deelt. Het bedrijf houdt op 27 en 28 september een Intel Innovation-evenement.

Na een lang en moeizaam traject tijdens de ontwikkeling van de Arc-videokaarten lijkt een release van het Arc-topmodel aanstaande te zijn. Een concrete releasedatum is echter nog niet bekend. Daarover horen we op korte termijn vermoedelijk meer. Het is onduidelijk of deze embargorichtlijnen ook van toepassing zijn op de Arc A750 of andere videokaarten van deze generatie. Volgens eerdere berichtgeving zou de Arc A750 tegelijkertijd met de Arc A770 worden uitgebracht.

Intel Arc A770 Pat Gelsinger
Intel-ceo Pat Gelsinger met een Arc A770-videokaart. Bron: Pat Gelsinger, Twitter

Door Sebastiano van Bommel van Vloten

Freelanceredacteur

26-09-2022 • 12:49

69

Lees meer

Reacties (69)

Sorteer op:

Weergave:

Aldus sommige gelekte benchmarks zou de A770 grofweg een 3060 benaderen?

Hoe dan ook, ik hoop dat Intel blijft volhouden voor een paar generaties, dan zien we pas hoe goed dit project was.
Dat was vooral voor DX 9/10/11 games volgens mij, als ik me goed herinner was de performance in DX12 en Vulkan games een stuk beter en in veel gevallen boven een 3070.

Daarmee gaat Intel natuurlijk nog steeds niet meedoen in de high-end van de markt, maar als de prijs ok is, dan zou een Intel kaart met 3070 prestaties nu al interessant kunnen zijn vanwege betere Linux support, en schijnbaar veel betere video encoding dan NVidia en AMD (interessant voor streamers/e-sports bijvoorbeeld). Ik zou er voor een Linux systeem dat niet primair voor games gebruikt wordt maar wel enigzins fatsoenlijke 3D performance moet hebben best wel interesse in hebben in ieder geval.

[Reactie gewijzigd door johnbetonschaar op 23 juli 2024 05:58]

AMD heeft jarenlang niets gedaan met de high end markt, en ze hebben het overleefd met een fractie van Intel's budget. Intel gaat het prima redden, en hun encoding is le-gen-darisch in datacenters en streaming.

Drivers zijn ook iets waar Intel engineers heel goed in zijn (wanneer herinner je een CPU die niet normaal werkte of crashte door een driver).

Nu maar hopen dat ze het Intel gezeik achterwege laten bij hun pogingen tot het naaien van een consument.
Helaas zijn de drivers nu net precies waar het onder andere aan mankeert bij Arc; je hoeft niet lang te zoeken om de problemen te vinden waar de eerste reviewers mee kwamen (voorbeeld, Gamers Nexus). Dit is inmiddels al wel weer twee maanden geleden en Intel heeft sindsdien flink aan de weg getimmerd, maar het ene driverteam is echt het andere niet. Wat ze doen met CPU's heeft feitelijk niets te maken met wat ze doen met GPU's en zelfs het iGPU team staat los van Arc.
Gamers Nexus en LTT hebben dan ook bijna een haatcampagne opgestart. Lijkt wel alsof zij willen dat Intel pre-release al faalt. (Goed dat ze alle pijnpunten benoemen, jammer van de nog negatievere framing)

Het is nu eenmaal makkelijk om views te scoren met heftige oneliners als 'is Arc already dead?' of 'worst we tested' van een pre-release product van een nieuwe speler op de markt.

Erg jammer want wij de consument zijn heel erg gebaat met het succes van deze derde speler, de disruptor. Zelfs als die 2 generaties achter ligt. Dat laat de 4xxx serie des te meer zien.

Intel die de dGPU markt gaat betreden is voor mij het beste nieuws in Hardwareland sinds ik sinds 2010 in hardware ben geïnteresseerd. (Oke (ry)zen was voor mij net zo heuglijk om dezelfde redenen)

[Reactie gewijzigd door eL_Jay op 23 juli 2024 05:58]

Tja, het blijven kanalen die moeten leven van de clicks, maar ze kunnen moeilijk een campagne beginnen waarin Intel alvast wordt geprezen en opgehemeld omdat ze een nieuwe speler zijn op de markt, en dan alle gebreken van de software onder het tapijt vegen als onbelangrijk, want dat waren ze niet.

En ja, natuurlijk zijn wij als consumenten gebaat bij het succes van Intel, maar dat succes gaat niet bereikt worden door te doen alsof er geen problemen zijn. Feiten zijn feiten. Alle geruchtenmolens die roepen dat Intel al besloten zou hebben om Arc te cancellen, of dat dat ieder moment kan gebeuren of zou moeten gebeuren kun je wel veilig negeren ja, dat voegt niets toe.

[Reactie gewijzigd door MneoreJ op 23 juli 2024 05:58]

GN en LTT zijn mediabedrijven net zoals CNN met dezelfde insteek om zoveel mogelijk clicks te generen. Waar het interessant wordt is wat de datacenter opties zijn met cost-per-transaction. Zeker als je hun toekomstige plannen voor RISC-V meeneemt.
Er is natuurijk ook wel iets voor te zeggen dat Intel voor deze nieuwe dGPU serie zich volledig focust op de API's die tegenwoordig het meest gebruikt worden (DX12 en Vulkan) en al hun driver ontwikkeling daar op focussen. Al die legacy meuk om DX 9/10/11 en OpenGL te ondersteunen blaast de drivers gigantisch op in complexiteit, en tegenwoordig wordt praktisch alles toch gebouwd op engines die DX12 en Vulkan ondersteunen. Dat oudere DX9/10/11 en OpenGL games dan iets minder presteren maakt meestal niet zoveel uit, of je nou 100fps haalt of 110fps in een 5 jaar oude DX9 game zal weinig mensen iets kunnen schelen lijkt me.

Hadden ze niet ook al aangegeven dat ze de DX9/10/11 support via dxvk (emulatie laag bovenop Vulkan) gingen implementeren? Dat lijkt me op zich een prima oplossing, kleine performance hit, maar je houdt wel alle legacy API support en per-game tweaks buiten je driver. Op dezelfde manier zouden ze Zink (OpenGL emulatie bovenop Vulken) kunnen gebruiken.
De driverproblemen die in eerste instantie gesignaleerd werden hadden nog niets te maken met DX11 en ouder. Dat vind ik eigenlijk nog het minste probleem van Arc -- het is begrijpelijk qua workload voor de engineers, ze hadden het al duidelijk aangegeven en je hebt inderdaad geen top of the line perf meer nodig voor het oudere spul, dus emulatie zal een prima oplossing zijn.

[Reactie gewijzigd door MneoreJ op 23 juli 2024 05:58]

Ik hoor vaak het argument dat het logisch is dat intel zich eerst op DX12 concentreert, maar bedenk wel dat dit nog geen top kaarten zijn, die de nieuwste spelletjes vrolijk op de hoogste settings draait. Zeker de lagere kaarten zijn goed voor oudere en minder veeleisende games, die dan vaak op DX11 draaien.
AMD heeft jarenlang niets gedaan met de high end markt, en ze hebben het overleefd met een fractie van Intel's budget. Intel gaat het prima redden, en hun encoding is le-gen-darisch in datacenters en streaming.
Huh? Ik weet dat klassieke publishers van cinema etc gewoon stapels FPGA's gebruiken voor transcoding en daar komt AMD/Intel/Nvidia niet aan te pas...

Intel heeft verzaakt in de mobiele/tablet/low-power/embedded markt, ik moet nog maar zien wat ze hier leveren.
High end ≠ server/professional equipment.
Overigens is Xilinx eigendom van AMD, dus daar komen ze dan toevallig wel een beetje aan te pas ;)
Drivers zijn ook iets waar Intel engineers heel goed in zijn (wanneer herinner je een CPU die niet normaal werkte of crashte door een driver).
Cloverview, Intel weigerde om nieuwere Windows 10 versies en Linux te ondersteunen. Het installeren van een nieuwere Windows 10 versie (geforceerd, want niet ondersteund) zorgt voor grafische corruptie. Is prima (eventueel softwarematig) op te lossen, maar Intel besloot dat niet te doen en om ook geen alternatief besturingssysteem te ondersteunen. Resultaat: meer e-waste.

Verder zijn er de afgelopen 10 jaar veel CPU's geweest die niet normaal werkten, waarbij via microcode prestaties opgeofferd werden om het tij te keren.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 05:58]

Drivers in de GPU markt is toch een ander staaltje. Er zitten bijvoorbeeld fixes in voor oudere spellen die niet goed werken (in een talk had john carmack bijvoorbeeld ooit gezegd dat quake gewoon crasht door een buffer overrun als de software de opengl extenties opvraagt, nvidia had dit gefixt door niet alle extenties terug te geven voor alleen quake). En voor veel nieuwe spellen worden sommige shaders hergecompileerd/-schreven om beter te presteren op de hardware. Dat is een van de redenen dat de nvidia drivers zo groot zijn tegenwoordig :)
Ik was aan het wachten op een 'echte' 4080 voor rond de €1000 nu die €1600+ zal worden in Nederland overweeg ik AMD of Intel.
Niet omdat een Intel GPU wil, want ik heb veel liever groene hardware, maar omdat ik mezelf nog moeilijk in de spiegel kan aankijken als mijn geld naar team groen gaat.
Nu investeren in Intel met de hoop op de lange termijn het monopolistische duopolie te beëindigen wordt ik veel gelukkiger van.
Stem met je portemonnee en investeer/donneer in de markt die je hoopt dat er komt.


En ja ik weet dat ik met Intel een inferieur early access product koopt, met serieuze issues.
Kijk, om je leed een beetje te verzachten, realiseer je dat die hele team green/red oorlog complete onzin is voor consumenten, want Nvidia engineers zijn veel van de beste engineers ter wereld. Net zo bij AMD.

Nvidia heeft fouten gemaakt door hun monopoliepositie op de markt en dat bijt ze nu hard in de kont. In plaats van accepteren en veranderen denkt Jensen dat hij de consequenties van zijn fouten kan neerleggen bij de consument.

Heeft Intel ook geprobeerd ten tijde van Ryzen 3/5. Hebben ze ook heel snel van geleerd. Ongetwijfeld dat dit bij Nvidia ook gaat gebeuren, zelfs als AMD gewoon een refresh uit brengt van de RX 6000 series, want zelfs alle game media en consumenten zijn het _zat_.

De 'echte' RTX 4080 is ook maar _de helft_ van de cores van een RTX 4090, dus daar proberen ze ons ook te naaien.

Investeer in een markt waar AMD en Intel ronddwalen, vergeet Nvidia voor een generatie. Die zullen het wel merken, net als Intel destijds met Skylake+++++++++++.
Zal zelf ook zeker kijken naar Intel, zit nu bij AMD (cpu + gpu).
Komende gen cpus ben ik erg benieuwd naar, neig naar AMD voor de hogere single core snelheid, maar als Intel met de 13600K hoge ogen gooit ga ik denk ik daarvoor.
En qwa gpus ben ik nu overtuigd van AMD, (daarvoor team groen) en zeer benieuwd naar Intel, er zijn inderdaad (flinke) issues met oudere games, dus moet even kijken of er wellicht toch nog wat driver updates komen daarvoor.
Anders komt er wellicht weer AMD in.
Al moet ik zeggen die nieuwe technieken die Nvidia liet zien om oude games door middel van AI een opfrisbeurt te geven zag er erg indrukwekkend uit.
Als ik voor team groen ga word het een RTX 4060, daar heb ik genoeg aan op 1080p ;)
Dus even afwachten.....
maar omdat ik mezelf nog moeilijk in de spiegel kan aankijken als mijn geld naar team groen gaat.
Dus geen geld naar Jensen maar wel naar zn nichtje?
Een 3060 is momenteel in PW te krijgen voor €399, zou dat betekenen een lagere prijs dan dat?
Denk dat de A770 lanceert rond die prijs, maar pin me er niet op vast.
Nog niet zo lang geleden zijn de lager gepositioneerde Arc's gereviewed en de conclusie was dat ook de stabiliteit en softwareondersteuning erg achter liep op NVidia en AMD, net als de prestaties in alle 'oude' games (lees: DX11 en ouder) en de energie-efficiëntie. Dus om echt een interessant product te worden moet de prijs van deze kaarten een stuk lager liggen dan gelijk presterende NVidia's en AMD's.

Of die prijs ook daadwerkelijk lager is valt maar te bezien want deze chips zijn daarvoor veel te duur om te produceren, Intel gaat ook nog niet efficiënt met die-space om dus de productiekosten liggen voor Intel nog relatief hoog ook. Al met al: als ze de prijs hoog inzetten kunnen ze in theorie winst maken maar hebben ze echt een slecht product, zetten ze de prijs laag in dan hebben ze misschien een redelijk product maar lijden ze bij elke verkochte kaart dik verlies. Dat kunnen ze eventjes volhouden maar niet meerdere generaties...
Ik heb de financiële ramingen van Intel niet gezien, maar wat vaker gebeurt is dat in de meerjarenplanning wel degelijk rekening gehouden wordt met een of enkele generaties die met verlies verkocht worden. Ik wil best geloven dat deze generatie ze een netto verlies oplevert puur om een plek in de markt te veroveren.
Dat zou best kunnen, zeker voor de eerste generatie zullen ze wel verlies hebben ingecalculeerd.

Alleen is de eerste generatie al flink vertraagd op de markt aan het komen, tel dat op bij de jaren ontwikkelwerk wat ook pure investering is en geen omzet en dan vraagt een aandeelhouder zich ook wel af wanneer hij een keer winst gaat zien als daar nog meerdere generaties overheen zullen gaan. Want op basis van de huidige reviews komt Intel nog niet in de buurt van AMD en NVidia's huidige generatie, terwijl hun nieuwe generaties al voor de deur staan.

Maar goed, uiteindelijk is het natuurlijk speculatie hoe lang Intel's adem is. Laten we hopen dat die lang is.

[Reactie gewijzigd door bwerg op 23 juli 2024 05:58]

Ik denk dat hiermee de Tweakers Pricewatch wordt bedoeld.
Hopelijk zien we dan hoe goed dit project is. :+

Er mag wel wat tegengas komen in GPU land.
Fantastisch mooi hoe AMD z'n comeback was, maar de versplintering door de USP van Gsync en DLSS is toch een beetje zonde om te zien.
Niet direct commentaar op jouw comment, maar wat me op valt aan die USP's is dat AMD zich meer lijkt te focussen op bestaande standaarden en open source, alsmede cross-brand compatability (Freesync en FSR) waarintegen de Nvidia varianten allemaal gebonden zijn aan Nvidia hardware of op z'n mist royalties (GSync, DLSS).

Intel lijkt er op dit moment een beetje tussendoor te gaan, door met hun tech (XeSS bijvoorbeeld) wel compatable te zijn met niet native ondersteunde chips (ook die van concurenten) maar vziw is de tech niet open source.

Dit zegt natuurlijk niets over de performance of kwaliteit van deze functies, maar je zou er iets uit kunnen afleiden aan hoe de merken in de markt staan.

[Reactie gewijzigd door kid1988 op 23 juli 2024 05:58]

Ja... twee jaar na de lacering van de 3060 en de TI versie ervan ook al weer een tijdje verkrijgbaar is. De onderkant van de markt, 2 jaar geleden.

Dat is alsof je een olympische plaats probeert te krijgen met 100 meter tijden uit 1970.

Ze zullen echt goed moeten gaan zitten met de prijs want voor 1 tientje ga je natuurlijk geen product kopen dat alleen maar nieuwe spellen kan spelen.
Haten is makkelijk. Zo is elk bedrijf ooit begonnen. We gaan het zien, maar beter de midrange van 2 jaar geleden dan de midrange van 5 jaar geleden.
Mid range is 3070
Qua prijzen, zelfs nu, is dat het zeker niet. Ik weet niet hoe rijk je bent, maar midrange in de cirkels van de meeste van mijn clienten die een PC willen, is grofweg 600-700 euro voor de hele PC. Dan kom je met een 3070 prijs niet ver, zelfs zonder miner tax.

Er zijn mensen die nog steeds wat goedkoper leven dan 1.2-2k per PC.

Midrange qua performance is 1080p60 High, btw. En dat doet een 3060 pri-ma.

[Reactie gewijzigd door DMZ op 23 juli 2024 05:58]

600-700 voor een PC is niet midrange, dat is budget. Tweakers eigen aankoop advies begint in die range (< 800), er is geen range lager en dat maakt het budget tenzij je denk dat tweakers aankoop advies begint bij het midden segment.

review: Desktop Best Buy Guide - September 2022

Mainsteam of instap. Midden segment is niet mainstream of instap, dat ligt een stukje hoger.

Budget -> Midden -> Top -> Ultra.
3060 -> 3070 -> 3080 -> 3090.

[Reactie gewijzigd door sfc1971 op 23 juli 2024 05:58]

Zelfs the Tweakers BBG zou geen 3060 kunnen plaatsen in het sub 1000 euro build. Tis toch van de zotte dat we volgens jou in 3 jaar van 600 euro midrange naar 800 zijn gegaan?

500-600 euro is, buiten miners om, midrange, alleen voor de toren.
Ik koop altijd een x60. Waarom ? Energievriendelijker en ik moet geen 200fps halen. Ik game ook gewoon niet elke dag, soms zelfs een hele week niet. Ik speel gewoon op 1440p en heb een 60hz scherm. Dus mijn 2060 zal nog 2 jaar moeten doen. Enja ik kan niet alles op max spelen. Maar daar neem ik genoeg mee. Maar wat is de doelgroep die kaarten koopt +1000 euro ? Mensen die nog thuis wonen en "oudere" gamers die hun zaakjes op orde hebben. Maar velen die alleen wonen of nog niet werken kunnen een 3090ti niet betalen. Als je gemiddeld loon bekijkt hier in den belziek is dat 1750 euro netto en dan hebben we het nog niet over energiekosten etc. Natuurlijk elke hobby kost geld. Maar als je een maandloon moet afstaan voor een kaart, zonder alle andere dingen. Dan moet je er toch al wat voor over hebben. Enja als je thuis woont is dat wat anders, omdat je dan dikwijls niks anders qua kosten hebt. Maar bekijk nu laptops ... Laptops rond de 6-700 euro verkopen als zoete broodjes. Het hogere segment al een pak minder. Nu hier op tweakers zijn er genoeg die wel ergens in IT werken en daar liggen de lonen wat hoger. En de meesten gaan al wat vlotter meer geld uitgeven aan IT materiaal. Maar jan modaal gaat geen pc kopen van 2-3-4k. Dat zijn echt de uitzonderingen.
Wat bedenk jij dan dat de 3050 is?
Lol, je wereldbeeld is niet helemaal realistisch denk ik.

Kaarten van het kaliber RTX 3070 en hoger zijn maar aan een paar procent van de gamers voorbehouden. Als ik het zo even snel optel kom ik niet verder dan een procent of 6.

Voor minstens de helft van de gamers zou een RTX 3050 al een mooie vooruitgang zijn.

[Reactie gewijzigd door bwerg op 23 juli 2024 05:58]

We zitten hier wel op een Nederlandse site en dan ook nog eens eentje waar de meeste toch minstens modaal zo niet hoger krijgen.
Alle jongeren en studenten ook, ja, en iedereen die even een PC voor hun zoontje in elkaar wil zetten?

Ik zie in de adviesfora ook gewoon dat veel mensen gewoon letterlijk een IGP kopen om licht op te gamen, of een (tweedehands) GTX1650 of iets dergelijks. Dus nee, ook daar knalt niet iedereen even zomaar een RTX 3070 in hun PC. De RX6600 van ~300 euro, even duur als een RTX3050, staat letterlijk in het BBG-budget-gamesysteem wat je zelf aanhaalt.

Verder is de stelling dat de RTX3050 een kaart is voor mensen die niet gamen natuurlijk lariekoek, waarvoor denk je dat mensen een GPU van 300 euro kopen? Om patience op te spelen? Terwijl daar prima moderne games op draaien op 1080p?
Voor photoshop of omdat ze meerdere monitoren willen aansturen. Zie trouwens dat je mijn vraag niet beantwoordt.
Voor photoshop of omdat ze meerdere monitoren willen aansturen. Zie trouwens dat je mijn vraag niet beantwoordt.
Een RTX 3050 ondersteunt niet meer monitoren dan een GT1050/GT1630 of zelfs een AMD IGP, en photoshop gebruikt de GPU nauwelijks...

Welke vraag, over prijssegmenten in nieuwe GPU's in Nederland? Daar gaat mijn observatie dat mensen gewoon videokaarten of IGP's van <300 euro in hun budget-game-PC zetten over. Of tellen die mensen in geen enkel marktsegment mee? Ze ontkrachten in ieder geval dat die videokaart is "voor mensen die niet gamen".

[Reactie gewijzigd door bwerg op 23 juli 2024 05:58]

Beste rijke lui,

Als een kaart van _drie honderd euro plus_ geen kaart is om te gamen, doen we iets fout.

Er daarbij heb je het dus helemaal verkeerd en ik zet dit hier niet voor jou, maar voor andere mensen die denken dat jij misschien een punt hebt. Dit heb je niet:

https://www.techtesters.eu/nvidia-geforce-rtx-3050-review/
tip aan tweakers redactie, misschien even de vraag stellen aan de bekende review site tweakers.net of dit gerucht klopt, bij een ja heb je toch net een wat pakkendere titel :)
Zoiets zou onder NDA kunnen vallen.
Ik ben echt heel benieuwd hoe Intel zich in deze markt sterk kan houden.
AMD en NVIDIA hebben al zo een ontwikkeling voorsprong natuurlijk, en markt ervaring... dat kan je volgens mij nooit meer bijbenen.
Namaken als je weet dat het mogelijk is en ongeveer hoe, is eenvoudiger dan nieuwe dingen ontwikkelen. Het kost alleen wel veel tijd en geld. Intel lijkt me bij uitstek een bedrijf dat die lange adem heeft. En aangezien er genoeg te verdienen valt in het middensegment, is de prestatiekroon hebben helemaal niet nodig als je al een sterke naam als Intel hebt. Terecht of onterecht, met die naam kun je van alles verkopen waar een onbekend bedrijf niks mee aan zou kunnen.

Ik hoop dat ze doorzetten en er een goed alternatief komt. Meer druk, meer innovatie, meer vooruitgang.
Intel heeft hele diepe R & D zakken, en als ze echt voor een goed product gaan, in dit geval de gpu, dan ben ik er ook van overtuigd dat het goed komt.
Deze eerste gen (A) zal het wellicht nog niet helemaal waarmaken, maar B en C zouden naar mijn mening zeker de concurrentie aan moeten kunnen gaan met team groen en rood.
En helemaal als ze voorlopig zeer scherpe prijzen hanteren, dat zullen ze ook moeten om een stukje markt in te nemen.
Ben er erg benieuwd naar :)
nooit meer bijbenen
Dat valt wel mee en daar is AMD het bewijs van zowel op CPU als GPU gebied. Hoe lang heeft AMD wel niet achter Intel aangelopen en daar is ook geen sprake meer van.
Het achterlopen van AMD op Nvidia is altijd relatief beperkt geweest.

Dat geld niet voor intel op de twee andere fabrikanten.
Ik ben vooral benieuwd naar de positionering van de kaarten. Eerdere geruchten zetten de 770 ongeveer op gelijke hoogte als een 3060, maar de 3060 en 6600XT zijn al flink lang uit en inmiddels ook redelijk goed geprijsd. Beide kaarten kan je voor 400 euro kopen. Als Intel echt een kans wil maken moeten ze dus vergelijkbare performance neer zetten tegen een lagere prijs, want anders blijven veel mensen denk ik gewoon voor AMD of Nvidia gaan.
Intel heeft volgens mij zelfs een oud chipdesigner van AMD aangenomen om aan de ARC te werken, maar ze zullen ook wel ander, minder bekende mensen binnen gehaald hebben. Denk niet dat ze een flashback naar de i740 videokaarten willen ervaren.

Alsnog heb ik het idee, wat ik ook zag toen ze echt tunen aan de A380 bij gamers nexus was dat de hardware wel op orde was, maar de drivers verre van.
Vreemd genoeg is de A770 al te zien in een video van Marques Brownlee, terwijl hij zich doorgaans gewoon aan embargo's houdt. Zie: https://www.youtube.com/watch?v=ltD4TVN9wAY kaart is op 13:20 in beeld.
Of wordt dit niet verstaan onder een unboxing?

[Reactie gewijzigd door Zwolsermbtr op 23 juli 2024 05:58]

Ik moest hier ook meteen aan denken toen ik het artikel zag, hij test bovendien Forza met de frames in beeld.

Geen idee waarom andere kanalen zelfs de kaart niet mogen tonen als hij al zo vaak in beeld is geweest
Ik vond het ook opmerkelijk dat hij er een had en mocht inbouwen in een nieuwe systeem, aangezien deze GPU nog niet officieel gereleased is. Het lijkt wel of de heren bij Intel marketing dachten op deze manier buiten de normale tech youtubers om de kaart onder aandacht van het publiek te brengen, zonder dat er al te kritisch naar gekeken zou worden.

Als dit bij de tech youtubers gedaan zou zijn, dan zou die kaart performance technisch op het bot uitgetest zijn geworden, met alle potentiële nadelen van dien.
Persoonlijk denk ik dat deze gpu's (voor investeerders) een flop zullen worden. Ik ben het er mee eens dat de markt een nieuwe speler wel kan gebruiken al denk ik niet dat consumenten de Intel gpu's gaan zien als serieuze speler. AMD en Nvidia hebben een grote naam onder gamers en juist onder gamers wordt Intel als niet prettig ervaren vanwege de hogere prijs die hun cpu's hebben ten opzichte van bijv. AMD. Ala, Intel cpu's worden nog steeds verkocht, maar onder gamers heeft AMD een aardig marktaandeel weten af te snoepen.

Daarbij komt AMD met een nieuwe reeks gpu's uit waar wel met volle hoop en verwachting aangekeken wordt. Waarom? Omdat Nvidia zijn eigen naam aan het verbrassen is door de extreem hoge prijzen en AMD naar verwachting Nvidia en Intel de benchmarks gaat overtreffen.

Nogmaals, niks mis met een nieuwe speler op de markt, maar hun timing is niet echt goed geplaatst. Intel gpu's zullen voornamelijk oem verkocht gaan worden in massaproductie computers. Maar voor gamingpc's zullen ze veel meer moeite moeten doen om de gamer te overtuigen.
Niet iedereen koopt de high end video kaarten, zo'n Intel Arc A770 schijnt dus overeen te kome met een Nvidia RTX 3060. Een degelijke videokaart met RGB :)
Ben vooral benieuwd of Intel mee kan met de efficiëntie qua energie verbruik.
Yup, Ik kijk vooral uit naar de volgende generatie, het feit dat intel met hun eerste poging daadwerkelijk als vergelijkbare performance haalt is bewonderingswaardig.
Het energieverbruik is het volgende punt. Want ze kunnen wel asic kaarten maken om te minen met minder energieverbruik, maar voor gaming proberen ze die weg niet in te slaan. Hierdoor wordt gamen nog meer ter discussie gesteld en in een hoekje gestopt zodat andere grote energieslurpers (zoals het bankwezen) minder in dat daglicht worden gezet.
Hallelujah! Een extra uitdager voor Nvidia mag wel, hoewel ik denk dat we ook nog mooie dingen kunnen verwachten van AMD.
Leuk om een nieuwe speler in de GPU markt te zien :)
Ondertussen op YouTube heeft MKBHD al een video met een build met de de A770 online staan.

Hij speelt alleen forza horizon op 1440p high settings en haalde zo'n 90fps, zo'n beetje vergelijkbaar met een RTX 3060 (Ti?).
Ik ben benieuwd of Intel, i.v.m. vertraging na vertraging met de launch (o.a. wegens de vele software problemen), stiekem al bijna klaar is met een volgende generatie.

Ze zouden dan met deze releases natuurlijk even het water kunnen testen en de nieuwe generatie nog even wat tweaken voor een wat betere uitkomst (?).

Ze zullen vast niet stil hebben gezeten tijdens al die vertragingen in ieder geval.

Mijn verwachtingen liggen vrij laag, maar je kunt er volgens mij aardig veilig van uitgaan dat het wel een paar generaties zal duren voor Intel écht mee kan spelen met Nvidia en AMD.
Desondanks is het gewoon een nieuwe speler op de markt en gaat dit gewoon nieuwe ontwikkelingen betekenen. Zelfs als het geen winst oplevert voor Intel (wat het vast wel zal doen na een paar generaties), zal het vast wel winst opleveren voor de consument. En als Arc uiteindelijk geschrapt wordt, zullen we hier vast wel e.e.a. van terugzien in de integrated-graphics markt. Hier kan Intel natuurlijk meer dan prima concurreren met b.v. AMD, waar Nvidia in principe een beetje afvalt.
Ben benieuwd naar de performance. Zal er vast wel iets op tweakers van lezen of op Linus Tech Tips zien

Op dit item kan niet meer gereageerd worden.