Intel: laptops met Arc-gpu's verschijnen in komende weken in meerdere regio's

Intel zegt dat in de komende weken fabrikanten in meerdere regio's laptops beschikbaar zullen hebben met Arc Alchemist-videokaarten. Eerder zei het bedrijf nog dat deze laptops pas tegen het einde van het huidige tweede kwartaal beschikbaar zouden komen.

Intel laat op Twitter weten dat de eerdere informatie over de beschikbaarheid aan het einde van dit huidige kwartaal niet klopt. Volgens het bedrijf was er sprake van verwarring. Intel meldt nu dat Samsung in Zuid-Korea al systemen met Arc-gpu's aanbiedt en dat die producten ook in andere regio's zullen uitkomen. Daarnaast zegt Intel dat andere fabrikanten in de komende weken ook dergelijke systemen gaan aanbieden.

Tot nu toe blijkt het niet eenvoudig om een laptops met een Arc-gpu te bemachtigen. Onder meer de website Videocardz meldt dat de A350M- en A370M-laptops nog nergens te vinden zijn en dat na een vraag aan lezers van de site is gebleken dat ook nog niemand een aankoop heeft weten te realiseren. De website Tweaktown meldt dat hun bestelling van de Acer Swift X-laptp met Arc-gpu vertraging heeft opgelopen: de leverdatum is veranderd van 25 mei naar 13 juni.

Ruim een week geleden bracht Intel zijn eerste Arc Alchemist-videokaarten uit. Het gaat om lager gepositioneerde Arc 3-gpu's voor laptops, te weten de Arc A330M en Arc A370M. In de zomer moeten ook de Arc 5- en Arc 7-modellen en Arc-videokaarten voor desktops verschijnen. Deze modellen zijn hoger gepositioneerd en zullen betere prestaties hebben.

Intel Arc-videokaarten voor laptops
Serie Arc 3 Arc 5 Arc 7
Model A350M A370M A550M A730M A770M
Xe-cores 6 8 16 24 32
Raytracingcores 6 8 16 24 32
Kloksnelheid 1150MHz 1550MHz 900MHz 1100MHz 1650MHz
Geheugen (GDDR6) 4GB (64bit) 4GB (64bit) 8GB (128bit) 12GB (192bit) 16GB (256 bit)
'Graphics Power' 25-35W 35-50W 60-80W 80-120W 120-150W
Release 30 maart 2022 Begin zomer 2022

Door Joris Jansen

Redacteur

08-04-2022 • 08:56

62

Lees meer

Reacties (62)

62
61
34
2
0
20
Wijzig sortering
Who cares about laptops. Desktop kaarten is prio no. 1. Nvidia moet een ongelooflijk pak slaag krijgen.
Verwacht maar niet dat nVidia op het super high end segment iets te duchten krijgt van wie dan ook. AMD doet leuk mee tot aan ongeveer de 3070Ti/3080, Intel zal waarschijnlijk niet heel ver daarna komen. Ik verwacht dat die A7xx een leuk alternatief wordt voor een 3070, mits de prijs/performance goed is en het stroomverbruik lager ligt.

Verder is het afwachten of XeSS doet wat het moet doen in vergelijking tot DLSS of FidelityFX. Intel is wel goed in stuursoftware schrijven, maar op het gebied van grafische programma's zijn ze rookies. Kijk bijvoorbeeld naar het Intel Graphics Command Center. Het oogt allemaal beter en strakker dan Nvidia's control panel, maar echt sterk vind ik het niet. Wellicht dat ze met hun nieuwe GPU's daar ook nog een schepje bij kunnen doen.
Jou opmerking klopt niet. HW unboxed heeft de RTX 3080 met de 6800 XT vergeleken met 50 games, hierin bleken de kaarten (afhankelijk van de resolutie) zo goed als gelijkwaardig. De 6900 XT is gelijk of iets beter dan de 3080 Ti. Alleen de 3090 en de 3090 Ti staan daar nog boven, maar ook daar zijn de performance maar minimaal beter.

PS. Mijn afgelopen/huidige 3 videokaarten waren/is van Nvidia, dus geen AMD fanboy.

[Reactie gewijzigd door Sjaakys op 25 juli 2024 19:38]

Ik heb ook een bron

En nog één

Nog één

In deze drie bronnen presteert de 6900XT ongeveer gelijk als de 3080.
UserBenchmark kan je niet serieus nemen, dat is een appels met peren vergelijking. Gebruikers draaien één tool. Je hebt verschil in CPU, RAM etc. Wat betreft de gpucheck. Als ik de bovenste matrix bekijk staat er dat de 6900 XT 7% sneller is op 1080P & 1440P, 4K 1%. 7% sneller kan ik niet gelijk noemen.
Versus, tja... :+
Je pakt wel de meest beruchte/onbetrouwbare 'benchmarks' van het net...
Zoals Sjaakys terecht aangeeft zijn die sites heel goed in appels met peren vergelijken.
Voor objectieve tests moet je 2 GPU's op exact hetzelfde systeem testen in een testomgeving waarbij ze niet gebottlenecked worden. Dit doen die sites dus absoluut niet, er zijn veel te veel variabelen die invloed hebben op de prestaties. Het zijn IMO clickbait sites.
Als het allemaal zo onduidelijk/moeilijk is om te meten, dan is het misschien net omdat ze ongeveer gelijk presteren?
In dit specifieke geval met deze gpu's is dat tot 4K waar maar als je even naar mijn reply hieronder kijkt dan kun je zien wat ik bedoel.

[Reactie gewijzigd door Pietjeball op 25 juli 2024 19:38]

Danku, dat was exact mijn punt :*) _/-\o_
Die tweede beschrijft vrij duidelijk dat ze in hetzelfde systeem testen. Maar goed, uiteindelijk heeft niet iedereen hetzelfde systeem en zijn de prestaties van een GPU afhankelijk van veel verschillende factoren.
Ik doel met name op die sites die gemiddelden pakken van gebruikers met dezelfde CPU, hoeveelheid RAM etc etc. Dan nemen ze bijvoorbeeld wel de RAM snelheid mee maar niet het CAS latency of dat 32GB met 2 x 16GB of 4 x 8GB RAM wordt gebruikt(kan ook van invloed op de prestaties zijn). Ook zie je niet of het een goed gekoelde of slecht gekoelde CPU is (thermal throttling ja of nee). Allemaal factoren die van invloed kunnen zijn op de game prestaties. Die sites trekken alles gelijk en zo krijg je een totaal vertekend beeld. Vooral omdat de verschillen onder 4K tussen kaarten als de 6800XT en 3080 en 6900XT en 3090 vaak in de enkele procenten zitten. RAM met strakke timings kan in bepaalde games meerdere procenten tot soms zelfs boven de 10% verschil geven. Vandaar de appels met peren opmerking en dat zulke sites met name clickbait sites zijn. Ze gebruiken immers de onwetendheid van de bezoeker voor hun eigen gewin.

Op die 2e site kan ik overigens niets vinden over hun testsysteem. Dat soort 'reviews' sla ik zo ie zo altijd over.

[Reactie gewijzigd door Pietjeball op 25 juli 2024 19:38]

Was dat in rasterization titels of ook bij raytracing titels?
Hier het artikel: https://www.techspot.com/...x-3080-vs-radeon-6800-xt/
Het zijn 50 games, er zit van alles wel wat bij. Staat in het artikel uitgelegd waar van toepassing.

Aanvulling:
In terms of rasterization performance, the RTX 3080 and Radeon 6800 XT are very evenly matched. Whatever tales you may hear about driver optimization, truth is nothing has changed in this shootout since day one.

[Reactie gewijzigd door Sjaakys op 25 juli 2024 19:38]

Alleen als je DLSS aanzet heeft de 3080 veel meer (20/30%?) performance dan 6800 XT ...
Verwacht maar niet dat nVidia op het super high end segment iets te duchten krijgt van wie dan ook.
Het super high end segment is minder interessant als dat het ooit was, gezien de steeds hogere prijzen en prijsverschillen tussen de segmenten. Zie ook de Steam Hardware Survey. Het goud is in het middenkader.

[Reactie gewijzigd door The Zep Man op 25 juli 2024 19:38]

ja maar blijkbaar maakt het niet uit. Werd ook laatst op WAN Show van LTT besproken, waar veel mensen gewoon een 3090 kopen, niet omdat het perse nodig is maar gewoon omdat het nu het beste is en dat willen ze hebben. Dus het midden segment is kwa prijs dood, maar ook kwa de mindset van erg veel consumenten in de markt. Steam hardware survey volgt deze lijn ook heel sterk.
ja maar blijkbaar maakt het niet uit. Werd ook laatst op WAN Show van LTT besproken, waar veel mensen gewoon een 3090 kopen, niet omdat het perse nodig is maar gewoon omdat het nu het beste is en dat willen ze hebben.
'Veel' is relatief. Zoals genoemd, zie de Steam Hardware Survey, waar de meeste GPU's middenkader zijn en oudere generaties.
Dus het midden segment is kwa [sic] prijs dood, maar ook kwa [sic] de mindset van erg veel consumenten in de markt. Steam hardware survey volgt deze lijn ook heel sterk.
Juist omdat het middensegment nu qua prijs dood is, is er juist een kans voor partijen zoals Intel.

[Reactie gewijzigd door The Zep Man op 25 juli 2024 19:38]

Is een xx50 or xx60 het 'middenkader'?
Daarnaast weet ik niet of deze Steamcharts heel representatief zijn, amper AMD kaarten...
@jabwd Wat is veel? Als 1000 mensen in een bepaald gebied een 3090 kopen klinkt dat als veel 3090 kaarten, maar als in datzelfde gebied er 200.000+ mensen een andere type videokaart kopen is het relatief weinig. De 3090 (Ti) wordt relatief weinig verkocht.
xx60 kaarten zijn inderdaad midrange. De Steam statistieken tonen heel duidelijk aan dat het upgrade-pad er nu niet is voor het middensegment. Het marktaandeel van de 1060 is zelfs toegenomen in maart 2022, wat nogal bijzonder is voor een kaart die niet meer gemaakt wordt.

En AMD heeft maar 20% van de markt voor grafische kaarten, dus het is logisch dat ze veel minder vertegenwoordigd zijn in de Steamcharts. AMD heeft nu een redelijk sterke generatie, waardoor ze normaliter marktaandeel zouden kunnen winnen, maar dat lukte niet door een gebrek aan productiecapaciteit. Dat zie je trouwens ook bij de CPU's, waar AMD een tijd lang de beste producten had, maar desondanks marktaandeel verloor op de CPU markt, door een gebrek aan productiecapaciteit.
doet de 6900xt niet leuk mee met de 3090?
Eerder met de 3080.
Ik vind nVidia slechter dan AMD voor het moment. Ze kunnen het alleen halen van AMD met een torenhoog verbruik. Een kaart met zo´n hoog verbruik komt niet in mijn pc. Dan liever een AMD. Enige verkoopargument die ze hebben is hun betere raytracing prestaties.
Laptop onderdelen verbruiken veel minder energie dan hun desktop tegenhangers. En dat geldt ook voor grafische kaarten. Als die vrijwel net zo goed gaan presteren als de desktop variant, dan is er geen noodzaak meer om daarvoor te kiezen.
De koeling van laptops is veel slechter dan die van desktops, omdat een laptop nu eenmaal geen ruimte heeft voor echt goede koeling. Daarom worden CPU's en GPU's in laptops vaak underclocked. Desondanks zie je bij hoge workload dat laptops veel sneller last hebben van thermal throttling, waarbij de CPU en/of GPU zichzelf omlaag clocked omdat de temperatuur te hoog is.

Laptops gaan dus nooit een desktop evenaren.
Laptops gaan dus nooit een desktop evenaren.
Dat beweer ik ook nergens. Alleen dat de innovatie zit in het efficiënter maken, niet in de klok nog meer verhogen.

Als je met een mobiele GPU op 4K met 200 fps kunt gamen, waarom zou je dan voor een energievretende desktop variant kiezen?

Met andere woorden: een desktopvariant zal altijd meer kunnen dan een laptopvariant, alleen voor het gros van de wereldbevolking zal een laptopvariant volstaan.
Omdat je het concept niet lijkt te begrijpen. Hetzelfde soort chips zitten in een desktop en laptop, met als verschil dat een chip in een laptop instort als het ding al snel te warm wordt. Het is dus niet zuiniger, het klokt alles naar beneden. Hetzelfde kun je dus bereiken met een desktopkaart. Gewoon de performance op energiebesparend knallen en framerate limiteren. De mobiele variant die dus met deze handicaps 4K/200Hz kan renderen, zou op volle snelheid dus meer kunnen doen.
Laptop onderdelen verbruiken veel minder energie dan hun desktop tegenhangers.
Dit klopt dus ook niet, want dit is niet door de onderdelen zelf, maar door de omstandigheden en software om die onderdelen heen. Als ik 10% van mijn desktopkaart gebruik en 10% van mijn laptopkaart, zit ik aan hetzelfde verbruik voor pakweg dezelfde performance.

Je kunt in een vergelijking zien dat de specs nagenoeg hetzelfde zijn, maar dat kloksnelheden worden aangepast om je fikken niet letterlijk te verbranden als je aan je laptop zit:

https://www.notebookcheck...p_7376_7311.247598.0.html
Je kunt in een vergelijking zien dat de specs nagenoeg hetzelfde zijn, maar dat kloksnelheden worden aangepast om je fikken niet letterlijk te verbranden als je aan je laptop zit:
Bij de 10 series opzich wel ja; bij de 30 series zijn de desktop varianten ook nog eens compleet andere configuraties. Zo is een desktop RTX3080 gebaseerd op de GA102 chip met 8704 shaders ingeschakeld en de laptop 3080 een GA104 met 6144.

En dat komt nog eens bovenop jouw correcte uitleg over het verschil in kloksnelheden, een 3080 laptop is geen schim van een 3080 desktop dus :P

[Reactie gewijzigd door !mark op 25 juli 2024 19:38]

Right, maar dan zou die kaart dus eigenlijk een 3060 of 3070 moeten heten in de laptop, thanks Nvidia 8)7

Maar dan klopt de vergelijking niet en zouden we in dit geval de GA tegen elkaar op moeten zetten ipv de productnamen. Ze zijn allebei de GA10x serie, en daarbinnen verwacht ik dan geen erg relevante verschillen. Ergo, als GA104 ongeveer 2/3e is van de GA102 qua units, verwacht ik dat de consumptie en performance hetzelfde is wanneer een GA104 op 50% draait en een GA102 op 33%. (gegeven dat geheugen, kloksnelheid, e.d. hetzelfde is)

Laat ik het simpeler stellen; Er is momenteel geen reden om aan te nemen dat laptopvarianten op hardware-niveau magisch een betere efficiente:snelheid ratio hebben dan de desktopvarianten.

[Reactie gewijzigd door Verwijderd op 25 juli 2024 19:38]

Omdat je het concept niet lijkt te begrijpen.
Is dat hoe je discussieert? Ieder een die een andere mening heeft dan jij begrijpt het niet?
Hetzelfde soort chips zitten in een desktop en laptop, met als verschil dat een chip in een laptop instort als het ding al snel te warm wordt.
Niet noodzakelijk. Verdere miniaturisering begint met mobiele onderdelen. Die worden minder snel te warm.
Het is dus niet zuiniger, het klokt alles naar beneden.
Niet noodzakelijk. Zie hierboven. Met een ander ontwerp kun je met een lagere klok soms dezelfde performance behalen. Soms niet, en dan kun je discussiëren hoe zinvol een hogere performance in die situatie is.
Hetzelfde kun je dus bereiken met een desktopkaart. Gewoon de performance op energiebesparend knallen en framerate limiteren. De mobiele variant die dus met deze handicaps 4K/200Hz kan renderen, zou op volle snelheid dus meer kunnen doen.
Dat klopt helemaal!

Maar als een mobiele kaart al 4K/200Hz aankan, hoe zinvol is het dan om met een desktopkaart meer te doen?
Maar als een mobiele kaart al 4K/200Hz aankan, hoe zinvol is het dan om met een desktopkaart meer te doen?
Aangezien monitoren al voorbij de 200Hz gaan, heeft het dus nog zin. Ook zijn er monitoren boven de 4K, wat alweer een flinke hap neemt uit je framerate. (1440->4K was voor mijn 1080 Ti 40% minder FPS)

10 jaar geleden was 1080p de heetste resolutie op de markt, daar lachen we nu om. Zo gaat 4K ook een lagere resolutie zijn over enkele jaren.
Ach ja, resolutie...

Voor tv's is het nut van 4K discutabel, 8K is absolute onzin. HDR daarentegen, wat met 4K "meekwam", is wel zinvol.

Voor monitoren, waar je met je ogen dicht op zit, is het een ander verhaal. Een stilstaand 8K beeld voor 30" is mogelijk zinvol, maar actie op 8K daarentegen weer niet. En meer dan 200 Hz beeldverversing, met de noodzaak vaker dan elke 5ms een vers beeldje te laten zien? Ook daarvan is het nut IMHO zeer beperkt (oftewel pure kolder). Maar goed, ieder zijn mening, dus ga los op kilohertz schermen!
Ik zie persoonlijk heel duidelijk verschil tussen 60hz, 100hz en 240hz. Zelfs met kleine dingen als je muis en vensters verslepen. Een constante verdubbeling van het aantal frames zie je duidelijk terug in animerende objecten. Er zal vast een diminishing return zijn, maar die ligt boven de 240hz wat mij betreft.
Zolang ik een desktop na een jaar of 3-4 de videokaart kan vervangen en daardoor tegen een redelijke prijs de levensduur met nog eens 3 jaar kan verlengen is de keuze voor mij simpel hoor; ook bij hypothetisch gezien exact gelijke prestaties tussen laptop en desktopvarianten :P Daarnaast hebben desktops vaak een langere levensduur dan (gaming)laptops doordat de componenten thermisch veel minder ballast worden.

In laptops zien we helaas juist steeds meer een trend de andere kant op waarbij (een deel van) het werkgeheugen of de SSD niet meer te vervangen is door de eindgebruiker.

[Reactie gewijzigd door !mark op 25 juli 2024 19:38]

Als je een laptop met CPU met geïntegreerde GPU hebt, dan is deze inderdaad niet te vervangen. Maar een losse GPU is mogelijk wel te vervangen. Nu kun je discussiëren over de zin daarvan (want wil je niet ook sneller geheugen, snellere communicatie, meer ..., ....???
Je kan al de orginele Doom of Half-Life spelen met deze framerates op een laptop. Maar het punt is dat de beeldkwaliteit nog steeds sterk aan het verbeteren is. Dat geldt ook voor e.g. fysieke realiteit enzo, wat misschien weer meer van de CPU vraagt. Dus als je zegt: op 200 fps kan spelen vraag ik: welk spel?

Of je denkt dat mensen alleen nog oude/retro spellen gaan spelen, maar dat lijkt me niet het geval.

Met geluid is het wat anders, daar kunnen we niet heel veel meer in innoveren mbt kwaliteit lijkt me; daar heb je in ieder geval geen zware chip voor nodig.
Waarom Nvidia? die hebben iig nog LHR kaarten gemaakt iets wat AMD niet gedaan heeft.
t zal eerder ala de oscars zijn :P
haha heb de 3080Ti al een jaar en ben blij :-) Nvidia blijft nummer 1 ;-)
Proficiat met je 350W verbruikende onding. Bij mij komt die stroomvretende kaart er niet in. Dan liever een AMD.
4gb geheugen op een GPU, misschien ligt het aan mij, maar dat is toch niet meer echt geschikt anno 2022.
Dat is een entry-level kaart he, geen mid- of high-end kaart. Voor simpel kantoor/thuis-werk of heel basaal gamewerk is 4 GB op zich meer dan genoeg.

Voor meer intensief gamen heb je de Arc 5 en (vooral) Arc 7.

Voordeel van weinig geheugen is dat het de prijs relatief laag kan houden, geheugen is immers doorgaans relatief prijzig, en met de huidige chiptekorten ook vaak lastig verkrijgbaar.
Voldoen dan de IGPU's niet? Als ik kijk wat ik met mijn intel iris nog kan gamen enzo is dat best een hoop, zelfs videobewerking enzo.
4GB dedicated GDDR is nog steeds beter dan wat een iGPU gebruikt (DDR4, gedeeld met CPU). Er is een niche tussen de iGPU's en NVidia 3050.
Voor mijn gevoel is dat gat echt een stuk kleiner geworden de afgelopen jaren.
Simpel kantoorwerk kon vroeger op een 1MB videokaart. Toegegeven, met Aero heeft Microsoft de eisen een heel stuk verhoogd, maar we hebben het nog steeds primair over 2D beeld rendering. Je hebt nog steeds maar een paar megabyte aan pixels.

Nee, dit lijkt me puur voor gaming. De meesta laptops hebben toch geen 4K HDR scherm.
6gb is ook echt wel op t randje
Meer heb je echt niet nodig voor de meeste kantoortaken en veel andersoortige software.
Niet iedereen draait software waar zware GPUs van enig belang zijn.
Gamers en mensen die bv veel renderen moeten uiteraard geen cent aan dit soort kaartjes uitgeven :-)
Voor 95% van de mensen is een geïntegreerde gpu op de cpu al ruim voldoende. De wereld bestaat niet alleen uit Tweakers en Gamers he...
Ik vraag mij af hoe de A730M en A770M zich zullen verhouden tot de RTX3070Ti en RTX3080Ti laptop GPUs.
Ook qua prijzen.
nog niet de verste verte in de buurt komen, de prijzen wel, want intel gaat de arc gpu in laptops bijna gratis meeleveren. Dit was gemeld in hun resultaten dat volgend kwartaal de gpu business verlies zou draaien wegens initiele marketing.
Interessant dan wel... Want die TGP van 80-150 is dan echt wel extreem als deze niet in de buurt zullen komen van de RTX3070Ti/RTX3080Ti...
De prijzen wel, zegt u ? De de RTX3070Ti en RTX3080Ti is toch niet gratis?
Ja verwarring, het was volgens mij al de heletijd zo dat het Q1 zou zijn, Q2 voor desktop en Q3 voor workstation.
Eerst zien en dan pas geloven.

Volgens bovenstaand overzicht, al vanaf 30 maart?
Volgens bovenstaand overzicht, al vanaf 30 maart?
De chips zijn verkrijgbaar (bestelbaar) sinds 30 maart. Iemand moet nog de tijd nemen om ze op een PCB te plakken.

Waarschijnlijk zullen de grote notebookfabrikanten al een tijdje voorzien zijn van de specificaties en misschien zelfs prototypes, waardoor notebooks met deze chips snel zullen volgen.

Ik ben benieuwd hoe goed hun aangekondigde top of the line 150W model het zal gaan doen tegenover high-end videokaarten van enkele generaties geleden (GTX 1080 met een TDP van 180 watt, bijvoorbeeld). Volgens mij is er hier en daar wel behoefte aan een upgrade, maar wachten mensen nog even i.v.m. de slechte leverbaarheid van huidige GPU's voor/onder adviesprijzen. Die behoefte is er in ieder geval bij mij. ;)

Compatibiliteit, leverbaarheid, prestatie per watt en prijs gaan de doorslag geven over hoe succesvol deze GPU's gaan worden. In het middensegment is de markt groot genoeg om toe te treden zonder actief te zijn in het topsegment, maar dan moet je wel wat te bieden hebben.

[Reactie gewijzigd door The Zep Man op 25 juli 2024 19:38]

De laptops zijn al gemaakt. Zoals in de tweet staat zijn ze al te koop in Korea. Bij de aankondiging heeft Intel aangegeven dat er Arc "producten" "on store shelves" zouden zijn in Q1. Dit soort aankondigingen moeten waar zijn anders kan je problemen krijgen met aandeelhouders. Doorgaans worden laptop GPU's ook direct geleverd bij de aankondiging.

De GPU's zelf worden al een tijdje geproduceerd dus OEMs hebben al meer dan genoeg tijd gehad om deze in te bouwen. Aangezien je geen uitspraken doet die je niet kan waarmaken kan de reden voor de extra vertraging niet een zijn in de productie of de levering van de chips. Dit is namelijk vrij goed te voorspellen, zeker door een bedrijf als Intel.

De issues zitten waarschijnlijk in de software. Dus intel heeft ergens in noord korea een laptop in een winkel gelegd met windows in het grieks geïnstalleerd zodat de aandeelhouders geen aanklacht kunnen indienen.
Aandeelhouders die problemen maken over aankondigingen? Het ging over laptops in de winkel. Daar kan Intel niet aan gehouden worden; Intel produceert die laptops niet. Het is dus een voorspelling die Intel doet, maar die betrekking heeft op Intel's klanten.
Intel heeft de belofte gedaan om Arc producten in de schappen te hebben in Q1 2022. Dat bleken niet de dGPU's te zijn maar laptops met Arc GPU's. Daar kan Intel dus zeker wel aan gehouden worden dus hebben ze er ook voor gezorgd dat de belofte is uitgekomen. Of Intel wel of niet invloed heeft op fabrikanten van laptops of winkeleigenaren die hun producten willen voeren doet er niet toe voor officiële berichten van een beursgenoteerd bedrijf.

Intel mag de aandeelhouders niet verkeerd informeren en had het dus anders moeten verwoorden als ze bedoelden dat fabrikanten vanaf dan met de Arc GPU's aan de slag konden. Maar Intel heeft de deadline van het vage statement gehaald dus voor de aandeelhouders zijn ze veilig.
Uit de feitelijke aankondiging:
The Small Print:

All product plans and roadmaps are subject to change without notice.
Statements on this website that refer to future plans or expectations are forward-looking statements. These statements are based on current expectations and involve many risks and uncertainties that could cause actual results to differ materially from those expressed or implied in such statements. For more information on the factors that could cause actual results to differ materially, see our most recent earnings release and SEC filings at www.intc.com.
Je kunt je als aandeelhouder niet beroepen op wat de media schrijven; je kunt alleen op de verklaring van Intel zelf vertrouwen. En dan kun je als aandeelhouder dus ook niet selectief lezen. De kleine lettertjes horen er ook bij.
Reactie AMD: Argh!
De A350M en A370M zijn IMO 2 vreemde kaartjes waarbij met name de eerstgenoemde vrijwel geen bestaansrecht heeft t.o.v. de concurrentie. Die is met de nu bekende info zeer waarschijnlijk langzamer dan de RNDA2 APU's maar je hebt er wel de 'volle mep' stroomverbruik bij omdat het een discrete GPU betreft die in de regel heel wat minder zuinig zijn dan een iGPU. Voor de mensen die behoefte hebben aan de AV1 encoder/decoder is het hopen dat Intel dit z.s.m. in hun iGPU's integreert.

[Reactie gewijzigd door Pietjeball op 25 juli 2024 19:38]

Op dit item kan niet meer gereageerd worden.