Specs Intel Battlemage-gpu uitgelekt: 12GB ram, 24 cores, 192bit-geheugenbus

Er zijn specificaties van een midrange Intel Battlemage-gpu online gekomen. Uit een logbestand blijkt dat de videokaart 12GB vram met 19Gbit/s meekrijgt en over een 192bit-geheugenbus beschikt. De gpu zou 24 Xe2-rekenkernen en 192 execution units bevatten.

Gaav87, een lid van het Anandtech-forum, heeft een Linux-logbestand gedeeld waaruit de specificaties van de videokaart af te leiden zijn. De redactie van Wccftech vermoedt dat de basiskloksnelheid van de rekenkernen op 1,5GHz ligt en de boostklokfrequentie op 1,8GHz. Het zou om een midrangevideokaart gaan met zes 32bit-dram-kanalen, wat neerkomt op een 192bit-geheugenbus. De geheugenbandbreedte zou dan weer op 456GB/s liggen.

Battlemage wordt de tweede generatie van de Intel Arc-serie van losse videokaarten. Deze volgen de Alchemist-serie op, die in 2022 uitkwam. Intels eerste Arc-videokaarten hadden een moeizame release met meermalig uitstel, driverproblemen en matige prestaties, vooral bij oudere grafische api's als DirectX 9 en 11.

Intel noemde Battlemage al als opvolger van Alchemist, die op zijn beurt zal worden opgevolgd door Celestial en Druid. Eind 2023 stelde het Amerikaanse chipbedrijf dat de Arc Battlemage-videokaarten in 2024 op de markt zouden verschijnen. Begin juni meldden enkele bronnen aan Tweakers dat de volgende generatie Intel-gpu's pas begin 2025 op de markt zullen verschijnen. Wanneer de videokaarten precies uitkomen, is nog niet bekend.

Door Jay Stout

Redacteur

12-08-2024 • 13:29

110

Submitter: Vurenvos

Lees meer

Reacties (110)

110
110
36
3
0
58
Wijzig sortering
Kan iemand hier een geïnformeerde gok maken tot welke videokaart zich dit verhoud? Moet ik denken aan 4060/7600 of 4070/7700XT of nog hoger?

Persoonlijk ben ik wel geïnteresseerd in Intel GPU's, je ziet en hoort aan alle kanten dat ze het echt wel serieus nemen, drivers e.d. worden steeds beter. Sowieso goed dat we nu 3 spelers op de GPU markt hebben.
Uit een artikel van Tom's Hardware:
In a follow-up post, Gaav87 shares more core specifications. The GPU has 24 Xe2 cores, 192 execution units, 15 TFLOPs of single precision performance, and a 1.8 GHz base clock. He also made some performance implications, suggesting the Battlemage GPU is 50% faster than the Arc A750 but slower than the RX 6800 or RTX 3070 Ti.
Dus deze kaart zou zich dan meer meten met een 4060/3070. Ik denk voor midrange kaart dat dit prima zou zijn. Een Battlemage kaart met de volledige 32 Xe2 cores zou ik hopelijk schatten tussen een 4070 en een 4080 in, als de informatie (ongeveer) kloppend zou zijn.

[Reactie gewijzigd door recyclebin op 12 augustus 2024 14:08]

Even afgezien van poweruse zou ik dat best wel indrukwekkend vinden, i.e. dat het echt kaarten zijn die concurrerend zijn met de rtx 4000 series
dat is gokken , want zolang er geen release datum is weet je ook niet tegen welke andere generatie het zal uitkomen... en wat is midrange :9

[Reactie gewijzigd door d3x op 12 augustus 2024 14:36]

en wat is midrange
Tegenwoordig? Onbetaalbaar helaas...
Vroeger had je daar een high end class GPU voor. 550-600 Had je al een 80 serie GPU. Nu is dat dik het dubbelen geworden. Niet meer leuk. En ook geen reden om voor mij te upgraden. Als deze Intel een Prestatie geeft tussen de 4070 en 4080 voor 350-400 euro, dan wil ik het wel overwegen. Maar meer als 500, nee dank je.
Je moet rekening met houden met inflatie. Je kunt prijzen uit het verleden niet direct vergelijken met prijzen nu.

Een GTX 1080ti was bij launch in 2017 699 dollar, dat is in 2024 dollars 895 dollar.
En die kaart had ook nog eens maar 11 GB aan VRAM.

De GTX 980ti was bij launch in 2015 649 dollar, dat is in 2024 dollars 860 dollar.
En die kaart had maar 6 GB aan VRAM.

De GTX 580ti was bij launch in 2010 499 dollar, dat is in 2024 dollars 718 dollar.
En die kaart had maar 1.5 GB aan VRAM.

Dus je kunt wel nostalgisch doen over prijzen uit het verleden, maar die prijzen waren destijds ook niet mals. En vergeet niet dat de component cost van iedere nieuwe generatie ook weer omhoog gaat (meer VRAM, complexere PCB's etc).

[Reactie gewijzigd door CrazyJoe op 12 augustus 2024 16:54]

Allemaal veel te duur geworden. PC gaming is niet meer te betalen :/
Ik zoek nog steeds een vervangende GPU voor mijn 2080. En daar had ik 450 voor betaald in 2019. Uiteraard gebruikt gekocht. Dus ik wil niet meer uitgeven als 500.
PC gaming is juist veel goedkoper geworden
Je doet tegenwoordig veel langer met je hardware dan vroeger. Dat vergeten mensen vaak snel.
Daar heb ik niks aan. Want over 10 jaar kan mijn 2080 niks meer draaien.
Vroeger had je elk jaar, of elke 2 jaar, wel een upgrade nodig om de nieuwste SP titels op een, voor die tijd hoge resolutie, te spelen met maximale instellingen. Een Ilyama vision master deed in 1997 al 1600x1200 he, dat is evenveel als een 1080p scherm 27 jaar later. Alhoewel we meestal in 1024*768 speelden, dat was wel de sweetspot.

Tegenwoordig met DLSS/FSR en andere upscalers red je makkelijk een jaar of 5-7. Ik weet niet hoe oud je bent, maar toen ik in 1998 mijn Voodoo 2 12MB kocht moest ik een jaar later alweer over naar een Geforce 2 GTS. Een Voodoo 2 had ook nog een dedicated 2D graphics kaart ernaast nodig.

Inflatiecorrector tool
Voodoo 2 MSRP: 299 USD in 1998, gecorrigeerd voor inflatie nu: 571 USD
Geforce 2 GTS MSRP: 499 USD in 2000, gecorrigeerd voor inflatie nu: 928 USD

Dus in 2 jaar tijd moest je zo'n 1500 USD uitgeven wilde je een beetje leuk meedoen. En toen was het écht nodig, omdat met elke generatie er nieuwe rendertechnieken werden geintroduceerd die spellen er daadwerkelijk anders uit lieten zien. Tomb raider 1 met of zonder Voodoo 2 was een enorm verschil vanwege bijvoorbeeld texture filtering.

AMD (toen nog ATI) bestond toen ook al en had wel wat in te brengen, maar hun performance op bijvoorbeeld Alpha Blending was zo laag dat je dat eigenlijk buiten beschouwing kon laten.

PC-Gamers van tegenwoordig hebben geen idee hoe goed ze het hebben, echt niet :)

[Reactie gewijzigd door TV_NERD op 12 augustus 2024 20:33]

Ik ben 43. In 2006 had ik mijn eerste PC gekocht.
Ik vind het nog steeds een hoop geld. Dus daarom stel ik een budget in.
Aha, ik ben 39 maar kocht mijn eerste gaming PC dus in 1998, toen ik 14 was, van m'n krantenwijk :) En daarna in 2000 de upgrade, zelfde krantenwijk, langer gespaard en wat verjaardagsgeld van m'n ouders erbij toentertijd.

Je hebt gelijk dat het een hoop geld is, maar het is zeker voordeliger dan vroeger.
Ik speelde vroeger op een console. Had geen geld voor een PC. En mijn ouders konden het ook niet betalen.

Zelf nooit krantenwijk gelopen. Eerst school afgemaakt en daarna pas gaan werken.
Ik kom uit een uitkeringsgezin, dus zo gauw ik naast school kon werken deed ik het, de armoede was niets voor mij :) Elke dag anderhalf uur vroeger opstaan voor dat geld was een absolute no brainer. Neemt niet weg dat het tegenwoordig allemaal redelijk betaalbaar is vergeleken met vroeger.

Ik heb zelf vanaf de release in 2020 tot en met 2022 met een 5600XT gedaan, toen heb ik mezelf keihard gescalped omdat die kaart voor 3x MSRP over de kop ging vanwege de crypto boom. Een goedkoop 2e hands 2060je erin, en daarmee tot midden dit jaar gedaan en een 2e hands RTX 4070TI aangeschaft. Op die manier heb ik behoorlijke quitte gespeeld. En uiteraard een 1440P scherm, op 4K gamen op je bureau is ook een beetje dom.
Ik heb al sinds 2019 geen GPU meer gekocht. Prijzen zijn gewoon verdubbeld.
En Aangezien de boodschappen, en andere maandelijkse lasten ook verdubbeld zijn. Dus geld is krap, dus vandaar ik een budget instel.
Als je voornamelijk single player speelt kun je altijd nog privateeren op een PC, daarmee spaar je jezelf honderden tot duizenden euro's uit vergeleken met een console. Maar als je maar heel beperkt gamed en 2-5 spelletjes per jaar speelt denk ik dat je tegenwoordig in dat geval beter gewoon een console kunt neerzetten. Met XBOX game pass ben je dan veel voordeliger uit :)
Met Xbox game pass heb je al genoeg aan een smart TV met browser. Werkt perfect. Althans... Xbox controllers willen nog wel eens uitvallen op sommige smart TV's. YMMV

[Reactie gewijzigd door MrFax op 13 augustus 2024 04:58]

In 2018 kostte een 2080ti 1300 euro, een 4080 super kost nu 1149 euro...

Een Titan RTX uit 2018 kostte 2500 euro. Een 4090 nu 1750 euro...
Zeg dat wel. Ik kocht in 1998 mijn eerste eigen pc als 16-jarige met een Trust voodoo dragon 2 (voodoo2 12mb). Dat was echt een koopje voor 200 gulden. Dat was bijna fl.200 minder dan de diamond versie. Pc koste me bij elkaar 3000 gulden (€2520 met inflatie). Was een pentium 2 300mhz, 64mb ram 15" crt. Jarenlang kranten bezorgd, tomaten geplukt en vakken gevuld :P . In een klap alles op. Heb sindsdien nooit meer zo'n dure pc gekocht. (Maar zoveel sneller dan de 486dx 50mhz van mijn vader, gaande van nog geen 25fps in doom naar unreal @800x600 40-60fps :9 )

Was eind 2001 al hopeloos verouderd toen ik upgrade naar een athlon xp 1500, 256mb ram en Geforce 3ti 200 voor zo'n 1400 florijnen bij elkaar. Dat ding was ook nog eens meer dan 4x zo snel. Een sprong van 400% snelheidswinst in 3 jaar tijd is tegenwoordig ondenkbaar.
Ik spaar iedere maand 50 euro voor een nieuwe PC. Na 4 jaar kun je een nieuwe kopen.
Ik wil geen nieuwe PC kopen. Alleen een video kaart die niet meer kost als 500 euro. het blijft een Hobby.
Boodschappen en maandelijkse lasten zijn belangrijker.
Ik doe aan PC gaming sinds de jaren 80 en heb alle generaties meegemaakt. Van ibm at en XT, tot pentium met een voodoo 2, alle geforce generaties etc.
Hardware is spotgoedkoop in historisch perspectief en de functionaliteit is enorm. Zelfs met vergelijking voor corona heb je enorm veel meer waar voor je geld.

Je hebt voor 350 euro een ryzen 5700x, mobo en ram. Dat is een cpu waarmee je alle games op high / ultra kan. Een 4060 met 12gb kost 300 euro. Je kan daarmee vrijwel alles op high op 1080p en 1440p spelen.

Edit: en dit zijn allemaal nieuwprijzen. Er is een oversatured tweedehands markt met zeer capabele last gen hardware voor weinig geld.

Vroeger kostte een grote high refreshrate trinitron CRT een fortuin. De eerste LCD schermen waren heel duur. Iden de eerst high performance gaminng LCDs. Tegenwoording heb je IPS scherm dat veel keer groter is, meer refreshrate voor 150 euro. Een lachwekkend bedrag, zeker als je naar inflatie kijkt.

De softwarebase voor PC is enorm en er zijn eindeloos steam aanbiedingen waarbij je AAA games in de aanbieding voor een paar euro to een paar tientjes kan kopen.

De hardware is jarenlang prima. dat was in de jaren 90 en 00 echt wel anders. De ontwikkelingen in software en hardware requirements gingen veel harder, vooral bij games. Nu kan een inmiddels jarenoude rtx 2080 vrijwel alles nog prima spelen. Alleen raytracing is echt de harde pusher.

Ik heb naast bovenstaand zelf ook een workstation met laatste threadripper pro en een 4090, maar voor games boeit dat echt niet. Behalve voor 120fps raytracing. Maar dat is niet representatief.

Kortom, de stelling dat PC gaming onbetaalbaar is geworden slaat m.i. echt helemaal nergens op, sorry.,

De barrier to entry voor high settings high FPS PC gaming is lager dan ooit.

[Reactie gewijzigd door PjotterP op 13 augustus 2024 13:26]

Jullie doen net of ik een boompje in mijn tuin heb groeien. Prijzen zijn in de afgelopen 5 jaar verdubbeld.

Ik kan niet zomaar met geld lopen smijten.
Ik heb geen CPU, Moerbord of RAM nodig. Dat had ik al gedaan in 2021, en dat werkt nog prima voor de komende 5 jaar.

En 500 euro is het maximum wat ik kan uitgeven.
En een 4060 is geen upgrade, dat is gewoon weggegooid geld.

Ik wil tenminste een 70 serie klassen onder de 500 euro hebben.
en minimaal 12GB.
Prijzen zijn niet verdubbeld. Prijzen zijn gedaald.

Een ‘70’ klasse is puur een aanduiding door de fabrikant. Maar als jij zegt dat PC gaming onbetaalbaar is omdat je niet de last gen 70 serie kan betalen dan haal je twee dingen door elkaar.

[Reactie gewijzigd door PjotterP op 13 augustus 2024 17:58]

70 Series waren een hele lange tijd tussen 350-400 euro. En nu is tussen de 600-650. En laten we niet beginnen over de 80 series, of 90 series.

Dus je wilt zeggen dat de prijzen gedaald zijn? Hoe reken jij?
Waarop baseer jij dat een 4070, die even snel is als een 3080 ti, goedkopere MSRP, met minder power use ongeveer dezelfde prijs zou moeten zijn als een 3070?

Omdat er toevallig ‘70’ door de fabrikant op is gezet?
De 4070 is trager als een 3080 Ti. 4070 kost geen 500 euro. Die had een MSRP van 600, en werd verkocht voor dik 50 tot 100 over MSRP.

En ik vergelijk de 70 series, niet de 80 series.

We gingen in 5 jaar van 350-400 naar 600-650 voor een 70 serie klasse.

Dat is een behoorlijke prijs verhoging.

Natuurlijk word de 70 series uiteindelijk sneller als een 80 serie als we 1 tot 2 generaties verder zijn.
Maar voor COVID, waren de prijzen een stuk aantrekkelijker als nu.

Jij wilt bewijzen dat de prijzen lager zijn als 5 jaar geleden? laat staan 10 jaar geleden.

10 jaar terug had je gewoon 80 series GPU's voor 550 euro. en 70 series voor 400.

Ik snap niet wat je hiermee wilt bereiken....Ja ik kan ook zeggen dat een 4060 net zo snel is als een 2080, maar dat zijn wel weer 2 generaties verder.

Natuurlijk kan het zijn dat 5060 net zo snel als een 4070 is, maar met een prijs kaartje van 300-350. "Hoop je" Nvidia kan ook zeggen, 400 euro en dan weer 8GB VRAM. En voor de 16GB Versie 500 vragen. Natuurlijk is het een upgrade vergeleken met mijn 2080, maar nu betaal je bijna dezelfde prijs voor een 70 serie klasse 4 jaar terug. Sneller ja, maar toch weer een stuk duurder, wat je normaal voor een 70 of zelfs 80 serie klasse had betaald, jaren terug.

Mijn ideale prijs kaartje is 400 euro voor een GPU met tenminste 12GB VRAM en 3080 Ti Prestatie of hoger.
Dan zou ik voor een RTX 4060 ti 16gb gaan Komt overeen met een 3070, bij games die meer dan 8gb gebruiken is hij sneller. Bij 8 gb 4 of 5 fps langzamer. Mocht je met Ai willen klooien is door het 16gb geheugen dat ook nog te doen.
Dat noem ik geen upgrade. Ik wil tenminste 70 series voor 500 euro.
480 euro voor een mid-range GPU is belachelijk veel. Deze hoort niet meer te kosten als 300 euro.

En A.I interesseert me niet. Ik heb hier een 1080p scherm.
Persoonlijk zou ik nog even wachten dan. Alles is veel te duur maakt niet uit wat je neemt. En op de 50x0 wachten is ook niet leuk dat duurt ook nog ruim een jaartje. En prijzen van de vorige generatie zakt ook niet echt lekker zodra er een nieuwe generatie komt.
Word alleen maar duurder, Straks betaal je 700 euro voor een 60 serie GPU, en 1200 voor een 70 serie...
Ik denk dat ik maar uiteindelijk een console in huis haal. PC gaming is niet meer wat het geweest is :/
De lastgen top end GPUs zijn vaak de beste prijs/performance omdat iedereen dan ineens de volgende wil hebben. Ik heb toen de 4000 series uitkwamen voor 925 euro een 2ehands 3090 gekocht. Das een hoop geld, maar ik doe er 7-8 jaar mee. Tegen de tijd dat de generatie na de 5000 series uit is dan zal ik weer eens kijken wat de beste prijs/performance is. Mocht je echt geen zin hebben om te wachten dan kan ik melden dat de 4060 al aardig performt, zeker op 1080p. Wellicht nog even wachten als je een 2080 wilt vervangen
Dat vind ik een hoop geld voor alleen een GPU.
Een 4060 is een downgrade vergeleken met mijn 2080.
Ik wil liefst 50 to 100% prestatie winst voor 500 euro.
Om de videokaart prijzen te omzeilen wil je een console halen waar je €60 per jaar moet betalen om on-line te mogen spelen en waarbij ook nog eens je spellen duurder zijn dan op pc platformen?
Ik speel geen Online games. Alleen maar Single player games. Geen tijd voor Online games.
Mijn 2080 heeft moeite om de nieuwste games fatsoenlijk te draaien. En ik wil echt niet meer uitgeven als 500 euro.
Mijn 9700k/2080 (2018 ofzo?) doet het nog goed genoeg. Die hardware gaat echt wel lang mee tegenwoordig
Speel jij de nieuwste games?
En waarom geen RX 7800 XT?
Is die onder 500 euro? En hoe zit het met de stabiliteit?
Is een 600w voeding genoeg?
Retestabiel! Hier thuis een RX 7900 XT, een RX7900 GRE en een RX 7800 XT. Alle drie gebruikt voor games op 4K. De 7800 XT zit in een PC in de huiskamer met een I5-12400.Aangesloten op een 4K 60Hz TV. Eerlijk gezegd overkill. Voeding wel 700 Watt... Eerst een RTX 4060 8GB in die OC gehad. Snel doorverkocht. Beetje zielloze kaart voor het uitgegeven geld. Hoewel hij wel leuk eruit zag. Ik denk dat een RX 7700 XT uitstekend met een 600W voeding overweg kan... In ieder geval vind ik dat een Nvidia-kaart op geen enkele segment zijn geld waard is. Ongeacht het feit dat die beter zijn in Raytracing. D
7700 XT noem ik niet echt een upgrade. Dan blijf ik voorlopig mijn 2080 gebruiken totdat er iets goedkoper te vinden is, en niet teveel watt verbruikt, Om speciaal extra geld uit te geven aan nieuwe voeding vind ik onzin.

Ik zie dat 7800XT een 650w voeding nodig heeft. Dus dan val ik al gelijk buiten de mand.
Dat is onzin omdat? 650w is erg beperkt.. je zoekt redenen om niet te upgraden lijkt het.

Upgraden naar het heden kost nou eenmaal geld. Als je een nieuwe cpu upgrade wilt moet jij misschien je mobo ook nog upgraden als je pech hebt.
Niks onzin, ik heb geen geld in mijn achtertuin groeien.
Ik stel een budget zodat ik geld over hou van andere belangrijke dingen. Ik gebruik mijn PC ook voor mijn werk.

Ik hoef voorlopig mijn CPU, moederbord en RAM niet te vervangen. Dat ik had al terug in 2021 gedaan. 5900x met 32GB DDR4 3600MHz. En hiervoor had ik een i7 3770K met 16GB RAM.

600-650w is niks beperkt, aangezien een hoop nieuwe video kaarten niet meer als 200w verbruiken.

Ik had hiervoor 1000w, maar daar kwam ik nooit aan. Maar naar een jaartje of 10, moest ik de voeding toch vervangen.

Ik ga slim om met mijn geld. vandaar de budget.
Oke slim of niet. Kwaliteit kost geld.
Als je er een tijd mee wilt doen dan kost het wat meer. 2021 is niet echt recent meer in mijn ogen. Moederbord zit je vaal met het socket
2021 is recent voor mij. Hiervoor Had ik een CPU uit 2013.
Ik ga niet elke 2 jaar een nieuwe System in elkaar steken.

Daar schiet ik niks mee op, dat is letterlijk weggegooid geld. CPU's kan makkelijk 5 tot 7 jaar mee.

Dan van mij kan nog een jaartje of 3 tot 4 mee. En dan heb ik weer een mooie upgrade in 2027-2028.
Ik ben van een nvidia 2080 naar Radeon RX7800 XT gegaan voor ongeveer 560€.
Werkt perfect en de prijs was een groot pluspunt.
Nvidia blijft gewoon onbetaalbaar.
Werkt deze op een 600w voeding?
Koop je weer een 2e hands? Ik stel ongeveer mijn hele pc zo samen altijd. Scheelt een hoop geld en nooit kapotte onderdelen gehad van iemand.

Voor 500-600 kan je 2e hands een leuke kaart vinden
Ik wil dit keer nieuw kopen, want dan kan ik ook gelijk 5 jaar garantie nemen.
500 euro is max budget. Ik wil tenminste 50% prestatie winst over mijn huidige 2080. 12GB RAM, meer is beter, maar ik denk dat het niet mogelijk is met mijn huidige budget.
Zeker niet. Dan ga je toch wel richting die 800-1000 ook inflatie natuurlijk.

Waarom 5 jaar garantie? Zie nog steeds niks mis met een 2e hands. Werkt vaak lang prima
Neem ik op al mijn producten die ik koop.

2 Jaar vind ik tegenwoordig te weinig. Meestal gaat er iets stuk als de garantie is vervallen.
Je moet rekening met houden met inflatie.
Mijn loon is in ieder geval niet zo gestegen dat ik nu, in combinatie met andere hogere kosten, 200 euro meer kan besteden per component dan een paar jaar geleden. Inflatie is een feit maar ook een academisch verhaaltje, waar nogal snel beroep op wordt gedaan om alles goed te praten. Je moet ook kijken naar wat je daadwerkelijk met je geld kan doen. De realiteit is dat dat voor veel mensen minder is dan vroeger.
Dat is pas sinds deze generatie echt. De 3080 had een MSRP van 699 dollar. Helaas was dit ook tijdens corona met alle scalpers
Daarom zei ik ook vroeger.
Ja en nee #inflatie
Ik doe een stuk langer met een videokaart dan met een mobiele telefoon, qua kosten verhouding vind ik een midrange videokaart acceptabel veel te duur 🙃
Ik gebruik mijn huidige mobiele telefoon sinds 2016.
Vroeger kreeg je guldens wat je nu vediend zijn euro’s met zelfde gulden getal dus je loon is deels inflatie gecompenseerd.
We zijn van modeX 320x240 naar 8K aan gaan bij 1440p is men gestopt met mee schalen van monitor grote 32” is niet zo optimaal voor 4K en helemaal niet voor 8K.
1440P is zat en 120hz / fps is goed te doen. Top end als perse in die overdaad aan reso en RT features moet hebben. Cpu top end staat tegen woordig voor veel cores optimale game CPU zijn big cache 8core midrange. Zolang je niet pro esports. Iets lager K/D voor lief neemt ipv groot capitaal tegen aan te gooien.
Naast de betere gelijkheid op console vs big spender op PC met 360hz monitoren en 4090.
Ik zou eerder kijken of je loon goed inflatie gecompenseerd is. En energie ellende mijd door meer zelf energie voorziend te zijn. Helaas ik niet.
4090 is niet betaalbaar....
Koop je een 4070(super/ti)? Prima alsnog. 4090 is overkill voor de meeste mensen. Of je moet echt hardcore willen en geld te veel hebben

[Reactie gewijzigd door Venix1990 op 13 augustus 2024 22:41]

Wachten tot de volgende generatie dan en een oudere generatie kopen?
Ik ga niet echt vanuit dat de huidige generatie in prijs gaat zakken. Zal mooi zijn als de 4070 Super of Ti Super een dikke prijs drop kreeg.
Als de volgende generatie uitkomt vaak we en anders 2e hands wel
Een RTX 3060 12GB heb je nu nieuw al onder de 300 euro, en vaak als rev2 ook nog eens lekker compact. (2 slots 2 fans)

Of dit mid-range is weet ik niet, maar als het alle nieuwe spellen kan draaien op high, vind ik het eerder high-end.
Alles wat tussen de instapkaarten en de snelste kaarten zit is midrange. Het is logisch gezien een vrij breed segment wat zelf ook nog is onderverdeeld in de xx60/x600 en xx70/x7xx kaarten.

Eigenlijk alles wat een 128bit of en 192bit geheugenbus heeft meegekregen dus. Aangezien 256bit vaak aan de high-end was voorbehouden, met zo nu en dan een halomodel met 384/512bit.

De low-end zijn dan altijd de magere 64bit en 96bit kaartjes geweest. Soms wel met een vracht aan geheugen om het wat leuk te laten klinken. Tegenwoordig een wat verloren segment overigens (zie: https://www.techpowerup.c...eForce+40&sort=generation).
Dit is een verbterde A580 die had een 6600 / 3060 peformance.
Deze zal dus idd misschien 4060 / 7600 xt performance hebben.
beetje googler kan dat wel vinden ja
https://gadgetmates.com/i...m%20Nvidia%20and%20AMD%3A


of
https://gadgetmates.com/i...tlemage%20At%20A%20Glance

[Reactie gewijzigd door dooiedodo op 12 augustus 2024 13:36]

De huidige A770 meet zich op veel gebieden al met de 4060, dus dan mag je aannemen dat een nieuwere versie zich met wat hogers, zoals de 4070 of zelfs 4080 deels kan meten. But time will tell.
Eerst maar eens zien of de GPU's ook niet zulke leuke verassingen met zich mee brengen zoals de laatste 2 generaties processoren... Dat we niet over een jaar opeens horen dat ze met 10-15% geknepen moeten gaan worden omdat ze anders stuk gaan/overhitten oid...

Zou namelijk mooi zijn voor de concurrentie, want op dit moment vind ik de prijzen (vooral van Nvidia) belachelijk hoog worden voor videokaarten.
Wat maakt het uit.
Op papier kun je het wellicht vergelijken.
Ind de praktijk doen de drivers het werk.
En daar heeft intel een zeer slechte staat van dienst.
Ik hoop dat deze kaart Intel's antwoord is op de 5060/8600. Gewoon om een duidelijk signaal te geven dat een instapkaart met 8 GB VRAM eigenlijk niet meer toereikend is...
Met 24 rekenkernen, lijkt het meer op concurrentie met de 4060, maar dan wel met 12GB RAM.
Uiteindelijk zijn de rekenkernen dan toch een beperkende factor. We hebben in het verleden genoeg budget/mid-range videokaarten varianten gezien die met dubbel geheugen waren uitgerust, maar waarbij dit nauwelijks impact had op de prestaties.

Natuurlijk is in deze situatie de geheugenbus misschien wel toereikend, dus we zullen de reviews nog even moeten afwachten. Maar ik kan mij voorstellen dat er misschien niet veel verschil zou zijn met een 8GB versie.
(Ps kwaad zou het hoe dan ook niet kunnen, op hooguit een iets hogere prijs na)
Ach schei uit, mijn 3080 heeft op 3440*1440 in werkelijk geen enkel spel issues met 10GB VRAM. Instapkaarten welke op lagere resoluties zijn getarget hebben ruim voldoende aan 8GB.
Ligt dan wel aan de spellen waren meerdere releases vooral vorig jaar met games die bijna niet goed te spelen waren met 8gb. Hogwarts legacy goed voorbeeld dat zelfs grote issues met 10gb had.

Komt omdat consoles 16gb hebben en daar nu op gemaakt wordt.

Met 8gb kregen gebruikers vaak extreem slechte textures of werkte niet zonder stotter tot paar maanden na release wanneer devs eindelijk optimized hadden.
Hogwarts heb ik zelf niet gehad, maar spellen als CoD, Forza, GoW, BG3 etc. draaien allemaal als een zonnetje op ultra met eventueel RTX aan. Ik denk dat DLSS hier ook een rol in speelt.

Ik vind het gewoon ver gaan om te zeggen dat 8GB "Niet meer toereikend is", zeker voor "instapkaarten" welke eerder op 1080p gebruikt zullen worden.
Ik ben het met je eens, maar vind persoonlijk wel dat de instapmodellen een prijs hebben gekregen van een midrange kaart. Ik begrijp het wel dat je voor die prijs dan ook de specs van een midrange wilt hebben.

Spijtig genoeg denken nog steeds veel mensen dat ze niet gaan toekomen met bepaalde specs en geven ze hun zuurverdiende centjes uit aan een kaart die in principe overkill is. Dit zorgt ervoor dat die kaarten aan die prijs verkocht worden en de leveranciers zien dan geen economisch issue, want hun kaarten worden verkocht.
Ikzelf heb een jaar geleden een 4060 Ti gekocht; puur omdat deze relatief weinig stroom verbruikt in tegenstelling tot zijn grote broertjes en omdat deze ook in een 16GB variant bestond voor AI modellen in te laden. Was dit laatste het geval niet, dan kwam ik met 8GB meer dan genoeg toe. In spelletjes zie ik vaak dat er maar 6GB in gebruik is.

Voor mij persoonlijk zou een budget kaart / instapmodel dus ook weinig energie verbruiken, 6 of 8GB VRAM hebben en een prijs tussen de 50 - 200€. (beetje zoals een 3050 momenteel)
Midrange is dan 200€ - 500€ (heb je tegenwoordig een 4070 voor met 8GB of 4060 Ti met 16GB. Midrange is goed voor de meeste spelletjes te spelen zonder al te veel compromissen.
En dan heb je een high range tot 1000€ (dit zou de 4080 SUPER moeten zijn - maar deze zit hier vaak 50-200€ boven)
Tenslotte heb je nog de "ik gooi graag meld geld voor thuisgebruik" en dat is de 4090.
Dat is voor de elite, rijke, "mensen met andere prioriteiten", etc... en dan zit je snel al aan rond de 2000€; maar persoonlijk voor mij is dat > 1000€.
Prijzen is inderdaad een andere discussie, ik was een van de gelukkige die zijn 3080 voor de MSRP van €719,- heeft kunnen bemachtigen. Dat vond ik toen een prima prijs voor een kaart van dat kaliber, ondertussen kosten datsoort kaarten bijna een maandsalaris voor sommige mensen.

Een echte instap is er niet echt meer, maar de prestaties van "midrange" kaarten tegenwoordig is daarentegen wel erg goed geworden met de 40XX generatie.
Lijkt mij niet, de A750 heeft nu 28 Xe cores, de A580 heeft er 24. Het zal dus een vervanger voor de A580 worden. Die zit nu rond het niveau van een RX 6600 en legt het af tegen een RTX 3060. Het lijkt mij dan eerder een concurrent voor een eventuele RTX 5050 dan voor een RTX 5060.

Verder hoeft een instapkaart natuurlijk niet toereikend te zijn, daarvoor is het een instapkaart. De tijd dat je met een betaalbare kaart alles op ultra kon spelen is voorbij en dat is ergens maar goed ook, dat betekent dat de stagnatie hopelijk een beetje los komt.
Waarom maak je er ineens een instapkaarten van terwijl het artikel het expliciet midrange noemt?

Voor een instapkaart, gemaakt om maximaal op 1080p op te gamen, is en blijft 8GB in mijn ogen voorlopig nog gewoon voldoende, of zelfs gewoon te veel.

(Dat de volgende generatie midrange kaarten meer geheugen gaat krijgen lijkt mij wel duidelijk gezien/dankzij de enorme (opgeblazen) discussie.)
Vind niemand het vreemd dat het zo makkelijk is dat een nieuwkomer zo snel kan bijbenen met de gevestigde orde? (ATI/AMD, en Nvidia)

En je ziet het ook nu weer bij AMD en Intel
op CPU vlak.

Ik snap dat al deze bedrijven massale resources hebben, maar er is toch ook zoiets als decennia aan R&D en classified knowledge?

Het is bijna alsof hun top R&D guys elke keer van bedrijf wisselen zeggen, okee nu zijn jullie weer aan de beurt.

Of is alle perf winst tegenwoordig alleen nog maar gebaseerd op copy paste en node verkleiningen?

[Reactie gewijzigd door Marctraider op 12 augustus 2024 14:35]

Intel maakt al heel lang GPU's weliswaar geïntegreerd, maar er is dus veel know how en ervaring met GPU's
Niet alleen dat. Intel is koploper in aantallen geproduceerde GPU’s all time.
Niet te vergeten dat Intel ook behoorlijk wat AMD hoofdfiguren had weten te strikken voor hun ARC serie.
Ten eerste benen ze het nog niet bij en staan ze in de schaduw van. En daarnaast hebben ze correct me if I am wrong de lead ontwikkelaar van AMD videokaarten overgenomen. Ze zijn er nog niet, ook is het wachten op de volgende generatie van de andere partijen.
Je bedoelt Raja Koduri. Hij is in 2023 gestopt bij Intel om zijn eigen 'generative AI gaming startup' te beginnen.
Maar ga er maar van uit dat hij indertijd al wel een hele roadmap met verbeteringen heeft neergelegd voor zijn vertrek. De eerste ARC GPU's waren al op de markt ruim voordat hij vertrok.
Intel is niet echt een nieuwkomer qua GPU's, ze maken al langere tijd GPU's, in de vorm van IGP (Integrated GPU's) in hun processoren.

En vroeger hadden ze ook discrete GPU's, denk aan de Intel 740 bijvoorbeeld.

En ongetwijfeld zijn ze met de Arc-series ook niet over één nacht ijs gegaan. De kans is vrij aannemelijk dat men daar ook al jaren aan gewerkt heeft voor men ze op de markt bracht.
Duh, natuurlijk doen ze die R&D guys mooie aanbiedingen. De top R&D guys gaan echt niet aan de hand van een dobbelsteen van het ene bedrijf naar het andere. En ja, mijn toegevoegde waarde zit ook in mijn hoofd. En IP rechten en patenten zijn ook niet van gisteren.

What else is new?
Zo makkelijk ging het niet, het is niet eens de eerste (of zelfs tweede) poging, én er is jaren aan voorbereiding aan vooraf gegaan.

[Reactie gewijzigd door Anoniem: 57411 op 12 augustus 2024 16:22]

Het is derde poging
I740 ik heb Asus i740 gehad
Larabee is vervallen in xeon Phi
En nu Arc en nextgen battlemage
Helaas zijn de Intel, maar ook AMD, gpu's nog steeds problematisch voor AI toepassingen omdat de meeste AI libraries alleen cuda van nvidia ondersteunen...
Niet heel de wereld gebruikt AI toepassingen en heeft die cuda cores van NVidia nodig (althans nog niet).
Voor de huis/tuin keukpc of casual gaming kan je dit eventueel overwegen. Uiteraard is er ook nog de integrated gpu. Die markt is nog altijd een pak groter dan mensen die effectief cuda cores nodig hebben
Mooi dat er concurrentie is in dit segment. De drivers voor Intel Arc schijnen de afgelopen tijd ook flink te zijn verbeterd. Ben benieuwd hoe deze kaart zich verhoudt tot de directe tegenhangers.
Ik hoor overal dat de drivers steeds beter worden, dus ik ben benieuwd hoe deze kaarten zich verhouden tot de modellen van de bekende merken.
De vraag is natuurlijk waar staat deze kaart in de lineup? Is dit de B750 of B770? Of staat deze lager en is dit de B580?
B580 hoogst waarschijnlijk, gezien deze, zoals het artikel beschrijft 20-24 cores heeft, terwijl de 'volledige' chip 32 cores heeft. De B770 zal waarschijnlijk de volledige 32 Xe gebruiken, en de B750 28 of 30 Xe.

Dit is dan ook meer een midrange kaart
Sinds de introductie van DLSS, FSR, XeSS, Raytracing is mijn uitzoekwerk en aandacht compleet weggezakt voor GPU's. Die game ondersteund het wel, die weer niet, die draait goed, die weer niet, die heeft driver issues, die weer niet, die draait weer beter op X, die weer beter op Y, die werkt beter met hardware A, die werkt beter met hardware B, dat ik gewoon dacht.. ik koop er eentje en als hij werkt, prima.

En dat was bij AMD/Nvidia al regelmatig uitzoekwerk, was een 4060 nu wel sneller dan een 3070? Of deed een 2080 nog mee? Welke versies waren er van de 7800/7900? X? XT? XTX? GRE? Hoe is de koeling? Hoe draait hij idle? En toen kwam Intel erbij en dacht ik.. het is goed zo.

Tom's hardware (link) zegt dat hij richting een 7700XT/4070super zit, snelle check tov mijn huidige 7900GRE, oh die over het algemeen sneller..klaar, volgende.
Gek, ik heb juist het tegenovergestelde. Eindelijk concurreren ze ook weer op hun software support. En blijkbaar maakt dat gewoon een enorm verschil. DLSS en XeSS ziet er gewoon een stuk beter uit dan FSR2. Als dat betekend dat je voor dezelfde image quality de interne resolutie hoger moet zetten voor FSR2, betekend dat dus eigenlijk dat de performance voor dezelfde image quality hoger is voor NVIDIA en Intel GPU's..

(Ligt uiteraard compleet aan de game etc.)
In ieder geval een leuke naam imo, doen ze tegenwoordig aan RPG classes namen ofzo? Ben benieuwd naar de performance, zou tof zijn als ze zich aan AMD en Nvidia kunnen meten.
Als dit de werkelijke specs zijn ben ik nu al teleurgesteld. Alleen om die 12gb en een performance van rond de 4060. Maargoed laten we niet gaan janken voordat we geslagen worden.
Dit is dan ook, als het goed is, maar een midden segment. De huidige A770 meet zich al met de 4060.

Op dit item kan niet meer gereageerd worden.