Intel kondigt Arc B580- en B570-videokaarten aan op basis van Xe2-architectuur

Intel heeft twee nieuwe videokaarten aangekondigd die gericht zijn op 1440p-gaming. De Arc B580 is de eerste kaart op basis van de Xe2-architectuur, die de fabrikant op 13 december zal uitbrengen. De iets lager gepositioneerde Arc B570 zal op 16 januari beschikbaar komen.

De Intel Arc B580 en B570 zijn de eerste videokaarten die dienen als opvolger van de bestaande Arc Alchemist-videokaarten uit 2022. De Arc B580 is de hoogst gepositioneerde kaart van het duo, met twintig Xe-cores voor een totaal van 2560 rekeneenheden. De videokaart krijgt daarnaast 12GB GDDR6-geheugen op een 192bit-geheugenbus, voor een bandbreedte van 456GB/s. De total board power van de B580 bedraagt 190W.

De Arc B570 krijgt op zijn beurt achttien Xe-cores en 10GB vram op een 160bit-bus, voor een geheugenbandbreedte van 380GB/s. De tbp van deze kaart is volgens Intel 150W. Beide Xe2-gpu's worden door TSMC geproduceerd op het N5-procedé.

De onderliggende Xe2-architectuur op de Arc B580 en B570 is een verbeterde en verfijnde versie van de Xe-architectuur zoals gebruikt wordt op de Arc Alchemist-videokaarten. Intel claimt dat Xe2 is ontwikkeld om een efficiënter gebruik van de hardware mogelijk te maken, mede door een betere distributie van rekentaken en een lagere overhead van zijn software. De opbouw van een Xe-gpu bestaat uit zogenaamde render slices, wat min of meer vergelijkbaar is met de graphics processing clusters van Nvidia en een modulaire opbouw kent.

De render slice van Xe2 kent enkele technische verbeteringen ten opzichte van zijn voorganger. Zo is de bandbreedte per core verhoogd, is de latency verlaagd om stalls in de pipeline te verminderen en is zowel het L1- als L2-cache flink vergroot. Bovendien is de compressie verbeterd om het gebruik van dit cachegeheugen efficiënter te maken. Daarnaast zijn de raytracingunits van Xe2 een stuk krachtiger dan die van voorgaande Xe-gpu's, zowel in traversal pipelines als triangle- en box-intersections.

Intel Xe²-architectuurIntel Xe²-architectuurIntel Xe²-architectuurIntel Xe²-architectuur

AI en nieuwe gamingfeatures

Deze verbeteringen zijn voor een groot deel op gaming gericht, maar Intel zegt zijn XMX-engines ook onder handen te hebben genomen om workloads gericht op AI te versnellen, door toegevoegde ondersteuning van int2 en tf32 in de Vector Engine. De snellere XMX AI-engines gaat Intel ook gebruiken om de prestaties van zijn super samplingtechniek XeSS te verbeteren.

Met de komst van Xe2 introduceert de fabrikant daarvoor XeSS 2, waarvan super resolution, frame generation en low latency de essentiële onderdelen zijn. Die laatstgenoemde twee features zijn nieuw in XeSS. Daarmee volgt het bedrijf Nvidia en AMD, die beide al framegenerationtechnieken en lantencyvermindering in hun upscalingtechnieken bieden. De framegeneration van Intel, ofwel XeSS-FG, voegt optical flow en motion vector reprojection samen om nieuwe frames te genereren op basis van interpolatie. XeSS Low Latency moet, zoals de naam doet vermoeden, de systeemlatency verlagen voor soepelere gameplay.

Intel XeSS2Intel XeSS2Intel XeSS2Intel XeSS2

Intel Arc B580 en B570

Met zijn nieuwe videokaarten is Intel duidelijk in welk segment het wil bedienen. Het gros van de gamers speelt volgens de fabrikant op 1440p en 1080p, en daar hoopt Intel marktaandeel te winnen van AMD en vooral van Nvidia. Intel wil met de Arc B580 een alternatief bieden voor videokaarten zoals de Nvidia GeForce RTX 4060 en AMD Radeon RX 7600. De Arc B580 zou volgens Intels eigen cijfers gemiddeld 10 procent sneller moeten zijn dan de RTX 4060 op 1440p met ultra-instellingen. Er zijn op dit moment nog geen onafhankelijke benchmarks beschikbaar.

De Intel Arc B580 verschijnt volgende week donderdag, dus op 13 december, en krijgt dan een adviesprijs van 249 dollar, wat omgerekend en met btw neer zou komen op 286 euro. De Arc B570 volgt op 16 januari en krijgt een adviesprijs van 219 dollar. Omgerekend en inclusief btw is dat zo'n 251 euro. Intel heeft nog geen definitieve prijzen voor de Europese markt bekendgemaakt.

Intel Arc Xe² prestatiesIntel Arc Xe² prestaties
Videokaart Arc B580 Arc B570 Arc A770 Arc A580
Gpu BMG-21 BMG-21 ACM-G10 ACM-G10
Gpu-architectuur (codenaam) Xe2 (Battlemage) Xe2 (Battlemage) Xe (Alchemist) Xe (Alchemist)
Procedé TSMC N5 TSMC N5 TSMC N6 TSMC N6
Diesize 272mm² 272mm² 406mm² 406mm²
Transistors 19,6 miljard 19,6 miljard 21,7 miljard 21,7 miljard
Xe-cores 20 18 32 24
Rekenkernen 2560 2304 4096 3072
Texture-units 160 144 256 192
Ray tracing units 20 18 32 24
Rops 80 72 128 96
Boostclock 2670MHz 2500MHz 2400MHz 2000MHz
L2-cache 18MB onbekend 16MB 8MB
Geheugenopstelling 12GB GDDR6 192bit 10GB GDDR6 160bit 16GB GDDR6 256bit 8GB GDDR6 256bit
Geheugenbandbreedte 456GB/s 380GB/s 512GB/s 512GB/s
PCIe interface 4.0 x8 4.0 x8 4.0 x16 4.0 x16
Tbp 190W 150W 225W 175W

Intel Arc B580

Door Reinoud Dik

Redacteur

03-12-2024 • 15:00

73

Lees meer

Reacties (73)

73
73
45
1
0
25
Wijzig sortering
Ik heb zelf al een tijdje een Arc A770 gpu en ben hier redelijk tevreden over.
Ik heb niet 'de kat uit de boom gekeken', maar in een opwelling een pre-order geplaatst toen nog niet heel veel bekend erover was.
En ja: ik heb hier veel te veel geld voor betaald.
Niet omdat ik een Intel fan ben (ik draai deze gpu ook gewoon icm mijn Ryzen cpu), maar omdat ik een extra speler op de markt gewoon toejuich en ik Intel de kans gunde om mij te verrassen.
Echt verrast was ik niet, maar wat ik wel heb gemerkt is dat Intel de input van Arc gebruikers zeer serieus neemt m.b.t. driver issues bijvoorbeeld waar veel problemen mee waren en ook nog steeds (wel in mindere vorm) aanwezig zijn.

Ook fijn om te horen dat Intel doorgaat met de Arc gpu's en het niet slechts bij een eenmalig uitstapje bleef, een 3e serieuze speler op de markt is alleen maar gunstig voor de consument (prijsconcurrentie/prijzenoorlog, meer innovatie en snellere gpu's voor je zuurverdiende centjes als het volgens de hardware-goden ons gegund is).

Ik wens Intel veel succes met deze nieuwe serie gpu's.
Zelf ben ik het tegenovergestelde, heb ik wel de kat uit de boom gekeken en slechts een A310 gekocht als video decoder/encoder onder Linux. Prima kaartje daarvoor.
Ik heb een A380 voor diezelfde reden. Vervult die taak goed, maar wat een idle stroomverbruik... :'(
Hulde! Ik juich een derde speler ook toe, maar had net mijn tienjaarlijkse upgrade achter de rug met een 6900 XT. Anders had ik er ook wel wat serieuzer naar gekeken. Ik hoop over acht jaar de Intel F770 te kopen!
Heb zelf een 750 gehad, heel veel plezier van gehad en toen was die stuk (na bijna 2 jaar). Heb 2e hands een 3070 gekocht en die is echt veel beter.
Wat ik van de insiders van Intel begrepen heb is dat de A750/770 eigenlijk veel te veel hardware had wat ze niet goed konden managen met de drivers, deze nieuwe zou eigenlijk minder zijn maar door optimalisaties in het ontwerp beter en met minder driver overhead kunnen werken waardoor ze eigenlijk meer leveren met (iets) minder.

Het is mijn inziens best goed mogelijk dat er ergens volgend jaar een B750/770 komt welke wel wat hoger aan kan.
Komt er dan ook nog een B770 met 16GB als mid-end dit wel bruikbaar is voor 1440p resoluties?
Deze 2 kaarten lijken me langzamer dan de A770
Op basis waarvan trek je de 1440 prestaties in twijfel? Ik bedoel, het zijn budget kaarten en prestaties zijn voornamelijk afhankelijk van de instellingen.

Ik blijf er bij dat zelfs 8 GB VRAM nog steeds voldoende is, dus dan is 12 GB ruim voldoende. 16GB+ is IMHO nog steeds enkel nodig voor 4K en andere toepassingen dan gamen.

Laten we de reviews en vergelijkingen met de concurrentie afwachten en vooral realistische verwachtingen hebben. Wil je 100+ fps op ultra settings, dan moet je volgens mij gewoon je budget aanpassen?
Als je naar Low of Medium details wilt in sommige games wel ja. Maar met een 12GB kaart kan je texture quality wel op Ultra zetten waardoor het spel er meteen een stuk beter uit ziet zonder dat dit veel met de framerate doet.

En er zijn steeds meer titels die de 12GB al aantikken. Dus voor een low/ Midrange kaart wil je 12GB voor een high end kaart minimaal 16GB voor Enthousiast 7900 / 4080 en hoger wil je eigenlijk 20GB of meer hebben anders loop je in no time weer tegen die limiet aan. En je betaald tegenwoordig wel serieuze bedragen voor een 4060 of 4070 dan wil je er wel even mee vooruit kunnen dat lukt niet met 8GB memory aan boord. En voor een 70 class verwacht ik toch eigenlijk wel meer dan 12 gezien de prijs.
Ik ben nog nooit tegen limieten aangelopen met mijn 8GB 3060Ti (op 3440x1440) en verwacht dat ook niet, want ik weet wat ik heb en wat ik mag verwachten (van een kaart die 4 jaar oud is).

Waarom zou je naar ultra textures kijken als je het hebt over een budget kaart? Het gaat niet om willen, het gaat om realistisch zijn. Hoe meer geld je uitgeeft, hoe meer je mag verwachten. Als jij het minimale uitgeeft, waarom zou je dan meer dan het minimale verwachten?

Budget = low/medium settings; midrange = medium/high; high-end = high/ultra - klinkt dat niet gewoon heel erg logisch?

Zie je trouwens niet over het hoofd dat we het hier over budget kaarten met 12 GB hebben?
Omdat texture quality een grote visuele upgrade is een het enige wat je ervoor nodig hebt is... VRAM.
Diverse benchmarks hebben ondertussen ook aangetoond dat meer dan 8GB aan VRAM enorme performance verschillen kan maken.
Zie bijvoorbeeld hardware unboxed waar in Hogwarts Legacy de 3060 Ti (8GB) onspeelbaar is op dezelfde settings als de 3060 12GB.

Dat er omheen valt te werken door bepaalde settings omlaag te draaien om onder de 8GB te blijven, tjah... Het kan, maar ideaal is het niet en een kaart met dat soort performance (of zelfs nog meer performance want Nvidia steekt op vele kaarten een schamele 8GB) heeft gewoon aantoonbaar voordeel aan meer VRAM.

Er zijn ook interviews met game developers te vinden die aangeven dat het behoorlijk veel extra aandacht kost om de games op de 8gb speelbaar te houden. Ik heb liever dat ze die tijd aan andere dingen besteden maar goed dankzij Nvidia zaak dat voorlopig wel een blok aan hun been blijven
Hoe weet je zeker dat je niet tegen die limieten aangelopen bent? sommige games laten bepaalde textures niet zien. Als je niet beter weet weet je ook niet wat je mist en denk je dat het zo hoort.

Het is gewoon dat andere concurrenten wel meer geheugen voor hetzelfde geld bieden en je daar dus Ultra textures kan gebruiken op een budget kaart.

Texture quality is altijd iets geweest wat je hoog kan zetten zolang je genoeg vram hebt en wat weinig impact heeft op FPS dus een manier ondanks de rest op low / med staat om het spel er toch relatief mooi uit te laten zien. Iets wat wel de moeite waard is om aan te kunnen zetten. En dus iets wat in het voordeel van AMD en Intel zou zijn als nVidia bij 8GB blijft of in het geval van 70 class kaarten slechts 12 waar Intel en AMD dan 16GB bieden.
Wat bedoel je met “70 class” kaarten? Deze twee GPU’s kosten minder dan 299,- met 10-12GB RAM zoals Alxndr ook al zegt. Dat is ruim voor dit prijspunt. VRAM is niet gratis dus verwacht je meer dan moet je naar een ander prijssegment kijken. De 7600 met 16GB is ~330 in de pricewatch (wat vaak lager is dan de retail prijs). Kost dus zeker 10% meer dan deze kaart met (volgens intel) zeker 10% minder performance.

[Reactie gewijzigd door Max|Burn op 4 december 2024 06:17]

3070, 4070, 7900 GRE / XT.
En in het geval van nVidia hebben die maar 12GB. Waar amd 16 / 20 heeft.

Deze Intel kaart heeft voor een vele lagere prijs al meer. De B770 die mogelijk wel meer richting een 4070 gaat heeft ook 16GB dus dat geeft wel aan dat je bij nVidia erg weinig vram krijg voor heel veel geld en het product wat je koopt in dat opzicht niet future proof is gezien games nu al 12 kunnen gebruiken mits je vram hebt laat staan games die over een paar jaar komen die zullen weet meer gebruiken.

Ik zeg ook niet dat Intel te weinig vram levert ik zeg dat nVidia vooral te weinig heeft tenzij je een 4090 koopt. Maar die is zo duur dat kan/wil bijna niemand er voor betalen. Ja de verkopen doen het goed maar die aantallen zijn klein tov de kaarten in het 200-300 euro segment. En veel worden ook door bedrijven gekocht voor Ai.

[Reactie gewijzigd door Astennu op 4 december 2024 07:24]

Probeer dan maar eens Stalker 2 te spelen met 8GB Vram. Dat gaat niet werken.
Probeer eerst maar eens überhaupt STALKER te spelen zonder problemen voordat we het aanhalen als benchmark.
lukt prima op amd hoor. bijna geen problemen. 1 crash gehad in 42 uur
Ik heb ook maar een crash gehad en de game draait over het algemeen zonder echt grote problemen, maar om die buggy game als een soort benchmark standaard aan te houden voor je grafische kaarten is op dit moment gewoon absurd. De optimalisatie is ver te zoeken, FPS dips aan de vleet om mee te beginnen, en de meest populaire mod is een performance mod.

Het zal wel stabiliseren want 1.0.2 is alvast een stap in de goede richting, maar het is nog lang niet op het punt waarop ik betrouwbaar data kan verzamelen over de performance van m'n CPU/GPU.
... prestaties zijn voornamelijk afhankelijk van de instellingen.

Ik blijf er bij dat zelfs 8 GB VRAM nog steeds voldoende is, dus dan is 12 GB ruim voldoende. 16GB+ is IMHO nog steeds enkel nodig voor 4K en andere toepassingen dan gamen.
...
Bij PC hardware staat vast; op den duur gaat wat high-end was naar midrange, wat midrange was naar low-end en wat low-end was naar obsolete.

Bij videokaarten waren er lang ontwikkelingen op alle vlakken tegelijk (VRAM groeide mee), die ontwikkelingen zijn bij de laatste pakweg 3 generaties videokaarten (vooral bij/vanwege Nvidia) op het gebied van VRAM niet snel genoeg gegaan waardoor de realiteit (lees: door nieuwe consoles en steeds meer AAA-games waarbij de eisen simpelweg wel in alles omhoog gaan) sneller gaat dan 4-6-8 GB videokaarten kunnen bijhouden...
Het '8GB is low-end voor AAA-games' tijdperk staat op aanbreken (schreef ik 1,5 jaar geleden) is nu aangebroken.
Lijkt mij haast wel eigenlijk als je zo even naar de spec sheet kijkt. want zowel de B580 als B570 gebruiken maar een x8 bus inplaats van x16 dus er is denk ik weldegelijk nog performance om te hebben. En met de efficency gains die ze hebben met de volledige die shrink van 406mm² naar 272mm² denk ik dat de nieuwere cores weldegelijk sneller zijn als je zo even de benchmarks bekijkt t.o.v A750 dus ik denk als ze dezelfde specs van de A780 zouden pakken dat het er wel bovenuit komt (zelfde hoeveelheid Xe-Cores etc,.)
Volgens deze oude test is de A770 maar 5-8% sneller dan de A750 watt Intel zelf mee vergelijkt:
https://www.techpowerup.com/review/intel-arc-a770/32.html

Als die test van Intel een beetje klopt is de nieuwe B580 dus al een stuk sneller dan de A770 en wordt de B770 nog weer sneller dan die kaart.

Edit: De A750 had maar 8GB en de A770 16GB wellicht zitten er wat games tussen waar de A750 tegen de 8GB limit an loopt en dus meer winst behaald en waar de A770 ook veel meer dan die 5-8% sneller is.

[Reactie gewijzigd door Astennu op 3 december 2024 16:35]

Volgensmij zaten de A750 en A770 binnen 10% van elkaar. De B580 is, naar intels eigen zeggen, 24% sneller. Denk dus dat de B580 in ieder geval de snelste intel gaming GPU tot nu toe zal zijn.
Ben benieuwd naar de effectieve prijzen van deze GPU's als ze op de Europese markt uitkomen
en naar de effectieve benchmarks dat dit gaat geven tegenover soortgelijke GPU's van AMD en Nvidia vergeleken.

De strijd aangaan met de middensegment GPU's van Nvidia en AMD kan wel eens zeer in het nadeel gaan spelen van Intel zelf .. als vervolgens Nvidia en AMD als antwoord hierop hun midrange GPU's onder de reguliere prijs gaan verkopen.

Voor de consument kan deze "onderlinge strijd" wel een paar mooie koopjes gaan opleveren .. :)
De strijd aangaan met de middensegment GPU's van Nvidia en AMD kan wel eens zeer in het nadeel gaan spelen van Intel zelf .. als vervolgens Nvidia en AMD als antwoord hierop hun midrange GPU's onder de reguliere prijs gaan verkopen.
Als dat zou gebeuren dan zouden deze kaarten wel heel goed moeten verkopen. Nvidia is waar ~90% van de spelers shopt. Ik zie die niet snel prijzen verlagen.

[Reactie gewijzigd door The Zep Man op 3 december 2024 17:31]

Ja klopt. Ze zullen flink onder de prijs van Nvidia moeten zakken want uit de praktijk blijkt dat consumenten alsnog voor Nvidia kiezen als de Nvidia kaart een paar tientjes duurder is voor dezelfde performance...
Zelf zou ik ook nog steeds voor Nvidia kiezen als het prijsverschil enkele tientjes duurder zou zijn .. zeker voor bepaalde types van bepaalde merken, zoals MSI hier bijvoorbeeld enkelen van op de markt brengt.

Het reguliere middensegment, van de RTX4060 tot de RTX4060Ti heb je de MSI Ventus modellen die zeer goed presteren .. deze Ventus types zijn al sinds de MSI Ventus RTX2080 zijn intrede maakte op de markt en hebben zich al meermaals over meerdere generaties bewezen .. O-)

.. en voor het hogere middensegment kijk ik naar de RTX4070 tot de RTX4070Ti .. hier heb je bijvoorbeeld al de MSI SUPRIM en SUPRIM X modellen die je kan aankopen en die van een uitstekende kwaliteit zijn. Vooral qua performance in hun combo met lucht- en backplatekoeling kunnen veel andere merken toch niet tegen deze SUPRIM modellen van MSI op. Maar daar leg je dan ook wat geldvoor neer. Ook hebben deze modellen zich meermaals over de vorige generaties bewezen sinds de MSI SUPRIM RTX3080 uitkwam .. _/-\o_

Als je voor de MSI SUPRIM modellen een rechtstreekse concurrent moet zoeken inzake zelfde koeling en performance met dezelfde afwerkinggraad kom je steevast bij de Sapphire Nitro+ GPU's uit die enkel AMD GPU's op de markt brengen ..

Ik bedoel maar, dit zijn nu eenmaal het type van GPU's waar de consument altijd wat extra voor wilt betalen. Niet enkel omdat ze zich in het verleden al meermaals bewezen hebben, maar gewoon omdat het degelijke kwaliteits GPU's zijn.


.

[Reactie gewijzigd door MPIU8686 op 3 december 2024 21:58]

Wel heel erg mooi voor de consument als ook de prijzen van concurrerende merken zullen zakken.

Een prijzenoorlog in de GPU wereld mag wel een keer.
De total board power van de B580 bedraagt 190W.

...

De Arc B580 zou volgens Intels eigen cijfers gemiddeld 10 procent sneller moeten zijn dan de RTX 4060 op 1440p met ultra-instellingen.
De b580 verstookt volgens deze cijfers dan wel rond de 50% meer dan de 4060 voor die 10% snellere prestaties.

Spijtig.

[Reactie gewijzigd door emphy op 3 december 2024 15:34]

Ter referentie RX4060 zou tijdens het gamen 110-120W verstoken. De andere kant AMD Radeon RX 7600 zou ook rond de ~160-170W verstoken.

Uiteraard zullen we op de benchmarks moeten wachten. Want de RX4060 heeft een 128bit bus en maar 8Gb vram.

Als het over AI gaat is Nvidia gewoon de referentie, en dan is deze kaart niet percé hot lijkt me ... jammer.
Zo erg is dat toch niet? Bij een (hoger dan gemiddelde) kWh prijs van 30 cent kost een gpu die constant 190 watt gebruikt nog geen 6 cent per uur. En met werkelijk verbruik loopt die kaart zeker niet constant 190 watt te verbruiken.

Afhankelijk van of je je pc ook gebruikt voor werk is Idle verbruik trouwens ook een uitvlakkende factor.

[Reactie gewijzigd door DLSS op 3 december 2024 16:14]

Als dump prijzen wilt, dan moet intel lagere goedkopere node kiezen 5N waar nv huidige gen op 4n zit. Dus zal net als AMD ook niet kunnen concurreren nV op efficiëntie en daarmee minder geschikt als mobiele dgpu’s.
Als AMD en intel met nv willen concurreren moeten ze minstens dezelfde nodes bij TSMC nemen. Maar dat maakt de gpu ook duurder in kosten.
Opzich mooie verbeteringen en zo te zien ook weer nieuwe zaken aan de software kant. Ze hebben achter de schermen na dat Arc tegenviel toch flink door gewerkt. Dat zag je al door de grote driver updates die door de tijd heen uit kwamen.

Ik ben benieuwd of die 4060 prestaties haalbaar zijn. Als de prijs laag genoeg is en oude en nieuwe games nu wel goede prestaties hebben en gewoon goed werken zou het een alternatief kunnen zijn voor mensen die een low budget gaming build willen maken.
12GB vs 8GB vram is wat mij betreft al een (prestatie) winst.
Is ook een beetje waarom deze kaart als 1440p kaart op de markt gebracht wordt, dat is waar 8gb (blijkbaar) niet meer mee kan in de nieuwste games qua performance - mooie reden om "die oude" kaart de deur uit te doen ;)
Wel een kleine kanttekening: 8gb is voor nu in veruit de meeste games voldoende, zeker in 1440p.

In de paar games waar het niet voldoende is moet je meestal op ultra settings spelen om meer dan 8gb in gebruik te hebben.

Dit zijn midrange en entry level kaarten. Een paar settings op medium of high zetten in die specifieke games en je kan ze gewoon prima spelen met 8gb.

(Overigens zou ik, met het oog op de toekomst, anno 2025 niet meer een nieuwe kaart kopen met minder dan 12gb video geheugen denk ik, maar op dit moment is 8gb zeker wel voldoende voor een entry level of midrange gpu imho)

Ik hoop dat intel een succes gaat boeken. Zou goed zijn voor de PC gaming boom, kunnen we wellicht nóg meer nieuwe mensen verwelkomen.
249 tm 290 euro vind ik een prima prijs als ik alle games op 1440 op ultra details kan instellen zonder verder erbij na te denken of optie x een stukje lager moet.
Met deze kaart zul je echt wel wat settings moeten tweaken bij een boel games
Ok, maar dit doe je hopelijk toch altijd even snel? :+
Veel games kiezen standaard al verkeerde grafische instellingen.

Als je een high end kaart hebt is het zelfs verstandig om in de instellingen te kijken. Hier kan je vaak je fps limiteren. Zeker in de zomer komt dit de levensduur van je videokaart ten goede. Scheelt je ook weer extra warmte op je kamer.
Zeker. Daarnaast zijn er soms settings die helemaal geen verschil in beeldkwaliteit geven, maar wel fps drops geven.
Tekenend voorbeeld is ray tracing in Hogwarts Legacy. Dat zag er afschuwelijk uit én kostte je flink wat fps.
Wie iemand hier welke board partners (die in Europa leveren) er allemaal kaarten uit gaan brengen?

Asrock, Sparkle... ?

Zo'n B580 lijkt mij al een leuk 1440p kaartje voor mezelf.
Maar ik wil wel iets met 3 jaar garantie en waarbij er wat meer power (limit) ruimte is.
En wellicht nóg betere/stillere koeling.

[Reactie gewijzigd door HugoBoss1985 op 3 december 2024 15:14]

Acer, ASRock, Gunnr, MAxsun, Onix en Sparkle zijn allemaal aangekondigd als board partners voor de B-serie.
Zo lang msi niet meedoet met de gpu kun je nooit in die markt winnen of vooruit komen
Niet echt .. elk merk kan zich gaan profileren of specialiseren met een game aftakking .. kijk naar LENOVO Legion met hun gamelaptops en nu hun handhelds. En deze zijn van topkwaliteit.

Acer heeft al langer een specialisatie in gaminglaptops, waarom zouden zij zich dan ook niet contractueel verbinden met Intel om ook Intel GPU's op de markt te brengen ?

Toen ik begon te gamen was MSI net opkomende in de gamewereld, samen met tal van andere merken.
ASRock en tal van andere merken waren in 2002 bekender dan MSI toen was.
Hopelijk voor Intel wordt de vorige A generatie terug mee gebenched, want het gros van de mensen zullen alleen de resultaten bij launch in het achterhoofd hebben.
Precies! Een of benchmark door de vele driver updates heen, ik ben heel benieuwd wat ze er nog uit hebben gehaald kwa games en optimalisering
De betere zullen dat zeker doen. Gamers nexus heeft wel vaker Arc updates gedaan. HWU volgens mij ook dus ik ga er van uit dat die bij de review wel 2-3 A kaarten mee testen.
Ik ben erg benieuwd of na deze generatie nog een generatie gaat komen. Eerder is er namelijk ook wat gemeld Intel geen videokaarten meer verder zou ontwikkelen. Maar toen was meende ik deze generatie wel al klaar.
https://www.techpowerup.c...pus-beyond-arc-battlemage zal een beetje afhangen van deze kaarten vermoed ik ...
Ik hoop dat ze in de praktijk goed kunnen meekomen met de entry level en mid range kaarten van Nvidia en AMD. We hebben concurrentie nodig op de GPU markt.
Concurentie gaat niks aan de prijs veranderen voorlopig. Denk bijvoorbeeld aan:
- Crypto gekte is weer aan de gang (Minen)
- Wederzijdse importheffingen en sancties intercontinentaal.
- AI gpu rekenkracht. Dus er is en blijft schaarste op componenten.

Een tip, koop daadwerkelijk wat je nodig hebt met weinig overhead. Soms een grafische instelling lager kan je bakken met geld besparen. En de grote grafische stappen zijn toch wel een beetje verleden tijd.
Bijvoorbeeld zag ik met de 'Shadow of tomb raider' nauwelijks verschil in High en ultra. De FPS lag wel 2 maal zo hoog met High.

[Reactie gewijzigd door StormRider op 3 december 2024 16:19]

Helemaal eens met je tip, maar ik ben niet de doelgroep vrees ik. Ik ben ooit begonnen met voordelige entry level systemen maar over de jaren is het vlammetje steviger gaan branden.

Helaas heb ik veel minder vrije rijd dan vroeger maar als liefhebber geniet ik echt van klooien met graphics en van de beleving in immersive games. Ik heb nu dus een 4090 en er komt waarschijnlijk een 5090 zodra die uit is 😅

Ik hoop vooral dat intel een succes gaat boeken zodat meer mensen de kans krijgen kennis te maken met PC gaming zonder daar meteen belachelijke prijzen voor te hoeven betalen, zoals ik dat vroeger ook kon. 🤔

We zitten momenteel in een PC gaming boom, ‘strike the iron while it’s hot’.
De kaart prijzen zijn eigenlijk al jaren niet zo laag geweest. De RTX 4060 kost slechts 285 in de pricewatch. 279 vorige week. En tweedehands is er ook veel te vinden voor weinig.

De reden dat een 4080/4090 nu zoveel duurder is, is omdat de productie naar beneden is geschroefd of gestopt, om de 5080/5090 te produceren. Dat heeft niks te maken met crypto of importheffingen.
Met 250 wat misschien 260 a 270 hier wordt zal het een mooi prijsje zijn voor iemand die een goedkope gaming pc wilt maken.

Op dit item kan niet meer gereageerd worden.