Intel Arc B580 Battlemage-videokaart verschijnt bij retailer voor 259 dollar

De aankomende Intel Arc B580-videokaart is verschenen bij een Amerikaanse webwinkel. De videokaart wordt gebaseerd op de Battlemage-architectuur en moet daarmee de huidige Arc-generatie opvolgen. Naar verwachting kondigt Intel de kaart dit jaar nog aan.

De Intel Arc B580 werd als eerste opgemerkt door bekende leaker @momomo_us, die zei de Arc B580 voor 250 dollar te hebben aangetroffen. Kort daarna wist ook VideoCardz de videokaart te vinden bij een Amerikaanse webwinkel, waar de kaart voor 259,55 dollar staat vermeld. Omgerekend en inclusief btw zou dat neerkomen op ongeveer 297,51 euro. De kaart in kwestie betreft een Intel Arc B580 'Limited Edition'; dat is de naam die Intel gebruikt voor zijn zelfontworpen referentiemodellen.

Eerder op woensdag verschenen de specificaties van de Arc B580 al online. Het lijkt te gaan om een videokaart met 20 Xe2-cores, voor een totaal van 160 compute-units. Daarnaast moet de kaart beschikken over 12GB vram. ASRock-varianten van de B580 verschenen onlangs al bij Amazon, hoewel daarbij nog geen prijzen werden vermeld.

De verwachting is dat Intel de B580 dit jaar nog aankondigt, hoewel de exacte datum voor die uitnodiging nog niet bekend is. De chipmaker heeft tot op heden weinig concrete details over de nieuwe Battlemage-architectuur gedeeld.

Intel Arc B580-webwinkel via VideoCardz
Bron: VideoCardz

Door Daan van Monsjou

Nieuwsredacteur

27-11-2024 • 15:09

52

Lees meer

Reacties (52)

Sorteer op:

Weergave:

Ik heb met de Intel kaarten nog een beetje een vaag idee over waar ze zitten met hun prestaties. Zou mooi zijn om er bij te vermelden met welke ander grafische kaarten ze concurreren.
Deze B580 zal rond een 4060 zitten, is de verwachting. De hoop is dat de B750 en B770 equivalenten rond de 4070 gaan zijn.
Maar binnen enkele maanden komt Nvidia met de RTX 50 serie, en ze hebben met de 4060 laten zien dat ze bereid zijn juist dat segment scherp te prijzen. Intel gaat het dus weer moeilijk krijgen.
Het is ook zo dat Intel op GPU gebied meer naar Nvidia kijkt, dan dat het ergens nodig is dat Nvidia Intel in de gaten moet houden. Nvidia bepaalt, Intel volgt hoogstens. Of loopt er achteraan.
De 4060 op Amazon USA zit rond de $300, dus als de RRP inderdaad $259 wordt, best interessant in het budget segment. De gelekte prijzen voor de 50xx zijn best pittig, dus ik denk dat Intel goed zit met hun prijsstelling deze keer. De Arc kaarten waren bij launch te hoog geprijsd met brakke drivers. Over tijd zijn de prijzen wel interessanter geworden en heeft Intel heel hard aan de drivers gewerkt.
Wel als nvidia 8gb video memory weer gaat pushen zou dit goede concurentie zijn met video kaart.
scherp te prijzen van een 4060 serie? er is in dat 1.5j ook amper eurocent af, laat staan de hoeveelheid ram en echte prestaties, enige winst was verbruik.

uitvoering: Gigabyte GeForce RTX 4060 Windforce OC 8G
De 4060 is niet scherp geprijsd. Die is ongeveer 100€ overprijsd. De gewone 4060 had 4050 genoemd als er wat meer concurrentie was. Spijtig genoeg heeft AMD dezelfde strategie gekozen (waarschijnlijk omdat ze dachten veel competitiever te zijn met de 7000 serie) en heeft zelf ook de prijzen hoog gehouden.
Klink alsof intel dan te duur is. Als ik moet kiezen tussen intel of nvidia voor dezelfde prijs dan ga ik voor nvidia want dan weet je dat alles goed werkt, ook oude spellen en dat de ondersteuning niet ineens stopt als intel de handoek in de ring gooit. Daarnaast komt de RTX5060 over niet al te lange tijd uit en dan is intel ook nog een stuk langzamer.

[Reactie gewijzigd door Rogers op 27 november 2024 16:48]

Dus even snel als de GTX 2080, en loopt dus enkele generaties achter.
Zo moet je het niet zien. De kaarten ondersteunen alle nieuwe technieken, en zijn er ook naar geprijsd. Intel wil alleen niet concurreren met high end omdat ze dat keihard verliezen.

Concurrentie op de low en midrange is alleen maar goed, want Als Intel dat volhoudt, dan ontstaat er zo'n gat met het high end segment dat de andere 2 wel moeten reageren en de prijzen vanzelf zakken.
Zo moet je het niet zien. De kaarten ondersteunen alle nieuwe technieken, en zijn er ook naar geprijsd. Intel wil alleen niet concurreren met high end omdat ze dat keihard verliezen.
Niet alleen dat, maar het gaat ook om het marktaandeel en -segment.

Kijk eens naar een 4080 of 4090. Hoeveel mensen kopen die nu? En vergelijk dat dan eens met een 4050, 4060 of 4070. Ik ken de cijfers verder niet precies, maar ik durf er mijn hand voor in het vuur te steken dat de verkoop-aantallen van een 4050/4060/4070 letterlijk een veelvoud is van die van een 4080, laat staan een 4090.

Zeker als je als Intel zijnde net met je 2e generatie GPU's bezig bent is het veel aantrekkelijker om je te richten op de grote middenmoot, dan op de niche van de meest extreme kaarten. De prijs per stuk is dan weliswaar fors minder maar als je er meer van verkoopt....

Mij lijkt wat Intel doet qua positionering dan best wel een slimme zet. Richt je op de massa, niet op de niche.

Voor de consument lijkt een derde speler me alleen maar mooi. Houdt alle partijen scherp, zorgt voor meer keuze, meer innovatie en betaalbaardere prijzen vanwege conurrentie.
Dat veelvoud van 4060-4070 gebruikers tov 4080-4090 ligt meer aan dat gamers nooit zo fanatiek zijn om meteen 700+ euro stuk te slaan op een GPU. Fanatiek betekent zeer hoge fps of bijvoorbeeld 4K gaming. Velen vinden dat niet nodig bij de spellen die ze spelen.

We gaan het nooit krijgen dat massa's mensen een 5080 gaan kopen. Alleen als Nvidia stopt met de lagere modellen.
Alle bekende YouTubers benchmarken met een 4090 als of dat de standaard is. Vervang die met iets als een 4070 en je bent stuk dichter bij realistisch “gamers”.
Wat blijft er dan nog over van het prestatie verschil tussen een 5800x3d, 7700x 7800x3d of een 9800x3d gekoppeld aan een 4070 of zelfs 4060. Is interessanter voor gamers dan puur het verschil bij een 4090.

Ik snap dat je de bottleneck eruit wilt halen maar als nooit een 4080 of hoger bezet wat heb je er dan aan?
Ik snap dat je de bottleneck eruit wilt halen maar ...
Je snapt het dus wel! Maar ... toch ook weer niet? Heel apart... ;)

Zonder gekheid; als ze met een 'midrange kaart' zouden gaan benchmarken lijkt het daardoor alsof iedere redelijke midrange CPU tot de beste high end CPU 'allemaal precies hetzelfde doen'. Wat in allerlei gevallen (bijvoorbeeld na een upgrade en/of jaren later met ruim veeleisender games) uiteraard helemaal niet zo is.
Juist die x3D chips zie je nog wel verschil, zodra je ipv naar gemiddelde FPS naar 1% of 0,1% lows gaat kijken. Maar testen met een bekende bottleneck is gewoon niet bijster nuttig.
mij lijkt dat voor de gemiddelde gamer juist nuttig. De gemiddelde gamer gaat niet verder dan een 4070. Dan is het relevant om te weten wat voor een CPU daarbij past en hoeveel zijn huidige CPU daadwerkelijk bottleneckd.

met die informatie is het juist veel makkelijker om een goed op elkaar afgestemde combo te maken. Zeker als het om een upgrade gaat van een bestaand systeem vs een complet nieuw systeem. Voor 10fps op een gemiddelde van 80+fps hoef ik niet noodzakelijk een nieuwe cpu te hebben. maar voor 10fps bij een gemiddelde van 40 fps is het het overwegen toch waard. Ik zou graag bijv een midrange test zien. Een 4070 en dan verschillende CPU's eraan hangen om te zien waar de sweetspot zit van de midrange. maar die test zie ik helaas nooit .
Ik durf te wedden dat de meeste xx90 kaarten verkocht worden omdat iemand "gewoon het beste" wil en niet eens weet wat ie in huis haalt. Met de 80 series grofweg hetzelfde maar dan heeft diegene minder centen.
Wat een moed, durven te wedden op iets wat toch niet te controleren valt...
Anders nam ik die weddenschap wel aan, ik denk dat de meeste mensen die 1000-2000 euro of nog meer aan een videokaart uitgeven echt wel weten wat ze kopen.
en alle mensen met een dure sportwagen kennen iets van auto's?
We hadden het over een videokaart. Als je dan de absurde analogie naar een auto wil maken dan is het meer mensen die een bepaalde dure zeer sterke motor kopen om in hun auto te bouwen. En ja ik denk dat mensen die dat doen over het algemeen ook wel weten wat ze kopen ja.

Uiteraard niet helemaal hetzelfde want dat kost veel meer expertise om zelf in te bouwen maar zoals ik al zei is het dan ook een absurde analogie.

Als we dan toch aan generalisaties doen, ik denk dat dit soort uitspraken, dat mensen die zoveel geld uitgeven niet zouden weten wat ze doen en het alleen maar om status gaat of een misplaatst idee dat dat het beste zou zijn, vooral uit afgunst komt.

En nee ik heb zelf geen 4080 of 4090. Wel een 7900XT, maar ik had liever een van die twee van Nvidia gehad want hoewel AMD genoeg power geeft voor 4k tegen een wat aantrekkelijkere prijs bieden die 4080 en vooral natuurlijk de 4090 toch duidelijk meer (power, maar vooral ook features en stabiliteit). Maar mijn budget is helaas ook niet onbeperkt.
Als ik eens om mij heen kijk naar de personen die geen ICTers zijn en wel PC willen gamen, dan zie ik dat ze voornamelijk prebuilt kopen. Ze kijken dan niet naar specs, ja.. wel: high number =better.. Ze kopen wat er in hun budget past. Vaak kocht men dan PCs met 3080 of later 4080 kaarten. Degenen die meer geld hadden wilden altijd voor de 4090 gaan, en als je dan vraagt waarom, dan is het antwoord steevast 'omdat ik gewoon het beste wil zodat hij langer meegaat'
Vaak komen die mensen er toch op terug als je uitlegt wat voor stroomverbruik en prestatieverschil ze nu echt kunnen verwachten. De aanname dat men daadwerkelijk onderzoek doet naar wat ze kopen wordt vaak gedaan op Tweakers, omdat wij ons daarvoor interesseren. Men kijkt in werkelijkheid op 'de doos' en naar hun portemonnee, thats it.
Klinkt gewoon als afgunst.

Denk eerder dat de mensen die dit geld kunnen uitgeven heel goed nadenken over wat ze doen. Wellicht ook de reden dat ze zoveel geld te besteden hebben.

Genoeg mensen die hun schouders ophalen voor een uitgave aan een 4090.

En zeker als het je belangrijkste hobby is, is 2000 euro toch helemaal niet veel? Anderen geven het uit aan een camera, lenzen, een auto, of wat dan ook.

[Reactie gewijzigd door OriginalFlyingdutchman op 28 november 2024 10:41]

Afgunst? lol het boeit mij geen fluit wat iemand koopt, maar als het een kennis is die vraagt of het een goede keus is vind ik het zonde van hun geld als ze voor een 4090 gaan en deze niet benutten.

2000 euro is best veel voor een object dat na een jaar of 5-6 als paperweight kan dienen. een gezin kan er 3 a 4 maanden boodschappen van doen. (6 als ze heel zuinig zijn) en qua energieverbruik is het ook niet mals.

Zelf heb ik een 3090 en ben er blij mee, maar ik heb bewust voor deze kaart gekozen vanwege de hoeveelheid VRAM omdat ik destijds met AI image generation wilde spelen, en veel bezig ben met 3d modeling. ik vond het een hoop geld, ook al is het voor mijn hobby's. En ik verdien genoeg, dus voordat je rare aannames doet..
Nu game ik niet zoveel meer, maar ben echter wel geinteresseerd in hoe goed de BattleMage kaarten werken met lokaal draaiende AI/LLM software. Want een smarthome waar ik tegen kan praten om dingen uit te voeren, daar wordt mijn innerlijke Tweaker wel vrolijk van.

Zag laatst een AI/LLM die in de toon van Captain Picard converseert. Dat, in combinatie met naamgeving van elementen in huis als elementen van Enterprise, dat heeft voor mij toch wel een boel charme.

Dus als BattleMage goed presteerd qua AI/LLM tegen een relatief lage prijs dan NVidia, dan gaarne een Intel GPU afleveren op dit adres.
Daarnaast werkt het ook feilloos met adobe cc samen, als ik diverse reviews mag geloven. Zeker met adobe Premiere werkt dit enorm goed. In mijn geval heeft dat de hoogste prioriteit en ben ik zeer geïnteresseerd in de Arc kaarten!
Ze lopen geen generaties achter. Ze zitten gewoon niet in dat segment. Dat intel de getallen 80 en 70 ook gebruikt, wil nog niet zeggen dat je ze met Nvidia's 80 en 70 modellen moet vergelijken. Die prestaties hebben de intel kaarten niet, maar zo veel geld kosten ze tot nu toe ook niet. Intel snapt ook dat ze net komen kijken op de GPU markt en prijst zichzelf dus competitief in raster performance.

Een uitvoering: Acer Predator Bifrost Arc A750 bijvoorbeeld, zit qua prijs onder de 4060 en 7600, maar presteert best vergelijkbaar en in DX12 games zelfs erg goed.

[Reactie gewijzigd door youridv1 op 27 november 2024 16:11]

misschien niet het summum voor gamers, maar als het ding openCL goed doet kan het interessant zijn voor photoshop/lightroom/gimp/darktable en andere grafische software die daar gebruik van maakt
Dat het niet het summun voor gamers is is vrij achterhaald. YouTube: I Tested Every Game I Own on an Intel Arc GPU Hardware Unboxed test hier in een grote sample van 250 games met een goede selectie , uiteindelijk blijkt er maar 1 game te zijn die problemem geeft. Misschien is dat met driver updates na 4 maanden op moment van schrijven wel opgelost. Een Arc is op dit moment ergens al een 7 , hopen dat Battlemage gelijk hierop voortboorduurt.
prachtig, maar niet alles is gaming. Een beetje 60 megapixel plaatje van een recente sony (of van mijn part zelfs een 45mp van een oude Nikon) bewerken in Lightroom is tergend traag op een CPU-only bak. In Darktable, Topaz of DxO is het nog erger omdat die veel complexere berekeningen doen.
Een graka maakt daar echt een verschil. Had ik het al over raw video gehad?

Een bepaalde bewerking in Darktable (diffuse&sharpen met een berg iteraties) op mijn recente Core-i5 doet er soms gewoon 10 seconden over bij een export. Een Apple M2 is niet veel beter. Zeker als je veel lagen hebt.

Op een gare i7 uit 2017, maar mét gfx2060 (nou niet bepaald high end) is dat al slechts een seconde of zo.
Ik ben benieuwd naar deze nieuw graka's en of die ook uiteindelijk in laptop varianten komen en zouden een mooie middenmoot voor grafisch werk kunnen zijn.

[Reactie gewijzigd door divvid op 27 november 2024 17:16]

En die ene game is niet eens Intel's fout. Deze detecteert een Intel en weigert dan gewoon om op te starten. Dit komt waarschijnlijk omdat er toen alleen slecht-performende embedded Intel GPUs waren.
Dat games werken is 1 ding, maar hoe performant zijn ze? Ik denk dat dat voor velen de grootste vraag zal zijn bij deze tweede generatie. Intel zal nog wel wat jaren nodig hebben om bovenaan mee te kunnen doen dus wordt het een geval prijs/prestatie.
Ze presteren in gaming soortgelijk aan de xx60 kaarten van Nvidia.

Ik ken best veel mensen die zo budget mogelijk willen gamen. Ze willen een smooth, moderne ervaring maar niet per sé meer dan 1080p of 60fps.

Voor dat soort mensen zijn dit soort opties vaak geniaal.
Nou, als deze presteert als een RTX4060, dan vind ik dat toch niet mis.
Bestaat er een Intel videokaart die niet op gamers is gericht? Gewoon een basic kaart bedoeld voor simpele dingen? Wil de Arc wel eens proberen, maar vind ze nogal prijzig voor niet-gaming gebruik.
Dan heb je in de meeste gevallen toch voldoende aan de iGPU die ingebouwd zit in bepaalde modellen van Intel. Voor Office werk, en zelfs lichte games zijn die GPU's meer dan goed genoeg.

Anders zou je kunnen gaan voor een Intel Arc A310, dat zijn de echte instapkaarten die je al hebt vanaf 117 euro: uitvoering: Sparkle Intel Arc A310 ELF

Of tel een tientje meer neer voor een iets krachtigere Intel Arc A380 vanaf 127 euro: uitvoering: Sparkle Intel ARC 380 ELF

Voor hun prijzen en marktsegmenten zijn dat prima kaarten ook al is het een generatie ouder.
Da's een accectabele prijs, dank!
Er bestaat zo iets als een AMD APU .... 8000G serie momenteel . Die buiten de banale iGPU (Die zowel beschikbaar is in de Intel als AMD CPU serie) nog wel wat meer kan verzetten als je echt iets nodig hebt van GPU kracht. @wildhagen misschien als je info geeft alle beschikbare opties geven.

Daarvoor hoef je geen apparte kaart te hebben.
https://tweakers.net/proc...C0WWJOUD1SkYmFqYWSrG1tbUA
Mooi. Een beetje concurrentie op de markt van gaming videokaarten kan geen kwaad. En Intels focus op grafische chips kan ook hun geïntegreerde grafische oplossingen alleen maar goed doen.
Ik ben geen intel fan, maar ik hoop stiekem dat deze kaarten een succes gaan worden. We hebben dringend concurrentie nodig in de GPU markt.

AMD legt Nvidia niet bepaald het vuur aan de schenen op het moment en Nvidia kan bijna vragen wat het wil voor haar kaarten...
Grootste probleem is dat mensen Nvidia blijven kopen... ik ben geen die-hard gamer en ben voor een AMD gegaan, Nvidia krijgt geen cent van me.
Ik en er ook schuldig aan. Ik heb weinig vrije tijd maar ik geniet enorm van het tweaken en spelen met graphics.

Ik zou zo overstappen, maar AMD heeft helaas geen alternatief in het high-end segment, zeker niet als je graag alle 'bells and whistles'' zoals ray tracing en path tracing aan wil zetten.

Wat ik wel vreemd vind is dat Nvidia met haar 77% marktaandeel ook het middensegment compleet domineert. Hopelijk komt er wat extra druk met Intel.
En zo zullen er ook mensen over AMD denken, dat die geen cent van hun krijgen. Grootste probleem bij AMD vind ik nog steeds de naamgeving, die is gewoon zo verrekte verwarrend.
Ben het volledig met je eens. Had eind juni dit jaar eindelijk een nieuwe video kaart aangeschaft ter vervanging van een 970 gtx. Rond de 400 euro was een Nvidia kaart gewoon geen optie qua performance en heb ik een amd 6800 gekocht. Ben ik blij met de performance:ja, ben ik blij met de prijs per frame: nee. Met de prijs kan AMD echt het verschil maken, maar ze pakken niet echt door in mijn optiek ;(
Ik was juist op een gegeven moment AMD fan totdat ik steeds maar gezeik had met drivers. Sommige spellen waren zelfs compleet onspeelbaar. The Division op mijn HD6970 was echt drama en de druppel, je viel gewoon random door de vloer, zieke bloom effect dat je niks meer zag.
Heb aantal kaart gehad en ik moet zeggen dat met AMD ikzelf echt de meeste drama had. Het was niet zo dat elke game niet werkte, het was voornamelijk als een game net nieuw was dat het soms gewoon echt lang duurde voordat het goed ging werken. Heb zelf tot nu toe geen gezeur met Nvidia gehad.


Lijstje oude kaarten die ik heb gehad.

Nvidia MX420, FX5200, FX5600, GTS8800, GTX970, RTX 3070.

AMD X1950pro, HD 5770 2x, HD 6950 x2 (CrossFire, niet echt een succes), HD 6970.
Door de vloer vallen door een videokaartdriver lijkt mij vanuit technisch aspect wel erg opmerkelijk! Maar wat je zegt voor de rest klopt inderdaad. Nvidia is altijd goed geweest kwa drivers..
Het is geen gein, dat was 1 van de raarste bugs die er was destijds. De vloer werd niet gerenderd en dan viel je er gewoon doorheen. Voornamelijk bij de subways. Toen van AMD naar Nvidia geswitched en gone was alles. Ik zie in mijn rijtje een kaart missen, dat was volgens mij iets van een GTS250 destijds.

https://www.youtube.com/watch?v=qASDQyx_IsY

[Reactie gewijzigd door AcidBanger op 28 november 2024 15:07]

Edit: Nevermind, stating the obvious...

Misschien kunnen AIB's nog iets goedkoper maken of is dat onzin en worden die allemaal duurder (ook omdat dit een "limited edition" is?
Wel een flinke steiging t.o.v. A580.

[Reactie gewijzigd door HugoBoss1985 op 27 november 2024 15:21]

Ik hoop dat dit een "test het water" niet-fout is geweest en dat dit voor hen een omweg is om reacties uit te lokken en zich daaraan aan te passen.

Als de kaart uiteindelijk uitkomt en 200-225 kost, zou ik hem zeker kopen. Mocht ie duurder zijn, tsja, maar dan zie ik er geen reden voor...
Hardware decoded renderen van videos zijn deze kaarten super voor. Enkel voor bepaalde codecs. Voor de rest blijven ze achter

Op dit item kan niet meer gereageerd worden.