Wccftech: Slide onthult prijzen en prestaties Intel Arc Alchemist-serie

De Amerikaanse prijzen van de aankomende Intel Arc Alchemist-serie grafische kaarten zijn mogelijk online verschenen. Het instapmodel moet voor grofweg 100 dollar verkocht worden, terwijl het topmodel maximaal 400 dollar zou kosten.

Techmedium Wccftech zou de onthullende slide hebben verkregen van Intel-partners uit Taiwan en hoewel de inhoud nog zou kunnen veranderen, geeft het een eerste prijsindicatie van de aankomende Alchemist-serie gpu's. De vermelde prijzen zijn vermoedelijk exclusief belasting.

Intel Arc prijzen gelekt
Intel Arc A-serie met de beoogde concurrentie, afbeelding via Wccftech

Met het vlaggenschip uit de Performance +-categorie, de Arc A770, wil Intel volgens de slides concurreren met Nvidia's GeForce RTX 3060 Ti met een tdp van 200W en 8GB geheugen. Intel noemt ook de AMD Radeon RX 6650 XT met een tdp van 180W en 8GB geheugen als directe concurrent. In beide gevallen verkiest Intel een hogere tdp dan de concurrentie.

Dat verschil wordt nog groter in de categorie Performance -, waar de Arc A580 met een tdp van 175W zich moet kunnen meten met de RTX 3050 met een tdp van 130W. De videokaart moet daarbij de Radeon RX 6500 XT achter zich laten, een gpu met een tdp van slechts 107 watt. In beide door Intel beschreven segmenten zet het bedrijf dus in op een hoger stroomverbruik dan de concurrentie.

Intel Arc Alchemist-videokaarten *
Serie Arc A310 Arc A380 Arc A580 Arc A750 Arc A770
Adviesprijs ~100 dollar 125 tot 149 dollar 200 tot 249 dollar 279 tot 349 dollar 349 tot 399 dollar
TDP 75W 75W 175W 225W 225W

Geheugen

4GB GDDR6 6GB GDDR6 8GB GDDR6 8GB GDDR6 16/8 GB GDDR6

Segment

Entry Mainstream - Performance - Performance + Performance +

* specificaties Arc-videokaarten voor desktops volgens Wccftech

Vooralsnog heeft Intel nog geen compleet beeld geschetst van Alchemist; deze week werden er officiële benchmarks van de de Arc A750 gepubliceerd. Van alle modellen is vooralsnog alleen de Arc A380 verkrijgbaar en voor nu alleen in China, waar de kaart omgerekend 146 euro kost. Ook van de Arc M-serie mobiele videokaarten is nog niet alle informatie beschikbaar.

Door Yannick Spinner

Redacteur

17-07-2022 • 11:34

94

Submitter: Xtuv

Lees meer

Reacties (94)

94
93
31
2
0
37
Wijzig sortering
Met de energieprijzen van nu en later, denk ik niet dat men er veel van zal verkopen.
Slimste is nu ook in de wintermaanden op vakantie te gaan, dan hoeft men thuis niet te stoken.

edit; @Luchtbakker @Vlizzjeffrey hier staan 3 pc`s, waarvan er 2 bijna de hele dag draaien, dan gaat het wel om het gebruik en mijn portemonnee ;)
https://goedkopeenergieengas.nl/energie/prijs-per-kwh/
In Nederland wordt veel stroom nog opgewekt door middel van gascentrales. Door de hoge gasprijs stijgt dus ook de stroomprijs. Waar we begin 2021 nog rond de 0,23 per kWh betaalde, moet u in 2022 rekening houden met €0,36 tot maar liefst €0,61 per kWh stroom. Daarnaast is de gasprijs gestegen van ruwweg €0,75 per kubieke meter naar prijzen tot wel €1,75 of zelfs €2,50 per kubieke meter.
@AHWolf Helemaal niet erg om er een concurrent bij te krijgen in het videokaarten segment. Mee eens, laten we dan duimen dat ook de prijzen omlaag gaan ;)

[Reactie gewijzigd door GameNympho op 23 juli 2024 06:15]

Eerlijk gezegd denk ik niet dat iemand die een game kaart koopt kijkt naar het verbruik. Ik heb nog nooit een klant gehoord die aan mij vroeg wat het verbruik was. Alleen om de voeding er op aan te passen, maar niet voor de energierekening.

Intel heeft al standaard een GPU in zijn CPU en dat zal altijd blijven voor gebruikers die geen gekke grafische zaken doen.
Dan ben ik een uitzondering, ik ben aan het kijken om van een 2080Ti naar een 3060Ti te gaan puur om dan games op 80% vermogen (MSI Afterburner) te draaien zodat 40u aan 59cent mijn verbruik te laten zakken.

Ik had zelfs een 5900x gewisseld naar een 5700G voor direct - 120w 5900x en - 220w 2080Ti naar 64w peak te gaan. Helaas kan ik niet meer deftig 8K video knippen en plakken, Witcher draait voor geen meter.

Mijn oplossing was om voor Nvidia NOW te gaan, dat was 38% goedkoper dan mijn energie verbruik van de 2080Ti met de hoeveel aan games dat ik deed. Met de 3060Ti zou Nvidia now 2% goedkoper zijn, maar dan kan ik wel weer gewoon alles op mijn PC spelen.

In familie vroeg iemand die alleen woonde om de PC te fine tunen om toch 25% minder verbruik te hebben om dat dat weer 20€ in de maand scheelde voor hem.
Dan de jongste bij ons thuis die wou toch ook kijken om zijn 6700XT naar iets kleiner te gaan voor wederom: verbruik.

De jaloezie dat ik heb voor mensen met 15c de kW ..... ik huur en kan niet wisselen van contract hier in België naar iets "voordeliger".
Dus netwerk apparatuur, NAS'n en Video Kaarten zijn mijn grootste struikel punten, want de TV staat max een uur of 2 op per dag, en de vaatwas om de 3 dagen, wassen om de week.
Ik ben ook iemand die op het verbruik let en toch met 'high end' spullen speelt. Een 5800X en RX6900XT.
Maar dat wil niet zeggen dat ik niet om het verbruik, c.q. stroomkosten geef.
Door alles zo efficiënt mogelijk af te stellen, sla je 2 (of 3 afhankelijk van hoe je het bekijkt) vliegen in één klap.

Minder verbruik = > minder koeling nodig => stillere PC.

Voor mijzelf heb ik als doel dat ik gewoon prettig wil kunnen gamen op 100Hz met 3440x1440 resolutie, en dat met zo min mogelijk geluid van de koeling uit de PC.
Dus indirect bespaar ik op de rekening door voor maximale performance/watt te gaan.

Wist je dat je met AMD een PPT (package power target) voor de CPU (en GPU) kan instellen?
Je had de 5900X evt. kunnen houden en als een stroombesparing optie 1 CCD uit te kunnen zetten. Of met de PPT de 5900X kunnen begrenzen tot een bepaald vermogen.
De CPU/moederbord zal dan zelf het voltage en de klok aanpassen om binnen dat vermogens budget te blijven.
Dat heb ik voor mijn 5800X gedaan, omdat het anders de spuigaten uit loopt in multicore toepassingen.

Idem voor de 2080TI. Voor de performance/watt scheelt het eigenlijk nauwelijks om over te stappen naar een 3060TI: https://www.techpowerup.c...-founders-edition/36.html
Je kan hetzelfde bereiken door de klok en voltage van de 2080TI aan te passen.
Met een undervolt is behoorlijk wat vermogen te besparen, maar dat kost wel tijd (en ironisch genoeg stroom) om de ondergrens te bepalen a.d.h. van stresstests.

Ter info, de RX6900XT is standaard redelijk inefficiënt afgesteld (nog niet zo erg als een 3080 of 3090 gelukkig). Door het powerbudget en max klok te verlagen, zodat deze in het efficiënte gebied blijft werken is de performance/watt beter te krijgen dan een stock 3060TI of RX6800.
Helemaal wanneer je ook, als kers op de taart, nog gaat undervolten.

Ik had trouwens gehoopt dat Intel aan de onderkant van de markt mee zou doen met efficiënte videokaarten. Vooralsnog zie ik geen voordeel : (.

[Reactie gewijzigd door CMT op 23 juli 2024 06:15]

Ik heb ook alles bekeken, maar ben juist naar 1 systeem met een 5950x + 2x 3070 (had ik gratis) gegaan. En ipv 48 hebben we nu 54 zonnepanelen om altijd op - uit de komen aan het einde van het contract :P
De Apple M1 en M2 zijn vergeleken met x86 heel veel zuiniger. En ze kunnen bepaalde games ook nog redelijk draaien. Dus die kun je al alternatief aanraden als je om advies gevraagd wordt. Ik ben zelf een energie nerd aan het worden. Mijn energie rekening is 40 euro per maand. Met gas en elektra en geen zonnepanelen. Ik kijk bij alle appliatiances naar het stroom verbruik. En zo heb ik nu na jaren extreem zuinige apparaten in huis. En dan telt het op natuurlijk. TV, ijskast, Radio, PC, lampen alles extreem laag stroom verbruik. Ook apparaten op batterijen gebruik ik. En batterijen in de uitverkoop kopen. Een beetje off topic maar goed.
De M1 en M2 zijn niet zo heel veel zuiniger op zichzelf.

Een groot deel van de winst boekt Apple door de hard- en software nauw op elkaar aan te laten sluiten. Waar een GPU/CPU van AMD/Intel/Nvidia een veel breder en generieker publiek moet ondersteunen. Hoe breder de support, hoe inefficiënter het is.

Als het puntje bij paaltje komt en de software werkt zo optimaal mogelijk, zit er nauwelijks nog verschil in energieverbruik tussen X86 en ARM. Dan komt het vooral op een aantal specialistische taken waarbij de 1 een beetje beter is dan de ander.
Interessant, dank voor je reactie. Dan ben ik toch benieuwd als X86 en ARM niet veel verschillen wat mogelijke verbruik. Ze komen van o.a. TSMC met machines van ASML. Lijken ze dan op transitor niveau allemaal enigzins op elkaar? Daarna wordt er een instructie set boven op gezet? En als ik het goed begrijp gaan we richting 2024 naar 2 nm (met EUV) met chiplets. Gaan al de chips dan nog meer op elkaar lijken?
Dan ben ik een uitzondering, ik ben aan het kijken om van een 2080Ti naar een 3060Ti te gaan puur om dan games op 80% vermogen (MSI Afterburner) te draaien zodat 40u aan 59cent mijn verbruik te laten zakken.
Niet helemaal duidelijk in welke periode je die 40u hebt, maar een 2080Ti zou een 250W tdp hebben, en in sommige testen eventueel tot 280W kunnen verbruiken.
Al kan je dat halveren, dan heb je nog maar 140W bespaart. 40u aan 59cent/kWh komt dan op 3.3 euro
Als je best veel gamed en je had het over 40u per week, dan komt dat nog maar op een verschil van een 16 euro per maand.
Een 3060Ti kost zo'n 600 euro dus dan duurt het meer dan 3 jaar om het verschil terug te verdienen.
[...]
Niet helemaal duidelijk in welke periode je die 40u hebt, maar een 2080Ti zou een 250W tdp hebben, en in sommige testen eventueel tot 280W kunnen verbruiken.
Al kan je dat halveren, dan heb je nog maar 140W bespaart. 40u aan 59cent/kWh komt dan op 3.3 euro
Als je best veel gamed en je had het over 40u per week, dan komt dat nog maar op een verschil van een 16 euro per maand.
Een 3060Ti kost zo'n 600 euro dus dan duurt het meer dan 3 jaar om het verschil terug te verdienen.
Dan ga je er vanuit dat hij de 3060 ti nieuw koopt en niks met zijn oude doet. Stel dat hij de oude voor 450 weet te verkopen wordt het al interessanter, dan is het opeens minder dan een jaar.
Maar als hij de 3060 ti ook tweedehands koopt voor bijvoorbeeld 400 euro wat ik hier op Tweakers zie dan krijgt hij zelfs geld toe...
Ik ben ook zo hoor, ik heb specifiek een xbox series s gekocht omdat die minder stroom verbruikt dan een X. Verder verbruikt die zelfs minder dan mijn gaming laptop.. Terwijl ik betere graphics heb.
Ik ben ook zwaar aan het overwegen om gewoon een console te nemen.

Mijn laptop met i5-8250u en MX150 2GB speelde esport games goed op 1080p medium, dan kreeg ik een laptop met een AMD 4500u, dat had een Vega7 dat beetje beter dan de MX150 deed.

Mijn vrouw speelt games op een iGPU in een NUC i7-6700 en dan een i5-8600 en is tevreden.
Ik redeneerde hieruit, een basis gaming ervaring is wel okey op integrated graphics van Intel en AMD.

Ik wou dan al langer mijn 2080Ti downgraden, maar tijdens de pandemie was GPU's niet te doen om tegen een redelijke prijs aan te schaffe, met het nieuws van Intel dGPU's dacht ik: YES! Zuinige goede GPU kaarten.

Maar ze slagen wel enorm tegen in prijs en verbruik (prestatie maakt me niet uit, LoL 1440p LOW 120 fps is genoeg).
Je kan ook kijken naar cloud gaming, werkt prima.
Ik game nu met gamepass op een oude pc die 100w verbruikt om op 4k te kunnen gamen.
Dat kan ook, maar als je shooters speelt heb ik nog veel lag. Daarom heb ik een Xbox gekocht.
Yep, daarnaast is couch gaming ook een dingetje ivm een gaming laptop.

Ik heb nu mijn 2e gaming laptop, en het blijven draagbare kachels helaas en het lijkt er niet op dat deze trend gebroken gaat worden op basis de ontwikkelingen op grafisch (meer watt, meer power) en display (laptops schermen krijgen zoveel hogere resolutie als refreshrates) gebied.
Ik zou eerder kijken naar (warm)water verbruik, koel/vriescombinatie (gevuld houden met flessen water, temp, recente koelkast), NAS (~20W) en wifi 's nachts uit levert wel wat op maar zie ik niet duidelijk op het afschrift.

Bij NAS kun je nog argumenteren dat de harddisks eerder overlijden en dan geen winst qua kosten opleveren.
Waarom koelkast gevuld houden? Heeft dat effect op het verbruik?
Ja, vulling en met name water absorberen koude lucht en zorgen voor koeling, vergelijk een koelbox met koelelementen.

Niet helemaal tot de nok propvol en ventilatie blokkeren want de koel/vrieskast moet lucht (=afkoeling) kunnen pompen.

Ik heb een vrij (te) grote inbouwkoelkast en gebruik de vriezer weinig, het scheelt aanzienlijk in stroomverbruik door PET-flessen water erin te bewaren en is een stuk rustiger omdat de pomp zelden aanslaat.
Hoe ik het begreep, maakt dat net niets uit. Ténzij je vaak de deur open en dicht doet. Als er maar weinig in je koelkast zit en je doet frequent de deur open, ontsnapt er makkelijker koude lucht dan dat je koelkast wat voller zit.

Dat je koelkast langer koud blijft als deze vol zit omdat je flessen water dan als koelelementen fungeren, lijkt me echt onzin. Je zondigt dan tegen de wet van behoud van energie of één of andere wet uit de thermodynamica.

Als je flessen koude (moeten) afgeven om je koelkast fris te houden, slaat je pomp misschien wel niet onmiddellijk aan maar is je water wel wat opgewarmd. Je kan geen koude creëren uit het niets. Uiteindelijk zal je koelkast toch opnieuw aan de slag moeten om de flessen opnieuw te koelen.

TL;DR: wat je ook doet, hou die deur zo veel mogelijk dicht!
Dat je koelkast langer koud blijft als deze vol zit omdat je flessen water dan als koelelementen fungeren, lijkt me echt onzin. Je zondigt dan tegen de wet van behoud van energie of één of andere wet uit de thermodynamica.
Water is een thermische buffer, tegen welke wet zondigt dit precies?
Het gaat erom dat je met dat water op zich niets bent. Als je denkt dat je energie bespaart omdat je water je koelkast mee helpt koelen, vergeet je dat je initieel ook al meer energie nodig hebt gehad om dat water te koelen.

Wat ik zeg, is dat je die onnodige stap kunt overslaan. Eerst water afkoelen om daarna ervoor te zorgen dat je frigo wat minder vaak moet aanslaan, is hetzelfde als geen water afkoelen en gewoon periodiek eens koelen. Als je de deur dichthoudt, wat dus het meest interessant is, kan je die hele frigo beschouwen als een gesloten systeem en wordt water afkoelen en er daarna koude aan ontrekken, een nuloperatie. Je gaat niet opeens magisch energie winnen door je koelkast vol te steken met water, gewoon omdat dat inderdaad als een thermische buffer fungeert.
Het gaat erom dat je met dat water op zich niets bent. Als je denkt dat je energie bespaart omdat je water je koelkast mee helpt koelen, vergeet je dat je initieel ook al meer energie nodig hebt gehad om dat water te koelen.
De koelkast zet gewoon de motor aan totdat de luchtsensor het afkapt; dat is echt een grosso berekening en geen subtiele methode om warmteafvoer te regelen, de extra energie benodigd voor flessen over een tijd is vrijwel nihil, je flessen zijn ook niet ineens koud.

Dat het een nuloperatie is in ideale situatie snap ik best, maar een koelkast wordt geopend en temperatuursverschillen dempen kan prima met water.

[Reactie gewijzigd door Xander2 op 23 juli 2024 06:15]

Goed om te wetenC ik heb 3 vriesvakken en er zit niks in. Koelkast is ook nagenoeg altijd leeg op wat kwark en melk na. Zal hem morgen vullen met flessen water.
Dat doe ik uiteraard ook wel, ik heb een koelvriescombinatie van 2 jaar oud, toen ik hier 2,5 jaar geleden kwam wonen heb ik alles nieuw en energiezuinig gekocht. Dit huis (huurhuis) is volledig geïsoleerd, waar ik ook op gelet heb. Overigens gebruikt WiFi weinig stroom, net als smart speakers.
Overigens gebruikt WiFi weinig stroom, net als smart speakers.
Dat klopt, maar ik begreep uit je post (netwerk, nas) dat het om single watts ging. Dan is WiFi, schakelen naar 100Mbps, uitschakelen USB, single core op lage frequentie waar je nog winst uit kan halen.
Ik heb altijd een vacuümzak met water die ik in de vriezer gooi als die te leeg is. Kan namelijk in hoekjes gestopt worden.

Koelkast zelf is tot de nok gevult. Met de dagelijkse dingen en voor de rest drinken.

Sinds ik die beide toepas merk ik voornamelijk in geluid dat die minder vaak aan slaat wat weer geld bespaard.
Ik draai een 3080 ti op max 250 watt. Enorm efficient en veel meer prestaties op dat vermogen dan bijv een 3070ti op 250 watt omdat ik mijn cuda cores op een lagere freq kan draaien. Mijn punt is vooral: ook de hogere sku’s kun je heel zuinig maken en een stuk meer perfomance per watt realiseren de lagere skus
"Vaatwas om de 3 dagen, wassen om de week"

:) :) :*)

Hier vaatwas 2x per dag en wassen dagelijks... 🤔 dan maakt zo'n kaart weinig verschil
Hier net zo 8)7
Al blijft het verbruik van mijn Nas en ubiquiti spul best hoog, zo’n 120w … ik durf haast niet omrekenen wat me dat kost op jaarbasis :|
Hier ook. Heb mijn nas nu snachts uit, en alle ubiquiti spul heb ik inmiddels ook weer uit en gebruik nu weer de wifi van de kpn router.
Heb je een B&B met 4 kamers?
Jij bent zeker ook iemand die zijn koelkastdeur op een kier open laat staan omdat je bang bent, als je de deur dicht doet, dat het lampje blijft branden ....
Ik wel, niet persee vanwege de energierekening, zeker wel vanwege de geproduceerde warmte, dat en de linux drivers waren voor mij reden om een 6600 te kiezen ipv een 3060, deze intel kaart is voor mij dan ook compleet niet boeiend
1 Zonnepaneel en je hebt het verbruik gecompenseerd 8-)
Ik huur en er liggen 10 panelen op het dak. Dat doet een woningbouwvereniging liever om een beter energielabel te verkrijgen dan goed isoleren.
Als je een woning huurt kunnen zonnepanelen ook anders dan 'via aanschaf' en als je een appartement (zonder eigen dak) koopt is het weldegelijk mogelijk zonnepanelen aan te schaffen, het bewijs:

Een groot 5 hoog huizenblok in Amsterdam, met deels koopwoningen en deels huurwoningen (en ja, ook met huur en koop appartementen), heeft nu veel zonnepanelen op het grote gedeelde dak liggen. Dat is tot stand gekomen door samenwerking tussen de (kleine) VvE en de (grootste) woningcorporatie, voor iedereen die mee wilde doen (er was dus ook geen enkele verplichting).
Voor de huurders die meedoen met de (uiteraard hard nodige!) garantie van de woningcorporatie dat het ze niets kost en/of gaat kosten.

Het bovenstaande werd een jaar geleden nog door de meesten die het ter ore kregen met bewoordingen als 'echt compleet onmogelijk' en 'geen schijn van kans' bestempeld! Nu is dat wel anders... ;)
Of juist veel gamen met een van deze kaartjes :+
Ik hoop wel dat ze (door scherpe prijzen) een succes worden. Helemaal niet erg om er een concurrent bij te krijgen in het videokaarten segment.

Ik vraag mij af, zou Intel expres weinig focus hebben gehad op TDP omdat ze niet wilden dat al deze kaartjes bij miners terecht kwamen? Kan me voorstellen dat je met de eerste serie grafische kaarten een goede indruk wil maken op de particuliere markt. Zeker in de krapte die toen (voor de recente crypto winter) heerste op de markt.

[Reactie gewijzigd door AHWolf op 23 juli 2024 06:15]

De goede indruk willen ze inderdaad maken. En dat doe je niet met TDP of TFLOPS, dat doe je door te vergelijken met de gevestigde namen, bij voorkeur met een lage prijs om "bang for buck" recensies te krijgen.
"Bang for buck" was in de afgelopen twee jaar in de praktijk alleen niet relevant. Het was meer "any kind of bang for an outrageous amount of bucks, but hopefully the card gets delivered to your door". Juist door een hoge TDP ben je niet/minder interessant voor de crypto miners en kun je makkelijker een marktaandeel onder gamers bemachtigen, gewoonweg omdat je kaarten beschikbaar zijn in de winkels.

[Reactie gewijzigd door AHWolf op 23 juli 2024 06:15]

Als de vraag tov aanbod enorm verschild dan doen al,die amdere punten geen ruk toe.
Als men laptops opkoopt om gpu kunnen maken zie dat er in de crypte ook wanhoop is een ook te maken hebben met leveringen. Dan doet elke gpu gewoon en de beste kan je vergeten want dan moet je direct bij AIB via vertegenwoordiger de markt kanalen bypassen .

Bij normale vraag en aanbod speeld wat is beste voor welke toepassing.
En met inflatie en energie crisis zal tdp steeds meer grotere rol spelen. Bij keuze welke kaart.
is er al iets verteld over mining-performance? TDP zegt niets... miners kijken eerder naar hash/watt.
Mining is redelijk dood dacht ik, de koers van alle crypto is zwaar gekelderd, dus je moet je stroom gratis krijgen om winst te maken
Wetgeving wordt denk ik ook wel een probleem. In principe kun je een mining-rig op plantaardige olie stoken, ook zonder herrie en uitstoot. Maar is dat legaal?
Geen idee wat de wetgeving rond dieselaggregaten is, kan me niet voorstellen dat je heel snel in de problemen komt, maar of t goedkoper is dan netstroom betwijfel ik, plantaardige olie is ook niet heel goedkoop, en de aanschaf en onderhoud aan je aggregaat wegen ook mee
Ik denk dat dat moment er wel aan zit te komen. Alles aan crypto volgens het gangbare mine-principe loopt vast, en als het verandert in een passief ding vraag ik me af hoe lang het zijn waarde houdt.
is mss nog leuk om je stroomkosten terugverdienen maar dat was t m dan wel weer :P
dat noemen ze overschot aan zonnepanelen in de zomer, en zonder saldering (wat al het geval is in Vlaanderen) doe je best iets met je energie, terugleveren brengt nog minder op.
Fair point, in NL saldeer ik nog gewoon, dus zijn die zonne kwhs net zo duur om op te minen als die uit het net

Daarnaast vind ik minen uit milieu oogpunt ook niet te rechtvaardigen, "gratis" energie of niet
uiteraard is dat voor 't milieu minder zinvol. Ik doe al mijn best om andere zaken op die zonne-kWh te laten draaien, minen is een eventuele bijzaak.

Voor 't milieu kan je tegenwoordig je extra kWh wegschenken/delen in gemeenschap en zoveel meer. Voor 't milieu is terugleveren het beste (minder andere gas/kolen/... energie nodig), hoewel financieel niet zo zinvol.
Ik denk niet dat het maximaal opgenomen vermogen zo heel zwaar hoeft te wegen bij de overweging een kaart wel of niet te kopen. Alleen als je de kaart maximaal belast zal dat vemogen ook daadwerkelijk nodig zijn - moderne kaarten gebruiken zoveel ze nodig hebben, niet zoveel ze kunnen krijgen.
Het gemiddelde gaat er ook wel echt mee omhoog. Ze gebruiken inderdaad maar "zoveel als ze nodig hebben". Als je vsync aan hebt en je scherm doet 120Hz, maar je 4K scene haalt maar 95fps dan blijft de kaart aan 100% belast.

Als je een RTX3090 koopt en dan Unreal Tournament 99 aan 1080p60 medium wil draaien, dan zal die minder gebruiken ja.
Helemaal mee eens. En paar euro besparen door honderden uit te geven lijkt mij sowieso geen beste zet wat sommige hier claimen
Nee en nee en nee. Videokaarten gaan gewoon max tot het gaatje zolang temp / verbruik binnen de grenzen blijft. Alleen als je de load specifiek vastzet (bvb max 120 FPS in een game) is dat anders.
De electriciteit prijs is helemaal niet zoveel gestegen, videokaarten draaien niet op gas, en of een kaart nou 180 of 200 watt verbruikt dat zal je ook niet merken aan je energie rekening, of je moet er tientallen van hebben.
Het was voor de oorlog 22/23 cent, het is nu (bij Vattenfall) 64 cent.

Hoezo niet zoveel gestegen?

https://www.vattenfall.nl/producten/energie/bestellen/

[Reactie gewijzigd door White Feather op 23 juli 2024 06:15]

Ik betaal 33 cent bij Delta energie, dat is inclusief belastingen.

Edit: Ik betaal 34 cent, net opgezocht:
Leveringsprijzen per 1 juli 2022:
DELTA Groene Stroom variabel
Vaste leveringskosten per maand
€ 5,40 € 5,40
Prijs per kWh
Enkeltarief
€ 0,34233

[Reactie gewijzigd door Vlizzjeffrey op 23 juli 2024 06:15]

Ja, je hebt helemaal gelijk want dit gaat maar over het netstroom, terwijl het gas in waarde is gestegen.
Ik betaal nu al 3 a 4 keer zoveel aan de gasrekening (20 kubieke M, en dat kost al 38 euro), en mijn stroomrekening (234KwH) is zo`n 8 euro per maand.
Ik denk dat men `t hier meer heeft over de dure zonne-energie panelen dan het normale stroom die uit de kast wegkomt.
GAS is duurder geworden, niet het STROOM!!!............. :'( :'(
Dat zijn de normale tarieven voor bestaande klanten ook bij vattenfall. Degene die een nieuw contract afsluiten betalen hogere prijzen, dus ook de mensen die het tarief vast hadden staan voor jaren.

Dan blijkt dat dus toch niet zo voordelig te zijn als je nu in een keer het dubbele tarief moet betalen.
Ik heb altijd vast tarief gehad, niet variabel. Dit is de prijs voor vast tarief bij Delta ( 34 cent)
Ik zou jezelf maar erg gelukkig prijzen met die bedragen. Ik betaal ook zo ongeveer 0,47e per kwh

[Reactie gewijzigd door klakkie.57th op 23 juli 2024 06:15]

Ik wist niet dat dat zoveel kon schelen per aanbieder.
edit; Foutje, link werkt niet, bij mijn andere comment geplaatst.

[Reactie gewijzigd door GameNympho op 23 juli 2024 06:15]

Verbruik boeit de gemiddelde gamer echt geen hol. Het belangrijkste aan verbruik is wat voor voeding je nodig hebt voor je pc en daar houdt het op. Op het forum zie ik echt nooit iemand die bewust low end onderdelen neemt om op de elektriciteit te besparen.

En dan komen er nu 3 mensen "MAAR IK WEL!!!" Oke, daar is niets mis mee, maar n=1 of naja, 3. En op het forum is het n=groot.

Voor 99% van de pc markt is het fps per euro en niks anders

Je vergelijkt overigens de TDP specs van meerdere GPU vendors en dit is geen valide vergelijking. De TDP's van AMD en Nvidia worden op compleet andere wijze gemeten/berekend dus de waardes vergelijken met die van intel heeft geen zin. Het kan zomaar dat intels kaarten in benchmark tests gewoon minder trekken uit de muur

[Reactie gewijzigd door youridv1 op 23 juli 2024 06:15]

Uiteindelijk is het verschil tussen de A770 en een 3060 Ti maar 25W. Gok dat, afhankelijk van de prestaties van de A770 misschien, best wel eens flink kunnen gaan concurreren.
Die A380 zou nog wel eens zeer interessant kunnen worden voor videobewerking. Betaalbaar, laag verbruik, geen externe power connectors nodig, en het belangrijkst: De Intel Arc graphics ondersteunen hardwarematige AV1 decodering én encodering. FFmpeg en Handbrake hebben al ondersteuning toegevoegd.

Zie ook

[Reactie gewijzigd door Balance op 23 juli 2024 06:15]

Ware het niet dat encoding support meestal de focus heeft op snelheid en niet op kwaliteit. Zeer interessant voor streamers maar minder als het gaat om de combinatie goede beeldkwaliteit en kleine bestanden..
Mensen die echt met kwaliteit in het achterhoofd encoden doen dat in software op de cpu zoals met x264 en x265 of libaom.

Edit: efficiëntie is een betere term dan kwaliteit wat ik neer had gezet

[Reactie gewijzigd door GrandDynamo op 23 juli 2024 06:15]

Laag verbruik is niet echt als pluspunt te noemen aangezien de kaarten minder energie efficient zijn dan de concurrentie.
Maar als de encoding tijd aanzienlijk wordt verkort. Of de kwaliteit stuk hoger is dan al die andere gpgpu encoders.
Hardware encoding is fixed , kan zijn dat veel flexibel cpu encoding er betere kwaliteit van maakt maar er uiteraard veel langer over doet.
aangezien de kaarten minder energie efficient zijn dan de concurrentie.
Ik heb nog niet veel benchmarks gezien van QSV vs NVENC, dus imo valt er op dat gebied nog niet veel te zeggen over de efficientie.
er zat toch een extra connector op als ik mij de vorige berichten goed herinner
Bij één specifieke kaart van Gunnir ja. Dat mogen boardpartners gewoon doen. Ik zou 1 kaart voor de chinese markt niet als gemiddeld beschouwen voor wat we hier gaan zien
khad er maar 1 gezien :P
Prijzen zijn goed. Nu nog goede drivers en we hebben een extra concurent op de GPU markt
Met MS met Windows zal het wel lukken.
Als de Linux Community er ook in duikt zou het zeker een aanvulling/concurrent voor foto-video bewerking kunnen zijn.
Dat zijn de MSRP prijzen, gooi daar in de huidige markt nog maar 200-300 euro bovenop.
Dat is inniddels niet meer zo, gelukkig.
Wat is nu op dit moment de krachtigste GPU met slechts maximaal 75 Watt verbruik (dus een videokaart zonder extra connector, enkel stroom via de PCI-E bus) ?
$400 tot $499 voor een 3070/6750 and above, da's wel zielig te noemen en het zonlicht ontkennen omdat hun topmodel 3 volledige reeksen onder de topmodellen van de concurrentie presteert. Ik denk dat we met z'n allen zouden staan aanschuiven als een graka max $499 kost :9~ :/
Ja het marketing team pakt het slim aan. Snap niet waarom je geen + vote krijgt.
da's voer voor de frontpagemods
Zoals je zelf al zegt: er zijn maar weinig mensen die $500 of meer willen betalen, dus waarom zou Intel nog een A9xx serie erboven positioneren? Dat deel van de markt heeft geen ruimte voor 3 spelers.
moesten ze het kunnen zouden ze het doen, maar performance-wise kunnen ze gewoon niet mee, om dan die segmenten gewoon dood te zwijgen en te doen alsof ze in het 2e hoogste segment een kaart hebben is gewoon consumentenbedrog
Dus de A780 is nu officieel dood? Die zat nog boven de 770 eigenlijk.
Misschien de tweet van intel gemist, de A780 heeft nooit bestaan en komt er ook niet en was alleen maar een gerucht.
Het Intel marketing team weet er wel een mooie draai aan te geven. Een 3060 schaar ik maximaal onder mainstream. 3070 en hoger & 6750 en hoger zijn voor de enthousiasten, dat is meer dan de halve line-up voor beide :+

Ben benieuwd naar de benchmarks wanneer ze uit komen en wat nog de haken en ogen zijn.
Opnieuw vele vergelijkingen en comments over de TDP. TDP is niet onderling vergelijkbaar tussen vendors, zelfs niet op dezelfde slide! Iedereen meet het anders daar dit geen standaard of wiskundige formule is, maar eerder een soort van concept/principe. Dus trek aub geen conclusies op basis van een slide en TDP specs.
Helaas voor jou. We hebben het hier over GPU's op PCIe kaarten. Die worden gevoed door standaard connectoren, mer hard begrensde vermogens. Een 75W TDP is kenmerkend voor een GPU kaart die alleen via de connector gevoed wordt. Dat is dezelfde 75W voor alle makers.
Ik zou je adviseren om wat research te doen vooraleer je zulke comments plaatst.

Je verward de specs van de PCIe bus en connectoren met iets wat hier compleet los van staat. TDP gaat over de thermal enveloppe en hoeveel warmte de chip, of het geheel aan componenten bij sommige vendoren, afvoert. Dit heeft absoluut niks met de connectoren of de bus te maken. Het is niet omdat een kaart bijvoorbeeld 2 8 pin connectoren heeft dat het verbruik ook weldegelijk de som van de max output volgens de spec van deze connectoren is...

Jammer genoeg is TDP gebruikt in de voorbije 20 jaar om zaken als stroomverbruik etc te gaan adviseren, wat verkeerd is. Voorbeeld: een Ryzen 7 5700G heeft een TDP van 65W. Ik kan je garanderen dat je verbruik 2-3x hoger ligt in normale omstandigheden.
nog steeds geen cijfers voor lightroom/photoshop?
Gamers Nexus heeft een review gepost van de ARC 380 kaart en daar zie je dat deze kaart op dit moment niet echt kan concurreren tegen de GTX 1650. Tegen de RX 6400 komt ie al beter uit de verf. Wel zijn er nog allerlei problemen die Intel zal moeten oplossen in nieuwere drivers, zoals lag spikes (vooral als Resizable BAR geen optie voor je is) en andere frame time issues.

https://www.youtube.com/watch?v=La-dcK4h4ZU

Op dit item kan niet meer gereageerd worden.