Intel verhelpt hoog idle verbruik van Arc-gpu's met twee monitoren

Intel heeft naar eigen zeggen het probleem met een hoog energiegebruik bij zijn Arc-gpu's in combinatie met verschillende monitoren weten te verhelpen. Onder de juiste omstandigheden gaat dat verbruik van ongeveer 40 naar ongeveer 9 watt, meldt een gebruiker.

Dat meldt Intel op GitHub. Driverversie 31.0.101.4146 heeft de fix voor de kwestie. Wel geeft Intel bepaalde richtlijnen mee om de verbeteringen te bewerkstelligen, die vooral te maken hebben met de power management-instellingen. Een reageerder op GitHub meldt dat het verbruik gaat van maximaal 40 naar maximaal 9 watt. Ook het idle verbruik met een enkele monitor is iets gedaald: van 11 naar 7 à 8 watt.

De Intel-medewerker op GitHub wil de verwachtingen nog wel enigszins temperen. Als gebruikers drie of vier displays aan hun Arc-gpu hebben hangen, kunnen de videokaarten nog steeds niet in de benodigde lagere power state gaan om de besparingen te bewerkstelligen.

Uit Tweakers-tests bleek ook dat het Intel-verbruik op hetzelfde niveau zit als bij de grootste gpu's van AMD en Nvidia, zoals de 7900 XTX en RTX 4090, met drie tot vier keer zoveel transistors. Dat zijn niet de enige kinderziektes die Intels videokaarten hebben. Ook op het gebied van 3d-prestaties zijn her en der nog winsten te behalen, blijkt uit benchmarks waarin de launchdrivers en nieuwere uitgaven zijn vergeleken.

Intel Arc A770

Door Mark Hendrikman

Redacteur

06-03-2023 • 09:55

50

Reacties (50)

50
49
30
2
0
12
Wijzig sortering
Toch stoer van Intel om videokaarten uit te geven (waarbij drivers en software de uitdaging zijn). Dit zullen de leermomenten zijn en ze hopelijk bij de volgende generaties wel harde concurrentie voor Nvidia en AMD kunnen zijn.
Dit is niet de eerste keer dat Intel videokaarten probeert uit te brengen, tevens hebben ze al jaren ervaring met drivers door hun onboard GPU's..

Met die gedachte in het achterhoofd heb ik maar weinig vertrouwen in Intel dat ze dit kunnen
Natuurlijk hoop ik wel dat wat gaat worden, een 3e speler op GPU gebied zou niet verkeerd zijn
Ik denk dat Intels problemen duidelijk aantonen dat ervaring hebben in integrated graphics helemaal niet vertaalt naar ervaring met volwaardige GPUs, evenmin als dat voor AMD geld.
AMD heeft gewoon ATI overgekocht, die al jaar en dag dedicated GPUs maakten?

AMD heeft het omgekeerde verwezenlijkt: dedicated (ATI) GPU technologie geintegreerd in hun APU's.
Dat is mooi, maar dat zegt verder niks over het driver verhaal. Want dat is bijkans hetzelfde als met Intel.
Ceo pat galsinger heeft eerder in interviews precies dat gezegd. Ze dachten dat drivers makkelijk waren want hun igpu drivers zijn gewoon ok. Upscalen naar sterkere gpus werkte helemaal niet en dus staan de arc drivers in de kinderschoenen.

Gelukkig lijkt een arc gpu een steeds betere aankoop. Op dit moment had ik het aangedurfd een a750 voor een low to mid end gaming pc te gebruiken.
Drivers gemakkelijk? AMD heeft *jaren* nodig gehad om hun achterstand op Nvidia in te lopen.
Dit is niet de eerste keer dat Intel videokaarten probeert uit te brengen, tevens hebben ze al jaren ervaring met drivers door hun onboard GPU's..
Bij de GMA/HD Graphics-drivers waren spelprestaties naar mijn idee nooit de focus, eerder stabiliteit. De Nvidia/ATI/AMD drivers hangen vol met hacks voor het verbeteren van prestaties en het oplossen van bugs voor specifieke games die niet-standaard gedrag vertonen. Eigenlijk zit er ook weer niet zoveel verschil tussen console-emulatie en GPU-drivers schrijven.
Dit is niet de eerste keer dat Intel videokaarten probeert uit te brengen, tevens hebben ze al jaren ervaring met drivers door hun onboard GPU's..
Het argument van de onboard GPU's wordt telkens weer aangehaald... Die dingen hebben een compleet andere architectuur en compleet andere verwachtingen bij de gebruiker. Niemand weet of de performance van die drivers ook niet gewoon zo slecht was in bepaalde API's (zoals Arc had) want niemand benchmarkt dat ooit. Het zijn nooit losstaande producten geweest met een los prijskaartje. De beste vergelijking die ooit is gemaakt is tegenover AMD's APU's in het verleden, maar die zitten in een compleet ander segment en gebruiken bovendien een op dGPU gebaseerde architectuur, dus dat is lastig vergelijken.

Dat intels on board GPU's heel stabiel zijn, wil niet zeggen dat de drivers beter geoptimaliseerd waren voor 3D games dan die van Arc nu zijn of bij launch waren. Ze werkten goed voor 2D werk en wat photoshop en quicksync in video editting.

het wordt een beetje lastig om de gaming performance van een igpu goed te benchmarken als hij eigenlijk gewoon unusable is in alle nieuwe games met zwaardere graphics dan vanilla minecraft. Je hebt geen maatstaf.

TL;DR, ik denk dat intel vrij weinig heeft aan hun iGPU ervaring

[Reactie gewijzigd door youridv1 op 1 augustus 2024 14:39]

Nu AMD nog… 8)7

Intel is wel goed bezig qua drivers & updates!
Het is een voorbeschouwing en dus nog niet effectief door testen bewezen maar is in ieder geval weer een verbetering.

ivm AMD moet je ook die artikels wel lezen en in je geheugen steken waar er sprake is van verbeteringen... ipv altijd te blijven bashen.

https://videocardz.com/ne...tion-in-fps-limited-games

https://www.techpowerup.c...6000-series-since-48-days

zo heel goed gaat het trouwens duidelijk niet met hun GPU verwachtingen als je het nieuws verneemt dat ze hun server GPU uitstellen:
https://www.anandtech.com...-be-falcon-shores-in-2025

[Reactie gewijzigd door d3x op 1 augustus 2024 14:39]

Het kan zijn dat er sprake is van verbetering maar het idle verbruik van mijn RX5600XT blijft een stuk hoger bij het gebruik van twee schermen dan bij het gebruik van één scherm omdat het geheugen dan niet meer naar een lagere snelheid terugklokt. Wellicht zijn er technische beperkingen die ervoor zorgen dat het geheugen niet (eenvoudig) kan terugklokken want anders had men dit al lang geleden opgelost.
als je 2 schermen op eenzelfde refresh rate hebt is het probleem opgelost. En dan spreek ik uit eigen ervaring met een 6800XT. Had ook dat probleem met een 60hz en 144hz monitir, vervangen naar 2 identieke 144hz en voila, lage idle.

[Reactie gewijzigd door d3x op 1 augustus 2024 14:39]

Ja want een nieuw scherm kopen is de juiste oplossing voor een driver issue...

Als iemand op het 2de scherm alleen maar data afleest of een browser venster open heeft heb je daar geen 144hz voor nodig. Het heeft gewoon te werken tenzij duidelijk vermeld dat het niet werkt of met dus verhoogde power draw.

Helaas is energieverbruik lang genegeerd door alle 3 de partijen en nu de prijzen torenhoog zijn worden ze daar dubbel op gewezen. Zowel idle als loads dienen een zo laag mogelijk verbruik te hebben omdat dat over de levensduur van invloed is op de totaal prijs.
Energie verbruik is niet overal in de wereld een issue. In Amerika kan je nog stroom halen voor $0.125kwh. Dan is het een veel kleiner probleem. source: https://www.bls.gov/regio...s_selectedareas_table.htm

Edit: wil niet zeggen dat ik er zelf niet mee bezig ben. Ben op mijn server naar Linux gewisseld (met veel pijn) om te zorgen dat de HDDs uitblijven. Je kan altijd de performance beperken voor betere efficiëntie.

[Reactie gewijzigd door vanthome op 1 augustus 2024 14:39]

Ja dat HDD probleem ken ik maar al te goed @ radom gaan mijn 4 backup 4tb drives aan om vervolgens helemaal niets boeiends te doen. Heb echt alles geprobeerd om dit gedrag te stippen. kan niet goed zijn voor je drives dat ze 50x per dag opspinnen

En idd een vriend daar betaald 11.5 cent per kWh. Had zonnepanelen voor hem berekend maar dat was gewoon 16 jaar terugverdientijd.
Wat voor mij hielp in Linux was voor elke schijf SMART uitzetten. Moet nog wel iets zoeken zoals StableBit Scanner en een goede oplossing voor BackBlaze maar het werkt wel. Ook al betaal ik zelf de stroom niet (thuiswonend), maar vind het wel zo netjes. Ook heb ik een klein programmaatje gemaakt die symbolic links van alles maakt in een dir. Dit lijkt ook te helpen tegen sonarr/radarr scans.
Interessant, vanavond even kijken of ik dat in Windows kan regelen en wat de potentiële nadelen zijn. Het gaat mij bijnde schijven niet perse om het stroomverbruik maar meer om de levensduur vannde schrijven. Ik heb de afgelopen jaten echt 80% van mijn schijven kwijtgeraakt. Het voelt dus gewot niet prettig dat continu de schijf aangaat.
Als ik bij bron controle kjjk zie ik ook niet meer als een read van de $MFT.
In windows 7 nooit last van gehad.
Je kan natuurlijk ook de moeite nemen om beide bij normaal gebruik op 60 Hz te laten draaien. Ja, da's niet optimaal, maar...
Ook daar moet ik NOPE tegen zeggen. Het hoort gewoon te werken met variabele refresh rates.

Als je beide op 60 laat werken of in mijn geval 75 moet je iedere keer als je gaat gamen of stopt met gamen weer schakelen. Absurd dat dat nodig zal zijn. En dan weten we niet eens wat de piwer draw verschillen zijn bij lichte games vkan maar zo dat het dan ook hoger is als met een enkel scherm.
Een fix kan dus zijn dat dit geforceerd wordt bij iedereen, wanneer dit mogelijk is. Je hoeft immers niet per se meerdere monitoren aangesloten te hebben die beiden 144Hz kunnen weergeven.
Mijn 7900XTX verbruikt gewoon veel meer stroom met een 2de monitor aangesloten..

Dus genoeg reden om AMD even te noemen ;)
zie mijn opmerking hierboven.....
zie mijn opmerking hierboven.....
Mijn primaire scherm is een 48” OLED en ik heb er een 15,6” naast voor Discord enzo. Allebei op 60Hz draaien is voor mij geen oplossing.
Die 15,6" maar vervangen door een 48” OLED dus ;)
Ik hoop, 'for the sake of competition', dat zij doorgaan en dit niet opgeven. Het is jammer dat wij maar twee kampen hebben om uit te kiezen. Nu met Intel erbij gaan wij naar 3 en ik hoop oprecht dat zij mee kunnen gaan met de concurrentie.
Meh, ik denk dat Intel momenteel erg sterk bezig is. Intel is gigantisch dus ze kunnen wel wat permitteren om wat steken te vallen aan het begin. Kijkende naar de updates, doen ze dat wel prima. Het is maar te beleven of ze die kosten gaan opmaken in de volgende gen GPU's.
Zolang Intel blijft ontwikkelen, dat is de sleutel. Ze hebben inderdaad een lange adem, maar na de mislukte i740 videokaart zijn ze er ook voor 20 jaar uit gestapt. Ik hoop zelf ook dat ze die lange adem kunnen vasthouden en doorgaan met de ontwikkeling.

Wat na een mislukking nodig is, is dat de bekende websites (waaronder Tweakers) blijven testen en aangeven waar de sterke en minder sterke kanten zitten. En zo de gebruikers waar beter weten te spreiden.
Ze zijn tussendoor nog een beetje half ingestapt met Larrabee.
Wat na een mislukking nodig is, is dat de bekende websites (waaronder Tweakers) blijven testen en aangeven waar de sterke en minder sterke kanten zitten. En zo de gebruikers waar beter weten te spreiden.
Wat ook helpt is dat Intel eerlijk is over de huidige staat van het product en de drivers. Dat schept vertrouwen.
Intel is gigantisch dus ze kunnen wel wat permitteren om wat steken te vallen aan het begin.
Die steken hebben ze de afgelopen jaren lang al laten vallen, inmiddels is hun stock price meer dan gehalveerd, en hun market cap inmiddels lager dan die van AMD, het bedrijf dat 10 jaar geleden nog afgeschreven werd als 'op de rand van failliet'.

Begrijp me niet verkeerd, ik hoop (en denk) dat Intel wel zal doorzetten met hun GPU plannen, het zou een extreme vorm van kapitaal vernietiging zijn als ze het niet deden en waarschijnlijk hebben ze weinig andere keus om te diversificeren nu ze het op alle andere fronten (CPU, proces technologie) zo lastig hebben. Het tijdperk 'Intel is gigantisch' en 'Intel kan zich wel permitteren om wat steken te laten vallen' is echt al wel een tijdje voorbij.
Intel is nog steeds gigantisch, ook al zouden financieel minder draaien of zelfs op de afgrond staan. Dit staat even los van hoe fantastisch AMD fungeert in de CPU markt. ;)

Met steken vallen bedoel ik enkel de eerste gen aan ARK GPU's.
Laten we hopen dat Intel R&D genoeg tijd krijgt van Intel marketing & sales en Intel shareholders om de Arc GPU's een succes te maken. Ik denk dat alles tot nu to redelijk 'volgens verwachtingen' gaat wat technologie betreft, niemand had daadwerkelijk gedacht dat de 1e generatie Arc meteen al een serieuze concurrent voor de high-end van NVidia en AMD zou worden, dus wat dat betreft zullen ze zich nog niet heel veel zorgen maken. Maar ze zullen wel echt flinke stappen moeten zetten voor Gen2, en dan zal er ook echt $$$ mee verdiend moeten worden, anders gaat de hele GPU tak zo weer op het hakblok vrees ik.

Om de Intel GPU's een succes te maken denk ik trouwens dat ze zich niet primair op de game markt moeten richten, tenzij Intel denkt bijvoorbeeld de volgende generatie consoles van AMD af te kunnen pakken (onwaarschijnlijk). Het grote geld zal hem zitten in server toepassingen, dat is waar de grote marges zitten.

[Reactie gewijzigd door johnbetonschaar op 1 augustus 2024 14:39]

Eens. Naar mijn weten zou momenteel Intel vooral moeten focussen welke GPU gebruikt wordt en daarop inspelen: https://store.steampowered.com/hwsurvey/videocard/
Ik hoop voor de markt dat ze nu wel er voor zorgen dat de losse videokaarten op alle andere chipsets ook werken. De fameuse i740 van 20 jaar terug wilde niet goed werken op andere chipsets.
Op zich fijn, niet dat ik hier bewust erg veel van merk!

Vraag mij af of dit ook de 50c idle die de kaart draait verhelpt. Wordt onder load nooit echt veel warmer dan 70c maar vond dat wel vrij apart. Vanavond eens kijken.

Edit : betreft een a770 voor de duidelijkheid.
Edit2: Voor de geinterreseerde, het heeft inderdaad geholpen! Idle nu nog 26c met twee monitoren. :)

[Reactie gewijzigd door Garfrost op 1 augustus 2024 14:39]

Jammer nog van de buggy launch, maar knap dat ze dit gewoon doen en doorzetten. :)
Het is toch lastig met die dingen. Veel interessantere, zelfs high-end, laptops worden nu aangeboden met een ARC A370M. Blijft een risico om te kopen. Voor mij valt dat een beetje in het rijtje van de Kaby Lake G opzet. Fantastisch idee, briljante hardware maar in de steek gelaten door iedereen die er hardware mee uitbracht.
Ze zijn lekker bezig en lossen problemen op die AMD en ook Nvidia nog steeds niet opgelost hebben. Maar de realiteit is dat ze nog een lange weg te gaan hebben.
De lijst met problemen is nog lang en de software moet nog compleet vervangen worden. En dan is er nog de prestaties. Ik shop alleen higher end komende 2 a 3 generaties lijken niet in dat segment te gaan komen en dus totaal niet boeiend.
En tot nu toe is XEss ook een drama ala dlss 1 wat nog een hoop tweaks nodig heeft.
Mooi dat Intel dit claimt, maar het probleem is helemaal niet verholpen.
Ik vroeg me al af waarom mijn laptop altijd zo hard aan het blazen is wanneer mijn 2e monitor is aangesloten.. Deze maar even proberen
Volgens mij is dit alleen voor desktop kaarten
De ARC kaarten zijn nu inmiddels echt al hele goede alternatieven voor de Nvidia/AMD kaarten in deze klasse. De volgende generatie zal zeker nog een enorme stap vooruit zijn zodat ze gewoon mee kunnen met Nvidia/AMD waardoor we echt een 3e keuze hebben in hopelijk ook het hogere segment (alhoewel ik dat wel betwijfel).
Maar ze hebben nog wel ff hard door te werken aan de huidige drivers, want er valt toch nog wel wat te fixen, maargoed, de drivers van AMD/Nvidia zijn ook niet altijd je van het. Hopelijk dat ze snel nog de problemen met SteamVR oplossen zodat het ook daarvoor een alternatief is tegenover de RTX3060(ti), maar zoals ik begrijp ligt dat, helaas, nog niet in de planning.

Op dit item kan niet meer gereageerd worden.