Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel toont gpu-software die instellingen van games automatisch optimaliseert

Intel werkt aan een nieuwe interface voor zijn grafische drivers. In een teaser valt te zien dat de software van Intel straks geïnstalleerde games kan detecteren en de grafische instellingen ervan automatisch kan aanpassen, op basis van een voorkeur voor kwaliteit of prestaties.

De functionaliteiten zijn bekend van Nvidia en AMD, die hetzelfde aanbieden in hun driverpakketten. Deze zijn vooral behulpzaam voor gebruikers die individuele grafische instellingen in games niet kunnen of willen afstemmen op hun wensen en liever aan de gang gaan met een slider met 'kwaliteit' aan de ene en 'prestaties' aan de andere kant. Intel geeft nog geen releasedatum voor de vernieuwde software.

Phoronix schrijft verder dat Intel ondersteuning voor de grafische chips in de aankomende Comet Lake-cpu's heeft uitgebracht voor Linux. De grafische chips verschillen volgens de site niet veel van de bestaande chips in Kaby- en Coffee Lake-processoren, maar de toevoeging is alsnog belangrijk om te verzekeren dat de gpu's werken op Linux.

Door Mark Hendrikman

Nieuwsposter

14-03-2019 • 11:47

51 Linkedin Google+

Reacties (51)

Wijzig sortering
Het automatisch bijstellen van instellingen heeft bij mij nog nooit tot een goede stabiele framerate geleidt, ik moet altijd handmatig bijstellen...
Soms kan het wel tot een redelijke basis leiden om vanaf bij te stellen. In de zin van, het is makkelijk om vanaf de 'geoptimaliseerde' instelling goede settings te vinden dan vanaf de defaults of presets.
Forza Horizon 4 doet dit echter verassend goed op PC.

De technologie wordt ook veel toegepast op consoles.

[Reactie gewijzigd door Gamebuster op 14 maart 2019 12:18]

Voir fh4 vind ik het standaard best goed, maar Nvidia GeForce doet het net een tikkeltje beter. Nu het ombetante is wel na iedere gpu driver update doet hij heel die analyse opnieuw.
Geforce now is ook niet alles. Heb in een van mijn pc's een 780ti zitten. bv bij star wars battlefront 2 stelde hij de settings op laagste en resolutie lager als 1080p en hij kon dit op medium-high 1080 p aan
Ja dat beweert ik nu ook niet, heb het puur over fh4. GeForce is handig om ergens een basislijn te zetten en dan zelf verder te kijken.
Op consoles heb je niet veel aan te passen he? Altijd maar een paar verschillende configuraties. Als je gevraagd word om te kiezen voor performance of kwaliteit is dat gewoon een preset. Niets automatisch aanpassen dus.
Ik denk dat de technologie bij consoles waar jij het over hebt een significant andere is dan de technologie die hier besproken word.

Consoles hebben identieke hardware binnen dezelfde groep (PS4 is een PS4, zonder variatie behalve tussen de pro en reguliere versie).

Je zou nog kunnen stellen dat sommige games gebruik maken van technologieën die on-the-fly de grafische kwaliteit van het spel aanpassen terwijl je speelt om bijvoorbeeld 30 of 60 fps aan te houden, ten kostte van bijvoorbeeld texture resoluties, uit mijn hoofd doen sommige HALO games dit.

Afgezien van dit worden games voor consoles geoptimaliseerd aan de tekentafel, zonder dat de console autonoom na de release nog gaat kijken "welke instellingen passen bij deze console en game combinatie?"
Een stabiele framerate hangt ook van de game zelf af. Hoe de verschillen tussen scenes zijn. De ene view is simpel en render je met een hoge framerate, een complexe view zal minder snel renderen.

Als je meer stabiel wilt, kun je in een aantal games een maximum framerate zetten.
Het gebruiken van intel hun integrated GPU heeft bij mij nog nooit tot een goede stabiele framerate geleidt, ik moet altijd mijn AMD of Nvidia GPU gebruiken ....
En wat hebben we hier precies aan? Je kan niet eens een fatsoenlijke game spelen op die intergrated GPU’s van intel.

Wie speelt er nou bijvoorbeeld PUBG of COD op zijn intel CPU/GPU?

Of is dit een kleine hint voor hun eigen dedicated GPU? :*) :*) :*)

[Reactie gewijzigd door jordynegen11 op 14 maart 2019 11:54]

Tijd geleden was er volgens mij nieuws dat Intel inderdaad dGPU's wilt gaan maken. Gaat interessant worden! :D
Waarom ... we hebben het al eens meegemaakt met de i740. En dat liep rampzalig af.
Zwaar ondermaatse prestaties, slechte drivers die ook niet geport werden naar windows 2k waardoor je zat met vesa graphics op je 2 jaar oude kaartje, etc ...
Ondertussen hebben ze wel wat GPU volk in dienst genomen en zijn er al wat jaren verstreken. Zou wat zijn als je maar moet stoppen met iets omdat je eerste poging niet goed ging...
Door een flop uit 1998 met een kaartje van $34.50 mag Intel in 2019 geen videokaart meer maken? Jeetje...

Doel van het ding was overigens AGP in plaats van PCI populair maken. Maar dat ging mis:
The AGP Texture concept soon proved to be a tremendous error in design, because the card had to constantly access the textures over a channel that was upwards of eight times slower than RAM placed on the graphics card itself. Although AGP did indeed improve performance of moving geometry, this was wiped away by the growing use of textures, which were much larger. In real-world use it proved to be much slower than existing solutions like the Voodoo2, and was only able to hold its own with slower 2D/3D cards like the Nvidia RIVA 128. The release of the Nvidia RIVA TNT removed even that advantage. By the end of the year it went largely unmentioned in benchmarks against newer 3D products, already forgotten.
In August 1999, after less than 18 months on the market, Intel withdrew the i740 from the market.

[Reactie gewijzigd door sdk1985 op 14 maart 2019 22:56]

Door een flop uit 1998 met een kaartje van $34.50 mag Intel in 2019 geen videokaart meer maken? Jeetje...
Dat is niet wat de consument betaalde voor die kaart, dat was de prijs van de chip voor de kaartbakker. En het is ook niet zo dat ze er volledig mee gestopt waren nadien. Ze kwamen nog met opvolgers eerst op de chipset van het moederbord en daarna als igpu. En dat ze met zo'n kut kaart afkomen om die AGP kaart te promoten das toch ontzettend dom niet ? Ik vrees dat ze weer eens gaan
proberen om een markt op te schudden om ze dan weer snel te verlaten.
Games als Fortnite en Apex zijn nog redelijk te spelen op een integrated graphics card, net als Minecraft. Voor deze games op deze platforms met deze processors lijkt me dit wel een goede toevoeging, om de toch al minimale prestaties van on-board graphics nog iets te kunnen boosten!
Niet iedereen is natuurlijk een Tweaker die zijn eigen PC bouwt of laptop optimaliseert, er zijn genoeg mensen die op 'oude meuk' toch een spelletje willen spelen.
Juist met oude meuk en met goedkope hardware kun je veel bereiken door het te tweaken, dat moet ook wel want anders is dat spul vaak niet vooruit te branden.
Kennelijk kan je met een Intel HD 620 goed gamen.
En ik gebruik als voorbeeld League Of Legends.
In League of Legends you can max out all graphics settings on Full HD 1920×1080 resolution and still get flawless gameplay rendering with frame rates of around 75 fps, even in busy scenes. Therefore, the Intel HD 620 is an excellent solution for LoL.
https://laptoping.com/gpu...-u-series-kaby-lake-cpus/
DOTA 2 is a similar, but more hardware-demanding MMORPG game title. You’ll have excellent frame rates if you use a low resolution like 1280-by-720 pixels and low (“Fastest”) settings – mostly between 60 and 80 fps. Optionally, you can increase detail settings a notch and still have playable DOTA 2. Our test with that settings shows fps values of around 25 – 35. The good news is that increasing resolution to Full HD 1920×1080 while keeping everything else the same only slightly decreases smoothness.
Zelfde bron.

En volgens Notebookcheck.net....
the HD620 should be positioned between a GeForce 910M and 920M from Nvidia. For games, the drivers however are not that fast updated and tested as with GeForce graphics cards.
https://www.notebookcheck...raphics-620.172256.0.html
En de HD620 is dan nog de iGPU in notebookchips, deze drivers zijn niet enkel voor low-power chips als dat. Je hebt de HD630 op de desktop chips die daarbovenop wat sneller is (evenveel execution units, maar hogere klok) en daarboven heb je nog de Iris Plus 655 met 2x zoveel execution units.

(uiteraard is dit niet te vergelijken met grote stroomvretende losse GPU's.
COD? Ja, Battlefield ook. Ik speel soms oudere games op mijn laptopje met Intel HD: CoD Modern Warfare 2, BF Bad Company 2. Jammer is dat als je voor recommended kiest, er vrijwel altijd gekozen wordt voor lage resolutie. Ik zelf zet de resolutie altijd op native 1920x1080 en dan kijken hoe ik het er mooi uit kan laten zien en toch nog speelbare 30+ fps te hebben.
We hebben het dan natuurlijk wel over “oude” games. En dan nog de vraag of intel juist die games zal ondersteunen voor deze “tool”.

Ook zeker op PC vind ik 60 fps toch wel de grens van speelbaar. Maargoed ik zal misschien verwend zijn 8)7
Ik denk dat je gelijk hebt, dat voor oude games Intel niet eens de moeite zal doen te zoeken naar optimale instellingen. Maar verwend ben je, als je nieuwe games op 60 fps kunt spelen, voor een dermate krachtige gpu heb ik het budget niet, in elk geval niet op het moment van aanschaf van een desktop. Wie weet later wel, bij een upgrade-moment dat er niets anders hoeft gekocht.
Dan erbij komt erbij dat sommige oudere games gelocked zijn op 30fps, zonder dat je er wat aan kan doen. Of als we kijken naar oudere gta's zoals Vice City en San Andreas heb je de frame limiter.. als je die uit zet heb je wel hoge framerates, maar als je missies speelt is dit niet tof want krijg je een soort van glitches die je niet hebt als je frame limiter aan zet.. Maar mijn persoonlijke mening. na verloop van tijd raak je ook gewend aan 30fps en dan is het niet meer zo hinderlijk.
Intel komt met een eigen dGPU. Dat is geen geheim.

https://www.anandtech.com...discrete-gpu-set-for-2020
https://newsroom.intel.co.../raja-koduri-joins-intel/
... will expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions for a broad range of computing segments.

[Reactie gewijzigd door Gamebuster op 14 maart 2019 12:20]

Er zijn behoorlijk veel mensen die graag nog hun oudere games spelen op een 'crappy' iGPU.

Ik speel zelf nog met regelmaat wat oude spellen op mijn enige computer (een laptop met alleen een iGPU). En recentelijk heb ik een 144Hz monitor gekocht, omdat mijn oude kapot is gegaan. Aangesloten via hdmi en hij toont 120Hz in 1080p (nog te lui geweest om uit te zoeken hoe ik 144Hz tevoorschijn kan toveren, maar is wel mogelijk). Op de eerste dag begon hij ingame wel behoorlijk te screentearen, maar na verloop van tijd werd dat steeds minder en minder. Ik vraag mij nog steeds af hoe dat kan dat het nagenoeg verdwenen is. Automatisch door Windows 10 ofzo?

Anyway het is top dat Intel dit doet en ben ook benieuwd of deze software hier ook nog een steentje aan kan bijdragen.
En wat hebben we hier precies aan? Je kan niet eens een fatsoenlijke game spelen op die intergrated GPU’s van intel.

Wie speelt er nou bijvoorbeeld PUBG of COD op zijn intel CPU/GPU?
Simpel: Hun tool zal alles op very low zetten en resolutie terugschroeven. :P

Een paar mensen die zelf er niet veel mee kunnen, gaan er mee geholpen worden. Maar het is vooral belangrijk omdat het bevestigd dat Intel GPU development serieus begint te nemen. Ze zouden deze moeite niet doen als ze niet echt zelf discrete GPU's gaan maken.
Als ze stuff handig kunnen optimaliseren, wordt het misschien de moeite.
Er zijn natuurlijk heel veel games die niet grafisch heel zwaar zijn, je hebt het dan over honderden zo niet duizenden games.
En heb je dan zo'n slider nodig?
Nou mijn neefjes spellen gewoon Fortnight en Apex Legends en vele 2D Steam games op hun moeders Mini Media-PC, die een Intel Core i3-6100 heeft, waar een Intel HD Graphics 530 in zit, en 2x 4GB 3000MHz RAM, en het draait voor hun goed genoeg, al moet alles omlaag om het te kunnen spelen.
Ervaring opdoen voor de generatie waarbij dit wel kan? en vergeet niet dat ze inmiddels ook enkele cpu's met AMD gpu's erin verkopen (dat is waarschijnlijk ook waarom ze nu dit dus ook hebben)...
Intel hun integrated GPU's zijn alleen maar goed voor het afspelen van video en de CPU ontlasten. Op een laptop (wanneer je de batterij gebruikt) kun je een stuk langer video kijken als je hun GPU's gebruikt om hun CPU's te ontlasten.
Ik zou het geweldig vinden als er een variabele optie zou zijn. Ik wil niet hoeven kiezen voor prestatie of kwaliteit maar voor een constante 60 FPS. Bij spellen merk ik dat ik vaak op 60 FPS of meer kan spelen maar er zijn momenten dat er ineens te veel op mijn scherm gebeurd en de FPS daalt. Als dit zou kunnen worden voorkomen door even de graphics instellingen wat te minderen dan zou dat de ervaring bevorderen.
Beetje een off-topic reactie, sorry, maar die sliders zet ik altijd op kwaliteit omdat de FPS drops te weinig voorkomen wil ik voor puur prestatie gaan.
Heel veel game engines doen dit al op consoles; het is gewoon zelden beschikbaar op PC, ondanks de features wel in de console-varianten van de games zitten.

Games hebben dan een frame-rate target en passen dynamisch de resolutie aan om die target te halen. Bij Doom 2016 is bijv. te zien hoe het overclocken van de Nintendo Switch de resolutie drastisch omhoog laat gaan.

Forza Horizon 4 doet dit (optioneel) ook op PC en dat werkt erg goed. Met een 4K scherm hangt de resolutie dan vrijwel constant rond (maar net niet volledig) 4K om die 60fps target te halen. Als ik 'm vast zet op 4K 100% zit ik vaak net rond de 55fps.

[Reactie gewijzigd door Gamebuster op 14 maart 2019 12:23]

Heel veel game engines doen dit al op consoles
Heel veel? Adaptive degradation is geen sinecure, het gaat vaak gepaard met extra zichtbare stutters omdat het altijd mosterd na de maaltijd is (je weet pas hoe lang een frame gaat duren als je 'm volledig hebt gerenderd). Wat je op consoles vaak ziet zijn met de hand gemaakte terugschakelingen. Dat kan op een console ook veel beter omdat je weet wat de performance gaat zijn op de vaste hardware. Dat gezegd, er zijn wel een paar games die het echt goed doen, ja.

[Reactie gewijzigd door .oisyn op 14 maart 2019 12:47]

Adaptive degradation is geen sinecure, het gaat vaak gepaard met extra zichtbare stutters omdat het altijd mosterd na de maaltijd is (je weet pas hoe lang een frame gaat duren als je 'm volledig hebt gerenderd)
Of je rendert een frame dat nog niet af is. Vaak gezien in (oude) computerspellen, waarbij bijvoorbeeld het landschap van dichtbij naar ver opgebouwd wordt, of waarbij lage kwaliteit textures merkbaar vervangen worden voor hoge.

[Reactie gewijzigd door The Zep Man op 14 maart 2019 13:44]

Of je rendert een frame dat nog niet af is
Met renderen bedoel je tonen? Dit zijn de jaren 90 niet meer, er zit een gigantische bak aan postprocessing na het renderen van de 3D content. Die kan je niet gewoon maar even afbreken en weergeven :)
Iets wat b.v. GeFroce Experience al een tijdje doet.. En waar ik geen fan van ben omdat de automatisch gekozen instellingen veel te vaak niet de optimale grafische instellingen zijn (beste kwaliteit/prestatie verhouding).. Geen idee waarom dat niet goed gaat, ik vermoed dat er gewoon teveel variabelen zijn in verschillende hardware configuraties om zoiets standaard aan te geven voor iedereen..
(beste kwaliteit/prestatie verhouding)
Dat is logisch, want dat zijn subjectieve waarden. Mijn ervaring is dat het minstens een goed startpunt geeft, maar vaak pas ik niks meer aan aan de settings en voldoen ze aan mijn eisen.
Deze zijn vooral behulpzaam voor gebruikers die individuele grafische instellingen in games niet kunnen of willen afstemmen op hun wensen en liever aan de gang gaan met een slider met 'kwaliteit' aan de ene en 'prestaties' aan de andere kant.
Is dat zo? Ik vind het vooral zeer praktisch dat NVIDIA Experience mij voor elk spel voor elke aparte config toont wat aangeraden is, maar belangrijker nog: screenshots toont voor dat spel wat de instelling juist doet. Dit maakt het zeer aangenaam om mijn instellingen te tweaken op basis van wat ik zelf belangrijk grafisch belangrijk vind.
A taste of the future? Een kopie van het oh zo nutteloze Geforce Experience zeker? Ze doen net of deze tool iets geweldigs is terwijl het gewoon het zelfde lijkt te zijn als de soortgelijke tools.. Alleen handig voor extreem luie mensen of leken die er niks om geven dat hun instellingen slechter worden afgesteld dan je met handmatige instellingen zou bereiken.
Dus een soort van GeForce Experience maar dan Integrated Experience :+ ? Als dit geen hint is op hun eigen dedicated GPU, dan is het misschien een lompe marketing want populaire games wil je niet op Intel iGP's gamen.
Dus zoiets als GeForce Experience? Ik weet niet hoe de gemiddelde pc-gamer hierover denkt maar ik heb zelf een hekel aan dat soort software. Ik stel dat veel liever zelf bij om de balans te vinden tussen kwaliteit en prestatie.
Los daarvan dat meeste games tegenwoordig ook vaak prima ingebouwde tools hebben om dit in te stellen en te kunnen benchmarken.Voor de gemakzuchtige mens ook nog eens vaak opgedeeld in low-medium-high. Lekker bezig Intel.
Ik ga hiermee ten volste akkoord. Het is onnodige bloatware in mijn ogen. Net zoals de meeste "overclock en optimisation tools" die vendors meebundelen.
Tja, bij de huidige Intel integrated gpu's zal standaard alles op low staan.

Maar mijn gevoel zegt dat dit nu in ontwikkeling is voor de toekomst, dan kunnen ze nu al testen in de praktijk en als Intel dan een keer consumenten gpu's uit brengt, is dit stukje software al op orde.
je kunt ook je tweede monitor op de igpu laten draaien, om zo niet je geforce te belasten, maargoed wat maakt die 1% performance verlies uit :P


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True