Intel brengt op games gerichte gpu-software Graphics Command Center uit

Intel heeft zijn nieuwe gpu-software uitgebracht. De software is meer gericht op games, heet Graphics Command Center en staat in de Microsoft Store. Om de software te gebruiken is een Core-processor van de zesde generatie of nieuwer vereist.

Vooralsnog werkt Intel Graphics Command Center alleen met de geïntegreerde gpu's van de Intel Core-processors. Intel maakt de software echter met de komst van zijn eigen videokaart in het achterhoofd. Nieuwe details over die videokaart, die in 2020 uitkomt, geeft Intel niet.

Intel biedt zijn nieuwe gpu-software aan via de Microsoft Store. Volgens de omschrijving moet de software duidelijkheid geven bij het instellen van ingewikkeld klinkende features, zoals tessellation en anisotropic filtering. Het gaat nog om een vroege versie; Intel zegt later meer functionaliteit toe te voegen.

De configuratietool werkt alleen met recente Core-processors, die van de zesde generatie of nieuwer. Dat zijn de cpu's vanaf de Skylake-serie, die in 2015 voor het eerst verschenen. De nieuwe software is onderdeel van Intels marketingcampagne om de komst van zijn eigen videokaart aandacht te geven. Intel zette die campagne vorige maand op met een oproep aan de pc-community onder de noemer The Odyssey.

Intel Graphics Command CenterIntel Graphics Command CenterIntel Graphics Command CenterIntel Graphics Command Center

Screenshots afkomstig van AnandTech

Door Julian Huijbregts

Nieuwsredacteur

21-03-2019 • 09:41

44

Reacties (44)

44
43
20
3
1
20
Wijzig sortering
Persoonlijk zet ik deze opties altijd uit, puur omdat ik het verschil niet zie bij AA en FA, V-Sync helpt bij mij alleen maar om meer stotterende beelden te veroorzaken.
Kan iemand mij vertellen wat nou het echt het verschil is van de opties vanuit zijn eigen perspectief?
of stel ik nu een domme vraag? 8)7
Vreemd. Meen je dat echt dat je geen verschil ziet? Want er is echt een gigantisch verschil.

Zonder AA zien alle schuine randen er kartelig uit: https://docs.unity3d.com/...evableVisualsTXAATXAA.jpg

Anisotropic filtering zorgt ervoor dat textures scherp blijven vanuit elke hoek. Zonder AF gaan textures rap wazig er uit zien al je er niet mooi loodrecht op kijkt: http://i.imgur.com/jzCq5sT.jpg

En zonder V-Sync (of andere techniek) krijg je last van screen tearing als je framerate boven de refresh rate van je scherm ligt: https://www.gamersnexus.n...een-tearing-blacklist.jpg

Of je screen tearing of juist V-sync stutters erger vindt is persoonlijk, maar AF maakt je beeld gewoon atlijd mooier en kost bijna geen performance. Voor AA hangt de impact af van implementatie. FXAA vind ik persoonlijk niet mooi en laat ik liever af, maar de beter AA varianten zijn wel echt de moeite waard om aan te zetten als je de performance hebt.

Als je meer wilt leren over al die grafische effecten, moet je Digital Foundry van Eurogamer eens in de gaten houden. Die hebben veruit de meest in-depth analyses van het internet op dit vlak. Er zijn inderdaad instellingen die weinig doen, en Digital Foundry kan ze er vaak uitpikken zodat je je games optimaal kan draaien.
Vreemd. Meen je dat echt dat je geen verschil ziet? Want er is echt een gigantisch verschil.
Zoals @whiner ook al aangeeft, je ziet het (een beetje) als je het beeld naast elkaar zet op bv. 1080p op een grote monitor. Maar als je het speelt op een bewegend beeld registreert je brein het niet snel, vaak alleen bij extreme voorbeelden. Er zijn imho veel storender zaken die je brein wel registreren zoals bv. stotterend beeld.

Het ligt er ook een beetje aan hoe je brein werkt, mijn brein valt na enige gewenning slechtere beeld kwaliteit niet snel op. Ik merk het echter wel dat ik eerder moe ben omdat mijn brein in overdrive zaken heeft zitten aanvullen. Net zoals een hoger resolutie display met aa rustiger is voor de ogen met lezen.
Ik vind het op bewegende beelden net juist veel storender als er geen AA aan staat. Als je bijvoorbeeld een hek, of draden, of eender welke dun en langwerpig object hebt, dan krijg je last van "pixel crawling". Dit zorgt voor heel veel flickering rond fijne details, wat mij persoonlijk meer afleidt dan dat het wat pixelated is.

Nu, kijk, goed voor jou als je het niet merkt. Moet je zo veel geld niet aan een GPU uitgeven. Mij stoort het persoonlijk behoorlijk. Slechte/geen AA en AF pik ik er binnen de paar seconden uit. Dat valt me gewoon echt enorm op, zelfs als het beeld beweegt. Net zoals screen-tearing, wat juist vooral stoort als het beeld snel beweegt. Lang leve PC gaming zou ik zeggen, want nu kunnen we gewoon kiezen hoe we onze games willen spelen. In games zoals Apex Legends zet ik AA trouwens ook uit. Die extra performance heb ik nodig, en de kleine flicker is juist handig als je vijanden in de verte zoekt.
Als jet het verschil niet ziet bij AA dan heb je of een hoge resolutie of er gaat iets anders mis maar op 1080p zie je je echt wel verschil met AA aan of uit.

Hier staan wel wat verschillen van de laatste WoW expansion qua wijzigingen: http://eyesofthebeast.com...-1-anti-aliasing-options/
ik snap wel dat Staralpha geen verschil denkt te zien. Wanneer je aan het game bent (bewegend beeld) dan let je ook niet op dit soort dingen. Ga je screenshots vergelijken, dan gaat het wel opvallen.
De impact van AF vind ik groter dan die van AA.

Voor mij hoeft AA ook niet op zijn hoogst, kost alleen maar kracht, AA x4 is vaak alle prima.
MSAA is tegenwoordig vaak niet meer afdoende en een nutteloze verspilling van GPU kracht.
Door de modernere rendering technieken mist MSAA veel punten waardoor de kartelrandjes dus niet goed eruit worden gefilterd.
Dit verschilt per spel, maar het is vaker dan niet nuttig op oudere spellen met simpelere graphics.

Wat dat betreft kan je beter FXAA/SMAA post-processing technieken gebruiken die daar geen last van hebben en tevens geen extra videogeheugen opvreten en eigenlijk geen performance impact kennen in reguliere omstandigheden, TAA bijvoorbeeld is nog beter maar dat ondersteunen niet alle spellen.
Het enige moment dat je merkt dat FXAA/SMAA je framerate ver omlaag kiepert is als je 1000+fps weet te halen, bij 120 is dat maar nihiel merkbaar.

FXAA is meestal standaard te forceren via het controle paneel van de videodrivers ongeacht de ondersteuning van het spel of niet, echter heeft dat mogelijk het nadelige effect dat de HUD er minder uit gaat zien omdat het forceren via de drivers het gewoon globaal toepast.
Post-processing AA kan wel iets of wat een 'waas' veroorzaken maar heel erg is het nu ook weer niet.

Een techniek zoals TXAA is dan weer MSAA + post-processing AA gecombineerd, echter veelal een overdaad aan 'blur' en de performance gaat net zo hard omlaag.
MFAA moet je ook niet willen gebruiken omdat dit net zo afhankelijk is van MSAA.

In competitieve spellen zet ik meestal alle AA en post-processing technieken uit zover mogelijk om niet verblind/vertraagd te worden qua muis input e.d, de graphics zijn dan van ondergeschikt belang voor mij, soms worden er verder nog wel dingen uitgeschakeld of lager gezet behalve de textures. (want dat laatste vreet meestal enkel VRAM en niet veel GPU kracht)

Er is ook wel enige nuance want het opmerken van die kartelrandjes tijdens gaming ligt ook aan je monitor grootte, resolutie en kijkafstand (buiten je eigen haviksogen).
Een 1080P scherm met 27" zal er veel meer hinder van hebben dan een 1440P scherm op dezelfde grootte, laat staan als je met een 50" 1080P TV nog aan het gamen bent. (meestal dan wel vanaf een afstand)

Het beste zou zijn een techniek als DSR te gebruiken en gewoon een hogere resolutie renderen (super-samplen) en dit laten scalen naar je native resolutie, dan heb je een AA methode die game-onafhankelijk is.
Hier kan je dan ook nog eens een lichte techniek als FXAA overheen gooien en je krijgt dan een best goed resultaat.
Echter, hier kleven enkele nadelen aan:
  • De muis respons zal veranderen door de grotere hoeveelheid pixels die virtueel worden gerenderd.
  • De HUDs van het spel worden te klein omdat deze niet goed mee schalen.
  • Het vereist uiteraard meer GPU kracht.
  • Sommige spellen die je sluit crashen zorgen ervoor dat je vensters/icoontjes overal en nergens komen te staan op de desktop.
  • Met multi-monitor set-ups zal het 2e scherm dus ineens gaan verspringen met zijn vensters.
Andere oplossing is als alle spellen nu eens Resolution Scaling ingame aanbieden en dus intern het spel een hogere resolutie laten renderen zonder de noodzaak je resolutie te moeten aanpassen en dus HUD/scaling problemen zich niet voordoen, dat kan uiteraard ook i.c.m FXAA e.d.

Of je koopt gewoon een monitor met een hoge PPI (hoge resolutie, zoals 4K op 27"), maar heb je uiteraard veel GPU kracht nodig en Windows + applicaties zijn qua schaling niet altijd top.

[Reactie gewijzigd door CriticalHit_NL op 22 juli 2024 23:25]

Zorgt in theorie voor betere graphics, AA zorgt ervoor dat kartelrandjes gesmoothed worden, anisotropic filtering zorgt dat de textures er beter uitzien onder verschillende hoeken. V-sync zorgt ervoor dat de framerate van de game gelijk komt met die van je monitor, wat ervoor zou moeten zorgen dat de game stabieler draait.

Vooral AA en AF zet ik vaak hoog, werkt wel :)

[Reactie gewijzigd door CPOMendez op 22 juli 2024 23:25]

Anoniem: 420148 @CPOMendez21 maart 2019 10:22
Correctie: Vsync moet ervoor zorgen dat er geen tearing ontstaat, niet dat de game stabieler draait. De weergegeven frames kunnen sowieso nooit hoger zijn dan je monitor Hz. Vsync forceert de twee helften van je scherm gelijk te zijn. Wanneer je GPU niet je monitor Hz haalt qua FPS, halveert de framerate (tijdelijk) dus enkel aanzetten als je weet dat je GPU sterk genoeg is.
Wanneer je GPU niet je monitor Hz haalt qua FPS, halveert de framerate (tijdelijk) dus enkel aanzetten als je weet dat je GPU sterk genoeg is.
Tenzij tripple buffering werkt!

[Reactie gewijzigd door Kain_niaK op 22 juli 2024 23:25]

Tripple buffering voorkomt dat de fps direct terug valt naar 30. Het gevolg is evenwel dat sommige frames 2 frameperioden blijven staan en andere één en dat de latentie omhoog gaat, omdat de computer frames nog eerder moet berekenen dan ze getoond worden.

Je moet het wat mij betreft zien als en gereedschap dat je kunt inzetten om per situatie het best mogelijke resultaat te bereiken, maar niet als een algemene oplossing voor de kwestie. Om het vloeiend te krijgen is ofwel een monitor met meer Hz nodig (zodat er geen factor 2 meer tussen de tijden zit dat een individueel beel op het scherm staat) ofwel Freesync.

Persoonlijk kies ik er echter voor om de instellingen uit te kleden totdat de fps tegen de Vsync-limiet van (meestal) 60 fps aan tikt. Op die manier is het vloeiend op alle monitoren met Vsync aan.
Ik gebruik vsync voornamelijk zodat spellen die meer dan 100 fps op mijn laptop doen zonder vsync nu op 60 draaien met vsync aan. Minder load en minder warmte. Mijn laptop heeft namelijk een hitte probleem.
Anoniem: 420148 @Kain_niaK21 maart 2019 12:09
Check of je game/settings een fps cap ondersteunen, veel wel.
vsync is makkelijker dat kan ik in mijn drivers op elke game forceren.
Van een fps-cap zie ik het nut niet, je krijgt het slechtste van werelden: Zowel scheuren in je beeld als niet volledig vloeiende animatie.
Anoniem: 420148 @dmantione21 maart 2019 18:22
Een FPS cap die gelijk is aan je monitor Hz zou geen niet-vloeiende animatie moeten veroorzaken. Het rendert namelijk precies zoveel frames als je beeld per seconden aankan. Geen overtollige frames renderen bespaart je natuurlijk enorm veel CPU en je zult ook minder spikes krijgen. Je hebt er werkelijk geen bal aan wanneer je spel 300 frames loopt te stampen, terwijl je scherm er maar 100 kan renderen.

Een hoge frame rate betekent niet dat je geen tearing krijgt. Zolang je FPS geen 1/x fractie of verdubbeling is van je monitor Hz, krijg je tearing. 60Hz monitor en een vaste 120 FPS? geen tearing. 60Hz monitoring en 337 FPS? Tearing. Alleen iets als Free/G-Sync biedt een redelijke oplossing.
Een FPS-cap dwingt niet af dat frames met regelmatige tussenposen verschijnen. Een frame kan wat korter staan, het volgende wat langer en daardoor schokkerig beeld veroorzaken. Vsync dwingt wel af dat frames exact op het juiste moment verschijnen.
Anoniem: 420148 @dmantione21 maart 2019 20:11
Nee, maar die cap zorgt dus wel voor minder load op je GPU/CPU. Ik zeg ook nergens dat een FPS cap je problemen gaat oplossen, zie ook mijn laatste zin. Een FPS cap zorgt ook niet voor extra problemen.
Ik ben juist erg tevreden over het limiteren van de fps bij games.
Veel spellen spelen gewoon niet lekker als je boven de 60 fps gaat. Dit is onafhankelijk of je scherm wel dan niet meer dan 60 fps aan kan.
Helaas blijkt op mijn 30 inch het scherm ter vervormen, en onduidelijk te worden.
Ik speel graag spellen waarbij ik een zo goed mogelijk zicht wil hebben op grote afstanden als ik mijn tegenstander moet uitschakelen ( sniperelite en dergelijke )
Uiteraard zijn er inmiddels al wel spellen die wel goed overweg kunnen met 120 fps.
Maar nogmaals dat ligt echt aan het spel

[Reactie gewijzigd door rschwartnld op 22 juli 2024 23:25]

Wat ik, zeer persoonlijk, nog een enorm voordeel vind aan Vsync is dat mijn graka niet onnodig frames zit te renderen die mijn 60Hz scherm toch niet weergeeft (in games zonder fps limiter). Minder energieverbruik, stiller en minder wear :)
Om load en warmte te besparen een goede oplossing maar draai bv CSGO op een 60hz scherm zonder VS aan (op bv 100fps) dan heb je een ervaring die meer soepel is dan met VS aan (door de input lag). Meer fps geeft een soepelere ervaring, ook op 60hz schermen. Volledig los van VS wel of niet aan; ik merk absoluut een verschil op een 60hz scherm met fps cap op 60fps of zonder fps cap.

[Reactie gewijzigd door Soni op 22 juli 2024 23:25]

Als je 60 fps haalt kan input-lag amper een probleem zijn: 1/60 levert 17 milliseconde aan worst-case latentie op, dat kan niet zo'n probleem vormen. Als je geen 60 fps haalt, dan is wordt het een ander verhaal en als er nog tripple-buffering bij komt kijken is het hek helemaal van de dam.

En eigenlijk is input-lag door Vsync een slecht geschreven spel: Je hoort eigenlijk, zeker bij moderne processoren met veel kernen, je invoerafhandeling in een andere thread af te handelen dan de rendering, zodat je ook direct op invoer kunt reageren als die plaatsvindt. Maar ja, spellen zijn vaak nog ouderwets.

[Reactie gewijzigd door dmantione op 22 juli 2024 23:25]

Tx for the extra uitleg hierover _/-\o_
Je hebt gelijk! Heb niet goed op zitten letten. Dank voor je oplettendheid!
AF kost bijna geen processing power, die zou ik gewoon altijd op max zetten. AA is een ander verhaal, dat kost - afhankelijk van het type AA - behoorlijke rekenkracht. Het hangt inderdaad af van je scherm, maar ik kan je zeggen dat een Full HD-scherm op 27" echt heel veel baat heeft bij AA om de ruwe hoekjes minder kartelig te maken. Maar op een full HD 13" laptopscherm zal de noodzaak waarschijnlijk minder zijn.
Vind 27'' ook eerder minimaal een 1440p formaat, 24'' 1080p is 2x of 4x AA meestal meer als genoeg.
AF, Anisotropic Filtering, is praktisch gratis. Deze optie kan je nagenoeg altijd gewoon op 16X instellen. :)
Dan gaat ER iets goed mis, AA en af zijn goed zichtbaar, normaal gesproken. Vsync helpt niet altijd, naar well tegen tearing.
Hangt van zijn resolutie af, als hij een 14'' laptop met hd scherm heeft is AA niet zo ontzettend belangrijk om zo hoog mogelijk te zetten.
Voor v-sync kan ik wel begrijpen dat het meer stottert. Als je gpu niet de framerate van je monitor haalt dan halveert je fps ook gelijk (dus van 60 naar 30 bv), geeft bij mij ook vaak problemen.
Ik vind het goed dat er duidelijke informatie bij staat wat de optie doet, en dat je ook nog een realtime voorbeeld erbij te zien krijgt. Zelf heb ik na enige tijd geen idee meer wat al die opties nu precies doen en voor verschil maken.
programma's als deze zijn leuk voor de casual gamer die niet veel tijd wilt investeren in de graphical settings. de Graphic fanaat vind het niet erg en soms zelfs leuk om alle settings door te spitten.

gezien het vooralsnog alleen werkt op de intel ''gpu's'' lijkt het me een aardige oplossing voor de casual gamers. wel denk ik dat het voornamelijk is om de settings op Low te zetten zodat de game in kwestie op zn minst op 30+ fps draait... daar de intel gpu's niet in de buurt van krachtig te noemen zijn imo
gezien het vooralsnog alleen werkt op de intel ''gpu's'' lijkt het me een aardige oplossing voor de casual gamers
Nvidia gebruikers kunnen hetzelfde doen met Geforce Experience en AMD gebruikers met het Radeon Game Advisor onderdeel.
dat weet ik! bedoelde het meer in de trend dat nu alleen de igpu's worden ondersteund en het dus leuk is voor de casual gamer daar die niet al te veel zin heeft om die lastige settings door te spitten.
Gamen met de GPU in je Intel CPU.

Werkt dat wel een beetje?

Zou je met de nieuwste generatie Intel CPU's Battlefield V kunnen doen of is dat weer is te veel van het goede?
De nieuwe software is onderdeel van Intels marketingcampagne om de komst van zijn eigen videokaart aandacht te geven.
Uit artikel.

Maar heb volgens mij wel een review gezien op een Iris pro 580 die met medium settings een heel speelbare omgeving had met Battlefield 1. Kan de review niet vinden maar hier een filmpje.

Als BF 1 draait erop zal BF5 geen probleem moeten zijn toch?
https://www.youtube.com/watch?v=GBmx6RXs5nw
Dit kan gewoon prima hoor. Alleen deze intel applicatie werkt helaas niet op mijn laptop want hij zeurt over een of andere .net framework
Volgens mij reageer je inhoudelijk op foro maar druk je per ongeluk op het verkeerde knopje?

Op 720p alles low of uit BF 5 draaien is heel wat anders als BF1 met medium settings ( en hogere framerate ).

Jammer dat die GT4 niet in meer cpu's zit, je gelinkte hd630 ( is een GT2 ontwerp ) is inderdaad meer frequent te vinden in laptops.
Ziet er uit als een mooi stukje software en de UI ziet er (aan de hand van de images) goed uit! Ik ben echter vooral benieuwd naar Intel hun aankomende videokaart.
Met de command center wordt alle grafische details automatisch uitgezet zodat het enigszins speelbaar wordt met een Intel GPU ?

Behalve de Intel Iris serie, zijn de andere modellen nou niet echt gewelig te noemen om mee te gamen.
Lijkt qua naam toch haast wel iets teveel op de oude Catalyst Control Center van AMD om toeval te zijn? :p
Ik heb even moeten zoeken om er achter te komen of ik hier gebruik van kan maken, maar helaas, de Intel Core M-5Y10c van mijn 2-in-1 laptop/tablet komt niet in aanmerking, want dat blijkt een 5th generation Core processor te zijn.
Beetje kort door de bocht kerel.

Ervaring zullen meeste niet hebben omdat het net uit is.
Misschien gaan sommige het wel installeren om te kijken hoe het is, maar als je een GPU hebt dan zal het de moeite niet waard zijn.

Ik ga er ook niet aan beginnen, maar ja. Leuk voor intel en de markt lijkt me.

Op dit item kan niet meer gereageerd worden.