Intel heeft in juni een opensourcetool beschikbaar gemaakt die gebruikers in staat stelt om de beeldkwaliteit in moderne games objectief te meten. Computer Graphics Visual Quality Metric (CGVQM) is op GitHub beschikbaar als een PyTorch-programma onder de Apache-2.0-licentie.
De tool kan twee video's vergelijken en zien hoeveel slechter de vervormde versie is. CGVQM geeft niet alleen een score, maar laat ook de gebieden zien waar de verstoringen zich voordoen. De tool is geoptimaliseerd voor CUDA-gpu's, maar ook cpu's worden ondersteund.
Veel moderne games kunnen gebruikmaken van upscalingtechnologieën als DLSS, FSR en XeSS. Daardoor kunnen zich problemen voordoen als ghosting en aliasing. Deze beeldverstoringen worden vaak wel met het oog gezien, maar waren moeilijk objectief meetbaar, omdat oudere technieken als peak signal-to-noise ratio (psnr) en structural similarity index measure (ssim) minder geschikt zijn voor nieuwe renderingmethodes. Deze oudere technieken werken vooral goed voor traditionelere vervormingen, zoals onscherpte en wazig beeld door compressie. Zij missen echter de gevoeligheid voor fouten die worden veroorzaakt door moderne upscalingmethodes.
Intel besprak de tool al in een whitepaper. Het bedrijf schrijft dat er genoeg datasets zijn voor video- en beeldkwaliteit voor natuurlijke video's en traditionele vervormingen, maar dat de data rond synthetische content en moderne renderingartefacten nog tekort schiet. Daarom heeft Intel een AI-model getraind aan de hand van de input van twintig deelnemers. Zij beoordeelden de kwaliteit van de video's die gebruikmaakten van de renderingtechnieken ten opzichte van de originele video's. Deze dataset komt 'binnenkort' beschikbaar, schrijft Intel op zijn GitHub-pagina. Een precieze datum is niet bekend.