Nieuwe versie van Chrome ondersteunt 4k-upscalingtechnologie van Nvidia

De recentste versie van Google Chrome heeft ondersteuning voor Nvidia's 4k-upscalingtechnologie. De bètabuild van de browser ondersteunt RTX Video Super Resolution, al moet Nvidia daar nog wel een driver voor uitbrengen.

De ondersteuning zit in de Early Stable van Chrome, versie 110.0.5481.77, ontdekte Videocardz. Daarin zit integratie voor NvidiaVpSuperResolution, Nvidia's technologie om lagere resoluties te upscalen naar een 4k-resolutie. Nvidia kondigde die technologie vorige maand aan op de CES-beurs. Het bedrijf toonde daarbij een demo waarbij het een 1080p-video van Apex Legends wist op te schalen naar 4k. Dat kan volgens de specificaties zelfs tot maximaal 144Hz.

Gebruikers hebben minimaal een RTX 30- of RTX 40-kaart nodig om de upscaling te kunnen gebruiken. Dat zijn de enige gpu's waarop Nvidia de upscalingtechnologie ondersteunt.

De ondersteuning ervoor zit nu al in Chrome, die op 7 februari algemeen beschikbaar wordt als definitieve stable build. Daarvoor moet Nvidia nog een officiële driver uitbrengen, voor Chrome en Edge. Het is niet bekend wanneer dat gebeurt, maar mogelijk volgt de driver op dinsdag samen met de definitieve release.

Door Tijs Hofmans

Nieuwscoördinator

06-02-2023 • 09:28

75

Reacties (75)

Sorteer op:

Weergave:

Ligt het aan mij of lijkt het alsof het 1080P beeld gewoon een gaussian blur heeft?
Het 1080P beelt ziet er niet uit als een 1080P video zoals ik 'm ken...
Het is 1080p youtube video, dat is sowieso al niet heel scherp. Maar ik ben eerder benieuwd hoe goed dit werkt met real life video zoals in browser netflix en andere youtube videos.
Ik kijk thuis wel eens naar youtube kanalen op een 1080p scherm, maar met de beeldinstellingen op 2K resolutie omdat de datacompressie op 'native' 1080p echt tot een verschrikkelijke beeldkwaliteit leidt. En dan heb ik nog maar heel matige ogen...
Je bedoelt wellicht 4K i.p.v. 2K? :)
2K is ook slang voor WQHD (2560x1440) :P
Aha! Ik dacht dat de logica was: 2K ≈ 1920p horizontaal, waardoor het eigenlijk overeenkomt met 1080p - maar is natuurlijk geen exacte wetenschap :D
Als je een resolutie met 'p' aanduidt heb je het altijd over het aantal pixels verticaal ;)

Overigens duidt die 'p' enkel op de manier waarop frames elkaar opvolgen: progressief in dit geval.
Overigens duidt die 'p' enkel op de manier waarop frames elkaar opvolgen: progressief in dit geval.
Wat tegenwoordig eigenlijk overbodig is om te benoemen aangezien geen enkele LCD monitor beelden interlaced weergeeft.
Je bron kan nog altijd interlaced zijn. Ik geloof dat HDTV via satelliet bvb nog vaak 1080i is. Dan heb je intussen al lang een progressive LCD, maar je bron is dat niet.

Zélfs hier in de Benelux met onze wijdverspreide vaste internetlijnen en TV-doosjes... https://nl.forum.proximus...sche-hd-zenders-uit-53676
Je moet op youtube altijd de hoogste preset aanklikken om precies deze reden, ongeacht de resolutie van je display. Het resolutie getalletje waarmee de preset wordt aangeduid is voor de gebruiker niet van waarde.

youtube comprimeert alles tot stront dus hoe hoger de preset hoe beter
Aan de andere kant als je een 4k preset kijkt op een 1080p monitor heb je soms last van artifacting in de video. Dus het is een tradeoff zogezegd.
Maar dan zet je hem tijdelijk 1 stapje lager of je kijkt het artifacting over het hoofd. Komt toch niet zo vaak voor.
Ik heb daar eigenlijk alleen last van als ik niet full screen kijk moet ik zeggen.
Uit de omschrijving op youtube: Source game footage captured at 1080p using H.264 @ 8mbps bitrate.


8mpbs is best wel een lage bitrate als ik het goed heb. Dus vandaar de matige kwaliteit van de 1080 beelden.


Maar dan is het nog wel erg ongelukkig genaamd...

[Reactie gewijzigd door steveman op 22 juli 2024 20:24]

Een gemiddelde 1080p bluray rip is 6Mbps... De beteren zijn over het algemeen 10Mbps+, maar zijn dan vaak remuxes. Een 1080p webdl video (afhankelijk van de streamer) is ook een 6-10Mbps.

Ik denk dus wel dat het dan 'safe to say' is dat een 8Mbps video dan wel bovengemiddeld is.

[Reactie gewijzigd door CH4OS op 22 juli 2024 20:24]

Kan je nagaan dat een blu-ray zelf tot 40mbit kan gaan. Alle rips zijn vaak maar van matige kwaliteit. Goed genoeg waarschijnlijk, maar een blu-ray is vaak veel mooier.

[Reactie gewijzigd door Luuk1983 op 22 juli 2024 20:24]

Klopt, maar het ging mij nu even om de vergelijking in bandbreedte. :)
Films zijn vaak 24fps met veel statische scenes. Gameplay video van 60fps met constante camera beweging kan vaak wel blij zijn met flink meer bandbreedte dan 8Mbps. Zie bijvoorbeeld deze afbeelding die vrij verschillende bitrates laten zien bij dezelfde kwaliteitsinstellingen in combinatie met verschillende bronmaterialen.
Het gaat nu echter niet over gaming of de blurays, maar een applicatie die zijn output upscaled, ik denk dat een vergelijking met blurays dan een stuk dichterbij komt dan een game.
Ik keek vroeger veel Blu-rays via blu-ray speler, welke inmiddels is ingeruild voor UHD blu-ray. Aangezien ik niet voor élke film die ik wil kijken een schijfje voor koop, kijk is dus ook vaak Remux van zowel 'gewone' als UHD blu-rays.

De bitrates:
- Blu-ray circa 20mbps
- UHD Blu-ray schommelt tussen 20-80 mbps (afhankelijk per scene)
- Remux is hetzelfde, daar het 1 op 1 rips van de blurays zijn, exclusief de menus en overige content die aanwezig was op de disc.
Er staat 1080p upscaled, dus die is upscaled van een lagere resolutie dan 1080p?
Nee dit is wel 1080p maar met zware compressie, aangezien het zo'n lage bitrate betreft. De bitrate is gewoon de hoeveelheid data die je per seconde verstuurt. Dus je kunt dan nog steeds wel een 1080p resolutie hebben, maar hoe lager de bitrate hoe meer compressie en dus hoe meer detail er verloren gaat.

Denk bijvoorbeeld aan jpeg compressie, de afbeelding is dezelfde resolutie, maar niet dezelfde kwaliteit.
Ja, exact mijn gedachte.

Maar; je kunt een 1080p video hebben met een heel lage bitrate.
Ik ben echter wel benieuwd of je, wanneer je zo'n zelfde 1080p video als input gebruikt, je daadwerkelijk hetzelfde resultaat krijgt.

Of dat het een "artist impression" is.

Of dat de source 'kunstmatig' slechter gemaakt is; waardoor het met 'AI verbeteren' makkelijker is.

[Reactie gewijzigd door Accretion op 22 juli 2024 20:24]

Een leuk overdreven marketingvideo waarschijnlijk... :)
Dat filmpje is waarschijnlijk een marketings filmpje wat het probleem overdrijft en die zogenaamde 1080p footage lagere kwaliteit heeft. Daarnaast geloof ik niet zonder dat ik een review heb gezien dat het verschil zo groot is.
Dat filmpje is inderdaad complete onzin en de 1080p representatie flink geblurred.
Nee je hebt volkomen gelijk. Dit is geen werkelijk scenario maar is nep. De afbeelding zegt 0,0 over de kwaliteit van de upscaler. Beetje jammer natuurlijk. Ik verwacht ook niet heel veel speciaals van de upscaler, niet echt werkbaar als 1080p op youtube al behoorlijk wat compressie-artefacten laat zien, dat ga je met een upscaler nooit goed maken, wordt eerder super blurry of met ongepaste sharpness filters die compressie effecten alleen maar versterken. Niet goed toepasbaar op content wat van nature slechte kwaliteit heeft. Grappig eigenlijk, want ze willen je juist laten geloven dat DAT zoveel beter wordt, niet dus. nVidia's upscaler werkt juist goed met ongecomprimeerde content en een hoop onderliggende informatie zoals motionvectors. Het 'jpg'compressie effect kan je echter maar slecht wegpoetsen, dus jammer maar youtube 1080P upscalen naar 4K? Nee, downscale dan liever 4K content naar 1080P, andersom heeft echt vrij weinig nut. Dit is gewoon nVidia Marketing Shite als je het mij vraagt.
4K content downscalen naar 1080p op je desktop lijkt me echt de meeste komische en nutteloze feature ooit.

“Zie hier het geweldige 4K beeld, en kijk nu naar de downscaling, de kwaliteit is echt veel slechter geworden”

Geklap van publiek.
<sarcasmmode> Misschien als je het zonde vindt van je mbytes per maand, die anders ongebruikt blijven? </sarcasmmode>

Soms moet er trouwens wel een beetje gescaled worden, omdat je window niet voldoende groot is. En dan wil je liefst geen artefacten, dus daar worden al algoritmes en hardware acceleratie voor gebruikt

[Reactie gewijzigd door MeMoRy op 22 juli 2024 20:24]

Als je het op je apparaat downscaled dan heb je het al gedownload?
Ik blijf het bijzonder vinden dat het zo goed werkt. Als ik upscaling hoorde kreeg ik vroeger vooral een naar gevoel...

Hoe werkt dit met een Nvidia Shield dan? Die heeft bij lange na niet de rekenkracht van een RTX 3XXX kaart, maar toch vind ik ook daar de upscaling naar 4K best indrukwekkend voor zo'n klein apparaat.
De hardware die nodig is om dit te runnen hoeft volgens mij niet zo sterk te zijn. Als het hetzelfde is met gamen, is een 1080p filmpje naar 4K upscalen zelfs minder zwaar dan een 4K filmpje draaien.
De hardware die nodig is om dit te runnen hoeft volgens mij niet zo sterk te zijn.
Gebruikers hebben minimaal een RTX 30- of RTX 40-kaart nodig om de upscaling te kunnen gebruiken. Dat zijn de enige gpu's waarop Nvidia de upscalingtechnologie ondersteunt.
Het lijkt inderdaad meer op een kunstmatige beperking. Ik zie niet in waarom een RTX 20- of zelfs een GTX 10- dit niet zou kunnen.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 20:24]

.oisyn Moderator Devschuur® @The Zep Man6 februari 2023 10:22
Het gaat om de Tensor cores, die hardware zit niet in de GTX-serie. En tussen RTX 20 en RTX 30 zit ook nog wel een behoorlijk verschil:
Ampere’s Tensor cores offer a similar doubling in throughput, allowing NVIDIA to half the number of Tensor cores per SM and still deliver similar performance in the same workloads. On top of that improvement in throughput, the Ampere architecture brings hardware support for sparsity, enabling up to 2.7x more tensor operations compared to Turing.
Of het wel of niet performant genoeg te krijgen is met de 1st gen Tensor cores in de RTX of zelfs de generieke CUDA cores van een GTX heb ik geen data over, maar eveneens kun je de conclusie niet zomaar trekken dat het een kunstmatige beperking is.
Gezien een Tegra X1+ (gebaseerd op een architectuur van negen jaar oud) geen tensor cores heeft en die wel gebruikt wordt voor 'AI upscaling' van 1080p naar 4k, vermoed ik dat het ontbreken van deze functionaliteit op oudere GPU's alsnog een kunstmatige beperking is.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 20:24]

.oisyn Moderator Devschuur® @The Zep Man6 februari 2023 10:35
wel gebruikt wordt bij 'AI upscaling' van 1080p naar 4k
Heb je iets meer context?

Nogmaals, ik zeg niet dat het niet kan, maar als je voor een implementatie kiest die bepaalde hardware gebruikt, dan is in mijn ogen geen "kunstmatige beperking". Dat is het pas als diezelfde implementatie best zo kunnen werken met oudere hardware en minimale changes.
Heb je iets meer context?
De Shield TV 2019 modellen gebruiken een Tegra X1+. Een aangeboden functie (enkel op deze modellen met deze SoC) is 'AI upscaling'. Dat moet wel via het GPU-deel van de SoC gedaan worden, gezien het CPU-deel daar nooit krachtig genoeg voor is.

De Tegra X1+ is een opgevoerde Tegra X1, die weer gebaseerd is op de Maxwell-architectuur uit 2014.
Nogmaals, ik zeg niet dat het niet kan, maar als je voor een implementatie kiest die bepaalde hardware gebruikt, dan is in mijn ogen geen "kunstmatige beperking". Dat is het pas als diezelfde implementatie best zo kunnen werken met oudere hardware en minimale changes.
Let op dat ik spreek over functie, niet implementatie. Verder kan je implementaties altijd kunstmatig beperken tot een stuk hardware, door actief te besluiten het niet voor andere hardware geschikt te maken (ook al zou dat prima kunnen).

Verder staat Nvidia erom bekend dat ze zaken kunstmatig uitschakelen of lastig/onmogelijk maken.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 20:24]

Ik ben ook erg benieuwd naar hoe dit zit, wat het verschil is tussen de "oude" Tegra X1+ upscaling die ik ook op mijn Nvidia Shield uit 2019 heb zitten en die vooral indrukwekkend is omdat het zo moeiteloos lijkt te gebeuren zonder noemenswaardig veel stroomverbruik, en deze "nieuwe" RTX upscaling.

Over de "oude" upscaling lees ik het volgende:
Trained offline on a dataset of popular TV shows and movies, the model uses SHIELD’s NVIDIA Tegra X1+ processor for real-time inference. AI upscaling makes HD video content for top apps including HBO, Hulu, Netflix, Prime Video and YouTube appear sharper on 4K TVs, creating a more immersive viewing experience.
Over de "nieuwe" RTX Super Resolution lees ik het volgende:
In February, we’re launching RTX Video Super Resolution, which uses AI to improve the quality of any video streamed through Google Chrome and Microsoft Edge browsers on GeForce RTX 30 and 40 Series GPUs. Support for GeForce RTX 20 Series GPUs will come in a later update.
Tot zover, zonder extra informatie, lijkt de nieuwe upscaling vooral een nieuw en groter model zijn die is getraind op meer en diverser beeldmateriaal. Ik kan niet goed vinden wat nu precies de AI-accelerator in de Tegra X1+ is, en of dit het zelfde als of een voorloper van de nieuwe techniek is. Maar dit AI-model lijkt dus inderdaad (later) ook naar de RTX 20 te komen.

/cc @.oisyn

[Reactie gewijzigd door Sando op 22 juli 2024 20:24]

.oisyn Moderator Devschuur® @The Zep Man6 februari 2023 10:46
Let op dat ik spreek over functie, niet implementatie.
Maar daarmee is deze discussie dus zinloos. Dezelfde functionaliteit impliceert niet dezelfde kwaliteit, en als je het hebt over een kunstmatige beperking dan gaat dat juist over de implementatie.

Nu heb je het over een Shield TV, een ding dat primair bedoeld is voor het afspelen van video's en het renderen van wat UI. Dat is heel wat anders dan een browser dat draait op een PC dat nog heel veel andere dingen doet. De tensor cores kun je zowat gratis gebruiken zonder dat dat impact heeft op andere GPU resources.

Hadden ze ervoor kunnen kiezen om de "AI upscaling" techniek van de Shield te implementeren? Natuurlijk. Maar dat maakt het een andere keuze, geen kunstmatige beperking.

[Reactie gewijzigd door .oisyn op 22 juli 2024 20:24]

Er zijn tientallen verschillende technieken om upscaling te doen, simpele filters zullen inderdaad geschikt zijn om te draaien op zo'n oude architectuur. @.oisyn heeft gelijk dat als Nvidia een AI model gebruikt dat afhankelijk is van tensor cores dat dat niet werkt op een architectuur die dat niet heeft, dus alles voor de 2000 serie. Misschien kan het wel werken op enkel CUDA cores, maar dat is een andere low level implementatie. Net zoals dat bijvoorbeeld automated mixed precision alleen grote winsten bereikt op tensor cores.
In het begin dagen van RTX was het niets meer dan een driver beperking en kon een 10 serie elke functionaliteit van een RTX kaart aan. Niet meer mogelijk helaas door nieuwere drivers.
Dat is dus helemaal niet waar want de RTX kaarten hebben echt hardware aan boord die een GTX 10 serie niet heeft, en die dus echt wel nodig is om veel betere prestaties van die functionaliteiten te krijgen. En als het wel zou werken met 1fps tegenover 60fps dan hebben we het dus ook over dat de functionaliteit niet werkt op de oude hardware omdat het daarmee zinloos is.
Scherp is niet altijd beter. Bovendien, het is nooit echt scherper, het is het benadrukken van randen. Scherper zou betekenen dat er details moeten worden gevonden die niet in het origineel zitten. Dat kun je met AI misschien verzinnen, zoals misschien de structuur van bakstenen, maar als je de werkelijkheid wilt zien is het onzinnig.
Super Resolution / Super Scaling werkt (als dit hetzelfde is) door de info van de verschillende frames te gebruiken. Er is dus wel degelijk extra informatie die wordt gebruikt.
Het gebruik maken van informatie uit de vorige en volgende frames is al een simpel AI algoritme.

Er zijn trouwens al wel AI upscaling tools beschikbaar zoals Topaz Video AI waarmee je videos met een getraind AI-model kan upscalen. Als de kwaliteit van de input video niet te belabert zijn de resultaten indrukwekkend. Het nadeel is de snelheid, zelfs met GPU acceleratie kom je niet boven de 5fps bij een 640p naar 4k upscaling job.

[Reactie gewijzigd door codeneos op 22 juli 2024 20:24]

Dat kan natuurlijk wel sneller als je iets op kwaliteit inlevert of een efficiënter algoritme gebruikt.
Neem aan dat dit 1 van de redenen is dat je hiervoor een redelijk recente nVidia kaart nodig hebt (naast dat nVidia graag wil dat je upgrade natuurlijk).

Vraag me wel af of dit geen heel nare artefacten als gevolg heeft als het AI algoritme iets anders denkt te 'herkennen' dan wat er echt in beeld is. En waar de volgende stap zit: gaan we ook onwenselijke content in de videoweergave herkennen en eventueel aanpassen? Lelijk commentaar op bedrijven als nVidia en Google filteren? Kan ik nog wel vertrouwen dat de beelden die ik zie niet gemanipuleerd zijn door een complex stuk software waarvan de werking praktisch niet te beredeneren valt?
Aangezien de halve wereld tegenwoordig hun informatie en nieuws vrijwel uitsluitend uit filmpjes haalt lijkt me dit toch best een issue.
Over een paar jaar is een hoge native resolutie echt niet meer nodig met games.
Daar heeft dit niks mee te maken. Dit is een upscaling techniek voor video waarbij de informatie uit de nog komende frames fixed is en gebruikt kan worden in het algoritme. Je kan hier achteraf een opgenomen gameplay sessie mee upscalen maar niet realtime.

Bij games waar het volgende frame ook sterk afhankelijk is van de user input is deze techniek niet bruikbaar.

De techniek waar jij naar hint heet DLSS of FSR, deze worden al geruime tijd in games gebruikt voor realtime upscaling.
Oké schuldig, best off-topic.
Ik weet van DLSS en FSR.
Zou ik niet te hard zeggen. DLSS 3 is een slechte techniek die bakken input lag genereerd door frames erbij te verzinnen, en de rest (DLSS2 , FSR 2) werken op zich prima, maar het is vaak toch echt nog wel te zien. Als ik een goede framerate kan krijgen met native, dan nog altijd dat het liefst. Het ziet er gewoon beter uit en het heeft geen bij-effecten zoals smearing of gekke dingen. Voordat je echt geen verschil meer ziet met upscaling duurt nog wel even , zeker meer dan een paar jaar.
Op dit moment wel ja. Ik ben dan ook meer enthousiast over hoe snel de ontwikkeling gaat en ik denk over een aantal jaren zal upscaling heel goed werken. :)
Nouja, native resolutie is altijd toch beter dan upscaled, hoe je het ook wendt of keert. Dat het voor velen er goed genoeg uit ziet is weer een ander verhaal. Als je echt gaat opletten dan zul je toch wel vaak het verschil zien, maar met name in de kleine details.
(met hoge resolutie bedoel ik op dit moment overigens 4k op max 60" oid, want 8k is echt hooguit alleen maar zinvol op 60"+, op kleinere schermen heeft het echt geen toegevoegde waarde).
Jij denk niet niet dat het in de toekomst zo goed gaat worden dat het verschil zo minimaal is dat je er in de praktijk niets van merkt?
Maar wat is het nut nog als in de nabije toekomst de GPU's zo snel zijn dat ze 4k zonder upscaling op hun sloffen kunnen halen.
Is dit voor als je in-browser gamet?
Nee puur voor video, waar vorige en volgende series van frames al bekend zijn en berekend kunnen worden.
Ah dus toch. Ik raakte in de war omdat de showcase van een fps was. Thanks!
AMD heeft het al een jaar. Zie dit artikel. Wordt dat ook ondersteund door Google Chrome?

[Reactie gewijzigd door mr.Millenarian op 22 juli 2024 20:24]

AMD gebruikt geen machine learning. De consumentenkaarten van AMD hebben daar ook niet de mogelijkheid toe (of via een software implementatie op de shader cores, maar dat is veel langzamer). Alleen in het professionele segment doen ze iets in die richting.

Het is niet nuttig om deze technologieën gelijk te trekken, want dat leid alleen af van hoever AMD achter loopt op dit gebied.

[Reactie gewijzigd door Wolfos op 22 juli 2024 20:24]

Dan heb ik het bericht van vorig jaar waarin zelfs gesteld wordt dat FSR geen machinelearning nodig heeft om zelfs beter te presteren zeker verkeerd begrepen.
Marketing van AMD om te maskeren hoever ze achterlopen. FSR komt qua beeldkwaliteit altijd als slechtste uit de test.
Ben benieuwd hoe zich dit verhoudt tot commerciële tools zoals Topaz Video AI vooral met betrekking tot snelheid en kwaliteit. De AI upscaling van Topaz geeft indrukwekkend resultaten maar is erg traag, een visie van 2 uur upscalen duurt al snel een dag minimaal.

Verder natuurlijk mooi dat dit straks in Chrome en edge zit maar een plugin voor VLC zou ik ook wel waarderen.
Ik weet eigenlijk niet zo goed of ik dit mooi vind. Straks moet je voor iedere applicatie een aparte video upscaler hebben. Vind het eigenlijk meer een taak voor het besturingssysteem dan dat iedere applicatie zelf bepaalt hoe video afgespeeld wordt.
Daarnaast geeft dit Google ook weer een stukje extra lock-in op de browsermarkt (ja, ze supporten Edge dus eigenlijk kan je zeggen dat ze Firefox hiermee proberen een hak te zetten).
Is de limitatie voor RTX3000 of RTX4000 kaarten niet gewoon een limitatie in de driver zoals dat voor hardware transcoding ook het geval is? De Nvidia Shield TV (Pro) heeft immers ook 4K upscaling, ik dacht dat het op basis van dezelfde technologie is, maar de Nvidia Shield TV (Pro) is uit 2019... Al noemt men het voor de Shield TV wel "AI upscaling", maar dat kan natuurlijk ook gewoon een (ander) naampje voor het beestje zijn. Maar correct me if I'm wrong.

[Reactie gewijzigd door CH4OS op 22 juli 2024 20:24]

tja, mijn FireTV 4k Stick heeft ook 4k upscaling, maar dat is dan toch echt wel van andere kwaliteit dan de implementatie van deze RTX3K/4K varianten. Je hebt upscaling en je hebt upscaling.
Dat snap ik dat het verschilt, een FireTV stick heeft natuurlijk ook minder processing power, zal ik maar zeggen. Een Shield TV (Pro) is volgens mij in dat opzicht ook wat krachtiger dan een FireTV denk ik. Al ben ik niet heel bekend met de FireTV sticks, dus hoe een Shield TV (Pro) en een FireTV stick verhoudt, weet ik even niet, maar ik kan mij voorstellen dat de Shield TV net wat krachtiger is.
De GPU van de shield is zeker een stuk beter dan de FireTV 4k, maar voor video content afspelen zal het weinig uitmaken, games is een ander verhaal.
Mooi! Werkt dit ook op Linux?
Als de feature ook in de Linux driver komt vast wel. :) Maar volgens mij zijn Nvidia en Linux drivers altijd maar een vraag of ze goed werken.

[Reactie gewijzigd door CH4OS op 22 juli 2024 20:24]

Kliksphilip had een leuke analyse van de techniek. Gezien hij alles wat los en vast zit probeert te upscalen is zijn mening interessant. Hij vond het momenteel nog niet echt beter vergeleken (tijdje gelden dat ik het heb gezien) met andere "AI" upscalers.

Filmpje:
https://www.youtube.com/watch?v=-xJ5dSu_voQ

Op dit item kan niet meer gereageerd worden.