Nee, je hebt geen 64 bits nodig voor photorealistische graphics.
En het hele verhaal ligt een stuk complexer.
Jij hebt het over nVidia en dan neem ik eerst even aan dat je het hebt over de rendering van kleurkanalen zoals die ook intern in een videokaart gebruikt worden (render target).
Een normale monitor kan maar 8 bits per kleurkanaal weergeven.
Daarin zitten alle stapjes tussen maximaal uit en maximaal aan.
In sommige gevallen kun je de individuele helderheidsstapjes zien en is 8 bits net niet genoeg.
Voor elke bit die je toevoegt krijg je een verdubeling van de hoeveelheid stapjes.
Maar met 64 bits Ints heb je zo'n 2^56 = 72057594037927936 extra helderheidsstapjes voor elk stapje die je monitor kan laten zien.(!!!)
En je kan je voorstellen dat dat een beeeetje overkill is

Eigenlijk zouden we voor afkijk een iets hogere kleurresolutie moeten hebben (10~12 bits) om geen stapjes meer waar te nemen zonder dithering.
Dat geldt dan alleen voor ongeditherde bronnen.
Bronnen als film zijn gedithered en dan zie je de helderheidsstapjes eigenlijk niet meer.
Nou heeft het wel zin om op hogere bits/kanaal te
werken.
Maar het heeft niet veel zin om hoger dan b.v. 32 bits floating point per kleurkanaal te gaan.
Je kan dan bijvoorbeeld je scene in HDR renderen waarbij er in totaal 2^24 = 16777216 helderheidsstapjes gemaakt worden (ik reken hier alleen de mantissa (24 bits) mee omdat de waardes meestal genormaliseerd worden).
Hieruit kan je dan weer een uitsnede nemen van 256 helderheidsstapjes waardoor je een diafragma na kan doen (zoals je ogen ook reageren op fel licht).
Maar dat is dus ook al redelijk overkill. Je kan dit ook al goed doen met 16 bit floats per kleurkanaal.
Wat er nog bij komt kijken is dat er rekenfouten ontstaan bij alle berekeningen.
Die snoepen een beetje af van de hoeveelheid stapjes en planten daar ruis.
Tegenwoordig kunnen dat aardig wat berekeningen zijn en daarmee wordt een 32-bit float een beetje minder overkill. Maar alsnog.
Verder kan je denken aan 64 bits per pixel (ipv per kleurkanaal van de pixel).
Dat komt voor een RGBA pixel uit op 16 bits per kleurkaal.
Tegenwoordig is dit alweer aan het verouderen aangezien steeds meer games etc. naar 32 bit gerendert worden (waarna daar weer een 8 bits getal van wordt gemaakt om aan je monitor te voeren) . Alle moderne videokaarten kunnen hiermee omgaan.
8 bits per kleurkanaal is dan weer net te weinig, om verschillende redenen.
Het is helaas wel de standaard bij weergave.
Ten eerste zijn er te weinig stapjes om nooit 'banding' te zien.
Als je bijvoorbeeld een overgang van zwart naar wit over het hele scherm uitsmeert dan zie je duidelijk de helderheidsstapjes. Gelukkig helpt dithering hier enorm.
Verder kom je in de problemen als je de data gaat bewerken.
Omdat de beschikbare data in zn geheel (alle 8 bits) op het scherm terecht komt zie je ook alle rekenfouten in beeld.
Daarom zie je in programma's als photoshop dat je je materiaal tijdelijk naar 16 bits kunt oprekken.
Je maakt het materiaal veel groter, maar de rekenfouten blijven net zo klein.
Als je het materiaal dan weer terugrekent naar 8 bits als je klaar bent met bewerken dan vallen alle (of iig de meeste) rekenfouten weg.
En dit is nog niet eens alles.