Je hebt gelijk dat diffractie een harde limiet is die nooit wordt overtroffen, maar bij de rest moet ik even wat kanttekeningen plaatsen.
Over diffractie: het hoogste 'detailniveau' wat haalbaar is van de lens wordt uitgedrukt in een contrastpercentage bij verschillende lijnen/mm en is proportioneel met de inverse van het F-getal, diffractielimiet ~ F-getal^-1, zie:
https://www.edmundoptics....d-contrast-the-airy-disk/. Wat dit dus betekent, is dat er bij een groter diafragma (= kleiner F-getal), de limiet hoger ligt, dus bij situaties bij lager licht. Overdag wordt er juist een kleiner diafragma gebruikt en juist dan is de diffractielimiet lager en zorgt die juist voor een harde grens in theoretisch haalbaar detailniveau. Zie de tabel in de link: bij F/1.4 is de grens maar liefst 1374 lijnen/mm voor de gekozen kleur en bij F/11 maar 175 lijnen/mm. Juist bij de tweede situatie is die limiet belangrijk en zorgt voor een minder scherp plaatje. Overdag heeft men dus veel meer last van de diffractielimiet die ervoor zorgt dat de lens 'stopt' met weergeven van meer detail in vergelijking met donkere omstandigheden!
Hoe de uiteindelijke prestatie van een compleet plaatje nou werkt, is als volgt: een lens heeft een modulation transfer function (MTF) waarbij er met varierend gedetailleerde beelden op de x-as wordt getest (oplopend aantal lijnen/mm is meer detail) en de prestatie van de lens wordt dan op de y-as afgebeeld als een contrastpercentage; hoe hoger dit percentage, hoe beter de prestatie. Een andere manier om de x-as in te delen als de afstand van het midden tot aan de rand van de lens, waarbij elke lijn juist weer een ander aantal lijnen/mm voorstelt, zoals hier:
https://cdn-7.nikon-cdn.c...harts/Media/2183_MTF2.jpg
Waar het op neerkomt: die MTF-lijn willen we zo hoog mogelijk, want dan is de lens beter in het weergeven van detail, wat sommigen ook wel 'oplossend vermogen' noemen en deze begint hoog aan de linkerkant, waarna die naar rechts toe lager wordt. Een goede lens zal minder verval naar rechts tonen dan een minder goede. Wat hierbij heel belangrijk is: een MTF van een lens zit
altijd onder de diffractielimiet. (bijvoorbeeld hier, dat is de gestippelde lijn:
https://www.researchgate....rates-compared-with-a.png).
En dan de hele crux van het verhaal waarom je niet kan zeggen 'de lens heeft een beperkt oplossingsvermogen, dus de sensor verbeteren heeft geen zin': bij het maken van foto's en video's wordt de uiteindelijke kwaliteit bepaald door de MTF van het totale systeem van lens én sensor en dit is waarom er niet die bottlenecksituatie is die wordt bepaald door de diffractielimiet van de lens: deze wordt namelijk behaald door de MTF van de lens te vermenigvuldigen met de 'MTF van de sensor'. Zie
https://www.edmundoptics....lation-transfer-function/Every component within a system has an associated modulation transfer function (MTF) and, as a result, contributes to the overall MTF of the system. This includes the imaging lens, camera sensor, image capture boards, and video cables, for instance. The resulting MTF of the system is the product of all the MTF curves of its components (Figure 7).
Heel belangrijk is om te zien dat de MTF van de sensor begint bij 100% en steeds naar rechts lager gaat dan 100%. Wat dit dus betekent: omdat de MTF van de sensor altijd een vermenigvuldigingsfactor is die lager is dan 1, zal de effectieve MTF van het systeem altijd lager zijn dan de MTF van de lens zelf, welke op zichzelf ook al altijd onder de diffractielimiet zit! Kijk hier in het plaatje:
https://www.edmundoptics....e799cdea/fig-7-mtf_lg.gif
Aan de linkerkant zit de MTF van de lens, welke dus al altijd onder de diffractielimiet zit. Dit moet worden vermenigvuldigd met het tweede plaatje, namelijk de MTF van de sensor. Omdat deze altijd op 100% of lager contrast zit, zorgt dit voor het de totale MTF van het systeem aan de rechterkant, welke altijd een verslechtering van de oorspronkelijke MTF van de lens alleen is.
De belangrijkste conclusie is hierbij: het heeft
altijd zin om de MTF van de sensor te verbeteren.Het werkt niet zoals bijvoorbeeld een processor- of videokaart-bottleneck bij computers, maar de MTF's van de afzonderlijke delen dragen beide bij aan de totale kwaliteit. Een verbetering van de sensor op zichzelf heeft dus ook zin.
Hoe zit het dan met de plaatjes overdag bij bijvoorbeeld F/11, waarbij die diffractielimiet dus al eerder is bereikt? Nou, die diffractielimiet wordt dus al verdisconteerd in de MTF van de lens en ook dan heeft het weer zin om de sensor in resolutie te verbeteren, omdat de sensor-MTF altijd het beeld 'verslechtert'. Want nogmaals, de MTF van de sensor begint bij 100% en valt daarna naar beneden, dus je vermenigvuldigt iets met minder dan 1. In theorie zou je ook overdag bij F/32, waarbij de diffractielimiet al ver van toepassing is, een foto of video kunnen maken met meer detail door de sensor nog gedetailleerder te maken door bijvoorbeeld deze meer pixels te geven*, want dan 'verslechtert' de sensor-MTF het uiteindelijke resultaat minder.
*indien deze natuurlijk al niet een 'perfecte' MTF van een rechte horizontale lijn is die op 100% blijft steken, wat ook niet eens fysiek kan, want de pixels hebben een vaste grootte en daardoor zal de lijn naar rechts toe bij een hoger aantal lijnen/mm altijd vervallen.
Ik hoop dat het een beetje duidelijk is, alhoewel het volgens mij een wat warrig verhaal is geworden en ik heb het met een hoop edits geprobeerd enigszins leesbaar te maken. Het enige wat ik dus nooit meer wil zien, is dat mensen gaan zeggen dat een lens een beperkt oplossingsvermogen heeft van 'x megapixel', want dat is natuurlijk onzin, omdat de lens een fysiek beeld nog steeds fysiek afbeeldt voordat we het over megapixel hebben. We moeten het in plaats daarvan altijd over MTF-grafieken hebben. En daarnaast hoop ik dat de misconceptie over een bottleneck-situatie de wereld uit is, want de MTF van een lens vermenigvuldigd met de MTF van een sensor dragen beide bij aan de uiteindelijke foto. Ergo, een betere sensor met dezelfde lens zorgt echt voor een beter plaatje en is daardoor geen nutteloze marketing. Eenzelfde sensor met een betere lens mag ook. Of een betere sensor én een betere lens, het kan allemaal nóg beter en dat is de reden dat we naar enorme getallen gaan als 576 megapixel met binning.
Als laatste toevoeging: heeft het dan zin om het aantal megapixel maar te blijven vergroten tot een daadwerkelijk absurd getal zoals een miljard megapixel? Ik zou niet weten hoeveel megapixel 'genoeg' zou zijn, maar wat meer pixels op dezelfde sensorgrootte op dit moment toevoegt, is dat het MTF-verval van de sensor lager is. In theorie zou men dus maar door kunnen blijven gaan totdat de sensor-MTF misschien wel aan de rechterkant van zo'n grafiek slechts 1% vervalt: van 100% naar 99%, wat heel dichtbij perfectie is. Door het grote aantal pixels, kan het detail van een scène met heel veel lijnen/mm namelijk in dat geval bijna perfect worden opgevangen en verwerkt. Wat je dan krijgt, is dat de sensor de maximale prestatie uit de lens haalt, welke nog steeds onder de diffractielimiet zal zitten voor grote diafragma's en precies op de diffractielimiet voor kleine diafragma's.
[Reactie gewijzigd door CaptainPanda op 23 juli 2024 12:41]