Gerucht: Apple gaat camerasensor met lofic-hdr gebruiken vanaf 2028

Apple zou vanaf 2028 camerasensors met lofic-hdr willen gebruiken. Daardoor zijn hdr-afbeeldingen mogelijk zonder meerdere afbeeldingen in een keer te hoeven maken, zoals nu gebruikelijk is. Sony, Samsung en Omnivision komen ook met lofic-camerasensors.

Behalve lofic krijgen de camera's ook een variabel diafragma, meldt leaker Digital Chat Station. Lofic staat voor 'lateral overflow integration capacitor' en met die technologie is er naast elke pixel een extra condensator die overtollig licht kan opvangen. Daardoor moet de sensor details in schaduwen beter kunnen vastleggen en met hulp van het uitlezen van de tweede condensator ook highlights beter kunnen beheersen, om zo dus hdr mogelijk te maken zonder dat er meerdere frames nodig zijn. Telefoons verbeteren nu hooglichten en schaduwen door snel meerdere foto's achter elkaar te maken en die samen te voegen. Het voordeel van lofic is dus dat het in één frame kan, waardoor er minder tijd nodig is en er geen ghosting optreedt.

Die technologie komt de komende jaren in veel smartphones, zo lijkt het. Xiaomi zou lofic in de 17 Ultra willen toepassen. Omnivision heeft de technologie al in de eerste sensors zitten; Samsung en Sony zouden volgend jaar of uiterlijk in 2027 volgen. Vanaf dan zouden veel meer telefoons de technologie aan boord hebben.

Omnivision Theiacel

Door Arnoud Wokke

Redacteur Tweakers

11-11-2025 • 09:40

29

Reacties (29)

Sorteer op:

Weergave:

Ik zit eigenlijk te wachten op technologie zoals de een Light-Field camera ook wel een Plenoptische camera genoemd. Dat zou pas innovatief zijn. Het zoveelste algoritme/ai-truckje dat zgn. HDR maakt en übergelikte kiekjes kan maken die alleen op high-end apparatuur te bekijken zijn... laat maar. En hoe wil je van zo'n HDR-plaatje nu een mooie print maken? Dure printer met 8 of 10 verschillende kleurencartridges in alle kleuren van het spectrum aanschaffen? Dure grap.
Ik zit eigenlijk te wachten op technologie zoals de een Light-Field camera ook wel een Plenoptische camera genoemd.
Hoe is dat toch mogelijk? Zagen en klagen over een HDR sensor. Wat heeft dat nu voor nut.
Het zoveelste algoritme/ai-truckje dat zgn. HDR maakt en übergelikte kiekjes kan maken die alleen op high-end apparatuur te bekijken
Reageren zonder dat je begrijpt over wat het gaat = Reaguren. Het hele idee van de sensor is dat de HDR raw van de camera komt.
En hoe wil je van zo'n HDR-plaatje nu een mooie print maken?Dure printer met 8 of 10 verschillende kleurencartridges in alle kleuren van het spectrum aanschaffen? Dure grap.
Je weet dus niets af van het topic maar reageert toch? Hoe is dat toch mogelijk. HDR aan zich kan je niet printen dus het gaat je niet op kosten jagen. De zon zal niet 'feller' schijnen in uw foto. Papier of inkt weerkaatst enkel licht. Je hebt wel een hogere dynamic range = meer mogelijkheden om een overbelichte foto toch printbaar te maken.
Bioluminescente inkt en vantablack pigment :)
Laten afdrukken bij een fotoservice die zo’n printer heeft?
Het zoveelste algoritme/ai-truckje dat zgn. HDR maakt
Het hele idee is hier juist dat het geen algoritme is (als is digitale verwerking dat natuurlijk altijd), maar dat het beeld gewoon uit één shot direct uit de sensor komt.
Goeiemorgen, slecht geslapen?

HDR als display is tegenwoordig op nagenoeg elke nieuwe smartphone beschikbaar. Het zit al jaren op de duurdere. Een beetje nieuwe laptop heeft het tegenwoordig óók al.

En anders passen we al jaar en dag tonemapping toe. We geven de hele range gecomprimeerd weer. Niet exact hetzelfde, maar er is een soort representatie voor een medium met lagere DR.

Wil je het over dure, onhandige, onpraktische gimmicks hebben? Lightfield camera's en displays. Dat imiteert een smartphonemaker soms dan weer wel door meerdere camera's te combineren, maar dat is ook niet echt hetzelfde he? Beetje zoals 15 stops tonemappen naar een papiermedium, toch? Zou je niet willen.
Als je de bron leest, is daar het onderwerp niet specifiek Apple of Sony, maar gaat het om de sensoren, en de ervaringen daarmee.

Toch grappig om te zien hoe het dan overgenomen wordt om meer klikken te genereren op de titel.
Ja, het nieuws is eigenlijk dat Apple pas in 2028 ermee komt terwijl de rest al in 2026/2027 ermee komt. Apple in de titel staat garant voor veel kliks... Ik kan het Tweakers ook niet kwalijk nemen. Ze doen het allemaal.
xiaomi wordt de eerste die het gaat doen heb ik gehoord.
ah oke, al begrijp ik niet daar staat
~Xiaomi zou in zijn volgende dure smartphone 17 Ultra de hoofdcamera voorzien van een sensor met lofic-ondersteuning.~
Dit moet toch 18 Ultra zijn? of lees ik het verkeerd? Want ultra 17 bestaat al namelijk. Alleen nog voor China, maar waarschijnlijk volgend jaar ook global.

[Reactie gewijzigd door theduke1989 op 11 november 2025 10:39]

Dat weet ik niet - dat moet je aan @arnoudwokke vragen. ;)
Auteurarnoudwokke Redacteur Tweakers @TheVivaldi11 november 2025 11:08
Xiaomi heeft wel een 17 Pro en Pro Max aangekondigd, maar afaik geen Ultra :)
Bizar hoe snel dat met mobiele telefoons gegaan is. De K800i is alweer bijna 20 jaar oud en dat was de eerste ‘camera’ waarbij fotos op een zonnige vakantie voor het grootste deel niet onder deden voor de toenmalige compact camera’s.

Nu, 20 jaar later en er is buiten zoom of bokeh weinig nut meer om een lompe camera met een paar kilogram aan lenzen mee te slepen op vakantie. Je moet al heen goed weten waar je kijkt maar op een groot formaat print is het bijna onmogelijk.
Nu, 20 jaar later en er is buiten zoom of bokeh weinig nut meer om een lompe camera met een paar kilogram aan lenzen mee te slepen op vakantie. Je moet al heen goed weten waar je kijkt maar op een groot formaat print is het bijna onmogelijk.
De beste camera is de camera die je bij hebt, en met smartphones is dat bij wijze van 24/7 je smartphone.

Als je het verschil op een groot formaat print niet kunt zien moet je wellicht overwegen een andere print service te gebruiken, het verschil is digitaal duidelijk zichtbaar.

Ik zou overigens zeggen dat het belangrijkste verschil te zien is aan de 'gelijkheid' van de belichting (white/black levels), witbalans, en color science.

[Reactie gewijzigd door drdelta op 11 november 2025 12:24]

Sinds wanneer maakt Apple camerasensor hardware of gaan ze dat uberhaubt maken in een fabriek? is het niet gewoon dat ze dat ze de camerasensors inkopen bij Sony en anderen? Dat Apple er een marketing sausje overheen gooit is bekend.
Be careful what you wish for; alles dat apple zelf ontwikkeld is onovertroffen; modems, processors, laadstandaarden, enz
Sinds wanneer maakt Apple camerasensor hardware of gaan ze dat uberhaubt maken in een fabriek? is het niet gewoon dat ze dat ze de camerasensors inkopen bij Sony en anderen?
Een camerasensor is een heel basale component, een chip met lichtgevoelige cellen die met filters wat minder lichtgevoelig zijn gemaakt voor rood, groen of blauw licht. Uit de Sony chip komt een qua kleur volstrekt onbruikbaar plaatje met een bak ruis op de donkere gedeeltes waar je U tegen zegt.

Om uit die narigheid het kleurige, scherpe, vrijwel ruisloze plaatje te destilleren gebruiken camerafabrikanten zeer gespecialiseerde kleurwetenschap, technologie en software die ze dan ook vol trots van een eigen naam voorzien: Expeed. Bionz, Venus etc inclusief versienummer. Wie de sensor maakt is minder belangrijk, zo worden de fullframe sensors voor Nikon geleverd door Sony, de APC-sensors en waarschijnlijk die van de nieuwe ZR worden geleverd door TowerJazz. Wie?? TowerJazz.

Dat extra condensatortje om een sensor meer dynamisch bereik te geven is de eerste stap. Die sensor in je camera gebruiken en er een goed plaatje uit halen is heel wat meer en complexer werk dan een serie van die sensors bij Sony bestellen. Ook daarom heeft Apple meer dan 1000 mensen in dienst die werken aan de cameratechnologie..
Oh, op hetzelfde moment dat AI gelanceerd wordt? En de nieuwe SIRI die wel werkt?
Tja, de hardware afdeling is niet de software afdeling.
Had het er laatst over met iemand. De software afdeling is hit-n-miss. De video-editing software is geweldig, hun AI API's zijn goed, er is swift gekomen, watch OS is geweldig gelukt. Maar de app op de smartphone is dan weer lastig te begrijpen, heb ik die functie nu of heb ik die feature niet, slechte utilities of stukjes die slecht werken zoals password of email resets, geen ondersteuning voor diverse handige JS API's in Safari. En dan itunes... Men stopt ook regelmatig met de doorontwikkeling van goede software.
Zou het dan eindelijk mogelijk worden om foto's van beeldschermen te maken zonder die vervelende banden en flikkeringen. Of in een ruimte waar ze LED lampen gebruiken op precies zo'n frequentie dat je camera helemaal loco gaat.
Nee, want dat heeft niets met HDR te maken.
Dat is een natuurkundige eigenschap; een beeldscherm heeft niet altijd volledig beeld. Dat denken jouw ogen, maar als je met een korte sluitertijd een foto van een beeldscherm maakt zie je op de foto alleen dat deel waar op dat moment beeld was/is.
Check de video op 1:20.. daar laten ze een groot beeldscherm zien wat er "normaal" uitziet. Ook hebben ze het over knipperende led lichten op 0:20 waar ze dus blijkbaar een oplossing voor hebben...?

Ik verwacht dat die overflow charge buffer dus de lege delen kan invullen zodat het weer een geheel is.

[Reactie gewijzigd door Stiello op 11 november 2025 11:39]

Panasonic gebruikt al een soortgelijke techniek in de S-1 II met Sony sensor door de Dual Gain Output van de sensor te gebruiken om 2 belichtingen samen te voegen. Hierdoor is het dynamisch bereik significant beter dan de Nikon Z6 III die dezelfde sensor gebruikt.

https://petapixel.com/2025/08/28/why-is-the-panasonic-s1-iis-dynamic-range-so-darn-good/
Dus Nikon gebruikt een Sony sensor?
Weird, als je toch een grote condensator maakt voor het vangen van licht, waarom heb je die kleine nog nodig dan?
Ik mis de technische uitleg eigenlijk ook nog wel.

Mijn vermoeden is dat de sensor zelf nu twee belichtingstijden hanteerd: in de eerste fase worden de kleine condensatoren gebruikt en na die eerste belichting stopt het vullen daarvan en worden de grote condensatoren gebruikt voor de tweede belichting. En daarna kan de software alle capaciteiten uitlezen en een HDR beeld berekenen.

Als mijn vermoeden klopt, dan is dit in principe hetzelfde als wat nu gedaan wordt (twee plaatjes snel achter elkaar schieten met verschillende belichtingstijden), enkel op hardwarebasis dus nog wat sneller, dus minder last van beweging van het object of camera.

Maar, vermoeden, dus ik kan er finaal naast zitten. :)


Om te kunnen reageren moet je ingelogd zijn