Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Gerucht: Apple gaat camerasensor met lofic-hdr gebruiken vanaf 2028

Apple zou vanaf 2028 camerasensors met lofic-hdr willen gebruiken. Daardoor zijn hdr-afbeeldingen mogelijk zonder meerdere afbeeldingen in een keer te hoeven maken, zoals nu gebruikelijk is. Sony, Samsung en Omnivision komen ook met lofic-camerasensors.

Behalve lofic krijgen de camera's ook een variabel diafragma, meldt leaker Digital Chat Station. Lofic staat voor 'lateral overflow integration capacitor' en met die technologie is er naast elke pixel een extra condensator die overtollig licht kan opvangen. Daardoor moet de sensor details in schaduwen beter kunnen vastleggen en met hulp van het uitlezen van de tweede condensator ook highlights beter kunnen beheersen, om zo dus hdr mogelijk te maken zonder dat er meerdere frames nodig zijn. Telefoons verbeteren nu hooglichten en schaduwen door snel meerdere foto's achter elkaar te maken en die samen te voegen. Het voordeel van lofic is dus dat het in één frame kan, waardoor er minder tijd nodig is en er geen ghosting optreedt.

Die technologie komt de komende jaren in veel smartphones, zo lijkt het. Xiaomi zou lofic in de 17 Ultra willen toepassen. Omnivision heeft de technologie al in de eerste sensors zitten; Samsung en Sony zouden volgend jaar of uiterlijk in 2027 volgen. Vanaf dan zouden veel meer telefoons de technologie aan boord hebben.

Omnivision Theiacel

Door Arnoud Wokke

Redacteur Tweakers

11-11-2025 • 09:40

50

Reacties (50)

Sorteer op:

Weergave:

Ik zit eigenlijk te wachten op technologie zoals de een Light-Field camera ook wel een Plenoptische camera genoemd. Dat zou pas innovatief zijn. Het zoveelste algoritme/ai-truckje dat zgn. HDR maakt en übergelikte kiekjes kan maken die alleen op high-end apparatuur te bekijken zijn... laat maar. En hoe wil je van zo'n HDR-plaatje nu een mooie print maken? Dure printer met 8 of 10 verschillende kleurencartridges in alle kleuren van het spectrum aanschaffen? Dure grap.
Ik zit eigenlijk te wachten op technologie zoals de een Light-Field camera ook wel een Plenoptische camera genoemd.
Hoe is dat toch mogelijk? Zagen en klagen over een HDR sensor. Wat heeft dat nu voor nut.
Het zoveelste algoritme/ai-truckje dat zgn. HDR maakt en übergelikte kiekjes kan maken die alleen op high-end apparatuur te bekijken
Reageren zonder dat je begrijpt over wat het gaat = Reaguren. Het hele idee van de sensor is dat de HDR raw van de camera komt.
En hoe wil je van zo'n HDR-plaatje nu een mooie print maken?Dure printer met 8 of 10 verschillende kleurencartridges in alle kleuren van het spectrum aanschaffen? Dure grap.
Je weet dus niets af van het topic maar reageert toch? Hoe is dat toch mogelijk. HDR aan zich kan je niet printen dus het gaat je niet op kosten jagen. De zon zal niet 'feller' schijnen in uw foto. Papier of inkt weerkaatst enkel licht. Je hebt wel een hogere dynamic range = meer mogelijkheden om een overbelichte foto toch printbaar te maken.
Bioluminescente inkt en vantablack pigment :)
HDR aan zich kan je niet printen
Zeker wel. Screenshot maken van je foto en printen.

[Reactie gewijzigd door Stronk op 11 november 2025 18:45]

Laten afdrukken bij een fotoservice die zo’n printer heeft?
Het zoveelste algoritme/ai-truckje dat zgn. HDR maakt
Het hele idee is hier juist dat het geen algoritme is (als is digitale verwerking dat natuurlijk altijd), maar dat het beeld gewoon uit één shot direct uit de sensor komt.
Goeiemorgen, slecht geslapen?

HDR als display is tegenwoordig op nagenoeg elke nieuwe smartphone beschikbaar. Het zit al jaren op de duurdere. Een beetje nieuwe laptop heeft het tegenwoordig óók al.

En anders passen we al jaar en dag tonemapping toe. We geven de hele range gecomprimeerd weer. Niet exact hetzelfde, maar er is een soort representatie voor een medium met lagere DR.

Wil je het over dure, onhandige, onpraktische gimmicks hebben? Lightfield camera's en displays. Dat imiteert een smartphonemaker soms dan weer wel door meerdere camera's te combineren, maar dat is ook niet echt hetzelfde he? Beetje zoals 15 stops tonemappen naar een papiermedium, toch? Zou je niet willen.
Het is geen algoritme of AI truckje. Heb je hoegenaamd het artikel wel gelezen?
Panasonic gebruikt al een soortgelijke techniek in de S-1 II met Sony sensor door de Dual Gain Output van de sensor te gebruiken om 2 belichtingen samen te voegen. Hierdoor is het dynamisch bereik significant beter dan de Nikon Z6 III die dezelfde sensor gebruikt.

https://petapixel.com/2025/08/28/why-is-the-panasonic-s1-iis-dynamic-range-so-darn-good/
Dus Nikon gebruikt een Sony sensor?
Bizar hoe snel dat met mobiele telefoons gegaan is. De K800i is alweer bijna 20 jaar oud en dat was de eerste ‘camera’ waarbij fotos op een zonnige vakantie voor het grootste deel niet onder deden voor de toenmalige compact camera’s.

Nu, 20 jaar later en er is buiten zoom of bokeh weinig nut meer om een lompe camera met een paar kilogram aan lenzen mee te slepen op vakantie. Je moet al heen goed weten waar je kijkt maar op een groot formaat print is het bijna onmogelijk.
Nu, 20 jaar later en er is buiten zoom of bokeh weinig nut meer om een lompe camera met een paar kilogram aan lenzen mee te slepen op vakantie. Je moet al heen goed weten waar je kijkt maar op een groot formaat print is het bijna onmogelijk.
De beste camera is de camera die je bij hebt, en met smartphones is dat bij wijze van 24/7 je smartphone.

Als je het verschil op een groot formaat print niet kunt zien moet je wellicht overwegen een andere print service te gebruiken, het verschil is digitaal duidelijk zichtbaar.

Ik zou overigens zeggen dat het belangrijkste verschil te zien is aan de 'gelijkheid' van de belichting (white/black levels), witbalans, en color science.

[Reactie gewijzigd door drdelta op 11 november 2025 12:24]

De iPhone van 3 jaar terug heeft een beter dynamisch bereik dan de duurste Canon of Nikon van 5 jaar terug
Is het daarom dat de 2dehands compactcameramarkt opleeft misschien? Je kan de wetten van de fysica niet oprekken en die beeldsensoren leveren wat ze leveren. Je kan met software veel maskeren, en dat maakt uw beelden dan synthetisch, onrealistisch.

Ik durf beweren dat een sensor van een APS-C camera dubbel zo goed is, als de sensor die nu in de duurste iphone zit, puur op raw-niveau bekeken. Je moet de lat gelijk leggen, en het softwaregebeuren en AI eruit slopen.
Jammer genoeg is dat niet zo, in de iPhone zit een Sony IMX803 als duurste sensor, al 4 generaties overigens. Je kunt zelf de specificaties van die sensor opzoeken. Je verkijkt je mogelijk op ruwe specificaties. Een iPhone maakt volgens mij meer dan 9 belichtingen en accumuleert per pixel het licht en doet er daar allemaal dingen mee. Genoeg video’s van professionele fotografen die het uitleggen
Jammer genoeg is dat niet zo, in de iPhone zit een Sony IMX803 als duurste sensor, al 4 generaties overigens. Je kunt zelf de specificaties van die sensor opzoeken. Je verkijkt je mogelijk op ruwe specificaties. Een iPhone maakt volgens mij meer dan 9 belichtingen en accumuleert per pixel het licht en doet er daar allemaal dingen mee. Genoeg video’s van professionele fotografen die het uitleggen
Ah, 9 stops, heel indrukwekkend! De Canon EOS 6D, uit 2012, had er 11.5. Dat is ong. 6x meer bereik. Maar goed, je moet je niet verkijken op de specificaties hè. Genoeg video’s die dat uitleggen. :9
De iPhone van 3 jaar terug heeft een beter dynamisch bereik dan de duurste Canon of Nikon van 5 jaar terug
8)7 Als ik jou was zou ik deze post heel snel verwijderen voordat een kenner het leest. Die krijgt spontaan een lach aanval van minstens een uur. Je maakt jezelf belachelijk met dergelijke posts.
Dat zal vast, maar ondertussen weet de echte kenner het dus ik verwacht eerder dat ze om jouw post moeten lachen

YouTube: 26. iPhone vs. Red: Measuring the Dynamic Range
Uiteraard, altijd leuk om te zien hoe Apple de natuurwetten kan omzeilen. Een sensor met een oppervlak die meer dan 10x groter is dan de sensor in de iphone, die kan het gewoon niet bijbenen wat betreft dynamische range. Het zijn echt tovenaars daar bij Apple. De volgende Nikon bevat de sensor die Apple in zijn telefoons gebruikt, let maar op. 8)7
Uit jouw reactie merk ik op dat je denkt dat sensorgrootte het dynamisch bereik bepaalt? Dat verklaart een hoop eerlijk gezegd.
Grotere sensor, grotere pixels, dus ja. Je kan beter gaan voor een grotere sensor met grotere pixels dan een kleine sensor met 10x meer pixels, dat laatste is wat de meeste telefoons doen, meer pixels proppen in de sensor. De pixel wedloop.
Bedankt voor de bron die deze bewering ondersteund.
Als je de bron leest, is daar het onderwerp niet specifiek Apple of Sony, maar gaat het om de sensoren, en de ervaringen daarmee.

Toch grappig om te zien hoe het dan overgenomen wordt om meer klikken te genereren op de titel.
Ja, het nieuws is eigenlijk dat Apple pas in 2028 ermee komt terwijl de rest al in 2026/2027 ermee komt. Apple in de titel staat garant voor veel kliks... Ik kan het Tweakers ook niet kwalijk nemen. Ze doen het allemaal.
Sinds wanneer maakt Apple camerasensor hardware of gaan ze dat uberhaubt maken in een fabriek? is het niet gewoon dat ze dat ze de camerasensors inkopen bij Sony en anderen? Dat Apple er een marketing sausje overheen gooit is bekend.
Sinds wanneer maakt Apple camerasensor hardware of gaan ze dat uberhaubt maken in een fabriek? is het niet gewoon dat ze dat ze de camerasensors inkopen bij Sony en anderen?
Een camerasensor is een heel basale component, een chip met lichtgevoelige cellen die met filters wat minder lichtgevoelig zijn gemaakt voor rood, groen of blauw licht. Uit de Sony chip komt een qua kleur volstrekt onbruikbaar plaatje met een bak ruis op de donkere gedeeltes waar je U tegen zegt.

Om uit die narigheid het kleurige, scherpe, vrijwel ruisloze plaatje te destilleren gebruiken camerafabrikanten zeer gespecialiseerde kleurwetenschap, technologie en software die ze dan ook vol trots van een eigen naam voorzien: Expeed. Bionz, Venus etc inclusief versienummer. Wie de sensor maakt is minder belangrijk, zo worden de fullframe sensors voor Nikon geleverd door Sony, de APC-sensors en waarschijnlijk die van de nieuwe ZR worden geleverd door TowerJazz. Wie?? TowerJazz.

Dat extra condensatortje om een sensor meer dynamisch bereik te geven is de eerste stap. Die sensor in je camera gebruiken en er een goed plaatje uit halen is heel wat meer en complexer werk dan een serie van die sensors bij Sony bestellen. Ook daarom heeft Apple meer dan 1000 mensen in dienst die werken aan de cameratechnologie..
Be careful what you wish for; alles dat apple zelf ontwikkeld is onovertroffen; modems, processors, laadstandaarden, enz
xiaomi wordt de eerste die het gaat doen heb ik gehoord.
ah oke, al begrijp ik niet daar staat
~Xiaomi zou in zijn volgende dure smartphone 17 Ultra de hoofdcamera voorzien van een sensor met lofic-ondersteuning.~
Dit moet toch 18 Ultra zijn? of lees ik het verkeerd? Want ultra 17 bestaat al namelijk. Alleen nog voor China, maar waarschijnlijk volgend jaar ook global.

[Reactie gewijzigd door theduke1989 op 11 november 2025 10:39]

Dat weet ik niet - dat moet je aan @arnoudwokke vragen. ;)
Auteurarnoudwokke Redacteur Tweakers @TheVivaldi11 november 2025 11:08
Xiaomi heeft wel een 17 Pro en Pro Max aangekondigd, maar afaik geen Ultra :)
Xiaomi toont zijn ultra toestellen, en de global niet ultra toestellen, eigenlijk altijd pas op het MWC (Mobile World Congress). De verwachting is dan ook dat dat nu weer zo zijn gaat. Verwacht er dus begin maart meer over te horen.
dat is goed nieuws, dan verloopt ook mij abbo.prima nieuws.
Oh, op hetzelfde moment dat AI gelanceerd wordt? En de nieuwe SIRI die wel werkt?
Tja, de hardware afdeling is niet de software afdeling.
Had het er laatst over met iemand. De software afdeling is hit-n-miss. De video-editing software is geweldig, hun AI API's zijn goed, er is swift gekomen, watch OS is geweldig gelukt. Maar de app op de smartphone is dan weer lastig te begrijpen, heb ik die functie nu of heb ik die feature niet, slechte utilities of stukjes die slecht werken zoals password of email resets, geen ondersteuning voor diverse handige JS API's in Safari. En dan itunes... Men stopt ook regelmatig met de doorontwikkeling van goede software.
Goed opgermerkt. De software kwaliteit is erg variabel, er is geen pijl op te trekken. Het zijn juist die features op de iphone die je noemt, die het geheel zo'n ... halfbakken indruk geven. Doodzonde.
Zou het dan eindelijk mogelijk worden om foto's van beeldschermen te maken zonder die vervelende banden en flikkeringen. Of in een ruimte waar ze LED lampen gebruiken op precies zo'n frequentie dat je camera helemaal loco gaat.
Nee, want dat heeft niets met HDR te maken.
Dat is een natuurkundige eigenschap; een beeldscherm heeft niet altijd volledig beeld. Dat denken jouw ogen, maar als je met een korte sluitertijd een foto van een beeldscherm maakt zie je op de foto alleen dat deel waar op dat moment beeld was/is.
Check de video op 1:20.. daar laten ze een groot beeldscherm zien wat er "normaal" uitziet. Ook hebben ze het over knipperende led lichten op 0:20 waar ze dus blijkbaar een oplossing voor hebben...?

Ik verwacht dat die overflow charge buffer dus de lege delen kan invullen zodat het weer een geheel is.

[Reactie gewijzigd door Stiello op 11 november 2025 11:39]

Heeft opnieuw niks met HDR op zichzelf te maken, die flikkering is puur een sluitertijd ding. Wat wel zo is, is dat de huidige smartphones voor "conventionele HDR" dus meerdere foto's nemen, en om dat op redelijke tijd te doen moeten die foto's met een korte sluitertijd worden genomen. Waardoor je dat effect krijgt.

De nieuwe techniek laat het toe om met één enkele foto te werken. De sluitertijd van die foto kan je dan zo kort/lang maken als nodig om die flikkering te vermijden, dus zo simpel is het. Maar je uitleg dat die overflow buffer een leeg deel zou invullen slaat nergens op. De overflow buffer maakt gewoon dat van een pixel die normaal 100% verzadigd is (volledig overbelicht) toch nog een hogere waarde kan worden uitgelezen om zo een veel groter dynamisch bereik te krijgen = HDR.
Dit is wat ik ook grotendeels bedoel, en ik heb het verder ook niet over HDR in mijn opmerking enkel over het oplossen flikkering/banding. Ik snap dat het met sluitertijd te maken heeft en ik weet hoe een beeldscherm werkt. Maar ze hebben dus wel degelijk een oplossing gevonden om daar omheen te kunnen werken. Als de kwaliteit van de afbeelding beter is en ze pakken daar meteen het probleem van flikkeringen mee aan is dat toch een oplossing voor het probleem wat ik noem.

En om op je tweede deel in te gaan, het gaat in de bovenstaande video over videomateriaal. En daar zie je bij reguliere camerasystemen ook vaak dat ze problemen hebben met frequenties van monitoren/led verlichting. Ik neem aan dat die "large reservoir captures overflow charge" er dus wel mee te maken heeft, aangezien ze dat zelf zeggen. En dat deze dus naast dat hij HDR beter kan weergeven ook op een of andere manier soepeler omgaat met hoge frequenties. Ook met video, en als het zo makkelijk was om enkel een beetje de sluitertijd te verhogen hadden ze heel deze nieuwe techniek niet hoeven bedenken lijkt me.

Maar ach, wat weet ik nou. Je hebt gelijk ;)
Weird, als je toch een grote condensator maakt voor het vangen van licht, waarom heb je die kleine nog nodig dan?
Ik mis de technische uitleg eigenlijk ook nog wel.

Mijn vermoeden is dat de sensor zelf nu twee belichtingstijden hanteerd: in de eerste fase worden de kleine condensatoren gebruikt en na die eerste belichting stopt het vullen daarvan en worden de grote condensatoren gebruikt voor de tweede belichting. En daarna kan de software alle capaciteiten uitlezen en een HDR beeld berekenen.

Als mijn vermoeden klopt, dan is dit in principe hetzelfde als wat nu gedaan wordt (twee plaatjes snel achter elkaar schieten met verschillende belichtingstijden), enkel op hardwarebasis dus nog wat sneller, dus minder last van beweging van het object of camera.

Maar, vermoeden, dus ik kan er finaal naast zitten. :)
Hoe ik het opvat: je hebt nog steeds een fotodiode nodig om licht om te zetten naar stroom. De grootte daarvan wordt vooral bepaald door de pixeldichtheid. Eenmaal omgezet in stroom kan je de overtollige stroom ergens heen loodsen waar je meer ruimte hebt, waardoor je de capaciteit vergroot.

Wat misschien ook nog meespeelt is dat de kleinere capaciteit in de pixel beter presteert dan de grotere condensator bij een lage belichting, waardoor je met de combinatie het beste van beide hebt. Voor de duidelijkheid: ik weet niet of dit zo is, het is puur speculatie.
Ik dacht dat er meer voordelen zaten aan het samenvoegen van meerdere foto's, bijvoorbeeld ruisreductie. Er kan inderdaad wel sprake zijn van ghosting (bij bewegende onderwerpen bij slecht licht), dat zou dan een situatie zijn waarin deze techniek de voorkeur heeft, maar voor de rest zou ik zeggen: hoe meer afbeeldingen je neemt en vervolgens samenvoegt hoe beter.

[Reactie gewijzigd door dikkechaap op 11 november 2025 15:14]

Meerdere foto’s samenvoegen kan nog steeds, maar met deze technologie heeft iedere foto al direct een hoog dynamisch bereik van volledige resolutie. Nu gebruiken fabrikanten vaak Quad Bayer sensoren, waarmee je meerdere foto’s met verschillende belichtingen tegelijk kan schieten, waarbij iedere foto maar een kwart van de pixels gebruikt. Die moeten daarna worden samengevoegd, waarbij je niet alleen rekening moet houden met verschillende belichtingen, maar ook met het verlies aan detail in de afzonderlijke belichtingen. Het zal dus makkelijker worden een foto van hoge kwaliteit te produceren.

Om te kunnen reageren moet je ingelogd zijn