Sony: in 2024 overtreft beeldkwaliteit smartphonecamera's die van dslr's

Sony verwacht dat smartphonecamera’s in 2024 foto’s met een betere beeldkwaliteit kunnen maken dan camera’s met een verwisselbare lens zoals dslr's. De volgende jaren zullen we volgens het bedrijf steeds groter wordende camerasensoren te zien krijgen in high-end smartphones.

Dankzij die laatste ontwikkeling denkt Sony overigens dat de markt voor smartphonecamerasensoren de komende jaren zal blijven doorgroeien. Dit ondanks het feit dat het saturatiepunt voor de hoeveelheid camera’s op een smartphone volgens het bedrijf wel degelijk bereikt is. In 2024 verwacht Sony dat foto’s afkomstig van een smartphone een betere beeldkwaliteit zullen hebben dan die van een camera met een verwisselbare lens. Sony verwijst naar het toenemende aantal pixels, artificiële intelligentie en aankomende technologieën.

Vanaf 2025 verwacht de top van het Japanse bedrijf dat een gemiddelde groothoeklens van een smartphone een grotere diameter zal bevatten, de ultragroothoeklens lichtgevoeliger zal zijn en dat de telelens beter zal presteren. In gedeelde slides zien we dat Sony denkt aan de ondersteuning van video-opnames in 8K en multi-frame processing van die opgenomen video’s, dit in combinatie met artificiële intelligentie. Het is niet duidelijk welke camerasensoren van Sony deze technologieën zullen ondersteunen.

Slide uit presentatie Sony Group Corporation

Door Jay Stout

Redacteur

02-06-2022 • 17:42

403 Linkedin

Reacties (403)

403
375
283
11
2
53
Wijzig sortering
Het zijn bijzondere claims, met een hoop kanttekeningen.

Ten eerste: de verwachting dat de sensors groter zullen worden in smartphones. Dat lijkt me inderdaad een vereiste om bij de kwaliteit van een fotocamera in de buurt te komen. Echter met een vergroting van de sensor komt ook een vergroting van de vereiste hoeveelheid glas die nodig is om het licht erheen te brengen. Daar loop je gewoon heel snel tegen de fysieke beperking van de dikte van een smartphone aan, want dat glas moet verhoudingsgewijs ook een bepaalde afstand van de sensor zitten. Een sensor ter grootte van een full-frame sensor zal nooit in een smartphone zitten. En een lens zal verder moeten uitsteken als de sensor groter wordt.

Ten tweede: de kwaliteit van een foto wordt beperkt door de kwaliteit van de lens. Een mini-lens met slechts enkele elementen zal de prestaties van hoogwaardige (dure) grote lenzen met véél meer elementen niet kunnen evenaren, op pixel-detailniveau (scherpte van hoek tot hoek, chromatische abberaties en dergelijke).

Ten derde: scherpte-diepte en de daardoor veroorzaakte "blur" zijn op smartphone-camera's slechts in beperkte mate "legitiem" te verkrijgen. Dit komt omdat bij kleinere sensors (smartphone-sensors zijn ongeveer 10x zo klein als full-frame sensors, of nog kleiner) de effectieve scherpte-diepte groter is (dus minder blur) vanwege de andere lengte van de lens (om dezelfde effectieve lengte of framing te verkrijgen). De blur veroorzaakt door deen smartphone-lens van f/1.4 is niet te vergelijken met de blur veroorzaakt door een f/1.4-lens met dezelfde effectieve lengte op een full-frame camera (die laatste is véél sterker). Hierom doet een smartphone dit meestal "computationally": software matig blurren van de "gedetecteerde" achtergrond. Hoe succesvol dit is hangt af van de software en de sensormogelijkheden (bijv. dieptesensors). Het blijft lastig om dit precies goed te doen in detailgebieden, maar hier worden wel grote vooruitgangen geboekt.

Ten vierde: de lichtgevoeligheid is (per frame) beter in grote camera's. Deze is afhankelijk van de lichtgevoeligheid van de sensor, de grootte van de sensor, en de lichtgevoeligheid van het glas. Hoe kleiner de sensor, hoe minder licht deze opvangt (per pixel). En hoe groter het f-getal van de lens, hoe meer licht die opvangt.
Sensor-verbeteringen qua lichtgevoeligheid zijn niet exclusief aan smartphones. Deze vinden ook hun weg in (grotendeels door Sony geproduceerde) camera-sensors. Hier worden nog altijd grote verbeteringen gemaakt, ook nu nog, en die verbeteringen zijn merkbaar in de nieuwste camera's.
Lichtgevoelig glas is fysiek groter naarmate de sensor groter is. Die grootte is beperkt bij smartphone-camera's, tenzij je met een flinke bobbel in je telefoon rond wil lopen, of tenzij de smartphone-sensor klein is (= minder opgevangen licht). Bij grotere camera's is de beperking vooral het gewicht en de kosten: lichtgevoelige lenzen hebben veel glas nodig, en zijn daarom groot, zwaar en duur.
De grootte van de sensor is waar grotere camera's een overduidelijk voordeel hebben. Een 10x zo grote sensor betekent, bij gelijke sensor-lichtgevoeligheid (dat is een redelijke aanname) en gelijk f-getal van de lens (meestal is die van de smartphone iets groter dan een zoomlens), een 10x zo grote lichtgevoeligheid. Dat is enorm. In de praktijk is een hoogwaardige camera-zoomlens ongeveer 2x minder lichtgevoelig (f/2.8 versus f/2 voor een gemiddelde smartphone-lens), dus kom je uit op 5x grotere lichtgevoeligheid voor een camera met een degelijke zoomlens, en nog véél meer met groter glas (bijvoorbeeld een f/1.2 prime lens - wederom, flink groot en duur, maar dan heb je het over ~24x grotere lichtgevoeligheid van een grotere camera).

Vijf: image stacking. Dit gebruiken smartphones om met hun kleine sensor toch iets meer licht te vangen, door meerdere foto's te maken en over elkaar heen te plakken (met wat rekenkracht). Dat is iets wat handmatig ook met een grote camera kan, maar erg veel tijd kost, en speciale software (niet duur, wel veel gedoe). Dit is waar smartphones grote winst halen in het gebruiksgemak, door dit automatisch te berekenen en te doen. Echter werkt dit alleen goed als er weinig beweging is; bij teveel beweging zullen de bewegende delen geen gebruik kunnen maken van de extra foto's, omdat die details niet gestackt kunnen worden.

Zes: autofocus is beter in grote camera's. Verbeteringen zijn op dit vlak vooral softwarematig, en afhankelijk van de beschikbare rekenkracht en energie. Deze verbeteringen vinden plaats in zowel smartphones als grote camera's. Grote camera's zijn hierin gespecialiseerder en hebben veel meer rekenkracht en energie beschikbaar, en zijn hier dus absoluut beter in.

Wat is er nou beter? Voor de doorsnee persoon die alleen foto's maakt van mensen, gebouwen en landschappen, kan een telefoon in veel gevallen volstaan. De telefoon regelt dingen als achtergrond-blur automatisch (rekenmatig), zonder dat de persoon die de foto neemt iets hoeft te weten van diafragma's. De telefoon berekent zelf of image stacking nuttig is in een bepaalde foto, en zo ja, doet dit automatisch. Ook bij weinig licht, zodat ook dan nog steeds goede foto's gemaakt kunnen worden. Dat is gigantisch! Bij grote camera's is image stacking een enorm tijds-intensieve en ingewikkelde aangelegenheid, die alleen is weggelegd voor enorm toegewijde fotografen die daar de tijd en kennis voor hebben.

Wat een telefoon niet geeft, is een gelijke hoeveelheid aan controle. En er zijn specifieke situaties waarin een telefoon onmogelijk kan doen wat een high-end camera kan:
- Supertele-foto's met groot detail (note: supertele-lenzen zijn extreem duur.)
- Autofocus op hetzelfde kritieke niveau, zoals bij snelle sporten
- Lichtgevoeligheid in situaties met beweging, waarbij van image stacking geen gebruik kan worden gemaakt (bijvoorbeeld concerten, binnensport, theatervoorstellingen enzovoorts)
- Lenskappen tegen lens flare
- Optische DOF blur van dezelfde sterkte (niet computer-gegenereerd)
- Rauwe data zonder overmatige saturatie, ruisreductie of sharpening
- Absolute controle over alle elementen voor wie weet hoe die te gebruiken.

Onderaan de streep ben ik het niet eens met de claim dat de "image quality" hetzelfde zal zijn als die van grote camera's. Wel zal het voor een zeer groot deel (80%? 90%?) van de mensen dusdanig goed zijn dat er geen meerwaarde is om foto's met een grote camera te nemen in plaats van met hun smartphone, vooral ook vanwege het gewicht en de onhandigheid van een grotere camera. Maar een persoon die weet hoe zo'n ding werkt en eruit kan halen wat erin zit, kan daar dingen mee doen die een smartphone niet kan. (En andersom kan iemand met een smartphone ook dingen die je met een grote camera niet kan: namelijk goede foto's nemen zonder moeite en zonder kennis van zaken.)
Daarom zullen journalisten, sportfotografen, trouwfotografen, wildfotografen, vogelspotters, productfotografen en hobbyisten nog altijd gebruik blijven maken van toegewijde camera's, en niet van smartphones; en zij zullen met hun camera's betere foto's blijven maken. Die markt zal, vanwege de stijgende kwaliteit van smartphone-foto's, waarschijnlijk wel wat verder krimpen, omdat de meeste mensen er niet meer uit zullen kunnen halen dan uit hun telefoon. Zonder kennis is een telefoon effectiever, toch worden die foto's steeds beter. Met grote camera's worden de mogelijkheden eveneens steeds groter, maar er zal onveranderd een extra hoeveelheid kennis en nabewerking nodig zijn (ten opzichte van een telefoon) om alles eruit te halen wat erin zit. Wanneer dat gedaan wordt, is de kwaliteit echter wel degelijk beter.

[Reactie gewijzigd door KarmaniaK op 3 juni 2022 18:18]

We gooien er een machine learning algoritme of twee of drie tegenaan en iedereen vindt de resultaten prachtig.
Zolang de aantallen megapixels in de specificaties maar hoog genoeg zijn.
Een hoop gelul om niks, er zijn nu telefoons van nog geen 400 die foto's nemen waar jij het verschil niet ziet met dslr, fotografen stonden versteld, je mag je ook opgeven voor een blinde test, maar wel toestemming geven dat we de beelden mogen gebruiken, ook van degene die meedoen met de test
Hangt er vanaf hoe dat in z'n werk gaat. In wat voor situaties worden de foto's gemaakt? Is het een fullframe DSLR? Mag je de 100% crops bekijken? Hoe worden de DSLR raws ge-edit? Als daar eveneens aggressieve sharpening en noise reduction op wordt toegepast, bijvoorbeeld, dan krijg je foto's die meer lijken op die van telefoons in de details. Als je enige doel is om een foto er zo veel mogelijk uit te laten zien als die van een telefoon dan kan je dat doen, maar dan doe je niet wat je normaal zou doen qua foto editing.

Als je een blinde test eerlijk wil doen dan ga je niet een raw bestand puur "naar een andere foto toe" editen, en dan sta je 100% crop inspectie toe. Is dat het geval?
Ja iedereen is interressant aan het doen, maar de praktijk en de
In omstandigheden met weinig licht is het met zo'n minilens nog steeds een uitdaging om met zo weinig mogelijk ruis een foto te maken.
Je ziet het zeker wel. Alleen niet op je telefoon scherm
Aanvulling op punt 5: bepaalde Panasonic camera's (waaronder de S5) kunnen hun IBIS systeem (interne beeldstabilisatie) gebruiken om 96 megapixel foto's te maken door zelf 8 shots te maken en deze te combineren. Dat kost dus geen moeite en vereist geen aanvullende software.
Klopt. Sensor shifting had ik niet als onderscheidend iets opgenomen, omdat sommige moderne telefoons ook OIS (optical image stabilisation) hebben, en ik me voorstel dat dit een techniek is waar smartphones misschien wel makkelijker gebruik van kunnen gaan maken dan grote camera’s.
Wat mij niet duidelijk is, is waarom al deze ontwikkelingen en nieuwe technieken niet in een groter formaat bij DSLR's toepasbaar zouden zijn? Immers dezelfde techniek maar meer ruimte voor lichtinval etc zou toch moeten betekenen dat DSLR's altijd een streepje voor hebben?
Er staat geen DSLR maar "ILC: Interchangeable lens camera" in de tekst. Deze gaat het inderdaad verliezen van een toestel met meerdere vaste lensen..

Bij 1 lens is er een vaste relatie, tussen aperture (iris / pupil), object resolutie, en scherpte-diepte.

Met meerder lensen kan je truukjes doen als achter af bepalen op welke afstand je scherp stelt, en wat je blurt, maar ook je scherpte diepte op rekken buiten wat fysischmogelijk is met 1 lens.

Eigenlijk word je telefoon een light field camera
Dan moet al die software nog wel heel wat beter worden. Op dit moment pik je de foto’s van een smartphone met “portretmodus” (kunstmatige scherpte-diepte) er zo uit.
Kijk eens naar de portret- foto's van de S22. Deze AI kan zelfs individuele haren herkennen. Er zit zeker een fors verschil in kwaliteit tussen de smartphone-makers.
De camera's van mijn S22 ultra zijn uitstekend, maar op groot beeld pik je het verschil met een goede DSLR er echt wel uit. Vooral met minder licht maakt de ai alles veel te glad. Op wijdse uitzichten redt de S22 het ook minder goed.

Voor alledaags gebruik geen enkel probleem, maar op vakantie gaat de DSLR nog altijd mee.
De Samsung levert mij ook net niet. Kleuren zijn niet helemaal precies en het is helaas een bekend gegeven dat Samsung aan overprocessing doet. Heb je al eens gcam geprobeerd?

Ik doelde op de kwaliteit van de AI voor herkennen van de "edge" van portretten. Individuele haren worden geïsoleerd.
Om kleur op te vangen bij weinig ligt heb je gelijk, maar daarentegen kan ook een monochrome of N-IR sensor worden toegevoegd met groter dynamisch bereik en/of gevoeligheid.Als deze dan met een kleurenfoto wordt gecombineerd kan je voor een deel het gebrek aan contrast compenseren of viceversa kleuren mappen naar de monochrome foto.

Ik denk dat Sony doelt, in dit artikel, op beelden die gevangen worden op (in full frame termen) 18-72mm, of misschien zelfs 135mm. Voor alles wat daar voorbij ligt ben je tot nog toe afhankelijk van 1 sensor, en kunnen de andere sensoren dus geen meerwaarde bieden. AI kan ook geen accurate informatie genereren uit het 'niets'. DSLR of ILC zal nog wel een aantal jaar meerwaarde bieden wanneer je verder dan 135mm wilt gaan of naar macro's. Maar dat is denk ik relatief gezien, hoe gaaf het ook is, een niche.

Je camera set zou dan kunnen bestaan uit een (in full frame termen) 35mm monochroom, 28-72mm telezoom kleur, en een 18mm wide (+ ToF). Dan beslaat de monochrome sensor in elk geval ~66% van het object (niet de gehele scene) dat je probeert te fotograferen.
... maar op groot beeld pik je het verschil met een goede DSLR er echt wel uit. Vooral met minder licht maakt de ai alles veel te glad.
Dat herken ik ook heel sterk. Op het eerste gezicht lijken de foto's heel netjes, maar ga je wat inzoomen of kijk je wat langer, dan zie je al snel dat er wel echt verschil is. Ook het kunstmatige achtergrond vervagen is iets wat snel te herkennen is.

Ik ben sinds kort overgestapt van een APS-C camera met een travelzoom lens naar een fullframe camera en heb daar een nette 24-70 lens bij zitten en daar merk je ook wel echt verschil. Het is net een stapje helderder/scherper.

Het is net waarop je kijkt waarop je verschil gaat merken. Ik kan onder andere foto's terugkijken op een 4K oled, daarop ga je een stuk sneller tekortkomingen zien dan op een smartphonescherm.

Ik geef zelf altijd de voorkeur aan een dedicated camera, omdat je daar meer mee kan. Een mooi voorbeeld is hoe camera's omgaan met licht/focus: op een smartphone kom je niet verder dan ergens tikken, daarop wordt de belichting gebaseerd en daarop wordt gefocust. Bij een dedicated camera kan ik schakelen tussen spotmetering of belichting vanuit een breed veld. Wat ik fijn vind is spotmetering, in combinatie met een knop waarop je je belichting kan vastzetten. Je kan dan "zoeken" waar je je licht op baseert, met de knop die belichting vasthouden en dan mikken op het punt waarop je wil focussen.
En op het moment dat je de onstpanknop indrukt, beweegt de camera niet/nauwelijks naar voren, waardoor je je focus zou kunnen veranderen (zoals bij een smartphone).

Maar ik heb geen hekel aan mijn smartphone: de "beste" camera is die je bij je hebt. En als ik op pad wil om mooie foto's te maken, dan regel ik dat ik een dedicated camera bij me heb. En voor de toevalstreffers is de smartphone handig.
Met portret foto's is het niet alleen de scherpte-diepte die van belang is maar ook de vertekening. De betere portret-foto studio's gebruiken een tele-lens zodat de neus en de beide oren er netjes op staan en de juiste verhoudingen hebben. En ja, de S22 heeft aardige (10 MP) telelens.

Als je bedoelt dat je ook van dichtbij een gezicht mooi in beeld kan brengen, ja dat is dan ongetwijfeld 1 van de andere camera's. Maar dat is juist geen portret-fotografie, dan wordt de neus naar verhouding te groot.
Tel daar bij op dat als je een vaste koppeling tussen de lens en het opname element hebt, dat je dat samenspel perfect op elkaar kan afstemmen. Terwijl een los opname-element en een losse lens nooit perfect op elkaar afgestemd zijn maar slechts op een virtuele standaard ergens in het midden.
Als dat waar was, dan zouden al die "point & click" cameraatjes die vroeger verkocht werden (vóór de smartphones) dus betere resultaten geven dan DSLRs en ILCs?
Dat nu ook weer niet. Die 'point&click' kameraatjes waren op zich van slechtere kwaliteit en daarbij in de regel helemaal niet op elkaar ingeregeld, vooral ook omdat ze helemaal geen instel mogelijkheden hebben.

De huidige (hogere klasse) smartphone toestellen hebben digitaal en soms ook electronisch en zelfs mechanisch de mogelijkheid om zich goed op elkaar in te stellen.

En met het op elkaar afstemmen van de lens en het opname element: Daarbij kan je denken aan een electronisch kleur filter toepassen omdat de lens ook wat verkleuring heeft. Of een andere optische afwijking in de lens die electronisch kan worden weggepoetst.
Ik lees toch echt dslr ...
Heel simpel: schaal. Er worden per jaar maar een paar miljoen DSLRs verkocht. Maar er worden honderden miljoenen smartphones verkocht. Het geld zit dus in het maken van smartphone sensors. En daarnaast hebben de smartphones veel krachtigere hardware, waardoor je je algoritmes krachtiger kunt maken. Het is voor Sony veel efficienter om via algoritmes iets te bereiken dan via analoog glas.

[Reactie gewijzigd door pepsiblik op 3 juni 2022 12:00]

Precies, en de verkoopaantallen lopen rap terug de laatste jaren: https://www.statista.com/...reflex-cameras-worldwide/
Dan krijg je dus meer en meer een computer gegenereerd beeld. Geef mij dan maar écht beeld van een goede DSLR waar knap glas en dito sensor in zit.
Als je denkt dat de sensoren in een DSLR geen enkele beeldbewerking toepassen voordat de output naar je kaart gaat, dan zit je er naast. Denk maar terug aan het "verdwenen sterren" schandaaltje van Nikon. Daar zagen mensen de sterren verdwijnen omdat de Nikon sensor firmware ze aanzag voor ruis.
Zulke missers zijn er natuurlijk altijd. Maar met "computergegenereerd beeld" doelde ik meer op allehande truucs om tot een acceptabel beeld te komen op een smartphone.
En wat ik dus bedoel te zeggen is dat dit al sinds jaar en dag gebeurd.
Dat snap ik ook niet helemaal. Technisch gezien lijkt het me dat je met een grotere sensor altijd betere resultaten moet kunnen halen dan een kleinere sensor, mits de overige factoren hetzelfde zijn. Ik denk zelf dat dat juist een probleem is, namelijk dat smartphone chips steeds slimmer en sneller worden met meer rekenkracht terwijl de chips die ze in DSLR's stoppen nu al een beetje blijven hangen op dat gebied. Dat gaat een probleem worden als AI een noemenswaardige rol gaat spelen in de beeldkwaliteit van smartphones terwijl DSLR's dat niet gebruiken.
Sony verwijst naar het toenemende aantal pixels, artificiële intelligentie en aankomende technologieën.
Ik vraag me al langer af waarom ze niet in foto/video/action camera's gewoon dezelfde chips gebruiken als smartphones zoals een Qualcomm Snapdragon in plaats van zelf die chips blijven ontwikkelen en er jaren over doen om dingen als 4K60p te ondersteunen.

[Reactie gewijzigd door JackDashwood op 2 juni 2022 18:01]

Ik vraag me af of ze blijven hangen op dat gebied en of een Snapdragon wel in staat is om de enorme stroom data direct van de sensor af te lezen als het om RAW foto's gaat. De Nikon D850 bijvoorbeeld maakt RAW plaatjes van rond de 45 MB en dat met 7 tot 9 per seconde tot het moment dat de buffer vol is (1,3 GB). Dat is serieuze rekenkracht die je nodig hebt, maar wel specifiek voor één doel, dat terwijl de telefoon een processor heeft die veel meer moet kunnen. Ik denk verder dat stroomverbruik hier ook een factor is die meegenomen moet worden.
Smartphones zijn bijna oneindig krachtiger en hebben meer geheugen. Met allerlei AI-functonaliteit die door dedicated hardware uitgevoerd wordt.

Hardware in smartphones is vele generaties nieuwer dan van camera's.
Hoeveel smartphones kunnen H.265 recorden? Of 400 Mbps wegschrijven? Ik betwijfel ook of een smartphone foto's van 26mb 40 keer per seconden kan wegschrijven.
Waarschijnlijk weinig. En heeft waarschijnlijk ook niet zoveel nut in een smartphone.

[Reactie gewijzigd door kabelmannetje op 3 juni 2022 09:56]

Maar daar heb je dus wel een goede processor voor nodig, of in ieder geval een specialistische.
Ja, maar net of er behoefte aan is aan custom dsps. Vermoedelijk weinig.

Sowieso kan een smartphone niet 40x een computational photography frame afleveren, de "lens" staat immers te lang open daarvoor. Ook al is de shutter instant, de lens staat al open voor je op de shutter drukt.
Ik geloof dat Sony's eigen Xperia 1 IV dichtbij komt. 4K 120fps in H.265. De bitrate kan ik helaas niet vinden, of het VBR/CBR is.
Maar daarnaast, als je kijkt naar fotografie, continuous stills 20fps van 12MP? snelle rekensom 12*10^5(MP)*3(bytes per pixel)*20(fps) = 720MB/s.
Dit is rauwe sensor data, dus ergens wordt deze dergelijke hoeveelheid data wel verwerkt.. Ik weet niet of deze het alleen kan in JPEG of RAW, maar een van beide dus wel. Dan je zou dus eerder beperkt zijn door je storage of processing, maar niet de hoeveelheid informatie die de sensor aanlevert.
Side-note: Zelfs als je chroma subsampling zou toepassen, dan kom je er nog akelig dichtbij in de buurt.
Die berekening klopt niet helemaal, ook bij raw gebruiken we nog steeds compressie, bv een Canon R5 heeft een 45 MP sensor maar de raws zijn ~50 MB/stuk en de JPGs 12,5 MB/stuk, met een sensor die ~4x minder pixels heeft zou je dus ook 4~x kleinere bestanden hebben, 12/45*12,5 = 3,3 MB/stuk. Zelfs bij een JPG van 5 MB of een RAW van 15 MB is 20 of 30 beelden/seconde kom je uit op 100-150 MB/s voor JPG. Hou er ook rekening mee dat video in bits wordt uitgedrukt en foto grootte in bytes, dus een moderne smartphone kan meer dan 1000 Mbit/s schrijven zonder problemen.
Hij klopt volledig, de sensor verwerkt 720MB/s, echter zit er in de meeste sensoren ook een lossless compressie algoritme tussen uitgevoerd door een ASIC achtige chip. Dus mijn 'claim' klopt wel. Dat dit niet deze informatie niet direct over communicatie lijnen wordt getransporteerd is een tweede. De ASIC compressed de informatie, verstuurd het naar de SoC danwel tussenliggende chip voor AI/beeldverwerking, decompressed, en verwerkt de informatie. Er is altijd compressie, maar dit gebeurt voordat je dit ziet op de transmissie lijnen, want die zijn beperkend. Dat jij/ik deze getallen nooit zullen zien dat staat er helemaal los van.
Hmm, bij nader inzien klopt je berekening wel, maar waar de post waar je op reageert het over heeft is bitrate die naar disk wordt geschreven aan het eind van de rit, niet de communicatie tussen de sensor en SoC. Wat ik wel vergat in mijn berekening is dat bij foto's een ram buffer gebruikt kan worden voor telefoons met minder snelle opslag.
ik weet niet hoeveel telefoons... maar iPhones kunnen H265 recorden, en de iPhone 13 Pro kan met ca 800 Mbps ProRes video wegschrijven.
40x26=1040MB zeg maar 1GB. Topmodel smartphones hebben nu al 12GB aan RAM. Dus zelfs als de opslag niet snel genoeg zou zijn, cache zat.
Dat durf ik niet zomaar stellen.
Waar smartphones hun magie vaak doen adhv software doen cameras dit vooral hardware matig.
Al hebben ze minder rekenkracht, toch kunnen ze verdomd snel die beelden verwerken.
Smartphones belichten veel langer ivm kleinere sensor. Hierdoor kan je niet 40 foto's computational photography shots per seconde halen.
Beetje onzin toch.
40 shots per seconde geeft je ruwweg een sluitertijd van 1/25. Een beetje smartphone camera gaat al snel naar F1.8 1/50 ISO125, zelfs binnenshuis.
Dat is ongeveer hetzelfde als bij dslr of systeem camera's.

Maar ik vraag me wel af wat dit met rekenkracht te maken heeft. Dit is eerder een fysieke beperking.
Nee, zo werkt het dan ook niet.
tja, zo werkt het net wel. Maar ik heb de indruk dat je niet echt weet waarover je aan het bazelen bent. Prettige dag nog.
Nee, zo werkt computational photography niet. Ik krijg de indruk dat jij echt niet weet waarover jij aan het bazelen bent. Nog een prettige dag nog.
Smartphones zijn bijna oneindig krachtiger en hebben meer geheugen. Met allerlei AI-functonaliteit die door dedicated hardware uitgevoerd wordt.
Als je een grotere camerasensor en kwaliteitslens gebruikt hoef je veel minder vaak op een AI circus te vertrouwen om het resultaat nog een beetje toonbaar te maken...
Een grote lens en sensor passen niet in een smartphone. Dus snap even niet waar je naar toe wil.
Ik ben zelf eigenaar van een D850 en mijn foto's zijn uncompressed 100mb. Het zijn grote bestanden maar dan heb je ook wel wat in de nabewerking. Ik ben het verder ook zeker met je eens en 100% dat een telefoon niet dezelfde prestaties hebben als de meest high end telefoon.

Ik film namelijk ook met de D850 en ik heb samen met een vriend van me de iPhone 13 pro ernaast gehouden voor het verschil. We hebben de iPhone op de maximale stand gezet (raw, dolby vision etc) maar hij verloor het zo erg met de D850.
2x zo groter sensor betekent 4x minder sensors uit een wafer
Euh, dat ga je toch moeten uit leggen.
Als een tegel dubbel zo groot is heb je er toch ook niet 4x minder nodig?
sensor is eerst 1 bij 1 cm, oppervlakte is dan 1x1= 1cm2
nu twee keer zo groot
sensor is nu 2 bij 2 cm, oppervlakte is dan 2x2 = 4cm2 (hier kon je eerst 4 sensors uithalen)
maak je hem weer 2 keer zo groot
sensor is nu 4 bij 4 cm, oppervlakte is dan 4x4 = 16cm2 (weer 4 keer minder sensors, en zelfs 16x minder ten opzichte van de kleine sensor)

Dat is het lastige met lengte, oppervlakte en volumes.
Een sensor van 2x2 is niet dubbel, maar 4x zo groot als een sensor van 1x1.
Net zoals een 4K scherm niet dubbel zoveel pixels heeft als een 2x scherm.
Als men spreekt over dubbel zo groot bij sensoren zal dit altijd in oppervlakte zijn.

[Reactie gewijzigd door System op 3 juni 2022 08:04]

En als je een Samsung s22 vergelijkt met Aps c, dan is de diagonaal van een apsc ongeveer 3 keer groter, dus verschil van 9 in oppervlak. Hele dure sensors dus
idd, daarom zie ik het niet snel gebeuren dat ze beter worden dan een dslr of systeem camera
Door computational photography wordt gecompenseerd voor kleinere sensor. Daarom is bijvoorbeeld nachtfotografie mogelijk op een smartphone, terwijl een systeemcamera óf onderbelicht óf een blur wordt vanuit de hand geschoten.
alleen klopt uw uitspraak niet.
Ook met dslr kan je perfecte nachtfoto's maken.
En met een smartphone zal je nooit betere foto's maken in duistere omgeving.
Laat dit net het zwaktepunt zijn van een smartphone.
Mij lijkt het dat je zelf geen dslr hebt en dus ook geen zicht hebt over hoe goed dslr's kunnen werken in minder belichte omgevingen.
Het is duidelijk dat jij geen DSLR hebt. Nachtfotos zonder statief zijn superieur op smartphones vergeleken met DSLRs.
lol, of ik weet hoe ik mijn dslr moet instellen om een smartphone te overtreffen?
Nee, dat kan jij niet.
Met een telefoon werkt het natuurlijk wel voor t gros van de mensen makkelijker. "Point and click". Voor fatsoenlijk dslr beeld in situaties met weinig licht moet je wat meer kennis hebben, anders heb je al snel bewogen beelden of vreemde witinstellingen etc
De uitspraak klopt zeker. Mijn dslr EOS 80D maakt geen beter nachtopnames uit de hand dan de smartphone S22 ultra. De sensorontwikkeling van de dslr staat al jaren bijna stil en die van de smartphone ontwikkelt veel sneller
Of je maakt de sensor 1.414*1.414cm dan is hij 2cm2 dat is in oppervlakte ook 2x zo groot.
Dus ook een 2x zo een grote sensor.
sensor is eerst 1 bij 1 cm, oppervlakte is dan 1x1= 1cm2
nu twee keer zo groot
sensor is nu 2 bij 2 cm, oppervlakte is dan 2x2 = 4cm2 (hier kon je eerst 4 sensors uithalen)
ja een beetje hoe je defineerd wat twee keer zo groot is. ik noem dit toch echt 4 keer zo groot.
een bad kamer word toch ook niet twee keer zo groot als je zowel de breedte als de lenge verdubbeld.
Uiteindelijk gaat het niet om de chips maar gewoon om het glas ervoor. Dat ga je nooit goed krijgen op een smartphone. Ik geloof er dan ook helemaal niks van.
Lens van smartphone staat veel langer open dan bij een DSLR. Hierdoor is er veel meer informatie beschikbaar. Gecombineerd met veel krachtiger verwerkingssoftware, levert dit betere kwaliteit op. Mijn huidige pixel6 is al heel, heel veel beter dan mijn rx100v2.
Langer open staan is juist vervelend ivm beweging. Je kan wel stabilisatie gebruiken maar dat werkt niet bij voorwerpen die binnen het beeld zelf bewegen.
Het bronmateriaal zal nooit zo goed zijn als een echte opname met een lichtsterke lens. Omdat er door de beweging gewoon bijgefantaseerd moet worden door de algoritmes.

Vergeet ook niet: Ook bij een lichtsterke lens kan je algoritmes gebruiken. Je hebt dan veel beter bronmateriaal om mee te werken dus je kan er ook meer mee doen.
Nu herhaal je jezelf weer.

Opnieuw, er wordt gerekend met vele malen meer licht dan een lichtsterke lens kan geven. Beweging wordt er niet "bijverzonnen", graag een linkje naar een paper.

Ik raad je aan je te verdiepen hoe de data van beweging door algoritmes wordt ontleed in bruikbare informatie.

En, DSLRs maken slechts gebruik van de data van 1 frame. Dus je hebt veel minder "bronmateriaal".

[Reactie gewijzigd door kabelmannetje op 2 juni 2022 19:57]

De beweging wordt er niet bij gefantaseerd maar moet juist worden weggehaald. Als je een een foto maakt met een sluitertijd van 1/1000e van een seconde zal er niet veel licht op de sensor vallen, maar gedurende die tijd hebben objecten ook niet veel tijd te verplaatsen. Als je zegt dat de lens langer open blijft, bijvoorbeeld 1/1000e, valt er meer licht op de sensor maar kunnen objecten ook zijn verplaatst en voor een blur op de sensor zorgen.

Ze zullen waarschijnlijk meerdere foto's met een sluitertijd van bijvoorbeeld 1/1000 maken en dat met slimme software combineren tot 1 foto. Een langere sluitertijd gebruiken (de lens langer open laten staan) en de beweging wegpoetsen lijkt me aanzienlijk lastiger te realiseren.
Dus, er wordt niks bijverzonnen.

Ja, beweging die niet bruikbaar is, wordt genegeerd. Er blijft echter in de meeste gevallen ruim voldoende data over voor een goede foto. En nee, een smartphone is niet geschikt om F1 te fotograferen. Dat beweert niemand en daar moet je iets anders voor gebruiken.

[Reactie gewijzigd door kabelmannetje op 2 juni 2022 20:28]

Er zit nogal een gat tussen F1 en geen beweging.. bladen aan bomen en planten, haren in de wind, er beweegt meer dan je denkt.
Het 'negeren' van beweging is uiterst complex en ook gevoelig voor fouten / artifacts.

[Reactie gewijzigd door Olaf van der Spek op 2 juni 2022 20:53]

Dat wordt door algoritmes prima gecompenseerd.

Ik kan zelfs fietsend foto's maken op m'n smartphone. Haarscherp, goed contrast en geen enkel artifact.
Daar ben ik dan wel benieuwd naar. Ik doe dat ook met een iphone 12 en zie elke keer opnieuw hoe de algoritmes al dan niet deels falen of op het hele beeld kei-hard door de mand vallen en teruggaan naar een single-shot zonder enige voordelen van het computationele gebeuren. Vol artifacten en tegenvallende kwaliteit.

Hier een voorbeeldje. Links de RAW en rechts de nagenoeg gelijk genomen HEIC. Het algoritme dácht dat het wel alles correct kon mergen. Soms wéét het dat het niet lukt en valt het terug naar een kapot-van-NR single-shot image.

Op dezelfde wijze kan ik nog steeds met een groot-sensor-apparaat foto's van heftig bewegende muzikanten in moeilijk licht maken waar de smartphones en algoritmes gewoon véééél te traag zijn. Zodanig dat ik het heel erg betwijfel dat ze dat ooit gaan inhalen.

[Reactie gewijzigd door Arrigi op 2 juni 2022 21:49]

Heb zelf en Pixel6pro en een €200 smartphone met gcam.

Ben/was een pixelpeeper, zie absoluut geen bewegingsartfacten. Wat je eerder ziet is lichte ruis als een object (trein) hard langs je neus schiet. Er is dan niet voldoende data aanwezig om een perfect belichte en ruisvrije trein te krijgen, terwijl bijvoorbeeld de spoorbomen dat wel goed zijn. Maar, dan moet je echt al op een monitor speuren.

Maar voor langzamere zaken, wandelaar, kat, ruisende bomen als je fietst, dan is er ruim voldoende data aanwezig zonder beeldfouten.
Ik weet waarover ik spreek en dit is absoluut geen "lichte ruis". Dit zijn kei-harde mergefouten waar niet gemerged had mogen worden wegens teveel verschil. Soms uit het zich als een dubbele schaduw van een spookpaal of andere rariteiten. Ik verwijder deze doorgaans en hou enkel de RAW, dus heel veel voorbeelden kan ik niet vinden.
In de RAW (links) heb je daar overigens helemaal niets van en zie je gewoon de te verwachten ruis. Dát is ruis. Dat ontkracht ook je bewering dat het is omdat het te rap gaat. De RAW toont dergelijke artifacten in zijn geheel niet.

En nu niet terugkrabbelen. Je zei dat het allemaal perfect werkte, specifiek vanop de fiets. Dat is gewoon kei-hard niet waar. Misschien is het op een pixel6 beter, maar ik betwijfel het. Het probleem is dat er teveel beweging is. Aan 32kmph beweeg je per seconde 8 meter. Ik laat de berekening over hoeveel pixels bepaalde beeldelementen opschuiven per frame aan anderen overlaten, maar het valt duidelijk buiten waar in dit geval Apple voor heeft ontworpen en getest.
Opnieuw, ik zie geen bewegingsartfacten vanaf de fiets.
Toon het dan, want jij kan alles beweren als je niks bewijst.
Zeg maar waar al deze overduidelijke artifacts te zien zijn. Shot gisteren vanaf de fiets. https://photos.app.goo.gl/FZ7mS5EBvaxMqSni7
Alle donkerdere bladeren aan de linker- en rechterkant zijn gewoon troebel. De schaduwpartijen op het pad onderaan hebben een vreemde hoeveelheid minder detail dan het zonnige stuk ervoor. Op een stuk wordt elk steentje getoond, elders zijn een boom+struik+gras(?) een grote groene waas.
Er zit gewoon sterke variatie in de hoeveelheid detail doorheen de foto.

Dat zijn nu eenmaal artifacten van (de tekortkomingen van) het proces. Als dit je bewijs is dat alles perfect werkt heb ik genoeg gezien.

Daarbovenop: wat was je snelheid?
Maak even een foto met een DSLR met 15km/u en dan spreken we verder.

Foto is trouwens genomen met een imx582, ook al weer 3 jaar oud.

[Reactie gewijzigd door kabelmannetje op 3 juni 2022 11:52]

Zie de bonus enkele posts hoger. Dat was met een X100F van 2017. Ook weeral 4 jaar oud. Een jaar ouder dan je IMX582. Goed genoeg?

Hier nog eentje. Eentje die minder identificeerbaar is dan vele anderen, dus ik kan hem helemaal tonen. Met een boel data. Heb jij echt even pech dat ik véél foto's maak op de fiets.
Ik ben ooit eens gaan fietsen in de buurt van Avelgem, België. Hierzo.

Ik reed op dat stuk 31kmph.
De foto zelf heeft afgezien van stevige lens decentering - niet geheel onbekend bij de X100 lijn en ook weleens bij smartphones - geen:
  • rare artifacts
  • stukjes beeld die ergens herhaald worden
  • been/fietser/hond/stuk gras dat veel waziger is dan andere delen
  • troebel gras, nee het is een boom, nee het is toch een struik? nee alles is samengevoegd tot een groene waas
Ik val in herhaling: Na 2 externe pixel 6 samples die ik online vond en artifacts aanwees, nadat ik in jouw HDR+ sample toon waar het niet 100% goed gaat, nadat ik 2x een iphone12 RAW+HEIC sample vergelijk en aanwijs waar het misgaat en 2x een sample van een niet-smartphone toon waarbij deze problemen zich niet voordoen... ga je alsnog beweren dat het probleem niet bestaat he?

Misschien, heel misschien: als het in 5/5 smartphonesamples te vinden is... héél misschien is HDR+ en varianten daarop voorlopig gewoon niet toereikend om grotere sensoren in alle situaties van de troon te stoten.

[Reactie gewijzigd door Arrigi op 3 juni 2022 12:27]

Nauwelijks contrast in de donkere delen. Boom links is 1 grote blur.

Zelfs met volop zon. De techniek van de smartphone-foto is door de extremen van contrast een stuk indrukwekkender.

[Reactie gewijzigd door kabelmannetje op 3 juni 2022 12:37]

Ok, jij bent niet te redden, wil niets lezen. Ik had specifiek decentering nog genoemd, dat is een ander probleem dat ook optreedt bij smartphones.

Doe lekker verder in je fantasiewereld vent.
"Ga toch lekker in jouw fantasiewereld leven vent."
Jij wil niks lezen. " Ik zie geen contrast in jouw foto. Terwijl er volop zon is. Geen enkele doortekening. Die smartphone foto is een stuk indrukwekkender. Niks overal artifacten.

En aan de randen zijn enorme artifacts, een flink deel is onscherp. Maar, dat telt dus blijkbaar niet? "Jij bent niet meer te redden".

[Reactie gewijzigd door kabelmannetje op 3 juni 2022 12:43]

Ik lees alles. Jij negeert zelfs dat er een lensdefect is. Of een lensdefect nu in een smartphone of een niet-smartphone zit (beide gelinkt) maakt niet uit. Beide zouden een wazige hoek hebben en beide bestaan. Dus nee, dat telt niet.

Deze hele thread gaat over beeldverwerking en de bijhorende nadelen. Nadelen die jij gewoon wil negeren. Waarom is me een raadsel. Zeker de inmiddels 95 reacties die je er aan toe hebt gewijdt. Ben je een Sony C-level?

Volop zon en nergens een harde schaduw te bekennen? Jaha. De foto zit verder vol met fijn detail. Het is niet omdat het geen halos van de sharpening heeft dat er geen detail is. Die smartphone foto heeft én sharpening halos én blur. Die combinatie is indrukwekkend, ja.

Tot zover ben ik de enige in de discussie die een overweldigende hoeveelheid samples heeft aangebracht. Zowel van mezelf als extern. Zelfs de ene die jij aanbrengt ondersteunt mijn punt. Ik begrijp niet hoe je de samples van de iphone kan bekijken en niet ziet dat de ruwe sensordata niet het probleem is, maar de verwerking. Hetzelfde met de externe samples. Hetzelfde met je eigen sample.

Als ik opnieuw concertfotografie aanhaal voor dezelfde reden (beeldverwerking en daarbijhorende voor/nadelen), steiger je. Alsof het een ander probleem is. Probleem blijft hetzelfde: bij grote bewegingen kunnen de individuele frames niet op elkaar geplakt worden om een betere SN-ratio te behalen. Dan heeft het algoritme 2 keuzes: beeldfouten of terugvallen naar een kapot-NRde detailloze representatie. Een grotere sensor haalt die SN-ratio zonder bracketing. Dat staat dus los van lensfouten.

Totnogtoe schijnt geen enkele smartphone of sensor (of combinatie) snel genoeg te zijn om die situaties succesvol af te handelen met behoud van beeldkwaliteit gelijk aan een scene met weinig beweging. Misschien dat die dag er komt, maar het is niet vandaag.
Laat dan een foto zien die van betere kwaliteit is.
Aan een sluitertijd van 2ms (==1/500 s) ga je uiteraard geen bewegingsartefacten zien, zelfs met een smartphone.

Het ging in deze discussie over wanneer een smartphone een sluitertijd moet aanhouden die langer is dan wat normaal kort genoeg is om geen bewegingsvaagheden te zien in de foto. Doorgaans is die limiet ongeveer 1/1000 tot 1/500 voor snelle actie, 1/250 voor normale bewegingen, 1/100 voor trage bewegingen.

Jij zegt dat de sluitertijd veel langer is bij smartphones dan bij ILCs omwille van de kleinere sensor, maar dat de bewegingsartefacten gecompenseerd worden door "intelligente" verwerking. Dat is een zeer moeilijke tot onmogelijke oefening als het gaat om sluitertijden die twee tot vijfmaal zo lang zijn als de hierboven genoemde grenzen en die lange sluitertijden zijn helaas iets waar een smartphone sneller last van heeft.

EDIT: en dan heb ik het nog niet over de (subjectief) lelijke ruisonderdrukking die is toegepast op de foto, iets dat je heel goed kan zien aan de bladeren die hangen en liggen, en dat de foto over het algemeen er wazig uitziet, ondanks de 12MP die jouw foto groot is. Als je deze foto naast een foto legt die is gemaakt met een ILC met goeie lens ga je meteen merken dat de smartphonefoto een pak waziger is en minder fijn detail bevat.

[Reactie gewijzigd door RuddyMysterious op 3 juni 2022 11:27]

Nogmaals: ik noem geen "bewegings"artifacten maar merging-artifacten. Dat is ook het enige wat een algoritme dat moet mergen fout kan doen: fout mergen. Als het bronmateriaal bewogen is, dan valt dat niet terug scherp te maken. Daarom worden er veel foto's genomen met korte sluitertijd en die over elkaar gelegd.

Hier is er nog eentje. Links RAW, rechts HEIC. Spaken die deels verdwijnen (in RAW niet, computational wel, zelfde sensor!) en dan ook weer terug rechtsboven het wiel uitkomen. Tekst op de velg die in de RAW duidelijke letters zijn en in de HEIC een blur. Een lijnenpatroon van op de sok die dat zowel links van de sok als rechts over het asfalt terugkeert. De rest van de foto waar de merging helemaal niet lukt, teruggevallen wordt naar een en al wazige brij omdat er geen succesvolle bracketing op elkaar past. Resultaat: troebel, detailloos én mergefouten.

Bonus: een (crop van een) foto al rijdend door een bocht genomen met een Fujifilm X100F. Geen rare artifacten, hooguit bewegingsonscherpte afhankelijk van de sluitertijd.

Nogmaals: ik wil best geloven dat Google het iets beter doet op dat vlak maar bij écht uitdagende situaties is de hele bracketing-aanpak gewoon niet toereikend en heb je dikkere hardware nodig die het in één shot klaart.

Ik ben niet tegen computationele fotografie, integendeel. Ze halen zó enorm veel uit die kleine sensors en het levert fantastische resultaten op die met minimale moeite grotere toestellen kunnen evenaren. Maar het werkt nog lang niet altijd en overal. Het is een trucje dat maar binnen bepaalde limieten werkt.

Op het moment dat ik meerdere keren per week élke keer wel nog kan aanwijzen waar het algoritme faalt en een 10 jaar oude camera (X100s bvb) het beter kan puur door het hebben van die grotere sensor waardoor het meer licht in één shot kan binnentrekken, dan zijn uitspraken als
Ik kan zelfs fietsend foto's maken op m'n smartphone. Haarscherp, goed contrast en geen enkel artifact.
gewoon pure kwatsch. Misschien in de toekomst ooit, maar nu niet.

[Reactie gewijzigd door Arrigi op 3 juni 2022 00:34]

Opnieuw, wanneer ik fiets zie ik geen artifacts. Ligt echt aan jouw telefoon.
Kan best dat het in de onder jou geteste omstandigheden met schijnbaar lagere verwachtingen* niet fout gaat. Óf Google heeft hun algorimes iets beter afgetraind waardoor alles terug gaat naar de singleshotmethode ... waarbij de beeldkwaliteit dus ook weer terugvalt.

Maar ik heb hier toch echt wel getoond dat het niet in alle omstandigheden perfect werkt. En dan hebben we concertfotografie nog niet besproken.

Als ik trouwens resultaten van een Pixel6Pro op gsmarena bekijk, specifiek de "motion shot" feature gebouwd bovenop het hele computationele gebeuren zie ik gelijkaardige problemen. De arm is nog het meest gedetailleerde hier. Delen van de motor en het been worden gewoon heel erg wazig. Geen bewegingsonscherpte maar ruisreductie. Of deze hond waarbij een duidelijk kwaliteitsverschil is tussen de hond en de omgeving. Alsof ie erin geplakt is. Moet wel, want die hond beweegt teveel om goed te stacken!
En over "top shot" dat blijkbaar bursts vervangt vind je genoeg topics als deze: https://www.reddit.com/r/...op_shot_terrible_quality/
Nogal wiedes, want je *kan* gewoon niet voor elke foto in een burst genoeg frames maken. Dat terwijl mijn reeds 5 jaar oude X100F bvb gewoon 8fps 24MP full-res foto's opslaagt. HDR+ kan gewoon niet alle situaties evenwaardig aan.

*: want eerst noemde je zelf een pixelpeeper, daarna zeg je dat ik "op een monitor ga speuren". Ofwel is het zo goed als je claims (beter dan of equivalent aan een grotere sensor in alle omstandigheden) ofwel valt het soms terug en is het dus eigenlijk toch niet altijd zo geweldig.

[Reactie gewijzigd door Arrigi op 3 juni 2022 10:03]

Opnieuw, dit gaat om foto's vanaf de fiets. En deze missen bij de Pixel6 artifacts. We hebben het NIET over concertfotografie.
Ja, en ik heb al aangetoond dat bracketing niet altijd goed gaat op de fiets. Het algemene probleem is teveel beweging. Intussen dus ook bronnen gevonden die dezelfde problemen op de pixel tonen.
Jij mag dat ontkennen, maar het toont gewoon dat de computational aanpak in die gevallen niet werkt om de beeldkwaliteit geweldig te houden.

En ik had het in mijn éérste comment in deze ketting al over bewegende muzikanten. Want dat is hetzelfde onderliggende probleem.
Totdat je die haarscherpe foto's op een ander schermpje bekijkt dan die van je smartphone.

Het lijkt allemaal heel wat, totdat je de foto op een serieuze machine opent voor nabewerking. Dan vallen momenteel de smartphonekiekjes nog heel fors door de mand.

Sony weet absoluut meer van camera's dan ik, maar ik heb bij dit statement toch echt mijn twijfels. In fel zonlicht ziet alles er leuk uit maar bij low-light situaties (dus binnen of 's avonds) heb je twee dingen nodig: grote diameter van je glas, en grote pixels. Smartphones hebben ielige diameters (er kan dus fysiek gewoon niet genoeg licht binnenkomen om de shotnoise te overstemmen met signaal, dat is een kwestie van domweg statistiek) en de pixeltjes worden alsmaar kleiner, omdat de consument graag 50MP bij de specs ziet staan. Je krijgt dan pixels van 1.2mu in het vierkant (dus 1.4mu squared). De laatste flagship dslr van Canon, de EOS 1DX-III heeft pixels van 6.6mu (dus 43.5mu squared). Hebben we het nog niet over het glas: een beetje serieuze prime lens kost net zoveel als een goeie smartphone.

Nee, ik ben zo eigenwijs om hiervan te vinden: Sony kletst uit zijn nek: dit kan niet. De benodigde informatie voor een goede foto is domweg niet aanwezig door fysieke beperkingen.

Presentatie even doorgebladerd van Sony. Ze hebben het alleen over still images. Fruitschalen en kerken dus, vanaf een statief. Het kan inderdaad zijn dat in die situaties de limitaties van te weinig licht door de hoge kwaliteit van de nieuwste generaties BSI (backside illuminated) cmos sensoren bijna volledig kunnen worden opgevangen. Moet je wel heeeel zuiver glas gebruiken voor die smartphonecamera.

Voor dagelijks gebruik, waar je bewegende dingen met beperkt licht wil vastleggen, kan het domweg niet.

Edit2: En ze geven aan dat ze 'large pixels' willen gebruiken. Hoe large staat er niet bij. Dat lijkt me een erg verstandige zet: je moet gewoon die fotonen binnenhalen en boven de noise tillen. De MP-race is misschien een beetje over. Je ziet aan een 20mp resolutie van een Canon vlaggeschip DSLR dat ver daarbovengaan met een 1-inch sensor of kleiner gewoon inefficient is.

[Reactie gewijzigd door Znorkus op 2 juni 2022 23:59]

als je bewegend scherpe beelden kan maken komt dit enkel door de hoge sluitertijd.
Zelfs de beste software kan bladeren aan de bomen of gras niet goed krijgen.
Het gaat hier om beweging in het beeld, niet beweging van de camera.
Of het onderwerp beweegt of de camera, maakt relatief niet uit.
Hoe kom je daar bij?
Of alleen de camera beweegt of dat het onderwerp ten opzichte van de achtergrond beweegt maakt wel degelijk uit.
Of dat delen van het onderwerp ten opzichte van elkaar bewegen..
Nee, dat maakt niet uit. Auto's komen naar mij toe, bomen bewegen langs mij heen. Smartphone stuitert en roteert.

En nog steeds geen artifacts zoals je beweert. Ondanks dat er 24 frames geschoten zijn in de tussentijd.
maar wat is de sluitertijd? afgaand op uw reacties lijkt het me dat je niet echt weet wat net resulteerd in scherpe foto's
fps is niet gelijk aan de sluitertijd.
Als ik vraag wat de sluitertijd is en jij antwoordt dit met 'variabel', dan weet ik wat ik moet weten.
Prettige dag nog ;)
Jij weet écht niet dat met computational photography de 30 sluitertijden binnen 1 foto variabel zijn? Okay...

Ik weet wat ik moet weten. Nog een prettige dag nog. 🤭
Je weet niet dat diverse frames met variabele belichtingen gemaakt worden voor 1 foto, voor CP?
Advies: leer de principes van fotograferen
Het verschil zit denk ik in de doelgroep/usecase:

Bij smartphones willen gebruikers simpel een mooie foto. Computational AI die je plaatje dan oppoetst en helemaal 'ontwikkelt' is dan een mooie toevoeging. Het volume gebruikers én de hevige concurrentiestrijd hebben de ontwikkeling hiervan versneld.

Gebruikers van een DSLR willen vaak juist de ruwe fotodata om zelf in bv Lightroom de foto verder te ontwikkelen naar hun eigen stijl. Hoewel de hardware van smartphonecamera's beter is geworden, zit de ontwikkeling vooral in de software. Pixel-telefoons hebben, tot voor kort, iets van 3 of 4 jaar dezelfde sensor gehad (maar stonden toch bovenaan in cameratests).

TLDR: Denk dat de ontwikkelingen die smartphonefoto's zo goed maken juist niet besteed zijn aan DSLR-publiek.
Volledig met je eens. Daarnaast is het diafragma van een telefoon natuurlijk ook vrij beperkt om maar wat te noemen en kunstmatige bokeh is echt beduidend minder mooi dan echt.
Een paar generaties aan AI en wellicht is dat ook verholpen. Er zijn diverse technische categorieën waarvan we dachten ... dat zal een smartphone nooit net zo goed kunnen. En wat nu vergelijkbaar zo niet beter is. Kijk eens naar de portretfunctie van de S22. Die kan individuele haren herkennen!

Dynamisch bereik, astrofotografie, automatische motion blur, night photography. Bokeh is nog wat gammel, maar er wordt hard aan gewerkt.

[Reactie gewijzigd door kabelmannetje op 2 juni 2022 22:19]

Dat roept men al jaren, net als deze claim van Sony dat telefoonsensors beter worden dan camera's met verwisselbare lenzen. Ik neem het allemaal met een forse korrel zout.
En de afgelopen jaren hebben we gezien dat de compactcamera het aflegt tegen de smartphone. Het goedkope dlsr-segment is het ook aan het begeven. Langzaam snoepen smartphones meer van deze markt af en blijven de niches over.
'de compactcamera' verliest vooralsnog niets van smartphones, mits je niet enkel naar de instapklasse kijkt, maar je hebt gelijk dat de markt van compactcamera's absoluut op instorten staat doordat computergegenereerde plaatjes obv sensordata het overnemen van rauwe data. Er is een reden dat Sony een telefoon met grotere (compactcamera-formaat) sensor heeft uitgebracht: Ze zijn vooralsnog gewoon beter.
Er is een survival bias bij de huidige DSLR publiek. Ik ken veel mensen die ooit een DSLR gekocht hadden, maar het uit eindelijk nauwelijks gebruiken. Je moet nog best wel veel doen en leren om een goede foto te maken en veel geven het op, waardoor je een biased sample over houdt.

Ik ben echt onder de indruk van de huidige slimme algoritmes op telefoons. Mooie contrast en kleuren en toch natuurlijke huidtinten. Ook de nachtfuncties zijn goed. Nachtfotos met verschillende lichtbronnen zijn vaak tricky om goed te krijgen.

[Reactie gewijzigd door madass op 2 juni 2022 22:27]

Ze zijn er misschien wel op toepasbaar, maar vergt aanvullend R&D. Terwijl de massa en daardoor het grote geld nu bij smartphones zit.

De ontwikkeling van smartphone camera’s vreet marktaandeel van dslr (con en prosumer) en het effect versterkt zo zichzelf.

[Reactie gewijzigd door Get!em op 2 juni 2022 17:50]

ik denk dat het verschil vooral zit in de processorkracht erachter.
Je kan de vraag stellen in welke mate zo'n smartphone foto nog een foto is, en in welke mate dat eerder een CGI is. 'computational photography' heet dat dan.
Een DSLR doet ook wel wat bewerkingen uiteraard, maar nog lang niet zoveel als een smartphone
De smartphone markt heeft simpelweg een veel groter publiek en veel meer concurrentie. De DSLR markt kan absoluut niet met dezelfde snelheid innoveren.

Echter kan de DSLR markt wel beter worden door de innovaties in smartphones.

Tevens valt straks de meerwaarde van DSLR camera's weg als onze smartphones alle lenzen al ingebakken hebben in klein formaat. Dat is natuurlijk nog te zien maar met hoe de voortgang in camera's gaat is dat wel zeer waarschijnlijk. Deze combinatie met ook de software in Smartphones maakt het straks voor content makers steeds minder logische om te investeren in extreem dure setups ipv de nieuwste high-end smartphone voor al je content.

Ik heb een iPhone 13 Pro en een 6 jaar oude DSLR. De foto's op mijn iPhone vindt ik veel mooier. Granted, ik heb geen recente DSLR en lang niet de duurste. Maar ik zie enorm mooie plaatjes en filmpjes en zie ook nauwelijks nog de meerwaarde aan een DSLR als ik zelf de verschillen niet meer kan zien.
Een ding die ik me kan bedenken is uitleessnelheid. Een grotere sensor heeft iets meer vertraging met uitlezen, waardoor geautomatiseerde HDR wellicht iets minder goed werkt dan in een smartphone.

Verder kan al die mobiele techniek zeker helpen in een ILC. De markt is echter wel klein, en waarom zou Sony (de grootste camera sensor fabrikant) dit niet willen ophypen voor bedrijven en consumenten? :) Wij van WC eend....

2024 lijkt me erg snel, maar ik weet natuurlijk niet wat ze in de pipeline hebben. Wat ik wel weet is dat smartphone camera's nog niet in de buurt komen van professionele ILC systemen. Dat begint al bij de lenzen, maar ook de kleurechtheid klopt vaak niet door de post processing wat een smartphone doet.

Desalniettemin, ik kijk er wel naar uit wat ze allemaal uit gaan brengen. Stapje bij beetje zijn smartphone camera's al erg goed geworden, ik ben benieuwd wat de toekomst te bieden heeft :)
De camera fabrikanten als Canon, Nikon & Co hebben imo gewoon de boot gemist qua software en bedieningsgemak voor de grote massa. Ze hebben zichzelf opgesloten in een krimpend marktsegment met gesloten standaarden die niet samen kunnen werken met andere systemen en platformen. En daarmee geen apps en geen eco-systeem van bedrijven en start-ups die meebouwen aan en innoveren voor dit ecosysteem.

Dus moet je van je systeemcamera/dslr het raw bestandje van de foto verplaatsen naar een ander eco-systeem als Windows of MacOS, en dan kan je bv DXO Deepprime erop loslaten. (en je eigen back-up systeem inrichten ipv in het geval van Apple iCloud die dat voor je regelt)
Staat het raw bestand op je computer heb je dus in een keer alle voordelen van recente software ontwikkelingen ook beschikbaar voor je traditionele camera. Wel extra en soms complexe stappen dus, en daarmee op voorhand voor professionals of liefhebbers.
Inderdaad. DSLR's worden ook nog steeds verbeterd. Ik snap het niet, zo af en toe hoor je weer een dergelijk argument opduiken, maar het snijdt geen enkel hout. Natuurlijk worden de camera's in smartphones wel beter, maar de kwaliteit van een fatsoenlijke dedicated camera met een grote sensor en dito glaswerk zullen ze nooit kunnen halen, al gooi je er een supercomputer tegenaan. Met natuurkunde valt gewoon niet te spotten, details die je niet hebt vastgelegd kun je er met de beste computers niet weer bij fantaseren. Zelfs niet met AI.

Mijn Canon 5D2 (die inmiddels 12 jaar oud is!) schiet nog altijd _veel_ mooiere foto's dan mijn iPhone 13 Pro.
Hellemaal mee eens! Een modelvliegtuig (de camera van de smartphone) zal nooit hoger en/of sneller vliegen dan een jet fighter (mijn analogie voor een DSLR). De Sony topman gaat vanuit het standpunt van een persoon die veinig begrip heeft in professionelle photografie. Zo'n mens (selfies shooter) kan misschien betere foto maken met zijn phone (door al die technologie die ingestopt is), omdat hij geen verstand zal hebben van de complexere DSLR en de kunst/technieken van echte photographie. Maar een goede photograaf of zelfs hobbyist zal altijd betere content produceren uit de DSLR. Punt!

[Reactie gewijzigd door fallen2109 op 3 juni 2022 09:19]

Technisch gezien compleet correct. Maar Sony zal dit vanuit marktaandeel en winst bekijken. Waar valt de meeste winst te maken?
Hoe groot is de markt van smartphones tov DSLR. De 1e markt is vele keren groter dan de 2e. En de consument betaalt makkelijk 1500 euro voor een GSM die 500 euro kost dus zitten ze met een mooie winstmarge.
De markt van de DSLR's is vele malen kleiner en daar zitten ze vermoed ik met veel kleinere winstmarges. Goed glaswerk is precisiewerk en duur maar je kan daar vrees ik geen 200-300% winst op maken zoals bij de smartphones. Zelfde voor de body.

Kort samengevat: veel potentiele klanten x grote winstmarge = $$$$$$$$
LOL. Dan moet Sony eerst maar eens meer smartphones gaan verkopen. Ik kan mij niet voorstellen dat Sony (tegenwoordig) meer verdiend met hun smartphones dan met camera's.

Edit: ik interpreteerde dit bericht als: Sony zet minder in op hun systeemcamera's en meer op hun smartphones (kijkend naar hun smartphones gericht op vloggers). Ik was even vergeten dat Sony de grootste sensor fabrikant was en dat hier deze sheet over gaat. Ondertussen ook al rechtgezet Bliksem B in 'Sony: in 2024 overtreft beeldkwaliteit smartphonecamera's die van dslr's'

[Reactie gewijzigd door Bliksem B op 2 juni 2022 22:19]

Maar wellicht wel met hun camerasensors voor smartphones dan met die voor camera's...

Overigens is - vziw - Sony nog altijd een verzameling bedrijven die niet per se heel goed samenwerken. Dus als de sensorafdeling allerlei verwachtingen heeft zegt dat niet veel over de camera-afdeling of de smartphoneafdeling.

[Reactie gewijzigd door ACM op 2 juni 2022 18:18]

Oeps. Dat was ik even vergeten. Waren zij niet de grootste sensor maker op de wereld?
Yes, als we het onderstaande artikel mogen geloven met zelfs bijna dubbel zoveel marktaandeel als de grootste concurrent Samsung:
https://www.gizchina.com/...ated-by-sony-and-samsung/
Sony’s cameras zitten in heel veel andere merken
Zit een sony sensor in mijn Asus telefoon.
Sony CMOS sensoren zijn heel populair en vind je in heel wat toestelen...
Waar haal jij complot vandaan? Als bedrijf zal Sony gewoon kijken hoe ze hun winst het grootste kunnen maken. Veel R&D steken in sensoren voor DSLR en daar veel minder ROI voor krijgen tov van sensoren voor smartphones... dan moet je er geen complot achter zoeken maar gewoon winstoptimalisatie ;)
Ik vrees dat jij ze ziet vliegen :9

Het is technisch correct dat ze (een deel van) de technieken zouden kunnen toepassen op DSLR sensoren maar waarom zouden ze als de ROI en het marktaandeel (veel) lager is. Dit is geen complot maar een puur economische beslissing.
Wat zijn volgens jou dan wel de motieven? Kabelmannetje een hak zetten? }>

Zelf ben ik DSLR gebruiker en vind ik dit een spijtige evolutie. Er zullen misschien andere spelers op deze markt springen maar Sony blijkbaar niet meer. En Sony is niet de enige producent van CMOS sensoren dus er zullen wel DSLR blijven, alleen misschien minder snelle ontwikkeling ivm smartphones.
Met dezelfde tech zou een DSLR betere plaatjes moeten kunnen produceren.
Wat men hier niet zegt is dat er verwacht wordt dat de DSLR markt zo klein wordt dat het niet meer de moeite waard is om geld in R&D te stoppen om smartphone tech in DSLRs toe te passen.
Er wordt in het artikel dan ook gesproken over "ilc's", interchangable lens cameras, niet alleen over DSLR's. De huidige generatie camera's (nagenoeg alle nieuwe camera's van Canon, Sony, Nikon) is mirrorless, die hebben geen spiegeltje meer maar doen alles direct op de, zwaar gemoderniseerde, sensor. Daarin zitten ten opzichte van DSLR's verbeteringen in zoals minder ruis (= beter bruikbaar in weinig licht), groter dynamisch bereik, hogere resolutie, grotere uitleessnelheid, sensor-beeldstabilisatie, autofocus-verbeteringen (zowel op de sensor als AI autofocus voor eye focus en tracking, zelfs bij weinig licht), en hogere burst rate (FPS).

Het idee dat dedicated camera's technologisch gezien achterblijven is niet zonder meer juist. Alleen komen ze niet mee met sommige "truukjes" zoals computational photography. Grotendeels omdat de doelgroep daar (nog) niet op zit te wachten in een dedicated camera.

Ze zullen het van andere truukjes moeten hebben, zoals sensor shifting om de resolutie te verhogen. Ingebouwde/automatische image stacking zou best kunnen, als dat goed genoeg ontwikkeld wordt dat fotografen daar gebruik van willen maken.
Sorry. Ik bedoelde DSLR/ILC. Belangrijkste vraag blijft: hoeveel budget hebben smartphone boeren om nieuwe tech te ontwikkelen en hoe groot is het budget van de camera boeren? Nog afgezien van alle computational blahblah, zelfs het toepassen van de laatste smarphone sensor tech in een losse camera kost geld. Want men wil toch de laatste sensor tech, maar dan met een sensor op aps-c of 35mm formaat. Dat is niet triviaal, nog afgezien van waarschijnlijk hopeloze wafer yields.
toch wel. Ook smartphones moeten zich aan de natuurwetten houden.
Camera is een selling point bij vele telefoons.
Precies. Alsof de ontwikkeling van DSLR's opeens zou stoppen. Inderdaad meer ruimte voor de sensor, meer glas, etc. Is altijd beter dan software gecorrigeerd beeld van welke smartphone dan ook. Grote jongens als Nikon en Canon stoppen echt niet met het doorontwikkelen van hun flagships en komen regelmatig uit met updates.
Dat zijn ze ook wel, maar dat is ook een heel stuk duurder, hoeveel mensen kopen een losse camera van duizenden euro's? Daarom wordt het vaak eerst op kleinere sensoren ontwikkeld en als dat goed werkt wordt het soms over genomen (bijvoorbeeld BSI). Daarnaast is de noodzaak bij de telefoons ook gewoon groter omdat die natuurkundig gezien zwaar in het nadeel zijn. (alles moet klein blijven)

Veel van de softwaretechnieken zijn ook gewoon als desktopapplicatie te krijgen, dus in feite kan je zelf al veel nabootsen wat zo'n camera-app dan zou doen. Maar daar zit ook het grote verschil. Telefoons richten zich op kiekjes, in één keer klaar zijn met de foto en liefst direct publiceren. De meer professionele fotocamera's richten zich op tijd en energie steken in de foto zo mooi mogelijk maken. Daar wil je dan ook zelf grip op hebben en software die trucjes uithaalt om het beeld 'beter' te maken werkt dan soms eerder tegen je dan voor je.
Dus voor de gemiddelde consument zal uiteindelijk de straight-out-of-camera foto van een telefoon waarschijnlijk inderdaad 'beter' zijn, omdat de telefoon het meeste werk voor hen doet. En dat is ook gewoon wat het meest populair is onder hobbyfotografen of social-schieters.
Anoniem: 159816
2 juni 2022 18:49
Oh tof, Sony gaat de natuurwetten doorbreken.
Software is belangrijker dan peperduur glas.
Met software ga je niet meer licht op je sensor krijgen.
Natuurlijk wel. Een Pixel die 500ms de lens openhoudt heeft veel en veel meer data.
En hoe leg je daarmee iets wat in beweging is scherp vast? Los van dat het formaat van de sensor niets te maken heeft met hoelang je de sluiter (niet de lens) openhoud.

[Reactie gewijzigd door Anoniem: 159816 op 2 juni 2022 20:18]

Zelfs met de beste deblur algoritmes ga je het niet zo goed krijgen als het gewoon scherp vastleggen door de juiste sluitertijd te gebruiken. Alleen wat lineaire blur is recht te trekken met een algoritme, maar een dartelend kind ga je nooit goed krijgen.

En ik zei dat het formaat van de sensor geen invloed heeft op de sluitertijd. Je kan met beiden lange en korte sluitertijden gebruiken. Maar goed, het is al duidelijk dat je werkelijk waar geen enkel idee hebt waar je over praat.

[Reactie gewijzigd door Anoniem: 159816 op 2 juni 2022 20:30]

En die foto's worden over elkaar heen gegooid om er 1 geheel van te krijgen. Daarmee verlies je nog steeds al het detail wat je met een grotere sensor direct op kan vangen. Want je maakt al die losse foto's namelijk niet tegelijk, waardoor je composiet van alle foto's nog steeds een blur is ;)
Ik begrijp al hoe het werkt, maar niets houdt Sony tegen om hetzelfde toe te passen bij grotere sensoren. Dus we zijn weer terug bij af: grotere sensor is nog steeds beter.
Nee, een grotere sensor is niet beter. Er is geen markt voor een camera van 100kg omdat je een grote lens en loodzwaar glas kiest, ipv slimme algoritmes. Er zijn grenzen.

Verder heeft het een reden dat fabrikanten van camera's de boot missen. Ze missen R&D-budget en er is maar een beperkte afzetmarkt.

En dat zien we, de instap-markt voor DSLRs is al aan het verdwijnen omdat goede smartphones vergelijkbare kwaliteit geven.

[Reactie gewijzigd door kabelmannetje op 2 juni 2022 21:32]

Ik snap dat ze niet hetzelfde formaat zijn, maar het nieuwsbericht zegt dat Sony zegt dat smartphone camera's beter zullen zijn dan DSLR's. Wat simpelweg onzin is. Er zal altijd een markt zijn voor high performance DSLR's (of spiegelloze varianten).
Ja, er zijn altijd niches.
Daaraan wordt bij elke nieuwe generatie sensoren flink geknabbeld. Nog maar een paar jaar geleden was de compactcamera beter dan een smartphone. Hetzelfde zien we nu in het instapsegment van DSLRs. Dat verdwijnt omdat de kwaliteit elkaar zo genaderd is dat het verschil te verwaarlozen is.
Compactcamera's en smartphones gebruiken dan ook sensoren van een vergelijkbaar formaat, of in ieder geval zo dicht bij elkaar dat het weinig uitmaakt.
Het maakt wel degelijk uit. Computationele photography is bij dezelfde sensor oppervlakte beduidend beter.
No shit, en daarom is de smartphone ook beter in dat geval. Maar die zal toch verliezen van camera's met dezelfde hoeveelheid rekenkracht maar een grotere sensor ;).
Die camera's bestaan alleen niet. En door beperkte R&D door kelderen de verkoop, zullen traditionele camera-bouwers die ook wel niet maken. Het heeft ook weinig zin een camera te maken die net zo goed is dan de smartphone die je al hebt.
Je vergeet de complete professionele markt.
Die smartphones bestaat ook helemaal niet.
Daar hebben we dan Photoshop voor…

Ik denk eerder dat Sony gewoon zegt niks meer qua sensoren voor grote camera’s te willen ontwikkelen, dan staan die stil en zal een telefoon sensor inderdaad wel vele malen beter zijn tegen die tijd.

Misschien moeten de dslr makers maar een telefoon houder met lensvatting gaan ontwikkelen…
Kan mij dit echt niet voorstellen, hoe gaat een telefoonlens van een paar tientjes met een sensor van een paar tientjes beter zijn dan APO lenzen van een paar duizend Euro op een specialistische body van 2.000,-

Dat er voor dagje dierentuin of de Efteling voor een doorsnee gezin geen enkele reden meer is om naast de telefoon nog een zware DSLR mee te zeulen behoeft geen twijfel, maar beter..? Ik geloof er niets van.
Betere hardware. Snellere CPU en meer RAM. Betere AI. Meer data van de sensor. Betere algoritmes. En vaak is de hardware van de sensor ook enkele generaties beter.

Bijna alle R&D van sensoren en foto's gaat naar smartphone-fotografie. Canon, Sony en Nikon investeren nauwelijks meer want het is een kleine en onbelangrijke markt geworden met als gevolg; nauwelijks innovatie.
Canons camera-verkopen vormen iets van 10% van hun inkomsten. Hun R&D budget is 2,4 miljard euro. Als het aandeel camera-research gelijk is aan de inkomsten van dat segment, dan heb je het over 240 miljoen euro. Dat is niet weinig. 10% van een miljardenbedrijf. Ook als je kijkt naar de innovaties in hun recentste camera, de R3, die zijn zeker niet klein. Het is voor het eerst in een lange tijd dat ze hun sensor zelf ontwikkeld hebben. En het is een stacked BSI sensor. Hetzelfde geldt voor hun IBIS beeldstabilisatie, die het beste is van alle camera's. Zelfde voor autofocus. En eye autofocus, kennelijk vrij goed werkend. Zij innoveren absoluut nog.

En Sony's research in sensoren heeft effect op meerdere segmenten, inclusief camera's.

Misschien moet je wat meer data verzamelen voordat je zulke aannames doet.

[Reactie gewijzigd door KarmaniaK op 3 juni 2022 16:09]

Totale onzin wat je hier verkondigd, Sony, Nikon en Canon investeren nog ontzettend veel in R&D voor hun camera systemen, sensoren, lenzen, dedicated image processing chips. En er komt niet meer data van de sensor. En in de nieuwere camera's zitten ook allerlei extra gespecialiseerde chips voor beeldverwerking en AF mbv AI.

Het is gewoon pertinent onwaar wat je hier schrijft.
Totale onzin dat je hier verkondigd.

Budgetten van Samsung, Sony, Xiaomi, Google zijn vele malen hoger dan wat een relatief klein bedrijf als Nikon of Canon kan investeren. De "midrange" zijn deze inmiddels al lang kwijt omdat ze niet genoeg kunnen innoveren. Dat kruipt langzaam door naar de professionelere producten.

Er komt bij een smartphone sensor wel degelijk meer data van de sensor dan bij DSLR. En door de generaties voorlopende algoritmes van bijvoorbeeld Google, worden relatief kleine sensor en glas, gecompenseerd.

Het is gewoon pertinent onwaar wat je schrijft.
Geloof je dit allemaal echt zelf?
Canon: omzet over afgelopen jaar was 30 miljard, 6% winstmarge. Dat is klein?

Je kan het ook niet vergelijken met Google of andere electronica bedrijven omdat die veel breder bezig zijn dan alleen met 'imaging' producten.
Graag een bron dat Canon's fotografie-afdeling een omzet van 30 miljard over afgelopen jaar heeft geboekt. Denk dat je cijfers uit de lucht tovert. Voor Nikon was dit in 2019 namelijk 1,9 miljard uit fotografie.
Waar zeg ik dat dat alleen de fotografie afdeling is dan? Dat is de hele imaging tak, maar je weet vast wel hoe google werkt...
Omdat dat de grootte van de tak aangeeft. Je kan als analogie zeggen dat Philips tandenborstels 100 miljard omzet draait en dus hierin investeert, terwijl dit maar een kleine sector is binnen een groter bedrijf.

Opnieuw, graag een bron dat dit de omzet van fotografie is. Een bedrijf gaat niet enorme r&D-budgetten investeren voor een kleine tak van het bedrijf met zeer beperkte groeiverwachtingen.

Als voorbeeld Nikon. Als 1% van omzet camera's in r&d wordt geïnvesteerd, dan hebben we het over maximaal €20 miljoen.

[Reactie gewijzigd door kabelmannetje op 3 juni 2022 10:52]

Het leek mij ook onmogelijk maar groot+zwaar+veel glas+kleine en krimpende markt => dure producten.
Goede CPU+goede sensor+spotgoedkoop lensje+100x (of 1000x?) zo grote markt => wellicht beter resultaat ondanks de bescheiden hardware. Ook dingetjes als Bokeh e.d. zijn waarschijnlijk prima na te bootsen in software met een sterke processor... of eventueel als extra informatie (diepte) later nog naar believen in te stellen. Ik vermoed dat de meeste mensen ook geeneens Bokeh willen: het moet gewoon allemaal, altijd scherp zijn!
Nep bokeh is prima voor veel mensen die fotomateriaal vooral consumeren op hun telefoonscherm maar het blijft er toch enorm nep uit zien. En dan heb ik het nog niet over de foutjes.
Software. Meer sensor- informatie. Betere algoritmes.
Ik vindt het geen verbetering als de telefoon er allemaal info bij verzint die de camera zelf niet vastlegt.

Daarnaast hebben losse lenzen een veel betere glaskwaliteit en is er veel meer ruimte voor een grote sensor in een mirrorless/DSLR
Welke informatie wordt er precies allemaal "bijverzonnen"?

Zoals bekend, duur glas is irrelevant aan het worden door algoritmes. En verder lost een (nog) grote sensor niks op, een smartphone vangt immers nu al vele malen meer licht op.
Optie 1: Licht wordt zo zuiver mogelijk doorgelaten en vastgelegd.
Optie 2: Een logaritme verzint wat de zo zuiver mogelijke doorgave zou zijn.

Als jij serieus denkt dat optie 2 het betere resultaat geeft dan.. tsja....
'Meer' pixels is ook marketing blabla. Een goede lens is nog altijd een stuk belangrijker dan een sensor met meer megapixels.

https://petapixel.com/202...o-not-necessarily-matter/

Daarbij biedt een DSLR en tegenwoordig mirrorless full frame zoveel betere opties kwa interface/knoppen/settings/peripherals.

[Reactie gewijzigd door Ohmarinus op 2 juni 2022 18:12]

Helemaal mee eens. Dit is vooral een marketingverhaaltje van Sony. Beeldkwaliteit is afhankelijk van de sensor én de optiek.
Twijfelachtige uitspraak. Mijn 24-70L lens icm 1200d DSLR levert kwalitatief echt minder goede foto's af dan mijn €200 smartphone met gcam.
Bullshit :+ Toevallig heb ik hier ook een ~200 euro kostende telefoon met gcam. Ik schiet foto's in RAW en knal ze door Lightroom. Zien er vaak prachtig uit, maar leggen het echt hard af tegen foto's gemaakt met een 12 jaar oude 550D. De 1200D bevat een nieuwere sensor dan wat er in de 550D zit. Op mijn telefoonscherm ziet het er overigens prachtig uit allemaal, maar op een groter scherm valt het vrij snel door de mand. Héél soms krijg ik het voor elkaar een foto te maken die niet snel door de mand valt, maar dan moeten de omstandigheden echt perfect zijn. Zodra dat ook maar iets afwijkt zal een DSLR (zelfs een oud model) het al vrij snel winnen van de telefoon.

Als jouw 1200D met een goede lens minder goede foto's aflevert dan je telefoon dan weet je gewoon niet om te gaan met je camera O-)

[Reactie gewijzigd door SomerenV op 2 juni 2022 23:52]

Duidelijk bullshit. Mijn smartphone maakt zichtbaar betere foto's. Echtere kleuren, scherper en meer dynamisch bereik.
Kom maar op. Foto's van zowel je DSLR als telefoon, in hoge resolutie. Ben wel benieuwd naar die magische smartphone van jou die qua foto's een DSLR weet te overtreffen :+
Die heb ik niet online. Maar, zoek een 1200D en Pixel6 foto, genoeg op internet te vinden.
Genoeg foto's te vinden, maar ik wil van jou een directe vergelijking. Als je zo zeker bent van je gelijk:

www.imgur.com

Succes :>
Opnieuw, die krijg je dus niet. Lezen! Er zijn zoals jij zelf zegt, genoeg foto's en tests te vinden voor een vergelijking dat een moderne smartphone in veel gevallen beter is dan een 8 jaar oude instap- DSLR. Hier een tussen P6 en een €5k camera. https://youtu.be/ZjNywUHkh3U

[Reactie gewijzigd door kabelmannetje op 4 juni 2022 06:48]

Laat eens zien dan, ik ben erg benieuwd.
Dat kan, beeldkwaliteit is afhankelijk van de sensor en de optiek :)

Overigens is goede beeldkwaliteit iets anders dan een goede foto.
Sony beweert dat niet (per se), die opmerking was natuurlijk een reactie op jouw statement dat jouw 1200D minder mooie foto's maakte dan je €200 smartphone. De implicatie was dat je smartphone misschien wel mooiere foto's maakt (door allerlei algoritmes) maar dat ze qua beeldkwaliteit niet dus ook meteen beter hoeven te zijn dan die van je 1200D.
Mijn "vorige" €200 smartphone met gcam produceert dus aanmerkelijk betere beelden dan mijn 1200d, zelfs met een L-lens. Scherper, echtere kleuren en groter dynamisch bereik. Geen vergelijking, ik fotografeer mij altijd suf op reis. Maar, helaas alleen 24mm. :)
Hoe meten we de technische kwaliteit van een foto anders dan aan de beeldkwaliteit?
Op je telefoon wellicht. Maar als je die fotos op een computer bekijkt, dan is dat een wereld van verschil. Dat zie ik zelf ook constant. Ja in goed licht zijn de smartphone fotos uitstekend. Maar wordt het een foto van een mooie zons ondergang en open je die in een lightroom, ja dat valt het snel allemaal uit elkaar.

Snap verder nooit zo goed waarom fabrikanten en gebruikers deze 2 zo nodig willen vergelijken. Uiteindelijk een ander werktuig voor een ander doel. Die kunnen prima naast elkaar bestaan.
Nee, op m'n 27" iMac.

Door de snellere ontwikkeling van computationele photography Dan de "traditionele" technieken, komt er een moment van overlap. En Sony zegt dat dit niet ver is. Er blijven natuurlijk genoeg cases over waarin de traditionele camera beter is.
Dat is dan ook een 8 jaar oude camera met CMOS sensor en destijds al 1 van de goedkoopste body's van Canon, niet het beste vergelijkingsmateriaal ;)
Vind ik juist wel. Een nog steeds peperdure lens plus halve kilo electronica van 8 jaar terug, die het heel hard aflegt tegen een Chinees telefoontje van €200 met gcam. En die legt het weer af tegen de €1000 range.

Daarom claimt Sony, kijk wat nog een paar jaar doet.
Klopt, maar dit roepen Smartphone fabrikanten nu toch ook jaren.

Ik ben absoluut geen Apple fanboy maar zij hebben jaren lang enkel 12 MP camera's gebruikt maar toch flinke stappen gezet in de kwaliteit. Men kan duidelijk mooiere plaatjes zien tussen al deze camera evoluties en nu zijn we op een punt dat die 12MP camera's net zo mooie plaatjes schieten als gemiddelde DSLR's.

Gooi dat nu eens in een 64MP en je kan ook nog eens een groot canvas schieten of 8K filmpjes maken met (hopelijk) dezelfde kwaliteit als voorgaande jaren.
De op dit moment meest luxe iPhone maakt inderdaad ook wel echt zeer indrukwekkende foto's en video's. Ik ben zelf in ieder geval flink onder de indruk, maar dan betaal je daar ook wel flink voor. Op dit moment kun je dan denk ik nog steeds beter een APS-C mirrorless camera kopen. Het voordeel van een losse camera vind ik ook wel dat objectieven hun waarde niet zo snel verliezen, helemaal als je alles tweedehands koopt. Moderne objectieven hebben wel een kortere lifespan dan de oude full-manual objectieven en gaan toch eerder stuk omdat de contactjes op den duur verslijten. Veel van die nieuwere digitale lenzen hebben bijvoorbeeld geen diafragmaring meer, dus als de contactjes niet meer werken moet je de lens of laten repareren, of het wordt onbruikbaar omdat je je diafragma niet meer handmatig kunt instellen.

Maar goed ik ga van de hak op de tak, en ik ben benieuwd hoe Sony het voor zich ziet. Ik denk zelf dat de kwaliteit van phonecams alleen maar kan verbeteren als ze iets groter gemaakt worden, en dat is precies wat je niet in een smartphone wil zien. Het ding moet natuurlijk nog wel in je broekzak passen en niet iedereen op de wereld is 190cm of langer dus er zitten gewoon fysieke grenzen aan wanneer een telefoon erg onhandig wordt kwa groot formaat.
Ja maar een 2e handse iPhone 13 pro of 12 pro is natuurlijk ook goedkoper te krijgen.

Waar het me om gaat is dat zelfs de meest fanatieke fotograven tegenwoordig gewoon hun telefoon kunnen gebruiken ipv steeds al die apparatuur mee. Sterker nog ik denk dat iemand die kennis heeft over fotografie, licht en kijkhoeken betere kan schieten met een oude iPhone dan iemand met een gloednieuwe luxe DSLR maar zonder die ervaring. Het gaat niet langer om de DSLR maar om hoe je de foto maakt. Een telefoon heeft daarmee ook flink wat voordelen. De verschillende lenzen kunnen software matig bokah (Portrait) foto's/filmpjes schieten. De AI kan kleur correcties en ruis wegnemen. Er kan direct geswitched worden tussen lenzen. Men kan direct de telefoon pakken en een belangrijk moment op de foto of film schieten ipv rennen naar je DSLR. Het brengt ook ongelooflijke mooie kwaliteit naar plekken waar voorheen mensen soms geen DSLR beschikbaar hadden. Ik heb jaren een DSLR gehad maar nam die echt niet bij ieder feestje of uitje mee. Maar mijn telefoon wel.

Ik zie absoluut niet waarom wij over 20 jaar nog grote camera's nodig gaan hebben als kleine camera's in smartphones nog net zo grote stappen blijven maken als nu. Ik denk dat zelfs lineaire TV straks met veel kleinere camera's kan met de huidige inovatie. De RED camera's zijn overigens al een stuk kleiner dan vroeger maar ik denk dat smartphone formaat straks ook mogelijk gaat zijn voor prachtige 8K beelden op 120fps in de toekomst.

[Reactie gewijzigd door Nimac91 op 2 juni 2022 19:32]

Je kunt een hobby kok wel in de keuken van een sterren restaurant neerzetten maar dat maakt hem nog geen sterren chef :P

Ik gebruik als beroepsfotograaf ook wel eens mijn Iphone 12 pro voor wat snelle vakantie kiekjes, lekker makkelijk die 3 lenzen.

Echter heb ik wel eens shoots waar ik 5000-7500 RAW beelden per dag schiet, ben benieuwd of smartphones dat ook aan gaan kunnen.
In 2020 deed iemand nog een onderzoek met de toen nieuwste iPhone (11 Pro) vs een MFT camera van toen 11 jaar oud.
https://youtu.be/yZqUyXRvMMU.
De MFT camera kwam er met kop en schouders bovenuit.
Ieder zo z'n mening, maar behalve het low light scenario wint de iPhone voor mij bij de andere foto's.

En low light wordt natuurlijk ook steeds beter door slimme algoritmes.
Dan gaat er op 2 jaar tijd toch nog veel moeten gebeuren. Ik heb een oude Canon 70D en een iets nieuwere Canon G5X II, beiden zijn in heel wat situaties een stuk beter dan mijn iPhone 13, en mijn fotografisch talent is heel beperkt. Bij alledaagse zaken als spelende kinderen, een sterke zoom of landschappen zijn de Canons veel sterker. Enkel bij closeups is het verschil klein.
Mijn pixel6 vind ik juist veel beter dan mijn G7mII. Meer contrast, echtere kleuren.
Heb er even snel doorheen gescrolld, maar dat is een vergelijking van niets. Leuk voor social-mediafoto's, maar op het moment dat je moet croppen of nog veel moet verwerken denk ik dat de telefoon toch achterblijft. Ik vermoed dat er een reden is dat er niet ingezoomd wordt op de natie resolutie van beide systemen :)
Dream on, Sony. Een 300mm lens met F1.8 ga je niet halen met een telefoontje.
300mm f1.8 ga je ook niet snel halen op een fullframe camera ;) . Althans, voor zover ik weet zijn die niet te koop.
Canon heeft een EF 300mm f1.8 wordt gebruikt voor foto-finish bij paardensport.
Succes om die lens te gebruiken op een spiegelreflex of mirrorless :Y) :Y) . Daar zijn er 4 van gemaakt en wegen super zwaar.
2.8 of f/4 dan….

Kan me niet voorstellen dat een telefoon zo ver digitaal kan inzoomen om een goede tele lens met body combinatie te evenaren. Maar als ze het kunnen, laat dan maar zien!
Het loopt al stuk bij de 1e vraag die ik mij bij lenzen stel:

Past die in het budget of niet....

(en ik zou werkelijk niet weten waar ik deze lens voor zou gebruiken..)
Nja, bij wijze van. Genoeg mooi glaswerk voor DSLR wat je nooit kunt halen met welke smartphone dan ook..
Helemaal eens hoor. Ik doe natuur fotografie en ik zie daar niet snel een smartphone een alternatief worden. Daar zit je toch doorgaans op minimaal 500mm of hoger op een fullframe. Om nog maar niet over AF snelheid en ergonomie te spreken. En met de hele korte sluitertijden en een lange lens heb je toch ook al sneller wat hogere ISO waardes en met een kleine sensor wordt snel een ruis festijn.
De software hoeft ook niet 'superieur' te zijn als je foto's zo goed zijn dat ze niet extreem gecorrigeerd moeten worden...
Welke "extreme correctie" bedoel je precies?

En, een 500mm lens past niet in een smartphone, dit is een niche. Sony heeft het over stills op (neem ik aan) 24mm. Niet over 500mm.
En phone van 200 gram voor een 12-24-90 mm lenzenset, die beter presteert dan 3kg meuk, zullen we dan maar vergeten. :)
Droom maar lekker verder :Y) . Geen enkele telefoon komt in de buurt op dit moment wat je met een DSLR of Mirrorless schiet, zelfs niet op groothoek. Het lijkt misschien zo op een klein telefoon schermpje, maar zodra je het op een iets groter scherm bekijkt vallen ze allemaal heel hard door de mand. En laten we dan nog maar niet gaan kijken naar situaties met langere focal lengths. En ergonomie laten we dan nog maar even buiten beschouwing.
Okee, ik negeer al die professionele fotografen met gecalibreerde schermen die DSLR/smartphone vergelijken en tot hun verbazing nauwelijks tot geen verschil zien. YouTube staat er vol mee.
Ik ken die filmpjes ja, meeste zijn niet eens gerenommeerde fotograferen. Grootste deel zijn instagram influencers.
Ik probeer al een tijdje astrofotografie met een telefoon maar das best wel ruk. Die “professionals” zijn zelfbenoemd denk ik?
Waanzinnige foto's van de melkweg schieten met een dslr onmogelijk ? Ik vermoed dat jij daar dan iets fout doet....
Hoe wil je precies de strepen van sterren door roterende aarde, tegengaan met een DSLR? Zet de lens een halve minuut open en je ziet ze al.

Een smartphone compenseert voor deze rotatie.

Het is duidelijk dat jij iets fout doet.
Wat een absolute onzin. Tracking voor de DSLR en ILC bestaat al een tijdje hoor. En de lichtopbrengst is nu eenmaal iets waar je met je smartphonelensje tekort komt bij astrofotografie. Aardige plaatjes zul je best kunnen schieten (met veel softwarematige trucs), maar een serieuze astrofotograaf gaat niet aan de slag met een smartphone.
Nee, een serieuze astrofotograaf pakt voor duizenden euro's aan hardware. De rest doet een smartphone het prima.

Opnieuw, een fotografische niche.
Simpel: door hetzelfde te doen als wat je smartphone doet: meerdere foto's nemen en gecorrigeerd over elkaar heen leggen. Ben geen astrofotograaf maar zal me niets verbazen als daar al kant en klaar software voor bestaat.
Voor verstokte film fanaten of mensen die per se lange sluitertijd willen zijn er ook statieven die meebewegen.
Dat is natuurlijk niet zo simpel als met een smartphone. Vergt duizenden euro's aan hard en software extra, enorme leercurve en tijd. Een smartphone heeft een DSLR voor casual nachtfotografie al lang voorbijgestreefd.
Wie gaat er nou 'casual' proberen sterren te fotograferen? Dan heb je toch al een buitengewone interesse in het maken van kwalitatief hoogwaardige astrofoto's. Anders kan je beter gewoon naar de hemel kijken ipv door een telefoontje. Heb je beter beeld.
Ik. Omdat het kan. En tof is.

Opnieuw, professionele astrografie is een niche en een smartphone kan het niet beter dan duizenden euro's aan laptops, lenzen, trackers en software. Echt niemand beweert dat. Maar een smartphone kan beelden maken die met alleen een DSLR bijna onmogelijk zijn door rotatie.
Het kan wel, met gratis software en een simpele goedkope dslr. Daar zijn ook best leuke en interessante instructies voor te vinden. Is alleen enorm veel werk. Dat gaat absoluut makkelijker in een moderne telefoon.
Maar de resultaten zijn dan ook beter. Je stopt er dan een paar uur in, en kan dan zonder fancy equipment daadwerkelijk deep space objecten fotograferen. Puur door de stacking rekenkracht. (Het stacken van honderden foto's met meerdere seconden sluitertijd.) Best tof.
Dat klopt, bijv. Autostakkert, Registax, etc. Gratis software, heb je binnen een uurtje onder de knie.
Voor situaties onder goed licht en relatieve grote field-of-view zal dat vast mogelijk zijn.

Op het moment dat je vogels of (binnen) sport wil fotograferen, dan zijn er wel andere eisen.
Ik zie m'n 400mm f2/8 nog niet vervangen worden door een telefoon.
Klopt, maar dat zijn bepaalde niches. En die niches zullen zonder twijfel nog enige tijd blijven bestaan, maar ik denk dat we wel kunnen stellen dat de meerderheid van de foto's dagelijks gemaakt 'in de hele wereld' met een smartphone gemaakt zijn... (helaas?)
Waarom helaas? In veel gevallen zie je geen verschil en als over een paar jaar de kwaliteit dus de DSLR zal overtreffen, is dat toch gewoon iets goeds
De kwaliteit van de camera (of mobiel) zegt niets over de kwaliteit van het uiteindelijke plaatje. Kiekjes kan iedereen maken, maar mooie foto's is niet voor iedereen weggelegd. Gulden snede, bokeh, belichting, sluitertijden, iso waarde etc. zegt de gemiddelde gebruiker niets. En let eens op hoeveel 'fotografen' met een mobieltje de camera in portretstand houden terwijl landschap-stand veel beter is voor de scene. Als (oud) hobby fotograaf met een DSLR erger ik mij groen en geel aan de jeugd (ook de mijne) die schuin, rechtop of hoe dan ook foto's maken.
Maar dat is dan ook niet de groep die fotografie als hobby of werk heeft.

Ergeren doe ik me er niet aan. Als er een opdracht is dan bellen ze mij, niet Janny met een smartphone.
Inderdaad _/-\o_ uw fotograaf haha met een smartphone ze zien je aankomen goede grap
Ik ben ook een hobby fotograaf en kan vrijwel alles met m'n telefoon wat ik ook met een DSLR met standaard lens kan.

Feit is dat de kwaliteit van de telefoons de DSLR voorbij gaat. Als je met een telefoon goede foto's kunt maken, kun je dat met een DSLR ook en andersom. Dat staat los van de hardware
Als (oud) hobby fotograaf met een DSLR erger ik mij groen en geel aan de jeugd (ook de mijne) die schuin, rechtop of hoe dan ook foto's maken.
Ach, noem het de 'dutch angle' en het is professioneel ;)
Dat heeft er niks mee te maken of je het met een smartphone maakt of met een DSLR.
Het grote voordeel van een smartphone camera is dat je die altijd op zak hebt. Voor de momenten die je kan plannen is een DSLR zeker de betere, maar uiteindelijk is de beste camera de camera die je bij je hebt.
Het is dus helemaal niet 'helaas' dat de meeste foto's met een smartphone worden gemaakt. Het is wel 'helaas' dat de meeste mensen zich niet een klein beetje inlezen hoe ze met een paar trucs een veel betere foto kunnen maken.
En soms al wandelend klikken 8)7
Dat heeft natuurlijk allemaal niks te maken met het feit dat technisch de smartphone onverslaanbaar is.

En dat kan ik bevestigen. Mijn smartphone is kwalitatief superieur aan mijn setje lenzen, DSLR en rx100v2.

[Reactie gewijzigd door kabelmannetje op 2 juni 2022 19:28]

Ik mis toch echt dat Sony claimt dat je mooiere foto's kan maken. Alleen iets over dat de techniek van dslr voorbij gestreefd is.
hangt er vanaf wat je als 'kwaliteit' ziet.
en die 'helaas' is een persoonlijke mening natuurlijk...
Logisch, want DSLR's worden niet meer ontwikkeld, alles gaat in dat segment over op mirrorless.

Misschien dat de smartphones van Sony beter gaan presteren dan de fotocamera's uit eigen stal, maar ik kan me er geen voorstelling van maken hoe ze betere foto's kunnen maken dan de topmodellen van Canon en Nikon waar vrolijk doorontwikkeld wordt en met name de lenzen het verschil maken. Tuurlijk hebben smartphones steeds krachtigere processoren en sensoren, maar het zakformaat van de behuizing werpt toch beperkingen op waar een mirrorless camera geen last van heeft.

[Reactie gewijzigd door Tophatter op 2 juni 2022 18:22]

Sony stelt dat Phones beter worden dan camera's met verwisselbare lenzen en beperkt zich met die grootspraak niet tot DSLR. Dus zo logisch is dat niet.
Ik reageerde op het artikel en niet op de bron waarin Sony het inderdaad heeft over ILC's en niet over DSLR's. Titel van het artikel op Tweakers klopt dus niet.
Als de klassieke camera fabrikanten uit de markt gedrukt worden door de smartphone is dat hun eigen schuld. Ze lopen op gebied van bv computational photography hopeloos achter.
De compact camera is al jaren dood
Verdwijnen zal het niet helemaal, maar het zal marginaal worden.
Dat de compact camera dood is heeft niets te maken met dat deze niet goed zouden zijn, maar dat telefoonfoto's acceptabel zijn geworden en mensen de noodzaak van een los apparaat niet meer zien.
Daar verandert computational photography niks aan - als er nu een 2x betere compact camera in de winkel ligt koopt nog niemand deze want ze hebben al een telefoon.
Sony is zelf een van de grootste leveranciers van censoren, niet alleen voor telefoons, ook voor camera's. Er zal nog heel lang nut en noodzaak blijven bestaan voor digitale camera systemen. Dat velen het kwaliteits- of mogelijkheden verschil niet nodig hebben is een heel ander verhaal.
Ik snap het toch niet helemaal, hoe kan zo een ietsje pietsje lensje nu op tegen een “echte” lens ??

AI is geen valuable argument want dat valt bij mij onder de noemer fotoshoppen en niet onder de noemer fotograferen.
Daarenboven is er toch geen enkele reden waarom deze truukjes niet toegepast kunnen worden op een “nieuwe” DSLR als je dat al zou willen.

Gewoon analoog blijft toch echt het leukste :9

[Reactie gewijzigd door klakkie.57th op 2 juni 2022 19:25]

Natuurkundig kan een kleine lens niet op tegen een grote lens. Maar alle smartphones doen aan " photoshoppen". De vraag is wie doet dat het beste.

Hoewel Sony de sensoren maakt voor telefoons en camera's, maakten hun eigen telefoons slechtere beelden dan hun concurrentie. Dit was met opzet. De telefoon afdeling van Sony moest de de kwaliteit van de beeldverwerking software beperken. Als de foto kwaliteit te goed was zou dit ten kosten kunnen gaan van hun camera afdeling.

Vroeger maakte telefoon met GCam app betere foto's dan met hun eigen camera app. Het draait om de software en het uiteindelijke plaatje. De telefoon kan dit volgens Sony over een paar jaar net zo goed als een RAW foto die bewerkt is met photoshop.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee