Samsung reageert op controverse maanfoto's: 'Het is geen overlay'

Samsung heeft voor het eerst gereageerd op de controverse rond de maanfoto's van zijn Galaxy Ultra-telefoons van de afgelopen jaren. De fabrikant claimt dat de kunstmatig verscherpte maan 'geen overlay' is.

Maanfoto's. Bron: u/iBreakPhotos

Samsung claimt dat de camerasoftware meerdere frames gebruikt om de details te verbeteren. "Wanneer een gebruiker een foto van de maan maakt, herkent de op AI gebaseerde scèneoptimalisatietechnologie de maan als het hoofdobject en maakt die meerdere foto's voor multiframecomposities. Vervolgens worden de details van de beeldkwaliteit en de kleuren verbeterd door middel van kunstmatige intelligentie. Er wordt geen beeldoverlay op de foto toegepast." De reactie komt grotendeels overeen met een blogpost uit 2021, maar nu zegt Samsung er expliciet bij dat het geen overlay is.

De software kwam in opspraak nadat een redditor aantoonde dat de software details erbij verzon die in het bronmateriaal onzichtbaar waren gemaakt. Hij had een foto van de maan verkleind en bewust onscherp gemaakt om details te verwijderen, maar die waren toch te zien in de afbeelding die Samsung gebruikte.

De AI lijkt wel te werken met de originele foto, zo blijkt uit een experiment van MrWhoseTheBoss. Hij voegde een eigen element toe aan een bestaande maanfoto. De software verving de vervaagde beeltenis van zanger Rick Astley niet, maar probeerde daar een maankrater van te maken. Samsung lijkt de AI te hebben getraind om details van het maanoppervlak in te vullen zonder een directe overlay te gebruiken.

Samsung noemt de functie Space Zoom. Het wijzigen van de maanfoto's is uit te zetten door Scene Optimizer uit te zetten. De maanfoto's waren ook onderwerp van gesprek in de Tweakers Podcast van deze week.

Rick Astley als maankrater. Bron: MrWhoseTheBoss

Door Arnoud Wokke

Redacteur

16-03-2023 • 10:56

136 Linkedin

Reacties (136)

136
134
46
2
0
68
Wijzig sortering
Het is inderdaad duidelijk dat de uiteindelijke foto een samenstelling is van meerdere foto's die gemaakt worden. Vooral bij weinig licht is dat duidelijk. Eerste resultaat dat je ziet is een vrij donkere vage foto en halve seconde later verschijnt de scherpe lichte foto. Dat is met alles wat je fotografeert, gezichten en dergelijke, dus dat kan geen overlay zijn (tenzij het eerdere foto's van dezelfde persoon gebruikt).
Maar het kan geen samenstelling van meerdere zelfgemaakte foto's zijn omdat er ook details in de foto voorkomen die niet voorkomen in het materiaal wat zich voor de lens bevindt.
Lijkt me een storm in een glas water te zijn. Heb zelf een S23 Ultra en ben uitermate tevreden met de foto's die ik intussen al heb kunnen maken. Dat deze niche toepassing van 'de maan' enkele kanttekeningen kent is voor mij niet echt een deal breaker.
Dat deze niche toepassing van 'de maan' enkele kanttekeningen kent is voor mij niet echt een deal breaker.
Het gaat niet alleen om de maan maar misschien wel alles wat je met dat ding fotografeert.
De maan is het enige dat we zeker weten. Het is aannemelijk dat de telefoon nog meer aanpassingen doet want zo'n functie ga je niet bouwen alleen voor de maan. De naam "Scene Optimizer" suggereert dat het om meer gaat dan de maan.

Het zou zomaar kunnen dat alle foto's door een AI worden gehaald te verbetering. Dat is natuurlijk prima als je een mooie profielfoto wil zonder puisten maar in andere gevallen kan het heel vervelend zijn.

Kan de politie zo'n foto als bewijs gebruiken of kun je er niet op vertrouwen dat de details kloppen?
Kan een arts vertrouwen op foto's van zo'n camera of worden de ongezonde plekjes weggepoetst.
Kun je sportfoto's nog vetrouwen om de uitslag vast te stellen of kan de telefoon besluiten om de ene wielrenner 10cm naar voren te zetten omdat het mooier is of wat ruimte te laten tussen de bal en de lijn?

Hopelijk staat in de metadata van de foto of die verbeterfunctie aan staat maar die metadata is vast niet altijd beschikbaar en de meeste mensen zullen er sowieso nooit naar kijken maar de foto geloven.

Overigens heb ik zelf geen enkel probleem met verbeterfuncties zolang maar duidelijk is wat er wanneer actief is en wat voor gevolgen dat heeft.

[Reactie gewijzigd door CAPSLOCK2000 op 16 maart 2023 12:33]

Zoals in het artikel ook staat aangegeven is dergelijke functionaliteit uit te schakelen.
Het wijzigen van de maanfoto's is uit te zetten door Scene Optimizer uit te zetten.
Voor zover ik weet is het nog niet bewezen en aangetoond dat de camera met deze optie uitgeschakeld nog steeds dergelijke manipulaties toepast in de aard zoals jij aan het beschrijven bent.
Voor zover ik weet is het nog niet bewezen en aangetoond dat de camera met deze optie uitgeschakeld nog steeds dergelijke manipulaties toepast in de aard zoals jij aan het beschrijven bent.
Dat zeg ik ook niet. Het punt is dat de meeste mensen niet weten dat deze functie bestaat en wat het precies doet. Dus gaan mensen er van uit dat foto's een eerlijke weergave van de werkelijkheid zijn.
Ok, dan lijkt me de beste oplossing dat Samsung een soort van korte tutorial of uitleg toont omtrent die 'Scene Optimizer' functionaliteit wanneer men de camera app voor het eerst opent. Want de meeste mensen zullen uiteraard niet op de hoogte zijn aangezien men niet zelf informatie omtrent dergelijke functionaliteiten opzoekt en/of nagaat.
Ja, en ook met een logische beschrijving komt en logische naam, want dit is ook een vage naam.
Ik heb de maan nog nooit wazig gezien zoals op de foto in het artikel, en wel scherp zoals de AI versie. Dus tenzij er iets mis is met je ogen (veraf niet scherp zien) klopt de AI versie meer dan de non-AI versie.

Wat je eigenlijk wilt zeggen is dat het niet is wat de camera ziet, dat klopt! Echter gaat dat wel letterlijk voor elke camera op, het raw bestand komt nooit overeen met de JPG die er uit komt rollen.

[Reactie gewijzigd door watercoolertje op 16 maart 2023 11:57]

Dat is het probleem niet. Om de foto mooier te maken stopt de AI extra informatie in de foto die niet door de lens gekomen is.
Daarmee krijg je dezelfde problemen, die je bij mensen ook hebt: de interpretatie bepaalt wat je ziet. Je hebt van die leuke experimenten waar je kort naar een plaatje moet kijken, en daarna moet je het beschrijven: er klopt geen hout van, maar je hebt het echt gezien.
Een foto maken met deze camera om vals te spelen, kan in die gevallen dus wel eens fout uitpakken.
Misschien heb ik het mis hoor, maar is de conclusie van dit artikel niet juist dat het dus allemaal wel door de lens is gekomen en dus meerdere frames worden gebruikt. Waarbij het eerder dus leek alsof niet bestaande informatie werd toegevoegd? Wat dus uiteindelijk niet het geval blijkt (voor zover dit artikel klopt)?
Die feedback van Samsung is gewoon borderline-misleidend: "Wanneer een gebruiker een foto van de maan maakt, herkent de op AI gebaseerde scèneoptimalisatietechnologie de maan als het hoofdobject en maakt die meerdere foto's voor multiframecomposities. Vervolgens worden de details van de beeldkwaliteit en de kleuren verbeterd door middel van kunstmatige intelligentie. Er wordt geen beeldoverlay op de foto toegepast."

Oftewel: er worden meerdere foto's gebruikt (ja, dat doet iedere moderne smartphone camera), maar _vervolgens_ worden de details "verbeterd". Dit is gewoon "stable diffusion light" waarbij een algoritme op basis van eerder geleerde data probeert een foto mooier te maken door details dichter naar een ideaal punt te pushen. Als iets lijkt op een maan wordt dat dus versterkt, zelfs al is het de maan niet (of Ryan Gosling zoals een andere upscaler al eens demonstreerde: https://petapixel.com/202...lings-face-to-this-photo/)
Het experiment is een wazige print op een afstand fotograferen. Samsung make van een wazige print een maan met detail. Dat klopt dus niet.

Het is wel we degelijk een overlay in layman terms, maar dan via een of ander algoritme getrainde op maan foto’s er ingeblend. Gewoon weer de misleidende doublespeak van Samsung :X
Dat is geen interpretatie. Onze ogen zijn namelijk eigenlijk waanzinnig slecht en in onze hersenen wordt dit gecorrigeerd zodat we er nog iets mee kunnen. In het kort en simpel uitgelegd hier: https://youtu.be/VxNBiAV4UnM?t=790
We zien dus best veel wat nooit door onze lenzen zijn gekomen, en met AI proberen ze nu dus hetzelfde voor foto's te bereiken.
Klopt, maar dat maakt de betrouwbaarheid van de data die je uit een foto kunt halen minder. Een mens kijkt nog even een keertje of het wel klopt...
Strict genomen: het AI gebruik is real time photoshoppen...
Er zijn voldoende omstandigheden (met name buiten reclame fotografie) waarbij het handig/verstandig is om dat niet te (willen) doen.

En waar komen de verbeteringen echt vandaan... kan ook uit een externe internet bron zijn...(door machine learning van het ML model verkregen)...
Je wilt X fotograferen.... Oh ik heb mooiere voor je.. in het geval van bv. de Maan, Taj Mahal, Piramides, .... en andere veel gefotografeerde objecten.
het raw bestand komt nooit overeen met de JPG die er uit komt rollen.
Ok dan is alles 'fake' als je die standaard hanteert.
klopt de AI versie meer dan de non-AI versie.
Maakt dat uit? Dit is maar de start. In het GPT-tijdperk kan een AI uw wazig gezicht herkennen en via het internet een verscherpte versie vinden om dat via AI te renderen. Dan klopt de AI ook meer met de 'werkelijkheid.' door 'fake' AI data door te voeren. Je kan dat met bijna elk gekend persoon of object doen. Probeer maar eens een wazige foto te nemen van een minister. AI lost het op.

tussen RAW en JPG kan verschil zitten. Ook filters kunnen een vertekend beeld geven maar we gaan een heel ander tijdperk te gemoed.

Samsung (en elk ander merk) zou AI-interventies heel duidelijk moeten vermelden. Aan de gebruiker, in de meta data enz. Exact zeggen wat door 'ai' is toegevoegd. Er is niets mis met AI maar zo verdoken functies die via het vertalen van een afgelegen Chinese blog bekendgemaakt worden.

Als ik straks foto's neem van een schadegeval gaat de verzekering nog zeggen dat in AI gebruikt heb om mijn foto te manipuleren in mijn voordeel. Alles zou traceerbaar moeten zijn. Zeer nauwkeurig vastleggen wat er met werkelijkheid is gebeurd.

[Reactie gewijzigd door Coolstart op 16 maart 2023 19:22]

Daar gaat het dus niet om. Nogmaals begrijpend lezen en lees de reactie van @CAPSLOCK2000 nog een keer.
Jawel. En het is onzin wat Samsung zegt. https://youtu.be/zRNE7zPfRoU
Voor het gebruik in wettelijke context (dus bv. voor de arts of de politie). Als de foto door een 'particulier' is gemaakt dan moet je op basis van risico's al vraagtekens zetten bij de authenticiteit van foto's. Details wegpoetsen op foto's die als bewijslast kunnen dienen is niet nieuw, kijk maar naar oude foto's van Stalin die prominente tegenstanders weg liet poetsen. Dus in dat kader; niets nieuws onder de zon.

Foto's als bewijsmateriaal die genomen worden door de instantie zelf moeten bij het gebruik van logaritmes, algoritmes en AI deze opnemen in een register zodat onderzocht kan worden of foto's eventueel zijn aangepast.
Maargoed, iets zegt met dat deze functies niet bepaald NEN-ISO gecertificeerd zijn dus gebruik van deze software door officiële instanties is van begin af aan al een no-go. (zoals je zegt, ik geloof niet dat metadata voor een auditrail oid. aanwezig is).
Maargoed, iets zegt met dat deze functies niet bepaald NEN-ISO gecertificeerd zijn dus gebruik van deze software door officiële instanties is van begin af aan al een no-go.
Je hebt niet altijd de keuze he. Als ik (als gewoon burger) op straat iets zie gebeuren dan maak ik een foto met de camera (telefoon) die ik op dat moment bij me heb. Het zal vast heel vaak voorkomen dat al het bewijs bestaat uit foto's van omstanders of dat er niet veel meer is dan die ene foto.

Technisch gezien zouden we dat soort foto's misschien niet moeten gebruiken maar dat lijkt me sociaal volkomen onacceptabel. Maar, zoals je zegt, helemaal nieuw is het niet. We hebben altijd al onvolledig en onbetrouwbaar bewijsmateriaal gehad, inclusief foto's.
Technisch gezien zouden we dat soort foto's misschien niet moeten gebruiken maar dat lijkt me sociaal volkomen onacceptabel.
Ok, wat nu als iemand met z'n auto een botsing veroorzaak en iemand snel een foto maakt van de kentekenplaat waar door de AI even de 'meest waarschijnlijke' letters van worden gemaakt die toevallig corresponderen met jouw kenteken (als er niet veel letters verschillen is de kans op eenzelfde merk/type ook nog best groot).

Dit soort functionaliteit kan best veel gedoe veroorzaken, zeker als mensen het niet verwachten of niet willen accepteren.
kheb zelf de s21 ultra en door alles uit te zetten behalve de stabilizer en op pro stand te fotograferen zodat je zelf de belichting kunt regelen, heb ik vele malen betere resultaten als die ik voorbij zie komen afgelopen tijd mét AI. Ook ik heb totaal niet de ervaring dat er dingen worden verandert aangezien alles op het live beeld prima te zien valt en je ook overlappende wolken e.d. verscherpt ziet.

Nu zal bij de s23 misschien meer AI worden toegepast voor het verscherpingsproces, maar ook dat werd al gebruikt voor de ruisonderdrukking. Het is altijd al zo geweest dat je een waarheid van de camera ziet.

"Vroeger", kon je door verkeerde belichting of verkeerde ontwikkeling foto's krijgen waar er dingen op verschenen die niet in werkelijkheid te zien waren. Het is nu eenmaal een gevolg van elk proces dat er afwijkingen kunnen ontstaan die niet wenselijk zijn wanneer je de waarheid zo dicht mogelijk wilt benaderen.

En de vraag of je dan foto's nog kúnt vertrouwen ? Je kunt foto's nooit vertrouwen! En video's ook niet. En mensen ook niet. Alles is zoals men wilt dat je iets krijgt te zien. En dat is altijd al zo geweest, met of zonder AI.
Het is altijd al zo geweest dat je een waarheid van de camera ziet.

"Vroeger", kon je door verkeerde belichting of verkeerde ontwikkeling <knip>

En de vraag of je dan foto's nog kúnt vertrouwen ? Je kunt foto's nooit vertrouwen! En video's ook niet. En mensen ook niet. Alles is zoals men wilt dat je iets krijgt te zien. En dat is altijd al zo geweest, met of zonder AI.
Dat is fair, je hebt gelijk dat iedere foto altijd al een interpretatie van de werkelijkheid was en dat (al dan niet opzettelijke) keuzes in het proces invloed hebben op het resultaat.

Toch vind ik dat deze techniek verder gaat al vind ik moeilijk om onder woorden te brengen waarom. Ik denk dat het is omdat zo'n AI wordt getrained met een concept van "goede" en "slechte" foto's en dat is vooral een esthetische keuze want de software kan niet weten wat de intentie van de fotograaf was. Wilde de fotograaf een scherpe maan fotograferen of was die opzettelijk vaag gehouden?

Het Rick Astley voorbeeld laat dat prima zien. De software maakt er een foto van die meer op de maan lijkt, maar hoe moet de software weten dat het geen mislukte foto van Rick Astley met de maan op de achtergrond is? De AI had er ook voor kunnen kiezen om de maan weg te poetsen en het gezicht van Rick te verbeteren.

Dat gaat verder dan de natuurlijke beperkingen van het fotografie & ontwikkelproces.

Maar je hebt helemaal gelijk dat we sowieso al te veel waarde hechten aan de feitelijke accuraatheid van foto's.
Kan de politie zo'n foto als bewijs gebruiken of kun je er niet op vertrouwen dat de details kloppen?
Kan een arts vertrouwen op foto's van zo'n camera of worden de ongezonde plekjes weggepoetst.
Kun je sportfoto's nog vetrouwen om de uitslag vast te stellen of kan de telefoon besluiten om de ene wielrenner 10cm naar voren te zetten omdat het mooier is of wat ruimte te laten tussen de bal en de lijn?
Eens met je punten hoor. Denk dat dit soort AI modellen langzaam bijna eng worden.
Al verwacht ik niet dat de uitslagen van sport worden vastgesteld met Samsung telefoons :P
En dat als jij je arts met een foto wil informeren (dat scenario bedoel je toch?) dat je die screen optimizer gewoon uitzet. Het is immers in jouw belang om informatie zo goed mogelijk over te brengen.

We gaan op deze manier wel steeds verder weg van 'jouw' foto of creatie. Kun je nog zeggen dat het een eigen foto is, als deze door een algoritme is gegaan waar elementen van 1000 anderen fotos bij elkaar zijn gezocht. Dan zet je iets op Instragram, maar is het eigenlijk een soort megamix van andere fotos :P

Miss moet er gewoon een brandmerkje aan die fotos worden toegevoegd, waardoor je weet dat het met 'optimizers' is gemaakt.Nieuw is dit principe niet, want we doen het al sinds Photoshop er is. Het wordt nu gewoon nog makkelijker en nog massaler/mainstream.
En dat als jij je arts met een foto wil informeren (dat scenario bedoel je toch?) dat je die screen optimizer gewoon uitzet. Het is immers in jouw belang om informatie zo goed mogelijk over te brengen.
Ik ben bang dat de meeste mensen dat niet weten en het dus ook niet doen.

Misschien dat het in de toekomst veranderd en we heel bewust om gaan met AI/verbeter functies.
Misschien moet de volgende stap een AI zijn die beslist of het verstandig is om de verbeterfuncties uit te zetten omdat accuraatheid belangrijker is dan een mooie plaatje.

[Reactie gewijzigd door CAPSLOCK2000 op 16 maart 2023 12:07]

ja 100% eens.
En je zou ook kunnen zeggen dat de default zonder optimizer is en je voor andere gevallen aanzet. Echter.. Dat gaat Samsung natuurlijk niet willen, bovendien... gros van de doelgroep denk ik ook niet. Die willen gewoon mooie plaatjes. Puur of 'geholpen' maakt dan geen bal uit.
Een complete AI "foto" wordt ook al geloofd, eigenlijk een dubieuze ontwikkeling. Plaats maar eens een AI gegenereerde afbeelding op Instagram of waar dan ook, als je profile pic, zit meteen je DM vol :9
Het lijkt me met de opkomst van AI gegeneerde media sowieso al een verankerd feit dat je niet zomaar meer een foto, video of audiobestand kan vertrouwen.

Ik zie nu in mijn Youtube shorts al bijvoorbeeld hele game sessies van Obama Biden en Trump voorbij komen die bizar overtuigend klinken.
Dat is content die gewoon uit het luchtledige komt.

[Reactie gewijzigd door Polderviking op 16 maart 2023 11:41]

Ik kan je gelukkig op een paar punten gerust stellen:
Kan de politie zo'n foto als bewijs gebruiken of kun je er niet op vertrouwen dat de details kloppen?
De politie neemt zelden tot nooit foto's als bewijs. Ook in de analoge tijd kon je door foto's in scene te zettende, te retoucheren of gewoon door 'handig' je tijdstip, standpunt en kadrering te kiezen foto's in jouw voordeel manipuleren. Als 'bewijs' waren foto's daarom altijd al flinterdun.
Kan een arts vertrouwen op foto's van zo'n camera of worden de ongezonde plekjes weggepoetst.
Als jij om wat voor medische reden dan ook een foto van een ongezond plekje maakt controleer je neem ik aan even of dat op de foto goed overkomt. Iets meer vertrouwen hebben in het gezond verstand van mensen die zich zorgen maken over een ongezond plekje en daar een foto van maken, Capslock2000!
Kun je sportfoto's nog vertrouwen om de uitslag vast te stellen of kan de telefoon besluiten om de ene wielrenner 10cm naar voren te zetten omdat het mooier is of wat ruimte te laten tussen de bal en de lijn?
Foto's die gebruik maken om uitslagen vast te stellen zijn in 99% van de gevallen finishfoto's. Finishfoto's zijn op geen enkele manier te vergelijken met gewone foto's. Een gewone foto geeft aan waar iedereen zich bevond op het tijdstip dat de winnaar over de lijn gaat, een finishfoto geeft van rechts naar links aan hoeveel tijd er zat tussen het moment dat de winnaar over de streep kwam en wanneer degene op de finishfoto dat deed. De finishfoto geeft dus niet aan dat er 10 centimeter verschil zat tussen nummers 1 en 2, maar dat er -bijvoorbeeld- 5 milliseconden zat tussen de tijdstippen dat nummer 1 en 2 over de finish gingen. Door de tijdbasis zo uit te rekken dat er een min of meer herkenbaar beeld ontstaat kunnen we inschatten dat nummer twee ongeveer 10 centimes achter lag op het moment dat nummer 1 over de finish kwam. Hier kan AI op geen enkele manier iets aan veranderen.

En wat balspelen betreft kan ik mij ook geen geval herinneren waarin aan toeschouwers of zelfs professionele sportfotografen werd gevraagd of iemand toevallig een foto had gemaakt van een wel-of-niet over de lijn situatie... Je weet dat sportfotografen in de analoge tijd een ruime verzameling uitgeknipte foto's van ballen in alle soorten en maten van allerlei sporten hadden om op hun foto's te plakken? Die wisten ook wel hoeveel beter een foto werd als een verder fraaie maar helaas bal-loze compositie van sporters van een bal op een mooie positie werd geplaatst. Aanpassen van foto's is van alle tijden, vroeger 'gewoon' I, nu AI.

Ik verheug mij nu al op de volgende serie telefoons van Samsung waarin een cryptozoologisch algoritme gestopt wordt. Vage donkere plekken in het bos worden haarscherpe opnames van Big Foot, een eigenaardig golf in Loch Ness verandert in een overtuigende Plesiosaurus en opvallende bollen op grote hoogte blijken geen chinese weerballonnen maar glashard bewijs van het bestaan van groene mannetjes want die zijn duidelijk achter hun venstertje te zien...
Je hebt een verkeerd idee van wat een finishfoto is.

Een finishfoto is niets meer of minder dan een hele korte opnametijd in een hele snelle camera zodat er duizenden foto's per seconde kunnen worden genomen, en de camera is aangepast op de snelheid van de objecten om vervorming zoveel mogelijk tegen te gaan.

Dat men daarna software op de foto los kan laten om het exacte tijdsverschil te bepalen staat los van wat een finishfoto is.
Je hebt een verkeerd idee van wat een finishfoto is.
Ik heb een uitstekend idee van wat een finishfoto is omdat ik in de analoge tijd aan die apparatuur gesleuteld heb. Toen nog met een bewegende spleet, nu digitaal maar het principe blijft hetzelfde. Er worden duizenden foto's per seconde gemaakt van een HEEL KLEIN STROOKJE. Die duizenden strookjes worden vervolgens NAAST elkaar geplakt waardoor je van rechts naar links het tijdsverloop in dat kleine strookje ziet.

En omdat de meeste wielrenner met hun voorwiel als eerste over de finish gaan en met hun achterwiel als laatste zien wij op die foto bestaand uit naast lekaar geplakte strookjes helemaal rechts het strookje voorwiel over de finish en links het strookje achterwiel over de finish zodat het net lijkt alsof er een enkele opname is gemaakt op het moment dat de wielrenner over de finish reed.
Ingewikkeld. Je hebt toch maar één enkele strook nodig waarop het wiel van de winnaar te zien is op het moment dat dat de finishlijn passeert?
Je moet wel heel veel foto's in heel korte tijd maken om zeker te zijn van dat je ook een foto hebt van exact dat moment ;)
Ingewikkeld. Je hebt toch maar één enkele strook nodig waarop het wiel van de winnaar te zien is op het moment dat dat de finishlijn passeert?
Je wilt ook PRECIES weten op welke tijdstippen de overige deelnemers over de finish kwamen want dat bepaalt op welke plek ze eindigen. En het verschil tussen nummer 3 en 4 kan ook maar een honderdste seconde zijn. Op welke plek ze reden toen de winnaar de eindstreep passeerde is voor de uiteindelijke klassering niet relevant, het gaat erom in welke volgorde (en bij veel sporten ook in welke tijd) ze over de streep kwamen. En dat is op een finishfoto perfect te zien

Dus je hebt voor elke deelnemer een opname nodig met de tijd dat die over de finish kwam. Per seconde duizend dunne fotostrookjes van een paar pixels breed en een paar honderd pixels hoog zijn makkelijker te maken en op te slaan dan een paar duizend complete megapixelfoto's. Die strookjes naast elkaar plakken is een heel efficiënte en inzichtelijke manier om het resultaat samen te vatten, hoe meer naar links op de finishfoto hoe later over de streep.
In principe kan een finishfoto dus in de lengte een paar miljard pixels groot zijn als de laatste deelnemer pas een kwartier na de winnaar over de finish komt. Alle binnenkomsten staan gewoon op 1 finishfoto...

En bedenk wel dat het hele principe van de finishfoto al is uitgewerkt en geperfectioneerd met een spleet die een finishfoto strookje voor strookje belichtte, in het pre-digitale tijdperk toen 5 foto's per seconde al een duizelingwekkende snelheid was.
Het lastige is dat de term "verbeteren" voor enorm veel discussie kan zorgen.
Ik bewerk al langere tijd de meeste foto's na. Het doel voor mij is om de foto zo weer te geven als mijn beleving, het liefst zo realistisch mogelijk. Ik denk dat ik allergisch ben voor onnatuurlijke foto's, maar goed, wanneer ik iets natuurlijk/mooi vind, hoeft dat niet zo te zijn voor jou.

Mooi voorbeeld is bijvoorbeeld de kleurtemperatuur van een foto, ik merk dat ik geneigd ben de kleuren wat warmer te trekken, omdat voor mijn gevoel dat de foto mooi maakt. Volgens mij maakt/maakte Canon ook (huids)kleuren wat warmer, zie deze video, omdat mensen dat aantrekkelijk vinden.

Theoretisch kan het werken, maar in de praktijk is het discutabel. Zo kwam ik er bij de film Interstellar achter dat ik een frame insertion functie aan had staan op de televisie, toen er een drone verminkt uitzag. Daarvoor merkte ik het niet, dus "werkte" het.

Mijn insteek: elke bewerking, zelfs van fotonen (dus hoe het er daadwerkelijk uit ziet) tot een signaal, hebben invloed op de overeenkomst met de realiteit. Dat kán positief zijn, en zelfs al is de insteek dat dit een positief effect moet hebben, kan dat nog steeds leiden tot een negatief resultaat.
Dit haalde ook het verhaal van Huawei naar boven, die een "moon mode" introduceerde waarbij ze je foto gewoon vervingen met een stock photo :+
Overigens heb ik zelf geen enkel probleem met verbeterfuncties zolang maar duidelijk is wat er wanneer actief is en wat voor gevolgen dat heeft.
Dit heb ik met zowat alles wat big tech doet. Ik ben geïnteresseerd in technologie, alleen al vanuit dat aspect mag het van mij allemaal wat transparanter zijn.
Natuurlijk gaat het om meer als de maan en letterlijk alle merken telefoons doen iets vergelijkbaars.
Anders zouden de telefoons veel mindere kwaliteit foto's maken als dat ze nu doen.

In plaats van te zeuren zouden mensen blij moeten zijn met een dergelijke functie, die helpt om je een mooi plaatje te geven. Je kunt het uitzetten als je het niet wilt.
Ik heb mijn s23U in bestelling staan. En ik heb nog nooit een foto gemaakt van de maan. ook voor mij geen probleem.

ik ben het er wel mee eens dat het uitgelicht wordt, en dat samsung hiervoor aan de schandpaal hangt. Hadden ze dit vooraf aangegeven, dat de camera AI toepast voor specifieke objecten, was het prima geweest.

Niet dat je straks bij elke foto een AI gegenereerd effect krijgt en geen echte fotos meer maakt, maar alleen maar bewerkte foto's, omdat de camera zo betere foto's maakt....... Maak je een foto van je kind en zie je een bewerkte foto van hogere kwaliteit van iets wat je kind niet is. Lijkt me geen gewenste situatie. (mits dit niet vooraf kenbaar is gemaakt).
Dat laatste lijkt me van evident belang. Steeds vaker worden er foto's van een aandoening (huidkanker bv) gevraagd door huisartsen/ dermatologen. Als de telefoon er dan een mooie niet verkleurde huid of een "leuke" moedervlek van maakt, kan een aandoening gemakkelijk gemist worden met alle gevolgen vandien.
Ik als Samsung gebruiker heb het altijd geweten dat Scene Optimizer een AI is dat aan image processing doet. Volgens mij heeft Apple ook zoiets, genaamd Photonic Engine.
De Claim van SamSung is dat ze ALLE beelden met ML based AI verbeteren. (als? aangezet).
Het is alleen met een foto van de Maan expliciet aangetoond.
Er worden al genoeg modellen gebruikt door telefoons om onze gezichten aan te passen zodat we de realiteit zien die we willen zien (aldus de inschatting). Nu doen ze dat bij de maan, is dat heel veel anders? Nee naar mijn mening niet, vraag is alleen waar eindigt het en het moet wel transparant gebeuren.

Al die smoothing en filters van telefoons op gezichten passen in hetzelfde schuitje.
Nee, maar Samsung heeft er wel een handje van om te "cheaten" tijdens testen. Hun TV's van afgelopen jaar herkende ook de test beelden die reviewers gebruiken en daarop paste de TV zijn waarden aan.

Vervolgens zijn ze ge-exposed en patchen ze het eruit, maar de reviews van die TV stonden al online. Dit terwijl real world dit soort kleuren niet gehaald worden. Nu doen ze weer iets vergelijkbaars met de S serie telefoons.

Ik neem alles van samsung nu met een korrelzout en zal niet snel naar Samsung kijken als ik een nieuw apparaat koop. Dit in combinatie met hun quality control zorgt ervoor dat ik samsung voor nu even links laat liggen.
Totdat langzaam de werkelijkheid verstoord word doordat het gezicht van mensen in foto's subtiel aangepast word?

Erg oppassen met aanpassingen op de werkelijkheid waarvan mensen niet doorhebben dat ze er zijn of dus zelfs (zoals Samsung) hardop beweren dat er geen beeld word toegevoegd maar de werkelijkheid beter zichtbaar gemaakt word?
Dat gebeurd ook, bijna alle telefoons hebben daar mee te maken.

Meestal is het gewoon een setting (vergelijkbaar met scene optimiser). Je kan soms ook de mate waarin nog zelf regelen (beauty filter).
Maakt het nou de werkelijkheid beter zichtbaar, of verwijdert het ook puisten van het gezicht bijvoorbeeld? Ik heb geen idee hoe ver die AI gaat, maar meerdere beelden gebruiken om meer detail te krijgen is een techniek die al veel langer bestaat geloof ik, maar worden er dan beelden gebruikt alleen van de camera, of ook van internet?.

[Reactie gewijzigd door Kalder op 16 maart 2023 17:02]

Dat is dus het hele discussie punt hier. Ze gebruiken sec geen beelden, maar (worden verdacht van) machinelearning die pixels vormt naar een algoritme die geleerd heeft van andere voorbeelden, beeldmateriaal.

Dus technisch gezien verduidelijken ze niet wat er al is, maar functioneel gezien wel.

Zo’n algoritme is niet per se toegespitst op verwijderen of toevoegen, maar alles voor het gewenste resultaat (de geleerde voorbeelden).

Gevaarlijk, subjectief en bijna onzichtbaar dus.
Imho moet Samsung hier duidelijkheid over schaffen.
Bedankt voor de opheldering, in dat geval ben ik inderdaad met je eens dat ze er duidelijk over moeten zijn, en wellicht ook wel controleerbaar zijn door een onafhankelijke partij ofzo, Alhoewel je natuurlijk niet wilt dat die mensen al je foto's kunnen bekijken (Hoewel mijn foto's allemaal op mijn Google account staan en daar gaat 100% zeker ook een AI overheen, in ieder geval om de fotos van mijn kat te verzamelen, die kon ik allemaal terug vinden door te zoeken naar "kat" terwijl die info alleen uit de foto zelf gehaald kan zijn)

[Reactie gewijzigd door Kalder op 16 maart 2023 21:51]

Ik heb de mijne in een houder gezet en met pro opties een heel scherpe foto kunnen maken van de maan. Je moet dus wel weten hoe in te stellen. Niet dat dit het haalt bij mijn Canon maar het is best goed gezien de grootte van de lens enzo.
conclusie van https://youtu.be/EKYJ-gwGLXQ?t=283 was hetzelfde.. ja het is software en geen hardware dus een beetje misleiding in de reclame.. maar het levert wel een wenselijke functionaliteit op..

Feature is goed, de promotie een beetje dodgy..
Het is echter wel valse reclame. Het wekt de indruk dat je op zo’n grote afstand scherpe foto’s kunt maken dat je zelfs de maan scherp kunt vastleggen.
Geen deal breaker, zeker niet, maar je wordt wel voorgelogen. https://youtu.be/zRNE7zPfRoU
Dit lezende krijg ik het idee dat veel eigenaren van een Samsung telefoon voortdurend de maan fotograferen?
Ik denk dat de maan een van de meest gefotografeerde objecten is, niet alleen door mensen met een Samsung telefoon.
Echt waar? Voor de wetenschap en/of met echte telelenzen...dan heeft het zin. Anders zie je toch niet zo veel? Is het niet zo dat je het gelijk kan stellen aan "foto's van bomen"? Want bomen worden vast heel vaak gefotografeerd. Of foto's van de 'de aarde'? Want die staat er ook verdacht vaak op... :9

Ik geloof dat het een marketing gimmick is, meer niet.
Het zal je verbazen. Facebook staat vol met maanfoto's.
Ik heb dan weer werkelijk nog nooit een maan gefotografeerd, dus ben wel benieuwd of dat inderdaad zoveel wordt gedaan :9
Ja, gebeurt vaak. Soms buiten en soms bij een concert.
Exact hetzelfde hier, Ik heb net even door mijn collectie heen gestruind, maar zelfs bij mijn afbeeldingen die ik doorgestuurd gekregen heb is er geen enkele maan te vinden.
Hell no, met uitstek op de gedeelde eerste plaats, huisdieren en kinderen.
Beter lezen. Ik zei "een van de" en dat is het ook gewoon.
Het is marketing, reclame. Als je een telefoon op markt brengt en aan potentiële klanten uitlegt dat hij zo'n goede zoom heeft dat hij foto's van de maan kan maken schep je de verwachting dat het de camera/zoom zelf is. Als klant vergelijk je dat met een ander merk en ziet dat andere merken dat niet kunnen. Dat is een pluspunt waardoor je wellicht eerder een samsung dan een xiaomi koopt.
Maar als de telefoon dat niet kan met andere plaatjes, plaatjes die de gemiddelde consument wel vaak zou schieten, dan is dat dus een hoop onzin. Als die maanfoto's dus nep zijn is het gewoon bedrog dus.
Ik verwacht wel toekomst op dit gebied. De output van een pixel op een optische chip fluctueert constant door allerlei inlvloeden. Een foutcorrectie mbv slimme software moet kunnen werken. Bij het waarnemen van planeten bij andere sterren wordt dit al veel gedaan. Uit het vergelijken van meerdere frames kunnen nieuwe details naar voren komen die op 1 enkele gewoon niet te zien zijn. Als een pixel 3 van de 100 keer een andere kleurwaarde oplevert bij dezelfde omstandigheden maar de omringende pixels niet, zie je iets wat daar is. Het is mogelijk om de vorm van iets te bepalen zonder dat er op 1 enkele foto iets van te zien is.

[Reactie gewijzigd door blorf op 16 maart 2023 11:42]

Dat is wat samsung claimt. Het probleem is dus juist dat het lijkt dat dat niet gebeurt.
De reddit post legt uit dat het er zeer sterk op lijkt dat samsung telefoons een plaatje van de maan specifiek herkennen en dan een scherper plaatje uit een (online) archief trekken en die bovenop het niet-scherpe plaatje legt.
De foto die je ziet zou dus niet zijn wat je zelf hebt geschoten met de telefoon, maar een copypaste van een betere camera. Als dat klopt dan is het dus compleet waardeloos in elke situatie waar er geen betere versie van hetzelfde plaatje beschikbaar is.
Volgens mij doen ze het bewust. Een onweerlegbare claim aanwakkeren als reclame. Net als Apple met die kringen op tafel.
De reddit post legt uit dat het er zeer sterk op lijkt dat samsung telefoons een plaatje van de maan specifiek herkennen en dan een scherper plaatje uit een (online) archief trekken en die bovenop het niet-scherpe plaatje legt.
Dit is dus wat Samsung net niet doet. Ze gaan geen plaatje bovenop het onscherpe plaatje leggen (zoals Huawei destijds). Samsung herkent gewoon dat er een maan staat en gaat het onscherpe plaatje optimaliseren zodat het er meer uitziet als een maan.

Net zoals een portret modus de randen van jouw hoofd gaat herkennen om dan de achtergrond onscherp te maken (bokeh nabootsen). Gaat Samung hier herkennen dat het om een maan gaat en het er als een maan laten uitzien. De geoptimaliseerde foto blijft wel jouw onscherpe foto als basis gebruiken.
Dat claimt samsung, ja. Is dat zo? Ik ben niet expert genoeg om dat te zeggen.
Hoe ze bij het resultaat komen is overigens niet extreem belangrijk. Kijk naar de vergelijkingsfoto in de redditpost tussen de volledige maan en halve maan. Als de telefoon alleen kan verscherpen als hij de volledige maan ziet, en niet de halve, dan betekent dat dat hij alleen kan verscherpen wat hij herkent.
Herkent hij het gezicht van je vriend die 500m verderop staat niet, dan verscherpt hij hem dus ook niet.

Dat betekent dus gewoon dat de selling point van "veel betere helderdere zoom dan andere telefoons" niet klopt. Dan bedriegen ze dus de consument met een goedkope truc, ongeacht wat de exacte truc is.
Dat claimt samsung, ja. Is dat zo? Ik ben niet expert genoeg om dat te zeggen.
Hoe ze bij het resultaat komen is overigens niet extreem belangrijk. Kijk naar de vergelijkingsfoto in de redditpost tussen de volledige maan en halve maan.
https://www.youtube.com/watch?v=EKYJ-gwGLXQ --> 4:40 Mr.Whosetheboss voegt details toe aan een foto van de maan, camera herkent de maan en probeert hier dan ook 'maandetails' van te maken. Samsung zet geen foto van de maan over jouw foto. Het algoritme probeert het er als een maan te laten uitzien.
Wat Samsung claimt, klopt.
Als de telefoon alleen kan verscherpen als hij de volledige maan ziet, en niet de halve, dan betekent dat dat hij alleen kan verscherpen wat hij herkent.
Herkent hij het gezicht van je vriend die 500m verderop staat niet, dan verscherpt hij hem dus ook niet.
Klopt ongeveer. De telefoon zal algemeen wat verscherpen maar om de mate van verbetering te krijgen zoals bij de maan, moet het algoritme hierop getrained worden. Samsung doet dit bijvoorbeeld ook bij tekst. Mijn telefoon herkent een mensengezicht maar niet dat gezicht het gezicht van mijn vriend is. De telefoon gaat dit meer algemeen verbeteren maar deze verbetering zal nooit zo goed zijn als die verbetering van de maan. De maan is uniek. Een gezicht is dat niet (ook al zijn gezichten grotendeels hetzelfde).
Dat betekent dus gewoon dat de selling point van "veel betere helderdere zoom dan andere telefoons" niet klopt. Dan bedriegen ze dus de consument met een goedkope truc, ongeacht wat de exacte truc is.
De selling point van "veel betere helderdere zoom dan andere telefoons" blijft kloppen.Als je de scene optimizer uitzet en je neemt een zoomfoto van x3, x5, x10, x30 dan zullen de zoomfoto's van de samsung er veel (normaal gezien) beter uitzien omdat de S23 namelijk twee zoomlenzen heeft, een 3x en 10x optische zoom.
Als je zonder verbeterprocessen de foto's vergelijkt dan gaat de hardware zwaarder doorwegen. Er zijn verschillende toestellen met een x3 zoom dus (als de kwaliteit vergelijkbaar is) kan het daar beide kanten uitgaan. Ik weet niet of er toestellen zijn met een x5 zoomlens dus daar kan het ook beide kanten uitgaan (gebruiken ze de x3 of gebruikt de samsung de 200mp om digitaal in te zoomen?). Er zijn bijzonder weinig toestellen met een 10x zoomlens dus de Samsung zal sowieso betere 10x zoomfoto's maken dan het merendeel van de andere telefoons, en dit kan je gerust verdertrekken naar 20x, 30x, ... omdat die foto's van een betere basis vertrekken.
Zo veel informatie zit er niet in één plaatje. Dan moet je heel veel foto's maken.
Zoveel mogelijk. Nog mooier is het als je een klein beetje panning doet tussen de foto's door zodat alles op andere sensorpunten valt. Dan komen de verschillen die je blijft zien in ieder gevan niet van de chip. De lens of diafragma kunnen het nog wel veroorzaken. Dat valt (deels) ook wel met software te compenseren.
Komt doordat Samsung hier specifiek voor adverteert en ze en "moon shot" mode hebben in de camera app.
Wat moet je anders met zo'n camera?
Een paar telefoons verder en we kunnen Mars fotograferen :+

Edit:
(zonder telescoop)

[Reactie gewijzigd door Milanobrotchen op 16 maart 2023 11:53]

dat kun je nu ook al...
ja een lichtelijk rood licht puntje heb je dan op foto. Je kan echt niet dit soort fotos maken van Mars met een smartphone. Dan heb je zowieso een telescoop nodig.... :/
Geen enkel probleem om een telescooplens voor je smartphone te plaatsen
Ze maken er wel reclame voor dat hun camera net zo goed is als een telescoop.
In tegenstelling tot de rest van de reacties hier, vind ik de ophef hier over wel gepast.

Tenzij het expliciet niet de intentie is, hoort een foto een momentopname van de realiteit te zijn.
Als alle details aangepast worden door AI en filters, wat voor opname is dat dan nog?

Ik ben vast in een verkeerde generatie geboren of zo iets, maar ik voel me nu al als 'the old man yells at cloud'. Ik zie deze proliferatie van AI als een risico. We weten gewoon niet meer waar we naar kijken. Foto en video is geen opname meer - het is een karikatuur.
In het vorige bericht hierover waren genoeg mensen het met je eens, kan ik je verklappen.

Maar ik blijf er bij dat dit wel aardig binnen het verwachtingspakket zit.
Smartphonefoto's zijn al heel lang voor een heel groot deel het gevolg van software, en dus niet alleen wat er op de sensor land.
Denk ook niet dat dat weg gaat want er zitten fysieke limieten aan hoeveel detail je met zo'n piepkleine sensor kan oppakken.

Ik zie het verschil verder niet tussen trucage met die maanshots, en bijvoorbeeld achteraf ingevoerde bokeh of al die (al dan niet standaard ingeschakelde) catfish filters op je selfiecam.

[Reactie gewijzigd door Polderviking op 16 maart 2023 11:27]

hoort een foto een momentopname van de realiteit te zijn
Ik denk dat dit niet zo zeer een feit is. Ik heb hier namelijk wel een andere mening over. Welke foto je ook maakt zal een versie van de werkelijkheid zijn afhankelijk van het device en de lens die jij gebruikt.
Dat zakt uiteindelijk weg in een filosofische discussie over of er überhaupt één objectieve realiteit is.

Je argument komt er op neer dat iedereen met een oogafwijking (en de-facto ieder mens op aarde vanwege mini verschillen) niet de realiteit ziet.

En dat klopt, niemand ziet dat. Maar toch noemen we het met z'n allen zo.
Moet je gsm eigenlijk online zijn om die verbeterfunctie te gebruiken? Of werkt dat ook gewoon lokaal, zonder internetverbinding?
Tja, je moet ook gewoon met je eigen telescoop naar de maan kijken en genieten van het uitzicht in plaats van foto's nemen.
Wel een nd filter ertussen anders brand ze je ogen uit.
Dat valt wel mee. Het is de zon niet.
Uit mijn eigen ervaring, nee. Je kunt zonder problemen naar de maan kijken met een leuke hobby telescoop.
Kan ook prima, uitbrander is als je er langdurig naar kijkt. Ik had moeten weten dat tweakers het heel letterlijk nemen.

Daarbij heb je met een hobby scope niet dezelfde lichtopbrengst als een grote newton oid.
Heb 1x een maanfoto gemaakt, maar goed snap sowieso niet waarom je dat met een smartphone zou willen. AI of niet, de camera maakt fijne foto's.
Samsung gerickrolled.
Het gaat erom dat een foto bij elkaar "bedacht" wordt door de software en als zijnde een foto gepresenteerd. Op die manier krijgt de foto dezelfde waarde als een ooggetuige: Je ogen hebben hebben iets gezien maar wat je hersens ervan gemaakt hebben...
Dat is fundamenteel niet wat er gebeurt. Je kunt het zien als dat een artiest jouw foto pakt en er dan een hyperrealistische schets van maakt door gebruik te maken van zowel alle kennis van de maan als informatie uit jouw foto. Dat is de foto zelf maar ook meta data
Dat snap ik wel maar presenteer het dan ook als een artists impression zoals de NASA dat ook altijd doet
Ik snap wat je bedoelt. Maar NASA meet golflengten die je met het blote oog niet kan zien en visualiseert dat dan door het naar het zichtbare spectrum te transformeren. Om dat een 'artists impression' te noemen is een beetje kort door de bocht, uiteindelijk is dat ook wetenschap vind ik. Wat samsung doet is zichtbaar licht beter zichtbaar maken door post processing via (generatieve) AI, en daarmee eigenlijk proberen de maan zo echt mogelijk te maken. Dat zijn in mijn ogen twee totaal verschillende doelen en technieken
Op die manier krijgt de foto dezelfde waarde als een ooggetuige
Juist, een hoge mate van onbetrouwbaarheid.
Ik moet toegeven dat ik het als kind zijnde altijd probeerde in te zoomen op de maan, met mn vader's video-camera , wat erg tof is als je zover kunt inzoomen :) maarja ik was toen 12.
Maar om daarvoor een smartphone camera te gebruiken ?

Tegenwoodig ... mja ik woon in Ierland ... dus ik kan meestal alleen regenwolken fotograferen :D

[Reactie gewijzigd door Metallize op 16 maart 2023 11:19]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee