Redditor toont aan dat Samsung Ultra-telefoon foto's van de maan faket

Een redditor heeft aangetoond dat Samsung-telefoons foto's van de maan faken. In een post laat ibreakphotos zien dat Samsung-software details invult van de maan die er niet waren, wat alleen kan als de software de maandetails zelf inlaadt.

Om het faken van de maanfoto's aan te tonen, maakte ibreakphotos een set-up met een plaatje van de maan op 170x170 pixels met blur eroverheen om alle details te verwijderen. Vervolgens verduisterde de redditor de ruimte en maakte een foto met de S23 Ultra vanaf de andere kant van de kamer.

Daardoor werd duidelijk dat de Samsung-telefoon in de post-processing met meer details kwam dan in de originele afbeelding zaten. De redditor herhaalde het experiment met een plaatje van de maan half achter een andere afbeelding en die verscherpte de software niet, vermoedelijk omdat de software die niet als de maan herkende.

Samsung heeft nog niet gereageerd op de controverse. De fabrikant heeft eerder gezegd dat het vooral gebruikmaakt van algoritmes om het plaatje te verscherpen door van meerdere frames met verschillende belichtingen gebruik te maken, zoals elke foto in nachtmodus werkt. Dat is hier niet het geval, omdat de software details in de afbeelding zet die in het bronmateriaal niet aanwezig waren. Huawei is eerder al beschuldigd van het faken van maanfoto's. De functie Space Zoom zit sinds drie jaar op Samsungs duurste telefoons, de Ultra-telefoons uit de S-serie. Dat zijn de S20 Ultra, S21 Ultra, S22 Ultra en S23 Ultra.

Samsung maanfoto's S23 UltraSamsung maanfoto's S23 Ultra

Door Arnoud Wokke

Redacteur Tweakers

13-03-2023 • 17:33

129

Reacties (129)

129
120
67
9
0
34
Wijzig sortering
Marques Brownlee heeft er net een video over gemaakt. Edit: Mrwhosetheboss nu ook.

[Reactie gewijzigd door Kay84 op 22 juli 2024 20:01]

tl:dr; Een hele "controverse" over een feature die niet alleen niet werkt zoals deze Redditor claimt; maar ook nog eens op voorhand uitgebreid is uitgelegd door Samsung.
Is wel erg oud nieuws! Dit was twee jaar geleden al bekend https://www.reddit.com/r/...sung_moon_shots_are_fake/

[Reactie gewijzigd door aswelter op 22 juli 2024 20:01]

Die eerdere test toonde aan dat de AI de toegevoegde tekening omzette in niet bestaande kraters.
Deze test toont aan dat de AI probeerde een afbeelding te tonen zoals de maan er uit zou zien.
Dat zijn wat mij betreft wel verschillende situaties.
Je krijgt dan natuurlijk hoe dan ook niet een werkelijkheid te zien, maar een poging het nog een beetje 'realistisch' uit te laten zien.
Volgens mij gebeurt hier exact hetzelfde als 2 jaar geleden.
In deze update post van dezelfde gebruiker, voert deze eenzelfde test uit als 2 jaar geleden. (zie de "EDIT2: Latest update, as per request:" in de post)
EDIT2: Latest update, as per request)As it is evident, the gray patch in space looks normal, no texture has been applied. The gray patch on the moon has been filled in with moon-like details.
Zoals je kunt zien is er een texture aangebracht op het grijze vlak, en is het grijze vlak niet verdwenen -> foto is dus niet vervangen.

[Reactie gewijzigd door Qroqant op 22 juli 2024 20:01]

Je krijgt dan natuurlijk hoe dan ook niet een werkelijkheid te zien, maar een poging het nog een beetje 'realistisch' uit te laten zien.
Hoezo is het geen werkelijkheid? Ik ben het ermee eens dat het laten zien van niet bestaande kraters natuurlijk niet de bedoeling is. Maar als je daarna een foto zou maken met een fatsoenlijke camera, en die zou (grotendeels) overeen komen met de foto die je telefoon laat zien waarom is het dan geen werkelijkheid?
Stel ik maak nu een wazige portretfoto van jou, en we 'enhancen' die a la CSI met zo'n tool door ofwel uit oude scherpe foto's van jou de details in te vullen, of door simpelweg uit een miljoen portretfoto's te laten gokken hoe je er ongeveer uit zou zien. Of de eerste manier of tweede manier nou slaagt om een gelijkende foto van jou te creeren, dan is het toch nog steeds een composiet uit oude dan wel gegokte data? Niet van de fotonen die op dat moment vanaf jouw gezicht een camera in kwamen.
Dit gaat om een persoon, dat is een heel andere situatie want niemand ziet er dag op dag hetzelfde uit. De maan wel.
Of de eerste manier of tweede manier nou slaagt om een gelijkende foto van jou te creeren, dan is het toch nog steeds een composiet uit oude dan wel gegokte data? Niet van de fotonen die op dat moment vanaf jouw gezicht een camera in kwamen.
Zeker. Maar waarom is dat een probleem? Je hersenen doen heel vaak iets soortgelijks als er informatie mist: https://www.scientificame.../brain-adapts-in-a-blink/

Uiteindelijk ligt het aan de hoe recent de data zijn en hoe veel informatie er mist. Stel ik krijg een vage foto van jou, maar ik weet dat je dezelfde kleren aan hebt als gisteren en je hebt exact hetzelfde model haar. Dan zou ik AI kunnen gebruiken om die details in te vullen, er zullen verschillen zijn maar die zijn dan minimaal.

Om nog een praktijk voorbeeld te geven, ik heb een soortgelijke techniek gebruikt voor het 'opschalen' van MRI foto's in de FastMRI challenge. Je traint eerst een model om slechte MRI foto's om te zetten in goede MRI foto's. Vervolgens kun je dat model gebruiken om de kwaliteit van MRI te verbeteren (dit versimpelt de situatie natuurlijk maar je snapt het punt).
Dit gaat om een persoon, dat is een heel andere situatie want niemand ziet er dag op dag hetzelfde uit. De maan wel.
De maan ziet er ook verschillend uit, door o.a.
- de afstand: https://en.wikipedia.org/...:Lunar_perigee_apogee.png
- de libratie: https://nl.wikipedia.org/...libration_with_phase2.gif
- de kleuring door het stof in de atmosfeer, dat verandert voortdurend doordat de maan door de hemel beweegt
- natuurlijk de 'stand', maar daarbij kan de donkere kant ook nog verlicht worden vanuit aardschijn: https://i.redd.it/3y9m4yzjkby81.png

Dat is ook een van de redenen waarom mensen toch steeds foto's van diezelfde maan blijven nemen :Y)
Maar waarom is dat een probleem? Je hersenen doen heel vaak iets soortgelijks als er informatie mist: https://www.scientificame.../brain-adapts-in-a-blink/

Stel ik krijg een vage foto van jou, maar ik weet dat je dezelfde kleren aan hebt als gisteren en je hebt exact hetzelfde model haar. Dan zou ik AI kunnen gebruiken om die details in te vullen, er zullen verschillen zijn maar die zijn dan minimaal.
Maar nu verzet je de doelpalen een beetje. Het punt is niet dat de benadering niet gewoon goed kan zijn, maar dat het dan nog steeds een verdraaiing is van de werkelijkheid. De werkelijkheid fotograferen gebeurt op basis van de fotonen die op dat moment binnenkomen, niet die van gisteren en zeker niet een half jaar geleden toen een projectteam bij Samsung dat AI model programmeerde. Dat de kwaliteit van de benadering een bepaalde drempel haalt betekent niet opeens dat het ook werkelijkheid betreft. Je kan wel zeggen dat het (praktisch) zo goed als de werkelijke opname (met een betere camera) zou zijn. Geen probleem, maar ook niet hetzelfde.
Om nog een praktijk voorbeeld te geven, ik heb een soortgelijke techniek gebruikt voor het 'opschalen' van MRI foto's in de FastMRI challenge. Je traint eerst een model om slechte MRI foto's om te zetten in goede MRI foto's. Vervolgens kun je dat model gebruiken om de kwaliteit van MRI te verbeteren (dit versimpelt de situatie natuurlijk maar je snapt het punt).
Dan neem je bewust het risico dat de 'enhanced' versie die eruit komt niet helemaal klopt met hoe het eruit zou hebben gezien met een hogere resolutie scanner. Dat hoeft geen probleem te zijn voor de beoordeling door de radioloog en andere medici, maar dat gebeurt dan met die wetenschap dat het deels werkelijke, deels aangevulde informatie bevat. Dat onderstreept dat het een wezenlijk ander product is dan een geheel werkelijke opname.

[Reactie gewijzigd door The Third Man op 22 juli 2024 20:01]

Hoezo is het geen werkelijkheid? Ik ben het ermee eens dat het laten zien van niet bestaande kraters natuurlijk niet de bedoeling is. Maar als je daarna een foto zou maken met een fatsoenlijke camera, en die zou (grotendeels) overeen komen met de foto die je telefoon laat zien waarom is het dan geen werkelijkheid?
Wat? Dat is geen werkelijkheid. Mss gewoon even naar de basics gaan:

Je hebt werkelijkheid en je hebt CGI. Het is niet omdat CGI levens echt wordt dat het plots werkelijk is.

Foto’s van andere camera’s zonder CGI zijn gewoon foto’s van een andere camera.

Die logica die je aanhaalt houd dus geen steek. En al zeker niet met uw MRI voorbeelden.

Als er op een vage MRI scan een tumor te zien is en AI kan die met behulp van duizenden historische plaatsjes opwaarderen tot dat ze zelfs de tumor weg os, is dat CGI en is de patient niet genezen. = werkelijkheid.

Als ik een MRI foto vandaag neem
maar AI verbeterd die met 100 MRI’s beelden van mijzelf maar dan 10jaar terug, dan is dat ook geen werkelijkheid maar CGI.

Als ik een wazige foto neem van de maan, of planeetstelsel en AI tovert daar wat beelden over van het internet dan is dat ook gewoon CGI.

Zo kan je een echte superzoom maken en zomen tot je de maanlander ziet staan. AI kan dat door beelden van het internet te combineren en via AI zoom na te bootsen vanuit uw locatie op aarde. Heel leuk, toffe feature maar je moet niet doen aslof dat die beelden echt van uw camera sensor komen.
Geen enkele digitale camera neemt "de werkelijkheid" vast. Dure fancy fotocamera's hebben er een dedicated chipje voor om de foto "echt naar werkelijkheid" te maken. Smartphones doen dit primair op de SoC zelf.

Maar zelfs de fotosensor zelf bewerkt de informatie in de richting van "Wat wij verwachten te zien".

Waarom is dit gedoe met Samsung die er nog een laagje AI overheen doet zo'n discussie? Gaan we nu een arbritrair punt in tijd en ruimte kiezen van "Dit is _werkelijkheid_ en dat is _cgi_". Die grens zijn we 20 jaar geleden al voorbij gewandeld.
Waarom is dit gedoe met Samsung die er nog een laagje AI overheen doet zo'n discussie?
Omdat het fake is zonder dat mensen het doorhebben. En het is niet enkel Samsung. Tech bedrijven zetten soms beauty filters aan zonder dat de gebruiker dat doorheeft.

AI kan ook helpen de sensor dichter bij de realiteit te brengen. Zodra je het niet meer voor wetenschappelijke doeleinden kan gebruiken omdat je dingen in AI en CGI gaat bijverzinnen ben je echt verkeerd bezig. HDR en bracketing begrijp ik nog, je probeert van een 10 bit sensor een 14-bit sensor te maken door snel twee foto's te nemen. Lichtbalans ook. Maar in essentie proberen ze zo de werkelijkheid te evenaren.

Het moet steeds de bedoeling zijn dat we realiteit en fake moeten kunnen onderscheiden. Ik heb niets tegen CGI of AI, maar zodra je de objecten gaat verzinnen moet dat gemeld worden zodat iedereen weet dat het AI generated is en het beeld dat je ziet niet echt is. De maan lijkt onschuldig maar is het niet.
Wat? Dat is geen werkelijkheid. Mss gewoon even naar de basics gaan:

Je hebt werkelijkheid en je hebt CGI. Het is niet omdat CGI levens echt wordt dat het plots werkelijk is.
Het is geen CGI. Het is het verschil tussen het aanvullen van missende informatie door andere bronnen en het verzinnen van compleet nieuwe informatie. AI doet het eerste.
Foto’s van andere camera’s zonder CGI zijn gewoon foto’s van een andere camera.

Die logica die je aanhaalt houd dus geen steek. En al zeker niet met uw MRI voorbeelden.

Als er op een vage MRI scan een tumor te zien is en AI kan die met behulp van duizenden historische plaatsjes opwaarderen tot dat ze zelfs de tumor weg os, is dat CGI en is de patient niet genezen. = werkelijkheid.

Als ik een MRI foto vandaag neem
maar AI verbeterd die met 100 MRI’s beelden van mijzelf maar dan 10jaar terug, dan is dat ook geen werkelijkheid maar CGI.

Als ik een wazige foto neem van de maan, of planeetstelsel en AI tovert daar wat beelden over van het internet dan is dat ook gewoon CGI.
Allemaal sterk mee oneens. Ik raad je aan om eens het concept 'compressed sensing' te onderzoeken. Maar hier gaan wij zo niet uitkomen, dus ik wens je veel succes.
Het is geen CGI. Het is het verschil tussen het aanvullen van missende informatie door andere bronnen en het verzinnen van compleet nieuwe informatie. AI doet het eerste.
Stel: Iemand zingt een liedje neemt dat op via een App. De app gebruikt AI om het liedje te herkennen en gaat andere bronnen aanspreken om het beter te laten klinken. De originele opname van dat liedje wordt verwerkt en op de opgenomen stel gezet. Is dat gewoon de realiteit of fake (CGI) volgens u?

Compressed sensing werkt anders. Het gaat bijvoorbeeld ruis uit een foto elimineren en de signal to noise te verbeteren. Maar de data zit er wel degelijk in, je herstructureert data zodat het signaal duidelijker wordt.

Samsung maakt effectief een nieuwe maan met AI. Die bestaat nergens anders omdat uw foto (kleurbalans of kleur van de lucht, positie op aarde) gebruikt wordt.

Natuurlijk komen de maanfoto’s van ‘echte maanfoto’s’ net zoals ik in het voorbeeld ook de echte stem van de originele zanger gebruikt. Maar dat maakt het niet realistisch, echt of realiteit. Het blijft fake.

En het is helemaal fake indien je camera app niet zegt dat die maan eigenlijk vooropgenomen is en via Ai als een CGI wordt weergegeven in uw fotobibliotheek.

[Reactie gewijzigd door Coolstart op 22 juli 2024 20:01]

Dus jij zingt een liedje van ik herken dat met AI, ik zoek andere bronnen (de originele opname) en map dat met uw stem en jij zegt dat wonderbaarlijke eindresultaat ‘realiteit’ is en niet fake :)
Geen idee, ik begrijp deze woordenbrij niet.
Compressed sensing werkt anders. Het gaat bijvoorbeeld ruis uit een foto elimineren en de signal to noise te verbeteren. Maar de data zit er wel degelijk in, je herstructureert data zodat het signaal duidelijker wordt.
Nee. Je vult data die mist aan met een AI model. In het geval van MRI under-sample je (onder het nyquist limiet) de k-space. Vervolgens heb je een algoritme wat de missende data invult op basis van kennis van het model en de data die er al is.
Samsung maakt effectief een nieuwe maan met AI. Die bestaat nergens anders omdat uw foto (kleurbalans of kleur van de lucht, positie op aarde) gebruikt wordt.
Onzin. Het is dezelfde maan. De maan veranderd niet. Jouw foto van de maan is het enige wat uniek is.
Je vraagt werkelijk waarom het geen werkelijkheid is als je telefoon niet bestaande kraters fotografeert?
Werkelijkheid als in je hebt een afbeelding en wat de AI er van maakt is realistisch genoeg. De AI lijkt maar wat in te vullen, het toont geen grens hoe het nog aan het werkelijkheid voldoet. Je krijgt hooguit iets te zien wat op de maan moet lijken. En zelfs hoe dat wel voldoet maakt de AI niet duidelijk.
Precies. In die eerdere situatie herkende de "AI" dat je een foto van de maan gemaakt had en paste wat truukjes toe om die foto er beter uit te laten zien.
Maar het waren truukjes op de foto die daadwerkelijk genomen was. (en daarom bleef de smiley zichtbaar)

In dit geval word de foto die genomen is simpelweg vervangen door een andere foto. Dat vind ik nog wel van een andere orde.
Volgens mij gebeurt hier exact hetzelfde als 2 jaar gelden, zie mijn andere reactie met meer uitleg;
Qroqant in 'Redditor toont aan dat Samsung Ultra-telefoon foto's van maan faket'
Oud nieuws?

Dat kan.

Maar wat knap waardeloos blijft, is dat ze dit "truukje" nu nog steeds gebruiken. Of verduidelijken in hun marketing materiaal. (AI)

En Huawei is al eerder beschuldigt van ongeveer hetzelfde.

https://www.dpreview.com/...aptured-on-its-smartphone

[Reactie gewijzigd door obimk1 op 22 juli 2024 20:01]

Ik denk dat het hoort bij het oppeppen door AI.
Zou interessant zijn om te kijken wat ie maakt van bijvoorbeeld een donzig dier dat op dezelfde manier wordt gepresenteerd.
Samsung gebruikt al jaren sensoren ver onder het maximum dat mogelijk is binnen de vorm van een telefoon, maar ze zijn niet de enige fabrikant die dat doen. Samsung, Apple, Xiaomi, Huawei, alle populaire merken doen hetzelfde. Ze gebruiken tegenwoordig allemaal 'AI' om foto's scherper en kleurrijker te laten ogen.
Het lompe is dat fabrikanten die dat niet doen en soms zelfs betere sensoren hebben slechter scoren omdat hun foto's er wat minder kleurrijk of wat minder scherp uitzien, maar een stuk dichter bij de werkelijkheid zitten.

Ik denk dat menig Samsung koper zich echt niet druk wil maken om het zelf zorgen voor fatsoenlijke belichting en fatsoenlijk scherpstellen, en heel blij is dat dit soort trucjes uitgevoerd worden om foto's er beter uit te laten zien, want die foto's doen het beter op instagram zonder zelf te leren Photoshoppen.
Is puur de AI. Doet elk ander merk met elke foto ook. Dit is dan niet het vervangen van de originele foto, maar het verbeteren van het origineel met behulp van AI. Apple, Samsung, Xiaomi, noem een merk op en ze doen het allemaal.

Maak voor de gein anders een screenshot van in de camera app voor het nemen van de foto en vergelijk het is met de genomen foto ;)
vindt het fijn dat ze dit doen, ze hadden hier wat helderder over kunnen communiceren misschien maar ik ben (met waarschijnlijk de meeste mensen) gewoon opzoek naar scherpe foto's maken. Als het dan details met AI invult, prima.
waarom dan niet gewoon gelijk een foto van Google Images plukken?
^ Dit in der daad.

Wat voor nut heeft het om een foto van iets te maken als er toch gewoon een afbeelding van de maan ingebakken zit in je camera-app die vervolgens jou shitty afbeelding vervangt door een andere.
Dan kan je in der daad net zo goed de middleman ertussenuit snijden. :+

Al die AI enhancement van foto's.. ik heb het nooit echt wat gevonden. dat ze een (CGI) film wat opleuken, of de coverfoto van een of ander fashion magazine.. ja okay, vooruit dan. Maar mijn kliekjes wil ik gewoon dat dat mijn kliekjes zijn.. als ze ruk zijn dan weet ik dat iig en dan zorg ik dat ik mijn fotografie skills (of mijn gear) een upgrade moet geven. :9
Ik neem aan dat je kiekjes bedoelt, kliekjes bewaar je in bakjes in de koelkast ;)

Verder ben ik het met je eens, mijn fotos moeten mijn fotos blijven. Als ik alle details van de maan wil zien download ik wel een hi-res image bij NASA of ESA.

[Reactie gewijzigd door rbr320 op 22 juli 2024 20:01]

Is het altijd hetzelfde plaatje van de maan dat de camera weergeeft dan? Nee, het is nog steeds een foto van de maan, op basis van de missende stukjes vult hij zelf wat informatie aan. Maar de grootte, hoek etc is nog steeds live gemaakt met je camera, wel degelijk totaal anders dan een plaatje van google dus.

Ik snap de behoefte van sommige mensen om het ''eigen'' te maken, maar dit zal een minderheid van de gebruikers zijn, de meeste mensen willen gewoon simpel een zo mooi mogelijke foto maken. Daarom zou het optioneel aan/uit zetten ervan mooi zijn.

[Reactie gewijzigd door grafgever op 22 juli 2024 20:01]

"Maar de grootte, hoek etc is nog steeds live gemaakt met je camera"

Ja goh, ik kan ook een cirkel tekenen... daar heb ik geen foto toestel voor nodig.
Sorry maar juist de details en scherpte en al die 'informatie' is precies wat de kunst van fotografie siert.

Je bent net zo min een foto van de maan aan het nemen als wanneer ik Stable Diffusion prompt een afbeelding van de maan te genereren. Het is gewoon geen 'fotografie'.
Begrijp me niet verkeerd, ik speel graag rond met stable diffusion en het kan erg leuke plaatjes genereren.. maar dat zijn geen foto's die ik 'gefotografeerd' heb en zo zou ik ze ook nooit omschrijven.
Toch denk ik dat zolang het blijft bij het corrigeren van te donkere / te overbelichte delen van de foto dat merendeel van de mensen er gewoon blij mee is, met deze ''niet fotografie''.
Anoniem: 302359 @grafgever13 maart 2023 19:28
vindt het fijn dat ze dit doen, ze hadden hier wat helderder over kunnen communiceren misschien maar ik ben (met waarschijnlijk de meeste mensen) gewoon opzoek naar scherpe foto's maken. Als het dan details met AI invult, prima.
Daar ben ik het dus echt niet mee eens. Een AI "verzint" beeldmateriaal. Het doel van een foto is iets waarheidsgetrouw vastleggen. Ik hoef geen nog scherpere foto als het daardoor de "werkelijkheid" niet toont. Daarnaast zijn AI interpretaties ook niet perfect. Soms verzint het ding iets wat er helemaal niet hoort te zijn en krijg je vreemde resultaten.

AI verbeteringen zijn leuk als aanvulling, zolang het maar optioneel is niet niet standaard ingeschakeld staat.
Is wel erg oud nieuws!
Eigenlijk hoort het dan niet op Tweakers thuis, maar ik wist dit helemaal niet dus ben blij dat dit artikel er toch doorheen geglipt is.
edit:
In het voorbeeld dat jij aanhaalt wordt een maanstructuur op een afbeelding geprojecteerd. Dit voorbeeld waarbij scherpte wordt gecreëerd vind ik beter, maar de combinatie geeft nog meer inzicht in hoe doet gedaan wordt, bedankt voor je toevoeging!

[Reactie gewijzigd door 84hannes op 22 juli 2024 20:01]

Idem. Veel mensen wisten dit niet, en is dus prima nieuwswaardig. Zelfs Elon Musk wist het niet, die "wow" zei als reactie op Marques Brownlee's post op Twitter van een moonshot. Daarbij gezegd wist zelfs Marques het ook niet.

[Reactie gewijzigd door Z100 op 22 juli 2024 20:01]

Ik kan me herinneren dat Google hetzelfde doet met zijn astral photography.
Ik kan me herinneren dat Google hetzelfde doet met zijn astral photography.
Beslist niet. Google doet wat een hobbyist of professionele fotograaf doet met een "echte" camera en een bak software, plus wat rekenkundige trucs om het gebrek aan een startracker en een grote sensor te compenseren. In essentie doen ze niets meer dan lange sluitertijden, ook verschillende sluitertijden, het over elkaar leggen van de foto's om de beweging van de aarde te compenseren, ze compenseren star trails als de sluitertijden langer zijn dan acceptabel (maar wel wiskundig, geen gokken om een leuk plaatje te krijgen) en dan trekken ze aan de bekende parameters van belichting enzo om er uit te trekken wat er in zit. Wie wel eens in de kou heeft staan zwoegen en daarna al die shit achter het bureau heeft zitten doen kan ongetwijfeld waarderen dat Google dat uit een smartphone perst.

Je kunt de google fototech testen door gcam te installeren op je eigen (Android) telefoon. Afhankelijk van je hardware en hoe goed de camera app al is, is de verbetering van kwaliteit opmerkelijk. En de verbetering zit echt in afname van ruis, toename van dynamisch bereik enz. Niet verzinnen van een geïdealiseerde foto.
De Samsung S23 Utra waarmee het is aangetoond is echter nog geen twee jaar oud. Dus voor deze telefoon is het wel nieuws.
Ik vind het wel een interessante ontwikkeling ook al voet het wat misleidend.

Laten we dit idee even lekker ver doorvoeren. Nu hebben we een AI die weet hoe de maan er uit ziet en die zelf kan invullen dus over 10 jaar zal de AI veel meer zelf kunnen invullen. Dan tekent de AI niet alleen de maan maar ook de sterren op je foto. En de zon. En hoe bomen er uit ziet weet de AI ook wel. Net als auto's. En dieren. En als je telefoon toch al weet dat het een foto (plaatje?) van een vliegende duif is dan kun je daar ook wel wat verder op in zoomen en de AI extra detail laten toevoegen.

Sterker nog, er hoeft niet eens echt een duif op de foto te staan. Als de AI toch al zelf dingen gaat invullen kun je inplaats van een duif ook wel een plaatje van een zeemeeuw invullen op de plek waar de duif zou moeten staan.

Sterker nog, als je toch dingen gaat invullen en wazige vlekken vervangt door scherpe plaatjes dan hoeft het beest niet eens op de oorspronkelijke foto te staan, een wazige vlek is genoeg. Wazige vlekken toevoegen aan een bestaande foto is makkelijk, dus dan kun je ook wel een vogel tekenen op iedere willekeurige plek op de foto.

Sterker nog, als je toch op iedere plek een vogel kan laten tekenen, of ieder ander beest of object, dan kun je nog wel meer laten toevoegen. Dan kun je gewoon zeggen "doe hier maar een boom en links een vogel en rechts de maan".

Sterker nog, als je alles kan laten toevoegen wat je wil op iedere plek die je wil dan heb je niet eens een oorpsronkelijke foto nodig. Het enige wat je dan nodig hebt is een goede interface om te omschrijven wat je wil zien op de foto en de AI een beetje bij te sturen.

Sterker nog, als je dat allemaal hebt heb niet eens fototoestel/camera nodig, alleen de omschrijving van wat je wil. Als je dan toch een stukje tekst hebt dat precies omschrijft wat je op je foto wil zien dan kun je de hele foto wel door een AI laten genereren.

Sterker nog, dat soort software hebben we al en het heet DALL-E. Dat is zo'n AI systeem dat een stukje tekst omzet in een foto.

De vraag is vooral wanneer dit een "probleem" wordt en ik zet probleem tussen aanhalingstekens omdat het vooral tussen onze oren zit. We hebben bepaalde verwachtingen bij plaatje die er uit zien als foto's en dat vinden we misleidend. Niemand die zal zeggen dat het schilderij De Aardappeleters misleidend is terwijl het minder op "echte" mensen lijkt dan een gegeneerde foto van iemand die een aardappel eet.

Het heeft ook wel iets met het doel van de foto te maken. Als je een plaatje van een mooi landschap aan de muur wil hangen maakt het weinig uit of het echt bestaat of niet. Als je de handleiding van een motorblok bestudeert doet het er niet toe of het plaatje mooi is als alle belangrijke details maar goed zichtbaar zijn en er geen onjuiste informatie bij wordt verzonnen.

Ik verwacht dat AI en het automatisch verbeteren, toevoegen en genereren van detail steeds normaler wordt en we een sterker onderscheid gaan zien tussen soorten plaatjes zoals "kunst", "nieuws" , "wetenschap" en "entertainment".

Als je dat allemaal hebt dan lijkt mij de volgende stap dat we het idee los laten dat je begint met een bestaande foto en die gaat aanpassen. je kan het hele plaatje door de computer laten genereren en de camera (lens en sensor) alleen gebruiken om de computer uit te leggen wat je wil zien. "Kijk, ik wil een boom die er zo uit ziet als die boom die nu in beeld is, maar dan groter en in herfstkleuren".

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 20:01]

Laten we het dan geen foto noemen.

Een foto is een afbeelding op een plat vlak vervaardigd door middel van fotografie. Een foto geeft relaties weer van objecten, voorwerpen, mensen of dieren uit de werkelijke wereld zoals gezien door de lens van een camera gedurende een (meestal korte) tijdperiode.
Wat een mooi inzicht👍
Op zich niks mis mee als het mooiere foto's oplevert. Ik vind wel dat duidelijk vermeld moet worden dat er informatie bijgemaakt wordt in gevallen zoals dit.

Stel, een achterliggend sharpening-model interpreteert een ultra-zoom foto van een nummerplaat verkeerd omdat de trainingdata *toevallig* wat vaker een bepaalde combinatie zag, en je hebt uiteindelijk een foto met een andere nummerplaat op - toch niet zo erg onwaarschijnlijk.
Ik vindt hier van alles mis mee.

Jij maakt een foto van de maan en plaatst die in het forum, ik denk "hey toffe en goede foto, die camera wil ik ook op mijn telefoon want die is geweldig" alleen maar om er achter te komen dat we bedonderd zijn.
Hier ben ik het niet mee eens. Voor de gemiddelde telefoon gebruiker is het belangrijk dat foto's er goed uit zien en niet dat ze zo authentiek mogelijk zijn. Dat jij dat niet prettig vind is jouw probleem en niet die van de maker van de foto die gewoon een leuk plaatje wil delen op Instagram.

Foto's worden bij alle high-end telefoons verbeterd doormiddel van post-processing en AI technieken en dat gaat alleen maar vaker gebeuren. Vanaf welk punt wordt post-processing "bedonderen" genoemd en valt AI enhancing ook onder post-processing? Voor de gemiddelde gebruiker zal het in ieder geval geen zak uitmaken als de foto er maar goed uit ziet.
Vanaf welk punt wordt post-processing "bedonderen" genoemd en valt AI enhancing ook onder post-processing?
Vanaf het punt dat je er over liegt. Als je zegt dat je plaatjes van de maan in de telefoon hebt gezet zodat je altijd mooie maan foto's kan maken is er niets mis mee. Als je zegt dat je telefoon 100x zoom heeft waarmee je zelfs mooie foto's van de maan kan maken en dan blijkt dat die plaatjes van de maan helemaal geen foto's zijn dan is het bedonderen.
Je mag best reclame maken met 'altijd mooie maan foto's', maar geef consumenten niet het idee dat ze objecten op 385.000km afstand scherp kunnen fotograferen met hun telefoon als die telefoon dat helemaal niet kan.
Dan moet je analoge foto's gaan maken.

Digitale foto's liegen allemaal. Zijn allemaal bewerkt. De ruwe digitale foto data wordt al bewerkt zodra het licht op de sensor valt. Het digitale zicht is net zo'n grote trukendoos als het menselijk zicht.

Een gemiddelde telefoon kan nauwelijks op 10 meter een scherpe foto maken zonder de enorme lading aan bewerkingen. Wat maakt deze enkele extra bewerking nou uit?
Het is niet eens een bewerking, het is het ophalen van een afbeelding uit een andere bron dan wat jij voor de lens ziet. Dat heeft toch helemaal niets meer met fotografie nodig. Als ik op de "neem foto" knop druk, dan wil ik een foto nemen van wat voor de lens staat, en niet mijn telefoon de opdracht geven om van elders een afbeelding op te halen, dat heeft niets meer nodig met bewerken, dit gaat om vervanging.
Duidelijk vermelden moet zeker want dit is dikke nep (oplichting).
Het type schilderijen waar jij op doelt is altijd een interpretatie van de werkelijkheid. Dat heeft deels te maken met het feit dat schilderen te lang duurt om een moment vast te leggen, maar deels ook gewoon met artistieke vrijheid.

Van een foto verwachten we dat het een weergave van de werkelijkheid is die zo natuurgetrouw mogelijk is.

Je vergelijking gaat wat mij betreft dus niet op.
Wij mensen doen niet anders dan ons 'goed / beter / aangepast voordoen'. Kleding / taalgebruik / gedrag / ect. Voor fotografie was het tot voor kort tamelijk ingewikkeld om dit te doen. Filmmakers doen dit al heel lang - en goed (niemand klaagt)

[Reactie gewijzigd door g_v_rijn op 22 juli 2024 20:01]

betaalt, bepaalt.
volgende stap is een internetverbinding die vereist is voor het maken van een foto. Zodat hij de assets kan inladen!

Edit: zodat hij dus een andere foto van de maan kan ophalen en in je -te maken- foto kan croppen en plakken

[Reactie gewijzigd door EsEsDee op 22 juli 2024 20:01]

Hopelijk kun je dan een lokale texture pack downloaden voor als je geen internet hebt :+
Dit is toch misleidende reclame
Is er reclame die niet misleidend is?
Niemand gelooft toch dat een telefoon een Telescope kan vervangen.
Je moet de mensen te eten geven die er van overtuigd zijn dat hun GSM betere fotoos maakt dan een DSLR camera van tegenwoordig.
Voor de meeste van die mensen is dat ook gewoon waar: goeie foto’s nemen met een DSLR kost vaak meer moeite en kennis dan met een telefoon, daar heeft niet iedereen zin in/is niet iedereen gegeven. Mijn vrouw neemt geregeld een meer dan behoorlijke foto met haar iPhone, maar als ik ze mijn MILC in de handen duw, is ze verloren.

Persoonlijk stoor ik me hier niet aan, wat is de waarde van die foto’s anyway? Ik denk wel dat iemand moet gaan nadenken hoe AI met auteursrecht kan omgaan. Ik verwacht daar binnen de kortste keren toch wel wat rechtzaken rond als AI overal maar info of beelden wegplukt, er het eigen ding mee doet en dat dan “verkoopt”. Dat gaan originele content creators niet blijven pikken.
Ik wil graag een smartphone die de hoofden van alle mannen vervangt door Ken en die van de vrouwen door Barbie. Wel met AI, zodat de richting perfect is. ;-)
Of 'beauty shot' voor the maan... :+
Tja, de functie heet dan ook "Space" Zoom. Als je extreem inzoomt op de lege ruimte krijg je waarschijnlijk Hubble Deep Field opnames te zien :+
Onzin artikel, als je goed kijkt zie je dat alle wazige overgangen en randen van licht naar donker kunstmatig scherper zijn gemaakt (met o.a. een algoritme) en meer niet. En blijkbaar werkt dat zo goed dat de onderzoekers er meer in zien dan er achter zit en verzinnen dat er details bij zijn gefaked wat helemaal niet waar is. Er zijn nergens details te zien waarvan niets terug is te zien op het origineel (wat trouwens een fake maan is en fake geblurred door de onderzoekers dus die zijn ZELF fake bezig met een fake onderzoek !

Kijk zelf maar eens goed mensen, voordat je blind een artikel gelooft van mensen die zelf niet eens goed kunnen kijken blijkbaar.

[Reactie gewijzigd door GijsbertatNL op 22 juli 2024 20:01]

Dus als je een foute foto maakt en die wordt verbeterd kan het zijn dat je in de toekomst vanzelf deepfakes krijgt.
Dat iemand zijn eigen dickpic niet meer herkent bijvoorbeeld doordat is bewogen in het donker en de nacht modus zijn werk te goed heeft gedaan :o

Op dit item kan niet meer gereageerd worden.