Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 102 reacties

Een patentaanvraag wijst erop dat Apple optische beeldstabilisatie wil gaan gebruiken in de camera's van toekomstige iPhones. Het systeem van Apple werkt met vier magneetjes die aan de hand van input van sensoren trillingen moet compenseren.

Cameramodule iPhone met OIS uit patentaanvraagDe patentaanvraag is ingediend op 25 oktober 2012, anderhalve maand nadat Nokia met de Lumia 920 de eerste smartphone met optische beeldstabilisatie presenteerde. Inmiddels hebben HTC en LG afgelopen jaar ook al smartphones met optische beeldstabilisatie in de camera's uitgebracht, maar op modellen van Samsung en Apple ontbrak de functionaliteit. Geruchten gaan dat huidige toeleveranciers niet genoeg exemplaren kunnen maken om aan de vraag van die fabrikanten te voldoen.

Het systeem dat Apple heeft bedacht en waar het patent op heeft aangevraagd, werkt met een cameramodule die is opgehangen met veren, waarbij magneetjes in elke hoek zorgen voor de beweging.

Via de input van sensoren in de telefoon registreert de software welke kleine bewegingen de gebruiker maakt met de hand en probeert die via aansturing van de magneten snel te corrigeren, om zo bijvoorbeeld in video's een stabieler beeld te krijgen. De beeldstabilisatie in huidige iPhones werkt via software.

Hoewel Apple op veel technologieën patent aanvraagt zonder ze ooit te gebruiken, lijkt de kans groot dat deze feature het wel haalt, omdat concurrentie dit ook al toepast. Er zijn daarnaast meer geruchten over volgende iPhones. Zo publiceerde CTech op het Chinese sociale netwerk Weibo enkele foto's van wat het frame van de volgende iPhone zo worden. Deze 'iPhone 6' zou een scherm van rond 4,7" hebben, dunner zijn dan de huidige iPhones en iPhone Air gaan heten.

Update 15:42: In dit artikel stond dat Apple de cameramodule wilde ophangen tussen magneten, maar dat bleek onjuist: het gaat om een conventioneel systeem met veren.

iPhone 6-frame uit gerucht van Ctech

Moderatie-faq Wijzig weergave

Reacties (102)

Op DPreview hebben ze een test gedaan tussen verscheidene DSLRs, de iPhone 5s en de Lumia 1020. Daarin werd geconcludeerd dat de iPhone op cameragebied 2 tot 3 jaar achterloopt op de Lumia.
Dit artikel lijkt die aanname te ondersteunen. Beeldstabilisatie is uiteraard nog maar 1 factor hoe een Lumia 1020 tot dergelijke kwaliteit foto's komt.
Dat is inderdaad zo de Lumia 1020 is echt fenomenaal de kwaliteit is gewoonweg ongezien op een smartphone, en het zal een tijd duren voordat Apple of andere smartphoneboeren dit kunnen evenaren, ik neem geen compact mee als ik uitga of ga reizen, de 1020 heeft in meerdere vergelijkingen bewezen dat zijn plaats tussen high-end compact en DSLR ligt, laatstgenoemde is voor de pro's nog altijd de beste optie wegens de keuze aan lenzen.

DPreview heeft de 1020 getest zonder de Black update van Nokia, De 1020 had wat witbalans afwijking voor de update, en de Pureview algorithms zijn ook wat verbeterd na de update.

Om OT te blijven, ik ben blij dat Apple eindelijk OIS gaat toevoegen op de komende iPhones, OIS is heel belangrijk om degelijke foto's te maken zonder/met minder beweging wat leidt tot scherpere eindresultaten, hetzelfde geldt voor video's die minder schokkkerig/vloeiender zullen zijn dan zonder OIS.

[Reactie gewijzigd door mafiatounes op 10 januari 2014 17:16]

2 to 3 jaar achterloopt of dat de sensor van de Nokia 2 tot 3x groter is dan die van de iPhone ;)
Ook. De sensorgrootte is een onderdeel van het geheel.
En iedere website review heeft geconcludeerd dat Apple ver op de rest vooruitloopt aan de software kant van de fotocamera's.

Apple heeft het 'point-en-shoot' principe tot perfectie uit gevoerd. De 'auto'-functie van de iPhone is gewoon subliem vergeleken met andere camera's.

Dus ja, je kunt met de Lumia betere foto's maken, maar daarvoor moet je wel de tijd nemen om alles af te stellen op de situatie. Als je 10 foto's maakt door de telefoon direct uit je zak te pakken, de camera te openen en een foto maken zonder iets in te stellen, komt de iPhone gemiddeld veel beter uit de tests.
En laat dat nu precies zijn hoe mensen een telefooncamera gebruiken.
En iedere website review heeft geconcludeerd dat Apple ver op de rest vooruitloopt aan de software kant van de fotocamera's.
Bron? Dat is gewoonweg niet waar.
Apple heeft het 'point-en-shoot' principe tot perfectie uit gevoerd. De 'auto'-functie van de iPhone is gewoon subliem vergeleken met andere camera's.
Wat heb ik aan hele snelle foto's als de foto's bij een beetje minder licht kwalitatief duidelijk minder zijn?
De iPhone kan wellicht sneller foto's maken, maar de foto's blijven kwalitatief ver achter als je die vergelijkt met die van een 1020 of zelfs een 920.
Dus ja, je kunt met de Lumia betere foto's maken, maar daarvoor moet je wel de tijd nemen om alles af te stellen op de situatie. Als je 10 foto's maakt door de telefoon direct uit je zak te pakken, de camera te openen en een foto maken zonder iets in te stellen, komt de iPhone gemiddeld veel beter uit de tests.
Ehm nee.
Je kunt met een Lumia ook gewoon foto's maken zonder wat in te stellen, sterker nog ik doe dat vrijwel nooit en die foto's zijn kwalitatief echt beter dan die van de iPhone. Het duurt inderdaad merkbaar langer,maar de foto's zijn echt duidelijk veel beter in meerdere situaties.
Neem ook even mee dat de auto witbalans van de Nokia 1020 beroerd is, en van iPhone juist heel goed.
Wat dus al lang verholpen is... :X
En het duurt ook gewoon ff wat langer om een foto te maken met de lumia door die gigantische hoeveelheid data dat het toestel voorgeschoteld krijgt
Ik wil wel een bron zien waar jij kan aantonen dat in de gewone auto modus met een iPhone 5/s betere foto's kan nemen dan een Lumia 1020/1520 in auto modus...

Het is wel zo dat je met een Lumia 1xxx meer kan instellen om nog betere resultaten te krijgen dan in de Auto mode maar de Auto mode foto's zijn duidelijk nog altijd beter dan eender welke smartphone, ik spreek uit ervaring met een Lumia 1020/Xperia Z1/iPhone 5s/One/S4. Dit kan je ook op meerdere vergelijkingen op het web nalezen.
Ik heb talloze reviews gelezen en door de bank genomen wordt het beeld dat je schetst niet ondersteund. Als het gaat om minimalisme misschien wel, maar als het gaat om algemene toepassing niet, zeker voor de gebruiker die meer controle wil.
Het is een misvatting dat de "auto" modus in het algemeen sneller is, aangezien die uit gaat van door Apple gekozen waarden, daar waar foto's en dan vooral het gewenste resultaat, nog altijd in hoge mate onderhevig zijn aan subjectiviteit en dus een eigen voorkeur (inclusief bijbehorende instellingen). Het bieden van die keuze en eenvoudiger en sneller aanpassen aan eigen voorkeur, dat is ook software...

En dan kom je meteen bij de knelpunten van de 5S:
  • geen handmatige instelling ISO mogelijk en dus geen directe invloed op sluitertijd, behalve via omslachtige trucs waarbij je het ingebouwde algoritme om de tuin leidt (=langzamer, minder precies).
  • geen EV compensatie mogelijk naar eigen inzicht. Sterker, zelfs 3rd party apps die zeggen deze mogelijkheid te bieden, veranderen achteraf de belichting (hetgeen jezelf in een editor ook kunt doen), zonder verandering van fysieke belichtingswaarden. Met behoorlijke negatieve gevolgen voor het dynamisch bereik, artifacten e.d....
  • geen directe toegang tot witbalans instellingen
  • relatief agressieve ruisreductie bij middelmatig omgevingslicht en dus relatief veel verlies aan detail onder die omstandigheden
  • vage focus confirmatie (die maar even zichtbaar is), leidt in de praktijk makkelijker tot focus fouten (op verkeerde object) als je bijv. relatief snel een foto moet/wil nemen, tenzij je de vinger (dus in totaal twee...) op het scherm houdt. In de praktijk betekent dat weer dat je het belangrijkste onderwerp (in elk geval deels) niet meer kunt zien tijdens het framen en de stabiliteit van de camera ook afneemt (sneller bewogen).
In het kort, wat de software doet, doet het relatief goed, maar er is nog steeds veel, hetgeen de software niet kan doen i.v.g. met de concurrentie.

[Reactie gewijzigd door Jortio op 10 januari 2014 16:29]

En iedere website review heeft geconcludeerd dat Apple ver op de rest vooruitloopt aan de software kant van de fotocamera's.

Apple heeft het 'point-en-shoot' principe tot perfectie uit gevoerd. De 'auto'-functie van de iPhone is gewoon subliem vergeleken met andere camera's.
Huh? Ik heb onder andere een iPhone 5S en een Samsung S4 die ik beide regelmatig gebruik (omwille van mijn werk), als er nu een ding is waar ik geen verschil zie is het wel in het gebruik van de camera. Werken allebei hetzelfde, kwaliteit beide goed en ben tevreden met beide.
Ik snap niet dat je omhoog gemod wordt. Je komt met ongefundeerde claims die sterk naar fanboyisme neigen.
Die Lumia 1020 presteert idd geweldig, zelfs vergeleken met ouder DSLR's
(rekening houdend dat het 'maar' een Smartphone met klein sensor is)
Lumia 1020 noem ik geen smartphone maar een smartcam ,de achterkant wijkt toch fel af van een gewone phone ,onpraktisch maar ja dat maakt ieder voor zich uit.
Je noemt een smartphone met een dikte van 10,4 mm zo onpraktisch dat het geen smartphone meer is? Dat die uitstulping je toestel minder stabiel doet liggen als ie plat ligt klopt. Maar er zijn meer dan voldoende toestellen die niet vlak op een oppervlakte liggen.

Een S4 Zoom, die wijkt af van een gewone smartphone.
Kijk, dat is een goede ontwikkeling. Die softwarematige stabilisatie werkt al best aardig, maar zodra je gaat filmen op een plek met weinig licht en veel stroboscopen krijg je dit: http://www.youtube.com/watch?v=W6PlYBngWCA
Wat erg! :)
Maar ook vreemd: het lijkt erop dat daarbij alleen beeldinformatie geinterpreteerd wordt.
Je zou zeggen dat die softwarematige stabilisatie vooral gebruik zou maken van de gyroscoop die tenminste wel echte bewegingen kan meten, en best nauwkeurig ook (maar misschien niet snel genoeg?).

[Reactie gewijzigd door Fireshade op 10 januari 2014 12:05]

Haha
Zo heb ik ook een filmpje van m'n subwoofer waarbij beneden een bepaalde frequentie de woofer gestabiliseerd werd ipv de omgeving. Ik dacht 10Hz ofzo.

Wel goed nieuws dat eindelijk over een tijdje de kans op goede foto's van iPhone bezitters sterk vergroot wordt.
Mijn voorbeeld heeft helemaal niets te maken met de foto's die de iPhone maakt, want die zijn nog altijd verassend goed, zolang je ze vergelijkt met andere smartphones of goedkope compactcamera's. Het grote probleem waar compacte camera's en dus ook smartphones tegenaan lopen is de grootte van de sensor, en die kan praktisch niet veel groter. Apple heeft in het geval van de 5S al de sensor vergroot, maar veel groter zie ik het niet worden, tenzij er een compleet nieuwe technologie aan gaat komen om licht over te brengen op een zo groot mogelijk oppervlak.
De sensor in the Nokia 1020 is al 3,3 keer groter dan de sensor in de 5S, de sensor in de Nokia 808 zelfs 4,9 keer groter.
Ook de Sony Z1 (en Z1 Compact) heeft een ruim 60% grotere sensor.

[Reactie gewijzigd door Jortio op 10 januari 2014 13:38]

Wat weer gepaard gaat met meer pixels. Moet ik het in 2014 nog uitleggen, of voel je 'm al aankomen?
Leg maar even uit in 2014. Ik voel de bekende mythes al weer aankomen.

En om alvast het gras voor je voeten weg te maaien:
  • er is in de praktijk (op basis van nu beschikbare sensoren en camera's) zo goed als geen correlatie tussen aantal pixels en ruis voor een gegeven afbeeldingsgrootte, belichting en sensorgrootte
  • er is in de praktijk wel een correlatie tussen aantal pixels en detail bij gelijke (voldoende gunstige) omstandigheden (niet te verwarren met de foutieve stelling dat meer pixels automatisch meer detail zal opleveren).
De huidige 1/2.3" sensoren hebben een quantumefficiëntie die zich kan meten met higher end DSLR sensoren (vergeleken per oppervlakte eenheid). Dan heb je het over een factor >20 verschil in pixelgrootte/pixeldichtheid en toch een vergelijkbaar aantal fotonen dat effectief worden gevangen en gebruikt per gegeven (gelijke) sensoroppervlakte.

Voor een gegeven belichting bij een gegeven f waarde en sluitertijd, is het de sensorgrootte die ceteris paribus wel een belangrijke factor vormt t.a.v. de signaal/ruisverhouding (alhoewel het eigenlijk de diameter van de ingangspupil is die het verschil maakt, maar dat is een andere discussie...), niet de pixelgrootte.

[Reactie gewijzigd door Jortio op 10 januari 2014 16:25]

Lol, ik kijk het clipje en alles gaat goed dus ik denk: wat heeft dit in hemelsnaam met beeldstabilisatie te maken. En toen begon ineens het hele beeld te flippen, hahaha. I get your point..!
Goeie beveiliging tegen ongeoorloofd filmen in de zaal! :)
Beeldstabilisatie op een mobiel. Het moet niet gekker worden maar volgens mij gaat dit meer richting videoopname/fotografie. Mobiel is en blijft er om te bellen. Ik vind de uitbreiding in camera te overdreven. Wil je goede video's maken of foto's, dan haal je een camera. Ga dan niet 500+ euro uitgeven aan de nieuwste mobiel vanwege de camera. Wat komt er de jaren daarop? ISO range tot 64000?
Mobiel is en blijft er om te bellen.
Laten we eens even kijken wat de meest gebruikte camera's zijn op Flickr:
1. Apple iPhone 5
2. Apple iPhone 4S
3. Apple iPhone 4
4. Apple iPhone 5s
5. Canon EOS 5D Mark II
Tot zover jouw statement, een mobiele telefoon is alleen om te bellen. Waar baseer je dat op? Ik kan met mijn telefoon internetten, navigeren, muziek luisteren, foto's maken, van alles, maar jij beslist hier even in je eentje dat een telefoon is gemaakt om mee te bellen? Nee, dat is gewoon niet waar.

Veel mensen hebben geeneens compactcamera's meer omdat ze hun telefoon bij zich hebben die foto's maakt die goed genoeg is. Ook Instagram, Twitter en Facebook staan vol met foto's gemaakt via telefoons. Kortom, de camera's in telefoons worden erg veel gebruikt (en terecht), dus dan is het logisch dat je deze verbetert.

Dan je volgende zin, die zich ook kenmerkt door een opmerkleijke logica.
Wil je goede video's maken of foto's, dan haal je een camera. Ga dan niet 500+ euro uitgeven aan de nieuwste mobiel vanwege de camera.
Jij stelt hier ten eerste dat mensen 500+ euro uitgeven aan nieuwe telefoon vanwege de camera. Alsof een telefoon alleen bestaat uit bellen + camera? Mensen geven 500 euro uit aan een telefoon vanwege een hele waslijst aan redenen, en de camera is er daar één van. En ja, als je toch 500 euro uitgeeft is het wel prettig als de camera ook goed is, toch?

Ik snap jouw logica gewoon niet. Een telefoon heb je altijd bij je, zodoende worden de meeste foto's met telefoons gemaakt. Dan is het toch superlogisch dat fabrikanten de camera's in hun telefoons zo goed mogelijk proberen te maken?

[Reactie gewijzigd door TMC op 10 januari 2014 12:27]

Helemaal mee eens. Goede foto's kan je niet maken met een telefooncamera. Dat is eenmaal fysisch bepaald. Diffractielimieten zijn gewoonweg ruk, aberraties idem. Dat heel veel mensen de huidige mobiele telefooncamera voldoende goed vinden is een andere zaak, zeker voor gebruik op sociale media om een fotootje te maken van je biertje of je nieuwe zonnebril. Desalniettemin is de lens en camerakwaliteit aanzienlijk verbeterd afgelopen decennium, maar verre van goed te noemen in afbeeldingskwaliteit. Zo'n cameramodule (lens, chip, behuizing, connectiefolie) gaat voor max $10 over de toonbank en dan praat ik al over een "goede".

[Reactie gewijzigd door Pe Nis op 10 januari 2014 12:47]

Het beste fototoestel is het toestel wat je gebruikt, je kunt nog zo'n high tech spiegelreflexcamera hebben maar wanneer je die niet bij je hebt tijdens een geschikt foto moment heb je er niks aan. Een smartphone daarentegen hebben de meeste mensen altijd bij zich, de foto wordt dan toch gemaakt.

Zelf heb ik beide maar wanneer ik door de foto's blader en zie hoeveel foto's ik gemaakt heb op momenten dat ik de spiegelreflex niet mee had zou ik veel foto waardige momenten gemist hebben...
Een goede foto komt van een goede fotograaf.
Al druk je de beste, duurste, meest hightech camera in de handen van een prutser, dan heb je misschien technisch de beste foto, maar dan blijft het nog een slechte foto.

http://photography.nation.../iphone-photography-tips/
Welkom in de 21ste eeuw. Mobieltjes zijn allang niet meer voor het bellen, sterker nog, dat is bijna de minst gebruikte functie aan het worden.
Internetten, foto's, navigeren, berichten en media gebruiken is waar een smartphone om draait (voor de meesten).
Waarom zou je dan 500+ aan een camera moeten uitgeven terwijl ik mijn telefoon altijd bij me heb?
Wat is er in hemelsnaam op tegen als de camera's in mobiele telefoons steeds beter worden? :?

Het enige wat ik boven alles belangrijk vind is de snelheid, point en klik en niet secondes hoeven wachten op focus, face recognition en andere onzin.
Welkom in 2014! Beeldstabilisatie bestaat al een tijdje op mobieltjes, alleen gebeurt het dan in software. Dat brengt ook weer kwaliteitsverlies, mechanische stabilisatie heeft dus voorkeur, maar is iets lastiger te realiseren.
Er zijn ook al mobiele telefoons met mechanische beeldstabilisatie hoor, kijk maar naar de Lumia 1020, de Nexus 5, HTC One, ... :)
Ligt het nou aan mij of kun je dit veel makkelijker en robuuster oplossen door de trillingsinformatie softwarematig met de beelden te combineren?
Hoe dan?

Een sensor bestaat, vereenvoudigd uit allemaal pixel-cellen. Het (digitale) beeld wordt gevormd door te meten hoeveel licht er op iedere cel valt: voor iedere cel wordt op die manier 1 pixel gegenereerd.

Beweging zorgt ervoor dat licht dat bestemd was voor een bepaalde cel, op een andere cel is terechtgekomen. Op die andere cel is echter ook licht ingevallen dat wel voor die cel was bedoeld.

Softwarematig denk ik niet dat er een algoritme bestaat die, zonder fouten, het ingevallen licht van een pixelcel terug zou kunnen uitsplitsen naar het licht dat er wel op had moeten vallen en het licht dat er niet op had moeten vallen. Bijkomend zou ook nog moeten kunnen worden bepaald van welk pixel dat "foute licht" wel afkomstig was.

Optische stabilisatie zorgt ervoor dat het licht minder snel op de foute pixelcel terechtkomt als gevolg van beweging.
Om dit uit te leggen: denk aan een langsrijdende trein die wordt gefotografeerd met een camera met een bepaalde sluitertijd. De gemaakte foto is, door de beweging, een grote waas.
Er is namelijk licht gevallen op meerdere pixels, dat bedoeld is voor 1 pixel. Maar, je kunt met kennis over de snelheid van de trein terugrekenen hoe de trein er scherp uit ziet door een stelsel vergelijkingen op te lossen.

Dit is een 1-dimensionaal probleem. Hetzelfde grapje kun je doen met 2-dimensionale beweging (trilling kan dan in de X en Y richting plaatsvinden).
Terugrekenen is niet mogelijk. Maar je kunt wel i.p.v. 1 foto met lange belichtings, 10 foto's met 1/10 belichtingstijd maken, en (met kennis over de beweging) die combineren tot een beter beeld.
Ik zou zeggen, werk het eens uit op papier met, zeg, 5 pixels naast elkaar, dan zie je dat het kan. (Ook met slechts 1 foto).

Om het anders te formuleren: het rijden van de trein is als een convolutie die werkt op het beeld. De convolutie is in het frequentie-domein een simpele vermenigvuldiging. Deze kun je dus omkeren door de reciproke waarde te nemen.

Bekijk anders deze link:
http://en.wikipedia.org/wiki/Deconvolution

[Reactie gewijzigd door twop op 10 januari 2014 15:39]

In de praktijk is deconvolutie veel minder krachtig dan het in theorie lijkt.

Bij fotografie zit je bijvoorbeeld al met het probleem dat je niet weet of het licht behoort bij een voorwerp dat dichtbij of veraf staat. En dat maakt uit voor over hoeveel pixels het uitgesmeert wordt.

Als ik iets zie dat over 10 pixels breed is uitgesmeerd, dan weet ik bijvoorbeeld niet of dat 1 object dichtbij is, dan over 10 pixels beweegt, of twee objecten verderweg, die over 5 pixels bewegen, en toevallig aansluiten.
Ok, je kunt nog wel een hoop dingen doen:
Het beeld segmenteren, door te kijken naar edges. Daaruit kun je dan halen welke delen sneller bewegen dan anderen.
Bovendien kun je voor elk gebied schatten wat de bewegings-vector is.

Maar, ik ben het wel met je eens dat je met meerdere foto's meer informatie hebt en daar dus in principe een beter beeld uit kunt verkrijgen. Met meerdere foto's kun je natuurlijk ook andere leuke dingen doen, zoals ruis wegwerken.
Je, en hoeveel CPU power is daarvoor nodig? De iPhone 5s doet al dmv burst vele foto's maken en dan de "best gelukte" selecteren voor jou.
Maar om beweging echt weg te rekenen...
Dat zal wel meevallen. Via hardware kost het natuurlijk geen CPU power. Maar dat is dan ook de "goedkope" oplossing. De snelle hack zeg maar.
Met genoeg samples per seconde, kan dit in principe wel. En het werkt daarnaast ook ruisonderdrukkend waardoor de lichtgevoeligheid omhoog kan.

Dit kan met het oog op de vereiste snelheid en taak-voorspelbaarheid nog beter hardware matig, en het lijkt me sterk als dit al niet gebeurt in die "merk X steady image software engine Y" gelabelde producten zoals b.v. camcorders.

[Reactie gewijzigd door Barryke op 10 januari 2014 12:38]

Interessant!

Als je ervan uitgaat dat de "fotograaf" probeert om het onderwerp zo goed mogelijk in het vizier te houden, dan zou je ervan kunnen uitgaan dat hij even veel "links" als "rechts" zal verschuiven (en even veel boven als onder). Als je dan veel samples hebt, dan kan je de gemiddelde kleur ervan bepalen en veronderstellen dat die juist zal zijn.

Omdat je in dat geval echter uitgaat van een egale verdeling van fouten in alle richtingen, zal het resultaat in de praktijk vermoedelijk nogal wazig overkomen...

Door dat te combineren met bewegignsinformatie kan ik mij inbeelden dat de fout nog wat beperkt kan worden.

Het volledig elimineren van de fouten lijkt mij echter niet mogelijk: je zal altijd beperkt blijven door de samplingfrequentie (wat als de beweging verandert terwijl een sample wordt genomen) en de samplingfrequentie zelf zal altijd beperkt worden door de inherente lichtgevoeligheid van de sensor (een hoge samplingfrequentie betekent een kortere belichtingstijd waardoor ruis dan weer prominenter in de sample komt opduiken).

Dit alles meten en berekenen vergt bovendien allicht wat rekenkracht en dat zal de responsiviteit van de camera evenals het stroomverbruik niet ten goede komen... Dit alles samen verklaart (vermoed ik) waarom high-end toestellen eerder voor optische stabilisatie kiezen (het behalen van een goed resultaat zal allicht makkelijker zijn dan softwarematig).
Als "de concurentie het ook al gebruikt", hoe kan je er dan nog een patent op krijgen ?
Apple lijkt mij eerder zelf een Patent-Troll te worden.
Heb je het artikel überhaupt gelezen?
Het systeem dat Apple heeft bedacht en waar het patent op heeft aangevraagd, werkt met een magneetje in elke hoek om de lens meer of minder naar zich toe te trekken. Dat systeem wijkt af van wat Nokia bijvoorbeeld doet, omdat de Finse fabrikant de cameramodule ophangt in een systeem dat via veren kan bewegen.
De techniek die Apple patenteert is dus anders dan die van de concurrentie.
Apple zal ook gewoon veren in het systeem hebben systeem hebben zitten. Een systeem alleen bij magneten vasthouden is verschrikkelijk moeilijk en totaal nutteloos voor deze toepassingen.

Iedere ingenieur zal je vertellen dat je de lens typisch met veren in het midden houd, en dan met een actuator, (bijvoorbeeld elektromagneet) verschuift. En het geheel moet netjes bewegen, dus je laat het via kogellagers heen en weet lopen.

Iedereen die hier denkt dat het hetzij alleen met een veer, of magneet, of kogellagers werkt, heeft de balle verstand van mechanica.

De exacte implementatie is natuurlijk bij iedereen ietsje anders, en wordt vaak met uitermate gelimiteerde patenten beschermd. In weze niets meer of minder dan een copyright, maar blijkbaar werkt een patent toch net iets beter voor bescherming.

Foto objectieven worden ook altijd via een patent beschermd, ondanks dat daar absoluut helemaal niets nieuws in zit wat betreft de bouw van de lenzen.

edit: Nog even in de patent aanvraag gekeken, en wat zien men daar?
7. The actuator module of claim 1 further comprising: an upper spring assembly and a lower spring assembly, which in combination, suspend the lens or a lens carrier
The actuator module of claim 1 wherein the OIS mechanism further comprises: a plurality of ball bearings to minimize parasitic motions of the OIS mechanism and limit OIS mechanism movements to directions orthogonal to an optical axis of the lens.
The actuator module of claim 1 wherein the coil and magnet assembly of the AF mechanism comprises at least four separate coils that may be driven with an electric current and at least four separate magnets, wherein the coils and the magnets together control the focus position of the lens.
M.a.w., precies zoals ik al schreef: Een aan veren opgehangen systeem ('spring assembly'), schuivend tussen kogellagers ('ball bearings'), waarbij het zaakje met elektromagneten ('coil and magnet assembly') wordt geschoven.

Helemaal niets nieuws onder de zon. Een dertien in het dozijn oplossing voor het verplaatsen van een element.

[Reactie gewijzigd door AHBdV op 10 januari 2014 15:56]

Precies, het idee is als een scheepskompas, twee ringen elk met twee lagers 90graden verdraaid tov elkaar (assen DOF2 en DOF3 in de aanvraag) waardoor je in alle richtingen kunt corrigeren.
Echter in een scheepskompas hangt hij los zodat hij te allen tijde waterpas hangt waar hij in de cameraopstelling in de veren hangt zodat hij te allen tijde min of meer "fixed" is en doormiddel van magnetische actuators iets(dit hoeft echt maar minimaal te zijn) in zijn veren omgedrukt kan worden om de stabilisatie te realiseren.
En er zal best wat onderscheidends in dit ontwerp zitten om aan een uiteindelijke patentgoedkeuring te voldoen.
find veer, replacewith magneet = nieuw patent

Zo anders in het patent ook weer niet, dit is alleen om te voorkomen dat ze patentgelden moeten betalen.
Je dwaalt af. Waar ging het om? Om de volgende quote van PaulC:
Als "de concurentie het ook al gebruikt", hoe kan je er dan nog een patent op krijgen ?
Mijn antwoord: de concurrentie gebruikt het niet, want Apple gebruikt magneetjes in plaats van een veer.

Ook al zou het zo simpel zijn als jij stelt (waar ik werkelijk niks van geloof, maar dat terzijde), dan nog gebruikt de concurrentie deze techniek niet, en dáár reageerde ik op.
Een patent is echter niet slechts gelimiteerd tot directe concurrentie. Er zijn al vele optische (lens) stabilisatiesystemen op de markt die gebruik maken van magneten. Met andere woorden, dát gegeven is verre van uniek.

[Reactie gewijzigd door Jortio op 10 januari 2014 13:37]

Die gedachte had ik eerst ook, maar heeft waarschijnlijk om die reden ook naar een andere oplossing gezocht, namelijk met magneetjes ipv veertjes.
ja het kan zijn dat een techniek anders werkt idd. maar het resultaat is hetzelfde. en apple probeert steeds het wiel opnieuw uit te vinden wat betreft pattenten . volgens mij al vaker gezien bij apple dat ze achter de feiten aanlopen en als er iets is dat ze zelf een andere manier zoeken zodat ze om de pattenten heen kunnen en niet hoeven te betalen . daar lijkt het op
In dat geval is de hele camera van de Nokia Lumia 1020 niet innovatief, Smartphones met camera's bestaan immers allang.
Begrijp me niet verkeerd, ik vel geen waardeoordeel over de iPhone of de Lumia (heb zelf een 920), maar er wordt naar mijn mening iets te snel geoordeeld dat Apple hier simpelweg aan het kopiëren is.
Naar mijn mening heeft Apple simpelweg bewust voor een andere oplossing gekozen om geen licentie te hoeven afdragen aan Nokia. En daar is niets mis mee, dat is gewoon slim.
En dit is een voorbeeld waar patenten dus werken, je kan een licentie nemen of zelf een andere oplossing vinden. Ze hebben dus voor het laatste gekozen en zelf een techniek bedacht. Ben nu wel benieuwd welk systeem beter gaat werken.
Ehm, het kan ook zijn dat die magneetjes dezelfde functie vervullen als de veertjes. In dat geval is het magneetje gewoon een truuk om onder het patent uit te komen, en zijn ze alsnog aan het trollen.

(Let wel, ik zeg niet dat dat waar is, ik zeg alleen dat het kan).
tuurlijk vervullen ze dezelfde functie: stabilisatie van de lens.

Maar het is wel degelijk een andere technische oplossing voor hetzelfde probleem en dus geen kwestie van trollen maar van een nieuwe tech ontwikkelen om een probleem anders op te lossen dan dat tot nu toe gedaan is.
tuurlijk vervullen ze dezelfde functie: stabilisatie van de lens.
Ik bedoelde natuurlijk de functie op een wat lager abstractieniveau.

Als een veertje een kracht geeft evenredig met de uitwijking, en dit magneetje doet hetzelfde (maar dan met wat electronica), dan is dat natuurlijk geen nieuwe uitvinding. Dan is dit gewoon een omweg om hetzelfde te doen.

[Reactie gewijzigd door twop op 10 januari 2014 13:28]

In jouw voorbeeld zou ik een zo abstract mogelijk patent kunnen aanvragen, om zo alle verschillende implementaties van deze abstracte methode af te vangen en in te cashen?

Het is natuurlijk heel normaal dat patenten heel specifiek zijn en er verschillende wegen naar Rome leiden. Als ik een andere weg vind, wil dat niet zeggen dat ik opeens geld moeten betalen aan een andere partij, omdat deze ook al een weg naar Rome had gevonden.
In jouw voorbeeld zou ik een zo abstract mogelijk patent kunnen aanvragen, om zo alle verschillende implementaties van deze abstracte methode af te vangen en in te cashen?
Dan hadden ze het niet kunnen aanvragen in verband met prior art :)
waarschijnlijk had nokia het dan ook niet met veertjes mogen doen omdat er daarvoor al een ander systeem bestond voor beeldstabilisatie.

Patenten moeten m.i. JUIST op dit niveau toegekend worden: een echte andere technische oplossing. Anders had er nooit meer iemand iets kunnen bedenken om een lens mee te stabiliseren na toekenning van het patent op de eerste oplossing zonder dat patent te schenden.
Maar magneetjes bestonden al voordat Apple er was.
Fout.

[Reactie gewijzigd door maarte997 op 10 januari 2014 14:01]

Nokia werkt in de 920 met veertjes (en vermoedelijk ook in de 925).
In de 1020 werken ze met ... magneetjes?
Bekijk eens dit filmpje, 0:37: http://www.youtube.com/watch?v=ezIZjFt80kQ

Het is dus niet dat Apple plots met een alternatieve oplossing komt. De magneetjes zijn gewoon een soort van OIS 2.0, waar de veertjes versie 1.0 waren.

Mensen met een Lumia 1020, schud een met je toestel terwijl je het tegen je oor houdt. Je zal de bolletjes horen tikken.

[Reactie gewijzigd door maarte997 op 10 januari 2014 14:15]

Nee dat zijn kogellagertjes, ik was namelijk bij de lancering van de Lumia 1020.
De Lumia 1020 beschikt over optische beeldstabilisatie, wat mede gebeurt dankzij een kogellager.
bron

Apple heft dus wel degelijk een ander system bedacht.
Ondertussen is het artikel aangepast en blijkt het toch om een conventioneel systeem met veren te gaan en niet aan de hand van magneten.
Of je leest het artikel, er staat duidelijk in dat de wijze waarop Apple dit wil bereiken (m.b.v. magneetjes) anders is dan de wijze waarop de concurrenten dat doen (o.a. veertjes zijn genoemd).
De zin is inderdaad wat krom, maar ik denk dat ze bedoelen dat de volgende iPhone een stabilisatie mee krijgt, omdat de rest het ook doet. Apple gaat de rest dus volgen in idee, alleen met een techniek die nieuw is.
De zin is helemaal niet krom, mensen moeten gewoon beter lezen. :)
De foto die jullie in het artikel gebruiken is zeer discutabel. Er is namelijk geen enkel bewijs dat het om een iPhone 6-frame gaat. Kan net zo goed een LG of Samsung zijn, is niet te zien op basis van dit plaatje.
Ja en nee, het is inderdaad wel heel erg barebone allemaal, maar er zijn wel een aantal dingen te zien die ook al zo op vorige iPhone's zaten. O.a. de locatie van de camera en de positie van de mini-jack input komen wel overeen met oudere modellen.

Enig echt bewijs dat dit de iPhone 6 is, is er inderdaad niet. Het zou, bij wijze van spreken, ook een iPhone 3g kunnen zijn..
Die komen juist niet overeen. De jack zit bovenaan, terwijl deze sinds de iPhone 5 (en iPhone 5S en 5C) juist onderaan zit.
Linker foto is het frame op de kop he, dus klopt wel wat Balfnl zegt. (rechtsboven zie je de jack (omgedraaid dus linksonderin)
Als het linker beeld op de kop staat, dan heeft de camera wel een drastisch andere plaats gekregen.
Misschien is het 'dingetje' rechtsboven geen headset-jack?
Hoezo? Denk je dat het cirkeltje linksboven de camera-'hole' is? Dat lijkt meer op de plek waar altijd de tril-module op ligt.
:) ja, da's waar, zou kunnen dat het de trilmodule is. tot nu to zijn die bij iPhone volgens mij idd nog altijd rond geweest en qua grootte zou dat maar zo kunnen.

Ach... we zitten natuurlijk allemaal een beetje koffiedik te kijken. Ben wel benieuwd hoe de iP6 wordt!
Ik denk overigens dat dit verre van een iPhone prototype is hoor, maar ken de iPhone behuizingen wel redelijk goed vandaar dat ik even reageerde!
Volgens mij niet, maar zeker weten doe ik het niet.

Hoe dan ook, het is maar de vraag of dit een iPhone-frame is. :)
En daarbij denk ik niet dat de iPhone een verdikking op de metalen rand zou hebben voor de jack (uitstekende ronding).. die zit altijd mooi gecentreerd in de stootrand :/
Zeer zeker geen iPhone: Lightning connector zou dan uit het midden komen te zitten ... Dat gaan ze echt niet doen ...
Ik ben benieuwd of zo'n reeds bekend magnetisch ophangconcept (quadrupole) niet (gedempt) oscilleerd waardoor de foto blurred, zeker bij hoge resolutiecamerabeeldsensoren (even ervan uitgaande dat de diffractielimiet van de lens kleine is dan de pixel. Ik verwacht overigens een combinatie van magneet en spoeltjes om velden te veranderen en geinduceerde krachten op te wekken.

Aangezien er een regeling inzit klinkt het als een te dure oplossing. Een andere leuke opmerking is dat Apple patent aanvraagt op iets wat ze nooit gaan gebruiken. Bij de multinational waar ik spendeert men geen een cent aan zo'n patent en publiceren we het, zodat niemand anders het kan vastleggen. Nutteloos in mijn optiek. Maar goed, Apple moet z'n geld toch kwijt en dat is voornamelijk in de juridische sector.

[Reactie gewijzigd door Pe Nis op 10 januari 2014 12:35]

Ik ben benieuwd of zo'n reeds bekend magnetisch ophangconcept (quadrupole) niet (gedempt) oscilleerd waardoor de foto blurred, zeker bij hoge resolutiecamerabeeldsensoren (even ervan uitgaande dat de diffractielimiet van de lens kleine is dan de pixel. Ik verwacht overigens een combinatie van magneet en spoeltjes om velden te veranderen en geinduceerde krachten op te wekken.
Dat lijkt me een kwestie van de magneten op de juiste manier aansturen. In feite is er niks wat een veer wel kan en een magneet niet.
Integendeel! Een veer kan een lokaal minimum genereren. Een magneet kan dat per definitie NIET. Daardoor vergt een magneet ophanging een uiterste snelle actieve feedback. Totale overkill voor dit soort toepassingen.

En dat blijkt dan ook helemaal niet te zijn wat Apple doet. De lens wordt gewoon met veren en kogellagers op zijn plaats gehouden, en met elektromagneten verschoven.

Zie ook:
AHBdV in 'nieuws: Patentaanvraag wijst op optische beeldstabilisatie in toekomstige iPhone'

[Reactie gewijzigd door AHBdV op 10 januari 2014 17:38]

Het frame die te zien is op de foto lijkt me allesbehalve van een 4,7" telefoon te komen. Dit is ongeveer de grote van de iPad Mini, maar is er duidelijk geen...

Betere camera technologie voor smartphones juich ik altijd toe. Voor mij hoeft de sensor niet groter te zijn dan 8 MP. Liever een grotere sensor dus op 8 MP dan een kleine met 16 MP. Met mijn DSLR neem ik nog steeds de meeste foto's op 8MP, maar dan wel op de fijnste kwaliteit. Voor het gros van de toepassingen is dit nog steeds meer dan genoeg.

[Reactie gewijzigd door dimitrimissinne op 10 januari 2014 11:35]

dit is wel een 4,7" frame, alleen in de hand van een kindarbeider }>

Lekker nutteloos bericht verder: een patent aanvraag van iets wat al lang bestaat en een onduidelijke foto erbij. Nieuwswaarde iemand?
Als dat het frame van een toestel met een 4,7 inch scherm is, hoe groot zijn de bezels dan? 4 cm ofzo?
@Vonkje93
Je kan nog altijd voor ¤15 een telefoon kopen om er alleen mee te bellen. Niemand die je verplicht een toestel van ¤500 aan te schaffen. We hebben nu eenmaal te maken met intelligente devices die onder andere kunnen bellen. We leven niet meer in 1998. Ontwikkeling is nooit slecht.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True