Gerucht: Pentax K-1 II-dslr krijgt pixelshift zonder noodzaak van statief

De Japanse website Nokishita heeft afbeeldingen van de Pentax K-1 II getoond. De blog meldt dat de opvolger van de in 2016 door Ricoh uitgebrachte K-1 binnenkort uitkomt en beschikt over een verbeterde Pixel Shift Resolution-functie waarbij geen statief nodig is.

De Pentax K-1 II-fullframe-dslr is nog niet officieel aangekondigd, maar eerder zijn de specificaties al uitgelekt. Toen werd gemeld dat de Pixel Shift Resolution-functionaliteit zou zijn verbeterd voor het nieuwe model, maar het was nog niet duidelijk op welk vlak. Volgens het Japanse Nokishita-blog maakt de nieuwe versie van pixelshift het mogelijk om vanuit de hand foto's in hoge resolutie te maken.

Dit zou een aanzienlijke verbetering van de pixelshiftfunctionaliteit kunnen zijn, die net als bij Olympus- en Sony-toestellen tot nu toe eigenlijk alleen scherpe afbeeldingen oplevert bij gebruik van een statief. Om het handheld gebruik van pixelshift mogelijk te maken, wordt geen gebruikgemaakt van de techniek waarbij de sensor steeds een pixel verschuift. De camera zou trillingen detecteren die afkomstig zijn van bijvoorbeeld handbewegingen, en de combinatie van de genomen vier foto's op basis van deze trillingsinformatie analyseren. Het stabilisatiemechanisme kan voor de trillingen compenseren, waardoor een statief niet noodzakelijk zou zijn.

De originele Pentax K-1 maakt met de pixelshiftfunctie vier opnames snel achter elkaar en met behulp van het stabilisatiemechanisme verschuift hij de sensor voor iedere opname steeds één pixel. De bestanden worden gecombineerd tot een foto die voor iedere vastgelegde pixel de kleurinformatie van vier pixels beschikbaar heeft. Dat resulteert in scherpere beelden zonder kleurfouten en met minder ruis.

Eerder waren er al geruchten dat de Pentax K-1 II een acceleratorchip krijgt, die ook in de Pentax KP en K70 zit. Dit zou de ruisonderdrukking verbeteren en het isobereik verhogen naar 819.200 iso. De toevoeging van deze chip en de nieuwe pixelshiftfunctionaliteit lijken de voornaamste vernieuwingen ten opzichte van de originele K-1. Het ontwerp en uiterlijk van de K-1 II zijn op de afbeeldingen ongewijzigd ten opzichte van die van zijn voorganger.

De Pentax K-1 komt volgens Nokishita binnenkort uit en zou vanaf donderdag kunnen worden besteld. Vorige week werd gemeld dat de prijs voor de body van de Pentax K-1 II op tweeduizend dollar uitkomt, wat vergelijkbaar is met de huidige prijs van de originele K-1.

Pentax K-1 II afbeeldingen vroegPentax K-1 II afbeeldingen vroegPentax K-1 II afbeeldingen vroeg

Door Joris Jansen

Redacteur

20-02-2018 • 12:40

43

Reacties (43)

43
43
36
2
0
0
Wijzig sortering
Begrijp ik het nou goed dat dit eigenlijk gewoon het middelen (averaging) is van vier beelden die snel achter elkaar genomen worden? Ik zie niet in hoe dat de resolutie verhoogt volgens mij hangt de resolutie voornamelijk af van de NA (numerieke aperetuur) van de lens en niet zozeer van de camera chip. Tenzij deze camera chip niet op nyquist (minimale sample rate om geen informatie te verliezen) samplet voor de lens. Het averagen van vier pixels zou wel een verbetering in signal to noise kunnen geven, maar de resolutie verbetering snap ik echt niet. Is er iemand die dat kan uitleggen?

Of is deze pixel shift zo klein (subpixel) dat er dus effectief meer wordt gesamplet? Dan nog verbeterd de resolutie niet maar de samplerate.

[Reactie gewijzigd door bosbeetle op 25 juli 2024 00:52]

Veel simpeler: Met pixelshift skip je de bayerinterpolatie. Hierdoor heb je grofweg 2x detail (efficientie van bayerinterpolatie is ongeveer 50%).
Met andere woorden dit zou de camera al wel kunnen ware het een grayscale camera geweest. Duidelijk :)

Je krijgt nu effectief dezelfde "scherpte" als bij een dedicated zwart wit camera.
Ikzelf werk met fluorescentie microscopen en die hebben altijd alleen maar een grayscale camera (of detector). Met kleurenfilters. Ik werk met een speciale super-resolutie microscoop die daadwerkelijk onder de limiet die door abbe beschreven is duikt door middel van verschillende "truuks" daarom was ik geïntrigeerd door term resolutie en vroeg me af wat ze hier deden. Nu is het duidelijk en ze verhogen de resolutie wel maar niet boven wat al kon met een grayscale camera :)
Theoretisch staat ze volgens mij niet in de weg om dit uit te breiden met halve pixel shifts. Maar het praktisch nut wordt dan wel erg laag gezien de tijd benodigd om de opnames te maken.
Dit is eigenlijk precies het tegenovergestelde van averaging. Dit is meer te vergelijken met een wiskundig probleem waarbij je meerdere onbekende variabelen hebt en meerdere vergelijkingen die je probeert op te lossen.
Pixels van de originele fotos met de lagere resolutie bevatten elk als het ware een 'average' (niet 100% juist) van de pixels uit de nog onbekende foto van hogere resolutie. Doordat je meerdere lage resolutie fotos hebt die ten opzichte van elkaar ietsje zijn verschoven, kan je wiskundig een inschatting maken van de pixels van de nieuwe hogere resolutie foto.
Interessant hieraan is dat het menselijk oog dit ook constant doet zonder dat we daarvan bewust zijn, alhoewel deze theorie nog steeds wordt onderzocht.

zie ook deze link (pdf):
http://ubimon.doc.ic.ac.u...rs06_151-200/paper155.pdf

[Reactie gewijzigd door rput op 25 juli 2024 00:52]

Ook dat is toch meer sampling en niet resolutie. Je hebt beelden die ondersampled zijn en samplet ze beter door een paar keer de pixels te shiften. Met resolutie heeft dat niet zoveel van doen.

Maar er worden hier verschillende definities van resolutie door elkaar gebruikt heb ik het idee.

De definitie die ik hanteer is de kleinst mogelijke afstand waarop twee objecten met dezelfde kleur nog uit elkaar gehaald kunnen worden.

[Reactie gewijzigd door bosbeetle op 25 juli 2024 00:52]

wow. Dus in feite maken ze scherpere foto's doordat de fotograaf bibbert. Knap bedacht!

@Blokker_1999 ik lees hier toch echt uit dat bibberen wordt gebruikt om achteraf te kunnen gebruiken...
De camera zou trillingen detecteren die afkomstig zijn van bijvoorbeeld handbewegingen, en de combinatie van de genomen vier foto's op basis van deze trillingsinformatie analyseren. Het stabilisatiemechanisme kan voor de trillingen compenseren, waardoor een statief niet noodzakelijk zou zijn.

[Reactie gewijzigd door boner op 25 juli 2024 00:52]

Anoniem: 457607 @boner20 februari 2018 12:50
In feite dus hetzelfde als wat lensstabilisatie doet, maar dan op sensor niveau, interessant. Overigens zal het niet compenseren voor mogelijke bewegingen van je onderwerp, dat is weer een ander probleem.
Niet helemaal, bij lens stabilisatie ga je de lens laten bewegen om de beweging van de hand tegen te gaan. Er zijn ook toestellen waarbij men dit al met de sensor doet en dus de sensor stabiel blijft staan. Hier gaat men de beweging net gebruiken om meer beeldinformatie toe te voegen. Waarbij vroeger de lens met opzet werd bewogen gaat men nu van de trilling van de hand gebruik maken.
Lees wel dat je 4 foto's moet maken en er dan 1 goede neem ik aan uit komt rollen.
Achtergrond moet dan dus niets in beweging hebben ander heb je al verschillen tussen de 4 foto's.

De vraag is ook tot welke sluitertijd werkt dit.
Als ik in het donker foto's maak, sluitertijd 1/2 seconde, 4 foto's 2 seconde, gaat dat nog werken.
Zal een leuk extraatje zijn voor sommige situatief maar statief zal misschien toch beter zijn in veel situaties waar je het nu ook gebruikt
Je hebt het niet begrepen. Zie uitleg verderop.
Dit is wel heel gaaf. Wat men op dit moment vaak doet bij gebrek aan een statief is -vooral bij weinig licht- fotograferen op een hogere ISO (1000) en dan 5 frames schieten. Deze worden daarna in photoshop (stack mode) over elkaar leggen om de ruis eruit te halen.

Als ik het zo lees doet deze camera dit "zelf" wat natuurlijk mogelijk wordt naarmate de mobiele chips krachtiger worden. Ben heel benieuwd hoe fotografie zich met de tijd gaat ontwikkelen zeker als je met bijvoorbeeld 5G de bereking in de cloud zou kunnen laten plaatsvinden.Dit zou ook een mooie standaard functie van Lightroom kunnen worden. Jeej voor RAW fotografie.

[Reactie gewijzigd door Ma_rK op 25 juli 2024 00:52]

Anoniem: 457607 @Ma_rK20 februari 2018 16:08
Een reactie als een ongeleid projectiel, je schiet echt alle kanten op.

De ruis techniek die je noemt lijkt me niet echt gangbaar. Het is nogal omslachtig en werkt alleen met high speed relatief stabiele foto's. Om dat iedere keer voor ISO 1000 te doen is nogal met een kanon op een mug schieten. Het resultaat in de video is niet super indrukwekkend, noise is weg, maar het is nogal zacht en blurry geworden. Investeer liever in een lichtsterke lens. Besef ook dat moderne sensoren makkelijk ISO 6400 aankunnen met acceptabele noise. Alleen als je 100% pixel peeping doet is dat een probleem.

Deze camera techniek heeft niets met ruis te maken, het heeft met bewegingsonscherpte te maken.

Tot slot, ik moet er niet aan denken om afhankelijk van een cloud te zijn voor fotografie, wat een nachtmerrie scenario.
"Blurry" zou een mogelijk effect zijn als je de 5 foto's linear samenvoegt. Maar een "median value" operatie (sorteer alle pixels, neem de middelste waarde) is niet-linear en leidt niet tot blur.

De fundamentele wiskundige reden hiervoor is dat een lineaire operatie betekent dat een "error term" in de input (zoals beeldruis) ook linear doorwerkt in de output. Een "median value" filter gooit input weg, en meestal gooit het de inputs weg met de grootste error terms.

Om een simpel voorbeel te geven, met inputs {6 7 8 9 100} is het gemiddelde 26 en de mediaan is 8.
Nee het is niet de ruis. Hoewel dat ook een interessante ontwikkeling is. Dat had analoog niet gekund.

Het is dat 24M sensor niet 24 rode, groene, blauw pixels heeft, maar slechts (afh fabrikant) 6 rood, 6 blauw en 2*6 groen. Door sensor 1 pixel te verschuiven krijg je wel de informatie alsof er 24M pixels van elke kleur waren. (Hoewel ik denk dat je kunt gaan nitpicken of dat niet 18M moet zijn).
Grappig, dat betekent dat het dus niet werkt als je de camera op een statief hebt staan :)

Erg leuk dat dit soort features steeds meer standaard wordt. En het is tenslotte niet iets heel duurs om toe te voegen: De stabilisatie zit al in de camera, dus het is gewoon creatief inzetten van de hardware van de camera. Het kost geen schroefje extra.
Grappig, dat betekent dat het dus niet werkt als je de camera op een statief hebt staan :)
Dat hoeft niet per se. Ik lees nergens dat het mechanisme om de sensor te verschuiven hiervoor verdwijnt, enkel dat deze bewegingsdetectie wordt toegevoegd.

Daarnaast kan een beeldstabilisator ook juist (de in dit geval benodigde) trilling opleveren bij gebruik in combinatie met statief. Als ik de stabilisatie op de lens van mijn Canon aan laat dan heb ik de garantie dat de foto bewogen is, zeker bij gebruik van een telelens. Zet ik de stabilisatie uit dan is de foto scherp (uitgaande van geen andere problemen).
Ik kan alleen maar zeggen: ontwerp fout.
Want iemand die zelf stabiel is zou dan ook alleen maar bewogen foto's hebben.
Ten eerste vraag ik me af hoe groot die groep is, zo stabiel dat je je camera echt stil kan houden is denk ik bijna niemand (en met korte brandpuntsafstanden zie je dat misschien niet, maar met flink zoom wel). Dat komt op mij altijd meer over als sterke verhalen dan als waarheid.

Er is een belangrijk verschil tussen een persoon en een statief. Een statief bestaat, als het goed is, uit stijve delen en de scharnieren worden statisch vast gezet. Bij een persoon is het aanhouden van een houding een dynamisch proces. Spiervezels in de armen kunnen kracht in het algemeen maar kort vasthouden. Langdurige spierspanning is eigenlijk een proces van steeds kort aanspannen van een spiervezel en weer ontspannen. Door goede timing tussen de vezels wordt redelijk stilstand bereikt, maar meestal met een trilling.

Daarnaast, als iets voor een groot deel van de mensen goed werkt, voor een klein deel van de mensen mogelijk nadelige effecten heeft, en nog uit te schakelen is ook, dan vind ik het erg ver gaan om een ontwerp als slecht te bestempelen. Het zal vast mogelijk zijn om met technische maatregelen dit tegen te gaan, maar tegen welke prijs is dat dan? Dikke kans dat het gewicht, de prijs en/of het energieverbruik toeneemt. Dan heb ik toch liever dat ik als ik de camera op het statief zet de stabilisatie even uit moet zetten (kwestie van een schuifje omzetten) en weer aan moet zetten als ik de camera van het statief haal. En als je zo stabiel bent van jezelf dat je geen stabilisatie nodig hebt kan je het permanent uit laten (in ieder geval bij Canon ben ik nog geen lenzen tegengekomen waarbij de stabilisatie niet uit kan, wel genoeg lenzen zonder stabilisatie)

Stukje over spierspanning toegevoegd, ik ben immers een bioloog

[Reactie gewijzigd door Eupeodes op 25 juli 2024 00:52]

Een stabilisatie systeem dat bewogen foto's maakt omdat de camera stil staat, hetzij door statief, het door een stabiel persoon is fout ontworpen. Simpeler kan ik het niet zeggen.
Daarvoor is de aan/uit-schakelaar, daarmee kan je het systeem in die situatie dat het tegenwerkt even uitzetten (kleine moeite). En natuurlijk kan je detectie toevoegen zodat dat automatisch gaat, daarmee wordt het echter wel weer complexer, en dus storingsgevoeliger, zwaarder en/of duurder terwijl je met een simpele schakelaar omzetten (nog geen seconde werk) het probleem ook niet hebt.

[Reactie gewijzigd door Eupeodes op 25 juli 2024 00:52]

Een systeem dat tegenwerkt als jij het goed doet is FOUT ontworpen.
Stabilisatie aan laten staan als je de camera op statief zet of op andere manier al volledig stabiliseert is niet ‘het goed doen’. Maar goed, dit is verspilde moeite, we vinden beiden dat we zelf gelijk hebben en ik geloof niet dat jij me gaat proberen te overtuigen van jouw gelijk met argumenten.
Je hebt gelijk dat is verspilde moeite.
Ik snap je redenering, en die zou zelfs kunnen worden gezien als geheel redelijk. Maar de realiteit is anders en dat geldt voor elk stabilisatiesysteem. Er zijn genoeg websites te vinden waar wordt uitgelegd waarom dit het geval is. Bijvoorbeeld deze: https://blog.mingthein.co...d-but-only-up-to-a-point/. Ik zou zeggen: ga die doornemen of wees wat gereserveerder met het uiten van wat je denkt dat waar is. De keus is aan jou.
Ik heb die link doorgelezen. Maar dat gaat voornamelijk in op te trage en te late verwerking van de bewegings meetdata. En op een statief is er geen sprake van beweging, dus ook niet van te trage verwerking. En een beetje systeem kan dan zelf besluiten: er geen beweging dus ik doe niets.
Blijft over de mogelijke resonantie door interne beweging door opklappen spiegel, afgaan sluiter. Nou zijn dat vastliggende bewegingen die je kunt uitfilteren.
Dat kan dat systeem niet. Stabilisatie gebruikt input van bewegingssensoren om te bepalen wat er moet gebeuren. Maar die sensoren en de interpretatie van de data zijn niet perfect. Als je bvb op statief een exposure van 30 seconden doet, wordt er een fout opgebouwd tijdens die 30 seconden, en die fout wordt steeds groter.

Dit is ook de reden dat stabilisatie vanaf een bepaald moment geen echt scherpe foto's meer oplevert, maar misschien wel "acceptabel scherpe" foto's. Als je echter vanaf statief werkt heb je de potentie om ragscherpe foto's te krijgen door simpelweg de stabilisatie uit te zetten. Pentax DSLRs doen dat trouwens automatisch als je bvb in bulb mode fotografeert.

Dit staat inderdaad niet in het artikel. Betekent niet dat het niet elders staat of dat het niet waar is.

[Reactie gewijzigd door cashewnut op 25 juli 2024 00:52]

Dit staat inderdaad niet in het artikel. Betekent niet dat het niet elders staat of dat het niet waar is.
Dat er foute implementaties zijn van stabilisatie wil niet zeggen dat de foute implementatie daarom goed is.
Zoek dan zelf. Het kostte mij maar 10 seconden om een artikel te vinden dat beschrijft waarom je geen stabilisatie moet gebruiken bij gebruik van een statief.

Dit raakt iets fundamenteels: als je denkt dat iets waar is, zou je op zoek moeten gaan naar tegenbewijzen. Het heeft immers geen zin om te kijken naar bewijzen die je eigen overtuigingen versterken. Alleen als je die tegenbewijzen niet kunt vinden zit er misschien iets van waarheid in die overtuiging. Zie ook https://www.youtube.com/watch?v=vKA4w2O61Xo.

Laat ik het voortouw nemen: als jij een voorbeeld hebt van wat je een goede implementatie van stabilisatie noemt, dan hoor ik dat heel graag, want dan is dat voor mij een tegenbewijs. Met uitleg erbij waarom dat wel goed is (of een verwijzing naar zulke uitleg).

[Reactie gewijzigd door cashewnut op 25 juli 2024 00:52]

Dat is ook de reden dat je als je fotografeert van een statief je de optische stabilisatie moet uitzetten. Anders gaat de lens beweging corrigeren die er niet is.
Dus als ik het goed begrijp, registreert de camera de trillingsinformatie ten tijde van het opnemen van de 4 beelden, en worden er waarschijnlijk de meest bruikbare delen van elk van die 4 beelden gebruikt om dan een complete foto op te bouwen die wel scherp is. Ik kan me bvb voorstellen dat een lichtpunt in een foto een horizontale streep wordt en in een andere foto meer een verticale streep. De uiteindelijke foto zou dan de boven-onder overgangen van de eerste opname kunnen gebruiken en de links-rechts overgangen van de tweede. Dit kan achteraf niet door software worden gedaan, tenzij die software toegang heeft tot de door de camera geregistreerde trillingsinformatie.

Het is dus een functie die de effectiviteit van de bestaande sensor-based beeldstabilisatie - die Pentax al heel lang heeft - vergroot, in situaties waar je zonder problemen meerdere opnames kunt schieten.

Er mag dus waarschijnlijk geen of weinig beweging voorkomen terwijl de opnames worden gemaakt. Dus een functie voor landschappen, cityscapes, architectuur, etc. Ik kan me voorstellen dat toen ik bvb in Singapore foto's maakte vanuit de Flyer (soort van London Eye) deze functie meer bruikbare resultaten had kunnen opleveren.

Alleen... dit is weer een extra functie. Pentax camera's hebben al zoveel functies. Ik heb er 8 jaar lang mee geschoten. Je hebt SR, horizon leveling, uitschakelbaar AA-filter, pixel shift en nu dit. Ik bedoel, het is prachtig dat het kan, maar voor fotografie is het minstens zo belangrijk dat de camera niet in de weg zit van wat de fotograaf wil doen. Soms denk ik wel eens, de K20D was nog een lekker eenvoudige camera. Ok, wel stabilisatie, maar verder niet 1000-en-1 functies. Toen sloeg men een wat andere richting in dan Canon en Nikon met de K-7. Ok, die had ook niet heel veel functies maar het was wel een camera die de nadruk op andere vlakken legde.

Wat ik niet begrijp is dat Pentax dit soort dingen blijft ontwikkelen maar tegelijk de autofocus van een 5 jaar oude Nikon niet kan bijbenen. En dan zijn er tegenwoordig ook al mirrorless camera's die eye tracking AF hebben. Dus Nikon is niet eens meer per se aan de top. Ok, in daglicht presteert de AF van Pentax prima, maar als het iets donkerder wordt merk je gewoon dat het stukken trager werkt dan de concurrentie. Ik wilde op reis in Laos met die K-7 in een schuurtje een oud dametje fotograferen die voor ons wijn maakte. Ik wist dat ik echt mijn moment moest kiezen want het was vrij donker. Dus zij moest niet teveel bewegen. Dan moest ik snel een AF lock zien te krijgen en schieten. Doordat de AF zo traag was bleef ik echter achter de feiten aanlopen.

Pentax, je bent goed bezig met een hele hoop nice-to-haves. De icing on the cake is prima voor elkaar. Wanneer ga je de cake zelf verbeteren?
Precies, het probleem met Pentax is dat hun AF systeem flink achterloopt met de concurrenten. Al jaren is er stevige kritiek op het slechte AF-systeem van Pentax in donkere omstandigheden maar tot op heden doet Pentax er helemaal niets aan.

Ook wat betreft lenzen voor de K1 is Pentax achtergebleven.
Het punt is ook: dit is hele slimme technologie, maar de waarheid is dat bvb 24MP AA-filterless APS-C camera's al enorm veel detail kunnen vangen. Genoeg voor erg grote afdrukken (ook omdat je daar niet met je neus bovenop gaat staan). Want je kunt een camera als afzonderlijk stuk techniek bekijken, en dan is dit misschien erg indrukwekkend. Maar je kunt je camera, lenzen, nabewerking, etc ook in een breder verband zien: als gereedschappen waarmee je problemen oplost. En dan geen theoretische problemen, maar problemen waardoor je je foto misschien niet kwijt kan. Althans, dat is hoe een serieuzer fotograaf ernaar kijkt.
Tja......
Investeren in Pentax..............?? Dat ze nog bestaan.
Ik heb mijn twijfels.
Leuke ontwikkeling overigens, Sony doet het ook en heb daar indruk wekkende voorbeelden van gezien.
De camerapoot van Pentax is een aantal jaar geleden gekocht door Ricoh. Die voert nog steeds de naar Pentax, omdat dat best een sterk merk is. De lenzenafdeling van Pentax (brillenglazen e.d.) bestaat nog als Pentax.
Pentax maakt vaak gebruik van Sony chips tegenwoordig.
De toekomst zal het leren. Maar nu hier niet, maar elders is Ricoh/Pentax nog steeds een naam. En in mid-range digitale camera's (4*6 cm sensor) doen ze het niet slecht.

Kodak was ook een merk (was trouwens de eerste met goede digitale camera's).

Wieweet heb je gelijk en wie weet is Canon over 2 jaar alleen nog maar een laserprinter fabrikant.

Als ik het wist kocht ik aandelen. Maar zolang ik het niet weet zou je jouw post als -1 modden.
Koffiedik kijken is niet iets voor tweakers. }>
Geen idee in Europa, maar in Japan heb je een grote groep trouwe Pentax gebruikers, zowel film alsook digitaal. Mijn schoonvader is toevallig lid van een Pentax gebruikersgroep in Osaka e.o. die hebben honderden leden en wat ik weet van een electronica-groep in Japan dat de verkopen van Pentax (Ricoh) redelijk stabiel zijn.
Pentax heeft wel een paar gebieden waarop ze beter zijn dan Canon en Nikon. Zelfs het entry-level model (de K-70) is weather sealed en heeft 2 e-dials en een pentaprisma zoeker. Het is dus niet zo'n "dinky" camera als een Nikon D3400 of zelfs een D5600. Qua techniek lopen ze niet altijd voorop (de K-70 heeft bvb geen touchscreen) en de AF is ook niet de beste maar voor de goedkopere kant van de markt maken ze erg leuke producten, met zeer goede ergonomie. Je kunt bij die K-70 zelfs een weather sealed kitlens krijgen en dan kun je dus gewoon in de regen fotograferen.

Het probleem begint een beetje bij de duurdere kant van de markt. Als je naar het APS-C topglas kijkt dan is dat niet altijd wat je verwacht. De SDM AF motoren van deze lenzen zijn berucht en bvb de DA* 16-50/2.8 is volopen niet zo scherp als bvb een Nikon 17-55/2.8. Voor dergelijke prijzen begint de AF ook tegen te vallen. Nu heeft Pentax ook een fullframe lijn. De K-1 wordt geroemd om zijn goede value for money, maar als je bvb de Pentax 24-70/2.8 erbij koopt, dan is dat een Tamron 24-70/2.8 waarvan de stabilisatie is verwijderd, die als Pentax lens is vermomd en een paar honderd euro duurder is dan die originele Tamron lens. Dat gezegd hebbende, voor bvb outdoor landschapsfotografie is het een erg fijne camera.

Maar wat je nu ziet is dat Canon en Nikon de hete adem van Sony en Fujifilm in de nek voelen en hun eigen mirrorless producten op de markt gaan brengen. Temidden van dat alles is Pentax nog steeds bezig hun fullframe DSLR systeem uit te bouwen. De vraag is of dat een handige situatie is. De Sigma's en Tamron's lieten Pentax vaak al links liggen (behalve dan die rebranded Pentax lenzen) maar als Pentax straks de enige DSLR fabrikant nog is, zal dat helemaal gebeuren. Dan staan ze er alleen voor en dat lijkt me niet handig.

Aan de andere kant is Pentax wel een merk dat producten die op papier misschien gedoemd lijken om te falen, heel goed weet uit te voeren en daarmee misschien toch wel mensen aan zich weet te binden.
Dat heet toch gewoon superres? Kun je zelf al doen in de nabewerking, maar mooi dat dat straks dus in-camera gebeurt.

https://www.youtube.com/watch?v=c17MCm4lXcE
https://www.youtube.com/watch?v=o7POpid-e8U
Wat ik denk dat ze bedoelen is dat ze detecteren hoe je je camera beweegt.
Bij pixel shift worden 4 foto's gemaakt met een klein verschoven sensor zodat je in elke richting 2* foto's maakt. Bij elkaar dan 4* meer pixels hebt. Maar als je camera niet op een rotsvast statief hebt, is er tussen foto 1,2,3 en 4 de altijd wel een kleine afwijking.
Als je die beweging detecteert kun je die 4 foto's wel goed over elkaar leggen.
Daarnaast heb je nog de sensorshift voor trillende handen. Dat is iets anders dan de kleine waarnemings hoek verandering tussen foto 1,2,3,4.
M.a.w. bij de opname doe je sensorshift om de trilling tijden de opname tijd (zeg 1/1000 sec) te compenseren. En gebruik je de informatie van kleine verandering in opname richting icm met pxielshift (zeg maar offset t.o.v. de pixelshift voor trilling) om de foto te alignen met de vorige.

Overigens alle opmerkingen over statische achtergrond zijn waar.
Deze techniek in combinatie met een global shutter ala sony zou helemaal revolutionair zijn.

Op dit item kan niet meer gereageerd worden.