Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 22 reacties
Bron: DPReview

DPReview schrijft over een nieuwe afbeeldingensensor van Nikon, waarmee data twee keer zo snel kan worden ingelezen ten opzichte van standaard sensoren. De technologie, die als Lateral Buried Charge Accumulator and Sensing Transistor Array (LBCAST) door het leven gaat, is het resultaat van de eerste geslaagde poging van Nikon om zelf een afbeeldingensensor te ontwikkelen. De massaproductie van de LBCAST-wafers zal uitbesteed worden, maar de laatste productiestadia zal het bedrijf zelf voor zijn rekening nemen.

Nikon Logo (klein, goed voor witte achtergrond)De verwachting is dat in dit najaar Nikons camera's met LBCAST-sensoren op de markt zullen komen, deze zullen dan over een resolutie van ongeveer 4 megapixels beschikken. De voornaamste vooruitgang met betrekking tot de sensoren is geboekt door het oppervlak van de fotodiode te vergroten, waardoor contrast- en kleurgradaties beter waargenomen worden.

Moderatie-faq Wijzig weergave

Reacties (22)

De meeste sensoren die nu worden gebruikt zijn toch al erg klein t.o.v. kleinbeeld. Als de fotodiodes groter worden heb je bijna automatisch ook minder ruis en dat moet ook niet onderschat worden. Nee hoor laat ze maar lekker iets groter worden...
Juist, waarom kleiner? Ik snap ook niet dat ze bijv. een 1/3 CCD chip als feature aanprijzen. Tuurlijk, de meeste mensen denken dat kleiner beter is, maar dat is bij CCD chips dus niet zo.
Door de lens het beeld op een groter oppervlakte te laten projecteren kan je heel gemakkelijk met grotere diodes werken en toch een prima beeld krijgen. Het levert zelfs een voordeel op omdat het beeld als het ware minder verkleind hoeft te worden, en er minder vertekening door het lenzensysteem optreedt. Dat is één van de redenen waarom professionele fotografen kiezen voor het maken van van studio-foto's op grotere negatieven in plaats van op normale kleinbeeldrolletjes. Andere is natuurlijk dat het resultaat beter wordt omdat de resolutie van het negatief een bepaald maximum heeft bij een bepaalde korrelgrootte..
Kan een gevolg hiervan zijn dat de quick-shoot-modus (of hoe ze het ook noemen; ik bedoel foto's snel achter mekaar maken) nu langer kan duren of meer foto's kan nemen omdat de foto's iets sneller verwerkt worden?
Ik denk wel dat dat het geval gaat zijn dat je sneller foto's kan nemen. Ik hoop dan ook dat doordat alles sneller gaat het energieverbruik ook omlaag gaat.. (minder processortijd enz enz)
Of zit ik dan helemaal naast den pot te plassen?

edit:
Ohwjah..
het meer foto's/films kunnen maken heeft te maken met je interne geheugen en niet met de snelheid van verwerking :D
De voornaamste vooruitgang met betrekking tot de sensoren is geboekt door het oppervlak van de fotodiode te vergroten
Levert dat dan geen problemen met resolutie op? Zo beperk je namelijk het aantal pixels dat je op een bepaald oppervlak kwijt kunt.

edit:
-1 first post? waar slaat dat nu weer op? Ten eerste heb ik geen first post, en ten tweede probeer ik bij te dragen aan de discussie. Ik vraag me echt af hoe dat zit met grotere pixels versus resolutie. Foei gemene moderator! -1 Gmmbl #@%^%#$@
De diodes zijn slechts enkele vierkantie micrometers groot. Als je ze iets groter maakt wil dat meestal zeggen in de orde van maximaal 100% groter qua oppervlak. Dat heeft natuurlijk invloed op hoeveel diodes je kwijt kunt in beide richtingen, en zal bij gebruik van hetzelfde ontwerp voor de CCD als geheel logischerwijs leiden tot een grotere CCD bij dezelfde resolutie.

Natuurlijk moet vervolgens de optica op de CCD aangepast worden, maar dit is niet echt een probleem. Het zou natuurlijk handig zijn als je alle CCDs even groot maakt zodat je het beeld in elke camera af kunt beelden op hetzelfde oppervlak. Zo kun je voor elke camera dezelfde optica gebruiken, maar als Nikon haar eerste CCD maakt dan lijkt het me eerder andersom: Eerst een mooie CCD maken die beter is dan de reeds bestaande CCDs en dan een nieuwe lijn cameras eromheen bouwen.
Je blijft hier praten over een CCD, maar het punt van het hele artikel is dat het hier niet om CCD gaat maar om een nieuwe sensor, die ze LBCAST genoemd hebben.

CCD = Charge Coupled Device

LBCAST = Lateral Buried Charge Accumulator and Sensing Transistor Array

LBCAST != CCD
Levert dat dan geen problemen met resolutie op? Zo beperk je namelijk het aantal pixels dat je op een bepaald oppervlak kwijt kunt.
Nee, door een groter oppervlak te gebruiken voor dezelfde hoeveelheid pixels neemt de beeldkwaliteit toe, je hebt minder beeldruis e.d. Je gebruikt grotere analoge foto-electrische cellen, dus het uitlezen daarvan is nauwkeuriger. Zo zijn foto's van grootbeeld negatief ook beter dan kleinbeeld (35 mm).
Ik denk dat ze bedoelen dat de oppervlakte van de diode ten opzichte van de ruimte tussen de diodes vergroot wordt. Ruimte tussen diodes geeft verspilling van licht. Als die ruimte tot een minimum beperkt kan worden, dan zal je dus lichtgevoeligere censoren krijgen.
Zoals de rest van de reacties: Nee, de resolutie gaat niet achteruit, het oppervlakte wordt alleen groter.

Behalve voordelen als minder ruis e.d. heeft dit voor een professionele fotograaf nog meer voordelen: De brandpuntsafstand wordt groter. Dat betekent dat je makkelijker met groothoeklensen kunt werken en dat de scherpte-diepte verhouding kleiner wordt wat voor b.v. portretfotografie belangrijk is. (Je kent ze wel, die foto's met een haarscherp iets op de voorgrond en een zeer vage achtergrond).
En begrijp ik nou goed, dat de foto`s 2x zo snel naar het geheugen geschreven kunnen worden>? Dat lijkt me namelijk ook wel een goede zaak, bij de camera die ik heb duurt het vaak namelijk wel 2 tot 4 seconden, voordat ie dat voor elkaar heeft.
Denk eraan, foto van de volledige optische module wordt eerst verwerkt in een eerste stadia met buffergeheugen, en dan pas doorgestuurd in stukjes naar het dermate-liefst-zo-grootst-mogelijke geheugen. Dit dan intern of 'extern' (Flash, SD, MMC, etc..)

Het wegschrijven NAAR het extern geheugen zal met deze techniek denk ik er niet sneller op vooruit gaan. Algemeen bekeken wel, omdat je op de volledige lijn profijt doet, maar niet naar je draagbaar medium.

Maar zoals bij veel, neem nu stom voorbeeld, of je brood er nu voor een fractie sneller uitvliegt, of je tooster fikt die broden net iets rapper blakerzwart, algemeen ben je tevreden dat het systeem in z'n geheel sneller werkt.
(stom voorbeeld ik weet het, maar het is plain logic uitgelegd op die manier)
Bij de wat duurdere camera's en camera's voor professionals (zoals de Canon 1Ds of de 10D) zit een grote buffer waardoor de traagheid van het opslagmedium (het geheugenkaartje) omzeild word bij series opname. Door zo'n buffer kan zo'n camera 3 fsp opslaan tot 10 afbeeldingen. Het opslagmedium houd zo'n stroom niet bij natuurlijk en daarvoor is de buffer.

Bij zulke camera's kan een snelle CMOS of CCD chip samen met een extra grote buffer ervoor zorgen dat de sport fotograaf nog betere foto's maakt omdat die een gebeurtenis beter kan vast leggen.
Guys, volgens mij is het "sneller" hier dat de CCD zeg maar "over" z'n foto-gevoelige sensor uit wordt gelezen. Deze krengen zijn "lateral": Zijdelings. Effectief denk ik: Achterlangs!

Het gevolg is dat de snelste sluitertijd sneller wordt.

Neem eens een webcam, en schiet een plaatje met de zon of een reflectie van de zon. Dan zie je een witte streep over je beeld (sommige cameras horizontaal, andere vertikaal!). Dat is de CCD die uitgelezen wordt, en de felle plek heeft dus tijdens het uitlezen zoveel licht gevangen dat in de super-korte belichtingstijd er al genoeg licht is gevallen dat het er wit uitziet.....

Dat effect moet hier dus ontbreken....
Ik denk dat het eerder het equivalent van de ISO waarde van je filmpje is dat verhoogt: meestal heeft een digitale camera een standaard ISO waarde van 100, hogere waarden zorgen tot op heden voor nogal wat digital noise. In een gewone camera steekt men meestal ISO 200 of ISO 400 film (hangt er wel een beetje vanaf voor welk doel, veel natuurfotografen zullen met ISO 100 diafilm fotograferen, want hogere ISO resulteert nogalvaak in minder diepe kleurverzadiging).
Het verschil is dat bij minder goede lichtomstandigheden de film/chip minder lang moet belicht worden en er dus minder beweging optreed tijdens de belichting en dit resulteert dan weer in minder bewegingsonscherpte.
We hadden het toch over de beeldchip in plaats van transferrates?
Anyhow, Sony was ook met een nieuwe beeldchip bezig (RGBE layout) ?!?
Het schijnt dat Nikon zich er niets van aan trekt !?!
Ze werken echt langs elkaar heen...
Zo groot is dat Japan toch niet?
Maar het meeste geld verdien je ermee als je het zelf ontwikkeld en het meeste geld kost het je als je het aankoopt.

Tenminste, zo hopen (en verwachten) bedrijven dat het is. Ik heb geen idee wat de R&D kosten dan wel aankoopskosten van andermans product is, maar ik vermoed dat zelf ontwikkelen toch wel eens een stuk goedkoper kan zijn. Vooral als je het product nog weer doorverkoopt aan andere bedrijven die de expertise niet in huis hebben.

Daarbij komt nog eens dat de kwaliteit die Nikon heeft altijd erg hoog is en ze de kwaliteit altijd erg hoog willen houden. Als je zelf ontwikkeld, kan je zelf de kwaliteit bepalen.
Nou, dat was met Philips wel anders!
Philips deed de research en Japan paste de techniek toe. Dat japanse bedrijven liever zelf de research doen is maar moeilijk te geloven !?
Het verschil in marketing tussen de twee chips van Sony en Nikon is in ieder geval nu al groot te noemen: Sony richt zich op de low consumer range en legt aan de gewone consument in heel eenvoudige taal uit dat ze een extra kleur aan de chip hebben toegevoegd die voor meer kleurgetrouwe foto's zorgt (terwijl de grootte van het effect nu al betwijfeld wordt), terwijl Nikon totaal niet met de consument bezig is, maar alleen met de ontwikkeling van de technologie. Nikon slaagt er dus ook niet in om hun technologie net zo helder en transparant te maken als Sony (vergelijk op DPReview).
Kan een gevolg hiervan zijn dat de quick-shoot-modus (of hoe ze het ook noemen; ik bedoel foto's snel achter mekaar maken) nu langer kan duren of meer foto's kan nemen omdat de foto's iets sneller verwerkt worden?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True