Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 91 reacties

Het Amerikaanse Department of Energy is akkoord met de bouw van een 3,2-gigapixelcamera voor de Large Synoptic Survey Telescope. Hiermee kan de constructie van de camera, die de grootte heeft van een kleine auto, van start gaan.

De beslissing van de Amerikaanse overheid was 'Critical Decision 3' en daarmee de laatste hobbel die overwonnen moest worden voor de bouw van start kon gaan. Het team achter de Large Synoptic Survey Telescope kan nu beginnen met onderdelen bestellen en de daaropvolgende bouw. In 2011 werd Critical Decision 1 genomen, begin dit jaar kreeg Decision 2 een akkoord.

De camera meet 1,65 bij 3 meter en is het belangrijkste onderdeel van de telescoop. Het gewicht bedraagt 2800 kilo. Technici voorzien het systeem onder andere van een mechanisme om snel van filter te kunnen wisselen, waardoor licht van meerdere golflengtes opgevangen kan worden. De camera en de Large Synoptic Survey Telescope moeten voor beelden van het heelal met enorm veel detail zorgen. In 2022 moeten de eerste digitale afbeeldingen vastgelegd worden. Gedurende een periode van tien jaar detecteert de telescoop tientallen miljarden objecten.

De LSST voorziet een publiek toegankelijke database in de toekomst van data met een omvang van 6 miljoen gigabytes per jaar. Analyse hiervan moet onder andere informatie opleveren over het vormen van sterrenstelsels en over asteroïden die op ramkoers met de aarde liggen. Daarnaast wordt informatie verzameld over exploderende sterren en worden van asteroïden gevolgd.

Moderatie-faq Wijzig weergave

Reacties (91)

Iets meer diepgang over wat het doel is van de Large Synoptic Survey Telescope en waarom er zo veel pixels daarvoor nodig zijn:

De kop boven het artikel spreekt over een 'camera'. Dit is maar de helft van het verhaal want deze camera is zoals verder in het artikel gemeld onderdeel van de Large Synoptic Survey Telescope (LSST).

De camera en telesoop samen zijn ontworpen om elke paar dagen het hele hemelgewelf vast te leggen. LSST is zo nauwkeurig en snel dat in in de eerste maand meer zal worden waargenomen dan tot nu toe door alle telescopen bij elkaar ooit. Om dit te bereiken is een groot blikveld nodig, in dit geval 3,5 graden. Om een groot blikveld ineens in hoge resolutie per graad vast te leggen heb je veel pixels nodig, 3,2 gigapixel. Gevoeligheid, kleurbereik en uniformiteit van de pixels zijn van een andere orde dan we gewend zijn in onze camera's. in de nacht zal elke 20 seconden een foto worden genomen om zo de animatie van het gehele zichtbare hemelgewelf te maken met een herhaal frequentie van enkele dagen.

Doel van LSST is om een geanimeerde kaart van het heelal te maken. Zowel objecten dichtbij als zeer ver weg zullen worden vastgelegd.

Door dit zeer nauwkeuring te doen kunnen bijvoorbeeld veel betere berekeningen worden gemaakt over objecten die zouden kunnen botsen met de aarde. Nauwkeurigheid vertaalt zich bijvoorbeeld in het jaren vooruit kunnen kijken naar banen van objecten die zich meestal buiten ons eigen zonnestelsel bevinden maar het in hun baan wel doorkruisen.

Het ver weg kijken, zelfs tot aan de rand van het heelal zal tientallen miljarden nieuwe opjecten opleveren. Deze objecten kunnen sterren zijn in onze eigen melkweg, maar verder weg zullen het melkwegstelsels zijn.

Door herhaald veranderingen vast te leggen, met name van supernova's (die je vanwege de helderheid ook in andere melkwegstelsels kunt waarnemen) kan informatie worden verkregen die de invloed van dark matter en dark energy op de expansie van het heelal duidelijk maken.

Uiteindelijk vertaalt dat zich weer in inzicht in nog onbewezen/onverklaarde delen van het standaardmodel van de deeltjesfysica.

Juist die link tussen de deeltjesfysica en het heelal verklaren de origine en funding van LSST door het 'Department of Energy, Office of Science'. De uitvoering voor dit department wordt gedaan door http://www.slac.stanford.edu/ (Operated by Stanford University for the U.S. Department of Energy Office of Science). SLAC National Accelerator Laboratory is onstaan in 1962 om de eerste grote deeltjesversneller te maken.

Bronnen:
Funding camera: https://www6.slac.stanfor...ves-funding-approval.aspx
Funding constructie werk: https://www6.slac.stanfor...rvey-telescope-begin.aspx
Bill Gates en anderen die hun steentje hebben bijgedragen: http://www.lsst.org/lsst/about/contributors
Info over LSST: http://www.lsst.org/lsst/public/learn
Dark Energy: http://en.wikipedia.org/wiki/Dark_energy
Dark matter: http://en.wikipedia.org/wiki/Dark_matter
Standard Model: http://en.wikipedia.org/wiki/Standard_Model
Hier zie je wat interessante nummers: http://lsst.org/scientists/keynumbers
waaronder: Data collected per 24 hr period = "about 15 TB"
Dat heeft een behoorlijke snelle data verbinding nodig omdat naar de aarde te seinen!

Edit: Summit (Pachón) to Base (La Serena) = 2 x 100 Gbps

[Reactie gewijzigd door sokolum01 op 1 september 2015 20:33]

Dat zal zeker een redelijke verbinding zijn, maar 2X 100Gbit/s is wel een beetje overdreven voor alleen dit.

Reken maar even mee:
15TB in 24 uur = 625 GB/uur
dat is dan weer 10,42GB/minuut
en dat is dan 173,6MB/s. Hiermee trek je dus 2 gigabit lijnen nog niet vol.

MAAR zoals ik uit Patrick_P zijn verhaal opmaak wordt er iedere 20 seconden een foto gemaakt. Die 15TB is dus niet verdeelt over 60 seconden, maar meer op drie punten in een minuut van een seconde maximaal ongeveer. Dit betekent wel dat je behoorlijk snelle opslag nodig hebt in je station (de "SD-kaart" van deze camera) aangezien een foto dan dus ongeveer 3,5GB zal zijn ( wat lokaal dus in een seconde weggeschreven mag worden).Dit zal zeker geen simpele SSD raid worden, maar een PCIe based enterprise oplossing, eventueel met RAMdisks.
NASA heeft een techniek LLCD die 625Mbps mogelijk maakt via optical communication van aarde naar de maan.
Gezien de afstand een stukje kleiner is zal de data rate misschien wel hoger liggen dan van en naar de maan.

op 625Mpbs zou 15 TB ongeveer 3,50 uur er over doen per 24 uur aan foto's

625Mpbs is nou niet een hele schokkende verbinding gezien TB's over licht op aarde al veel langer mogelijk is ;)
Ze gaan hem helemaal niet de ruimte inschieten..

http://www.lsst.org/about/tel-site
Klinkt allemaal leuk maar ik zou wel eens een raw foto van dit beestje willen zien.
Ik ben er van overtuigd dat dit niet veel soeps gaat zijn aangezien het glas simpelweg niet in staat is deze resolutie te leveren omdat er limitaties zitten aan het polijsten van het glas.

Vandaar dat lens bouwers ook steeds nieuwe camera lenzen uit brengen met betere polijsting.
en voordat mensen gaan roepen dat licht in fotonen werkt en dat soort onzin ga even googlen en je zal zien dat er review sites zijn die de effectieve resolutie van lenzen testen en dat er zelfs cannon demos zijn over nieuwe polijst methoden en dat deze meer resolutie kunnen leveren.

Hetzelfde zie je bij telefoon foto's. Hier word zulke zware sharpning overheeen gegooit omdat de foto zelf behoorlijk wazig is en dat komt door het miniscule lensje.

Nou is dit bakbeest stukken groter maar als je dat terugrekend naar de grootte van dslr lenzen komt je als ik het goed uitgerekend heb op veel meer pixels per vierkante cm lens uit dan een dslr die de laatste jaren al boven de mogelijkheden van een dslr lens zitten.

wat lees materiaal :http://www.dxomark.com/Reviews/Looking-for-new-photo-gear-DxOMark-s-Perceptual-Megapixel-can-help-you

Zolang je lens de details niet kan achterhalen heb je vrij weinig aan meer megapixels en zal je wazige objecten zien die details missen en heb je dus niks aan meer megapixels aangezien je hetzelfde zal zien als minder megapixels.

Word wel interessant met raw fotos van dik 3000 mb (grotendeels zwart) en voor foto's met meer kleur oplopend tot wel 6,5 GB per stuk.

Hoop dat ie snelle dataverbindingen en zeer grote opslag krijgt anders word het een foto per dag.

[Reactie gewijzigd door computerjunky op 1 september 2015 15:24]

Die lui bij NASA zijn natuurlijk allemaal onbenullen, die niet snappen dat je goede lenzen nodig hebt... 8)7

Hoewel de lens groot is, is dat geen belemmering voor goede plaatjes. Immers, de oppervlakte ruwheid kan volgens dezelfde specificaties als een DSLR gedaan worden, om dezelfde resolutie op de sensor te behalen. Met een f/1 lens, haal je dan de orde van de golflengte (0,5micon). Met een sensor van grofweg 0,5 meter, betekent dat 1 miljoen pixels in de diameter en dus 1 Gpixels op de oppervlakte. Netjes diffractie gelimiteerd ontwerp dus. Voor het Nyqueist criterium wil je dit nog verdubbelen, dus 4 GP...

En iets netjes polijsten is iets wat al sinds 100 jaar niet veranderd is... Grote lenzen zijn in dit opzicht eenvoudiger dan kleine lenzen! Het is gigantisch duur, maar "relatief" eenvoudig.

Verder hoeft je bij dit ontwerp geen rekening te houden met focus. Alles ligt zwaar in het oneindig. Grote objecten zijn er ook niet, het gros van de objecten blijven diffractie gelimiteerde punten. Lens abberatie zijn daardoor ook veel makkelijker achteraf te corrigeren. Het lens ontwerp is daardoor veel eenvoudiger dan bij foto camera's.
En iets netjes polijsten is iets wat al sinds 100 jaar niet veranderd is

weet niet waar je die wijsheden vandaan haalt maar er word juist continu vernieuwd als het om polijsten van lenzen gaat.

canon had hier een paar jaar geleden mooie filmpjes over en over de polijst compound die ze steeds heruitvinden om een nog fijnere polijsting te krijgen en nog betere scherpte.

Met de lenzen van 100 jaar geleden kan je echt geen 20 megapixel foto scherp krijgen tenzij je gaat downscalen naar een 10x15 natuurlijk.. maar op pixel level ziet het er niet uit.
Die wijsheid heb ik vanuit mijn werk. Ik ontwerp optica, en werk samen met een bedrijf die de lenzen voor mij slijpt. Ik weet dus heel goed hoe het polijsten van lensen gaat. En dat gaat voor het gros van de lenzen exact hetzelfde als tientallen jaren geleden. (Sterker, veel van de machines stammen nog gewoon uit die tijd, omdat er geen zier veranderd is!)

De reden dat lenzen tegenwoordig beter zijn is te danken aan snellere computers, die meer configuraties kunnen doorrekenen, en nieuwe exotische glassoorten. Het slijpen van de individuele elementen is nauwelijks verbeterd.

Het enige wat echt verbeterd is, is het slijpen van a-spheren, maar die worden nog steeds uiterst zelden gebruikt.
Het polijsten gaat hetzelfde maar de gebruikte compound en schijven zijn vele malen beter als tig jaar geleden en daar komt de gladheid vandaan niet van de techniek gebruikt.
Diffractie gelimiteerde systemen zijn niet zo moeilijk te maken. Amateur telescoop bouwers doen dit met de hand! Er van uitgaande dat je sensor een diameter van 0.5m heeft en de diffractie limit 0.1 arcsec is (de diffractie limiet van een 36inch telescoop) kom je uit op het equivalent van 132GPixel.
Je spreekt jezelf tegen:
Vandaar dat lens bouwers ook steeds nieuwe camera lenzen uit brengen met betere polijsting.
Klok, klepel verhaal?

edit: reactie op computerjunky, overigens

[Reactie gewijzigd door CamelKnight op 2 september 2015 14:24]

Hoe spreek ik mezelf tegen dan ?
Dat is wat ik vanaf het begin al zeg...
Kijk maar eens op DXO en je zal dien dat alle canon L II lenzen met de nieuwe polijsting een hoger effectiefe resolutie halen dan alle oude L lensen.

De polijsting (compound) is wat dit veranderd. de lezen zelf zulen ook veranderen maar dat is eerder om allerlij andere effecten tegen te gaan en scherpte over de gehele lens beter te maken ipv alleen in het midden..

zo kan je zien dat de 300 mm uit 1999 maar 17 megapixels efficiënt kan vullen terwijl de 300 prime uit 2010 al 21 megapixels efficiënt kan vullen.

http://www.dxomark.com/Le...non-EOS-1Ds-Mark-III__436

http://www.dxomark.com/Le...non-EOS-1Ds-Mark-III__436

Deze samples zijn op een 1Ds III die een limiet heeft van 21 megapixes aangezien de sensor niet meer pixels heeft haal je dus het volledige uit je sensor met deze nieuwe 2010 lens maar misschien haalt deze camera niet het volledige uit de lens.
Het voordeel is dat iedere foto tot op pixel level volledig scherp zal zijn mits je alles goed doet natuurlijk.
Cropping is dus een veel beter otie aangezien het gewoon scherp blijft daar waar je met de oude 1999 lens in feite het beeld op zou rekken en het dus wazig word.

bij de 5d MKiii haald de nieuwe lens ook nog het volledige van de sensor dus ook dit kan hij aan (ben zelf verbaast hoe goed deze lens is.

Helaas heeft dxo nog geen 5Ds of andere nog hogere mp camera om te kijken goe goed deze lens echt is maar dar er limieten zijn is duidelijk.
De 400 mm haald op de 5d iii net de 21 megapixels en lijkt dus tegen zijn limiet aan te zitten.
Al kan je 1 a 2 megapixels wel als foutmarge hanteren doormiddel van micro ajusts valt er nog het 1 en ander te verbeteren.

Zoals je in de gehele canon lineup zal zien zijn de blijven hangen met 1 uitzondering op 18 tot 22 megapixels en ik kan je dan ook wel vertellen wat hier de rede voor is.
De meeste lenzen kunnen het niet leveren en hoe leg je uit dat je duizenden euro's kostende camera's geen scherpe foto's maken ondanks dat je er lenzen aan hangt als pro die evenveel kosten als een volkswagen golf.

en ander grappig voorbeeld is dat op de peperdure nikon 810 met een wederom peperdure 400 mm lens uit 2007 je van de 34,5 megapixels maar 22 megapizels gevult krijgt wat betekend dat je behoorlijk wat moet downscalen om een volledig 100% scherpe foto te krijgen.
deze foto zal je dus ook nooit zonder zwaar editen scherp op groot formaat af kunnen drukken.

[Reactie gewijzigd door computerjunky op 2 september 2015 14:53]

Ik ben er van overtuigd dat dit niet veel soeps gaat zijn aangezien het glas simpelweg niet in staat is deze resolutie te leveren omdat er limitaties zitten aan het polijsten van het glas.
Volgens mij is het zo dat hoe groter de lens hoe kleiner de afwijkingen zijn, relatief gezien. En deze telescoop krijgt natuurlijk niet een lensje ter grootte van een cannon...
Overigens is de 'lens' niet van glas maar een stelsel van spiegels. Dit omzeilt het hele transmissie/dispersie verhaal waardoor sowiso al veel meer resolutie te halen is in een veel groter spectrum.
als je dichtbij fotografeert wel ja meer dat is hiermee juist niet de bedoeling.
Hoe verder je weg gaat hoe meer details je wil hebben en daarvoor moet je gewoon een goede lens/megapixel verhouding hebben.

Maarja misschien is nasa wel verder als cannon en nikkon en carl zeis zijn met het polijsten van hun lensen.
Zo ja nasa laat canon enz dit dan via patenten ook gebruiken :)


Voor degene die nog niet snappen waar ik op doel kijk even naar deze foto :

http://thumbs.dreamstime.com/z/glas-blokken-13276780.jpg

bedenk je nu dat op microscopisch nivo je lens er ook zo uit ziet en dus licht vervormt.
Des te gladder je dit krijgt des te scherper beeld je op de sensor projecteert en dus meer details krijgt.
@computerjunky:

Willen meepraten, maar geen van de 3 (!) genoemde merken, in één zinnetje bovendien, correct kunnen spellen ...

"Maarja misschien is nasa wel verder als cannon en nikkon en carl zeis..."

Sorry hoor, als Je Canon en Nikon als merknaam nog niet juist kan neerzetten (ook in je bovenstaande postings) is dat lichtelijk een doorn in het oog en komt dit sowieso bij voorbaat van weinig expertise te getuigen als dit op het netvlies van de snelle lezer valt...
Maarja misschien is nasa wel verder als cannon en nikkon en carl zeis zijn met het polijsten van hun lensen.
Je snapt het niet en je hebt blijkbaar mijn post ook helemaal niet gelezen of begrepen.
Die spiegelcomplexen zijn gigantisch groot (de grootste spiegel is meer dan 8 meter doorsnede) en dus zal dezelfde kwaliteit polijsten veel meer resolutie opleveren. De 'hobbeltjes' blijven even klein maar de lenzen zijn gewoon erg groot.

En, again, het gaat niet om glas (dat is wat nikkon en carl zeis doen), het gaat om metaal. Heel andere techniek die op zich al de meeste nadelen van transmissieve lenzen omzeilt. Dubbel win dus.
Leuk dus dat je naar een foto met glas linkt maar het slaat als een tang op een varken.

[Reactie gewijzigd door koelpasta op 2 september 2015 12:26]

De lens bestaat uit 3 lenzen en wordt hier beschreven in 2.6.1:
http://arxiv.org/pdf/0805.2366.pdf

Eerder is al aangegeven dat er naar verwachting 15 TB per nacht wordt verzameld dus dat zijn aardig wat kiekjes van 3 - 6,5 GB.
Gelukkig hoeft "computerjunky" niet overtuigd te zijn. De wetenschappers en diverse experts kunnen best zonder :)

Overigens stelt niemand dat ieder beeldpunt geresolved moet kunnen worden. Het is volstrekt gebruikelijk en noodzakelijk om zware post processing op astronomie foto's te doen. Het gaat er om dat je iets zichtbaar maakt.
Bestaat er dan een 'scherm' waar je zoveel detail op kan zien? Of hoe moet ik dit nou zien?
Dit zijn geen portret foto's met een dood leuk cameraatje.
Dit zijn foto's van planeten, sterren stelses etc. die op zo'n afstand liggen dat je ook gewoon veel licht op moet kunnen vangen wil je enigzins wat detail te pakken kunnen hebben.
Grotere sensor meer licht opvang meer detail en dan niet te vergeten een ontiegelijk grote lens.
Zal er een scherm zijn die zoveel resolutie wegwerkt? nee nu niet in de toekomst misschien wel misschien niet maar aangezien dit geen reguliere foto's zijn is dat ook niet echt de vergelijking die je moet zoeken.
De grootte van de sensor is totaal niet van belang voor de hoeveelheid licht. Het enige dat bepaald hoeveel licht je opvangt, is de grootte van de lens. En of je het dan op een kleine of grote sensor projecteert, is irrelevant voor de hoeveelheid licht die je opvangt.

De reden dat men hier voor een gigapixel sensor gaat, is omdat men niet alleen de sterrestelsels wil zien, maar ook de preciese afstanden t.o.v. van elkaar. (in boogminuten...) Dat is veel lastiger als je honderden beelden moet stitchen, dan dat simpelweg één groot beeld neemt.

Het is dus ook niet interssant dat er geen scherm is dat het kan weergeven... Men wil slechts exact kunnen meten hoeveel pixels ster 1 van ster 2 afstaat.
Een grotere sensor vangt wel degelijk meer licht op dan een kleinere sensor. Het heeft een grotere oppervlakte dus vangt het meer licht, net zoals een grotere lens meer licht doorlaat.
Dat is de standaard denkfout die alle leken maken...

Een sensor is geen zonnepaneel. Een grotere sensor zou alleen meer licht opvangen wanneer je 'm zonder lens in de zon legt. Maar dat gebeurd dus niet wanneer je foto's neemt... Er zit wel degelijk een lens voor. En die lens bepaalt voor 100% hoeveel licht er op de sensor valt.

Bij een grotere sensor hoort een grotere brandpuntafstand, om te zorgen dat je hetzelfde beeld op de sensor projecteert. Daardoor wordt het geprojecteerde beeld verder uitvergroot als bij een kleinere sensor. Het door de lens opgevangen licht wordt dus over een groter oppervlakte uitgesmeerd. De intensiteit wordt dus lager bij een camera met een grote sensor en dezelfde lensdiameter! Neem je een sensor met dezelfde hoeveelheid pixels, dan is de pixel weliswaar groter bij een groter sensor, maar de totale hoeveelheid licht die op de pixel valt, is exact gelijk.

Er zijn wel technische redenen om een grotere sensor te gebruiken, en dat is dat het op een gegeven moment erg lastig is om een lens met grote diameter en kleine brandpuntafstand te maken. Maar dat is puur een technisch productie probleem, en houdt geen verband met de opgevangen hoeveelheid licht.
Maar een grotere sensor laat wel een grotere pixel toe (voor hetzelfde #Mp), wat leidt tot een betere fill factor (omdat de metaalbanen gelijk blijven) en dus toch meer licht op de fotodiode valt.
Met microlenzen op de pixel kan dit verschil wel verminderd worden.
Vroeger was dit inderdaad een relevant verschil. Tegenwoordig, met gapless microlenses is irrelevant. Die microlenzen sturen het licht netjes langs de metaalbanen. Zolang de invalshoek op de sensor niet al te groot wordt, werkt dat dusdanig goed, dat je geen verschil meer ziet tussen fill-factor van grote of kleine pixels.

Bij DSLR's bijvoorbeeld is de invalshoek altijd klein genoeg, omdat de spiegel een minimale afstand tot de lens garandeert. Bij compact camera's zonder spiegel kan de hoek groter worden. Daarom dat ze daar back-illuminated sensors gebruiken... Dan is het probleem van de metaalbanen ook verdwenen, omdat die dan aan de achterkant van de sensor komt.

Het enige dat blijft, is dat grotere pixels meer electronen kunnen bevatten, en dus een groter dynamische bereik toelaten.
Microlenzen zijn niet perfect. microlenzen op kleine pixels zijn beter te maken dan voor grote pixels. Hoe groter de pixel hoe platter de microlens en hoe minder effecient ze is onder hoeken. Onder hoeken sturen de microlenzen het licht niet perfect naar de fotodiode en ook al niet voor alle kleuren. Hierdoor krijg je weerkaatsing, interne reflecties tegen oa. de metaalbanen en crosstalk. Bij grotere hoeken kan je dan microlenzen shiften naar de randen van de sensor zodat ze toch nog grotendeels focussen op de photodiode.
Het zou ook maar kunnen dat deze beeldsensor helemaal geen microlenzen zal bevatten. Deze pixel is 10µm breed.

Ik denk (lees: weet) niet dat BSI hier gebruikt zal worden. Hier zijn zeker ook nadelen aan gebonden zowel opto-elektronisch als de processing van de sensor. Ze willen tot 300nm gaan wat ook niet zo gemakkelijk is op BSI. BSI is vooral op de con-/prosumer cameras terug te vinden omdat daar de pixels klein moeten zijn en dus maximaal kunnen genieten van het verdwijnen vd metaalbanen.

Het licht dat op de voorkant vd sensor (glas) valt is idd gelijk, onafhankelijk van de sensoroppervlakte. alles daarna hangt af van de gebruikte technieken. Het uiteindelijke doel is elektronen creeëren van de binnenkomende photonen (quantum efficiency) en 'in het algemeen' is dit beter op 'grotere' pixels.

Anyway, de pixels/sensors die hier voor gebruikt zullen worden hebben (denk ik) weinig te maken met DSLR's e.d. Maar de LSST-mannen zullen wel weten wat ze doen en aangezien het één systeem dat niet zal veranderen kan alles zo perfect mogelijk worden op elkaar worden afgesteld om het beste resultaat te verkrijgen.
Het antwoord is hieronder al gegeven. "Meer licht" is een subjectieve term, want het kan binnenkomend licht betreffen of hoeveel licht (of beter gezegd lichtgevoeligheid) in de "pixels" eindigen.
Onzin. Er is niks subjectiefs aan. Dezelfde hoeveelheid licht komt door de lens, en dezelfde hoeveelheid licht valt op de pixels.
En met de huidige sensors is zelfs de effectieve fill-factor gelijk, dus dezelfde hoeveelheid licht wordt gedetecteerd.
Binnenkomend licht kan wel degelijk anders verdeeld worden over de pixels afhankelijk van sensor omvang gedeeld door het aantal pixels. Geen onzin dus.
Nee dus. Zoals ik in de andere posts al hebt uitgelegd, smeer je bij een grotere sensor het licht ook uit over een groter oppervlak. (andere vergroting) Maar de hoeveelheid licht voor het totale beeld blijft gewoon hetzelfde. Bij hetzelfde aantal pixels, blijft het aantal fotonen per pixel dus ook gewoon hetzelfde.

Dit is een basis principe in de optica, dat bekend staat als Etendue, ofLagrange invariantt. Het komt er op neer dat de hoeveelheid licht waarmee een beeld wordt opgebouwd, in een optisch systeem hetzelfde blijft, ongeacht de brandpuntsafstand van de lenzen. Alleen de pupil (diafragma) verwijderd licht, en bepaald daarmee de grootte van de Etendue. Alle lenzen daarna veranderen daar niets meer aan.
En voor de derde keer: ik heb het over het ontvangen licht vanuit de pixel gezien, niet vanuit het totaalbeeld (binnenkomend).
En voor de derde keer: Dat maakt geen zier uit. De hoeveelheid licht die de pixel ontvangt is exact gelijk! ongeacht of het een grote sensor met grote pixel, of kleine sensor met kleine pixels betreft. (Bij gelijk aantal pixels).

Je kunt een beeld vergroten of verkleinen met je objectief, maar de hoeveelheid licht waarmee het beeld, en dus ook de individuele pixels, is opgebouwd veranderd niet. Je kunt het beeld heel klein projecteren, en van heb je een beeld met zeer hoge intensiteit. Je kunt het groot projecteren, en dan heb je een beeld met lage intensiteit. Maar de hoeveelheid licht blijft gewoon hetzelfde.

Als je de kraan open doet, en het water voor 1 seconde laat lopen, dan heb je dezelfde hoeveelheid water in je emmer, ongeacht of je een grote of kleine emmer onder de kraan zet. Bij een emmer met grote diameter, staat het water lager, (lage intensiteit) bij een emmer met kleine diameter staat het water hoger. (hoge intensiteit). Maar de hoeveelheid water is gewoon gelijk. En als ik de emmer opdeel in 10 stukken, blijft dat natuurlijk gewoon gelden.

De kraan is de lens van je systeem. De emmer de sensor.
Het is de kraan die bepaald hoeveel water er in de emmer komt. Het maakt daarbij niet uit of de emmer een grote of kleine diameter heeft.
Ik houd ermee op, dit is volstrekt zinloos als je vooral jezelf wilt horen.
Misschien kun je eens beginnen met daadwerkelijk te lezen wat ik schrijf... dan leer je wellicht iets.
Een pixel met een emmer vergelijken gaat enkel op voor simplistische vergelijkingen. De emmer bevat gaten, heeft geen waterdichte behuizing, een 'net' erorver, trechters die niet perfect zijn het water spettert ...
@AHBdV


exact?... hoezo exact?

hier maak je wel een vrij grote assumptie, namelijk dat de lens het beeld niet vervormd alvorens het op de sensor valt.

De grootte van de sensor is dus wel degelijk van belang, gezien lenzen nooit 100% perfect zijn.
Een grotere sensor betekent relatief minder vervorming door de lens, en het is een stuk goedkoper om een grotere sensor te fabriceren dan om een nauwkeurigere lens te maken.

[Reactie gewijzigd door Ayporos op 1 september 2015 16:52]

exact ja.

Bij telelenzen waarover we hier spreken (een telescope is een telelens...) is de vervorming totaal geen probleem. Neem een willekeurige fotografie teleprime, en de vervorming is gewoon onzichtbaar. Alleen in metingen kun je het überhaupt aantonen, en dan krijg je waarden als een half procent... En dat schaalt niet met de brandpuntafstand!

Alleen bij groothoek lenzen krijg je significante vervorming... En zelfs daar geldt dat die vervorming hoofdzakelijke bepaald wordt door de beeldhoek van de lens, en niet de absolute brandpuntafstand. En die beeldhoek is gelijk voor kleine en grote sensor.
Ah dat wist ik niet!

Ik ging er van uit dat de vervorming kwam door oneffenheden op het lensoppervlak die de lichtbreking verstoren of de imperfecte bolling van de lens, maar dat is dus naar jou zeggen ruim binnen de marges zodat eventuele vervormingen/imperfecte lichtbreking lichtstralen niet buiten de marges van een sensor pixel vallen?

Dus groothoek lenzen hebben er wel meer last van? En je hebt het hier over primes, ik ga er dan van uit dat zoom lenzen er dan ook meer last van hebben wegens meer lenselementen?
Daar had ik even geen rekening mee gehouden maar dat is idd ook een hele goede toevoeging, dank je wel.
Een simpele 18 megapixel foto is al 5184 x 3456.
Er zijn ook nog een monitoren (voor de consument?) die die resolutie aan kunnen hoor. Maar mijn camera heeft er weinig moeite mee.
Zal wel niet helemaal de juiste verhouding zijn maar de wortel van dat aantal pixels (3200 MP) zegt mij 56.568 X 56.568. Echt gigantisch veel meer dan de 5184 x 3456 van onze consumer camera's.

Mocht deze camera in dezelfde mate van details opslaan als consumercamera's dan zou een RAW image 4,3GB per stuk worden op deze resolutie. En dan te bedenken dat het maken van een foto slecht 2 seconden duurt.

[Reactie gewijzigd door procyon op 1 september 2015 15:49]

Het ging mij er om dat er nu ook niet zomaar monitoren te koop zijn die resoluties hanteren waar een beetje kwaliteitscamera mee werkt.

Dus dat die mega-camera foto's maakt die niet op 100% volledig in beeld passen verandert niks aan de huidige situatie.
En dan ook nog die hoeveelheid data naar de Aarde zien te pompen...
Naar de aarde? Dit ding staat al op de aarde en zal deze (waarschijnlijk) nooit verlaten ;)
Oeps, ik ging er eigenlijk vanuit dat het een satelliet zou worden. Zonde, nu krijg je 'vervuiling' van de atmosfeer...
Ik denk als leek dat het vooral meehelpt bij het inzoomen in die plaatjes met de detail daarbij.
Dit kan je bijvoorbeeld zien bij een eerder bericht van Tweakers in 2012:
nieuws: Technici bouwen compacte gigapixel-camera
Ze gaan de beelden echt niet met het blote oog onderzoeken. Computers analyseren de beelden om bewegingen en veranderingen in golflengte/lichtintensiteit etc. te vinden. Hoe scherper het beeld, des te 'verder' je kan kijken. Dat je er ongelooflijk scherpe kiekjes van het heelal mee kan schieten is leuk meegenomen natuurlijk.

[Reactie gewijzigd door Maruten op 1 september 2015 15:25]

Klopt, ze vermoeden dat er veel planeten mee gevonden gaan worden. Een concurrent c.q. opvolger voor Keppler.

Een voorbeels van een 1.5 gigapixel foto met wat zoomwerk en filmpjes kan je hier vinden
Je kan inzoomen op een stuk van het resultaat :)
Inzoom mogelijkheden :+ En het gaat dan ook voornamelijk om het totaal plaatje en waar je dan zou in kunnen zoomen(lijkt mij) Maar dit zijn woorden van iemand die er geen verstand van heeft :+
Dit zal vooral nuttig zijn om verder in te kunnen zoomen zonder dat het snel onscherp wordt. Zo kun je dus meer details zien. Het is inderdaad niet bedoeld om op één scherm te laten zien, dat gaat nooit passen.
20 megapixel, laat staan 12 megapixel past al niet compleet op een regulier scherm.
Van een foto genomen met een 20 megapixel camera kan ik de muur van me kamer al behangen in volwaardig detail..... |:(
Succes, met dat gaat je niet lukken met 20 mp. Overigens, megapixels staan niet gelijk aan kwaliteit.
Dat heb ik nooit gezegd of wel? lezen blijft lastig
Ik fotografeer trouwens met een Sony A7k ;)

En jij weet niet hoe groot de muur van me kamer is... misschien bedoel ik me hobby kamer, dit krijg je dus met aannames 8)7

[Reactie gewijzigd door kniftagstuh op 1 september 2015 16:37]

Met 20MP haal je net 50 bij 60 cm qua oppervlakte. Ik weet inderdaad niet hoe groot jou muur is, maar ik mag er vanuit gaan dat die groter is dan dat.

Tja, dat krijg je met aannames. Misschien de volgende keer eerst zelf even narekenen wát je zegt? 8)7 ;)
Ok redelijke poster op me muur plakken :P

Ondanks dat trouwens je zou hem alsnog groter uit kunnen printen maar dan moet je kijk afstand vergroten (billboard idee al word een billboard wel met een fullframe met ongeveer 36MP tot 51MP geschoten) maar dan is het de optilusie. Dat is meer waar ik op doelde maar idd beetje verkeerde woordkeuze.

[Reactie gewijzigd door kniftagstuh op 1 september 2015 16:59]

Dit heeft vooral te maken met het waarnemen van bijvoorbeeld sterren op enorme afstanden.
Op huidige foto's stelt één enkele pixel soms een ster voor. Uit de verschillende sterktes van licht (door verschillende filters te gebruiken) wordt veel informatie onttrokken over de ster. Hoe hoger de resolutie, des te betrouwbaarder de informatie.
Volgens mij is het de bedoeling dat je zoveel mogelijk van de sterrenhemel tegelijk fotografeert. Dus op het moment dat je asteroïde tegenkomt, of een explosie, dat je dan een kans hebt dat je een oude opname er bij kan pakken om te kijken wat de route is. Of wat voor type ster het was.
Deze foto's zullen bij het onderzoek niet in zijn geheel bekeken worden maar waarschijnlijk per ster/sterrenstelsel. Hierdoor zal er dus ver worden ingezoomd op de foto's waardoor de resolutie van het scherm een heel stuk lager kan zijn dan die van de foto en toch gebruik maakt van de enorme resolutie van de foto. De details van de hemellichamen zullen dus veel beter zichtbaar worden. ;)
Bestaat er dan een 'scherm' waar je zoveel detail op kan zien? Of hoe moet ik dit nou zien?
uit het artikel gehaald:

De camera en de Large Synoptic Survey Telescope moeten voor beelden van het heelal met enorm veel detail zorgen. In 2022 moeten de eerste digitale afbeeldingen vastgelegd worden. Gedurende een periode van tien jaar detecteert de telescoop tientallen miljarden objecten.

Kortom ze zullen pas vanaf 2022 deze afbeeldingen digitaal hebben en ik neem aan (hoewel aannames dodelijk kunnen zijn) dat ze tegen die tijd al hardware hebben die geschikt is in het tonen van dit soort high quality pics.
Redelijk irrelevant want het menselijke oog gaat nooit 3.2 gigapixel zien. Het gaat erom dat je in één keer met heel groot detail stukken van de hemel kan vastleggen. Sowieso gaat dat eerst nog door algorithmes heen voordat iemand het ziet, en dan kan je ver inzoomen zonder dat je beperkt wordt door je pixels.
Een snelle Google en je hebt je antwoord, maar misschien handig om te vermelden waar (en waarom) de telescoop gebouwd gaat worden?
Dat staat er toch?
Analyse hiervan moet onder andere informatie opleveren over het vormen van sterrenstelsels en over asteroïden die op ramkoers met de aarde liggen. Daarnaast wordt informatie verzameld over exploderende sterren en worden van asteroïden gevolgd.

[Reactie gewijzigd door S_Chief op 1 september 2015 15:02]

Van de officiële site:
The Large Synoptic Survey Telescope

The LSST is a new kind of telescope. Currently under construction in Chile, the LSST is designed to conduct a ten-year survey of the dynamic universe. LSST can map the entire visible sky in just a few nights; each panoramic snapshot with the 3200-megapixel camera covers an area 40 times the size of the full moon.

Images will be immediately analyzed to identify objects that have change or moved: from exploding supernovae on the other side of the Universe to asteroids that might impact the Earth.

In the ten-year survey lifetime, LSST will map tens of billions of stars and galaxies. With this map, scientists will explore the structure of the Milky Way, determine the properties of dark energy and dark matter, and make discoveries that we have not yet imagined.
These parts of the LSST system will produce
the deepest, widest, image of the Universe:

• 27-ft (8.4-m) mirror, the width of a singles tennis court

• 3200 megapixel camera

• Each image the size of 40 full moons

• 37 billion stars and galaxies

• 10 year survey of the sky

• 10 million alerts, 1000 pairs of exposures,
15 Terabytes of data .. every night!
Laatste alinea. Of is dat er net pas bij gezet?
In welk opzicht is de survey van LSST anders dan die van de Gaia spacecraft??
https://en.wikipedia.org/wiki/Gaia_%28spacecraft%29
Gaia is in de ruimte, for starters.
I mis de informatie in het artikel maar de LSST kan niet vliegen.
Jazeker, ofwel door een downscaling ofwel door cropping.
Heel lang geleden had men al camera's ter grootte van een kleine auto:

[img]http://forums.macrumors.c...format-camera-png.214626/[/img]

[img]http://2.bp.blogspot.com/.../s1600/Camera+lama_01.gif[/img]

[Reactie gewijzigd door MadButcher op 1 september 2015 18:32]

Met een simpele google zoekopdracht vind ik er al meerdere. Nasa deelt ze overigens zelf ook.

Waarom jij ze niet te zien krijgt? Misschien ben je niet lief geweest :+

Edit: Vooruit dan. Eerste google resultaat, high res afbeeldingen van de maan. Vergeet wel niet even de tiff files van paar honderd MB per stuk te downloaden anders heb je nog 'wazige' afbeeldingen.

http://sservi.nasa.gov/LOIRP/loirp_gallery/

[Reactie gewijzigd door NightFox89 op 1 september 2015 16:01]

Misschien niet helemaal on-topic maar hoe versturen ze die giga foto's die gemaakt worden van zo'n orbiter weer terug naar de aarde!? Waar bovenstaand apparaat komt te staan is niet zo moeilijk om te bedenken, je knalt wat servers op hun plek en schieten maar. Met deze (mijns inzien) stevige grootte per foto lijkt mij dat ze niet zo maar een foto maken van wat er ook interessant mag zijn in de ruimte!
Dan snap ik je vraag niet :S Het zijn high res foto's van het oppervlakte van de maan?

Of jij wilt een optische zoom tot op het maanoppervlakte vanaf de aarde? Want zover ik weet is dat technisch gezien onmogelijk door o.a. de atmosfeer van de aarde.

Overigens: leuk dat je de hele ruimtevaart branche even reduceert tot: "Dat stelt niets voor".
Even een concrete vraag, wordt dit nu de Hubble vervanger of welke was dat?
Een van de opvolgers van de Hubble is de James Webb ruimtetelescoop (wordt gelanceerd eind 2018): http://www.jwst.nasa.gov/

Maar ik denk dat je die niet moet zien als "de vervanger van". Voor zover ik heb begrepen willen de de Hubble zo lang mogelijk gebruiken, en zijn grondtelescopen ook veel beter geworden de afgelopen jaren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True