Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 132, views: 39.816 •
Submitter: dsibma

De foto met de meeste pixels ter wereld is een panorama van Boedapest. De 70-gigapixelafbeelding is door een Hongaars team gemaakt met twee 25-megapixelcamera's van Sony. Het vorige record stond op 45 gigapixel.

Panorama BoedapestDe twee Sony Alpha A900-camera's werden uitgerust met 400mm-lenzen van Minolta met  1,4x-teleconverters. Het geheel werd door het Hongaarse 360World-team op een zelfgebouwd statief geplaatst. Het team schoot in twee dagen de foto's waaruit de uiteindelijke afbeelding werd samengesteld. Het resultaat was een reeks raw-foto's met een totale bestandsgrootte van 40GB.

Na postproductie met Autopano Giga leverde dat een Autopano KRO-bestand van 200GB op. Verdere bewerking resulteerde in een foto van 590508x120750 beeldpunten, oftewel 71,3 gigapixel. Om zover te komen moest een Dell Precision T7500-werkstation 55 uur achter elkaar werken, en het uiteindelijke bestand was een ppm-bestand van 350GB. De Hongaren hebben van de foto een printje van 15 meter bij 1,5 meter gemaakt.

Het vorige record was een 45-gigapixelfoto van Dubai, die in mei van dit jaar werd samengesteld. Daarvoor was een 26-gigapixelfoto van Parijs recordhouder, die op zijn beurt een 18-gigapixelexemplaar van Praag afloste.

Boedapest

Reacties (132)

Reactiefilter:-11320129+180+27+31
Maar ik zie daar 2 camera's, dan vraag ik me af waarom ze er geen 3D pano van gemaakt hebben...
De meeste objecten die je ziet op die panorama's zijn tientallen of honderden meters ver weg, dan heeft een 3D opname erg weinig effect.
Dan is de enige verklaring waarom ze twee camera's gebruikt hebben het sneller kunnen werken.
Daar tegenover staat dat ze verder uit elkaar staan, en je juist meer 3D effect hebt dan met een typische interoculaire afstand.
( neemt niet weg dat Soldaatje de reden waarschijnlijk juist heeft )
Met meer afstand zal het onherroepelijk onrealistisch worden. Met dit soort afstanden zie je met je ogen ook geen 3D meer op dezelfde manier als in dichtbijgelegen scenes. Met dit soort afstanden doen je hersenen bijna al het werk om diepte in te schatten.
niet echt 'onrealistisch'... meer het effect wat je krijgt als je door een verrekijker kijkt. Dat is ons mensen in het dagelijks leven ongewoon, maar onrealistisch is anders wat :)
(imho)
3D? Waarom geen legpuzzel voor extreem gevorderden? :+

Ook grappig: de spnsoren hebben hun eigen logo's op een paar reclameborden geplaatst op het dak van wat gebouwen. Allemaal naast elkaar. Het is even zoeken, maar dan heb je ook wat.

[Reactie gewijzigd door magel725 op 30 juli 2010 19:47]

en een erflandgoed van een aantal hectare om het bij windstille dag op neer te gaan leggen :)
Op deze manier is ''Find Waldo'' bedoelt.. 15 bij 1.5 m :D
Die Dubai foto is in dat opzicht wel leuk, (als ik de goede in mijn hoofd heb) met o.a. verstopte Ferrari/Lambo/superauto :)

[Reactie gewijzigd door mr.paaJ op 30 juli 2010 21:29]

Die sponsoren lijken meer gephotoshopt. :+
3D panorama kan niet zonder daadwerkelijke diepte. Je zou belachelijke vervormingen krijgen. En koppijn, waarschijnlijk.
Ik zie 2 camera's en vraag me af of je het wel 1 foto kunt noemen. De luchtfoto van Google maps groter. Die is met meerdere camera's over meerdere dagen gemaakt en aan elkaar geplakt.
Mischien dat ze twee foto's boven elkaar plakken, dan is het wel makkelijk als je die tegelijkertijd neemt (anders moet je je camera niet alleen draaien, maar ook omlaag en omhoog richten).
Wow, dat is inderdaad een forse resolutie, maar merk je daar qua kwaliteit ook nog iets van? Zijn die details die je met zo'n resolutie wint op die foto nog wel zichtbaar voor het menselijk oog?

Is deze foto overigens ook ergens te downloaden voor het publiek, of is hij alleen beschikbaar voor wetenschappers oid?
betwijfel het, 1: je pc gaat de grootste moeite hebben met het laten zien, 2: hun server/bandwith gaat dan per download 3x over het maandbudget heen :P (hoewel p2P hier de oplossing zou kunnen zijn, hoewel 350 gig in 1x dan wel het allergrootste bestand is dat ik ooit op een p2p site of programma heb gezien..)
op HD (video) torrentsites gaat het dikwijls over de 500GB heen met bleu-ray season packs. alle bleu-rays van de serie rome is al een haartje onder de 500.... }:O
dat is wel zeeer veel. Ik keek eens op TPB en zag dat het grootste torrentbestand daar 359.1GB groot was.
Ik denk dat je dat fout ziet. Een blu-ray rip is toch 30~50GB per disc, meestal zijn season-packs veel discs, of het nou DVDs of blu-rays zijn. Er past misschien meer data op een blu-ray, maar dat wordt gebruikt voor kwaliteit en niet om alle afleveringen op 1 schijf te krijgen.
Op een A4-print zal je niet zoveel details zien natuurlijk.
Op die site kan je op de foto inzoomen dus dan zie je het volle detail.
Op die site kan je op de foto inzoomen dus dan zie je het volle detail.
En dan zie je gelijk ook dat de toegevoegde waarde qua detail niet echt geweldig is.
Ofwel de lenzen of de atmosfeer zijn de beperkende factor, of de boel stond niet helemaal stil, want ik vind het nu niet echt geweldig scherp.
IMHO zou de pixelcount ook een factor 3 - 4 minder kunnen zijn zonder detail te verliezen.
Inderdaad, als de zoomslider ongeveer in het midden zit heb je al maximaal detail. Zoom je nog verder in dan wordt het alleen opgeblazen. Maar dat is nog altijd genoeg voor dat printje van 15x1.5m dat ze gemaakt hebben :)
Het resultaat is niet geweldig scherp, omdat ze dingen op zeer grote afstand fotograferen. Dan gaat het atmosfeer tellen en vooral door warme, opstijgende lucht gaan details op die afstand visueel lichtelijk trillen/golven. Jeweetwel, zoals je op hete dagen boven het asfalt kan zien, maar dan een stuk miniemer - echter voldoende voor onscherpe details op deze tele-afstand.
Ze hadden geen sceneries met deze tele-afstanden moeten gebruiken voor zoiets. Dingen die iets dichterbij zijn zouden ook prima voldoen (die hebben ook hun details up close).
LEZEN

ze hebben ze afgedrukt op 15m bij 1.5m
Dat ze hem hebben afgedrukt wil nog niet zeggen dat hij wel of niet te downloaden is, het een sluit het ander niet uit hoor...

Er word weliswaar een site gelinked, maar het is niet duidelijk of de foto daar te downloaden is, en daarnaast is die site volledig onbereikbaar.

Zou hem wel graag willen hebben, maar 40 GB, dat trekt hun upload waarschijnlijk niet helemaal...
hij zaagt over details kunnen zien, dat heeft nix met downloaden te maken, want dan kan je elke pixel tot een tennisbal uitvergroten

40GB was de raw data, hetgeen je van hen kunt downen is 350GB
Zijn die details die je met zo'n resolutie wint op die foto nog wel zichtbaar voor het menselijk oog?
rekensommetjestijd!
590508x120750 beeldpunten
De Hongaren hebben van de foto een printje van 15 meter bij 1,5 meter gemaakt.
Oeps. Dan hebben ze dus een crop geprint, want die verhoudingen zijn anders.

1 meter = 39.3700787"

Gaan we maar van de breedte uit.
15 meter = 590.551181"
590508 'dots' / 590.551181 inch = 999.92688 dots per inch
verschil 900 dpi vs 600 dpi is nog wel aardig te zien (in een vergelijkende test), dus op zich moet dat kunnen als je een 1000dpi printer of beter tot je beschikking hebt.

Als de vraag echter is of je de gehele foto in je blikveld kan hebben -en- het detail nog tot op de pixel kan zien... vergeet dat maar :)
dus op zich moet dat kunnen als je een 1000dpi printer of beter tot je beschikking hebt.
En die hebben ze natuurlijk. Allereerst zal het wrs niet echt geprint worden zoals wij dat doen met een kleurenlaserprinter, maar met iets professionele druk-apparatuur. Ten tweede mag je er vanuit gaan dat als ze een 71GP foto kunnen verwerken, ze ook vast wel geld hebben om het af te (laten) drukken ;)
Tja, de hema accepteerd tenslotte foto's van deze grootte niet.

Maar het verwerken gebeurd met redelijk standaard PC apparatuur. Dus daar zitten de kosten niet. Grote printers is een heel ander vakgebied.
Het grootste probleem is dat de gebruikte lenzen met teleconverters niet voldoende oplossend vermogen hebben om de gevraagde resolutie mee te kunnen fotograferen. Je kan, bij wijze van spreke, net zo goed een scherpe foto van 10 gigapixel softwarematig opblazen naar 70 gigapixel en dan heb je dezelfde kwaliteit.

Het probleem zit hem in de maat van de sensor en de kwaliteit van de lenzen. Er zijn bijna geen 35mm-lenzen die daadwerkelijk oplossend vermogen genoeg hebben om 25 megapixel sensoren te voorzien van voldoende scherp beeld. Zet daar ook nog eens 2x converters tussen en je bent, naar mijn mening, gewoon aan het klooien.

Die foto's bevatten ONMOGELIJK meer informatie dan als dezelfde foto gemaakt zou zijn met een 8 megapixel camera met dezelfde lenzen. Daarmee komt het "record" dus uit op ten hoogste 22 Gigapixel.

Jammer, Hongarije, eerst maar eens verder studeren. Dit was een "Major Fail".

[Reactie gewijzigd door Exploited op 30 juli 2010 22:02]

u zegt "er zijn bijna geen 35mm-lenzen", dwz dat er toch enkele zijn. aangezien dat ze het geld hebben om zo een project te betalen denk ik dat ze ook geld hebben om zulke lenzen te betalen.

edit: btw, volgens mij werken ze met 400mm lenzen.

[Reactie gewijzigd door 2Silent op 30 juli 2010 22:37]

De lenzen die ze gebruikt hebben zijn cheapies.
Ze hebben helemaal niks betaald, alles is gesponsord. Microsoft voor de server ruimte voor de webpagina en de verwerking, Sony voor de camera's en de lenzen, Epson voor de printer.

Hun webpagina heeft ook een leuke video over hoe het gemaakt is, en de tekst is ook wel interessant (erg commercieel, weliswaar).

[Reactie gewijzigd door DM.Aram op 31 juli 2010 13:29]

Qua sensor overkill heb je een punt, als was het natuurlijk wel de opzet om zo veel mogelijk gigapixels te verstoken.

Of je met betere lenzen meer detail had bereikt is nog maar de vraag, bij zoveel detail op zulke grote afstanden gaan stof, luchtvervuiling (nogal een issue in Hongarije) en trillende lucht (warmte) waarschijnlijk de beperkende factor zijn, daar doe je met de beste lens van de wereld niks aan.
De maat van de sensor is niet van belang. De foto's worden gestitched, dus of je nu 1 grote of 4 kleine foto's hebt, uiteindelijk wordt het 1 supergrote foto. In het artikel staat overigens dat het een 1,4x converter is, geen 2x. Het zijn dedicated converters op een toplens. Geef eens een voorbeeld van een combinatie die beter presteert? De gebruikte apparatuur is de beste die je kunt krijgen, zonder de bank te moeten overvallen.
Die foto's bevatten ONMOGELIJK meer informatie dan als dezelfde foto gemaakt zou zijn met een 8 megapixel camera met dezelfde lenzen.
Nogal een sterke stelling... Ik denk dat gebruiker_nr_1 hier iets heel zinnigs over zegt, jammer dat zijn opmerking niet wat hoger gewaardeerd wordt:
De maat van de sensor is niet van belang. De foto's worden gestitched
Bingo! De 70Gigapixel bevat dus wel degelijk veel meer informatie als de losse 8MP foto's. Je kunt zelfs zeggen dat hij n keer het aantal van n losse foto bevat, waarbij n gelijk is aan het aantal foto's dat in de giga-foto is opgenomen.
Het probleem zit hem in de maat van de sensor en de kwaliteit van de lenzen. Er zijn bijna geen 35mm-lenzen die daadwerkelijk oplossend vermogen genoeg hebben om 25 megapixel sensoren te voorzien van voldoende scherp beeld. Zet daar ook nog eens 2x converters tussen en je bent, naar mijn mening, gewoon aan het klooien.

Die foto's bevatten ONMOGELIJK meer informatie dan als dezelfde foto gemaakt zou zijn met een 8 megapixel camera met dezelfde lenzen. Daarmee komt het "record" dus uit op ten hoogste 22 Gigapixel.
Dit is gigantische onzin.
Ga in een willekeurig foto forum kijken en je zal ontelbare praktijkvoorbeelden zien dat een 25MM FF sensor veel meer detail in een foto geeft dan een 8 MP camera met dezelfde lens.
Dat is gewoon een keihard feit dat zo algemeen bekend is bij fotografen.
Hier kan je de praktijkvoorbeelden goed zien:
http://pixinfo.com/cikkek/dslr_evolution.3
De tekst is hongaars, maar de testvoorbeelden spreken voor zich. Vergelijk de 8MP 20D maar eens met de 18MP 7D. De 7D geeft veel meer detail.

Er zijn ook stapels FF lenzen die ruim voldoende oplossend vermogen geven. JUIST de supertele lenzen behoren tot die categorie. (omdat het veel makkelijker is om een supertelelens te maken met een hoog oplossend vermogen.
Verder wordt er geen gebruik gemaakt van 2x converters maar van 1,4x converters.

Ik kan die specifieke Sony lenzen niet, maar bij een zeer betaalbare Canon 400mm 5.6 L prime is het met een 25MP FF sensor zeker de moeite waard om er een 1,4x converter op te zitten.
Er zijn dan ook ontelbare "birders" met een 1D camera die die combinatie dagelijks gebruiken.

Als je echter een 400mm 2.8 L zou gebruiken dan is een 2,0x converter ook geen enkel probleem, gewoonweg omdat die lens zo'n gigantisch oplossend vermogen heeft.

Nee, het probleem ligt 'm niet aan de hardware.
Zoals ik al eerder verderop in de thread heb aangegeven ligt het probleem in de kennis van de fotografen. Met supertelelenzen moet je uitkijken dat atmosferische omstandigheden de boel niet verpesten. Opstijgende warme lucht zorgt er voor dat je beeld niet meer scherp is en rechte lijnen gaan golven.
En dat is wat hier is mis gegaan.

[Reactie gewijzigd door mjtdevries op 31 juli 2010 09:59]

Ik denk het niet. Je ogen zitten wat ingewikkeld in elkaar maar bevatten zo'n 7 miljoen kegeltjes, dat zijn de cellen waar je scherp en in kleur mee kan zien. Die zijn niet homogeen over je netvlies verspreid, je ziet met het midden veel scherper dan met de zijkanten. Je hersenen passen onder andere de techniek uit het artikel dan ook toe om een algemeen scherp beeld te krijgen, waarbij minder interessante dingen wat minder vaak bijgewerkt worden.

Je hebt daarnaast ook nog iets van honderd miljoen staafjes maar daar kun je geen kleur mee zien n niet heel erg scherp.
cool :) waar gaan ze het ding ophangen? ergens in een museum in Budapest neem ik aan :) ben benieuwd hoe lang het duurt voordat er weer iemand is diet nog een grotere weet te bouwen.. ik vraag me af of bijvoorbeeld NASA niet ook mee moet doen met n megafoto van de ruimte ofzo..

offtopic:
the phunnyness is killing me!
NASA maakt ook mooie pics, maar NASA heeft veel meer aan wat de Hubble doet. Die kan nml extreem ver inzoomen, en kan een extreem lange sluitertijd instellen (minuten, uren, dagen, weken). Een hoge resolutie is fijn voor astronomisch onderzoek, maar verder kunnen inzoomen is daar (voor dit doel) zo goed als equivalent aan.
Inzoomen met de Hubble?
Kom nou, Hubble is een spiegeltelescoop, in principe zoiets als dit. Fixed focus dus, 57.6 meter brandpuntsafstand, diameter 2.4 m, dus f/24. Verrassend weinig lichtsterk eigenlijk.
denkt echter niet dat je een 57600mm lens met een nette f/1.4 zo de ruimte inknalt... :Y)
Voor een spiegeltelescoop is dat een behoorlijk groot diafragma juist, oftewel een vrij korte brandpuntsafstand vergeleken met de diameter. Hiervoor zijn evidente redenen.
Inzoomen met de Hubble ja, anders zou je nooit dit soort mooie pica's kunnen krijgen, toch? ;)
Denk dat een dergelijke foto van de ruimte ondoenlijk is, gezien de aarde continue in beweging is.
Sterker nog, bij 20-30 seconden sterrenhemel vastleggen met een DSLR zijn sterren al zichtbaar als korte streepjes in plaats van puntjes.
Daarom is er de Hubble ;)
Dat komt omdat de aarde om zijn as ronddraait (maak maar een foto van de poolster, alle streepjes zijn rondjes om de poolster, waarbij die op de zelfde plek in de hemel staat). Als jij een satelliet in een tegengestelde baan om de aarde hebt (dus in 24 uur een rondje maakt, maar dan de andere kant op) dan kun je makkelijk fotos maken met lange shuttertijden.

Beweging van de zon en aarde maakt dan ook niet uit want die afstanden zijn te insignificant om parallelle bewegingen te zien (150 10e6 km tussen aarde en zon of 220 km/s van snelheid van zon, in tegenstelling tot de afstand tot de dichtsbijzijnde ster ~4 10e13 km).
Dat de camera rondjes draait om de aardas maakt voor het fotograferen van de sterren niet uit, omdat je terecht opmerkt dat de afstanden in verhouding zo veel verschillen. Van belang is dat je de camera dezelfde kant op blijft richten en niet om zijn as draait.

De draairichting van satellieten is echter ook onbelangrijk. Een satelliet in een geostationaire baan draait in 24 uur een rondje om de aarde met de aarde mee, als je op dezelfde hoogte de andere kant op draait dan moet je nog steeds in 24 uur om de aarde heen en zie je dus alles 2x per etmaal onder je door trekken. Zoals gezegd, alleen de orientatie is belangrijk.
Als je zegt een satelliet die tegengestelde rondjes draait, in welke frame of reference bedoel je dat dan? Een satelliet in geostationaire baan maar tegenovergestelde richting draait iedere 12 uur om de aarde heen (eentje die hij zelf doet per dag en eentje die de aarde onder hem door draait) en is vanui de zon gezien niet makkelijker of moeilijker kwa ruimtefoto's nemen dan een gewone geostationaire satelliet. Een satelliet die vanuit de aarde gezien in 24 uur terugdraait zou vanuit de zon gezien stil moeten hangen. Dan heb je het dus over een satelliet die in een van de Lagrange punten moet hangen. Dat kan, maar het is moeilijk meer te beschrijven als een baan..
Aan de domeinnaam te zien wordt gebruik gemaakt van de clouddiensten van Microsoft. Ik wist dat T.net de cloud ging belichten, maar ik weet niet of MS blij is met deze publiciteit.

Wat ik dan weer zo ontzettend jammer vind, is dat het plaatje getoond wordt in een div van 500 pixels hoog. Als je achtereenvolgens
javascript:alert($("#hdvDiv").height(1500));
en
javascript:alert(hdv = new hdvHost("hdvControl", "hdvDiv", "100%", "1500px", top.location.href, args));
in de adresbalk typt, kun je hem wel normaal bekijken :)

[Reactie gewijzigd door GlowMouse op 30 juli 2010 18:01]

Eerste javascript werkte leuk, bij de 2e was ik de foto kwijt.

Edit: Duurt weer een tijdje voordat hij geladen is. Nice script:)

[Reactie gewijzigd door Remz op 30 juli 2010 18:04]

Rechtsboven op de pagina staat dat dit project gesponsord wordt door Microsoft. Ook wordt er gebruikgemaakt van Silverlight voor het streamen van de foto, zodat alleen de gedeeltes die nodig zijn gestuurd worden.

Het is misschien gemakkelijker om op de fullscreen-knop te drukken, als je de foto volledig in beeld wilt hebben. ;)

[Reactie gewijzigd door gamepower2005 op 30 juli 2010 19:30]

bij fullscreen werkt het in/uitzoemen met je scrollwieltje niet meer :S
Als ze een print van die foto hebben gemaakt op 15 meter bij 1,5 meter moeten ze hem wel hebben geknipt, anders zouden die verhoudingen toch fout zijn?

Lijkt me wel mooi om dit tegen een groot gebouw aan te "plakken" in Budapest.
niet geknipt, geplakt, ze hebben letterlijk duizenden foto's gemaakt met die telelenzen + statief + computer, en die weer via software aan elkaar geplakt tot een lange panorama :)
Ik snap hem, mijn fout :)

Moet wel zeggen dat dit echt een super foto is. Kan zelfs nummerborden lezen bij "Aparthotel"

Als je de foto ziet, onderaan het hoge ronde gebouw.
Inderdaad echt een super foto.
Ik zie een container staan met tekst erop en het is nog gemakkelijk te lezen. :D
Ik snap hem, mijn fout :)
Nee hoor - je had gelijk.

Tenzij de pixels zelf niet vierkant zijn, heeft het plaatje een andere verhouding dan het doek.
plaatje is 590508:120750, laten we zeggen 60:12 ofwel 5:1
foto is 15:1.5 ofwel 10:1

Dus er zou ergens gecropt/gescaled/gedingest moeten zijn.
kan iemand uitleggen hoe 40 GB aan raw 350 GB na bewerking kan worden?
mijn xsi heefd 15 tot 24 mb raw bestanden na converteren naar tiff zijn de files and 66+ mb
Raw betekent toch juist per pixel de juiste kleur, in tegenstelling tot welke compressie die het in vlakken op zal delen, waardoor de RAW naar mijn inszien altijd groter zal zijn dan een gecompresseerd bestand.

Natuurlijk kan je het ook omzetten naar vectoren, dat zou kunnen resulteren in een groter bestand, maar dat is hier volgens mij niet gedaan.

Wat glowmouse zegt kan kloppen, maar dat is dan alleen gedaan om het geheel op te delen om de bandbreedte te besparen en niet om kwaliteit of bestandsformaat te veranderen.
raw heefd meer originele data maar is volgens mij nog steeds compressed tiff is uncompressed.
raw heefd meer originele data maar is volgens mij nog steeds compressed tiff is uncompressed.
RAW is inderdaad wel gecomprimeerd, anders zou elke raw-foto vanaf dezelfde camera steeds even groot zijn.
Echter RAW-data is ruwe sensor-data samen met nog wat camera-settings.
De sensor bestaat echter uit een patroon van subpixels in een bepaald patroon.
Het meest gebruikt is het Bayer-patroon, wat de pixels als volg gerangschikt heeft:
G R
B G
of een spiegeling/rotatie daarvan.
Bij het tellen van de pixels van een sensor telt met de subpixels, terwijl er een plaatje van gemaakt wordt wat RGB waarden zijn met dezelfde pixelcount. Oftewel redundante informatie die berekend is uit omliggende pixels.
De RAW-informatie bevat bijvoorbeeld 12 bits per subpixel. Na het de-Bayer-proces is dit 3x 16bit (48bit RGB), oftewel zo'n 4x zoveel.

Het TIF-formaat zegt niets over het gebruik van compressie. Er zijn zo'n 6 of 7 compressie-methoden toegestaan voor gebruik in TIFF-files.
Er zijn bij dit plaatje 21 zoomlevels, en voor elk zoomlevel worden er aparte plaatjes opgeslagen.
Ik denk dat alle foto's vol ingezoomd zijn genomen dan heb je dus geen informatie van de wide-angles. Die moet dan herleid worden uit de gecombineerde foto's.
Het uiteindelijke resultaat is dus een enorme halo met gelaagde diepteinformatie, tijdens het zoomen zie je het ook verspringen, dat zijn de tussengelegen beelden die gegenereerd moeten zijn.
Dan kan je dus interactief in en uitzoomen op hun website.

[Reactie gewijzigd door Soldaatje op 30 juli 2010 18:03]

Het team schoot in twee dagen de foto's waaruit de uiteindelijke afbeelding werd samengesteld.
Ik denk wel dat ze voorafgebruikte zoom levels hebben gebruikt en elke foto dus ook wel echt ingezoomd hebben ;)
pff het is mischien het grootste plaatje maar het is toch zeker niet de grootste foto aangezien voor mij een foto nog altijd een enkel beeld is en niet tig beelden aan elkaar geplakt.
Ja inderdaad dit vind ik eigenlijk ook :P
Sterker nog, als ik met die gear niet 2 maar 4 dagen ga plaatjes schieten,
en vervolgens mijn PC'tje er een week (of 2) op laat zitten rekenen.
dan hebben we over een maand een 140 Gigapixelafbeelding :) O-)

(Zoo spectaculair komt dit iig niet op mij over :P
Gewoon een kwestie van camera stabiel neerzetten, en steeds een klein stapje roteren en weer op het knopje drukken ^^ (gaat waarschijnlijk automatisch)
Kleine bewegingsfoutjes worden toch wel gecorrigeerd in de software :))

[Reactie gewijzigd door SmiGueL op 30 juli 2010 18:04]

De kunst is om zover mogelijk in te kunnen zoomen, daar heb je dus zeer goede lenzen + camera voor nodig. Hoe verder je inzoomt, hoe meer foto's je moet maken en dus uiteindelijk meer gigapixels hebt.
De sleutel is dus de supersterke zoom lens, en het originele aantal pixels van de camera.

[Reactie gewijzigd door Soldaatje op 30 juli 2010 18:10]

Goed punt inderdaad :), maar dan nog:
Waarom pak je dan niet een grotere/betere lens? :P

Uit dit lijstje bijvoorbeeld

Dan heb je toch 4x zoveel pixels op je totaal foto? :P

(Oja, van fotocamera's heb ik geen tot weinig verstand, dus voor hetzelfde geld kraam ik nu onzin uit :P)

[Reactie gewijzigd door SmiGueL op 30 juli 2010 18:19]

een grotere lens geefd geen groter aantal pixels dat zit in de camera.
Waarom pak je dan niet een grotere/betere lens?
Dat zou je kunnen doen. Het is in principe een kwestie van aantal megapixels gecombineerd met de zoom factor van de lens/sensorgrootte in kwestie. Aannemende dat de lens ook echt het oplossend vermogen heeft, natuurlijk.
meer megapixels = meer detail in 1 enkel plaatje. meer zoom = meer detail maar je zal meer foto's moeten schieten om hetzelfde overzicht te hebben voor dat ene plaatje.

Natuurlijk houdt het wel op een gegeven moment op en is er gewoon geen detail meer in de wereld voor je om op te kunnen nemen. Een pano van een skyline een paar kilometer verderop zal je al een heel heldere koude dag voor nodig hebben anders is dat hoe-dan-ook een waas door alle thermische vervormingen van de lichtpaden in de lucht, bijvoorbeeld. Op een ansichtkaartje ziet dat er nog prima uit - maar zien welk programma de mensen van een flat in die foto zitten kijken is er niet bij.
Niet 4x zoveel pixels, maar je kan wel 2x zo ver inzoomen en als je al die foto's later combineert (dus ipv. 21 zoomlevels iets van 42 hebt) dan heb je nog een grotere foto ja.

Maar de lens heeft niks te maken met het aantal pixels van een foto, dat heeft te maken met de sensor in de body van de camera ;)

hah, 42!
Ohw, ik ging er van uit dat een 800mm zoomlens 2x zo ver kan zoomen als een 400mm
(Want 800/400 = 2)
(zoals ik al zei: geen verstand van fotocamera's/lenzen;)) :P
En zoals we allemaal weten, oppervlakte gaat kwadratisch, dus dat wordt dus 4x zoveel pixels voor hetzelfde plaatje.
Kortom: een 2x zoom = 4x zoveel pixels

En ja tuurlijk moet je dan wel 4x zoveel foto's maken, maar dat lijkt me logisch toch :?
Zolang ze dat niet doen verbreek je het record natuurlijk noooit :P (met dezelfde 25MP camera)
oke, dan neem je een "slit camera" die een hele hoge vertikale enkele rij pixels heeft en draait hem 360 graden tijdens het maken van de foto. tevreden?
Mooi dat er qua software en hardware tegenwoordig dit soort foto's gemaakt kunnen worden, maar de hoeveelheid werk die erin zit maakt het niet bepaald makkelijk om dat economisch rendabel te maken. Toch is het wel mooi om op zeer hoge resolutie (hoeft niet perse 70 gigapixel te zijn) bijvoorbeeld oude omgevingen vast te leggen die op de schop zullen gaan o.i.d.
Een uiteindelijk bestand van 350 GB is wel bizar groot. Zou het wellicht niet verder gecomprimeerd worden om het bekijken of edit-en te vereenvoudigen voor de PC in kwestie?
de hoeveelheid werk die erin zit maakt het niet bepaald makkelijk om dat economisch rendabel te maken.
Het is een hoop werk - maar dat kan je natuurlijk wel automatiseren... GigaPanBot (custom), panorama sweep (SONY camera's voor consumenten) of de Epic / Epic Pro (als je het geld ervoor over hebt - bijzonder duur zijn ze niet).
Dit is dan wel een foto die met behulp van licht is gemaakt, maar er is een terapixel foto van de nachthemel gemaakt met telescopen.
http://www.popsci.com/gad...biggest-night-sky-map-yet
Microsoft's Terapixel Project Creates Clearest, Biggest Night Sky Map Yet, Using More Than 3,400 Telescope Photos

Terapixel Night Sky Microsoft's Terapixel project, part of Microsoft Research, stitched together more than 1,700 pairs of photographic plates from two powerful telescopes to create the clearest, largest night sky map yet. Microsoft

First they gave us a high-res tour of Mars -- now Microsoft has made the largest and clearest night-sky map ever. It's a terapixel image: 1,000 000,000,000 pixels.

Edit: oja, 802 GB groot.

[Reactie gewijzigd door Rudie_V op 30 juli 2010 18:06]

Enkele getallen:

Raw data
1791 pairs of red-light and blue-light images acquired from two telescopes, scanned into 23,040x23,040 or 14000x14000 images.
Windows HPC Cluster:
The high-performance computational platform used to run Terapixel, consisting of 64 compute nodes, each a quad-core Intel Xeon CPU with 16 GB RAM and 1.7 TB of storage.
Generation of RGB plates
Processing time: 5 hrs. Input: 417 GB (compressed, 4TB uncompressed)
Output: 790 GB (approx. 500MB/plate)
Stitch images into a spherical image
Processing time: 3 hours
Optimize image to remove seams
Processing time: 4 hours 15 minutes
Move data off the cluster
2.5 hrs (1Gbps link)
Output
1025 pyramid files; total size: 802 GB

Ik heb de foto nergens gevonden, wel jammer eigenlijk. Het zou leuk zijn geweest mocht deze ergens (vb op microsofts cloud) beschikbaar zijn, net zoals de Boedapest foto.

Wat me ook opviel is dat het in elkaar knutselen van deze foto 'slechts' 14 uur en 45 minuten heeft geduurd. Maar als je bekijkt welke pc's er gebruikt zijn kan ik dat wel begrijpen...
Je kunt het project hier vinden. Even de client downloaden en gaan. Ziet er fantastisch uit!
Ik snap niet zo dat dit een record is.

Nasa scan't hele maan oppervlakten, scan't hele aarde's en nog even mars en ook in 3D.
Het lijkt me dus nauwelijks een record opzich, mischien een hobby record, maar daar blijft het ook wel zo'n beetje bij.

Ik wil niet pessimistisch zijn hoor, nog steeds knappe klus en een mooi resultaat.
dat zijn ook iets andere camera's
tja google earth werkt ongeveer het zelfde en ik wil niet uitrekenen hoeveel terapixels dat is.
Ff snel sommetje:
Diameter aarde = 12.756 m
Dus oppervlakte aarde = 511*1012 m2
Met ca 20? pixels/m2 komt dat dus neer op een 10.000 Terapixel foto van de aarde :P }>
(Niet alles staat zo gedetailleerd op Earth he ;))

[Reactie gewijzigd door SmiGueL op 31 juli 2010 01:00]

ik wil je niet afbreken maar ik zou 70% van dat getal aftrekken want de oppervlakte van de aarde bestaat uit 70% water en dat word door google earth niet weergegeven (gewoon een blauw vlak).
toch iets dichterbij kijken je kan op de map duidelijk de onderwater contouren zien
ja, dat kan je bij de kustlijnen maar niet te midden in volle zee..

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Luchtvaart Crash Smartphones Google Laptops Apple Games Politiek en recht Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013