Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties

In het Media Lab van het MIT hebben onderzoekers een camera ontwikkeld die in staat is om beelden in extreme slow-motion op te nemen. De camera legt een biljoen frames per seconde vast, snel genoeg om lichtpulsen te volgen.

Eigenlijk is het apparaat dat Media Lab van het Massachusetts Institute of Technology heeft ontwikkeld niet één camera, maar vijfhonderd sensors. De lichtbron is een titaniumsaffier-laser die lichtpulsen afgeeft. Een speciale camera vangt deze pulsen op en de waargenomen data worden door een computer tot een vertraagd filmpje verwerkt. De camera kan echter slechts in één dimensie opnemen, waardoor spiegels nodig zijn om een scene van boven naar beneden te scannen, zodat een 2d-filmpje gemaakt kan worden. Een gebeurtenis moet daarom zeer reproduceerbaar zijn om een vertraagd filmpje te kunnen reconstrueren.

De camera heeft een normale lens, maar daarachter zit een aparte body. Het licht van de laser gaat door een spleet en valt op de eerste sensor. Het licht wordt vervolgens afgebogen door een elektrisch veld dat de fotonen naar de overige 499 sensors afbuigt. Dat gebeurt met een frequentie van een biljoen hertz, wat de camera in staat stelt om lichtpulsen vast te leggen. De camera, bijbehorende laser en overige apparatuur kosten ongeveer 250.000 dollar en zijn vooralsnog puur een researchproject.

Volgens een van de ontwikkelaars van de camera, Andreas Velten, kan de extreem snelle camera in de toekomst ook voor andere doeleinden worden gebruikt. Zo zouden fotonen in plaats van geluidsgolven ingezet kunnen worden voor medische toepassingen als echografie.

Moderatie-faq Wijzig weergave

Reacties (60)

Even voor de duidelijkheid,
het is niet zo dat de camera 1 biljoen frames in een second kan opnemen, of dat je bv 1000 000 000 in een milliseconde kan opnemen.

To produce their super-slow-motion videos, the MIT team used the streak camera to build up a two-dimensional image of a light pulse being passed through a bottle by repeating the experiment multiple times, continually repositioning the camera.

Unfirtunately, this means it takes about an hour to collect all the data necessary for the final video; algorithms then stitch that raw data into a set of sequential two-dimensional images.


Bron: http://www.tgdaily.com/hardware-features/60173-trillon-fps-camera-fast-enough-to-film-photons?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+tgdaily_all_sections+%28TG+Daily+-+All+News%29

Youtube met een goede uitleg: http://www.youtube.com/watch?v=EtsXgODHMWk
Youtube met voorbeeldje van de fles: http://www.youtube.com/watch?v=-fSqFWcb4rE&feature=related

[Reactie gewijzigd door 282252 op 14 december 2011 13:02]

Jawel er word wel een biljoen frames per seconde gemaakt:

"Het licht wordt vervolgens afgebogen door een elektrisch veld dat de fotonen naar de overige 499 sensors afbuigt. Dat gebeurt met een frequentie van een biljoen hertz"

Daarmee is er echter maar 1 beeldlijn van een 'video' gecaptured met een biljoen hertz.
Voor de andere beeldlijnen wordt de spiegel een miniem aantal graden gedraaid, om vervolgens het zelfde experiment met dezelfde lichtpuls te herhalen voor de volgende beeldlijn. (Er wordt dan dus een ander 'gedeelte/lijn' van de wereld op de cameralens geprojecteerd.)
"Het licht wordt vervolgens afgebogen door een elektrisch veld dat de fotonen naar de overige 499 sensors afbuigt. Dat gebeurt met een frequentie van een biljoen hertz"
Dit is natuurlijk wel even wetenschappelijke onzin: Licht heeft helemaal geen last van een elektrisch veld en je kan het dan ook niet eventjes 'afbuigen', hooguit van richting veranderen door het te weerkaatsen of door het medium te veranderen (breken).

Wat ze in ieder geval doen is de afbeelding beeldlijn voor beeldlijn aftasten met een 1D sensor, net zoals de scanner in een printer het doet. Elke beeldlijn heeft op zijn beurt weer genoeg resolutie om de high-speed opname mogelijk te maken.

Het is eigenlijk een geavanceerde versie van een bekend film-effect sinds 1999: Bullet time. Daar werden namelijk ook meerdere camera's opgesteld rond het onderwerp (in die situatie Keanu Reeves ;)), die gelijktijdig een opname maakten, waardoor het onderwerp 'stil' leek te staan.

In deze high-speed camera gebruiken ze meerdere sensoren die niet tegelijk, maar een miniscuul tijdsinterval van elkaar een opname maken.
refractie en reflectie zijn twee manieren om een EM golf te beïnvloeden, diffractie kan je ook gebruiken. Zoek maar eens een Fresnel zone plate op.
Diffractie is wel even iets anders dan 'we zetten een elektrisch veld op een lichtpuls en het straaltje wordt krom'.

Zoals het in het artikel beschreven wordt, met de woordelijke beschrijving dat ze een lichtstraal afbuigen (dat kan al niet, licht gaat in rechte lijnen) met een elektrisch veld (dus een statisch veld, geen EM-golf die interfereert) klopt er natuurlijk niks van.

Volgens mij is er iemand daar in de war met het afbuigen van een elektronenstraal zoals het in een CRT gebeurt, en dat gebeurt doorgaans wél met een elektrisch veld.

EDIT: Overigens bedoel ik hier met 'afbuigen' iets anders dan 'diffractie', wat in correct natuurkundig Nederlands namelijk ook 'buiging' wordt genoemd.

[Reactie gewijzigd door Stoney3K op 14 december 2011 14:20]

Licht volgt het snelste pad, in vacuum is dat in rechte lijnen. Je kan het zelfs heel makkelijk afbuigen, zoek maar is een waveguide op.

Misschien gebruik ze het electro-optisch effect zodat hun brekingsindex variabel wordt. Ik vind het ook wel raar dat er geen directe verwijzing is naar hun publicatie. Het lijkt me eerder een publiciteitsstunt.
Licht volgt het snelste pad, in vacuum is dat in rechte lijnen. Je kan het zelfs heel makkelijk afbuigen, zoek maar is een waveguide op.
In een waveguide (zoals een glasvezel) blijft het licht nog altijd binnen (lokaal) rechte lijnen begrensd tot de randen van die waveguide. In de waveguide zal het licht geen krom pad volgen maar altijd rechtlijnig de waveguide volgen.

Een bocht in een glasvezel is dan ook iets totaal anders dan een 'kromme' lichtstraal in de vrije ruimte.

Mij lijkt het gewoon een verkeerd populair-wetenschappelijke verwoording van iets totaal anders. Het lijkt me namelijk een heel stuk aannemelijker dat het licht via bijvoorbeeld een piëzo-gestuurde spiegel naar elk van de 499 sensoren wordt gestuurd.
Dat is de eenvoudigste theorie om een waveguide te begrijpen, totale interne reflectie bij gebruik van geometrische optica. Maar deze theorie is niet volledig genoeg om een accuraat model van je waveguide op te stellen.

Heb je ooit al is vanuit scalaire of EM optics waveguides bestudeerd? Het licht is zeker niet begrensd tot de randen van een waveguide. Je krijgt vaak een evanescent veld in de cladding, de grootte ervan bepaald door het brekingsindexcontrast en nog wat andere factoren. Het licht in een waveguide, volgt de waveguide en buigt als de waveguide ook buigt.

Ik ben met je eens over de verwoording in het artikel maar je visie over waveguides is fout.

[Reactie gewijzigd door .phoz op 14 december 2011 15:19]

Dat is de eenvoudigste theorie om een waveguide te begrijpen, totale interne reflectie bij gebruik van geometrische optica. Maar deze theorie is niet volledig genoeg om een accuraat model van je waveguide op te stellen.

Heb je ooit al is vanuit scalaire of EM optics waveguides bestudeerd?
Ik wou het bewust een beetje in lekentaal houden. Als je met Maxwell-vergelijkingen gaat gooien op een pagina zoals hier dan ga je denk ik reacties krijgen van 'wtf heeft ie het over', waar je bij een series fysica-forum waarschijnlijk wel begrepen zal worden. Tuurlijk zijn er nog allerlei details en randvoorwaarden, maar die zijn voor de argumentatie hier ('licht wordt afgebogen door een elektrisch veld' klopt fysisch niet) namelijk niet belangrijk.

Het antwoord op 'Afbuigen? Waar is die kromme lichtstraal dan?' is dan nog altijd 'die bestaat niet!'.

Het licht gaat nog altijd in een rechte lijn door een waveguide heen, ook als die waveguide krom is. In een coördinatensysteem wat langs de waveguide loopt (y loodrecht op de waveguide, x in de richting van de waveguide) zal het licht altijd in een rechte lijn, evenwijdig aan de waveguide lopen. Het golffront staat er dan inderdaad weer netjes loodrecht op. ;)

[Reactie gewijzigd door Stoney3K op 14 december 2011 15:53]

Het gaat al lang niet meer over de redenering in dit artikel, maar over jouw foute visie over licht. Een klein voorbeeldje: een ring resonator . Light can't be bend?
Het gaat al lang niet meer over de redenering in dit artikel, maar over jouw foute visie over licht. Een klein voorbeeldje: een ring resonator . Light can't be bend?
Nog een keertje dan:

Een kromme lichtstraal buiten een waveguide, in de vrije ruimte, kan fysisch niet.

Een niet-rechtlijnige waveguide is iets anders dan een kromme lichtstraal: Vanuit het licht gezien zal het nog altijd 'rechtdoor' gaan, maar dat is dus evenwijdig met het pad van de (niet rechte) waveguide. Of dat nu een ring, vierkant, driehoek of gekke slinger is.

Vergelijk het met een trein: Als je die zonder rails laat rijden zal ie ook nooit ergens uit zichzelf linksaf slaan, maar altijd rechtdoor rijden. Zet je hem nu op een (niet rechte) rails, dan verandert er vanuit het oogpunt van de trein niets. Die volgt nog altijd het pad waarin ie geleid wordt, net zoals een EM-golf in een waveguide.

Licht zonder iets kun je niet zomaar om een bochtje heen buigen. Als je het medium meebuigt (zoals je met die waveguide doet, of zelfs een tijdruimte-vervorming als gevolg van zwaartekracht) dan wordt het een ander verhaal, want voor een waarnemer buiten het referentiekader van het licht zal er een bocht te zien zijn, maar vanuit het licht gezien is de ruimte waardoor het reist nog altijd 'rechtdoor'.
Het probleem is dan wel dat de "waveguide" (wat denk ik een voorwerp is?) ook 1 biljoen keer per seconde van plaats moet wisselen, want hij moet 1 biljoen keer per seconde een andere rij pixels belichten. Voor 1x de 500 rijen door te lopen lukt het misschien nog wel omdat de sensor zo snel is dat de waveguide niet perse stil moet staan voor die pixel. Dan moet hij echter nog 2 000 000 000x per seconde volledig terug bewegen van de onderste naar de bovenste rij, die afstand is groter + je moet de waveguide eerst vertragen, terug versnellen in tegengestelde zin en dan opnieuw versnellen in de juiste zin, dus dat lijkt me vrij onmogelijk...

Dus ik denk niet dat het licht afgebogen wordt met een soort materiaal eerlijk gezecht.
Inderdaad onzin. Hoe het volgens mij werkt is dat de fotonen op een fotokathode terechtkomen, en d.m.v. het foto-elektrisch effect elektronen vrijmaken. En die kun je natuurlijk wel afbuigen in een elektrisch veld dat varieert in de tijd.

http://en.wikipedia.org/wiki/Streak_camera

Overigens kun je op die manier geen kleur waarnemen, volgens mij zijn de beelden van het flesje dan ook ingekleurd.

[Reactie gewijzigd door NATStudent op 14 december 2011 17:14]

De text is een beetje misleidend, een frame bestaat over het algemeen uit een X en Y gedeelde (zoals bij TV's, 25 frames per seconde) in dit geval hebben we het eigenlijk over sensoren. Vandaar dat het zo lang duurt om een volledig beeld samen te stellen. Een om een ligt puls door een fles op te nemen.

De term fps bij dit soort camera's geld dan ook niet echt als maat hoeveel beelden je per seconde kan opnemen.

De lichtpuls in het filmpje die je dan ook door de ruimte ziet gaan is niet dezelfde maar telkens een nieuwe foton uit de laser.
De lichtpuls in het filmpje die je dan ook door de ruimte ziet gaan is niet dezelfde maar telkens een nieuwe foton uit de laser.
Dat is het dus niet.

Feitelijk zijn er 499 losse camera's opgesteld die met zijn allen op één punt zijn gericht. Uiteindelijk drukt er een 'fotograaf' (één of ander elektronisch circuit) voor elke camera 1 picoseconde later op de ontspanknop.

Wat je dan krijgt is hetzelfde effect als een filmster die over de rode loper heen loopt en ineens een hele serie flitsers op zich af krijgt. Zou je die foto's achter elkaar zetten, dan kun je ook een filmpje maken van de filmster op de rode loper.

Ze hebben wel een gepulste laser nodig omdat een CW (constant wave) laser geen discrete hoeveelheden licht uitzendt. Dan zou elke foto van de laser namelijk alleen maar een streep zijn die door de foto heen loopt.

Het is dan ook niet één foton die ze op de foto zetten, maar een opname van de hele laserpuls van een Ti:Sapphire laser die door een fles heen gaat.

De opname is alleen wel ééndimensionaal (een lijnfoto), dus over één richting van de afbeelding genomen kijk je wel naar een andere lichtpuls die zich toevallig op dezelfde plek bevindt als zijn voorganger. Over bijvoorbeeld de X richting kunnen ze alles in één opname maken, terwijl de Y richting meerdere opnames nodig heeft.
Volgens mij kan hij dat wel maar kan hij dat alleen in 1D, als je een 2D film wilt hebben zal je dat dus moeten herhalen.
To produce their super-slow-motion videos, the MIT team used the streak camera to build up a two-dimensional image of a light pulse being passed through a bottle by repeating the experiment multiple times, continually repositioning the camera.
Of een paar camera's tegelijk; wordt dan wel een set-up van een paar miljoen maar ach :)
Dat gaat niet lukken ivm sluitertijd van de 'gewone' camera.
Je hebt dus echt een streak camera nodig om deze resultaten te behalen
Dus het licht gaat door een spleet wat voor het 1D resultaat zorgt.
Is hier de planck-lengte bij betrokken?

En indien dit waar is, hoe kan het beeld gereconstrueerd worden tot 2D?

250.000 dollar lijkt me overigens vrij weinig voor een camera als deze. Een biljoen FPS, al dan niet met 1D in plaats van 2D als ruwe data, dat is niet weinig voor zon prijs, of wel?
Het licht gaat door een spleet, zodat je beeld zo groot is als je sensor. Het heeft niets met de planck-lengte of quantummechanica te maken - het is gewone mechanica. Het is 1D omdat de sensoren maar één pixel hoog zijn, zodat je het licht makkelijker naar verschillende sensoren kan spiegelen. Ze gebruiken die 500 sensoren, zodat de sensoren maar 2 miljard beeldjes per seconden hoeven te filmen.

Ze maken het 2D beeld door hetzelfde experiment nog een keer te herhalen en dan de volgende lijn op te nemen, en nog een keer, en nog een keer...
Zo maak je van elke lijn een filmpje, en die filmpjes zet je dan onder elkaar om het 2D filmpje te krijgen. Dit werkt dus alleen als je het experiment dat je filmt 1000 keer op exact dezelfde wijze kan doen.
Die lichtpuls van de laser zal elke keer op vrijwel exact dezelfde wijze de appel en alles verlichten, dus kan je eerst de eerste regel opnemen, de spiegel een klein stukje draaien en dan de volgende regel opnemen. Die filmpjes kun je dan combineren om een compleet beeld te krijgen.
Je zou de werking kunnen zien als een trap: elke trede is een rij "pixels" (dus 1 dimensie) die het licht omzetten in een elektrisch signaal. Het licht valt door een spleet en wordt door een spiegel gebogen, zodat het licht elke trede heel kort raakt.

Ik denk dat een 2d-sensor te moeilijk is, omdat elke pixel parallel uitgelezen moet worden om tijdsdifferentiaties te vermijden.
ik denk dat het ID resultaat bestaat doordat er maar 1 pixel hoog wordt waargenomen, het is dus niet plancklengte.
dmv een spiegel
Ik snap dat echografie een stap kan maken door deze techniek aan te passen en in te zetten maar zit dan wel met het feit dat licht natuurlijk wordt afgebogen zodra het een oppervlak raakt. Zoals je bij natuurkunde hebt geleerd, kan je dat corrigeren zolang entry & exit dezelfde hoek hebben maar een mensenlichaam heeft dat natuurlijk niet.

Kan iemand me uitleggen hoe fotonen in de echografie een beter/scherper/ander beeld kunnen scheppen dan de huidige middelen zoals CAT-scan?
Licht(deel ervan, deel word gehinderd) gaat gewoon door ons heen hoor, fotonen zijn heel klein, hou maar eens lamp achter je vinger dan schijnt er gewoon licht doorheen, enkele fotonen komen gewoon door je heen, hoe dikker het materiaal des te moeilijker kan het licht erdoorheen komen. Fotonen hebben ook geen reactie met elektronen in ons lichaam worden dus niet gehinderd om door ons heen te gaan.

[Reactie gewijzigd door mad_max234 op 14 december 2011 13:09]

Er is inderdaad geen reaktie met elektronen in ons lichaam maar absorptie van licht is wel zeker aanwezig. Nou zal dat bij deeltjes als fotonen of hoge intensiteit erg meevallen maar absorptie, reflectie, afbuiging etc zijn allemaal zaken die een nauwkeurige medische analyse van het eindresultaat kunnen verhinderen?
Geen reactie met elektronen maar absorptie is er wel???

Is absorptie juist geen interactie met elektronen?
Fotonen hebben ook geen reactie met elektronen in ons lichaam worden dus niet gehinderd om door ons heen te gaan.
Niet alles natuurlijk. Van radiogolven hebben we bijvoorbeeld geen last, terwijl veel zichtbaar licht door ons lijf wordt weerkaatst. Anders konden andere mensen ons ook helemaal niet zien ;)

Röntgenstraling heeft bijvoorbeeld weer de bijzondere eigenschap dat een deel erdoorheen gaat, en een deel door botweefsel wordt geabsorbeerd. Daarom is het ook zo nuttig voor gebroken-been-foto's. ;)

Alle straling die meer energie heeft dan zachte röntgenstraling (vanaf zo'n 40nm golflengte) heeft wel interactie met de elektronen in ons lijf, daarom wordt het ook vanaf hard X-ray 'ioniserende straling' genoemd. Gammastraling valt daar bijvoorbeeld ook onder.
Er is een wezenlijk verschil tussen CAT/CT-scan en echografie of beeldvorming door fotonen, zoals in het artikel geopperd.

Echografie is goed toepasbaar voor het in beeld brengen van zachte weefsels. Denk aan spieren en de 'pretecho' van een kind in de baarmoeder. De indicatie hiervoor is volgens het artikel uitwisselbaar met beeldvorming door fotonen. Voor zachtere structuren zou je overigens ook aan MRI kunnen denken, maar dit wordt meer toegepast bij gewrichten en hersenen.

CAT/CT-scans zijn beter voor het in beeld brengen van hardere structuren zoals bot.

Om op jouw vraag terug te komen: Voor een CT-scan is een andere indicatie dan voor echografie. Het voordeel van beeldvorming met fotonen ten opzichte van echografie, is dat echografie niet mogelijk is als er zich lucht bevindt tussen de bron en het orgaan. Bij fotonen lijkt me dit geen probleem.
En nu een opname van een double-slit experiment opnemen :)
Dat zal lastig gaan: totdat de lichtpuls ergens tegenaan botst en de fotonen zich (onder ander naar de camera) verspreiden, is de lichtpuls zelf onzichtbaar. Alsnog zie je alleen het resultaat, je ziet het alleen langzaam opgebouwd worden.

Mocht je de fotonen zelf kunnen zien, zal het alsnog weinig nut hebben: het observeren heeft al invloed op de fotonen zelf - en het interessante was juist wat er gebeurt als de fotonen niet beïnvloed worden.
Mocht je de fotonen zelf kunnen zien, zal het alsnog weinig nut hebben: het observeren heeft al invloed op de fotonen zelf - en het interessante was juist wat er gebeurt als de fotonen niet beïnvloed worden.
Als er alleen fotonen mee gemoeid zijn durf ik dat juist te betwijfelen.

Elektronen worden beïnvloed als je ze observeert omdat je fotonen nodig hebt om ze te kunnen zien. Die fotonen hebben op hun beurt weer interactie met elektronen, en het is het resultaat van die interactie wat we waar kunnen nemen.

Als er alleen fotonen mee gemoeid zijn dan kun je in principe ook observeren door die fotonen, die er al zijn, passief op te vangen.

Het is namelijk niet het idee dat er geobserveerd wordt wat het experiment beïnvloedt, maar de actie van het observeren door middel van ernaar kijken.

Dat is ook één van de grote tekortkomingen van de quantummechanica en de relativiteitstheorie: Ze zijn gemaakt vanuit een referentiekader waar wij mensen (en met name, astronomen!) wat van kunnen begrijpen. Niets kan sneller dan het licht reizen, want dan zouden we het niet kunnen zien.
Het zal wel weer de grandioze vertaling zijn => billion = biljoen

In het Nederlands is een biljoen een 1 met 12 nullen. 10^12 dus. Met 500 sensoren geeft dat dus alsnog 2 MILJARD beeldjes per seconde per sensor... Ik zou zeggen: dat geloof je toch zelf niet.

Edit: als ik het goed hoor heeft men het in dat filmpje over 'trillion'. Dan zou 'biljoen' dus toch een goeie vertaling zijn. Ongelovelijk...

[Reactie gewijzigd door STFU op 14 december 2011 12:59]

Bron niet gelezen; daar hebben ze het namelijk over "trillion-frame-per-second video" en dat komt overeen met ons "Europese" biljoen.
toch wel, de belichtings tijd van de "streak camera" is 1.71 pico seconde
pico is 1/10^12. Het is dan net iets minder dan een biljoen fps (0,58 biljoen) maar zit daar wel meer in de buurt dan een miljard.
Als je de link volgt hebben ze het wel over het engelse Trillion wat gelijk staat aan het Nederlandse Biljoen
Dus het Tweakers nieuwsbericht klopt wel, 1.000.000.000.000

Trillion = biljoen 12 nullen
Billion = miljard 9 nullen

[Reactie gewijzigd door sbmuc op 14 december 2011 13:04]

Het klopt wel, althans volgens een ander nieuwsbericht. Daar schrijven ze "Trillion Frames Camera"
In het zelfde bericht zijn ook nog meer filmpjes te vinden:
Bron: http://www.golem.de/1112/88379.html
kan je dan zien hoe het licht (met de lichtsnelheid) beweegt? met 0.0003 meter per frame? (lichtsnelheid m/s / frames/s)

[Reactie gewijzigd door irritantenaam op 14 december 2011 12:58]

Ja, in het filmpje is goed te zien hoe een lichtpuls zich verplaatst door een scene
Het licht gaat door het water in de fles, dus de snelheid het zal c/1,33 (brekingsindex van water) zijn.
Dus 1 biljoen fps, maar een oplossend vermogen van 500pixels (in een dimensie).
Leuke ontwikkeling, ben benieuwd naar de verdere applicaties hiervan.
Een beeld van 500x500 pixels is dan nog steeds 2 miljoen miljard fps.
Ook niet slecht!

[Reactie gewijzigd door BeerenburgCola op 14 december 2011 13:51]

Ok, even kijken of ik het goed heb begrepen. Deze camera gebruikt niet 'normaal' licht als lichtbron, maar fotonen?
Normaal licht = fotonen = EM golven, het zijn andere namen voor hetzelfde.

(Fotonen zal je eerder gebruiken als je naar het discrete karakter van licht kijkt, en EM golven als je naar het golfgedrag kijkt, maar uiteindelijk is het exact hetzelfde waar je naar kijkt).
Normaal licht bestaat uit fotonen. Het verschil is hier dat er door korte lichtpulsen te geven met een laser je de groepjes fotonen die door het plastic flesje heen gaan daadwerkelijk kan zien vooruit bewegen met de lichtsnelheid. (nja, de gereflecteerde fotonen dan, de fotonen zelf kan je niet zien zonder dat ze ergens tegenaan botsen)
En de fotonen gaan in dit geval van links naar rechts, omdat de lichtbron vanaf de linkerkant komt en tijd nodig heeft om helemaal bij het dopje te komen?
Licht bestaat uit fotonen
Wow dit is gaaf voor onderzoek :o
vooralsnog puur een researchproject.
Raadsel:
Wat is nòg sneller dan een fipo?
Precies: het bericht zelf :o

ontopic:
Ik had de prijs op een veelvoud geschat. Op zich heel simpele techniek:
De geavanceerde techniek zit hem waarschijnlijk niet zozeer in de sensor, maar in het mechanisme wat de fotonen afbuigt. Ik hoop/verwacht dat er ook een 2d-versie op de markt komt. Het is wachten totdat op youtube een lichtstraal komt te staan....
wow lijkt me mooi als ze dit is een keer met lasersnijden doen. kan je goed zien hoe de laserpulzen door de plaat slaan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True