×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Zweedse onderzoekers maken wetenschappelijke camera die 5 biljoen fps haalt

Door , 52 reacties

Wetenschappers van de Zweedse Universiteit van Lund hebben een computational camera ontwikkeld die in staat is om 5 biljoen beelden per seconden te schieten. Dat maakt het mogelijk om extreem snelle processen op moleculair niveau in beeld te brengen.

De camera is in staat om gebeurtenissen in beeld te brengen die 0,2 biljoenste van een seconde duren. Dit maakt het volgens de makers de snelste camera ter wereld. Door deze enorme snelheid is het mogelijk om chemische, natuurkundige en biologische processen in beeld te brengen die tot nu door hun enorm korte duur niet konden worden vastgelegd.

De camera heeft de naam Frame gekregen. In tegenstelling tot een reguliere camera, waarbij de sluiter opent en sluit, maakt de camera van de Zweedse onderzoekers gebruik van een laser. Het gefotografeerde object weerkaatst het licht. Elke lichtpuls van de laser krijgt een unieke code. Een enkele afbeelding wordt samengesteld uit de informatie afkomstig van meerdere lichtpulsen.

Een computer kan die afbeelding opsplitsen in meerdere afbeeldingen via de gecodeerde informatie. De opgesplitste frames worden vervolgens met een algoritme samengevoegd tot een video met een enorm hoog aantal beelden per seconde. Dat is mogelijk doordat de beelden met deze technologie niet meer een voor een hoeven te worden gemaakt.

In een demonstratievideo tonen de wetenschappers hoe licht, bestaande uit een verzameling fotonen, de afstand aflegt die overeenkomt met de dikte van 'een stukje papier'. Dat duurt een picoseconde, maar met de camera kan dat een biljoen keer vertraagd worden.

Volgens een van de onderzoekers kunnen met deze camera extreem snelle processen, zoals verbranding, explosies, hersenactiviteit bij dieren en chemische reacties, beter in beeld worden gebracht. Bij verbranding treedt een aantal extreem snelle processen op moleculair niveau op, die nu beter op camera kunnen worden vastgelegd. De inzichten daaruit zouden uiteindelijk kunnen leiden tot bijvoorbeeld betere automotoren en gasturbines die energiezuiniger zijn. Ook moet het beter mogelijk worden om bijvoorbeeld de quantumstaat van subatomaire deeltjes te bestuderen.

De onderzoekers denken dat de camera over twee jaar beschikbaar komt voor andere wetenschappers. Op dit moment heeft een Duits bedrijf een prototype gemaakt. Uiteindelijk moet deze technologie ook bruikbaar worden voor industrieel gebruik.

Door Joris Jansen

Nieuwsredacteur

02-05-2017 • 16:42

52 Linkedin Google+

Reacties (52)

Wijzig sortering
Hoe kun je licht vastleggen als het medium waarmee je dat doet licht is. Ik ben in de war.
Omdat het medium niet licht is, maar vloeibare koolstof disulfide (CS2).
Het orginele artikel is overigens best te lezen voor niet natuurkundigen (imho)
linkje (of werkt dat niet voor mensen die niet in een uni netwerk hangen?)

Ik was begonnen aan uit te leggen hoe dit werkt, maar daarvoor is toch mijn natuurkunde niet goed genoeg. Blijkbaar werkt de vloeibare koolstof disulfide als een Kerr lens. Dit is blijkbaar nodig om een goede puls aan licht te creëren die maar een femto seconde duurt.
Overigens zeggen de auteurs in het stuk zelf dat er een veel hogere tijdsresolutie te behalen valt, maar dat voor dit experiment het zou betekenen dat het lijkt of de lichtpuls stil zou staan... en laat het nu net om die beweging gaan.
Ben benieuwd wat we met deze techniek allemaal kunnen leren!

Edit: extra linkje naar Kerr Lenses.

[Reactie gewijzigd door LightPhoenix op 2 mei 2017 17:05]

werkt! (maar wel traag)
Ik had een uitleg bedacht maar bij nader inzien klopt dat ook niet :+ .

Om iets te zien moet een foton worden opgevangen. Als de foton echter het object is dat gefilmd wordt (en dus niet op de sensor terecht komt) begrijp ik ook niet helemaal hoe het dan überhaupt zichtbaar is. Er is vast een logische verklaring, maar ik krijg het zo snel niet bedacht O-) .

Edit:
Weerkaatsing van de fotonen in het medium waarin de lichtstraal zich verplaatst dus.

[Reactie gewijzigd door Snippo op 2 mei 2017 17:03]

Zelf denk ik aan iets als interferometrie, je leidt de voorstelling af uit faseverschuivingen in het terugkerende licht. In essentie wat vleermuizen met geluid doen en elektronenmicroscopen met.... Elektonen. Maar dan heb je alleen geometrie, geen kleur dacht ik. Er zijn vast anderen die dit nog beter kunnen beantwoorden.
Ik ga er vanuit.... Zonder last te hebben van enige achtergrond kennis.
Dat de tijd tussen iedere afzonderlijke puls korter is als de reistijd van de lichtpulsen zelf.
Met andere woorden. De vastgelegde beelden (reflectie van de eerste Iaserpulse) zijn nog onderweg als de volgende laserpuls alweer afgevuurd wordt.
Een beetje zoals knikkers in een pijp. De tijd die één knikker nodig heeft om door de pijp te reizen kan Lang zijn maar de tijd tussen iedere knikker die uit de pijp komt kan heel kort zijn.
Edit: kleine toevoeging

[Reactie gewijzigd door engibenchi op 2 mei 2017 17:39]

Dit klinkt aannemelijk (eerste uitleg op deze pagina die het daadwerkelijk uitlegt).
Het geobserveerde licht hoeft niet persé met de lichtsnelheid (gedefinieerd in vacuum) te gaan, maar zich transporteren in een 'medium'.
Zoals ik het begrijp, filmt deze camera dus niet zo zeer vijf biljoen frames per seconde, maar filmt hij een lager aantal frames per seconde waarin per frame meerdere frames gecodeerd zitten (bijvoorbeeld in de kleur); i.e. iedere frame van het gedecodeerde filmpje van vijf biljoen frames per seconde bevat (veel) minder informatie dan iedere frame in het nog geëncodeerde filmpje. Stel bijvoorbeeld dat hij een zwart-wit beeld opneemt met 16 grijswaarden, dan zou één pixel van deze camera dus bijna duizend maal zo veel data genereren als de camera in die nieuwe Sony (960fps, 720p en ik neem aan gewoon 8-bits kleurdiepte (256 waarden per kanaal)). (Dat is voordat er compressie wordt toegepast, natuurlijk.)
  • Het aantal beelden gaat met een factor 5*10^12 / 9.6*10^2 = 5.2*10^9 omhoog,
  • de hoeveelheid kleurinformatie per pixel gaat met een factor 8*3 / 4 = 6 omlaag,
  • dus per pixel gaat de hoeveelheid informatie met een factor (5.2*10^9) / 6 / (1280*720) = 9.4*10^2 omhoog.
Ook neem ik aan dat er naderhand veel minder compressie toegepast kan worden; je wil niet dat frames door elkaar gaan lopen doordat je lossy het framenummer gaat comprimeren, en als je de kleur lossy gaat comprimeren krijg je wel erg grote artefacten.
Vergeet die camera frames. Er wordt niet 'gefilmd'.
Je kunt dit op geen enkele manier vergelijken met normaal video.

Er wordt slechts 1 cameraframe opgenomen.
Dat frame bestaat uit een optelling van de reflecties van alle laserpulsen.
En omdat elke puls een uniek ruimtelijk patroon heeft gekregen en op een ander tijdstip het object heeft geraakt kan achteraf uit dit frame een tijdsverloop worden gereconstrueerd.

Het idee van 'per pixel' informatie gaat ook niet op, dit gebeurt allemaal in fourier getransformeerde ruimtes. Er zijn voor elke output pixel dus meerdere pixels van het geencodeerde beeld betrokken.
Ook neem ik aan dat er naderhand veel minder compressie toegepast kan worden; je wil niet dat frames door elkaar gaan lopen doordat je lossy het framenummer gaat comprimeren, en als je de kleur lossy gaat comprimeren krijg je wel erg grote artefacten.
Dit is op zich waar. Er wordt gebruik gemaakt van subtiliteiten in het beeld die voor menselijke ogen niet waarneembaar zijn. Door op dit beeld videocompressie toe te passen gooi je dus een hoop nuttige informatie weg (informatie waar dan zo'n tijdsverloop uit gehaald kan worden).

[Reactie gewijzigd door koelpasta op 2 mei 2017 19:01]

Zou met dat algoritme ook reverb van een audio signaal verwijderd kunnen worden ? Want wat jij beschrijft is ook hoe weerkaatsingen van geluid bij het origineel worden toegevoegd. Of is dit enkel toepasbaar op simpele golfvormen?
Oeoeoe, ja !!, nee!! :)
Het gaat volgens mij in beide gevallen om de-convolutie.
Die laserpulsen werken omdat ze een bekend patroon op het voorwerp projekteren. Hierdoor weet je waar je achteraf naar moet zoeken.

Punt is dat met natuurlijke reverb er geen bekend patroon zit in het geluid.
Als jij de reverb middels een impulse response in het audio hebt gerendert en je hebt de impulse response nog liggen dan kan je inderdaad die galm er weer uit rekenen!
Maar van een willekeurige galm in een stuk audio wordt het moeilijk.
Je zou kunnen pogen om een synthetische IR (impulse response) op te bouwen door cues in het geluid en het dan proberen weg te rekenen maar dat gaat niet altijd mooi werken.

Overigens werkt het maken van een impulse response wel op die manier.
i.p.v. Gestructureerd licht wordt er dan gestructureerd geluid gebruikt, b.v door een frequentie sweep in een ruimte af te spelen en de weerkaatsingen weer op te nemen. Vervolgens kan je aan de hand van de originele sweep worden bepaalt hoe de reflecties moeten hebben plaatsgevonden en krijg je een IR van de ruimte.
Heel jammer, had gehoopt dat ze eindelijk dat resterende probleem voor mij opgelost hadden. Maar was al bang dat de complexiteit van ruimte en golfvorm te hoog waren.

Bedankt voor je inzicht. Hou mij veel bezig met geluids theorie, maar doe heel weinig met andere golf soorten. Had gehoopt op een doorbraak.
Zoiets was er toch al? Of was dat een theoretisch model?

https://www.youtube.com/watch?v=Y_9vd4HWlVA
Dat was zeker geen theoretisch model. Maar in de conclusie zeggen de auteurs van dit artikel dit:
To our knowledge, the reported methodology, FRAME, is the first to enable ultrafast 2D- videography having spectroscopic compatibility with both high spatial- and temporal-resolution, down to at least femtosecond timescales. In contrast to existing image coding techniques that rely on translation/sweeping solutions, FRAME is entirely light-based; a boost in frame rate by more than 2 orders of magnitude is demonstrated herein.
De techniek die je ziet in het youtube filmpje maakt wel gebruik van (in ieder geval) sweeping. Dat kun je in het originele artikel van hen nalezen linkje. Blijkbaar is er met deze nieuwe techniek dus een nog hogere frame rate te behalen.
Dat werkt volgens mij iets anders. Je kan met die techniek wel een heel hoge framerate behalen in het eindresultaat maar je zal je 'experiment' meerdere malen moeten doen om uiteindelijk een complete video te maken. Wat ze deden was heel veel kleine video's maken van steeds een enkele beeldlijn en uiteindelijk alle video's aan elkaar plakken om alle beeldlijnen onder elkaar te leggen.

Hoe de nieuwe techniek werkt is me nog niet helemaal duidelijk.
Dit is bijna niet voor te stellen. Dat met licht timestamp-gecodeerd een voorstelling is te beschrijven, dat lukt mij nog wel, maar de berg informatie die een dergelijke camera produceert zal ook verwerkt moeten worden. Op de een of andere manier moet dat heel snel gelogd worden. Hoe doe je dat? Een trein van caches (RAM>PCIe SSD>HD)? De opslag moet snelheid en grootte combineren, vandaar dat ik die kant op denk.

In dit topic wordt camera gedacht. Ik denk sensor, in de breedste zin van het woord. Autonoom rijdende auto's hebben we uitdaging aan de kant van dataverweking en het modelleren van een omgeving. Deze techniek zet een flinke stap aan de aanbodkant van die data. En als we dan toch heel snel onze omgeving gaan scannen en verwerken, dan heb ik de neiging om door te galopperen en zou dit holografisch willen doen, als we dan toch met lasertechniek aan de gang gaan. Ik ben benieuwd of deze beeldtechniek dat aankan, het mag van mij dan nog wel ietsje langzamer. Klap de snelheid om in de voor holografie benodigde datahoeveelheid.

Autonoom rijdende auto's die acteren op een real time holografische representatie. Misschien dat de eerste versies nog met brandstof zijn uitgevoerd, voor het aanhangertje met beeldverwerkings hardware.

Wat gaat dit hard! Dit opent mogelijkheden voor sensortechniek die tot voor kort alleen in SF boeken was te vinden.
Op de een of andere manier moet dat heel snel gelogd worden. Hoe doe je dat? Een trein van caches (RAM>PCIe SSD>HD)? De opslag moet snelheid en grootte combineren, vandaar dat ik die kant op denk.
Het idee is denk ik dat de camera eigenlijk maar 1 plaatje schiet en dat middels het gecodeerde licht verschillende tijdstippen uit dat beeld gerekend kunnen worden.
Lees ik er soort compressie techniek dan? De afbeelding als het thema en de tijdstip informatie om de variatie erop te beschrijven.
Ik snap niet helemaal wat je bedoelt maar volgens mij worden er gewoon in rap tempo vele laserpulsen op het onderwerp afgevuurt.
Elk van deze pulsen krijgt bij het genereren een ander ruimtelijk patroon geembed.
De camera staat gewoon open en neemt alle pulsen op. Er wordt slechts 1 frame opgenomen waarin de weerkaatsingen van alle pulsen zitten.
Door het in de pulsen ingebedde patroon is achteraf het licht van elke individuele puls uit het enkele beeld te rekenen.
Ja ik begrijp hem nu iets beter denk ik. Met het openzetten van de camera bereik je effectief een frame, en de snelheid van deze sensor is alleen gelimiteerd door de snelheid waarmee het laserlicht kan registreren. Alle beweging binnen de uitsnede van de afbeelding (~frame) kan zo snel worden geregistreerd. Eigenlijk heel pragmatisch als je het zo bekijkt. Dank je :).
Ja, je moet het vrij simpel zien, :)
De camera vangt alles op, heeft een oneindige tijdsresolutie want alles wordt op een hoop gegooit.
De sensor heeft dus ook niet echt een snelheid en er is geen sprake van hoe snel de sensor iets registreert. De sensor vangt constant fotonen van over de hele tijdspanne.
Het zijn uiteindelijk de lichtpulsen die de individuele frames 'printen' op de sensor.
Het enkele frame (gemaakt door alle weerkaatste pulsen) dat op het oppervlak van de sensor ontstaat wordt achteraf uitgelezen en dat gebeurt gewoon op de normale 'langzame' manier.
Vervolgens gaat men rekenen aan het beeld en door de codering van de pulsen kan dat enkele beeldje uit elkaar worden gepeuterd tot een film.
Ja nu maak je het toch weer een moeilijk :|. Ik kan dan nog niet de slag maken van de enorme sloot aan informatie die aangeboden wordt en de normale snelheid van de verwerking.

Het achteraf uitsorteren van die tijdstip informatie kan ik mij nog wel indenken, maar het innemen en opslaan van de informatie in die korte tijdspanne lijkt mij nog wel uitdagend. We kunnen wel iets inmiddels. Ik heb in het verleden te maken gehad met deeltjesversnellers die massieve sloten data innemen. In die situatie gaat het alleen over hele grote opstellingen en vele sensoren (scintillatoren, omgekeerde gloeilampen, licht erin, signaal eruit). Vele sensoren met ieder een gelimiteerde verwerkingscapaciteit en afmeting worden dan parallel gebruikt. Ik kan alleen maar aan een dergelijke parallellisatie denken om deze informatie voldoende snel in te nemen.

[Reactie gewijzigd door teacup op 2 mei 2017 18:46]

Ik kan dan nog niet de slag maken van de enorme sloot aan informatie die aangeboden wordt en de normale snelheid van de verwerking.
Er wordt bij het vastleggen niks verwerkt. Alle verwerking wordt achteraf op (waarschijnlijk) grote computers gedaan.
Het achteraf uitsorteren van die tijdstip informatie kan ik mij nog wel indenken, maar het innemen en opslaan van de informatie in die korte tijdspanne lijkt mij nog wel uitdagend.
Nee, er wordt nog steeds gewoon een enkel framepje vastgelegd, net zoals een normale camera dat zou doen.
Er is niks bijzonders aan de camera zelf. Je kunt het als een gewone foto zien.

Wat het bijzonder maakt zijn de laserpulsen die binnen dat ene frame allemaal een ander partoon hebben. Hierdoor kun je uit dat enkele frame het licht van elk individueel pulsje scheiden van de andere pulsjes.

Even grof gezegd, stel ik belicht een enkel frame twee keer. 1x met een patroon met allemaal streepjes van linksonder naar rechtsboven en daarna 1x met allemaal streepjes van rechtsonder naar linksboven.

Dan krijg ik een beeld met daarin twee soorten strepen die het voorwerp belichten.
Achteraf kan ik dan, met de richting van de strepen als leiddraad de twee belichtingen uit dat frame rekenen.

De techniek uit het artikel werkt ongeveer net zo alleen is de ruimtelijke codering complexer. Omdat elke puls een uniek patroon krijgt kan een hele sloot opeenvolgende pulsen uniek uit het enkele beeld worden gerekend.
Nou, je hebt in ieder geval mIjn credits voor je engelengeduld bij dit toelichten. Ik heb ook even meegelezen met je reactie op de post van WCas. Ik kan mij ook wel voorstellen dat technieken als fourier transformaties kunnen helpen de data te categoriseren. De hoeveelheid is ook zo groot dat dit ook wel moet. Als ik mij die variatie aan vertrek en aankomsttijden van de laserpulsen voorstel, en ook bedenk dat die laserpulsen een grote precisie vertegenwoordigen doordat hun terugkeertijd/doorlopen afstand in fracties van de golflengte kan worden gemeten.

Het artikel lezende waar LightPhoenix (toch nog niet heel makkelijk te lezen voor een HBO WTB) aan refereert dacht ik even dat die pulsen gecodeerd werden door de golflengte te variëren. Dit is te simpel gezegd, en zou repercussies voor de nauwkeurigheid hebben. Als ik het goed begrijp vindt voor verzending van een puls een fouriertransformatie plaats waarmee de codering in de puls wordt "ingepakt" waarna, na ontvangst, die puls met een tweede fouriertransformatie, die precies de eerste opheft, weer wordt uitgepakt. Hiernaast vindt variatie van golflengte/frequentie plaats om preciezer met de puls te kunnen meten. Dit alles maakt de techniek heel flexibel. Alleen bij de beschrijving van het filteren van de verschillende bij elkaar horende pulsen laat ik los.

Ik heb in ieder geval een (beter) beeld gekregen van wat gebeurt, en dat door ontkoppeling van informatie veel meer met dezelfde data is te doen. Dit superponeren van informatie (tijd) zijn nog heel wat meer toepassingen te bedenken dan alleen deze hogesnelheidsopnames. Waarschijnlijk zijn die andere toepassingen er al wel maar heb ik daar geen weet van ;). Dank je voor de dialoog koelpasta!
Ik kan mij ook wel voorstellen dat technieken als fourier transformaties kunnen helpen de data te categoriseren. De hoeveelheid is ook zo groot dat dit ook wel moet. Als ik mij die variatie aan vertrek en aankomsttijden van de laserpulsen voorstel, en ook bedenk dat die laserpulsen een grote precisie vertegenwoordigen doordat hun terugkeertijd/doorlopen afstand in fracties van de golflengte kan worden gemeten.
Ik heb het maar grof gelezen, maar had er niet uit opgemaakt dat ze op die manier iets temporaals coderen. Die pulsen worden gewoon regelmatig verstuurd voor zover ik begrijp. De aankomsttijden doen er in feite niet toe omdat alles gewoon op de grote hoop wordt gegooit.
Als ik het goed begrijp vindt voor verzending van een puls een fouriertransformatie plaats waarmee de codering in de puls wordt "ingepakt" waarna, na ontvangst, die puls met een tweede fouriertransformatie, die precies de eerste opheft, weer wordt uitgepakt. Hiernaast vindt variatie van golflengte/frequentie plaats om preciezer met de puls te kunnen meten. Dit alles maakt de techniek heel flexibel. Alleen bij de beschrijving van het filteren van de verschillende bij elkaar horende pulsen laat ik los.
Ja, zoiets maakte ik er ook uit op. Althans, dat van de golflengtevariatie had ik niet eens opgepikt. :)
Dit superponeren van informatie (tijd) zijn nog heel wat meer toepassingen te bedenken dan alleen deze hogesnelheidsopnames.
Ik kende het al een tijdje uit de 3D en machine vision wereld. Gebruiken van patronen voor het 3D scannen van voorwerpen.
Het wordt in het algemeen structured light genoemd.
Ik geloof dat röntgentelescopen er ook mee werken, maar dan voor puur spatiale codering, eigenlijk als lens (omdat röntgenstralen niet te focussen zijn).

Ik zie de techniek uit dit artikel eigenlijk als een extentie hierop. Waar het uiteindelijk bij al die toepassingen om draait is om een (op een specifieke manier) uiniek te identificeren code te ontwerpen. Wat deze techniek dus bijzonder maakt is dat ze meerdere codes door elkaar gebruiken waarbij elke code dan (min of meer) los kan worden gedecodeert. Dat vereist dat die codes op een bepaalde manier niet redundant zijn ten opzichte van elkaar. Best mooi dat dat dus blijkbaar allemaal werkt.
Ik kende het al een tijdje uit de 3D en machine vision wereld. Gebruiken van patronen voor het 3D scannen van voorwerpen.
Het wordt in het algemeen structured light genoemd.
Ik geloof dat röntgentelescopen er ook mee werken, maar dan voor puur spatiale codering, eigenlijk als lens (omdat röntgenstralen niet te focussen zijn).
Bedenk het en het gebeurt. Wist ik allemaal niet. Van 3D vision kan ik mij trouwens voorstellen dat deze technieken al in gebruik waren. Goed dat je de doorontwikkeling bij deze techniek wat duidt.
Dat vereist dat die codes op een bepaalde manier niet redundant zijn ten opzichte van elkaar.
Als ik je hier goed begrijp geef je aan dat het accent zou moeten liggen op de uniekheid van de laserpulsen die bij een tijdmoment horen. Ik denk dat dat transformeren (fourier) en detransformeren hiervoor eenduidig kan zorgen. Toen ik in eerste instantie je opmerking over die fouriertransformatie las dacht ik, fourier = benadering = onnauwkeurigheid (mijn interpretatie tenminste, in mijn werk gebruik we deze bewerking om trillingen te beschrijven en te discrimineren). Dat ze de fouriertransformatie meer als een marker dan als een bewerking gebruiken waarmee de data inhoudelijk wordt beïnvloedt, en ze met de detransformatie volledig ongedaan wordt gemaakt vind ik best charmant. Het maakt het aanwijzen van die groepen pulsen eenduidig en levert tegelijkertijd geen informatieverlies op.
Het maakt het aanwijzen van die groepen pulsen eenduidig en levert tegelijkertijd geen informatieverlies op.
Ja, het is leuk bedacht. Blijkbaar transformeren ze (een kopie van) de pulse naar een stuk fourier ruimte waar toch al weinig informatie zat. En dan telkens een andere plek kiezen per puls.
Dit klinkt best bizar. Ik snap niet hoe het mogelijk is sneller dan het licht te fotograferen, maar het lijkt me reuze interessant. Hier worden waarschijnlijk genoeg nieuwe toepassingen voor verzonnen.

Moet je niet ff een seconde iets filmen, gelijk de opslag vol. :+
De film is niet "sneller", maar "vaker". Lichtsnelheid is dus geen goede vergelijking.

Ik hoop dat hun SD kaartje een goede schrijfsnelheid heeft :+
Ik vraag me af dat een SD of SSD überhaubt snel genoeg zijn om met zulke snelheden te maken zijn of dat ze er überhaubt al zijn zelfs :?

Vermoed eerder en aardig wat geheugen bankjes in moeten liggen waar de gemiddelde tweaker strontjaloers op moet zijn :o

[Reactie gewijzigd door ArranChace op 2 mei 2017 18:07]

The Slo Mo Guys op YouTube doen dat ook al een poosje. Extreem hoge fps filmen, soms 127,000 fps - 4 seconden film = 7 uur op normale kijksnelheid 😎
Had ik graag het Tweespletenexperiment gefilmd zien worden ;)
Eens!

bij het lezen van het artikel dacht ik echt alleeen maar 'vet', maar als ze dat straks zichtbaar kunnen maken gaat het dak eraf. (gezien er ook over 'quatum staat' wordt gesproken, helemaal niet gek)
Doet me denken aan deze MIT camera. Mooi dat er weer een stap voorwaarts mee gemaakt is.
https://www.youtube.com/watch?v=bh2kNoEOZEQ
die in staat is om 5 biljoen beelden per seconden te schieten. Dat maakt het mogelijk om extreem snelle processen op moleculair niveau in beeld te brengen.
Extreem knappe prestatie maar is 5 biljoen niet een beetje een overkill?
Dat maakt het mogelijk om extreem snelle processen op moleculair niveau in beeld te brengen.

Je quote het zelf...
IK ging er van uit dat extreem snelle processen op moleculair niveau ook met 2 biljoen beeldjes per seconde in beeld gebracht konden worden.
Het probleem is dat wanneer een proces niet zichtbaar is, je ook niet kan weten of het nu wel of niet plaatsvind. Misschien dat er nu tot nu toe onbekende processen zichtbaar gemaakt kunnen worden. Of niet, maar dat wil niet zeggen dat ze er niet zijn.
Al loop je met deze snelheden al wel tegen het limiet van de lichtsnelheid aan.
Over 3 jaar op je smartphone. Mark my words!
Hogesnelheidscamera's bestaan al veel langer en zitten echt nog niet in je telefoon, laat staan ergens anders dan bedrijven die een paar honderdduizend euro kunnen missen.
De smilie miste ;-) Dit gaat voorlopig niet in je smartphone zitten, maar de smartphone markt is wel naarstig op zoek naar een nieuwe 'killer feature'.
Mark my nope.
Galaxy S9 confirmed :+
Ben echt benieuwd wat de resolutie is van 1 plaatje.
Zodat we kunnen berekenen hoeveel opslag je nodig hebt, voor 1 seconde.

Ik verwacht wel aardig wat extra hardware om dit op te kunnen slaan.
Het mooie is dus dat de resolutie hier totaal afhankelijk is van de dataopslag. De camera zelf zal wel aangepast zijn maar zolang de doorvoersnelheid het toetstaat kan je hele hoge resolutie's filmen.
1002×1004 pixels

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*