Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties, 30.807 views •

Darpa heeft voor het eerst inzicht gegeven in de mogelijkheden van de Argus, een camera met 1,8 gigapixels voor drones van het Amerikaanse leger. Met de Argus is het mogelijk om zowel foto's als live video naar een grondstation te sturen.

Hoewel al gewerkt wordt aan een camera met 2,3 gigapixels voor gebruik in drones, heeft Darpa nu voor het eerst meer informatie vrijgegeven over de mogelijkheden van het huidige surveillance-speeltje van het Amerikaanse leger: de Argus-IS met 1,8 gigapixels.

Met het Argus-camerasysteem, dat in een gondel onder verschillende typen drones van het Amerikaanse leger bevestigd kan worden, is het mogelijk om zowel foto's als live video met die extreem hoge resolutie vanaf grote hoogte naar een basisstation te sturen. Dit levert een dagelijkse hoeveelheid gegevens op van een miljoen terabytes, het equivalent van 5000 uur full-hd-beelden.

De Argus is volgens Yiannis Antoniades, ontwikkelaar van het camerasysteem bij BAE Systems, opgebouwd uit 368 beeldsensors die niet veel groter zijn dan de camerasensors in een smartphone. Het surveillancesysteem kan vanaf een hoogte van ongeveer 5,3km de meeste bewegende objecten volgen als auto's en voetgangers en daar ook onderscheid in maken. Het is zelfs mogelijk om vogels op de beelden te herkennen.

Onder meer de Predator-drone kan uitgerust worden met de Argus-cameragondel, maar het Amerikaanse leger zou de camera ook geschikt willen maken voor de Solar Eagle, een drone op zonne-energie die 24/7 in de lucht zou kunnen blijven.

Gerelateerde content

Alle gerelateerde content (23)

Reacties (90)

Reactiefilter:-190084+149+213+30
Moderatie-faq Wijzig weergave
Het filmpje bij het artikel is onderdeel van de NOVA documentaire "Rise Of The Drones" en volgens mij komen alle gegevens in het artikel daar ook uit.
http://www.pbs.org/wgbh/n...y/rise-of-the-drones.html

Volgens mij is de video online niet beschikbaar omdat we niet in de USA zitten. Ik heb de hele documentaire een paar dagen geleden gezien en vond dat er een leuk overzicht wordt gegeven over de geschiedenis, huidige mogelijkheden en toekomst, dus de moeite om even naar op zoek te gaan!

[Reactie gewijzigd door Eomer op 28 januari 2013 12:16]

De volledige docu staat sinds een paar dagen ook op youtube. :)

http://www.youtube.com/watch?v=4OKluZFZoHs
De 'een miljoen terabytes per dag' (= 1000 PB) die genoemd worden, moet haast wel foutief zijn. Ik denk dat ze een miljoen gigabyte (=1PB) bedoelen; Slechts 3 ordegrotes er naast. :P

a) Reken even mee;
Absolute worst-case uncompressed data; 1.8 Gpixels * 3 byte (24 bit) per pixel * 60 fps * 86400 sec in een dag = 27 miljoen gigabyte, nog steeds een slordige 50x minder dan de geclaimde miljoen terrabyte. In de praktijk is het erg onwaarschijnlijk dat ze een 60 fps videostream helemaal niet comprimeren.

b) Een fatsoenelijke blu-ray heeft een maximale bitrate van 50mbit/s, wat neerkomt op ongeveer 22.5 gigabyte per uur. Als alle bijna-400 imaging chips een blu-ray datastream opleveren, zit je per dag op ongeveer 216.000 gigabyte. Wederom; Veel dichter bij een miljoen GB/dag dan een miljard. De kans dat elke imaging-sensor meer dan 4000x (!) meer data geeft dan een enkele blu-ray stream lijkt erg klein.

c) De 5000 uur aan HD materiaal die als vergelijkingsmateriaal genoemd worden, laten we weer even het blu-ray voorbeeld nemen, is ongeveer 112500 gigabyte.

.. en zo kan ik nog wel even door gaan. :P (Wat dacht je van een raid-0 write naar ~20 disks om de data-stream bij te kunnen houden, versus bijna ~20.000 disks.) Een datastream vanuit een enkel apparaat dat 1.000.000 Terabyte per dag genereert just doesn't make sense, zelfs niet voor DARPA.

[Reactie gewijzigd door TumbleCow op 28 januari 2013 14:10]

Waarschijnlijk bedoelen hebben de researchers zich verrekend bij het terugrekenen van het totale aantal bytes en bedoelen ze inderdaad een miljoen gigabytes.

Zoals al eerder opgemerkt, je ziet gewoon geprerenderde videobeelden, terwijl de overijverige voice-over het heeft over 'simply by touching the screen'. Waarschijnlijk bevat de reportage wel meer onjuistheden. Wie zegt bijvoorbeeld dat de 1,8 gigapixel de totale output is van het systeem? Het kan ook zijn dat alle sensors bij elkaar 1,8 gigapixel zijn, maar dat je door de data van die sensoren te combineren veel hogere resoluties haalt. En dan wordt juist de miljoen terabyte per dag weer geloofwaardiger.

In de video wordt gezegd dat objecten van 6 inches zichtbaar zijn. Als we even voor het gemak zeggen dat één pixel 6x6 inches is, dan kom je als het totale gebied 25 vierkante mijl is, uit op een totale resolutie van 100,3 gigapixel.

Goh.

100.362.240.000 * 3 * 60 * 86400 = 1.560.833.556.480.000.000 bytes per dag. En dat is wél een miljoen terabyte.
Uiteraard is het antwoord inderdaad 'we weten niet wat de echte situatie is'. Nevertheless, lijkt een gigabyte / terabyte verwarring me hier de meest logische verklaring.
Super-resolutie door het combineren van meerdere beelden is inderdaad mogelijk, maar niet voorbij de gecombineerde resolutie van de sensoren, tenzij je over tijd integreert.

Daarnaast kom ik op een ander resultaat als ik uitga van de 6 inch op 25 vierkante mijl;
25 vierkante mijl is ongeveer 5 mijl x 5 mijl. 5 inch past 52800 keer in 5 mijl. 52800^2 = 'maar' 2.78 gigapixel.

Nu kan ik er naast zitten, maar volgensmij spraken ze in de video over 15 square mile ipv 25. Met een snelle wolfram alpha ( (sqrt(15) mile / 6 inch) ^ 2 ) kom ik op 1.67 gigapixel; Dicht bij de beweerde 1.8 gigapixel.
Volgens wikipedia is Cray in jan 2012 begonnen met de constructie van de (destijds) grootste storage array ter wereld en die had 500 petabyte aan capaciteit http://en.wikipedia.org/wiki/Petabyte . Opslaan van 1 exabyte per dag voor meerdere dagen (voor één drone) lijkt mij dus niet heel realistisch. Opslaan van 1 petabyte per dag per drone is al een behoorlijke taak, maar voor DARPA waarschijnlijk niet onmogelijk.
Je komt er nooit achter maar: interessant hoe ze in drone al de afweging tussen belangrijke / onbelangrijke informatie laten maken op basis van software. Je kunt nooit al deze informatie opslaan in de drone / met mens beoordelen / via een netwerk verzenden. Dus de prioritering moet via software in de drone gebeuren. Dat is pas een stukje interessante tracking van mensen en objecten.
Ik vermoed dat ze alleen de data doorzenden die veranderd, dus bewegende onderdelen zoals mensen, auto's en vogels.
Alles veranderd continue doordat het voertuig zichzelf voortbeweegt ;)
Gebouwen en de omgeving verplaatsen zich niet hoor ;)
Maar wel relatief t.o.v. de drone. Al zal op een dergelijke hoogte een 10 meter naar voren of achteren zo goed als geen verschil geven.
De invalshoek van de camera wel. Daarnaast heb je ook met licht te maken. Als er een wolk voor de zon schuift veranderd het beeld. Maar beweegt het ook?
Weet je wat voor rekentijd daarvoor nodig zou zijn? Om op 1,8GP alle random verstoringen eruit te filteren en daarna verschuivingen ten opzichte van de background te meten. Dat zou een klein serverpark in de drone vereisen, plus voeding. Daarom is het zo interessant hoe ze dit werkbaar hebben. Wie weet wel een dikke GB-verbinding naar een satelliet.
Een poos geleden was er een verhaal over een (ik dacht zelfs een Nederlander) stuk software dat objecten kon tracken. Maar niet zomaar tracken, hij kan ze ook blijven volgens als ze even uit beeld gaan en weer ergens anders opduiken. De software kon dan 'zien' dat het hetzelfde object was. Dus als meerdere auto's een tunnel in gaan, pikt hij er de juiste weer uit als ze er uit komen.
Die techniek zal hier ook wel in verwerkt zijn.
En dit is wat ze laten zien. Ongetwijfeld dat dit minstens 3 jaar oud is en dat de nieuwere technologieën, die ze niet laten zien, nog veel verder gaan.


Het volledige documentaire "Rise Of The Drones" kun je online zien

http://www.youtube.com/watch?v=_buPcY3qbsE

[Reactie gewijzigd door Lisadr op 28 januari 2013 12:16]

Grappig dat ze de sensor Argus noemen, hoogstwaarschijnlijk een reverse acronym voor Argus: een grieks mythologisch wezen met 100 ogen, waarvan er altijd maar 2 dicht waren. Hier komt ook het gezegde "ergens met argusogen naar kijken" vandaan, wat betekend dat je iets wantrouwd (na het verhaal dat Hera Argus de opdracht gaf om Io in het oog te houden). Deze naam geeft goed weer dat er 2 kanten aan ARGUS zitten: het in de gaten houden van mensen, maar welke mensen?

Technisch gezien is ARGUS natuurlijk een beest van een sensor, ook al hebben we al eerder van dit soort plaatjes gezien door het combineren van meerdere camera's. Het probleem is niet het aggregeren van deze beelden, maar het stabiel houden van 360 camera's en tegelijkertijd foto's laten schieten. De andere voorbeelden die ik ken van dit soort opstellingen maakten dan ook gebruik van een behoorlijk solide constructie om de camera's op te monteren en dat maakt de prestatie van Darpa dan ook nog groter om deze mega-camera op een UAV te monteren.

Een puik stukje werk dus, maar of ik hier op zit te wachten? Ik herriner mij nog al te goed de ABC wapens in Irak...
Technisch gezien is ARGUS natuurlijk een beest van een sensor, ook al hebben we al eerder van dit soort plaatjes gezien door het combineren van meerdere camera's. Het probleem is niet het aggregeren van deze beelden, maar het stabiel houden van 360 camera's en tegelijkertijd foto's laten schieten.
Het is video, en om real-time data uit bijna 400 sensoren te combineren en er hogere resolutie data uit te halen lijkt me nogal een prestatie van formaat. Tevens denk ik dat ze hier niet 400 camera's hebben gepakt, maar 400 beeldsensoren. Die zijn redelijk makkelijk te stabiliseren op een platform, lijkt me, en de drone vliegt zo hoog dat het ding waarschijnlijk ook zeer stabiel vliegt.
Het verhaal stinkt ook, vol met fouten en onwaarheden.
Als deze drones continu intensief zenden, dan lijkt het me een peuleschil om ze te detecteren en uit de lucht te schieten met een intelligente luchtafweerraket. Hoe gaan ze dat oplossen?
Prachtig! Niet een warmte-zoekende, maar een data-zoekende raket !

Zou die drone een vast IP adres hebben? Makkelijker voor het zoeken.
Wat me veel leuker lijkt om te weten, zou een petje met krachtige IR leds je een witte pixel maken? of misschien met een platte spiegel als paraplu? :+
Welke verbinding gebruikt deze drone dan om al dat beeldmateriaal live te streamen naar de operator?

Of zou slechts een kleiner deel van het beeld gebruikt worden en de rest lokaal opgeslagen?

[Reactie gewijzigd door Mirved op 28 januari 2013 12:02]

Aangezien er geen schermen bestaan die zoveel pixels weer kunnen geven lijkt het mij dat ze gewoon een full-hd (al lijkt het mij kleiner gezien het filmpje hier boven) en stukjes inzoomen :) De rest zal dan ook gestreamed worden maar niet live ...

... denk ik :')
Als je het filmpje bekijkt zegt de beste man dat het ook mogelijk is om terug te kijken naar een willekeurige plek in het dekkingsgebied op een willekeurige tijd. Bovendien, als niet de output van alle camera's zou worden opgeslagen, hoe komen ze anders aan het getal van 1 EB aan video per dag?

Als je 1 EB deelt door het aantal seconden in een dag kom je op 11,5 GB/s uit, en een ruwe videostream van 11,8 gigapixels bij 12 FPS in 4:1:1 subsampling is 32 GB/s, dus het lijkt me dat ze minimale compressie doen en het dan gewoon naar beneden stampen. Als de verbinding via satelliet loopt, vraag ik me af hoeveel van die drones ze in de lucht kunnen hebben voordat de capaciteit van zo'n satelliet op is.

Lijkt me trouwens wel interessant om het datacenter te zien wat 11,5 GB/s kan wegschrijven in een logisch benaderbaar formaat. :9
Gezien de video laat zien dat de onboard electronica bewegende objecten kan tracken, lijkt het mij dat het alleen bewegende objecten terugstuurt, in plaats van alle data dat de camera opvangt.
In dat geval valt het op zich wel mee met de data die verstuurd moet worden.
Het selectieve geheugen van mensen is bewezen. :)

Zonder gein nu, maar denk even terug aan het bericht dat de overheid aldaar bezig was met het bouwen van een ontiegelijk groot datacentre.
Denk even terug aan het bericht dat ze duizenden mensen zoeken voor "ict" en dergelijk werk, (het besturen van drones en onderhouden datacentre.)
En denk aan dit bericht.

En zo kijken we terug in het verleden, mogelijkheden tot herkenning en pinpointen.

Gegevens pin automaat, jij was daar, terug met het systeem en pin pointen. Vanaf nu kan men jou volgen en niet in persoon maar ook auto ect ect ect..

Wat het filmpje laat zien is nog maar beperkt van wat het ding kan, Minority report zegt je wel iets, vooruit kijken wordt wat lastig maar terug is geen enkel probleem.
Het is niet meer zo dat jij je niet meer kan herinneren wat je op die en die dag deed, oompje staat zegt gewoon kijk eens pietje, wat heb je hier op te zeggen.. Nu nog een keer onze vraag pietje, wat heb jij gezien op dat tijdstip...
(je hoeft niet eens dader te zijn, getuige mag ook, maar je wordt dan al snel verdachte als je niets wil zeggen.. bewijs is er toch...)

Slechte ontwikkeling dit soort dingen, los gezien geheel onschuldig lijkt het, maar volg de berichten en koppel ze en je ziet het grotere geheel... En van dat geheel wordt ik bang. Terwijl ik totaal niet bang ben voor terroristen..
Satelliet verbinding moet je continue richten, aangezien het een straal zender is.
Dan moet er een beweegbare schotelantenne in die drone zitten.
Ook verbruikt het veel energie.
Lijkt mij vrij onpraktisch

[Reactie gewijzigd door linuss1337 op 28 januari 2013 12:21]

Vrijwel alle grotere drones worden mbv satelliet verbindingen gevlogen, in de praktijk dus niet zo onpraktisch.
(http://science.howstuffworks.com/predator6.htm)
Dat ze met satelliet verbindingen gevlogen worden zegt niets over de het live streamen van beeldmateriaal.


C-Band line-of-sight data link = een soort WIFI verbinding

When operations are beyond the range of the C-Band, a Ku-Band satellite link is used to relay commands and responses between a satellite and the aircraft. Onboard, the aircraft receives orders via an L-3 Com satellite data link system

[Reactie gewijzigd door linuss1337 op 28 januari 2013 13:02]

Satelliet verbinding moet je continue richten, aangezien het een straal zender is.
Dan moet er een beweegbare schotelantenne in die drone zitten.
Ook verbruikt het veel energie.
Lijkt mij vrij onpraktisch
En dan nog. x TB aan beeldmateriaal live verzenden over een sat. verbinding?
[...]


En dan nog. x TB aan beeldmateriaal live verzenden over een sat. verbinding?
Ze hebben het over een miljoen terabyte per dag; da's een exabyte (10^18 bytes)! En dat wordt dan ook nog allemaal gearchiveerd natuurlijk. Vraag me af op welk medium ze dat dan doen. Zelfs als het 4TB hdd's zijn dan hebben ze nog 250.000 stuks nodig. :o Edit: of 200.000 tapes van 5GB.

[Reactie gewijzigd door Aham brahmasmi op 28 januari 2013 14:56]

Ik ga ervan uit dat de genoemde hoeveelheden uncompressed raw data is.
Voor opslag wordt vast lossy gecomprimeerd, maar het blijft wel erg veel.
En hoe denk je dat Canal Digitaal aan al die HD zenders komt dan? Enig idee hoeveel terabyte er per dag via de astra satelliet wordt verzonden.

Alleen gebruikt de Argus meer bandbreedte dan een normaal HD TV kanaal.
Heb je ooit een autobus gezien die live verslag doet van voetbal of het nieuws?

Dit moet dan in een drone ingebouwd worden op een beweegbare statief die zich op de millimeter nauwkeurig gericht blijft op de satelliet in de ruimte.
En daarnaast voorzien worden van krachtstroom :P
Het zal wel een speciale radio frequentie zijn voor het leger.

WIFI 100W
Zal meer iets in de 8 GHz band zijn, dichtbij wat de NASA gebruikt voor deep space comm. Omdat dat ding vliegt is penetratievermogen niet belangrijk. Bovendien zijn daar hoge snelheden op mogelijk.
De communicatie is een veelvoud van systemen waarbij sommige gewoon mogen uitvallen. Grootste afstand wordt afgelegd door middel van lange afstands infiniband verbindingen. Onder meer een Canadees bedrijf levert dat.
Daarmee leg je simpeltjes honderden kilometers af met 1 kabeltje.

Kun je gewoon op internet bekijken. Kopen zal vast te duur zijn voor particulieren :)

Een andere methode die steeds meer gebruikt wordt is gewoon met een hele grote schotelantenne de zaak omhoogstralen. Afhankelijk van de zon en het jaargetijde kun je
dan in 1 klap in USA komen.

De civiele versie hiervan wordt veelal gebruikt in de financiele wereld, daar dit de *snelste* methode is. Zij dienen echter in het civiele gebied te zenden (zeg bijvoorbeeld 2.8Ghz).

Dat is de snelste methode om van A naar B te komen op deze planeet.

Die methode werkt net zo als hoe de radio-amateurs het doen, zij het op iets grotere schaal en veel hogere frequentie.

Op veel strategische plekken in deze wereld zie je van die bunkerachtige gebouwen, die er toch civiel uitzien, staan met enorme schotelantennes op het dak.

Dat is met name voor de beurshandel. Als jij sneller bent dan de (meeste) anderen, dan kun je de ene beurs tegen de andere uitspelen.

Zo kwam ik wat van die gebouwtjes in Land's End tegen (UK) onder meer.

Nu valt dit alles in princpe prima te storen.

Voor het leger is snelheid minder belangrijk. Die doen het dus goedkoper, maar betrouwbaarder.

Vergis je niet erin dat veel t.a.v. de predators geheim is. Met name de software. Ook Nederland mag die software niet gebruiken. De predators die geexporteerd worden hebben andere software. Er zijn overigens heel weinig naties die predators gebruiken mogen van USA.

An sich is het handiger om zo iets zelf te ontwikkelen als EU, want het gaat met name om de geintegreerde software voor de marinier op de grond. De kwaliteit daarvan bepaalt hoe goed je systeem is - en juist dat houden de yanks voor zichzelf.

1 van de redenen waarom de yanks niet op elkaar schieten en aantal jaar geleden de Nederlanders in Afghanistan wel.
"Just by touching the screen Antoniades has opened up a window showing a detailed area." (1:20)

Volgens mij zie ik die gozer toch echt in MPC een filmpje aanklikken, en is dit dus gewoon prerendered. Als die onderzoeker zo graag het publiek wil laten weten wat zijn uitvinding kan, waarom liegt deze reportage er dan over? Geeft mij niet veel vertrouwen in het project.

Oh, en als ik uitga van een redelijke bitrate van 5GB per uur, wat met de huidige codecs goede Full HD-beelden mogelijk maakt, kom ik niet aan een miljard GB. (1 EB) , maar aan 2500 (2,5 TB)

Valt dus niet echt serieus te nemen, dit.

[Reactie gewijzigd door Origin64 op 28 januari 2013 12:13]

1. De onderzoeker zegt dit niet maar de narrator :)
2. Het feit dat ze een classified sensor niet in real-time actie laten zien, maar dat ze filmpjes laten zien van het process is nou niet echt schokkend :P.
Ik zie niet in hoe het opnemen en later afspelen van beelden die de werking van de sensor demonstreren, in plaats van het ding operationeel tonen, de informatie die die beelden bevatten minder classified zou maken, tenzij de beelden achteraf zijn aangepast. Ik vertrouw het niet.
Ik denk niet dat ze je zomaar even bekend laten worden met de interface die dit allemaal mogelijk zou moeten maken. Een voorbeeld aan de hand van filmpjes zou voor de documentaire moeten voldoen.
Dat vond ik ook al raar. Als dit real time zou zijn, waarom zie ik dan zo'n progressiebalkje opschuiven in de tijdsbalk? Of het is vooraf opgenomen of het systeem is nog niet af en dit is een demo van wat mogelijk _gaat_ worden.
Nou, dan geloof je het niet. Erg belangrijk voor het project denk ik.

Defensie laat nooit dingen zien die operationeel belangrijk zijn. Zoals eerder opgemerkt zal dit dus wel reeds achterhaalde technologie zijn. Het is leuk om een inkijkje te hebben in wat die dingen zo'n beetje kunnen, maar het (technologisch) opmerkelijkste is denk ik de processing/tracking/tracing software/hardware die in dat ding zit. Een grote sensor maken van heel veel kleintjes is hardly rocket science. Ook de opslag is een uitdaging, maar wel te doen natuurlijk. Zolang je genoeg centjes hebt, kan alles.
Als je zo wantrouwend bent dan heb je in dit soort berichten überhaupt niet zo veel te zoeken.

De techniek die hier tentoongesteld wordt is waarschijnlijk al enkele jaren oud, zoals elders in deze draad al gezegd is. Wat ze nu op dit moment allemaal al kunnen, kunnen we alleen maar naar gissen met z'n allen.

Tuurlijk gebruik je een filmpje, als je spierballen wil laten zien. Je moet er toch niet aan denken dat er iets misgaat tijdens een live demo? Dan sla je een gigantische flater, zeker in deze tak van 'sport'.
ze kunnen alles wat ze filmen archiven zeggen ze, dus het zal wel live doorgestreamed worden en ergens in een gigantisch, geheim datacenter gestored worden
Vraag me af hoe ze al die data opslaan... een miljoen terabytes, per dag?

Heb je 'n hele hoop schijven voor nodig, lijkt me.
Opslagruimte nodig?
nieuws: Moleculaire en dna-technieken moeten opslagcapaciteit verveelvoudigen

Hoeveel miljarden Petabytes wil je binnenkort hebben?
Je kan de hoeveelheid data die verstuurd moet worden afstemmen op het feit wat het menselijk oog kan waarnemen op een televisie of monitor.

Je kan dan lekker ver in zoomen digitaal.
Ideaal voor spionage

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True