Nieuwe forensische zoekmachine van NFI is 48 keer zo snel als voorganger

Het Nederlands Forensisch Instituut heeft zijn nieuwe forensische zoekmachine gepresenteerd. De Nationale Politie gaat het systeem met de naam Hansken vanaf dinsdag gebruiken. Hansken analyseert data 48 keer zo snel als zijn voorganger.

Het zoeksysteem volgt Xiraf op, dat sinds 2010 in gebruik is. Volgens het NFI is Hansken in staat om in 30 minuten tijd dezelfde hoeveelheid werk te verrichten als waar Xiraf 24 uur voor nodig had.

De forensische zoekmachine kan ingezet worden om digitaal bewijsmateriaal te doorspitten. Hansken kan drie terabyte aan data per uur analyseren. De software identificeert daarbij zoveel mogelijk sporen. Volgens het NFI is deze snelheid nodig gezien de gemiddelde hoeveelheid data die bijvoorbeeld in kinderpornozaken wordt aangetroffen. Die is gelijk aan 'een file van vijf kilometer vrachtwagens, volgeladen met dubbelzijdig bedrukt papier'.

Het systeem kan door rechercheurs vanaf hun eigen computer benaderd worden. Alle tactisch en digitaal rechercheurs moeten op termijn Hansken in kunnen zetten voor het doorzoeken van verzamelde data. De afdeling Digitale Technologie van het NFI werkte samen met softwareontwikkelaars twee jaar aan de ontwikkeling van Hansken. Privacygevoelige informatie is volgens het persbericht 'optimaal geborgd'.

De Nationale Politie gaat als eerste partner aan de slag met Hansken. Later moeten meerdere partijen volgen. Meerdere landen zouden al interesse getoond hebben in de nieuwe forensische zoekmachine van het NFI.

Hansken is vernoemd naar een olifant die in de 17e eeuw door Nederland toerde en die Rembrandt van Rijn in 1637 schetste. Het NFI koos voor de naam, omdat olifanten bekend staan om hun goede geheugen.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Door Julian Huijbregts

Nieuwsredacteur

13-10-2015 • 13:29

84

Reacties (84)

84
82
68
4
0
0
Wijzig sortering
Privacygevoelige informatie is volgens het persbericht 'optimaal geborgd.'
Optimaal geborgd? Betekenisloze marketingterm. Het systeem is juist bedoeld om o.a. zoveel mogelijk privacygevoelige informatie boven water te halen. Want voor justitie is het wie net zo belangrijk als het wat.
Ik heb een presentatie bijgewoond (van Xiraf) en er is een jurisch probleem als een agent emails/documenten vindt op de harde schijf van een verdachte welke gaan over vertrouwelijke gesprekken tussen de verdachte en zijn advocaat.

Zelfs de politie is gebonden aan het "Client Confidentiality" principe en mag deze informatie niet inzien.

Het is lastiger dan je denkt.
Dit systeem wordt volgens mij gebruikt om de informatie die reeds verzameld is, te doorzoeken/catalogiseren/groeperen etc. Eventuele 'privacyschendingen' zijn al geweest dan, want de informatie is immers al bij elkaar geharkt door politie/justitie :)

Ben wel met je eens dat het verder redelijk betekenisloos is, omdat bij een systeem als dit te vermelden.
Het idee is denk ik eerder, dat dit systeem de rechercheurs de kinderporno wel laat zie, maar wat die zelfde persoon met zijn/haar echtgenoot zelf heeft gefilmd dus niet
Je zit er een beetje naast. Hier worden hele harddisks ingelezen. Van ieder bestand wordt de md5 sum bepaald. Van iedere bekende strafbare afbeelding is de md5 sum in een database geladen. Deze twee worden met elkaar vergeleken en zo ziet men hoeveel bekende strafbare afbeeldingen op de schijf aanwezig zijn.

Wat er daarna overblijft zal handmatig bekeken moeten worden om te bepalen of de afbeelding strafbaar is. Deze zal daarna ook in de database worden opgenomen.
Dat is wel een beetje erg kort door de bocht. Het is natuurlijk een fluitje van een cent om de hash van elk bestand random te verpesten, zodat er totaal geen match meer gemaakt wordt. Ik mag hopen dat het hierbij dan niet blijft en dat er beeldanalyse (bv. op brightnessverloop, beeldschakelfrequentie, geluidsamplitudes, etc.) gedaan wordt, waar dan net als een soort van vingerafdruk op gezocht wordt (wat dan veel moeilijker te omzeilen is, omdat dan de video inhoudelijk veranderd moet worden en ook delen gematched kunnen worden).

[Reactie gewijzigd door friend op 24 juli 2024 20:09]

Ik vermoed dat er nu gewoon goede auditing is toegepast. Zodat je kan inzien wie, wanneer op wat heeft gezocht voor welk dossier. Zorg en dan voor dat er een goede rechtenstructuur aan gekoppeld is met authenticatie en autorisaties en je hebt een systeem waarbij privacy beter gewaarborgd is dan in een systeem die dat allemaal niet heeft, zoals waarschijnlijk bij xiraf het geval is geweest.
Ik ben benieuwd welke technieken ze hebben toegepast om dit 48 keer sneller te maken. Van HDD naar SSD, of naar Raid opstellingen? Van single core naar multicore processing of GPU ondersteuning?

Edit: het filmpje laat als enige zien dat ze nu de gegevens bij invoeren van te voren categoriseren, maarja lijkt mij sterk als ze dat bij het vorige systeem ook al niet deden.

[Reactie gewijzigd door Mic2000 op 24 juli 2024 20:09]

Denk dat ze gewoon de stagiaire van het vorige systeem vervangen hebben door een echte programmeur en effciente code geschreven hebben.
Je reactie wordt slecht gewaardeerd, maar je hebt wel degelijk gelijk. De basis van Xiraf is gemaakt door een aantal afstudeerders/stagairs.

Xiraf was qua design een ramp. Een tool die gerund werd door een zeer matig zelfgeschreven querysysteem dat XML-queries aan een backend voerde, gebruik maakte van Oracle-specifieke extensies om een Lucene-searcher aan te sturen en door threading issues niet altijd consistent dezelfde resultaten opleverde.
Kijk, intuitie noemen ze dat :p
Vrees dat je gelijk hebt.
wat beschamend is voor het NFI.

ik zelf vind het een schande voor de Nederlandse staat... dit soort dingen door studenten te laten knuttselen geeft niet echt een Prof beeld van de overheid.
wat ik al niet had door de DigiD Affaire enz.....
ik vind het een schande dat men geen vertrouwen heeft in het kunnen van studenten. :P Waarom moet er een gevestigede naam voor garant staan om vertrouwen in een software pakket te kunnen garanderen?

Ik meen me te herinneren dat google ook ooit als studentenprojectje begonnen was.....
Niet alleen dat. Een grote firma heeft miljoenen verspild aan het maken van een electronisch spoorboekje, en toen lukte een student het, als afstudeeropdracjt, om het op 3 floppies te zetten. Idem DUO heeft miljoenen gestopt in een systeem van studie financiering, vervolgens kwam er de Delftse poenflop die het wel deed.
Goed spreken natuurlijk over zaken van 25 jaar geleden.
Maar in die tijd werkte tekstverwerkers als Wordstar en Wordperfect uitstekend op een machine van 16 Mhz, en 640KB.
Nou ik ben het met je eens dat er genoeg vertrouwen moet zijn in onlangs afgestuurde studenten, daarvan zullen er vast een paar bij zitten die beter zijn dan mensen die al 30 jaar in het vak zitten ( kans is kleiner, maar goed kijkend naar de jeugd van 50 jaar geleden en van 20 jaar geleden is de kans groter dat de IT erin gegroeid is).

Vergelijken met google gaat hier natuurlijk niet op, google is van oorsprong een zoekmachine en heeft minder belangrijke taken dan een forensische zoekmachine.
Indien een 2tal studenten een bedrijfje opzet die slecht loopt of wat dan ook dan ligt niemand daar wakker van op die 2 studenten na, indien je een forensische zoekmachine ontwikkelt met/door studenten die vervolgens niet goed loopt dan zijn de gevolgen groter, vooral als je dat systeem ook nog als basis gaat gebruiken.
Ik vindt het anders een prima strategie.
Wat studenten hebben een platform gemaakt en aangetoond dat het kan. Tuurlijk was het niet gebouwd op de toekomst en snel in elkaar gezet. Maar daarmee zijn de eerste inzichten verkregen, welke functionaliteit belangrijk is en wat de eigenlijke requirements moeten zijn. Daarna is men verder gegaan met het ontwikkelen van een onderhoudbaar en professioneel platform met een duidelijk doel. Een platform dat (hopelijk) onderhoudbaar en geoptimaliseerd is. Vooral op dat laatste punt hebben ze blijkbaar een aardige slag kunnen maken.
Wat mij betreft lijkt dit dus een voorbeeld van een niet uit de klauwen gelopen overheidsproject.
Q: Dear guru, what is the path to success
Guru: Through good decisions
Q: How do you make good decisions
Guru: Through experience
Q: How do you gain experience
Guru: Through bad decisions
Studenten missen nog de ervaring op veel vlakken. (Ik kan het weten, ik was ook ooit student ;) ) Ze kunnen brilliant zijn, maar sommige dingen leer je toch echt door het te doen. Wat niet wegneemt dat je al best wat ervaring kan opgedaan hebben tegen dat je de schoolbanken verlaat.

Projecten van bedrijven falen dan (hopelijk toch) ook om volledig andere redenen dan uitgegroeide hobby- of stageprojecten.
Ik vermoed dat men het bestandssysteem niet meer gebruikt en op een veel lager niveau de hd's en ssd's uitleest. Dat kan sequentieel, wat bij een hd al een behoorlijke winst oplevert.
Voor patroonherkenning zijn ook betere en snellere algoritmes gekomen.
Een in beslag genomen harde schijf wordt bit-voor-bit uitgelezen (met hardware die de schijf enkel read-only kan benaderen om fouten te voorkomen). Zo kunnen dus ook verborgen partities of verwijderde bestanden worden opgespoord.

Xiraf bevat verschillende analysetools, onder andere tools die gangbare filesystemen analyseren. Binaries als image files worden vergeleken met een database van hashes van bekende strafbare files, zodat rechercheurs veel kinderporno kunnen vinden zonder de bestanden te hoeven openen.

Ik neem aan (maar weet daar een stuk minder van af) dat bij de nieuwe tool eenzelfde strategie gebruikt wordt, maar veel slimmer met indexering en map-reduce etc. gewerkt wordt.
Wordt er trouwens geen image gemaakt van een forensisch te analyseren schijf? Lijkt me logisch dat je de analyses op een bit to bit kopie uitvoert om zo het origineel bewijs te behouden.
Klopt, en die image is weer input voor Xiraf en ongetwijfeld ook Hansken.
Uitlezen gebeurt dus één keer en alle verdere recherche gebeurt op die image, om precies de reden die devlaam aanhaalt.
"met hardware die de schijf enkel read-only kan benaderen om fouten te voorkomen " => Dit heeft meer te maken met de bewijsvoering in de rechtszaal. Een schijf waarop veranderingen hebben plaatsgevonden tijdens het onderzoek zijn het voor de verdediging een te gemakkelijk aanvalspunt. Daarnaast wordt de contra expertise er ook lastiger door.
Leuke vergelijking en er zijn natuurlijk veel vragen.
Hoe oud was het oude systeem 10-15 jaar misschien ?

Wat nog belangrijker is, waarom kan het nu ineens 48x sneller, hebben ze al die jaren zitten te slapen ?
Dat systemen sneller worden is normaal maar van de ene op de andere dag 48x laat naar mijn mening zien dat ze al tijden hebben zitten te slapen en gigantisch achterliepen op wat mogelijk was.
Het gaat om een stukje software wat uit 2010/2011 stamt en op verschillende hardware kan draaien. Of de tests ook inderdaad op dezelfde computer zijn uitgevoerd is niet duidelijk.
Er wordt hier gesproken over "het systeem"
Voor mij is dit een combinatie van hard en software.

Aan de andere kant had dit wel vermeld mogen worden.
En dan zetten ze Hansken online, en worden alle kernraketten gelanceerd.... }:O
nvt

[Reactie gewijzigd door tunnelforce1 op 24 juli 2024 20:09]

Dat je over die hardware niets leest is logisch, want het gaat om een software applicatie (de algoritmes) die 48 keer sneller is dan zijn voorganger. Onafhankelijk van de hardware waarop deze software draait, is deze versnelling gerealiseerd. Zie dit dus niet als een supercomputer die opgevolgd wordt door een nieuwer model.

[Reactie gewijzigd door Cloud op 24 juli 2024 20:09]

Maar software en hardware gaan natuurlijk hand in hand als je naar prestatie van een applicatie kijkt..
Als je code optimaliseerd maar hardware halveert dan is het mogelijk trager..

Alleen hardware ertegenaan gooien is vaak niet de oplossing, a) werkt niet altijd sneller b) kostentechnisch niet handig. En aleen softwaretuning heeft ook zijn beperkingen, maar met een totale re-write kan je natuurlijk een hoop winst halen met brakke? software van 10+ jaar geleden.
Dat de uiteindelijke snelheid bepaald wordt door een combinatie van software en hardware staat buiten kijf. Maar als men zegt dat een applicatie 48 keer sneller is, dan moet je dat dus lezen als 'sneller op dezelfde hardware'.

De applicatie zal ongetwijfeld systeemvereisten hebben voor de server waarop dit draait en de connecties waar deze server zijn data vandaan moet plukken. Maar dat is hiervoor verder niet relevant. Bij dit soort toepassingen is meer hardware er tegenaan gooien waarschijnlijk allang geprobeerd/geëvalueerd. Dat is namelijk veruit het makkelijkste/goedkoopste om te realiseren.

Vergis je niet in hoe belangrijk efficiënte code is, als je over dit soort hoeveelheden data & executietijden praat :)
Maar als men zegt dat een applicatie 48 keer sneller
maar dat staat er niet.

Er staat dat het systeem met de naam Hansken 48 keer zo snel is.
Een systeem is een combinatie van hard en software.
Niet duidelijk is of dit dezelfde hardware is als de hardware waar Xiraf op draaide (draait). Waarschijnlijk niet, want die zou wel eens 5 jaar oud kunnen zijn.

[Reactie gewijzigd door misterbennie op 24 juli 2024 20:09]

Het woord systeem wordt dan wel gebruikt in het artikel hier op Tweakers, het bron artikel bij het NFI rept er met geen woord over. Ze noemen niet één keer het woord 'systeem'. Wat er wel staat is:
Opvolger van Xiraf

Hansken is de opvolger van Xiraf; de softwaretool die in 2006 als researchproject begon en in 2010 aan de Nationale Politie werd geleverd. Xiraf was de eerste forensische softwaretoepassing die het verwerken van in beslag genomen data automatiseerde. Maar wat Xiraf in 24 uur kon, doet Hansken in 30 minuten.
Dat ze het in het persbericht af en toe zoekmachine noemen is wat verwarrend maar ze noemen Xiraf/Hansken de gehele tijd 'software', 'tool', 'toepassing' en 'applicatie'. Anders zou je inderdaad termen als 'systeem' verwachten en op zijn minst één vermelding van iets van hardware verwachten. Daarnaast als je gaat kijken op de informatiepagina van Xiraf zie je ook daar geen enkele vermelding van een geheel systeem maar alleen maar 'software' en 'applicatie'.

Kortom, het is gewoon software die vervangen wordt door nieuwere/snellere software. Dat hardware van invloed zal zijn is 100% waar maar de versnelling lijkt behaald te zijn puur door een betere applicatie.
Ik ben ook eens aan het rondstruinen geweest en het is inderdaad waar dat dit softwarepakket waarschijnlijk zonder hardware draait :-).

Er wordt de hele tijd over applicatie, software, database gesproken, maar geen enkele keer over het systeem.
Wel worden er harde tijden genoemd namelijk 24 uur en 30 minuten.

Daar software niet zonder hardware kan draaien en ze (waarschijnlijk) gemeten hebben hoe lang e.e.a. duurt moet er hardware gebruikt zijn.
Logisch gezien gebruik je bij voorkeur geen oude hardware dus mijn aanname is dat er gebruik van nieuwe(re) hardware is gemaakt.

Maar meer is het dan ook niet, een aanname.
Net zoals jouw aanname dat ze alleen de software vervangen hebben.

[Reactie gewijzigd door misterbennie op 24 juli 2024 20:09]

Hardware wordt in veel publicaties (en dus door de managers die die berichten lezen) eigenlijk al ondergeschoffeld sinds de opkomst van 'de cloud'. Het wordt vanzelfsprekend gevonden of gewoon straal vergeten. Een soort commodity eigenlijk.

Eigenlijk vind ik dat wel best; ik blijf lekker hardware samenstellen en leveren aan de bedrijven die door hebben dat je zonder hardware ook geen software kunt draaien (waaronder natuurlijk de cloudbedrijven zelf, als die dat niet zouden beseffen leefden we in een vreemde wereld).

[Reactie gewijzigd door mae-t.net op 24 juli 2024 20:09]

Ze zijn daar wat vaag over... Ik zie dat de applicatie sneller is dan zijn voorganger... Aangezien de oude applicatie nog steeds draait (neem ik aan) zullen ze de hardware niet gerecycled hebben, en het zou een beetje dom zijn als je nieuwe software of vergelijkbare oude hardware installeerd...

Ook staat er op de site:
"Een team van IT-architecten, testers, softwareontwikkelaars en forensisch deskundigen van de afdeling Digitale Technologie van het NFI werkten twee jaar aan de ontwikkeling van Hansken. "
T-architecten is ook erg abivalent.. kan software archtecten zijn, maar ook hardware.. en waarschijnlijker beide..

Oftewel, we zullen het waarschijnlijk nooit weten..
Dat de uiteindelijke snelheid bepaald wordt door een combinatie van software en hardware staat buiten kijf. Maar als men zegt dat een applicatie 48 keer sneller is, dan moet je dat dus lezen als 'sneller op dezelfde hardware'.
Heel simpel Hansken verwerkt 3TB per uur. Dat is gemiddeld 2 zaken per uur. Xiraf deed 24 uur per zaak gemiddeld. Door betere associatie algoritmen en combinatie mogelijkheden, hopen we meer zaken op te lossen, omdat is gebleken dat de eerste 48 uur de beste pakkans opleverd.
Het is natuurlijk altijd moeilijk om dit soort versnellingen helemaal hardware independent te beoordelen. Het zou kunnen dat het nieuwe algoritme met een ssd bijvoorbeeld minder of meer winst oplevert dan op een HDD tov va het oude algoritme. Dat ligt er natuurlijk aan dat verschillende hardware verschillende bottlenecks heeft. Wellicht bottleneckde het oude systeem op iops op HDDs. Als dit systeem deze bottleneck omgaat maar ipv tegen een limiet van bandbreedte aanloopt, dan zou de winst op een ssd aanzienlijk lager kunnen uitvallen dan op een HDD omdat het verschil tussen iops op HDDs en ssds een veelvoud groter is dan het verschil in bandbreedte.
Want je wel gelijk aannemen, is (op basis van het artikel) dat het systeem idd op de huidige hardware 48 keer sneller is fan het oude systeem op de zelfde hardware. Maar op andere hardware zou het verschil nog wel eens veel kleiner of juist zelfs groter kunnen zijn.
Want je wel gelijk aannemen, is (op basis van het artikel) dat het systeem idd op de huidige hardware 48 keer sneller is fan het oude systeem op de zelfde hardware.
Dat was exact mijn punt. Verder zou je puur op basis van de complexiteit van het algoritme een eind kunnen komen men het schatten van de potentiële versnelling Misschien wordt er wel (even ultra simplistisch gedacht) 48 keer minder data doorzocht door een slimmer filter vooraf. Beperken van de zoekruimte is altijd cruciaal, zeker als je over dit soort hoeveelheden data praat. In dat soort verbeteringen - maar dan ongetwijfeld complexer - zal deze snelheidswinst liggen :)
Maar op andere hardware zou het verschil nog wel eens veel kleiner of juist zelfs groter kunnen zijn.
Dat zal niemand ontkennen, gooi er extra hardware tegenaan en je zult het nog wel wat sneller kunnen maken. Maar in de basis gaat het hier gewoon om een 'slimmere' (bij gebrek aan beter) applicatie.
Enorme cache ergens hebben draaien.
Het gaat toch om software en niet om hardware? :)
"Het systeem" is 48 keer sneller dan het vorige systeem.
Het lijkt mij dat dit een combinatie van de twee is.

Eigenlijk is dit een half bericht waarbij het getal 48 een combinatie lijkt te zijn van hardware en software. Maar of dit echt zo is?
Meeste winst valt te halen aan het optimaliseren van algoritmen. De afgelopen jaren hebben we veel geleerd op het gebied van Big Data/Business Intelligence/Data Analytics. Inzichten zijn veranderd door de enorm snelle groei van het aanbod van informatie. Door die kennis toe te passen, is zoeken veel sneller geworden.

Een simpel voorbeeld: Vroeger moest je in een zoekmachine de juiste trefwoorden invullen, nu kun je gewoon een volzin vraag stellen voor hetzelfde resultaat.
Zou de naam mogelijk ook een referentie zijn naar Hadoop? Een big-data && map-reduce platform dat wel heel goed zou passen als engine onder dit project.

Zoja, kudos het gebruik van Open source software.
Ik vraag me af of er op de achtergrond niet gewoon Hadoop gebruikt wordt?
Zou me weinig verbazen, het wiel 2x uitvinden is ook zo zonde. Daarnaast is Hadoop in elk geval goed schaalbaar, wat me bij deze hoeveelheden data geen overbodige luxe lijkt...
Grote kans dat Hadoop voor analyse wordt gebruikt. Men gebruikt in ieder geval Elasticsearch:
One of the core components of Hansken, the data processing pipeline used by the NFI, is Elasticsearch, a full text search engine.
Bron: https://github.com/NLeSC/.../concept_search/README.md
De naam Hansken is afkomstig van een olifant die in de 17e eeuw in Nederland rondtoerde en in 1637 geschetst werd door Rembrandt van Rijn.
killercow schrijft 'mogelijk ook'. Wellicht heb je over het woordje 'ook' heen gelezen. Ik vind het zelf een scherpe opmerking, zou zomaar kunnen inderdaad.
https://www.forensischins...derzoek.aspx?cp=34&cs=578

Vernoemd naar olifant

De naam Hansken is afkomstig van een olifant die in de 17e eeuw in Nederland rondtoerde en in 1637 geschetst werd door Rembrandt van Rijn. De olifant staat – als grootste landdier ter wereld – symbool voor de enorme hoeveelheid data die het softwareplatform kan verwerken. Bovendien staan olifanten bekend om hun goede geheugen.
Uhm... Serieus???

Ooit gehoord van het woord 'ook'? Officieel is het vernoemd naar een olifant uit het verleden. Dat staat zowel in het Tweakers bericht als in het persbericht van het NFI. Maar wellicht is het OOK een verwijzing naar Hadoop. Het systeem van het NFI maakt zonder enige twijfel gebruik van Hadoop technologie. En het logo van Hadoop is een olifantje.
En waar verwijst 'Hadoop' (incl logo) naar?
Juist: een olifant. ;)
Dat is inderdaad zo.
En wat heeft dit gekost?
Zeker in het licht van de bezuinigingen en reorganisaties bij het NFI afgedwongen door de overheid met miljoenen, wel interessant om te weten.
http://www.telegraaf.nl/b..._reorganisatie_NFI__.html
http://nos.nl/artikel/202...-opsporing-in-gevaar.html

[Reactie gewijzigd door Soldaatje op 24 juli 2024 20:09]

De nieuwe versie van de software is al betaald en door de snelheidstoename is dit voor de toekomst een bezuiniging. Als een medewerker 48 keer zo snel werkt kan je met minder mensen toe.
Ik hoop van harte dat wanneer je weet dat analyse 24 uur duurt, dat je vervolgens niet gaat wachten totdat je de gegevens hebt, maar dat je ondertussen iets anders kunt doen.
Wachten zal wel niet, maar of je je tijd optimaal kunt besteden??
Bezuinigen betekent niet dat je alles stil zet en achteruit gaat hobbelen.
Wel mooi om hierbij ook even op te merken dat dus niet alle overheids IT-projecten falen.
misschien was het doel wel om 100x sneller te werken ;)
Klopt. Maar ik het vind NFI ook geen typisch overheidsorgaan, in ieder geval niet wat betreft werkmentaliteit. Ik heb er mogen werken en heb zelf ervaren hoe betrokken de collega's daar zijn.
Haha, vergelijking die je nu trekt illustreert wel goed wat voor beeld mensen hebben van de overheid haar IT projecten. "Geen typisch overheidsorgaan, want werknemers zijn betrokken bij projecten"
Klopt, dat beeld heb ik ook. ;) En natuurlijk kan ik dit nuanceren, want er zullen genoeg mensen betrokken zijn binnen andere overheidsinstanties. Maar toch krijg ik vaak het gevoel dat er bij grote projecten gewoon een grote zak geld naar een 3rd party wordt geschoven en dat het daarmee gefixt zou moeten zijn. En zo werkt het natuurlijk niet.
"Die is gelijk aan 'een file van vijf kilometer vrachtwagens, volgeladen met dubbelzijdig bedrukt papier'.".

Wat een non-informatie. Hoeveel moet ik me daarbij voorstellen? Rekent men met een standaard font size en letter spacing? Misschien een beetje flauw, maar er is een reden dat we bepaalde grootheden gebruiken (bytes), juist om dit soort ambiguiteit te voorkomen. Het kan natuurlijk ook zo zijn dat men expliciet vaag wil blijven om mensen niet wijzer te maken dan nodig..

Ik moet zeggen dat ik 48x sneller t.o.v. een oud systeem van 5jr oud niet eens heel spectaculair vindt. Een deel daarvan is al redelijk gemakkelijk te realiseren door betere hardware (er even vanuit gaande dat men bij het introduceren van het nieuwe systeem niet de 5jr oude hardware heeft hergebruikt).

Jammer dat er niet iets meer informatie beschikbaar is op de bron site. Het zegt mij allemaal net te weinig om zo om me weg te blazen, terwijl het probleem domein juist ontzettend interessant is. Mits men hier een goede prestatie heeft neergezet, zou het tweakers waardig zijn wat meer onderzoek te doen imho. :)
en de reden dat zij het over vrachtwagens hebben is omdat heel veel mensen bytes weinig zegt.
Dat vraag ik me af eerlijk gezegd. Als je het over MB hebt dan relateert men het al heel snel aan een mobiel abonnement en wordt de hoeveelheid voor veel mensen redelijk goed vergelijkbaar.

Anders had men beter een artikel kunnen nemen dat een redelijk gegeven groote heeft, zoals een DVD (ok, die heb je ook in dual layer), of blu-ray. Die zijn niet zo afhankelijk van verschillen in inhoud/grootte, zoals bijvoorbeeld vrachtwagens wel zijn. Maar ik snap het ook wel; 5km vrachtwagens vol met papier klinkt ontzettend spectaculair, terwijl x DVDtjes waarschijnlijk minder zal zijn dan de collectie van de gemiddelde film liefhebber.
de gemiddelde hoeveelheid data die bijvoorbeeld in kinderpornozaken wordt aangetrokken. Die is gelijk aan 'een file van vijf kilometer vrachtwagens, volgeladen met dubbelzijdig bedrukt papier'.
Vraag ik me wel af wat dan de aard van die data is. Hoe kun je nu zóveel 'digitaal bewijsmateriaal' verzamelen in een zaak? Tenzij hier ook video materiaal bijzit, wat weer de vraag oproept wat de software daar dan mee kan.
De kelder van het politiebureau, waar de dossiers vroeger stonden, bevatte ook al meer dan een enkele zaak. Het gaat juist ook om het kunnen vergelijken van nieuwe bewijsstukken met die uit oude zaken. Zo kun je strafbaar materiaal snel herkennen, maar met een beetje geluk ook nog traceren welke route het tussen de betrokken criminelen heeft afgelegd.
Hansken heeft zijn eigen site: http://www.elephanthansken.com/. Zal die al zijn nagezien?
en daar staat: 80x sneller, niet 48x... of lees ik te snel en is dat de volgende update?
Voor iedereen die hierboven loopt te mekkeren over bepaalde marketinglingo: de site waarnaar in het artikel verwezen wordt is voor het algemene publiek, niet voor techneuten. Jan met de Pet weet bij God niet waar het over gaat als het over terabytes, gigaflops en dergelijken gaat.

En de tekst "optimaal geborgd" is slechts ter geruststelling voor de onwetenden, een aardig groot gedeelte van het takenpakket van de overheid aangaande veiligheid. Je kunt daar ook een heel verhaal over encryptie, SSL, VPN, etcetera neer gaan plempen, maar daar heeft niemand wat aan.
Volgens mij zitten we hier op Tweakers, een site die wel voor techneuten is. Maar volgens jou moeten we artikelen in Jip en Janneke-taal accepteren omdat de redactie te lui is om een technisch goed onderbouwd artikel te schrijven in plaats van een verhaal te copy-pasten uit 'High Tech Overheidsnieuws voor Dummies'?
Anoniem: 647586 @FaceDown13 oktober 2015 16:49
Je reactie wordt misschien slecht gewaardeerd, maar als ik zie dat ze deze formulering gebruiken:
"Die is gelijk aan 'een file van vijf kilometer vrachtwagens, volgeladen met dubbelzijdig bedrukt papier''
Geef ik je volledig gelijk.
Waarom is het trouwens een file, dat schiet ook niet op. En waarom zou men het eigenlijk printen ?

Maar goed, 48 maal sneller. Dan duurt het nu een week in plaats van een jaar, Dat is een hele verbetering. Dat dan weer wel.
Ten eerste: je bent niet verplicht deze artikelen te lezen.

Ten tweede: veel meer dan Jip-en-Janneke artikelen zullen er niet over verschijnen, aangezien de tegenpartij ook meeleest. Het NFI zelf heeft er absoluut geen baat bij om dit soort informatie publiekelijk te maken; dit is slechts de marketingafdeling van de overheid die haar bestaansrecht probeert te valideren. Oftewel: het had net zo goed niet gepubliceerd kunnen worden aangezien het artikel niets inhoudelijks meldt. Slechts een artikeltje om de bange belastingbetaler gerust te stellen.
Ik ben inderdaad niet verplicht om artikelen te lezen maar op een site als T.net verwacht ik wel artikelen te vinden met enigszins een technische achtergrond. Anders kan ik net zo goed (of beter) op nu.nl terecht. En omdat we niet verplicht zijn om T.net-artikelen te lezen zouden we er ook geen kritiek op mogen hebben? Lijkt me nogal een vreemde redenering.
Laat de jongens lekker speculeren, ik moet zeggen dat ik me kostelijk vermaak.
Heeft er iemand een idee uit welke hardware dit systeem ongeveer bestaat? Ook in het bron-artikel vind ik hier niets over terug.

Op dit item kan niet meer gereageerd worden.