Rapport bestrijdt datacompressieclaim Jan Sloot

In een rapport van Rombout Kerstens wordt gesteld dat de revolutionaire datacompressietechniek die Jan Sloot bijna vier jaar geleden meenam in het graf onmogelijk kan bestaan. Jan Sloot beweerde dat hij meerdere filmbestanden zover kon comprimeren dat ze samen op één geheugenkaartje pasten, toen schreven kranten zelfs dat 'alle films die ooit gemaakt werden op één cd zouden passen'. Toen de uitvinder stierf bleek echter dat hij geen notities of broncode achtergelaten had zodat de uitvinding voor altijd onbekend zou blijven. Dit sprak zozeer tot de verbeelding dat er een boek geschreven werd over het leven van Jan Sloot en deze maand nog raakte bekend dat dit boek zelfs verfilmd zou worden.

DatacompressieKerstens beweert echter te kunnen bewijzen dat deze uitvinding onmogelijk werkelijkheid geweest kan zijn. Hij baseert zich hiervoor op 'The Mathematical Theory of Communication', waarin in 1948 de grenzen van datagebruik wiskundig bepaald werden, en het werk van de Russische wiskundige en compressiespecialist Andrey Kolmogorov. Eerder al hadden verschillende specialisten gesteld dat de mate van compressie die door Jan Sloot voorgesteld werd onmogelijk is, maar Kerstens gebruikt hiervoor als eerst ook wetenschappelijke onderbouwing.

Door Yoeri Lauwers

Eindredacteur

23-12-2004 • 16:07

332

Bron: Keyword

Reacties (332)

332
329
146
54
6
115
Wijzig sortering
Iedereen vergeet dan Jan Sloot naast de chipcards ook een database gebruikte. In totaal gingen z'n 16 films (lossless) in ongeveer 300MB, nogsteeds een uitstekende prestatie die nog niet geëvenaard is.
Alle aantekeningen van Jan Sloot liggen trouwens bij de notaris van Roel Pieper.
Wat ik begreep uit een quote in een reactie op het vorige artikel hierover op Tweakers, was dat het idee is dat je alles zo klein kan maken als je wilt, zolang het (de)compressie algoritme maar voldoende 'kennis' bevat. Dit is dus eigenlijk omdraaien van klassieke compressie waarbij het algoritme relatief klein is en de data relatief groot blijft.

Als je bijvoorbeeld de zin 'The quick brown fox jumps over the lazy dog' wilt comprimeren, en je maakt een algoritme waarbij je ieder woord door een nummer veranderd en in je algoritme dus een 'woordenboek' is opgenomen dan heb je een dik algoritme, maar wordt het resultaat wel klein.

In het ideale geval kun je ook een algoritme bedenken dat deze zin door 1 bit veranderd: een nul. Namelijk is het algoritme als volgt:
- Als de zin 'the quick brown fox jumps over the lazy dog' is, schrijf een 0 en ben klaar. Anders schrijf een '1' en de ruwe data.

Dit laatste algoritme werkt natuurlijk erg slecht op alles behalve de bewuste zin, maar ik kan wel zeggen dat ik met mijn algoritme de hele zin in 1 bit heb weten te comprimeren, en kan die er ook weer lossless uithalen.

Zo kan ik dus iedere willekeurige film comprimeren tot (bijvoorbeeld) 1kb. Ik moet dan wel een behoorlijk ingewikkeld algoritme hebben voor de decompressie. Mijn 'compressie' zal dus in werkelijk meer lijken op encryptie, maar dat terzijde...
gefeliciflapteerd: je hebt zojuist lzh compressie (her) uitgevonden :)

lzh bouwt dynamisch het woordenboek op. Als de zin 'The quick brown fox jumps over the lazy dog' vaak genoeg in de tekst voorkomt, zal die idd in het woordenboek komen te staan (maar niet met 1 bit :))
Maar dat is natuurlijk een veel te eenzijdige benadering van het probleem. Het enige dat je hiermee doet, is de volgorde van de beeldjes en de de beeldjes zelf scheiden. Als je dan inderdaad Universal zover krijgt dat zij de frames van iedere film die zijn uitbrengen in een database stoppen, kan jij een film kijken door aan de decoder te vertellen welke plaatjes er uit de database gehaald moeten worden. Dat is een technisch en wiskundig volledig mogelijk scenario. Daarmee bereik je echter geen offline opslag van een film. Je zult de database moeten kunnen bereiken (en dat moet nog snel gaan ook). Waarschijnlijk hebben we ooit wel de netwerktechnologie en dergelijke die dit scenario mogelijk maken, maar waarom zou je dan überhaupt nog je reeks met indexes van plaatjes offline willen bewaren/aanschaffen/...? Met deze infrastructuur kun je namelijk net zo makkelijk de film uit de database streamen....
Sowieso, nu dataopslag steeds goedkoper wordt (wat is het nu, een GB of 2 voor 1€?), zie ik eigenlijk de behoefte aan compressie steeds verder afnemen. Als we nou straks nog goedkope alomtegenwoordige toegang hebben tot een universeel en snel datanetwerk, is er helemaal geen markt meer voor Jan Sloot.
Als je het uitrekent dan is een beeldje even groot van ruimte als de string die dat beeldje definieert
Bugu, mijn reactie was ook niet als praktische oplossing bedoeld. Ik wilde alleen maar aangeven dat compressie van een willekeurig geheel naar een vaste grootte geen kunst is als je het algoritme naar behoeven aan kunt passen. Het kan dus zijn dat de beweringen van Jan Sloot door diverse mensen/media uit zijn verband gerukt zijn (zoals anderen ook al suggereren).

Wellicht was de passage meer bedoeld om een 'encryptie/key' systeem aan te geven, maar is het opgevat als zijnde data compressie van een willekeurige hoeveelheid data naar een vaste grootte. En zo komen sprookjes de wereld in :)
En juist het gebruik van de term loss-less maakt het zo onwaarschijnlijk dat het waar is.
Om zaken lossless te kunnen beschrijven heb je nu eenmaal een minimale hoeveelheid informatie nodig, of je het nu in een formule pakt, in een RLE string, alles gaat opsplitsen in meervouden van basisgolfvormen, of wat voor compressie dan ook.
En juist deze minimale noodzakelijkheid van informatie valt wiskundig gewoon te bewijzen.
Ik zou heel graag willen dat het waar is, maar hoe meer ik over de zaak lees en hoor, hoe meer ik overtuigd ben dat het niet waar is.
(het doet me een beetje denken aan een verhaal dat ik niet zo terug kan vinden (iemand een link?), maar het was een engineer in de V.S. die beweerde full motion video over de telefoonlijn te sturen, maar stiekem een netwerk kabel door het stroomsnoer had gewired, en dus gewoon een mpeg stream over UTP stuurde, in plaats van zijn 'vector compression' of zoiets over een telefoonlijn.)
Als je het rapport gelezen hebt, zie je dat tijdens de demonstraties van Jan Sloot er helemaal geen sprake was van lossless, maar juist van een erg slecht beeld op een vaag kastje.
Hij heeft nooit een lossless compressiesysteem kunnen demonstreren met de ratio's die hij beweert.
Eindelijk een reactie die hout snijdt. De chip bevatte gewoon meta-data, de database een soort voorbeelden - tenminste, dit blijkt min of meer uit gesprekken met Roel Pieper. Dit daadwerkelijk gebruiken is vrijwel onmogelijk en lastig.
2x gelul. die aantekeningen zijn onzin dus liggen ook niet bij een notaris, en natuurlijk was het een oplichter. hij zou een database hebben gebruikt met veel voorkomende stukjes in films... verder nog klachten? als je dat al zou proberen, zou het hoogstens meer ruimte in nemen - omdat je moet corrigeren wat er dan toch verschillend is tussen die stukjes en de echte film. wat een gelul, hij had zeker een database van 16 gigabite nodig om in 300 mb die 16 films te stoppen... zo kan ik het ook...
als dat al zo was een datbase van 16 gig.. en dat ontelbaare film op je pc te kunne afspele was t nog een revolutie..
wat ik ervan begrepen heb is dat sloot niet alleen maar 0en en 1en achter elkaar zetten, maar alleen de formule voor de uitkomst gebruikte, hierdoor werd de data beschreven en niet zozeer gewoon opgeslagen....


Op zich zou het wel moeten kunnen lijkt mij, aangezien de meeste mensen het probleem vanuit de verkeerde invalshoek benaderen. Het gaat er niet om of je x frames per seconde laat zien, of dat je zoals het ZIP-formaat veel voorkomende combinaties kunt 'afkorten', maar door middel van wiskundige berekeningen het bestand 'creert' op het moment van ontcijfering.
Hoe groot denk je dat zo'n formule ongeveer is?

(nog afgezien van de vraag hoe je zulke formules binnen redelijke tijd voor random films kunt construeren)
Dat komt neer op het genereren van je data, in plaats van de data opslaan?

Dat zou vergelijkbaar zijn met wat Farbrausch heeft gedaan met hun bekende demo: fr-08: .the .product
Alle data wordt gegenereerd (het resultaat wordt niet opgeslagen, slechts hoe je PC ertoe komt), resultaat is 15 minuten lang 3d beelden en 16 bits 44KHz stereo muziek in 64Kb.
Toen het uitkwam erg revolutionair.
www.theproduct.de

Als het kan met textures, een 3d engine en een 15 minuten lange wave file, waarom niet met een film (of in ieder geval de audio alvast, bewezen door Farbrausch)?
Had ik nog niet gezien.... Really amazed :o
Anoniem: 116394 @Cyphax23 december 2004 18:50
Nu weet ik het zeker. Jan Stoot had gelijk. Een hele film in 65kb. TheProduct heeft het bewezen :+
Alleen zo'n 64K ding bestaat uit zeer veel herhalende elementen, een draaiende torus of wat vliegende spheres zijn met hele simpele (kleine) formules te genereren. Idem voor de muziek, is een soort .mod met samples uit een software synthesizer. Niet dat het niet knap is ofzo, ik weet wel waar ik het over heb (heb zelf ook van die dingen gemaakt, o.a. "Stash" / TBL, en die Farbrausch meuk is nog een stuk gelikter)

Maar het is echt totaal niet te vergelijken met een film. Die zijn veel grilliger en complexer en formules om die zooi te genereren zouden veel groter zijn.
Leuke noot van Farbrausch zelf is op de aftiteling van die demo, waar ze van de 64 KB die als limiet was gesteld nog 7 KB over hebben, en die vervolgens met geouwehoer en credits vollullen ;)
ik geloof dat jij 1 van de weinigen hier bent die de approach begrijpt.

Maak een wiskundige formule om realtime de bytes in de juiste volgorde voor je genereren, in plaats van de uitkomst ervan op te slaan. dan kom je op veel kleinere bestanden.

maakt sense in mijn wereld (8>
Ooit wel eens over nagedacht hoeveel verschillende formules je nodig hebt voor 1 film? En voor 2? En voor n films? De complexiteit van een enkele frame uit een film is aanzienlijk; de complexiteit van een scene is gigantisch; de complexiteit van een hele film is mind-boggling. De hoeveelheid formules en de uiteindelijke grootte van die verzameling formules kan (let wel: kan) bij 1 film klein zijn. Bij twee films wordt 'ie al groter en bij n films heb je heel, heel, heel veel formules nodig.

Wat jij voorstelt is niet haalbaar bij de enorme verscheidenheid aan films die we kennen.
Een korte toevoeging:
Ik heb hier jaren geleden al mee ge-experimenteerd en sinus-formules gebruikt om wave-bestanden na te apen. Na maanden ontwikkeling had ik een programma dat in enkele dagen een muziekbestand van ongeveer 8 seconden na kon bouwen met 8 lagen sinus-formules, per ruwweg 10 byte. Dit kwam uit op een compressie-verhouding van 1 op 16, met een kwaliteit om van te kotsen.

Blijkt een directe en veel vruchtbare en nog veel snellere oplossing de welbekende en ook vaak gebrukte Fourier Theorie, gebruikt in jpg en mp3. :Z
Dag onderzoek.

Vermoedelijk in dezelfde valkuil gestapt als bovenstaande meneer, maar waarschijnlijk was hij psychologisch te ver om dat toe te geven en is gaan rommelen.
Dat was inderdaad ook hetgeen ik begrepen had toen ik er ergens een reportage over zag.

Hij bekeek elke datafile als 1 groot getal/nummer, wat op zich juist is. En hij beweerde een manier te hebben om heel snel een formule te kunnen samenstellen die dat getal als uitkomst gaf.

Als, en ik zeg, *als* hij dat werkelijk kan of kon, dan zou je inderdaad je data enorm kunnen reduceren.
En hoe groot denk je dat zo'n getal is?

Een ongecomprimeerde film is zeg 15 MByte/s (het geluid vergeet ik voor het gemak maar even), stel zo'n film duurt 90 minuten: dit komt overeen met 5400 seconden. Totaal dus 81 GByte voor een speelfilmpje. Zet alle bytes achter elkaar en je hebt een getal in de ordegrootte van 256^(81miljard) oftewel een decimaal getal van ongeveer 195 miljard cijfers.

Deze combinatie van cijfers stelt dus die film voor.

Nou moet je dus een formule verzinnen waar dit getal van 195 miljard cijfers uitkomt. Wil het lossless zijn, dan moeten alle 195 miljard cijfers exact kloppen. Hoe lang denk je dat je zo'n formule is?
Wel leuk hoor die opmerkingen dat men vroeger riep dat van alles niet mogelijk was.

Maar als je de beweringen even snel nakijkt zou je hele stukken film in een paar bits moeten stoppen. En een deel van het idee was gebaseerd op het hergebruiken van materiaal. Dus stukken film die veel voorkomen opslaan in een database. Ik weet niet hoeveel films jullie gezien hebben waarmee dat zou kunnen maar ik niet veel.

Een van de weinige die het zeker kan weten is Roel Pieper en die zegt er niets over.
Dat IMHO 2 dingen betekenen:
1: Het werkt dus wél echt en er wordt nu druk in stilte een super systeemontwikkeld waarmee alle concurrentie in 1 klap van de markt wordt geveegd.
2: Ze zijn opgelicht en houden het maar stil om er niet al te lullig uit te zien.

Ik zet in op versie 2.
Maar als je de beweringen even snel nakijkt zou je hele stukken film in een paar bits moeten stoppen.
Dan ga jij gelijk uit van het feit dat Jan Sloot uitgegaan is van binair tellen. Vergeet niet, Jan sloot had verstand van elektronica, software en pc's (hardware) en wie zegt dat hij geen veel efficientere manier heeft gevonden dan ons binair tellen? Binair tellen lijkt voor ons nu het beste systeem maar mss heeft hij wel een veel beter systeem ontwikkeld waardoor je niet eens spreekt van "opslaan in enkele bits".

Daarbij zeg je over dat hergebruikt materiaal dat dit zogoed als niet voorkomt. Waar jij aan denkt is ws een frame uit een film, of een stuk frame. Tuurlijk, dit kun je nergens hergebruiken. Op de achtergrond heb je echter binaire codes, die wel tientallen of honderden keren (zoniet duizenden) in een film opnieuw langskomen. Andere films kunnen deze zelfde codes ook gebruiken. Het is dus helemaal niet zo ontdekbaar.
1915 Amsterdam:

De onderzoeker Evert Kleinsma heeft de mogelijkheden onderzocht van het reizen in de ruimte. De inspiratie voor deze speurtocht lag in de jongensdroom van Evert, de boeken van Jules Verne.

'Het is wiskundig niet mogelijk', riep Kleinsma toen hij door een lokaal blad werd aangesproken op zijn bevindingen.
Wiskunde is een hulpmiddel van de natuur- en scheikunde, maar wat hier wordt gezegd is niet wiskundig: Wiskunde is hier toegepast op natuurkundige wetten, die vaak een beschrijving van de werkelijkheid zijn. In de natuurkunde is het wel mogelijk een wet te corrigeren - In de wiskunde niet, als de stelling al bewezen is.

Edit: Hier is het dus niet wiskundig, maar natuurkundig 'bewezen'
Waarom vergelijk je een malloot die niet weet waar hij over praat ('reizen door de ruimte is wiskundig niet mogelijk' is niet eens een betekenisvolle uitspraak, laat staan dat de onderbouwd was) met deze kerel?
Omdat het wiskundig niet mogelijk was.

Wiskundig gezien, moest je - om los te komen van de aarde - een hoeveelheid brandstof meenemen die dusdanig zwaar was, dat je niet van de grond kon komen. Dus bijvoorbeeld: om 100kg de ruimte in te schieten, had je 200kg brandstof nodig.

Dat was dus onmogelijk, totdat Duitse raketdeskundigen het revolutionaire idee hadden om inplaats van de gangbare vaste brandstof, vloeibare brandstof te gebruiken. Toen kon het ineens wel.

Zo kan ook dat compressie-algoritme werken. Als Sloot bijv. een processor had ontwikkeld die decimaal kon werken in plaats van binair, heb je minder ruimte nodig om iets op te slaan...
Als je niet anders weet, is dat dan gebrekkige kennis? Wieweet discussieren wij over 50 jaar wel over een compressie-algoritme dat alle films tot dat moment kan comprimeren naar een grootte 10kb. Waarbij iemand in die discussie zegt dat men in 2004 wel een gebrekkige kennis van data-systemen had.

Er moet een revolutie optreden wil je er vor zorgen dat de gangbare technieken een verrassende vernieuwing doorgaan. Met die rekensom rond ruimtereizen ging met uit met wat op dat moment bekend was van brandstoffen (gewicht en kracht) en de natuurkundige berekeningen rondom de aarde (loskomen, zwaartekracht, benodigde snelheid etc.)
(reactie op burne)

Komen de vuurpijlen in de ruimte? Ontsnappen ze aan de atmosfeer? Hoe hoger de vuurpijl moet komen, hoe groter de hoeveelheid mee te nemen brandstof. Die extra brandstof maakt de pijl zwaarder, waardoor meer brandstof nodig is om omhoog te komen. In 1915 bleek uit berekeningen dat het niet kon, nu kan het wel omdat de techniek verder is en we stoffen hebben (zowel vast als vloeibaar) die veel beter presteren, ook werkt het lanceren in stages (SpaceShip one heeft er 2 - draagvliegtuig en tier one - de SpaceShuttle heeft er 3 - boosters, extra tank en shuttle).

Het rubber in SpaceShip one is inderdaad een vaste stof maar lachgas is een gas. Het is een hybridemotor die de voordelen van vast en vloeibaar/gas combineerd (is uit te zetten bijvoorbeeld). De berekeningen uit 1915 zijn tegenwoordig goed te ondermijnen, mede omdat we meer brandstoffen hebben - ook vaste - die betere prestaties leveren dan buskruid en andere beschikbare stoffen destijds deden. Het is een kwestie van 'je moet er maar op komen'. Destijds waren de berekeningen waarheid, tegenwoordig niet meer omdat de techniek verder is. Vergeet niet dat men ooit dacht dat het onmogelijk was om de geluidssnelheid te breken, nu weten wij beter.

Ditzelfde geldt voor de berekeningen die we nu maken over compressie. Wieweet maken we over 10 jaar gebruik van dvd's waarbij een putje 8 niveaus kan hebben. Dan is 1 putje een byte en geen bit en past er ineens veel meer data op zo'n disk. Was 640k jaren terug volgens Gates niet meer dan voldoende?

We weten nu beter, wieweet weten we over 10 jaar dat Jan Sloot gelijk had.

[edit]
Kleine correctie, met 8 niveau's heb je geen byte, dan moet je 256 niveau's hebben... maar het geeft het idee aan.
om 100kg de ruimte in te schieten, had je 200kg brandstof nodig. Dat was dus onmogelijk

Vreemd dan, dat op dat moment Chinezen al duizenden jaren met vuurpijlen met vaste brandstof speelden, en dat tegenwoordig weer met vaste brandstof in de space-shuttle gespeelt wordt. Zouden Chinezen en de NASA dan niet van Duitsers gehoord hebben, dat ze zo halsstarrig vasthouden aan een onmogelijk concept? Enne.. Je weet dat SpaceShip One een vaste brandstof-motor heeft? Rubber en lachgas.
Het was wiskundig prima mogelijk, zolang je maar voldoende stuwing had. Het enig dat deze 'onderzoeker' heeft bewezen is dat het met stuwstof x wiskundig onmogelijk is. Dat wil echter niet zeggen dat het wiskundig onmogelijk is met stuwstof y of het nog niet ontwikkelde stuwstof z...
Omdat het wiskundig niet mogelijk was.

Wat je beschrijft is een technische onmogelijkheid. Wat je hierboven stelt is een theoretische onmogelijkheid. Ook destijds konden ze al prima bedenken (en dat deden ze ook) dat brandstof met een hogere exergiedichtheid wel tot vliegen kon leiden.
Wat een onzin, je hebt snelheid nodig om van deze planeet af te komen, en niet brandstof... Brandstof is wat een voertuig gebruikt om van deze planeet af te komen!
Dit is wat ik heb gevonden over Sloots Digital Coding System (SDCS):
Het principe werkte ogenschijnlijk simpel. Net zoals er voor een stuk tekst maar een beperkt aantal karakters beschikbaar is, wordt een film uit een eindig aantal kleuren en geluiden opgebouwd. Al die basisgegevens werden in vijf algoritmes in vijf verschillende geheugens opgeslagen. Bij de opslag van films zou ieder algoritme een maximale omvang van 74 megabyte krijgen. In totaal dus 370 megabyte: de motor van de vinding. Het enige wat nodig was om die te starten was een passende sleutel. Sloot berekende voor iedere bladzijde van een boek, of ieder beeld van een film, een unieke code waarvan het geheel ook weer resulteerde in een unieke code. Die laatste code, de sleutel, nam slechts één kilobyte geheugen in beslag, ongeacht de lengte van de film of de dikte van het boek. Op één simpele chipkaart konden op die manier tientallen sleutels worden opgeslagen.
Als dit daadwerkelijk waar zou zijn zouden er 2^(1024*8) unieke sleutels zijn.
1kb per film => 700*1024 op één CD
Dan kunnen alle films wel op 1 cd'tje gezet worden...
Het enige probleem met dit verhaal is dat die sleutels geen enkele informatie over de inhoud van de film bevatten. Het is net alsof je met de database van Sloot icm een IMDB-url een volledige film in HD en met 5.1 geluid zou kunnen afspelen. Sterker nog, je kunt door het willekeurig genereren van nieuwe codes films bekjken die nog niet bestaan.... Altijd leuk om Star Wars 7,8 en 9 te kunnen zien. Of Indiana Jones 4 zelfs al zou Harrison Ford nog voor het maken ervan zou komen te overlijden...
Leuke is dat jan sloot never nooit 370 mb aan code kan hebben geschreven. 370 mb aan gecompilde code wat dat betreft.

om maar een voorbeeld te geven. ik had eens een keer 2 mb gedissasembled. Daar kwam 75 mb aan assembler code uit. Das een ongelofelijke partij om dat te schrijven. Laat staan 370 (ok is misschien in een hogere taal geschreven maar alsnog)

oh en wie denkt een ratio van 75 op 2mb onmogelijk is. bedenk ook maar ff dat een instructie set misschien 2 pagina's is. Dus die ratio krijg je al heel erg snel.
Die 370 MB hoeft niet perse code te zijn, kan ook een library met (standaard-)data zijn.

Bij mij is de indruk gewekt dat het om 370 MB data gaat.
Anoniem: 131806 @joepHDW24 december 2004 10:20
Ik denk dat ik het begin te snappen.
Om de gedecomprimeerde data te produceren heb je drie dingen nodig:
1) De hardware
2) Het algorithme
3) De gecomprimeerde data

Normaal gezien hebben die eerste twee een vaste complexiteit, ongeacht de weer te geven data.
De kernen van huidige algorithmes passen in een paar 100KB. Het begint er sterk op te lijken dat Sloot de complexiteit in het algorithme stopt ipv in de data.
Ik kan elke film opslaan in een paar bytes, en die bevatten alleen het nummer van de film... Alleen moet ik dan voor elke nieuwe film het "algorithme" uitbreiden naar mijn volgende "release"
Je kan dan met grootse theoretische beschouwingen en wat academische zwaargewichten aandraven om te argumenteren dat de film in de data zit opgeslagen :r
Het zal de consument worst wezen :+
Het revolutionaire van Jan Sloot had 2 dingen kunnen zijn:

1. veel betere compressie van video
of
2. veel efficiënter opslag medium (dus veel meer informatie per vierkante if kubieke centimeter kunnen opslaan)

Door steeds te roepen "veel films op een klein flash kaartje" houden ze het lekker vaag welk van deze twee het nou eigenlijk is.

Op punt 2 is vast nog onwijs veel meer mogelijk dan we nu hebben, daar is het einde nog lang niet in zicht. Maar punt 1, dat gaan we nooit duizend keer kleiner meer krijgen dan nu. Daarvoor bevat een film domweg teveel entropie / "gewicht" aan informatie.

Er was sprake van "16 films in 64 KB" en dat zou op compressie duiden (nr 1 hierboven), en dat is 100% bullshit. En al helemaal als het van een analoge technicus komt.
je vergeet de 5 (dacht ik) sleutelfiles van ieder iets als 75 MB die iedereen op zijn HD zou moeten hebben.. maar dan zou slechts een key van 64kb volstaan om er een film uit te toveren :7
je vergeet de 5 (dacht ik) sleutelfiles van ieder iets als 75 MB die iedereen op zijn HD zou moeten hebben.. maar dan zou slechts een key van 64kb volstaan om er een film uit te toveren
Nee, ook met een decompressie-algoritme van een paar honderd MB kan het niet.
De key was trouwens 4 KB (en kon zelfs 1 KB, volgens die documentaire) en 4 KB bevat nooit genoeg data om een complete, van te voren onbekende film te reconstrueren.
volgens mij was er tog echt sprake van lossless dus geen compressie techniek. tis alleen een andere manier van het aansturen van beeld en geluid informatie.
volgens mij was er tog echt sprake van lossless dus geen compressie techniek.
Hoezo, compressie kan ook lossless zijn hoor :)
tis alleen een andere manier van het aansturen van beeld en geluid informatie.
Da's ook een lekkere vage omschrijving... Hoe dan ook, het komt toch echt neer op één van die twee punten die ik noemde.
Bah, weer deze rotzooi.

Voordat we weer allemaal mensen langs krijgen die zeggen "maar vroeger!" - hou wel in de gaten dat die computers vroeger net zo goed met eentjes en nulletjes werkten. Het enige wat er in die tijd is toegenomen is de miniaturisatie (dus meer transistors op hetzelfde oppervlak) en de schakelsnelheid (dus meer megahertz). Er is geen 'slimmere manier' aan te pas gekomen.

Voordat we weer allemaal mensen krijgen met "ja, maar sla het dan -niet- binair op" - vergelijk eens een CD met een DVD. Op de DVD zitten 2 laagjes, en een DVD heeft een hogere dichtheid aan putjes. Dus, meer ruimte, zelfde fysieke afmetingen. Een transistor schakelt het snelste als 'ie 'dom' is - dus maar 2 standen. Maak er 3, en je bent eigenlijk weer ruimte aan het besparen; omdat die 3 standen net zo goed gerealiseerd kunnen worden met 2 transistors. Je bent dan ook niet verstandiger bezig, omdat 2 transistors 4 mogelijkheden hebben, en omdat je dan een groter 'onzekerheidsgebied' krijgt - wat er tussen de 0 en de 1 zit en waar je dus niet van weet wat de uitslag is.

Maar, al die bovengenoemde mensen zijn er al weer en worden grotendeels gedreven door 1) niet nadenken en de 2) "OMG ALLE FILMS OP EEN DISKETTE" gedachte. Beoordeel deze zwik nou niet eens op wat je graag wilt horen en zien.
Geheel lost van dit hele Jan Sloot verhaal, wat jij zegt is natuurlijk totale onzin.

Of denk je soms dat Alan Turing alvast MPEG compressie had uitgevonden?

Er worden constant nog nieuwe methodes gevonden die "meer met minder kunnen".

De "expert" (die bij een bedrijf werkt wat een stockticker maakt) die deze PDF gemaakt heeft, begint met de volgende quotes:

"Energie kan niet verloren gaan noch kan het uit het niets ontstaan."

Eerste wet van de thermodynamica"

en

"Een perpetuum mobile (Latijn: eeuwig bewegend) is een hypothetische
machine die in staat is om energie op te wekken uit niets.
De thermodynamica heeft al meer dan een eeuw geleden de
onmogelijkheid hiervan aangetoond. Patenten op een perpetuum
mobile worden niet verleend.
Gevolg van de eerste wet van de thermodynamica"

Wat ironisch dat in de moderne natuurkunde juist de eerste wet van de thermodynica op losse gronden staat in speciale relativiteit, waarvan men 100 jaar geleden zou hebben gezegd "wiskundig onmogelijk" etc. etc.

Ook zijn er meerdere patenten op "perpetuum
mobiles" verleend, maar dat zegt meer iets over het patenten systeem dan over of dit mogelijk is ;)

Maar goed, hierna komt de verdere uitleg, over de theory of information. Wordt entropie gelijk gesteld aan energie.. maar vervolgens gebruikt de auteur steeds "complexiteit", een totaal onwiskundige term die met 2 voorgenoemde niks te maken heeft. Gevolgd door nog meer bla bla bla.. maar hoe "complex" een film dan zou zijn gaat ie niet op in.

Kortom, de auteur heeft op teh internet wat gelezen over compressie, halfslachtig geprobeert het aan elkaar te knopen, wat info over Sloot erbij, en er een of andere conclusie uitgefrommeld. Leuke poging, maar hou het maar bij je stock ticker in het vervolg.

En toch, diep verborgen in deze PDF zit de kern van de zaak. Sloot heeft nooit beweerd dat op de keycard ook maar iets stond wat gecomprimeerd is. Er is altijd sprake geweest van een "database" in de device waar je die keycard insteekt.

Maar de media pakte natuurlijk dat van die keycard eruit, waar waarschijnlijk een coderings sleutel ofzo opstond (vandaar ook de vaste lengte). Misschien was de codering revolutionair, misschien de de compressie van die database (8x lossless een film coderen met een snel algoritme zou zeker voor die tijd behoorlijk revolutionair zijn), misschien de opslag methode van die database.. misschien wel helemaal niks, en was het gewoon een praktische samenvoeging van die 3 elementen. Dat zullen we wel niet weten.

1 ding is duidelijk, Sloot heeft nooit gezegd dat ie "alle films ooit gemaakt op 1 CD" kan zetten, noch dat ie "de volgende Microsoft" zou worden. Bedank de media en het "SegWay" syndroom daar maar voor.
Daarbij zou het goed mogelijk kunnen zijn dat je met technieken als fractals (berekeningen waar de uitkomst weer word gebruikt in de volgende berekening ), een giganties hoge data dichtheid zou kunnen krijgen.
Ik heb technieken gezien waarbij fractal achtige formules worden gebruikt om foto's verder uit te vergroten dan hun orginele pixels.
Deze techniek gebruikt het principe om uit een plaatje een fractal formule te berekenen en met deze formule het plaatje uit te vergroten.

Ik zou me best voor kunnen stellen, dat je in theorie één complete film zou kunnen omschrijven in een niet al te grote fractal formule.
Misschien begrijp ik je compleet verkeerd hoor (ben niet zo'n datacompressie figuur) maar je verteld over fractals, wat volgens jou berekeningen zijn waarvan de uitkomst gebruikt wordt voor de volgende berekening.

Maar dat wordt volgens mij al jaren gebruikt in de computertechnologie, het gebeurd haast niet anders. Waarom denk je bijvoorbeeld dat er een branch prediction in je cpu zit? Simpel... om de uitkomst van berekening 1 vast te voorspellen, om zodoende de volgende berekening (die afhankelijk is van berekening 1) alvast de cpu in te werken. Dat zouden dan volgens jou ook fractals zijn, en dat is dus helemaal niets nieuws in de computerwereld.

Of sla ik de plank nu helemaal mis?!?
Daar moest ik ook aan denken. Zeer interessant om dat te zien.
En er mag dan wiskundig aangetoond zijn dat een dergelijk genoemde compressie niet mogelijk is, maar wie zegt dat Sloot van compressie gebruik maakte? Hij zelf niet i.i.g.

En jammer (en toevallig) dat die man dood is. Zelfs al is het onzin, hij heeft er jaren aan gewerkt en voor hem zelf was het i.i.g. wel serieus.

@ThaMind: Ja. Google even op fractals: hele mooie plaatjes ook. :)
@ThaMind:
Je slaat helemaal mis :) 'branch prediction' klink alsof de processor intelligent is, maar het is aan getoond dat bij een branch (welke altijd een soort tweesplitsing in de code is, en nooit meerede paden heft) in 80% van de gevallen (ofzo) de 'true' branch wordt gekozen. 'Branch-prediction' is niets meer dan het altijd alvast gaan uitvoeren van dat pad, en dan hopen dat je gelijk hebt. Heb je gelijk, dan heb je snelheids winst. Heb je ongelijk, dan heb je geen versnelheidsverlies (t.o.v. simpelweg niets doen tot je zeker weet wat je moet gaan uitvoeren)
Wat ironisch dat in de moderne natuurkunde juist de eerste wet van de thermodynica op losse gronden staat in speciale relativiteit, waarvan men 100 jaar geleden zou hebben gezegd "wiskundig onmogelijk" etc. etc.
Goh. "[Thermodynamics] is the only physical theory of universal content which, within the framework of the applicability of its basic concepts, I am convinced will never be overthrown." -Albert Einstein
maar vervolgens gebruikt de auteur steeds "complexiteit", een totaal onwiskundige term die met 2 voorgenoemde niks te maken heeft.
Complexiteit is niet hetzelfde als entropie, maar het is wel een wiskundige term en in deze context zeer toepasselijk (nota bene Kolmogorov complexiteit).

Overigens ben ik het ermee eens, al klopt de strekking en is het een redelijke inleiding voor de leek, dat dit 'rapport' niet van bijzonder hoog niveau is:

"Zou het werkelijk zo zijn dat hij geheel van de bits and bytes was afgestapt dan zou Sloot een eigen besturingssysteem voor zijn laptop moeten hebben geschreven. Voorwaar geen eenvoudige opgave."

Voorwaar een onmogelijke opgave omdat alle laptops die ooit gemaakt zijn binair, en dus op basis van bits en bytes werken :)

"Dit simpele voorbeeld geeft dus al aan dat het
terugbrengen van een speelfilm tot 1 kB eenvoudigweg onmogelijk is."

Een speelfilm dat enkel bestaat uit zwart beeld en stilte kan je makkelijk tot 1 KB terugbrengen, ongeacht het aantal frames of duur. Correct gezegd kan je niet alle speelfilms (langer dan 1 KB) tot 1 KB terugbrengen. In de praktijk zullen dat er natuurlijk zeer weinig zijn.

Met dezelfde algoritme(/database) zullen er altijd films zijn die gelijkblijven of groter worden en er geen combinatie van algoritmes(/databases) bestaat die voor alle films winst oplevert (d.w.z. alle componenten samen kleiner dan origineel). Zou dat wel kunnen dan kon je namelijk eindeloos comprimeren tot de kleinste eenheid van informatie.
En toch, diep verborgen in deze PDF zit de kern van de zaak. Sloot heeft nooit beweerd dat op de keycard ook maar iets stond wat gecomprimeerd is. Er is altijd sprake geweest van een "database" in de device waar je die keycard insteekt.
Wat vervolgens betekent dat zijn 'vinding' nutteloos is, aangezien -of- je database samen met sleutel en algoritme groter wordt dan het origineel (voor alle films), -of- je een klein aantal films wel veel kan verkleinen maar dat vervolgens economisch onhaalbaar wordt (omdat je voor iedere nieuwe combinatie van die paar films een nieuwe database moet gaan berekenen, en op de een of andere manier naar de laptop krijgen). Er werd wel degelijk gesuggereerd dat je een nieuwe set films kon draaien door alleen de keycard te verwisselen, wat dus wiskundig onmogelijk is (compressie neemt af naarmate aantal combinaties van films toeneemt, tot geen of negatieve compressie voor alle films, in de praktijk tot geen of weinig compressie boven gangbare methodes voor al een klein aantal films).

Sloot had op zijn hoogst een voor die tijd interessante demo van meerdere streams, maar alles duidt er op dat hij de boel liep te flessen (waar hoorde je hem protesteren over al die dingen die zijn techniek dan foutief toegedicht zouden zijn?). Dat een zogenaamd technisch onderlegde Pieper voor de hallelujahverhalen valt en dollartekens in zijn oog krijgt om vervolgens keihard op zijn bek te gaan kan ik alleen hard om lachen, dat hier de helft van de tweakers daarna hetzelfde doet is slechts treurig.
Als ik een database aanleg, van laten we zeggen.. 100 gigabyte. En vervolgens elke film vrijwel lossless kan opslaan in, laten we zeggen, 1 MB.

Vind je dat een waardeloze uitvinding?

edit:
Einstein's eigen relativiteit wordt natuurlijk ook "omver" geworpen met vele vormen van speciale relativiteit. Maar hij zet er iets voor niets bij "within the framework of the applicability of its basic concepts". Dat is een disclaimer om U tegen te zeggen.
Als ik een database aanleg, van laten we zeggen.. 100 gigabyte. En vervolgens elke film vrijwel lossless kan opslaan in, laten we zeggen, 1 MB.

Vind je dat een waardeloze uitvinding?
Dat zou een prachtige uitvinding zijn (net als die van Sloot), ware het dat het nog steeds onmogelijk is (er van uitgaande dat de totale bronbestanden groter of gelijk zijn aan die 100 GB + 1 MB per film, plus algoritme om te (de)comprimeren).

Nogmaals: het is wiskundig onmogelijk om voor alle mogelijke bestanden minder data te verkrijgen dan de oorspronkelijke data, wat voor combinaties van databases, algoritmes etc. je ook gebruikt - dit zou namelijk eindeloze recursieve compressie mogelijk maken wat zou moeten leiden tot alle films/bestanden/data ooit in 1 bit. Vandaar ook dat de wetten van de thermodynamica en entropie worden aangehaald, in alle toepassingsgebieden gelden dezelfde beperkingen. Geparafraseerd in Ginsberg's theorema: 1) you can't win, 2) you can't break even, 3) you can't get out of the game. Zowel jij als Sloot stellen het tegenovergestelde van de laatste voor.

Dan hebben we het over lossless, maar al ga je lossy maakt het verder weinig uit, je bandbreedte krijgt een modifier in de vorm van kwaliteit vs. opslagruimte mee die tot op een zekere hoogte winst mogelijk maakt, maar ook dat heeft een limiet. Op dit moment kunnen we nog betere lossy compressievormen ontwikkelen (zie b.v. H.264) simpelweg omdat die limieten nog niet bereikt zijn.

Bovendien geldt dat hoe dichter je bij die limieten komt, hoe complexer de algoritme enz. hoe meer rekenkracht en dus energie je kwijt bent, wat betekent dat ook al zou het wiskundig mogelijk zijn, economisch is het sowieso niet haalbaar.
Einstein's eigen relativiteit wordt natuurlijk ook "omver" geworpen met vele vormen van speciale relativiteit.
Aanvullingen en uitbreidingen, zelfs correcties zijn niet hetzelfde als omvergeworpen. Einstein's theorieën staan nog steeds en worden dagelijks alleen maar getoetst en telkens correct bevonden. Ook M-theory en 11 dimensies weerspreken die niet, net zoals algemene relativiteit speciale relativiteit niet tegenspreekt.
Maar hij zet er iets voor niets bij "within the framework of the applicability of its basic concepts". Dat is een disclaimer om U tegen te zeggen.
Dat is alleen maar goede wetenschap bedrijven, je moet blijven toetsen. Het is overigens geen dislaimer a la 'maar misschien heb ik het fout', hij zegt slechts dat in de huidig bekende en aangenomen context dat zo is. Voor bepaalde zaken geldt een getoetste en correct bevonden bewijs als absoluut op basis van de in beginsel aangenomen axioma's, dus je zou kunnen zeggen dat die axioma's zelf onderuitgehaald zouden kunnen worden, maar dat zou betekenen dat werkelijk alles wat we tot nu toe hebben ontdekt nergens op zou moeten slaan. De kans dat dat gebeurt is nagenoeg verwaarloosbaar, met andere woorden dat Sloot wat had is vrijwel oneindig onwaarschijnlijk.
Geheel lost van dit hele Jan Sloot verhaal, wat jij zegt is natuurlijk totale onzin.
Bewijs het tegendeel maar. Ik ga hier tegen de horden in die zowel "meer dan bits" als "vroeger konden computers ook niks" als argument aanvoerden. Knap als je die kunt weerleggen, want dat klopt gewoon.
Of denk je soms dat Alan Turing alvast MPEG compressie had uitgevonden?
Alan Turing was drukker bezig met het uitvinden van pseudorandom codes in Bletchley Park. Je gaat pas geld in een tak van wetenschap pompen als het winst oplevert; in dit geval winst in de oorlog. Nu is het winst in media; zoveel mogelijk content voor een zo laag mogelijke prijs. Overigens is het niet geheel onzinnig dat dit uitgevonden zou zijn, ware het niet dat je 1) geen computer had die het aankon (wederom een kwestie van snelheid en opslag, niet "magische" compressie) en een ontvangende TV een soortgelijke computer nodig had om het uit te pakken. Als je goed op hebt gelet bij algoritmen zijn de compressie-algo's die het hardste inpakken het meest CPU-onvriendelijk.
Er worden constant nog nieuwe methodes gevonden die "meer met minder kunnen".
En die baseren zich op het weglaten van informatie. Wat wilde je in die paar kilobytes gaan schrijven? Je kunt wel gebruik maken van een set stock-afbeeldingen (en in dat geval is het hash-idee stukken zinniger), maar dan is er nog zo iets als adresruimte; voor zo'n set mogelijkheden heb je een adres nodig dat zelf weer ruimte in beslag neemt.
De "expert" (die bij een bedrijf werkt wat een stockticker maakt) die deze PDF gemaakt heeft, begint met de volgende quotes:
(snip quotes)
Quotes zeggen niks over het onderzoek.
Wat ironisch dat in de moderne natuurkunde juist de eerste wet van de thermodynica op losse gronden staat in speciale relativiteit, waarvan men 100 jaar geleden zou hebben gezegd "wiskundig onmogelijk" etc. etc.
Juist, maar thermodynamica is geen informatietheorie.
Ook zijn er meerdere patenten op "perpetuum
mobiles" verleend, maar dat zegt meer iets over het patenten systeem dan over of dit mogelijk is.
Mocht er een van uberhaupt hebben gewerkt (de voorwaarde voor het verdienen aan zo'n systeem), dan hadden we er al lang eerder van gehoord, of niet?
Maar goed, hierna komt de verdere uitleg, over de theory of information. Wordt entropie gelijk gesteld aan energie.. maar vervolgens gebruikt de auteur steeds "complexiteit", een totaal onwiskundige term die met 2 voorgenoemde niks te maken heeft. Gevolgd door nog meer bla bla bla.. maar hoe "complex" een film dan zou zijn gaat ie niet op in.
Complexiteit valt ook niet te meten op die manier. Een volledig beeld vol met ruis neemt ongecomprimeerd net zoveel ruimte in als een schitterende foto op dezelfde resolutie. Waar het met de complexiteit in informatietheorie om gaat is wat je over wil brengen. Zowel die ruis als die foto kun je niet in de ruimte van een paar bytes proppen, en als je dat al had gedaan en het adres aanroept heeft het niks met compressie te maken. Complexiteit betekent hier dat je die paar kilobytes maar tot een bepaald bedrag aan informatie kunt 'uitrekken'.
Kortom, de auteur heeft op teh internet wat gelezen over compressie, halfslachtig geprobeert het aan elkaar te knopen, wat info over Sloot erbij, en er een of andere conclusie uitgefrommeld. Leuke poging, maar hou het maar bij je stock ticker in het vervolg.
Altijd makkelijk om de bron aan te vallen, natuurlijk. Nee, wat betreft de referenties zit deze auteur wel goed. Iets over compressie leren hoeft niet lang te duren, en hij heeft al meer werk ervoor gedaan dan 80% van de reagerende massa hier.
En toch, diep verborgen in deze PDF zit de kern van de zaak. Sloot heeft nooit beweerd dat op de keycard ook maar iets stond wat gecomprimeerd is. Er is altijd sprake geweest van een "database" in de device waar je die keycard insteekt.
Dan is het hele idee van compressie weer waardeloos geworden; je key neemt omdat 'ie uit zoveel beelden moet kiezen weer een absurde lading ruimte in beslag.
(8x lossless een film coderen met een snel algoritme zou zeker voor die tijd behoorlijk revolutionair zijn)
Dan is het nog de snelheid die de grootste rol speelt, niet de compressiefactor. Want die is wiskundig bewijsbaar mogelijk.
Dat zullen we wel niet weten.
En daarom is het beter om sceptisch te zijn in plaats van allerlei wilde ideetjes te krijgen.
Ik ben ook zeer skeptisch over wat die Sloot bereikt heeft. Ik ben nog skeptischer over het vermogen van de media om normaal over ICT nieuws te rapporteren. Ik val soms al uit m'n stoel als ik zie wat T.net klakkeloos overneemt van andere sites, met name niet ICT gerichte sites, terwijl je van T.net nog wel iets van kennis kan verwachten. Andere media doen dit al helemaal als gekken. 1 Idioot schrijft wat, er komt een AP/Reuters newswire en het staat in alle kranten.

Wat dat "alle films op 1 CD" verhaal ook heeft veroorzaakt, het wat niet Sloot. De auteur van dit "rapport" denkt echter dat als ie dat verhaal maar ontkracht hij zo kan bewijzen dat Sloot een gek of een oplichter was.

Vervolgens gebruik jij dit rapport om beweringen te doen dat er geen vooruitgang in lossless compressie technieken wat natuurlijk pure onzin is. Behalve dat "algemene" lossless compressie wel degelijk steeds beter wordt, zowel op academisch niveau als in de praktijk (7ip ed), is er ook een steeds grotere groei in compressie voor specifieke type data (lossless audio compressie bijvoorbeeld). Video is toevallig een gebied waar dan zover ik weet nog niet veel gedaan is..

Het erbij slepen van de theory of information is een nutteloze bezigheid als je die niet toepast op de materie waar je het over hebt, in dit geval films. Heeft de auteur gezocht naar onderzoeken die kijken in hoeverre de entropie van film data is aangetoond, en dus in hoeverre die te reduceren valt? Daar blijft de auteur ons een antwoord schuldig..

Dat zijn nou juist de intressante aspecten van de informatie theorie, en op dat gebied valt er nog veel te ontdekken. Er gebeurt dus veel meer dan alleen "meer transitors" en "hogere frequenties" in de wereld. Wat dus onzin is om te zeggen.. en daar heb ik geen "rapport" voor nodig om dat uit te leggen.
Het idee van 3 waarden toekennen aan een transistor is al iets waar op dit moment naar wordt gekeken (was laatst nog een item over, kan em alleen niet terug vinden). Het idee wat jij alleen hebt is dat je een 0 hebt en een 1 en dat het daar tussen nogal een vaag gebied is. Waar je alleen nog ook rekening mee kunt houden is dat er ook nog een -1 kan bestaan. Kortom een negatieve lading, een positieve lading en geen lading.

Theoretisch gezien mogelijk en praktisch gezien wordt er aan gewerkt. Zal dan toch een macht aan compressie kunnen gaan opleveren.
Het idee van 3 waarden toekennen aan een transistor is al iets waar op dit moment naar wordt gekeken
Daar is al bijna een halve eeuw geleden naar gekeken, werkende systemen zijn gebouwd. Ternair is in principe efficiënter dan binair omdat de ideale radix (e=2.718) dichter bij drie dan bij twee ligt, maar om allerlei redenen is het systeem nooit aangeslagen (er kleven ook nadelen aan).

Wat betreft compressie heeft het daarbuiten geen voordelen, en zeker geen ordes van grootte a la Sloot.

Digitaal anders dan binair of ternair heeft geen zin omdat de efficiëntie daalt. Octaal en hexadecimaal zijn overigens slechts hoger niveau representaties van binair voor makkelijkere bediening.
Leuk, maar dit heeft niks met compressie te maken.
Wat is er mis met een beetje dromen? Als we allemaal zo zouden denken als je voorstelt en nooit eens een extreem of belachelijk idee zouden uitproberen, zouden we toch nooit vooruit komen?

Sowieso wat maakt het jou uit dat ik wel dromen heb die ik graag werkelijkheid zie worden? Heb je daar last van ofzo?
Als we allemaal zo zouden denken als je voorstelt en nooit eens een extreem of belachelijk idee zouden uitproberen, zouden we toch nooit vooruit komen?
We zijn alleen maar vooruitgekomen door mensen die niet zo dachten. We komen vooruit door mensen met verstand van zaken, die de beperkingen kennen van hetgeen ze proberen te realiseren en heel veel moeite doen om de grenzen zo ver mogelijk op te rekken. Dat is mijlenver verwijderd van gedroom. Mensen die ongeremd dromen hebben niet het vermogen de realiteit onder ogen te zien en binnen de beperkingen van die realiteit iets te realiseren. Iemand als Da Vinci was geen dromer.
Voor wie zich er voor interesseert:

De broncode - deel 1
De broncode - deel 2

2 (naar mijn mening) zeer interessante netwerk afleveringen erover.

Stiekem geloof ik er nog steeds in :D
Ik zie eigenlijk maar één mogelijkheid voor de theorie om te kloppen namelijk door in 1 bit meer informatie te stoppen.
Jan Komt zelf uit de televisiewereld en daar wordt al jaren met een techniek gewerkt waarin met 1 puls 1 hele beeldlijn wordt opgebouwd. Dat wil dus zeggen dat er in die ene puls, genoeg informatie zit om ongeveer 600 verticale posities met elk een RGB waarde en een bepaalde intensiteit te vullen.
Als een zelfde principe ook voor de pc kan werken zie ik niet in waarom er geen 16 films in 64kB kunnen zitten als er in 1 bit al genoeg informatie zit voor een hele beeldlijn op de televisie.
Zie: http://electronics.howstuffworks.com/tv9.htm

@reageerders: Ik zeg alleen dat dit me de enige mogelijkheid lijkt, dat wil niet zeggen dat ik er in geloof of dat ik het mogelijk acht ;)
Volgens dezelfde redenering kunnen we best het fundament van de wiskunde omverwerpen. Eén plus één kan namelijk best drie zijn. Als we een manier vinden waarop één eigenlijk gelijk is aan anderhalf. En waarom zou dat niet kunnen. Gewoon een kwestie van hard proppen, dan krijg je best anderhalf in één gestopt. Wel jammer van al die schoolboeken die dan aangepast moeten worden.
1 + 1 kan soms best 3 zijn, maar het gaat hier over een dusdanig belachelijke verhouding dat het sowiezo NOOIT kan kloppen.
Ze zullen eerder een tijdmachine uitvinden dan dit voor elkaar krijgen.
Tsjah... jammer alleen dat een analoge 'puls' waar jij het over hebt, toch wel even _heel_ wat anders is dan een digitale 0 of 1. Eén analoge (PAL) beeldlijn 'duurt' namelijk 0,000064 seconden, en gedurende die tijd verandert het signaal vrijwel continu, afhankelijk van de beeldinformatie. En digitale 0 of 1 echter is niets meer dan dat. Een magnetisch of electronisch plusje of minnetje. Nothing more to it. Tenzij je op atomair niveau en quantummechanica gaat zitten rommelen misschien, maar _iets_ zegt mij dat dhr. Sloot daar niet mee bezig was :z

Dus sorry, maar nee. Wat ik vermoedde door de netwerk documentaire was dat meneer Sloot zoiets had ontdenkt als 'the essence of all video material', een soort van magische formule van waaruit een complete film met een minimum aan input gereconstrueerd zou kunnen worden. Maar zelfs als dat waar zou zijn, dan zou het reconstrueerprocess zeer onwaarschijnlijk realtime kunnen, laat staan met -tig filmpjes tegelijkertijd.

Of het waar is? Geen idee :)
Maar als je iets DIGITAAL opslaat zal HET ALTIJD in enen en nullen moeten. Ik denk niet dat hij een cardreader had aangepast om analoge signalen te lezen. Ongelooflijk dat we zoveel mensen hebben die niet godsdienstig zijn maar wel in een gevallen tv-reparateur geloven. Volgens mij geloven velen hier in één ding; technologie, maarja daar zijn we natuurlijk tweakers voor. ;)
Goed nieuws, ik heb net de broncode herontdekt!

Wil iemand investeren?
kijk maar uit dat je morgen niet in de tuin ligt...
Stiekem geloof ik er nog steeds in :D
Ik geloof stiekem ook nog steeds in de kerstman :D
Het kan wel (complete film van +/- 2 MB!)

Hiervoor moet je eerst bekend raken met het begrip Mega Image database

Om de compressie ratio te halen, maak je dus eerst een Mega De-Compressie Database, met daarin alle mogelijke beelden die er zijn.

Stel je hebt 640x480 pixels, met een kleurendiepte van 256 kleuren, dan heb je het totaal aantal beelden = een antwoord met iets van 1500 nullen!!!
Met de huidige datadichtheid van hardeschijven, zit je dan op een fysieke grootte van een behoorlijk sterrenstelsel. !!!

Maar ...Als je alle plaatjes hebt, kun je ieder beeld aanroepen door het nummer op te geven.
dus 1 beeld 1500 tekens lang is 1.5 kilobit groot! = 0,2 KByte ! (met huidige compressie technieken, kun je dat getal nog wel kleiner krijgen ook)

Een videofilm van 20 frames per seconde, en 5400 seconden lang (1.5 uur) bevat 10800 beeldjes
Daaruit volgt: 10800 x 0,2 KB per beeldje= +/- 2 MB

Een film (of de instructies om alle beelden in de juiste volgorde achter elkaar af te spelen) past dan dus echt bijna op 1 diskette

Helaas zijn er een aantal nadelen:
1. De fysieke database is ENORM! (letterlijk lichtjaren groot!)
2. Het terugvinden van een beeldje duurt eeuwen, zoniet duizenden of zelfs miljoenen jaren
3. De database bevat grotendeels (signficant afgerond op 1500 nullen) alleen maar ruis (de rest is bruikbare beeldjes)

Voordeel:
1. Je film past op 1 diskette
2. De Database bevat alle foto's die kunnen bestaan. (dus jij met 3 vrouwen , 4 vrouwen, 1 boom, 2 aliens, een stukje ruis, een halve arm, etc. )

Als je door die database mag spitten, kom je (naast alle ruis) dus echt de meest rare en bizarre beelden tegen... maar ook digital foto's die al een keer zijn gemaakt zitten in die database.
Je kan het zo gek niet verzinnen, of het staat ergens op een plaatje!
Je maakt hier alleen een kleine denk fout... De ID van het plaatje in de 'image database' zou even groot zijn als het plaatje zelf, aangezien er zoveel mogelijkheden zijn dat elke pixel veranderd...
Helaas weet ik niet hóe uniek deze hashcode is, maar mocht deze geheel uniek zijn, wat ik overigens betwijfel om wille van het klein aantal tekens, dan zou het originele bestand te reconstrueren moeten zijn uit deze enkele hashcode.
Nee, nee, NEEN!

Natuurlijk zijn die niet uniek, films zijn over het algemeen groter dan 129 bits. Als je 128 bit hashes gebruikt, en je gaat daarmee bestanden van 129 bit identificeren, heb je dus al dat minstens de helft dezelfde hash krijgt. Hashing is een checksum, om vlug te kunnen checken of twee bestanden hetzelfde lijken (aangezien de kans klein is dat 2 bestanden dezelfde hash hebben).

Iedere film heeft een unieke naam, da's meestal een regeltje van hooguit 30 tekens. Valt iedere film daarom te reconstueren uit die 30 bytes?

En jij bent ook uniek te identificeren aan de hand van je sofinummer. Vallen daarom al jouw gegevens (naam, leeftijd, etc) te reconstueren uit je sofinummer?
Volgens mij is de enige denkfout die hij maakt dat hij voor een teken een bit rekent en niet een byte. Dat maakt dus dat het niet 2MB wordt, maar 16MB. Voor de rest klopt zijn verhaal.

Ik heb ook eens zitten filosoferen over hashcode van bijvoorbeeld emule. Hierbij wordt een unieke code gegenereerd adhv de inhoud van een bestand. Helaas weet ik niet hóe uniek deze hashcode is, maar mocht deze geheel uniek zijn, wat ik overigens betwijfel om wille van het klein aantal tekens, dan zou het originele bestand te reconstrueren moeten zijn uit deze enkele hashcode. Jammer is alleen dat dit waarschijnlijk oneindig veel rekenkracht kost, maar als je nu een aantal dingen van een bestand weet, zoals de originele grootte, de hashcode en de begin- en eind-bits, dan moet je in theorie een heel eind kunnen komen. En dan gaat het nog maar om een paar kilobyte die je op hoeft kunnen slaan.
@tonyisgaaf
Meerdere bestanden kunnen dezelfde hashcode hebben (het is een one-way functie), dus dit is domweg onmogelijk.

Zelf denk ik er nog veel simpeler over: Als je een hele film opslaat in slechts 2 mb dan is het gewoon gegeven dat er een maar beperkt aantal mogelijkheden zijn (dus hele lage kwaliteit of helemaal geen kleur of geluid)

Dat idee van de Mega Image database vind ik wel zo ontzettend flauw: Zelfs als het mogelijk is alleen maar IDs bij te houden van de plaatjes in de film, dan moet je nog steeds al die plaatjes overhalen van de externe database naar je tv. Dus uiteindelijk moet je meer zelfs data oversturen dan bij het origineel.

Bij de bepaling van de kracht van een compressie algoritme moet je alle externe data wel meerekenen natuurlijk (bij zip, rar, lzh, etc reken je de index ook mee.)
Als je door die database mag spitten, kom je (naast alle ruis) dus echt de meest rare en bizarre beelden tegen... maar ook digital foto's die al een keer zijn gemaakt zitten in die database.
Je kan het zo gek niet verzinnen, of het staat ergens op een plaatje!


De schrijver Jorge Luis Borges heeft hier een halve eeuw geleden een paar mooie verhalen over geschreven:

- De tuin van de paden die zich splitsen
- De bibliotheek van Babel
Eerder al hadden verschillende specialisten gesteld dat de mate van compressie die door Jan Sloot voorgesteld werd onmogelijk is, maar Kerstens gebruikt hiervoor als eerst ook wetenschappelijke onderbouwing.
ROTFL, hoewel ik niet weet of ik hier nou om moet lachen of huilen. Zelfs hier op het forum van T.net zijn de relevante wetenschappers, waaronder Kolmogorov, maar vooral Shannon, uitgebreid aangehaald en is de mogelijkheid van dergelijke compressie weerlegd.

(Edit: in haast verkeerde naam geschreven)
En waar vinden we die gepubliceerde rapporten?
Anoniem: 122716 @Cookie23 december 2004 22:46
hij bedoelt shannon niet shanning(hij heeft de klok wel horen luiden).

rapporten:

http://homepages.cwi.nl/~paulv/kolmcompl.html
Daarbij worden in het artikel de wetenschappers wel aangehaald, maar van terugkoppeling, feiten <-> theorie, is geen enkele sprake. Het enige wat er wordt gedaan is 3 mogelijkheden beschrijven (die elke malloot zou kunnen bedenken) en ze vervolgens beargumenteren. Dat heeft niets met wetenschap te maken.
- "iedereen gaat uit van het binaire rekenstelsel"
- "Iedereen hier denk nog in bits en bytes"

Nou ja, aangezien het op een normal computer met een 'standaard' memory iets zou draaien moet je dit wel. Je kunt wel gaan lopen spelen met niet binaire stelsels, maar wil het werken op de computer en kunnen opslaan .e.d. zul je het toch weer om moeten rekenen naar binair, waardoor het dus geen enkel verschil maakt en je nog steeds evenveel bits en bytes nodig hebt. Wat jullie dromen kan alleen als er hardwarematig aardig wat veranderd wordt, wat naar zeggen niet gebeurd is. Verder wordt er glashard geclaimd dat er 16 films op 64 KB passen, dat is toch echt een maat gebaseerd op bits en bytes.

- "Ik had destijds ook een DVI speler (een verkoopflop van Philips) waar je heel goed films kon bekijken en dat stond al op 2d DVI cd's."

Die heb ik ook één gehad, niks bijzonders, is gewoon een broertje van de VCD.
"dvi players .. grote flop"

bedoel je misschien cdi?
Alleen jameer dat het halve resolutie MPEG1 was de VCD en dus niet mooi genoeg

Op dit item kan niet meer gereageerd worden.