Fullscreen streaming video via 28k8 modem mogelijk?

Screendaily meldde dat MWB (Media World Broadcasting Ltd's) deze week een demonstratie heeft gegeven in een Hard Rock cafe in Sydney van een door hun ontwikkelde methode waarbij het mogelijk zou zijn om fullscreen streaming video weer te kunnen geven via een 28k8 verbinding. Volgens 'onafhankelijke' toeschouwers was de kwaliteit indrukwekkend te noemen. Het doel van de demonstratie was om $26.5 miljoen (ongeveer 65 miljoen gulden) aan sponsoring te kunnen realiseren zodat ze hun vinding verder kunnen ontwikkelen. Volgens veel video-experts is het onmogelijk om video zover te comprimeren, maar MWB beweert toch dat het ze gelukt is:

"We would not be in this if we were not 110% sure that the technology works," MWB chief executive John Tatoulis told Screendaily, admitting to feeling a bit like a snake oil salesman. "It is real, it was developed in my home town, and we now have the opportunity to revolutionise the distribution and entertainment industry." Tatoulis is reinventing himself with this venture. Let's Get Skase, the film he produced based on the late white collar criminal Christopher Skase, releases in October. Also involved are former Village Cinemas International head John Anderson, former MGM television executive Jeff Holmes, and young technology creator Adam Clark.

Holmes expects many programme suppliers to want to form alliances once they understand the potential. "This is the first time I have ever heard of a technology that can service so many houses from one server at such high quality … People have asked me to speculate and I blush at the options. It will offer many new revenue streams and enable households to be reached that are currently monopolised by very large companies."

Of dit echt mogelijk is valt nog te betwijfelen, maar als dit inderdaad zo is dan kan dat wel eens een revolutie betekenen in internetland.

Door Cyril Roos

Nieuwsposter

31-08-2001 • 00:09

119

Bron: Screendaily

Reacties (119)

119
116
96
23
12
0
Wijzig sortering
Ik weet ook niet precies hoe ze het doen, maar ik denk wel dat het in principe mogelijk is.
Door bijvoorbeeld niet een gecomprimeerd plaatje op te sturen, maar een beschrijving van wat er op het beeld te zien is kan zeer veel data bespaard worden. De ontvangende computer rendert dan als het ware het beeld.

Voor geluid is toch pasgeleden ook een doorbraak gemaakt doordat ze nu stemprofielen kunnen maken van een bestaande stem en daarmee elke willekeurige tekst kunnen uitspreken? Als je alleen maar hoeft te omschrijven wat voor stem er gebruikt wordt en welke tekst er gesproken wordt kan volstaan worden met slechts een fraktie van de data die nodig is om de (zwaar gecomprimeerde) waveform over te sturen.
Zo kunnen er ook massa's bytes worden bespaard door te beschrijven wat er te zien is i.p.v. van elke pixel te beschrijven welke kleur die heeft.

Alleen de encoder is wat complexer ;)
Heej dat doet mij heel erg sterk denken aan het mod-formaat wat de Amiga's voor audio gebruikten. Dat was een soort midi maar dan met sampletjes die aan elkaar geplakt werden. Zo waren er hackers/muziekfreaks die complete nummers omzetten in mod-jes van <200 kB, door samples van de instrumenten en de stemmen te maken, en vervolgens de composities te gaan spelen met die samples. Er zou op dit moment, met computers van enkele gigaherzen in clusters, toch wel eens een keer iets ontwikkeld kunnen worden wat muziek uit elkaar trekt in samples en melodieen, de sample pakt en zelf de melodieen speelt en vervolgens dit, inclusief gesynthesizede vocalen weer terugzet in een gecomprimeerd bestand wat alleen een omschrijving en samples bevat......

Nou we het toch over amiga's hebben, ik heb een keer op een Amiga 500 een complete videoclip gezien die inclusief geluid paste op een floppy, en vloeiend speelde.....
Nou we het toch over amiga's hebben, ik heb een keer op een Amiga 500 een complete videoclip gezien die inclusief geluid paste op een floppy, en vloeiend speelde.....
Klopt ja, heb ik hier nog ergens liggen, was compleet monoschroon 10 fps en geinterlaced maar wel zeer vet voor die tijd. de groep Spaceballs heeft ook een paar movies uitgebracht gebaseerd op vektors, ze gebruikten rotoscoping om acteurs te capturen als een vektor object. Ok zwaar sfi-fi indertijd.
Je bedoelt "state of the art"by Space balls, nee deze bedoel ik niet, en ook niet "nine fingers" de opvolger.

Ik bedoel die demo met die gozers die in een auto rijden in een of ander scandinavisch stadje.
Was dat niet die demo met die dansende mensen, dat plasma ding, die 2 overlappende circels en die 3d "bouw" constructie waar je doorheen vloog?

vette demo voor 'n tijd iid.. goede muziek ook.. ik heb dat ding wel 50x bekeken toendertijd :) (en aan de visite laten zien ofkoz ;))
ja, die die tijd waren de mensen nog creatief ;(
Door bijvoorbeeld niet een gecomprimeerd plaatje op te sturen, maar een beschrijving van wat er op het beeld te zien is kan zeer veel data bespaard worden.
Voor geluid is toch pasgeleden ook een doorbraak gemaakt doordat ze nu stemprofielen kunnen maken van een bestaande stem en daarmee elke willekeurige tekst kunnen uitspreken?
Is die hele methode dan niet eigenlijk niets meer of minder dan het 'MIDI'-principe ?

Commando is dan: "Geef een toon weer met de volgende kenmerken"
Verander toon in beeld, en hier is je compressiemethode... ( :? )
Precies, de theorie is heel makkelijk te beschrijven, maar het is nog niet zo makkelijk om een computer de het totaalbeeld te laten terugrekenen tot de afzonderlijke elementen.
't zou wel verklaren waar het geld blijft dat er nog ingestoken moet worden ...
Dat ze nu bijvoorbeeld een heel simpel filmpje hebben gestreamed. Maar dan nog kun je geen 60% van dingen die je zo vastleggen.
hey, das raar een demonstratie van fullsreen-stream video via een 28k8 verbinding, met als doel om fl. 65 milj. bij elkaar te sprokkenelen voor de verdere ontwikkeling ??????
Moet dat dan verder ontwikkeld worden naar fullscreen-stream video via een 9k6 verbinding worden ofzo???
Ik moet zeggen dat ook ik nog erg cynisch ben hierover, eerst zien en dan geloven, maar op zich is het niet ondenkbaar natuurlijk dat er nog veel geld, cq. 65 miljoen, ingestoken moet worden om er een commercieel succes van te maken.
Jij zoekt het in het nog verder terugschroeven van de datarate, maar wat dacht je van bv.
- de encoding speed ? Misschien moet op dit moment de encoder nog een week staan rekenen om een filmpje van 1 minuut te produceren ?
- de CPU belasting van de decoder ? Misschien is 'ie op dit moment op 99% ?
- de grootte van de decoder ? Als je eerst een plugin van 100Mb moet ophalen heb je er ook geen trek meer in natuurlijk.
- de 'universaliteit' (sorry kan geen goed woord hiervoor bedenken) van de methode ; misschien is die op dit moment alleen geschikt voor een heel beperkte klasse van animated footage ? (weinig beweging, weinig contrast etc)
Als je eerst een plugin van 100Mb moet ophalen heb je er ook geen trek meer in natuurlijk.
Het Sloot Digital Coding System (SDCS) :

Een film uit een eindig aantal kleuren en geluiden opgebouwd. Al die basisgegevens werden in vijf algoritmes in vijf verschillende geheugens opgeslagen.
Bij de opslag van films zou ieder algoritme een maximale omvang van 74 megabyte krijgen. In totaal dus 370 megabyte: de motor van de vinding.

de sleutel om die de motor te starten nam slechts één kilobyte geheugen.

als je alleen de sleutel moet hebben voor een film hoef je dus niet een een 28k8 te hebben.

BTW :Het gaat hier dus ook over een andere techniek.

maar als een keer een engine van 370 mb zou moet downloaden (of installeren vanaf cd) en de sleutels zou kunnen downloaden, ben je natuurlijk helemaal klaar. :9

Lijkt me alleen een erg fraude gevoelige zaak => napster praktijken
Op zich kan ik 't moeilijk geloven, er zijn al meer van die hoaxen geweest...

Maar van de andere kant geloof ik ook dat er nog veel gedaan kan worden op het gebied van video compressie...

Momenteel wordt gebruik gemaakt van Discrete Cosine Transform bij bijna alle codecs... gewerkt wordt aan Wavelet codecs die een betere kwaliteit/groote verhouding hebben, maar lange na niet wat hier beweert wordt. Er zijn ook nog fractals, ooit eens door Real gebruikt, maar is nooit echt iets geworden...
Omdat practisch alle codecs zich op een bepaalde standaard richten en niet echt 'innovatief' zijn, zie ik wel winst mogelijkheden.

Te denken aan.
* rustige scenes van pratende mensen waarbij het beeld telkens naar de andre persoon gaat. In plaats van elke keer een volle keyframe te zetten ga je gewoon delta frame maken van xx-frames terug.
* andere kleur ruimtes of berekingen ervan.
* complexere berekingen maken ('k kost cpu kracht, maar vaak kun je er wel wat mee).
* Nieuwe (mathematische) dimensies toevoegen aan 't berekenen van het beeld...

'k wacht maar af... al ze 352x288x25fps in goeie (bijna dvd) scherpte, zonder 'artifacts' kunnen weer geven, ben ik al goed tevree :)
Op zich zou dit wel een plausibel kunnen zijn .

Ik bedoel: Neem 28k8 kbps per seconde. Laten we een beetje ruw schatten en zeggen dat met overhead van verbinding en protocollen eraf zeg 25 kbps over blijft voor het overzenden van het beeld.

Als er nou iemand echt in staat is om een algoritme te bedenken waarmee een beeld van een behoorlijke omvang (pixels X pixels) tot 25000 bits is terug te brengen, dus ongeveer 3,1 KB, terwijl de kwaliteit redelijk blijft

Dan praten we dus alleen in termen van beeldjes stuk voor stuk in hun geheel overzenden, dus een soort JPEG/Motion-JPEG formaat. Alleen dat zou al redelijk knap zijn.

Laat nou de plaatjes wat groter zijn dan die 3,1 KB, maar met optimaliserings algoritmen en motion-detection en dat soort gedoe werken (is alleen niet zo geschikt voor streaming video, denk ik).

Mwah, het zou moeten kunnen :). Maar inderdaad: eerst zien dan geloven }>
Zoals jij het beschrijft ga je uit van een framerate van 1 per seconde...
Lijkt me nou niet echt de ideale manier om video te kijken!
Damn, je hebt helemaal gelijk |:(

:D
<flame>
Wil je mij vertellen waar ik het heb over 25 kilobyte per seconde? Mag je me aanwijzen, als het klopt verbeter ik het maar volgens mij snap jij het niet goed
</flame>
ik denk niet dat het waar is want zelfs met divX zit je op enkele 100kb per sec en een 28k8 kan toch maar 4kb ofzo. Maar mocht het waar zijn is het natuurlijk mooi.
Ja, maar in divX is ook geen $26,5 miljoen gepompt om het te ontwikkelen. :+

Ik ben benieuwd naar de manier waarop de data wordt gecomprimeerd. Het moet haast wel een methode zijn, waarbij alleen de verschillen tussen de frames worden verzonden, in plaats van telkens een compleet plaatje. Dat zou natuurlijk wel tot problemen kunnen leiden als er een 'foutje' in de transmissie optreedt, dus ik neem aan dat ze dat met keyframes willen opvangen. Maar die frames nemen dan wel weer een paar KB in beslag.

Oftewel: ik kan alleen maar een beetje speculeren over de werking, maar als het echt werkt, lijkt het me erg interessant. Ik vind het alleen jammer dat ze niet zo duidelijk zijn over de kwaliteit. Ze noemen het 'indrukwekkend', een rekbaar begrip, want 500x500 over 28k8 vind ik indrukwekkend, maar het is dan bij lange na geen DVD-kwaliteit. We zullen het zien, bovendien zou deze techniek natuurlijk ook kunnen worden gebruikt op breedbandige systemen, om dan over een ISDN-lijntje 1280x1024 video te pompen. Alleen lijkt het me nog wel spannend wat dit voor processorload genereert :)
Beter lezen mensen ....

Het doel van de demonstratie was om $26.5 miljoen (ongeveer 65 miljoen gulden) aan sponsoring te kunnen realiseren zodat ze hun vinding verder kunnen ontwikkelen.

Ze will dus 26miljoen dollar bij elkaar sprokkelen om het te kunnen ontwikkelen ...
Het is er dus nog niet ingestopt.
Ja, maar in divX is ook geen $26,5 miljoen gepompt om het te ontwikkelen.
Ohnee? was DivX ;-) dan niet een gekraakte versie van Microsoft's Mpeg4???

Ik denk dat daar toch ook HEEL wat centjes ingegaan zijn hoor!
Jij denkt dat de programmeurs van M$ voor niets
werken?
DiVX is gejat maar die source code van M$ is wel
degelijk betaald in de vorm van salarissen.
Anoniem: 19281 @JvS31 augustus 2001 13:06
DivX is een geripte sourcevan een microsoft beta, denk niet dat iemand microsoft heeft betaald.
Als ik zoiets zou ontwikkelen, zou ik niet zo zeer zoeken naar een manier om de data zo klein mogelijk te verzenden, maar naar een manier gaan zoeken om baggerkwaliteit (wat we gewend waren van 28k8 video) enigszins mooi uit te smeren op je scherm, dat het nog ergens op lijkt. Misschien zit daarin wel hun geheim?
Reactie op bramvrzt:
Volgens mij heeft het geen nut om alleen de veranderingen door te geven. Of in elk geval niet meer als bij MPG nu.

Immers; bij een actiefilm verschillen de beelden van 2 opeenvolgende frames soms zo met elkaar dat de compressie methode totaal niets helpt. Denk bijvoorbeeld aan een verandering van een explosie naar degene die met de afstandsbediening zat te spelen :)

Nee, om heel eerlijk te zijn lijkt mij dit niet mogelijk. Ik denk dat iemand wel graag een extra zakcentje wil verdienen*
* Niet als flame bedoelt ofzo, maar ik kan geen andere reden bedenken waarom iemand zoveel geld bij elkaar wil verzamelen voor een techniek die bijna niet kán werken. Maar misschien [hopelijk!] heb ik het bij het verkeerde eind en kan ik straks filmpies kijken op mijn 56k :)
mpeg etc werken al lang met delta compressie's die op keyframes uitgevoerd wordt om de x frames zit een keyframe (jpeg) en daarna met dezelfde jpeg compressie het verschil in frames over sturen (want jpeg werkt al opbouwend).

Bij een explosie heb je wel veel verschil maar het blijft ongeveer dezelfde kleur.

Naarmate de compressie methodes vorderen zal er steeds meer gaan gelden dat verschillende content verschillende manieren van comprimeren nodig hebben.

De ideale compressie lijkt mij een grote DB op je eigen hardschijf met daarin graphics en geometrie van alle acteurs en dan je 3D kaart aan het werk zetten eventueel in combinatie met divx of andere video technieken. Lijkt me helemaal gaaf als je achteraf de acteur kan vervangen door een andere. Maar dit vereist extreem veel rekenwerk. Het is alleen waarschijnlijk te moeilijk om een 2D plaatje terug te rekenen naar 3D maar ik denk wel dat daar nog veel mee te doen valt.
Ja, maar in divX is ook geen $26,5 miljoen gepompt om het te ontwikkelen.
Maar in dit project is ook nog geen $26.5 miljoen gepompt!
Er was een jaar of 2 geleden ook een nederlander die zo'n sterke videocompressie had uitgevonden....die is echter op mysterieuze wijze om het leven gekomen.
Anoniem: 23070 @XwiZ31 augustus 2001 07:41
was dat niet die Jan Sloot ? Zijn aantekeningen waren verdwenen. Volgens mij zag Philips daar niets in, en toen is Pieper er zelf maar mee verder gegaan toen die bij Philips opstapte. Die zag er wel wat in en ging met Sloot op zoek naar Amerikaanse investeerders. Volgens geruchten werden alleen de veranderingen tussen de beeldjes opgeslagen.
Even ter informatie: de verandering tussen de beeldjes worden ook gebruikt door MPEG compressie
De uitvinding van Jan Sloot kwam erop neer dat er één kode van X-kb het verloop van bijvoorbeeld een film bepaalde. Dus niet de film werd opgeslagen, maar slechts een code die inhoud van de film bepaalde. Maar we zullen het helaas nooit weten, hij had volgens mij namelijk zijn compressie ook gebruikt om zijn compressie techniek te bewaren (8>
ja, dat was vorig jaar dacht ik... een gozer uit Nieuwegein
Anoniem: 7998 @dadj31 augustus 2001 07:33
Klopt, had 20 jaar aan die uitvinding gewerkt...

Eindelijk gelukt, hij demonstraties geven ed en jawel hoor: hij kreeg 30 miljoen gulden van de ABN om het verder te ontwikkelen... Vrijdag kreeg ie de lening, maandag zou ie het overdragen aan Philips (ontwikkelen), en zondagochtend kreeg ie een hartaanval....

De uitvinding is rond de $500 miljard dollar waard (!!!)
Misschien was zijn hart op hol geslagen van het vele geld dat hij aangeboden kreeg :+
Eruhm die uitvinding was wel _ietsje_ meer waard denk ik.

Hij wist een speelfilm op een floppy te persen, geen idee hoe, maar het lukte hem. Stel je eens voor wat je dan met 20MB kunt... Een 1Mbit lijntje is dan genoeg om heel veel TVkanaaltjes tegelijk te kijken. Je hebt ook in no-time al je DivX-jes binnen enzo :P
Gelukkig zijn we niet naief.
Wel eens van een broodje aap gehoord?
Heb jij het gezien, die film op 1 diskette?
Anoniem: 30684 @dadj1 september 2001 18:52
Hartaanval???
gewoon vermoord dus!
een door hun ontwikkelde methode
Er staat "methode", niet compressie techniek. Waarschijnlijk hebben die Aussies een monitor uitgevonden die fullscreen op 160*120 draait :P
Er is een absolute ondergrens aan compressie.
Stel: je weet compressie extreem te optimaliseren: dan kun je nog steeds niet naar 1 byte, want daarmee zou je maximaal 8 films kunnen onderscheiden.

Als je volgens dit berichtje met 1 minuten 4kb/s kom je uit op ongeveer 250.000 filmpjes.
Ik durf het niet met zekerheid te zeggen, maar stel je eens alle verschillende stukjes film van een minuut voor (hieronder vallen dus alle fragmenten van films, stukjes computeranimatie, en zelfs ruis). Volgens mij zijn dat er meer dan een kwart miljoen.

MAW. Het zou me zeer verbazen als dit geen hoax was.

Een mogelijkheid zou zijn, dat deze compressie pas werkt vanaf 10 minuten of zo, omdat er eerst een header met keyframes geladen moet worden of zo.

edit:

denkfoutje... met 250.000 bytes kun je 2^(250.000*8) verschillende filmfragmenten onderscheiden, al vind ik het zelfs dan erg ver gaan om te zeggen dat je daarmee ALLE mogelijke filmfragmenten van een minuut kunt onderscheiden...
Misschien gebruiken ze wel een heel andere techniek. Vergis je niet in de mogelijkheden van een andere 'invalshoek' Je kon het prachtig zien bij modems. De maximale frequentie die je over een telefoonlijn kan sturen is 3000 Hz. Daarboven filtert de centrale alles er uit. Dan kan je met recht op en neer rekenwerk zeggen dat een binaire 0 stilte is gedurende één hele sinus en een binaire 1 is één sinusje van 3000 Hz. Het maximale aantal bits is dan 3k/s Letwel, dat is het absolute theroretisch maximum. Je moet ok nog eens 'veilig' gaan zitten. Je kan niet precies op de afsnijfrequentie gaan werken. Je hebt nog wat overhead dus kom je op maximaal 250 bytes/sec. Daar kan je vandaag de dag helemaal niets mee. Maar ze zijn andere technieken gaan gebruiken. Ze bleken aan een halve sinus al genoeg te hebben, ze zijn faseverschuivingen gaan gebruiken en ook nog meerdere frequenties door elkaar. En hoppa, daar komt je 56k6 modem de hoek om kijken en ze kunnen nog sneller als ze willen. Ik kan me voorstellen dat ze zulke dingen ook doen met de ze compressie, Jaren geleden werd er al gewerkt aan fractale comressie. Dat was onbruikbaar vanwege de enorme rekenkracht die je nodig had. Maar dat is tegenwoordig geen probleem meer.
klinkt leuk, maar oneindige compressie is niet technisch onmogelijk, maar wiskundig onmogelijk. Ervaring leert ons dat technische grenzen te doorbreken zijn, maar wiskundige grenzen niet. (ooit de wortel weten te trekken uit -1, met een natuurlijk getal als uitkomst?)

[compressie onderwijs modus]
Je kunt je bestand voorstellen als een zeer groot getal. Nu kunnen we dat getal met een functie omzetten naar een kleiner getal, voor transport (compressie). Als we later dit getal weer terug willen zetten naar het oorspronkelijke grote getal, moeten we dat wel kunnen. We moeten dus een functie schrijven waarvan ALLE x & y coordinaten maar een keer voor komen. LZW (waar ZIP op gebaseerd is), RLE, LHA, ACE en ARC zijn van dat soort functies.

DIVX doet het iets anders. Als je een getal omrekent naar een klein getal en het daarna weer terug rekent, krijg je een getal dat anders is dan het oorspronkelijke getal. Het lijkt visueel echter sterk op het oorsproknkelijke getal. Dit heet lossy comprimeren. Daar zijn echter ook grenzen aan.
Lossy compressie algorimen zijn alleen toe te passen op dingen die onze zintuigen moeten corrigeren, zoals beeld en geluid. (in de toekomst smaak en geur?).
[/compressie onderwijs modus]
Ik ben het helemaal met je eens over de oneindige compressie hoor. Maar er wordt ook nergens gesteld dat de compressie oneindig is. Alleen dat er meer wegen naar Rome leiden. in het 'modem voorbeeld' gaf ik al aan dat je door 'strak' te redeneren niet verder kon dan ongeveer 250 bytes/sec. Dat was echt de theoretische grens volgens die techniek. Maar ja, een andere denkwijze gaf je al de mogelijkheid om tot 7000 bytes/sec te gaan. In labs zijn ze al op het dubbel daarvan. En dan nog steeds over dat lijntje waarvan de maximale frequentie 3000 Hz is. En hier praten we dus niet over compressie maar over een andere methode van verzenden. De bits komen echt exact en stuk voor stuk over. Dat is 60 keer meer dan men 20 jaar geleden voor mogelijk hield. Zonder enige vorm van compressie dus.
ik vind dit een heel interessante ontwikkeling hopelijk zullen ze niet al te veel voor licenties vragen ander zou de technologie misschien vreloern gaan omdat ie te duur is


offtopic:
zou de technologie die jan sloot (van alle films op een floppie) dan toch ergens op waarheid berusten?
remember dat verhaaltje met die nederlandse man die een bepaalde techniek had ontwikkeld waarmee je een behoorlijk aantal films op een cd kwijt kon (zoiets iig..) en toen overleed? Bleek achteraf toch ook een hoax te zijn?
nou als dat niet echt was geweest zou er geen 10 miljoen gulden in gepomp zijn. zie verder het topic hierover in W&L (ff zoek je vind het zo wel)
zie verder het topic hierover in W&L (ff zoek je vind het zo wel)
gathering.tweakers.net/showtopic.php/119691
Hier even de betreffende URL
Hmm, in theorie kan men een heel hoge compressieratio halen...
De theoretische overpeinzingen gaan zelfs buiten de digitale opslag van informatie.

Om een extreem voorbeeld van compressie te geven:
De Big Bang. Ons heelal is eigenlijk de expansie vanuit een oneindig klein punt.... En als je de huidige grootte van het heelal vergelijkt met zijn begingrootte, heb je een wel heeel hoge compressieratio...

Nu zeg je: wat heeft dit nu met compressie van videostromen te maken!'

Wel, het punt is: je kan iets oneindig ver compresseren als je maar de juiste formules gebruikt en genoeg tijd (of processortijd) neemt om het naar de gewenste vorm te brengen....

Het probleem is natuurlijk dat je formule om het te decompresseren, algemeen genoeg moet zijn om bv. verschillende films aan te kunnen.

Voor het heelal is dit natuurlijk zeer eenvoudig: je vertrekt vanuit de gegeven kosmische constanten en een paar fysische wetten, dus bv de lichtsnelheid, de zwaartekracht, de elektromagnetische kracht, enz. en nog een paar beginvoorwaarden, zoals, bv in ons heelal, de hoeveelheid aanwezige energie/massa. Als je er maar genoeg tijd insteekt evolueert dit dus naar de gewenste situatie...
Dus: die beginvoorwaarden en wetten zouden dus enkele KB's innemen, terwijl de huidige vorm van het heelal niet meer te omschrijven is! dus compressie=oneindig/0 ongeveer :)

Maar zoals ik al vermelde, de truk is de juiste formules te vinden :)

Sorry dat mij verhaal zo ongestructureerd is en verwarrend, maar ik probeer iets heel algemeen en eigenlijk redelijk wiskundig uit te leggen op een paar regels... hmmm, niet de juiste compressieformule gebruikt dus :)
Je doelt een beetje op het fractal effect, dat je met een 'simpel' concept verbluffend ingewikkelde resultaten kan krijgen. Alleen we zitten met het praktische probleem van choas. Onze vergelijkingen zijn niet exact (analytisch) op te lossen, daarom dienen we ons te beperken tot numerieke methoden.
Denk aan het weerbericht en het vlindereffect, een miniem verschil kan een enorme uitwerking hebben.
streamman&mars:

ik doel niet op het fractal effect, ik wou alleen aantonen dat in theorie alles te comprimeren valt...
fractals, dat is als er eigenschappen van een lager niveau van een complex systeem terug opduiken op een hoger niveau... (min of meer toch :) ).

streamman: ik denk dat je algebraïsch bedoelt ipv analytisch, toch?

Maar kom, ik zal proberen iets duidelijker te zijn....

Mijn stelling is: elk complex systeem is terug te voeren op een aantal beginselen. En ook andersom, met een klein aantal beginprincipes kan je zeer complexe situaties creëren. Een voorbeeld: een zwerm vogels of een school vissen. Complexe systemen, die zeer chaotisch overkomen en moeilijk te beschrijven als je alle bewegingsvergelijkingen van de vissen afzonderlijk wil oplossen ifv van de bewegingsvgl's van de andere vissen. Maar, als je van enkele eenvoudige basisprincipes uitgaat, zoals niet plots van koers veranderen, een minimale en maximale onderlinge afstand invoeren, kan je dit zeer eenvoudig beschrijven... En zo doen vogels en vissen het ook....

Nu, het sinusgolf-witteruis-voorbeeld. Het verschil tussen deze twee, is dat je in het ene geval heel gemakkelijk er een systeem in kunt vinden en niet in het andere. Wel dit is een gevolg van uw hersenstructuur. Of liever van de menselijke hersenstructuur. Exotischere vormen van intelligentie, die meer gebaseerd zijn op turbulente omgevingen ipv stabiele, telbare, omgevingen zoals de aarde zullen misschien onmiddellijk een structuur in de witte ruis zien en niet in die sinusgolf.

Om het nog is op een andere manier te zeggen: Compressie is het op bijectieve manier terugvoeren van een complex systeem op een minder complex systeem. Een systeem bestaat grofweg in vier dimensies: 3 ruimtedimensies en één tijdsdimensie. De gangbare vorm van compressie is minder ruimte gebruiken en meer tijd... dus bij computers, minder bits, maar meer processortijd om het te verwerken.
In theorie is dit OVERAL mogelijk, maar natuurlijk stuit je op allerlei praktische bezwaren als je compressie wil toepassen... zoals bij het weer, het probleem is hierbij niet zozeer dat je het systeem niet kan beschrijven, als wel dat je op een gegeven moment geen compleet genoeg beeld kan krijgen van de weerstoestand. Je kan nooit elke zuchtje wind, nooit elke scheet of elke temperatuursverandering meten.... En dan krijg je natuurlijk onverwachte effecten... Zoals te verwachten valt in een complex systeem.

moah, duidelijker? nee, zeker :)
tja, ik heb mijn best gedaan ;)
Ja, ik had je al wel begrepen hoor. Alleen maak je de fout door aan te nemen dat ELK systeem terug te herleiden is m.b.v. een eenvoudig algoritme. Er zijn gewoon systemen die dat niet zijn. punt. Die zijn INHERENT complex. Ruis (chaos) is daar een vb van. Ook intelligentere wezens (duh) zullen daar geen eenvoudige structuur in kunnen zien omdat die er simpelweg niet is (het vervalprocess van atomen bv is niet-deterministisch en niet met een eenvoudig algoritme exact te voorspellen/beschrijven). Zulke system/signalen zijn dus gewoon echt niet verder te verkleinen (zonder verlies aan informatie).
hrmmm,

ik had het niet over intelligentere wezens, maar wezens met een andere breinstructuur, niet dommer, niet slimmer...

voorts: ruis is niet willekeurig, das een fout die jij maakt.
En waar haal je dat ik zeg, dat elk systeem terug te herleiden is via een algoritme, dat heb ik helemaal niet gezegd.

maar als ik jou volg, is het vervalproces van atomen volledig willekeurig. een atoom heeft gewoon op een bepaald moment goesting om te vervallen, dus vervalt het... En de gemiddelde hoeveelheid atomen die goesting heeft om te vervallen is dan de halfwaardetijd? komaan hé, ALLES heeft een reden, ALLES heeft een oorzaak. Het is niet omdat je die oorzaak niet kunt meten, dat die oorzaak er niet is hé.

En lees mijn voorbeeld van het heelal nog eens na...
het heelal is het meest complexe systeem dat kan bestaan, letterlijk! En dit is terug te voeren op de Big bang, maar het verval van een atoom is te complex om te voorspellen?
Misschien wel, maar dat komt omdat onze meetapparatuur op atomair vlak ongeveer even accuraat is als een milimeter proberen af te meten door hem af te stappen, dus van: ik stap ongeveer één meter ver in één stap, dus 5 meter is 5 stappen en 1mm is dan 0.001 stap...
natuurlijk dat je dan geen juiste resultaten kan krijgen.

Maar in THEORIEEEEE is het wel mogelijk. (een vet PUNT dus)

hmmm, owke, beetje te hard van stapel gelopen, sorry ervoor,
weet je wat, als ik ooit is overt straat loop en u tegen kom, betaal ik u er ene, owke mars? :)
Snackie, dit is het laatste wat ik er over ga zeggen (behalve al we elkaar tegenkomen er een gaan drinken :9).

Ten eerste witte ruis, wanneer die goed gemaakt is, is juist wel willekeurig. Niet makkelijk te maken, maar bestaat wel.

Een belangrijke discussie uit de natuurkunde gaat over determinisme, oftewel of ieder verschijnsel exact te beschrijven is. Nu kan ik daar een heel verhaal over gaan schrijven, maar dat lijkt me een beetje te ver gaan. Als je meer wilt weten zoek je maar ff op 'EPR' en 'Bell' en determinism' / 'hidden variables' of zo. Einstein geloofde ook (net als jij) dat de wereld deterministisch is. Later heeft John Bell een mooi bewijs geleverd m.b.v. een mooi stukje quantummechanica dat dit niet juist kan zijn: een verborgen variabelen theorie (dit is waar jij het met andere woorden steeds over hebt) geeft een andere statistiek in bepaalde gevallen dan een indeterministische theorie. Het mooie van dit alles was nu dat dit experimenteel bevestigd is: Einstein had ongelijk, de wereld is indeterministisch. Dit had niks met meetonnauwkeurigheden te maken. Als je het niet geloofd, ga dan maar natuurkunde studeren. :7

Verder, door een andere 'breinstuctuur' (hehe, ik doe toevallig onderzoek naar de werking van het brein) te nemen kun je geen 'oorzaak' zien die er niet is. Ik kan hier wel weer een ellenlang betoog gaan zitten schrijven maar daar wordt het niet beter van. Niet meer van deze vage uitspraken doen a.u.b. |:(

En niemand (die er verstand van heeft ;)) heeft ooit beweert dat het heelal voor de big bang minder complex was. Dus om nou een vb van fysieke compressie als vb van data-compressie te gebruiken lijkt me niet zo handig. 8-)

Pfoeh, veel te veel getyped weer.
Mmmh, allemaal leuk en aardig wat jij zegt en voor een sommige problemen zal dit zeker opgaan (denk bv aan fractals), maar er bestaan ook problemen die inherent complex zijn en niet te vereenvoudigen tot een enkele formule. Ik weet niet of dit het juiste vb is maar vergelijk bv maar eens twee stukjes signaal: eentje is een simpele sinusgolf, de andere een stukje witte ruis. De sinus golf is dus extreem te comprimeren en de witte ruis niet (die bevat simpelweg veel meer informatie).
Het is net als met comprimeren van andere stoffen. Als je het kleiner wilt hebben, moet je meer kracht uitoefenen.

Hetzelfde gaat op voor compressie van multimedia. Naar mate er MEER brute rekenkracht aanwezig is, zal de filegrootte kleiner worden en zal ook meer rekenkracht nodig zijn om het weer UIT te pakken. Dat is zo met de overgang van MP3 naar MP3Pro en dat is zo in de overgang van MPG/VCD naar DiVX/MPEG4.

Dit:
Volgens veel video-experts is het onmogelijk om video zover te comprimeren
is dus onzin. (8>
Dat je met meer CPU kracht meer compressie kan krijgen is waar, maar er is wel een ondergrens voor hoe klein je de video kan maken.. waar die grens ligt, weet natuurlijk niemand, maar het lijkt mij niet waarschijnlijk dat je de informatie van een frame in ongeveer 200 bytes (zelfs als je alle voorgaande frames hebt) kan stoppen...
Misschien dat we dan met z'n allen weer modems moeten kopen.

Op dit item kan niet meer gereageerd worden.