Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 140 reacties
Bron: Boston Globe, submitter: SilentSimon

Het Amerikaanse Euclid Discoveries beweert met zijn EuclidVision een datacompressiemethode te hebben ontwikkeld die een film die met mpeg4-compressie 700MB in beslag neemt, terug kan brengen tot slechts 50MB. Daarmee zouden er 14 van dergelijke films op een standaard cd passen. Weliswaar is dat aanzienlijk minder dan Jan Sloot een paar jaar geleden beweerde, maar het zou niettemin een indrukwekkend staaltje platdrukken zijn. Het bedrijf zegt zogeheten 'object based compression' te gebruiken - wat overigens ook door mpeg4 wordt ondersteund - waarbij veelvuldig in het beeldmateriaal optredende objecten gezamelijk worden gecomprimeerd, zodat er in feite maar een enkele instantie van opgeslagen hoeft te worden en de rest als transformaties daarvan gerepresenteerd kunnen worden. Euclid Discoveries zegt dat het objectgebaseerde karakter van de techniek ervoor zorgt dat deze beter werkt op langere films - wat impliceert dat het geen 'streaming' formaat is. Het bedrijf heeft rond de techniek vijftien patenten ingediend en is met verschillende partners in gesprek om het formaat op de markt te brengen.

gecomprimeerde fiets Euclid Discoveries stelt dat zijn compressietechnologie een belangrijke bottleneck voor de distributie van online content op kan lossen, en wijst op diensten zoals MovieLink, waar een downloadtijd van twee uur geen uitzondering zou zijn. Dat zou met EuclidVision-compressie terug kunnen worden gebracht naar minder dan tien minuten. Ook wijst het bedrijf op de verwachte toename in de grootte van downloadcontent met de komst van hd-films. Voor zover bekend zijn de claims van het bedrijf nog niet door onafhankelijke experts getoetst.

Moderatie-faq Wijzig weergave

Reacties (140)

1 2 3 ... 6
Een uitspraak over een compressie ratio is onvolledig zonder een uitspraak over de kwaliteit.
De manier waarop ze het presenteren insinueert dat wat MPEG4 in 700MB doet, zij in 50MB kunnen. Dat zegt in principe genoeg over de kwaliteit.

Nu nog zien dat dat ook zo is :)
Op de site van Euclid Discoveries is een soort van 'beta' te downloaden. (Euclid Studio)

Daar kan je je eigen video inladen, en zien wat ze ermee doen. (Heb 'm nog niet geprobeerd, ben nog aan 't werk)

http://www.eucliddiscoveries.com/information.php
(download link onderaan pagina)
Ik snap helemaal niks van dat programma. Als ik met mijn wecam wat beelden van mijn gezicht maak, dan tekent het programma er wat vierkantjes omheen, en blijft mijn gezicht, oog en neus redelijk goed volgen. Je kunt de resultaten van die vierkantjes achter elkaar ofzo in een .264-film bestandje laten zette. Maar echt duidelijk is het allemaal ook niet.
Dan pak je de download uit, blijkt het software uit midden 2004. Oplichterij dus.
De computer waar het op afgerond is kan de verkeerde tijd hebben aangegeven :)
De postcode loterij insinueert ook dat mevrouw de Heus weer eens miljonair geworden is, elke maand. Ik moet alleen nog even wat invullen en loten kopen en het multimiljonairschap kan me niet meer ontgaan.
Euclid Discoveries, amazing discoveries? lol
Maar mike is dood. Net als Jan Sloot.
D'r staan wel degelijk Sloot-achtige compressie ratio's in het Boston Globe artikel...
...its scientists compressed a 25-megabyte conference video to just over 8,000 bytes using MPEG-4, but EuclidVision did four times better, shrinking the file to about 1,800 bytes.
Van 2621440 naar 1800 bytes vind ik toch wel indrukwekkend! Een factor 14000 kleiner. :)

Zal wel 8000 kB en 1800 kB respectievelijk zijn. Dus een factor 3 en factor 14 kleiner, respectievelijk. Nog steeds wel indrukwekkend als de kwaliteit er niet al te veel onder te lijden heeft.
offtopic:
Stephen Wolfram heeft een interessante variant van wiskunde [verder] ontwikkeld, Cellular Automata genaamd, waarbij je met eenvoudige regels zeer ingewikkelde patronen kunt maken. Je hebt best kans dat Jan Sloot's compressie is gebaseerd op iets als Cellular Automata of fractals.


Een film van 3 uur gecomprimeerd met mpeg4 tot 700 MiB is van belabberde kwaliteit, maar een film van 1,5 uur gecomprimeerd met mpeg4 tot 700 MiB is meestal van acceptabele kwaliteit.

Het is aannemelijk dat deze nieuwe compressietechniek ongeveer dezelfde kwaliteit levert, anders worden appels met peren vergeleken. Zover ik het begrepen heb zit het verschil vooral in slimmere compressie. Door redundante informatie slechts één keer te comprimeren houden ze slechts 50 MiB aan informatie over.
Hey hey hey hey,

Cellulaire automata zijn zo oud als de straat. In zijn vrij recente "a new kind of science" doet hij wel alsof het nieuw is etc en alsof hij het uitgevonden heeft, maar dat is het niet.

Ok, zo oud als een recente straat... Het oude "Game of Life" van Conway --- dat wat op de meeste mainframes zowat de helft van de computertijd opvrat, omdat de sysadmin het cool vond --- is een voorbeeld van een CA.
700 Men in Black in 3 uur :D
\[sorry, kon het niet laten mode]
Cellulaire automata zijn zo oud als de straat
woon jij in een nieuwbouwwijk???

\[/sorry, kon het niet laten mode]
"conference video"

Diagonaal deze pagina doorgelezen, en object gebaseerde compressie + conference video = scherm met mannetje er voor, wellicht wat toehoorders in beeld = veel statische objecten + minimale veranderingen.

Ik gok dat dit soort technieken een tekenfilm a la nijntje kan terugbrengen tot een paar MB, en een film met heel veel veranderingen en detail nauwelijks kleiner maakt.

Misschien is een goede vergelijking: grafische afbeeldingen met weinig kleurwisselingen => PNG en foto => JPEG
Je PNG en JPG vergelijking gaat niet op aangezien PNG lossless is en jpeg dat niet is.

Maar inderdaad kun je met compressie dingen kleiner maken zonder al te veel (voor het menselijk oog) zichtbaar kwaliteitsverlies te veroorzaken afhankelijk van de hoeveelheid detail.
Of dat indrukwekkend is hangt volledig of van het gecomprimeerde beeldmateriaal. Die factor 14000 is minder interessant dan het verschil tussen MPEG-4 en deze nieuwe methode. Het kan alleen maar zo dat voor dit voorbeeld een optimaal video fragment gekozen is. Het is interessanter om de compressie te bekijken van b.v. 1000 willekeurige speelfilms.
D'r staan wel degelijk Sloot-achtige compressie ratio's in het Boston Globe artikel...
Maar wie zegt dat sloot een compressietechniek had. Hij was een televisiemonteur met een methode om beeld digitaal op te slaan waarbij hij op een medium beeld dat beeld kon opslaan waarbij de size van het medium vertaald kon worden in de omvang van een diskette.

Nu is televisie analoog, en een floppy/harddisk digitaal. Maar een floppy en harddisk hebben magnetische eigenschappen welke we nu niet gebruiken zoals ze ook gebruikt kunnen worden.

Nu weten we dat de heer Sloot uit de analoge hoek kwam, gaan we dat loslaten op een magnetisch medium dan krijg je unieke eigenschappen.

Een klein voorbeeldje:
Standaard diskette 3.5". Heeft (om makkelijk te rekenen) 2*1024*1024*8 magnetische deeltjes. Voor de standaard floppy is een deeltje geladen en een deeltje niet geladen. Hierbij krijg je 1-en en 0-en. Kortom twee waarden.
Nu laten we hier wat analoge techniek op los en maken een diskette deeltje (1 bit) de volgende vier statussen aannemen, niet magnetisch, 1/3 magnetisch, 2/3 magnetisch en volledig magnetisch. Nu kunnen we opeens 2 keer zo veel informatie kwijt op dat ding. 00, 01, 10 en 11 per deeltje. Komen we uit op 4 MB raw per diskette. Stel je nu voor dat je 256 gradaties kan maken per magnetisch deeltje. Dan wordt zo een floppy opeens 2*1024*1024*8*256 bytes groot= 400MB op een floppy. Met de huidige technologie is het misschien wel mogelijk om per deeltje 65536 magnetische niveau's toe te kennen. Dan past er 1024GByte op een floppy. Genoeg voor 16 volledige films op VHS kwaliteit.
Niks geen compressie, maar wel gebruik van (standaard) analoge technologie.
Dat zou ook een machtig interessante ontwikkeling kunnen zijn voor harde schijven. Zelfs met een foutcorrectie erbij om leesfouten te voorkomen kun je op deze manier enorm veel meer informatie op HD krijgen.
Probleem is hierbij alleen, zoals nu al het geval is bij HDD, dat als verschillen te klein worden, je heel gemakkelijk fouten krijgt in de bits. Hoe kleiner het verschil of de afstand tussen 2 bits, hoe makkelijker 1 bit de waarde van zijn buurman overneemt. Daarom heeft magnetisch materiaal maar 2 niveau's. Men neemt de gemiddelde waarde van de totale magnetische massa voor 1 bit gebruikt en deze heeft of meer dan 50% lading, of minder (of evenveel, maar daar hebben we het nu even niet over).
Maar goed, dit is gigantisch off-topic.

Dikke kans dat dit wel een compressie techniek is. Of het echt werkt? ik vraag het me af.
gewoon 5x5 pixels, 16 kleuren, 2bps mono geluid, 1 frame per minuut... hoezo? :+
hier probeert iemand een film van 1.5 uur te comprimeren tot +/- 2MB!

Door alle mogelijke beeldcombinaties in een database vast te leggen en de uiteindelijke 'sequence' op schijf te zetten.

Echter moet de fysieke database zo groot als een compleet sterrenstelsel worden! (8>
Is dan je sequence (het verwijzen naar het databaseveld) niet even groot als het origineel?
@Guru Evi: inderdaad, want bij 2^n beeldjes heb je een id nodig die uniek is over 2^n beeldjes. Die id zal noodzakelijkerwijs moeten bestaan uit n bits: net zoveel als het beeldje dus. Een goede kandidaat voor de id is dus de bits waaruit het beeldje is opgebouwd. Waar je dan echter nog die database voor nodig hebt... :+
Dat klopt niet helemaal; als je bijvoorbeeld kijkt wat Huffman bedacht heeft d.w.z. laat statistiek bepalen hoeveel bitjes je nodig hebt voor een ID. Het meest voorkomende beeld is zo te encoden met maar 1 bit maar niet vaak voorkomende beelden zullen zo een ID krijgen dat potentieel langer is dan de data maar dat kun je natuurlijk ook ondervangen door in dat geval geen ID te noteren.
Is dan je sequence (het verwijzen naar het databaseveld) niet even groot als het origineel?

Nee hoor, de verwijzing niet.
Een torrent is bijvoorbeeld een prachtig voorbeeld van zo'n "compressiemethode".

Je database zelf wordt wel tamelijk groot ja.
Plus dat je dan toegang tot die database moet hebben om
mbv die sequence de uiteindelijke beeldjes te kunnen
bekijken. Aangezien die database zo groot is, zal niemand
die in huis hebben staan en zal je de beeldjes alsnog
moeten downloaden. Oftewel, je hebt een klein bestandje
(de sequence) die informatie bevat wat er gedownload
moet worden.

We hebben al iets vergelijksbaars,
dat noemen we torrents :Y)
volgens mij kan je het zien als zippen, als je bestande unzipt / bekijkt / uitvoert is de qualiteit weer precies het zelfde.
maar dan is deze compressie techniek speciaal voor video fragmenten bedoeld. en kan het met meerdere formaten werken
Dat maak ik niet op uit het verhaal, als ze de woorden
squeeze
en
can reduce the size of a movie even further
gebruiken ga ik ervanuit dat we praten over lossless compressie. Het zou geniaal zijn als je mpeg bestanden kan inpakken met een ratio van 90%.
Klein kan ook goed zijn, ik kan me herrineren dat ik Office 2007 heb gedownloaden (oeps dat mag je hier niet zeggen!) die maar 2MB in beslag nam, het uitpakken duurde echter wel 4 uur!
En hij doet het ook :)

En wat dacht je van de Mini Cooper? :Y)
zeker dat het geen online installer was ?
Waar weet jij een installer van Office *2007* staan ? ;)
Ik download zo vaak bestanden die super klein zijn en toch hele films bevatten, het uitpakken duurt hier ook erg lang. Ze eindigen altijd op .torrent.
Bullshit, dat kan echt niet, kom maar met bewijs
LOL :+

Office 2007... 2MB en dan volledig werkend...
Ik ben niet thuis in compressie technieken, maar wat ik me altijd dus afvraag is:

Worden films nu nog altijd eerst per frame gecompresseerd?
Lijkt mij namelijk dat als je in de lengte richting van de frames gaat compresseren, je veel meer winsten kunt boeken dan per frame. Simpel, omdat zelfde pixel vaak gelijk blijft over tig frames.
Tegenwoordig haal je toch altijd een lading frames tegelijk op en laat je het eerst bufferen.
Nee er wordt niet perse per frame gecomprimeerd.
Vaak wordt er om de x frames een heel frame opgeslagen, en de frames ertussen alleen de verschillen met het vorige frame. Dit even niet exhaustief uitgelegd.

Meer op bijvoorbeeld http://nl.wikipedia.org/wiki/MPEG
Ik vraag me af of ze bij deze vergelijking ook het geluid hebben meegenomen.
Als ik dit zo lees gaat het comprimeren volgens mij puur om video. En als we een film van 700 mb in gedachten nemen, zit er altijd nog geluid bij.
De enigste manier om echt goed te comprimeren is door aan de bron te comprimeren. Alle filmcontent dmv een computer maken en dan alleen de bewegingen afspelen. Een soort game maar dan met vooraf gedefineerde bewegingen.
Dit komt steed dichter bij zie films als final fantasy
btw Computer animated babes zijn al beter dan echte }>
'echte' babes? Bedoel je de echte echte, of bijgewerkte? (oftewel: zo echt zijn die echte niet, zie Denise Richards met bloeddoorlopen ogen van het 'wilde leven')

Retorische vraag: een computeranimated babe met het karakter van een opblaaspop heb je liever dan een persoon van vlees en bloed?

Verer is dat natuurlijk wel dè manier om zoiets te bereiken. Vergelijk het met voorfilmpjes bij een game, je kunt er een mpeg film voor gebruiken of de engine van de game zelf gebruiken. Alleen waar hier over gesproken wordt werkt wel weer heel anders dan dat. Dat werkt met generieke herkenningsalgorithmes dat bepaalde patronen herkent.
Die computer babe is waarschijnlijk wel beter voor je beurs :+
btw Computer animated babes zijn al beter dan echte }>
In welke wereld leef jij?
I prefer the real ones :+
Het bedrijf zegt zogeheten 'object based compression' te gebruiken ... waarbij veelvuldig in het beeldmateriaal optredende objecten gezamelijk worden gecomprimeerd
Als je dan een film tot 50MB wilt comprimeren, gaan dan ook alle acteurs en locaties ineens sterk op elkaar lijken? :+

<span style="color:#786562">* ]eep gelooft er geen bal van dat een doorsnee bioscoopfilm tot 50MB gecomprimeerd zou kunnen worden met behoud van near-DVD kwaliteit.</span>
dat weet ik niet, maar het comprimeren van een film zal wel aardig lang duren.
als dit waar is, is het natuurlijk geweldig nieuws. dat scheelt enorm in de opslagcapaciteit die je kwijt bent voor zo'n film. belangrijk is natuurlijk wel dat de kwaliteit goed blijft, dat is meestal het probleem bij beeldcompressie. maar eerst zien dan geloven. die compressie techniek van meneer sloot is ook nooit boven theewater gekomen.
Let wel: het werkt nu nog niet zo. Met hun methode (waarvan de compressie ratio nog helemaal bedacht is, het is een idee) ben je uiteraard ook massa's aan processing kwijt om de zwaar gecomprimeerde data weer te decomprimeren. En de compressie wordt helemaal zwaar als je nadenkt over de methode.
de decompressie zal toch wel meevallen als er van die zg ojecten gebruik gemaakt wordt. deze kunnen in het geheuegen blijven als ongecomprimeerd onderdeel, zodat dat deel van de video niet bij elke frame weer gedecomprimeerd hoeft te worrden. dat is ongeveer om dezelfde reden dat dat deel maar 1 enkele keer hoeft worden opgeslagen, en dus een kleiner bestand oplevert.
de decompressie zal dan op dezelfde, of lagere workload uitkomen neem ik aan, als de rest ongeveer op mpeg4 methode wordt gedecomprimeerd.
de nieuwe methode bespaart dus op de hoeveelheid te lezen, EN (ietsje minder, de verwijzing naar een objectmoet er wel in staan) hoeveelheid te decomprimeren video.
Video compressie wordt ongeveer 10% per jaar beter. DIt wijkt daar enorm van af, en zal dus complete onzin blijken. Natuurlijk altijd goed voor een artikeltje op tweakers.
Sure... de uitvinding van een wiel was ook onzin, alles ging maar gemiddelt 10% per jaar meer rollen :{w
/off topic
De uitvinding van het wiel bracht helemaal geen rovultie teweeg. Toepassingen kwamen er vele honderden jaren later toen er fatsoenlijke wegen kwamen.

Enige scepcis bij deze berichten is absoluut op z'n plaats. We weten allemaal hoe Jan Sloot mensen zonder kennis van informatietheorie voor de gek wist te houden.

Zie ook:
http://www.endlesscompression.com/
Je gaat geen 15 patenten indienen voor iets dat niet werkt lijkt mij he? :)
JapyDooge: durf jij daar je hand voor in het vuur te steken ;)
Dit lijkt me wel een nogal zware techniek. Om zo'n film te encoderen, moet heel de film doorzocht worden op gelijkende stukken, en dan pas wordt gekeken wat in die stukken wordt gezet, en wat er niet in past...
Voor het afspelen zal het dan wel gemakkelijker zijn, de herhalende stukken zet je vast in het RAMgeheugen, waardoor het decoderen erg snel kan gaan (vooral met een specifieke versnellerprocessor, voor in draagbare mediaplayers).

Nuja, eerst eens zien wat de prijs wordt, dat is de eerste bekommernis.
Je kan natuurlijk ook eerst een inhoudsopgave meesturen.
Auto-blauw: scene 1,4,6,7,23,24
Auto-zwart: scene 1,4,5,7,20
Huis-wit: scene 43,54,55.

Dan zou deze techniek ook werken met streaming. Eerst inhouds opgave downloaden, dan alle onderdelen voor scene 1 t/m 5. Alle onderdelen die dan weer later voorkomen in de film heb je al en staan in een tijdelijk map.
Ik denk dat je het het best kan vergelijken met Flash animaties waarbij veelvoorkomende objecten in een library geplaatst worden die vervolgens gecomprimeerd wordt.
Bij Flash word ook eerst de library gedownload en dan word de rest van de omgeving, die vaak maar een fractie van de omvang van de library is, gestreamed.

Nou zou je kunnen denken dat dit bij wilde films met veel compleet verschillende beelden weinig zin heeft.
Vergeet echter niet dat er maar liefst 25 frames/beelden per seconde voorbij komen.
Stel dat je van deze 25 frames 15 frames (gedeeltelijk) kan weglaten omdat de meeste objecten opgeslagen en hergebruikt worden uit de eerste 10 frames heb je alsnog een winst van meer dan 50%.
En dan heb je het nog maar over 1 seconde beeld.
Ik kan me goed voorstellen dat er redelijke wat winst te behalen valt met deze techniek..
Dat wordt nu ook al met H.264 gedaan. Eerst de referentie, daarna de verwijzingen. Logisch natuurlijk.


Maar on topic:

Ik denk dat je een filmpje wel heel klein kan comprimeren, maar je detail verlies zal behoorlijk toe nemen. Daar komt dan nog de audio bij.

Tevens zal het slechter werken als je een filmpje heb waarbij veel en vooral verschillende objecten zijn. Maar dat is bij H.264 ook al zo.

En natuurlijk geld bovenstaande ook wat betreft andere video compressie technieken.
op zich geeft dat niet, als een aanbieder al z'n films 1x compressed (duurt dan misschien wel heel lang), zal hij het erna terugwinnen door de veel kleinere opslaggrote en lagere bandbreedte, alleen voordelen dus

om het te bekijken, kan men nog altijd met een tussenstap maken waar dan de film tijdelijk uitgepakt wordt
Wanneer je voldoende opslagruimte hebt is het voornamelijk een flinke besparing op het dataverkeer. Daarna kun je de film inderdaad of streaming achtig decoderen wat inderdaad processing power al kosten. Of je kunt hem gewoon decoderen(uitpakken) waarna je dus wel opslagruimte kwijt bent maar je wel je processor weer vrij hebt.
Objectgeorienteerde compressie uit streams? Ik ben zeer benieuwd naar hun techniek; want tot zover ik weet kent een videostream niet zoveel objecten.
Ik schat dat het meer is dat een lamp in frame #1 dezelfde lamp is in frame #2-10 maar met kleine aanpassingen.

Ik verwacht dat die lamp dan 1x wordt opgeslagen en dat de plaats + kleine veranderingen dan worden opgeslagen ipv. elke keer de hele lamp als deel van het frame.

Object in dit geval zal niet veel meer zijn als een stukje van het frame welke meerdere malen voorkomt op verschillende frames.

Wat ik me af vraag is wat de playback-performance zal zijn als dit idd echt waar is. Als een film x duizend (of meer) objecten heeft, en deze telkens binnen verschillendede frames gebruikt worden, zal dit of HD performance kosten, of een hoop geheugen om deze te cachen.

Ach ik heb hier me twijfels bij met algemeen gebruik, want als dit allemaal al zo goed werkt, waar is mijn proof of concept player + movie dan ?
Wat ik me af vraag is wat de playback-performance zal zijn als dit idd echt waar is. Als een film x duizend (of meer) objecten heeft, en deze telkens binnen verschillendede frames gebruikt worden, zal dit of HD performance kosten, of een hoop geheugen om deze te cachen.

Dan kunnen we hem toch eerst weer "uitpakken" en dan pas afspelen?
Object in dit geval zal niet veel meer zijn als een stukje van het frame welke meerdere malen voorkomt op verschillende frames.
Ooit heb ik een keer zo een algorithme geschreven voor digitale films, maar dat was nog in de tijd dat we met CGA en EGA resoluties werkten. Toen moesten we motion video met een resolutie van 320x200x16kleuren comprimeren om dit handelbaar te houden. Het leuke was dat het loseless was onafhankelijk van het aantal frames per seconde en de decompressie moest realtime plaatsvinden bij het afspelen.

De technologie was vrij simpel en bestond uit een aantal compressiestappen. Als eerste werd er een TAG compressie op losgelaten waarbij de hele film werd gecomprimeerd in TAG's. Een tag had een aantal attributen waarvan bits 0..3 de soort compressie beschreven van de tag en bits 4..7 de lengte van de eventuele data. Het was voornamelijk RL compressie wat een kleine besparing opleverde. Iedere TAG kreeg een index zonder indexnummer en dubbele tags werden weg gegooid (objecten zoals ze dat nu noemen. Daarna werden de tags en de indexverwijzingen opgeslagen. Afhankelijk van het materiaal kregen we hele kleine bestandjes en konden deze techniek ook op losse plaatjes toepassen. Het doet een beetje denken aan een kruising tussen RL Compressed BMP, Compressed TIFF en GIF, maar dan over een hele film heen.
Objectgeorienteerde compressie uit streams?
Nergens staat dat het objectgeorënteerde compressie is, het is objectbased.
Het heeft dus niets te maken met objectorientatie zoals je die hebt in diverse programmeertalen.

De verklaring van Da_Teach hierboven klinkt mij plausibel in de oren.
"Het bedrijf zegt zogeheten 'object based compression' te gebruiken - wat overigens ook door mpeg4 wordt ondersteund - waarbij veelvuldig in het beeldmateriaal optredende objecten gezamelijk worden gecomprimeerd, zodat er in feite maar een enkele instantie van opgeslagen hoeft te worden en de rest als transformaties daarvan gerepresenteerd kunnen worden."

Dit zou dus betekenen dat je wel de 'hele' film binnen moet hebben voordat je deze kunt afspelen. Maar dat nadeel lever ik natuurlijk graag in voor een film die maar liefs 14x kleiner is!
Waarom? Je hebt toch een buffer al?
En voor optimaal gebruik van die buffer wil je alle statische objecten comprimeren, tot en met de laatste minuut. Anders doen zou het principe van deze compressie onderuithalen (je kunt het ongetwijfeld op een buffer van 1mb toepassen maar hebt dan veel minder voordeel)
Als je de tekst op deze link leest:
http://www.eucliddiscoveries.com/press_release.php#032806
Hebben ze het alleen nog over een Video over IP oplossing welke voor een 23MB groot bestand hebben gebruikt. De content is dan gereed voor GSM. De 700 mb is nog theoretisch en wordt pas in de komende paar maanden getest op zijn vroegst.
2 jaar terug in duitsland ook een bedrijf dat hetzelfde claimde. Je hoort eerst een boel en dan is het ineens heel stil.

Vector grahpics kan een basis zijn maar zo simpel is het niet. In de natuur kun je bijv het blad van een varen reduceren tot een simpele formule en idd met factals kun je bomen en zelfs een landschap bouwen.
Echter om hetzelfde te kunnen gaan doen met bewegende beelden die opgebouwd zijn uit meerdere stilstaande en bewgende objecten, tja of dat ooit zal kunnen. Misschien heeft het ook te maken met computerkracht.

Wie wel eens een factal programma gedraaid heeft zal zien dat dit veel cpu vermogen kost en het niet snel gaat.
misschien download je over een aantal jaar in plaats van een animatie film een programma dat de film voor je animeert
je zal wel een bakbeest nodig hebben maar de download is kleiner.

Kijk maar eens naar de demoscene, wat die allemaal al niet in 64kb kunnen proppen is ongelovelijk.
Ik had hetzelfde idee. Als je enkel textures, models en animatie-data download, moet een film perfect te renderen zijn met een minimum aan gedownloadde data.
Maar dit realtime doen zal nog wel een jaartje of 3 op zich laten wachten, als ik kijk naar de gigantische render farms die nu gebruikt moeten worden...
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True