Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 19 reacties
Bron: Automatisering Gids

De Automatisering Gids schrijft dat de research-afdeling van Intel een nieuwe grafische techniek heeft bedacht. De techniek, Light Field Mapping (LFM) geheten, zorgt ervoor dat ruimtelijke modellen snel van lichteffecten kunnen worden voorzien. De techniek legt het reflectiegedrag van elk punt van een 3D-model vast. Omdat zoiets ontzettend veel data genereert wordt de hoeveelheid gegevens verkleind door een compressiemethode die het geheel met een factor 4000 of meer comprimeert. Omdat het hier gaat om een techniek die voor software en internet bedoeld is, moet Intel deze nog wel proberen te verkopen:

Intel logoVandaag wordt de techniek gepresenteerd op de Siggraph, een zeer grote vakconferentie over computergraphics die jaarlijks in de VS plaatsvindt. Intel gaat met de techniek 'de boer op', om derden te bewegen er een licentie op te nemen. Tevens zal LFM worden voorgesteld als onderdeel voor de MPEG-4-standaard. Deze moet overigens aan het eind van dit jaar het levenslicht zien.

Wij danken thomas filius voor de tip

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (19)

Hoezo voor de Mpeg4 standaard. Ik dacht dar deze nieuwe techniek bedoeld was voor ruimtelijke modellen en MPEG4 voor 2d film compressie. Of zouden ze hiermee de compressiemethode bedoelen die voor MPEG4 word gebruikt?
MPEG4 is een alomvattend bestands (streaming) formaat dat ook object-data, audio-data en video-data beinhoud... Ik denk dat er VAAK verwarring is over deze dingen, compressieformaten (Indeo, DivX, mpg1) en bestandsformaten waar compressie in gebruikt kan worden (AVI, ASF, QT)...
Misschien bedoelen ze dat ze dit willen gaan inbouwen in de mpeg4 compressie. Uiteraard is een filmpje altijd 2D maar misschien dat ze een 3D animatie op zo een manier heel efficient weten weer te geven op een 2D scherm. Hoe dat zou werken is natuurlijk een raadsel met de info die we hebben..
Hoe wil je nou iets met een factor 4000 of meer comprimeren? Waarom hebben die ZIP, RAR, ACE etc. etc. zoiets niet?

Of kost nou zoiets veel geld om te maken/onderzoeken?
Als jij je Word documentje inpakt met ZIP of whatever, dan is elke bit weer terug te berekenen. Zou lullig zijn als de helft van je document weg is.
Bij videocompressieformaten worden minder belangrijke informatie weggehaald :7 Vandaar dat de compressie factor veel hoger ligt.
Een factor 4000 is het hoogst haalbare (het getal moet een beetje reclame maken voor de nieuwe techniek). Volgens mij wordt dit bereikt door van alle objecten waar licht op valt, alleen de zichtbare pixels te berekenen.

Als je alleen een theepot gaat bewerken met LFM, zal die factor 4000 absoluut niet gehaald worden. Laat je de techniek los op een stadsomgeving, waar veel objecten elkaar overlappen, dan hoeven de achterliggende objecten niet ge-LFM'd (Hee, een nieuwe vervoeging! ;) ) te worden. Die informatie kan dus weggelaten worden en dan kom je heel misschien op een factor 4000.

Dat houdt in dat deze techniek niet op zichzelf staat, en deze mate van compressie alleen kan halen met andere, reeds bestaande technieken als o.a. backface-culling en hidden surface removal.
Klinkt mij een beetje hetzelfde als de reclame van de PIII chip. "met de PIII kunt u virtuel chatten in 3D" tuurlijk mensen... Die technieken zijn allemaal leuk, maar dan moet toch ook de gemiddelde bandbreedte omhoog. :z
't Verschil met virtueel chatten in 3d ( :? ) en de nieuwe P3 en dit stukje techniek voor licht effecten op 3d animaties is, dat het imho niet zo veel met elkaar te maken heeft..

Uit het artikel zelf:
Zij hebben een rekenschema gemaakt waarmee het reflectiegedrag van elk punt van een 3D-model wordt vastgelegd.
En omdat met de conventionele technieken dit inderdaad te veel bandbreedte op zou slurpen compressen ze de data...

En dt kan opzich wel een intelligente ontwikkeling zijn: als je bijvoorbeeld in t interview met de makers van final fantasy van laatst leest (www.tweakers.net/nieuws/17885 ) met het renderen van de modellen, dan denk ik dat technieken als dit zeker een toekomst hebben.

\[typo's]
Dit doet mij denken aan het I740 verhaaltje waarmee Intel heeft meegedaan opde videomarkt.

Intel was op de videomarkt, de losse markt en niet de geintregeerde markt, en Intel heeft deze verlaten omdat ze niet genoeg ervaring in huis hadden.

De grote spelers op dit marktsegment zijn zover gevorderd dat Intel te veel achterstand heeft om dat goed te maken.

Als deze techniek zo goed is als men beweerd is het alleen maar voor ons, de consumenten, te hopen dat andere fabrikanten deze techniek zullen aanvaarden en gaan gebruiken
Intel was op de videomarkt, de losse markt en niet de geintregeerde markt, en Intel heeft deze verlaten omdat ze niet genoeg ervaring in huis hadden.
Als je goed had gelezen, dan had je geweten dat dit bericht over een nieuwe techniek gaat, niet over een nieuwe 3D chip. (Overigens is (altans, volgens een berichtje een aantal maanden geleden) Intel nog steeds de grootste videochip bouwer op de markt, dankzij alle i810, i815 chipsets met ingebouwde graphics die zo massaal in OEM machines zijn gebruiken en nog steeds gebruikt worden).
De grote spelers op dit marktsegment zijn zover gevorderd dat Intel te veel achterstand heeft om dat goed te maken.
Nogmaals, dit is een nieuwe techniek, geen chip. En waarom zou een bedrijf dat niet de snelste chip heeft niet met een nieuwe snelle techniek kunnen komen? Als AMD zo gedacht zou hebben (te grote achterstand, halen we nooit meer in) dan zouden ze er nooit aan begonnen zijn!
Interessant dit! Ik heb weleens eerder 3d modellen gezien op internet, om bijvoorbeeld een product te laten zien, maar hiermee krijg je straks dus cht geavanceerdere technieken... :)

Ik ga me denk ik maar eens x-tra specialiseren...
bah! deze techniek bestond al precies een jaar (de siggraph is nu weer bezig, en dit werd vorig jaar gepresenteerd).
bedacht door Paul Debevec, die dude verzint wel meer leuks:

http://www.debevec.org/Research/LS/

Intel zal er wel geld voor betaald hebben, maar toch naar dat zij dan met de eer gaan strijken.
De Automatisering Gids schrijft dat de research-afdeling van Intel heeft een nieuwe grafische techniek bedacht
is deze zin een beetje krom, of ligt dat aan mij :P ?
zie dit hebben ze gedaan zodat het als voorbeeld kan dienen voor de toekomstige nieuwsposters...

Toekomstige nieuwsposters: ZO moet het dus niet :D :+
Gods -> goden.. Als we toch gaan mierencopuleren. :+
Wat dacht je van de hoeveelheid data die over het lijntje moet?

Daarvoor is deze techniek bedoeld en heeft niets met de snelheid van je grafische kaart te maken

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True