Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 68, views: 57.412 •

Nvidia werkt aan een rendermethode die gebruik maakt van gedecentraliseerde servers om belichtingseffecten in 3d-applicaties te berekenen. Het CloudLight-project moet vooral de gpu van tablets en laptops ontzien om lichteffecten te produceren.

Methodes om het zware renderwerk voor 3d-applicaties op een centrale server in een virtueel systeem uit te voeren, bestaan al langer. Dergelijke systemen sturen de gerenderde beelden als video naar een client, maar een dergelijk systeem is schaalbaar noch deelbaar. Met Nvidia's CloudLight-project moeten werklasten juist wel schaalbaar worden: afhankelijk van de complexiteit en het aantal clients moeten cloudservers bijgeschakeld kunnen worden. Ook kan het resultaat gedistribueerd worden onder meerdere clients en zo de rekenkosten verlagen.

Nvidia heeft in zijn CloudLight-project drie algoritmes voor het berekenen van lichtval geschikt gemaakt voor cloud-infrastructuur. Daarbij kan CloudLight overweg met variaties in beschikbare netwerkbandbreedte en -latency. Ook de apparaten waarop CloudLight kan worden ingezet, beslaan een breed spectrum van mobiele telefoons via tablets tot laptops. De detailniveaus waarop de lichteffecten gerenderd worden wordt daarbij aangepast aan die variabelen. De complexiteitniveaus waarop de belichting wordt gerenderd zijn eenvoudige voxels, complexere irradiance maps en zeer gedetailleerde photon tracers.

De onderzoekers zijn erin geslaagd de belichting voor vijftig clients gelijktijdig te berekenen en af te leveren via een bestaand netwerk. Daarbij werd onder meer de h264-codec gebruikt. De techniek kan mogelijk gebruikt worden om realistischere 3d-games op mobiele apparatuur met beperkte grafische rekenkracht te tonen.

Reacties (68)

Reactiefilter:-168064+149+212+30
Levert dit niet enorme problemen op met responstijden? Neem een gemiddeld Wifi netwerk + ADSL aansluiting en je kan dag zeggen tegen deze nieuwe feature op je tablet.
Neen, het gehele licht voor een level word berekend, niet enkel het gedeelte waar je naar kijkt op dat moment.
Het is geen live stream zoals onlive, er word gewoon een pakketje gecompileerd met alle lichtdata op de server, en elke X seconden word dat geupdated op je tablet.
Denk eerder als een soort interactieve overlay

[Reactie gewijzigd door starfight op 30 juli 2013 17:41]

Hmm, dat lijkt mij erg ingewikkeld om goed te doen (of je raakt weer beperkt). Daarnaast snap ik niet niet hoe dit dan met een video codec teruggestuurd wordt? Dan weet men van tevoren waar je gaat lopen?
Een codec staat niet gelijk aan 'een filmpje' he...
Hmm, dat lijkt mij erg ingewikkeld om goed te doen (of je raakt weer beperkt). Daarnaast snap ik niet niet hoe dit dan met een video codec teruggestuurd wordt? Dan weet men van tevoren waar je gaat lopen?
Het gaat hiet niet over games maar over 3d applicaties.
In het artikel spreekt men nochtans wel over "realistischere 3d-games op mobiele apparatuur met beperkte grafische rekenkracht te tonen"
Dat is net het hele idee achter cloud gaming. John Carmack sprak in zijn keynote vorig jaar over hoe de gemiddelde latency op een hedendaagse TV set + console in feite hoger ligt dan een ping round-trip over de atlantische oceaan.
Door middel het beeld heel snel te encoden en te verzenden als videostream is het mogelijk een normale game ervaring te hebben.

Er zijn trouwens ook andere manieren dan gewoon video; dat is wat nV hier toont. Je kan werken met het updaten van lightmaps of virtual textures. Dit is trouwens het meest interessant voor indirecte belichting sinds dit licht het meest complex is om te berekenen in real time. Een bijkomende eigenschap van indirect licht is dat het vrijwel altijd een lagere frequentie heeft dan direct licht waardoor indien lightmaps o.d. gebruikt worden deze in een lagere resolutie kunnen worden verzonden. Als je met zogenaamde texture space lighting werkt heb je bovendien het voordeel van asynchrone updates van belichting en de rest van de renderer. Je kan met andere woorden bijvoorbeeld de lichten updaten aan 20fps terwijl de rest van de renderer werkt op 60fps. Voor directe belichting is dat misschien nogal traag maar voor indirect licht is dat plausibel.

Als men spreekt van een codec e.d. heeft men het gewoon over... hoe maak ik deze data zo snel mogelijk zo klein mogelijk om het zo snel mogelijk over het netwerk te racen?

[Reactie gewijzigd door SpinyNorman op 30 juli 2013 19:03]

John Carmack sprak in zijn keynote vorig jaar over hoe de gemiddelde latency op een hedendaagse TV set + console in feite hoger ligt dan een ping round-trip over de atlantische oceaan.
Leuk gezegd, maar volgens mij vergeet Carmack hier (bewust) een aantal factoren.
- Wat betreft de gemiddelde latency valt het geloof ik wel mee. Het is waar dat TV's er wat langer over doen dan PC monitoren, maar 200ms zal het zeker niet zijn. En uiteindelijk merk je het wel op sommige TV's.
- Een ping-commando is veel, veel lichter dan een videoframe, waarvan we er toch 30 (het liefst nog meer) frames per seconde willen zien
- Uiteindelijk heeft het render device ook gewoon tijd nodig om te encoden en het end device tijd nodig om te decoden
- En last but not least: dit komt allemaal BOVENOP die gemiddelde latency van je TV set + console.

Cloud gaming bied gewoon nog lang niet de ervaring die ik wil met gaming, dat heb ik ook zelf getest met Onlive en Gaikai (toen het nog niet van Sony was).

Misschien is dit inderdaad een leuke tussenweg, maar dan nog zet ik er mijn vraagtekens bij: je gaat nog steeds behoorlijk wat data over een lijntje versturen. En dat in een gebied waarin lag totaal niet gewaardeerd wordt. Sowieso beschikt een te groot gedeelte van de wereld niet over een toereikende internetverbinding om het voor iedereen toegankelijk te maken, wat het oninteressant maakt voor ontwikkelaars.

[Reactie gewijzigd door Richh op 30 juli 2013 23:11]

Misschien moet je even Carmack's uitleg lezen: http://superuser.com/ques...-the-screen/419167#419167
... en toch heeft Richh gelijk. Het is apels met peren.

Carmack heeft het over de enorme fuck'd input lag bij moderne televisies, die wel op kan lopen naar +100ms en geeft hiermee aan wat er eigenlijk voor een crappy hardware/software die doosjes zitten. Dat hij het hierna vergelijkt met een geasfalteerde weg en een zandweg na een regenbui is enkel om wat gewicht aan z'n tweet te hangen.
Nergens heeft deze god het over pixel data realtime streamen over het internet.

De eerste keer dat ik van dat Gaikai hoorde dacht ik echt dat het een slechte grap was en wellicht denk ik dat nog steeds. Maar wat NVidia hier doet is iets compleet anders. Pak iets wat redelijk compute intensiefs is, niet voor ieder frame een refresh nodig heeft en pomp dat naar alle clients. Sowieso zijn lightmaps en bumbmaps goed te cachen, comprimeren en op te splitten in chunks zodat de client enkel krijgt waar de speler in de buurt is. Ik denk dat je hier dus ook "echt" als speler meer waarde uit kan halen.

Nu ik dit zo opschrijf doet me dit trouwens sterk denken aan een soort gestreamde megatexture oplossing. Zou wel erg cool zijn -- iets wat minder cool zal zijn is het vendor lock gehalte.
En, zo zei Carmack, dat is veel te langzaam om een realistische ervaring te hebben. Hij zei dat in ondersteuning van de Occulus Rift, die juist heel, heel, heel erg weinig vertraging heeft en daardoor ook een overweldigende ervaring levert. Dat het veel detail heeft maakt namelijk minder uit dan dat het natuurlijk beweegt, voor je gevoel dan.

Met een goed content distributie netwerk (in elke stad een server) is het mogelijk een soortgelijke ervaring te bieden. Dan is de latency rond de 10-50ms en dat is prima binnen de marge van ongeveer 60ms dat dingen behoorlijk irritant maakt. In de praktijk woont niet iedereen in de stad, heeft niet iedereen een goede verbinding en is 50ms boven op alle andere vertragingen (die je niet kwijt bent) als nog behoorlijk verschrikkelijk.
Dit zal vooral gebruikt worden voor 3D animatie en aanverwante toepassingen.

Lijkt erop dat 3D programma's meer en meer op aparte servers gaan draaien (cinema 4D R15 heeft ook een nieuwe render farm optie)
Dit is wellicht nieuw voor games, maar voor 3D/Film/etc gebeurd dit al decenia.

Als ik je bericht goed begrijp betekent dit dat er aan Cinema 4D ook de mogelijkheid is toegevoegd voor een render farm?
Ik was onder de indruk dat dit toch al wel enige tijd beschikbaar moest zijn geweest anders liepen ze behoorlijk achter op hun competitie.
niet perse, de lighting veranderd niet perse als je vanaf een andere locatie gaat kijken (de speler even buiten spel zetten) , dus als dit susteem bijv de bounced lighting doet, de belichting berekend en dit op een manier verstuurd dat de client deze zelf over het frame heen kan renderen, bijv door een volumetrische representatie te geven, dan kan deze dat lagvrij doen. je krijgt mogelijk wel wat latency, maar alleen op je bounced light aangezien de rest lokaal berekend wordt.

je rendered dus niet het frame, maar het kaatsen van het licht en slaat dit op in een manier dat de "final frame render" lokaal gebeurt, daarom is er geen probleem met latency, over het hele frame, en tenzij je de lights aanpast, dan kan er latency voorkomen.... maar wederom alleen op de bounced light, (welke toch niet zo extreem opvalt)

[Reactie gewijzigd door freaq op 30 juli 2013 17:44]

Het licht wordt gewoon local berekend. (met phong shading of iets dergelijks).

De server berekent de ambient term. voor wie niet bekend is met computer graphics: een object wordt in principe verlicht door verschillende componenten, de diffuse, specular, en ambient term. (en soms nog een emissive term).

De eerste 2 zijn niet zo lastig te berekenen. Voor de ambient term moet je echter kijken wat de kleur van het omgevingslicht is. Staat er een witte lamp naast een rode muur? Dan zal een wit object ook een rode kleur krijgen. In veel games wordt er echter gecheat en is de ambient term gewoon een constante. Dat de ambient term een paar frames achter loopt, is niet zo boeiend. Ik merkte het verschil in het filmpje pas bij 1000ms vertraging.
Hmmm... als je weet waar je naar moet kijken, dan is het bij 100ms storend, en bij 500ms onacceptabel. Het lichtschijnsel in de gang waaruit die rode bol komt, volgt dan achter de bol!
als je er echt op gaat letten ja, en bij een worst case scenario van een point light dicht bij een surface... 99% van de mensen valt het uberhaupt niet op, en je kan voor dat soort speciale gevallen mogelijk ook nog wel lokaal compenseren met wat trickery hier en daar.

wat ik me afvraag is de bandbreedte die dit opslurpt, want het is toch relatief veel data welke verstuurd moet worden...
Ik denk dat het vooral interessant is voor grootschalige dingen als dynamisch weer en dag/nacht cycli, die zijn visueel eigenlijk ook gewoon het meest belangrijk. En als een muzzle flash niet helemaal correct is zal toch niemand dat zien. Ontwikkelaars kunnen altijd een supplementair systeem toevoegen voor de dingen die echt snel geupdate moeten worden.

Het is een vrij modulair systeem. In feite moet je gewoon je lightmap texture coordinates en de geometrie identiek hebben met de cloud en moet je engine nvidia's format kunnen lezen. Okee, da's misschien nogal simplistisch, maar in theorie zou het mogelijk zijn dat Valve volgende week met een demo komt waarin HL2 ineens dynamisch belicht is.
Okee, da's misschien nogal simplistisch, maar in theorie zou het mogelijk zijn dat Valve volgende week met een demo komt waarin HL2 ineens dynamisch belicht is.
Kan al inmiddels meer dan een jaar hoor,
Deferred lighting - Alien Swarm SDK
Alien Swarm Deferred Lighting Showcase
Ik doelde eigenlijk op dynamische lightmaps, maar goed :)
Op die manier kunnen fabrikanten minder krachtige hardware in laptops stoppen (goedkoper) en zo meer winst maken.
Daarom slaat dit ook eigenlijk helemaal nergens op omdat het totaal onbruikbaar is.
Klinkt in mijn oren als een zeer rare oplossing, maar de tijd zal het leren of dit inderdaad zijn vruchten af zal werpen. Ik ben wat pessimistisch, maar zo ben ik nou eenmaal.
Ik vind het helemaal niet raar. Juist rendering is iets wat perfect cloud based kan. Vrijwel geen enkele gebruiker heeft continu renderingcapaciteit nodig, dus uitbesteden naar een cloud oplossing is de meest logische.
Het zou me niet verbazen als dit hele cloud-gebeuren een trucje is om piraterij op hardware niveau tegen te gaan. Gamestudio's en hardwarefabrikanten zijn twee handen op ťťn buik. Ze hebben elkaar nodig om te overleven en zijn beiden gebaat bij strenge maatregelen tegen piraterij. Zonder vlottere hardware heeft het geen zin om hele zware complexe spellen te schrijven, en andersom.

Spellen hebben straks een verbinding met de cloud van zowel nVidia als die van de gamestudio nodig om te kunnen werken. Doe je dit niet zal je spel niet (of slecht) werken of er gewoon bagger uitzien omdat de belichting niet gerendeerd kan worden. Ook handig als je de pech hebt over een trage en/of langzame internetverbinding te beschikken.

Mij bevalt het helemaal niks dat fabrikanten (naast softwareontwikkelaars) ook controle willen krijgen over wat ik met mijn apparaat doe.

Hoe dan ook geen nVidia voor mij.

[Reactie gewijzigd door Titan_Fox op 30 juli 2013 18:48]

Beetje zwartkijken is dat wel hoor, wat je doet.

Ik zie het zo. De opkomt van cloudbased werken komt sterk op en mensen nemen het nu erg serieus, er is wereldwijd steeds meer beschikking tot breedband internet. Als bedrijf kun je dan afwachten zodat je door je omgeving wordt ingehaald. Je kunt ook proactief experimenten en onderzoeken hoe je je eigen business hiermee kan om laten gaan - zodat je de leidende rol blijft behouden. Dit is wat mij betreft zo'n experiment. Niets meer, niets minder.
Daar kun je best gelijk in hebben. Echter ben ik nogal cynisch aangelegd en kijk ik voorbij datgene dat voor de hand ligt.

Een cloud kan best handig zijn en zeker zijn nut hebben, maar naar mijn mening heeft die medaille ook een keerzijde die we mogelijk in de toekomst nog een keer gaan tegenkomen.

Tenslotte past Microsoft al beperkende technologie toe Š la Secure Boot i.c.m. de UEFI (dus een beveiliging op hard- en softwareniveau), dus waarom zou de fabrikant van een videokaart geen DRM willen toepassen op de spellen die jij speelt ? Het HDMI signaal wordt tenslotte ook versleuteld zodat mensen opnames niet zonder meer kunnen opslaan.
Toch houd ik liever zelf controle over mijn voxels. Cloud based computing is iets anders dan een nieuwe manier om klanten een klantenkaart door de strot te duwen en te binden aan de winkel.

Waar koop ik een videokaart voor anders... Ik heb geen behoefte aan lag want mijn eigen kaart kan zonder enige lag onmiddellijk alles naar mijn scherm pompen.

Zou in de toekomst, als het aan Nvidia lag, niemand meer een videokaart nodig hebben maar in plaats daarvan een abonnement afsluiten op een 3D rendering cloud service?

Sorry maar ik wil controle hebben over mijn PC. En autonomie.
Wat je straks zult zien is dat je op een begeven moment geen traditionele videokaarten meer krijgt en alles via de cloud moet. Ik mag toch hopen dat het nooit zo ver zal komen en dat andere fabrikanten beter nadenken over dit soort dingen.

Al het grafische werk moet lokaal blijven; ik wil niks door externe servers laten renderen. Daar zitten te veel haken en ogen aan. Niet alleen als het op betrouwbaarheid aankomt, maar ook op privacy en afhankelijkheid van de fabrikant.

http://www.theatlantic.co...companies-servers/276633/

Wie zegt dat ze nVidia straks niet aan het lijstje met technologische bedrijven toevoegen die door de NSA en FBI m.b.v. "PRISM" gecontroleerd worden ? Al dat gerendeerd materiaal dat in de cloud van nVidia wordt opgeslagen kan heel interessant zijn voor opsporingsinstanties.

Voor Amerika is het (heimelijk) een van de grootste wensen om bij iedere computergebruiker ter wereld mee te kijken wat zij met hun apparaat aan het doen zijn. Controleren of ze geen illegaal soort porno kijken, deel nemen aan terroristische groeperingen, of er gebruik gemaakt wordt van illegaal gedownloade fims of spellen (valt makkelijk op te sporen) en andere, soortgelijke onwenselijke zaken.

Tenslotte wordt al onze informatie al d.m.v. spionage doorgestuurd naar Amerika; beetje onzin om het ze nůg makkelijker te maken.

[Reactie gewijzigd door Titan_Fox op 30 juli 2013 20:14]

Sorry maar ik wil controle hebben over mijn PC. En autonomie.
Ik snap je bezorgdheid, maar het lijkt me vechten tegen de bierkaai.
Tegen Steam was ook veel weerstand, maar hoeveel jonge gamers zijn er mee opgegroeid zonder het in vraag te stellen? Ik vrees dat het met cloudgaming gelijkaardig zal verlopen. Tenzij alle gamers gaan roepen voor een boycot voor cloud games, maar dat lijkt me onwaarschijnlijk.
Wij ouderen kunnen waarschuwen, maar sinds wanneer luisteren jongeren naar de oudere in de samenleving? En zo 'oud' ben ik nu ook weer niet.
nvidia probeert gewoon een nieuwe markt open te breken en hun concurrentie voor te zijn. In games tegenwoordig kan je de lichten 'bakken' met hoge kwaliteit of interactief werken met ruwe benaderingen. Iedereen wil natuurlijk beide, en dat is wat nvidia probeert te voorzien.

Van dat voxel cone tracing GI algo had UE4 bijvoorbeeld al een werkend voorbeeld (andere engines hebben tegenwoordig ook al demos). Probleem was dat ze er van af zijn moeten stappen omdat het nog steeds te traag was om te berekenen (in een demo werkt het misschien prima, maar een hele game engine met alle bells and whistles is een ander paar mouwen). Dat was tegelijkertijd ook de kwalitatief meest hoogstaande real time oplossing, andere benaderingen zien er plausibel uit maar het blijft behelpen en de kwaliteit komt nooit in de buurt van een offline bake. Geomerics en DICE enzo hebben ook real time oplossingen met lightmaps maar ook daar is er sprake van een vertraging en kwaliteitsbeperking etc.

Wat nvidia probeert te doen is ontwikkelaars en gebruikers te paaien die kwaliteit van een offline bake (relatief) willen met de flexibiliteit van een (relatief) dynamisch systeem.
Op lange termijn zullen onze smartphones ook gewoon hoogwaardige oplossingen zoals raytracing gaan gebruiken e.d. maar in de tussentijd is dit een potentieel interessante oplossing voor platforms met beperkte rekenkracht.

[Reactie gewijzigd door SpinyNorman op 30 juli 2013 19:29]

Je kan het ook gewoon allemaal voorbakken, de echt interactieve dingen worden al snel vervelend bij redelijke vertragingen dus die moet je gewoon lokaal doen. Een zaklamp met een seconde latency :)
Voorbakken kost alsnog veel rekenkracht, zeker als je wijzigingen aanbrengt in je project. Ik zie niet hoe dit een oplossing biedt.
Voorbakken kost inderdaad veel rekenkracht om het erin te bakken. Hierna is het zeer efficient aangezien het na het lightbaken een texture is kost het na het baken niet meer zoveel rekenkracht.
Ik snap je comment niet goed. Dat is toch net het hele punt van lightmaps?
Een gelijkwaardige tech (in house?) voor ontwikkelaars van maps zou trouwens wel een oplossing kunnen zijn voor iteration times?

Nu ja, interactieve dingen kan je niet voorbakken, maar dat is dan weer net het hele idee achter dit Cloudlight gedoe.
daarom wordt de eerste "bounce" lokaal berekend, oftewel alle directe lighting,
de 2e bounce (die de meeste games uberhaupt niet in de game updaten aangezien die meestal gebaked is in lightmaps) wordt geupdate via de cloud.

oftewel je zaklamp doet het altijd prima, alleen de belichting in de rest van de kamer loopt 2-3 frames achter, echter die belichting is zo diffuus dat je het amper kan zien, afgezien van extreme scenarios
Is dit beetje hetzelfde als wat Microsoft van plan is met de Xbox One, of zie ik dat verkeerd?
Wat MS 'van plan' was met Xbox One was uiterste onzin om de online vereiste goed te praten. In werkelijkheid kan je niet deel van een scene renderen op een andere computer. Je kan het wel helemaal doen, maar als je alle vertex data en dergelijke moet gaan versturen ieder frame (een frame is 16 milliseconden op 60FPS!) dan is dat gewoon niet mogelijk.

Dan hebben ze het over dingen die niet latency intensief zijn zoals physics, maar dat is gewoon onzin want als een physics timing maar een milliseconde te laat is dan word er een object naar de andere kant van de gamewereld gelanceerd (zie ook, Forza multiplayer videos op Youtube, dat is physics die extern worden berekend, mooie vliegende auto's).

[Reactie gewijzigd door Wolfos op 30 juli 2013 18:48]

dat hoeft ook helemaal niet, de cloud weet welk level jij bent, en berekend net als die de 2e bounceX-Fighter heeft gewoon gelijk en dit is een bijna exacte kopie van wat Microsoft aankondigde bij de E3
Grappig om te zien dat CloudComputing telkens dichterbij de normale gebruiker komt. Ik sprak laatst iemand op mijn vakantie die al ruim 30 jaar bij IBM werkte en hij zei dat dit echt de toekomst gaat worden. Over een paar jaar hebben we een OS runnen wat in de Cloud zit en wat on afhankelijk is van het platform waarop de gebruiker het draait. Interactiviteit wordt echter nog wel een uitdaging om dat op te lossen. Ik denk dat Nvidia daar ook wel mee aan het stoeien is. Zo te zien zijn hebben ze nog wat glitches maar het ziet er in iedergeval netjes uit.
Grappiger is dat er zelfs boeken verschijnen over privacy in de cloud,
Want ja je moet wel weten wat er met je foto gebeurd als deze in de cloud beland

Laten we de cloud begraven en gewoon alles weer online noemen
Helemaal mee eens. Dit is nog een van de grootste bottlenecks op het gebied van "In the Cloud" zijn. Privacy & security is altijd lastig maar daar heb je immers ook last van als je buiten de Cloud zit te werken. Maar heh, problemen zijn om opgelost te worden en daar zijn toch wij voor ;). Alleen maar goed dat er meer aandacht wordt besteed aan deze problemen.

"Cloud" is inderdaad erg overgehyped. Henk en Ingrid hebben het er maar moeilijk mee, laat staan dat Patricia en Michel weten wat "In the Cloud" betekend ;).
Dan hoop ik dat die goede man beseft dat de toekomst NU is. Vrijwel alle succesvolle mobiele apps draaien in de cloud. Dankzij cloud computing zijn startups in staat om heel snel veel gebruikers aan te kunnen (denk bijvoorbeeld aan Wordfeud dat binnen een paar weken na launch miljoenen gebruikers had. Dat is niet mogelijk zonder cloud computing (tenzij een startup een investeerder heeft die heel scheutig is met geld en veel in hardware wil investeren voordat er ook nog maar iets is ontwikkeld).
Online spelletje Wordfeud noemen als voorbeeld waarbij online zijn handig is, tja zo kan ik het ook...

Het gaat erom dat ik vrijwel niemand ken die alles online fijn en veilig vindt. Zeker niet je OS daar draaien, niemand wil afhankelijk zijn van een internetverbinding om normaal wat te kunnen doen, behalve als het onvermijdelijk is voor wat je wil doen. Bv documenten delen op verschillende lokaties ofzo... Maar dan nog hebben al die systemen een lokale backup voor offlinemodus en dus ook zeker een OS lokaal nodig.
Ik sprak laatst iemand op mijn vakantie die al ruim 30 jaar bij IBM werkte en hij zei dat dit echt de toekomst
Volgens mij roept IBM dat al 20 jaar (ook over terminaloplossingen), en op de specifieke logische toepassingen na, is dat toch nog niet gebeurd. Online is tot nu toe vooral een aanvulling, geen vervanging.
De toekomst is ook deels al nu wat betreft Cloud Computing, maar er zijn nog veel meer voordelen dan alleen maar snelle startups voor apps en de voordelen van het opschalen daarvan afhankelijk van de userbase. Think bigger ;).
Dit is de abstract op de link uit het artikel:
"We introduce CloudLight, a system for computing indirect lighting in the Cloud to support real-time rendering for interactive 3D applications on a user's local device. CloudLight maps the traditional graphics pipeline onto a distributed system. That differs from a single-machine renderer in three fundamental ways. First, the mapping introduces potential asymmetry between computational resources available at the Cloud and local device sides of the pipeline. Second, compared to a hardware memory bus, the network introduces relatively large latency and low bandwidth between certain pipeline stages. Third, for multi-user virtual environments, a Cloud solution can amortize expensive global illumination costs across users. Our new CloudLight framework explores tradeoffs in different partitions of the global illumination workload between Cloud and local devices, with an eye to how available network and computational power influence design decisions and image quality. We describe the tradeoffs and characteristics of mapping three known lighting algorithms to our system and demonstrate scaling for up to 50 simultaneous CloudLight users. "

Men haalt dus zelf asymmetrie en latency aan als uitdagingen. De pro ziet Nvidia in het hergebruik van berekende renders tussen meerdere gebruikers. Ik vermoed dat men graag meer diensten zou willen leveren ten koste van de hardware omzet. Op diensten is de marge over het algemeen hoger. Voor een hardware georiŽnteerd bedrijf als Nvidia is die slag moeilijk te maken. De software bedrijven proberen al geruime tijd hun product als virtuele dienst uit de cloud aan de man te brengen.

Qua technologie ligt de basis vermoedelijk in High Performance Technical Computing. Denk aan renders van olie reservoirs. de datasets zijn zo groot dat het onmogelijk is die op een client device te renderen. Dat moet dus gebeuren binnen een HPTC cluster. In zo een situatie creŽer je ook een gerenderde stream die meestal compressed naar de client wordt gestuurd. De client/host integratie is dusdanig dat het lijkt alsof het op je eigen lokale machine draait. Zodra de afstand of aantal network hops toeneemt en daarmee de latency zal de gebruiker dit merken als vertraagde response op zijn input.

Of dit in de praktijk veel oplevert voor gaming valt te bezien. Ik denk dat de GPU capaciteit dusdanig groeit (al gegroeid is) dat er eigenlijk geen behoefte is aan latency gevoelige oplossingen.
Ja hardware zal wel terug lopen dus kun je beter wat diensten aan bieden voor toch redelijke grafische performance op een workstations die dat eigenlijk maar beperkt heeft.
Wat is dan het voordeel ten opzichte van gewoon lightmapping? Zie niet hoe dit kan werken in real time namelijk. Moet je ieder frame al je vertex data naar een server versturen zeker.

EDIT:
Waarschijnlijk bewaart dit de statische informatie dan natuurlijk.

[Reactie gewijzigd door Wolfos op 30 juli 2013 18:57]

Realtime maakt ook niet zo veel uit bij 3D applicaties, staat ook dat het met een response gebeurt. Echter voor bedrijven is dit toch zeker een mooie ontwikkeling. Zie het niet iets voor gamers daar voor is latency cruciaal en daar bied dit geen oplossing/uitkomst voor.
Had niet goed gelezen. Voor 3D applicaties kan het inderdaad wel een uitkomst zijn ja.
Ik zou graag maandelijks betalen voor een terminal gaming pc. Geen afschrijving, geen ventilator herrie, geen kachel, etc...gewoon maandelijks betalen voor bepaalde specs.
Jij hebt je eigen gsm netwerk, riolering en wegennet aangelegd?
Gaming als ontspanning, dan is gemakzucht toch net wel aan de orde :+
vertel, wat is er overdreven aan wat hij zei?
Ik heb me nog nooit verdiept in het hele cloud gebeuren,maar het lijkt me niet dat zoiets gratis is voor de eindgebruiker, ofwel?
Waarom zou het gratis moeten zijn? Een 3D chip is toch ook niet gratis?
rustig hij vraagt enkel of t gratis is. En nee, ik denk niet dat zoiets gratis zal zijn, denk een abo wat met je tablet komt bijv.
Het is een business model. Game je niet vaak of zit je niet graag achter je bureau met je krachtige desktop. Of wil je gewoon niet betalen voor dure GPU of wil je niet elk jaar upgraden dan is het een eenvoudige kosten analyse voor de eindgebruiker, een abonement kan dan goedkoper uitdraaien of flexibeler zijn aangezien je niet meer gebonden bent aan je hardware. Natuurlijk zijn er ook grote voordelen voor uitgevers ivm piracy enzo. Wie weet zullen games in de toekomst niet langer als retail verkrijgbaar zijn?

Misschien wordt het in de toekomst wel zo groot als Youtube, misschien sterft het een stille dood. Persoonlijk denk ik dat we er in de toekomst meer en meer van zullen gaan zien, uitgevers kunnen de touwtjes veel strakker in handen houden, je hebt geen problemen met distributie en hacks, er is geen nood om grote hoeveelheden data lokaal te bewaren, etc.
Er is steeds meer bandbreedte en rekenkracht waardoor deze dingen quasi in de sterren geschreven staan.

[Reactie gewijzigd door SpinyNorman op 30 juli 2013 19:44]

Natuurlijk is het niet gratis, ze zullen wel een manier vinden om er geld aan te verdienen (bv abonnement). Echter denk ik dat gaming wel goedkoper voor de eindgebruiker kan worden op deze manier. Ik heb het gevoel alsof er hier veel een belangrijk argument over het hoofd word gezien. Namelijk dat cloud gaming potentieel veel goedkoper is voor de eindgebruiker dan lokaal een grafische kaart hebben.

Ik gebruik mijn game computer misschien gemiddeld een uurtje per dag, 23 uur per dag staat hij dus uit of niets te doen. Oftewel hij word slechts 4% van de tijd gebruikt (als het niet minder is). De rest van de tijd word al die grafische kracht niet benut en is dus eigenlijk een waste of chip/resources. Als Nvidia een gelijkwaardige kaart heeft staan, kunnen meerdere gamers over de wereld gebruikmaken van de kracht van die ene kaart (ipv alleen ik). Er zijn dus wereldwijd een stuk minder grafische chips nodig om aan de demand van de consument te voldoen. Hopelijk vertaalt deze vermindering in chips ook in die abonnementen goedkoper worden voor de eindgebruiker dan het zou zijn om een graka te kopen.

Op dit item kan niet meer gereageerd worden.



Populair: Gamecontrollers Websites en communities Smartphones Beheer en beveiliging Sony Microsoft Games Politiek en recht Consoles Besturingssystemen

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013