Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties

Mozilla heeft samen met OTOY en Autodesk een javascript-framework ontwikkeld waarmee vanuit cloudomgevingen 3d-beelden uit games en applicaties naar browsers gestreamd kunnen worden. Deze methode kan onder andere met Amazons nieuwe EC2 GPU-instances gebruikt worden.

Het nieuwe javascript-framework heeft de naam Orbx.js gekregen. Met de library moet het mogelijk worden om grafisch relatief zware games maar ook 3d-applicaties vanuit een datacenter naar een client met een html5-compatibele browser te streamen. Mozilla, die bij de ontwikkeling van het javascript-framework samenwerkte met OTOY en Autodesk, toont hoe Orbx.js ingezet kan worden om 3d-beelden van een game en een remote desktop naar Firefox te versturen. Autodesk wil de technologie gaan gebruiken om applicaties als 3DS Max, Maya, Revit en Inventor naar gebruikers te streamen.

De Orbx.js-technologie moet onder andere gebruikt kunnen worden met de cloudomgeving van Amazon. Daarbij zijn met name de deze week geïntroduceerde Amazon EC2 GPU-instances interessant. Voor het renderen wordt Grid Gpu-technologie van Nvidia toegepast en software van OTOY.

Mozilla stelt dat met Orbx.js het streven van de browserbouwer om binnen de browser een zo breed mogelijk softwareaanbod aan te kunnen bieden, waaronder native applicaties en geavanceerde games, weer dichterbij is gekomen. Dit zou met name te danken zijn aan de snelle vooruitgang in de prestaties van javascript-engines de afgelopen jaren.

Moderatie-faq Wijzig weergave

Reacties (16)

Dit zien we al vaker, en vast in de toekomst des te meer: Steeds meer rekenwerk gaat richting de cloud. Grote voordelen, maar ook potentiële nadelen en irritaties. Zoals een toegenomen afhankelijkheid van een externe partij. Zo zou straks Autodesk bepalen hoeveel rekenkracht elke gebruiker krijgt voor het gebruik van hun software, en als ze downtime hebben zouden alle gebruikers daar last van hebben.

Daar tegenover natuurlijk het grootste voordeel: een PC van 200 euro kan genoeg zijn voor erg zware applicaties en games via de cloud, die ook gelijk draaien op de smartphone, tablet, enz. Dat kan een vermogen schelen qua aanschaf van apparatuur én stroomverbruik. Komt er natuurlijk wel een periodiek bedrag bij voor het gebruik van de cloud, en potentieel betalen we straks dus 20 bedrijven elk een bedrag voor gebruik van allerlei "clouds". Omdat je een variabel deel van een krachtige server huurt, zou de performance in principe ook veel hoger kunnen zijn dan wat mogelijk is met één pc, hoewel ik verwacht dat het kostenplaatje dan wel naar rato meeschaalt ;)

Ook benieuwd hoe goed dit werkt onder sub-optimale omstandigheden qua internetverbinding (zowel bandbreedte als latency). Het lijkt me dat er toch een (bijv) full HD-beeld met een flinke verversingssnelheid door de lijn moet. Dat kan op individueel niveau al een groot probleem worden, maar keer een paar honderd miljoen gebruikers (uitgaande van wijdverspreide adoptie van de cloud) al helemaal. Het lijkt mij dat de hele infrastructuur van het internet (knooppunten, protocollen e.d.) nog wel eens serieus te kort gaan schieten als iedereen dagelijks zo zou werken en spelen. Wat wellicht ook weer oplosbaar is met verbeteringen van de protocollen, hardware en technologieën van het internet.

Hoe dan ook, mooi dat dit soort dingen gemaakt worden. We komen er maar op één manier achter of de cloud echt de toekomst gaat worden, en dat is door ermee te experimenteren.

[Reactie gewijzigd door geert1 op 6 november 2013 17:55]

Hoewel er inderdaad steeds meer naar de cloud gaat, vraag ik mij persoonlijk af of het ook bij de consument zo veel gebruikt gaat worden. Ja, we gebruiken allemaal al drive of dropbox of azure cloud, maar ik zie consumenten niet zo snel overstappen voor al hun rekenwerk naar de cloud. Voor veel consumenten is die laptop van 200 euro weleens waar 200 euro goedkoper dan de laptop die ze anders zouden kopen, maar daarvoor krijgen ze wel terug dat ze ook offline kunnen werken en zeker zijn dat hun data niet in bijvoorbeeld Amerika komt (iets met patriot act).

Daarnaast denk ik ook dat er nog te veel dingen worden gedaan door consumenten zoals gamen die zo latency gevoelig zijn dat het niet via de cloud te doen is. Ja, OnLive was een leuk concept, maar het was toch allemaal net te traag om goed op te gamen (in nederland in ieder geval). Erg jammer, want het was best een goede oplossing. Maar wij waren niet de enige met die problemen, schijnbaar, want het bedrijf is failliet gegaan en is nu onderdeel van een grotere media concern.

Daarnaast: als je je OS bijvoorbeeld naar de cloud verplaatst, dan moet je bijna 100% van de tijd binnen een VM werken, iets wat ik zelf meteen merk doordat het wat sluggish is, wat gewoon minder productief werkt (voor mij dan)

Al met al blijf ik de komende 5 jaar toch zeker werken op systemen die vanzich zelf snel zijn en niet afhankelijk van de cloud.
Voor de komende 5 jaar neig ik naar dezelfde conclusie. Maar het cloud-concept heeft wel dusdanige potentie dat, zodra de performance-issues eenmaal opgelost kunnen worden, het van grote waarde kan zijn voor de gebruiker. Daarvoor zal op infrastructureel niveau waarschijnlijk nog het één en ander moeten gebeuren, maar dat is zeker niet ondenkbaar.

Het hangt ook af van de behoefte naar rekenkracht. Als we over 10 jaar nog hetzelfde doen met computers als nu, dan is cloud computing niet noodzakelijk (want we "redden" ons nu ook zonder). Maar als we met enorme hoeveelheden data werken, met fotorealistische 3D-beelden (real-time), met geavanceerde kunstmatige intelligenties (bijv. digitale persoonlijke assistenten), enz, dan kan de behoefte aan rekenkracht snel groeien. Dan zou het kunnen dat we het hele internet ervoor overhoop gooien om het mogelijk te maken. In kleine stapjes dan waarschijnlijk.

Allemaal speculatie, maar mijn conclusie voor nu is dat het in elk geval goed is om ermee te experimenteren, en dan te kijken wat er mogelijk is, en hoe groot de behoefte eraan is.

[Reactie gewijzigd door geert1 op 6 november 2013 18:35]

Back to the future, basicly terug naar de Mainframe.
De technologie zelf is natuurlijk zeker wel interessant, maar ik vind zou het doodzonde vinden als veel games daadwerkelijk in HTML5/JS gebouwd gaan worden op de manier.

Ten eerste is het natuurlijk weer een aardige stap achteruit in performance omdat er een flinke overhead tussen zit: hoe veel je Javascript interpreters ook optimaliseert, het niveau van native applicaties zullen ze nooit bereiken. Door de boel naar de cloud te verplaatsen en dus van alles op een remote server te gaan doen introduceer je weer een hoop latency.

Maar bovendien brengt dit een enorme afhankelijkheid van de cloud met zich mee, wat mij ontzettend onwenselijk lijkt. Dit argument wordt nu al eens gebruikt als goedmakertje voor het vereisen van een continue internetverbinding, zoals bij SimCity (al was het daar gewoon een onzinverhaal en was het puur DRM), maar dat wordt daar alleen maar meer van met alle gevolgen van dien.

Maar goed, dit zie je heel veel: mooie nieuwe technieken maken zo veel mensen enthousiast dat vervolgens steeds meer mensen van mening zijn dat die specifieke techniek voor álles toegepast moet worden. Hype-gedrag, in plaats van een eerlijke, (semi)objectieve vergelijking op te stellen en een weldoordachte beslissing te maken.
Je gaat uit van "een hoop latency" alsof dat een vast gegeven is. Het internet ontwikkelt zich constant, en met de vraag naar cloud computing, zullen ook de infrastructuur + de protocollen van het web mee kunnen groeien. Het lijkt mij dat wereldwijd overstappen op cloud computing op dit moment nog zwaar problematisch zou zijn. Maar dat wil niet zeggen dat het hele idee slechts een hype is en dat we het moeten vergeten. Ooit was 50Mbit/s al een bizarre, ondenkbare en toen volkomen onnodige bandbreedte, maar nu is het vrij standaard. En naast cloud computing gaat ook andersoortig internetgebruik constant meer bandbreedte en snellere latency vereisen, dus wie weet hoe dit zich ontwikkelt. Het lijkt mij niet goed om uit te gaan van stilstand op dat gebied.

En wat die afhankelijkheid betreft: We zijn ook afhankelijk van electriciteit elke dag, maar realiseren ons dat niet eens meer. Het is goed mogelijk dat we over 10-15 jaar net zo tegen de cloud en het internet aankijken. Maar inderdaad, het kan ook een serieus probleem blijven. Maar daar komen we het beste achter door wat early adopters ermee aan de slag te zetten :)

Verder lijkt het mij dat de browser, HTML en JS zelf niet zoveel te maken hebben met de performance; dit zal niet veel meer zijn dan een doorgeefluik.

[Reactie gewijzigd door geert1 op 6 november 2013 17:42]

Bandbreedte zal blijven groeien, daar ben ik zeker van. Latency is een ander verhaal.

Binnen je PC hoeft een signaaltje met minimale encodering en minimale fouthersteloverhead verstuurd te worden over minimale afstanden (veelal millimeters). Dat is toch wel iets héél anders dan honderden zo niet duizenden kilometers reizen over netwerken van verschillende kwaliteit.

Stel dat een signaal met de snelheid van het licht, zonder verdere tussenkomst, zal kunnen reizen, van mijn PC in Groningen naar het serverpark in Eemshaven, zo'n 35KM. Dan nog is de reistijd +- 0.0001 seconden, oftewel 0.1ms. Je wilt ook een reply, natuurlijk, dus dan moet het ook terug, zit je op 0.2ms. Nu werken PC's intern niet met licht maar met elektronische signalen, dus zal er vier keer een conversie tussen het lichtsignaal en het electrische signaal moeten zitten, wat waarschijnlijk al meer tijd in beslag neemt dan die 0.2ms per keer. En daar bovenop komt dan nog de verwerkingstijd die je sowieso al zou hebben als je de boel lokaal zou draaien. En nog overhead van een netwerk-protocol, dat, hoe zeer geoptimaliseerd ook, altijd nog trager zal zijn dan iets over een verbinding binnen je eigen PC.

En dat is allemaal nog zeer optimistisch gerekend, maar dan komt je al op een latency van minstens 2ms. De praktijk zal zeker langer blijken.

Wat betreft afhankelijkheid: er is een groot verschil tussen electriciteit en internetverkeer, en dan met name met betrekking tot NSA praktijken: alles wat over internet gaat is door anderen in te zien. Electriciteit daarentegen is een heel ander verhaal. Als ik plotseling een heel serverpark in mijn huis aanzet zal nog niemand het weten, totdat de meterstanden weer doorgegeven moeten worden, dan zal dat een nare verrassing worden voor mij.
Je hebt zeker een punt wat betreft latency, die zal op een gegeven moment niet lager kunnen. Maar we zouden het aantal conversies van licht naar elektriciteit kunnen verminderen, de datacentra dichterbij kunnen zetten, enz. De latency hoeft daarnaast niet nul te zijn, alleen laag genoeg om het werkbaar te maken. Het lijkt mij dat het onder de 100-200ms al in de richting komt. En als dat niet lukt, dan is de cloud simpelweg een gefaald experiment, of moeten we het een decennium later nog eens proberen. Dat kan ook een conclusie zijn. Naar mijn idee zal het internet toch moeten groeien en ontwikkelen, ongeacht deze ene toepassing ervan, en dan is het gewoon een kwestie van kijken waar we uitkomen.

En wat betreft privacy: Er moet een flinke maatschappelijke verschuiving plaatsvinden zodat de inlichtingendiensten terug worden gedrongen en het volk haar vrijheden kan behouden. Als dat gebeurt (en het zou goed kunnen dat dit al aan de gang is), dan hoeven we daarna wellicht minder te vrezen wat er met onze data gebeurt. Dat is erg optimistisch, ik weet het :)

[Reactie gewijzigd door geert1 op 6 november 2013 18:38]

Het gaat hier over streaming toch? Dus de games worden juist niet in Javascript gebouwd; alleen het streaming gedeelte is nu javascript. Wat voor technologie gebruikt is om de daadwerkelijke game/applicatie in te bouwen die ergens anders staat te ratelen dat maakt niet uit.

Ik vind het zelf (als developer) wel een interessante ontwikkeling; ik heb liever dit en dat ik vrij ben om mijn eigen technologie te kiezen voor de bron applicatie dan dat ik inderdaad native dingen in Javascript moet gaan zitten bouwen!
Een HTML5/JS applicatie hoeft helemaal niet afhankelijk te zijn van "the cloud". Sterker nog, een van de nieuwe dingen die HTML5 biedt, is de mogelijkheid om een web app offline te gebruiken!
Tuurlijk, maar dat is toch niet waar dit artikel over gaat? Dat gaat juist over streamen vanuit de cloud, wat wel degelijk deze afhankelijkheid met zich meebrengt.
Ik vraag me het volgende af:
-Gaat autodesk nu ook de creative cloud op gaan (a la Adobe)?
-Wel leuk dat je dan geen super hardware nodig hebt, maar dan is je databundel er wel snel door op mobiel? :?
Klopt, Autodesk is druk bezig veelgebruikte software om te zetten naar cloud-oplossingen, onder de noemer "Autodesk 360". Meer informatie: https://360.autodesk.com
In eerste instantie zullen de gangbare pakketten worden blijven doorontwikkeld en wordt er parallel gewerkt aan de 360 varianten. Ik verwacht dat de gangbare pakketten uitgefaseerd zullen worden, al vermoed ik dat daar veel tegenstand voor zal komen.
Applicaties waarbij latency/input lag geen probleem is, is dit nog wel interessant. Voor games, zie alle voorgaande pogingen. Nadeel hierbij kan nog worden dat het browser-specifiek gaat worden, daar zit ik helemaal niet op te wachten.
En ze zijn weer terug! Mozilla/Netscape heeft denk ik min of meer vanaf het begintijdperk mooie producten neergezet... die op den duur door anderen ingehaald werden :|
Vind het wel fantastisch dat ze nogsteeds in de lucht zijn en met revolutionaire producten komen. Ik zie hier zeker mogelijkheden in: Op het zakelijke platform worden desktop-applicaties de cloud ingegooid en op basis van abonnement aangeboden. Dat kan natuurlijk ook op het grafisch/game platform. Je hoeft dan niet meer een supercomputer te hebben om toch mooie resultaten te zien, omdat een andere machine de boel rendert en jij ziet het eindresultaat.... + je hoeft niets te installeren (op je browser na, dan).
Is het programma teamviewer niet hetzelfde?

[Reactie gewijzigd door lauyylauyy op 6 november 2013 20:42]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True