Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 141 reacties

Iedere zichzelf respecterende game- of technologiewebsite rept erover: de OnLive service die werd gedemonstreerd op de Game Developers Conference. Heeft 'stream-gaming' daadwerkelijk de toekomst?

Het is het gesprek van de dag, op iedere zichzelf respecterende game- of technologiewebsite: de OnLive service die werd gedemonstreerd op de Game Developers Conference in San Francisco.

Het idee is als volgt. De gamer kan vanuit zijn huiskamer met een simpele pc of Mac van een paar jaar oud de nieuwste games in high definition spelen, via streaming technology. Mensen die geen computer hebben kunnen met behulp van een simpele microconsole voortaan gamen op de tv. Een bijgeleverde controller laat spelers draadloos hun games besturen. Met een simpele druk op de knop wordt een game geactiveerd, waarbij gebruik wordt gemaakt van de hoogwaardige hardware van een pc ergens in een serverpark in Amerika. De technologie van OnLive stuurt de input van de controls van de speler door en het enige dat hij terug krijgt zijn de flitsende beelden van de game die hij op dat moment speelt.

Het klinkt te mooi om waar te zijn, en het is dan ook nog lang niet zo ver. OnLive verkeert nog in een testfase - weliswaar in een 'vergevorderd' stadium volgens de makers, maar toch - en in eerste instantie ligt de focus op de Amerikaanse markt, al is er uiteraard de ambitie om de service internationaal te maken. Natuurlijk zijn er nog allerlei technische valkuilen en obstakels die moeten worden omzeild, en dan zijn er nog tal van onbeantwoorde vragen. Hoe zit het met vertraging? Wat voor internetverbinding heb je straks nodig? Hoe gaat OnLive in hemelsnaam de capaciteit van duizenden spelers tegelijk aanpakken? Wat gebeurt er als een miljoen gamers ineens tegelijk Doom 4 willen gaan spelen bij de launch van OnLive? Wat gaat de service kosten?

Eurogamer.net was er snel bij om de service op technisch vlak te degraderen tot een onhaalbare fantasie. Onder de titel 'Why OnLive Can't Possibly Work' laat de site geen spaan heel van het idee, en er worden technische argumenten geleverd om dit te onderbouwen. Als je dit artikel leest ben je geneigd de schouders op te halen en te denken "zie je wel, het zoveelste bedrijf dat een proefballon oplaat." Maar dat is me te gemakkelijk.

De makers van OnLive stellen dat ze al zeven jaar aan de service werken, dat de techniek 'uniek' is en dat hij werkt. AMD is bezig met het testen van een soortgelijke technologie, het bedrijf voorspelt dat het binnen een jaar mogelijk is om Crysis via een 'browserachtige' constructie op een Eee PC te spelen. Patrick Moorehead, vice president marketing bij AMD, stelt in de nieuwste editie van WIRED Magazine: "Je moet je voorstellen dat er servers zijn waar Crysis op draait en dat je het spel op een iPhone of netbook kunt streamen, alleen maar door de vectors door te sturen waarmee je het spel bestuurt". Tweakers.net bracht donderdag nog het nieuws dat zich al een OnLive-concurrent heeft aangediend, genaamd Gaikai.

Kortom, de tijden veranderen. Digitale distributie, in welke vorm dan ook, is de toekomst. We kopen straks geen spellen meer bij een fysieke winkel waar je met papieren geld een fysiek product koopt. En ook al breekt Eurogamer de OnLive-dienst technisch helemaal af, zou het niet heerlijk zijn als je nooit meer je pc hoeft te upgraden en met een simpele instapmodel-computer de nieuwste games kunt spelen tegen, naar alle waarschijnlijkheid, een zeer competitieve prijs? Winkels als Gamestop of onze 'eigen' Bart Smit kijken met argusogen naar deze ontwikkeling, maar vroeg of laat wordt Gaikai, OnLive, of hoe het ook zal heten, realiteit. Wellicht pas over nog eens zeven jaar, maar het gaat er een keer van komen.

P.S. - De andere hamvraag is natuurlijk: hoe lang duurt het voordat Microsoft met een rechtszaak dreigt? OnLive lijkt namelijk wel heel erg op de Microsoft-diensten Xbox Live en Live.

Moderatie-faq Wijzig weergave

Reacties (141)

1 2 3 ... 7
Met glasvezel is dit te realiseren, met andere technieken (ADSL, kabel) is de latency te hoog.

Ik denk dat een maximale latency van ongeveer 5ms mag zijn; daarmee moet er een signaal naar de server (2ms) verwerkt worden (+-1ms als in normale latency waar je ook mee te maken heb bij lokaal gamen; gewoon de verwerking van de input dus) en dan het terugsturen (2ms).

Dan is het speelbaar. Deze latencys zijn alleen mogelijk bij glasvezel.

Maar laten we eerlijk zijn; als dit werkt is dit ideaal.
1 pakket voor interactieve TV (liefst internationaal), gamen en internet. En alles op de TV. Als OnLive dit weet te realiseren zou ik hier een boel geld voor over hebben.
En dat het niet haalbaar is is altijd zo een geneuzel; dingen die nu onhaalbaar lijken proberen te realiseren = innovatie.

[Reactie gewijzigd door Flappiewappie op 27 maart 2009 09:47]

Zelfs met glasvezel moet je wel dichtbij een serverpark zitten. Met lichtsnelheid leg je per milliseconde namelijk slechts 300km af. Dit lijkt veel, maar als in Nederland de servers in Amsterdam komen te staan terwijl ik in Groningen zit, ben ik sowieso al bijna 2ms kwijt om het signaal heen en weer te sturen. En dat is zonder dat ergens tijd wordt genomen om het signaal om te zetten naar een netwerkkabeltje.
Maar ik vind die grens van 5ms die Flappie stelt ook een beetje overdreven. Ik heb zelf een monitor met flink wat input lag (50ms) en ik merk het zelf niet/nauwelijks. Voor de gros van de gamers zal het niet uitmaken of ze nu 5 of 50 ms lag hebben.

Dat gezegd hebbende lijkt het me inderdaad geen goed idee om over koper of kabel dit soort diensten te leveren.
50 ms is dodelijk in de gaming wereld :)
Het verschil tusen 50ms lag en 100ms is verliezen of winnen in shooters
Als jij nog eens 50ms extra beeldvertraging hebt kun je onmogelijk op een hoog niveau spelen in de gebruikelijke shooters

Hoe zich dat vertaalt naar een offline shooter daar heb ik zo geen zicht op, reactiesnelheden van snelle mensen bedragen 0,1 seconde of 100ms, in atheltiek is het zelfs zo dat een reactie onder de 0,1 sec als een valse start wordt beschouwd.

[Reactie gewijzigd door ? ? op 27 maart 2009 11:14]

nja eerlijk, als je voor zo'n oplossing gaat, dan kan je verwachten - in de illusie dat deze dienst binnen de 5 jaar, met de technische middelen die tussen nu en 5 jaar zullen verschijnen - dat je als user meer "fire-and-forget"-minded bent (love the term Xtrafris ;) )
Een high end speler zal zeker nog tot 5 jaar erna technisch gedwongen worden om goede volledige hardware aan te schaffen (nuja als ik al die gamers zag brielen op een 17" 800*600 dx7 C.S.1.6 op zware quadcores heb ik toch een neiging die woorden te relativeren). Das allemaal aan gangbare prijzen dus daar zit weinig verandering in.
50ms is echt verschrikkelijk veel lag. Ik heb zelf pas een 22" CRT monitor gekocht omdat ik helemaal gek wordt van mijn TFT schermen. Ze zijn niet zo traag als m'n vorige PVA paneel maar ze halen het nog lang niet bij zo'n oud bakbeest.

Als je 50ms niet ziet dan speel je denk ik geen hele snelle spellen. Dan zou je er na 2 minuten al genoeg van hebben namelijk. Dat is hetzelfde verhaal als 24 fps die zogenaamd genoeg zouden zijn. Dat is het ook bij lange na niet. Vanaf 60+ vind ik het acceptabel. Maar liever nog wat meer :)
Ik denk ook dat lag een probleem is als je een spel speelt waar je snelle reacties nodig hebt (shooters, racegames, vechtspelletjes...)

Los daarvan lijkt mij de enige manier waarop het kan als de servers de beelden omzetten naar mpeg en die doorsturen, de connectie moet dan wel zodanig goed zijn dat er totaal niet gebufferd moet worden. Waarom mpeg? Heeft er iemand wel eens geprobeerd een spelletje te spelen over citrix of vnc?

Het is niet uitgesloten dat het binnen enkele jaren mogelijk is maar momenteel lijkt het mij niet doenbaar of ze moeten het compressiesysteem van Jan Sloot uit de kluis halen :+

[edit: gestreamd vervangen door gebufferd]

[Reactie gewijzigd door StGermain op 27 maart 2009 13:31]

Er wordt geen MPEG gebruikt..
een nieuwe compressie middel..

dat gezegt wil ik ff zeggen op het topic zelf:

dit is gedoemd te mislukken..
er is gn mogelijkheid om de latency op 1MS te houden zoals OnLive beweerd (ja: kijk de conference maar eens.. ) het is theoretisch EN mathematisch onmogelijk zoals vele hier op dit topic/artikel hebben uitgelegd.. iets waar ik zelf ook al mee kwam het moment dat die gast dat zei..

leuk.. maar met praatjes kom je niet ver.. en bewijzen ook niet. next please!
De gemiddelde inputlatency van een unrealengine3 spel is rond de 70ms. Dat is nog zonder de scherm of netwerk latency - gewoon de tijd tussen input en frame flip.
Andere engines zullen misschien iets andere timings hebben, maar het is vrijwel onmogelijk om noemenswaardig korter dan je frametijd te gaan - 33ms als je vsync aan staat.

De grens van 5ms die je stelt is dus niet erg in sync met de werkelijkheid...

[Reactie gewijzigd door kvdveer op 27 maart 2009 16:04]

lijkt me sterk, als de lag input/flip 70 milliseconden was zou je goed misselijk worden van zo'n potje (omdat de beweging op het beeld niet overeenkomt met wat je doet)
misschien heb je gewoon een trage videokaart :P
Met online games zit je nu ook met een latency van 15 tot 100ms dus ik zie het probleem niet.
Maar jij hebt een beeld van 1680*1050 voor je met 60Hz (en 120fps) om zo maar een voorbeeld te noemen. Dan krijg ik dus die beelden (behalve bandbreedte en zeer veel achter elkaar) een vertraging van ongeveer 50ms, en dan moet alles echt perfect lopen. Dat doet me eerder denken aan oude LCD monitoren die lekker achter alles aan laggen.

De latency gaat over je in en output qua gebeurtenissen, posities. Een goede engine berekent gewoon terug wat er gebeurde op het juiste tijdstip. Dus meestal mik je in werkelijkheid achter iemand, terwijl je toch raak schiet.
Dat zijn lekker kleine pakketjes, totaal niet te vergelijken met de input voor een scherm, de games (of het systeem) moet op een of andere manier rekening gaan houden met alle spelers die achterlopen.

Ik ben benieuwd en geloof er wel in voor een wat rustig spel, maar een online streaming potje fps waar je fps en latency telt kan je het vergeten.
60Hz kan volgens mij geen 120 fps opleveren maar maximaal 60 fps. Ook niet met Interlace technieken zoals Pal tv (50Hz -> 25 fps interlaced oftewel 2x25 halve beelden per seconde) ;)
Ik had ze er niet beide bij moeten zetten, maar meeste schermen hebben 60Hz, dus dat is een minimum fps die gestreamed moet worden.

Maar ik haal het liefst wel 120+fps in een game, omdat het toch fijner is dan 60fps.
Ja het veroorzaakt tearing, maar ik zie wel degelijk dingen eerder omdat al die frames gemixed worden in die ene 1/60 van een seconde.
Moeten we niet precies dubbele van 60 nemen anders sla je ze over.

Als ik Counter Strike Source speel met 60fps of met 130fps maakt dat een verschil en ik denk dat iedereen die fps speelt dat kan vertellen. (dan bedoel ik niet dat je met 60fps waarschijnlijk drops hebt eronder, maar puur het verschil in fps)

[Reactie gewijzigd door epTa op 27 maart 2009 20:03]

Winkels als Gamestop of onze 'eigen' Bart Smit kijken met argusogen naar deze ontwikkeling
Tja, en zij vast niet alleen. Je zult AMD of Nvidia zijn en de markt voor videokaarten stort helemaal in. Snelle processoren zijn ook belangrijk, dus zullen Intel, en wederom AMD weinig zin hebben in dalende verkopen van hun snelle processoren in te zien kakken. Een beetje doemdenken en je kunt dan de vraag stellen: waarom investeren in het sneller maken van consumentenprocessoren als het instapmodelletje voldoet? Is dat niet een effect dat we willen voorkomen?

Ik zie een service als OnLive nog niet al te snel Crysis serveren aan duizenden gamers, misschien als het detailniveau enorm omlaaggeschroeft wordt. Het is nieteens zozeer de bandbreedte die ervoor nodig is (we kunnen ook HD-films streamen bijvoorbeeld) maar meer de processorkracht om het allemaal te berekenen.

[Reactie gewijzigd door Cyphax op 27 maart 2009 09:43]

De consument koopt misschien minder krachtige hardware maar de bedrijven achter diensten als OnLive moeten wl deze hardware in huis halen. Omdat ze hun hardware kunnen delen over meerdere mensen zal de verkoop wel teruglopen maar daartegenover staat wel dat door dit concept veel meer mensen gebruik kunnen maken van top games, de markt dus groter wordt, het aantal klanten bij OnLive zal stijgen en dus meer hardware zal moeten worden aangeschaft.

De verkoop zal teruglopen, dat denk ik ook, maar niet zeer drastisch en het businessmodel van de hardwarefabrikanten zal op high-end niveau dan van business to consumer moeten omgaan naar business to business.
Het lijkt me niet dat die markt instort. Zo te zien krijg je alleen vectoren door, of in ieder geval gecomprimeerde informatie. Deze info moet worden berekend, gecomprimeerd, verzonden, gedecomprimeerd en worden weergegeven. Het lijkt me dat vooral voor het berekenen GPU's nog steeds heer en meester zijn. AMD of Nvidia zullen hooguit zich meer moeten gaan richten op de Server markt.
AMD doet anders gewoon mee, dus veel zorgen zullen ze zich niet maken denk ik dan: nieuws: AMD bouwt supercomputer voor gaming via cloud-computing
HD streamen? Waar dan? Echt HD kwaliteit? Neen, niet gevonden. Apple iTunes HD is overigens een downloaddienst, en ook al niet te vergelijken met Blu-Ray kwaliteit.

Daarbij, een film kun je stukje inladen, dan afspelen. Een game moet direct reageren en er is interactie tussen het ontvangen materiaal en het verstuurde.

Over iTunes HD (kan het zelf niet testen)
"Have you seen a BD movie on a 1080p tv? Apple's "HD" download is about the same or maybe just a tad better than the NCAA streaming we talked about yesterday. It looks much better than youtube but the main reason it looks good is because it's displayed on a small screen. Play it on a 1080p tv and nobody (who has seen a real BD) would call it a HD. It's more like DVD quality in still shots and noticeably worse in moving scenes due to extra compression. Apple's "standard def" is more like old 480i or worse. Their quality rating (and many other online providers) is one step lower than what you get from medias like dvd and bd."

[Reactie gewijzigd door Rinzwind op 27 maart 2009 11:26]

For standard definition television quality, a broadband connection of at least 1.5 megabits per second is required. For HDTV resolution, a connection of at least 5 mbps is needed. The service uses patented algorithms that work to counter lag caused by network constraints.
bron: http://www.techpowerup.co...l_Gaming_PC_Upgrades.html

lijkt dus wel mee te vallen

[Reactie gewijzigd door superwashandje op 27 maart 2009 10:01]

Dubieus. OnLive heeft 1 patent en twee aanvragen (7471665, 7493078, US20080165752) en die gaan niet over encoding/decoding lag.
It is emphasized that this abstract is provided to comply with the rules requiring an abstract that will allow a searcher or other reader to quickly ascertain the subject matter of the technical disclosure. It is submitted with the understanding that it will not be used to interpret or limit the scope or meaning of the claims. 37 CFR 1.72(b)..

De tekst is een implementatie van hun abstract patent. T'gaat dus niet pers over wifi of iets dergelijks.
Het allerbelangrijkste probleem (maar misschien ook wel de kracht) van OnLive is de afhankelijkheid van je internetverbinding. Dat betekent zowel de capaciteit (inclusief eventuele maandlimieten) als beschikbaarheid. Geen internet = geen spellen spelen.

Ook het feit dat elk artikel het alleen maar heeft over "standard def" en "high def", terwijl ze 720x480 en 1280x720 bedoelen zegt al heel wat. Die resolutie's zijn voor de gemiddelde PC gamer nu al niet eens meer de moeite waard. En daar komen ook nog 'ns compressie artifacten en een "graceful degredation" (beeldkwaliteit inleveren om lag te voorkomen) overheen.

Kortom: de gamers zullen echt niet massaal hun console of high-end PC inleveren voor deze dienst. En dat gevoel krijg ik helemaal als ik de zoveelste "X360 vs PS3 graphics" discussie voorbij zie komen.
Als het mogelijk is, en ls het goed draait, en ls het goedkoop genoeg aangeboden kan worden, zou dit best wel eens een grote klap voor de computer hardware industrie betekenen. De echte diehards kopen natuurlijk gewoon een PC met high-end hardware, maar een groot deel van de 'casual' gamers zullen eerder naar een goedkoop alternatief, zoals de Eee PC of Eee Box grijpen als hieruit blijkt dat ze niet meer een videokaart van 100+ nodig hebben om een beetje normaal spellen te spelen.
Ik denk dat het een mooi plan is, maar wat het in de praktijk doet, is onzeker.
Ik zie veel risico's, en met name de prijs en lag.
Theoretisch zou er een lag zijn van 1 ms, wat betekent in het beste geval dat de server 150km van je af mag staan (1ms = 0,001 sec x c (lichtsnelheid) = 300km), deel dat door 2, aangezien signaal 2 richtingen in moet, en je hebt 150km. Nou is dat niet zo'n probleem, alleen de ketting is zo lang, en bekend is dat de zwakste link de sterkte van de ketting bepaald. Nou zal OnLive waarschijnlijk vrijuit gaan, omdat de zwakste schakel niet van hun is. En dan stuit je dus op het probleem dat hun dienst traag is, buiten hun schuld om. Dan zal er de discussie komen welke internetprovider wel snel genoeg is, wat de prijs nog meer zal opdrijven.
Vermoedelijk.
Ik denk dat er weinig animo zal zijn in het begin, de early-adaptors zullen meer moeten betalen (doen ze ook). Het is de ervaring van de early adopters die denk ik het succes bepalen:
Early adopters blij --> mond op mond reclame --> meer vraag --> dalende prijzen --> meer vraag. Prijs zal dan in het begin geen probleem zijn, maar de ervaring van de early adopters wel.
Ik ben ook van mening dat een ontwikkeling als dit absoluut de toekomst gaat zijn. De kosten van een up-to-date gamemonster zijn hoog. de moeite die je in een dergelijk systeem moet stoppen om het GOED werkend te krijgen zijn veel (drivers, overklokken, zelfs het samenstellen is nogal een stap voor een niet ervaren "nerd") en de veranderingen gaan dusdanig snel dat je tegenwoordig elk jaar een nieuwe (dure) videokaart kunt kopen om goed "bij"te blijven.

Wel denk ik dat er veel moet veranderen aan de manier waarop games geprogrammeerd worden. Als dit niet gebeurd zullen de kosten voor de systemen zo hoog zijn dat de service die aangeboden wordt natuurlijk ook te prijzig moet worden. Wellicht dat er meer aan een mmo idee gedacht moet worden. Bouw een wereld, draai die op een dikke server en laat gebruikers daar op rondhuppelen. Zo hoeven de systemen die erop inloggen minder te rekenen.
Een up-to-date gamesysteem dat ieder spel kan spelen wat uitkomt, waarop alle spellen altijd werken, en dat zichzelf volautomatisch update kost je 300 euro.

en dan heb ik het over een Xbox 360 (elite versie).

Als de toekomst van het gamen ERGENS ligt, dan is het bij de consoles, niet bij dit systeem.
Ik voorzie een aantal voordelen, maar daarbij ook juist weer problemen...

In totaal is minder hardware nodig omdat de resources beter verdeeld kunnen worden over alle gebruikers. Je zult echter pieken en dalen hebben in het gebruik, doordat mensen voornamelijk 's avonds games zullen spelen zijn de verschillen tussen pieken en dalen enorm groot. Ideaal gezien zeg je dan: zet die servers dan in voor een ander werelddeel, maar het probleem van latencies is hier al aangehaald, dus dit zal waarschijnlijk geen optie zijn.

Verder denk ik dat het ontwikkelen van games op een heel andere manier zal moeten gebeuren. Ik denk niet dat ze hiervoor een miljoen gaming pc's zullen opzetten. Nee, er zal een flink serverpark komen met krachtige processors en meerdere gpu's per node. De load van het draaien van duizenden games tegelijk zal over het serverpark verdeeld moeten worden (op deze manier maak je veel efficienter gebruik van je rekenkracht dan als je per losse pc een game draait). Kortom: games zullen geschreven moeten worden als soort daemon, die eenvoudig verdeeld kan worden over meerdere processing nodes. Misschien is dit wel eenvoudiger dan ik denk, als games op virtuele machines draaien, maar dan zal grafische hardware ook goed gevirtualiseerd moeten worden, ik weet niet hoever men daarmee is?

Verder denk ik dat de ontwikkeling van games veel meer tests nodig zal hebben als je games als serverapplicaties gaat draaien... een crash van de game is dan toch wat kritieker dan als dit gewoon op je eigen computertje gebeurt ;).

[Reactie gewijzigd door The Flying Dutchman op 28 maart 2009 17:39]

Je zal op zijn minst in elk land een serverpark moeten aanleggen.
Anders krijgen we straks latencies van over de 100 ms (en 200 zal vast niet bijzonder zijn, ik heb gehoord dat zulke latencies vrij normaal zijn als je vanuit Nederland met een Amerikaanse game server verbind).
Als je niet weet wat daar erg aan is, ga Counter-Strike, Half-Life 2 Deathmatch of whatever spelen, en neem een 200 ms server.
Zal soms best wel schokken door een te slechte internetverbinding.
Stel je eens voor dat je op deze manier het beeld doorgestreamed zou krijgen...
Framedrops niet normaal meer.
Voor een beetje degelijk spelen wil je 40 frames per second, dus 0,025 s per frame.
Dan houd je nog ruimte over voor schommelingen. Sommige delen van een spel kunnen veel zwaarder zijn dan andere delen, waardoor je van nature al een aardige framedrop krijgt.
0,025 s is 25 ms, dus je wil graag een verbinding waarin je binnen 25ms een compleet beeld doorgestuurd krijgt. Dus geen kleine datapakketjes binnen 25ms (meestal gaat het bij latencies om kleine datapakketjes), maar complete beelden van minstens 1280*720 (ze hebben het over high definition, en deze resolutie geldt tegenwoordig als hd) en als het ff kan ook 1680*1050. Dan kunnen we 50ms (20 fps) nog accepteren misschien, maar dat is toch wel de max.
Dan heb ik het niet eens gehad over de extra belasting van online multiplayer gaming.
Daar wil je ook nog een lekkere snelheid bij.

Het gaat dus om flinke snelheden, wil je deze manier van gaming volhouden.
Dat betekent kleinere pc's kopen en grotere internetabonnementen.
En dan liever niet te veel tegelijk, want doe je 25 ms over n beeldje, dan doe je met 3 gamers er 75 ms over. Terwijl je niet boven de 50 uit wil komen.

Je hebt dus geen game pc meer nodig (mijnes is echt niet gigantisch duur, maar ik speel Crysis wel op zijn hoogste tandwieltje), maar er ligt wel een gigantische strain op je internet.

Als het lukt is het mooi, maar ik zie mezelf voorlopig alles op mijn eigen pc draaien.
Aan dit soort technologien kleven wat mij betreft toch wel grote nadelen. De manier van distrubueren zorgt ervoor dat je afhankelijk bent van twee dingen: internet en elektriciteit, waar je nu meestal enkel dat laatste nodig hebt. Het is natuurlijk wel zo dat internet een steeds stabielere factor is geworden de laatste jaren.

Ik denk tevens dat het een volgende druppel is in de emmer die "privacy" heet. Je geeft eigenlijk alles wat je doet uit handen. Ik denk dat er eerst maar eens gezocht moet worden naar een failure safe iets. Een toekomst beeld zou nu dus zijn dat je als bedrijf of persoon "buitenspel" gezet kunt worden als jij dingen doet die hun niet aanstaan...

Maargoed, voordat zoiets helemaal geintegreerd is in de samenleving zijn we wel weer een aantal jaartjes verder :)
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True