Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 42, views: 15.289 •

AMD heeft nieuwe grafische kaarten uitgebracht die specifiek gericht zijn op gebruik voor cloudgaming. De kaarten worden passief gekoeld, zijn gebaseerd op de Graphic Core Next-architectuur en kunnen zes 720p-streams per gpu leveren.

Bij cloudgaming, dat wordt gezien als een groeimarkt, kunnen minder krachtige systemen, zoals all-in-ones, laptops en tablets, high-end games draaien, omdat ze de beelden streaming aangeleverd krijgen. Vorig jaar introduceerde Nvidia het VGX-platform en nu is het AMD dat zijn Radeon Sky Series van videokaarten voor cloudgaming introduceert.

De kaarten zijn gebaseerd op de Radeon HD 7000-serie en per gpu kunnen ze zes 720p-gamingstreams op 30 fps leveren, zonder dat er, volgens AMD, 'concessies worden gedaan aan de kwaliteit'. AMD komt met drie verschillende modellen: de Radeon Sky 900, 700 en 500. De 900 is een dualslot-model met twee Tahiti-gpu's, die elk over 3GB kunnen beschikken. De Radeon Sky 700 is ook een dualslot-kaart, maar met een enkele Tahiti-gpu op 900MHz en 6GB gddr5. De 500 heeft een Pitcairn-gpu die het met 4GB gddr5 moet doen, een enkele slot bezet en een tdp van 150W heeft. Alle kaarten worden passief gekoeld.

AMD Radeon Sky

  AMD Radeon Sky 900 AMD Radeon Sky 700 AMD Radeon Sky 500
Formfactor

Full Height/Full Length

Dual-slot

Full Height/Full Length

Dual-slot

Full Height/Full Length

Single-slot

Kloksnelheid 825MHz 900MHz 950MHz
Geheugen 6GB gddr5

(3GB/gpu)

6GB gddr5 4GB gddr5
Geheugeninterface 384bit 384bit 256bit
Bandbreedte 480 GB/s 264 GB/s 154 GB/s
Tdp 300W 225W 150W
Interface Pcie  3.0 x16 Pcie  3.0 x16 Pcie  3.0 x16
DirectX 11.1 11.1 11.1
AMD RapidFire Technology Ja Ja Ja
AMD PowerTune Technology Ja Ja Ja
AMD ZeroCore Power Technology Nee Ja Ja

Reacties (42)

Vraag me af wat voor impact dit heeft op de latency tussen client - server - andere clients alsmede hoe de 30fps zonder al te veel vertraging netjes gaan aankomen op de client (die veelal een beperkende factor op lijnsnelheid) hebben.

Dat je minder goede clients in een mooi Gbit-netwerk laat gamen middels een centrale server, dat levert wel een redelijk stabiel beeld op maar "over het internet" lijkt me wat lastiger qua performance.
Is denk ik ook redelijk afhankelijk van het genre. Een first person shooter zal meer problemen opleveren dan een game a la Heroes of Might and Magic.

Destijds heb ik GaiKay wel eens geprobeerd en het werkte destijds al boven m'n verwachtingen. Voor de mainstream gamer gaat dit in de toekomst best een interessant alternatief worden verwacht ik. Ook verwacht ik dat publishers cloud-gaming enorm gaan pushen. Is immers een stuk makkelijker qua DRM.
Cloud gaming is een faal idee.

Lees dit eens:
http://en.wikipedia.org/w..._of_Distributed_Computing
The fallacies of Networking (= Distributed Computing).
....
2. Latency is zero.
3. Bandwidth is infinite.
Altijd dezelfde fouten die die onnozelaars maken.
De lichtsnelheid is beperkt. 300k km/sec is veel te traag.
Je zult dus altijd je renderfarms dicht bij je klanten moeten hebben. Misschien dat dat in Nederland kan. Maar in een land als de USA kun je dat vergeten.

Een groter probleem is de bandbreedte. Brandbreedte zal blijven groeien. Maar de benodigde bandbreedte zal veel meer groeien. En nooit genoeg zijn.
Voorbeeldje:
1920x1080p @60fps = 373 Megabytes/sec. Oftewel 3 Gbps.
Tegen de tijd dat je 3 Gbps thuis hebt, zijn de scherm resoluties 4k @120 fps geworden, en heb je 24 Gbps nodig.

Dus zul je moeten compressen.
Resultaat: extra latency. Omdat het compressen/decompressen van een 3Gbps stream aardig wat computepower vereist. En duurdere aparatuur nodig. En je beeldkwaliteit gaat flink achteruit.

Mijn mening: als je mooie beeldkwaliteit wilt, of snelle reactietijden, of hoge fps, dan is cloudgaming niet in staat een acceptabel product te leveren.

Welke markt blijft er dan over voor cloudgaming ?
Games met lage graphische eisen.
Games die geen hoge framerates vereisen.
Games die geen snelle reactietijden vereisen.

Oftewel, games van niks. Games die je in je webbrowser kunt draaien. Games die je op je telefoon of tablet kunt draaien. Niemand gaat daar extra dure online abononnementen voor afsluiten.

Onlive is het bewijs.
Helemaal, maar dan ook helemaal niks geworden.
Ik snap dan ook niet wat AMD hier precies probeert te verkopen ?

[Reactie gewijzigd door gryz op 27 maart 2013 13:25]

Ik heb Onlive geteste en het werkt imho prima, ik gebruik het niet omdat het een beetje zonde is om op 720p (met de graphics settings ook vrij laag) te gamen op een 2560x1440 27" monitor maar voor mensen die af en toe een gamepje willen spelen en er niet te veel geld aan uit willen geven (en dat zijn er veel) is het prima.

Toegegeven het is (nog) geen groot succes maar met het principe is niets mis. Er zijn veel meer bedrijven die in de cloud graphics willen renderen en AMD wil daar graag een graantje van mee pikken. Niets vreemds imho.
Overdrijven is ook een vak, het zal best dat 1080p zonder compressie zoveel bandbreedte nodig heeft maar zonder compressie is sowieso niets echt bruikbaar over langere afstanden. Men (zowel nVidia als AMD volgens mij) is juist hard bezig de compressie latency sterk te verminderen en uiteraard zal het dan nog steeds niet kunnen tippen aan een local systeem, dan nog is het erg kortzichtig om te denken dat het daarom niets wordt...

Persoonlijk ben ik ook sceptisch sinds ik jaren geleden de aankondiging hoorde van OnLive, ik heb er ook niets mee maar ik heb het geprobeerd en voor eerste generatie technologie zonder servers in Nederland viel het me 100% mee. En in een tijd waarin smartphones en tablets de PC en console verkopen overstijgen zouden ontwikkelaars wel dom zijn als ze blijven wedden op de PC markt die al jaren verpest is door piracy...

Kijk eens naar Sony, die hebben Gaikai niet voor niets overgenomen, nu eerst nog voor backwards-compatability en demo's maar op termijn is natuurlijk niet uitgesloten dat we games als Uncharted en Killzone kunnen streamen. Stel je voor dat men haar muziek, film en game dienst combineert in ťťn unlimited access pass waarmee je alle content op al je devices kunt afspelen, waarom zou je dat niet willen? (buiten de huidige technologische tekortkomingen)

Of je het nou wilt of niet, de "cloud" (wat een rot woord trouwens, echt iets voor die marketingmensen) is de toekomst. Of dat nu is of over 10 jaar is dan weer een hele andere vraag...

[Reactie gewijzigd door Rctworld op 27 maart 2013 17:26]

Slim gedacht inderdaad. Het zijn de consolefabrikanten/ontwikkelaars die dit natuurlijk hebben aangemoedigd en vanuit hun positie logisch ook:)
@gryz:
1920x1080p @60fps = 373 Megabytes/sec. Oftewel 3 Gbps.

Lijkt me dat dit niet helemaal klopt, het gaat alleen om het Full-HD beeld. Met compressie doet dat bij mij thuis 4MB/s. Dat is een factor 100 lager dan jij claimt.....
Die 373 MB/s is inderdaad de bovenlimiet zonder enige vorm van compressie (in mijn berekening kom ik trouwens uit op 356MB/s voor 3 byte per pixel per frame), dus elke pixel wordt dan elke frame los verzonden. Zo verstuur je video natuurlijk niet, dit kan sterk verminderd worden zonder dat je daar iets van terug ziet. 4MB/s is inderdaad al bijna genoeg om een blu-ray te streamen.

Overigens denk ik alsnog dat het geen toekomst heeft. Wat betreft latency zie ik veel games wel falen, en mainstream-personen vinden het niet erg om op lagere settings te gamen.

[Reactie gewijzigd door bwerg op 27 maart 2013 19:43]

Natuurlijk verstuur je beeld data niet ongecomprimeerd.
Dat was het hele punt.
Je moet het comprimeren.

En dat kost rekenkracht/geld/tijd.
En dus wordt het latency probleem groter.
Als je denkt dat comprimeren weinig kost, dan is er vast wel iemand hier die een link heeft met praktische cijfers.
Je hoeft niet het hele beeld te versturen. Alleen de veranderingen in het beeld. Zo werkt digitale tv ook voor een groot gedeelte (en bluray volgens mij ook).
Alleen de veranderingen in het beeld worden doorgegeven. Vandaar dat bij een slechte digitale tv verbinding vaak een gedeelte van het scherm blijft staan en de veranderingen in blokvorm worden weergegeven.

Door die toepassing kan de data toevoer omlaag.

Leg je daar het PCoIP techniek van bv. VMWare overheen of Citrix HDX 3D Pro, dan zie je dat het data volume nog verder omlaag gaat terwijl het beeld er goed uit blijft zien.

Maar, daar staan wel redelijk sterke servers tegenover en het werkt alleen bij lage latency (<10ms)
Hoezo is lichtsnelheide te laag? 1500km in 5ms is toch een prima latency? Daar kan je nog best een fps mee spelen.

Verder is het een kwestie van technologie en dat lost zich wel op. Denk bijv. aan de mogelijkheden van quantum entanglement. Zal wellicht nog wel even duren :)
Uit het artikel:
De kaarten zijn gebaseerd op de Radeon HD 7000-serie en per gpu kunnen ze zes 720p-gamingstreams op 30 fps leveren
Dus ik stel voor om met 720p @ 30fps te rekenen, in plaats van jouw 1080p @ 60fps. Dan kom je (zelfs zonder compressie) al veel lager uit. Met simpele compressie (bijvoorbeeld alleen deltas, veranderde delen van het scherm, doorsturen (wat eigenlijk niet eens compressie is)) kan de bandbreedte nog verder omlaag, zonder noemenswaardige latency toe te voegen. (Al te zware compressie is sowieso een slecht plan; je stuurt dit immers in de eerste plaats naar apparaten die relatief weinig processing power hebben!)
De lichtsnelheid is beperkt. 300k km/sec is veel te traag.
Strikt genomen klopt het, maar "300000" noteren als "300k" is nogal verwarrend als het over "km" gaat. Als je dat al traag vindt, denk er dan aan dat dit de snelheid van licht in vacuŁm is; de snelheid van licht in glasvezel (of de voortplantingssnelheid van een electrische golf in koper) is, heel ruwweg, de helft daarvan.
Overigens, een aanzienlijk deel van je ping komt van processing en queueing delay; tegen de tijd dat de propagation delay zelf het probleem wordt moet je je toch eens gaan afvragen of je niet een data center dichter bij je klanten nodig hebt.
niet noodzakelijk. Sowieso is er maar een beperkt aantal genres bruikbaar voor dit soort oplossingen. De input wordt altijd naar de server gestuurd en die is marginaal klein tov de stream. Als iedereen op dezelfde omgeving gamed zou het zelfs sneller kunnen zijn tov een decentrale game.
Maar dan nog: 720p30 zonder schokken versturen over wifi naar je tablet? Ik zie het nog niet zonder haperen gebeuren hoor. Het gaat vast meestal goed, maar met zo'n stream (en dan nog de mogelijkheid tot 6 streams tegelijk) kun je rekenen op flinke lag.

Daarom hoop ik dat T.net dit binnenkort 's gaat onderzoeken. Het klinkt namelijk op papier wel als een briljante zet: laat het zware rekenwerk maar op een server plaatsvinden die op 220V draait, scheelt weer accutijd op de tablet :)
Je kan het gewoon syncen en netjes blijven bufferen en dat ligt min of meer niet bij de AMD hardware maar bij de software :).
de hardware binnenshuis is hier al snelzat voor
zodra men naar een andere locatie via je trage upload snelheid gaat gebruiken zal het een probleem zijn


op zich is dit wel leuk als je bijvoorbeeld een internet cafee hebt dan hoef je niet per pc zware hardware aan te schaffen en kun je gewoon 1 server hebben die al het reken en grafische werk voor je doet

zo ben je ook minder diefstal gevoelig
scheelt weer accutijd op de tablet
Ik vraag me af of je accutijd wint, als je 720p over wifi aan het streamen bent. Dat kost ook accutijd.
Dit soort dingen zijn altijd een beetje overdreven maar ja, een scherm of die full-HD moet dan ook wel lukken en dat is het echte werk.
rukt ouwe Pentium3 pc uit de kast om crysis 3 te spelen :D
xD!!! hoogste resolutie! zeker haalbaar
Oude P3? Haalt telefoon uit zak om Crysis 3 te spelen! ;)

Anyway, leuke ontwikkelingen allemaal, maar je gaat mij niet vertellen dat deze kaarten passief gekoeld kunnen worden in een reguliere kast. Dit soort kaarten komen in een rack waar behoorlijk wat airflow is om deze kaarten koel te houden. (eigenlijk hetzelfde verhaal als bij nVidia toendertijd).
In mijn optiek is het dan ook niet echt passief meer, maar dat is meer een verschil in opvatting...
kaarten zijn passief gekoeld als in, hebben geen actieve ventilator gemonteerd. Processoren in een rack zjin ook niet actief gekoeld, maar maken gebruik van de beschikbare airflow.

zie zelf namelijk ook niet een cloud op een normale desktop draaien, maar in meerdere U-servers.
Ik weet niet. Ik zie cloudgaming zeker wel mgebeuren in de toekomst. Maar op het moment van schrijven is het zo dat er toch nog veel problemen zijn. Servercapaciteit, internet verbindingen die slecht zijn, lagspikes e.d.

Anderzijds heeft always online DRM ook wel veel voordelen van lokaal gamen weg genomen (want het is niet echt lokaal meer, Simcity e.d.)

Ik snap wel dat dergelijke kaarten misschien meer willen cachen van beeld data en minder rendering op zich nemen.

[Reactie gewijzigd door Auredium op 27 maart 2013 11:00]

Wellicht is zoiets wel leuk voor het organiseren van lan party's.
Ik zie het nog wel gebeuren dat je dan een serverkast kan huren met een zooi van die racks erin zodat iedereen met welke hardware dan ook fatsoenlijk kan gamen.
Probleem van lag is dan ook minder aangezien je toch 'lokaal' bezig bent.
En wellicht een leuk iets voor later in huis, zodat je ergens in de meterkast een iets grotere kast hebt staan met zo'n systeem er in en je kan overal in huis gamen (denk aan tablet, telefoon, TV, thin client met groot scherm.) Scheeld een zooi in de woonkamer en je kan toch leuk gamen :)

Echte streaming diensten als Onlive zie ik voorlopig nog niet gelijk van de grond komen totdat glasvezel gemeen goed is, maar zeker meer lokale oplossingen lijken mij erg interessant.
Maar juist omdat het nog niet zo breed wordt gebruikt de ik dat server capaciteit nu juist mooi op orde kan worden gebracht.
Opzich is dit wel interessant voor online shooters, met het oog op latency.

Aan de ene kant zal je input lag flink hoog zijn lijkt me?
Aan de andere kant; zouden alle spelers in een match via dezelfde cloud streamen, dan kun je lag compensation weglaten. De games zouden namelijk allemaal binnen hetzelfde netwerk kunnen draaien, waarna ze gestreamed worden naar de clients.

Of zit ik nu uit mn nek te zwetsen? :P
Je hebt met streaming nog steeds het probleem dat input lag van alle spelers ervoor zorgt dat de latency naar de server toe niet gelijk verdeeld is. Daarnaast zit je naar een stream te kijken waardoor de latency nog veel hoger wordt.

Heb je wel eens Onlive geprobeerd? Je weet wel, die online stream dienst die het helemaal zou moeten gaan worden, maar die toch over de kop ging omdat het gewoon niet lekker werkt?
nieuws: OnLive had tientallen miljoenen dollars schuld

Je wilt echt geen online games spelen via een streaming dienst. Single player gaat nog wel, maar je zit gewoon naar Youtube kwaliteit te kijken, echt zonde van de tijd als je het mij vraagt. Telefoons, tablets, PCs, en zelfs consoles worden als maar sneller. Waarom zou je een abonnement afsluiten als je voor hetzelfde geld op termijn ontzettend veel games kunt kopen die je dan zo lang kunt spelen als je maar wilt en die er dan bovendien veel beter uit zien en lekkerder spelen? Inmiddels heb ik meer dan 700 games in mijn Steam acount zitten. Een abonnement afsluiten om toegang tot een bibliotheek aan games te krijgen waarvan ik het gros al heb of niet wil spelen is totaal niet aantrekkelijk.

Ik denk dat dit soort diensten vooral door uitgevers gezien worden als een manier om DRM af te dwingen. Een manier om zoveel mogelijk controle over de games en haar spelers uit te oefenen. Als je het mij vraagt is dit een slechte ontwikkeling voor ons als consument.

Kijk naar PC games en alle mods en gratis extra content die communities maken. Dat heb je op consoles bijna niet, en op dit soort streaming diensten zeker weten niet. Je kunt immers niet zelf je eigen server opzetten met je favoriete mods/plugins/maps/skins/total conversions en noem maar op.

Voor veel mensen maakt dat natuurlijk niets uit. Die kunnen gewoon lekker casual gamen en klaar. Maar ik vindt het juist prachtig dat communities games omarmen en er op verder bouwen. Dat je de vrijheid hebt om het spel te spelen zoals jij dat wilt, niet zoals een uitgever vindt dat het moet.
je hebt ergends wel gelijk,
er is iets meer input lag dan normaal, (de normale rendertijd, + je ping in essentie)

stel met 30 fps welke daar steady op steken (laten we even niet in de echte frametimes duiken)dan heb je een render lag van 33 ms, maar je beweegt al tijdens het voorgaande beeld.
als we die tijd meetellen dan komen we dus op 66 m/s daarbovenop komt de lag van je input, en van de monitor etc etc. als we deze op 14 ms zetten (wat vrij laag is, de 2ms is onzin namelijk er gaat nog vanalles aan vooraf)

dan zie je dat een lag van 70-80ms heel normaal is. en met lagere framerates schiet deze enorm snel omhoog. bij een inzakker naar 20 fps hebben we meteen 50 ms tijd nodig voor het berekenen per frame. dus 90 ms + de lag zitten we zo over de 110 ms.

met cloud rendering heb je over het algemeen een snellere GPU op de server dan thuis,
dus we mogen rekenen dat je dit vooral gebruikt als je pc/consol/e telefoon/tablet het zelf niet aan zou kunnen. dus dat moet je zowieso meerekenen...

Als deze server rendert op 30 fps. en de encoding meteen afhandeld
dan hebben we dezelfde 33ms + ping heen en terug, en de standaard lag van je monitor etc.
kortom met een ping van 20 kom je op 20+33 (input versturen en afhandelen)
en dan 20+15 betekent een totale lag van 53+ 35 = 88ms.
als we meerekeken dat we input leveren in het vorige frame is dat 121ms

Kortom we hebben 30? extra lag tenopzichte van thuis ongeveer, echter dat an sich hoeft geen probleem te zijn, ook kan de server bijv op 60 fps renderen, en dus 16 ms over een frame doen, dan gaat de tijd terug richting de 80 ms wat op zich redelijk te doen is.

je kan het ook gewoon proberen op de sites van onlive/gaikai, en het werkt best redelijk.
Kortom we hebben 30? extra lag tenopzichte van thuis ongeveer, echter dat an sich hoeft geen probleem te zijn, ook kan de server bijv op 60 fps renderen, en dus 16 ms over een frame doen, dan gaat de tijd terug richting de 80 ms wat op zich redelijk te doen is.
Vergeet vooral niet dat je naar een stream kijkt. Er wordt dus altijd video gebufferd.

Daarnaast gaat de stream vervolgens in je PC/tablet/telefoon hetzelfde traject in als een game die lokaal gerendert wordt. Immers moet de stream gedecodeerd worden en op je scherm worden weergegeven. Je moet dus je lokale render/weergave tijd + input lag / render tijd / transmissie tijd van de streaming dienst bij elkaar optellen. Het verschil is veel meer dan 30ms.

Stel je hebt een ping van 50ms naar de dienst. Dan zit je dus zowieso al op 100ms extra lag. Daar komt de render tijd bij @30FPS is dat 33ms. Met een goed scenario als dit krijg je dus minimaal 133ms latency er bij. Maar in de praktijk zal het meer zijn en mag je in je handen knijpen als je op 200ms extra uit komt.

Voor online shooters is dat gewoon onacceptabel. Stel dat je met je streaming client op een server aan het spelen bent. En de streaming dienst heeft nog een keer een latency van 30ms naar de server, dan mag je er nog eens 60ms bij optellen. Meer dan 250ms latency extra bovenop de latency die je eigen PC/monitor geeft is gewoon onspeelbaar als je leuk mee wilt doen in multiplayer shooters.
Denk eerder voor verschillende MMORPG games. Voor deze partijen, waar je meestal al op een centrale server speelt, zou het een extra propositie kunnen worden om abbonementen hiervoor te vragen.

De game hoeft alleen maar serverside ontwikkeld te worden (zou de idTech5 ook weer eens stukje relevanter gaan worden). De graphics, de hardware worden uniform, wat dus development tijd scheelt. Alleen een client moet ontwikkeld worden.
Ik ben zeer benieuwd naar de systemen: rack servers, balde servers, tower servers; die deze video kaarten gaan ondersteunen. Afgaand op de formfactor, zoals deze in het artikel en op de site van AMD zelf staat, kan ik begrijpen dat niet alle huidige systemen deze video kaarten momenteel ondersteunen. Al lijken deze formfactor specificaties overeen te komen met de NVIDIA Gris GPUs: http://www.nvidia.com/object/grid-boards.html .
Ik zie in ieder geval wel het voordeel om zo een kaart in mijn game server te hebben en voor de rest gewoon lekker laptopje en mediacenter in huis hebben en zodoende zelf te kiezen waar ik op wil gamen zonder dat ik dikke hardware in al die machines moet hebben.

Interessant.
Het is zeker interessant maar zeker nog niet gebruiksklaar en gebruiksvriendelijk genoeg, iets als BFH kan nog wel maar dat is zooooo simpel.
Cloud gaming lijkt me leuk voor een potje schaken ... maar anders lijkt me de latency toch wel een probleem gaan worden. Hoewel er natuurlijk een verschil zit tussen een multiplayer of een singleplayer game. De multiplayer game had immers al latency. Dan moeten alleen wel alle spelers via de cloud spelen.
Ik vraag me af of (en als: wanneer) wolk spelen daadwerkelijk van de grond komt. Ik ken zo geen toepassingen voor dit principe. Het lijkt mij dat het fijner is om gewoon zelf de hardware ter plekke te hebben.
Toegegeven dat je niet overal je grote PC kast mee kunt nemen dus het zal op zich wel nuttig kunnen zijn. Ook scheelt het bijvoorbeeld in het aanschaffen van het aantal computers. Maar dan nog: het lijkt me fijner om je eigen systeem te hebben staan?
Sowieso is de wereld van de MMORPGS(en dat soort games) immens, en juist die zijn extreem geschikt hiervoor.
Een tdp van 300W en dat passief koelen. Ik vraag me af in hoeverre je nog van passief koelen mag praten als je er zonder goed geplaatste casefans (en die moeten er behoorlijk direct op gericht zijn!) in de problemen komt. Dat heeft toch weinig meer met passief koelen te maken?

En wat is het idee nu dan? Dat je dit zelf thuis neerzet? Of worden er bedrijfjes opgezet waar je tegen betaling (paar cent per uur ofzo?) kunt "Cloud gamen"?
Ik zie het nu nog niet echt gebeuren. Maar de toekomst staat aan de deur en naarmate de verbindingen nog sneller worden, zullen de verschillende latencies ook verkorten. Dus misschien breekt het in de toekomst wel door.

Neemt niet weg dat ik het principe van kunnen streamen naar een tablet of iets dergelijks wel super vind.

Ik hoop dat op den duur deze mogelijkheden ook naar (highend)consumentengpu's komen. Ik weet dat nvidia dit al gaat doen met project shield. Nu hoop ik dat AMD ook met een dergelijke oplossing kan komen. Voor lokaal gebruik zijn deze latencies namelijk minimaal, waardoor het wel interessant is.

[Reactie gewijzigd door Moonsurfer_1 op 27 maart 2013 12:02]

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Nokia Smartphones Beheer en beveiliging Google Laptops Apple Sony Games Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013