Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties

AMD heeft aangekondigd aan een supercomputer te werken die als cloud computer ingezet zou moeten worden. De benodigde rekenkracht voor toepassingen als gaming zouden door de gecentraliseerde rekencluster moeten worden geleverd.

AMD heeft zijn voornemen een supercomputer te bouwen tijdens de Consumer Electronics Show kenbaar gemaakt. De chipontwerper wil met zijn eigen processors een hpc bouwen die de petaflops-grens overschrijdt en een plaats in de top-tien van supercomputers verovert. AMD noemt het project Fusion Render Cloud en wil zijn supercomputer inzetten om rekenwerk voor eindgebruikers te verrichten. Daarbij zou van het cloud computing-principe gebruikgemaakt moeten worden.

De hardware bestaat uit Phenom II-processors die worden bijgestaan door Radeon HD-videokaarten. De software, afkomstig van het bedrijf Otoy, is in staat de gerenderde beelden voldoende te comprimeren om deze snel genoeg via een internetverbinding te kunnen versturen. AMD demonstreerde dit principe en toonde een spel dat in een browser gespeeld kon worden, zonder extra software te installeren. De servers die Otoy zal beheren zullen uit ten minste duizend gpu's bestaan en in de tweede helft van 2009 geactiveerd worden.

Om het project te doen slagen, zouden ontwikkelaars van pc- en telefoonspelletjes hun games van geïntegreerde cloud computing-mogelijkheden moeten voorzien. Ook de ontwikkelaars van animaties zouden met het 'server-side cloud rendering'-platform van AMD rekening moeten houden. Het enige probleem, zeker wanneer de techniek voor mobiel gebruik wordt ingezet, is de communicatie: het door AMD's supercomputer gerenderde materiaal zou draadloos naar een mobieltje gestreamed moeten worden. Ook zouden de gerenderde beelden gebruikt kunnen worden in virtuele werelden, zoals World of Warcraft.

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (62)

De rol van OTOY is niet zo duidelijk, maar wat ik begrijp uit het originele (Engelse) artikel is dat die voor het aan de server kant inpakken van de videodata zorgt. De OTOY website beweert dat ze een browserplugin maken.

Op zich best haalbare technologie. Ikzelf heb al ooit zitten denken aan een MPEG compressor in de PC en dan afspelen op de TV, om zo een soort high performance low latency remote desktop te maken. Tijdens het gamen staat vaak een de twee cores toch de halve tijd uit z'n neus te eten, dus die kan dat mooi voor zijn rekening nemen.

Over latency hoef je je niet al te druk te maken - naarmate je videokaart geavanceerder is, loopt hij toch al verder achter op de game's realiteit. Een gewone "single core" videokaart ligt meestal een of twee frames achter op de game, bij SLI opstellingen loopt dit nog verder op en kun je wel vier frames in de buffer verwachten. De render opdrachten worden in het algemeen in een queue opgeslagen tot alle data voor het volgende frame binnen is, en dan pas begint de kaart met renderen.
@cdwave

Ja tuurlijk, een buffer van ongeveer 2 frames zal men niet over klagen, dit is niet makkelijk met onze zintuigen merkbaar(aantal frames achterstand/frames per seconde) Echter een vertraging van 50+ms is dodelijk voor alle spellen waarbij getimede acties de basis vormen(competitieve spellen als counterstrike en warcraft 3). Je kunt je verder ook nog afvragen in hoeverre Verder ken ik nog geen een browser media plugin die niet af en toe nukken vertoont, of lagt af en toe, dat zal ook wel een probleem vormen.

Nog even over de fps, het lijkt mij duidelijk dat een grote stroom data als dit nog niet met een constante snelheid verwerkt kan worden, zonder mankementen. Dit is te danken aan onefficiente programmatuur aan consumenten kant. Dit zal dus zorgen voor fps drops(spike lags), waardoor spellen eigenlijk onspeelbaar en frustrerend worden. Nog maar niet te spreken over het feit dat door de manier waarop de hersens beelden alterneren(30 fps per oog), is het WELZEKER mogelijk om het verschil tussen 60/100 fps waar te nemen. Ik kan dit bevestigen uit eigen ervaring met gamen, waarbij het verschil toch echt merkbaar is tussen stabiel 60 fps en stabiel 100fps. (Een vergelijkbare mythe is dat men 60hz als vloeiend waarneemt, en dat hoger niet nodig is. Dit is ook klinklare onzin, te bewijzen door zelf maar eens een CRT monitor op 100hz laten draaien, er lang naar te kijken, en dan te veranderen naar 60hz. )

Apart van de vele manieren om het hoofd te stoten aan bekende problemen, is dit wel een geweldig idee. Stel je dit kleiner voor, een mobiele processor/video doos die men in huis aansluit op het netwerk, en vervolgens veel last van alle computers op het netwerk over kan nemen via speciale software. Hier heeft men niet te kampen met hoge latency, mits het netwerk fatsoenlijk gelegd is;)

[Reactie gewijzigd door grind op 9 januari 2009 17:05]

niet alleen shooters hoor
Als mijn RTT in een instance (WoW) groter dan 100 ms wordt gaan mijn teamgenoten eraan
Ik ben namelijk de healer en moet snel kunnen reageren
I denk ook dat dit wel een heel mooi platform can worden. Het FPS probleem zou omzeilt kunnen worden door een GPU in een ontvangend systeem een soort soepele transitie tussen de "echte" frames te laten berekenen. Dat zijn relatief lichte taken, die redelijk zouden moeten kunnen lopen.

De piracy en beveiligingsvoordelen voor ontwikkelaars zullen echt héél groot zijn. Ook kan het leiden tot een verbetering in spelkwaliteit: als een ontwikkelaar doekoe krijgt voor het aantal uren dat je daadwerkelijk hebt gespeeld, in plaats van alles in één keer bij aankoop, zijn ze gemotiveerd om spellen niet te over-hypen en de goede oude verslavende gameplay van vroegâh terug te brengen.

Multiplayer spellen die veel last hebben van lag? Afgelopen. Je poppetje loopt rond op de server, dus als je lagt, sta je stil, maar je gaat niet warpen.

Komt dit écht van de grond, dan is onze PC over tien jaar niet weel meer dan een dikke netwerkkaart :p

[/droom]
Tja, en toen weer terug naar de realiteit. Het is een leuk idee... ik ben benieuwd.
Het gaat hier denk ik meer om ontwikkelen van games en daar leent zo een supercomputer zich behoorlijk voor, 1000 GPU's kunnen meer dan 1000 Quad CPU's, afhankelijk van hoe goed de software is.

Het zou mooi zijn als deze computer word ingezet voor verhuur aan jonge ontwikkelaars voor games en animatie films alla Pixar films. Er is heel veel talent op de markt waarvoor het moeilijk is om uit de verf te komen, met name de next gen ontwikkelaars die nog niets bewezen hebben waardoor een baan moeilijk valt binnen te slepen of die daardoor door een eigen budget kunnen ontwikkelen aangezien men nooit in staat is om zelf een snelle hardware daarvoor aan te schaffen.

Veel kleine gamehuizen/filmontwikkelaars hebben het moeilijk door gebrek aan investeringen, zeker omdat de markt klein is en gedomineerd word door die paar grote bedrijven. De animatie film Big Buck Bunny is daar een mooi voorbeeld van.

Voorstaande zie ik meer zitten dan Cloud Computing, aangezien Cloud Computing nog maar in de kinderschoenen staat en mensen vaak niet op lange laadtijden zitten te wachten. In ieder geval is het mooi om te zien dat er steeds meer GPU's worden ingezet voor Supercomputers en AMD kan hiermee de concurrentie op een behoorlijke achterstand zetten. En qua investeringen zullen ze niet zo heel veel kwijt zijn, hardware tegen inkoopsprijs en een samenwerking voor de software met een ander bedrijf waar door de kosten laag blijven.
Dit zou wel heel mooi zijn als dit gaat werken. Weg met updaten van je hardware maar een abbo op een super-game systeem.

Weet je meteen wat de kosten zijn om bepaalde games te spelen. Bij PC zijn die nogal vaak 'verborgen'. Je realiseerd je nauwelijks wat je uurprijs is, wat natuurlijk erg variabel is per persoon. Maar toch best wel eens interessant om zoiets voorjezelf uit te rekenen. Voor mij was het heel ontnuchterend en meteen de rede om niet meer alle gehypte games te kopen om er vervolgens achter te komen dat mijn systeem weer ergens een upgrade nodig heeft.
(mijn systeem draait nu al sinds 2003 zonder noemenswaardige upgrades terwijl voorheen tig1000 euro/gulden per jaar over de pcdealer toonbank ging).

[Reactie gewijzigd door Floor op 9 januari 2009 16:07]

Het grote voordeel wat ik hier zie is het volgende:

Normaal gesproken moet je als PC game ontwikkelaar iets ontwikkelen wat door 1000e verschillende systemen gespeeld kan worden.

ALS dit aanslaat en je dmv een abbo het spel kan spelen zal dit de ontwikkelkosten aardig wat naar beneden trekken en hoef je er alleen voor te zorgen dat het systeem perfect werkt op de super computer van AMD dan hoef je daarnaast alleen nog ervoor te zorgen dat je de bandbreedte binnen de perken houd zodat je geen 20 Mbit lijntje nodig hebt... Gezien het principe hetzelfde is als van Citrix (versturen van jou input naar de server en de beelden weer terug naar je client) zal het niet super veel bandbreedte hoeven te kosten

Daarnaast moet je een abbo hebben om ermee te werken en is de "piraterij" ook wat minder haha

Dit allemaal zal het ontwikkelen van pc games wel wat interessanter maker en misschien zullen er dan weer wat meer pc only titels verschijnen ipv de beweging naar steeds meer cross platform en console only games

Het is een mogelijkheid...

[Reactie gewijzigd door Mellow Jack op 9 januari 2009 16:46]

Het is natuurlijk een ontwikkeling die voor de hand lag na het uitbrengen van online office applicaties, zoals die van Google Apps, die ook ergens op andermans server draaien, maar waar je zelf in werkt op je eigen pc of laptop. En dan maakt het ook niet uit waar je ergens ter wereld lekker aan je spreadsheetje gaat zitten werken of je documentje zit te maken.

Dat AMD van een 'mogelijke' ontwikkeling gelijk een enorme investering maakt is natuurlijk een zaak die twee kanten op kan gaan. Aan de ene kant is het een gedurfde zet, die enorm veel geld op kan leveren. Net wat Mellow Jack zegt, zou je er een abonnement voor kunnen hebben en de garantie dat je de tijd daarna alle spellen kan spelen, zonder het hoeven updaten van hardware of software. Als AMD zo'n supercomputer weet te koppelen aan een populaire downloaddienst, zoals bijvoorbeeld Steam, dan zouden ze in één klap een enorme markt te pakken kunnen krijgen. Het zou de systeemeisen van games ver omlaag kunnen brengen, waardoor een grotere groep mensen het spel zou kunnen aanschaffen. Als dat dan ook nog eens is gekoppeld aan een downloaddienst, dan zou ook de piraterij een zware klap toegebracht worden. Modhacks, firmwarehacks, serial keys en ook de daarbij horende spyware op pc's zouden dan ook meteen een flinke douw krijgen.

Aan de andere kant zou het ook fout kunnen gaan en slaat het idee misschien niet aan, maar dan kunnen ze die supercomputer altijd nog inzetten voor taken waarvoor altijd supercomputers worden ingezet. Toch een redelijke safe-bet dus.

Als hij bestaat uit 1000 HD4xxx-kaarten, dan zou hij in principe geschikt zijn om zo'n 1000 gamers bezig te houden op een hoge resolutie met een fatsoenlijke framerate. Ik vraag me dan wel af wat de prijs voor een abonnement gaat worden om dat rendabel te houden. Als je het puur gaat inzetten voor handheld consoles en mobiele telefoons, dan kan zo'n systeem een veelvoud aan gebruikers aan en wordt het misschien al een stuk rendabeler. Misschien krijg je wel bij een World Of Warcraft-abonnementje 3 maanden gratis AMD-supercomputer-gebruik?

Als ik na het lezen van dit stuk een blik in de toekomst moet werpen dan gok ik op het volgende. In 2020 zit ik niet meer te gamen met een eigen pc met dure hardware, maar dan zit er gewoon een "computer" met het formaat van een telefoon ingebouwd in mijn plasma-televisie. De televisie is daarmee rechtstreeks aangesloten op het netwerk en als ik een spel wil spelen, dan ga ik gewoon *insert downloaddienst* op, selecteer een spel wat ik heb gekocht/gehuurd en hij start meteen op. Alle inkomende en uitgaande data kan gewoon verwerkt worden door het netwerk en de televisie streamt live alles wat hij toegestuurd krijgt van de supercomputer. De zware berekeningen worden gedaan door de supercomputer en je eigen pc hoeft alleen maar af te spelen wat al pre-rendered is.

Vooral leuk bij games als realtime strategy natuurlijk :) Zo'n supercomputer kan een enorme map renderen, waarbij je gewoon met 100 man op een map zit, met duizenden units in een hoge resolutie. Hij hoeft dezelfde data voor die 100 man toch maar één keer te berekenen. Die 1000 HD-kaarten gebruik je om al die grafische pracht te renderen, terwijl alle cpu's bezig kunnen zijn om alle commando's die alle spelers geven te verwerken, tegelijkertijd.

Als je dan ook nog de ontwikkeling ziet dat heel Nederland in hoog tempo glasvezel krijgt, dan is dit niet eens zo'n gekke ontwikkeling en zeker eentje die ik in de gaten ga houden :)
Hierbij ga je er van uit dat je alleen maar zegge een abonnement zou hebben op dat 'systeem'. Ga er maar gerust van uit dat je per spel ook nog bij mag betalen, dat je ISP ook niet vrolijk wordt van het doorsturen van al dat beeldmateriaal in HD met 60fps (wat voor een hoop gamers op een of andere manier nog te laag is) en uiteindelijk moet je computer het ook nog steeds enigszins deftig kunnen decoderen.

Je haalt je upgradekosten dan wel weg, maar je verruilt ze voor allerlei lopende kosten en bent overgelaten aan wat het platform de bieden heeft. Zij geen zin meer in het ondersteunen van - zegge - Quake 5? Pech - je hebt geen CD/DVD meer die je ook over 5 jaar nog in je (oudere) computer kan mikken.

Wel zullen gameontwikkelaars zich in de handen wrijven, van subscription model tot anti-piracy (moeilijk een spel kopiëren als je nooit bij de software kan) tot anti-cheating (gaat ook al moeilijk als je client alleen maar commando's kan versturen en geen geheugen e.d. kan aanpassen), etc.

Ik zeg niet dat het een slechte ontwikkeling is - dat moet ieder voor zich uit maken - maar er kleven nogal wat haken en ogen aan.
Daar zeg je wat, op deze manier is piracy dan wel makkelijk tegen te gaan.
Ook al zou je altijd nog aan de data die binnestroomt kunnen rommelen.
Je krijgt waarschijnlijk alleen beeld binnen, dus je kan er aan sleutelen wat je wil, je krijgt de software zelf nooit in handen.
Ik vraag me af wat hun ideeën zijn om de response time-problemen op te lossen, want je kan er van op aan dat die er zijn als je wilt gamen op een remote systeem.
> 50 ms is dermate merkbaar dat het onnatuurlijk aanvoelt. Mocht dat ding in amerika staan is het al bijna fysiek onmogelijk om het te spelen, aangezien de min. tijd die een lichtbundel er over doet al 20 ms is (bij 6000 km afstand) en dan komt daar nog de tijd van routers, etc., bij. Vooral dat laatste is nogal veel. Ook moet het signaal heen en weer dus min 40 ms zit je al aan.

Leuk concept voor een direct gerenderde film oid, maar om er op te gamen lijkt me wat veel icm 1e/3e persoon spelen.

Turn based 3d gerenderde spellen en andere vormen van spelen die langzame responsie nodig hebben en er wel mooi uit kunnen zien zijn wel goed mogelijk

[Reactie gewijzigd door Sloerie op 9 januari 2009 16:16]

NY -> Amsterdam end to end kost je effectief 110ms met alle omzwervingen.
Verre van realistisch inderdaad. Hoewel je met oudere games als Unreal Tournament (99) rustig op Amerikaanse servers kan spelen met 120ms vertraging of meer.

UT is ontworpen om zo efficiënt mogelijk gebruik te maken van beperkte middelen. Iets wat ik regelmatig mis met hedendaagse grafische toepassingen.

Zelfs een FPS zou met 120ms nog kunnen, zeker op een klein scherm waarbij je de 'lag' niet echt ervaart, maar dan moeten de ontwikkelaars een degelijke applicatie neerzetten.
Het niet ervaren van de lag komt voornamelijk door interpretatie een de client kant van de 'waarschijnlijke' data die de server gaat sturen. Daarna wordt er een correctie met de werkelijke data overheen gedaan voor het geval van hits/positie. Het plaatje op het scherm is echter altijd een interpretatie van de werkelijkheid.

Ik weet niet hoe en of UT dat doet, maar ik ga er wel van uit.
Ik zou niet graag een shooter willen doen op deze manier.
Het verhaal komt bij mij over als dat het allemaal een beetje richting het game-gebeuren als doel voor de supercomputer gaat. Is daar wel echt een markt voor of wil AMD gewoon een marketingstunt uithalen en zich in de top 10 van computers vestigen? Daarnaast: het ging toch niet zo goed met AMD? Waar halen ze het geld vandaan om zo'n supercomputer te bouwen?

edit: Nederlands is soms moelijk...

[Reactie gewijzigd door almightyarjen op 9 januari 2009 16:03]

denk juist dat ze een nieuw marktsegment willen aanboren door het aanbieden van een stuk betere graphische beelden op bijv telefoons (die hebben niet zo'n "goede" graphische chip). De bewegingen die je dan maakt in het spel worden gestreamd naar je telefoon die dan alleen maar de HD chip hoeft te laten werken.
Ik vind dit wel een leuke vooruitgang zal wel weer een leuke uitdaging zijn voor een nieuw draadloos netwerk met nog hogere snelheden 8-)
OTOY heeft een veel indrukwekkendere demo online staan:
http://blip.tv/play/AcfBVou8cA
Dit gaat echt richting de Matrix. Ziet er echt goed uit.
ik betwijfel of dat echt zal aanslaan. Mobiele chips worden snel krachtiger, en de spellen daarmee zwaarder. Dat zal straks voor een enorme belasting op het netwerk zorgen.

Bovendien is een snelle respons heel lastig te bereiken. Iets wat noodzaak is bij een spel
De schermgrootte van de meeste mobieltjes zal niet rap toe nemen. (Immers, dan is het niet 'mobiel' meer). Daarmee ligt ook redelijk vast dat het een lage resolutie betreft. Als je dan bedenkt dat een HD4870 zelfs voor de meest lomp zware engine (bijvoorbeeld Crysis) op een dergelijk lage resolutie makkelijk tientallen mobieltjes kan bedienen....

En bij minder zware engines (denk eerste halflife engine) zou een dergelijke supercomputer gemakkelijk enkele miljoenen mobieltjes simultaan moeten kunnen voorzien.
de resolutie zal zeker nog wel vergroten. De meeste mensen hebben geen groot touchscreen toestel, dat zal wel flink toenemen in de toekomst. Ondertussen worden de games uit zichzelf steeds zwaarder en mooier.

De chips voor mobiele telefoons is 1 van de grootste groeimarkten voor 3d chip makers. De marges zijn weliswaar kleiner, maar de markt is een stuk groter in de toekomst
Kalizec had 't dan ook niet over de resolutie, maar gewoon over het formaat. Jij gaat niet met een mobieltje rondlopen die je in een aktetas mee moet nemen omdat het niet in je broek-/jaszak past.
Bij 3" diagonaal houdt het voor de meeste mensen al aardig op.

Dat de resolutie vervolgens best omhoog kan van, zegge, 800x450 beeldpunten naar 1600x900 beeldpunten.. tuurlijk. Zelfs 3200x1800 zou nog wel kunnen als de technologie doorzet. Vraag is alleen of er genoed meerwaarde in 3200x1800 beeldpunten zit; bij 1600x900 beeldpunten, op een 3" scherm, zijn de individuele pixels al dermate klein dat je in principe dingen als ClearType uit kan zetten, terwijl je ondertussen wel een veel duurder scherm hebt, een duurde grafische chip moet gebruiken, etc.

Wel is er inderdaad nog een ontzettende groei in de acceleratie markt voor mobieltjes.. gewoon zuinige 3D chips waardoor je ook nog een leuk 3D spel kan spelen en niet alleen maar de gebruikelijke 2D meuk.
Zo slecht zal het dan ook weer niet zijn gegaan.
AMD blijft een grote speler, niet zo groot als Intel, maar ze hebben zeker wel een deel van de markt in handen die je niet over het hoofd mag zien.
En ze zijn ook nog steeds aan het terugbijten.
Ze hebben net nieuwe processors gereleased.
En meestal zie je dit soort bedrijven in hun rapporteringen (of hoe je het ook noemt) iets meer nullen dan in de kassa van oma's bakkerijtje.
Zo duur is een supercomputer echt niet hoor, als je een groot bedrijf bent.

Ik heb eigenlijk zelf een beetje het vermoeden dat al dit geld gewoon in een gigantisch spaarvarken zat, zodat ze meteen wat van die Phenom 2's kunnen laten zien.
Dit artikel en dit artikel volgen elkaar wel erg kort.
En natuurlijk zitten er Radeons in, die worden ook gepromoot.
Ook wel slim om dan cloud-computing te laten zien, dan kan je meteen laten zien deze nieuwe techniek ook onder controle hebt.

[Reactie gewijzigd door Amanoo op 9 januari 2009 16:12]

ik denk dat indien ze een promostunt willen doen, ze die miljoenen wel op een betere manier kunnen besteden dan een vermelding in de top10 supercomputers

ik heb dit zelfs al voorspelt in een column die ik een jaar of 2 geleden heb geschreven :D
Ondernemen is vooruitdenken. Misschien dat AMD denkt dat hier de toekomst licht.
Hoezo :S de beelden die dan verstuurd worden moeten toch alsnog op de client machine worden getoond? dus maakt toch ook gebruik van de hardware van de ontvanger...
Ja maar die worden dan net zo makkelijk getoond als bijvoorbeeld een dvd-film waar je geen zware processing power voor nodig hebt. De supercomputer rendert dus bijv Crysis voor je terwijl jouw computer alleen maar de beelden als een soort van DVD hoeft te laten zien.

Voordeel: jij hoeft je computer/mobieljte niet te updaten om toch de mooiste graphics in je games te krijgen.

Nadeel: latency kan een probleem zijn.
Ja maar het is niet alleen beeld, in een spel heb je toch interactie.... die rekenkracht zal toch deels op de client hardware moeten draaien... of zeg ik hier nu iets wat totaal niet klopt.

je kunt toch ook geen draadloos stroom maken.
Het enige dat jij hoeft door te sturen naar AMD is welke toets je indrukt en waar je muis naar toe gaat. De rest draait op de servers van AMD :).

Over snelheid. Als je 60fps per seconden hebt dan is dat +- 15ms render tijd per frame. En Heb je bij een goede verbinding ook +-15ms latency naar de server van AMD.

De data van je keyboard zal er bijvoorbeeld ook 15ms over doen om AMD te berijken.

Jij drukt op schieten-> 15ms later berijkt de data AMD->15ms later is het frame klaar en wordt de data weer naar je teruggestuurd in 15ms-> daarna wordt het 'direct' op het scherm getoond. In totaal duurt het dus 45ms voordat je ziet wat er gebeurt dat komt overeen met ongeveer 22fps. Dat is ook ongeveer de snelheid van een DVD en voor de meeste spellen nog net spelbaar. (Potje Age of Empires is er niets aan de hand, portje Counter-Strike en je voelt je toch een klein beetje benadeeld)

15ms is wat ik zelf gemiddeld krijg bij een game server uit de Benelux (zeg maar max 600km van mij vandaan via een goede internet verbinding).
Bij een rts wordt je dan ook gewoon flink benadeeld hoor. Als je een beetje bezig bent met micro'en dan wilt je echt geen lag hebben. Als je dan in een gevecht bent en je bent bezig met bijvoorbeeld 300 acties per minuut, zoals de rts progamers dat doen, dan is dat echt klote.
Ja idd. Met de huidige RTS spellen zoals red alert 3 wel. Maar deze zijn te erg gemaakt voor rushers en missen de tactiek die in oudere tietels wel nodig was. alleen nog snel klikken klikken enzo maar geen tactiek. Ik denk zelfs dat dit misschien de oudere manier van spelen die mij wel bevalt terug zou kunnen brengen. Want ik vind dat huidige spellen zoals red alert 3 gewoon verkracht zijn door EA, er komen alleen starwars wapens en characters in voor en veel te overpowerde super wapens. Ik mis de nucleare racket en enigzins nog realistische wapens zoals die in C&C 95. ja de graphics zien er erg goed uit dat wel maar de gameplay zuigt. Ik heb veel liever een normale tab zoals in de oudere spellen en niet van die domme bouw blokken zoals in RA3. Het klinkt het misschien stom maar speel ik die oude spellen nog steeds hoor en liever dan die nieuwe spellen. Dus mij zou het wel fijn lijken als men het orginele genré weer een beetje terug zou kunnen brengen in de Rts. ze zullen iets moeten om de latency te compenseren he :)
45ms is toch wel een beetje traag... en 22fps zéker naar mijn mening.
Let wel dat dit het absolute minimum is en vaak lopen die dingen toch wel enige vertraging op.
Dan nog mag de server niet te ver weg staan om nog een deftige ping te hebben.

Volgens mij is dit in de praktijk niet haalbaar voor een FPS spelletje.
15ms is misschien wel haalbaar.
Veel servers met Half-Life 2 Deathmatch zitten bij mij ergens tussen de 15 en de 45.
Dat zijn niet gigantische bakken, maar gewoon thuisgebruikers pc's.
En de internetverbinding zal ook al iets trager zijn dan die van AMD.
Maar als die server helemaal in Amerika staat wordt het lastig.
"Jij drukt op schieten-> 15ms later berijkt de data AMD->15ms later is het frame klaar en wordt de data weer naar je teruggestuurd in 15ms-> daarna wordt het 'direct' op het scherm getoond. In totaal duurt het dus 45ms voordat je ziet wat er gebeurt dat komt overeen met ongeveer 22fps"

Dat komt niet overeen met 22fps.
Je hebt een latency van 3 frames, maar de beelden worden in dit geval gewoon met 60 fps op je beeld getoverd.

Dit is niet zo heel anders dan b.v tripple buffering (3 frames delay) of double buffering (2 frames delay).
Dit in verhouding tot geen single buffering (1 frame delay) en geen buffering (geen delay)
Ik denk dat men met een soort buffer te werk zal gaan want het lijkt me stug dat ze voor elke actie dat hele traject af zullen leggen. ik denk eerder dat jou pc dan ongeveer het zelfde doet dat je doet als je nu online een spelletje speelt alleen zal deze data iets meer buffer nodig hebben om de extra data stabiel over te brengen lijkt mij want 22pfs zou dan te weinig zijn.Maar het kleine ms verschil dat je zult krijgen zal elke speler dan beïnvloeden zolang het goed uit gebalanceerd word zal het geen probleem hoeven vormen voor de online gameplay
Ik vind het een zeer innovatief idee als je hier voor een paar euro per maand de nieuwste spellen kunt spelen zonder dat jij de nieuwste videokaart en al nodig hebt is het iets met groot potentieel. Bedenk je maar eens wat sommige mensen in een jaar aan hardware upgrades en losse spellen kopen kwijt zijn. er zijn mensen die huppakee een cpu van 300+ euro kopen en daarbij een hoop andere nogal dure componenten. die zitten toch gouw boven de 1000 euro per jaar
Je kan wel draadloos stroom 'maken', alleen de bereik is nooit zo groot :)
Als de verbinding stevig, snel en vlot genoeg is zou het misschien niet eens een probleem hoeven te zijn.
Maar dat is testen.
Geen flauw idee hoe snel zo snel is.
Wij kunnen thuis met gemak flink online gamen, maar dan renderen wel onze computers alle graphics helemaal zelf en, ja, bijna alles doen ze zelf.
De internetsnelheid die je nodig hebt zal wel flink hoger liggen dan bij een simpel potje Half-Life 2 Deathmatch. Daar kan ik nog vlot spelen. Of dat met Crysis of zo nog lukt als mijn pc ineens de helft minder gaat doen...

Maar ik krijg van dit artikel ook helemaal niet het idee dat we ooit zo Crysis zullen spelen.
Misschien nog wel World of Warcraft.
Crysis is zeker nog een stap verder weg.

[Reactie gewijzigd door Amanoo op 9 januari 2009 16:18]

De beelden zijn al gerenderd, ze zijn klaar om naar de monitor te sturen, enkel je mobieltje is hier de monitor. Aldus wat ik er van begrijp
Dit zou een goeie zijn voor de instance server van WoW :+
Niet echt een goed idee als volledige verwerking van graphics. Stel je je al voor dat de consument klaagt dat hij zijn potje Age Of Empires niet meer kan spelen, omdat zijn router wat mank doet? De WAN-verbinding kan op elk niveau nu een oorzaak zijn, al dan niet als bottleneck, zoals Sloerie hierboven vermeldt.

Maar meer uitgebreide physics en wat postprocessing kunnen hier wel veel baat bij hebben.

Ik stel me hier eerder een extensie en verbetering van je huidige systeem voor, en geen vervanging.

[Reactie gewijzigd door Neglacio op 9 januari 2009 16:16]

Dat heb je toch ook met de huidge online games? vindt het dus een non argument.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True