Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties

Phill Spencer, hoofd van Microsofts Xbox-divisie, heeft de verwachtingen die gamers mogelijk hebben van de komst van DirectX 12 naar de Xbox One getemperd. Volgens Spencer zijn er vooral voordelen voor ontwikkelaars maar verbeteren de grafische prestaties er niet veel door.

"Gaat DX12 de grafische eigenschappen van de Xbox One drastisch verbeteren? Nee", beantwoordt Phill Spencer in een interview met The Inner Circle zijn eigen vraag, "De cpu, de gpu en het geheugen verandert niet als je naar DirectX 12 overstapt." Wel maakt het gebruik van DX12 het volgens hem mogelijk dat beter gebruikgemaakt wordt van de mogelijkheden die de Xbox One al heeft en ook stelt hij dat er wel verbeteringen te zien zullen zijn bij games, maar hij herhaalt dat die niet drastisch zullen zijn.

Spencer zegt dat de voordelen vooral voor ontwikkelaars zijn: teams die aan een game werken waar een Xbox- en de pc-variant van uitkomt, zouden gemakkelijker crossplatform kunnen werken. Microsoft brengt volgend jaar DirectX 12-ondersteuning naar Windows 10. DirectX 12 gaat ontwikkelaars directere toegang geven tot de grafische hardware en het platform moet de cpu-belasting terugdringen.

Microsoft onthulde DirectX 12 in maart en daarbij gaf het bedrijf aan dat games op de Xbox One beter zouden presteren. De softwaregigant gaf toen echter geen cijfers over de mate van verbetering. De prestaties van games op zowel de PS4 als de Xbox One leiden tot veel discussie: afgelopen week maakte Ubisoft bijvoorbeeld bekend dat Assassin's Creed: Unity op beide consoles op 30fps en een resolutie van 1600x900 pixels draait. Veel gamers hoopten dat nextgen-games op 60fps en 1080p-resolutie zouden draaien, maar dat blijkt bij veel games niet het geval.

Microsoft DirectX 12 presentatie

Moderatie-faq Wijzig weergave

Reacties (98)

Ik mis de mooie powerpc architectuur uit de Xbox360 :(. Omdat de consoles nu aan pc relateerbare hardware hebben met relatief veel videoram zullen pc games ook snel een stuk meer daarvan gaan eisen, vooral slechte ports die 4/5gb vereisen zijn me dan een doorn in het oog. :+
Ik mis de mooie powerpc architectuur uit de Xbox360
Wat vind jij dan zo mooi aan die architectuur? Ik werk er dagelijks mee, maar ik ben er zelf niet heel erg over te spreken. Hij kan best snel zijn, maar instruction pipeline latency is vrij hoog (dus vrij lange stalls tijdens branch mispredictions) en hij doet geen out of order execution. Een concreet probleem waar we de laatste tijd vooral tegenaanlopen is de relatief hoge kosten van automaire instructies die op PPC met een load-link/store-conditional instructiepaar wordt uitgevoerd. De impact van het omzetten van non-atomaire naar atomaire instructies (bijvoorbeeld voor het lock-free toevoegen van een element in een gelinkte lijst) is dermate groot dat het in sommige gevallen de moeite niet eens loont om dingen te verdelen over meerdere threads zonder de code echt gigantisch om te gooien. De x86-architectuur (of althans de gangbare moderne implementaties ervan) heeft hier echt veel minder last van.

[Reactie gewijzigd door .oisyn op 10 oktober 2014 18:14]

Een ervaren programmeur weet dat ze onvermijdelijk zijn.
Misschien onvermijdelijk, maar zeker wel te minimaliseren.
Ja, ik comment ze gewoon altijd uit....?
Eh, wat? Door slim programmeren kun je de hoeveelheid pipeline stalls tot een minimum beperken. Als je te pas en te onpas op een x86 bijvoorbeeld "xor eax, eax" doet om zogenaamd even snel eax op 0 te zetten, stall je wel de complete pipeline, met alle performance drops van dien. Door op alternatieve manieren hetzelfde te doen, voorkom je dit en heb je dit soort problemen niet. Hetzelfde geldt voor de andere architecturen.

Ik weet ook niet echt waar je commentaar op zou moeten slaan.
Jammer alleen dat je voorbeeld niet klopt.
xor eax, eax is namelijk een special case. Dit wordt ook aangeraden door Intel om partial register stalls te vermijden. Geen stall dus. Dit is al zo sinds de Pentium Pro/II, lees de Intel optimization manuals er maar eens op na: http://www.intel.com/design/pentium/MANUALS/24281603.pdf
(Pagina 3-8)

Verder jammer dat je mijn sarcastische opmerking niet begreep. Duidelijk geval van iemand die niet weet waar hij over praat, maar wel graag interessant wil doen.

[Reactie gewijzigd door Scalibq op 11 oktober 2014 14:31]

Duidelijk geval van iemand die niet weet waar hij over praat, maar wel graag interessant wil doen.
Leuk op de man gespeeld, zorgt echt dat mensen (nog) een hoge opinie van je zullen hebben.

Dat m'n specifieke voorbeeld tegenwoordig niet (meer) klopt maakt het niet minder valide.
Dat m'n specifieke voorbeeld tegenwoordig niet (meer) klopt maakt het niet minder valide.
'Tegenwoordig'? De Pentium Pro is uit 1996.
En het heeft nooit geklopt.
De Pentium Pro was de eerste out-of-order CPU. De in-order CPUs hadden sowieso geen issues met pipeline-stalls op een xor reg, reg. Het hele probleem met partial register stalls bestond ook nog niet, want er was uberhaupt geen register renaming.
Op de Pentium had je voornamelijk stalls vanwege cache misses, slechte instructiepairing, en branch mispredictions.
Ga je nog verder terug, dan vallen die dingen ook een voor een af, omdat oudere CPUs niet superscalar waren, geen branch prediction hadden en geen caches.

Dus ja, je weet gewoon niet waar je over praat. Dat is niet 'op de man gespeeld', dat is de conclusie die ik trek aan de hand van de dingen die jij zegt. Er klopt niks van.
Ga dan ook niet in discussie met iemand als ik. Jij was een jaar of 5 toen de Pentium Pro uitkwam. Ik was in die tijd al software renderers met de hand aan het optimaliseren in asm op Pentium en Pentium Pro/II. Ik weet dus HEEL goed hoe je op die CPUs stalls uit de weg moet gaan.

Ik vond je eigen statement van "Tsja, een beetje slim programmeur heeft geen pipeline stalls..." nogal op de man gespeeld. Zo van ".oisyn, je kan er niks van!"
Hij is game dev, dus hij zal vast wel het een en ander weten van optimaliseren op instructieniveau en het vermijden van stalls (wsch heeft hij WEL de optimization manuals bestudeerd, net als ik. Jij overduidelijk niet, want je haalt jezelf keihard onderuit met het 'voorbeeld' dat je geeft).
Daarna stel je het iets bij: "Misschien onvermijdelijk, maar zeker wel te minimaliseren."
Maarja, dat is nogal een open deur natuurlijk. Het hele doel van optimaliseren op instructieniveau is om het aantal cycles te minimaliseren, waaronder ook stalls.
Verder ook nogal nietszeggend, dat je iets minimaliseert, betekent niet dat je het vermijdt. Het minimum aan stalls in een bepaald stuk code kan nog best vrij hoog liggen.
Dus ja... Beetje jammer allemaal. Als je een grote mond durft te hebben, moet je ook niet kinderachtig gaan doen als iemand je op je fouten wijst.

[Reactie gewijzigd door Scalibq op 12 oktober 2014 10:23]

Ten eerste zit in menig AAA game project tegenwoordig geen letter handgeschreven assembly meer (GPU shaders niet meegerekend), dat is namelijk nogal ondoenlijk gezien de schaal van het project, en je kunt je afvragen hoe nuttig het is omdat die functies over het algemeen door je compiler als black box worden beschouwd en dus niet meegenomen kunnen worden bij de full program optimization.

Ten tweede schrijf je over het algemeen gewoon cross platform code. Waar het op de PowerPC bijvoorbeeld loont om een early-out case in een inner loop niet te doen omdat de altivec throughput behoorlijk hoog is en pipeline stalls duur, loont dat op de x86 weer juist wel. Je gaat echt niet elke functie in je game compleet herschrijven voor iedere architectuur, dus enige performance degradation neem je voor lief. Die paar cases die echt belangrijk zijn komen wel boven water bij het profilen van je code en kun je evt aanpassen, maar het blijft de vraag of het in the long run wel loont aangezien code maintenance op die manier een hel wordt.

[Reactie gewijzigd door .oisyn op 12 oktober 2014 22:41]

Iedereen heeft altijd pipeline stalls :) net zo goed als iedereen altijd ergens de cache mist. :)
Ik heb in SPU code op de PS3 anders nooit cache misses :+
Branch mispredicts heb je anders vaak genoeg ;-)

[Reactie gewijzigd door PrisonerOfPain op 13 oktober 2014 08:29]

Oh the irony. Juist de powerpc architectuur zorgde ervoor dat ports een grotere kans hadden om slecht te zijn, nu met x86 is die kans aanzienlijk minder en is het een stukje makkelijker geworden voor developers.
Dat soort dingen lees je hier wel vaker, maar niets is minder waar. Het is de algemene diversiteit in complete hardware architectuur die ports lastig maken, niet zozeer een verandering van instructieset want dat is over het algemeen gewoon een kwestie van je code compileren voor een ander platform. De moeilijkheid zit 'm in het goed gebruiken van specifieke hardware features (zoals bijv. ESRAM in de Xbox One en de SPU's in de PS3) en het omgaan met verschillende karateristieken zoals geheugenbandbreedte, cache sizes en shader throughput waardoor dezelfde code en content zich op verschillende platforms anders gedraagt.

[Reactie gewijzigd door .oisyn op 10 oktober 2014 23:08]

Het is de algemene diversiteit in complete hardware architectuur die ports lastig maken
...
het omgaan met verschillende karateristieken zoals geheugenbandbreedte, cache sizes
Wat dat betreft zijn deze x86-based consoles nog steeds niet heel gunstig.
Je krijgt namelijk wel een x86-CPU, maar wel eentje met 8 hele trage cores. De gemiddelde game-PC heeft eerder een Core i5 of i7, waarbij je 4 snelle cores hebt, met of zonder HyperThreading. Ook qua caching wijken ze nogal van elkaar af, en het feit dat de APU de bandbreedte moet delen tussen CPU en GPU, terwijl game PCs dedicated mem hebben voor beiden.
Dat onderstreept inderdaad nog eens dat we eigenlijk geen zier zijn opgeschoten met de switch naar x86 :)
Ben je het met me eens, voor de verandering? :)
Was te verwachten. Consoles hebben al weinig overhead. Een laag als DX12 is echt voor PC's bedoeld en op consoles programmeer je dus al closer to metal. Ik vind het wel frustrerend dat Ubisoft nie tmeer aan optimalisaties doet. Als een Xbox one 1600x900 doet. Dan kan de PS4 zeker datzelfde op 1920x1080 vanwege de fors hogere geheugen bandbreedte.
Verschil in totale power tussen de 2 consoles is op zijn best 5-10%
Laten we 10% nemen voor dit rekenvoorbeeld:

1600x0900=1.440.000 pixels
1920*1080=2.073.600 pixels
Verschil 633.600 pixels die extra aangestuurd moeten worden wat zon 10-20% extra power zou vergen afhankelijk van hoe goed er geprogrammeerd wordt.

Dus als je als MINIMUM 30fps wil hebben is het veiliger om een beetje van die rekenkracht onbenut te houden.
Ze hadden uiteraard 1650x928 kunnen doen met de beschikbare rekenkracht maar dat kost ook weer tijd en moeite en geld terwijl het voor 99,9% van de mensen de ERVARING niet veranderd.
Verschil 633.600 pixels die extra aangestuurd moeten worden wat zon 10-20% extra power zou vergen afhankelijk van hoe goed er geprogrammeerd wordt.
De enige 'power' die hieraan opgaat is shadingpower.
De rest van het systeem wordt identiek belast bij een andere resolutie.
Framerate is een ander verhaal maar ook dat schaalt niet lineair.
De enige 'power' die hieraan opgaat is shadingpower.
De rest van het systeem wordt identiek belast bij een andere resolutie.
Ook de bandbreedte speelt een rol. En aangezien de CPU en GPU het geheugen delen, heeft het dus ook wel effect op de CPU-prestaties.
Daarnaast heeft de Xbox One een ESRAM-buffer die de PS4 niet heeft, wat het weer lastiger maakt om te vergelijken, omdat ESRAM hogere bandbreedte heeft dan regulier geheugen... maar daarentegen dan ook andere beperkingen heeft.
Verschil in totale power tussen de 2 consoles is op zijn best 5-10%
Meh, eerder 40% als je alleen kijkt naar shaders en clocks, ps4 heeft ook 2x de rops en veel meer memorybandwidth.
Waar basseer je die 5 tot 10% op?

Geheugen bandbreedte is zowat het dubbele bij de ps4
Klopt ben ik met je eens. Helaas is de PS4 niet krachtig genoeg om alles op 1080p/60hz te draaien en de XO niet krachtig genoeg om alles op 1080p/30hz te draaien bij grafisch veeleisende spellen, dus er zal altijd een compromis moeten worden gesloten, de exclusives daar gelaten...
Helaas is de PS4 niet krachtig genoeg om alles op 1080p/60hz te draaien
Alle lage framerates en resoluties zijn een keuze van de developers.
Heeft niks maar dan ook helemaal niks met het apparaat te maken.
De afweging is altijd tussen meer features/effects/grafisch geweld tegenover framerate en resolutie. Je kunt dus ook gewoon wat minder zooi in je game doen en dat dan netjes op full hd op 60fps laten draaien.
Tja, maar de consument heeft nou eenmaal een verwachting van het aantal beschikbare 'zooi'. Zeker als je, als Ubisoft zijnde, je games 4 jaar in ontwikkeling hebt en denkt dat de 'nieuwe' console je targets wel gaat halen.
Maar dan blijkt dat je het (op de Xbone) moet doen met een 7790-waardige kaart. Geen wonder dat je dan moet gaan snijden.
Tja, maar de consument heeft nou eenmaal een verwachting van het aantal beschikbare 'zooi'.
Die verwachting wordt zeker ook niet gecreeerd door veel te mooie pre-renders van hoe de gameplay er uit zou kunnen gaan zien?

En Ubisoft weet zoals alle grote uitgevers al een paar jaar wat de target specs gingen zijn van de nieuwe consoles.
Het probleem is mischien wel dat dit soort projecten zo groot worden dat de rechterhand niet meer weet wat de linker aan het doen is. Dan is het lastig afstemmen en optimizen. En dan komen ze aan het eind van het traject erachter dat ze een bak stront hebben gemaakt die qua resolutie en framerate terug moet worden geschroeft om het een beetje te laten draaien.
Koelpasta heeft gelijk. Hardware spect zijn fixed de devs kennen de limiten van de hardware en ontwikkelen daar ook voor.

Native is beter dan upscaling. Maar deze down grade effect is wel subtiel minder.
Je levert ietwat render quality in.

Het scheeld al snel een factor 2 minder pixel pushen. Tussen 720p tov 1080p.
Men kan dus meer effecten in kwijt meer detail. Complexere rendering.
Wat tov Subtiel een wat grotere impact heeft.

Dat is dus de compromie die dev nemen.
Mooiere game maar met upscale artifactje.
Of simpelere kalere game native.

Bij PC is dat low setting voor budged hardware op 1080P
Wil je mooier medium setting op 720P
met 30 vs 60 fps optie ook nog.
Dat verschil met PC daar heb je vaak wel de keuze wat voor compromie je wilt nemen .
Bij console kiest de devs voor je.
Bij PC kan je ook kiezen voor duurdere maar krachtigere hardware. Compromie loos gamen. Maar wel duurder. Maar ook nog goedkoper low budged. Tot APU toe.
Als een Xbox one 1600x900 doet. Dan kan de PS4 zeker datzelfde op 1920x1080 vanwege de fors hogere geheugen bandbreedte.

Zal wel meevallen. Als het verschil echt zo groot zou zijn tussen de PS4 en X1 zou Driveclub toch ook gewoon 60 fps met 1080P zijn en dat is het niet. Forza Horizon 2 haalt met zijn open wereld hetzelfde en heeft zeker geen slechte graphics.
Ze hebben in driveclub belachelijk veel details zjtten. Meerdere shaders over ekaar voor koplampen etc. Oftewel eigenlijk een hoop kracht weggegooid aan kleine zaken.

Xbox360 heeft alleen ddr3 tot zijn beschikking en ps4 gddr5. Daarnaast is de gpu uitgebreider. Dus hardware technisch wel echt sneller.
Het is gewoon simpelweg zo dat alle spellen die DX11 gebruiken al zijn geoptimaliseerd voor de XBOX als er dan DX12 geinstalleerd wordt wordt alles niet ineens 2x zo snel omdat het programma/spel daar niet op gebouwd is.
Er komt een mogelijkheid bij om een korter communicatiepad te kiezen, aangezien dat nog niet bestond zal geen enkel programma daar dus automagisch gebruik van gaan maken.

Als een spel door de ontwikkelaar gepatched wordt om dat pad te gaan gebruiken kan er wel een snelheid/qualiteit sprong gemaakt worden.

Maw MS zegt graag wachten op de ontwikkelaar ipv meteen gaan klagen dat het allemaal niet zo spectaculair is bij het updaten van DX.
Nee, niet helemaal.
Het is meer zo dat de DX11-versie van de Xbox One al een aantal extra features had, waarmee je op de Xbox al dingen kon doen die je op de PC pas met DX12 kunt doen.
Je hebt die winst op de Xbox dus al, en overschakelen naar DX12 is daarom niet zo spectaculair.
Jammer voor de xbox One, maar goed dat MS hier open over is.
Kan mij wel voorstellen dat console-gamers zich lichtelijk verkeerd voorgelicht vinden door de resolutie/framerate waarop games draaien.


Toch altijd grappig hoe veel mensen dramatisch en drastisch verkeerd gebruiken :)
Dramatisch is altijd "negatief", drastisch betekent meer iets als "snel/sterk/opmerkelijk".
Toch in dit geval maar drastisch gebruiken lijkt mij/
Dit was al lang bekend. DirectX 12 gaat primair de grote overhead van calls te lijf, iets dat geen probleem is bij de Xbox One, maar wel bij pc's. Dit wordt daarom eerder een probleem dan een zegen voor de Xbox, er wordt straks immers console-achtige efficiency uit pc's geperst waardoor je met nóg goedkopere hardware eenzelfde performance level kan halen. Aangezien je nu al voor een ¤500 midrange pc dezelfde (zo niet betere) performance haalt als een Xbox One gaat het straks alles behalve een zegen zijn.
Je.. Verbaas me hierover zeker omdat MS publiekelijk zei dat dx11 xb1 efficiency naar pc komt. Pc hardware is deze generatie al zo krachtig tov consoles en dan ook dit nog. Overigens wel leuk voor pc liefhebbers zoals ik.. Moet terugdenken aan alle artikelen die schreeuwden dat pc gaming dead was.
Je moet niet te veel hopen en gewoon je verstand gebruiken, ook als gamer.
De huidige console hardware doet geen wonderen, dat kan ook niet omdat het slechts redelijke performance bied, niets bijzonders.

Deze generatie consoles stelt weinig voor hardware wise. Op wonderen hopen van hoge resoluties en framerates is onzinnig.
Mooi, eerlijke berichtgeving!

Hoewel dit helaas niet is waar veel Xbox eigenaren op gehoopt hadden.

[Reactie gewijzigd door Somers op 10 oktober 2014 16:55]

Het is ook niet nodig. De games zien er goed genoeg uit.
Goed genoeg.. Tssk.. Met die instelling zaten we nog steeds 2d games te spelen. De technologie voor 1080p 60fps is er (allang) en het is betaalbaar dus waarom niet in de ps4 en xb1? Omdat dit bedrijfskundig beter uitkwam voor ms/Sony en zij geen fuck geven om games opzich (duh) en zodoende verkapte low end pctjes uitbrachten die de komende jaren ervoor zullen zorgen dat games niet qua graphics en engine het niveau zullen halen wat mogelijk was geweest als deze gen relatief even krachtig als de vorige was. Echt triest hoe sommige mensen dit maar blijven verdedigen en het schijnbaar geen fuck uitmaakt dat kwaliteit van games er direct onder lijden. Ja het gaat niet alleen om framerate en graphics ook de engine lijdt eronder zie bericht over assassin's Creed.
De reken kracht is fixed op consoles. 1080P is heel makkelijk te halen door de games lichter te mken zodat ze 1080P met 60 fps met gemak halen. Houd ik in veel minder grafische eye candy.

Dat is zoiets als farcry 2 op PC gamen met 8600GT op 1920x1200 met settings op low.
Dat ging heel goed.

Crysis op low zag er niet uit op medium wel alleen minder dan 30 FPS. Nou resolutie flink omlaag help. Dan maar opschalen. Zelf ging ik voor low FPS. Mooier en ging voor slow pace tactiek.
Maar de game ook uitgepeeld op tweede systeem met 2900 en dat liep toen lekker.

Dus de devs vinden een lage resolutie bij gfx rijkere game belangrijker dan native draaien.
Ik heb liever dat de kracht gebruikt wordt voor betere "immersiveness" en unieke ervaringen. Ik vind dat games tegenwoordig er reeds meer dan goed genoeg uitzien. Ze mogen beginnen meer geld en tijd te investeren in al de rest wat een game goed maakt, naast de graphics.

Trouwens, meer en meer games halen 1080p op de consoles, dus ik snap niet waar je je zo over opwindt.
Alle optimalisaties die je op de xbox one doet, pakken vaak beter uit voor de PS4 (eigenlijk zou je het gewoon niet moeten doen om de xbox one een edge te geven :+ )
Dan zou het voor multiplatform games dus het beste zijn om de Xbox One te targeten en eventueel extra vermogen op de andere console als extra in te zetten waar nodig.
Juist, de xbox is een prima target platform voor de PS4 & PC :+
net als de PS3 dat was, zie ook GTA4 waardeloze xbox360 port vs L.A. Noire vanaf de PS3 :Y) :z
Ms heeft dit ook niet gedaan ia meermllig gezegd wacht de reacties van ontwikkelaars af voor je op ms gaat jameren.

Zoals ik het al zbox one speler nu mee maak met vooral veel ps3 gamers om me heen als ik games als destiny vergelijk zie ik persoonlijk de verachillen amper.

Veel ps4 gamer praten dat tegen en kicken helemaal op dat gddr5 iets wat door sony ook gewoon als een edge gimmik gezien word want ik heb de tests gelezen en persoonlijk als gamepc bouwer en devop vind ik het verschil te klein.

Ik zie bij veel winkels de mogenlijke 1080p 60fps game play videos van uncharted iets wat ook een zwaar opgepoetste video is dus slechte actie vind ik zo veel kracht heeft ps4 niet dat hij dat op zn hoog detail niveau aankan
Daarom zal GDDR en unified memory ook een belangrijke feature "gimmick" worden voor de volgende generatie Intel/AMD PC's....

en ik weet niet of je het gemist hebt, maar ook nvidia doet hetzelfde met nvlink waardoor je inderdaad GDDR/DDR4 nodig zal hebben.
leuk toch, gimmicks die volledig mainstream worden :+
Tja.. Je geheugen kan nog zo veel en zo snel zijn, maar als de gpu een midrange (nadert snel low range) kaart is en je cpu een verkapte tablet cpu is gaan al die bandbreedte, gigabytes en unified memory je je niet helpen.
Mensen verwachten gewoon te veel.
Als je weet hoe je moet programeren kan je gigantisch veel uit zo'n apparaat halen.
Kijk maar naar Destiny op de PS3 en X360.
Ze zien er beiden niet slecht uit maar voor mijn gevoel Is de X360 beter uit.
Nee hoor. Dat was enigszins van toepassing op de vorige gen omdat powerpc onbekend was, maar nu zitten de consoles al vrijwel op hun Max met de huidige games. Misschien een beetje extra met meer doorontwikkeld api maar daar zal het bij blijven. X86 is volledig bekend bij vrijwel alle gamedevs.
onzin, aangezien de sdk's constant in ontwikkeling zijn.

Maar x86 is rommel.

Prachtig dat jij deze Office instructieset voor een kantoor computer zo de hemel in weet te prijzen 8)7. Gaiben zal trots op je zijn!

bovendien: steam :+

[Reactie gewijzigd door 88T op 11 oktober 2014 11:09]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True