Microsoft meldt gevolgen gebruik tien procent extra Xbox One-gpu

Microsoft heeft bekendgemaakt wat de gevolgen zijn van het gebruik van de tien procent extra gpu-rekenkracht bij de Xbox One. Voorheen was deze tien procent van de gpu-rekenkracht standaard toegewezen aan Kinect.

Ontwikkelaars kunnen ervoor kiezen om bij hun games gebruik te maken van het extra rekenvermogen. Dat heeft Microsoft laten weten via zijn de officiële site. De extra rekenkracht kan bijvoorbeeld worden gebruikt om meer vijanden in een game neer te zetten of om een spel op een hogere resolutie en met meer frames per seconde te laten draaien.

Er bestond twijfel of games die gebruik gingen maken van de extra tien procent gpu-kracht nog wel zouden beschikken over alle functies die Kinect met zich meebrengt. Ook bestond er twijfel of de spraakbesturing van de Xbox One door middel van de Kinect nog zou werken zodra de tien procent extra gpu werd ingenomen.

Microsoft zegt nu dat de diepte- en infraroodsensoren van de Kinect inderdaad niet meer werken als de extra gpu-kracht aan een game is toegewezen. Als de extra gpu-kracht in een andere fase van de game niet wordt benut, kan de game wel gebruikmaken van de sensoren. Waar en wanneer de game optimaal gebruikmaakt van de rekenkracht van de Xbox One, kan door ontwikkelaars worden bepaald via de sdk's voor de console. Gebruikers hebben echter altijd de mogelijkheid om spraakcommando's te gebruiken. Zo zouden ze nog steeds de optie hebben om tijdens een game via spraak de Xbox op te dragen om gameplay op te nemen.

Microsoft heeft naar eigen zeggen van de Xbox One een 'flexibel' systeem gemaakt, dat zijn gpu-kracht op de 'juiste wijze' kan verdelen. Door deze optimalisatie van de verdeling van de gpu-rekenkracht kunnen ontwikkelaars volledig zelf bepalen hoe ze het extra geheugen van de Xbox One gebruiken. Zo zou onder andere Bungie ervoor hebben gekozen om de Xbox-one versie van Destiny, net als de PlayStation 4-versie, te laten draaien op 1080p met dertig frames per seconde.

Door Taco Blauw

Stagiair

18-06-2014 • 16:42

87 Linkedin

Reacties (87)

87
78
48
8
0
9
Wijzig sortering
De extra rekenkracht kan bijvoorbeeld worden gebruikt om meer vijanden in een game neer te zetten of om een spel op een hogere resolutie en met meer frames per seconde te laten draaien.
Dat laatste vind ik wat vreemd. Een game wordt toch gebouwd voor een console die voor IEDEREEN hetzelfde is, zodat je je game helemaal kunt uitoptimaliseren voor dat ene stuk hardware, zodat de framerate voor iedereen overal altijd 60fps is?

Dat is nou juist het hele voordeel van een console. Dat games ervoor gemaakt zijn...
Er kan nu meer gebeuren zonder de 'benedengrens' qua framerate te overschrijden. En er zijn veel games die de 60 fps niet halen hoor ;)
Maar wat doet die extra 10% ten opzichte van een PS4?
Voor hogere resoluties gaat het denk ik wel helpen. Het gaat namelijk voor zover ik heb gehoord niet om rekenkracht, maar om geheugen bandbreedte (ook volgens de bron al nemen alle websites het over als rekenkracht, wat toch echt wat anders is). Daarbij scoort de XBone in theorie aardig wat lager dan de PS4 door dat de PS4 geheugen met aardig wat meer bandbreedte gebruikt.

Eerder was al door diverse bronnen berekend dat de PS4 zo'n 40% meer geheugenbandbreedte zou hebben dan de XBone (op basis van de hardware specs), daarbij leverde de XBone dus nog 10% in voor kinect. Dat komt nu dus voor games die de kinect bandbreedte benutten te vervallen.
Op het gebied van geheugenbandbreedte zal het er voornamelijk op neer komen dat het allemaal afhangt van wat sony onder de motorkap doet. Wie weet hebben die ook voor een of ander gek iets 50% van hun bandbreedte gereserveerd (lijkt me sterk overigens) en heeft de XBone nu zelfs een voordeel.

Ik denk dat we gewoon een jaar of 2 moeten wachten om echt goed te kunnen zien wat het effect is. Voorlopig houd ik het gewoon een jaartje op PC gamen, en koop ik de PS4 of XBone wel als duidelijk is wat voor games er voor beide platformen uitkomen, en er al een mooie lading goede games voor wat lagere prijs te krijgen is. (en wellicht de consoles ook nog wat in prijs gedaald zijn).
Eerder was al door diverse bronnen berekend dat de PS4 zo'n 40% meer geheugenbandbreedte zou hebben dan de XBone (op basis van de hardware specs), daarbij leverde de XBone dus nog 10% in voor kinect
10% van 2/3e van het totaal aan shaders van de ps4 zelfs. Maargoed, wel een goede zet van MS dit, heb zelf nooit begrepen waarom ze zoveel offers (prijs, prestaties, ontwikkelings kosten, pr gezichtsverlies) hebben gedaan om Kinect maar een succes te maken, wat nu ook nog eens mislukt is. Het is wel duidelijk dat ze zich nu realiseren dat het maar om 1 ding gaat en dat is games.

Ben alleen bang dat ze over een jaar of wat gewoon weer dezelfde fout maken, Microsoft is nu al zo lang als ik me kan herinneren aan het proberen 'in de huiskamer' te komen, nu weer met XBone als soort Trojan Horse, maar volgens mij zitten de mensen er gewoon niet op te wachten...

[Reactie gewijzigd door johnbetonschaar op 18 juni 2014 22:48]

Niet zo heel erg veel. 10% extra GPU rekenkracht resulteert niet in een totale prestatieboost van 10%. Er zijn veel meer factoren die invloed hebben op de prestaties van een console; de GPU is daar slechts eentje van.
Het is toch tekenend dat MS allerlei trucs moet uithalen om een game een beetje deftig draaiende te krijgen. Ze hebben gewoon voor een te zwakke GPU gekozen(minder rop's dacht ik dan de GPU van de PS4) tov de PS4. Ook de keuze voor gedeeld ram geheugen ipv het veel snellere gedeelde gddr geheugen is slecht. Ik begrijp niet dat je zo'n domme fouten kan maken.

Ik hoop dat ze het nog een beetje goed kunnen maken met die extra 10% rekenkracht maar ideaal is het niet.

[Reactie gewijzigd door Fredi op 19 juni 2014 03:20]

Gebruikers hebben echter altijd de mogelijkheid om spraakcommando's te gebruiken. Zo zouden ze nog steeds de optie hebben om tijdens een game via spraak de Xbox op te dragen om gameplay op te nemen.
Tenzij ze de bundel zonder Kinect hebben gekocht?
Die microfoon zit in de Kinect toch? dus daar ga je al, je kan er niet meer van uit gaan dat mensen uberhaupt spraakbesturing kunnen gebruiken in je spelletje.
Of in de headset die je er bij krijgt....
Ah, dat wist ik niet, dat je er een headset bij krijgt, vandaar het vraagteken bij de zin over waar de microfoon zit :)
Tuurlijk wel, staat er achter op de doos gewoon 'Deze game heeft een Kinect controller nodig'. Stond bij de 360 games ook op de doos.....Kinect Sports etc. werkten ook niet zonder Kinect.
Goed nieuws vind ik. Heb nooit wat gegeven om de Kinect en zie niet in hoe dit met de Xbox One gaat veranderen en spraak besturing vind ik meer een gimmick dan een feature dus ik vind het helemaal prima dat die extra 10% ook voor de game gebruikt kan worden.
Onbekend maakt onbemind, ik dacht eerst dat het ook niks was, maar als je het een tijdje gebruikt hebt werkt het verdomd gemakkelijk en goed en kan ik wel zeggen dat ik het niet meer zou willen missen!
Hier kan ik enkel mee akkoord gaan. Heb een XboxOne van Day1.
Dacht die spraakherkenning is een gimmick. Maar ik betrap mezelf er op dat ik het veel gebruik.

Het is gewoon superleuk als je thuiskomt gewoon ff naar je box kan roepen en die je tv xbox surround allemaal aanzet.
Als Directx12 uitkomt zal de achtertsand met de PS4 kleiner worden of misschien wel gelijk of beter.
Wat een onzin. Zelfs Phil Spencer zegt het volgende: "It will help developers on XBOX One. It’s not going to be a massive change but will unlock more capability for devs."

De PS4 is gewoon krachtiger.

DDR3 vs GDDR5
16 ROPS vs 32 ROPS
12 CU's vs 18 CU's
1.24TFLOPS vs 1.84TFLOPS

Alsof alleen DX12 dat gat gaat overbruggen, kom op.
Als het goed is zou de X1 ook GDDR5 moeten hebben, er zou namelijk een Radeon HD7790 inzitten en die heeft GDDR5 geheugen.
In de PS4 zou een Radeon HD7870 zitten.
Nee. Zo werkt het niet in consoles. De XO heeft gedeeld DDR3. Gedeeld inderdaad. Het werkt anders als met een normale pc opstelling van gpu+ ram.
laptops zijn ook PC's. en deze hebben vaak ook gedeeld ram.

gpu's in pc 's hebben net als in consoles meer bandbreedte nodig. DDR 3 was niet snel genoeg dus gebruiken all redelijke kaarten sinds de radeon 58xx serie gddr5.

dat Microsoft voor het goedkopere DDR 3 is gegaan snap ik echt geen hout van.
In principe kan je bij Radeon kaarten aan de laatste 2 getallen zien wat voor geheigen er gebruikt is. 90 is GDDR5, 70 is GDDR3, 50 is DDR3.
En aan het 2e getal kan je zien hoe snel de GPU is, een 8 is sneller dan een 7

Bij de 7790 en 7870 kan je dus zien dat ze beiden zelfde 7000 serie zijn, de x8xx GPU is sneller dan de x7xx GPU en het geheugen (GDDR5) van de xx80 is iets langzamer geklokt dan bij de xx90.
Kan overigens ook zijn dat het xx80 geheugen sneller geklokt is dan xx70 geheugen (GDDR3).
Helemaal te vergelijken is het inderdaad niet maar de grafische chips die gebruikt zijn zijn wel af te leiden naar de 7790 en 7870.

Alleen is het natuurlijk wel allemaal specifiek op de rest van de hardware aangesloten en wordt ook op een specifieke manier aangestuurd door het OS en de drivers.
Het kan daardoor zijn dat die grafische chips beter lopen op een X1 of PS4 dan op een PC, puur omdat het niet voor specifieke hardware geoptimaliseerd is.
Wat heeft DirectX daar nou mee te maken?... Performance moet uit de lengte of uit de breedte komen. Met een slimmere API ga je niet een (merkbare) achterstand oplossen. En al ZOU het iets uitmaken, dan hadden ze wel een update voor de huidige software uitgebracht.

[Reactie gewijzigd door _Thanatos_ op 18 juni 2014 18:10]

Die hele DX12 gaat niks veranderen op de Xbox One, dat heeft Microsoft ook zelf aangegeven. DX12 zal ervoor zorgen dat pc hardware ook steeds efficiënter gebruikt kan worden voor ontwikkeling van games op de PC. DX12 features zitten al in de Xbox One. Als je het dan zo wilt bekijken, dan heeft de PS4 namelijk DX12,5 features of DX13.
dit houd dus eigenlijk in dat als deze 10% wordt gebruikt de MAXIMALE power van het systeem word benut gezien er andere functies voor moeten wijken? het lijkt me apart maar dit zou betekenen dat terwijl de console nog niet in ieder land verkrijgbaar is dat hij nu al tegen het plafond aanzit van wat eruit te halen valt?

ze doen wel overkomen alsof dit de oplossing is voor alles maar eigenlijk geven ze te kennen dat dit alles is wat eruit kan worden gehaald?
Hoe denk je dat dit anders zal gaan? Dat ze (MS) de console nu begrenzen en dan elk jaar een update doen waarbij een console 20% krachtiger wordt? De huidige generatie consoles (en de vorige, en die daarvoor) zijn ook gewoon uitgebracht met het idee dat ze vol gebruikt kunnen worden. Maar toch zijn de spellen aan het eind van de levensduur o.a. mooier. Dat ligt meer aan SDK / code optimalisaties / ontwikkelaars dan de console zelf.
Sony heeft dit trouwens wel gedaan met de PSP. Daar was de CPU gelimiteerd om batterijduur te verbeteren, later is deze limitatie weg gehaald. Was trouwens niet niks, ging van 222Mhz naar 333Mhz.
Hoezo? De SDK's worden steeds beter, en programmeurs zullen er altijd meer uit kunnen halen... Of hebben we het beste met Infamous ook al gezien op PS4? Want bij PS4 zijn er geen resources die gereserveerd waren
Beetje kort door de bocht. Een processor wordt meestal vol gebruikt maar niet efficiënt. De eerste spellen op de xbox360 mochten ook evenveel hardware gebruiken als de latere spellen, toch halen die meer uit zo'n systeem. Deze SDK update zorgt bijvoorbeeld voor een aantal verbeteringen die niet zijn opgenomen in eerdere spellen. Wat eigenlijk wel jammer is, want met een patch spellen sneller maken zou wel aardig zijn.
Je hoort me niet zeggen dat de consoles krachtpaarden zijn maar:
De maximale power gebruiken en de maximale power efficiënt gebruiken zijn twee verschillende dingen. De rest van je commentaar is daarop gebaseerd en is dus verwaarloosbaar.
Microsoft heeft naar eigen zeggen van de Xbox One een 'flexibel' systeem gemaakt, dat zijn gpu-kracht op de 'juiste wijze' kan verdelen.
Ik zou het eerder "wispelturig" noemen. Zoals ik het lees lijkt het er dan op dat bepaalde sensoren dus ook uitgeschakeld kunnen worden zodra je GPU-intensieve Kinect-titels draait. Zoiets lijkt me toch niet wenselijk.

Misschien kunnen ze beter een optie toevoegen in de instellingen waarbij je kunt kiezen of de Kinect in- of uitgeschakeld moet zijn. Beter nog; laat gamers dit pér game instellen.
Ik snap niet hoe jij dat ziet. Gamers mogen dit natuurlijk nooit zelf bepalen, stel je hebt een game als destiny die op 1080P draait en jij wil opeens de Kinect aan zetten.. Wat gebeurd er dan? Crashed je game want er is niet genoeg kracht vrij.

Er staat dat de developer dit zelf insteld en dynamisch hier mee om kan gaan. Dus gebruiken wat nodig is op welk moment. Naar mijn idee een goed plan. Alleen een developer weet wanneer zijn game iets nodig is dus laat het aub aan de professionals over ;)
Gamer mogen en kunnen dat juist wel zelf bepalen, zo kopen een X1 met of zonder Kinect.
Of koppelen die los als ze er toch al een hebben.
Eh ik weet niet of je de berichten hebt gelezen maar zo werkt het niet. Het werkt met een sdk dus de developer geeft aan wat ze willen. Als je zoals ik een Kinect er bij hebt kan het zijn dat hij in een game (bijna) niet werkt, daar hoef ik geen kabel er voor uit te halen :P

Als je geen Kinect hebt kan je sommige games gewoon niet spelen dat is de deal.
toegegeven had mij commentaar tussen [ / sarcasme] moeten zetten
Wanneer je spel crashed omdat je gpu plots wat andere zaken erbij begint te doen dan is je spel gewoon slecht. Op pc wordt dit al jaren gedaan zonder problemen (tenzij de andere software die je gebruikt gewoon rare dingen begint te doen met de gpu, maar dat zal bij Kinect wel niet gebeuren want het was zo bedoeld). Het spel zou gewoon minder vlot draaien, hoe merkbaar het wordt hangt af van hoeveel je gpu met andere zaken bezig is.
En gamers mogen dat nooit zelf bepalen? Wat een onzin. Waarom zouden gamers dit nooit mogen bepalen? Wat gaat er zo verschrikkelijk verkeerd lopen wanneer gamers dit zouden kunnen bepalen? Het zou heel leuk zijn als je bij die brakke 30fps titels er mssn wat meer uithaalt waardoor het vlotter zou kunnen lopen (of je er genoeg zou kunnen uithalen door Kinect functies uit te schakelen zodat het spel merkbaar vloeiender draait is een andere zaak, persoonlijk betwijfel ik het want die 10% is zo heel veel niet...).

Aangezien je toch al geen opties hebt in de meeste console games, vind ik het echter niet zo verkeerd dat de gamedeveloper dit kan kiezen. Als je in de 30fps (of sub 1080p) titels een hoop opties zou hebben waardoor je het wel op 60fps (of 1080p) zou kunnen spelen dan zou het een ander verhaal zijn, dan hoort het gewoon een gebruiker optie te zijn.
Je kan het een beetje vergelijken met een overclock waarvan een gamer kan kiezen of hij die wel of niet gebruikt dan. Maar in de huidige situatie is keuze niet zo'n logische en nuttige zet imo.
Er staat letterlijk in de tekst dat ontwikkelaars de Kinect sensor kunnen laten aanstaan wanneer zij dat nodig achten...
Dat klopt, maar daarmee neemt het potentiële risico op Kinect-gerelateerde bugs wel toe. Geen enkel spel is foutvrij, dus je moet maar hopen dat er niet dusdanig wordt geblunderd dat je spel plots onbestuurbaar wordt. Ik weet niet of het zo verstandig is om dit aan ontwikkelaars over te laten; die hebben vaak al moeite genoeg om een spel überhaupt fatsoenlijk speelbaar te krijgen.
Zoiets lijkt me toch niet wenselijk.
Het is aan de ontwikkelaar om te bepalen wat er aan en wat er uit moet staan. Als een game bepaalde sensoren op een zeker moment niet nodig heeft, waarom capaciteit hiervoor reserveren?
Niks gamers laten instellen. Dan het internet vol laten staan van huilers die niet snappen hoe ze hem in moeten stellen?
Je kunt altijd in een game sommige kinect features uitzetten (bij Forza bv de headtracking). Maar voor games zoals Destiny is dat gewoon niet nodig dus zet de dev het uit. Voegen ze echter iets toe in het menu of een apart stuk waar je wel Kinect wilt kunnen gebruiken, dan kan dat dus ook gewoon. Het lijkt me dat zodra een dev ernaar vraagt de performance gewoon gebruikt kan worden voor Kinect.

Juist dat maakt het zo dat developers kinect wel gaan toepassen buiten de hoofdmoot van de game. En spraakcommando's werken nog altijd.

Gebruik je bij deel X van een spel Kinect? Dan is dat gewoon beschikbaar, anders niet. En heb je geen Kinect dan maakt dat verder weinig uit.
Zo zou onder andere Bungie ervoor hebben gekozen om de Xbox-one versie van Destiny, net als de PlayStation 4-versie, te laten draaien op 1080p met dertig frames per seconde.
Ik vraag mij af in hoeverre dit veel heeft te maken met die 10%. Het lijkt mij dat veel titels rond de 900p draaien en de stap (en behoefte) om naar 1080p te switchen wel iets hoger is dan dat die 10% kan invullen.
Het feit dat veel games nog 900p gebruikte ipv 1080p was vanwege issues met eerdere versies van de SDK, de Xbox One is echter perfect in staat om 1080p beeld te tonen, alleen de SDK had er een update voor nodig, die trouwens is uitgebracht. Het was niet onmogelijk voor games om 1080p te gebruiken voor die aanpassingen aan de SDK, maar het maakte het alleen maar moeilijk.
Anoniem: 524287
@Loller118 juni 2014 17:05
Het feit dat veel games nog 900p gebruikte ipv 1080p was vanwege issues met eerdere versies van de SDK,
Onzin. De ONE is gewoonweg niet zo krachtig als de PS4 waardoor games niet op hetzelfde kwaliteitsniveau kunnen draaien als op de PS4. Games voor de ONE moeten dus aangepast worden zodat ze wel goed draaien en de meest eenvoudige en efficiënte manier is om de resolutie te verlagen. Dit beeld gaat in deze generatie ook niet veranderen, het verschil in hardware is te groot om softwarematig op te lossen, tenzij ontwikkelaars kiezen om (voor een grote zak geld van MS?) de PS4 versie te gimpen.
Moet je nog even een keer goed je eigen bron lezen.

De console is altijd al in staat geweest om 1080p weer te geven, sterker nog, ik durf te wedden dat ze makkelijk 4k aan kunnen! Moet je alleen even zorgen dat je alleen een bolletje rendered in een kleur zonder shaders en dan kan dat zelfs 4k op ruim 60fps worden!

De realiteit is gewoon dat beide consoles (XBOne en PS4) niet krachtig genoeg zijn om de hedendaagse games te renderen op de resoluties dat de mensen willen. Dit zal na loop van tijd wel gaan lopen voor de nieuwere games door optimalisaties in de SDK of dat ontwikkelaars slimmere truukjes bedenken om beter om te gaan met de hardware die ze hebben. Maar om nou te roepen dat een optimalisatie in de SDK opeens magisch alle performance problemen wat betreft 1080p gaat oplossen dat is onzin, en dat geld ook voor beide consoles.
Anoniem: 524287
@Loller118 juni 2014 21:19
M.a.w. je zegt dat al die studio's tegen de pers zitten te liegen, inclusief Microsoft?
Je doet net alsof grote corporaties nooit een andere waarheid vertellen. Niet zo naïef doen. Grote corporaties zoals Microsoft hebben aandeelhouders gerust te stellen. Ze kunnen moeilijk gaan verkondigen dat de ONE hardwarematig gewoonweg een stuk minder krachtig is dan de PS4, want dat betekent zakelijke zelfmoord. Ze kunnen ook niet gaan verkondigen dat de ONE net zo sterk is als de PS4, want iedereen met een beetje kennis van zaken weet dat dat onzin is. Dus wat doen ze: ze komen met verhalen van software tweaks, overclocks, gpu performance dat vrijkomt door Kinect en SDK updates die 'het gat gaan dichten'. Aandeelhouders voorlopig gerust gesteld, mensen die een ONE thuis hebben staan gerust gesteld, Microsoft kan hun huidige koers blijven varen, ook al is het niks anders dan een verkooppraatje zonder enige garantie.
Ik heb ook nergens gezegd dat de Xbox One krachter is dan de PS4, dus waarom begin je daar plots over?
Je reageert op iemand die een vergelijk maakt met de PS4 versie van Destiny. Je komt vervolgens met een excuus waarom de ONE zogenaamd geen 1080p games heeft kunnen spelen.
Daarbij ligt het ook maar net aan hoe efficiënt die kracht wordt gebruikt, krachtiger op papier is leuk, maar het gaat om realiteit
Je klinkt net als een Microsoft PR medewerker.

Het maakt me vrij weinig uit welke console iemand koopt, je moet kopen waar je blij van wordt, maar je moet niet alles geloven wat zonder enig bewijs uit de hoge hoed van Sony en Microsoft (of een ander bedrijf) komt. Die bedrijven interesseren zich vrij weinig om het tevreden houden van de consument en des te meer om het tevreden houden van de aandeelhouders.
Yep; het performance verschil is 'nu' misschien weer iets kleiner, maar ook bij Sony zal men zaken doorontwikkelen, dus het zal nooit gelijk worden.
Dit valt dus wel mee, de tijd dat de verdubbeling van pixels, betekende dat de framerate gehalveerd werd, is al heel lang voorbij. Resolutie begint steeds minder uit te maken, simpelweg omdat er veel meer taken zijn die ongeacht de resolutie, toch moet worden gedaan.

900p tegenover 1080p levert dus lang niet zoveel op als dat je zou denken, ja het is 25% minder pixels, maar de performance boost is misschien dus maar 10%. Bij een spel zoals CoD: Ghosts is dan ook gekozen voor 720p, zo'n 50% minder pixels. Daarbij moet wel gezegd worden dat Ghosts ongelooflijk slecht met resources omgaat, en omdat Ghosts scripted enz is, zijn dingen zoals de physics erg simpel. Al met al zal verlaging van pixels daar een groter effect hebben dan bijvoorbeeld een Battlefield.

Wat betreft je punt over de kracht, dat klopt gewoon. De PS4 is gewoon een stuk krachtiger, die 10% waar ze het hier over hebben is leuk, maar maakt echt het verschil niet.
Vreemd dat de reactie van Persei84 een -1 gekregen heeft, want hij heeft gewoon gelijk. De Xbox One heeft niet alleen veel trager geheugen (wat deels verholpen wordt door 32MB ESRAM) en een zwakkere GPU. Door de resolutie van een game te verlagen is het makkelijker om de graphics in de krappe SDRAM-buffer te stoppen om van een hogere verwerkingssnelheid te profiteren en is er tegelijkertijd minder GPU-performance nodig.

Klopt.

Ik ben het ook met Persei84 eens dat het verschil in krachtsverschil blijft bestaan. MS kan proberen om aan de softwarekant met SDK- en driveroptimalisaties de beeldkwaliteit van Xbox One-games te verbeteren, maar dat doet Sony ook voortdurend. De hardware, daar valt niets meer aan te veranderen. Met die erfenis heeft MS zichzelf opgezadeld door een gamesconsole te ontwikkelen die ook geheugenslurpende Windows-apps zou moeten kunnen draaien. Dit leidde er uiteindelijk toe dat de Xbox One geen videoRAM aan boord kreeg maar gewoon RAM. Om het dramatische verlies aan bandbreedte op te lossen werd een 32MB ESRAM-buffer in de gecombineerde CPU/GPU-chip toegevoegd. Om de chip niet te groot te maken, zijn componenten van de GPU verwijderd. Hierdoor zullen X1-games altijd onderdoen tov PS4-games. Het "geluk" dat MS heeft is dat het krachtsverschil vooral tot uiting komt in de resolutie van een game. Er zullen genoeg Xbox-fans zijn die dat nadeel voor lief nemen omdat ze stemcommando's en dans/fitness-games belangrijker vinden dan de beste beeldkwaliteit.
Daarbij vraag ik me af hoeveel zin het heeft om naar 1080p te wisselen. Het is wel leuk en aardig dat de resolutie wordt verhoogd, maar als je vervolgens allerlei grafische toeters en bellen uit moet schakelen om een stabiele framerate te krijgen heb je er geen klap aan natuurlijk.

Ik ben sowieso benieuwd wat het met het energieverbruik doet; zowel de CPU als GPU zijn al overgeklokt. Hopelijk heeft Microsoft hier rekening mee gehouden tijdens het ontwerpen van de netvoeding ...
Sterker nog, voor zover ik weet is nooit bevestigd dat Destiny op 1080p gaat draaien op de X1, dus ben benieuwd wat de bron van Tweakers is (het staat in elk geval niet in de gelinkte post).
"Door deze optimalisatie van de verdeling van de gpu-rekenkracht kunnen ontwikkelaars volledig zelf bepalen hoe ze het extra geheugen van de Xbox One gebruiken"

hoe is de gpu-rekenkracht gerelateerd aan het geheugen?
De GPU heeft geen eigen (dedicated) geheugen, vandaar dat het systeem-RAM wordt gebruikt. Minder of traag geheugen resulteert dan in lagere prestaties.
niemand spreekt toch over minder of trager geheugen? er staat "rekenkracht".
Ik vind dit een goeie keuze van microsoft, waarom zou je die 10% niet gebruiken als je toch geen gebruikt maakt van de kinect.

Is bijna een vergelijking alsof je tijdens het spelen van een game op de PC ook een bluray stream in vlc en 80 tabbladen in chrome open moet hebben staan :P

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee