Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 287, views: 68.331 •

De nieuwe Xbox zou een always-on-internetverbinding vereisen om piraterij tegen te gaan. Daarnaast zou de opvolger van de Xbox 360 twee AMD-gpu's en een multicore-cpu krijgen, evenals een blu-ray-drive.

Dat meldt de website VG247 op basis van anonieme bronnen. Microsoft zou enkele partners meer details hebben gegeven van de hardware van de Xbox 360-opvolger. Ook zou de consolemaker hebben bevestigd dat de spelcomputer, die misschien Xbox 720 gaat heten, eind 2013 op de markt moet komen.

In tegenstelling tot eerdere geruchten, waarin een gpu op basis van een AMD Radeon HD 6670 werd genoemd, zou de console volgens VG247 voorzien zijn van twee AMD-gpu's, met een rekenkracht die vergelijkbaar is met de AMD-gpu's uit de 7000-serie. Bovendien zouden de twee gpu's niet werken in een 'klassieke' crossfire-opstelling, maar afzonderlijk bepaalde objecten renderen.

De 'Xbox 720' zou verder uitgerust zijn met een niet nader gespecificeerde cpu die vier of zes rekenkernen telt. Eén core zou specifiek voor een nieuwe generatie Kinect-spelaansturing zijn gereserveerd, terwijl een tweede core voor het besturingssysteem is bedoeld. Verder zal de tweede generatie Kinect-hardware deels in de console zijn opgenomen.

Opmerkelijk is verder dat de Xbox 720, die intern de codenaam Durango zou dragen, volgens de nieuwste geruchten toch een blu-ray-drive krijgt.

Reacties (287)

Reactiefilter:-12870258+1186+28+30
1 2 3 ... 11
Xbox 720 gaat hij zeker niet heten.

Bovendien is de anonieme bron deze:

http://pastebin.com/j4jVaUv0

Het vreemde ervan is, is dat deze post al uit medio december 2011 is en dus meer en meer waarheid lijkt te worden, want recentelijk komen er een aantal berichten naar boven die deze post op pastebin ondersteunen (beide codenames in elk geval en nu ook dit online authenticatie en Blu-Ray verhaal).

Als de specs die deze anonieme bron gepost heeft dus ook waarheid blijken te zijn is het overduidelijk dat de nieuwe Xbox de veel betere specs heeft de volgende gen. Nu ook Eurogamer vandaag probeert duidelijk te maken dat Sony coute que coute eerder wil uitkomen volgende gen (om marktaandeel te kunnen vergaren) en daarmee achterwaartse compatibiliteit achterwege laat lijkt dat ook gewoon waar te zijn (duidelijk ook in de post op pastebin staat dat de developers en publishers hier negatief op reageren).

PS
Ik denk trouwens niet dat je hoeft te vrezen voor always on DRM. MS weet dondersgoed dat je het niet kan forceren (kijk maar naar de Ubisoft games op de PC die dit hebben en tal van problemen hebben met connectieverlies) Het zal, denk ik, net als de serials gekoppeld aan je GamerTag, een optie zijn voor de volgende gen om te kunnen gebruiken door ontwikkelaars en publishers. Wat er allemaal van doorgevoerd zal worden zullen we nog wel zien.

Ook denk ik dat het dual GPU verhaal ook best waar kan zijn. Je bespaart op die manier kosten (hogere yields bij minder krachitge en minder complete chips) en ook stroom want je kan er 1 uitschakelen bij bijvoorbeeld een XBLA (of Xbox 360) game die er geen gebruik van maakt.

[Reactie gewijzigd door Thief op 2 april 2012 18:05]

Ik denk niet dat deze geruchten ergens op slaan. Onder andere het gedeelte dat er een 4 of 6 core CPU is waar bij 2 cores al meteen gereserveerd zijn voor het OS en voor kinect is raar ten opzichte van de huidige XENON quad core waar bij 1 thread gereserveerd is voor het OS, hoezo ineens een hele core, zou de nieuwe CPU geen hyper-threading variant heben? Dat lijkt me raar aangezien vorige geruchten uitgingen van weer een PowerCPU.

Ook een dual GPU opstelling lijkt me erg onwaarschijnlijk omdat deze meer ruimte nodig heeft en meer hitte oplevert dan een enkele krachtigere GPU. Het voordeel wat aangegeven wordt met een speciale render mode waarin beide GPUs apparte objecten renderen lijkt me in te gaan tegen hedendaagse render technieken. Als beide GPUs appart objecten gaan renderen hoe doe je dan culling en occlusion tests?

[Reactie gewijzigd door roy-t op 2 april 2012 18:40]

Ik denk ook dat het een Power architecture (7?) CPU zal zijn (mede om volledige compatibiliteit met Xbox 360 en XBLA games te houden, anders zijn je huidige digitale aankopen ook waardeloos op de volgende console).

Ik geef je gelijk dat het waarschijnlijk om threads zal gaan, Power7 heeft zelfs 4 threads per core. Maar ook al is er 1 thread van die core gebruikt, dan is alsnog die core in gebruik (dus hij is niet geheel fout in zijn terminologie).

Maf vind ik inderdaad dat de Kinect alsnog via de CPU zal lopen, vooral omdat dat nog steeds de enige lag zal geven die we nu ondervinden (tenzij dat met bandbreedte is opgelost zonder compressie - USB3?) Wie weet is hierdoor de accessoire goedkoper?

Als het 2 mid-range GPU's zijn maken ze minder warmte en zijn ze goedkoper dan een high end chip (door hogere yields).
Wat betreft je vraag - Je weet dat je CPU assisted rendering kan doen (enigszins zelfde als met de PS3 nu), daarmee kan je de CPU die taken laten gouverneren en toch het renderen van objecten over de GPU('s) laten lopen, zeker als er voldoende threads op de CPU (Power7) aanwezig zijn moet dit geen probleem zijn.

[Reactie gewijzigd door Thief op 2 april 2012 19:09]

Als het 2 mid-range GPU's zijn maken ze minder warmte en zijn ze goedkoper dan een high end chip (door hogere yields).
Tegen de tijd dat deze hardware in productie genomen wordt is het gebruikte productieproces al lang volwassen, en daar komt ook nog bij dat mid-range tot low-end GPU's maar erg weinig last hebben van lage yields. Hoogstens in de eerste maanden van productie als het slecht gaat, maar aangezien een console vele jaren meegaat lijkt me dat dus insignificant vergeleken bij de extra problemen die je je met twee GPU's op je afroept. Wat roy-t zegt zegt al genoeg: het is zo simpel niet om het werk even over twee GPU's te verdelen en we weten allemaal hoe lang AMD en NVidia al bezig zijn met crossfire en SLI te optimaliseren.

Er is ook geen enkele reden om te stellen dat twee kleinere GPU's minder warmte produceren dan één grotere, het geheel blijft even veel verbruiken. Eigenlijk zelfs meer vanwege onderdelen die nu dubbel uitgevoerd moeten worden. Terugklokken is véél eenvoudiger en heeft geen nadelen, i.t.t. moeilijk gaan doen met twee GPU's.

[Reactie gewijzigd door bwerg op 2 april 2012 19:32]

Besef wel, het zijn de specs van devkits van binnenkort (misschien wel nu want de post is uit december).
Als je nu kijkt hebben de mid-range chips (waaronder high-end chips met disabled cores) wel degelijk hogere productie opbrengsten dan van de high-end varianten. Verder geef ik je wat dat betreft helemaal gelijk, naarmate een productieproces vordert zijn yields minder problematisch (hoewel 28nm nu nog erg jong is).

Besef ook dat de beschreven rendering techniek niet dezelfde is als Crossfire of SLI in je huidige PC. AFR is ook simpel en leidt tot de minste performance problemen of tearing, wie weet gaat het ook gewoon daarom, de post specificeert helaas niet verder.
Ik zit even te zoeken naar CPU assisted rendering en hoe dat zou werken maar ik kan er met een simpele google search iig niets over vinden, heb je misschien links, lijkt me erg interessant :).
Ik zou dan gewoon zoeken op GPU (assisted rendering) en VPU als ik jou was. Als je ervaring hebt met programmeren dan weet je dat je specifieke renderingtaken ook naar de CPU kan toewijzen (dat was vroeger alleen maar zo voordat de GPU en DirectX hun intrede deden en langzamerhand zijn al die mogelijke functies door de GPU overgenomen). Bovendien verdiep je dan eens in de PS3, die offload ook rendering naar de Cell CPU SPEs.
Hoe MS dit zou moeten implementeren is niet aan mij, de APIs op de console zijn sowieso iets gemodificeerd tov de PC. Net zoals ik al zei tegen bwerg, de post specificeert niet hoe de rendering specifiek werkt want mijnsinziens zou het gewoon AFR kunnen zijn.
De Xenon is een triple-core CPU ;)

Voor de rest heb je volledig gelijk, specs klinken wat ongeloofwaardig en nutteloos voor een console.

Twee GPU's? Waarom zouden ze dat doen, kostprijs is meestal hoger en prestaties lager als een enkele snellere GPU, tenzij de GPU's zo groot zijn dat een nog grotere niet te produceren is, maar dat is ook onwaarschijnlijk voor een console.

Wat betreft de tweede GPU die apart zou werken, het enige wat ik me voor kan stellen is dat ze dit zouden doen zodat de GPU ingezet kan worden voor compute oplossingen: physics, AI, etc.


AMD CPU? Dan verliezen ze inderdaad backwards compatability met alle Live Arcade games en met oudere spellen, ik verwacht inderdaad ook dat ze eerder voor een Power processor zouden gaan.


@roy-t (hierboven) - Lucid Technology maakt bijvoorbeeld diverse "CPU assisted rendering" oplossingen.

[Reactie gewijzigd door knirfie244 op 3 april 2012 09:16]

Xbox 720 gaat hij zeker niet heten.

Waarom denk je dat? In de film 'Real Steel' (die zich in de toekomst afspeelt) adverteert XBOX wel met de naam XBOX 720. Zal dus niet geheel ondenkbaar zijn.
Mag hopen dat je niet serieus bent...je kan toch wel een geimproviseerde reclame in een Sci-Fi film begrijpen?
De advertentie in die film (die zogenaamd in de nabije toekomst afspeelt) was fake. In die film is Xbox 720 gekozen omdat iedereen maar aanneemt dat de opvolger van de Xbox 360 zo heet. Bovendien was het logo in die reclame gewoon die van de Xbox 360.
Het was niet meer om het merk Xbox te promoten in die film, net als Mercedes Benz en Coca Cola in diezelfde afbeelding.
Hij gaat zeker weten niet zo heten omdat mensen het teveel zouden associeren met 720p en daarmee niet full HD of anders "future proof".

[Reactie gewijzigd door Thief op 3 april 2012 18:54]

Lekker offtopic, maar de 'new Xbox' zal waarschijnlijk geen Xbox 720 heten omdat dat geassocieerd gaat worden met de 720p resolutie, iets wat nadelig zal zijn in het Full HD tijdperk :)
Xbox 1080 (ten eighty) vind ik beter passen en leuker klinken.

(1080p en 3x zo snel als de 360)

Of de 4 Pi Radian kan natuurlijk ook :P.
HD is tegenwoordig al zo achterhaald, Xbox 3D 8-)

Ik hoop heel erg van niet... :/
Idd, ze gebruiken het zelfs voor tandpasta.

Xbox 3D met 3D Kinect
Gewoon weer back to 2000, Xbox XP.

Maar mij lijkt het beste gewoon Xbox³
Of ze gaan "Apple".

The name of the new xBox is: Xbox.
Niet bepaald iets van Apple alleen. Games die weer gewoon de originele naam krijgen (zonder toevoegingen etc),
Lijkt mij XXXbox eerder iets. Drie maal x voor 3e box.

Alleen die associatie met natuurfilms dan he?
xbox 4k? 4k resolutie wss tegen dan ...
Dat redden ze waarschijnlijk voor de textures nog niet eens, laat staan het framebuffer voor normale gaming.

Technisch gezien zullen de volgende consoles waarschijnlijk wel 4k output kunnen leveren, al is het maar voor foto's. Maar om een game in die resolutie te renderen is gewoon niet te verwachten. 1080p met leuke effecten gaan ze een hele kluif aan hebben.
720 : 24/7 klinkt toch beter als MS Xbox-slogan ;-)

Excuus... dat was dus niet zo origineel als ik dacht. Voortaan eerst maar alles doorlezen.

[Reactie gewijzigd door p.habo op 3 april 2012 00:19]

Ze hadden hem dan beter Xbox 247 kunnen noemen. Kunnen ze wel gelijk een Xbox storage-cloud maken, waarbij je van andere Xboxen content kunt downloaden.
of xbox 365, past mooi bij office 365 ;)
of gewoon....... the new xbox..
crashbox? Iemand?

Je gaat me niet vertellen dat het hebben van een dual gpu geen problemen gaat opleveren met de huidige xbox 360 games. Ik wens ze veel succes met het uitdokteren daarvan. Zal ze wel een hoop centen kosten.

anyways, niet dat ik er slecht over wil praten. In theorie zou het prachtig zijn, maar dan wel zonder problemen a.u.b.
Mwoa, eerst zien, dan geloven. Geruchten zijn nu eenmaal geruchten.

Laten we allemaal rustig afwachten wat de toekomst brengt. Al dat speculeren schept valse hoop op functionaliteit die wellicht niet geïmplementeerd wordt.
AMD-gpu's in sli?
Scalable Link Interface (SLI) is een methode om twee of meer videokaarten te laten samenwerken om een enkele uitvoer te produceren.

Dat amd dat crossfire noemt is een ander verhaal :)
Staat SLI niet oorspronkelijk (Voodoo 2) vr scan line interleaving?
Scan Line Interleaving:

Twee GPU's rekenen tegelijk een beeld, waarbij 1 GPU de oneven lijnen berekend, en de ander de even lijnen per frame.


Scalable Link Interface:

SFR - Split Frame Rendering: Twee GPU's berekenen ieder de helft van het beeld per frame.

AFR - Alternate Frame Rendering: Twee GPU's berekenen ieder om de beurt een volledig frame
naar alle waarschijnlijkheid wel ja :)

http://en.wikipedia.org/wiki/SLI

SLI may stand for:
  • Scalable Link Interface, NVIDIA's method for connecting two or more video cards together to produce a single output
  • Scan-Line Interleave, 3dfx's method for connecting two or more video cards together, predecessor to Scalable Link Interface
beide dus.....
Echter zoals in het artikel al staat beschreven is zo'n dergelijke interface en Rendering methode niet nodig aangezien de twee gpu's afzonderlijk van elkaar kunnen renderen. Bij de PC kan men dit (nog) niet doen, aangezien de games ook compatibel moeten zijn met single gpu systemen(en de meeste hebben dit laatste ook). Bij een console hoeft dit niet aangezien iedere Xbox 720 twee gpu's zou bevatten. Ontwikkelaars kunnen dus een spel dus van begin af zo programmeren dat verschillende taken zo efficient mogelijk over de twee gpu's verdeeld worden. In theorie is met deze methode dan ook een prestatiewinst van meer dan 200% mogelijk, zolang beide gpu's toegang hebben tot hun eigen geheugen en de rest van het systeem geen bottleneck vormt.

Ik heb me er dan ook eigenlijk altijd over verbaast waarom er niet eerder een console fabrikant is geweest die dit concept heeft gebruikt, bij een efficiënte programmering zijn twee mid range chips sneller en vaak ook goedkoper dan een high end chip bij welke de laatste soms ook nog niet helemaal goed door ontwikkeld is.

[Reactie gewijzigd door TheDukemaster op 2 april 2012 19:30]

Klopt helemaal.

Het was een techniek van 3dfx om 2 videokaarten als volgt samen te laten werken: De ene kaart berekende de even beeldlijnen, de andere kaart de oneven, en middels interlacing werd het resultaat samengebracht tot een enkel beeld.

Omdat SLI niet meer concreet draait om deze manier van beelden opbouwen, maar ze ook bijvoorbeeld omstebeurt een frame kunnen renderen (welke ik geloof zelfs de default manier is tegenwoordig) heeft nVidia het omgedoopt tot Scalable Link Interface.

De term blijft echter nog steeds een nVidia term, en bij AMD heet het Crossfire. Overigens staat in het artikel dat de GPUs niet samen zullen werken zoals we gewend zijn in Crossfire en SLI, maar op andere manieren dan puur op het verdeeld berekenen van complete beelden of lijnen.
Xbox met AMD's en ik las pas Sony ook met AMD (ipv hun eigen Cell structuur) ???

Ligt AMD zo goed in de race met zijn CPU's voor spelcomputers ? Op die manier konden ze wel eens een heel groot marktaandeel gaan scoren en dat is natuurlijk weer leuk voor de PC's tak. Lijken straks die spelcomputers toch nog op elkaar ?

Ik denk dat ze er toch achter zijn gekomen dat het voor programeurs toch makkelijker is om op die soort cpu/gpu's te werken. Plus poorten zou natuurlijk een stukkie makkelijker moeten gaan naar de PC ;)

[Reactie gewijzigd door bonus op 2 april 2012 17:11]

De cell cpu's in PS3's zijn toch van Intel en niet een eigen structuur van Sony?
De cell cpu's in PS3's zijn toch van Intel en niet een eigen structuur van Sony?
nee, van sony, motorola en IBM.
Samenwerking van IBM en Toshiba.

[Reactie gewijzigd door Dreamvoid op 2 april 2012 18:01]

Sony, IBM en Toshiba.
Zijn tot nu toe allemaal alleen maar geruchten, ik zou er niet te veel waarde aan hechten.

Dat Microsoft een console met min of meer standaard AMD CPU's en GPU's gaat gebruiken zou nog best kunnen, hoewel het me niet voor de hand lijkt liggen in verband met backwards compatibility, een 360 emuleren met een x86 CPU zie ik namelijk niet echt gebeuren binnen 2 jaar, zeker niet met hardware die in een console kastje moet passen. Dus ofwel MS geeft gewoon een dikke vinger aan iedereen die zijn oude 360 games nog wil spelen (zou kunnen, hebben ze met de 360 eigenlijk ook gedaan maar die had dan ook een andere architectuur dan de Xbox 1), ofwel er komt gewoon weer een PowerPC in de volgende Xbox.

Dat Sony voor een x86-based architectuur zou gaan lijkt me heel erg sterk, volgens mij heeft elke Sony console uit de geschiedenis altijd al hele specifieke en afwijkende hardware gehad, ik denk niet dat ze daar nu veel van af zullen wijken. Knal gewoon 2x een verbeterde versie van de huidige Cell CPU erin, zelfde supersnelle geheugen maar dan 4x zo veel, en deze keer een fatsoenlijke GPU en dan ben je er al. Het grootste 'probleem' van de PS3 is het beperkte RAM en de matige GPU, voor de rest (CPU en RAM) is het nog steeds redelijk high-end vergeleken met huidige x86 processors, in ieder geval voor game toepassingen.

Edit @Iblies:
De software is niet zo bijzonder nee, in ieder geval het OS en de meeste zaken daar omheen niet. Draait grotendeels gewoon op de PowerPC core die in de Cell CPU zit. Vandaar ook dat het weinig moeite kost om daar unix op te draaien. De GPU is praktisch gelijk aan een desktop NVidia kaart, dus dat is ook vrij standaard, hoewel Sony er wel een behoorlijk gemodificeerde OpenGL ES versie op draait (de PS3 gebruikt dus geen standaard full-blown OpenGL). Voor de rest is de hardware van de PS3 behoorlijk apart en afwijkend, met 2 soorten geheugen die verschillend geadresseerd worden, enorme geheugen bandbreedte en vrij extreme vector performance. Zet 6 SPE's tegelijk aan het rekenen en ze trekken zomaar even de slordige 25 GB/s geheugen bus dicht. Om een beetje fatsoenlijk gebruik te maken van al die reken kracht moet je als ontwikkelaar dus wel degelijk op een heel laag niveau voor de hardware optimaliseren door rekentaken en geheugen acties heel secuur te schedulen en op een creatieve manier met het totaal aan geheugen omgaan (512 MB trouwens, itt tot wat veel mensen denken zijn beide banken van 256 MB voor meer dan alleen de GPU te gebruiken, zij het via omwegen).

Ik denk dat je dus best kunt stellen dat de PS3 een behoorlijk vreemde eend in de bijt is, en niet te vergelijken met een x86 systeem.

[Reactie gewijzigd door johnbetonschaar op 2 april 2012 19:47]

Sorry, maar de software op de playstation 3 is niet zo uniek als men je wilt laten geloven.

Er wordt aangegeven dat het een variant is van freebsd icm met een openGL variant. Ik zie niet in waarom dat nu niet kan gebeuren. Zelfs de zo unieke processor was niet zo complex om er unix op te draaien.

Het kan natuurlijk zijn dat een iets aangepaste apu wordt gevraagd omdat een deel niet nodig zal zijn voor een spelcomputer, maar een compleet nieuwe processor met daarbij behorende language, daar geloof ik niet in. Het zal een doorontwikkeling zijn van wat er nu al beschikbaar is.

Zo zie ik het gebeuren een x86 based apu zonder de hele rits instructiesets als mmx en sse maar dat ze daarbij op het gpu-deel rekenen en vervolgens ook zo laten programmeren. Je hebt zowel cuda en openCL dat daarvoor geschikt is.

Vergeet ook niet dat de huidige intel/amd apu's en arm soc's de zuinigste zijn die de markt te bieden heeft op dit moment. De fout die ze eerder hebben gemaakt met hun kleine kacheltles zullen ze zeker niet herhalen.
Zo zie ik het gebeuren een x86 based apu zonder de hele rits instructiesets als mmx en sse maar dat ze daarbij op het gpu-deel rekenen en vervolgens ook zo laten programmeren. Je hebt zowel cuda en openCL dat daarvoor geschikt is.
Als je het over heethoofden hebt kun je IMO veel beter voor ARM SOC's kiezen, zeker als het vector rekenwerk op de GPU gedaan wordt.
Vergeet ook niet dat de huidige intel/amd apu's en arm soc's de zuinigste zijn die de markt te bieden heeft op dit moment. De fout die ze eerder hebben gemaakt met hun kleine kacheltles zullen ze zeker niet herhalen.
De ARM SOC's zijn de zuinigste die de markt te bieden heeft de Intel/AMD APU's niet.
Een standalone APU zal geen optie zijn voor een game console die zijn veel te langzaam.
De grootste kachel in een game console is nog altijd de GPU.
Dat Sony voor een x86-based architectuur zou gaan lijkt me heel erg sterk, volgens mij heeft elke Sony console uit de geschiedenis altijd al hele specifieke en afwijkende hardware gehad, ik denk niet dat ze daar nu veel van af zullen wijken. Knal gewoon 2x een verbeterde versie van de huidige Cell CPU erin, zelfde supersnelle geheugen maar dan 4x zo veel, en deze keer een fatsoenlijke GPU en dan ben je er al. Het grootste 'probleem' van de PS3 is het beperkte RAM en de matige GPU, voor de rest (CPU en RAM) is het nog steeds redelijk high-end vergeleken met huidige x86 processors, in ieder geval voor game toepassingen.
De kans dat er een Cell in een Playstation komt is zo goed als 0.

Om de volgende redenen:
nieuws: Sony verkoopt chipfabriek aan Toshiba
nieuws: IBM staakt ontwikkeling Cell-processors
nieuws: Sony wil Cell-fabriek kopen van Toshiba

De Sony playstations PS1, PS2 en PSP hadden een Mips processor, de PS3 een PPC Cell en de PSP Vita een ARM.

Een echte reden om bij de PPC te blijven is er niet. Want een standaard PPC kan geen Cell emuleren.
Dat Microsoft een console met min of meer standaard AMD CPU's en GPU's gaat gebruiken zou nog best kunnen, hoewel het me niet voor de hand lijkt liggen in verband met backwards compatibility, een 360 emuleren met een x86 CPU zie ik namelijk niet echt gebeuren binnen 2 jaar, zeker niet met hardware die in een console kastje moet passen. Dus ofwel MS geeft gewoon een dikke vinger aan iedereen die zijn oude 360 games nog wil spelen (zou kunnen, hebben ze met de 360 eigenlijk ook gedaan maar die had dan ook een andere architectuur dan de Xbox 1), ofwel er komt gewoon weer een PowerPC in de volgende Xbox.
Als Microsoft wel voor een PPC kiest met een AMD GPU dan kunnen ze de XBOX 360 games zonder enige problemen kunnen emuleren waardoor ze direct een streepje voor hebben t.o.v. het concurrerende Sony device.

[Reactie gewijzigd door worldcitizen op 2 april 2012 22:20]

Volgens mijn bron gaat Sony wel degelijk voor een x86 van AMD. En nee, ik geef geen details vrij over mijn bron. Overigens zie je sites als Kotaku die hetzelfde zeggen. Die gaan echt niet over een nacht ijs. http://kotaku.com/5896996...-say-here-are-the-details

Verder is het zeer waarschijnlijk dat MS ook van PPC af stapt, omdat IBM al een tijdje niets meer met PPC doet. En AMD die zich compleet teruggetrokken heeft uit de fabs, geeft ook aan dat het verkopen van designs geen verlies oplevert, omdat ze geen verplichtingen meer hebben tegenover Global Foundries.
Nieuwe Xbox vereist always-on-internet
Dit lijkt me dus redelijk onwaarschijnlijk gezien het grote "succes" van recentelijke games met deze techniek.
Mijn Xbox hangt nu al permanent aan het internet, ik zie het probleem niet. Daarnaast kunnen ze vast zien dat mijn Xbox aan staat, hoe vaak hij aan staat en welke games ik speel. Ik wens ze enorm veel plezier met die informatie. Het lijkt me dat er ook vast wel een oplossing is wanneer je internet even niet beschikbaar is, denk hierbij aan Steam.

[Reactie gewijzigd door Dubbeldrank op 2 april 2012 16:26]

Ik denk dat je ervan zou verschieten hoeveel consoles niet aan het internet hangen hoor. Of toch niet permanent ! Lijkt me een vreemde stap van Microsoft en ik denk dat er niet veel van aan is... :)
Precies, het is nog zo ver weg. Dit zijn allemaal geruchten, uiteindelijk zie je toch dat zoals in de meeste gevallen dat het wat genuanceerder ligt. Het lijkt me enorm sterk dat Microsoft een always-on internetverbinding verplicht zonder offline mode, dan snijden ze zichzelf in de vingers.
Precies een console sluit je toch voornamelijk aan op je televisie en niet iedereen heeft een internet aansluiting bij zijn televisie of je moet het draadloos doen maar dat zijn niet echt de meest snelste en stabiele verbindingen De geruchten over de nieuwe playstation zijn ook leuk. Tweedehands games vinden ze nog erger dan piraterij
http://www.gamekings.tv/n...n-4-heeft-codenaam-orbis/

[Reactie gewijzigd door Ryuukami op 2 april 2012 17:23]

jouw Xbox wel, de mijnes niet, wat als internet wegvalt (storing) of je neemt de Xbox ergens heen waar geen internet is, nee zoiets zouden ze nooit doen,
Mogelijke problemen:
  • Nederland is een van de best bedeelde landen qua breedband, maar dat geldt niet voor ieder land
  • Als je internet een keer uit valt dan kan je direct geen spelletjes meer spelen
  • Voor bepaalde beroepsgroepen (soldaten gestationeerd op een basis, zeelui) is internet ook niet vanzelfsprekend.
  • Als de server plat gaat, om welke reden dan ook, dan liggen alle spelers er direct uit.
Nadelen zat hoor. Echt niet iedereen gaat hier blij mee zijn.
Geen enkele speler gaat hier blij mee zijn...

Het is alleen maar weer een veel te zware controle maatregel waarmee men probeert het inkomen te beschermen van de uitgevers.

Nu snap ik ook wel dat console bouwers ervan bouwen dat hun platform binnen weken gekraakt zal zijn en ontwikkelaars zich zorgen gaan maken omdat uitgevers opeens hun gouden bergen zien verdwijnen.

Liever zie ik daarom dat men met een goede online winkel komt en er éénmalig controles komen en "lease periods" die ervoor zorgen dat als de verbinding weg valt, je nog een dag of 2 door kunt spelen. Natuurlijk een systeem dat men wil kunnen misbruiken voor een crack, maar ik zou zeggen, gooi nog wat ontwikkelingstijd tegen goede encryptie en een alternatieve opslag methode aan als je zo nodig iets onkraakbaars wilt maken.

De enige optie om deze onzin te stoppen is door het ding niét te kopen. Maarja, dat willen velen ook niet, er wordt te makkelijk gezwicht voor de hype en reclame...
andere optie is games goedkoop maken! voor 5 euro koop je een nieuwe game.
kijk dan eens hoeveel games er verkocht worden en dan druk je piraterij de kop in.
dat zie je ook in azie daar kosten games geen 40/50 euro
Inderdaad, dat blijf ik ook een goed argument vinden, maar met een nieuwe console zal dat niet altijd zo simpel zijn. Ik snap best dat ontwikkelaars hun nieuwe development kit moeten terugverdienen en microsoft wat inkomsten wil voor de ontwikkeling van het apparaat.

Maar daarna is het inderdaad tijd om de prijzen wat omlaag te gooien. Het is ook simpelweg de reden dat ik bij PC games blijf. Waar console versies vaak 45-60 euro kosten, betaal ik tussen de 20-50. En dan heb ik het over nieuwe titels die ik gewoon snel binnen wil hebben. Maar ook aanbiedingen voor de PC zijn er eerder. Dat plus het feit dat ik niet van gamepads houdt en liever high end graphics bekijk.
Dat ze daar niet aan hebben gedacht! Miljoenen aan ontwikkelkosten (we hebben het vaak niet over die flutspelletjes voor je telefoon) terugverdienen met 5 Euro het stuk gaat hem niet worden. Zo duur zijn games overigens niet; niet duurder dan games waren in de jaren 90, en als je even wacht kun je ze al voor 30 tot 40 Euro oppikken.
en ook weer een apparaat dat je misschien straks niet meer uit kan zetten (standby).
Laat nou de console de verbindi ng checken s'nachts.
Langzaam komen er meer spullen bij die of online moeten of niet meer fysiek met een knop kunt uitzetten.(zonder standby killer)

Maar goed niet iedereen gamed online
Het gaat om een always-on internet verbinding, er staat helemaal niet dat het een console is die niet uit kan. Trouwens, de 360 gaat op dit moment ook niet voor 100% uit, wanneer je deze uit zet, dus daar zal niet veel veranderen.
ik weet zeker dat mijn xbox 360 wel 100% uit gaat

stekker eruit :P
ik refereer naar het feit dat het aalwys-on internet dus ook standby moet aanstaan om verbinding te behouden.
Wil nog wel eens gaan lanen bij m'n scouting vereniging.. geen internet daar..
2 beamers + 2 xboxen = 8 spelers met goede games dan
Ooit van computer schermen met hdmi ingangen of hdmi <-> dvi connectoren gehoord? 8)7

Nieuwe xbox gaat hem niet worden als deze aan het internet moet hangen, ik gebruik dat ding juist eigenlijk alleen als het internet er uit ligt. En steam werkt ook niet echt fijn offline -moest bv via een omweg mijn spellen starten. ;(
De tijd dat je daar een TV voor moest hebben is wel enkele jaren over hoor...

Het begrip TV is ook steeds dichter naar een computerscherm gekropen. Computerscherm + (meestal) extra grootte + TV-tuner = TV (even exotische panelen buiten beschouwing gelaten).

[Reactie gewijzigd door BDHowner op 2 april 2012 18:30]

Dat jij je XBOX permanent aan het internet hebt hangen, dat is leuk voor je, maar bij de huidige generatie is dit niet vereist en ook niet iedereen zal dit ook doen.

Wanneer zij dit wel bij de volgende generatie gaan eisen, dan word je gedwongen om dit altijd te doen omdat je Xbox mogelijk anders totaal niet werkt. Dan kunnen ze je altijd als jij online bent monitoren en mogelijk pakken op het gebruik van homebrew of andere illegale software.
Ja, leuk ook als je een grote storing van je provider hebt en denkt... laat ik eens lekker een potje gaan gamen!

Ik ben geen voorstander van een MOET online functie.

Doe dan hooguit een kleine verplichte installatie met online benodigdheden voor controle wel/niet in orde. En daarna gewoon zonder internet. (Wat uiteraard ook weer problemen opleverd voor mensen zonder internet).

Zie ze straks nog eens met serienummers komen haha.. :(
Zie ze straks nog eens met serienummers komen haha.. :(
Dat is nu toch al zo?! Bijna elke console game komt tegenwoordig met een serial om multiplayer te activeren.
Ja maar ik doel op Singleplayer ;)

Multiplayer speel ik bijna niet meer, niet omdat ik het niet leuk vindt, maar vind het vooral leuk met mensen die ik ken... en tsja..
Dat is op zich niet eens zo lastig. STEL dat de nieuwe Xbox 360 Kinect ingebouwd heeft zitten. Nieuwe games hebben dan gewoon een barcode voor de serial. Even voor de camera houden en hoppa geactiveerd.

Even het irritante koppelen daargelaten. Ik verkoop mijn console-games graag door zodra ik er klaar mee ben.
Vind het een zeer goed idee, Maar je zou zoiets makkelijk kunnen printen etc. Al zou je unieke keys gebruiken op de disks.

Vind de always connected dan een veel beter en veiliger concept tegen piracy.
Ik heb mijn xbox ook altijd aan het internet, die verplaatst niet.
Wat als ik een internet storing heb? Kan ik de xbox niet meer gebruiken.
Wat als ik verhuis? kan ik de xbox niet gebruiken aangezien het internet 9 van de 10x later is als wanneer je er zit.
Wat als ik mijn xbox bij opa en oma neer zet voor de kleine kids ( jih toevallig hebben hun een ziggo alles in 1), hebben ze dat niet pech.
Wat als je hem mee neemt naar een vakantie huisje waar geen internet is?
Zo vermeld iemand hier al eerder dan mij:, wat als je een lan party hebt, even met 100 xboxe het internet op -.-

Ik kan zoveel redenen bedenken waarom ik de xbox ook zonder internet wil kunnen gebruiken..

Ik vraag me af tot hoever het verplicht is internet te hebben en of dat niet gewoon een speculatie van een speculatie is.

Niet handiger om een serial erbij te leveren wat je dient in te voeren? Wat dus echt gebonden is aan de game zelf. Zodat je niet games kan uitlenen of verkopen tenzij je de code ontbind van jou account?
Er zijn toch zeker wel betere mogelijkheden ipv ''internet is een vereiste'' gaat me net een beetje te ver -.-

[Reactie gewijzigd door JeroenC op 2 april 2012 18:25]

De beste reden blijf ik die van mezelf vinden. Ik speel spelletjes alleen of met vrienden gewoon lokaal op mijn Xbox. Wat heeft het voor mij van toegevoegde waarde om deze te verbinden met het internet? Eigenlijk helemaal niks... Updates? De Xbox updates komen bij de games en persoonlijk is mijn game ervaring bij een game update nooit echt verbeterd oid (al zal dit voor de mensen met problemen anders zijn.)
Je bedoelt games als Starcraft 2?

Ik zal het 'AOI' van games zeker niet toejuichen, er zijn nog steeds genoeg mensen wereldwijd die geen permanente internetverbinding hebben óf waar met datacaps gewerkt wordt.

Daarnaast zorgt het bij bv. LAN-gaming voor veel problemen, kijk bv. naar de lag-problemen die optreden bij grote SC2 toernooien.

Maar het is blijkbaar (op het moment) de beste manier om piraterij tegen te gaan, tot dat iemand een efficiënte manier vind om ook dit te omzeilen...
Starcraft 2 heeft geen always on connectie nodig. Je kan ook 1 keer in de zoveel tijd (dacht een maand) inloggen en de single player is gewoon te spelen.. uiteraard dan wel zonder de optie om achievements te verdienen.
Slecht voorbeeld dus, gelukkig weet ik zo even niet een goed voorbeeld te noemen want ik ben niet in het bezit van dergelijke spellen :)
offtopic:
Ik dacht dat bij sc2 (sc1 trouwens ook) het grote aantal aan units , vooral bij 3 v 3 en 4 v 4 zorgde voor problemen omdat de tijd in het spel heel langzaam loopt dan.


dit is toch vergelijkbaar met het drm concept wat EA uitvoerde/uitvoert?

[Reactie gewijzigd door S7YX op 2 april 2012 17:17]

Dan is microsoft bij deze een goed betalende klant kwijt en ik hoop dat vele volgen. Always online my ass, tis geen leasebox oid... Zit ik lekker uren in TES te verdwalen, krijgt tele2 storing...ja da-aag.
Je sluit wel een groot deel van de markt uit als je vereist dat je altijd online moet zijn. Ik kan me toch niet voorstellen dat je dat echt wilt. Maar het kan natuurlijk ook zijn dat ze niet geinteresseerd zijn in dat deel van de markt die offline is.
Gedoemd om te fout te gaan, kijk maar eens al internet er uit ligt hoeveel mensen er al klagen. Plus dan kan je ook meteen niks meer want dan zal geen enkel spel (met grootte waarschijnlijkheid) meer werken.

Wij in NL genieten een redelijk betrouwbaar net, maar andere landen ??
Sinds wanneer werken AMD gpu's in SLI? Dat heet toch crossfire of ligt dat aan mij...
Het is meer een algemene term geworden, net zoals "googlen" niet per se betekent dat je Google gebruikt als search engine. Maar ben het met je eens, het is in dit geval wel wat onhandig gekozen :).

[Reactie gewijzigd door .oisyn op 2 april 2012 16:41]

Ben ik niet met je eens, en een beetje betrouwbare nieuwsbron zal dan neem ik aan ook Crossfire zeggen. (edit: ik zie dat Tweakers 't heeft aangepast en VG247 niet specifiek SLI noemt).

Daarnaast lijken mij 2 GPU's een aparte keuze. De chip zal speciaal gemaakt moeten worden en ik kan me niet voorstellen dat de yields van twee mid-end GPU's zoveel hoger zouden liggen dan die van 1 high-end GPU (die gelijk presteert), zodat het goedkoper zal zijn voor MS. Daarnaast lijkt mij programmeren voor één chip eenvoudiger en efficienter.

Ook het permanent online gebeuren lijkt me sterk. Ten eerste al omdat niet ieder land zo'n internet infrastructuur als wij hebben, en ten tweede de klachten die Ubisoft games kregen toen de 'checkserver' eruit lag... Het zal een keertje niet werken en dan is iedereen boos. Lijkt me erg sterk.
Sowieso is piraterij niet zo'n heel erg groot probleem op de 360 volgens mij. De 360 heeft de meeste games per console verkocht.

Dat er blu ray in zit lijkt me meer dan logisch.
Overigens meld VG247 dat er een 4 of 6-core processor in zal zitten, waarvan 1 core voor het OS en 1 core voor Kinect. Kinect heeft al een eigen processor, de 360 kon toch ook zonder aparte CPU met de Kinect omgaan?

Ik geloof hier weinig van, 1 april met een verlengstaart :)

[Reactie gewijzigd door Richh op 2 april 2012 16:56]

Er zijn nog andere factoren waarom MS voor twee GPU's zou kiezen. Men kan bij grafisch minder complexe games stroom besparen door één GPU uit te schakelen, en twee kleinere GPU's zijn wel degelijk goedkoper dan één grote. De GPU's hoeven niet speciaal te zijn; ze kunnen standaardchips gebruiken met een PCIe link naar de CPU.

Overigens vraag ik me af of Microsoft nog steeds een op PowerPC gebaseerde CPU gaat gebruiken, of net zoals de rumoeren over Sony's nieuwe PlayStation, over zal stappen op een x86-64 ontwerp.
Volgens mij zal het Microsoft een worst wezen wat het energieverbruik van dat ding is: er zullen maar weinig mensen zijn die 'm niet kopen om die paar watt. Overigens kan je je GPU toch gewoon terugklokken?
Maar zijn 2 kleine GPU's zoveel goedkoper dan 1 grote die gelijk presteert, dat het meer prestaties per euro bied?
Chips worden altijd aangepast en dat kan ook prima. Alles word op 1 grote PCB gegooid, daar gaan ze niet moeilijk doen met slots die extra geld kosten.

De tijd zal het leren :)
Wie heeft het over slots? Als ze twee GPU's erin stoppen, komen die op één PCB, samen met de CPU, RAM en dergelijke. Het gaat hier om GPU's, niet om hele videokaarten. En custom GPU chips bakken is een stuk kostbaarder dan een custom PCB. Twee kleinere GPU's hebben hogere yields, en lagere productie- en validatiekosten door de grotere schaal waarop ze geproduceerd worden. Het terugklokken van een GPU kan, maar een grotere GPU zal altijd grotere lekstromen kennen puur door het feit dat er meer transistors in zitten.

En Microsoft zal echt wel nadenken over stroomverbruik heden ten dage.
Jij, met een PCI-e interface. Daar doen ze echt niet aan :P natuurlijk gaat het om de chips alleen. In elke console worden tot nu toe custom chips gestopt, dat is goedkoper. Nogmaals, is dat dan uiteindelijk zoveel goedkoper dan één grote chip? Denk dat ze met terugklokken genoeg energieverbruik kunnen minderen.
De standaard PCI Express omvat meer dan alleen de slots. Een PCI-E-link hoeft dan ook niet direct een slot te betekenen, enkel dat de verbinding gebruik maakt van de standaard van PCI-E. Op die manier kun je meer standaardonderdelen gebruiken, waaronder dus controllers (al zou die ook in de cpu geïntegreerd kunnen zijn), waardoor je de totale kosten kunt drukken.
Wat nXXt zegt, ik bedoelde nergens een fysiek slot, alleen de lanes op de PCB en het protocol. Zo zitten je extra onboard SATA en USB3 controllers ook op je moederbord.

Een custom chip is alleen goedkoper als het volume groter is, maar me dunkt dat AMD meer midrange chips bakt dan er aan consoles verkocht worden.
Het terugklokken van een GPU kan, maar een grotere GPU zal altijd grotere lekstromen kennen puur door het feit dat er meer transistors in zitten.
Ik vermoed dat het verschil totaal niet significant gaat zijn. In idle misschien, maar daarin is al zeer weinig te besparen, bij nieuwe AMD GPU's maar enkele watt dus daarvoor ga je echt geen dual-GPU-oplossingen implementeren. In semi-load verbruikt één grote, teruggeklokte GPU juist minder dan een half zo grote, dubbel zo hoog geklokte GPU, dus het lijkt me vrij contraproductief. Zeker als je je bedenkt dat AMD en NVidia al jaren nodig hebben gehad om CF en SLI een beetje bugvrij te krijgen (en nog is de schaling gemiddeld echt geen 100%).

De yields van een mid-range chip zijn nou niet bepaald schrikbarend laag, dat daar echt wat mee te winnen is. Zeker niet als je ziet dat die yields enkel slecht zijn vlak na een nieuw productieprocedé, en voor mid-range GPU's die vele jaren mee moeten gaan zal dat dus geen grote rol spelen. Want laten we wel wezen: hier komt echt geen GPU in van het kaliber GTX580. Eerder een factor 4 kleiner.

Als dit praktisch zou zijn, zouden alle videokaarten van NVidia en AMD van boven de 200mm2 ook wel dual-GPU-kaarten zijn. Toch kiezen ze er keer op keer grotere GPU's te gaan maken en dual-GPU alleen voor een "extreme" kaart te gebruiken.

[Reactie gewijzigd door bwerg op 2 april 2012 19:45]

Volgens mij is het niet zo dat een GPU met twee keer zoveel shaders op de halve kloksnelheid van een kleinere GPU ook het lagere verbruik heeft, op 'semi-load'. Piekverbruik is over het algemeen wel lager (één grote GPU vs. twee mid-range GPU's).

Die yields van een mid-range GPU zijn juist hoger dan die in de high-end, als functie van hun kleinere die-oppervlak. En wat je zegt is precies mijn punt, er komt hier een kleine GPU in, geen monster. Dan is twee GPU's toch slim om én een laag verbruik te hebben voor weinig veeleisende games (door de tweede GPU uit te schakelen) én genoeg power te hebben om grafisch indrukwekkende titels op 1080p in 3D te renderen.

Waarom haal je er 200mm² als arbitraire limiet bij trouwens? Zowel nVidia als AMD maken dual-GPU kaarten als topmodellen, wat toch juist aangeeft dat voor 'extreme' prestaties dit de enige oplossing is? Ik zou de markt voor de GTX580's en HD7970's van deze wereld ook niet willen vergelijken met de consolemarkt. En toch zal men in de nieuwe generatie consoles prestaties moeten leveren die dusdanig veel rekenkracht vereisen dat twee mid-range GPU's een slimmer idee is dan één high-end GPU.
Volgens mij zal het Microsoft een worst wezen wat het energieverbruik van dat ding is
Meer energie betekent hogere temperaturen en dat resulteert in meer uitval, minder tevreden klanten en een duurder garantieproces voor MS.
De chip zal speciaal gemaakt moeten worden en ik kan me niet voorstellen dat de yields van twee mid-end GPU's zoveel hoger zouden liggen dan die van 1 high-end GPU (die gelijk presteert), zodat het goedkoper zal zijn voor MS
Je kunt 1 high-end GPU niet zomaar vergelijken met een 2 mid-range GPU's, ookal zouden ze op papier hetzelfde performen. Of de yields niet beter zouden zijn weet ik eigenlijk nog zo net niet, maar daarnaast heb je ook nog eens dat de powerconsumption en temperatuur van 2 mid-range GPU's veel lager kan zijn dan bij een enkele high-end GPU. Dat soort dingen schalen namelijk meestal niet lineair.

Programmeertechnisch kan het ook nog eens zo zijn dat het veel handiger is om een aparte GPU te hebben die specifieke taken parallel kan afhandelen. Zoals ik hier ookal uitlegde, de latencies voor renderwerk van de GPU zijn doorgaans veel te hoog, waardoor het nadelig wordt de GPU in te zetten voor processen waarvan het resultaat van belang is om mee door te rekenen (zoals physics). Die heeft veel meer baat bij een aparte GPU dan bij een enkele GPU, ookal is die enkele GPU meer dan 2x zo snel.
Daarnaast lijkt mij programmeren voor één chip eenvoudiger en efficienter.
Als 3D engine ontwikkelaar voor zowel consoles als de PC kan ik zeggen dat ik wel zit te wachten op dual GPU setup die volledig onafhankelijk van elkaar aanspreekbaar zijn. Zo heel lastig is dat niet, en totaal niet vergelijkbaar met de onhandigheid van een heterogene multicore CPU architectuur.

[Reactie gewijzigd door .oisyn op 2 april 2012 17:41]

ik kan me niet voorstellen dat de yields van twee mid-end GPU's zoveel hoger zouden liggen dan die van 1 high-end GPU (die gelijk presteert),
Vreemd dat jij je dat niet kan voorstellen, want het is vrij algemeen bekend dat de yields van twee mid-end gpu's altijd een flink stuk hoger ligt dan één high-end chip.

Daarom dat ATI ook al in een ver verleden met die optie is bezig geweest. (ATI Rage Maxx had bv twee Rage 128 pro chips in "alternate frame rendering" AFR configuratie).

De truk is om het altijd netjes te laten werken. En dat levert zelfs tegenwoordig met SLI en CrosffFire nog wel eens problemen op. Maar wat yields betreft is het zonder twijfel een betere keus.
Ik hoop dat ze er goed over nagedacht hebben, en niet dat als je internetverbinding even uitvalt je helemaal niet meer kan spelen :)
Ik hoop als ze dit implementeren, ze net als bij Steam een offline modus toevoegen.
En liefst op zo'n manier dat je de offline modus kunt inschakelen als je daadwerkelijk offline bent. Ik ben een tevreden gebruiker van Steam maar heb al zoveel lanparty's met kwakkelend internet meegemaakt en altijd zijn er lui bij die Steam niet offline krijgen omdat deze eerst online moet zijn om em uberhaupt offline te zetten. Logica van likmevessie :P
ja steam is inderdaad echt slecht wat dat betreft..
en het mooie van de nieuwe xbox word wel dat je altijd internet verbinding moet hebben en er dan ook nog eens elke maand voor moet betalen:P
of je nou graag singleplayer speelt of niet.... STERF!!! (zegt microsoft)
Ja, dat ben ik zeker met je eens, want er is een redelijk grote groep die wel een xbox heeft maar hem niet eens aangesloten heeft op het internet maar gewoon offline speelt en dan is het nog niet eens altijd dat het is om te voorkomen dat ze worden gebanned maar ook het probleem van bijvoorbeeld, internet kabels door het huis wat vervelend is of er een extra apparaat moeten bijkopen om al internet op je xbox te kunnen ontvangen, ik hoop ook zeker dat ze hier heel erg goed over hebben nagedacht. We zullen zien maar toch kijk ik al heel erg uit naar deze console!
Always-on-internet is wel minder.

Zelfs hier in Nederland (waar internet vollop & stabiel beschikbaar is in vergelijking met andere landen) ligt mijn internet er regelmatig uit (jaja, Ziggo klantje). Dat zou dus betekenen dat ik niets kan doen met de console? Best slecht.... :O
Lijkt me dat je de eerste keer dat je het schijfje in je Xbox steekt je dan je game moet authenticeren online, en dat je daarna gewoon offline kan spelen.

Net zoals bij steam.

Microsoft is nu ook wel zo slim ;)
Hier ook een Ziggo klantje, maar ik kan me laatste uitval van mijn connectie niet herinneren, moet zeker meer dan 3 jaar terug zijn.

Verder ben ik er ook wel tegen. Mijn Xbox heb ik pas recentelijk online gegooid. Zolang je geen xbox gold hebt, heb je er eigenlijk erg weinig aan. Dus ik zou dit wel een vervelende ontwikkeling vinden.
Ik ben ook een Ziggo klant en ik kan me de laatste keer dat ik geen internet had ook niet herinneren. Zal wel weer aan de gebruiker liggen zoals gewoonlijk.

Die Blu-ray speler hoeft er van mij trouwens niet in. Scheelt weer wat ruimte die ze mooi kunnen benutten om het apparaat lekker stil te maken (grote heatsinks o.i.d.).
En ik ben ook een Ziggo klant, en kan me de laatste maand zonder email contact of telefonisch contact met Ziggo niet meer herinneren. Ligt inderdaad aan de klant.

Verder lijkt het me vreselijk onlogisch om always online op de nieuwe Xbox te zetten. Ook de eenmalige autorisatie lijkt me niet kunnen. Je wilt niet weten hoeveel 360's er zonder internet zitten! Zelfs in Nederland zijn dat er, absoluut gezien, nog behoorlijk wat hoor. Moet je nagaan hoe het zin in de, naar internet gekeken, wat minder bedeelde landen.

En daarnaast is de stabiliteit natuurlijk een groot probleem als je echt elke keer met internet moet authoriseren. Zelfs in veel West-Europeaanse landen en landen als Amerika is het zeker niet altijd zo dat je contstant een stabiele verbinding hebt.

De rest van de informatie zou nog wel enigzins kunnen kloppen, maar het noemen van de always-online restrictie, zorgt er bij mij voor dat ik dit 'nieuws' geenzins betrouwbaar vind.
En ik ben ook een Ziggo klant, en kan me de laatste maand zonder email contact of telefonisch contact met Ziggo niet meer herinneren. Ligt inderdaad aan de klant.
Zucht..... De wijk waarin ik woon is al meerdere malen aangeschreven met een brief waarin Ziggo zijn excuses aanbood voor het onstabiele netwerk en ook aangaf dat het netwerk er erg vaak had uitgelegen. Praat dus alsjeblieft geen onzin......
Ik ben ook een Ziggo klant en ik kan me de laatste keer dat ik geen internet had ook niet herinneren. Zal wel weer aan de gebruiker liggen zoals gewoonlijk.
Altijd leuk: Tweakers die denken dat de eigen ervaringen met een ISP representatief zijn voor alle gebruikers.... 8)7
2 gpu's in CF lijkt me niet goed voor het verbuik, en duurder dan er een fatsoenlijke gpu in te zetten. Verder is "vergelijkbaar met EEN 7000 serie videokaart" een nogal vaag begrip
Het gaat niet om een crossfire opstelling
Bovendien zouden de twee gpu's niet werken in een 'klassieke' crossfire-opstelling, maar afzonderlijk bepaalde objecten renderen.
Maar om 2 Gpu die waarschijnlijk 2 verschillende dingen voor hun rekening gaat nemen.
Verder zijn de HD6XX serie in idle heel erg zuinig en al langer op de markt dan de HD7XX serie zodat ze daar meer mee kunnen testen en problemen kunnen uitsluiten.
te denken valt aan 3d, waarbij de ene gpu het frame voor het linkeroog en de 2de het frame van het rechteroog renderd, dan is het makkelijk haalbaar...

Daarnaast zijn losse objecten ook wel te renderen en in 3d te plaatsen, waardoor het weer één geheel wordt... zie er wel mogelijkheden in.
Bij games die grafisch minder vergen kan 1 gpu uitgeschakeld worden om stroom te besparen.
Ja, maar voor het geld wat je kwijt bent aan zeg een 6670, had je ook een 6870 kunnen kopen, of net geen 7850, en ik denk dat beide meer prestaties bieden voor een lager energiegebruik.

Problemen omtrent de "nieuwigheid" van de 7000 serie en drivers daarvan zouden wel een goede reden kunnen zijn.

Verder neem ik aan dat je hd6000 serie bedoelt :P
Waarom in SLI en niet in CrossFire?

#edit: 4 posts in 1 minuut :)

[Reactie gewijzigd door squarp op 2 april 2012 16:24]

ze gaan in geen van beide, ze gaan onafhankelijk van elkaar werken...
Beetje jammer dat er voor AMD kaarten verwezen wordt naar een "SLI opstelling" :+

Verder ben ik niet gerust over het nut van 2 gpu's, aangezien dit programmeer technisch de console en pc weer verder uit elkaar trekt... Maargoed niets is nog zeker...
Ja, maar ik denk nee. Voor het programmeren maakt dit geen gigantisch verschil, de loadbalancing wordt waarschijnlijk door de Xbox zelf gedaan.
Ik hoop het niet, een game kan die balancering veel beter regelen dan het OS die geen weet heeft van waar de game nou eigenlijk mee bezig is en wat ie wil bereiken.

En zo heel ingewikkeld is het helemaal niet. Het is geen PS3 waarbij je je reguliere programmacode moet aanpassen zodat het kan draaien op een cell SPU met 256k aan lokaal geheugen, wat veel lastiger te doen is.

[Reactie gewijzigd door .oisyn op 2 april 2012 16:38]

Volgens mij doen de videodrivers dat toch? Die worden ook geoptimaliseerd voor games.
Videodrivers worden geoptimaliseerd voor games ja, door te kijken naar de specifieke use cases van een game. En daarom is het ook aan te raden (en soms zelfs nodig) om je videodrivers te updaten bij de installatie van een net uitgebrachte game.

Nu hebben we het echter over het OS van een console, die niet zo vaak geüpdate wordt als videodrivers op een PC. Maar veel belangrijker is dat een game veel betere optimalisaties kan doen op het moment dat hij precies weet wat voor hardware er allemaal aanwezig is en hoe deze performt. Op een console is het dus veel voordeliger dat een game zelf deze optimalisaties doorvoert.
Programmeertechnisch hoeft er helemaal niet zoveel te veranderen.

PC-games zijn toch ook niet speciaal geprogrammeerd om gebruik te kunnen maken van SLI?
1 2 3 ... 11

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBDesktops

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013