Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 364 reacties

De opvolger van de Xbox 360 krijgt naar verluidt een gpu die gebaseerd is op AMD's Radeon HD 6670. De machine moet zes keer zo krachtig worden als de Xbox 360 en zou in oktober of november van 2013 in de schappen moeten liggen.

Xbox 360 RondjeDat meldt IGN op basis van bronnen die kennis hebben van Microsofts komende console. Eerder gingen geruchten dat Microsoft voor een gpu uit AMD's HD 7000-serie zou kiezen, maar volgens IGN is dat niet het geval. In augustus van dit jaar zouden de definitieve developmentkits naar ontwikkelaars verstuurd worden, waarna de console zelf eind 2013 moet uitkomen.

De HD 6670 is een midrange-kaart die in februari 2011 op de markt kwam en die gebruikmaakt van een Turks-gpu, gebaseerd op AMD's vliw5-architectuur. De desktopvariant heeft een kloksnelheid van 800MHz en kan gddr5-videogeheugen aansturen op 4000MHz. De videokaart ondersteunt DirectX 11, 3d-output en 1080p-uitvoer. Voor de processor zou Microsoft opnieuw in zee gaan met IBM en zijn PowerPC-ontwerp, al gaan er ook geruchten dat de nieuwe Xbox de ARM-architectuur gaat gebruiken.

Mocht deze gpu inderdaad zijn weg naar de nieuwe Xbox vinden, dan wordt hij waarschijnlijk nog aangepast. Gezien de verwachte releasedatum in 2013 zal de chip waarschijnlijk niet meer op het 40nm-procedé gefabriceerd worden, zoals met de desktopversie het geval is, maar op een 28nm-procedé. Hiermee kan het maximale tdp, dat voor de desktopvariant op 66W ligt, flink worden verlaagd.

Hoewel de HD 6670 voor pc's een midrange-kaart is, kunnen spelontwikkelaars uit een vergelijkbare chip in de nieuwe Xbox behoorlijk wat prestaties halen. Bij consoles is er in de regel namelijk minder overhead en omdat ontwikkelaars voor een specfieke chip schrijven, kunnen ze hun code beter optimaliseren.

Moderatie-faq Wijzig weergave

Reacties (364)

1 2 3 ... 10
Best wel grappig dat velen hierboven zich druk maken over de theoretische kwaliteiten van een videokaart in een console die nog uit moet komen.....

Die keuze zal niet voor niets zijn gemaakt... Energieverbruik is niet een vreemd woord meer dezer dagen en dus zal dat ook hebbben meegspeeld. Buiten dat kan je er natuurlijk vier 7970's in stoppen maar dan is het ding niet meer te koelen en anders verga je zeker van de herrie van de koeling.. het is wel HOME entertainment he ... geen serverpark...

En dan nog : De WII was grafisch gezien al flink pet voordat ie werd uitgebracht en zie : ze gingen als broodjes over de tafel....

Word een console afgerekend op de theoretische RAW performance van een GRAKA ?!?!?

Dacht het niet, speelbaarheid , innovatie, comfort en gemak zijn op dat vlak bepalender of een console wel of niet zal slagen dunkt me....
De kritiek is terecht vanuit het oogpunt van fanatieke gamers. Dit is een bedrijfseconomische keuze en slecht nieuws voor "echte" gamers naar mijn mening.

Lagere prijs dus veiliger in de huidige economie
Laag verbruik dus "green"
Kleinere formfactor dus aantrekkelijk in de huiskamer
Meteen winst op te maken
Meer verkochte games door grotere afzetmarkt
Economische ruimte om kinect te integreren voor een aantrekkelijke prijs

Tradeoff: Slechtere graphics dan je zou verwachten bij een generatiesprong.

En dat laatste is nou net wat veel hardcore gamers toch belangrijk vinden. Dit is ook slecht nieuws voor pc gamers, want daar wordt nog meer op de rem getrapt dan nu al het geval is.

[Reactie gewijzigd door alexvkan op 25 januari 2012 18:26]

heb je wel eens een xbox360 gehoord. Waar ik me ook in het huis bevind, ik hoor altijd de xbox van m'n broertje, ding maakt een enorme herrie, daar kan mijn pc met 12 casefans (@ max 2k rpm), een cm v8 en twee GTX460's nauwelijks tegen op
Het is nog maar een gerucht, dus of het echt waar is moet nog blijken.
Feit is wel dat een console veel meer uit z'n hardware kan persen dan een PC.

Metname PC gamers schreeuwen nu al dat de 6670 beperkt zal zijn, maar vergelijk nu eens de huidige consoles met PC hardware van dezelfde tijd.

PS3 is relatief simpel te vergelijken (eigenlijk niet, vanwege totaal andere architectuur).
Pak een PS3, en zet die naast een PC met een 3,2Ghz CPU (Core2 of AMD, want die waren er toen) met een geforce 7800 (256MB) en 256MB RAM (als je zulke kleine modules al kan vinden). Probeer dan nog maar eens een titel als Bioshock, BF3 of een of andere multiplatform game te spelen (zelfde settings als console, dus 1280x720 en medium settings).
Dan kom je er al heel snel achter dat een PC dat niet goed kan, en een console wel.

Maar goed, kun je wel 100x zeggen dat consoles anders (lees: efficienter) met hun hardware opspringen dan PC's, het volgende nieuws bericht is men dat al weer vergeten.... |:(
Daarnaast, PC games worden niet perse beperkt door de consoles, maar ook door de grote variatie in hardware op het PC platform zelf! Je ziet nog zat Core 2 E4xxx series met een 8600GT erin, en daar moeten games ook op draaien. Gameontwikkelaars maken geen games puur alleen voor de high end markt, ze willen zoveel mogelijk potentiele klanten aanspreken dus ook met mindere hardware.
Feit is wel dat een console veel meer uit z'n hardware kan persen dan een PC.
Nee, dat is niet waar. Ze kunnen (zouden het kunnen) het ook makkelijk op een pc. MAAR... de hardware is per setup te verschillend en bij een console is de hardware ALTIJD het zelfde. Bij een console kan je niet zeggen dat je "dan maar" een snellere CPU of GPU nodig heb om iets goed te kunnen draaien wat ze op de pc vaker doen (uitzonderingen daar gelaten).

Het moet binnen de grenzen van de hardware gebeuren en dan kan je door optimalisatie van de code vaker nog wat extra's vinden.

Kijk maar naar de oudere generatie personal/hobby computer's. Dan heb ik het niet over de x86 versies maar over de nog oude maar vertrouwde Amiga's en Atari's (de nog oudere hobby computers even niet meegenomen). Als je kijk wat ze daar in het begin uit die Motorola 68000 op 7.14 of 8Mhz haalden en op het laatst echt een wereld van verschil en het zelfde was bv. ook met het geluid in/uit de machines.

Beperkingen roepen dan vaak op tot innovaties en in de wereld van de pc zitten we voor dat soort dingen vast aan de bouwers van de hardware.
Tot op de dag van vandaag is de CELL CPU zelfs nog sneller dan wat er eigenlijk op de PC markt nu qua CPU's is.
Ja en nee. De CELL CPU bestaat uit verschillende rekeneenheden, waarvan één de general purpose 'control' processor is en de anderen de zogeheten SPU's. De SPU's zijn snel in het uitvoeren van SIMD taken, waar ze dus 1 instructie op meerdere stukjes data tegelijk kunnen toepassen, en zijn daarmee bijzonder efficient in grootschalige floating point berekeningen. Ze zijn echter een stuk minder geschikt voor de meeste normale applicaties die veelal gebruik maken van branching, door het ontbreken van een branch predictor.

Quote van Wikipedia:
Compared to a modern personal computer, the relatively high overall floating point performance of a Cell processor seemingly dwarfs the abilities of the SIMD unit in desktop CPUs like the Pentium 4 and the Athlon 64. However, comparing only floating point abilities of a system is a one-dimensional and application-specific metric. Unlike a Cell processor, such desktop CPUs are more suited to the general purpose software usually run on personal computers. In addition to executing multiple instructions per clock, processors from Intel and AMD feature branch predictors. The Cell is designed to compensate for this with compiler assistance, in which prepare-to-branch instructions are created.
Onwaar, behalve dat PowerPC beter te optimaliseren is dan X86, kan je op de PC niet onder de drivers gaan zitten. Dat 'close to metal' programmeren kan dan weer wel op consoles.
De Cell processor was gewoon een leuke marketing stunt, dat was namelijk net in de tijd dat multicore-processors mainstream werden, en de meeste mensen dachten dus 'hoe meer cores, hoe beter'. Nou is dat dus helemaal niet zo, want renderers kunnen niet multithreaded draaien.
Je kunt het verhaal ook omdraaien. Laat een PS3 game draaien met een fatsoenlijke vorm van antialiasing en het draait helemaal niet meer.

Niet dat de games nu allemaal fatsoenlijk draaien want hoe triest het ook is een console staat dus echt niet garant voor een stabiele en acceptabele framerate wat wel zogenaamd een aankoopargument was.

Ik ben zowel in het bezit van een Xbox 360, een PS3 en een high-end pc.
Die laatste zou ik het liefst vandaag nog de deur uit doen maar het bestaan van pc's zorgt er wel voor dat ik meer eisen stel aan consoles.
Metname PC gamers schreeuwen nu al dat de 6670 beperkt zal zijn, maar vergelijk nu eens de huidige consoles met PC hardware van dezelfde tijd.
Vergelijk de XBox 360 eens met de hardware van die tijd. De 360 was even snel tot stukken sneller dan zelfs de duurste high-end PCs van dat moment. Nogal een verschil met een 6670 die nu al een lachertje is laat staan over anderhalf jaar (en over 6-7 jaar)
Onwaar, Oblivion (eerste game van deze generatie) was op PC's stukken sneller dan op de 360. Mijn E8200 met een 3650HD die ik had in die tijd draaide Oblivion haast maxed out, met veel minder popup dan de 360, snellere laadschermen en hogere resoluties.

Het is door optimalisatie gekomen dat er uiteindelijk veel meer uit de consoles is geperst, maar de hardware is echt niet sneller.

EDIT:
Dit is een kaart uit dezelfde serie van de XBox 360 kaart (ATI Xenos):
http://forums.anandtech.com/showthread.php?t=1864855

[Reactie gewijzigd door Wolfos op 25 januari 2012 23:41]

Ik ben het over het algemeen met je eens, buiten ongeveer met je laatste alinea. Het is juist door de populariteit van consoles dat we nu praktisch geen grafische evolutie meer hebben. Het staat gewoonweg stil en daar wringt voor velen het schoentje. Vroeger moest je heel wat sneller je PC hardware vernieuwen, omdat veel games toen ook nog PC only waren. Duur? Jazeker, maar gamen is nu eenmaal niet goedkoop. Een high-end systeem was niet nodig, maar je moest wel bij blijven. We deden dat met plezier. Je viel van de ene maand in de andere met je mond open van verbazing. Die tijd is voorbij. Nu moeten we het jarenlang doen met een nul-evolutie. Al overdrijf ik natuurlijk wel wat om mijn punt te maken.

Via consoles zijn er nu heel wat meer casual gamers die ietwat sneller tevreden zijn. Old-skool gamers zijn dat niet, want die zien hun PC hardware ongebruikt. Begrijp me niet verkeerd. Ik heb zelf een resem aan consoles staan en ik ben blij dat die bestaan, maar ik vind het spijtig dat games nu eenmaal console-georiënteerd zijn. PC gaming is voor een niche hardcore gamer en daar zijn er niet genoeg van. Al stijgt de populariteit opnieuw. Consoles zijn zeker krachtiger bij release en brengen dan evolutie mee, maar het blijft niet duren...
Als dit waar is dan zit de WiiU niet eens zo slecht met z'n (volgens geruchten) RV700 gebaseerde GPU. De RV700 heeft ivm de HD6670 geen openGL 4.1 en Dx 11 ondersteuning, maar heeft wel meer shaders en texture units.
Tja, langs de andere kant wordt dit gezegd:

http://www.xbitlabs.com/n...ext_Gen_Xbox_Rumours.html

Een 6670 lijkt mij extreem onlogisch voor een console die nog minstens een jaar op zich laat wachten. Het zou mij niet verbazen moest Microsoft voor een 77xx/78xx gaan.
Beetje raar om een chip uit 2011 in een machine van 2013 te stoppen.. Lijkt me zelfs voor consoles niet zo'n goed idee.
Ok bedenk je dan even hoe een GPU in een machine als deze wordt aangesloten...

Het is niet een apparaat met een PCI-e slot zo als je computer het is een machine waar de GPU rechtstreeks op de printplaat bevestigd is. Dit houd dus in dat als je een andere GPU er in wilt steken en zeker als je er een GPU van een andere serie er in wilt steken je de gehele printplaat moet aanpassen. Dingen als voeding van de chip maar ook de aansluiting van het geheugen en de rest van de onderdelen die in de console zitten moeten allemaal aangepast worden als je even de GPU er uitvist.
Als je dan kijkt hoeveel warmte deze dingen ontwikkelen en hoeveel andere factoren zo als interferentie van bijvoorbeeld de voeding or andere componenten voor problemen kan veroorzaken dan kun je je heel erg goed voorstellen dat er in een 2013 machine onmogelijk een 2013 GPU kan worden gestoken. Net als dat de CPU een ouder model zal zijn of het nu een PowerPC, ARM, AMD of Intel chip zal zijn het komt allemaal op het zelfde neer de processor is ouder dan de huidige generatie op het moment dat de machine uitkomt.
Je moet ook niet vergeten dat bijvoorbeeld het OS geschikt moet worden gemaakt om op de console te draaien en dat er natuurlijk ook goede drivers moeten zijn voor de GPU en andere onderdelen.

Als je een console nu bouwt dan moet je daar naast er rekening mee houden dat het nog minimaal een jaar duurt voor de game ontwikkelaars games af hebben die jouw console zullen verkopen. Immers als je kijkt naar een beetje top game tegenwoordig dan kijk je naar een budget van enkele tientallen miljoenen en enkele honderden mensen die er aan mee werken, zelfs als de game ontwikkelaar het heel erg graag zou willen dan nog lukt het ze niet zo'n game binnen een paar weken of maanden op de markt te zetten en al helemaal niet voor een totaal nieuw systeem waar men nog nauwelijks mee gewerkt heeft.
Kijk maar naar de oudere consoles en vergelijk dan de games die bij launch uitkwamen met de games die beschikbaar waren op het moment dat de machine end of life was... altijd weer zie je dat de games aan het einde van het verhaal grafisch veel beter zijn en er simpel weg zo veel meer uit de machine gehaald kan worden omdat de ontwikkelaars jaren de tijd hebben gehad om een machine echt te leren kennen.
Nu kom je met een nieuwe console en moet je games leveren die de machine echt verkopen, een game die niet veel beter is dan de huidige games op de oude consoles zal echt de verkoop niet helpen immers de nieuwe console is een stuk duurder de games zijn duurder en dus moeten ze ook heel erg veel beter zijn en dat kost nu eenmaal tijd.
Als je dan de ontwikkelaar niet een uitontwikkelde machine bied wat betreft componenten dan kunnen zijn simpel weg niet een game maken die goed genoeg is om de verkoop aan te jagen. Dus bouw je nu een systeem dat je in Augustus levert dan ga je samen met een aantal ontwikkelaars werken aan de games en hun developers helpen met het optimaliseren van de games en het glad strijken van bugs in het OS en de drivers etc... ander half jaar later kun je dan eindelijk het ding op de markt brengen als ze in China er een paar miljoen van gemaakt hebben en je het ding in grote aantallen overal op de planeet kunt verkopen.

Als je naar dat proces kijkt dan snap je waarom een PC altijd een beter gaming platform zal zijn simpel weg omdat je wel eens waar met een meer generieke driver werkt en games die rekening moeten houden met veel meer variatie in de hardware maar je daar in tegen wel in 2013 een GPU en CPU uit 2013 er in kan steken en niet met 2 jaar oude hardware op gescheept zit.
Een PC kan daarom veel al kort na de end of life (en soms al daar voor) een emulator draaien waarin je de console games kunt spelen zonder dat je merkt dat het om een emulator gaat. Dit heeft alles te maken met het feit dat je met zo'n emulator vaak minimaal 4 maar meestal 6 of zelfs 10 jaar oude hardware doet emuleren.

Ik zou het helemaal niet vreemd vinden als Microsoft met een 2011 mid-range CPU komt je moet ook niet vergeten dat de GPU naast het feit dat het ding erg makkelijk te maken is (heel veel ervaring tegen die tijd) ook geoptimaliseerd zal worden, natuurlijk een die shrink zal ondergaan en dus ook nog eens erg goedkoop zal zijn.
De kosten per 10.000 chips zullen voor Microsoft waarschijnlijk (zonder R&D uitgaven voor optimalisatie en shrink) op een paar dollar per stuk uitkomen en dat maakt het toch wel erg interessant om zo'n ding te gebruiken en niet een veel duurdere chip van een latere generatie.
Allemaal een leuk verhaal en wel, maar het klopt van geen kant. De 360 had een GPU die zijn tijd ver vooruit was. De Xenos GPU is een prototype van de R600 architectuur die pas anderhalf jaar later op de markt kwam. Er was geen enkele chip ten tijde van de 360 launch die mee kon komen met de grafische kracht van de Xbox. Hoe verklaar je dat, als het zo lastig zou zijn om een state-of-the-art GPU in een console te zetten?
De 360 had dan ook flinke hitteproblemen met de eerste generatie, wat weer Red Rings of Death tot gevolg had en daarmee vele garantiekwesties. De yield was ook erg laag, 68% van de consoles bleek bij testruns van de eerste generatie niet goed te functioneren. Hoewel Microsoft het officieel niet heeft toegegeven, lag de hoeveelheid uitvallende consoles (te) hoog en heeft het ze een flinke deuk in het imago en een kuil in hun geldvoorraden opgeleverd. Uiteindelijk is het goedgekomen, maar het was verre van vlekkeloos.

Je kunt er dus vanuit gaan dat Microsoft nu een andere route kiest, eentje waarbij er al eerder verdient kan gaan worden met de consoles, en eentje waarbij ze er zeker van zijn dat ze relatief zuinig zijn en weinig uitval kennen. Het maakt het ook mogelijk om eerder weer een nieuwe console op de markt te zetten (Xbox 1440 ;) ), aangezien hij al eerder terugverdiend zal zijn.

Nintendo heeft bewezen dat je niet perse het nieuwste van het nieuwste aan hoeft te bieden om een goed verkopende console te krijgen, en Microsoft lijkt nu dus ook meer die richting op te gaan (zij het misschien wat minder extreem budget dan Nintendo).
Maar de PS3 had geen enkele van deze problemen, en had (als de Geforce 8800GTX niet net een maand eerder was uitgekomen) nog steeds een high-end GPU van de nieuwste generatie.

Nintendo heeft niets bewezen, behalve dat ze niet-gamers konden aantrekken met een console met een hoge gimmick-factor. MS wil juist gamers aantrekken. Als ze een chip gebruiken die bij de release van de console 2 jaar oud is, en zelfs toen al een low-end chip was zullen ze zo zwaar achter lopen dat ze het nooit weer 7 jaar volhouden qua graphics.

EDIT: Ik zeg niet dat het niet een goed idee is om technologie te gebruiken waarvan bewezen is dat deze werkt, maar laten we het eens zijn dat je daarvoor niet een 2 jaar oude low-end chip, gebaseerd op een dan al bijna 8 jaar oude architectuur (6670 is FLIW-5 en die bestaat al sinds Xenos) voor nodig hebt. Dat kan ook prima met de tegen die tijd anderhalf jaar oude en uitstekend functionerende GCN-architectuur, of als het niet anders kan de tegen die tijd 2-3 jaar oude FLIW-4 architectuur.

[Reactie gewijzigd door Snoitkever op 25 januari 2012 12:30]

De keuze en expertise van Sony staat natuurlijk compleet los van die van Microsoft. Als MS er niet goed in geslaagd is om een high-end kaart in de 360 te drukken zonder problemen, dan kunnen ze nu de keuze maken om iets terughoudender te zijn in de keuze van de videokaart.
Sony heeft het blijkbaar beter voor elkaar gekregen, dus die weten hoe het moet en kunnen het nog een keer doen. Al heeft Sony ook veel verliezen gemaakt op de high-end hardware, zodat de console pas na enkele jaren rendabel werd. Dat is een (logisch) gevolg van het kiezen voor high-end hardware. MS en Sony hebben er beide voor gekozen, Sony had meer verlies per console omdat alles zo duur was maar weinig uitval, MS had wat minder verlies per console maar weer een hoge uitval.

Nintendo had *en* een lage uitval *en* meteen winst per console, een prijs die 40 tot 50% lager lag dan de PS3/360, een laag energieverbruik en vernieuwende bediening. Ze hebben ~40% meer consoles verkocht, en elke console heeft dus winst opgeleverd, in tegenstelling tot de 360 of PS3. Dus qua businessmodel hebben ze de juiste beslissingen gedaan.
Dat Nintendo (gedeeltelijk) een ander soort consument aangesproken heeft dan de 360 staat los van het feit dat het zakelijk een uitstekende keuze is geweest. En dat MS en Sony nu ook ingezet hebben op alternatieve manieren van bedienen, laat zien dat Nintendo een leidende rol heeft gehad op dat gebied (misschien niet de eerste, maar wel de succesvolste).

Het gebruik van dure hardware vergt een langere terugverdientijd, één van de redenen dat de 720 relatief lang op zich laat wachten. Goedkopere hardware betekent eerder achterhaald, maar ook een kortere terugverdientijd en kan dus ook eerder vervangen worden; ze hoeven het dus niet 7 jaar vol te houden. En als ze hun kracht halen uit andere zaken, zoals Nintendo, is zelfs het hebben van achterhaalde hardware niet zo'n probleem om jarenlang winst te maken op je divisie.

Ik ben het dus niet met je eens dat het anders zou moeten. Het kan, maar elke keuze heeft weer z'n voor en z'n tegen. MS lijkt nu een tussenweg te kiezen, die misschien heel goed uitpakt; de toekomst zal het uitwijzen. :)
Als je een Wii aansluit op een grote SDTV, en je zet hem qua grafisch detail naast een xbox1 of PS/2, legt die het af. Laat staan op HD(wat de afgelopen drie jaar een veel grotere rol is gaan spelen qua afzetmarkt.).

De Wii is de enige van de huidige consoles die echt het onderspit delft(Vergelijking Atari2600 vs NES of SMS), en voor het verwende oog moet worden vervangen.
want je moet die chip niet testen ? bijvoorbeeld of die wel voldoet, hoeveel warmte hij genereerd etc.? of dacht je dat ze dat in 3 maanden ff doen?
Ga daar maar niet van uit. Waarschijnlijk krijgen de devkits gewoon de oude GPU terwijl AMD hem gaat shrinken. Dan hebben de developpers een apparaat dat meer verstookt, maar wat betreft performance wel identiek is aan het uiteindelijke compactere en zuinigere model.

Daarbij kan AMD nu al een gok doen hoeveel het verbruik ongeveer gaat zijn. Dit soort dingen vormen echt niet het probleem. Het belangrijkste is in deze dat devvers ASAP aan de slag kunnen met het schrijven van games voor bij de launch.
Waarschijnlijk hebben ze de chip gekozen op basis van geschiktheid op zich van de architectuur en de features van de chip, voor spellen die specifiek daarvoor worden ontworpen (daarvoor moet het een beetje een fijne chip zijn). De nieuwere 7000 serie heeft vooral als voordeel dat gpgpu taken beter draaien, en daar heeft Microsoft met de Xbox helemaal niks aan.

Aangezien ze de keuze nu blijkbaar al gemaakt hebben moeten ze daar inderdaad wel wat tijd in hebben gestoken, het is immers een van de meest belangrijke beslissingen die de richting van de nieuwe console bepaalt. Dat vergt wat tijd. Ze moeten inderdaad nauwkeurige schattingen hebben van het verbruik en de prestaties van iedere chip die ze overwegen. Ook daarom zouden nieuwere chips afvallen, die waren toen nog niet echt beschikbaar.
Als ergens iets ouds en goedkoops in wordt gestopt is er maar 1 reden voor, het is goedkoop.
In consumentenelectronica gaat wat je zegt nog vaak op ja. Daarbuiten slaat die uitspraak nergens op.
Je pakt toch atijd de nieuwste kaart? je gaat in een console die over 2 jaar pas uitkomt toch geen, voor begrippen nu, midrange kaart stoppen?? Tegen de tijd van release is dat een low-end kaartje.

Als ik kijk dat mijn Nvidia GTX 570 al moeite heeft met BF3 op 1920 x 1080p als ik de settings hoger zet dan high dan kan een midrange kaartje nog wel getweaked worden... maar dan vraag ik me af of deze lang mee gaat? tenminste als je echt strakke graphics wil laten zien, waarbij PC's net als toendertijd met de PS3 flink achterliepen.

Toch weten ze vaak wel flink te tweaken. zeker als je kijkt met wat voor geweld uncharted 3 van je beeld spat op een voor begrippen van dit moment een waardeloos kaartje is. al draaien deze games op een geupscalde 720 resolutie
Wat een PC doet met een bepaalde videokaart zegt helemaal niks over de xbox, immers draaien de meeste games nog prima op een xbox360 waar een kaart op basis van een ATI Radeon X1900/X1950 in zit, met die kaart kan je op de PC niet meer dezelfde spellen draaien als een xbox, oftewel niet te vergelijken ivm optimalisaties die voor een game-only device gemaakt zijn ipv een all-round computer.

[Reactie gewijzigd door watercoolertje op 25 januari 2012 10:02]

Behalve dan dat je op de 360/PS3 dan wel op maximaal 720p met bagger textures, rampzalige draw distance en crap details zit te spelen, zo kan ik het ook op een X1900 draaien.
Probeer dat maar eens dan. Geloof mij nu maar dat er een hoop meer bij komt kijken dan een beetje smokkelen op details. Er worden console specifieke games geschreven en dus totaal geoptimaliseerd voor die GPU en CPU. Er is een OS geschreven speciaal voor de aanwezige hardware. De GPU en CPU worden geoptimaliseerd voor het gebruik in een console dit zijn dus ook totaal geen standaard gpu of cpu. Dit alles zorgt er voor dat je op "relatief" outdated hardware gewoon je high end games kan spelen.
Zo werkte 't vroeger absoluut.

Maar nu ik lees dat ze 'maar' een HD6670 en is dat en een midrange kaart, en hij is al oud (zeker in 2013). Ik weet nog dat de Xbox een GeForce 3 had, en toen was de GeForce 4 wel uit, maar goed dat was dan nog niet zo wereldschokkend verschil. Ik denk dat consoles steeds verder achter gaan lopen qua hardware op PC puur om de kosten te drukken.

Ook denk ik dat het stempel 'speciaal ontwikkeld' niet meer zo van toepassing is. 't Is eerder tweaken, want op je Xbox draaien gewoon Direct3D spellen net zoals op de PC. Op je Xbox draait ook geen 'speciaal ontwikkeld OS' meer maar gewoon een gestripte versie van Windows. En tuurlijk win je daar wel wat %-jes geheugen en snelheid mee, maar voor mijn gevoel zijn 't meer dan ooit verkapte PCs.

Qua graphics power die gevraagd wordt van de huidige Xbox 360, ben ik het met Seal64 eens. 720p is 1280x720, dat is niet heel veel meer pixels dan 1024x768. Wanneer is de laatste keer dat jij op die resolutie gegamed hebt? Daar heb je echt veel minder grafische power voor nodig. En dan heb je ook nog de andere facetten waar ze op smokkelen zoals textures en natuurlijk wordt AA zelden ondersteund in een game.
Zo werkte 't vroeger absoluut.
Zo werkt het nog steeds.
maar voor mijn gevoel zijn 't meer dan ooit verkapte PCs.
Sorry maar dat is echt complete onzin :). Dat de API grotendeels hetzelfde is wil nog niet zeggen dat het onder water ook hetzelfde werkt. De 360 lijkt qua hardware layout in de verste verte niet op een PC. De memory controller (en L2 cache) zit op de GPU, waardoor CPU en GPU echt enorm snel met elkaar kunnen communiceren. Daarnaast delen ze al het geheugen. Dit is echt compleet verschillend van de PC architectuur waar de GPU op een PCI-e bus zit en zijn eigen geheugen beheert.

Wat 3D API betreft wordt Direct3D9 ondersteund, maar dan wel met veel kortere lijntjes naar de "driver" en met heel veel features die je in staat stellen om direct de commando's en resources te managen (dus bijvoorbeeld niet "maak een texture" en "zet deze data erin", maar gewoon "hier staat mijn texture data"). State changes zijn ook vele malen goedkoper, op een console kun je zo'n beetje 10x zoveel draw calls per frame eruit persen (wat eigenlijk meer zegt over de belabberde performance van de PC dan de goede performance van een console).

Wat de 360 momenteel vooral verhindert om full HD te renderen is voornamelijk de gelimiteerde hoeveelheid EDRAM (10MB) waar naartoe gerenderd wordt. Daar past gewoon niet tegelijk een framebuffer en z-buffer in - al helemaal niet als je met meer kleurdiepte wilt renderen voor HDR. En voor fullscreen effects moet je de boel eerst uit EDRAM halen, wat de performance ook niet echt ten goede komt (en daarvoor wil je de resolutie dus eigenlijk zo laag maar acceptabel mogelijk houden)

Ik denk dat een GPU als de 6670 na wat aanpassingen zodat hij volledig geïntegreerd is in het systeem ruim afdoende is om nog een tijdje mee te kunnen komen met de PC. En hoger dan full HD hoef je toch niet te renderen.

[Reactie gewijzigd door .oisyn op 25 januari 2012 13:06]

En hoger dan full HD hoef je toch niet te renderen
FullHD is, zeker in het buitenland, al veel verder ingeburgerd dan hier in NL/EU. Als je ervan uitgaat dat de komende Xbox in 2013 komt en een jaartje of 6/7 mee moet gaan, zou het wel heel interessant zijn als ie 4K gaat ondersteunen.
4k is iets waar PC gamers zich nog niet eens druk over maken, die zitten hooguit nog 2560*1600 te gamen, eventueel met een Eyefinity setup voor de echte die-hards. Omdat Full-HD TV's nu net goed ingeburgerd zijn zou het dus niet slim zijn om op 4k in te zetten, daar valt namelijk geen geld mee te verdienen.

Daarnaast is de toegevoegde waarde van die resolutie te verwaarlozen als de als de assets (models/textures) er niet naar zijn. Het is dan effectiever om op Full-HD met anti aliasing in te zetten.
Voordat 4k mainstream wordt zitten we (waarschijnlijk) al minstens 3-4 jaar in de toekomst en vergis je niet in hoeveel zwaarder dit is. De resolutie is maar liefst Full HD.. keer vier! Daar mag je er een aardig SLI/XFire systeem opzetten wil je op de PC fatsoenlijke performance hebben, bij consoles waar keuzes worden gemaakt om kosten te drukken maar een minieme hoeveelheid RAM te gebruiken zie ik dat nog niet gebeuren. De 'extra' kracht die je hiervoor nodig hebt zal de prijs ook bijna verviervoudigen en een console met een prijs van ~¤1000 zit niemand op te wachten.
Voor deze console uitkomt zit je al anderhalf jaar in de toekomst, en als die weer net zo lang mee moet gaan als de xbox 360 dan zit je in (eind) 2021 voor er een opvolger komt. en is volgens jouwn inschatting 4k2 al minstens 5 jaar mainstream. Als een PS4 het dan wel minimaal ondersteunt (zoals de consoles nu 1080p ondersteunen) dan zal die toch een hele streep voorhebben op de xbox over meer dan de helft van zijn levensduur.
zou het wel heel interessant zijn als ie 4K gaat ondersteunen
4K is helemaal niet nodig. Het is een beetje als zeggen/aannemen dat een camera met heelveel pixels beter is dan een camera met wat minder pixesl. Je kan beter een hele goede lens hebben en wat minder pixels dan een slechte lens met veel pixels. Zo ook met de resolutie in games. Beter wat minder hoge resolutie maar super high-res textures, heelveel kleuren etc etc dan een hoge resolutie en minder goede textures, minder kleuren etc etc.

1080p zal de komende jaren meer dan voldoen zijn voor games. Ook voor de komende generatie. En daarbij zie ik het niet gebeuren dat binnen nu en 5 jaar 4k schermen mainstream zijn. Dat zal zeker nog wel langer duren. Laat ze eerst maar eens de huidige flatscreens verbeteren want over het algemeen is het nog behoorlijk bagger wat de flatscreens aan beeldkwaliteit produceren.
En laat dit nou net zijn wat ze tot enkele jaren terug over Full-HD zeiden ...

Jij kan nu helemaal niet voorspellen hoe schermresoluties gaan evolueren in de komende x jaar, dus lijkt het me eerder slim om nu te investeren om de 4k resolutie aan te kunnen en deze als verkoopsargument te gebruiken, andere spelconsole- en computer(onderdelen)fabrikanten gaan dan zeker weten volgen en de 4k schermen zullen dan zeker wel volgen.
En laat dit nou net zijn wat ze tot enkele jaren terug over Full-HD zeiden ...
I call BS, oh misschien heeft een dorpsidioot het wel gezegd, maar ik geloof echt niet dat er een aantal jaren terug werd gezegd dat full-HD weinig toevoegde. (En ook niet langer terug, je weet wel voordat full-HD mainstream was). Het verschil was enorm, en niet bepaald verwaarloosbaar.

Al helemaal onwaarschijnlijk dat ze het ooit hebben gezegd, omdat het over games ging waar je op reageerde. Lang voordat full-HD schermen standaard voor TVs werden kwamen computermonitoren voor games er op zijn minst al dicht in de buurt.
Jij kan nu helemaal niet voorspellen hoe schermresoluties gaan evolueren in de komende x jaar,
Wanneer 4k gaat doorbreken is moeilijk te voorspellen, wat ik wel durf te voorspellen is dat na 4k de resolutie niet meer significant omhoog zal gaan, en ja dat durf ik nu al te voorspellen, en ik durf ook al te voorspellen dat er niet bijzonder veel haast achter 4k zal zitten. (Uiteraard zullen videofielen gewoon doorgaan naar 20k).

Iedereen die een oude TV en een full-HD TV naast elkaar zette was onmiddelijk onder de indruk van het verschil, maar laten we nu kijken naar full HD, als je een TV van een meter breed heb (dus een flinke TV), dan is elke pixel 0.5mm. Een goed menselijke oog kan onder ideale omstandigheden details onderscheiden met een resolutie van 0.02 graden. Dan moet je op ruwweg 1.3m afstand van die TV van een meter breed zitten om nog in theorie de pixels te kunnen onderscheiden. Doe dan nog standaard dingen als anti-aliasing eroverheen en dat je niet naar een zwart-wit raster kijkt (oftewel geen ideale omstandigheden), en het is onwaarschijnlijk dat je zelfs op die afstand wat ziet ervan.

Dan heb je natuurlijk altijd extreme situaties waarbij meer resoluties nodig zou zijn, zoals bij je videowall van 8m breed, en daarnaast kan ik ook best geloven dat de kwaliteit van het beeld nog vooruit gaat bij meer pixels, al kunnen ze dan volgens mij beter eerst eens de framerate van videos opschroeven. Echter het punt blijft, dit is niet te vergelijken met de stap van SD naar HD, en gewoon vanwege wat je kan zien verwacht ik al helemaal niet dat er erg veel haast achter zal zitten om naar meer dan 4k te gaan, ik verwacht dan eerder hogere framerates en 3D effecten.

En bij games zit denk ik al helemaal nagenoeg niemand op 4k te wachten denk ik zo, ik in iedergeval niet. Tov full HD verviervoudigt het aantal pixels dat je graka moet berekenen, die valt spontaan dood neer bij alleen al het idee eraan.
Wanneer 4k gaat doorbreken is moeilijk te voorspellen, wat ik wel durf te voorspellen is dat na 4k de resolutie niet meer significant omhoog zal gaan,

Onzin! Na 4K gaat de reso absoluut nog significant omhoog. Zeg ik je bij deze.
Onzin! Na 4K gaat de reso absoluut nog significant omhoog. Zeg ik je bij deze.
Chapeau, goed onderbouwd, ik ben helemaal overtuigd, itt de one-liner post van furby-killer zonder onderbouwing en argumentatie whatsoever!
er waren lang voor het HD tijdperk al CRT schermen met 1920x1200. Hun tijd zeker ver vooruit. 4k is überhaupt geen vraag naar, en zoals eerder gezegd is de hardware er nog lang niet klaar voor. Alleen voor hedendaagse spellen is 2GB framebuffer al belangrijker aan het worden, zelfs op 1920x1080, als we naar 4k gaan hebben we 4x zoveel geheugen nodig, oftewel een gig of 6-8, bespottelijk.
Framebuffer is het ding waar naartoe gerenderd wordt. Je hebt nooit een 2GB framebuffer nodig. Jij hebt het over videogeheugen (waar naast de framebuffer ook textures en vertexdata e.d. in staan) ;)
Die GeForce 3 Ti500 van de Xbox was geloof ik even snel als de GeForce 4 Ti's uit die tijd. En zover ik weet heeft de GPU van de Xbox360 meer weg van de HD 2900 dan van de X 1950.

Toch denk ik dat de Graphics Core Next architectuur beter is voor de Nextbox, want de HD 6670 is toch weer eigenlijk een lichte verversing van de HD 5000 serie die weer eigenlijk helemaal terug gaat tot de HD 2000 serie (R600) met de VLIW5 architectuur.

Ik denk dat Microsoft backwards compatibility wilt bevorderen want de Graphics Core Next architectuur is geen VLIW maar een gewone SIMD architectuur.


Bij een PC zou dat geen probleem zijn geweest vanwege de Direct3D tussenlaag. Maar in console games wordt meer close-to-metal geschreven dus een kleine architecturele wijziging maken native backwards compatibility bijna onmogelijk.

[Reactie gewijzigd door Pyronick op 25 januari 2012 11:35]

1280x720 is toch ruim 17% meer pixels dan 1024x768....
Ik kan nu wel een heel verhaal typen, maar Microsoft gaat geen 'matige' GPU gebruiken voor een console die pas over bijna 2 jaar wordt gelanceerd en vervolgens nog 10 jaar mee moet voordat er weer een opvolger komt (als die er überhaupt nog komt met de opkomende streaming markt).
Een Geforce 3 Ti 500 vereist slechts 50W aan vermogen. De koeltechniek is wel wat vooruit gegaan, maar een 66W chip als uitgangspunt met 50W op 28nm lijkt vrij verstandig. Zichzelf lossolderende chips vanwege de hitte is niet een theoretisch risico zoals de eerste versie van de Xbox360 wel heeft laten zien. Bovendien willen ze ongetwijfeld ook meer op films en entertainment inzetten, waarbij stillere koeling ook erg prettig is. Je kunt altijd nog de kloksnelheid wat omhoog gooien als het verbruik straks toch meevalt.
Zo ziet her er uit, en er worden dan geen goede games meer op de pc gemaakt omdat ze steeds slechtere ports maken.
Toch zit er wel een punt in wat seal64 zegt, het verschil in kwaliteit door eventuele optimalisaties is nu niet echt groot en consoles moeten toch vooral hebben van lagere resoluties, mindere textures en andere trucjes: de optimalisatiewinst is lang niet zo groot als men aanneemt, zeker niet bij multiplatform titels.
Nou de situatie van toen en nu is anders.
Men leunt toch nu tegen voor developers irritante limieten waar je als gamer weinig merkt omdat dit inhouse bij de developer blijft.
En dat is die ielle 512MB UMA geheugen.
Een beetje PC heefd dit al puur voor video mem.
Soms klap een dev uit de stoel en dan lees je dat er weer een game flink wat content geaxed wordt door limiten.
Ook DVD opslag blijkt te weinig. Niet elke dev brengt dit naar buiten.
Ook zijn er uiteraard dev's die van af begin al met limieten bezighouden want het is allemaal verloren werk.

1080P native draaien gaat ook niet zo van met die ouwe GPU.

Maar deze vorige DX11.0 kaart huidige gen is een flinke stap vooruit een DX11.1 variant zou met gelijke moderne dieshrink en gelijke TDP alleen als extra .1 functionaliteit bieden. Kwa rauwe power ga je er niet op vooruit alleen subtiel in featureset. Vaak op die vlakken dat een gamer dat amper kan merken.

Hou er ook rekening mee dat vele verbeteringen in API meer developer gericht zijn en niet zo zeer in merkbare feature set uitbreidingen.

Dus de meerwaarde van DX11 tov van DX9 is wat groter. En voor een console wat een native API voor die GPU fixed ondersteuning krigt bied DX11.1 tov DX11.0 niet veel meerwaarde.
Als de 7 serie nou iets bood als baanbrekende feature dat ook gamers makkelijk in games kunnen opmerken tov 6 serie. nou nee.

Daarnaast, de invloed van Wii concept wat er voor gezorgd heefd dat de nextgen vertraagd of eerder uitgesteld is. Kinect en move hebben een reincarnatie beleid mee gekregen om wat Wii tegen wicht te geven. De wii heefd daarmee concurentie.
Deze markt rust op veel goedkopere platform als Console.

Kan zijn dat zoals Sony met de veel te dure PS3 introductie die fout al helemaal niet meer wil maken. Dat vooruit strevende tech onderschikt is aan prijs barrierre.
Dat MS en Sony niet al te duur wilt inzetten. Dus een 350 tot 400 euro introductie prijs.
En niet te ver beneden kosten prijs het in de markt wilt dumpen.

Dan is er een ander limiet zoals we weten heefd PC power te over op een bepaalde moment is de meerwaarde van meer power voor GFX niet zo belangrijk meer.
net zoals van modeX PC gamen onder dos naar VGA. dan naar SVGa en dan naar FHD achtige resoos. Is er een grens dat het niet zo toe doet.

Dus als Xbox3 er 5 tot 10x op vooruit gaat dat De realistische genres voldoende power hebben om tot hun recht te komen. Dan is de annimo voor veel zwaarder Xbox4 er ook niet zo.
Op PC is meer dan 2GB de normaaste zaak en voor games samen met een OS dat de helft al inneemd ruim voldoende.
Nu met 64bit is 4GB de maat en zelf zit ik op 8 en 12GB met 1 en 3GB vidmem.

Er komt gewoon een moment dat een limiet vervalt als het voldoet.

Zoals 8bit addressing 16bit 32bit 64bit
128bit geen behoefte aan om 2 tot de macht 128 geheugen te gebruiken.

Midrange vroeger trok high-end 60watt nu 300+ wat. Dus HTPC wat zo'n Boxje evenaard is 100watt al te veel.
Dus van high-end naar performance naar midrange is dus eigenlijk heel normaal.

Of een godzilla xbox met pokke herry om 400 watt af te voeren.
Aangezien 99% van de volgende generaties consoles hun hele levensduur aan een 1080p televisie gaan hangen boeit het natuurlijk geen reet of je GPU ook 1600x1200 of hoger aankan. De brute kracht die je nodig hebt om zoveel meer pixels aan te sturen gaat dan grotendeels verloren.

Het gebruik van hogere of lagere resolutie textures heeft verder zo goed als niks met de rekenkracht van je GPU te maken, maar puur en alleen met de hoeveelheid en de snelheid van het beschikbare geheugen. Wat snelheid van het geheugen betreft lopen consoles bij release jaren voor op PC's (sterker nog, de PS3 heeft tot op de dag van vandaag sneller RAM dan welke PC dan ook), dus de enige voorwaarde is dat er genoeg van in de nieuwe Xbox en PlayStation zitten.

@martijnve en @aebtom
Inderdaad, dat was geen goed voorbeeld, maar het punt blijft hetzelfde, en dat is dat het verschil in brute kracht tussen PC en console vooral voordeel heeft als je nog hoger gaat dan full HD, of als je de AA instellingen enorm opschroeft (wat kort door de bocht gezegd betekent dat je zomaar 4x zoveel pixels moet renderen). Full HD op 2xAA vs. nog hoger dan Full HD op 4xAA = een gigantisch verschil in fillrate. Gezien de typische console opstelling (1080p, op meer dan een meter van het scherm) heeft het domweg weinig toegevoegde waarde om op zulke resoluties en AA settings te spelen.

[Reactie gewijzigd door johnbetonschaar op 25 januari 2012 14:28]

1600x1200 zijn minder pixels dan Full-HD / 1080p
Dat is correct.
2.073.600 voor full HD.
1.920.000 voor 1600x1200.
7,5% meer pixels voor full-HD.
Dat lukt je bij lange na niet. Ik heb laatst voor de grap eens op een X1900 XTX zitten gamen in een modern Phenom II X4 systeem en de games zagen er niet uit en het liep niet lekker. Ik heb zelf een Xbox 360 en dat ziet er toch heel wat beter uit en het loopt soepel.
Is er ooit wel is een console geweest die de beste videokaart van dat moment erin had?

volgens mij niet.. dus zo raar is dit niet
plus dat
Bij consoles is er in de regel namelijk minder overhead en omdat ontwikkelaars voor een specfieke chip schrijven, kunnen ze hun code beter optimalisere
Consoles moeten hun warmte ook nog kwijt natuurlijk, en dat gaat lastiger in een klein kastje... ik vind de xbox 360 al veel te lawaaierig
Is er ooit wel is een console geweest die de beste videokaart van dat moment erin had?
Eh... de xbox 360 zelf? En zelfs als de 360 of de PS3 niet net mee konden komen met de aller-allernieuwste kaarten is het wel een wereld van verschil met een low-end GPU die bij release al 2 jaar oud was.
Probeer het nieuwe modelletje eens, scheelt bakken herrie :)
Wat ze met uncharted 3 doen is ook de cell engine gebruiken voor rendering.
Dat was oorspronkelijk ook de bedoeling echter niet elke ontwikkelaar had (en heeft nog steeds niet) de kennis hiervoor in huis.
Je moet niet alleen kijken naar prestaties van hardware. Ook een de prijs is erg belangrijk. Je kan nu wel een kaart pakken die 300-400 euro kost en uitstekende prestaties levert voor je console, maar de console moet ook nog gekocht worden door de consument. Als de console dan 700-800 euro kost, omdat van die dure hardware in zit, dan koopt niemand het natuurlijk. Je console moet ook toegankelijk blijven voor de consument. Zeker nu Microsoft te maken heeft met gamers van iedere soort (casuals, pro's etc..).
De HD 7770 ligt over een paar maanden voor 100 euro in de schappen, blaast een HD 6670 uit het water en verbruikt ongeveer evenveel stroom (maar veel minder in idle) als de GPU van de oorspronkelijke Xbox 360. Als dit verhaal over de HD 6670 waar is doen ze dat alleen maar omdat het ze allemaal niets kan schelen wat de gamer vindt, zolang er maar geld wordt verdiend.
Je kan je PC niet vergelijken met een console..

Je (Windows) PC draait met een OS wat helemaal volgepropt is met allerlei programma's die je niet of nauwelijks gebruikt, een console is een volledig 'kaal' OS specifiek bedoeld om dat soort spellen te spelen. Je PC is dan een cruiseship terwijl je console een speedboat is. (dit is tevens de reden dat ik een volledig gestript OS gebruik voor mijn GamePC, zonder AV, netwerk/internet).

Enneh, je wil in een nieuwe console geen kaart hebben waar nog bugs in zitten, je wil een GPU hebben waarvan is bewezen dat het optimaal en 100% is.
Je (Windows) PC draait met een OS wat helemaal volgepropt is met allerlei programma's die je niet of nauwelijks gebruikt
Heb daarom ook nooit begrepen waarom er nooit iemand is geweest die iets als de Linux kernel (waarschijnlijk al veel teveel overhead) heeft gepakt ... alles eruit heeft gesloopt en omgebouwd tot puur PC Game OS.

Een highend PC met een dedicated game OS zou veel meer kunnen bieden als een console.
ga eens googlen er zijn iig wel windows OSjes die hellemaal zijn uitgekleed en zo kaal mogelijk gemaakt voor gamepc's

OT: ben benieuwd hoe veel mooier de games zullen gaan worden met de 720
Neem daarbij ook nog eens een berekening voor de kosten van het totaalplaatje.
De meeste mensen zijn er niet zo happig op om een +/- 800 euro neer te leggen voor een console.
Weet ik zo net niet. Toen de PS2 net uit kwam voor 1200 piek zei iedereen hetzelfde. Duur, verkoopt nooit etc. Verkocht als een gek, zelfs voor die prijs. PS3 phat zat in het begin ook op een hoge prijs. Dat zakt vanzelf wel, de early figuren hebben het geld er normaal wel voor over.
De PS3 verkocht onder andere zo goed omdat het rond zijn komst even van de betaalbaarste Blu-Ray spelers was.
Tijden veranderen... je kan moeilijk de PS2 tijd gaan vergelijken met de huidige tijd
Kijk bijvoorbeeld naar de PSV en 3DS.. ook hoge prijzen, het is wel duidelijk dat mensen daar niet meer op zitten te wachten in deze tijd
Klopt, de PS3 zat in het begin ook hoog aan de prijs.
Maar naast dat de Wii een family-console was, heeft de hoge prijs van de concurrentie de Wii ook veel goeds gedaan.
Nu dat de PS3 en 360 op bijna gelijk niveau zijn qua prijs verkopen deze t.o.v. de Wii ook een heel stuk beter dan voorheen.

Nu kun je zeggen dat het dus uiteindelijk wel bijtrekt, maar hierdoor heb je dus al wel tussen 2007 en ... zeg eind 2010 al flink wat inkomsten door games moeten missen, en laat dit nu direct hetgeen zijn waarmee de consolefabrikanten hun winst moeten pakken.
ze betalen toch ook 500 a 600 euro voor een telefoon die veel minder lang meegaat...
een 80 euro duurdere gpu uit de 7xxx serie zal er niet voor zorgen dat de console ineens niet meer verkoopt zeker niet als je het als verkoop techniek gebruikt.
nieuwe techniek verkoopt immers beter dan oude techniek.
Onder de meeste bezoekers hier op Tweakers zal dit zeker het geval zijn, en wellicht in jouw vriendenclub ook, maar het grotere gros zien alleen nieuwe consoles [b] uitkomen en niet welke hardware/technologie er binnenin het 'bakje' zit.
lol, er was idd geen enkel probleem bij de release van de 360 qua hitte en red rings....
ondanks optimalisatie voor een GPU vind ik een chip gebruiken die in feb 2011 uitkwam en nu pas in begin 2014 ruim beschikbaar komt nogal tegenvallen. spreek dan gewoon met een fabrikant af dat hij uiterlijk een jaar van tevoren een kaart moet leveren die aan een aantal vooraf bepaalde zaken moet voldoen (bv max wattage, minimaal aantal shaderunits, enz.).
Tja, je moet nu eenmaal al vroeg beginnen met productie en ontwikkeling. Je wilt niet elke paar maanden een nieuwe gpu in een Xbox stoppen. Dan kun je elke keer weer opnieuw beginnen met testen.

Wat dat betreft is het niet verbazingwekkend dat er een gpu uit 2011 in zit, maar misschien eerder dat het geen high-end kaart is. Al kan ik mij daar ook wel wat bij voorstellen; je zit bij high-end kaarten toch vaak met voeding en warmte ontwikkeling. Twee zaken die vrij belangrijk zijn bij console lijkt me.

Meestal hebben die consoles geen 500W voeding (al zou dat op zich nog kunnen) en warmte ontwikkeling is helemaal niet handig in zo'n compact apparaat. Tenzij je actieve koeling inbouwt met de bijbehorende geluidsproductie. Wat het weer niet goed doet in een huiskamer waar het apparaat moet komen te staan.

[Reactie gewijzigd door Cloud op 25 januari 2012 09:32]

Het lijkt me dat je dit bericht met enige korrels zout moet interpreteren, het lijkt me namelijk niet heel aannemelijk dat ze gewoon een vanilla-6770 chip in de nieuwe console stoppen. Aangezien hij op een kleiner procede gemaakt zal worden zal hij misschien ook nog hoger geclocked kunnen zijn. Ook over de hoeveelheid videogeheugen wordt niks gezegd, hoewel dat wel minder invloed heeft. Bovendien is het ook interessant wat voor een CPU er in de console zit.

Verder is het waarschijnlijk zo dat een voor de PC high-end kaart voor een console ontzettend overkill is. Ik kan me voorstellen dat het voordeel wat te halen valt uit optimalisatie voor 1 bepaalde chip relatief veel groter is dan het voordeel van meer en stellere gpu-processors. Als de chip niet toereikend zou zijn om een aantal jaar nog mee te gaan dan zouden ze die niet hebben gekozen.
Het artikel noemt 66xx niet 67xx.

Verder denk ik dat veel mensen over het hoofd zien dat (zoals dat vroeger veel het geval was) het best mogelijk is om (zeker met de huidige prijzen voor RAM) er gewoon 8 of 16GB RAM in stoppen en dat shared maken voor zowel de CPU taken als de GPU taken.

Ook denk ik dat consoles meer baat hebben bij een goede CPU, zoals de PS3 nu ook veel meer taken verdeelt over de CELL processor en in veel mindere maten de GPU.

Punt is: de CPU kan best meer ingezet worden voor GPU taken waardoor een 66xx prima kan voldoen.
Inderdaad, met de PowerPC of ARM cpu's die erin gaan kan dat makkelijk.
Veelal zijn die processoren best wel gebouwd voor zware berekeningen, de CELL processoren zijn eigenlijk ook super in shading en vertexes, kijk naar Uncharted 3.

Mensen denken al vrij snel te kortzichtig over specificaties, en als ze niet voldoen aan wat ze zelf in de pc hebben is het direct "kut', Terwijl het geen 1 op 1 vergelijking kan en mag zijn.
Beetje raar om een chip uit 2011 in een machine van 2013 te stoppen.. Lijkt me zelfs voor consoles niet zo'n goed idee.
Elke keer als er een nieuwe console uitkomt zie ik deze reactie en altijd is het antwoord:
Hoewel de HD 6670 voor pc's een midrange-kaart is, kunnen spelontwikkelaars uit een vergelijkbare chip in de nieuwe Xbox behoorlijk wat prestaties halen. Bij consoles is er in de regel namelijk minder overhead en omdat ontwikkelaars voor een specfieke chip schrijven, kunnen ze hun code beter optimaliseren.
Dan nog is het merkwaardig, de 360 heeft een radeon chip die erg veel lijkt op een X1900, een high end kaart van rond die tijd. Een console die eind 2003 op de markt komt een midrange chip geven die begin 2011 al op de markt is gekomen ligt wat verder uit elkaar. een 7770 of iets in die richting was meer in lijn met de geschiedenis geweest.

Een laag TDP zou wel fijn zijn trouwens, ik hoef niet zo nodig weer een 200w stofzuiger onder de TV.
De Xenos (360 GPU) lijkt helemaal niet veel op R520, de Xenos lijkt heeeel sterk op de R600. Eerste unified shader architectuur chip uit de ATI stal, de complete FLIW-5 setup zat er al in. Xenos was zijn tijd dus al ver vooruit zelfs.
Je moet je wel bedenken dat ontwikkelaars ook de tijd moeten hebben om een game te schrijven. Als je nu kiest voor een kaart die er nog niet is, dan kunnen de ontwikkelaars nog niks schrijven. Je wilt namelijk wel dat er een paar goede titels op de planken staan bij release van de nieuwe console.
Daar kan ik goed inkomen, maar om er dan een "mid range" chippie in te stoppen?
Kom op zeg!

HD67xx is mid range
HD68xx is tussen mid en high in.
HD69xx is high end

Om een HD66xx mid range te noemen? Neh..

Stop er dan op zn minst een HD68xx in. Of een paar varianten en geef de xbox een leuke naam per versie.

xbox 720 voor HD6670
Xbox 720 pro voor HD67xx
Xbox 720 elite voor HD6950

Of misschien een nog beter idee dat ik al een paar jaar in mijn hoofd heb zitten. Maak consoles waar swappen van hardware mogelijk is. Zo kunnen de console nerds ook een beetje bij het PC power gros blijven en kunnen hun zuurverdiende console steeds upgrades geven en blijven de games die gespeeld worden qua eyecandy ook lekker hoog..
Tegenwoordig is het bij pc games vaak zo dat het systeem eerst gescant wordt en de gameinstelling daarop automatisch wordt aangepast aan de hand van de hardware die in de pc zit.
Als dit ook kan bij een console kan, heb je dit gat ook meteen gedicht en kan bij elke console-configuratie de gameinstelling automatisch worden ingesteld aan de hand van de videokaart.

Ik zie hier best brood in. De commerciele molen blijft lekker draaien en iedereen is blij, zonder dat er mensen tegen de grafische beperkingen aan zitten te hikken en daarom geen console kopen.
Verschillende hardware in consoles? Swappable hardware in consoles?

Noem je het dan nog een console of gewoon een PC 8)7
Het zou wel prettig zijn om bijvoorbeeld een SODIMM bij te kunnen prikken. Zo kan je de levensduur van de console iets vergroten zonder je nu op kosten te jagen.
Een extra SODIMM (of ander/sneller geheugen) zou dan prima ingezet kunnen worden om een HD texture pack te gebruiken. Ofwel geen extra geheugen, geen extra graphics.

Goede ondersteuning voor SSD's zou ook niet misstaan. Mijn PS3 herbergt een Vertex 2, maar wordt er nauwelijks tot niet sneller van, wat eigenlijk tegen verwachting in is.
De Xbox was gereleased 2005, in 2013 is hij alweer 8 jaar oud. 8 jaar op een console van 400¤ (?), dus 50¤/jaar voor je console kun je moeilijk "je op kosten jagen" noemen.

Bovendien is wat je voorstelt maar een lapmiddel, en fragmentatie is hoogst onwenselijk op de consoles.
Tja... dan krijg je dus dat je verschillende soorten DVD/Blu-Rays krijgt, of ze gooien alles op 1 Blu-Ray en dan wordt de ruimte op de Blu-Ray weer te klein.

Wanneer dit 1e scenario wordt toegepast worden spellen niet uitwisselbaar, bij het 2e plan moet er een nieuw soort schijf worden verzonnen of meer in 1 doos, wat duurder is.

Niet handig dus.

Consoles moeten allemaal hetzelfde kunnen, daar moet geen verschil in zitten. Anders krijg je weer tweaks waardoor de ene soepeler loopt als de andere en dan heeft de een weer meer voordeel als een ander....
Consoles moeten allemaal hetzelfde kunnen, daar moet geen verschil in zitten. Anders krijg je weer tweaks waardoor de ene soepeler loopt als de andere en dan heeft de een weer meer voordeel als een ander....

Dat is bij de pc toch ook zo? Dat iemand meer geld heeft of er iig meer geld voor over heeft, heeft misschien meer kans van slagen om een kill te maken, dan iemand die een lowend pc heeft waar een super zwaar spel op geinstalleerd staat. Maar goed, als je een beetje redelijke pc hebt, hebben frames totaal niets met de aantal kills temaken,maar meer met je skills.

Voor mij is eyecandy erg belangrijk vandaar ik weinig tot bijna niet op mijn ps3 speel en een highend pc heb, maar om iedereen te pleasen lijkt mij zon swap-oplossing een goed idee. En vind de discussie dat programmeren veel moeilijker is als er verschillende hardware in een console zit een beetje onzin. Mensen schieten raketten de lucht in, maken spaceshuttles en andere fancy chit, maar programmeren lukt niet.. Komt bij een beetje over dat consoles voor de luie mens gemaakt is. Bij de PC gaat dit toch ook en is een spel toch ook op tijd af?? ( in de meeste gevallen)

De kracht van een console zit hem net erin dat de precieze specs hetzelfde zijn zodat de makers hun spellen hierop kunnen optimaliseren en dan stel jij voor om verschillende versies van consoles te maken. Wat dus precies de oorzaak is waarom spellen op de pc niet zo goed draaien als op een console met dezelfde hardware.

Dan gaan de ontwikkelaars hierin eens iets nieuws in verzinnen? Kom op zeg! Ja, jongens, we blijven lekker hangen, en gaan niet mee in de tijd en ontwikkelen niet door.
Ik zou eens een console willen zien die van beide werelden het beste heeft dus een PC/Console combo.

[Reactie gewijzigd door Audione0 op 25 januari 2012 12:09]

Het is leuk en aardig, maar een raket de ruimte in schieten heeft eigenlijk vrij weinig met computers te maken. Ja, je moet allerlei dingen monitoren en systemen moeten op elkaar aansluiten, maar veelal is een spaceshuttle gewoon een groot, sterk ding, met sterke motoren die aangestuurd worden door computers die ook de boorddevices (luchtfiltering, systemen voor vocht e.d.) aansturen.

Een game maken is vrij intensief, je moet zowel modelleren als programmeren en elk bedrijf moet programmeren voor de hardware die in het apparaat zit.
Waarom hier nog niets universeels voor is gevonden? Omdat je dan gigantische performance verliezen krijgt.
Dat is dus het hele, grote verschil tussen een pc en een console, je hebt die DirectX laag bij een console er niet tussen hangen.

Daarbij: Denk je dat als dit voor bedrijven slecht zou zijn ze niet allang een andere vorm hadden ontwikkeld? Ze zijn er echt wel mee bezig hoor, maar zoals het nu werkt, werkt het gewoon het efficienst, en zelfs dán is het nog flink moeilijk.
De kracht van een console zit hem net erin dat de precieze specs hetzelfde zijn zodat de makers hun spellen hierop kunnen optimaliseren en dan stel jij voor om verschillende versies van consoles te maken. 8)7 Wat dus precies de oorzaak is waarom spellen op de pc niet zo goed draaien als op een console met dezelfde hardware.
xbox 720 voor HD6670
Xbox 720 pro voor HD67xx
Xbox 720 elite voor HD6950
Ontwikkelaars zullen het vast ontzettend fijn vinden om voor drie verschillende consoles te optimaliseren. Of je moet het met een DirectX-achtige interface doen, dan hoeft dat niet maar gaat de performance weer lekker achteruit. Lijkt me meer gedoe dan dat het oplevert.

En alleen voor tweakers is een HD68xx nog geen high-end... een HD6670 mid-range noemen kan ik best inkomen. Er is gewoon prima op te gamen en hij is bijna net zo snel als mijn voormalig high-end HD4850 (zal daar ook wel discussie over ontstaan, "alleen de HD4870x2 was high end" :P).

Het is ook wel zo dat vroeger alleen de top-kaarten van 600+ euro echt geschikt waren om te gamen, en om toekomstige games ook goed te kunnen spelen. Met de huidige hardware-ontwikkelingen worden high-end videochips meer overkill dan vroeger (behalve als je extreme toepassingen als eyefinity gaat bedenken :P) en zijn goedkopere chips ook al voldoende om redelijk goed te kunnen gamen. Nieuwe high-end videokaarten gaan ook steeds meer verbruiken, en dat is voor een console dus helemaal niet handig.

[Reactie gewijzigd door bwerg op 25 januari 2012 10:39]

Je slaat hier totaal de plank mis.

Je kunt niet zomaar performance verschillen gaan inbouwen bij spelcomputers. Dit heeft voornamelijk te maken met de ontwikkeling van spellen. De spellen die gemaakt worden voor een spelcomputer zijn gemaakt op exacte hardware en daar dus ook voor geoptimaliseerd en kunnen dus in verhouding een stuk betere graphics produceren dan dezelfde hardware in een PC. Als je verschillende hardware gaat gebruiken wordt deze optimalisatie taak een tijdrovende bezigheid.

Dit komt absoluut niet ten goede aan de prijs en kwaliteit van een game. De tijd die het kost om te optimaliseren zal dan worden weg gesnoept bij bijvoorbeeld level-design of texture design waardoor de game dus wellicht minder compleet of afgewerkt aanvoelt.

Daar komt ook nog eens bij kijken dat wanneer iemand een mooier, scherper en vloeiender beeld heeft als een ander tijdens online gaming hier nogal wat oneerlijke concurrentie ontstaat. Je merkt namelijk wel het verschil tussen 24 en 60 fps. Zeker in snelle games als shooters. Hierdoor kun je net iets flotter en beter richten. Vergelijk het een beetje met Lag.
Hmm, ik weet niet , misschien heben mensen bij Microsoft wel eens stil gestaan bij power consumption , hitte en geluidsproductie ? Misschien werkt een 7970 niet zo lekker in een klein doosje met één ventilator ?

Grappig hoe iedereen denkt dat ze wel even slimmer zijn dan microsoft ...
xbox 720 voor HD6670
Xbox 720 pro voor HD67xx
Xbox 720 elite voor HD6950

Of misschien een nog beter idee dat ik al een paar jaar in mijn hoofd heb zitten. Maak consoles waar swappen van hardware mogelijk is.
En dan zeuren dat een console tegenwoordig zoveel op een PC lijkt 8)7. Als je zo nodig hardware wilt kunnen swappen, waarom koop je dan niet gewoon een PC, met een relatief belabberde performance als gevolg van alle hardware abstractie en het gemis van specifieke optimalisaties?

I vote worst idea ever.

[Reactie gewijzigd door .oisyn op 25 januari 2012 11:40]

Dit is het verleden gedaan. Beste voorbeeld was de Sega Megadrive. Twee a drie jaar na release kwam Sega met twee addons's. De MegaCD voor spellen met grotere opslag en de Sega 32X die je als addon op de console plaatste. De 32X had snellere hardware en was in dat opzicht een console upgrade.

De verkoopcijfers mag je van me opzoeken maar er is een reden waarom dit niet meer wordt gedaan. Nintendo heeft het geintje nog wel geflikt met de FX chip voor de SNES. Hiermee werd een extra chip in de cartridge gedaan voor bv de 3D effecten in Star Fox. Gamers hoefden niets te upgraden omdat de upgrade in de game zelf zat. Dit is met de huidige media helaas niet meer mogelijk.
Je kunt altijd ontwikkelaars een virtueel doel geven. Daarnaast zie je vaak dat games bij release nog lang niet de grafische kracht benutten van een console. Je zou dus ontwikkelaars kunnne laten uitgaan van de nieuwste kaart nu. en als de console over 2 jaar uit komt zit er een videokaart in met alle functies van de kaart nu maar dan 5 keer sneller met extra features.

Wat meer een probleem is, is waarschijnlijk, dat microsoft momenteel aan het bedenken is hoe maken we deze console betaalbaar... Als je hetzelfde probleem krijgt als PS3 toendertijd had dan maak je de eerste jaren niet eens winst op zo'n device. De PS3 was dan ook veel te hoog gegrepen. met eigenlijk ook weer een veel te lichte videokaart... als ze daar een kaart in hadden gebouwd die 2 keer sneller was dan had de console nu nog jaren mee gekunnen. Echter dan was deze bij release nog 200 euro duurder geworden.
Zoals hierboven al een keer gepost was met een uncharted voorbeeld. De bedoeling was dat ook de graphics zelf op de core processor gingen lopen, dat is ze niet op tijd gelukt en toen is als noodgreep er maar een videokaart bij in gestoken. Maar je hebt gelijk, ze hebben te hoog gegrepen. Ben wel benieuwd wat ze nou gaan doen,
Of het hele core idee links laten liggen en iets dat meer op de andere consoles lijkt uitbrengen (zal veel developers blij maken).
Of toch alsnog op de Cell processor inzetten? Lesje geleerd hoe het niet moet om het vervolgens goed te doen?
Dat is natuurlijk onzin. Ze moeten toch ergens beginnen met ontwikkelen van het aparaat. Dan kunnen ze aan het einde niet in eens een state of the art nieuwe gpu er in donderen. Als het ontwerp afgemaakt is in 2011 en de ontwikkeling van het geheel door gaat tot 2013 dan is het logich dat het ding gebaseerd is op hardware uit 2011.
Hier ben ik het helemaal mee eens! Daarnaast hoeven de games bij launch ook niet volledig geoptimaliseerd te zijn omdat er toch voldoende rekenkracht zal zijn. Nu kiezen ze voor een midrange kaart en zal de console weer minder lang mee gaan. Vind dit ook absoluut geen goede ontwikkeling. Een product in 2013 lanceren met een GPU die gemaakt wordt op basis van een midrange GPU van 2011 |:( Misschien dual-gpu :)

Ze kunnen toch dezelfde architectuur hanteren en toch een betere GPU gebruiken of meerdere? De code van games worden toch pas op het einde van een console echt geoptimaliseerd, omdat er niet genoeg rekenkracht aanwezig is. Laten we maar wachten tot er meer details uit komen over de nieuwe consoles ;)
Mee eens. Drivers voor een videokaart kunnen op het laatste moment nog worden aangepast. zolang de game maar op een bepaalde architectuur altijd werkt zal een nieuw spel op een zwaardere videokaart altijd alleen maar sneller en strakker draaien.
Want in een console wordt ook alles met drivers aangestuurd, net zoals op een pc. Oh wacht, toch niet.

De reden dat een console met "minderwaardige" hardware meer prestaties neer kan zetten dan, zeg, een pc met dezelfde specificaties is omdat je niet voor DirectX schrijft, maar voor de kaart zelf. Hierdoor kan je optimaliseren en soms wel 3 á 4 keer zoveel prestaties uit een gelijke kaart halen.
Waarom dit niet gebeurt voor de computer? Er zijn teveel verschillen tussen computers om voor elke kaart en elke situatie een andere game uit te gaan brengen.

Bovenstaande heeft ook al eens op tweakers gestaan in een interview met een gamedevver en een uitleg waarom alles zoveel soepeler loopt op een PS3 dan op een PC met gelijke specs.
Direct X is geen Driver he ;) Natuurlijk werken de consoles ook gewoon met drivers want hoe stuur je de hardware anders aan.
Oke, je stuurt de hardware aan met een zelfgemaakte driver, dat klopt. Maar via deze driver stuur jij alle hardwarematige componenten los aan. Het is dus geen universele driver die alle kaarten uit een serie kan aansturen ;)
Klopt... Mijn post was ook alleen bedoeld zodat mensen niet ineens gaan denken dat Direct X een Driver is :P
Op een xbox wordt ook gewoon een driver gebruikt hoor. Ik denk dat je drivers en multimedia API zoals DirectX door elkaar haalt. De xbox gaat ook wel zo een API hebben denk ik. Alleen kan die API geoptimaliseerd worden.

[Reactie gewijzigd door Dranica op 25 januari 2012 11:59]

Een beetje rare reactie als je zegt het eens te zijn met Shunt. Wat hij namelijk beweert is dat het volkomen logisch is dat de Xbox 720 opgebouwd wordt rond een GPU uit 2011. En dan zeg jij 'Nu kiezen ze voor een midrange kaart en zal de console weer minder lang mee gaan. Vind dit ook absoluut geen goede ontwikkeling. Een product in 2013 lanceren met een GPU die gemaakt wordt op basis van een midrange GPU van 2011 |:( '

On topic; goede zaak. Een HD6670 is krachtig zat voor een Xbox (zeker aangezien games puur ontwikkeld worden met die GPU in het achterhoofd), en met een die-shrink naar 28nm is het nog lekker zuinig ook.
ik ben het er helemaal niet mee eens.
vanaf 2014 zal 2K tv meer ingeburgerd zijn/worden, dan lopen ze weer achter de feiten aan...... de echte 1080p spellen moet ik nog tegenkomen want veel zijn het er niet en waarom? omdat ze met oude hardware bezig waren terwijl duidelijk was dat 1080p de toekomst zou zijn. idem voor de keuze tussen bluray en dat andere |:(
ik denk dat de PS4 deze fout niet gaat maken. Althans Sony is al heel erg into 4k2k resoluties sinds enkele jaren al, (marktleider bioscook projectoren in 4k2k, produceren zelf erg veel films in die resolutie voor bioscopen etc.)... Ik ben benieuwd!
Waarom dan niet beginnen met een high-end 6000 serie chip? Het probleem zit hem niet in hou oud de architectuur is (hoewel nieuwer beter was geweest) maar vooral in het feit dat deze chip een lachertje is. Toen de 360 uitkwam waren zelfs de high-end kaarten van dat moment nog niet snel genoeg om de Xbox GPU bij de houden. Toen de PS3 uit kwam was dat gelijktijdig met de launch van de Geforce 8800GTX, die 2 keer zo snel was. Nu komt de nieuwe xbox (volgens geruchten, ik moet het nog zien) uit met een GPU die 2 jaar voor zijn launch al een low-end kaart was. Dat is toch niet serieus meer te nemen? Nintendo-toestanden :P
Ook al nagedacht over de impact op de prijs én de warmte als je een kaart uit een hoger segment neemt?
En als uit de tests blijkt dat de HD 6670 al meer dan voldoende is voor de nextgen console die ze willen uitbrengen, lijkt me dat er weinig veranderd hoeft te worden.

En de GPU is zeker geen low-range kaart hoort, hij is gewoon mid-range maar wel budget. De chip is gewoon zuiniger, TDP is lager en hij is costwise heel effectief, dus is dit best een goede keus vind ik.
Vooral als ze hetzelfde willen doen als met de launch van de PS3 en Xbox360, namelijk de 360 costwise beter op de markt brengen.
Ik zeg niet dat ze de snelste kaart uit de laatste serie moeten nemen want dat werkt niet nee. Maar neem bv de 7970. Een compleet systeem gebruikt bij voluit gebruik zo'n 300-350 Watt. Dat is inclusief CPU, RAM, etc en inclusief de voeding die wss zo'n 10-15% van het verbruik afhaalt. Uiteraard is dat teveel voor een console, maar zelfs een halve 7970 met vooral een smallere geheugenbus rent rondjes om de aftanse 6670 chip. Mogelijkheden genoeg, ook zonder terug te moeten vallen op een jaren oude low-end GPU.
Over Nintendo toestanden gesproken, als dit waar is zitten we met twee chips die vrijwel gelijk presteren. Is leuk voor multiplatform ;)
De huidige XBOX heeft ook "maar" een nVidia 7800 als ik me niet vergis en kijk wat deze aan kan.

Je kunt de videokaart in een console niet vergelijken met de zelfde kaart in een computer. In een console worden deze compleet geoptimaliseerd voor het gebruik in dat apparaat en zal het een stuk sneller/beter werken.

@Hieronder my bad, maar mijn verhaal gaat nog steeds op ;)

[Reactie gewijzigd door Brummetje op 25 januari 2012 11:17]

de huidige xbox beschikt over een ATI Xenos, ongeveer gelijk aan een Radeon X1900/X1950. De eerste generatie xbox had een Nvidia chip.

http://en.wikipedia.org/wiki/Xenos_%28graphics_chip%29
De huidige XBOX heeft ook "maar" een nVidia 7800 als ik me niet vergis en kijk wat deze aan kan

Dit is niet correct, de huidige xbox heeft een ATI gpu :

The Xenos is a custom graphics processing unit (GPU) designed by AMD (former ATI), used in the Xbox 360 video game console. Developed under the codename "C1,"[1] it is in many ways related to the R520 architecture and therefore very similar to an ATI Radeon X1900/X1950 series of PC graphics cards as far as features and performance are concerned. However, the Xenos introduced new design ideas that were later adopted in the R600 series, such as the unified shader architecture. The package contains two separate silicon dies, the GPU and an eDRAM, featuring a total of 337 million transistors.

Bron : http://en.wikipedia.org/wiki/Xenos_(graphics_chip)
Volgens mij ben je echt in de war met de PS3!
Deze heeft een op een NVIDIA 7800 gebaseerd chipsetje!

Wiki: http://en.wikipedia.org/wiki/RSX_%27Reality_Synthesizer%27
Based on NV47 Chip previously based on the 7800 but has been upgraded (Nvidia GeForce 7800 Architecture)
:-)

[Reactie gewijzigd door BeerenburgCola op 25 januari 2012 10:04]

Xbox1; Nvidea NV2a(Geforce2-gebaseerd met extra instructies in de Geforce3/4MX tijd), zette vier jaar na zijn release nog steeds geweldige graphics neer...

Xbox360; ATI Xenos, (r530-gebaseerd, in 2005/6 mainstream kaarten), heeft alleen te lijden onder het beperkte geheugen van de 360, en kan mogelijk nog wel even mee.

Bovendien worden consoles ver na hun introductie(of helemaal nooit!) pas helemaal optimaal gebruikt.

Ik vind het niet vreemd dat ze geen ARM kozen, maar ik had het wel verwachte vanwege backward compatibility. Ik ben meer benieuwd naar het opslagmedium en de hoeveelheid werkgeheugen.
[quote]Xbox360; ATI Xenos, (r530-gebaseerd, in 2005/6 mainstream kaarten), heeft alleen te lijden onder het beperkte geheugen van de 360, en kan mogelijk nog wel even mee.[quote]
Hmua je merkt nu toch echt wel dat ontwikkelaars steekjes laten vallen om het allemaal draaibaar te maken op de consoles

dit zie je vooral bij Sandbox games (zie bijvoorbeeld Skyrim, of GTA)

Natuurlijk kunnen ze nog wel even mee, maar dat komt imo dat we niks beters gewent zijn.

ik denk als de graphics echt veel beter gaat zijn op de nieuwe consoles, dat je dan pas denkt van wat waren de graphics eigenlijk gaar op de oude console
De xbox1 had een voordeel omdat het systeem gebouwd was om 480p uit te sturen(de chip kon VEEL meer hebben), evenals zijn concurrenten(PS/2, Dreamcast).

De 360 moet(net zoals de PS/3) HDTV's aansturen, en word logisch dat je hem gaat vergelijken met je PC met HDMI-output. Het verschil is nu direct zichtbaar en je kan minder "faken" door gebruik te maken van beperkingen/wazigheid op het display(Sega MegaCD FMV games)


Het kan dus best zo zijn dat de nieuwe xbox GPU gebaseerd word op de 66xx serie, maar "gepimpt" word met een uitgebreidere instructieset net zoals de NV2A chip in de xbox1, of de R5xx(Xenon) in de 360.

Ter vergelijking; Probeer battlefield 2 eens te installeren op een Duron800 met 64MB werkgeheugen op een Nforce2-IGP-gebaseerd moederbord onder windows 2000, als je hem al kan starten, kijk je op 640x480 waarschijnlijk naar een diavoorstelling. Dan zit je aardig tegen de specs aan van een xbox1, waar BF2:MC als een zonnetje op draait. Net als games als "Black", de COD 2/3, Farcry en HALO2. Zo zie je wat optimalisering kan doen.
Misschien handig om de laatste alinea nog eens te lezen. Ook al was deze GPU uit 2010....dan kunnen ontwikkelaars namelijk er veel meer uit halen waardoor het niveau gewoon gelijk is als op de pc. Ze programmeren specifiek voor 1 GPU wat op de pc namelijk niet het geval is.

De PS3 en 360 die ook al jaren op de markt zijn poepen nog steeds mooie grafische plaatsjes op het scherm. Van de week had ik weer een God of War 3 opgestart, die had ik sinds ik mijn appartement heb gekocht niet meer opgestart op mijn nieuwe Sony Bravia 3D LED tv. Mijn mond stond open van verbazing hoe mooi het was op deze tv (had hiervoor een 32'' Sony Bravia op mijn kamer staan die ik heb achtergelaten voor mijn broertje).

Daarbij ook nog eens wat andere titels opgestart en mijn dat voor een console met een GPU die al een aantal jaar oud is.
Ik verbaas me juist over de relatief povere kwaliteit van mn ps3, helemaal als ik hem aan een monitor hang dan is de kwaliteit tenenkrommend slecht (zelfs mn oude 1900xt kan op die resolutie hetzelfde aan wat me dus doet afvragen wat nu exact de winst is van optimalisaties)
De PS3 en 360 die ook al jaren op de markt zijn poepen nog steeds mooie grafische plaatsjes op het scherm.
Iedereen die een beetje weet waar hij naar moet kijken ziet hoe vreselijk achterhaald de beelden van de xbox en ps3 er nu uit zien, zeker in de games die niet teveel aandacht voor detail hebben gehad. En de reden dat het er nu nog enigszins acceptabel uitziet was dat de GPUs in de 360 en PS3 mee konden komen of zelfs sneller waren dan het beste wat op dat moment op de markt was. De nieuwe xbox moet in 2013 ergens op de markt komen. Als ze dan een chip hebben die op dat moment al ruim 2 jaar oud is en zelfs toen al een low-end chip was. dan kunnen ze toch totaal niet meer meekomen met de PC in de toekomst?
In de buurt komen? Elke pc game van dit moment ziet er vele malen beter uit dan de lage resolutie textures en hoekige modellen op de Xbox en PS3. GOW, Uncharted ed gebruiken wat leuke trucs om de aandacht daarvan af te leiden, maar wou je echt zeggen dat dit het top-punt is van graphics van dit moment? http://ps3media.ign.com/p...0090602024553638_640w.jpg

Ik zou zeggen om er maar wat te noemen, Crysis 1 (2 ook wel maar ziet er soms zelfs minder goed uit), Battlefield 3, Rage, Skyrim. En Crysis is nota bene al 5 jaar oud.
Je hebt ook echt een plaatje uitgezocht he hahaha. Met andere woorden....je kon zogenaamd niks beters vinden?
Het dus helemaal niet belangrijk wat voor kaart erin zit, GPU dient puur alleen om 1080p-uitvoer en beeldkwaliteit ;)
Whut? De videokaart moet ook het beeld opbouwen hoor. Die moet berekenen waar de schaduw bijvoorbeeld valt.... Anders zou de Intel HD Graphics net zo goed zijn geweest... Niet voor niets is een HD 7970 beter ;) De Nvidia Riva TNT (Ja nog voordat men met de GeForce merknaam kwam) kon al meer dan full HD uitsturen als we kijken naar de pixels.
Tja, dat hoeft dus niet perse, kijk naar bv de PS3, daar wordt de CELL (tegenwoordig) gebruikt om een bulk van de berekeningen te doen en dit resultaat wordt dan door de GPU weergegeven. Maar tuurlijk is een snelle GPU zeer handig om toch zoveel mogelijk af te handelen..
Daarin heb je gelijk. Al is een SPE met zijn vectoren ook al veel meer een GPU dan een CPU in die zin... Het verschil wordt natuurlijk kleiner met GPGPU tegenwoordig. Ik zou ook eerder graphics via een Cell doen dan via mijn x86 wat dat betreft ;)
Je kan de CPU alles laten berekenen via software-rendering, maar dan laat je een hoop features van kaarten vallen.
Huh :? Spreek je jezelf niet geheel tegen in je eigen reactie? Je zegt dat het helemaal niet belangrijk is wat voor kaart er in zit, maar wél dat de kaart verantwoordelijk is voor de beeldkwaliteit?

De gpu is natuurlijk wel degelijk belangrijk, waarom zouden ze er anders überhaupt een gpu in stoppen? Dan kunnen ze de cpu beter de berekeningen laten uitvoeren of een integrated graphics-achtige oplossing nemen.
je zou verbaasd zijn wat er in de huidige X-doos zit.
volgens wiki zit er een chip die op de x1900/1950 architecture gebaseerd is van AMD.
en die is van 2005. dus ik vind het niet zo heel gek dat ze een vrij recente design nemen, die pimpen naar een efficiënte console versie.

zolang ze die consoles lekker meer dan 512 video geheugen mee geven, zeg maar iets in de richting van 1,5/2gb ben ik allang blij. dat zal veel goeds voorspellen voor games :)
Beetje raar om een chip uit 2011 in een machine van 2013 te stoppen.. Lijkt me zelfs voor consoles niet zo'n goed idee.
Iets gebruiken wat nog niet is... Weet niet hoe jij dat wil doen, maar ik kan dat niet. Het is gewoon niet mogelijk om de nieuwste hardware in een nieuwe console te steken. Als je zo redeneert, kun je nooit een console uitbrengen, omdat alles in hardwareland zo snel gaat.
ja en nog een budged chip ook..
verhoog de prijs gewoon met 80 euro en gooi er een 7770 in tegen de tijd dat die xbox uitkomt is die chip al wel goed verkrijgbaar.
wordt dat nu de officiele naam de Xbox 720 ?
Waarschijnlijk niet, en dat probeert het stuk ook niet te suggereren. Het bestaan van de spelcomputer is nog niet officieel bevestigd door MS, er is ook nog geen codenaam bekend (zoals Kinect eerst als Project Natal door het leven ging). Even terug naar de huidige generatie:

MS gebruikt geen oplopend nummer zoals Sony doet met hun PlayStations. Logisch, want dan was de 360 de Xbox 2 geweest en had die moeten opboksen met de PlayStation 3 ;) dus moest er wat anders bedacht worden, en kwamen marketingmensen met heel veel mooie uitleg waarom '360' dan het juiste was.

Dat maakt het voorlopig een naam geven aan de opvolger van de 360 wel lastig. Xbox 720 is een vaak (meest?) gebruikte naam, want 2x360, anderen gebruiken ook wel eens 'Xbox Next'. '720' wekt mogelijk ook een ongewenste associatie met 720p zoals chomp al opmerkt.

Ik zou niet teveel zien in die verwijzing zien in de film Real Steel. Ondanks andere MS product placement is het een rechtstreekse aanpassing van het 360 logo, dus te weinig vernieuwend als 'merk' voor een nieuwe console. En ze gaan ook niet vooruitlopen op hun marketingcampagne van miljoenen dollars met een logo dat even voorbijflitst in een van de vele films met een futuristische setting. Aangezien sommige mensen graag een diepere betekenis in die placeholder willen zien, vind ik het een beetje een troll-actie eigenlijk :P

[Reactie gewijzigd door Rafe op 25 januari 2012 10:24]

De kans dat hij zo gaat heten lijkt me vrijwel 0. Het lijkt nl. een verwijzing naar 720p en dat is dan natuurlijk allesbehalve cool.
Dan noem je hem toch XBOX 1080, klinkt ook best lekker in de mond xbox ten-eighty
Dat lijkt me inderdaad een veel logischere naam. Alle games zullen dan ook wel op 1920x1080 gerendered gaan worden als eis van Microsoft.
Het is een verzonnen concept/developernaam, net als DirectXbox(xbox1) en NeXtbox(360).
Ga er maar vanuit dat dat zo is. De film Real Steel (vermakelijke film trouwens) is onder andere door Microsoft gesponsord. De reclame uitingen van Microsoft zijn vrijwel allen voor:

Xbox 720 (met het welbekende X logo).

Zie ook de screenshots /filmpjes op de volgende links:

http://xbox360media.ign.c...1198519/rs_1317855498.jpg
http://www.youtube.com/watch?v=DFuJq9QOgyE
Dat lijkt mij eerder een gigantische grap dan de bevestiging dat hij daadwerkelijk Xbox 720 gaat heten straks ;) . Elke keer dat iemand ernaar linkt is gratis reclame voor die film.
In Back To The Future is er ook reclame voor een "Jaws 19" film.
Gewoon een grapje.

[Reactie gewijzigd door BeerenburgCola op 25 januari 2012 11:05]

Je haalt de woorden uit m'n mond! Kan me niet herinneren dat het al officieel de Xbox 720 heet..... :?
Het is de onofficiele naam die de media heeft geaccepteerd voor de opvolger van de 360
Een pakkende titel trekt altijd meer aandacht.
6 keer zo krachtig met zo een midrange GPU? Zo zie je maar hoe onefficient OSen omgaan met system resources toch? Ik weet dat ze dan games kunnen optimaliseren voor specifiek die gpu en die cpu maar dan is dit toch nog een serieus verschil lijkt me.

Ik vind het nog altijd vreemd dat een console met minderwaardige hardware vaak betere prestaties haalt dan sommige PC's desondanks de optimalisatie.
Ehmm, je leest het verkeerd. De nieuwe Xbox moet 6x zo krachtig worden als de oude Xbox. Vergeet ook niet dat de games op een Xbox met een 1280x720 resolutie draaien.

Als je de pc-games 1 op1 wil vergelijken met de Xbox games, moet je die pc games ook op 1280x720 draaien, met max 2xAA , net als bij de Xbox. Dan pas kan je de performance beter vergelijken.

Met gelijkwaardige hardware kan een console idd beter scoren, is niet zo gek:
De console hardware blijft jaren gelijk, de techniek ook. De console doet minder dan een pc, heeft geen/nauwelijks achtergrond taken bijv. En zo kan men dus jarenlang op die basis de games tunen voor die console en er het beste uithalen. Dan nog blijft het een opgefokte HD6670. Die zal nooit de HD7970 van de pc evenaren, die nu al de games op 1920x1200 met 8xAA kan draaien.

[Reactie gewijzigd door Madrox op 25 januari 2012 09:39]

Oh dat zal hij zeker wel doen. Als we zien hoe je met een x1900 in de console BF3 op een redelijk niveau kan draaien dan zal de 720 straks de grond vegen met de 7970.
Grapjas. Leuk dat BF3 draait op de console met een resolutie van 1280x720 op 30 frames met 75% van de toeters en bellen uit.

Mijn 6970 draait steady 50 frames op 2560x1440 met alles op High. Dit zijn 4x zoveel pixels als op de X-box. Laat staan wat een 7970 doet.

Tegen dat het 2013 is moet de X-box concurreren met de 9970, niet de 7970. Oftewel, wanneer dat ding eindelijk uit is loopt hij al weer 4 generaties achter op de PC. 4K2K resoluties zullen dan voor tv's langzaam hun intrede doen maar daar mist de console dan al helemaal de power voor.

Ik heb NIETS tegen de consoles maar we moeten wel eerlijk blijven. Het efficientere programmeren op de consoles maakt de hardware niet 4x zo snel. Al jaren hoeven ontwikkelaars niet voor een miljoenmiljard pc's codes te kloppen maar alleen voor DirectX.
75% van de toeters staan niet uit. De BF3 HD-versie is bijna identiek aan de pc-versie op de fps en resolutie na.

4K2K is nutteloos zonder 4K2K content. Dat gaat in Europa nooit zo snel lopen. We hebben niet eens fatsoenlijk standaard HD-TV. 4K2K zal pas over een jaar of 5 een rol spelen.

Ik denk dat jij nogal onderschat hoeveel een console efficienter is. Een 360 heeft een x1900 kaart. Een pc-gamer heeft minimaal een 5000-serie nodig. Do the math ;) Vier generaties ouder, maar toch capabel om met een 5000-serie mee te komen.

Ik heb niets tegen pc-gaming (ben zelf ook fan van), maar we moeten erkennen dat Directx ervoor zorgt dat we veel performance moeten inleveren. Iedereen kan dezelfde game spelen maar tegen inlevering van performance.

[Reactie gewijzigd door Relief2009 op 25 januari 2012 10:08]

75% van de toeters staan niet uit. De BF3 HD-versie is bijna identiek aan de pc-versie op de fps en resolutie na.
Ik heb het hier beide in huis. Zoon met BF3 op de PS3 en ikzelf op de PC. Bovenstaande zou je niet zeggen als je het ooit naast elkaar hebt gezien. Het is net of je naar een ander spel zit te kijken. Dan heb ik het nog niet eens over de kleinere mappen, minder tegenstanders etc...

Als je de pc instelt op de console-settings (1280x720), alles op Low, dan draait het zelfs aardig op een midrange kaart van 3-generaties terug. Dit alles doet niks af aan het feit dat ik het knap vind dat ze het uberhaupt op de PS3 en Xbox 360 in beeld kunnen krijgen. Overschat die optimalisatie gewoon niet. Natuurlijk wint het wat als je DirectX kunt overslaan en rechtstreeks een chip kunt aansturen. Dat maakt nog niet genoeg verschil om de brute rekenkracht van monsters als de 7970 in te halen....

(Ik vind het ook geen vergelijking. Voor de prijs van een aardige mid-highend kaart (560ti of 6950) koop je een complete console.)

-edit- Dat we in Europa nog niet veel fatsoenlijke HDTV content hebben wil niet zeggen dat niet iedereen geen HDtv heeft. Ik ken niemand meer zonder eerlijk gezegd. De PC is nu al een shifting aan het maken naar hogere resoluties. Kom steeds meer mensen tegen met Eyefinity-setups en de 27" schermen worden ook steeds beter betaalbaar.

[Reactie gewijzigd door EvaluationCopy op 25 januari 2012 10:39]

Jammer genoeg is er ook een omgekeerde wereld:

Heel wat games worden ontwikkeld met de Consoles in gedachte. Ze worden geoptimaliseerd voor die consoles.

Maar voor de PC, maakt men gewoon een generieke versie, die vaak niet geoptimaliseerd is op geen enkel gebied. Ze ziet dit niet enkel op de visueel, je merkt het aan de interface, layout enz.

Hoe vaak hoor je niet klachten dat een bepaald geport game, bar slechte FPS haalt, terwijl het draait op hardware dat 3, 5 * sterker is?

Dat betekend niet dat de Console zo krachtig is, maar dat men gewoon hun pet naar de code smeet. Als het maar draaide, en dat is goed genoeg. Waar men maanden in het optimaliseren zat te steken van de Console versie, omdat de hardware niet zo krachtig is, heeft men de houding van: "Tja, op de PC moeten ze dan maar sterkere hardware kopen".

BF3, ... als je ze gaat vergelijken, zie je duidelijk een probleem. Het draait op een veel lagere FPS, en het draait op een veel lagere resolutie. Maar daar stopt het probleem niet enkel. Waarom is de Multiplayer beperkt tot 1/3 van wat de PC aankan. Juist omdat men gewoon niet de kracht voor handen heeft. Gevolg is, dat de ervaring van mensen beperkt word.

Halo, wat technische gezien uit MS hun eigen winkel komt, draaide zelf niet eens op 720p, maar op een lagere resolutie. Als zelf zij last hebben...

Ontopic:

Ik heb mijn twijfels over dit bericht. Het is goed mogelijk dat Microsoft development kits verstuurd heeft met een HD 6670 erin, maar dat betekend niet dat dit hun finale ontwikkelingsomgeving is.

Normaal is de eerste development kits vaak, een PC... een tower versie, met daarin bepaalde hardware. Hierop draaien de ontwikkelaars testen voor hun software. De actuele ontwikkeld wordt gedaan op gewone PC's met gelijkaardige hardware.

Je komt pas dichter bij de finale hardware, wanneer men begint met het versturen van de "Console" kits. Men kan gerust zeggen tegen de ontwikkelaars, ontwikkel met dit in gedachte, en dan een jaar voor de release, komt men af met een upgraded versie.

Als men spreekt van 2013 release, kan men gerust een zwaardere kaart in 2012 erin stoppen. Het hangt af van hoe kan men de boel doen draaien, zonder energie te zuigen ( = meer ingewikkelde koeling nodig ).

Als men in begin 2012, met een gerust hart een 6870 erin kan stoppen, dat op een lagere procedé gemaakt word, zal men het wel doen. Ze weten ook dat de Console 5 tot 10 jaar moet meegaan.

Vanuit een technische punt, is een 6670 een enorm ZWAKKE upgrade tegenover de huidige Xbox360. Dit lijkt mij in ieder geval geen deftige basis voor toekomstig ontwikkeling voor x jaren van nu.

Ofwel moet MS in gedachten hebben, dat ze games maximaal laten draaien op 720p zoals nu.
Je bent absoluut niet redelijk. "75% van de toeters staan niet uit. De BF3 HD-versie is bijna identiek aan de pc-versie op de fps en resolutie na.". Dat is echt complete onzin. DICE heeft zelf tijdens de nVidia conference uitgelegd dat de console versie vergelijkbaar is als de low settings op de pc. Een medewerker over de low settings op de pc: "Similair visuals to the console version, lots of stuff disabled.". Tel daarbij op dat het nog op een belachelijk lage resolutie en fps draait en het komt niet eens in de buurt bij de versie die op een high end pc draait.

Zie http://www.youtube.com/watch?v=6ekktuRD5ao rond 7:30.

[Reactie gewijzigd door ryderb op 25 januari 2012 11:20]

Hahaha. x1900 is gestoeld op de Radeon R520 architectuur:
http://en.wikipedia.org/wiki/Radeon_R520

Maw: DirectX 9.0c!
Op de PC draaien we al een tijde DirectX 11, die, veel nieuwe features heeft.
Features, die jij op jouw DX9 console, nooit zal zien. En ja, dat kost rekenkracht.
Als je al DX11 zou kunnen draain op die R520 core (x1900) zou de performance zwaar tegenvallen. Het kan niet, want het heeft de dX11 features niet onboard. Gelukkig maar.

DX9 vs DX11 > zoek de verschillen :-)
http://www.google.nl/sear...ei=P-chT9XvIYSD-waAr9m5CA

Ik denk dat jij nogal onderschat hoeveel een console efficienter is. Een 360 heeft een x1900 kaart. Een pc-gamer heeft minimaal een 5000-serie nodig. Do the math Vier generaties ouder, maar toch capabel om met een 5000-serie mee te komen.
Ook onzin. een pc gamer kan ook met een 4000 serie uit den voeten. Minpunt is dan wel dat je op DX9 mode blijft steken. Als ik met een HD5750 al goed kan gamen, kan je dat met een snelle 4000 serie kaart zeker. Maar als je DX11 wil, ja dan is het idd anders.

Je overschat de efficiency van de console schomelijk, dat is iig zeker. Waar de pc gamer vooral last van heeft tegenwoordig; zijn brakke console ports. Dat heeft echter niets met de pc hardware of de effiency te maken maar alles met geld en game ontwikkelaars.

[Reactie gewijzigd door Madrox op 27 januari 2012 00:58]

Maar of een console ook echt beter scoort hangt ervan af of de ontwikkelaar de know how en tijd erin wil stoppen, vooral als een spel op meerdere platforms uitkomt.
Ik vind het nog altijd vreemd dat een console met minderwaardige hardware vaak betere prestaties haalt dan sommige PC's desondanks de optimalisatie.
Volgens mij valt dat wel mee...
en omdat ontwikkelaars voor een specfieke chip schrijven, kunnen ze hun code beter optimaliseren.
Dat zal misschien iets schelen, maar geen tientallen procenten. Een kaart is gewoon zo snel als hij is. Je hebt niet ineens meer cores of hogere fill rates.

Tenzij er bedoeld wordt dat slecht geoptimaliseerde PC code trager is dan volledig geoptimaliseerde xbox code, dan zou dat best wel eens kunnen schelen. Maar Pc code ook prima degelijk geoptimaliseerd zijn. De graphics APIs en hardware zijn redelijk gestandaardiseerd tegenwoordig. Vroeger was het wel een probleem met 10 verschillende kaarten met verschillende features wel of niet ondersteund in hardware.

[Reactie gewijzigd door Zoijar op 25 januari 2012 09:47]

Maar de pc is wel degelijk niet zo geoptimaliseerd. Als je bedenkt dat je bf3 met de x1900 redelijk kan draaien op de 360 terwijl je een 4000-5000 serie nodig hebt om hem op de pc te draaien zegt dat al genoeg.
Ik heb geen xbox 360, maar als ik het goed begrijp draait die bf3 op 720p? Dat is natuurlijk wel al een verschil met de 1920x1200 op de pc. Verder zie je vaak (bv duidelijk in skyrim) dat de textures veel minder scherp zijn en de schaduwen veel minder mooi. Op die manier is het appels met peren vergelijken.
Skyrim werkt op de pc niet eens fatsoenlijk. Laten we vooral niet praten over consoles.

Als textures en schaduwen alleen minder mooi zijn dan doen ze toch wel erg goed werk voor hardware van bijna 8 jaar oud ;)
Het ging me erom dat als je wilt vergelijken je dan wel exact dezelfde (graphics) settings moet gebruiken. Frame rates van 720p en 1080p vergelijken is al zinloos.

Ik heb verder niks tegen de xbox; hebben ze goed gedaan, groot succes.

(En skyrim draait prima op de PC; zelfs met alle HD 4k texture mods. Je moet wel wat modden ja, want standaard staat het ingesteld voor de xbox, inclusief geheugenlimiet)

[Reactie gewijzigd door Zoijar op 25 januari 2012 10:19]

Er is een wereld van verschil tussen de PC versie en de Console versie van BF3

als je die verschillen allemaal weet is het opeens niet zo gek meer dat de consoles dit spel ook kunnen draaien met redelijke kwaliteit (zie de reacties op je vorige post)
Wat is daar vreemd aan? Consoles hoeven puur en alleen games (en misschien een film) af te spelen, nogal wiedes dat je daar gigantisch veel optimalisatie op toe kan passen. Het is eerder zo dat consoles extreem goed geoptimaliseerd zijn dan dat PC OS-en het helemaal niet zijn.

[Reactie gewijzigd door Ilya op 25 januari 2012 09:36]

Videokaarten (ten minste radeon en geforce) zijn ook wel voor games geoptimaliseerd hoor, net als de drivers en DirectX (of openGL). Maar al die tussenlagen zorgen gewoon overhead, ook omdat het een interface is die voor verschillende kaarten/versies moet werken. Je kunt dus niet direct de hardware aanspreken. Daar kan een OS ook weinig aan doen (je kunt een OS moeilijk voor één GPU ontwerpen).
Console betere prestaties? Waar haal je dat vandaan? Die optimalisatie doet echt meer dan jij denkt. Of je nou voor 1 GPU een spel hoeft te maken, of voor tientallen(honderden?) maakt wel een verschil.
Er is ook nog het probleem dat bij de PC de games niet optimaal gebruik maken van de GPU's puur omdat er teveel varianten zijn waar je rekening mee moet houden. Dat is nu het voordeel van een console, die heeft (in principe) maar 1 configuratie, en die kun je dus tot het uiterste hoekje benutten, en dat tot het max kunnen benutten komt ook doordat men langer met dezelfde HW werkt en daardoor deze veel beter begrijpt en kan gebruiken, wat dus ook de reden is dat vaak consoles aan het einde van hun leven toch dingen eruit kunnen persen die ze aan het begin niet konden voorspellen.

@Bose321: en door die optimalisatie van maar 1 configuratie presteert een console dus beter dan een gemiddelde PC (zeker 1 met dezelfde of net iets betere specificaties).
6 keer zo krachtig als de 360, die ook een gespecialiseerd OS draait. Desktop OSsen hebben hier helemaal niks mee te maken, dus je comment slaat nergens op.
Denk dat voor ons een keuze uit een 7000 serie's gpu een logische keuze zou zijn.
Maar ik weet zelf niet hoelang die nieuwe XBox al op de tekentafel ligt.

7000 serie is toch weer een stap verder, het klinkt nu iig al achterhaald ondanks dat ze de chip aanpassen voor de XBox ofc.

Maar ja, gros van de consumenten zien nieuwe Xbox en denken er toch niet bij na. Zolang hij de game maar laat draaien is het goed.
Maar ja, gros van de consumenten zien nieuwe Xbox en denken er toch niet bij na. Zolang hij de game maar laat draaien is het goed.
en dat is waar het bij een console ook om draait, zeker omdat een gemiddelde tweaker een verkeerde gedachte heeft als ze horen dat er dus een 'oudere' gpu gebruikt wordt.
vergeet namelijk niet dat het hier gaat om een gpu die GEBASSEERD! is op de HD6670, en dat betekend dus niet dat het dezelfde GPU die alleen op een kleinere shrink wordt geproduceerd (waarmee dus ook in principe hogere snelheden gehaalt kunnen worden), in 9 van de 10 gevallen worden er ook nog aanpassingen aan gemaakt.
Maar als je wilt dat de console voor rond de 400 euro in de winkel komt, kun je er geen videokaart in duwen welke een paar honderd euro kost. Want er moet ook nog een processor, moederbord en geheugen en tal van andere componenten in.

Daarnaast is het nog geen maand geleden dat we in 2011 leefden. En als ze half 2013 de Xbox 720 willen releasen hebben ze dus nog minder dan 18 maanden. Op een gegeven moment moet je dus de hardware specificaties gaan bevriezen.

Op dat moment kunnen ook de onderhandelingen met AMD over de prijs beginnen. Ook kan men dan beginnen met het ontwerp van de fabricage lijn, het schrijven van zwaar geoptimaliseerde drivers. Ook heeft men nu ongeveer 6 maanden om de development kit en schrijven, af te ronden en naar de partners te sturen.

Daarnaast is het voordeel van de HD6000 chip dat de meeste game studio de GPU al goed kennen en wat de mogelijkheden zijn.
tja, wat is het verbruik van de 7000 serie, en wat is het verbruik van de 6000 serie op 28nm?

Verder is VLIW5 op een console gemakkelijker vol te gooien dan dat dat op de pc is.
Dit laatste is bij u niet het geval? U wilt dat die nieuwe Xbox andere dingen kan dan een game laten draaien?
Kunnen ze niet beter een 67XX kaart of 68XX kaart erin doen. Ja het is duurder, maar je bent wel een stuk meer futureproof, wat je bij consoles nogal nodig hebt... Anders dan zitten we straks al snel weer te zeuren dat consoles de graphics van PC tegenhouden :S
Waarom? Een console moet zuinig en niet warm worden. Dan ga je geen high-end kaart gebruiken welke een 150 watt-200 verbruikt.

Verder zullen we pas 5 jaar na de lancering van de nieuwe console zeuren over dat de graphics van consoles de pc tegenhouden. Door optimalisatie zullen devs straks zoveel meer uit de 6670 halen dan wat de pc zou kunnen. Kortom, je hebt straks een 7900 nodig om pc games te spelen met dergelijke graphics.
als je nagaat dat de huidige xbox een GPU bevat (dan wel custom) die ongeveer te vergelijken is met een Radeon X1900/X1950. Dan vind ik het nog aardig knap dat je met zo'n 'oude' GPU architectuur zulke mooie games nog kan draaien.
Het zal ook een aangepaste versie ervan worden. wat jij opnoemt zijn maar nummers, maar eigenlijk gewoon allemaal dezelfde chips. Hij zal ook dus meer features bevatten die ook in de huidige GPU's zitten.
Mooi dan wordt mijn volgende videokaart een HD 6670 dan kan ik de komede 5 jaar nog alle poorten van de 'xbox720' spelen ;-)
De huidige Xbox heeft een HD1900, kun jij met een HD1900 in je Windows bak ook alle console ports spelen? :)
Als je ze enkel op 720p, of de lagere resoluties dat de xbox gebruikt speelt, dan zal je misschien 40 a 50% verlies hebben in FPS.

Mensen denken dat console geoptimaliseerd hetzelfde is als 300, 500% meer kracht hebben, en dat is een droom.

Je kan bepaalde routines rechtstreeks de hardware laten aanspreken, maar je kan dit niet bij alles doen. Dan ben je 20 jaar bezig voor een game te maken.

Voor de mensen dat een beetje kunnen programmeren, deze weten: Doe een functie in software, je bent 100%, doe dezelfde functie in assembler code, en dat draait misschien 400% sneller. Maar dat betekend niet dat gans je programma 400% sneller draait.

Vanuit een ontwikkeling standpunt, is er een limiet in hoeveel tijd je kan stoppen, in het focussen voor de performance.
Helaas Roy, de 360 heeft een "prototype"/voorloper van R600, met 10MB ED-RAM (onderschat voooral dat niet) en is dus een stuk krachtiger van de 1900 serie.
Niet teveel naar wikipedia luisteren ;)
Waarom zou ik zulke games draaien als ik met mijn GTX580 in SLI nieuwere en mooiere games kan spelen.
Ga voor de zekerheid een stapje hoger vanwege de overhead op pc's. Ik heb absurd lang vooruit gekund op mijn GeForce 8800GT, die afaik iets krachtiger was de de aangepaste 7900 in de PS3. Radeon- equivalenten (en dus Xbox 360) uit die tijd met vergelijkbare prestaties en prijs ken ik niet zo goed...
Dan kan je beter gewoon die XBox kopen...
1 2 3 ... 10

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True