Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 210, views: 55.668 •

De Sony PlayStation 4, die de codenaam Orbis zou dragen, gaat naar verluidt aangepaste versies van de A8-3850-apu en de Radeon HD 7670 van AMD bevatten. De nieuwe Xbox van Microsoft zou nagenoeg dezelfde grafische kaart krijgen.

Vorige week verschenen de eerste geruchten van Kotaku over de nieuwe PlayStation en toen al werd er over gesproken dat deze AMD-hardware zou gaan bevatten. De samen met IBM en Toshiba ontwikkelde Cell-processor zou daarmee losgelaten worden. Gamesite IGN claimt nu informatie te hebben ontvangen dat de betreffende processor de A8-3850-apu zou zijn.

De apu is een quadcore met een kloksnelheid van 2,9GHz. Er zou voor een apu gekozen zijn vanwege de krachtige prestaties van de geïntegreerde Radeon HD 6550D in combinatie met een laag verbruik. De geïntegreerde videochip zou dan minder zware grafische werklasten moeten afhandelen, terwijl een Radeon HD 7670 het zwaardere gamingwerk voor zijn rekening moet nemen.

De HD 7670 is behalve de naam identiek aan de HD 6670 en dat is de gpu die volgens geruchten het hart van de nieuwe Xbox gaat vormen, hoewel andere bronnen van twee gpu's voor de Xbox 720 spreken. De videochip van zowel de HD 7670- als de HD 6670-kaarten is de Turks-gpu met zijn 480 streamprocessors. De corekloksnelheid ligt op 800MHz en de gpu is via een 128bit-interface met maximaal 1GB gddr5 verbonden. Mogelijk worden de specificaties wat aangepast voor gebruik in consoles.

Volgens IGN zal Sony gebruik kunnen maken van CrossFire om de igp van de apu te combineren met de HD 7670-gpu. Deze combinaties zijn tot nu toe niet erg succesvol gebleken en ook voor ontwikkelaars brengt het de nodige problemen met zich mee, waarmee het sterk lijkt dat Sony hier voor zal kiezen. De keuze voor de HD 7670 annex HD 6670 lijkt ook vreemd gezien de geruchten dat de console 4k-output moeten gaan ondersteunen. De betreffende videokaart is een instapper die zelfs op 1920x1080 al moeite heeft om speelbare framerates op recente spellen te bieden. Voor consoles worden de hardware en software wel aanzienlijk geoptimaliseerd.

Reacties (210)

Reactiefilter:-12100206+1115+29+31
1 2 3 ... 6
Waarom wordt er al zo vroeg in het ontwikkelingsstadium gekozen voor een GPU? Dit is zo ongeveer het belangrijkste onderdeel van de console.

Edit: Blijkbaar kijk ik er anders tegen aan, gezien de downmod :)

[Reactie gewijzigd door Devroet op 5 april 2012 15:53]

Je geeft zelf het antwoord al. De rest van je systeem bouw je hier omheen.
Het lijkt me dat de ontwikkeltaal centraal staat? Lijkt me vrij eenvoudig om in een later stadium de GPU te vervangen door een die aansluit bij de rest van de specs. Plus er is dan een langere ontwikkeltijd voor de GPU beschikbaar.
Natuurlijk staat de hardware centraal, anders weet je helemaal niet wat voor leuke dingen je wel niet mee kan uithalen (of niet).
Code moet sowieso gecompileerd worden, dus de taal maakt eigenlijk bijna niet uit.
Met een (willekeurige) taal kan je dan geoptimaliseerd voor de hardware schrijven.
@Devroet and Chilly_Willy

Niet geheel waar, GPU in console heeft minder belangrijke rol als in PC.
Deze wordt gebruikt voor renderen van films / browsen dus je hebt geen topkaart nodig in een console, als je beetje weet hoe console werkt ;)

don't get it twisted

Edit:
@ hieronder
de GPU heeft juist wel een belangrijke rol in een console.

don't get it twisted.
Ik adviseer je om heel snel http://www.howstuffworks.com/video-game.htm door te nemen, GPU is zeker NIET belangrijkste onderdeel in console

[Reactie gewijzigd door Audipower op 5 april 2012 16:00]

de GPU heeft juist wel een belangrijke rol in een console.
http://nl.wikipedia.org/wiki/GPU

op een console kun je ook films kijken. en GPU support voor browsers begint net een beetje op gang te komen. dus een beetje rare argumenten.

don't get it twisted.

EDIT: misschien bedoel jij een rs232, telnet, ssh console ? die hebben idd geen gpu nodig ;)

je zegt zelf voor het renderen van films / browsen maar een game wordt niet geredered?
die wordt op je scherm getoverd door je geluidskaart?

[Reactie gewijzigd door Proxx op 5 april 2012 16:33]

Op een console gaat het om GamePlay niet om GFX.

http://www.nintendolife.c...t_tech_specs_key_to_wii_u
ja dat zegt nintendo maar xbox en ps hebben altijd al een andere weg bewandeld.

dan nog met een voodoo 3 kun je ook een doom of duke nukem 3d kloon maken maar geen hond die het zal kopen ook al is de gameplay zo goed.
Mwah, genoeg succesvolle spellen die niet de nieuwste hardware vereisen. WoW, mincecraft en de meeste android/ipgone spellen zijn geen graphische toppers maar toch zeer succesvol.
nintendo is de enige die met zijn console voor mindere gfx gaat.

sony en xbox zullen voor de next gen console weer een knaller neer zetten die ze ook wel 6jaar kunnen uitbuiten.
Welke van de huidige generatie consoles is het meeste verkocht?
NVM

[Reactie gewijzigd door Proxx op 5 april 2012 16:58]

@ Sanderev66: Xbox 360
bron? 't is niet dat ik je niet geloof, ik ben er gewoon benieuwd naar.

[Reactie gewijzigd door tinzarian op 5 april 2012 23:40]

Grapje cker:
Wii: op 31-12-12 94.97 miljoen
Xbox: op 9-1-12 65.8 miljoen
PS3: op 31-12-12 62 miljoen

Goed welke de meeste games verkocht heeft en met de meeste omzet is natuurlijk een heel ander verhaal. Maar dit zijn de cijfers....

Daarnaast Tsupport, please get you facts right! Browsen heeft pas sinds kort een GPU ondersteuning. Voor films trouwens ook, deze werden door de CPU nog omgezet (geforce 4 bijv. had geen DXVA). Waarschijnlijk bedoel je dat je CPU niet super hoeft te zijn in een console. Dat is dan wel weer zo, daarom is da A8 van AMD nog niet eens zo heel verkeerd. Misschien dat RTS-games wat minder goed lopen, maar deze doe je toch minder op een console.

Edit:
Ik wil trouwesn hier aan toevoegen, dat extreem goede graphics niet heel belangrijk zijn. Maar omdat de WII zo enorm achterliep met technologie uit het jaar 2001, moesten games totaal worden aangepast. Als ze een beetje slechtere graphics hadden gehad. Was het een ander verhaal geweest. Ik verwacht dat ze met de WII U een betere weg in slaan, hiervoor zouden er een paar kleine aanpassingen moeten worden gedaan ipv van nieuwe engine.

[Reactie gewijzigd door Bliksem B op 6 april 2012 12:06]

Het is niet sinds, maar op dat die cijfers spreken, de sinds IS een heel belangrijke factor, omdat je dan pas de cijfers beter kan inschatten.
Xbox en Wii waren een stuk eerder uit dan de PS3, dus ergens is de mindere verkoop wel te verklaren. De Wii blijft er bovenuit steken, maar ik ben meer benieuwd naar de revenue de Nitti, S&MS uit hun consoles gehaald hebben. Dus rekening houdend met de winsten uit de consoles ťn uit de games.
Het is geweten dat nitti vanaf dag 1 winst maakte op de Wii zelf, waar MS & S er op verloren. Langs de andere kant bezit een Xbox of PS3 eigenaar meer legale games dan een Wii-eigenaar. Met een veelvoud aan verkochte games tov verkochte consoles weegt dit zwaarder door in de eindbalans.
Xbox en Wii waren een stuk eerder uit dan de PS3, dus ergens is de mindere verkoop wel te verklaren.
De Wii is in vergelijking met de PS3 in Japan (2 december 2006 vs 11 november 2006) en Amerika (19 november vs 17 november 2006) juist later uitgekomen.

Enkel in Europa is de PS3 later uitgekomen dan de Wii (23 maart 2007 vs 8 december 2006).

http://nl.wikipedia.org/wiki/PlayStation_3
http://nl.wikipedia.org/wiki/Wii
En die zijn allemaal niet voor de console. Je ziet nu dat de Wii echt dood is vanwege gebrek aan third party titels. Als Nintendo ongeveer gelijke specs aan de PS3 en 360 had gehad konden developers mooi cross-platform titels uitbrengen. Nu moest er gewoon een hele aparte game gemaakt worden voor relatief weinig winst.

Voor games hoeven state of the art graphics niet persť, maar voor consoles zeker wel. Wat bij deze generatie echter belangrijker is dan betere graphics word het businessmodel. Het huidige is te gesloten, patches duren weken en kosten veel geld.

Dan heb je smartphones en de PC waar iedereen voor kan ontwikkelen, consoles moeten wel relevant blijven. De huidige console generatie is al populair, maar de games maken toch de console, en als developers niet willen ontwikkelen krijg je zoiets als met de 3DS; hij verkoopt niet omdat er geen games zijn en er zijn geen games omdat ie niet verkoopt.
ligt aan de persoon zelf.
Je hebt Gamers die kopen een console vanwege graphics en
andere gamers die kopen een console voor gameplay van bepaald soort spellen.
:+
Uhm, op een console word voornamelijk gegamed en dat gaat via de GPU. Voor andere activiteiten, zoals films / browsen, heb je een andere onderdelen van de GPU nodig (VP en 2D).

don't get it twisted :+
ik zou zeggen, pak de Atari 2600 / NES weer uit de kast als graphics niet belangrijk zijn ;).

[Reactie gewijzigd door C.Hariri op 5 april 2012 16:07]

"Ik adviseer je om heel snel http://www.howstuffworks.com/video-game.htm door te nemen, GPU is zeker NIET belangrijkste onderdeel in console"

Ik adviseer je om betere artiekelen te zoeken om je kennis uit op te doen.
Dit stuk ongeluk staat vol met fouten en rare opvattingen..

Neem dit stukje nou:
"Ever since the early days of the Atari 2600, video game systems have relied on RAM to provide temporary storage of games as they're being played. Without RAM, even the fastest CPU could not provide the necessary speed for an interactive gaming experience."

RAM wordt hier als een soort wondermiddel geschetst dat games mogelijk zou hebben gemaakt. Maar..
Ten eerste heeft elk computersysteem sinds het begin (jaren 50?) een vorm van RAM. RAM is dus niks bijzonders en is essentieel voor elke moderne computer, console of niet.
Verder had de 2600 wel 128 bytes aan RAM. WooHoo.
Daar konden dan net een paar variabelen in worden opgeslagen en het was dus eigenlijk een soort groot register.
De code draaide keihard van ROM.

Over de 2600 roepen ze verder:
"When power was supplied to the system, it would sense the presence of the ROM and load the game software into memory."

En dit klopt niet aangezien dat ding maar 128 bytes aan ram had en de roms al snel 4k waren. Dat past dus niet.
De code werdt gewoon direct van ROM gelezen en het RAm werd voor andere zaken gebruikt.

En hier wat (recente) historische onjuistheden:
"Microsoft, a rival to Sony, attempted to outmaneuver the PS3's Blu-ray drive with an HD-DVD drive designed for the Xbox 360. Unfortunately for Microsoft, they backed the wrong horse: the HD-DVD format fizzled in early 2008."

Dat terwijl microsoft zich vooral buiten dit gedoe wilde houden (en dus geen HD-DVD drive inbouwde in hun consoles). Ze hebben wel een beetje gewed, maar niet echt en hebben er dus ook niet echt op verloren.
Ondertussen was sony juist markt aan het maken.
Ze hebben een hele film-business en hadden voor bluray gekozen.
Hierdoor waren ze haast verplicht om bluray films in hun nieuwe console te ondersteunen en dat had helemaal niks met microsofts console te maken.
Heel ander verhaal dus dan de rivaliteit die hier geschetst wordt.

En dit soort dingen slaan ook nergens op:
"At its core, a video game console is a highly specialized computer. In fact, most systems are based on the same central processing units (CPUs) used in many desktop computers."

Behalve dan dat de hele huidige generatie het doet op custom designs die in geen enkele pc zijn terug te vinden...

En inderdaad, er wordt met geen woord gesproken over GPU's.
Dat terwijl al zo'n 20 jaar de GPU's het meeste werk doen, zowel in cyclie als in opgenomen vermogen.
Je kunt rustig stellen dat de laatste paar decenia de GPU veruit het belagrijkste onderdeel zijn van consoles.
Zelfs bij de nederige atari 2600 was de stella processor een stukje custom high end techniek waarmee ze voor het eerst beelden op een televisie konden genereren.
De rest van de hardware was redelijk generiek.

Eigenlijk zie ik tegenwoordig consoles vooral als GPU met een CPU er aan om de GPU te voeren.
Een GPU kan ook veel meer data verwerken dan een CPU.
Als je kijkt naar hoeveel berekeningen in een moderne game door de CPU worden afgehandelt en hoeveel door de GPU dan zul je het met mij eens zijn.
De GPU is de belangrijkste chip in een console.

edit:typos

[Reactie gewijzigd door koelpasta op 6 april 2012 12:57]

Mee eens. Behalve dan:
Een GPU kan ook veel meer data verwerken dan een GPU.
zelfs mijn oude 3DO had extra grafische ondersteuning

http://en.wikipedia.org/wiki/3DO_Interactive_Multiplayer

"Two accelerated video co-processors capable of producing 9–16 million pixels per second "
Als je kijkt naar hoeveel berekeningen in een moderne game door de CPU worden afgehandelt (sic) en hoeveel door de GPU dan zul je het met mij eens zijn.
Dit geeft aan dat een GPU in consoles absoluut erg belangrijk is, maar om de verkeerde reden. Een GPU doet veel meer omdat deze gespecialiseerd is in het soort berekeningen dat nodig is voor moderne games. De CPU is veel meer een allrounder.

Als er in de PS4 dus een meer allround CPU komt kan het bijna niet anders dan dat de GPU een veel belangrijker rol speelt..
wat dan eerst de case ontwerpen en er later achter komen dat het allemaal niet meer past of gekoeld kan worden?

ze zullen met de basis moeten beginne cpu / gpu en daaromheen kunnen ze dingen gaan ontwerpen.
Misschien daarom juist...
Vroeg is het niet hoor. Als ze dit apparaat volgend jaar willen lanceren moeten ze nu beginnen met het ontwikkelen van launch games die moeten pronken met de mogelijkheden van de console.
Dit is zo ongeveer het belangrijkste onderdeel van de console.
Daarom. De GPU is het hart van de console. Alles moet daar op afgestemd worden. Zowel het RAM geheugen, als de processor en de volledige berekenings-flow. Consoles moeten gewoon volledig geoptimaliseerd worden op het spelen van games. Alleen zo kan de videokaart van 2012 nog door tot bijvoorbeeld 2016. ;)
Eerder 2022.

De PS3 is uit 2005 en waarschijnlijk in 2015 ook nog wel aanwezig....
Nog erger: de PS2 is uit 2000, en wordt vandaag gewoon nog verkocht....

2005: dat was dus de Radeon X800 en de Nvidia 6800. Even ter vergelijking hoe oud je hardware dan ongeveer is....
De Xbox360 komt uit november 2005 en de launch van de PS3 was ongeveer een jaar later, eind 2006.

De GPU gebruikt voor de 360 is gebaseerd op de x1800 en voor de PS3 is deze gebaseerd op de Geforce 7800 chipset. Destijds waren dat toch wel enigszins degelijke kaarten.

Het heeft volgens mij wel een tijdje geduurd voordat de gemiddelde (gaming) PC gebruiker een kaart had met die snelheid. Maar ik vraag me af in hoeverre dit geldt voor de gekozen GPU voor de nieuwe Xbox en PS4..

De HD6670/7670 is een kaartje van ~80 euro, niet bepaald een powerhouse en ik denk dat de meeste mensen die enigszins gamen op hun PC al een sneller systeem in huis hebben..
Zelfs kaarten van een paar jaar oud als de Geforce 8800/HD4870 zijn net zo snel of sneller dan de HD6670!
Goed nieuws voor AMD dus, het zal me niet verbazen als dit ook in de nieuwe Xbox gebruikt zal worden
Waarom wordt er al zo vroeg in het ontwikkelingsstadium gekozen voor een GPU? Dit is zo ongeveer het belangrijkste onderdeel van de console.
Het is helemaal niet vroeg in het ontwikkelingsstadium, dat lijkt maar zo omdat wij er nu pas van horen.
Grote kans dat dit al 3-4 jaar in ontwikkeling is geweest, en op dit moment 2 a 2,5 jaar voor de eigenlijke release zit.
Natuurlijk denken "wij" aan games en functionaliteit, maar men moet ook dingen als productie processen, machines etc ontwikkelen of aanpassen. Ook dat kost tijd en daarbij zijn specificaties zoals afmetingen, soort materiaal, verkrijgbaarheid in de toekomst etc juist van belang.
Bij grote veranderingen (dus geen doorontwikkeling van een bestaand product) duurt het toch al snel een jaar voordat je het hele productie en logistieke proces werkende hebt.
dat is zo gek nog niet ze moeten immer software schijven alle andere hardware aanpassen en niet tevergeten games schijven duurt ook jaren en die moeten van te voren al beginnen met games maken anders zijn er geen games bij de release van de console.

wat me wel stoort is dat ze steeds zon low end gpu gebruiken pak dan gewoon de 7870 en rot er 3 gig ram in.
ja dat kost 150 euro meer en je console word dus iets duurder maar je console gaat ook langer mee.
en daarmee voorkom je ook nog dat wat we nu hebben.
games gaan sinds haleverwege 2009 grafisch al bijna niet meer vooruit en dit komt voor 95% door de limieten van de consoles er zijn namelijk albergen met technieten maar de consoles kunnen dat qua rekenkracht niet meer bijbenen.
Waarschijnlijk wordt het programmeren van games wel een stuk makkelijker indien er voor x86 / x64 wordt gekozen. De CELL-processor was wel erg innovatief maar een tikje tť ambitieus. Daardoor duurde het lang voordat er voldoende games waren na de introductie van de PS3 en was ontwikkelen erg duur.

Vind het wel spannend dat ze mogelijk voor AMD-hardware kiezen. Zal zeker een goede boost voor AMD zijn aangezien ze een turbulente tijd achter de rug hebben. Zorgt uiteindelijk voor meer concurrentie, wat goed is voor de consument.

Ben benieuwd wat het gaat worden. Ik vraag me af of die 4k resolutie niet wat overdreven is. Dat vergt een nogal stevige videokaart (die ook de komende jaren nog krachtig genoeg moet zijn-) wat weer voor een flinke prijsstijging zorgt.

Een PS4 die § 300+ kost laat ik voorlopig achterwege. Het moet wel leuk blijven tenslotte.
Misschien willen ze alles ook wel fatsoenlijk kunnen testen? Zodat het niet net zo een drama wordt als met de Xbox 360, die hitteproblemen had.
Playstations hebben altijd wel probleempjes gehad, maar die werden eigenlijk altijd snel opgelost.

De PS3 had problemen met de BD-ROM laser in de eerste generatie (Phat, 40- en 60-GB modellen). Sinds de 80GB versie is dit probleem opgelost. Her en der een sporadische YLOD, maar dan heb je het ook gehad.

De XBox360 kampt eigenlijk al sinds de introductie met problemen. Gerepareerde modellen gingen vaak nogmaals kapot. Pas sinds de Jasper-modellen gebruikt werden, ging het langzaam bergop bij Microsoft. Het laatste "Slim" model doet het eigenlijk best goed, afgezien van wat bekraste schijfjes.

Je merkt gewoon goed het verschil tussen Microsoft en Sony. Microsoft koopt al haar technologieŽn elders in en laat het product door een externe partij ontwikkelen. Daardoor is de kans groter dat er fouten worden gemaakt. Sony ontwikkeld de hardware zelf; ook de drives en blu-ray lasers komen uit de eigen fabrieken.

Maar goed; ondanks dat ik altijd een afkeer van XBox heb gehad (ten eerste vanwege de betrouwbaarheid en ten tweede omdat het van Microsoft is-) denk ik dat ik met de volgende XBox wel overstag ga naast een nieuwe Playstation ook voor Microsofts console zal kiezen. Al is het maar voor Kinect 2 ;-)

[Reactie gewijzigd door Titan_Fox op 6 april 2012 13:27]

Troep moet ik niet dus onze eerste en enigste Xbox elite is van het jasper type.
Sony ps3 ook als BR players gekocht naast ene voor te gamen.
En nog steeds PC gamer.

Een WiiU zal ik zo vanaf release kopen net zoals PS4.

Maar een XB3 nou nee. Eerst de degelijkheids warmte en stofzuiger neigingen uit reviews halen.
Ik denk wel dat Sony's extreme maatregelen om 2e hands spellen aan banden te leggen en deze te moeten koppelen aan je SEN-account ervoor zal zorgen dat piraterij vroeg of laat haar loopje zal gaan nemen met de PS4.

Hoe strenger de maatregelen, des te groter de uitdaging om de console te hacken.
Op consoles kan je wel meer uit de HD 7670 halen, maar toch had ik gehoopt dat het een wat meer high-end GPU zou worden.
Ik denk kwestie van prijs, koeling, voeding en dat soort dingen. Tuurlijk kunnen ze voor superhigh end gaan, maar ja daar hangt ook weer een prijskaartje aan.
Inderdaad, maar ik vraag me toch af of dit te maken heeft met de lauwe ontvangst van de 7670 voor het PC platform. Ze marketen deze "Turks" cores als HTPC chips die nog wel een game zouden kunnen draaien, maar over het algemeen zijn ze toch wat teleurstellend. Deze chip is zoals wel vaker, waarschijlijk AMD's meest economische chip waarmee je nog redelijke prestaties kunt neerzetten, zelfs met passieve koeling.

Het moment dat je daarnaast een current generation PC game als BF3 erop wilt draaien, moet je al terug naar 1680x1050 en middelmatige instellingen. Dat kan toch niet de bedoeling zijn?? Je kunt rommelen wat je wil met de netheid van het programmeer werk, uiteindelijk is de FrostByte 2 engine waarschijnlijk gewoon teveel voor deze GPU in volle glorie. Dat wordt dus weer een gelimiteerde console waar ze van goed en specifiek programmeer werk gebruik zullen gaan maken.

Hoe dan ook, zo'n techdemo als de nieuwe Unreal engine die dus vanaf een GTX680 fatsoenlijk draait gaat gewoon niet op deze generatie GPU's draaien. En dat was nou juist eindelijk eens een goede stap vooruit. Tenzij de PS4 en xbox op een andere magische manier werken, en geen shader units en grote bandbreedte nodig hebben natuurlijk...
Is het ooit anders geweest dan? Een console huppelt altijd achter de pc generatie aan en dat zal ook altijd zo blijven. Simpelweg omdat huidige hardware niet in een console past.
Het zijn gewoon geruchten hoor. De uiteindelijke specificaties zullen nog even op zich laten wachten. Dus geen reden om nu al te treuren.

Zolang AMD geen rare dingen gaat doen met de huidige Radeon architectuur, kan een GPU er altijd nog op het laatste moment in geklikt worden. Tegen die tijd zullen we wel met de RadeonHD 9000-serie (of later) zitten.
Nou dat is het Lean & mean Game OSje dat dichter op de hardware zit.
En voor een Fix platform is er maar een platform driver wat meteen in de kernel kan.
En Q&A is ook heel overzichtelijk.

Maar 4K reso 4:2 verhouding.
Dit is pure GPU rasterizer load.
Vooral de Rops en de texture units bepalen de Fillrate en ook de mem bandbreedte.
Dit staat aardig los van de OS. De shaders doen het zeer concurrent voorwerk.

De reden dat Men liever naar FHD upscaled dan native renderd
Ik vraag me sterk af hoe betrouwbaar dit bericht is.. Een 7670 heeft helemaal niet zoveel kracht, als je daar 4K content op wil afspelen dan moet je zoveel optimaliseren dat de compressie de kwaliteit weer vernachelt..
Tja, zouden sony en microsoft proberen mekaar te foppen?

"We zeggen dat we er een 7670 in doen, maar dan stoppen we er vlak na de introductie van de concurrent toch lekker een HD7970 in en dan hebben we de komende 10 jaar de dikste console"
Ik denk dat een HD7970 een te hoog gebruik heeft voor een console.
Het is economisch niet meer haalbaar om een high-end console te maken. Die GPU's kosten zo §500, niemand gaat in tijden van economische crisis nog een console van §600 kopen (zoals de PS3 bij release). Al helemaal niet als je ook prima kan gamen op je iPhone of op je PC (die wellicht net zo duur zijn, maar consoles zijn overbodige luxe, een PC en een telefoon niet).
Voor Sony kosten die gpu's bijlange na geen 500 euro. Ze kopen ze rechtstreeks bij AMD, en in grote hoeveelheden. Daarnaast is het meer dan mooie reclame voor AMD als zij de PlayStation aandrijven. Reken maar dat ze er een mooie prijs voor krijgen. Daarnaast komen de consoles pas over een jaar of twee op de markt, tegen dan is dit lang geen high-end meer. Als je ziet wat er in de huidige consoles zit, was dat ook high-end op het moment van release.
Net als de ps3 en xbox360 word de cpu / gpu om de zoveel tijd kleiner gebakken. Of alles op 1 chip zoals de nieuwe slim360.
Haha, die crisis van jou geld niet voor iedereen, en er zijn genoeg mensen die zo 500 euro neerleggen voor speelgoed dat in 2 jaar afschrijft zoals tablets en telefoons boven de 15 euro. Dan kan een console van 600 ook wel. Zeker als die zo 6 jaar meegaat.

[Reactie gewijzigd door dapyroo op 5 april 2012 18:27]

Ja, maar hoe lang gaat een console mee? Over 2 jaar kost die kaart nog maar 100 euro, en Sony zal vast wel wat korting krijgen.
Alhowel ik een hd7970 misschien wat overdreven, maar een hd7850 lijkt mij wel het minimum. En veeeel geheugen natuurlijk.
Kracht..., tweakers zet er gelukkig nog wel achter dat optimalisaties heel veel uitmaken...

De oude GPU van de Xbox 360 is iets tussen een R520 en R600 in. Van de Playstation 3 heeft iets weg van een G70 . Oftewel een X1850 en een Geforce 7800; Allebei kaarten uit 2005. Het zelfde jaar als waar in de console uit kwam.

Echter; op dat moment waren dit wel degelijk High End kaarten (Review uit 2005) Nu komen ze dus met een Mid-End Kaart aanzetten voor een console die nog een lange tijd mee moet. De optimalisaties moeten dus zowel in de hardware als in de software erg goed gaan zijn als het nog een poosje mee moet. Voor gamen zitten de 4K resoluties er met deze kaart iig niet in.
Niet alleen maken optimalisaties veel uit, ook het feit dat er geen driver nodig is, en bijna geen OS maken veel uit.

Met geen driver bedoel ik dat O-gl rechtstreeks met de hardware gaat praten, en niet via een abstractielaag( driver) die is niet nodig, O-gl weet wat dit ene stukje hardware kan, en hoeft met niks anders rekening te houden.

als voorbeeld de oude xbox, daar zat een videochip in welke op de pc slechts 5000 a 6000 calls per sec aankon, maar in de xbox met gemak 18.000 calls per sec.
Je vergeet dat vga chips uit de oertijd enkele watts trokken en geen 3d hadden.
En passief zonder heatsinc.

Dus van al die dieshrinks van vroeger tot nu. Zijn we van
Enkele watts naar tegen de 300 watt.

Wetende dat console totaal vermogen ver onder de 300 zitten.
Soort van HTPC streven. Compact design.
Dan weet je dat ze in 2000 de high-end spul er in kunnen stoppen. Gok 75watt
In 2006 een performance chip 100watt Wat eigenlijk buiten wat de behuizing aan kan
Nu een midrange 150watt is al veel te veel.

Dit houd in dat nextgen steed minder vooruit lopen met PC en PC dus consoles sneller inhaald. Met 200++ GPU.

PC elke nextgen verlegd ook vermogen grens.
Bij console is er een vermogen limiet streven wat semi fixed is.
En is midrange onvermijdelijk.

Tenzij je een 500watt console wilt.
Verwacht maar niet dat de fancy 3D games in 4K gaan draaien. De huidige PS3 kan games ook in 1080p draaien alleen gebeurt dat niet (of weinig) omdat de hardware net snel genoeg is voor 720p.
Ik hoop dat voor de PS4 alle games in 1080p gaan draaien.
Het kan mij persoonlijk niet zoveel schelen wat ze allemaal erin stoppen, als de prijs maar vergelijkbaar is met de concurrentie (Xbox).
De BR tech is reeds heel betaalbaar.Dus die 200 er boven op komt er niet.
Dus 400 euro's grof gezien net als de XB3
Ik ruik overeenkomsten met de Steam Box van Valve. Althans, dit is niet echt exotische hardware, en puur op alleen het naampje zou ik geen dubbele prijs willen betalen voor een game.
Hoewel dit hoogst waarschijnlijk niet klopt vrees ik dat de videokaart sowieso niet het top-model zal zijn, die dingen kosten vaak rond de 300-500 en de playstation zelf kost wrslk niet meer dan 500 bij release (als het wat gelijkaardig is als PS3).

Ik denk niet dat er nog veel toekomst zit in (hardcore)console gaming t.o.v. pc-gaming.
De TDP van de dikste kaarten is ook veel te hoog voor een console. Dus je zult niet gauw een HD 7970 of GTX 680 in een console aantreffen. Maar... de oorspronkelijke Xbox 360 en PS3 hadden een totale TDP van 200W, wat ruim 100W over laat voor de videokaart, genoeg voor een zwaar overgeklokte HD 7770 (of toekomstig Nvidia equivalent), die toch echt wel een tikkeltje krachtiger is dan de HD 7670.
De reden dat die dingen vaak 300-500§ kosten, is omdat ze enorm marge nemen op die kaarten ( met kleiner volume ). Waartegen bij de lager geprijsde kaarten, ze meer op hoge volume draaien.

Wat denk je dat zo een Console zoals de Xbox/PS is? Een toestel dat draait op volume verkoop.

Je vergeet ook, dat men enkel de GPU nodig heeft. De video ram, en de componenten dat je normaal vind op de Videokaart, worden direct op de moederbord geÔmplementeerd. De Ram kopen ze van de goedkoopste of whatever. Technische nemen ze dus enkel de GPU direct van AMD/Nvidia af.

Wat er dus inkomt, is puur gebaseerd op wat de GPU makers vragen voor ieder soort GPU ( gebaseerd op de bulk volume ), en beschikbaarheid hiervan. De Techneuten @ Sony/MS, zullen wel allemaal graag de beste van de beste in hun console willen, maar de Managers zullen wel perfect uitrekenen wat hun wisten kunnen zijn, en die zullen wel beslissen wat er uiteindelijk in komt. En de Marketing mensen, mogen dan die keuze "behelpen" door de focussen op bepaalde punten.

De recente iPad3 is een perfect voorbeeld hiervan. Geen woord dat men repte over de CPU he. En een beetje misleiden PR, alsof het een "Quad" core was, terwijl men enkel sprak over de GPU. En mensen direct denken dat het een Quad Core CPU had.

En om eerlijk te zijn, die spec geruchten dat men aangeeft, zijn *geeuw* achtig. Niet iets dat je verwacht in een console voor de volgende 10 jaar. Als je ziet hoe de Xbox360/PS3, de PC game ontwikkeling tegengehouden hebben, met hun hardware dat zo snel verouderd was na release...

Want zelf al zegt een game producent dat ze een game voor de PC schreven, maar tegelijk x360/ps3 versies uitbrengen, dan weet je dat men sowieso compromissen gemaakt heeft in de game design, om zeker te zijn dat het spel ook zou kunnen draaien op de consoles.

Voordeel: Je moet je PC niet zo snel meer upgraden. Nadeel, je zit vast aan de Consoles hun release generaties, om enige grote sprongen nog te zien in game development.
Sony & Microsoft.... bundel jullie krachten en breng samen een mega console uit.... Dat zou nog eens een goede ontwikkeling zijn!!!
Het lijkt mij sterk dat Sony en Microsoft samen een significant beter stukje hardware kunnen produceren dan alleen, beide zijn groot genoeg om zo'n project wel de baas te kunnen.

Daarnaast lijkt het me (zeker op de lange termijn) alleen maar slecht voor de gamers als de concurrentie tussen die twee partijen verdwijnt.
Denk dat je dat niet correct hebt (de concurrentie), beide hardware (zoals nu lijkt te gaan zijn) zijn hardware technisch bijna identiek, waarmee je nu NOG minder verschil tussen de 2 consoles zult hebben, ik denk dan ook dat er nog veel minder exclusives zullen zijn (behalve de first party natuurlijk).
ja, want 'bijna monopolies' maken is altijd beter... *cough*
Yeah right.....

Als dat gebeurt ben ik geen koper iig. Heb helemaal niks met XBOX. Betalen voor netwerktoegang om maar een voorbeeld te noemen....

Anyway, ben erg benieuwd wat Sony straks voor een moois zal gaan brengen :D, tot die tijd speel ik lekker verder op mn PS3.
Je bedoelt betalen voor kwaliteit! ;)
Heb helemaal niks met XBOX. Betalen voor netwerktoegang om maar een voorbeeld te noemen....
Alsof je bij Sony er niet voor betaalt?

Betalen doe je toch wel. Als je het niet via een los abonnement doet, zit het wel in de prijs van console, accessoires en games ingecalculeerd. Voor niets gaat de zon op.

Hetzelfde als met die wifi-dongle die je bij de eerste Xbox los moest kopen, wat voor velen ook een nadeel was... Aangezien ik toch alles wired doe, dacht ik eerder: waarom zou ik bij Sony betalen voor een ingebouwde wifi-adapter, die ik toch niet ga gebruiken?
En je hebt zeker wel genoeg geld voor al die dure Playstation exclusives die nooit in prijs dalen? Of de nieuwste Call of Duty voor 60 euro?
Misschien moet je dan eens wat bij andere shops kijken en niet bij zulke dure shops als gamemania waar zelfs de 2e handjes duurder zijn dan dat je bv op internet splinternieuwe kunt kopen..
Die apparaten worden beide voor een belangrijk deel gemaakt door AMD. Denk je nu echt dat AMD er geen krachtigere machine van kan maken? Daar hebben ze geen MS of Sony voor nodig.

Probleem is dat een apparaat op de markt brengen niet genoeg is. Je moet een online netwerk hebben tegenwoordig. Je moet ontwikkelstudio's hebben die console-onlys voor je maken en zo kan je nog wel even doorgaan.

Het maken van een mega console is na mijn idee gewoon een leuk idee van een puber maar levert beide bedrijven niks op. Consoles zijn meer dan alleen een productje voor pubers die niet weten wat ze met hun vrije tijd aanmoeten. MS is de console markt opgegaan om een apparaat in de kamer centraal te krijgen zodat ze straks alle hardware in je huis kunnen aansturen met 1 apparaat wat dus loopt op MS hardware en software.

Dat ze in de tussentijd nog wat geld kunnen halen uit die markt is alleen maar meegenomen. Denk niet dat Sony daaraan mee wil werken. Dan zouden ze teveel consessies moeten doen ten opzichte van MS en gooit Sony zijn glazen in betreffende de toekomst. Nee je moet even wat verder denken dan de komende 10 jaar betreffende consoles er zit een groter plan achter.

Wij lopen nu ook allemaal te lullen dat hij niet krachtig genoeg is etc. Dat zou MS geen reet kunnen boeien. Zij kijken of het product voor een goede prijs op de markt gezet kan worden zodat ze een grote clientbase krijgen. Daarnaast moeten ze natuurlijk wel krachtiger zijn dan de concurrent. Maar dan mag het niet teveel kosten, dit is dus de heletijd afwegen wat je gaat doen ten opzichte van je concurrent.

Waarom denk je dat al dit nieuws uitlekt? Beide bedrijven zijn bezig elkaar af te tasten. En wonder boven wonder, ze blijken beide ongeveer dezelfde hardware te hebben.
euhhh...wellicht dat er toch wel iets gaat veranderen...je weet het niet...

nieuws: Microsoft registreert Sony-microsoft.com

[Reactie gewijzigd door exmatproton op 6 april 2012 10:10]

Beetje vreemd dat er juist voor deze APU wordt gekozen.. Had GF niet grote problemen met het maken van deze? En trinity staat voor de deur..Hadden ze daar niet iets mee kunnen doen? Daarnaast, HD 7670 :/ ofwel, rebranded 6670 legt het gewoon af tegen een 4870. http://i.imgur.com/tve9R.png. Had minimaal iets als een 5850 verwacht.. Zeker als de console minimaal 5 jaar mee moet.

[Reactie gewijzigd door C.Hariri op 5 april 2012 16:00]

Vergeet niet dat console games veel beter geoptimaliseerd kunnen worden voor specifieke hardware, en dat een HD TV een lagere resolutie heeft dan waar veel mensen met hun high-end kaarten op spelen :)

Voor de rest moet er een balans zijn tussen kosten en prestaties. De console moet ook betaalbaar blijven. En koelbaar. En niet al teveel stroom opslurpen...
Ik ben ook erg benieuwd waar ze voor kiezen.

Vraag me af of 4K echt nodig is.
Meeste mensen hebben toch niet meer als Full-HD TVs.

4K is wel de meest logische volgende stap.
En aangezien de consoles sowiezo pas in 2013 zullen worden uitgegeven. :Y)
Aangezien Sony graag aan de top wil blijven qua grafische qualiteit moeten ze ervoor zorgen dat zij ook de grote schermen kunnen ondersteunen op volle resolutie. Dat niet iedereen zo´n beeldscherm heeft is enkel een bijzaak. Alleen nintendo denkt zo na. :P
Niet iedereen? Praktisch niemand. Dat ze eerst zorgen dat ze aan 3D 1080p 60Hz/oog werken, die 4K tv's laten echt nog wel genoeg op zich wachten. De schermen beginnen snel genoeg te worden voor deftige 3D te ondersteunen. Ze geraakten bij de vorige console-generatie niet aan gewone 2D 1080p aan 60 Hz..., terwijl de TV's het toen al aankonden.
Ik vind het ook een vreemde keuze inderdaad om 4K te ondersteunen. Voordat 4K een beetje begint in te burgeren zijn we op z'n minst 5 jaar verder. Tegen de tijd dat het mainstream is zijn we 10 jaar verder. Ik vraag me af of het echt waar is van die 4K, of een gerucht.
Komen 4K en "2K in 3D" niet gewoon overeen?? Ik bedoel, 2K in 3D, heeft dezelfde snelheid nodig als 4K toch? Dus dan zou het apparaat beide moeten aankunnen!
Geef mij maar eerst 4k in plaats van 3D ;)

3D is echt mijn ding niet
Volgens mij hebben we in 2005 deze discusie ook al eens hehad over 1080p. Toen vonden veel mensen het ook onzin om 1080p output te willen omdat die toestellen toch niet te betalen waren..
Sony wou juist de PS4 gaan gebruiken om hun 4k resolutie tvs te pushen.
Op consoles moet men het meer hebben van optimalisatie, tuurlijk is een goede GPU belangrijk maar als je kijkt wat deze GPU kan en wat er nu in de consoles ligt zit daar nog wel wat rek in. :)
Juist, dat is een groot verschil met de PC, daar wordt een GPU bij lange na niet tot het uiterste gebruikt, puur omdat er binnen een paar maanden toch een nieuwere/snellere op de markt is, dus waarom elke hoekje zoeken waar je wat leuks mee kunt doen, zelfde geldt voor het gebruik van de multicore van de APU/CPU.. ook daar valt nog veel te halen door specifiek de betreffende chip te gebruiken ipv de wat generieke methodes die bv bij normale PC's/Mac's gebruikt worden..
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013