Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 151, views: 42.361 •
Submitter: Balance

Nvidia zou er bewust voor hebben gekozen geen hardware te leveren voor Sony's PlayStation 4. Sony zou te weinig geld overhebben voor Nvidia's gpu's. Uiteindelijk ging Sony in zee met Nvidia's concurrent AMD, die nu zowel de cpu als de gpu levert voor de PS4.

Tony Tamasi, Senior VP bij Nvidia, liet Gamespot optekenen dat er onderhandelingen hebben plaatsgevonden met Sony, maar dat Nvidia geen zaken wilde doen met Sony gezien de prijs die Sony daarvoor overhad. Nvidia leverde eerder al de gpu van de Xbox, maar ook die van de PlayStation 3. De marge op gpu's in consoles ligt erg laag en volgens Tamasi moest er een afweging gemaakt worden tussen de producten waarmee Nvidia al bezig is en het ontwikkelen van een gpu voor een console. Een van de nadelen van een gpu voor een console is dat deze verder niet verkocht kan worden.

AMD ging uiteindelijk wel in zee met Sony, zoals het ook al de gpu leverde voor de Xbox 360 en vermoedelijk ook voor de 'Xbox 720'. Behalve de gpu zou het ook de cpu leveren voor beide consoles. AMD ontwikkelde overigens ook een geheel nieuwe gpu voor de PS4, maar dan wel gebaseerd op een van de gpu's uit de Radeon HD 7000-serie. AMD gaf in januari aan dat het de helft van zijn omzet uit de embedded-markt wil halen en met een AMD-gpu in zowel de PS4 als de Xbox 720 lijkt het Amerikaanse bedrijf een eind op weg.

Sony kondigde de PlayStation 4 op 20 februari aan, hoewel de console zelf nog niet te bewonderen was. Pas eind 2013 zou de nieuwe spelcomputer daadwerkelijk te koop zijn. Hetzelfde wordt verwacht van de nieuwe Xbox, waarvan het gerucht gaat dat Microsoft deze op 26 april wil aankondigen.

Reacties (151)

Reactiefilter:-11510140+1103+29+30
Opvallend nieuws.... Weet iemand cijfers van de hoeveelheid die men kon verdienen met deze deal? Het lijkt me een erg laag bedrag, anders sla je zoiets niet af.
Met twee grote aanbieders van GPUs is het een kwestie van de laagste bieder krijgt de opdracht.

Het is dus geen kwestie van afslaan, het is een kwestie van AMD vroeg minder geld dan nVidia, om welke reden dan ook. nVidia kon dus dat lagere bod niet waarmaken binnen hun eigen berekeningen en dus heeft nVidia de opdracht niet gekregen omdat ze het niet winstgevend genoeg vinden.
Dat is een flinke aanname, en in het geheel niet hoe 't in het artikel staat.

Er staat dat Sony te weinig geld boodt voor de GPUs, en dat nVidia gewoon het besluit heeft genomen hier dan niet mee in zee te gaan. Of op dat moment concurrent AMD al concreet betrokken was wordt niet door het artikel gemeldt, en of ze al een bod uit hadden staan betwijfel ik. Heb je daar een bron van of is dit een aanname van jou?

Ik vind 't vrij aannemelijk dat Sony nog geen onderhandelingen had met AMD voordat ze met nVidia rond de tafel zaten aangezien ze voor hun Playstation 3 goed zaken deden met nVidia, en volgens mij nog nooit eerder met AMD hebben samengewerkt. Het zijn niet de minste projecten, en zomaar overstappen op een ander bedrijf kost Sony best wat geld, dus ik kan me voorstellen dat ze liever bij nVidia waren gebleven.
Dat is hoe Tomasi het uitlegt, ja. En strikt genomen klopt het ook wel. Maar denk eens na. Het is heus niet zo geweest dat Sony gericht is gaan winkelen. Zowel Nvidia als AMD hadden het kunnen leveren, maar en het voorstel van AMD was gewoon het aantrekkelijkst.

Zoals Tomasi het uitlegt (suggereert hoe de situatie was) kan het alleen volledig kloppen wanneer ze eerst bij Nvidia waren geweest en vervolgens pas bij AMD zijn gaan kijken.

Dat overstappen maakt echt niet zoveel uit, gezien de x86 architectuur. Wellicht dat AMD makkelijker een interessant bod kon doen wegens de APU-structuur. In het geval van Nvidia moest men sowieso op zoek naar een extra leverancier voor de CPU. Bij AMD bespaar je die transactiekosten voor een extra leverancier, plus een besparing vanwege het combinatiepakket. Plus, AMD had sowieso de afzet nodig, gezien de matige populariteit van de APU- en CPU-producten van AMD en was dus wellicht sowieso genoodzaakt tot een scherp bod.
Dat overstappen maakt echt niet zoveel uit, gezien de x86 architectuur.

Dat het allebei x86 betekent niet automatisch flawless compatibility. Kijk maar naar de PC. Hoe vaak moeten drivers geupdate worden voor bugfixes, maar ook voor ad hoc spel fixes? Het komt niet uit het niets dat AMD hier een wat negatieve reputatie vanuit het verleden heeft doordat ze vroeger minder sterk waren in game compatibility en algehele kwaliteit van hun drivers. En het komt allebei nog regelmatig voor dat er serieuze problemen optreden bij grafische kaart X en spel Y, gewoon omdat nou eenmaal elk stuk hardware en software anders met elkaar reageert (omdat alles door mensen gemaakt is). Dat soort scenario's kan echt niet op een console, dus daar zit wel iets meer werk in dan "ja maar het is toch allebei x86". En dan is de overstap naar een ander merk een veel grotere sprong dan naar een nieuwe generatie GPU van dezelfde firma. En dus ook hogere kosten.

Daarnaast heb je te maken met procedures, het zal je versteld staan hoeveel overhead sommige bedrijven kunnen genereren door gesteggel van het management. Gezien Sony en AMD naar mijn weten nog niet eerder hebben samengewerkt, krijg je ook dat soort kosten erbij.

Maar onder de streep blijft het gewoon wat is de beste deal, mijn punt echter was dat je niet ervanuit moet gaan dat de eindbeslissing ligt bij de afnemende partij (Sony), de verlenende partij (nVidia) kan ook prima de stekker eruit trekken. Hoe 't precies gegaan is, zul je nooit met 100% zekerheid weten... :)
Zowel AMD als nVidia hebben driver issues gehad, dus dat is geen reden om de een boven de ander te verkiezen. Maar de belangrijkste reden is dat een console een gestandaardiseerde "zwarte doos" is. Iedereen die een PS4 koopt krijgt exact dezelfde hardware. Developers testen hun game op een PS4 en weten meteen zeker dat het werkt op alle PS4's in de wereld. Dit in tegenstelling tot de PC wereld waar een dev rekening moet houden met honderden, zo niet duizenden verschillende combinaties van hardware die mogelijk zijn. Dus driver issues op de PS4 lijken me bijzonder onwaarschijnlijk.
Onwaarschijnlijk absoluut niet, want ga er maar vanuit dat er na de lancering gezeik met de nieuwe consoles gaat zijn, kleine of grote problemen... maakt niet uit welke van de twee. Het voordeel van de console is dat wanneer er iets geoptimaliseerd moet worden het voor alle systemen hetzelfde is, dus een enkele fix... waar je voor hetzelfde probleem op de pc misschien wel 100-en fixes moet uitvoeren om de drivers bij iedereen werkend te krijgen. Overigens is dit ook niet eens helemaal waar, want er bestaan diverse 'generaties' van de huidige consoles met andere hardware en daar zullen absoluut verschillen inzitten qua hardware en aansturing daarvan. Maar dan nog is het vele malen makkelijker te beheren dan een pc waarvan je niet snel 100 exact dezelfde systemen zal vinden bij gamers thuis.

[Reactie gewijzigd door MicGlou op 15 maart 2013 18:43]

Overigens is dit ook niet eens helemaal waar, want er bestaan diverse 'generaties' van de huidige consoles met andere hardware en daar zullen absoluut verschillen inzitten qua hardware en aansturing daarvan
Lastig te zeggen. In principe gaat het slechts om een ander productieproces wat in kleinere en energie zuinigere chips resulteert. Aan de andere kant zitten er volgens mij toch wel behoorlijke verschillen in de moederborden van de verschillende edities van de consoles en dan loop je toch al snel het risico dat die zich net iets anders gedragen qua timing.

Ik denk echter dat Sony/MS er wel de nodige moeite voor doen om te zorgen dat de verschillen voor de applicaties niet te detecteren zijn en eventuele problemen in de 'firmware' opvangen. Als je dat niet doet denk ik dat je het al snel aan de stok krijgt met console developers. Die hebben geen trek om een deel van hun opbrengst aan Sony/MS af te staan en dan ook nog eens opgescheept te zitten met diverse verschillende configuraties.
niks aanname, zo gaat het gewoon in de praktijk:
- Sony is tevreden van nVidia ivm PS3 GPU
- Sony klopt aan bij nVidia voor PS4
- nVidia doet een voorstel
- Sony ziet in z'n haalbaarheidsstudie dat het voorstel aan de dure kant is
- Sony klopt aan bij de concurrentie (AMD)
- AMD legt een goedkoper voorstel op tafel
=> AMD krijgt het contract
Ja zo staat het dus niet in het artikel:

Nvidia zou er bewust voor hebben gekozen geen hardware te leveren voor Sony's PlayStation 4.

Terwijl iedereen dit artikel hier loopt te verdraaien en zegt dat Sony juist nVidia's aanbod heeft afgeslagen. Waarop mijn vraag dus is: is dat je aanname of heb je daar een bron van?

Volgens het artikel:
- Sony is tevreden van nVidia ivm PS3 GPU
- Sony klopt aan bij nVidia voor PS4
- Sony doet een voorstel
- nVidia weigert

- Sony klopt aan bij de concurrentie (AMD)
- AMD accepteert voorstel Sony
=> AMD krijgt het contract
Ja zo staat het dus niet in het artikel:

Nvidia zou er bewust voor hebben gekozen geen hardware te leveren voor Sony's PlayStation 4.

Terwijl iedereen dit artikel hier loopt te verdraaien en zegt dat Sony juist nVidia's aanbod heeft afgeslagen. Waarop mijn vraag dus is: is dat je aanname of heb je daar een bron van?

Volgens het artikel:
- Sony is tevreden van nVidia ivm PS3 GPU
- Sony klopt aan bij nVidia voor PS4
- Sony doet een voorstel
- nVidia weigert

- Sony klopt aan bij de concurrentie (AMD)
- AMD accepteert voorstel Sony
=> AMD krijgt het contract
Ook maar alleen omdat Sony niet genoeg wilde betalen aan nVidia
Je hebt twee partijen waar van een uit de school klap. Dat geeft ze nog niet gelijk. Je hebt twee perspectiven vanuit de GPU bakker. Vanuit de console maker.

De een vind ze bieden te weinig, de ander vind ze zijn gretig. Dat speelde al met xbox en Ps3 want daar waren ook rumors om onenigheid over prijsverlagingen van chips. Het kan zijn dat sony gepolst heeft met in het achter hoofd moeizame onderhandelen over de Rsx prijs verlagingen voor ps3 revisies.

Consoles worden kwa hardware op de markt gedumped. En dat geeft grote druk op de prijs. nv wilt blijkbaar dikke winst er op maken. AMD kan je dan zien als veel schappelijk minder gretig.

Tja en dan is het feit van waarom kan AMD wel leuke deal bieden?

Ik denk dat Microsoft en Sony en Nintendo, nVidia wel kent. En in het verleden stond nV al zeer berucht als firma onder de firma's.

En danheb je hun schield, die ze niet in de markt gaan dumpen maar verkocht gaat worden met winst marge. Net als Nintendo.


Hou er ook rekening mee dat het ook gaat om toekomstige dieshrink revisies. Want voor prijs verlagingen van moderne versie, moet de hardware uiteraard ook goedkoper.

Van uit nV bericht krijg je de indruk dat Sony voor dubbeltje op de eerste rij wil zitten. Dat kan je ook anders intepreteren als AMD is schappelijker dan nV en iNtel en IBM. Of er is een bundel korting! Dat zelfs IBM en iNtel ook buitenspel zet.

[Reactie gewijzigd door SG op 16 maart 2013 13:56]

Het is echter wel een aanname gebasseerd op logica, zelfs als Nvidia maar 5 dollar per console winst zou maken en er worden er over de levensduur van de console vijftig miljoen van verkocht is dat tweehonderdvijftig miljoen dollar die je misloopt. leg dat maar eens uit aan je aandeelhouders, hoe je dat afgeslagen hebt.

Dat is zo onlogisch dat je bij voorbaat kan weten dat dat bijna niet zo gegaan kan zijn.
Zo werkt het niet; je vergeet opportunity costs. Als NVidia z'n ontwerpers op de ene chip zet, en de fabriekslijnen daarvoor inzet, dan kunnen ze een andere chip niet maken.

NVidia kijkt daarom met welke chips ze het meest denken te verdienen. Blijkbaar denken ze aan een andere chip 300 miljoen te verdienen.
Het is niet alleen een kwestie van de laagste prijs. nVidia kan alleen een GPU leveren, voor een CPU moet Sony dan alsnog ergens anders shoppen.
AMD daarentegen kan niet alleen beide leveren, maar ook nog eens gecombineerd in 1 chip. Dat heeft grote voordelen voor Sony bij de productie van de PS4.
minder chips -> kleinere, eenvoudigere printplaat, minder verbindingen -> goedkopere productie en minder uitval zowel bij productie als in het veld.
Dat is ook wat waard. Dit lijkt me dan ook een duidelijke win voor AMD's APU strategie.
Het is dus geen kwestie van afslaan, het is een kwestie van AMD vroeg minder geld dan nVidia, om welke reden dan ook. nVidia kon dus dat lagere bod niet waarmaken binnen hun eigen berekeningen en dus heeft nVidia de opdracht niet gekregen omdat ze het niet winstgevend genoeg vinden.
Dat is het dus niet. Het is gewoon een kwestie van overleven. AMD heeft deze deal nodig om nog verder te kunnen, NVIDIA zit gewoon in een betere situatie.
Ja hoor natuurlijk....omdat AMD het nodig heeft hebben ze de deal gekregen..

Zo werkt dat echt niet in het bedrijfsleven... de gene met de beste deal wint gewoon
Hij bedoelt dat AMD bereid is dieper te gaan omdat ze de deal nodig hebben.
Even wat aannames:
- er worden zo'n 7 miljoen PS4's per jaar verkocht
- Sony perst de leveranciers aardig uit en wil maximaal zo'n $50 voor de combinatie gpu en cpu betalen (~300 mm2 die size)
Dit zou $350 miljoen extra omzet per jaar voor de winnaar.

De winstmarges op die deal zal heel laag liggen, maar AMD heeft de deal harder nodig dan nVidia - de omzet valt al tijden tegen en er is veel capaciteit geboekt bij Global Foundries en TSMC. AMD zal dus veel dieper willen gaan om de deal te krijgen. nVidia kan het zich veroorloven om nee te zeggen tegen een deal met veel volume maar weinig marge, en zijn productiecapaciteit inzetten op produkten met hogere marges (Tegra chips, high-end GPU's, Tesla chips). AMD heeft die luxe niet.
AMD heeft inderdaad meer aan een zeer kleine marges dan nVidia. AMD moet de boel simpelweg draaiende houden want die zien ook de laptop en desktop verkopen teruglopen. En op op de telefoon en tablet markt zijn ze nog niet actief.
Is het eigenlijk zeker dat AMD de chips aan levert? De PS4 APU is ontworpen door AMD en Sony gezamenlijk, dus misschien produceert Sony ze wel zelf en wordt AMD alleen betaald voor de design bijdrage die ze hebben geleverd? Maar goed, ook in dat geval kan het nog zo zijn dat ze een bedrag per verkochte PS4 hebben afgesproken.

[Reactie gewijzigd door Bonez0r op 15 maart 2013 15:21]

Sony heeft geen fabs, en het is logisch dat als AMD het ontwerp maakt, dit in dezelfde fabs wordt geproduceerd als hun eigen APU's (ws TSMC) - met een andere fab samenwerken kost heel veel extra tijd.
AMD zou best nee hebben kunnen zeggen als de marge echt te laag was(en er potentieel verlies op de loer ligt). Alleen de marketing afdeling zal wel heel graag die deal door hebben zien gaan.

Sony PS4, mogelijk gemaakt door de APU van AMD. Staat behoorlijk goed.
Denk dat het voor AMD ook redelijk cruciaal is in moeilijker tijden, om zoveel mogelijk afzet te genereren.
Mja ik denk dat die inderdaad minder voor de winst is gegaan, maar meer voor het werk an sich. Je hebt de ontwikkelafdeling die weer even bezig is (en mogelijk met nieuwe patenten aankomt) en de productie die daar toch wel even zoet mee is.

Omdat ze waarschijnlijk ook voor de 3e Xbox gaan produceren, denk ik dat het voor hun ook een stuk goedkoper was om te maken (plus de ervaring die ze al hadden natuurlijk)
Denk dat het voor AMD ook redelijk cruciaal is in moeilijker tijden, om zoveel mogelijk afzet te genereren.
Vergeet niet dat AMD de cpu al leverde, als AMD met hele kleine marge de GPU gaat leveren dan en met normale marge de cpu, dan moet je het zien dat de cpu en gpu in chipset bundel verkopen met bepaalde marge verdeeld over beide. Nvidia kan alleen GPU leveren en met daar dus minimaal bepaald marge op verdienen anders schiet het niet op voor nvidia.

Ze zijn verzekerd van behoorlijke verkoop voor de komende jaren, voor AMD wel rendabel afzetmarkt, en daarbij heeft AMD nu wellicht deur opgezet voor Temash te leveren aan sony producten in de toekomst, zoals tablets, tv's en weet ik waar ze Temash nog meer in kunnen gebruiken.
Nvidia kan alleen GPU leveren
Ze zijn anders aardig succesvol met hun Tegra SoC's.
SOC's op arm architectuur zijn heel wat anders dan out of order x86-64 CPU's hoor. In een normale CPU zitten echt veel meer onderdelen dan in die tegra. Daarnaast is de instructie set van een ARM chip veel minder complex dan die van een normale CPU.
Dat is al een tijdje niet meer zo, Cortex A15 is ook een out-of-order architectuur met alle moderne toeters en bellen (branch predictors, grote L2 cache, etc) en doet qua complexiteit niet onder voor de low-end architecturen van Intel en AMD. Ook qua performance/watt zitten die nu op vrijwel gelijke hoogte.

[Reactie gewijzigd door Dreamvoid op 15 maart 2013 13:56]

Het is maar de vraag of AMD inderdaad kleinere marges hanteerde om de opdracht binnen te slepen.

Historisch gezien heeft Nvidia vaak "brute force" ontwerpen gehad voor hun GPUs terwijl AMD meer geraffineerde / efficientere ontwerpen had.

Voor een desktop gpu waar je makkelijker grote koelers kan plaatsen kan echter een brute-force ontwerp gunstiger zijn.

Maar bij een console kan dat natuurlijk heel anders liggen.

Wellicht dat de gpu architectuur van AMD ook makkelijker aan te passen is voor verschillende eisen, waardoor zijn minder R&D kosten hebben om een bestaand ontwerp te gebruiken voor een console.
Bron: Nvidia fanboy. Duh.
LOL waar baseer je dat nou weer op ? ATI doet het juist harstikke goed. ze deden het goed met de 5000 series en de 7000 serie zijn ook top
AMD staat bekend als "Bang for Buck" en Nvidia als "top of the line" maar geen van beide hebben een slechte naam qua stabiliteit voor zover ik weet. Wel wordt AMD over het algemeen wat warmer wat in turn weer wel kan zorgen voor stabiliteits issues als de koeling niet adequaat is.
Alleen zijn de videokaarten van AMD al jaren ook gewoon Top of the line. Nu even niet, maar de 3 jaar hiervoor wel. De research afdeling van AMD is gewoon te klein om een top of the line GPU uit te brengen EN onwikkelingen te doen voor alle consoles.

Door de extra kennis patenten en geld (en geschiedenis) zal AMD over 1á2 jaar gewoon weer de snelste videokaart van dat moment opleveren.
AMD is nog steeds Top of the line met HD7970 GHZ edition, GTX680 is niet bepaald beter, sommige games draaien stuk beter op de AMD kaart en andere op die van nividia, dus deze zijn zo wat gelijk. Het is alleen jammer dat AMD wat problemen heeft wat betreft drivers voor de 7900 serie :/
Dat is niet waar aangezien de console gpu's gewoon zijn afgeleid van de desktop variant. Er is uiteraard wel het eea aangebpast maar het is niet alsof ze een nieuwe chip hebben ontwikkeld, het is gewoon een aangepast ontwerp van iets wat al in de winkels ligt dus het al opzich wel meevallen hoeveel tijd en moeite daar in is gestoken.
yup, en waar ze voor bekend staan dat is al jaren oud en eigenlijk passe... net als dat VW voro degelijkheid bekend staat en Skoda voor goedkope spul... Vandaag de dag scheelt het erg weinig met beide fabrikanten en waarom ? omdat de tijden veranderen, en dat geldt al helemaal (en een tienvoud sneller) in de hardware wereld !
oftewel, die instelling kloptte best een jaartje of 10 geleden onderhand maar vandaag de dag ontlopen beide bedrijven zich nauwelijks....
AMD staat bekend als "Bang for Buck" en Nvidia als "top of the line
Ze staan er misschien om bekend, maar ook dat is gewoon onzin

AMD en nVidia hebben allebei vaak genoeg de snelste videokaart gehad, en ook hebben ze allebei videokaarten gehad die veel bang for buck gaven.
Wel wordt AMD over het algemeen wat warmer wat in turn weer wel kan zorgen voor stabiliteits issues als de koeling niet adequaat is.
Dat fabeltje is ook alleen maar in de wereld geholpen tijdens de HD4xxx serie van AMD

Die kaarten liepen namelijk erg stil, maar werden wel veel warmer.
De kaarten waren echter daar op gebouwd... maar sinds dien zijn de kaarten van AMD blijkbaar over het algemeen wat warmer....

BTW ook Vidia heeft genoeg kaarten gehad die verdomd heet werden, maar dat is niet blijven hangen bij de consument blijkbaar

De wereld is niet zo zwart wit, als het internet je wil laten geloven
Beetje 'kuddedier napraat praat', heb al jaren AMD GPU's en tot op de dag van vandaag ben ik gewoon tevreden genoeg om nog niet op Nvidia over te stappen, merk ook niks bijzonders aan de zogenaamde 'onstabiliteit'. AMD is meer bang for your buck vergeleken met Nvidia in mijn mening.
ik vind t wel raar. de playstation 4 gaat iets van 10 jaar mee. dus je weet dat je 10 jaar lang afzet heb van een en dezelfde gpu. dus de ontwikkelingskosten kan je flink spreiden. plus gratis reclame als je het goed doet. raar van nvidia.....
10 jaar? Alsjeblieft niet. De huidige console generatie heeft veel te lang geduurt.

En jij weet niet hoeveel geld ze hiermee zouden binnenslepen, dus je kunt hier niet echt een oordeel over maken.
De kans is aanwezig dat deze wel 10 jaar in de winkel kan gaan liggen ja. Dat er mogelijk al eerder een opvolger komt is dan niet zo raar, maar de PS1 en PS2 zijn ook erg lang in de verkoop geweest.
Was het zelfs niet zo dat de PS1 nog steeds in productie is en nieuw verkocht wordt in bijv. Zuid-Amerika?
Als je de specs van de PS4 ziet, hoopt niemand dat het ding 10 jaar in de winkel ligt. Een notebook processor en een mid-end videokaart. Ter vergelijking: de PS1 en PS2 hadden voor hun tijd baanbrekende graphics. De max van mid-end stuff is veel sneller behaald dan de max bij het beste wat er verkrijgbaar is.

Je kan stellen dat de PS3 +- 80 miljoen keer verkocht is. Dit is overigens een dalende lijn, aangezien de PS2 150 miljoen keer wist te verkopen, maar het is de vraag hoe deze generatie zich voortzet. In die zin neem je een groot risico, je weet niet hoeveel je moet produceren. Dat kan 30 miljoen worden maar misschien ook wel 130 miljoen.

Tweede punt is dat je de chips de complete levensduur (6 jaar?) in productie moet nemen. Een generatie videokaarten stapt zeer snel over naar een 28nm productieprocedé, maar bij de PS4 moet de chip exact hetzelfde blijven. Volgens mij gaat AMD de GPU en CPU in één chip bakken, wat procedeverkleining erg moeilijk maakt.
Daar moet je dus rekening mee houden.

Tel daarbij op dat de marges klein zijn, en ik snap dat NVIDIA hier niet heel erg op zit te wachten.
Het is inderdaad zo dat een console hardwarematig even krachtig moet blijven om alle games van die generatie te blijven ondersteunen. Wordt hij plots krachtiger, dan loop je het risico dat nieuwe games berekend worden op die krachtigere hardware en plots niet meer op het vorige model draaien.

Dat heeft echter niks met procédéverkleining of zelfs architectuurwijziging te maken. Zo heeft de Xbox 360 Slim een volledig nieuw ontworpen hardware-platform dat op een kleiner procédé is gebakken en zelfs anders ineen steekt dan de oudere 360-modellen. Veel van de chips die vroeger apart op het moederbord zaten werden geïntegreed tot één chip, wat in potentie een snellere throughput van data zou betekenen. Om ervoor te zorgen dat de nieuwe 360 echter even snel/traag zou zijn als zijn voorgangers werd een extra chip toegevoegd om de bandbreedte te beperken tot die in de oudere modellen.

Interne chips kunnen dus wel degelijk veranderen gedurende het leven van een console ;)

http://beta.ivc.no/wiki/index.php/Xbox_360_Revisions
"Tweede punt is dat je de chips de complete levensduur (6 jaar?) in productie moet nemen. Een generatie videokaarten stapt zeer snel over naar een 28nm productieprocedé, maar bij de PS4 moet de chip exact hetzelfde blijven."

Als je kijkt naar de PS3 dan zie je dat de productieprocedé is veranderd in de loop van tijd. Daardoor kon de PS3 goedkoper geproduceerd worden en zijn ze ook zuiniger geworden! (PS3 Phat > Slim > Slimmer)
je moet de generaties optellen:
PS + N64 + Dreamcast = 100 + 33 + 15
PS2 + Xbox = 150 + 25
PS3 + X360 + Wii = 80 + 80 + 100

de Wii is wel een geval apart, maar om nu te zeggen dat de verkoop inzakt... nou nee integendeel
de X360 heeft het gewoon veel beter gedaan dan de Xbox waardoor de PS3 veel minder dominant is dan de PS2
Dreamcast zat in de generatie van de PS2 waar ook de Gamecube bij hoort. De PS hoort in dezelfde generatie als de N64 maar in eerste instantie met de Saturn. De De N64 moest wel die concurrentie aan met de PS, maar Sega was toen al zo goed als gestopt met de Saturn. Sega en Nintendo zijn dus nooit meer direct de concurrentie met elkaar aangegaan na de cardridge-generatie.
Er zal heus wel een mannetje of 10 op zitten die dat goed hebben berekend en erachter kwamen dat het dus niet loont om een gpu hiervoor te ontwikkelen. In jouw ogen ziet het er misschien vreemd uit, maar als het een vette winst oplevert had Nvidia natuurlijk wel gedaan.
nVidia zegt nu dit, maar het scheen gewoon dat ze een keuze hebben gemaakt tussen Tegra en een console GPU, ze hadden schijnbaar niet genoeg ontwikkelaars om aan beide producten te werken.
A few years back, Nvidia had a difficult decision to make. The company could either compete for next generation consoles or it could go to mobile and make the chip that we all known as Tegra today. Nvidia didn’t have enough engineers to do both products, and in the longer run, having a presence in tablet and smartphone market could potentially reward the company with billions of dollars in revenue.
Bron: http://fudzilla.com/home/...d-console-deals-for-tegra

Dat zegt natuurlijk niet dat dat ze nu leugens staan te verkondigen, als Sony genoeg geld had geboden hadden ze gewoon Tegra op een lager pitje kunnen zetten, maar geld is dus niet helemaal de enige rede ;)
Dat is dan ook precies wat het artikel zegt, ze dachten meer winst te kunnen maken door die ingenieurs op Tegra te zetten dan op een PS4 APU.
dus je weet dat je 10 jaar lang afzet heb van een en dezelfde gpu. dus de ontwikkelingskosten kan je flink spreiden.
Dat weet Sony ook en gebruikten ze waarschijnlijk in de onderhandelingen naar Nvidia toe om de prijs zoveel mogelijk te drukken.

Het punt voor Nvidia is dan waarschijnlijk dat de korte- tot medium-termijnwinst voor hen onvoldoende of misschien wel onbestaande is, wat voor Nvidia een goede reden kan zijn om niet mee in te stappen.
Of Nvidia heeft nu net een marketing-uitspraak gedaan, maw AMD heeft de aanbesteding gewoon gewonnen, Nvidia had pech, en dat proberen ze nu wat mooier neer te zetten in de pers.
Ik weet niet of het raar is.
Een firma die op de rand van de afgrond staat, en de laatste jaren vaker verkeerd gegokt heeft, komt vragen voor een nieuw te ontwikkelen GPU tegen een dumpprijs.

De grondstofprijzen stijgen hard, de prijzen moeten ieder jaar omlaag, en Sony heeft nog geen stuiver om zijn kont te krabben.

Ik denk dat ze bij Nvidia wel eens heel verstandig geweest kunnen zijn.

Ik kom het de laatste tijd steeds vaker tegen, bedrijven die opdrachten niet willen omdat ze de marge te klein vinden. Men maakt tegenwoordig gewoon liever zekere winst, dan hoge omzet waarbij winst onzere is.

[Reactie gewijzigd door yzf1kr op 15 maart 2013 11:45]

AMD zit in alle consoles en nvidia heeft er "opeens" geen interesse meer in? Natuurlijk nvidia, het was jullie beslissing en een bewuste keuze :')
AMD zit in alle consoles en nvidia heeft er "opeens" geen interesse meer in? Natuurlijk nvidia, het was jullie beslissing en een bewuste keuze
Wat is er zo vreemd aan? Zie redenering van hierboven - stel dat Nvidia dat bij andere consolebouwers ook toepast, dan is het inderdaad gewoon hun keuze.

Of, anders gezegd: dan konden aanbieder en afnemer niet tot een vergelijk komen. Je kan zeggen dat de keuze bij Sony lag omdat ze niet meer wilden bieden, maar evengoed is het een keuze van Nvidia om hun producten niet te goedkoop te verkopen.
Het gaat niet alleen om het directe effect (inkomsten en werk) maar ook wat het op de lange termijn oplevert. Een deal voor de hardware in Sony Laptops kunnen ze op deze manier wel vergeten. Verder zijn ze ondertussen ook al de onboard graphics kwijt die Intel tegenwoordig zelf fabriceert. Het gaat helemaal niet zo goed meer met Nvidia als dat het een paar jaar terug was. Ze komen nu wel met de Titan, maar dat ding is zo duur dat het waarschijnlijk alleen voor de echte die-hards is weggelegd. Ze hadden een tijd wel een voorsprong op snelheid, maar dat heeft AMD inmiddels weer aardig ingelopen dacht ik. Vooral de budget en middenmoot van de grafische kaarten zijn ze aan het wegvallen en dat is erg jammer. De stap van AMD is dan wel logisch, maar Nvidia zou hier toch niet zo losjes mee om moeten zijn gegegaan.
Nvidia heeft zo veel meer waar ze goed aan kunnen verdienen. Niet alleen wat gpu's voor videokaarten. Ze zaten eerder juist slechten en nu in eens veel beter dan AMD.
Deze communicatie is eerder een beetje PR.

Door te zeggen na de feiten, dat Nvidia de deal niet aangekomen heeft, omdat ze niet genoeg erop konden verdienen, is een beetje om de kritiek weg te werken ( dat Nvidia krijgt van binnen uit / aandeelhouders / enz ), dat hun concurrent, beide consoles binnen gehaald heeft.

Met deze statement is het beetje heilige engel syndroom. "Het is niet onze schuld dat onze producten niet in de consoles zitten".

Feit is, dat AMD vond dat ze toch genoeg winst eruit konden halen, om voor beide consoles te ontwikkelen / produceren, zelf met een custom design. Wat denk ik de eerste keer is, in de tijden van de "moderne" consoles, dat één fabrikant beide systemen voorziet van hardware op gebied van cpu & gpu.
Ik zou zelf nu ook niet gokken op goede cijfers voor de PS4.
Consolegames worden steeds minder verkocht en de tabletmarkt loopt storm.

De ps4 gaat (gok ik) niet zo lang mee als de ps3.
Ik denk dat er binnen niet al te veel tijd tablets zijn die grafisch de ps4 evenaren.

Ik denk deze beslissing iets zegt over waar we naar toe gaan in de games industrie.
Tablets hebben een groot nadeel als het om games gaat en dat is de controls. Allemaal leuk en aardig dat tablets populairder worden, maar probeer eens een fps te spelen op een tablet. Ik zie dat alleen veranderen als tablets aansluitmogelijkheden krijgen voor (meerdere) controllers, eventueel draadloos. En dat brengt me op het tweede nadeel, tablets hebben een minuscuul scherm als je het vergelijkt met consoles die je op een tv aansluit.

Op dit moment zijn tablets geschikt voor casual games met touchscreen controls, niet meer dan dat. En ja er zijn miljarden potentiële casual game spelers, dus er is genoeg ruimte voor groei, maar het is niet dezelfde markt als die van console games.
Android biedt vanaf versie 4 ondersteuning voor game controllers. Daarnaast doet de resolutie van een tablet doorgaans niet noemenswaardig onder voor een TV. Als het echt om de afmeting gaat kan je de tablet doorgaans wel aan een TV koppelen.

Dit artikel bevat echter een belangrijke verklaring waarom een Android stick of tablet een matig alternatief is voor een console: de GPU haalt het bij lange na niet bij de GPU's die in een console gebruikt worden. Dat heeft te maken met het hele financiële systeem rond consoles. Het systeem van lage prijzen onderhandelen voor enorme aantallen en bovendien nog eens consoles met verlies verkopen. Dat systeem zorgt er ook voor dat ontwikkelaars van de zogenoemde triple A titels niet zomaar over zullen stappen naar de tablet markt.

Desondanks denk ik dat de consoles toch nog wel eens te maken kunnen krijgen met stevige concurrentie van low budget Android devices, vooral omdat deze games voor een fractie van de prijs van een console mogelijk maken. En de echte casual gamer maakt zich toch niet al te druk om de kwaliteit van de graphics.
Wel knap eigenlijk. Meestal ''weigeren'' bedrijven niet een aanbod/samenwerking van of met zo'n bedrijf, ook al is Nvidia zelf ook al een grote uiteraard. Ook al maken ze geen/weinig winst, doen ze het puur voor naamsbekendheid/om Sony oid close te houden, dat gebeurt hier niet. +1
Wel knap eigenlijk. Meestal ''weigeren'' bedrijven niet een aanbod/samenwerking van of met zo'n bedrijf, ook al is Nvidia zelf ook al een grote uiteraard. Ook al maken ze geen/weinig winst, doen ze het puur voor naamsbekendheid/om Sony oid close te houden, dat gebeurt hier niet. +1
nVidia heeft Sony niet nodig om in zijn markt bekendheid te verwerven, natuurlijk. En je ziet er als consument weinig van maar grote (enorme) deals tussen grote (enorme) bedrijven knallen wel vaker omdat de prijzen niet overeenkomen met het gewenste.
Het produceren van GPUs voor consoles vergt nogal wat productiecapaciteit en investeringen, en als je met je capaciteit en je geld een hoger rendement kunt halen door wat anders te doen (bijvoorbeeld een serie kleinschaligere projecten) dan is het geheel logisch dat te doen - uiteindelijk gaat het om rendement, zoveel mogelijk winst uit je investeringen.

Fanboyisms als die van SpankmasterC zijn dan ook eerder ondoordacht geleuter dan weloverwogen mening. Zolang je geen harde cijfers hebt (en die heb je niet want nVidia geeft die écht niet zomaar vrij) kun je niet anders dan gissen naar de redeneringen.

[Reactie gewijzigd door KnetterGek op 15 maart 2013 11:28]

Een van de nadelen van een gpu voor een console is dat deze verder niet verkocht kan worden.
Grappig:
a version of the same chip without Sony's technology will be available for consumers later this year
Bron: http://www.theinquirer.ne...f-sonys-playstation-4-apu
AMD gaat gewoon een Playstation4 APU op de markt zetten ;)
Je hebt het over theinquirer :P AMD ging sowieso apu's uitbrengen op basis van de Jaguar-architectuur. Sterker nog, die had het al in ontwikkeling voordat ze een cpu voor de PS4 gingen leveren. Dus het zit eigenlijk precies andersom: AMD gaat krachtigere versie Jaguar-apu leveren aan Sony voor de PlayStation 4. Daarbovenop betreft dit een cpu, een x86-cpu zelfs, wat een unicum is voor de console-wereld als ik mij niet vergis.
de xbox had een pentium III, niet zo'n unicum dus.

anyway, sony zal idd ook wel bij nvidia aangeklopt hebben, maar zal geen snelle cpu mee hebben kunnen bakken. Dan moet je die ergens anders halen, en dat is duurder. Als nvidia bij voorbaat wist geen kans te maken dan houd je de boot idd af.
Zonder de Sony technologie dus. Dat zal waarschijnlijk wel een groot verschil uitmaken waardoor de PS4 uiteindelijk nog wel krachtiger zal zijn dan de consumenten PS4 grafische kaart.
De "sony technologie" is om te zorgen dat het spul niet gekraakt wordt, zal weinig met prestaties te maken hebben.
Het houdt wel meer in. Denk aan de ondersteuning van PhysX. Het mag dan geen Sony technologie zijn, dan maar wel een PS-exclusieve eigenschap.
Da's een mooie zet inderdaad :).
Zoals ik hierboven al zei, ik denk dat Nvidia er juist erg van baalt dat ze deze opdracht niet hebben gekregen, het is gewoon een een verlies.
En dat proberen ze nu wat eufemistisch naar buiten te brengen...
Als alle 3 console makers voor juist voor AMD gaan dan denk ik dat het juist andersom is.
Afgezien nVidia hun produkten te duur/overprijsd verkopen....verder produceer nVidia geen CPU.

nVidia klinkt lekker zuur, ze hadden Sony en Microsoft genaaid des tijd had ik ergens gelezen.
Dus ja zo vreemd vindt ik het ook wel niet dat de 3 voor AMD heeft gekozen...nVidia valt buiten de boot.
Ik denk dat AMD het niet af kon slaan omdat zij zowel de CPU als de GPU kunnen leveren en hierdoor betere afspraken kon maken.
Nvidia kan zo'n combinatie niet maken omdat zij geen CPU kunnen leveren voor een machine.
Met Tegra verkoopt nVidia inmiddels meer cpu's dan AMD.
Die ARM hebben ze alleen maar in licentie en ik moet nog zien dat er een uitvoering van komt die zich echt kan meten met de huidige generatie desktop processors. Zelfs als dat zou lukken dan zou het nog een totaal afwijkend ontwerp zijn en ik denk dat Sony daar na het cell avontuur niet echt op zat te wachten.
Beste allemaal,

nu de Next gen consoles van Sony en Microsoft uit 8cores AMD CPU / AMD 7000 GPU combinaties gaan bestaan (APU's) vraag ik mij het volgende af voor PC gamen:

- is het om bij te blijven uit game-oogpunt bezien nu verstandig om te investeren in, zeg, een AMD 8 cores FX 8350 proc (4ghz tegen de ws. 1.6 Ghz van de consoles) en een factory-overclocked AMD 7870 die tegen een standaard 7950 aan zit (de consoles zullen qua GPU kant ws. vergelijkbaar zijn met een onderclockte 7900 mobile, en een standaard clockt 7900 mobile valt weer tussen een standaard desktop 7850 en 7870 in) ?

Het is een open vraag aan jullie, waarbij ik ervan uit ga dat de aankomende consoles ook in PC gaming de basis zullen zijn, al was het maar vanwege het poorten van games van console naar PC....

[Reactie gewijzigd door Hupegel op 15 maart 2013 11:18]

niet echt denk ik.

Kijk bijvoorbeeld naar de huidige consoles. Als jij een PC hebt met dezelfde specs (precies hetzelfde kan niet maar je kunt in de buurt komen), dan heb je echt maar dan ook ECHT een bagger PC om op te gamen.

Over het algemeen is het OS compleet anders en erg laag in resource verbruik, worden games geoptimaliseerd om elk trucje uit de CPU en GPU te halen en erg efficient geheugen gebruikt. De PC versie van games zullen echter niet zo geoptimaliseerd kunnen zijn want deze moeten op duizenden verschillende configuraties werken.
Probleem is dat consolegames vaak erg zwaar op de CPU leunen, terwijl pc-games veel meer via de GPU doen, die dan ook vaak veel meer cores en RAM bevat. Daartegenover staat dat de drivers voor de GPU's in consoles veel efficienter zijn dan die op de pc, ze hoeven maar een videokaart te ondersteunen ipv twintig, en ook alle andere componenten zijn in elke console gelijk.

Wat je moet kopen om de volgende generatie consoleports op console-settings te draaien, zal vermoedelijk neerkomen op een snelle AMD-quadcore of een midrange Intel-model en het equivalent van een GTX660Ti. Die zijn allebei veel beter dan wat er in de consoles zit, maar door de minder efficiente aansturing gaat er wat power verloren.

De reden dat 8 cores in je pc niet zoveel nut zal hebben is dat de meeste pc-games nog niet zwaar multi-threaded zijn, de AMD-octacores op het moment geen beste koop zijn, en een goede quadcore snel genoeg is het werk van de 8 cores in de console bij te houden.
De stap naar meer (ouderwetse en laaggeclockte) cores bij waarschijnlijk beide consoles zal inderdaad een boost geven aan hoe developers omgaan met multithreading. Hierdoor zullen games (hopelijk) ook beter gebruik ervan maken op de PC. Om nu ineens over te stappen op een AMD cpu, omdat ze meer met consoles bezig zijn is natuurlijk een stap teveel.
De nieuwste AMD's doen het redelijk goed weer op het gebied van gaming, maar de intels blijven nog steeds het snelst tegen ongeveer dezelfde prijs (en bij lager stroomverbruik!). Mijn beste advies zou zijn om gewoon de reviews erbij te pakken. Je ziet bijvoorbeeld dat crysis 3 goed geoptimaliseerd is al voor 8 cores, maar dat AMD nog steeds niet sneller is. Dit zegt natuurlijk niet alles, maar lijkt mij wel een goede indicatie.
Kwa grafische kaart zou ik ook zeker niet speciaal op de de 7800 serie gaan richten. Ten eerste is het vergelijken een grafische kaart voor een console en voor een pc als appels met peren. Behalve dat het ingewikkeld situatie is, zijn er (zover ik weet) geen specifieke videokaarten onproportioneel sneller van geworden. Bovendien je ziet nu dat beide bedrijven enorm bezig zijn met de optimalisatie van drivers voor de pc. Behalve dat ik op technische gebied me niet zou kunnen voorstellen hoe AMD daar ineens gigantische sprongen zou kunnen gaan maken, zou het ook markttechnisch gezien erg slecht zijn als ze dit bij een low-end segment kaart zouden doen.
Wil je meer performance dan ben ik bang dat je vaak ook gewoon meer geld moetgeven voor een hoger segment kaart (of zoals het een tweaker behoort, lekker moet gaan clocken, modden en flashen :Y) )
Op een console kun je het onderste uit de kan halen, oftewel tweaken, alle hardware voldoet aan een standaard profiel.. Wat je met variabele hardware, oftewel een zelfbouw niet zal lukken.
De PS4 komt pas eind dit jaar uit. Er staat geloof ik een refresh van de FX serie gepland voor midden dit jaar, dus als je het vanwege de PS4 wil doen zou ik wachten, misschien zelfs tot volgend jaar als de volgende generatie FX cpu's uit komt (codenaam Steamroller, naar het schijnt met flinke performance verbeteringen).

Wat ik wel hoop is dat omdat de PS4 acht cpu cores heeft, dat games ook voor acht cores ontwikkeld worden en dat dan ook de pc versies van die games gebruik maken van acht cores. Volgens mij blijven de meeste games steken op maximaal vier cores momenteel.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013