Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: AMD ontwikkelde Navi-gpu met Sony voor PlayStation 5

Volgens een gerucht van Forbes ontwikkelde AMD zijn Navi-gpu in het bijzonder voor gebruik in de PlayStation 5. De focus op Navi zou een negatieve invloed hebben gehad op de ontwikkeling van de Radeon RX Vega.

Forbes meldt op basis van anonieme bronnen dat de PlayStation 5 een Zen-cpu en Navi-gpu krijgt. AMD zou deze laatste samen met Sony hebben ontwikkeld voor de console. De samenwerking en focus op Navi zou tot gevolg hebben gehad dat Raja Koduri, die destijds de Radeon Technologies Group leidde, veel minder mankracht op de ontwikkeling van de Radeon RX Vega kon zetten dan hij wilde. Twee derde van zijn ontwikkelteam zou op Navi gezet zijn.

De claim is onderdeel van een omvangrijker artikel van Forbes over AMD, waarin wordt beweerd dat AMD-ceo Lisa Su veel meer op de semicustom-chipmarkt is gericht dan gedacht. Zo zou AMD de Radeon RX 460 vooral hebben ontwikkeld voor gebruik in de MacBook Pro en kwam gebruik voor videokaarten op de tweede plaats. AMD meldde bij de release zich op gebruik voor e-sports te richten. Ook de Polaris-architectuur zou vooral ontwikkeld zijn voor consoles, specifiek de Xbox One X.

Forbes verwijst naar geruchten van PCGamesHardware en PCGamesN. Die zouden tijdens de Computex hebben vernomen dat Navi als een opvolger voor Polaris te beschouwen is en dat het wat prestaties betreft niet zal kunnen concurreren met Nvidia's high-end kaarten, maar meer op de mainstream gericht zal zijn.

Door Olaf van Miltenburg

NieuwscoŲrdinator

15-06-2018 • 16:20

149 Linkedin Google+

Reacties (149)

Wijzig sortering
ze horen voor de nr1 plek te gaan in alle gebieden willen ze vraag creeeren naar hun desktop en notebook producten....als Intel en Nvidia de onbetwiste nrs1 zijn...wil iedereen die chips..en niet AMD....hoop eigenlijk wel dat ze terug aan de top komen....ziet er met deze strategie alleen niet naar uit!
Wat is 'de nr1 plek'? De krachtigste? Of de meest winstgevende?
De krachtigste GPU is namelijk by far niet de meest winstgevende. Het gros van de markt gaat voor een mid-end kaart.

Daarnaast moet je strategie aansluiten bij je financiŽle middelen. Die heeft AMD niet (en waarom niet, daar kan je een heel boekdeel over schrijven, maar de miljardenboetes bij Intel spelen zeker een rol) - en is het genoodzaakt om andere strategieŽn te kiezen.
Als die miljarden boetes en vergoedingen nu ook eens uitbetaald zouden worden, maar dat schijnt nogaltijd niet het geval te zijn. :|
Als die miljarden boetes en vergoedingen nu ook eens uitbetaald zouden worden
De laatste rechtszaak die AMD gewonnen heeft van Intel hebben ze het geld allang al van gekregen.

Als je met boetes bedoeld de boete die de EU heeft opgelegd aan Intel, dat bedrag gaat echt niet naar AMD. Het boetebedrag verdwijnt in de schatkist van de EU. Betaling van die boete hoeft niet zolang het hoger beroep tegen de boete nog loopt.
Daarnaast komt de hoogte van de boete in verre niet overeen met de lange termijn schade van AMD, t.o.v. de lange termijn winst van Intel. Dus Intel zit niet op blaren hoor :'P.
En een beetje inhoud van die schatkist zouden ze gerust wat mogen verdelen over de Europese lidstaten zodat het voor Europeanen allemaal wat betaalbaarder wordt. Want Europa begint pokkeduur te worden op ALLE gebied!
Intel heeft AMD al heel lang geleden betaald nl. 1 miljard dollar aan schadevergoeding. (dat geld is al op)

De andere miljarden boetes zijn ook in de VS / EU en AziŽ al betaald door intel aan de diverse overheden maar er lopen nog wel beroepszaken over. Van deze boetes ziet AMD dus geen cent.

Wel zijn er tussen AMD en intel bindende afspraken gemaakt over eerlijker handel.
Dat betekend dat AMD voor het eerst in zijn bestaan nu een echte kans heeft om zich te ontwikkelen.

@hieronder Siss: Duh, dat is dus een beroepszaak, je punt is ?

[Reactie gewijzigd door SLC op 16 juni 2018 02:17]

Beroepszaken? Nog maar een paar maanden geleden (september) werd de zaak terug verwezen naar een lagere hof voor een herziening.

https://www.theregister.c..._antitrust_case_analysis/
"De krachtigste GPU is namelijk by far niet de meest winstgevende."

Niet als je nvodia bent. Dan breng je kaarten a la titan uit en geraak je ongeveer met alles weg.
Dat is leuk als je een groot R&D budget hebt zoals Intel en nVidia maar dat heeft AMD niet.
Om te overleven moeten er keuzes gemaakt worden en dat heeft Lisa Sue gedaan. Gevolg is dat AMD weer mee kan doen op de cpu markt. En qua gpus goed mee doet in de segmenten waar de meeste gpus verkocht worden. Namelijk low end en mainstream.

Natuurlijk zien we liever een super snelle chip van AMD maar dat is momenteel niet haalbaar.

Er gaan wel geruchten dat er later grotere Navi chips gaan komen maar in de eerste instantie een midrange chip met prestaties vergelijkbaar aan Vega alleen voor een midrange prijs.
Ik denk dat dat wel meevalt. Alle gamedevelopers moeten nu feitelijk hun games op AMD hardware ontwikkelen aangezien overal AMD chips in zitten. Daarnaast is console gaming nogsteeds populair en groeiend dus ik denk dat dit een prima zet is. Als door deze focus op navi straks hele goede desktopkaarten uitkomen is dat ook niet verkeerd.
Nvidia en AMD hebben een programmeer guideline voor DX12 API gericht op hun architectuur en die guide zijn versvhillen ivm architectuur verschillen.

Houd dus in dat primaire console target de renderbackend ten eerste de AMD guidline volgt voor GCN
En de secondaire PC port afhankelijk is hoe ver port team kwa resources kan gaan en mag gaan om specifiek voor PC te optimaliseren. Daar jomt dan de optie om voor nV hardware de nV guidline te vogen.

Met nV gelobby en opdringerigheid zou dit vaker geen probleem zijn.
Alle gamedevelopers moeten nu feitelijk hun games op AMD hardware ontwikkelen aangezien overal AMD chips in zitten.
Dat is nu al een half decennium zo voor de Microsoft en Sony consoles. Ik kan niet zeggen dat het op de PC merkbaar is dat games voor AMD hardware geoptimaliseerd zouden zijn omdat de consoles AMD APU's gebruiken. Op een handjevol games na wel te verstaan. Terwijl je dat inmiddels na een half decennium wel zou mogen verwachten denk ik, als het echt een belangrijke factor zou zijn.
Als door deze focus op navi straks hele goede desktopkaarten uitkomen is dat ook niet verkeerd.
Daar ben ik het dan wel weer mee eens. Ontwikkeling van GPU's specifiek voor videokaarten is tegenwoordig bij AMD schijnbaar van secundair belang. Primair is APU's en GPU's voor system integrators zoals console fabrikanten en bijvoorbeeld Apple. Het resultaat kan echter wel zijn dat AMD daardoor alsnog redelijk goed presterende kosten efficiŽnte APU's en GPU's voor de PC ontwikkelt als bijproduct.

Het is alleen wel jammer imho dat dat er waarschijnlijk toe leidt dat er wat betreft concurrentie op de markt voor high end PC GPU's de komende tijd weinig spectaculairs van AMD te verwachten is. Net zoals dat nu al een tijdje het geval is. Immers: Polaris, en tot op zekere hoogte ook Vega, zijn prima mid range GPU's, maar ze leggen nVidia niet echt het vuur aan de schenen. Als Navi van die categorie wordt dan is er nog steeds niemand die een concurrerend equivalent heeft voor nVidia's xx80, xx80 Ti en Titan GPU's.
Ik kan het met mijn FX8350 zeer zeker merken.

In het begin van het FX tijdperk, liep vrijwel elke game ruk op de bulldozers. Frostbite met Battlefield was 1 van de uitzonderingen die hiervoor destijds optimalisaties had. Unreal Engine 3.5 deed het redelijk, maar nooit optimaal.

Sinds de PS4 en XBO uit zijn... lopen games een heel stuk beter. De performance is echt enorm omhoog gegaan. Leuk voorbeeld is No Man's Sky, 1 van de eerste 'indie' games die pas FPS ging droppen toen alle 8 mijn cores 100% benut werden. Unity is nu nog 1 van de weinige engines die er wat moeite mee lijkt te hebben, al lijkt dat ondertussen gefixt te zijn (WTFO draait sinds 2.0 als een tiet, 7 days to die nu nog ruk, 2 cores die uit hun neus vreten terwijl de FPS al dropt).

De meeste UE3.5 games zijn ondertussen wel gepatched, UE4 doet het OOTB al goed benutten (echt niet normaal hoe mooi die games van EPIC draaien op dit antieke hardware, UT/Paragon/Fortnite allemaal strak 60fps op ultra. Nu heb ik bepaalde fortnite grafische settings wel wat lager gezet omdat het sommige shit beter zichtbaar maakt (zoals elke open world game >.> low end graphics, alles poep en max range = easy spotting.. ftw).

Ik heb een nieuwe GPU nodig (maar geen game die mij overtuigt dat aan te schaffen, BF5 zeer waarschijnlijk pas) om echt weer mee te komen. Maar ik heb eigenlijk absoluut geen behoefte om mijn FX8350 te vervangen, behalve dat ik hem erg oud vind worden. Kwa performance... komt lekker mee. Lekker gamen, discord en andere troep open, muziekje erbij, browsertje open..... Die bulldozers zijn echt geen slechte CPU's.

Nu zijn die jaguar cores niet bepaald hetzelfde als de bulldozers, maar beide systemen zijn gericht op goed gebruik van multithreading.

Als de Bulldozers vanaf dag 1 overal zo goed gesupport zou zijn geweest, was AMD die generatie nooit zo'n underdog geworden maar een waardige concurent gebleven.
Het lijkt me dat wat je beschrijft vooral gerelateerd is aan de betere optimalisatie van multithreading in het algemeen, zowel in game engines als Windows. En niet specifiek aan optimalisaties voor AMD hardware, of AMD console hardware.

[Reactie gewijzigd door houseparty op 15 juni 2018 19:00]

Multithreading support was er wel. Maar AMD's manier is al jaren heel anders dan die van Intel en dat is jaren te merken geweest bij redelijk wat games. De echte optimalisaties kwamen pas nadat de consoles overgingen. Toeval?

Ik zie dat bij een aantal indies die ik volg ook. De game van hun liep zeker niet magisch beter nadat een boel fixes en optimalisaties van hun console developer terug geport werden (meeste besteden dit uit).

Vooral de Bulldozers, maar de Ryzens ook, hebben een erg 'aparte' aanpak voor het multithreaden. Dat terwijl plat gezien ARM en Intel dezelfde manier gebruiken, meer cores? +1 core until sufficient. Daar moet support echt voor gebouw worden, slechts multithreaden implementen is niet voldoende, sterker nog, werkt averechts als de load te groot komt. Leuk als een quad core intel met 3 threads een game soepel draait. Dat terwijl een FX met 4 cores, bij diezelfde 3 threads echt helemaal in elkaar stort. Oh wacht, geen 3 float units? oeps.

Optimaliseren voor de underdog gebeurd zelden. Zoals ik al zei, in eerste instantie was DICE echt een uitzondering. EPIC volgde snel en de rest kwam er na stap voor stap. Met ingang van dit jaar en straks de release van de nieuwe ARMA, zijn we klaar en alle engines hebben dan _eindefuckinglijk_ fatsoenlijke support voor de Bulldozers en Ryzens. DayZ gebruikt de engine al, van 15fps echt poep grafisch, smooth as butter 60 met alles mid-ultra en gelimiteerd door GPU.
ik zag een YouTube filmpje waarin de FX8350 tegen de i5 2500k werd gezet in nieuwe titels, daarin was de FX8350 zo'n 10% gemiddeld sneller. Terwijl het is voorheen een heel andere situatie was, het filmpje was van Adored ik kan het zo snel niet vinden.
Klopt en daar ben ik blij mee en kijk ik naar uit, in tegen stelling tot nvidia en Intel deelt AMD zijn technieken zoals free-sync en is het open source. Ze delen en komen ook vaak met unieke ideeen en dergelijke verzinsels.

Ik support AMD al bijna heel mn leven, mn laatste nvidia kaartje was de 9600gt, helaas wel voor een Intel processor moeten kiezen helaas.
Dat delen moet ook wel als je een kleine speler bent natuurlijk, anders kom je helemaal niet aan de bak. Vraag me sterk af of dat zo zou zijn als de rollen omgedraaid waren (vermoed van niet :) ) :)
AMD heeft niet altijd onderop gelegen en is altijd een stuk opener geweest. AMD is een keer of 2-3 marktleider geweest en heeft een groot gedeelte van het PC tijdperk zij aan zij gestaan met Intel.

Maar ik heb AMD nog nooit kunnen betrappen op vuile spelletjes, nooit niet. Her en der wat koppige en verkeerde keuzes, maar achterbakse Intel achtige shit, nope.
De driver support van AMD was soms bij de beesten af... als je het hebt over positie misbruik dan heeft amd bij de ontwikkeling van hun drivers toch wel een hele hoop steekjes laten vallen.
Ik zeg al, ze doen niet alles goed en maken ook hun fouten.

Zelf heb ik in het verleden nooit gezeik gehad met AMD drivers, mijn huidige Nvidia kaart ben ik soms helemaal tureluurs van geworden over hoe ontiegelijk gaar die Nvidia drivers zijn geweest.

Nvidia en ATI/AMD altijd een beetje afgewisseld, de voorganger was een Radeon en dat ding deed het voor zijn geld veel te goed, draaide stabiel en de drivers waren prima. Ondertussen is mijn ervaring met mijn GTX 760 een reden om even een keer niet meer voor Nvidia te kiezen, prachtig stukje hardware (voor een budget ding, niet normaal hoe netjes het nog op 1080p mee weet tekomen als troep goed geoptimaliseerd is, grootste probleem is geheugen), maar de software kant is om te janken geweest. Naast dat ik sinds de aankoop van dit ding achter wat Intel achtige achterbakse shit van Nvidia ben gekomen.

AMD is als het er op aankomt een voorbeeld van hoe bedrijven zouden moeten zijn. Ja ze willen geld verdienen, en veel ook. Maar doen dit op een open en eerlijke manier. Maar het zijn ook mensen, en ze maken soms de verkeerde -domme- keuzes. Ach. Al doende leert men, niet waar?

[Reactie gewijzigd door batjes op 16 juni 2018 09:59]

als je het hebt over positie misbruik dan heeft amd bij de ontwikkeling van hun drivers toch wel een hele hoop steekjes laten vallen.
Wat hebben die 2 zaken met elkaar te maken? bij misbruik zorg je er doorgaans voor dat je zelf een voordeel krijgt, en niet een nadeel

Maarja waar praten we over, AMD en drivers is echt zo een verschrikkelijk oud verhaal, jammer dat het nog steeds aangedragen word
Ik denk dat dat wel meevalt. Alle gamedevelopers moeten nu feitelijk hun games op AMD hardware ontwikkelen aangezien overal AMD chips in zitten.
Maar omdat Mantle/Vulkan nooit echt goed is doorgebroken zitten ontwikkelaars die werkende code alsnog om te bouwen naar DX12-code om het ook compatible te houden met marktleider Nvidia - met een negatieve prestatieimpact voor AMD :P
Maar omdat Mantle/Vulkan nooit echt goed is doorgebroken zitten ontwikkelaars die werkende code alsnog om te bouwen naar DX12-code om het ook compatible te houden met marktleider Nvidia - met een negatieve prestatieimpact voor AMD :P
Probeer je hiermee te impliceren dat Vulkan enkel i.c.m. AMD GPU's werkt? Want dat is niet het geval, Nvidia heeft ook gewoon Vulkan drivers.

Daarbij word er op zowel de Xbox als de PlayStation niet met Vulkan of Mantle gewerkt, dus er is helemaal geen porten van Mantle/Vulkan -> DX12 bij.
Probeer je hiermee te impliceren dat Vulkan enkel i.c.m. AMD GPU's werkt?
Nee, natuurlijk niet.
Wel dat Vulkan beter met AMD werkt dan dat het met Nvidia werkt. En dat DX11/12 beter met Nvidia werkt dan met AMD. Uitgevers kiezen voor DX11/12, wellicht omdat de marktleider er betere prestaties uit trekt en/of andere financiŽle belangen ;)
Daarbij word er op zowel de Xbox als de PlayStation niet met Vulkan of Mantle gewerkt, dus er is helemaal geen porten van Mantle/Vulkan -> DX12 bij.
Ik heb het ook niet over letterlijk gebruik, maar over grote raakvlakken: https://www.neogaf.com/th...m-api-used-in-ps4.686655/
Dat klopt niet. Nvidia's architectuur is beter toegepitst op DirectX11 dan die van AMD, maar of je DirectX12 hebt of Vulkan maakt niet zoveel uit, er zijn grote gelijkenissen tussen beide. Nvidia is verder helemaal pro-Vulkan. Ja, ze hebben een voordeel op DX11, maar Nvidia weet drommels goed dat ze niet op het verleden kunnen blijven voortborduren.
Dat is nog maar de vraag. Xbox draait ook op DX en als AMD blijft samenwerken met microsoft voor een volgende xbox dan kan dat positief uitpakken voor DX12 support. AMD is gewoon een zeer sterke positie aan het opbouwen de laatste jaren. Langzaam maar zeker werpt dat nu zijn vruchten af.
Een aangepaste versie, dat dan weer wel :P en dat zie je ook terug in benchmarks.

Ben het wel met je eens hoor, ik denk dat AMD de juiste beslissingen neemt en de juiste kansen grijpt om met de lippen boven water te blijven. Het is alleen jammer dat ze daar vaak niet voor gewaardeerd worden... :(
Vulkan en DX12 lijken verdacht veel op elkaar. Als je er 1 implementeerd in je engine, kun je net zo goed de ander ook implementeren. Waarom zou men Vulkan nog supporten als de doelgroep de -niet bestaande- high end Linux gamer is.
Omdat het een oplossing biedt voor ondersteuning van Windows, Linux, Nintendo, Anrdoid. Sedert Valve ervoor gezorgd heeft dat MoltenVK open bron is geworden ook MacOS.

Eerder de omgekeerde vraag: Waarom zou je in DX12 geÔnteresseerd zijn? Lijkt verdacht veel op Vulkan, maar je bent met handen en voeten aan Microsoft gebonden. En gooit het je systeemeisen direct naar Windows 10, terwijl Vulkan met Windows 7 tevreden is.

[Reactie gewijzigd door dmantione op 15 juni 2018 18:14]

Welke BF1 achtige 'high end' gamer doet dit op andere systemen dan die van Microsoft of Sony?

DX12 en Vulcan zijn om echt het uiterste uit de hardware te kunnen halen en dit zo optimaal mogelijk benutten. Anders voldoen DX11 of OpenGl prima als je compatibiliteit wilt hebben, wat de meeste engines op de wereld al jaren OOTB supporten.
Dat lijkt me een te enge visie op het toepassingsgebied van Vulkan. Vulkan zorgt ervoor dat de processor aanzienlijk minder belast wordt. Op een PC is een zware processor aanwezig en dan zijn het alleen de zwaarste spellen die profijt hebben van DX12/Vulkan.

Maar pak je telefoon er maar bij, die je veel te vaak moet opladen: Een lager processorgebruik door Vulkan zorgt dat je langer mobiel kunt spelen ťn dat zwaardere spellen mogelijk worden, want een mobiele processoren zijn goed, maar niet zo krachtig als op de desktop. Bij spelcomputers zijn kosten weer erg belangrijk en de mogelijkheid om een lichtere processor te kunnen gebruiken is belangrijk.

Waar je gelijk in hebt is dat DX11 en OpenGL niet weggaan en voor wie een eigen spelengine ontwerpt, de ontwikkelkosten van DX11 of OpenGL waarschijnlijk lager liggen dan DX12/Vulkan. Maar, vaak wordt geen eigen spelengine ontworpen, maar wordt Unity of Unreal ingezet. Ondersteunen inmiddel Vulkan, wa de API's breed inzetbaar maakt voor allerhande spellen. En dan hoeven we niet noodzakelijk meer naar enkel "high-end gamers" te kijken.
Yes, maar wie gaat er BF1 kwaliteit games spelen op zijn mobiel? En hoe zal een zwak als stront 4-8 core ARM ding het ooit kunnen op kunnen nemen tegen de i7-9s en Ryzens? Om ook met die lagere overhead, de overige vereisten van zo'n AAA game te draaien.

In veel gevallen hangen de pixels en physics aan elkaar. Rook, puin e.d. Hoe mooier je dit wilt hebben, hoe precieser het physics model het te renderen beeld moet weergeven. In genoeg games kan de AI ook wel eens een probleem gaan vormen.

De CPU wordt echt niet magisch enorm ontlast dankzij Vulkan/DX12.


Het probleem van dit soort drastische wijzigingen is ook dat.... Zie hoe lang het duurt voordat DX12 echt opgepakt wordt? DX11 is nog altijd de goto, en niet omdat "Win7 > Win10" fanboys.

Fatsoenlijke DX12/Vulkan support betekend(e) dat de engine bouwers hun antieke code mogen gaan verbouwen. Want het trapt een boel principes onderuit waar de wereld al decenia op leunde. Het kost dus een boel moeite en tijd om die support uberhaupt in die engines te krijgen. DICE loopt normaal met Frostbite echt mee in de frontline van de engines. Dit keer was EPIC ze goed voor. Nu is elke EU een nieuwe engine, waarbij FB evoluties zijn geweest. DICE mocht een boel legacy gaan vervangen. Best een tijdje geduurd ook voor die DX12 support echt lekker liep in BF1.
De vraag is niet of mensen BF1-spellen op hun mobiel gaan spelen, BF1 doet helemaal niet ter zake. Relevant is dat mobiel een megagrote spellenmarkt is en dat daar dus veel spellen voor geschreven worden. De situatie op Android is anders dan op de PC, daar ging dat tot nog toe met OpenGL ES, of alleen integers, ontstaan in de tijd dat mobieltjes nog geen goede FPU hadden. Inmiddels is dat anders, maar in tegenstelling tot de PC is niet de volwaardige OpenGL beschikbaar, Google verwijst spelontwikkelaars naar Vulkan. Daarmee is Vulkan alleen voor mobieltjes al iets waar big business van af hangt.

Dat we niet op stel en sprong van DX11 af gaan zijn, wil je wel nageven, maar het gaat nu wel erg hard richting de moderne API's, ik denk dat het moment dat ze een meerderheid van de spellen gaan uimaken sneller dichterbij is dan je denkt.
Alleen dat soort AAA klasse games hebben het nu nodig. De rest voldoet prima met OpenGL of DX11, de hardware is krachtig zat. Waarvan het development niveau vooralsnog gewoon enorm veel lager ligt. DX12/Vulkan zijn echt next level generaties.

Clash of Clans, Candy Crush en whatever men nu speelt heeft echt geen Vulkan nodig om het beter te doen. Goeie VR is zelfs voor desktops nog te hoog gegrepen laat staan mobiel.

Vulkan is verder de opvolger van OpenGL, en het zal langzaam de norm worden op de mobieltjes waar OpenGL dat vooralsnog een beetje is. Net zo goed als dat al zijner tijd DX12 langzaam DX11 zal gaan vervangen. De eerste games die dat voor beide platforms aan het doen zijn, zijn er al.

Er is echter geen noodzaak, dus adoptment rate is sloom als boter.
Is vulkan niet inmiddels opgenomen in OpenGL welke ook gewoon op nvidia kaarten werkt?
Het werkt sowieso wel, maar de mate van optimalisatie verschilt.

En verder klopt dat :)
Dat zei men ook van de PS4/XB1. Wat is daar van terechtgekomen?
Om te beginnen zijn de ports van op consoles ontwikkelde games heel veel beter op de PC dan dat ze in het xbox 360 en ps3 tijdperk waren en mocht het je nog niet zijn opgevallen; het marktaandeel van AMD is de afgelopen jaren alleen maar aan het stijgen....
"...Daarnaast is console gaming nogsteeds populair en groeiend..."

Ten kost van de PC gamer!

Die men nu wat terug probeert te winnen met o.a. VR-HMD's

Mij hebben ze alvast terug op de PC gekregen! ;-)
niet enkel ten koste van pc gamers, het aantal gamers in het algemeen ligt heel veel hoger dan bijvoorbeeld 10 jaar terug. Alleen al de verkooprecords die jaar op jaar worden gebroken laten dit zien.
Waarom moeten zij de nr1 zijn op alle gebieden? Dan word het misschien ook een zelfde soort bedrijf als nvidia, wat je ook niet wilt. Soms is het niet erg om 2e te zijn.
Ik denk dat dat iets teveel geredeneerd is vanuit de gamende consument. En dat is maar een minuscuul deel van de markt.

Ik denk dat 80% van alle GPU’s die gemaakt worden door enkele tientallen mensen gekocht worden, de decision makers bij een aantal grote computer en console fabrikanten. Het is veel belangrijker om die mensen tevreden te krijgen dan de gemiddelde gamer.
Met PS4 is juist beleid ingezet om kosten rendabel te zijn en prijs toegankelijk en dev toegankelijk te maken.
Dus flinke APU Soc en daarmee kan dat hooguit midrange igpu zijn.
Want bigchip gpu in Apu stoppen kan wel maar maakt het te duur en minder rendable productie.

§400,- tot §500,-

Als pech hebt willen ze mogelijk convertable maken zoals switch.
Dat houd in APU ook mobile trekjes moet hebben wat spect nog verder degradeerd.
Dan zal AMD wel meer winst halen uit de verkoop aan consolefabrikanten, de aantallen zijn natuurlijk lekker groot!
Ik denk dat het vooral de zekerheid is.
Tenzij een console faalt, ben je onderdelenleverancier verzekerd van een 5-6 tal jaar vaste inkomensstroom, zonder dat je elk jaar een nieuwe versie moet ontwikkelen(hoogstens een revisie voor een slim model).

Als je nu een goeie videokaart voor een PC maakt, loop je de kans dat ie volgend jaar niks meer verkoopt omdat de concurrentie met iets beters kwam.
de marges op console chips zijn erg klein, wat ervoor zorgt dat de winst niet zo hoog is als je zou verwachten
JAPANESE ELECTRONICS FIRM Sony reportedly is making an $18 profit on its Playstation 4 (PS4), while AMD is likely making around $100 per console sold.

Zo klein is de marge ook weer niet..
Voor de exacte winst marges die Sony op hun verschillende producten maakt, bij deze:
Consolidated Financial Results - Sony Corporation,
Openbaar gemaakt op 17 april dit jaar.
;)
$100, dat is flink. Ik vraag me af die marge 100% de APU is, of dat er per verkochte console een soort fee aan AMD wordt betaald.
Het is complete onzin. AMD krijgt namelijk per APU voor de PS4 en Xbox 1 slechts 60 dollar betaald.
Dus hoe er uit 60 betaalde dollars 100 dollars aan winst moet komen mag hij eens uitleggen.
Die 60 dollar was in het begin zelfs verliesgevend en is nu net iets beter dan kostendekkend.
De winst loopt nu dus eerder in de centen dan dollars voor AMD. Wel biedt het gegarandeerde omzet.
Dat laatste was belangrijk vanwege de wafer contracten met GBF.

Anders bekeken: wanneer de winst per Sony en MS Console APU daadwerkelijk 100 dollar was geweest en er zijn er daarvan inmiddels vele tientallen miljoenen verkocht dan zou AMD dus een extreem vette bankrekening moeten hebben waarop de afgelopen jaren ruim 6 miljard dollar aan winst zou moeten zijn bijgeschreven. Het tegendeel is waar, voor de komst van Ryzen was AMD zo goed als failliet.
60 dollar per apu is best aardig, je moet weten dat een console zo’n 6 jaar verkocht wordt en ontwikkelkosten per verkochte apu daardoor best laag uitvalt en ook is de gebruikte techniek wat ouder dus ook makkelijker om te produceren (lees nagenoeg geen uitval), dus de productie kosten vallen ook veel lager uit dan voor normale GPU of CPU. Zal me niet verbazen als ze 20-30 euro winst maken per console!
Die Console chips zijn joekels qua formaat dus kostbaar om te maken, Dubbel Jaguar met later extra RX.
Uiteindelijk zal dat meerdere keren aan een schaalverkleining onderhevig zijn waardoor de kosten dalen.
Echter in het begin toen AMD het nauwelijks kon opbrengen waren de kosten juist het hoogst en moest ook nog daarvoor alle R&D betaald worden voor deze chips. Nu in 2018 is het nog steeds geen vetpot zoals alle financiŽn van AMD laten zien, dus nee zeker geen 20 tot 30 euro winst per Console Apu.

PlayStation 4 (PS4) 79.50 million
Xbox One (XOne) 37.59 million
Total AMD APU's sold: 117 million

117 miljoen stuks (AD) 25 euro winst gemiddeld per stuk = 3 miljard pure winst.
117 miljoen stuks (AD) 100 dollar winst per stuk = 12 miljard pure winst.
........was het maar zo'n feest......... :P
Dat is inderdaad waar :) Denk als ze 10 euro halen, over totale productie periode ze al heel blij zijn idd
mag je zo niet rekenen, want ipv pure winst moet je het verlies van de R&D nog mee rekenen.
je bedragen zijn inkomsten, geen directe winst.
Als de bedragen al kloppen.
De winstbedragen kloppen ook niet, dat is juist wat ik aantoon. Dit zijn nl verkeerde aannames van Erik1971 en ismileyfox. Het bedrag dat wel klopt is 60 dollar omzet per Console APU. Verder zijn de totale productie aantallen bekend en gewoon van het web geplukt.
Ja, vond het al erg sterk. Bedankt voor de toelichting :)
Omzet is geen winst.

AMD komt niet gratis aan die APU.
Omzet is geen winst.
Dat is idd precies wat ik zeg, strak opgemerkt !
AMD komt niet gratis aan die APU.
Dat beweer ik ook nergens. Dat is puur iets dat jij hier ter plekke verzint.
euh lees je eigen post eens ?
117 miljoen stuks (AD) 25 euro winst gemiddeld per stuk = 3 miljard pure winst.
117 miljoen stuks (AD) 100 dollar winst per stuk = 12 miljard pure winst.
je bedoelt het misschien goed want je reactie klopt, maar de verwoording mist iets.
Niet wanneer je gewoon even volgt waar de verkeerd verzonnen winstbedragen vandaan kwamen....... :)
Dan zijn nl de 25 euro (gemiddelde van 20-30) van Erik1971 en 100 dollar van ismileyfox.
Het enige bedrag dat echt klopt is het bedrag van 60 dollar omzet per Console APU dat is nl bekend.
N.B. door te berekenen welke bizarre hoeveelheid winst die verkeerde aannames zouden opleveren laat ik dus zien dat dit nooit kan kloppen. AMD zou daardoor stinkend rijk moeten zijn maar is dat dus beslist niet.

Datgene wat bij jou en totaalgeenhard mist is het volgen naar de oorsprong van de verkeerde aannames...
Ik denk dat AMD hooguit 100 dollar omzet binnen kan sleuren per console, zeker geen winst; dat zou betekenen dat de helft van de consumentenkosten bij een derde partij uitkomen :+
En dat is vreemd omdat?
Sony verdient aan de spellen, daar gaat het om, de hardware werd de vorige generatie (tenminste aan het begin) nog met verlies verkocht, dus die § 18,- winst is alleen maar bonus.
Dat was iets van de vorige generatie. Sony verkocht de PS4 na een half jaar al met winst.

Gezien het aantal transistors in de SOC van een Playstation en de prijs van een videokaart met net zoveel transistors plus pcb, andere chips, verpakking, verscheping, btw - is het totaal onrealistisch dat AMD daar 100 dollar voor kan vragen.
Kleine marges, maar wel dekkend. Als je je R&D op kosten van de consolefabrikant doet, bespaar je forse kosten aan de kant van R&D voor je videokaart.
OEM zijn belangrijk en reserves. Kijk maar naar 3DFX konden even geen king zijn en zijn overgenomen.
AMD heeft niet de reserves om groot in te zetten en gezien daarmee de kansen op kroon al minimalistisch worden. Want dan heb gewoon een realy big chip nodig in de planning dat gewoon rendement naar onderhaald puur voor prestige en imago. De reden dat nV dat wel doet.
En AMD niet meer.

AMD moet kwa reserves nog groeien en niet afhankelijk zijn van retail sletten consumenten die voor paar procent al rennen naar de concurrent.

Marges zijn niet hoog maar wel hoger gegarandeerde omzet.

Beleid past goed bij de huidige situatie voor AMD.
nV heeft wel de reserves om meerdere projecten vol gas te geven en meerdere chips.

AMD klimt geleidelijk uit het dal. Dat komt pas goed na aantal vette jaren.
Kennelijk hoog genoeg om alle resources op in te zetten. Maargoed uiteindelijk kunnen de desktopkaarten er ook weer een voordeel uit halen. Als dit waar is zou de volgende generatie kaarten van AMD best wel eens voor verrassingen kunnen zorgen.
Euh... maar hier staat formeel

"..en dat het wat prestaties betreft niet zal kunnen concurreren met Nvidia's high-end kaarten.."

Dus verrassing, euh nee. Net zoals Vega vandaag de dag. Ze komen er net niet!
dat zegt niets, amd hoeft niet met high end te concurreren. De grote aantallen pak je in het middensegment en dat is precies waar de focus van amd met navi ligt. In een console zit tenslotte ook geen high end chip. En het is maar net hoe goedkoop ze het in de markt kunnen zetten. Bijvoorbeeld de zelfde prestaties als nvidia voor 30 euro minder maar 10% hoger stroomverbruik zal veel mensen zeker richting amd drijven.
Ik heb ook niet gezegd dat dat AMD hoeft te concurreren op de high-end.

Ik reageerde gewoon op uw commentaar waarbij u insinueerde dat AMD's videokaarten "best wel eens voor verrassingen kunnen zorgen". Terwijl er dus totaal geen verrassingen zullen zijn, zeker niet op performance gebied.
Maar als iemand als Sony mee ontwikkeld heb je ook minder R&D kosten die je anders terug moet verdienen.
Je hebt het toch over diezelfde Sony die al jaren verlies maakt op vanalles en nog wat?
Diezelfde Sony die continu links en rechts software en services stopt zonder enige uitleg (bv. TV Sideview, Gracenote...) omdat ze er het geld niet meer voor hebben (tenzij ze dus liegen!)?

Sony gaat dezelfde weg op als HTC. Dat ene product marcheert nog en de rest laten ze vallen.

Waar is die innovatieve Sony van weleer met Trinitron, Walkman, PS, SPDIF, 3.5"floppy, CD etc...
Ja sommige dingen hebben ze samen met Philips gedaan (SPDIF en CD bijvoorbeeld) maar ook die Philips bestaat niet meer :-(

Ik vraag mij alleen af die mensen die die uitvindingen gedaan hebben. Waar zijn die dan?
Eigenlijk kan AMD al 3 generaties van gpu's niet mee met high-end kaarten, dat is wel een teleurstelling dat ook de komende jaren geen concurrentie is voor de high-end markt. De consument is hier alleen de verliezer want zal zeker nog 4 jaar duren voordat er een high-end kaartje komt wat met gemak 144hz aan kan op 4K met alles op ultra.

[Reactie gewijzigd door veryFerrygood op 15 juni 2018 16:33]

De grootste stap in GPU geweld zijn dieshrinks. Niet architectuur. Meer general purouse meer flexibkiteit maakt feature flexibke en dus rijk maar ook zwaarder.
Massive parraleliseebaar komt de power dus dat schaal goed met grotere chips en door dieshrinks hogere logic density.
De stap naar 14nm heeft performance gebracht en refreshes binnen dezelfd procede geven een meer subtielere boost of hogere efficientie kwa TDP.

Dus als je naar 4K 144fps hunker dan kijk je vooruit naar de komende dieshrinks.
Zal 7nm voldoende zijn of 5nm

UHD@144 8x FHD@72.

Je kan verdubbeling verwachten en dat is nog erg krap.
hoezo drie generaties? ik tel de gtx 9xx en de 10xx en bij amd r9 3xx/fury en rx 4xx/5xx/vega
ze hebben dan ook geen echte dedicated gaming chip zoals nvidia dat wel heeft. Geld voor verschillende chips voor verschillende doeleinden hebben ze ook niet echt.
Ik hoop eigenlijk dat AMD overgenomen wordt door bijv. Samsung ofzo. Alleen trekken ze het niet meer. De cpu-tak valt nog mee maar Intel is nog altijd sneller en de GPU-tak is gewoon een regelrechte ramp. Ze spelen geen enkele rol van betekenis meer in de markt. Zo gaat het nu al jaren en er komt maar geen verbetering. Deze nieuwe geruchten zijn ook weer niet hoopgevend. Navi werd altijd gezien als opvolger voor Vega in het high-end segment en nu zou het voor het mainstream segment zijn? Wanneer komen ze dan met de opvolger voor Vega in de high-end?

[Reactie gewijzigd door Fredi op 16 juni 2018 02:56]

Navi zou ook als kern feature schaalbaarheid moeten hebben dus het is zomaar mogelijk dat ze navi voor zowel low als highend kunnen inzetten.
Of Intel, die werkt nu ook al samen met AMD.
Intel die AMD overneemt, dat gaat niet gebeuren, het zijn gewoon concurenten.
Daarom. Concurrenten nemen elkaar over.....Kijk eens wat Adobe of EA hebben gedaan.....

In 2008 gingen er geruchten dat Intel Nvidia over zou nemen...

"NVIDIA Takeover? Rumors Spread About Intel Buying NVIDIA"
;)
Ze werken nauwelijks samen. Intel
Gebruikt een chip van amd.
Intel kan AMD niet overnemen. Omdat ze zo’n macht hebben met x86 moeten ze een concurrent hebben die ook x86 mag en kan maken. Dat is iets wat wereldwijd door landen met elkaar is afgesproken om grote bedrijven niet algehele macht over 1 belangrijk product te laten hebben.

Als Intel iemand anders een licentie geeft die x86 kan en wil maken, dan is het misschien een ander verhaal.
Ze kunnen de grafische chip afdeling wel overnemen, die staat los van de cpu tak... ;)
Dit leest alsof Lisa Su de verkeerde beslissingen heeft genomen. Echter, volgens mij is juist het tegenovergestelde het geval. De focus op custom chips heeft AMD zeker geen windeieren gelegd, verre van zelfs.

AMD heeft nu een monopolie wat console gaming betreft (de Switch en de SHIELD buiten beschouwing gelaten). De game engines die op DX12 draaien hebben duidelijk een voordeel wat betreft het ondersteunen van meerdere platforms. Waardoor het porten van games beter gaat en zelfs minder schadelijk is dan voorheen het geval was. Ik durf zelfs te stellen dat een intensievere focus op shared technology de redding van PC gaming kan zijn. Op voorwaarde dat open standaarden gehandhaafd blijven en propriŽtaire technieken als G-sync en Nvidia Gameworks buiten de deuren gehouden worden.
Voor winstgevendheid misschien niet, maar een AMD dat zich focust op custom chips en mainstream PC dat is ook een AMD dat minder innovatief zal zijn ( innovaties vinden meestal toch echt als eerste plaats bij de high end ).
Intel met cash reserves kon nnoveren ook al lijkt het soms dead end.
itanium Epic IA64
Larrabee Xeon Phi

AMD bijna failliet is uit diep dal aan klimmen en dan zijn de meest rendabele markten belangrijk.
En vooral Retail mijden.

OEM als in CPU labtops server consoles belangrijker dan Retail.
GPU is waar APU de onderkant kanibaliseerd is krimpende markt.

Vergeet ook niet langetermijn hoe zit de GPU markt er uit in 2025 als APU mogelijk 1440p gamen mogelijk maakt op 5nm.

APU worden meer kapable als consoles gebruiken al flinke APU.

Intel komt ook in gpu markt maar meer de promarkt lonkt waar masive parralel compute belangrijker is dmv gpgpu als daar in mee gaat is gamers afgeleide ook mogelijk en meegenomen.

Dit klinkt juist goed voor AMD voor hun coninuiteit en om verder uit dal te klimmen.

Voor gamer zijn dit op korte termijn minder leuke geruchten.
Dan maar sub highend of upper midrange gamen met Navi in de toekomst.
Voor gamer zijn dit op korte termijn minder leuke geruchten.
En dat was het punt.
"..Vergeet ook niet langetermijn hoe zit de GPU markt er uit in 2025 als APU mogelijk 1440p gamen mogelijk maakt op 5nm..."

Ik geloof niet dat we in 2025 nog op 1440p zitten te gamen. Misschien op low-end prul-consoles en ALDI-craptopkes. []-)
Nee Lisa Su heeft de juiste beslissing genomen het zou alleen fijn zijn geweest als dat ook zo gecommuniceerd zou worden in plaats van valse verwachtingen te wekken door extern te communiceren dat je serieus bezig bent met performance kaarten.

Ik begrijp ook niet waarom Su dit niet gewoon heeft uitgedragen aangezien de beleggers het waarschijnlijk veel interessanter vinden als je investeert in laptop chips console chips dat soort dingen in plaats van high performance wat toch een niche markt is.
Men hangt niet de vuile was buiten en je steld je beter op in positief licht.
Maar als GPU markt volgt weet je dat vele jaren niet goed gaat met AMD en de gevolgen zijn dan ook sterker merk baar in hun producten of gebrek er aan.

Gpu tak werkt nog steeds door maar met beperkingen en daarmee werken ze niet minder hard maar er is gewoonweg niet resources voor om met nV mee te komen.

Dus dan moet je preoriteiten stellen die de kans op continuteit van bedrijf vergroot. En dat zijn niet highend gamers kaarten.
het zou alleen fijn zijn geweest als dat ook zo gecommuniceerd zou worden in plaats van valse verwachtingen te wekken door extern te communiceren dat je serieus bezig bent met performance kaarten.
Afaik heeft AMD nooit gecommuniceerd dat de focus op (gaming-)performance kaarten ligt, en ook zijn ze steeds serieus bezig geweest met dergelijke kaarten (de Vega-lijn), alleen met wat minder mankracht.
Ergens serieus mee bezig zijn hoeft niet direct te betekenen dat je een beter product dan anderen levert.
Ja maar we hebben het hier wel over RTG die tot 5 jaar geleden prima in staat waren om een goed concurrerend product te leveren,

Dus het is een beetje raar om dan nu z'n achterstand als normaal te aanvaarden
RTG heeft als onderdeel van AMD dat in erg zwaar weer zat voor Ryzen door zeer ondermaatse CPUs de laatste jaren niet meer het budget gehad dat nVidia had. En dat zie je terug in het resultaat. Ze mogen zich gelukkig prijzen dat hun custom APUs wel goed genoeg waren voor de consoles en ze daar aan hebben kunnen verdienen, anders bestonden ze nu niet eens meer.
Gaan ze nu zelfs consoles erbij trekken om hun onkunde van GPU's te verklaren? Polaris 11 en 12 waren al niet bijzonder (mijn 290X draait op niveau van huidige 4/5series), de Vega was een matige 1080 (niet ti) op z'n best, te duur en amper te krijgen, dus meteen indekken in het geval Navi straks ook niets is.. komt door PS5 en XB2?

Interessant gaat het straks pas worden als een Intel met z'n GPU komt, of dat MS voor zijn XB opeens een Intel-only systeem gaat worden. Voor het eerst zaten de 2 consoles qua hardware erg dichtbij (tot bijna identiek), denk ik dat ze nu weer beide hun eigen weg inslaan.
Lijkt me helemaal niet handig voor microsoft om over testappen naar een andere gpu/cpu boer, aangezien mij dat niet handig lijkt voor backward compability.

Daarnaast het switchen van hardware boer omdat ze “anders” willen zijn als de concurrent, ook niet echt een goeie reden.
Dan zou iNtel ook met een Ryzen & Navi waardig "APU" Soc moeten komen.
Dat kan zeker.
Maar ook betaalbaar voor MS.

Zo console APU is kwa APU al top APU met extra dikke iGPU ook daar overtreffende trap APU.
En dus niet goedkoop en iNtel wilt uiteraad vlinke marge houden met zo een top "APU"

Mogelijk met hun nieuwe igpu architectuur.

MS & Sony willen uiteraard nog steeds prijs toegankelijke console bouwen.
En nV en intel willen vette marge.

Sluit het niet uit , maar de kans lijkt mij klein.
Dit is geen verhaal van AMD, maar eentje van Forbes. Ze zetten een aantal nieuwsberichten en geruchten in een ander daglicht. Gek genoeg lijkt het redelijk te passen, maar een oordeel kan je zelf vormen ;)
Tja cpu”s en gpu”s tegelijk verkopen in miljoenen aantallen of alleen richten op games voor op de pc. Ik zou het wel weten. Beide consoles zijn enorm sterk in naam en verkopen ook. Iedere verkochte console zijn 2 verkochte chips van amd.
Er zit maar ťťn AMD chip in de consoles. Een CPU en GPU combi. En ze maken niet bepaald veel winst met deze deals. Daarom vind ik dit een beetje een sterk verhaal.
Nou het is eerder zo dat tegen hanger voor highend 1180 ti titan een dure en hoge kosten productie is wat commecieel lage tendement heeft. Dat kan AMD niet dragen nog halfdood in dal.
Maar nog erger als doel niet behaald wordt en minder is dan 1180 is dat meer soort van zelfmoord.

nV produceerd chips aks backup en voor de promarkt mocht de concurent er in slagen. Dus er is dekking bij nV zo niet is Pro tak en 1180ti stapje voor later.

Voor AMD radeon afdeling is highend chip commercieel niet rendable genoeg maar vooral ook groot risico.
Consoles zijn comercieel geen vet pot maar laag risico.
En je voldoet daarmee beter aan Globalfoundry contracten kwa afnames.
Doordat AMD niet mee kan op de PC-markt krijg je een onevenwicht. Waardoor consumenten gegijzeld worden door 1 fabrikant met ridicuul hoge prijzen tot gevolg!

Ik dacht dat dat wel duidelijk was. Wij, PC-gamers, willen terug high-end AMD kaarten omdat door die concurrentie de prijzen voordeliger worden voor ons, ongeacht welke kaart je koopt.
Dus Na'vi wordt een midrange chip? :|
Waarom zou NAVI alleen midrange moeten worden, NAVI styaat ghewoon voor een product lijn. :|
Ik citeer: "Forbes verwijst naar geruchten van en . Die zouden tijdens de Computex hebben vernomen dat Navi als een opvolger voor Polaris te beschouwen is en dat het wat prestaties betreft niet zal kunnen concurreren met Nvidia's high-end kaarten, maar meer op de mainstream gericht zal zijn."

Misschien een handig idee om het artikel te lezen. ;)

[Reactie gewijzigd door GoT.Typhoon op 15 juni 2018 20:17]

Dat is ťťn artikel inderdaad en ook nog een 'gerucht', terwijl er wel meer informatie voorhanden in. :)
Ah okť, mijn reactie ging over het artikel hierboven. Andere informatie heb ik zelf nog niet gezien, je zou verwachten dat Tweakers dat dan ook noemt.
Ze zeggen ZELF dat Navi niet kan concurreren met high-end NVidia.

"...dat het wat prestaties betreft niet zal kunnen concurreren met Nvidia's high-end kaarten..."

Dat heeft niets te maken met wat zou "moeten worden" meer eerder met "ze kunnen niet beter" (op dit moment). Maar ja, misschien wordt die PS5 zelfs zonder super-high-end componenten toch nog wel bere-goed. We zullen wel lezen op Tweakers zeker ;-)
Sony en AMD hebben voor de PS4 en PS4 Pro chips al redelijk wat "custom" werk verricht. Ik vraag me af of deze samenwerking nu dus nog intensiever is geworden. Een ontwerp wat het maximale haalt uit beperkte hardware kan uitstekende resultaten neerzetten (zie ook Xbox One X); dus ben erg benieuwd naar wat komen gaat!

Ik vraag me wel af wat de gevolgen voor MS zijn, gezien de architectuur van de PS4 en Xbox One redelijk op dezelfde lijn zitten. Als er een samenwerking is tussen AMD en Sony kan ik me voorstellen dat Microsoft voor een andere oplossing kiest als blijkt dat men gelijkwaardige componenten kan krijgen.
MS Xb1 was al custom chip met extra tov PS4 zij het met lichtere igpu.
ja, maar ongeacht het iets andere ontwerp ligt het qua architectuur wel vrij dicht bij elkaar natuurlijk, vergeleken met de vorige console-generaties.
Ik ben benieuwd, het zou totaal inconsistent zijn met alle presentaties waarin ze navi hebben genoemd, zoals ook de bij het artikel getoonde slide.
Waarom zou dat? De PS5 kan toch prima weer eens een krachtige console worden? :P
Hoezo eens? Sony is elke x de winnaar bij de console wars :-)
Dream on :P
  • Sega Saturn was krachtiger dan de PS1 (wel lastiger te programmeren)
  • Xbox ťn Gamecube waren krachtiger dan de PS2
  • PS3 was inderdaad het krachtigste, maar was lastiger te programmeren. In het releasejaar liepen veel games beter op de Xbox 360. En daarnaast, sommigen de Wii U ook nog tot die generatie, dan was de Wii U het krachtigste :+
  • De PS4 is krachtiger dan de Xbox One en de Switch, maar geen van de drie consoles slaan een deuk in een pakje boter ten opzichte van PC-hardware (terwijl de PS360-generatie jarenlang betaalbaar voorop liep). De Xbox One X is krachtiger dan de PS4 Pro.
Maar met 'eens' bedoel ik dus vooral dat de PS5 wellicht wel over high-end hardware beschikt (itt PS4), net als de PS3 ;)
Kracht maakt een console geen winnaar van de console wars.

De winaars van die generaties is Sony. De PS3 heeft hier in de EU gewonnen, diezelfde generatie won de PS2 het in Zuid Amerika, blijft een apart verschijnsel.

Reken er maar niet op dat de PS5 high end hardware van die tijd zal hebben. Wel high end hardware van nu, maar goed. duurt nog 2 jaar?

Ik vermoed dat zowel MS als Sony meer gaan spelen met het offloaden. Die soundchip doet echt wonderen. Op de PS3/360 bij Battlefield, was DICE 2 threads kwijt voor de audio alleen al. De scalers zijn ook hardware i.p.v. via de GPU. Wat meer van die dedicated chipjes kan prima. Beide hebben ook zat van zulke kennis inhouse.
True, tot nog toe heeft de zwakste console iedere generatie wereldwijd gezien gewonnen qua sales. Maar de discussie ging over power :P
Naja, krachtige != krachtigste O-) De PSX en PS2 waren niet zwak en de PS4 pro is dat ook niet. Wat de PS2 met God of War naar buiten wist te persen, damn. Doei Xbox.
Je voorliefde voor een bepaald merk straalt er wel vanaf :P GoW zag er prima uit inderdaad, maar 'doei Xbox' is zeker onterecht hier. Zeker de Xbox, die ook later op de markt kwam en daardoor over nieuwere hardware beschikte.
Kan je uitleggen in welk deel inconsistent?
Misschien wordt het wel een hybride zoals de Switch...
Dat het een opvolger voor Polaris zou zijn in de mainstream markt. AMD heeft Navi de zeldzame keren dat ze deze genoemd hebben altijd als Vega opvolger gepresenteerd.
Een winstgevend AMD is natuurlijk wel een vereiste om in de markt te kunnen blijven, maar ik heb liever ook een competitief AMD :(
Het is een vicieuze cirkel. Zonder winst heb je niet genoeg R&D budget om competitief te blijven, en zonder competitieve kaarten heb je niet genoeg winst. AMD lijkt langzamerhand in deze downtrend terecht te zijn gekomen, maar deze strategie biedt in ieder geval een verklaring en mogelijk op termijn een manier om eruit te komen (namelijk: winst via secundaire bronnen).
Het is meer dat hun manier om winstgevend te zijn/blijven op videokaart gebied behelst dat ze nu echt stoppen met het de strijd om alles boven mainstream. Misschien is het wel een goed businessmodel, en hoeven ze niet in het boven segment competitief te zijn ( zit toch de minste omzet ) maar ik ben heel bang dat dit ten koste gaat van enige echte innovatie.
Tja, wellicht wel.
Zelf denk ik dat een andere strategie (vol op top-end kaarten) er inmiddels voor had gezorgd dat Nvidia monopolist was en RTG failliet was. Dan weet ik nog niet wat erger is :P
Er zit geen inovatie in high-end , dat zit in architectuur.
De low tot high is chips uit architectuur familie als dus de low en high dezelfde architectuur gebruikt
Zitten daar ook de innovaties in.
Tenzij er specifieke tweede architectuur is wat soms wel gedaan wordt voor de pro markt zoals de tensor cores.
Gezien dat pro features zijn en Double presision ook balast is voor consumenten tak.
Is er ruimte voor differentiatie.

Maar 1150 en 1180ti bieden dezelfde op gamer gerichte architectuur alleen smal vs bigchip.

Uitgezonderd rebranding.
Kip en ei verhaal niet? Architectuur wordt ook gedreven op twee doelstellingen -> maximale winstgevendheid ( yields in combinatie met performance / mm2 ) EN maximale prestaties ( voor de 'kroon' cq. marketing ).

Als je niet inzet op die kroon kan je wel een goede winstgevendheid realiseren maar je bent niet meer bezig met maximale prestaties ( meer met: genoeg prestaties voor een goede prijs ).
Ach, 'langzamerhand' valt wel mee hoor. Ik ken AMD eigenlijk niet anders als dat het steevast dik in de rode cijfers staat om vervolgens weer een paar kwartalen met in de zwarte cijfers te belanden. Zolang ze investeerders hebben het het nog wel even door. Laatste ťchte goede periode voor AMD is alweer 15 jaar geleden...

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True