Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD behaalt hoogste kwartaalwinst in zeven jaar en ligt op schema met 7nm

AMD heeft in het afgelopen kwartaal een omzet van 1,76 miljard dollar behaald en 116 miljoen dollar winst gemaakt. Dat is de hoogste kwartaalwinst in zeven jaar. AMD benadrukt dat de productie van cpu's en gpu's op het 7nm-procedé op schema ligt.

De goede kwartaalcijfers zijn volgens AMD-ceo Lisa Su te danken aan de goede verkopen van Ryzen-cpu's en Radeon-gpu's. De omzet van 1,76 miljard dollar was 53 procent hoger dan in hetzelfde kwartaal vorig jaar. Ten opzichte van het vorige kwartaal dit jaar is het een stijging van 7 procent. Een jaar geleden maakte AMD in het vergelijkbare kwartaal nog 42 miljoen dollar verlies, nu is dat omgedraaid naar 116 miljoen dollar winst. Omgerekend is dat op dit moment ongeveer 99 miljoen euro.

Het overgrote deel van de omzet komt uit het Computing and Graphics-segment. Dat was 1,09 miljard euro, een stijging van 64 procent in vergelijking met vorig jaar. De omzet van het segment waar cpu's en gpu's toe behoren, was wel 3 procent lager dan in het vorige kwartaal, dat komt volgens AMD door verminderde inkomsten uit gpu-verkopen, omdat minder videokaarten voor cryptomining worden verkocht.

Het Enterprise, Embedded and Semi-Custom-segment, waar de Epyc-serverprocessors en aangepaste socs die AMD maakt voor bijvoorbeeld consoles, onder vallen, was goed voor een kwartaalomzet van 670 miljoen dollar. Dat is 37 procent meer dan een jaar geleden.

Bij een bespreking van de kwartaalcijfers zegt de ceo van AMD meermaals dat de productie van processors en gpu's op het 7nm-procedé op schema ligt. Het bedrijf is in het afgelopen kwartaal begonnen met het leveren van samples van zijn Vega-gpu, die op 7nm is gemaakt en eind dit jaar moet uitkomen. Het gaat om een gpu die is bedoeld voor servers en workstations; videokaarten voor consumenten met met een 7nm-gpu komen waarschijnlijk niet dit jaar.

Lisa Su zegt tevreden te zijn met de roadmap voor de lange termijn. In het tweede kwartaal heeft AMD zijn eerste 7nm-chip voor de Epyc 2-processor ontvangen. De processor met codenaam Rome moet volgend jaar uitkomen. Volgens de AMD-ceo is de kwaliteit van de chip nu al hoog en is de fabrikant begonnen met het sturen van vroege samples van de Rome-processors naar een select aantal partners. AMD laat zijn cpu's en gpu's op 7nm maken door TSMC en GlobalFoundries. De huidige samples van de Epyc 2-processor worden gemaakt door TSMC, zegt Su.

Wanneer de volgende generatie Ryzen-consumentenprocessors komt, die ook op 7nm wordt gemaakt, wil de ceo nog niet zeggen. In reactie op een vraag daarover zegt Su alleen dat de Ryzen-varianten na de Epyc-processors komen. Hoe lang het zal duren voordat de consumentenprocessors komen na het verschijnen van de cpu's voor servers, is nog niet duidelijk.

Verder zegt Su dat Microsoft en Sony gezamenlijk ruim meer dan honderd miljoen consoles van de huidige generatie met AMD-chip hebben geleverd. Sony maakt zijn PlayStation 4-leveringen ieder kwartaal bekend en in april stond de teller op ruim 76 miljoen exemplaren. Microsoft maakt geen cijfers over Xbox-leveringen bekend, maar uit de uitspraak van de AMD-ceo is op te maken dat het aandeel PS4-consoles veel hoger is. EA claimde in mei dat Microsoft 29,4 miljoen Xbox One-consoles heeft verkocht.

Door Julian Huijbregts

Nieuwsredacteur

26-07-2018 • 11:32

136 Linkedin Google+

Submitter: SLC

Lees meer

Reacties (136)

Wijzig sortering
AMD is momenteel echt weer aan het knallen zeg.
Lekker hoor, zo hebben we hier gisteren een nieuwe server aankoop/setup besproken, eentje voorzien van AMD Epyc 7601, of eentje voorzien van Intel Xeon 8180 (wanneer deze beiden eenmaal gelanceerd zijn)
Plus, dat deze server te zijner tijd wel weer een goeie tijd mee moet kunnen natuurlijk, dus dat neem je ook in de beslissing mee.
Zo zaten we hier eerder nog te twijfelen van goh, moeten we te zijner tijd voor een Intel Xeon 8180 gaan, of een AMD Epyc 7601, maar naar nog wat extra onderzoek en leeswerk te hebben gedaan, was die keuze al redelijk snel gemaakt, en gaat het een AMD Epyc 7601 geworden.

AMD:
1 de performance
2 wat je er voor krijgt
3 de prijs

Intel:
1 de performance
2 wat je er voor krijgt
3 de prijs

[Reactie gewijzigd door SSDtje op 26 juli 2018 14:20]

Hier komen er 70 compute nodes, met twee dikke EPYCs in elke node. :) En misschien nog een tweede soortgelijke machine er achteraan.
Erg de moeite waard. Kijk even of je software veel doet met AVX512, dat kan erg doorslaggevend zijn voor je keuze voor CPU.

edit Freudiaanse typo ;-)

[Reactie gewijzigd door hooibergje op 26 juli 2018 17:19]

Ryzen 2700 (zonder X) zou weleens als bare.metal bij budget partijen kunnen verschijnen.
Wat zou de realistische klokfrequentie bij die 8180 zijn? Op papier is de maximale turbo 0,6 GHz. hoger maar ja, dat doet er weinig toe aangezien je niet zo'n CPU koopt om slechts een paar kernen te gebruiken, het interessante is wat de klokfrequentie op de beide CPU's is wanneer de CPU een hoge load heeft.
Wat een comeback. Binnenkort gewoon 64c/128t cpu's op een beter procédé dan Intel. En dat terwijl Intel voorlopig nog niet boven de 28c/56t gaat komen en zelfs pas vanaf 2020 op 10nm zit.
Nu staat de 7nm van AMD niet gelijk aan 7nm van Intel maar als zelfs Intel zegt dat AMD voorop gaat lopen qua proces belooft dat heel veel goeds.
> Binnenkort gewoon 64c/128t cpu's op een beter procédé dan Intel. En dat terwijl Intel voorlopig nog niet boven de 28c/56t gaat komen en zelfs pas vanaf 2020 op 10nm zit.

En vooral voor de prijs ...

Mensen realiseren zich vaak niet wat voor een effect dat AMD niet enkel op de consumenten markt heeft met meer cores, maar vooral op de server markt. Op de consumenten markt heeft meer cores minder een impact op de dagelijkse performance buiten gespecialiseerde software. Maar op de server markt heeft men met de EPYC server CPUs een enorme deur opengezet.

Als men enkel Intel had, dan moest je gerust 10K buiten smijten voor wat je nu krijgt in een 3K AMD ( enkel CPU ). Nu komt er de volgende generatie dat weer de cores aantal gaat 50% tot verdubbelen.

Ineens moet je geen cluster oplossing hebben met dozen servers maar kan je meer "old" style gaan met een beperkte cluster en meer sterkere servers met 32 ( en potentieel 64 cores ) in een single socket.

Hou rekening een 64C EPYC, kan je gerust twee op een moederbord. 128C/256T setup ... Sorry maar je moet een enorme vreemde werkload hebben om dan nog een cluster oplossing nodig te hebben met veel systemen.

Hell, het is minder de prijs van je CPUs dat een probleem is deze dagen maar eerder het rete duur geheugen. En geheugen maker moeten gaan opletten:

KVM + KSM ( Memory deduplication ) op een 128C systeem = spaart je enorm wat uit voor VPS oplossingen. Of als je een specifiek designed oplossing hebt met intel optane en minder geheugen voor dedicated systemen. Ja, Optane is geen vervanger voor systeem geheugen maar je kan wel enorm je memory footprint verminderen door slim gebruik te maken van Optane ( of de andere concurrenten in de toekomst ) ;)
Verwacht eigenlijk dat Rome op 48c gaat zitten en de generatie erna pas 64c. lijkt me logisch dat Ryzen voor de desktop van 8c naar 12c gaat en daarna pas 16c . De stap zou gewoon te groot zijn en ze zouden niet heel veel minder verkopen dan een 16c chip. Een 12c/24t cpu op 5,4 ghz met een ipc verbetering van 10 tot 15% (wat er gespeculeerd wordt) zal niet slecht verkopen voor zo'n 350 euro.
5,4 ghz?!

Ik neem aan dat je dat uit je duim haalt? Ik vermoed dat de clocks op 7nm voor de eerste generatie echt niet zo hoog gaan liggen. 3.5 ghz all-core voor een 12c24t cpu zou al niet slecht zijn. Dan is 5,4 of zelfs 4,5 een onrealistische verwachting.

Mogelijks wanneer er voldoende ervaring is op 7nm dat de clocks stilletjes beetje bij beetje omhoog kunnen, maar van een eerste 'trial' mag je dat echt niet verwachten.
De 1950X draait nu al 3.4ghz op alle 16 cores toch?
En overklok richting 4GHz op alle, ja. Wel met het verbruik van een Amerikaanse olieboot :+
Q17: Does the first generation of 7LP target higher frequency clocks than 14LPP?

GP: Definitely. It is a big performance boost - we quoted around 40%. I don't know how that exactly will translate into frequency, but I would guess that it should be able to get up in the 5GHz range, I would expect.
Volgens GloFo kan het. (Ed - nou ja, 5gHz dus). Of het binnen AMD's 'vermogens budget' past (en hitte-afvoer mogelijkheden) is een tweede.

Ed - theoretisch heeft GloFo - dus AMD - beschikking over 's werelds "snelste" proces, FinFET on SOI afkomstig van IBM, waar op 14nm 5.2gHz op wordt gehaald bij server-processors. De astronomische kosten van dit proces - en dito stroomverbruik, of anders de exclusiviteit die IBM mogelijk hierop bij GloFo bedongen heeft, zullen AMD er helaas waarschijnlijk van weerhouden FinFET on SOI te gaan gebruiken.

Ed2 - Even nagezocht, een Ryzen 1800x @ ' Samsung 14nm smartphone proces' (GloFo dus) doet 3.6gHz "base". Als we ervanuit gaan dat de gequote 40% verbetering tov. 14nm is, dan wordt 5gHz gehaald, ex turbo(!). Als AMD hieruit een paar 'Golden Sampletjes bint' a la "Intel 8086"...

[Reactie gewijzigd door kidde op 26 juli 2018 20:08]

hmm zo ver had ik nog niet gekeken. Ik had de info gebruik van een van de radeon 7nm vega. Daar hadden ze het over een 35% verbetering tegenover 14nm. 1,35 * 4,0 (1800x max) dan kom ik uit op 5,4 ghz. Natuurlijk is het een ander product met andere marges, maar het lijkt me dat winsten ongeveer op een lijn zullen zitten.

Een beetje conservatief denkend kan je rekenen op een 5ghz boost minimaal. Maar dat moeten we nog allemaal maar zien. De winsten op ipc gaan ook een redelijk verschil maken.
Die 5.4 GHz is inderdaad beetje vreemd. Dat gaat hem echt niet worden. Het zal iets boven de 4 GHz zijn, op zijn hoogst.
Baseer jij dat ergens op of zuig jij dat uit jouw grote duim? Het heeft geen zin als we hier lukraak getallen noemen, het is handig als we argumenten geven. Technisch gezien:
- hoe kleiner het oppervlakte van de transistor hoe sneller het de spanning kan wijzigen (wat nogal logisch is)
- de Samsung 14 nm. is aanzienlijk groter dan de Intel 14++
- de basis van deze 7 nm. komt van IBM

Ik zie geen enkele reden om te verwachten dat de klokfrequentie niet of nauwelijks zal stijgen. Tegelijkertijd benadruk ik dat de klokfrequentie veel minder belangrijk is dan dat de meeste mensen hier denken. Je kan nooit klokfrequenties van twee verschillende implementaties (X86 Core en X86 Zen) vergelijken aangezien ze niet precies hetzelfde doen per klokcyclus.
Baseer jij dat ergens op of zuig jij dat uit jouw grote duim?
Het spijt me dat ik, net als iedereen hier, een gokje waag op een voorspelling.
Ik zie geen enkele reden om te verwachten dat de klokfrequentie niet of nauwelijks zal stijgen
4.5GHz is vind ik toch niet een kleinde steiging, maar goed
Tegelijkertijd benadruk ik dat de klokfrequentie veel minder belangrijk is dan dat de meeste mensen hier denken. Je kan nooit klokfrequenties van twee verschillende implementaties (X86 Core en X86 Zen) vergelijken aangezien ze niet precies hetzelfde doen per klokcyclus.
Wat "de meeste mensen" denken weet ik niet, maar ik en anderen in dit gesprek hebben dit in ieder geval nooit beweerd. Ik heb niemand het hier over de Core architectuur zien hebben, jij bent de eerste. En ik heb ook niemand zien beweren dat Ryzen 2 alleen extra performance op frequentie kan krijgen - ik mag hopen dat er ook een IPC increase is.

Je lijkt dit allemaal op te vatten als een soort van aanval op AMD, zonder enige reden. Niemand beweert dat Ryzen 2 geen goede CPU zal zijn. Ik begrijp het punt wat je wil maken totaal niet.

[Reactie gewijzigd door unilythe op 27 juli 2018 10:49]

Ik maak er geen bezwaar tegen dat jij gokt maar ook een gok moet ergens op gefundeerd zijn dus vraag ik aan jou of dat jij daar argumenten voor had. Zo ja, dan lees ik graag jouw argumenten, zo nee dan doet de gok er niet toe, van eender wie die komt. "Iets boven de 4 GHz" is niet "4,5 GHz" naar mijn mening maar dat terzijde.
Je lijkt dit allemaal op te vatten als een soort van aanval op AMD
Nee, ik wil simpelweg weten of dat jij een reden hebt om die gok te maken of dat het uit de lucht komt vallen, zoek daar niets achter! Ik heb toevallig wat meer kennis over natuurkunde, circuits etc. en ik heb het nieuws omtrent de nieuwe node gevolgd en longreads over de nieuwe node gelezen waarin flink wat details staan, daar baseer ik mijn inschatting op.
Van 14 nm. Samsung/GF naar 7 nm. IBM/GF is een nogal grote afname. Hoe het uitpakt hangt af van de implementatie (= architectuur) maar die node kan zeker fors hoger (>5,0 GHz) klokken dan 4,5 GHz bij overklokken met een goede luchtkoeler als de architectuur hetzelfde zou zijn als bij Zen1. Die 7 nm. node die AMD gaat gebruiken is vergelijkbaar met Intel 10 nm. die aanzienlijk kleiner is dan de huidige Intel 14++

[Reactie gewijzigd door CHBF op 27 juli 2018 11:03]

Ik zei inderdaad "iets boven 4GHz" omdat ik het vaag wilde houden. Ik gok rond de 4-4.5GHz. Waarschijnlijk inderdaad dichter bij de 4.5GHz, doordat AMD van 12nm naar 7nm gaat.

Ik weet wel, net als jij als je er inderdaad kennis van hebt, dat des te meer cores je toevoegt, des te moeilijker je de klokfrequentie hoog houdt. Ook hebben die shrinks veel minder effect dan het vroeger had. Aangezien we het over 12C hebben, gok ik dat de klokfrequentie niet enorm zal stijgen vergeleken met de huidige 8C. Ik vind tussen 4 en 4.5 GHz dus niet een gekke gok, zeker niet vergeleken met de 5.4GHz waar ik op reageerde.

Als je het puur ging om dat een gok ergens op gefundeerd moet zijn, vind ik het overigens vreemd dat je niet hebt gereageerd op die 5.4GHz, aangezien dat een veel vreemdere gok is. Je reageert alleen op de mensen die volgens jou te laag gokken, en niet op mensen die te hoog gokken. Dat is niet objectief. Het komt dus defensief over.

[Reactie gewijzigd door unilythe op 27 juli 2018 12:44]

Dit is ff een copie pasta van een andere reactie van mij:

Ik had de info gebruik van een van de radeon 7nm vega. Daar hadden ze het over een 35% verbetering tegenover 14nm. 1,35 * 4,0 (1800x max) dan kom ik uit op 5,4 ghz. Natuurlijk is het een ander product met andere marges, maar het lijkt me dat winsten ongeveer op een lijn zullen zitten.

Een beetje conservatief denkend kan je rekenen op een 5ghz boost minimaal. Maar dat moeten we nog allemaal maar zien. De winsten op ipc gaan ook een redelijk verschil maken. Ik kan er ook heel erg naast zitten, en laat me dat ook asjeblieft weten maar dit leek me wel theoretisch haalbaar met mijn beperkte verstand.
Dat is leuk voor de servermarkt, maar voor de meest PC-bezitters is een snelle quadcore nog steeds beter dan een wat langzamere ...tigcore.
AOTS is ook een redelijke CPU heavy game. Er zijn zat gpu heavy games die er minder van merken. Ik zeg niet dat je ongelijk hebt, maar je geeft ook wel meteen het meest perfecte voorbeeld ;)
Het is ook wel een beetje een kip of het ei verhaal. Game ontwikkelaars multithreaded weinig omdat de meeste consumenten niet boven de 4 cores uit komen en CPU bouwers komen niet met meer cores omdat er weinig workloads zijn die multithreaded zijn. AMD doorbreekt dit gelukkig nu.
Dit stukje tekst stond als conclusie van meerdere games bij de review.
Maar ik denk dat in het algemeen iedereen het er wel mee eens is dat de 8700k een betere (game)cpu is dan de 7700k.

Dus het hele "liever 4 snelle cores dan x langzame" is een beetje bs. Na een tijd zullen we gewoon een 16core cpu hebben waarvan 4 losse cores met 5+ghz of misschien worden de 16 cores wel snel genoeg.
Dat hebben veel mensen sinds maart/april 2017 beweerd, ik ben blij dat de reviewers van dit soort media er ook eindelijk achter zijn gekomen. Het was nogal voorspelbaar dat Intel ook meer kernen zou aanbieden voor dezelfde prijs: omdat AMD hen hiertoe dwingt maar ook omdat Intel vast zit met hun 10 nm. node en die 14++ toch echt wel zo goed als uitontwikkeld is. Momenteel krijg je vooral een hogere minima FPS en gemiddelde FPS, als straks de PS5 en MS hun nieuwe XBox (want MS doet i.t.t. Sony meestal niet met de naam wat logisch is bij zowel de X als Windows ;)) uitkomen met een Zen-CPU dan gaan spellen op een gegeven moment mogelijk niet eens meer speelbaar zijn met slechts een quadcore CPU. De CPU's die in de X1(X) en PS4(Pro) zitten zijn verschrikkelijk zwak in vergelijking met Ryzen en die X1X haalt niet eens alles uit de graphics hardware doordat die CPU het niet kan bijbenen.

"Liever 4 snelle kernen dan 6/8 langzame" is inderdaad behoorlijk dood. Er zijn spellen waarbij je meer hebt aan 4 snelle kernen (Source engine, Overwatch, Rocket League) maar er zijn ook spellen waarbij je meer hebt aan 6/8 'langzame' kernen. Belangrijker is voor mij de vraag hoelang je met een quadcore nog alle spellen kan spelen. Zo heeft Assassin's Creed Origins een stuk in het spel waarbij de FPS sterk zakt met een 7700k aangezien de CPU-load 100% is.

[Reactie gewijzigd door CHBF op 27 juli 2018 09:44]

Je loopt wel aardig op de zaken vooruit. 64c/128t CPU's zijn allereerst zinloos voor de consument, en zijn nog zover weg (als ze er al komen) dat Intel tijd zat heeft om bij te komen van de Ryzen 2. AMD loopt op procede een klein stukje voor, maar single core prestaties doen er, helaas voor AMD, nog steeds meer toe dan een bundel tragere cores.
Ik hoop Zen 2 @ 7nm een IPC krijgt gelijk aan Intel, met minstens net zo goede Dram ondersteuning en tweakability. Ik hoef geen 8cores met 16 threads, een snelle 6core @5 GHz zou voor mij ideaal zijn. Helaas kan dat voor nu alleen in t blauwe kamp.
Er is maar zo'n 5% ipc verschil. Ze hebben vooral het voordeel dat ze zo hoog kunnen klokken. Daar waar AMD met het nieuwe process waarschijnlijk gelijk of misschien wel er voorbij gaat.

En dit gaat ook vooral over de server markt. Epyc 2 komt trouwens al in 2019 uit. Dus Xeon zal er weinig toe doen tot 2020/2021.

En dan heb je ook nog de 32c/64t Threadripper.

Intel gaat echt op alle gebieden flink marktaandeel inleveren.

Maar ze hebben ook nog wel hoop
Ik kijk als gamer en muziek producer naar prestaties, en mijn hooggeclockte 4690k haalt om en nabij dezelfde FPS als de huidige Ryzens. Upgraden heeft geen zin. Alleen als er een flink stuk OC potentieel bij komt wil ik overstappen naar AMD. (Nou vooruit, ddr ondersteuning moet ook beter)

Ik zie AMD zeker niet gelijk of over het oc potentieel van Intel heen gaan, maar laten we ons vooral bij de huidige feiten.

Ik zie dat AMD op de Servermarkt flinke klappen aan het uitdelen is, op de consument gerichte markt vind ik t nog wat tegen vallen
Maar upgraden van een 4690K naar een 7600K heeft ook amper zin. Als je workload vooral singlecore afhankelijk is kan je beter de 8700K pakken voor de 5% ipc winst en de aardig wat hogere kloksnelheid. Ben je wel duurder uit maar als het om performance gaat zit je dan goed.

De DDR ondersteuning is volgens mij bij de 27xx serie al zowat net zo goed als bij Intel. Weet dit niet zeker. Heb een 1700 gekocht met 2x8gb wat op 2933mhz draaide vanuit de doos. Maar hier waren zeker wat problemen mee.
Dit komt ook omdat iedereen Intel XMP gebruikte aangezien DDR4 officieel maar tot 2133 of 2400mhz gaat. Ik weet niet hoe dit exact zit maar AMD zal vast hun eigen implementatie hebben moeten maken en de moederbord fabrikanten hebben dit maar goed moeten implementeren met de weinige tijd die ze van AMD kregen.

Het feit dat i3's nu quad cores zijn en de i5 6cores zegt eigenlijk al genoeg. Helemaal nu i7 op 8 cores overstappen. Er is aardig wat veranderd door de klappen van AMD. Ook voor de gemiddelde consument.

De beste verandering is nog wel de "spanning" bij een nieuwe release. De laatste jaren was een nieuwe CPU review geen drol aan.

[Reactie gewijzigd door Loggedinasroot op 26 juli 2018 15:06]

Zoals ik aangeef, ik zou niet naar een Quadcore upgraden, dat is verrekte zinloos, anders had ik al een 7600k gehad. Ik denk uiteindelijk een 6-8 core zonder HT te scoren, of van AMD of van Intel. Dat zien we tegen die tijd wel ;)

Dram compatibiliteit is bij Intel nog steeds beter, ook bij Ryzen 2. Ik wil geen gedonder hebben om het al stock te laten draaien. Ik wil direct kunnen spelen met een goede oc
Lekker slim, een 6-8 core zonder ht, hoezo ga je terug naar t jaar 2000? HT hoort er gewoon op...
Maar daar betaal je ook voor natuurlijk, daarnaast, je moet kopen wat je nodig hebt, niet wat je denkt ooit in de toekomst nodig te hebben.

Er zijn voor de normale consument/gamer maar bar weinig redenen om voor meer dan 6 cores te kiezen.

Tegen de tijd dat je HT of meer cores gaat gebruiken zijn er vast procs die dat beter en efficiënter kunnen.

En iemand die mij beticht van 'lekker slim' zou eens naar de gaming en muziek) performance van een 8600k moeten kijken... HT is een mooi truckje, maar ik heb liever 6 echte cores op 5ghz, dan 4cores met HT, Of 8 cores met HT op 4300 MHz.

Ik ben zeker 'lekker slim' en nee, HT hoort er niet per definitie bij, of is iets wat mij terug zet naar t begin van t millennium.

Het enige argument voor mij om meer dan 6cores te nemen al dan niet met HT, zou streamen zijn. Laat ik alvast bedacht hebben dat er weinig mensen zitten te wachten op een stream van supertrage 40-jarige gamer/muzikant. Viola.

Met een 8600k @ 5ghz sla ik menig setup om de oren. Ik dank u wel.

[Reactie gewijzigd door millman op 27 juli 2018 01:18]

Hahah, er zijn ook cpu's met 6 echte cores en ht die 5ghz, en binnenkort ook 8c/16t < 5ghz, en dat er nu nog geen toepassingen dan wel games zijn zegt niks, binnen 1-2 jaar zal t sterven van games die er gebruik van maken, al is t alleen maar omdat de laatste consoles gebruik maken van veel cores/threads ...
Ik hoor dat al jaren.. ik spreek je over 2 jaar wel. Je weet dat een 8700k, Ryzen 2600x en zelfs een 4690k op stock gelijk presteren op 4k? Hoe oud is het meer core excuus eigenlijk? Hoeveel PS en xbone games zijn er naar pc geport die helemaal niet profiteren van meer dan 4 cores. Ik hoor een hoop bullshit argumenten die ik al hoor sinds de FX lijn van AMD. Succes met je 16t setup en bakken met geld. Steek ik liever dat geld in een snellere gpu.

Als je nu 1500 investeert in een game-pc en jij steekt 100 euro meer in de cpu (want 6+ht) en ik steek die 100 euro in de gpu, dan slaat mijn setup de jouwe over 2 jaar om de oren in gameperformance.. zo simpel is t.

[Reactie gewijzigd door millman op 27 juli 2018 17:03]

Ik vind dit goed nieuws. En de Ryzen's moeten niet onderdoen voor de Intel CPU's in hetzelfde price segment. :)
Zeker goed nieuws op CPU gebied.
Met Zen2 op komt is er een kans voor AMD om het performance per clock per clock gat met Intel te dichten en afhankelijk van de clockspeeds wellicht met een snellere CPU op de markt te komen dan de concurrent. Intel moet het van de 9xxx serie hebben welke weer een 14nm+++ chip is met volgens geruchten 2 extra cores en net als Kaby Lake en Coffee Lake lake is dit weer een Skylake architectuur die het van meer cores en hogere clocks moet hebben. De rek is er daar uit. En 10nm heeft nog te lage yields en zou op dit moment slechter presteren dan 14nm+++. Kortom Intel heeft het nu lastig maar dit is heel goed voor de concurrentie hopelijk kan AMD hier even van profiteren zodat ze weer een wat sterkere speler kunnen worden en meer geld hebben voor toekomstige R&D.

AMD heeft ook minder ingezet op GPU's. Ze hebben wel moeite gedaan voor de console markt maar minder voor de desktop markt. Vega was meer gericht op compute en de desktop gaming kaart presteerde niet slecht maar was door HBM relatief te duur voor gaming.

Dus dat is iets waar AMD wel aan moet werken maar de focus lijkt daar momenteel niet echt te liggen.
Navi ontwikkeld nog wel navi maar mogelijk wordt dat net als Polaris een chip voor de midrange markt (Vega 64 performance for the masses.) daarnaast wordt deze architectuur waarschijnlijk voor de PS5 en opvolgers van de Xbox One S en X gebruikt. Dit is speculatie maar de low,midrange en console gaming markten zijn veel groter dan de high end desktop gaming markt. Er zijn maar relatief weinig mensen die een kaart van 300+ of meer kopen laat staan 700+. Dus opzich is het geen slecht idee om daar de focus te leggen als je een beperkt budget hebt.

Het is alleen jammer voor hardware liefhebbers die AMD graag head to head zien gaan met de top GPU's van nVidia zoals in het verleden.
Laten we niet te neerbuigend doen over het 14nm+++ proces van Intel. Er is ook een voordeel aan het feit dat ze hier al lang op zitten. Het is een volwassen tot in de puntjes verfijnd proces. En dat is ook waarom ze monsters als de 8700k kunnen uitbrengen die ondanks het hoge aantal cores op een dergelijke speed kunnen lopen.

Desondanks is het zeker mooi dat het AMD 7nm proces op schema ligt. Dan zal de boel nog wat dichter bij elkaar brengen.

AMDs 7nm is kwa grootte als ik het goed heb vergelijkbaar met 10nm van Intel.
Klopt het aantal nm wat men op een proces plakt begint wat weg te hebben van de manier waarop beeldschermfabrikanten hun contrastratio's beschrijven.
Uiteindelijk gaat het om het aantal transistoren per mm2 als objectieve vergelijking van productievaardigheid. Voor ons als consumenten is dat allemaal niet zo belangrijk en gaat het om wat de chip in de praktijk doet. Benchmarks blijven voorlopig dus de belangrijkste bron van informatie, dus Tweakers kan nog even mee.
Uiteindelijk gaat het om het aantal transistoren per mm2 als objectieve vergelijking van productievaardigheid.
Hmm, hooguit voor de helft zou ik zeggen.

Transistor-dichtheid wordt o.a. bepaald door 'vermogens-budget' (Power), 'prijs-doel' (Cost) en nog een beetje door 'oppervlakte doel' (Area); en de prijs wordt onder andere bepaald door het oppervlak. In het geval van smartphones maximaliseer je dan voor de 'Prestaties' (Performance) --> De PPAC moet gemaximeerd worden. Bij TSMC speelt dan nog mee, dat ze 'Time to market' moeten halen voor Apple. Van de 5 factoren is 'transistordichtheid' er dus eigenlijk maar 1; en als je daarop het beste scoort, kan het zijn dat je het beste bent, maar ook dat er voor de 4 anderen niet echt hoge eisen waren.

Voor een mobiele telefoon mag deze maar weinig stroom verbruiken, moet doorgaans goedkoop zijn, en mag weinig oppervlake gebruiken. Hiervoor wordt vaak een 6 tracks library gebruikt. TSMC heeft hier de afgelopen ~10 jaar op gemikt; als gevolg daarvan presteerden hun transistors slechter qua max aantal mHz.

Voor een server mag deze 'superveel' stroom verbruiken, mag 'superduur' zijn, en mag 'veel oppervlakte' gebruiken. IBM's FD on SOI (5.2gHz @696mm2) is daar een goed voorbeeld van; 9 tot 12 tracks libraries worden volgens mij gebruikt.

Intel zat daar van oudsher tussenin. Dus dat Intel processen qua gHz beter presteerden dan TSMC / Samsung processen, kwam o.a. omdat TSMC' s processen waren afgestemd op smartphones. En dat TSMC 'goedkoper' dan Intel smartphone SoC's kon leveren die minder verbruikten, kwam o.a. doordat Intel's proces was geoptimaliseerd voor CPU' s voor desk/laptops.

Dus dat Intel niet kon concurreren met ARM was niet omdat hun proces slecht was (want ondanks voorsprong verkocht het totaal niet), maar ook omdat hun proces jaren ervoor voor CPU's bedacht en geoptimaliseerd was; verbruik was daarbij niet zo belangrijk.

De reden dus dat AMD @14nm niet de frequenties haalt die Intel haalt, komt omdat het hier een 'smartphone' proces is (namelijk 14nm van Samsung). Samsung heeft dat proces gemaakt voor smartphones, helemaal nooit bedoeld geweest voor CPU's, en GloFo nam daar een licentie op om er vervolgens voor AMD processoren op te maken. Dat heeft er dus niets mee te maken dat Samsung een stel losers zijn en die frequentie niet kunnen halen, enkel dat ze hun doelstellinge hebben opgesteld, en gHz was daarbij niet leidend.

Wat we nu gaan zien bij 7nm, is toch nieuw: Zowel GloFo als TSMC komen met een normaal SoC proces, maar ook met een HPC ('High Performance') proces. Zie hier: Het 'groene' lijntje is voor AMD 'nieuw', deze prestatie / vermogens-keuze hadden ze de afgelopen paar jaar simpelweg niet tot hun beschikking. Weet niet of het praktisch is, zou wel ca 2x zoveel TDP als nu betekenen. Hopelijk (nou ja, voor mensen die graag het verschil in de praktijk willen zien) gaat AMD ook gebruik maken van het HPC proces (groene lijntje), wss dus dat van TSMC voor Epyc, en mijn gok zou dan zijn dat GloFo wordt gebruikt voor Ryzen 2 (3000 serie); vandaar ook dat dit proces later komt en Lisa er nog niet zoveel over zegt (zal nog wel niet klaar zijn, in tegenstelling tot TSMC).

Te verwachten is dus, dat AMD eindelijk een proces kan (maar niet moet) gebruiken dat voor CPU's is ontworpen. En voor de CPU's die TSMC en GloFo voor AMD gaan maken, het verbruik hoger zal liggen (dan bij het smartphone proces), en frequenties meer in de buurt gaan komen van Intel. Eidelijk een 'level playing field' dus ;)
Ik ben niet neerbuigend over de 14nm+++ van intel ik zeg alleen dat ze het weer gaan gebruiken. En dat het niet goed gaat met 10nm.
Ze kunnen er hoge clocks mee halen maar het is een groot proces. 10nm van intel is vergelijkbaar met 7nm van TSMC. En daar moet intel het volgend jaar tegen op gaan nemen zoals het er nu uit ziet en dan zijn ze voor het eerst in lange tijd het proces voordeel kwijt aan de concurrentie.

En dat Intel hoge clocks haalt zal deels het proces zijn en deels ook de architectuur. Ze hebben daar in ieder geval wel mooie stappen gemaakt tov 14nm in het begin.

Maar intel heeft gewoon een probleem hoe mooi 14nm+++ ook is die chips met 8 cores en IGPU er in worden dan te groot en duur tov die van de concurrentie op 7nm. Dit is pressies wat AMD in het verleden vaak had. Ze liepen toen vaak 1 node achter. Dus mooi om te zien dat het nu even een keer omgedraaid is zodat deze kleine speler een kans heeft wat groter te worden. Dat is alleen maar goed voor de concurrentie want de verdeling in de markt is nu al jaren gigantisch scheef en dat is niet goed voor de consument.
Maar intel heeft gewoon een probleem hoe mooi 14nm+++ ook is die chips met 8 cores en IGPU er in worden dan te groot en duur tov die van de concurrentie op 7nm.
ik ben het met je eens, maar de consumenten die's van intel zijn op dit moment zo klein dat ze daar niet zo heel erg van wakker liggen denk ik. ook met 8 cores zullen de yields zullen goed blijven, en de clocksnelheid ook. ze hebben ook marge genoeg op die dingen dat die flink omlaag kan zonder dat het echt pijn doet.

De echte pijn voor intel zit hem in de server CPU's. op 14nm kunnen ze gewoon niet meer cores in een CPU stoppen als ze nu doen. en zeker geen 64 per socket zoals AMD gaat doen.

en daar hebben ze zelfs een dubbel probleem, want ze gebruiken ook nog een monolithic die, en moeten het opnemen tegen de 4 chiplets van AMD.

dus ik denk dat intel op de consumenten markt nog wel kan compenseren (ook al gaat AMD ook daar marktaandeel pakken), maar op de server markt hebben ze echt een probleem. lagere yields, (veel) grotere chips, lagere clocksnelheid tegen een hoger verbruikt. en alsnog niet eens de helft van de cores die AMD kan bieden. Echt op alle fronten hebben ze daar het nakijken. misschien dat avx512 ze nog kan redden in een paar niche segmenten, maar verder zullen ze het compleet af gaan leggen.

[Reactie gewijzigd door Countess op 26 juli 2018 13:08]

Dat is waar. Intel vraagt nog hoge prijzen voor zijn cpu's. Die komen wel onder druk te staan mocht AMD het prestatie gat dichten of zelfs de kroon pakken. Maar er blijven genoeg mensen die voor de merknaam graag extra betalen.
AMD kan dan eventueel wat meer marge pakken als die chips kleiner zijn (al is 7nm in het begin wel duurder dan een 14nm+++ chip bij gelijke die grote). Maar als de 7nm yields al goed zijn of beter worden is 7nm duidelijk in het voordeel.

Intel zal ook wel meer dan een smaak hebben (bv ook een kleinere quad core met IGPU) In het verleden hadden ze ook native dual en quad core's. Die eerste werden dan voor low end cpu's gebruikt. AMD schakelt nu cores uit voor de lagere modellen.

In de server markt hebben ze inderdaad het grootste probleem.
Zag laatst een mooi stukje dat bij meer dan 32 cores chiplets ook qua latency in sommige gevallen makkelijker kunnen zijn en beter kunnen schalen als je de juiste connection manier gebruik. Ging dan bv over Mesh vs Butterfly en ButterDonut setups. Best interessante ontwikkelingen
Ik denk dat ook voor server cpu’s intel voorlopig nog steeds in de lead zal blijven. Bij virtualisatie clusters kan je niet AMD processoren naast INTEL processoren draaien, ook niet met EVC. Dan werken zaken als live vmotion en DRS niet meer. Dus dan kiest men toch liever voor INTEL in dat cluster bij uitbreidingen.
Dat zijn zeker beperkingen. Maar wellicht worden daar nu wel naar oplossingen gekeken om deze beperking op te lossen.
er zijn workarounds beschikbaar

https://www.carbonite.com/data-protection/high-availability/

dit is dan voor zeer kritieke systemen, je kan altijd gewoon een nieuwe ha cluster opzetten naast de oude.

EVC mode op zich is ook altijd een gimmick. tussen 1-2 generaties ja. maar ik heb al klanten gezien die nog op evc mode van nehalem - westmere staan. dat is EVC mode L1-L2. goe zot. koop gewoon enkele nieuwe servers aan en je kan de gehele cluster met gemak op een pak minder servers draaien.

[Reactie gewijzigd door d3x op 26 juli 2018 19:52]

Ging dan bv over Mesh vs Butterfly en ButterDonut setups. Best interessante ontwikkelingen
Zeker interested! Maar dat ging wel over chips op een (actieve) interposer. het is zeker niet ongelijk dat AMD daar voor gaat maar daar heb ik op dit moment nog niks over gehoord.
Ging inderdaad ook niet over AMD specifiek.
Maar meer wat de mogelijkheden zijn. En dat je qua yields liever een 8 core chip maakt en er daar dan meerdere van pakt dan een 64 core.
Vervolgens moet je ze koppelen en wat daar dan de mogelijkheden zijn om latency's omlaag te krijgen.

AMD gebruikt nu een relatief simpele setup maar voor yield's is wat ze doen duidelijk beter. Wellicht kunnen ze de manier hoe ze de chips nu koppelen verder verbeteren in bv Zen3 tm 5.

Qua schaalbaarheid en yields zitten ze voor nu in ieder geval al goed.

[Reactie gewijzigd door Astennu op 26 juli 2018 15:24]

Daar is Zen dan ook voor ontworpen: zodat het ook bij server-CPU's goede yields en performance heeft door meerdere (momenteel t/m 4) chiplets te gebruiken. De grote truc van AMD, meer en meer kernen erop stoppen wetende dat Intel daar niet tegen op kan vooraleer ook Intel overschakelt op een dergelijk modulair ontwerp. Echter tegen de tijd dat Intel dit doet zijn we weer jaren verder en ondertussen kan AMD een leuk marktaandeel in de servermarkt krijgen. AMD had minder dan 1% marktaandeel in de servermarkt? Zelfs al zouden ze slechts 25% marktaandeel krijgen in de komende jaren (AMD zelf heeft de ambitie om 20% te halen voor 2019 als ik me niet vergis) dan nog is dit een gigantische winst met dat aantal CPU's waarbij de winstmarges zo hoog zijn.

Het artikel waar Astennu het over had is een van de laatste 2, ik denk de op een na laatste, reuze interessant (Universiteit Toronto, samen met AMD), het eerste artikel is van de University of California in samenwerking met AMD.
https://seal.ece.ucsb.edu...ivepassiveinterposers.pdf
http://www.eecg.toronto.edu/~enright/micro14-interposer.pdf
http://www.eecg.toronto.edu/~enright/Kannan_MICRO48.pdf
We weten in ieder geval dat AMD de vereiste kennis in huis heeft en dat ze overwegen om actieve 'meshes' te maken. Qua kosten zou het goed te doen moeten zijn, zeker voor de highend-CPU's, dus ik verwacht dat ze dit de komende jaren ook gaan implenteren gezien de performancewinst. De vraag is voor mij meer of dat het ook voor de desktop-CPU's gebruikt gaat worden.

@Astennu
Inderdaad, ook als AMD volgend jaar de performance-kroon pakt en de CPU's minder kosten dan nog zullen voldoende (vanuit het perspectief van Intel) klanten kiezen voor een Intel-CPU.

[Reactie gewijzigd door CHBF op 27 juli 2018 14:47]

Maa romdat het al tot in de puntjes uitgewerkt is komen de snelheids verbeteringen nu no galleen vanuit meer verbruik en het extra cores er aan plakken. Dat heeft er mede voor gezorgd dat ondanks dat Intel beweerd dat deze CPU's een TDP van 45watt in laptops zouden hebben dat deze toch over verhit raken omdat ze stiekem fors meer gebruiken.
Hou er wel rekening mee dat TDP geen verbruik is, maar in de intel definitie het gemiddelde vermogen dat door de processor in warmte afgegeven wordt bij het draaien van een relatief zware load op de baseclock frequentie met alle cores actief.

Waarbij op baseclock frequentie en alle cores actief uiteraard belangrijk zijn, want dit betekend dat een cpu die bijvoorbeeld aan het boosten meer hitte zal afgeven dan het TDP aangeeft, en dus ook meer zal verbruiken. Heel erg "stiekem" is dat dus niet, het is eerder algemeen bekend. Wil je als fabrikant dus een apparaat op de markt zetten dat lang boven zijn baseclock kan draaien zal je dat apparaat dus moeten voorzien van afdoende koeling, heb je een CPU met een TDP van 45W en een koeling die ontworpen is om 45W aan warmte te kunnen koelen (bijvoorbeeld in een laptop) zal je zien dat deze machine maar even kan boosten, daarna zal de snelheid terug zakken naar baseclock. Volledig logisch allemaal en niets stiekems aan, dit is allemaal gewoon duidelijk gedocumenteerd.

Daarnaast zijn bepaalde waardes ook nog eens door de fabrikanten zelf aan te passen (ook dit staat in de Intel documentatie) waardoor fabrikanten zelf zaken kunnen instellen als piek verbruik, met hoeveel % het TDP overschreden mag worden en voor hoelang en meer van dat soort zaken. Kortom als je als fabrikant een CPU als bijvoorbeeld de nieuwe Intel i9 mobile CPU in een laptop wil plaatsen en deze flink wil kunnen laten boosten zal je voor een forse koeling moeten zorgen, en niet een koeling die net aan het TDP van de CPU kan verwerken, want dan zal je zeker bij langdurige loads amper tot niet boven de baseclock uitkomen of zoals gezien bij de nieuwe Apple modellen zelfs (ruim) eronder (pre hotfix ruim eronder, na hotfix er net onder).

[Reactie gewijzigd door Dennism op 26 juli 2018 13:03]

Bij bijvoorbeeld een 7700HQ was onder volledige belasting een TDP van 50watt zichtbaar. Dit inclusief boost clocks.

Bij de 8th gen daarintegen geld het inderdaad alleen voor de base clocks, daarintegen adviseert Intel betreft de moederbord layouts rondom de CPU, VRM's en de koeloplossingen. Soort van referentie ontwerpen en fabriekanten volgen dat grotendeels allemaal op. Daarom zijn de huidige thermal problemen met de hexacore i7's/i9 voor vrijwel alle merken identiek met de enige variatie dat voorkomt uit de grootte van de behuizingen.
Ik weet niet waar je dat gevonden hebt,, maar het TDP van de 7700HQ is 45W (standaard) of 35W (TDP Down optie voor machines met minder koelcapaciteit), ook gemeten vanaf baseclock volgens de documentatie. Zie https://ark.intel.com/pro...r-6M-Cache-up-to-3_80-GHz

Een verschil dat ik zie is dat de nieuwe i9 de TDP down optie niet meer heeft vanuit Intel specs. Ik vermoed dat ook een klein beetje dat mogelijkerwijs de ultrabook fabrikanten deze i9 in een behuizing met een 35W koeloplossing hebben gestopt ontworpen voor een 7th gen i7 met TDP down optie. Maar goed, dat is slechts een vermoeden.

[Reactie gewijzigd door Dennism op 26 juli 2018 13:34]

Het is inderdaad 45watt volgens de specsheet van Intel. Maar in de praktijk en dat heb ik gemeten tijdens het draaien van Prime95 is het TDP 54watt hetzelfde geldt voor bij het renderen van videos.

Ze spelen alleen leuk met de woordkeuze in hun spechseets. Ga zelf dus niet teveel van ARK uit.
Maar dan heb je het dus weer over verbruik want dat zal je gemeten hebben (en als je boven baseclock zat zegt het sowieso niets in relatie met het gespecificeerde TDP aangezien dit op baseclock bepaald wordt), en verbruik is geen TDP, daarnaast staat prime95 bekend als "power virus", zie ook https://en.wikipedia.org/wiki/Power_virus en die veroorzaken over het algemeen loads die hoger liggen dan het TDP omdat het TDP uitgaat van de warmte generatie bij normaal gebruik, niet bij het draaien van een applicatie (powervirus) dat daar juist (ver) overheen gaat omdat deze gemaakt zijn om de uiterst e limieten op te zoeken.

Prime95 is bij tijd en wijle een leuke stresstest, maar kijken of een cpu al dan niet binnen TDP blijft lukt je er niet mee.

[Reactie gewijzigd door Dennism op 26 juli 2018 16:33]

Hangt van je Prime95 test type af natuurlijk, ze hebben 3 profiles om te testen en de stress test is inderdaad het uiterste (wel een goede test om de stabiliteit van je laptop te testen).

Maar het TDP is bij te houden in Intel XTU zonodig en daar kijk ik. Naar mijne ervaring met de 7700HQ die ik nu in mijn bezig heb ligt het TDP erg dicht bij het werkelijke verbruik. Verbruik wat hoger in dat geval.
Ik denk dat ik snap wat je bedoeld, volgens mij is dat de waarde "package TDP" op iets in die strekking.

Als het goed is kan je daarmee heel makkelijk testen of de waarde van Intel op ARK klopt. Stel je CPU zo in dat deze niet kan boosten en dus continu op baseclock draait, alle voltage opties op auto (mocht je daar wat getweaked hebben) en dan een normale workload draaien (dus geen zware over the top synthetics), denk bijvoorbeeld aan iets als Blender, zwaar maar niet "over the top"

Als het goed zal je dan zien dat de "Package TDP" niet boven de op ARK gespecificeerde waarde uitkomt, als dit heel even gebeurt kan de CPU nog steeds boosten.

Zolang je cpu kan boosten zegt de waarde op ARK namelijk inderdaad niet alles (en is het vaak vrij makkelijk daaroverheen te gaan), want deze is enkel gebaseerd op baseclock. Dat jij 54W Package TDP ziet in XTU wanneer je CPU aan het boosten is, is dus totaal niet vreemd, maar volstrekt normaal. Daarom is het zo dat moderne laptops eigenlijk een koelvoorziening moeten hebben die (veel) meer kan koelen dan het specificeerde TDP van de CPU. Doen ze dat niet, dan zal onder de zwaarste load de CPU altijd terugzakken naar de baseclock (en als de fabrikant het helemaal verpest zelfs eronder).
Daar zit het probleem dus naa rmijn mening. Mijn oude 6700HQ laptop bleef bij volledige boosting rond de 35~40 watt verbruik hangen en volgens XTU zoals jij inderdaad beschrijft rond het 45watt TDP. Die 200mhz extra per core core van de 7700HQ zorgt dus meteen voor meer verbruik en hitte zonder dat de specsheets en requirements van Intel qua koeling zijn aangepast. Dat hebben zij nu weer gedaan met de i9. De i9 heeft een fors hoger TDP dan de 45 watt die intel opgeeft voor base clocks en kan je alleen bereiken met een flinke undervolt. Haswell had dit probleem ook en daarom tikte deze bij veel laptops vaak opeens maar 800mhz aan om dan een minuut later weer omhoog te gaan (in combi met een te heet wordende PCH die er aan gekoppeld was).
TDP is zoals de naam al zegt de Thermal Design Power. Dat kun je dus niet meten, dat is een parameter voor ontwerpers. vandaar ook dat je die op de specsheets terugvindt. Wat jij hebt gemeten is een daadwerkelijk verbruik, geen TDP.

En dat jij 54W kon verstoken zonder thermal throttling is ook niet zo gek. Een 45W koeler moet ook 45W kunnen koelen onder sub-optimale omstandigheden. Diezelfde koeler kan best 60W koelen in gunstigere omstandigheden.
Je kan het TDP meten door verschillende data te pakken van XTU en limieten in te stellen.

Wat mijn probleem is dat er een hoop laptops zijn die niet hun CPU's onder alle omstandigheden kunnen koelen en dat boostclocks gebruikt worden nu als rechtvaardiging daarvan. Als de koeling gewoon goed is kan een CPU 100% van de tijd boosten. Dat van de i5 varianten tot de i9 van de huidige 8th gen generatie allemaal op een specsheet 45watt TDP meekrijgen is natuurlijk gewoon de grootste onzin.
tdp heeft dan ook niets met het verbruik te maken maar hoeveel vermogen/warmte het "koelsysteem" van de processor kwijt kan.

[Reactie gewijzigd door white modder op 26 juli 2018 12:57]

Alleen staat het wel in relatie met elkaar en meer verbruik zorgt voor meer warmte.
Sinds de introductie van amd's nieuwe processor lijn komt er weer geld binnen.
En ook dat kunnen ze goed gebruiken voor wat meer r&d te doen, zo doen ze de toekomst zeker stellen.
Zodat ze weer met een nieuwere cpu of gpu kunnen komen.Daar heeft intel al die jaren ook van kunnen profiteren.Als je verliest maakt met een bedrijf word het allemaal niet meer beter op.Amd is de laatste jaren beter bezig als voorgaande jaren ook met name de nieuwere gpu die ze ontwikkelt hebben.
Ze hebben zowel de cpu als de gpu sectie van het bedrijf goed aangepakt vandaar dat er wints valt te behalen.ga zoo door amd je bent goed bezig.En als alles kleiner word door middel van een die shrink
komt allemaal ten goede voor de chips die ze ontwikkelen.Laat die intel mensen maar eens een poepje ruiken, misschien steven julie intel wel voorbij.Dat zou nog eens mooi kunnen zijn.

[Reactie gewijzigd door rjmno1 op 26 juli 2018 15:29]

Die kans is er nog wel als amd besluit om de gpu's hetzelfde te gaan bouwen als de TR cpu's, dan doen gewoon *2 vega64 erin of meer naargelang t nodig is, of ze dit al met navi gaan doen is nog onzeker ..
Probleem is vooral dat AMD een manier moet vinden hoe het voor ontwikkelaars er uit ziet alsof het dan wel 1 gpu is. Twee naast elkaar is het probleem niet maar tot nu toe moeten ze dan toch nog crossfire toepassen ookal zitten ze bv op een interposer. En dan heb je alle nadelen van CF. Game devs moeten het ondersteunen en de meeste doen daar helaas geen moeite voor. De support is tegenwoordig niet al te best dus heb je weinig aan een 2e gpu.
Core voor Core op gelijke clocks nog niet. Ryzen2 komt dichtbij maar Intel is nog net iets sneller. Het verschil is nu minder dan 10%.
Als je de 2700X met 8 cores tov de 8700K met 6 zet en dan multi core perforamance bekijkt heb je gelijk.

Maar met Zen2 gaat AMD mogelijk de 8xxx en 9xxx qua IPC voorbij. Als je het mij vraagt een knappe prestatie.

Al vind ik het wel raar dat Intel daar de afgelopen jaren (sinds skylake) helemaal geen winst meer geboekt heeft. Vraag mij af of ze die architectuur bewaard hebben voor 10nm. En nu vooral Skylake gebruiken + gefinetunned hebben + extra cores op 14nm+++ om het uit te zingen tot 10nm goed genoeg is. Tijd zal het leren.

Maar zoals het er nu uit ziet ga ik volgend jaar de 8600K de deur wijzen voor een Ryzen 3 setup.
Toch heb ik het idee dat ze met video amper mee kunnen komen, VEGA was moeilijk te krijgen, was prijzig en prestaties ook niet dusdanig super dat je zoiets kiest over een Nvidia.

Ik zit nog steeds met een 290X, de 3, 4 en 5 series boden amper meerwaarde tov mijn kaart.

Maar ik neem aan dat AMD niet bar veel winst maakt op de cpu's die naar de consoles gaan, MS en Sony zullen best aardige prijzen hebben afgesproken, is ook maar de vraag of de volgende generatie weer verder gaat met AMD. Goed, een Ryzen/Vega combinatie zou nog steeds idealer zijn omdat het van 1 partij afkomt.
Dit idee heb ik ook, de vega 56 en 64 zitten tussen de GTX 1070 en GTX 1080 in. Voor hetzelfde geld heb je een snellere kaart van Nvidia. Ik zelf draai nog op de R9 280, met een 1080P monitor kan ik alles nog steeds op ultra draaien. Nog geen directe reden om over te stappen dus. Mijn voorkeur gaat wel altijd naar AMD.
Vega 64 is ondertussen echt wel gelijk aan de 1080, maar nog steeds duurder helaas
Ik ga in dit geval uit van deze review: reviews: AMD RX Vega: de Vega 64 en Vega 56 getest daar scoort de vega 64 net wat lager dan de gtx 1080. Is dit inmiddels aangepast met drivers?
Die review is een jaar oud. Ondertussen is er wel wat veranderd ja, in sommige nieuwe games is Vega 56 zelfs sneller dan de 1080. Gemiddeld is Vega 64 = 1080.

https://tpucdn.com/review...Far_Cry_5/images/1440.png

[Reactie gewijzigd door DoubleYouPee op 26 juli 2018 12:04]

Dat is selectief shoppen uit benchmark results.
Het is een van de laatste benchmarks van een AA titel.

Maar ja, daarom zeg ik ook gemiddeld Vega 64 = 1080. De benchmark toont Vega 56 > 1080.

[Reactie gewijzigd door DoubleYouPee op 26 juli 2018 13:31]

1 AA titel ja. Eentje die in samenwerking met AMD gemaakt is.

Waarbij er stelselmatig gebruikt wordt gemaakt van de eerste batch FE edities van Nvidia kaarten die een boostclock halen van tussen de 1600~1700mhz terwijl de retail kaarten en met name van boardpartners 2000mhz of meer doen.

[Reactie gewijzigd door Rin op 26 juli 2018 13:45]

499 in Duitsland, te doen inmiddels!
Heb net deze week m'n r9 280 ingeruild voor een vega 56, wat een beest van een kaart! Niks over te klagen, alles draait lekker en zolang je niet op 4k gaat zitten gamen wat mij betreft een ideale gaming kaart.
Welke heb je precies gekocht? Met de R9 280 kan ik ook alles met ultra spelen met minimaal 60FPS. Wat merk je dan voor verschil met de vega56?
Ik heb de Asus strix gekocht, met name framedrops zijn verdwenen, de kaart wordt voor mijn use case ook bij lange na niet 100% benut. Dus veel lagere power draw (vermoed ik) en een minder heet systeem. De kleinere microstutters zijn ook weg, de hele ervaring is vele malen vloeiender.
Dat vega duurder was kwam door de miners (en retailers die daarom de prijs omhoog gooien).
En nu nog steeds zijn vega 56 en 64 winstgevend om mee te minen. AMD heeft daarom alle GPU's die ze gemaakt hebben verkocht de afgelopen kwartalen, maar ze konden het risico niet lopen om de productie te verhogen, want de markt kan elk moment instorten. (wat is gebeurt en daarom zit nvidia nu met een overshot aan GPU's)

En console fabrikanten komen opnieuw bij AMD uit voor de volgende generatie. geen enkele andere partij kan zowel high end CPU als GPU's leveren. dus zeker als ze alles in 1 chip willen houden, en willen kunnen customizen, dan is AMD gewoon de enige optie.
Dat vega duurder was kwam door de miners (en retailers die daarom de prijs omhoog gooien).
En nu nog steeds zijn vega 56 en 64 winstgevend om mee te minen. AMD heeft daarom alle GPU's die ze gemaakt hebben verkocht de afgelopen kwartalen, maar ze konden het risico niet lopen om de productie te verhogen, want de markt kan elk moment instorten. (wat is gebeurt en daarom zit nvidia nu met een overshot aan GPU's)

En console fabrikanten komen opnieuw bij AMD uit voor de volgende generatie. geen enkele andere partij kan zowel high end CPU als GPU's leveren. dus zeker als ze alles in 1 chip willen houden, en willen kunnen customizen, dan is AMD gewoon de enige optie.
Het is toch niet nodig excuses voor AMD te gaan verzinnen?

Nvidia draaide het afgelopen kwartaal 1244 miljoen netto winst op een omzet van 3.2 miljard. Al zou Nvidia nu hun volledige productie voor de rest van 2018 moeten vernietigen, dan nog hebben ze sinds 2016 genoeg verdiend om dat te financieren. Met dat soort cijfers is er simpelweg geen risico.

AMD draait nu met moeite 116 miljoen winst en die hebben wat dat betreft echt de boot gemist. Juist in tijden van economische voorspoed, reken er maar op dat er weer een recessie komt, moet je geld genereren en dat doen ze niet.

In eerste instantie waren er twee mogelijke verklaringen dat AMD niet meer gpu's leverde. De eerste is dat de productie capaciteit niet toereikend was. Echter dat kun je in 2 jaar echt wel oplossen, getuige Nvidia die van 600M aan geforce kaarten naar 2 miljard aan geforce kaarten zijn gegroeid.

De andere verklaring is dat Vega en/of Polaris nog altijd geen winstgevend producten zijn en het hierdoor simpelweg niet zinnig is om er meer te produceren, dan wel de foundry meer te betalen om er meer te laten maken. Hoeveel verlies AMD precies draait met Radeon weten we helaas niet, want ondanks dat RTG tegenwoordig apart is worden de financiële cijfers samen met Ryzen gepresenteerd. Het zou AMD sieren om die cijfers wel apart te vermelden, dan weten ook beleggers waar ze aan toe zijn. Het lijkt er wat mij betreft nu sterk op dat de Ryzen cijfers leiden onder de Radeon cijfers, maar zeker weten kan pas bij openheid.

[Reactie gewijzigd door sdk1985 op 26 juli 2018 19:50]

De andere verklaring is dat Vega en/of Polaris nog altijd geen winstgevend producten zijn en het hierdoor simpelweg niet zinnig is om er meer te produceren,
Iedereen die ook maar een BEETJE iets weet van chips in het algemeen en GPU's in het bijzonder snap dat dit ENORME onzin is.

De kosten om ze te ontwikkelen van de GPU's en het maken van de masks kosten honderden miljoenen kost. de enige manier omdat terug te verdienen is er meer van te verkopen.
Al zou Nvidia nu hun volledige productie voor de rest van 2018 moeten vernietigen, dan nog hebben ze sinds 2016 genoeg verdiend om dat te financieren. Met dat soort cijfers is er simpelweg geen risico.
Ja achteref gezien zou je dat zo kunnen zien ja. Maar zoals het gezegde gaat, achteraf is mooi wonen.

De mining markt had ook halverwege 2016 kunnen instorten. of begin 2017, of of of. niemand had dat kunnen voorspellen. en op het moment dat dat gebeurt had je als GPU fabrikanten nog zo'n 3 maanden aan productie bij de fabs lopen, en mogelijk nog een contract voor meer.

en als je AMD bent, dan weet je dat nvidia een wraakzuchtig klote bedrijf is, met te veel geld na het jarenlang uitknijpen van gamers. Dus zodra jij zit met te veel GPU's van de oude serie, ga je er vanuit dat nvidia een refresh er tegenaan gooit met een lagere prijs.
Natuurlijk wil je R&D terug verdienen, echter je moet op je product wel winst maken voor dat mogelijk is. Die winst is echt geen gegeven. Een gpu is veel duurder om te produceren dan een cpu. Bovendien worden alle componenten extern ingekocht, dus niet alleen de chips maar ook de pcb, vrm, geheugen, enz.

Gamernexus maakte de volgende schatting:
Let’s start with HBM2 and interposer pricing, as that’s what we’re most confident in. Speaking with David Kanter of Real World Tech, the analyst who broke news on Maxwell’s tile-based rasterization and who previously worked at Microprocessor Report, we received the following estimate: “The HBM2 memory is probably around $150, and the interposer and packaging should be $25.” We later compared this estimate with early rumors of HBM2 pricing and word from four vendors who spoke with GamersNexus independently, all of which were within $5-$10 of each other and Kanter’s estimate. This gave us high confidence in the numbers. [b]Taking his $175 combined HBM2 + interposer figure, we’re nearly half-way to the MSRP of the Vega 56 card, with the rest of costs comprised of the VRM, GPU, and dime-a-dozen electrical components[b]
It’d cost a “normal person,” for instance, about $45 to build the VRM on Vega – that’d include the $2.70 per-phase cost of the IRF6894s and IRF6811 hi- and lo-side DirectFETs, about $8.80 for all six of the IR3598 drivers, and roughly $4 on the IR35217 (from public sellers and datasheets). AMD is a large company and would receive volume discounts. Even as individuals, we could order 10,000 of these parts and drive that cost down, so these numbers are strictly to give an idea of what it’d cost you to build the VRM.
Verder heeft AMD een jaar of 5 netjes de operationele winst van de radeon tak in de jaarcijfers vermeld en toen zaten ze op maximaal een procent of 10. Met de operationele winst moet je de R&D en sales cost nog mee terug verdienen. Met een dergelijke lage marge heb je echt een probleem als bijvoorbeeld je geheugen en/of chips wat duurder uitvallen door schaarste. Dan zit je ineens met een product dat niet winstgevend is om te produceren.

Nee mijn verklaring is veel logischer. De Polaris kaart is gewoon ontzettend scherp in de markt gezet met zijn 199 dollar MSRP. Raja Koduri (toenmalige topman) is er ook altijd open over geweest dat het doel van die reeks het vergroten van het marktaandeel was. In die context is een gesponsorde kaart zo gek nog niet. Uiteindelijk is het voor AMD belangrijk dat alle ontwikkelaars ook voor AMD optimaliseren. De pech voor hem is dat die kaarten niet in voldoende mate bij gamers terecht zijn gekomen waarmee het originele plan is mislukt.
Ja achteref gezien zou je dat zo kunnen zien ja. Maar zoals het gezegde gaat, achteraf is mooi wonen.

De mining markt had ook halverwege 2016 kunnen instorten. of begin 2017, of of of. niemand had dat kunnen voorspellen. en op het moment dat dat gebeurt had je als GPU fabrikanten nog zo'n 3 maanden aan productie bij de fabs lopen, en mogelijk nog een contract voor meer.

en als je AMD bent, dan weet je dat nvidia een wraakzuchtig klote bedrijf is, met te veel geld na het jarenlang uitknijpen van gamers. Dus zodra jij zit met te veel GPU's van de oude serie, ga je er vanuit dat nvidia een refresh er tegenaan gooit met een lagere prijs.
Met dat soort redenaties kun je geen bedrijf runnen. Als jij letterlijk een jaar lang meer vraag dan aanbod hebt terwijl je zelf al weet dat je niks nieuws in de pijplijn hebt zitten dan ga je gewoon je productie verdubbelen. Ergste geval heb je alvast voor het volgende jaar chips geproduceerd. Al zou dat niet zo zijn, je ziet aan het terug nemen van chips door Nvidia dat er altijd wel wat te regelen is. Uiteindelijk willen alle bedrijven winst maken en is continuïteit belangrijk.

[Reactie gewijzigd door sdk1985 op 27 juli 2018 12:14]

Niet per se veel winst, maar wel veel omzet waarschijnlijk. Tenminste ik neem aan dat de xbox meer word verkocht dan de losse beeldkaartjes van Amd.
Wat dacht je van de RX 580 die maaaanden uitverkocht is geweest door alle minders die ze opkochten. Zelfde geldt voor Vega.

[Reactie gewijzigd door DoubleYouPee op 26 juli 2018 11:53]

Ik ben zelf overgegaan van NVIDIA naar AMD twee jaar geleden en heb de RX480 aangeschaft, en ik heb nog 0 keer spijt van gehad!

Misschien zijn de performance wat minder dan de kaarten van NVIDIA op het moment, maar ik moet zeggen, hun software(drivers) zijn gewoon veel beter dan die van NVIDIA tegenwoordig... Wat ik paar jaar geleden niet kon zeggen over AMD.

Dus op vlak van drivers en software is AMD met de videokaarten erg vooruit gegaan en gaan ze de goede kant op, nu nog de performance wat beter.
Mooizo, concurrentie op het cpu gebied is alleen maar goed. Nu nog even Nvidia het vuur aan de schenen leggen in het hogere segment en dan krijgen we hopelijk een wat gezondere componentenmarkt de komende tijd.
Ik zie liever bedrijven die gespecialiseerd zijn in GPU of CPU en minder in beiden. Een afsplitsing van de GPU tak van AMD zou volgens mij voor betere concurrentie zorgen.
Maar dan loop je het risico dat de iGPU erg slecht is.
Als je kijkt naar de 2400G die de simpele maar erg populaire games makkelijk kan laten draaien zullen veel meer mensen een betere ervaring hebben dan nog eens een GPU moeten aanschaffen.
Ook kan je hierdoor gewoon de dGPU uit een laptop halen waardoor er weer meer ruimte is voor betere koeling/extra functionaliteit.
HKS-Skyline had het over Nvidia het vuur na aan de schenen te leggen in het hogere segment....
Dat weet ik. Maar ik denk dat AMD veel meer kan verkopen als je met een goedkope AMD laptop 2/3x de FPS krijgt dan met een Intel laptop. De high end markt is redelijk klein.

Daarom zou ik het nooit afsplitsen. Ze hebben juist zo'n groot voordeel hierdoor. Ook voor consoles waar ze gewoon 1 package kunnen leveren en hierdoor altijd wel goedkoper zullen zijn dan een cpu+gpu combo van 2 verschillende partijen.
Het "hogere segment" is alleen de 1080ti. Dat is de enige kaart die AMD niet aankan op dit moment.
Zullen we die GPU tak dan maar de naam ATI geven? ;) Ow wacht :P
Dat bedoel ik, dat hadden ze zo moeten laten. Nu gaat het grote geld naar de CPU tak en blijft er minder over voor de GPU tak.
Voorheen ging het grote geld naar de CPU tak. Ook omdat daar nog altijd de meeste winst te behalen valt.

Maar nu heeft AMD weer geld te besteden. de bruto winst is 70% hoger als vorige jaar, en dat betekend dus veel meer geld om te investeren in R&D, inclusief voor de GPU markt. (R&D uitgaven zijn dan ook 25% hoger als vorige jaar dit kwartaal)

en als ze niet samen waren gegaan, hadden ze mogelijk beide niet meer bestaan op dit moment. zeker AMD niet.

[Reactie gewijzigd door Countess op 26 juli 2018 12:43]

en als ze niet samen waren gegaan, hadden ze mogelijk beide niet meer bestaan op dit moment. zeker AMD niet.
Dat is onzin. Juist het overtappen naar APU's heeft AMD aan het randje van de afgrond gebracht. In eerste instantie is er 5 miljard voor Ati betaald (meer dan de omzet van een heel jaar), vervolgens bleek dat ze direct 2 miljard konden afschrijven én dat de Radeon tak minder dan 10% winst draaide. Gevolg hiervan was het afstoten van de fabrieken (Glofo) en het halveren van het R&D budget.

Maar daar hield het niet mee op. De nieuwe APU producten waren stuk voor stuk producten met een lage verkoop prijs waardoor de ASP (average selling price) flink is gedaald. Dit was slecht voor de winst, een cpu heeft er weinig variabele kosten en duurder verkopen gaat vrijwel volledig naar je marge.

De overname van Ati zorgde dus voor een gat in de begroting, het afstoten van fabrieken, het verlagen van de ASP, het verlagen van de winst en het verlagen van het R&D budget.

AMD is nu weer op het goede spoor. Ironisch gezien is de comeback het gevolg van een processor zonder IGP. Dit toont aan dat ze Ati zeker niet nodig hadden en het APU avontuur gewoon een verkeerde gok is geweest.

[Reactie gewijzigd door sdk1985 op 26 juli 2018 19:55]

letterlijk het ENIGE dat waar is uit jouw post is dat 5 miljard te veel geld was voor ATI. Te meer omdat de GPU die ATI kort daarna released niet echt geweldig was.

Het afstoten van de fabs was al onvermijdelijk op het moment dat ze ATI kochten. intels monopoly misbruik in de decenia daarvoor maakte dat onvermijdelijk. Dat misbruik maakt het onmogelijk voor AMD om de productie capaciteit groei te halen die nodig was om de steeds harder stijgende R&D kosten voor nieuwe nodes terug te verdienen. dus op dat punt moest HOE DAN OOK iets radicaal veranderen.

en volgens jouw gaat de prijs omlaag OMDAT er een GPU op zit... oookééé...

Als je even terug kijkt naar de tijd dat de eerste APU er kwamen (want dat koste even tijd om dat te ontwikkelen), de eerste llano was gewoon te laat. de CPU en GPU waren al te oud op dat moment.
en letterlijke de eerst volgend was precies het moment dat de gehele foundry markt collectief het had verneukt, waardoor AMD een APU had op 32nm/28 nm het moest openen tegen niet een net new 22nm proces maar een heel mature 22nm process en later zelfs 14nm.

Dat was vooral een probleem omdat AMD die APU's origineel met name bedoeld had voor laptops, en dan kan je met een oud process gewoon niet de energie efficiency halen om daar potten te breken.

dus net als je met andere post: achteraf is mooi wonen.

APU's zijn NODIG om marktaandeel te krijgen in de laptop markt. Dat het AMD, om verschillende redenen, nog niet (genoeg) gelukt is om daar door te breken doet daar helemaal NIKS aan af. AMD had al lang gezien dat laptops een heel groot deel van de markt ging worden, en daarom was de aankoop van ATI gewoon NODIG.

En het heel betrouwbare inkomen van xbox en playstation zal ze ook echt geen kwaad gedaan hebben. Ook dat was niet mogelijk geweest zonder de ATI aankoop.

[Reactie gewijzigd door Countess op 27 juli 2018 12:42]

Het afstoten van de fabs was al onvermijdelijk op het moment dat ze ATI kochten. intels monopoly misbruik in de decenia daarvoor maakte dat onvermijdelijk. Dat misbruik maakt het onmogelijk voor AMD om de productie capaciteit groei te halen die nodig was om de steeds harder stijgende R&D kosten voor nieuwe nodes terug te verdienen. dus op dat punt moest HOE DAN OOK iets radicaal veranderen.
Je draait de boel om. Kijk de rechtszaken en uitkomsten er nog eens op na. Het machtsmisbruik van Intel speelde vóór AMD de 5 miljard uitgaf om Ati aan te schaffen. Niemand zal beweren dat AMD geen last heeft gehad van het OEM rebates verhaal, echter ze hadden ondanks die problematiek toch 5 miljard te besteden. Dat staat vast. De afname van het R&D budget begon ook pas een jaar na die overname, niet gedurende de tijd van het machtsmisbruik.
Ik vraag me af in hoeverre ze zijn echt zijn samengevoegd. Als het alleen het ander bord op de gevel is, en een andere suit die de bonen afroomt, dan maakt het eigenlijk niks wat er op dat bord staat...
Als ik naar alle APU's kijk, lijkt me het toch een verregaande samenwerking ;)
Overigens dateert de overname uit 2006! Toch ook al weer even geleden.
ATI en AMD zijn jaren geleden juist gefuseerd omdat ze beide apart de concurrentie niet meer het hoofd konden bieden. nVidia is tegenwoordig een reus die veel meer doet dan alleen videokaarten.
Core business van Nvidia is toch op GPU gebaseerde producten en daarin zijn ze uitermate goed.
Ze zijn vooral goed in game makers laten doen wat ze willen, ten koste van de performance bij AMD.
Dat heb je altijd met een groot marktaandeel.
Ook toen het aandeel veel meer gelijk was was dit het geval.
Zonder die bundeling van CPU en GPU kennis had AMD anders nooit haar sucesvolle APU series kunnen uitbrengen. Misschien een wat donkere schets, maar in de moeilijke tijd waarin AMD voor haar CPU-only inkomsten afhankelijk was van de FX serie (Bulldozer en afgeleiden) zijn de APU's toch een mooie kurk geweest waarop AMD kon blijven drijven. Wie weet hoe AMD er nu aan toe was geweest als het die APU's als producten niet had gehad, en had AMD nu ook die mooie console contracten niet gehad.

Verder zijn CPU en GPU architecturen behoorlijk onvergelijkbaar en bedoeld voor verschillende toepassingen. Overlap is er altijd wel, maar die technologieen kunnen wel naast elkaar bestaan.

[Reactie gewijzigd door teacup op 26 juli 2018 17:13]

Zou er zonder de combinatie ATI+AMD ooit zo'n efficiënte bus tussen GPU en CPU ontwikkeld zijn als nu bij de APU's?
Dit is al zo, de grafische tak van AMD valt onder de Radeon Technologies Group (RTG) sinds 2015. De splitsing heeft o.a. gezorgd voor de drastisch verbeterde drivers.

Helaas hebben de Vega kaarten hun naam niet helemaal waar kunnen maken, met name tijdens de release. Ik heb gelezen dat dit deels te wijten is aan het feit dat AMD meer resources wilde besteden aan andere grafische producten (consoles).

Toch doen de Vega 56 en 64 op dit moment het helemaal niet slecht t.o.v. de Pascal serie, als je de laatste drivers gebruikt.
Met ook nog eens als kanttekening dat het tweede kwartaal (maart t/m juni) zeker niet het kwartaal is waarin de meeste verkopen plaats vinden, dat zijn Q3 maar vooral Q4 (met de feestdagen).

Nu de sterke lijn op CPU-vlak doorzetten (dat lijkt wel te lukken met Zen2 en Rome op 7nm) en weer even knallen op de GPU-afdeling.
het aantal verkopen is niet 1 op 1 gekoppeld aan winst. Het ligt ook aan andere investeringen die je op dat moment wel of niet doet. Dus het kan best dat ze in een haarzelf waarin je minder verkoopt wel meer winst maakt.
Daar ben je fout in, het sterkste kwartaal is altijd Q3 bij AMD omdat Sony en MicroSoft massaal inkopen zodat ze genoeg consoles klaar hebben tegen de feestdagen. Maw, de feestdagen van AMD liggen in Q3 en niet in Q4. Q4 is dus altijd zwakker dan Q3.

Dit jaar lijken er in Q2 meer bestellingen van Sony en Microsoft te zijn en verwachten ze minder in Q3. Q3 zou 7% meer opbrengen YoY en vorig jaar was een van de beste kwartalen ooit voor AMD.

Als Epyc tractie krijgt zou het voor het eerst mogelijk zijn dat Q4 beter is dan Q3. Q3 ER zal veel duidelijk maken als we de guidance voor Q4 zien.

In ieder geval, AMD is heel goed bezig, ze hebben een compleet portfolio en de roadmap ziet er schitterend uit. Tot nu werd alles perfect uitgevoerd. Lisa Su is een topper.
Ik zou er wel rekening mee houden dat dit geen standaard jaar is. De crypto markt zorgde voor een grote vraag, groter als de gaming markt. Als die vraag blijft zakken dan vraag ik mij af of q3 en q4 nog wel zon impact gaat hebben. Zeker als de kaarten dan ook nog gewoon niet goed leverbaar en belachelijk geprijsd zijn.
Denk dat de meeste verkopen komen door Ryzen en minder door de GPU’s.
De AMD CPU’s gaan lekker de GPU’s.... nog niet echt.
De GPUs verkopen nog steeds als warme broodjes, maar vooral aan coin-miners, en niet aan gamers. Als ik kijk hoeveel er in stock zijn, is het nog steeds beroerd. Een paar winkels leveren ze voor redelijke prijzen, maar alles en iedereen zit nog boven de launch price... (Vega 56 zou voor $399 moeten staan, ik zie ze voor op z'n minst 525 euro, en zat boven de 600)
AMD heeft het afgelopen jaar letterlijke alle GPU's die ze gemaakt hebben instantly verkocht.

Maar omdat de markt voor mining GPU's elk moment kon instorten hebben ze niet de productie verhoogt om aan de vraag te voldoen omdat ze anders met een overshot zouden kunnen komen te zitten (zie nvidia).

En je kan ook niet aan de vraag van miners voldoen, er is altijd meer vraag. hoe meer aanbod hoe lager de prijs, hoe hoger de winst, dus hoe hoger de vraag. er is bij miners geen verzadigingspunt... tot de markt instort en de allemaal in een keer weg valt (maar je nog wel zeker 3 maanden aan GPU's uit de fabs hebt rollen op dat zelfde hoge tempo)

Dus zolang er vraag is vanuit de mining markt zullen gamers ALTIJD achter het net vissen.
Dat de winst het hoogste was in 7 jaar lijkt me niet zo moeilijk. Zodra er sprake is van winst is deze al snel "de hoogste"
Zie https://www.finanzen.nl/a...answinstenverliesrekening
en kijk dan vooral naar de tabel AMD (Advanced Micro Devices) Inc.: winst- en verliesrekening (i Mio. USD)

Je moet wel ontzettend "fan" zijn om in dat bedrijf te beleggen. Als het alleen om het geld gaat dan is AMD gewoon een erg slecht bedrijf om in te investeren. Het lijkt erop dat het enige wat ze mee hebben de gun factor is.
https://www.reddit.com/r/AMD_Stock/
Ik zeg doe gezellig mee.

Er zijn trouwens aardig wat mensen die stock voor de eerste ryzen launch hebben gekocht en genoeg geld ermee hebben verdiend..
Alleen hoef je niet op divident te rekenen.... al 8 jaar niet in ieder geval...
Top om te lezen!
Sinds dag 1 vorig jaar tevreden over mijn 1700x systeem! _/-\o_
Vorige maand een systeem gebouwd een 2600x en ik ben zeer onder de indruk!
Ja dat geloof ik! :Y)
Zijn opvolger wordt vanmiddag door DHL bezorgd bij mij :)
Have fun!
Ik kan het vooralsnog iedereen wel aanraden mits het in jouw plaatje past.

Ik heb er geen seconde spijt van gehad.
Het wordt een compu voor flight simming en algemeen gebruik. Intel zou nu iets sneller zijn, maar dat paniekvoetbal waar ze nu mee bezig zijn staat me niet aan, en elke scheet komt met een nieuwe socket. AMD heeft een degelijke roll-out en ik kan hier over een paar jaar nog iets snellers in de socket prikken.

Jij ook nog jaren plezier met je 1700X toegewenst. :D
Erg benieuwd hoe de Navi gpu's op 7nm zich gaan verhouden tot de GTX1080(ti). Navi is toch de GPU die voor dit najaar opstaat op 7nm? Of krijgen we eerst een 7nm Vega?

Hopelijk een betere balance tussen power/performance. Verwacht dat ze qua performance toch de GTX1080ti toch wel moeten evenaren/passeren.

Het zal wel een risico zijn deze nieuwe generatie kaarten ook weer voor een 'boost' gaat zorgen op de crypto-markt. Hopelijk worden ze goed beschikbaar voor de markt waar ze voor bedoeld zijn...
Ik denk dat Vega op 7nm al wel naast de 1080ti komt. Stap naar 7nm is redelijk groot.
Navi moet er echt wel voorbij gaan. NVIDIA komt waarschijnlijk de komende maanden al met een nieuwe gen
er komt geen vega 7nm voor consumenten, dus de performance in vergelijking met de 1080Ti is totaal niet belangrijk.
hij heeft het over 7nm navi
hij zei:
Ik denk dat Vega op 7nm al wel naast de 1080ti komt.
Ik lees toch echt:
Erg benieuwd hoe de Navi gpu's op 7nm zich gaan verhouden tot de GTX1080(ti)

[Reactie gewijzigd door DoubleYouPee op 26 juli 2018 13:31]

Oh zo, ik bedoelde hypothetisch.
Ja en die nieuwe Nvidia gaat die nieuwe Vega helemaal wegblazen daar durf ik om te wedde ;)

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True