AMD ontslaat vier procent van zijn werknemers

Chipmaker AMD ontslaat vier procent van zijn werknemers, wat neerkomt op zo'n duizend banen. De ontslagronde is onderdeel van een strategie om meer AI-chips te maken, in de hoop beter te kunnen concurreren met Nvidia.

AMD bevestigt de ontslagronde tegenover Reuters. Een woordvoerder geeft aan dat het bedrijf 'een aantal gerichte stappen' neemt om de beschikbare middelen af te stemmen op 'de grootste groeikansen'. Volgens Reuters doelt AMD daarmee concreet op zijn AI-chips.

De omzet uit het datacentersegment, waaronder de AI-chips ook vallen, steeg het afgelopen kwartaal met 122 procent ten opzichte van een jaar eerder en kwam uit op 3,5 miljard dollar. Analisten verwachten bovendien dat deze afdeling in heel 2024 met 98 procent groeit. Ondertussen groeide de omzet uit het pc-segment in het derde kwartaal van dit jaar met 29 procent naar 1,9 miljard dollar en daalden de verkopen uit de gamingafdeling met 69 procent naar 462 miljoen dollar.

In het vierde kwartaal van 2024 wil AMD de massaproductie van een geheel nieuwe AI-chip opstarten. Het gaat om de MI325X, waarover het bedrijf al in juni sprak. Deze gpu krijgt 288GB geheugen, vijftig procent meer dan de bestaande MI300X-gpu. Verder wordt de bandbreedte met dertig procent opgehoogd naar 6TB/s.

Door Eveline Meijer

Nieuwsredacteur

14-11-2024 • 08:13

103

Reacties (103)

Sorteer op:

Weergave:

Kijk ik begrijp dat bij Nvidia het geld inmiddels niet meer tegen de plinten klotst, maar er over heen spoelt. Als directe concurrent is dat natuurlijk jaloersmakend. Maar moet je dan hetzelfde gaan nastreven als die concurrent, of juist een andere markt aanboren/focussen/winnen?

Ik vindt hetzelfde gaan doen als je concurrent toch altijd een beetje een zwaktebod. Je was gewoon te laat in AI, nu dan 1000 mensen hun baan kwijt raken omdat management het verkeerd gezien heeft. Sneu.
Dat is het kern probleem van AMD, ze zijn niet innovatief maar na-apers. Maar gezien alle ontwikkelingen lijkt het erop dat AMD en Intel steeds meer zullen gaan samenwerken. Spannende tijden.
Hoezo? AMD kwam met Zen in 2017 als eerste met chiplets en infinity fabric, waar Intel heel lang niet in geloofde todat ze het na drie generaties Zen opeens ook zijn gaan toepassen in 2022 voor chiplets voor Meteor Lake.

https://www.pcmag.com/new...era-of-chiplet-based-cpus

En wat dacht je van de 'X3D' familie van AMD met de extra cache die nu al twee generaties de performance crown in games heeft?

Zo zijn er nog meer :)


AMD had het bijvoorbeeld aan het rechte eind toen we naar 64 bits gingen en Intel nam licenties af bij AMD om hun processors met de AMD64 instructieset uit te voeren:
Licensing

x86-64/AMD64 was solely developed by AMD. Until April 2021 when the relevant patents expired, AMD held patents on techniques used in AMD64;[123][124][125] those patents had to be licensed from AMD in order to implement AMD64. Intel entered into a cross-licensing agreement with AMD, licensing to AMD their patents on existing x86 techniques, and licensing from AMD their patents on techniques used in x86-64.[126] In 2009, AMD and Intel settled several lawsuits and cross-licensing disagreements, extending their cross-licensing agreements.[127][128][129]
Wikipedia: x86-64

[Reactie gewijzigd door S0epkip op 14 november 2024 10:10]

Niet alleen chiplets in Zen, maar ook in RDNA. Bovendien optimaliseren ze het process waarmee verschillende chiplets gebakken worden omdat het helemaal niet zinnig is om bv de I/O die op hetzelfde (dure) process te maken dan de CCD.

@cmegens Hoewel het erg klinkt, denk ik dat 1000 mensen meevalt in vergelijking met de rest van de industrie. Ik kan mij niet direct ander nieuws herinneren van ontslagen bij AMD. Als je wil praten over fouten van het management dan zou ik eens gaan kijken bij Intel, daar wordt 15.000 man ontslagen (en daar tellen ze de vrijwillige pensioneringen niet bij).
Ik kan verder alleen maar toejuichen dat ze op z'n minst proberen te concurreren met nvidia want een monopolie hebben is nooit goed.

@1Joshua5 Ze gaan vooral samenwerken om te blijven concurreren met ARM, ik denk dat er verder niet veel samenwerking te verwachten valt tussen AMD en Intel.
"Chiplets en infinity fabric" is niet bepaald een AMD innovatie. Sterker nog, zelfs Intel had met de Pentium D "Presler" in 2008 al een dual-core CPU met 2 dies per CPU. Dat is dus bijna een decennium voor AMD.

Natuurlijk, dat was technisch net iets anders dan de Zen chiplets nu, maar de nieuwe Alder Lake chiplets zijn ook niet identiek aan de Zen chiplets. Of je nu naar het concept of de technische realisatie kijkt, je kunt niet zeggen dat Intel het van AMD overgenomen heeft.

En een extra cache die? Alweer iets dat Intel eerder had, met de Pentium II in 1997.

Zo zijn er nog wel meer voorbeelden van oude ideeën die toevallig nu commercieel zinnig worden.
De Pentium D had geen infinity fabric, de core-to-core communicatie liep via de Nothbridge.


De Pentium II had de L2 cache apart van de main die vanwege yield issues, verbonden via een BackSide-Bus (BSB). Dit was langzaam.
The Pentium II was a more consumer-oriented version of the Pentium Pro. It was cheaper to manufacture because of the separate, slower L2 cache memory.
Dit is echt iets anders dan AMD's (of eigenlijk TSMC's) 3D cache waarbij de cache die inmiddels onder de CPU die wordt gestapeld.
Dit geeft kortere paden en lagere latency.
INTRODUCING AMD 3D V-CACHE
Traditional “2D” MCM designs add performance and flexibility;
however there comes a point at which adding chiplets creates a
larger SoC with more distance between components, which
increases latency. The need to deliver world-record data center
CPU performance requires AMD to look up—literally.
This is where 3D V-Cache comes in. It’s the first x86 CPU technology
with true 3D die stacking. AMD and TSMC have been collaborating
to leverage TSMC 3D Fabric technology to develop the highly
differentiated 3rd Gen AMD EPYC™ processors with AMD 3D V-Cache,
formerly code named “Milan-X.”

[Reactie gewijzigd door S0epkip op 14 november 2024 14:22]

En een extra cache die? Alweer iets dat Intel eerder had, met de Pentium II in 1997.
Het is niet een extra cache die, het is een manier om extra L3 cache bovenop de bestaande die toe te voegen door het verticaal te stapelen.
Verticaal stapelen is ook niet nieuw; V-NAND doet dat ook al lang. De combinatie van "cache op extra die" en "dies stapelen" is misschien nieuw, maar een logische combinatie van bestaande technieken is verder niet patenteerbaar.
Verticaal stapelen is ook niet nieuw; V-NAND doet dat ook al lang. De combinatie van "cache op extra die" en "dies stapelen" is misschien nieuw,
Als we Wikipedia mogen geloven dan was Samsung in 2013 de eerste die dit commercieel op de markt bracht. Volgens mij hebben we hier vooral profijt van (gehad) bij de doorontwikkeling van SSDs. Een kleine 9 jaar later was AMD de eerste om iets vergelijkbaars te doen voor de L3 cache voor hun 5800X3D cpu.
maar een logische combinatie van bestaande technieken is verder niet patenteerbaar.
Dat zou ik niet weten. Ik kan me voorstellen dat er allerlei criteria zijn wat wel en niet patenteerbaar is. Maar ik kan me ook voorstellen dat het combineren van bestaande techniek op een manier die nog niet eerder toegepast is (en daarmee innovatief is) beschermd zou kunnen worden.
Dont get me wrong, want ik ben fan van AMD en ik koop bewust nooit intel spullen (behalve ethernet controllers) maar ik herinner me de amd K5 en K6 en Duron processoren die jarenlang te weinig cache hadden en dus wel dezelfde code konden draaien als intel pentium, maar stotterig op de meest ongemakkelijke momenten vanwege te weinig L2 cache. Het leren duurde dus een tijdje en je zou kunnen stellen dat ze pas 3 jaar geleden bij 5800x3d het truukje kopieerden. Fijn voor mij want ik heb enkele AM4 X570 borden.
Onzin, AMD is regelmatig zeer innovatief geweest alleen op gebied van graphics/gpu hebben ze deze keer de boot gemist. Andere keren waren ze wel weer eerder zoals hieronder te lezen.
AMD heeft voor veel nieuwe ontwikkelingen in CPU's gezorgd, ze waren eerder dan Intel met 64 bit cpu's, 6-8 core consumenten cpu's, 3d cache, freesync, en ik zal vast nog wel iets gemist hebben.
Intel was eerder met 64 bits met IA-64, maar dat was niet backwards compatible. Toen is Intel eigenlijk overgestapt naar AMD64.

Wikipedia: x86-64
En Intel was daarmee ook niet de eerste met een 64 bit ISA:
Wikipedia: 64-bit computing
Freesync was a reactie op gsync. Dus niet echt een goed voorbeeld.
Buiten dat is het wel een beetje opmerkelijk dat een bedrijf wat groei vertoont op allerlei gebieden alsnog personeel gaat ontslaan. Dat is iets wat je doet als de resultaten tegenvallen (Intel bijvoorbeeld).
Aandeel AMD zakt al weken vanwege de prognoses rondom AI. Vreemd, maar zo gaat het blijkbaar tegenwoordig...

Server en consumenten CPU sales doen er blijkbaar weinig toe.
Dat zegt wel iets waar het naar toe gaat de komende 10 jaar.
ik denk het volgende,

- hardware wordt onbetaalbaar.
- grote bedrijven komen met goedkope abonnementen omdat op te vangen. Ze passen alleen de netflix / amazon tactiek toe. de eerste paar jaar is het goedkoop en wanneer het marktaandeel genoeg is dan verhoog je gestaag de prijzen.

Alle grote bedrijven hebben daar profijt van.
- verplichte maandelijkse kosten voor de consument en bedrijven voor zon beetje alles dat bestaat.En ze kunnen ongestraft alles zo duur maken als ze maar willen.

[Reactie gewijzigd door whiner op 14 november 2024 09:00]

ik denk het volgende,

- hardware wordt onbetaalbaar.
- grote bedrijven komen met goedkope abonnementen omdat op te vangen. Ze passen alleen de netflix / amazon tactiek toe. de eerste paar jaar is het goedkoop en wanneer het marktaandeel genoeg is dan verhoog je gestaag de prijzen.

Alle grote bedrijven hebben daar profijt van.
- verplichte maandelijkse kosten voor de consument en bedrijven voor zon beetje alles dat bestaat.En ze kunnen ongestraft alles zo duur maken als ze maar willen.
Ik denk dat je de markt onderschat. Hardware gaat steeds langer mee. Hier op het werk maken we letterlijk de afweging of drie jaar oude servers wel echt weg moeten . Ze doen nog het uitstekend en storage is toch centraal op een boot SSD na, dus geen falende disks voor het server gedeelte. Enkele van die dozen zijn zelfs bijna 10! jaar oud, maar door continu updates op zich OK. (enige probleem zijn hardware CPU bugs). Perfomance is niet altijd key.

Dus ja, ze kunnen hardware duurder maken, maar daarmee schieten ze zichzelf in de voet (net als de auto fabrikanten en camera fabrikanten) omdat de keuze voor uitstel van investering alleen maar lonender wordt.

Wat betreft abbo's. Kijk naar Adobe. We hadden altijd ongebreideld toegang tot de hele Adobe suite want de kosten voor academisch gebruik waren niet zo hoog. Dat is veranderd met een enorme prijs stijging waardoor toegang beperkt werd. Inkscape en GIMP/Krita blijken ineens erg populair met > 50 man bij een interne cursus. Die mensen gaan dus niet meer terug naar Adobe zonder wel een hele goede reden.
Het worden interessante tijden
Ik denk dat je door de bomen het bos niet ziet.
Whiner heeft helaas waarschijnlijk gelijk.

Kijk naar wat er qua hardware uitkomt de laatste jaren. Er vindt een duidelijke verschuiving plaats naar hardware die voor hyperscalers zijn ontworpen, en ook zo geprijst. Alleen bij uitrol op hele grote schaal pluk je daar de vruchten van, voor de anderen vormt het vooral een barriere voor concurrentie.
voor de boven kant heb je gelijk. Maar aan de onderkant zie je hetzelfde gebeuren als in de auto industrie. Er komen voornamelijk nieuwe, dure, modellen op de markt die de mainstream niet nieuw kan betalen. hierdoor blijft men langer met oudere auto's rondrijden, of men gaat leasen (wat eigenlijk duurder is, maar nog enigszins behapbaar)

In MKB land en andere plekken waar iets meer gekocht wordt dan een laptopje is geen plek voor hele dure hardware. Die doen dus, ofwel langer met hun spullen, gaan inderdaad via subscriptions werken of wijken uit naar alternatieven (zie je al gebeuren: "wij hebben onze dure Amazon oplossing de deur uitgedaan", hoorde ik van een bedrijf waar we mee samen werken. Dat was overigens geen MKB, maar een grote internationale speler.) Als die er al zo over denken....

Een groot gevaar van het subscription model voor fabrikanten is dat, als het de klant te gortig wordt, deze gewoon weg gaat. Die klant krijg je niet meer terug, de cloud providers krijgen minder klanten en nemen dus minder hardware af. Verschuiven van het probleem
Ik zie vooralsnog alleen de omgekeerde beweging, van on-prem naar IaaS/PaaS/SaaS.
Alleen 'domme lift-en-shift' zie ik hier en daar worden teruggedraaid.
Volgens mij zeg ik dat ook: De klant neemt een *aaS model of doet hybride met ouder spul dat er toch al staat.

De hardware fabrikanten schuiven hun risico daarmee richting de providers van die diensten. Die moeten wel grof geld betalen aan HW om hun diensten aan te kunnen bieden, maar als de klanten besluiten het anders te gaan doen of failliet gaan dan blijven ze zitten ze met hun diensten op dure hardware. De prijs voor de diensten zal dan omlaag gaan, minder geld voor nieuwe HW, HW fabrikanten gaan minder verkopen.
Voor nu is dat inderdaad waarheid.
Maar dit is een lange termijn tactiek dat er langzaam in gemasseerd wordt.

Gemak dient de mens.

De meeste zullen niet een opensource / lokale variant gaan gebruiken. De meeste gaan mee met de hype.
Voor de mensen die verder kijken zijn er altijd mogelijkheden. Maar 90% van de wereld kiest de makkelijke / populaire weg.
Ik denk dat @divvid wel een punt heeft. Ook waar ik werk wordt al actief gekeken naar OSS ipv dure licenties. Eventueel met extra ondersteuning voor de overgang. Saas abonnementen worden heroverwogen en we moeten/kunnen langer doen met hardware.

Onlangs is bv Oracle de deur gewezen door hun idioterie rondom java
Voordeel daarvan is dat concurrenten weer in dat gat duiken en dat is een gezonde ontwikkeling.
Start jij morgen een nieuwe ISP, GPU ontwerper of foundry?

Concurrentie klinkt leuk maar werkt vaak toch minder goed in de praktijk dan in de theorie.
Omdat nv voor hun ai zooi enorme prijzen vraagt is voor grote corporaties google en amazon het opeens wel rendabel om eigen AI server chip te gaan produceren.
Dat server spul is duur 5 tot 10k maar ja dat zijn gezonde ASP. Maar als 25k vraagt voor iets dat commercieel draagbaar is onder 10k dan is zelf produceren aantrekkelijk.
Nvidia moet hebben van die corporaties die te klein zijn om hun eigen ai chip op te zetten. Of kwa volume te klein om rendabel te doen.
Dit graai gedrag van nv zorgt dat enkele grote corporaties hun eigen AI chips gaan voorzien.
Nee, dat zeg ik ook niet, maar het kan wel een mogelijkheid zijn voor bestaande firma's om hun achterstand weg te werken.
Jouw aanname is een misvatting. AMD heeft inmiddels de consumentenmarkt in handen, maar Intel heerst over de servermarkt. Het is heel logisch, als je serverpark vol intel staat, kun je niet zomaar overstappen. Op mijn werk heeft een IT core medewerker het een keer aan mij uitgelegd waarom ons instituut niet switcht naat AMD. In een notendop: dit is teveel werk en te riskant en het kost veel teveel geld. Zelfs als de AMD serverhardware gratis zouden zijn, wordt het te duur.

Daarnaast is een beurswaarde ook een verwachting. AI is een hype en vooral daarom in Nvidia zo groot. Begrijp mij niet verkeerd, ik bedoel geen vervliegende hype. AI is hier en gaat niet meer weg.

PS Volgens mij heerst Intel ook nog steeds over de notebook/laptop markt. Veel grote fabrikanten hebben geen of nauwelijks AMD cpus in het aanbod. Dan blijft alleen de desktop markt over voor AMD, en die is echt niet zo groot als Tweakers en gamers denken. Het grote geld zit in de zakenwereld. Ik denk dat AMD het altijd lastig zal blijven houden totdat AMD iets revolutionairs gaat doen. Ga maar na, het gaat AMD technisch voor de wind, maar het blijft nog steeds achter bij bv Nvidia.
je bent duidelijk niet mee over de server markt, en duidelijk je IT afdeling ook niet. Als je ook maar een beetje degelijk deploy/upgrade en patch management hebt is het gemakkelijk om over te stappen. (zeker met hypervisors want je blijft niet eeuwig in een zelfde cluster draaien). Typische versie van oudbollige IT, met een niet compatibel idee, riskant :+ , slaafjes van brainwashed presales, van die gevallekes die al snel in de cloud only val springen... Het resultaat is dat ze jaren lokaal achter de feiten lopen, met hoger verbruik, slechtere performance, kost uiteindelijk een pak meer.

Momenteel heeft AMD al een 30% in handen van de server markt en gaat gestaag omhoog. De totale DC omzet van AMD (inclusief de AI tak natuurlijk) is al hoger dan de totale DC omzet van Intel

[Reactie gewijzigd door d3x op 14 november 2024 10:41]

@d3x en @dmantione Je mening mag je altijd laten horen, doe ik ook. De feiten zijn echter dat de servermarkt grotendeels in handen van Intel is. Nog steeds.

De wereld wordt gedomineerd door conservatieve mensen, mensen houden niet van verandering.

Persoonlijk zou ik voor Zen kiezen, maar de imagoschade die AMD heeft opgelopen tijdens Piledriver, steamroller en excavator tijdperk onderschat je denk ik. Een collega van mij die bij facilites werkt had een Excavator, die kon ik niet aan zijn verstand krijgen om een Zen te kopen, hij moest en zou Intel.

[Reactie gewijzigd door ABD op 14 november 2024 13:58]

Let wel: Ik heb een goed beeld van de servermarkt. Er zijn zeker delen van de servermarkt waar ik minder goed zicht op heb, zoals de markt voor Atom-servers of Xeon E-markt voor lichte servers. Als het evenwel gaat om zaken als Genoa versus Emerald Rapids dan zijn de kaarten geschud: Afgelopen jaar honderden Genoa's verkocht, nul (!) Emerald Rapids. En ik kan je ook verzekeren dat dat niet alleen bij ons is.
Ik geloof je, lokaal, maar wereldwijd ligt het echt 70/30.
klopt, idd ligt het momenteel nog 70/30 maar dat schuift elk kwartaal in de andere richting met 2-5% en het doet Intel veel meer pijn dan AMD, dat zie je heel duidelijk aan de kwartaal resultaten. De kost van Epyc als een CPU is vele male lager dan een intel CPU door de chiplets. Intel moet hun prijzen dumpen als zot om competitief te blijven, Xeon-6 komt eindelijk terug een beetje in de buurt van deze competitieve omgeving, maar hoge core count power/prijs/perf verliezen ze nog steeds met grote marge. Hun specifieke offloading en accelerators zijn een schaarse implementatie.

Er blijft natuurlijk steeds een grote usebase. en die usebase verander je niet zomaar, zoals clustered infra. Maar eens daar een kering in zit is dat ook niet iets dat dan weer snel terug gaat.
Er is ook nog steeds zoiets als presales en hun manier van denken werken, redelijk Intel minded en je zit ook met een hele reeks SKU van OEM waar geen altenatieven zijn (denken aan die "long overdue" blade infra van Synergy, UCS, ...) ...
Er is ook nog altijd een serie van standvastige en stockoude gedachtegoed...
Er is ook heel wat prefab in OEM SKU dat al jaar en dag ENKEL intel zijn, nogmaals die zeer typische lange termijn relaties die ze voor financiele afspraken niet willen aanpassen, maar ook daar zie je door vragen van klanten dat er verandering komt.

Als je iemand nog spreekt over piledriver dan stel ik voor dat hij beter uit de IT wereld stapt.... sinds skylake en nog deels cascade-lake( R) is er niet al te veel deftig meer geweest wat Intel geleverd heeft als het gaat over core count/performance/prijs. Meerdere jaren stilstand dus tot recent en op zelfde moment kwam dan Turin dat Intel terug een jaar achteruit gezet heeft.

Vergeet niet dat gemiddelde levenscyclus van server toch wel richting 5j gaat.

[Reactie gewijzigd door d3x op 14 november 2024 14:48]

Ik zie weinig vraag meer naar Intel in servers. Het is nog een tijd zo geweest dat klanten om Intel vroegen en uiteindelijk AMD kochten, maar ook dat is tegenwoordig redelijk zeldzaam geworden, de markt heeft inmiddels goed door dat je een AMD-processor in je server moet stoppen.

Dat soort conservatieve mannetjes als jij hebt moet je tegen zichzelf beschermen: De risico's op ellende bij Intel-servers liggen veel hoger, omdat ze warmer worden, maar ook minder verkocht worden en de kans op compatibiliteitsproblemen e.d. daardoor veel hoger liggen.
De aandelenmarkt draait op speculatie. Speculatie over hoe een bedrijf in de toekomst presteert. Hoe het nu gaat is vaak compleet irrelevant, want wat het aandeel nu waard is, dat heeft een investeerder al. Ze willen juist meer geld en dat krijg je alleen maar als het over x-tijd meer waard is.
De aandelenmarkt draait op speculatie
Vandaar ook het gezegde "Resultaten uit het verleden bieden geen garantie voor de toekomst"
En verwachte resultaten zitten al ingebakken in een aandeelprijs. Het kan dus ook zijn dat een bedrijf 10% winstgroei heeft, en het aandeel zakt in waarde.
Er komt natuurlijk wel meer naar buiten, zoals dat AMD komende generatie geen high-GPU meer zal hebben tegenover de NVidia high-end, en daarmee waarschijnlijk van 2025-2027 een minder prominente rol zal spelen daarin.

Investeerders hebben hun mensen, die koppelen dat net als wij aan technologische superioriteit. AI gaat om toolchain, high speed memory, processing. NVidia ligt al voor op toolchain, high speed memory gaat AMD dan nu op gelijkspelen maar wel pas later op de markt met die geheugenhoeveelheid als NVidia. Blijft over processing, en daar komt die technologische factor kijken welke ook videokaarten raakt. Als AMD zowel op GPU als AI aan verwachtingsmanagement doet, in de hoop verwachtingen naar beneden te krijgen zodat de beurskoers stabiel blijft als producten gepresenteerd worden conform verwachting.
Server CPU sales gaan steeds meer richting ARM gebaseerde architecturen. Bij de server markt, veel hyperscalers kun je inmiddels zelf ook al ARM based compute krijgen. Al langer kopen die dat achter de schermen in om hun managed services efficiënter te draaien. Dat gaat ook steeds meer naar system integrators komen straks. Verwachting kan alleen maar zijn dat x86 marktaandeel gaat dalen en AMD het dus zwaar krijgt in dat marktsegment.
Cosumenten CPU sales: Microsoft Copilot+ laptops zijn nu volgens mij een 50-50 split tussen x86 en ARM omdat er maar heel weinig x86 cpu is met voldoende NPU om dat label te mogen voeren. Apple laat vanaf hun M1 series heel sterk zien dat ARM het prima aan kan voor algemeen desktop werk, en nu met een Mini Pro M4 heb je naar verhouding enorme rekenkracht voor zo een klein kastje maar weinig groter dan een Apple TV behuizing.

Ik vind het persoonlijk ook niet leuk, en al helemaal niet verdiend voor AMD, maar x86 schuift in het grote plaatje de komende jaren langzamerhand steeds op richting de niches van gaming, wetenschappelijke/industriële workstations en on-prem bedrijfsservers voor wat meer de x86 geoptimaliseerde software. Als investeerder moet je natuurlijk vooruitkijken, dus ik snap wel dat aandelen zoals AMD en Intel het relatief zwaar hebben als ze blijven in de billion dollar CPU sector en niet serieus met de trillion dollar AI business mee kunnen doen. Vergis je niet in wat NVidia doet, 72 cent winst voor elke dollar omzet, dat wil elke aandeelhouder wel, even los van dat die technologie daardoor voorlopig veel duurder blijft dan nodig.

[Reactie gewijzigd door OruBLMsFrl op 14 november 2024 09:11]

Maar dat het aandeel zakt betekent niet dat AMD zelf geen geld meer heeft. Het is meer de perceptie van buitenaf.
Aandeel AMD zakt al weken vanwege de prognoses rondom AI. Vreemd, maar zo gaat het blijkbaar tegenwoordig...

Server en consumenten CPU sales doen er blijkbaar weinig toe.
De launch van de 9000 serie cpu's was ook belabberd.
Het aandeel AMD zakt nu wat weg omdat ze de laatste paar kwartalen niet hebben kunnen laten zien dat ze de duidelijke nummer 2 zijn op AI accelerator gebied. De AI training markt is momenteel
~90% NVIDIA.

Nu focussen de grote hyperscalers zoals AWS (Trainium), Microsoft (Maia) en Google (TPU) zich ook steeds meer op eigen ontworpen AI chips waardoor de potentiële markt voor AMD steeds kleiner wordt.

Tel daarbij op dat bovengenoemde bedrijven ook vol inzetten op eigen ontworpen ARM chips ter vervanging van x86.

Geen wonder dan ook, dat het de koers van het aandeel dit ook reflecteert.
De processor markt is uitgekristaliseerd. Er zullen niet in de komende 2 jaar ineens een dubbel aantal processoren verkocht gaan worden. Mischien dat de windows 10 deadline voor een korte opleving zorgt.

Mischien dat je op een processor 100 euro marge maakt. Waar het echte geld zit, is in de gpu's voor AI.. Iedereen wil die hebben, en het liefst zo veel mogelijk. In de komende jaren gaat dat factoren meer opleveren. en Nvidia verkoopt die dingen voor 40.000-60.000 euro stuk, met een kostprijs van iets van 7000 euro's.

Mischien is AI een bubble, maar voorlopig zijn de marges voor H100's en H200's fernomenaal. Dus daar wil AMD een stukje van de taart van hebben.. Niet een stukje van Intels taart. (dat zijn kruimels).
Opmerkelijk als je alleen de verhalen volgt van bedrijven die in de kosten gaan snijden als het slecht gaat.

AMD maakt eindelijk een paar jaar winst, daarvoor heeft het op de afgrond gestaan, wellicht zijn ze bij AMD gewoon gewend om periodiek eens kritisch naar hun personeelsbestand en kosten te kijken. Niet heel vreemd en tel daar natuurlijk verloop bij en wat dubbele functies na overnames en dan is 4% niet heel spannend.
Bent u nu ontslagen aan het goedpraten ? Het zou u zelf maar overkomen ..
Of ze ontslaat op een bepaalde afdeling en nemen weer nieuwe aan met een ander specialisme.
Ja bizar.... "om meer te kunnen doen gaan we minder mensen nodig hebben...."...tja....

of is het "we hebben nu extra geld nodig en mensen ontslaan is eigenlijk niet zo heel moeilijk en bespaart best wel wat overhead"....
Dat is iets wat je doet als de resultaten tegenvallen (Intel bijvoorbeeld).
Dan ben je te laat. Personeel ontslaan/reorganiseren doe je bij voorkeur vóór dat de resultaten tegen gaan vallen.
De 9800X3D is af, ze kunnen daar nu op cashen.

Tijdens de lanceringsfeestjes wordt gewoon 4% naar een apart zaaltje geleid
Het kan ook zijn dat er 4% afvloeit.
Verloop heb je altijd.
Wanneer ze een jaar de tijd hebben, is er weinig aan de hand lijkt me.
Het kan ook zijn dat er 4% afvloeit.
Verloop heb je altijd.
Wanneer ze een jaar de tijd hebben, is er weinig aan de hand lijkt me.
Ik wilde net schrijven: 4% valt volgens mij nog bijna volledig te verdisconteren met het natuurlijk verloop. Nou kennen ze in de VS natuurlijk niet de schil van uitzendkrachten, payrollers en andere tijdelijke werknemers, maar effectief zal met een vacaturestop al snel die 4% afvloeiing hebben bewerkstelligd.
De VS heeft niet zo'n noodzaak aan uitzendkrachten en payrollers, juist omdat hun vast contracten niet zo extreem vast zijn. Dat is in Nederland ook al lang de conclusie: de enige manier om iets aan de kloof tussen flexibel en vast te doen, is door vast minder vast te maken.
(...)
de enige manier om iets aan de kloof tussen flexibel en vast te doen, is door vast minder vast te maken.
Met andere woorden: de jarenlang zorgvuldig opgebouwde wetsbescherming van werknemers moet maar worden opgegeven?

Begrijp me niet verkeerd, maar als jij -zoals in de VS- van de ene op de andere dag kan worden ontslagen, en je hebt wel een hypotheek op naam, en/of een gezin te onderhouden, dan heb je een serieus probleem.

Daarbij is het ontslagrecht al enorm versoepeld en is (met name) de regeling voor ontslagvergoeding bij een vaststellingsovereenkomst al enorm ver uitgekleed.
Ja, dat is wel de brede consensus onder arbeidsmarktexperts. Door die bescherming krijgen ZZP'ers geen hypotheek, en hebben ZZP'ers een probleem om hun gezin te onderhouden. Dat is die kloof tussen vast en flex.

De ontslagvergoeding is het enige gebied waar de overheid geprobeerd heeft om serieus iets te doen. Alsnog heb je twee duidelijk te onderscheiden groepen op de arbeidsmarkt. Werknemers kiezen voor flex waar het kan, vast waar het moet.

De keerzijde van de vaste baan is dus ook dat je na ontslag uit een vaste baan een groot probleem hebt, juist omdat werkgevers zo huiverig zijn om je een nieuwe vaste baan te geven. Dan kom je dus in de flex baantjes, aan de andere kant van de kloof.
Precies, die 'zeer goede' ontslagbescherming komt gewoon als een boemerang terug naar werknemers. Hoe beter je beschermd bent, hoe moeilijker het is om een vaste baan te krijgen.
Ooit gehoord van arbeidskrapte? Ik heb bij een werkgever gezeten waar men steen en been klaagde over het gebrek aan personeel, maar de uitstroom was tegelijkertijd gigantisch, want het spreekwoordelijke '"om je personeel te houden moet je van ze houden", daar hadden ze nog nooit van gehoord.

Tegelijkertijd werd die enkele nieuwe collega die wel binnen kwam in het diepe gegooid, met drie of vier tijdelijke contracten aan het lijntje gehouden, en als die dan uit eigen beweging opstapten, was de klaagzang overal te horen. HR managers lijken soms wel de meest onbegrepen wezens in het bedrijfsleven.

Ik heb er na 8 jaar de deur ook keihard dichtgetrokken en inmiddels werkt 40% van mijn oud-collega's bij de grootste concurrent.
Maar dan zou management gewoon spreken over een vacature stop dat komt natuurlijk beter over in de spotlights. Dat ze dat niet doen, zegt wat.
Ligt eraan welke spotlights. Investeerders horen liever dit.
Bij een fout van management is de werknemer de klos.
Bij een fout van de werknemer is de werknemer de klos.

Het is vergelijkbaar met overheid en belastingbetalers: zij onderaan de piramide, vangen de klappen op.

Saillant detail: de groep onderaan, heeft het minste vlees op de botten om klappen op te kunnen vangen.

[Reactie gewijzigd door sircampalot op 14 november 2024 08:27]

Management is ook werknemer
Management is werkgever over het algemeen. Vanaf teamleiders/bedrijfsleiders sta je aan de andere kant al.
in de US, waarschijnlijk gewoon morgen weg.

Ik snap het alleen niet je wil meer focussen op AI daar heb je mensen voor nodig. Heb je dan niet een deel weer nodig?
Volgens mij spelen ze nu mee en gaan ze de boel flessen en AI links laten liggen. Het is een kaartenhuis, overeind gehouden door de drang naar data-harvesting van de allergrootste bedrijven. Die LLM's zijn alleen maar een voorgevel.
Vreemde gedachten..

Ik ben er zeker van overtuigt dat AI niet meer weggaat, en dat ze dit doen om dan de boel te gaan "flessen" lijkt me ook zeer sterk.

AI is gewoon waar het geld nu is en waarschijnlijk ook lange tijd gaat blijven, zou dom zijn van AMD om daar niet in mee te gaan
Wat is er de moeite waard aan AI? Ik heb zelf om eerlijk te zijn nog niks serieus baanbrekends gezien wat alleen maar daarmee kan. Het kon wel eens gaan floppen omdat het aan alle kanten anti-consument is. De sub-markt is gericht op het om zeep helpen van de mogelijkheden van de eindgebruiker om hetzelfde als dienst te kunnen afdwingen, en het geeft de mogelijkheid om activiteiten als profileren te verbergen in een chip die niemand kent. Mensen kunnen daar op een zeker moment klaar mee raken en de interesse in betrokken merken verliezen.

[Reactie gewijzigd door blorf op 14 november 2024 14:49]

Concurrentie is toch juist goed voor de consument? Moet leiden tot betere en goedkopere producten. En het is nog geen rode oceaan volgens mij.
Meer concurrentie is goed, zeker in deze markt.

Het is ook nog geen blauwe of paarse oceaan. Intel's Arc kaarten hebben geen significant aandeel. Die kaarten zijn wel handig voor de hobbyist (goede video decoders+encoders gecombineerd met goede ondersteuning voor Linux), maar dat is een niche die niet veel verschil zal maken.

[Reactie gewijzigd door The Zep Man op 14 november 2024 08:39]

Als ze nu die stap niet nemen, dan vragen we ons straks allemaal af hoe ze zo de boot hebben kunnen missen. Dit is nu de grootste groeimarkt voor ze, en het lijkt niet gewoon een hype te zijn. Ze zijn misschien wat laat, maar zoveel concurrentie is er ook weer niet. En met een dalende gaming-tak moeten ze toch iets doen, anders gaan daar sowieso ontslagen vallen.
Ze zijn misschien wat laat (...)
AMD in a nutshell, wat betreft GPU's dan. Upscaling, ray-tracing, frame-generation, AI... het is altijd NVIDIA die als eerste de nieuwste technieken omarmt. Op elk van deze gebieden is AMD gewoon jaren te laat, keer op keer. Op die manier kun je onmogelijk concurreren met team green.

Beetje off-topic, maar in bijv. de CPU-space wist AMD eindelijk een ommekeer te maken met het begin van Zen in 2017. Ik hoop dat ooit te zien in GPU-land.

[Reactie gewijzigd door IlIlIllII op 14 november 2024 08:52]

Ik denk die tijd voor ommekeer in de GPU wereld voorlopig voorbij is met AMD. Zij hadden toch besloten om te richten op de mid-range GPU's. Ze hebben wel gelijk want hoeveel mensen gaan €2000+ neerleggen voor een GPU. Daar kan ik persoonlijk misschien 2-3 PC's voor bouwen. Ik koop persoonlijk alleen GPU's in de €200-€300 prijscategorie. En dat doen de meeste. Maar ja, ik speel nooit de nieuwste spellen met die hoge eisen, en ik koop al zo'n 12 jaar alleen AMD cpu's en gpu's.
Dan is software een hele belangrijke.
nVidia heeft met CUDA de markt veroverd. Daardoor hebben ze nu het grootste deel van de AI markt te pakken. AMD is daarin achtergebleven en daar ondervinden ze nu het nadeel van.
Ik hoop dat ze daar weer verbetering in kunnen maken. De snelste GPU maken is niet eens nodig, men heeft nu veel meer behoeft aan geheugen. De AI/LLM modellen worden nu te groot voor wat een GPU beschikbaar heeft. Maar, de concurrent zit ook niet stil.
En ze hebben ook een grote divisie voor FPGA en ASIC. Kunnen ze daar geen revolutionair chip mee maken?
Er is natuurlijk altijd één de eerste. Als er veel geld te verdienen valt zullen er altijd andere partijen in willen stappen. Ik zie niet wat er mis mee is de concurrentie aan te durven gaan. Het zou pas slecht management zijn als ze geen analyse van deze markt gemaakt hebben en op basis daarvan hebben besloten of ze er ook in willen stappen.
Dus omdat iemand anders het eerder deed, mag je geen concurrerend product proberen neer te zetten??? Dat zou de volledige val van capitalisme zijn. Immers, is elk product bijna al wel ooit eens eerder gelanceerd.

Geen verdere improvements dus op PC gebied ook. Je mag immers volgens jouw niet concurreren met elkaar?

Jammer voor die 4% mensen, but thats life. Als hun expertise in AI is, dan zullen die redelijk rap wel weer een baan vinden hoor.
Dus omdat iemand anders het eerder deed, mag je geen concurrerend product proberen neer te zetten?
Daarvoor zijn patenten. ;)
Daarmee krijgt "de eerste" een tijdelijk alleenrecht op het uitbrengen. Dus óf je maakt een (iets) ander product dat niet onder het patent valt óf je moet toestemming hebben om het te gebruiken (evt via betaling).
En reken maar dat die chips vol zitten van patenten.
Ik zie niet hoe jouw reactie relevant is op mijne. Ik reageerde op cmegens zijn comment, die letterlijk aangeeft dat een concurrende product maken/aanbieden een zwaktebod is.

Das natuurlijke klinklare onzin. Als de oorspronkelijke maker van het product echt een innovatief product had dan kunnen ze dat inderdaad patenteren. Echter staat dat natuurlijk volledig los van het concurrende karakter en dan concurrenten zijn producten zwakteboden zijn.
Dus moet je die mensen maar aanhouden. En de boot blijven missen?

Ja nvidia is groter met ai chips. Maar ze groeien zelf ook 98% staat in het artikel.

De andere afdelingen groeien niet zo hard of dalen zelfs.

Hoe slim zou het zijn op een segment te blijven focussen terwijl je weet dat er weinig of geen groei is of zelfs daling?

Niet…

Dus, herpak jezelf en ga vol op het segment waar nog genoeg ruimte is. Amd kan nog veel doen de aankomende 10+ jaar.
En de monopoly aan Nvidia laten? Daardoor zou Nvidia de prijzen op kunnen drijven en gaat AI een enorme terugslag krijgen omdat het voor de onderkant van de markt te duur is. AMD kan prima de kleinere ondernemer gaan voorzien door goedkoper te leveren, misschien is hun tech niet zo goed als die van Nvidia maar de markt voor AI lijkt mij groot genoeg voor beide bedrijven.

Daardoor wordt AI beschikbaar voor veel meer personen, krijgt Nvidia geen monopoly en blijft de ontwikkeling gestimuleerd door concurrentie.
Dan had AMD 20 jaar geleden al mogen stoppen met CPU’s maken. Toen was Intel heer en meester. Ryzen was de redding voor AMD en dat is niet zo lang geleden.

AMD probeert een tweede positie te pakken en met die strategie zijn ze Intel voorbij gevaren.

En ze hebben de kennis om mee te kunnen doen in de AI race dankzij hun overname op ATI.
Wat betreft investeren in Nvidia moet je maar eens het volgende lezen. Het aandeel is kunstmatig enorm opgekrikt door fraude, marketmakers en hedgefondsen.

https://www.reddit.com/r/...cially_generating_demand/
Hoezo "kunstmatig"? NVidia heeft fysieke GPU's verkocht aan een echt bestaand bedrijf. Ja, het hedgefond achter de kopers neemt een gok naar de vraag naar GPU's. Maar bedrijven doen al decennia lang investeringen in de termijnmarkt. Genoeg boeren hebben hun graan al verkocht voordat het gezaaid is.
Het enige dat telt is winst voor de aandeelhouder. Daar valt het echt grote geld immers te halen. De consument is niet meer het einddoel, maar slechts een middel om winst te realiseren. Evenals de medewerkers. Dit zie je bij veel beursgenoteerde bedrijven.
Ik snap je punt maar op dit moment zijn de AI chips niet aan te slepen en kan nvidia niet aan de vraag voldoen.
Dan is het een goed idee om dat gat op te vullen met je eigen chips.
En het ziet er nog niet naar uit dat de AI boom over het hoogtepunt heen is.
Was dat, in NVidia's geval, eerder "niet willen" voldoen aan de vraag van de markt?

Tekorten laten de fabrikant de prijzen bepalen. Kan je dus ook doen als je dat kunstmatig een tekort creeert. En NVidia heeft daar totaal geen probleem mee. NVidia is ook via B2B helemaal geen prettige handelspartner.

En was het ook niet zo dat hun laatste AI servers door fouten in het (hardware) ontwerp moesten worden teruggeroepen? Schijnt ook zo te zijn dat hun AI server 10.000 Watt aan vermogen nodig hebben om zowiezo te functioneren.

Mocht AMD een soortgelijk product op de markt zetten met vergelijkbare prestaties, maar bijvoorbeeld met 25% tot 50% minder energieverbruik, dan heeft AMD echt wel kans van slagen op die markt.

Daarnaast zijn de AI servers van NVidia ook lomp groot in een server rack. Zelfs als AMD's produkt hetzelfde verstookt aan energie, maar de helft kleiner is, dan past er simpelweg meer AI capaciteit in een rack. Maandelijkse huur van zo'n rack in een datacenter is verdomd duur, dus kun je als AI aanbieder daar ook heftig op besparen.
Nee. NVidia is capaciteits-beperkt door TSMC, en TSMC is capaciteits-beperkt door ASML. De tekorten zijn niet kunstmatig. Dat de prijzen van NVidia stijgen is dan ook niet gek. TSMC investeert 37 miljard in de capaciteit, en dat kunnen ze betalen omdat NVidia en Apple grote orders plaatsen.

Inderdaad, grote servers kunnen met twee dozijn GPU's best 10 kW trekken. Een rack vol kan 100 kW trekken, een datacentrum vele MW. Wat is je punt? AMD heeft op het moment een uitdaging om een competetief product op de markt te zetten, los van verbruikt vermogen of afmeting. Genoeg hyperscalers zijn zelf al bezig met ontwerpen juist omdat ze een second-source nodig hebben, en ze niet geloven in wachten op AMD.
Ik snap ze punt niet, want eigenlijk slaat het helemaal nergens op

Dit is hoe concurrentie werkt, als sinds begin der tijden.. je kan ook anders moeilijk concurreren als je niet het zelfde product kan maken

En het is niet dat AMD niks doet wat Intel en nVidia niet doen.. wat dacht je van de custom APU's die ze maken?
Je creeert niet zomaar een andere of nieuwe markt. Als dat zo makkelijk zou zijn zou AMD dat ongetwijfeld gedaan hebben. De groeimarkt is nu AI.
Wat NVidia goed heeft gedaan is de enorme CUDA community opgebouwd.
Alle software pakketten voor machine learning zijn dan ook in CUDA geschreven.

Daar kan AMD niet alleen maar tegenop door die chips te maken.
Ze zullen een heel ecosysteem van software moeten bouwen, en een hele community moeten laten ontstaan die zo geweldig is dat het verleidelijk wordt om over te stappen van de CUDA-pakketten naar de Open-CL omgeving.

Een CUDA progje is nu snel in elkaar geflatst, maar een Open-CL progje maken is nog steeds een gedoe...
misschien al eens starten met inwerken op wat recente materie: Wikipedia: ROCm
De eerste neurale netwerken van ons bedrijf waren nog op CPU's getraind, zelfs voordat het via CUDA kon. Dus ik denk dat ik gekwalificeerd ben om te zeggen dat ROCm duidelijk achterloopt. Ja, het bestaat. Nee, het is niet competetief, in een hypercompetetieve markt.
je moet ergens starten, als de totale prijs pakken lager is en de HW competitief (MI instinct) en er adoptie komt van bepaalde grotere dan kan het snel keren. Ik zeg nergens dat het op zelfde niveau is.

Ook als de andere niks kan leveren.

Het standaard antwoord de andere is beter en de competitie kan niks is een eenzijdig beeld...
Kunstmatige intelligentie werkt juist uitstekend op AMD-GPU's. Gezien de aanmerkelijk betere prestaties van de AMD-GPU's tegen lagere kosten kopen mensen momenteel niet de beste hardware voor hun geld. En het scheelt geen klein beetjee.

Het zijn vaak traditionele HPC-codes die een CUDA-lock-in hebben, en die kun je weliswaar met Hipify converteren, maar dat gaat een eindgebruiker niet snel doen.

Nvidia kopen vanwege CUDA is dee makkelijk optiee, toch zal de markt om moeten: Nvidia wordt iedere generatie duurder. Je kunt zoals de TU-Eindhoven 1,2 miljoen uitgeven voor een schamele 32 GPU's, of bij AMD kopen en met de grote jongens mee kunnen doen.
De laatste jaren wel ja maar set was eerst niet zo.

Zo heeft AMD/ATI HBM is Bv samen met AMD ontwikkeld.
Amd was de eerste die met Universal shades Kwam voorheen Waren pixel en vertex shades van elkaar gescheiden.

Amd was he eerste met trueform en tessellation.
Ook als eerste met gpu accelerated audio.

Twee gpu's op een kaart hadden ze al met de Rage Furry Maxx

En volgens mij waren ze ook als eerste met het gebruik van GDDR5. En de enige die een DX10. 1 gpu hadden (HD3870) nVidia heeft toen erg z'n best gedaan om games die dat ondersteunde terug te laten draaien naar normaal DX10.

Ze waren ook als eerste met Async compute

Ik zal nog wel wat zaken vergeten maar in het verleden waren ze wel innovatief.

De laatste jaren is het wat minder maar infinity cache was ook nieuw en ze hadden de eerste chiplet gpu nu viel RDNA3 (mede omdat die chiplets had) een beetje tegen (latency is erg lastig bij chiplet Design's. Maar het is niet alsof ze nooit meer met iets nieuws komen.

Ik zou inderdaad wel willen dat ze weer wat innovatiever zouden zijn echter dicteert nVidia de markt dus je krijgt jou nieuwe features niet zo maar ondersteund andersom implementeerde iedereen meteen het geen wat nVidia uit brengt. Dus het heeft nu ook niet zo veel nut tot dat het marktaandeel meer 50/50 zou zijn en je je features wel Kan laten implementeren.
Cool, ik dacht dat de VooDoo 5 de eerste was met multi-GPU, maar de Rage Fury Maxx was eerder. (Alleen niet populairder...)
Doet me denken aan het crypto-mining verhaal. Weet je nog - een paar jaar geleden kon Nvidia de vraag naar GPU's niet bolwerken vanwege de crypto-hype. Prijzen rezen de pan uit. Dus 'we' zetten vol in op crypto-spul. En toen was de hype voorbij. Lagen de pakhuizen vol met chips waar geen behoefte meer aan was. Wat hebben we nu geleerd, spelende vrouw? Welnu, niets. AI is de nieuwe hype en 'dus' zetten we vol in op AI. En over een paar jaar heeft 99% van de AI-startups de pijp aan maarten gegeven en zitten we met pakhuizen vol onverkoopbare chips. Goede strategie, dat korte-termijn-denken.
Je laat even achterwegen dat de GPU boeren ook toen gouden bergen verdiende, en daarna niet verliesgevend waren. Er ging dus niks mis.
Maar aan elke hype piek wordt wel miljarden verdient in die paar jaar dat de hype duurt, dus op zich heel begrijpelijk dat ze daar in springen.
Ik zie eigenlijk niet in wat daar verkeerd aan is qua beleid? Je focust toch op zaken waar je op een bepaald moment geld mee kunt verdienen? En alles wat we doen heeft een life cycle. Zelfs als je voor een non-profit organisatie werkt heb je daar mee te maken.
Wat raar. Het gaat juist helemaal top met hun CPU divisie. Willen ze nog meer aandelen terug kopen ofzo?
En hun CPU aandeel op de markt dan dat Intel aan het overstemmen is, als ze mooie winsten maken en hun bedrijf goed draaiende houden met de juiste tech op dat vlak, begrijp ik niet waarom je mensen moet beginnen ontslaan om tgv een te sterke concurrent te gaan staan. Dit is net wat Intel heeft geprobeerd tgv Nvidia .. straks zien we hetzelfde verhaal bij terugkomen bij AMD.


Schoenmaker, hou je bij je leest!
Dat laatste zorgt nu voor de problemen in veel Europese bedrijven.
Zoveel mogelijk ¨X¨ gebruiken, verkoopt beter zeker.....
Amd is voor de PC de juiste speler (eerste) met
ddr memory bus
goede 64 bit compatible instyructie set
de eerste goede dualcore
de strever naar hogere ipc in de netburst era
L3 cache icm met TLB bug helaas
Multicore computing anders hadden we tegenwoordig in desktops nog 4c8t cpu's
en downsizing betere chipfabricage voor energy efficiency.
Intel wil alleen de snelste en de beste zijn, offert daardoor power efficiency en architecture op.

AMD is juist innovatief om competitive the blijven in de markt.
Snap gewoon echt niet dat Intel niet aan de 3d cache is begonnen, dat was killer geweest in de markt voor hun. Meer cache is nooit slechter geweest vooral L3.
Bottomline, AMD heeft ons mede zover als de dag van vandaag gekregen kwa pc computing tech.

Op dit item kan niet meer gereageerd worden.