AMD verlaagt omzetverwachting door tegenvallende vraag naar cpu's

AMD verlaagt zijn omzetverwachting voor het afgelopen kwartaal. Volgens het bedrijf komt dat door tegenvallende vraag op de pc-markt, waardoor het minder cpu's heeft geleverd. Het bedrijf publiceert 1 november zijn definitieve kwartaalcijfers.

AMD verwacht dat het bedrijf afgelopen kwartaal ongeveer 5,6 miljard dollar omzet draaide. Dat is 29 procent meer dan dezelfde periode een jaar geleden. Het bedrijf verwachtte echter een omzetstijging van 55 procent op jaarbasis. De voorlopige kwartaalcijfers weerspiegelen volgens AMD een lager dan verwachte omzet uit zijn clientdivisie, waaronder AMD's Ryzen-processors vallen. Het bedrijf verwacht dat de kwartaalomzet van die divisie neerkomt op een miljard dollar, 40 procent minder dan een jaar geleden.

De chipmaker schrijft die omzetdaling toe aan een 'zwakker dan verwachte pc-markt'. Het bedrijf leverde daardoor minder processors dan verwacht. Het bedrijf spreekt ook over 'aanzienlijke voorraadcorrecties' in de toeleveringsketen. De omzet uit AMD's datacenter-, gaming- en embeddeddivisies kwamen wel overeen met de verwachtingen.

De kwartaalcijfers van het bedrijf zijn nog niet officieel. Het betreffen voorlopige schattingen die zijn gebaseerd op basis van informatie waarover het bedrijf op dit moment beschikt. AMD publiceert zijn definitieve kwartaalcijfers op 1 november en houdt dan ook een teleconferentie met aandeelhouders, waarin het verdere toelichtingen geeft.

De vraag naar pc-hardware daalt al langer. Dat heeft onder meer te maken met de economische onzekerheden die momenteel spelen, bijvoorbeeld door hoge inflatie. AMD-ceo Lisa Su meldt ook dat de lagere vraag op de pc-markt te wijten is aan 'macro-economische omstandigheden'. Intel en Nvidia waarschuwden respectievelijk ook voor een dalende vraag naar processors en videokaarten. Tweakers schreef eerder een achtergrondverhaal over de dalende vraag naar pc-hardware.

Door Daan van Monsjou

Nieuwsredacteur

10-10-2022 • 15:39

167

Lees meer

Reacties (167)

Sorteer op:

Weergave:

Tja, elke generatie upgraden is tegenwoordig ook niet meer nodig.

Heb vorig jaar Maart mijn bijna 8 jaar oude 4770K vervangen door een 11700 (Non-K), en daar ga ik waarschijnlijk ook weer 8 jaar mee doen.
Ook alleen voor CPU upgrade naar Zen4 ben je nu €360 voor goedkoopste 7600x + €300 voor AM5 mobo + €100-200 voor DDR5 geheugen = ~€800 kwijt om te upgraden.

Wordt hopelijk wel wat beter komende maanden, maar blijft flink pittig. Ben zelf zwaar aan een upgrade toe, maar wacht nog wel even af.
Dit dus.


Vroeger kon je voor 1000 euro een mooie nieuwe PC bouwen. Wat koop je nu voor 1000 euro? Een systeem wat net aan 1080p aankan?

Ik heb gewoon geen zin om 300+ euro neer te leggen voor een CPU, 200+ voor een mobo en 400+ voor een GPU.

Ten tijde van m'n i7 920 en 6600K was ik voor 1000 euro klaar met een leuke CPU en GPU (xx60 serie). Daar hoef ik nu niet eens naar te kijken qua prijzen.
5600+B550+16GB3200+(6700XT|3070)+1TB kost ongeveer €1000 en daarmee kan je perfect 1440p120 spelen.

EDIT: blijkbaar is een 3070 nog veel duurder dan een €6700XT, dus een PC met een 3070 zal hoogstwaarschijnlijk ver boven de 1000 uitkomen.

[Reactie gewijzigd door RuddyMysterious op 22 juli 2024 20:39]

Zit daar een kast, PSU, etc bij?
Ik kom in de pricewatch uit op €1020, inderdaad alles inclusief, maar zonder speciale CPU-koeler.
Heb je een linkje? Best benieuwd wat daar voor systeem uitkomt namelijk.
Hier is de prijslijst vanop pricewatch:Totaal: €1018,44

De 3070 is blijkbaar pakken duurder dan de 6700XT, voor dat geld kan je dan beter een RX 6800(XT) nemen die significant sneller is dan de 3070.

[Reactie gewijzigd door RuddyMysterious op 22 juli 2024 20:39]

Geheugen is wel 3600C19, kan je dan niet beter gewoon 3200C16 RAM nemen?
Mooie lijst, maar ik zie al gelijk een fliink minpunt in mijn beleving: mobo ondersteunt geen USB-C header op je case. Jammer.
Voor iemand die niet meer 1000 euro wil betalen ben je wel veeleisend ;)
Maar dan een iets ander mobo voor iets meer als dat zo belangrijk is
Tja, vroeger was 1000 euro (en nu nog) best wat geld voor een systeem. Daar mag je (naar mijn mening) best wat van verwachten.

Nogmaals, vroeger kocht ik daar gewoon een high-end i7 van, met high-end moederbord, etc.

Nu voelt het toch een beetje beknibbelen met 1000 euro budget. Dat maakt voor mij de zin qua upgraden niet echt groter.
Nu is niet meer vroeger, dingen veranderen. 1000 euro is zeker veel geld, en als je niet meer wil uitgeven snap ik. Maar dan niet nemen als iemand met een goeie optie voor 1000 euro komt omdat er geen usb c header op zit, dan ben je gewoon moeilijk aan het doen.
Huh? Hoezo is dat moeilijk doen? Is het zoveel gevraagd om anno 2022 een USB-C connector op je case te kunnen gebruiken? Lijkt me niet meer dan logisch. Een moederbordje van 80 euro is dan ook wel een beetje cutting corners om maar om 1000 euro uit te kunnen komen.
Blijkbaar is dat voor die prijs wel teveel gevraagd tegenwoordig. Stuff changes. Anders ga je gewoon lekker zelf op zoek, of accepteren dat je niks meer koopt. Het rond hangen in hoeveel je vroeger kon kopen gaat je niks brengen in het leven.
Dat is zo compromisloos mogelijk, B550 is best standaard.

Als je die extra high end features wil zit je al snel op een duurder B550 of X570 bord en geld bij aan het leggen. De mening erover is een keuze is dat per individu anders is. Maar over het algemeen, prima bord.
3 opmerkingen:
- config is previous gen AM4 en niet AM5
- "perfect 1440p120 spelen" hangt zwaar af van welk spel je speelt en op welk detail
- een officiële windows licentie kost ook nog eens meer dan 100€ (lees: geen grijze/zwarte key)

als je alles rock-bottom zet in de pricewatch
3070 = 572€
5600g = 159€
B550 = 78€
16GB3200 kit 2x8 = 53€
1TB Sata SSD= 60€
dan kom je uit op 922€, geen idee wat voor rommelcase met ingebouwde voeding je voor nog geen 80€ kiest, maar daar zou ik toch niet op willen gokken om nog 8 jaar mee voort te kunnen, om nog maar te zwijgen over de prestaties die je hier uit kan krijgen met alleen maar included fans
De 5600g heeft alleen geen pci-x 16 4.0.
Heb dezelfde cpu in mijn kast en alles van pci-x word enkel de ouder 3.0 ondersteund.
- config is previous gen AM4 en niet AM5
Dat klopt, maar hoe belangrijk is dat eigenlijk? Als je je systeem kan upgraden, doet men dat het vaakst om geld uit te sparen, want enkel de CPU upgraden is goedkoper dan ook moederbord en RAM upgraden.

Nu kosten moederbord en RAM voor AM5 echter zodanig veel meer voor dan voor AM4, dat je hoogstwaarschijnlijk nú AM4 kan kopen en dan over drie tot vijf jaar perfect kan overstappen naar AM5 voor dezelfde totaalkost, vergeleken met nu meteen de hoofdprijs betalen voor een AM5-setup. Dus blijft er van dat voordeel niks meer over. Of het moest gaan om gemak, dat je je moederbord niet uit je computer hoeft te halen. Tja, als dat belangrijker is dan geld uitsparen...
- "perfect 1440p120 spelen" hangt zwaar af van welk spel je speelt en op welk detail
Zeker akkoord, maar je kan bijvoorbeeld voor €669 meerkost een 6800XT kiezen ipv een 6700XT, wat het volgens mij zeker een 1440p144/165- of zelfs 2160p60(tot 90)-systeem maakt. Of een RX6800 voor €599 wat het nog steeds beter maakt dan een 3070, toch wanneer je let op rasterising performance.
- een officiële windows licentie kost ook nog eens meer dan 100€ (lees: geen grijze/zwarte key)
Tja, klopt, maar de vraag is of de originele vraagsteller die erbij heeft gerekend bij zijn computer van €1000, want ik vrees ervoor.

[Reactie gewijzigd door RuddyMysterious op 22 juli 2024 20:39]

Het gaat over een nieuwe build, geen upgrade. Toen was dat het nieuwste van het nieuwste, dus moet je daar nu even eerlijk in zijn en dus last gen gaan.
Ik heb 6 jaar geleden een 6600-build gemaakt, moest het geen mini-itx met (voor die tijd overdreven) veel ram en de snelst mogelijke SSD (950pro) zijn geweest, had ik vlotjes onder de €1000 uitgekomen. de CPU was toen nog geen half jaartje uit, en kostte amper 14€ minder dan bij de introductie, terwijl de 5600g nu al 200€ in prijs gezakt is tov de introductie vorig jaar (of 100€ als je de gewone versie neemt die nu duurder is).

Performance-wise kan je voor dat geld + inflatie nu een minder high-end systeem bouwen dan vroeger. Dat was wat jeroenneman bedoelde. Welke redenen daarvoor verantwoordelijk zijn maakt niet uit, want je krijgt (zelfs bij ons in België met automatische loonindexatie) niet netto even veel meer als dat de prijzen zijn gestegen (pc-componenten zitten niet in de indexkorf, enkel volledige computers en die zouden 5.2% goedkoper zijn geworden)
Als je geen OEM licentie hebt gekocht destijds mag je Windows na een upgrade gewoon herinstalleren. Kost je dus niks extra's.
nieuwe build # upgrade
ik weet maar al te goed hoe je het kan omzeilen op verschillende manieren om toch in aanmerking te komen, maar da's allemaal naast de kwestie. wat je toen moest betalen was minder dan nu
Ik heb recent geleden precies dezelfde upgrade uitgevoerd.
5600X+B550 Tomahawk+RX6700. Koste me €770
Kast, 16GB3200 geheugen en 650W voeding had ik nog van mijn oude systeem (i5-6600K)
Wat een onzin. i5 12400 + 3060 (Ti) + mobo + geheugen kan makkelijk voor onder de 1000 euro.
Kom maar met een lijstje dan. Ik hoor het graag, want als ik nu kijk, dan kost een 3060Ti me al minimaal 400 euro, richting de 500 euro als je iets deftigs wil.
Ik heb recent geleden een Powercolor RX6700 gehaald voor €379.
10GB i.p.v. 12GB, en uit tests blijkt dat deze maar 5% langzamer is dan de RX6700XT.
Een PC, dus ook SSD, behuizing en voeding?
vind dit wel altijd een lastige om "vroeger" met nu te vergelijken inflatie is helaas een ding en resources zijn duurder geworden dus meer betalen moet je toch wel dat is helaas de reality
Ja het is wat het is de euro is ruk, inflatie wereldwijd en ook extreem in EU.
Dat is niet de schuld van die merken. Wij zijn stuk armer geworden.
Maar ja het fijn dat PC een luxe ding is en meest noodzakelijke ook oude bak kan.
Al helemaal als je ding vorige gen is heb Zen1 en upgraden is niet nodig maar luxe optie. Waar ik niet voor ga.
Ben het best met je eens, met als kanttekening dat je tegenwoordig eigenlijk ook veel minder snel / vaak hoeft te upgraden. Voor mij zal het per saldo niet veel duurder zijn dan vroeger, want ik doe tegenwoordig (minstens) 2x zo lang met 1 PC. Gaat het om een extra PC, of vervanging door een andere oorzaak dan doet het wel erg pijn ja, met die extreme prijzen...
Vroeger kostte een ibm PC duizenden guldens
i7 920 komt uit 2008, dus een 1000 euro systeem uit die tijd zou met inflatie nu rond de 1300 euro uitkomen, waar je echt een mooie gaming pc van maakt vandaag, zeker nu de gpu prijzen weer wat redelijker zijn.
€1000,- 10 jaar geleden, is nu natuurlijk geen €1000,- meer.

Door inflatie is alles gestegen, maar ook de lonen en andere vergoedingen.

Daarmee is het niet helemaal eerlijk om je te baseren op een prijspeil van "vroeger"
En voor dat geld heb je dan een laag budget systeem, zowel qua CPU als moederbord.

Voor de helft ervan koop je een last-gen laag budget systeem, en als je toch laag budget koopt, is er eigenlijk geen reden om deze generatie te kopen (die alleen maar meer prestaties levert door power-scaling).
De 5800X3D is dan nu ook vaak een interessantere update.
Yariva Moderator internet & netwerken @cmegens10 oktober 2022 18:40
Ik vraag mij dat dus serieus af. Ik zit te twijfelen tussen de 5800X en 5800X3D en na het kijken van benchmarks zie ik dat zo'n CPU vooral veel winst haalt bij lagere resoluties. Op een 4K paneel of 1440P waarbij je eerder GPU limited bent valt die prestatiewinst van een bak extra cache wel mee. Om daar dan 100 euro extra voor neer te leggen is nogal wat.
Met de goedkoopste ryzens haal je een uitstekend resultaat op gpu limited games.
Ik hoop tegen maart 7800X3D + B650 Aero G + DDR5 6400 aan een flink lagere prijs te kunnen aanschaffen.
Mee eens. Ik verving vroeger ook elke 2 of 3 jaar mijn PC. Tegenwoordig doe ik er al snel 5-6 jaar mee. Ben pas recent overgestapt van een Core i7-5820K naar een AMD 5950X, en die 5820K draait nog altijd zijn rondjes bij mijn ouders. En voor die 5820K zat ik nog op een Core i7-920, de eerste generatie dus, dus ook daar zat al flink wat tijd tussen.

En zeker in deze tijd, met oplopende inflatie, hogere kosten voor energie, en een dreigende recessie denk ik dat mensen minder snel geneigd zullen zijn om snel nieuwe PC's te gaan kopen zolang de huidige het nog doen.
De gebruiker wil grote stappen (maar heeft ze zelden echt nodig).
De fabrikant wil graag kleine stapjes, om maximaal te cashen.
.
Model uitbrengen en dan kort daarna een "plus versie" met nieuwigheidjes waarvan iedereen weet dat ze een paar maanden geleden al bestonden, is een bekende strategie in telefoonland.
Same hier, heb 2 jaar geleden via een twaeaker mobo met I5 6600K over genomen
werkt perfect (kan uiteraard wel wat zuiniger ) hoop dat deze nog een tijdje mee gaat?.
Max Turbo Frequency
O.C 3.90 GHz 3.90 GHz TDP 91 W
Processor Base Frequency
3.50 GHz
Mijn i5-6600k draait standaard op 4,5GHz zonder extra V
Als ik wat meer wil, dan stabiel 4,8GHz met 0,150V extra

Dus er zit nog zat ruimte ;-)
@SCS2
Bij toeval na het lezen van dit topic, had ik gisteren een tutorial gevonden, zelfde mobo en de i5 6600K met een O.C 4.6GHz.
Ik was zelf niet verder gekomen dan 3.9GHz
Na wat aanpassingen in de bios XMP sync all cores 4.6 GHz V 1.345 draait het Stabiel op 4.6 Ghz temp rond 60-65 Graden.
Mobo Asus Z170 pro 8GB DDR4 3000Mhz
4.6 GHz vindt ik wel het Max Wil er ook niet meer uit persen. Kapot is immers kapot.
i920 naar 1950X naar heden .
Ondertussen ook een macmini oude gen naar die laatste x86 jaar of 2 a 3 terug.
En in deze tijd zou ik eerder voor daily driver een nuc je , naast workstation, maar ja heb mac mini dus ben al voorzien voor de crisis.
Ondanks dat die 4770k nog steeds rap is, ook hier vorig jaar (sept) vervangen door een 11600K

[Reactie gewijzigd door Nijl op 22 juli 2024 20:39]

Dat was omdat jij dat wilde, niet omdat het nodig is.
Dat is geen gemene opmerking ofzo, want zelf doe ik dat ook :-)

Veel mensen wachten met angst de energienota af. Die stellen de upgrade nog wel even uit.
Vooral tegenwoordig met die stroom vretende GPU's. Ik snap nog steeds niet waarom ze die alleen maar groter en enrgie slurpender maken. in plaats van efficienter.
Met elke nieuwere generatie gaat het verbruik verhoudingsgewijs naar beneden (performance per watt). Het totaalverbruik stijgt echter wel.
Waarom dan niet als de efficiëntie gelijk blijft, het verbruik hetzelfde houden en toch betere prestaties hebben? Heeft Intel ook jarenlang gedaan. Natuurlijk ook omdat ze geen concurrentie hadden van AMD.

Meer is natuurlijk altijd beter, maar dan nog, buiten degenen die bulken in het geld (want GPU EN! een nieuwe ATX12V 3.0 1000+W) voeding, wie wil er nou een 4090 (TI) hebben die bij normaal game gebruik 450-450 Watt zit te verstoken? Je hoeft de kachel haast niet meer aan te doen, maar de energiemaatschappij wordt wel erg blij met je tegen de huidige prijzen...
Je kan gelukkig gewoon undervolten als je stroomverbruik echt belangrijk vindt.
Idle verbruik is vermoedelijk waar veel verlies is, en dat is de afgelopen 10 jaar eerder slechter dan beter geworden. Tenminste, mijn 4770k met gtx 1080 en diverse andere rommel heeft ~25w nodig (bij stekkerdoos gemeten) om te webbrowsen, en ik heb niet het idee dat dat heel normaal meer is.

Als je echt puur games speelt zal dat mogelijk wel meevallen qua relevantie, maar voor mij iig is low load de norm. Daar helpt undervolting nauwelijks.

[Reactie gewijzigd door emn13 op 22 juli 2024 20:39]

Inderdaad. Heb hier in huis laatst al het sluip en idle stroom opgespoord en aangepakt. De PC (5900X+3060ti) in idle krijg ik nauwelijks omlaag ondanks undervolting (helpt vooral tegen load verbruik). De CPU zelf krijg ik niet lager dan zo’n 30 watt idle. Best hoog. Vooral omdat ik de PC eigenlijk 90% van de tijd nauwelijks onder load zet.

Heb er daarom voor gekozen webbrowsing etc voornamelijk op de ipad te doen en PC alleen te gebruiken als ik hetgeen enkel daarop kan doen. Gamen ofzo. Dat verbruikt nu overigens wel 100 watt minder.
Ze worden ook gewoon efficiënter, maar de rekenkracht wordt ook telkens meer.

Sterker nog ik zou bijna willen stellen dat ze ook nog eens minder stroom slurpen, het zweeft all 10+ jaar rond de 150-250 W met af en toe wat ultra high end uitschieters naar 300.

[Reactie gewijzigd door dakka op 22 juli 2024 20:39]

Elke die shrink krijg je voor dezelfde vermogen meer performance dat zal 15 of 30%.
Als je die 50 a 90% meer performance moet hebben voor de heb dan ga ook meer sap trekken. Dan zal je ook om de 2 gens psu moeten vervangen.


Het is zuiniger watt/performance, maar de vermogen performance grens is ook omhoog verlegt.
80386 250 wat heb je nu multicore nuc voor fractie van vermogen 6watt tot 65watt nucjes en igpu die ook ietje 3d versnelling heeft.
Wat is daar nou zou moeilijk aan te begrijpen. Een paar van de hoofdredenen zijn:
- veel mensen zijn bereid om veel te betalen voor hardware om maar (bijna) het beste te hebben
- de energieprijzen zijn lang niet overal ter wereld zo hoog. Ze waren hier al jaren geleden beduidend hoger dan in het merendeel van de VS of China, en dat is nu al helemaal het geval. Lang niet iedereen maakt zich hier zo'n zorgen over (helaas).
- marktwerking
- de technologie staat het toe. Hoe dit precies technisch zit weet ik niet, is het de architectuur of het kleinere procede (waardoor je veel meer transitors kwijt kan) (ik denk het laatste) maar voorgaande generaties (RTX2000 en eerder) hoefde je geen 400 watt te proberen. Nu is die ruimte er simpelweg wel en wordt hij voor sommige modellen benut.
- het loont om bovenaan in de benchmarks te belanden (ongeacht dat dit voor de topmodellen zeer veel stroom vereist). Je ziet telkens weer dat dit de aandacht trekt bij veel mensen. Idem die headlines met hoog stroomverbruik van het laatste Nvidia GPU of Intel CPU topmodellen, terwijl het voor de reguliere modellen nog vaak best wel meevalt (Intel 12th gen desktop CPU's bedoel ik dan).
- de concurrentie tussen Nvidia en AMD is redelijk groot en die 5 a 10% performance extra voor 75 a 150 watt extra gaat vanwege die perceptie toch invloed hebben of je een goede of hele goede bedrijfsprestatie neerzet.
- het kost jaren voordat men van tekening naar productie is gekomen. Een paar jaar geleden waren we echt nog niet zo met energieverbruik bezig (en veel van de rest van de wereld loopt m.i. nog achter). Misschien had men er met de huidige bril iets meer rekening mee gehouden, al betwijfel ik het, de GPU's zijn tenslotte efficienter, het is alleen ook dat de ruimte er is voor veel hogere clockspeeds en die wordt gewoon benut voor het topmodel.
Dat was omdat jij dat wilde, niet omdat het nodig is.
Dat is geen gemene opmerking ofzo, want zelf doe ik dat ook :-)
Dat is natuurlijk altijd zo bij consumentenproducten. Tot 2-3 jaar geleden kon die 47xxk nog wel uit. Inmiddels kijk je bij games wel tegen enkele tientallen procenten aan achterstanden uit en merk je de ouderdom van die generatie met name aan minFPS en het stabiel weergeven van frames (dus zonder grote schommelingen).


Voor productiewerkzaamheden kan die cpu natuurlijk al een tijdje niet meer meekomen.
Ook was ie OCed naar 4,5 GHz kon ik toch merken dat 4 cores het niet meer echt trok. Kon het met name merken aan micro-stutters.
Offtopic
Merk je daar eigenlijk veel van een 4770K vervangen door een 11700?
Ik heb mijn 4790K nog steeds. Heb wel de GTX 970 vervangen door een RTX 3060 TI en wat extra SSDs geplaatst. Maar verder nog dezelfde computer.

Ontopic
Ik vermoed ik net als andere mensen nu minder thuis zit en verder ook wat hoger kosten kan verwachten. Dus niet noodzakelijke investeringen uitstellen loont vermoedelijk. Nieuwe PC onderdelen zijn tegenwoordig vaak niet zo nodig meer. Vroeger moest je echt om de 2-3 jaar een nieuwe computer kopen.
De 4770K trok het niet zo best meer, kreeg last van micro-stutters, dat is nu weg.

Qua FPS was het niet zo'n boost omdat ik nog met mijn GTX 1070 zit, hopelijk volgend jaar een 4060 of 4060 Ti.
Je kan de 4790k ook de-lidden :). Gelijk weer een leuk projectje.
Die van mij draait in de winter 4.8ghz. In 99% van de gevallen ben ik GPU limited, als is jouw 3060ti wel iets sneller dan mijn Vega 64.
De 4790k is inderdaad echt snel in GHz. Zelfs als je er niets aan deed was hij lang het snelste. 4,8 GHz is natuurlijk nog wat sneller. In de winter heb je dan ook een goede verwarming. Natuurkundig COP is dan 1. Maar met het juiste spelletje is de ervaren COP natuurlijk hoger.
Ach ja... Ik zit nog steeds op een i5 2500k (ja je leest het goed). Inmiddels al een PC van 11 jaar oud met 2x een videokaart update.

Op het moment ben ik mij aan het oriënteren om een nieuwe PC te bouwen, maar ik weet nog niet zo goed of ik beter een paar maanden kan wachten of dat ik nu al onderdelen ga bestellen.
hier draait nog een core2duo @2.2 à 16W. Ik heb al eens zitten kijken in het zuinige server topic, maar dan kom ik toch nog op een heleboel eurootjes. Van het weekend eens kritisch gekeken wat ik er nou echt mee doe en dat kan dus best op een RP4 een een oude SSD die ik nog heb liggen.
Waarom geen am4 socket op de 5xxx serie?
Ik blijf sowieso bij Intel wat CPUs betreft, maar als ik jou CPU had en moest upgraden zou ik waarschijnlijk een 13700 Non-K nemen.

Ik was van plan te wachten op 12th Gen, maar had niet veel zin in Windows 11 (nog steeds niet eigenlijk).
Ik ben recentelijk overgestapt van mijn oude desktop met i5 6400 naar mijn oude laptop met een 7700HQ (XPS9560) met een E-GPU als vaste setup. De GPU heb ik uit mijn oude desktop gevist.

De 6400 was echt te traag aan het worden, maar die 7700HQ voelt nog vlot zat aan.
Dit omdat ik op marktplaats een goedkope EGPU advert vond, en dit voor mij op korte termijn een goedkope tussenoplossing zou zijn. (ipv een nieuwe desktop aanschaffen)

Battlefield 4 op een ultrawide 3440 resolutie hoge instellingen met allemaal programma's en tabs op de achtergrond open zonder enig probleem.
Ik speel met de laptop dicht op mijn bureau, dat ding zit lucht te happen met tempraturen waar je U tegen zegt. Hij throttled ook als een gek, maar daar heb ik allemaal geen last van.

Ik was misschien van plan een nieuwe Ryzen desktop aan te schaffen, maar met die prijzen van tegenwoordig, waarom zou ik? Ookal is mijn setup allemaal achterhaald en omslachtig, het werkt wel gewoon, en goed genoeg.

[Reactie gewijzigd door HellboyFromHell op 22 juli 2024 20:39]

En dure moederborden (voor nu?). DDR5 (wat goedkoper wordt) erbij.
Mogelijk een nieuwe dure gpu, grotere PSU (ook mogelijk duurder).

En de 5800x3d(?) die zo goed is dat het verschil met deze nieuwe niet ‘3D’ modellen ook kleiner is maar zoveel goedkoper, vooral als al een am4/ddr4 setup hebt.

Dan nog oorlog gaande, stijgende energieprijzen, inflatie etc. Mensen zijn iets voorzichtiger misschien.

[Reactie gewijzigd door The Chosen One op 22 juli 2024 20:39]

Ook dat, ik was nu voor zo'n 650 Euro klaar met CPU, Mobo en 32GB geheugen.

Wel een Z590, maar dat komt omdat ik een bepaalde PCI-E layout nodig had vanwege mijn geluidskaart (Creative Sound Blaster ZXR). Daarnaast heb ik nu een zwart/witte theme dus kwam ik uit bij de ASRock Z590 Steel Legend :*)

De 11700 was net zo duur als mijn 4770K in 2013.

[Reactie gewijzigd door TheDeeGee op 22 juli 2024 20:39]

Ik draai nog met 8700k die ik via mp gekocht heb. Ik vind het ook nog niet nodig, maar als ik het vervang, dan zal het ook 2de hands zijn.
8700k is dan ook een best wel rappe CPU!
Precies. de CPUs zijn tegenwoordig zo krachtig, dat je een nieuwe helemaal niet nodig hebt.

Die 10FPS erbij in een game ziet niemand
Tja, elke generatie upgraden is tegenwoordig ook niet meer nodig.
10 jaar lang heeft intel vast gehouden aan max 4 core op de mainstream sockets, maar in ze in slechts 5 jaar van 4 cores naar 8 + 16 core CPU's gegaan en zit AMD al weer even op 16 cores.

Dus ik betwijfel sterk of je weer 8 jaar vooruit kan. (Ook omdat 11th gen nu echt bepaald een denderende serie was van intel.) Maar dat zal liggen aan je workload natuurlijk.
Ik doe alleen gaming, dus die 11700 gaat het prima vol houden.

Mijn GTX 1070 moet volgend jaar de deur uit :)

[Reactie gewijzigd door TheDeeGee op 22 juli 2024 20:39]

Ik denk eerder dat het komt omdat AMD prognoses heeft gedaan op basis van een jaar met crypto-mining...
Maar ja, ik zit ok al 8-9 jaar op Haswell en die trekt nog steeds prima 60-100fps in de meeste games.
De hoge prijzen van AM5/DDR5 en de afwachting van 7000X3D zal ook wel niet helpen
Heeft niet zoveel met nieuwe generatie te maken, maar meer met het feit dat het een nieuw platform betreft, en ook geen DDR4 support zal er ook mee te maken hebben, aangezien DDR5 nog steeds duurder is.

Als het enkel een nieuwe generatie was en niet een nieuw platform, zouden deze cpu's juist zeer goed verkopen, ze zijn een aardige upgrade vergeleken de laatste generatie, de 5000 serie verkocht ook heel goed terwijl de vorige generatie(3000) ook hele goede cpu's waren.
Tja, elke generatie upgraden is tegenwoordig ook niet meer nodig.
Dat is het nooit geweest. En ook bijzonder onverstandig.

Maar dat staat sowieso volledig los van AMD's omzetverwachtingen. Net zoals jij leeft het management AMD gelukkig wel in het nu (denk ik :-)), niet in de wereld van 8 jaar geleden. Het zijn zaken zoals inflatie (producten worden duurder en spaargeld verdampt) en de consument die bepaald uitgaven (typisch voornamelijk luxegoederen) nog even uitstelt die hiervan op invloed zijn. Eveneens is de Ryzen 7000 serie weer wat duurder vanwege de dure moederborden die op dit moment beschikbaar zijn (komt als het goed is nog wat verandering in).
Deels. Ik zit zelf thuis nog op een 3950X en dat is voor mijn gebruik al redelijk overkill en ik render niet genoeg om een upgrade te rechtvaardigen.

Maar als ik professioneel zou gebruiken, dan spuugt het nieuwe model toch alweer een flinke meervoud van het aantal berekeningen eruit en tijd kan geld zijn... Rest de vraag hoe snel je dat eruit hebt, maar voor het juiste gebruik kan het wel degelijk schelen...
kwestie van een slecht moment een slechte keuze maken met je 11th generatie maarja ik heb de indruk dat er velen toch steeds met bekrompen mening naar de markt kijken en als je 8j doet met je PC dan heb je er ook niet extreem hoge verwachtingen van en is ook niet het doelpubliek waar de omzet zit van deze leveranciers.
De grote recessie is in aantocht...
Als die prijzen nou 'normaal' waren, dan hadden meer mensen sneller geupgrade.
Ik VIND, dat de huidige prijzen veelsss te hoog zijn, daarom upgrade ik komende tijd niet meer.
Dit is wel terug te zien aan de groene kant van de pc wereld.
RTX 4090 beschikbaar VANAF ongeveer 1950 euro? bedoel, mensen met een gemiddeld inkomen gaan of kunnen dit echt niet betalen hoor.
Alsof de 4090 ooit bedoeld is om voor een appel en een ei high end te bezitten....

Dat gezeur altijd dat een high end product een high end prijs heeft. Koop dan gewoon een 4060/4080 bijvoorbeeld. Of koop een 3080/Ti of een 3070.

Mensen moeten eens stoppen met altijd maar dat nieuwste van het nieuwste voor een duppie te kunnen bemachtigen. Ook gelijk een stuk beter wat betreft e-waste :)

[Reactie gewijzigd door marco-ruijter op 22 juli 2024 20:39]

Chips uit dezelfde klasse als de 4090 (AD102) gingen 5 jaar geleden nog weg voor €699 (De GP102 in de 1080Ti). Die klasse kost nu €1959.

Als je aandelen hebt van nVidia snap ik dat je daar niet over zeurt, maar iedere andere consument mag best een beetje klagen als de prijs meer dan twee keer zo hoog is geworden.
Daar ga je echter voorbij aan andere factoren, chip fabriceren is immers ook veel duurder geworden. Waar een TSMC 16nm wafer +-$4000 koste bij de Fab is dan nu voor N5 (en waarschijnlijk ook N4) een veelvoud, marktvorsers gaat uit van +-$16000 per wafer. En dat is niet het enige, ook het maken van masks en andere zaken loopt nu in de honderden miljoenen bij de cutting edge processen, waar dat vroeger veel lager lag.

Maar kijk ook naar de chips zelf, GA102 was een 471mm2 grote chip op een relatief goedkoop proces.
AD102 is 608mm2 op een zeer dure proces node. Ze kunnen er dus veel minder van maken per 300mm wafer, terwijl die wafer alleen al veel duurder is.

Andere factoren als de inflate en de uitermate zwakke euro helpen ook niet mee. Alleen de euro al zorgt voor +-20% prijs verhoging vergeleken met 2 jaar geleden. Die RTX 4090 FE die €1949 moet kosten had dus als de euro niet ingestort was zo'n €1560 gekost in plaats van €1950, wat de prijs ongeveer gelijk zou hebben gehouden met die van de RTX 3090 FE.

Dat zijn natuurlijk wel zaken die mensen snel vergeten, of helemaal niet meenemen in hun gedachtegang, maar die wel enorm van invloed zijn op de huidige prijzen.

Het is niet alleen maar Nvidia (Of AMD) die de marges hoog willen houden, al dit dat natuurlijk wel een deel van het verhaal.

[Reactie gewijzigd door Dennism op 22 juli 2024 20:39]

Dit argument (wafers zijn gewoon duur!) hoor je wel vaker (was 't Jensen's PR spin?), maar als je de getallen doorrekent vind ik dit eigenlijk niet heel overtuigend.

Zo'n wafer is 300mm, oftewel 70686 mm2. AD102 is 608 mm2. Een wafer is dus 116,26 keer groter dan AD102; maar er is verlies rond de wafer-randen en ook omdat je rechthoeken in een cirkel plaatst. Laten we voor het gemak ervan uitgaan dat ze er 100 op kunnen plaatsen.

Van die 100 AD102 per wafer zullen er een aantal defecten hebben - maar n4 heeft berucht weinig defects per mm2 - en niet elke defect maakt een chip onbruikbaar, daarom is de 4090 ook gedeeltelijk dark. Volgens https://twitter.com/iancutress/status/1538846907308691457 hebben we't over 0.07/cm2, oftewel 49 per wafer. Maar sommigen hiervan zijn dus redbar via disablement van wat cores (of hoe ze nu ook heten), en van de 49 zijn soms meerdere op 1 die. Dus een yield rate van 75% is best realistisch; dus dat zou 75 AD102 per wafer zijn.

16000$-per-wafer / 75 AD102-per-wafer = 213$ per AD102. Dit is een vrij grove schatting op alle fronten; dus 300$ is ook nog denkbaar, bijv.

Dat is echt veel voor een chip, daar niet van - maar het is ook wel een hele kleine fractie van de 1600$ 4090 vraagprijs.

Dat verhaal over duurder wordende wafers is dus waar enzo, maar het lijkt me meer een excuus waarmee nvidia begrip voor die prijzen probeert te kweken dan een echte oorzaak deze hoge prijzen. En dat gaat al helemaal op voor de AD103 designs, want die zijn kleiner - dus gebruiken net iets meer van de wafer, en hebben (nog) minder last van defects, en natuurlijk krijg je er ook gewoon meer per wafer. Maar de 4080 16gb is desondanks 1200$, en dat is nog gekker dan die 4090 prijs.

[Reactie gewijzigd door emn13 op 22 juli 2024 20:39]

Die 100 dies per wafer (of 75% yield) is denk ik wel vrij optimistisch voor AD102, dit is een voorbeeld van iemand die AD102 door een wafercalculator heeft gehaald: https://i.imgur.com/JqMKxTM.png . Wel met een iets conservatievere defect density van 0.1 i.p.v, 0.07, Kom je op 87 dies per wafer in totaal bij 100% yield, waarvan 49 gemiddeld goed zijn en geen defecten bevatten.

Verder is het natuurlijk niet alleen de wafer prijs die de lucht in is geschoten, R&D is vele malen duurder dan enkele jaren geleden, masks e.d. kosten nu honderden miljoenen, over de gehele linie zijn de investeringen van Nvidia, maar ook AMD en Intel die nodig zijn om de innovatie erin te houden vele malen hogen dan bijv. 5 of 10 jaar geleden.

Daarnaast zijn natuurlijk niet alleen de die's duurder, de AIB's laten bijvoorbeeld duidelijk weten dat vrijwel alle componenten op de BOM's (flink) in prijs gestegen zijn, en als dat voor AIB's geldt zal dat ook voor Nvidia of AMD gelden. En uiteindelijk is het de BOM die de prijs van de kaart zal bepalen voor deze het kanaal in gaat, dan gaan diverse partijen er nog wat aan verdienen en kom je uiteindelijk op een straatprijs uit.

Pak daar ook nog wat inflatie bij en andere prijsverhogingen door de omstandigheden in de wereld en dan is het eigenlijk gewoon zeer logisch dat dit soort luxe producten gewoon duurder worden wanneer fabrikanten niet al te veel willen interen op hun marges (iets wat ze echter wel doen, Nvidia laat momenteel echt niet de juicy 60%+ marges zien die ze eigenlijk wel willen hebben. Helemaal voor ons in Europa omdat de Euro ook nog eens dramatisch zwak is op het moment.

Bij AD103 kom je trouwens dichter in de buurt van jouw cijfers qua yield: https://imgur.com/6pWJKGg

[Reactie gewijzigd door Dennism op 22 juli 2024 20:39]

Die image die je daar deelt gaat ervan uit dat alle defective dies wasted zijn, maar dat is zeker niet zo. Dat zou best wel eens minder dan de helft van de defects kunnen zijn - daarom zijn ook zo'n 12% van de cores immers dark gelaten. Dat zou ook nog wel eens nog positiever kunnen zijn. Daarnaast is 0.1 per cm2 is dus een overdreven pessimistische schatting. En de exlusion edge ziet er ook groter uit dan echt; dat was 15 jaar geleden zo, maar die is de afgelopen jaren gekrompen, voor zover ik weet.

Maar wees specifieker: Al maak je hier wat schattingen die tot iets minder bruikbare AD102 dies komen - ik kan niet met een geloofwaardig scenario komen waarin de prijzen van zelfs de 4090 serieus gedreven wordt door de wafer prijs; laat staan de AD103 kaarten. Welke specifieke schattingen denk je zijn dus geloofwaardig en slecht genoeg om de huidige prijzen te verklaren? Mij lukt 't namelijk niet.

Uiteraard komt het Nvidia goed uit om met een verhaal te komen dat ze gewoon niet anders kunnen - maar dat verhaal lijkt een fabeltje voor de media te zijn. En zoals alle goeie leugens zit er een kern van waarheid in - vanwege alle redenen die je ook aandraagt, want je hebt natuurlijk allemaal losse goeie punten. Maar 't telt gewoon niet op; gestegen kosten van zo'n lage basis verklaren niet per se een noodzaak om zulke prijzen te hanteren; dat doen ze omdat ze 't kunnen, niet omdat het moet. En trouwens, dat stookt ook aanzienlijk beter met hun fin. resultaten, zoals bijvoorbeeld laatst: https://nvidianews.nvidia...h-quarter-and-fiscal-2022 - die winstmarge is echt vors, zelf na R&D.

[Reactie gewijzigd door emn13 op 22 juli 2024 20:39]

Ik weet trouwens niet welke discussie je probeert te voeren, ik ben helemaal niet bezig de prijs van de Nvidia kaarten 100% al dan niet te verklaren, de prijs die Nvidia wil vragen moeten ze immers zelf weten. En of die prijs Ok is of niet, zal vraag en aanbod uitwijzen. Is de RTX 4090 over enkele weken ineens te koop voor $1299 ofzo weten we dat Nvidia teveel vroeg.

Ik reageer enkel op deze post dat zijn reactie enorm kortzichtig is, hubhib in 'AMD verlaagt omzetverwachting door tegenvallende vraag naar cpu's'


Maar om nog even deels inhoudelijk te reageren:
Die image die je daar deelt gaat ervan uit dat alle defective dies wasted zijn, maar dat is zeker niet zo
sorry, maar dan heb je gewoon echt niet opgelet, er staat zelfs in de image 'wasted dies: 0', wat je hier zegt klopt dus niet.

Er zijn goede dies en defective dies, defective dies kunnen mogelijk nog gebruikt worden als de defecten in delen zitten van de die die redundant zijn uitgevoerd en dus uitgeschakeld kunnen worden voor een cutdown versie.
En de exlusion edge ziet er ook groter uit dan echt; dat was 15 jaar geleden zo, maar die is de afgelopen jaren gekrompen, voor zover ik weet
Dit is een wafer calculator die door vele analisten gebruikt wordt, ik ga er vanuit dat als die niet zou kloppen, de kenners in de industrie hem ook niet zouden gebruiken. Daar is imho toch echt wat meer duiding nodig dan 'voor zover ik weet' om de calculator af te schrijven als 'klopt niet'.
Maar wees specifieker: Al maak je hier wat schattingen die tot iets minder bruikbare AD102 dies komen - ik kan niet met een geloofwaardig scenario komen waarin de prijzen van zelfs de 4090 serieus gedreven wordt door de wafer prijs; laat staan de AD103 kaarten. Welke specifieke schattingen denk je zijn dus geloofwaardig en slecht genoeg om de huidige prijzen te verklaren? Mij lukt 't namelijk niet.
Ik zeg dan ook duidelijk, lijkt wel of je mijn post niet leest, dat de die slechts een deel is. Immers de volledige BOM lijkt fors duurder geworden te zijn volgens de kaartfabrikanten. Het is dus niet alleen de GPU / Geheugen combo zoals Nvidia die verkoopt, maar ook alle andere zaken die op een kaart zitten. Daarnaast geven ze ook aan dat bijv. transport veel duurder is geworden. Zaken die allemaal meewegen in de prijs. Het is natuurlijk niet voor niets dat die AIB's klagen dat het lastig is om op de door Nvidia aangegeven prijspunten genoeg marge te kunnen maken. Waardoor hun kaarten vaak zelfs duurder uitvallen dan Nvidia's MSRP.

Maar kijk bijv. een naar GA102 en AD102, volgens de geruchten destijds heeft Samsung Nvidia 'gekocht' door zulke kortingen aan te bieden dat Samsung voor Ampere niet duurder was dan TSMC voor Turing.

Dan hebben we GA102: https://www.techpowerup.com/gpu-specs/nvidia-ga102.g930, die is groter dan AD102, er zouden dus minder chips uit een wafer komen. Maar laten we voor het gemak van de rekensom dat even gelijk trekken.

Dan heb je 87 potentiële dies, een aantal daarvan zullen niet goed genoeg zijn voor een 4090 of een 3090 maar wel in een andere Sku gebruikt kunnen worden. Maar goed, laten we even doen alsof ze allemaal in een 3090/4090 kunnen.

Dan zou GA102 $46 per die kosten en AD102 $187, zouden de geruchten niet kloppen en zou Samsung meer vragen, laten we zeggen het dubbele is het nog altijd $92 per die t.o.v. $187. Hoe je het ook went of keert, die AD102 zal fors duurder zijn op de uiteindelijke BOM. Zelfs als GA102 nog wat duurder zou zijn omdat er een paar minder chips vanaf komen.
Maar 't telt gewoon niet op; gestegen kosten van zo'n lage basis verklaren niet per se een noodzaak om zulke prijzen te hanteren; dat doen ze omdat ze 't kunnen, niet omdat het moet. En trouwens, dat stookt ook aanzienlijk beter met hun fin. resultaten, zoals bijvoorbeeld laatst: https://nvidianews.nvidia...h-quarter-and-fiscal-2022 - die winstmarge is echt vors, zelf na R&D.
Je kijkt daar wel naar oude cijfers, van tijdens de hoogtij dagen corona en mining boom.

Pak bijvoorbeeld de laatste kwartaal cijfers eens, dan is het ineens niet zo rooskleuring meer, de marge stort daar QoQ en YoY echt volledig in van 65.5% naar 43.5%, dat is echt een forse val en de andere cijfers zier er QoQ en YoY ook zeer slecht uit: https://nvidianews.nvidia...econd-quarter-fiscal-2023

Omzet is bijv. YoY nog een 3% plusje, marge is echter 21.3 procentpunt minder. Operating costs zijn echter 24% hoger. operating income is 80% lager, net income 72%, al met al echt belabberde cijfers, waar aandeel houders, volledig terecht, niet vrolijk van zullen worden. Immers vrijwel geen omzet stijging, kosten die enorm gestegen zijn, terwijl het rendement juist instort.

[Reactie gewijzigd door Dennism op 22 juli 2024 20:39]

Het punt is dat de wafer kost een red herring is. Deze is gestegen, maar het verklaart bij lange na niet de huidige prijs.

Kwa defective dies vs. wasted dies: Je noemde expliciet 49 goeie dies; wat impliceert dat je de rest niet meerekende. Maar als je de non-wasted dies _wel_ meerekent, dan kom je zelfs voorbij mij schatting van 75 en op 87 bruikbare dies. Op het punt van dat deze tool door analysten gebruikt wordt: dit is vrij basale wiskunde; die is en wordt niet anders - de vraag is puur of de ingevoerde aannames over defect density, exclusion zones etc wel kloppen. En dat gaat die tool niet voor je verzinnen want dan moet je dingen weten over het proces en de chip die niet (officieel iig) publiek zijn; het is niet meer dan een visualisatie van wat bepaalde aannames tot gevolg zouden hebben.

Op 't thema van de financien: het lastige van het huidige kwartaal is dat deze juist valt in een periode waar lovelace kosten gemaakt zijn, maar nog niks ervoor teruggekomen is. Het is wel echt een beetje niet-representatief. Je zegt dat de periode er nog 6 maanden eerder ook niet representatief is, want dat was in de ether boom - maar ja, nvidia probeert met deze prijzen ook op de in de ether-boom gezette verwachting door te gaan; als ze dat lukt, dan is dat juist wel representatief.

Ik snap ook wel dat nvidia die 43.5% marge niet fantastisch vind - maar in een normale sector die niet super-hard groeit is dat nog steeds heel goed, en het is dan ook niet heel redelijk te verwachten dat groei permanent is, zeker niet na een (voor nvidia voorspelbare) crypto-bust en (minder voorspelbare) oorlogs-recessie. En het verhaal wat jij herhaalde en ik op reageerde was dat "chip fabriceren is immers ook veel duurder geworden". En dat klopt gewoon niet als je't door rekent; iig niet in de zin dat het de prijs-explosie verklaart. Er is idd een kleine kosten-stijging geweest waardoor iets hogere prijzen vast in lijn met de vorige generaties is; maar niks wat een 1200$ 4080 verklaart.

Dat nvidia niet wou geloven dat de crypto bust ooit zou komen en misschien teveel geïnvesteerd heeft: kan best. Maar dat chip fabricage veel duurder geworden is verklaart niet de huidige prijs stijging. Die fabricage kosten vallen nog steeds erg mee, ondanks de stijging, omdat de basis zo laag was. Dat Jensen dat in zijn praatjes beweert is puur om de negatieve reacties op deze excessieve prijsstijging een beetje wind uit de zeilen te doen nemen. Maar persoonlijk vind ik dat echter bijzonder neerbuigend; 't voelt alsof je belazert wordt. En de waarheid wil die vermoedelijk liever niet over praten, want tja, dat gaat nvidia's imago niet ten goede komen. Want hij heeft natuurlijk het goede recht om zijn investeringsfouten om te buigen in woekerwinsten door woekerprijzen te vragen van zijn klanten - maar ja, als je't zo brengt hebben die klanten er misschien wel iets minder trek in. Dus dan maar beter dit fabeltje over die wafer costs.
Dat gezeur komt voort uit het gegeven dat de prijzen enorm zijn opgedreven in de afgelopen jaren. Het maakt niet uit welke kaart je koopt. Ze zijn allemaal een heel stuk duurder geworden. En dan roept men vaak marktwerking. Wat eveneens onzin is, want de prijzen zouden dan ook met minder vraag weer moeten dalen. Dat werken bedrijven echter actief tegen, want ze zijn aan die enorme marges gewend geraakt, en willen kosten, nog moeite, besparen om dat vast te houden. Dus stoppen ze de productie om de vraag weer op te drijven. Bedrijven manipuleren de marktwerking in hun voordeel ten koste van de consument. Die verder en verder uitgewrongen wordt, tot er niets meer te halen valt. Een compleet onhoudbare situatie.

[Reactie gewijzigd door Seth_Chaos op 22 juli 2024 20:39]

4070 (4080 12gb). Voor €1099 is echt extreem. Wil best wel €600 voor zo kaart betalen. Wat al aan de hoge kant is. Mijn 1070 was nieuw €500 toen hij net uit was.
Een 4060 is er niet... Als je midrange wil kopen moet je een generatie terug bij Nvidia.
Daar kan ik me helemaal in vinden. De prijzen zijn de afgelopen jaren flink opgedreven. Tot op een punt dat de gemiddelde consument dat niet zomaar even neer kan tellen. Tel daar de extreme inflatie bij, en het gegeven dat energie verbruik extreem duur is geworden. Dan ontstaat er een disconnect tussen deze bedrijven en de maatschappij. Deze producten sluiten niet langer aan bij de wensen van de klant. En dan is het volkomen logisch dat ze hun omzet cijfers kunnen bijstellen. Nvidia verkondigde met droge ogen dat het extreme energie verbruik en prijs van hun nieuwe kaarten het nieuwe normaal zijn. Wat reinste onzin is. De consument bepaald wat normaal en acceptabel is, niet Nvidia of enig ander bedrijf.

100 euro per maand moeten neertellen voor het energie-verbruik voor een paar uurtjes gamen is absurd. Reken de prijs van die kaart er in mee. En menig gamer zal zeggen dat Nvidia niet goed bij hun krentebol is.

[Reactie gewijzigd door Seth_Chaos op 22 juli 2024 20:39]

AMD moet nog ff een kostenefficiente versie van de 7000-series lanceren.
Modellen van 100-200 euro.
Of de oude 5000-series moet de nieuwe budget-lijn gaan worden.
Deze kan je combineren met het goedkopere DDR4 en met goedkopere moederborden.
Heb zelf de komst van de 7000 serie afgewacht en geconcludeerd dat het prijstechnisch niet interessant is: PCI-e 5.x is nutteloos, voor zowel GPU als SSD (ik bedoel: leuk dat je 10Gb/s in kunt laden, maar met 2xPCI-e 3.x kom je heel dichtbij voor een stuk minder geld, en GPUs: zelfs high-end is PCI-e 3.0 16x nog zat voor wat ik doe). Dan geheugen: leuk DDR5: maar het is duurder en, omdat ik graag veel geheugen heb (64Gb+) moet ik naar 4 dimms en dan is DDR5 ineens helemaal niet zo snel meer (zakt naar 3600 terug). Bij DDR4 is die stap procentueel kleiner en het is goedkoper. Dan de temperatuur: zag dat der8auer delidded 20 graden eraf kreeg. Kan wel zijn dat AMD geen probleem heeft met 95 graden core temp, maar als delidded er 20 graden afgaat en de klok omhoog gaat van de core, dan is je heatspreader dus gewoon te dik om effectief te zijn. Dus ik kon upgraden van een Zen2 met behoud van mijn CPU cooler, maar moet een duur mobo+duur geheugen kopen (en een dure CPU, maar dat is logisch) terwijl ik voor veel minder geld mijn x470 kan upgraden van een Zen2 naar een Zen3 (5950x) en het geheugen upgraden van 64 naar 128Gb. Ik ben best wel fan van wat AMD gedaan heeft met Ryzen, maar Zen4 is het niet.
Er is in elk geval 1 AM5 moederbord dat redelijk lijkt te werken met 4 DIMMs, de Gigabyte B650E AORUS Master.
ieder idd zijn usecase..

ik heb ook verschillende zen3000 - 5000 op 500 series mobo al en dus de upgrade is voor mij ook niet defacto nodig. Maar je moet ooit eens beginnen met een nieuw platform.

De heatspreader, mogeljks is de 3dcache versie dikker en hebben ze dus andere (dunnere) heatspreader nodig en ze wilden dezelfde defacto standaard houden als AM4.... er zullen binnen r&d genoeg besprekingen geweest zijn en redeneringen, AMD is niet dom.

trouwens minimale reductie in voltage en tdp settings geeft amper gevolg in globale perf en groot verschil in warmte. Helaas is AMD hier meegagaan in de shit Intel race van marginale beste benchmarks te willen leveren... want het gross kijkt daar enkel naar.

Ik werk nog steeds op een 3700x... probeer die perf/w maar eens te evenaren in algemeen dagelijks gebruik.
De meeste mensen hebben maar 1 PC, dus kunnen ze een product maar 1x verkopen voor x aantal jaar. Voor minder dan de prijs van alleen een x7950 CPU heb ik het duurste model Steam Deck. Niet twee producten die je goed met elkaar kan vergelijken, maar als je genoeg heb aan die Steam Deck tegenwoordig, waarom een veel prijziger PC kopen met een nog prijzigere CPU?
De meeste mensen in een huis hebben 1 pc per persoon, althans bij mij. En dan nog een van het werk. Bij ons staan 4 laptops en een desktop.
Ik zit zelf nog op een 7700k die ik wil gaan vervangen maar gezien de kosten van zowel de cpu plus de prijzige moederborden en verplichting tot duur ddr5 twijfel ik nog steeds.
dan kan je toch aardig goedkoop upgraden naar ddr4 3600 + 5900X?

goede sprong voor mooi prijsje nu
Ja inderdaad, waarom gelijk het nieuwste van de plank. Ik loop ook gewoon meestal ook wat generaties achter, leuk bij elkaar scharrelen voor leuke prijzen, scheelt veel kosten en sinds ik geswitcht bent naar AMD is het nog aantrekkelijker met sockets die lang ondersteund worden.
goede sprong? dat is een geintje neem ik aan? ik zou 16% toch geen nuttige upgrade noemen, vooral niet als je kijkt naar de investering die je daar voor doet.

https://cpu.userbenchmark...-Ryzen-9-5900X/3647vs4087

7700k op dit moment vervangen is in mijn ogen erg zonde, je kunt daar beter nog een generatie mee wachten.
Ja je moet ook geen userbenchmark nemen aangezien het gefocust is op gamen. Je moet naar het gehele plaatje kijken. de 5900x is 25% sneller in single core en octa core 73%. Je laat het lijken alsof de 5900x maar 2% sneller is :| .

Ben zelf van de i7 6700k overgestapt naar een 5600x en de prestatie vooruitgang is heel erg te merken. In games haal ik 30-40% meer en in productie met virtualisatie kan ik 4 meer machines aanmaken zonder problemen dat mijn hele systeem begint vast te lopen.
Mijn excuses ik wist niet dat userbenchmark zo onbetrouwbaar was.
Voor workstation loads kan ik me inderdaad voorstellen dat het veel scheelt.
Ik keek eigenlijk puur vanuit de gaming hoek.
userbenchmark staat gekend als zeer pro Intel, die site mag je echt niet gebruiken om Intel en AMD te vergelijken.
Userbenchmark is niet zozeer pro-Intel, maar anti-AMD. Hij trekt Nvidia net zo hard voor ten opzichte van AMD.

Het is een totaal onbetrouwbare site die slechts goed is in het hoog eindigen bij Google.
userbenchmark klopt ook eerlijk gezegd geen hout van :/

Ietwat betere vergelijking: https://www.cpubenchmark....-Ryzen-9-5900X/2874vs3870

(Blijft natuurlijk maar een "generic" benchmark, voor de echte verschillen moet je opzoek naar reviews die jouw usecase meegenomen hebben in hun benchmarks)
Voor gamers wetende dat 3d v cache begin volgend jaar komt is het sowieso niet verstandig nu al een upgrade te doen. Los van dure moederborden en ddr5
Er is altijd iets net voorbij de horizon waar je op 'MOET' wachten in pc onderdelen land.
Dan nog kan het flink verschillen hoeveel waar je voor je geld krijgt. Bij AM5 is dat momenteel erg laag.
Wellicht hangt de vraag naar CPU's iets samen met die naar GPU's. Mensen upgraden GPU's nu minder door de hoge prijzen dus zullen de complete upgrades ook vaker uitgesteld worden denk ik.
Volgens mij is het veel simpeler. Mensen hebben tijdens corona massaal alles geupgrade.

Onzekerdere economische tijden (iets met Rusland enzo) zorgen ervoor dat mensen wachten.

Dan heb je ook nog een hoge inflatie waardoor grote groepen even geen 2000 euro over hebben.
Dure instap + Intel om de hoek + 3D vcache in Januari, vind je het gek?
Is het zeker dat de 3D vcache in januari uitkomt?
januari aankondiging, maart launch... is de verwachting althans :P
Verwacht, het komt iig sowieso
Ja, de resultaten van de processoren stellen eigenlijk toch ook best wel teleur? Zeker als je niet het topmodel haalt is de performance winst marginaal. Mij motiveert het iig niet om te upgraden nog. En zoals andere ook zeggen de 3d v-cache versie is voor gamers weer het wachten waard.

Ze stellen ook wel weer erg teleur kwa single core performance, o.a voor mijn use case slaan ze weer de plank mis.
jep hier hetzelfde ik heb een 5800X maar flink snellere single core zou erg fijn zijn helaas valt dit erg tegen
Ja mensen en bedrijven hebben wel wat andere prioriteiten dan zorgen voor nieuwe hardware, op een enkeling nagelaten die daar ook echt hun boord mee moet verdienen en waar een nieuwe CPU echt veel waarde heeft. Al is een cpu niet zo heel snel een knelpunt en is de GPU vaak een veel betere investering.

Ik ben benieuwd of de huidige energiecrisis nog invloed gaat hebben op de komende cpu ontwerpen, waar efficientie toch een veel belangrijker aspect gaat zijn lijkt me. Als ik merk dat in de dagen dat ik thuiswerk mijn pc toch al snel 25% van mijn dagelijkse stroomverbruik is dan is hier wel zeker wat winst in te behalen. Helemaal met de belachelijke energieprijzen van dit moment.

Oh en laten we ook niet vergeten dat de cryptogekte ook veel minder is, met de huidige energieprijzen is minen veel minder aantrekkelijk en is er daardoor ook veel 2e hands spul op de markt gekomen. Wat voor veel mensen misschien veel aantrekkelijker is in de het huidige economisch klimaat, waarbij iedereen op de centjes moet letten.
25% van je dagelijkse verbruik? Hoe krijg je dat voor elkaar?
Ik kom, nagemeten, op +/- 1kWh per dag uit (4k 32inch scherm, pc + randzaken).
Op m'n 2e werkplek komt het zelfs maar op 740Wh per dag.

[Reactie gewijzigd door MichaelB74 op 22 juli 2024 20:39]

Vorige maand was inderdaad het verbruik gemiddeld 25% van het dagelijkse gebruik op werkdagen (weekenden niet meegrekend). Nu de temperaturen dalen en we ook weer meer binnen zitten, zal het wel wat minder zijn omdat het dagelijkse verbruik van electriciteit ook wel weer zal stijgen. Maar vorige maand gebruikten we gemiddeld 7,4kWh op werkdagen, waarvan gemiddeld 1,9kWh van de pc. Nu gebruik ik wel zware grafische programma's dus het gebruik zal wel een stuk hoger liggen dan een gemiddeld persoon.
Levensduur van moderne pc's is ook gewoon een stuk langer geworden, waar ik vroeger elke 2 jaar verving is dat onderhand opgelopen naar 5 jaar.

Mede door de gpu shortage welke geweest is vond ik een nieuwe cpu niet de moeite.

Onlangs wel van een 8600k gtx1080 naar een 12600k rtx3070 over gestapt, de prijs hiervan is behoorlijk gestegen dus snap goed waarom mensen het uitstellen.

Daarnaast kon ik met de 8600k en gtx1080 nog best wel aardig door.
Voor huis tuin en keuken stuff is 1x per 10 jaar ook al zat.

Op dit item kan niet meer gereageerd worden.