Een overschot aan introducties en een tekort aan producten?
We voorspelden dat 2022 het jaar zou worden dat hardware weer beter verkrijgbaar zou worden. Dat lijkt deels gelukt, maar wel tegen een prijs: letterlijk, want veel producten zijn linksom of rechtsom veel duurder geworden en gebleven. Videokaarten vormen daarop, gelukkig, na de enorm hoge prijzen, een beetje een uitzondering. Dat neemt niet weg dat de nieuwe generaties hardware nog altijd flink aan de prijs zijn. We hebben videokaarten van meer dan tweeduizend euro gezien, moederborden, zeker die voor nieuwe generaties, zijn enorm duur geworden en de mainstream lijkt een beetje een ondergeschoven kindje met de nieuwe generaties processors, videokaarten en moederborden. In de loop van het jaar is de beschikbaarheid echter wel verbeterd. Containerprijzen zijn eind dit jaar eindelijk gedaald, maar niet voor ze de prijzen en beschikbaarheid van vooral grotere producten als behuizingen opdreven of belemmerden.
2022 is ook het jaar van een sloot aan nieuwe introducties. Zo brachten zowel AMD als Intel een nieuwe generatie processors uit, waarbij eerstgenoemde zelfs een compleet nieuw platform, het AM5-platform, introduceerde. Intel kwam ook met nieuwe moederborden en dito chipsets, maar dan op basis van een bestaande socket. Beide platforms ondersteunen DDR5-geheugen, dat nog altijd aan de prijzige kant is vergeleken met DDR4, maar inmiddels beter verkrijgbaar is dan in 2021. Beide platforms ondersteunen ook PCIe Gen5-ssd's, maar de verkrijgbaarheid dáárvan liet in 2022 nog op zich wachten. Het komende jaar zou ook daarin verandering moeten brengen.
Ook op het gebied van videokaarten zagen we natuurlijk de nodige introducties, met weer de grote twee die nieuwe generaties uitbrachten. Nvidia borduurt voort op zijn monolithische, dure gpu's en kwam met de energieslurpende 4000-kaarten. AMD kwam ook met zijn nieuwe kaarten die iets bescheidener zijn wat energiegebruik betreft, maar ook het Nvidia-aanbod niet kunnen overtreffen. Wel innoveerde AMD met zijn chiplets in de gpu, vergelijkbaar met wat het eerder met zijn processors deed. En we noemden de grote twee, maar dit jaar is er een derde speler op de videokaartmarkt bijgekomen: Intel introduceerde zijn eerste losse videokaarten.
Op de volgende pagina's bekijken we een aantal productgroepen in wat meer detail. Tomas geeft een overzicht van wat er gebeurd is op het gebied van processors en Reinoud laat zijn licht schijnen op de markt van videokaarten. Ten slotte passeren ssd's de revue, waarbij Willem ingaat op het achterblijven van Gen5-ssd's. Op naar 2023, met nog meer hardware, lagere prijzen en nog betere beschikbaarheid.
Processors: een late start
Voor het grootste gedeelte was het in 2022 rustig in processorland. AMD en Intel introduceerden in het voorjaar allebei wat nieuwe budgetmodellen. In het begin hoopten we nog op het beschikbaar komen van nieuwe HEDT-processors, alleen die aankondigingen bleven uit en HEDT lijkt een stille dood te sterven, maar de geruchtenmolen weigert de hoop op te geven. AMD gaf AM4-bezitters nog een mooie laatste eer met het beschikbaar komen van de Ryzen 7 5800X3D, maar pas in het najaar kwam er echt vuurwerk.
Om te beginnen van AMD, dat met de Ryzen 7000-processors begon aan een compleet nieuw AM5-platform. Uitzonderlijk, want AM4 is maar liefst vijf jaar lang in gebruik geweest. Ook op andere vlakken waren de nieuwe Ryzens een grote stap, bijvoorbeeld de overstap naar een lga-socket, de nieuwe Zen 4-core, de integratie van een Radeon-igpu in alle processors en, helaas, het stroomverbruik. Zeker de snelle modellen gingen Intel achterna met flink verhoogde tdp's en ook de hoge werkingstemperaturen deden het imago van de chips geen goed. Hoewel de prijzen van de processors niet eens zo heel gek waren, zijn de AM5-moederborden peperduur, waardoor zeker de lager gepositioneerde modellen weinig aantrekkelijk bleven. AMD zag zich dan ook al snel genoodzaakt om prijsverlagingen door te voeren.
Even later kwam Intel met de dertiende generatie Core-processors. Ontegenzeggelijk was dat een kleinere stap dan die van AMD, maar de voorsprong die Intel had opgebouwd met Alder Lake wist het in ieder geval in games te behouden. In andere toepassingen spant het er vaak om. Het platform is wat minder futureproof, met bijvoorbeeld minder PCIe 5.0-lanes dan AM5, maar is mede door de mogelijkheid om DDR4-geheugen te blijven gebruiken prijstechnisch aantrekkelijker.
De nieuwste generaties processors van Intel (13th Gen Core) en AMD (Ryzen 7000)
Veel introducties in eerste helft 2023
2023 gaat ons in eerste instantie veel meer processors van de genoemde generaties bezorgen. Voor de desktop verwachten we al in januari alle niet-overklokbare varianten van Intels dertiende generatie én 65W-versies van bepaalde Ryzen 7000-modellen. Ook zal AMD de Ryzen 7000X3D-processors met 3D V-Cache aankondigen, maar op de verkrijgbaarheid daarvan moeten we naar alle waarschijnlijkheid nog tot wat later in het eerste kwartaal wachten. Intel topt zijn line-up intussen af met de extreem hoog geklokte Core i9 13900KS.
Al die nieuwe hardware komt uiteraard ook beschikbaar voor laptops. Zowel AMD als Intel zullen hun nieuwe generaties notebookchips aankondigen tijdens de CES-beurs begin januari. Bij de Ryzen 6000-serie zagen we dat de beschikbaarheid in de praktijk erg tegenviel. Dat lijkt AMD op te lossen op een niet al te consumentvriendelijke manier; in de nieuwe naamgeving van Ryzen-laptopprocessors kunnen processors met oudere architecturen een plekje in de Ryzen 7000-line-up krijgen. Daar zullen we vast nog genoeg over gaan schrijven, maar het kan straks dus voorkomen dat je fonkelnieuwe Ryzen 7000-laptop stiekem nog verouderde Zen 3- of zelfs Zen 2-cores bevat.
Meteor Lake en Zen 5 vermoedelijk niet vóór 2024
Compleet nieuwe generaties hoeven we in 2023 vermoedelijk niet te verwachten. Waar AMD in 2022 de grotere stap zette, stond in Intels planning voor 2023 een technisch enorm uitdagend product: Meteor Lake. Dat is niet alleen de eerste processor die gebruikmaakt van een Intel 4-procedé en twee vernieuwde architecturen voor zowel de P- als E-cores, maar ook de eerste mainstreamchip die bestaat uit verschillende tiles − AMD zou ze chiplets noemen. Op basis van een gelekte roadmap lijkt Meteor Lake te zijn uitgesteld tot 2024 ten faveure van een 'Raptor Lake Refresh'. Omdat de bestaande Z790-chipset daarbij wordt genoemd, lijkt dat om een relatief beperkte refresh te gaan, wellicht een beetje vergelijkbaar met Kaby Lake, de zevende generatie Core-cpu's.
Ook Zen 5 staat pas voor 2024 op de roadmap. Volgens AMD wordt deze core volledig opnieuw ontworpen, waardoor de ipc-verbetering een stuk substantiëler moet worden dan we bij Zen 4 zagen. Er zullen 3nm- en 4nm-productieprocessen worden ingezet voor deze processors, en we weten ook al dat er opnieuw varianten met 3D V-Cache en compacte Zen 5c-cores zullen verschijnen. Van Zen 4 is die compacte variant er ook al, maar vooralsnog wordt die uitsluitend in bepaalde server-cpu's ingezet, en worden de verschillende typen cores niet, zoals Intel doet, in één processor gecombineerd.
Videokaarten: prijsschommelingen en dure next-gen
Op het gebied van videokaarten begon 2022 met dezelfde verstoorde situatie als waar de markt in 2021 last van had. De vraag naar gpu's was hoog, het aanbod laag. Stijgende transportkosten deden hier nog een schepje bovenop met als resultaat dat de prijzen de pan uit rezen. Toch zou 2022 uiteindelijk ook het jaar worden van forse prijsdalingen, maar dat gebeurde uiteraard niet van de ene op de andere dag.
Relatief dure instappers
De Radeon RX 6500 XT trapte in januari het jaar 2022 af, met weinig indrukwekkende specificaties en features. In de praktijk bleken de prestaties door een te smalle geheugenbus zelfs nog meer tegen te vallen dan verwacht, vooral op oudere pc's met PCIe 3.0. Een week later kwam Nvidia's antwoord in de vorm van de GeForce RTX 3050. Los van de veel betere featureset lagen de prestaties 25 procent hoger, al gold dat helaas ook voor de adviesprijs. Afgezien van de hogere efficiëntie was het voor pc-gamers met een kleiner budget nog steeds zinniger om een tweedehands videokaart van een oudere generatie op de kop te tikken.
Nvidia's Ampere maximaal opgerekt, AMD's kleine refresh
Aan de andere kant van het prijsspectrum verscheen eind maart de GeForce RTX 3090 Ti. Vrij laat in de levenscyclus van de RTX 30-serie besloot Nvidia afscheid te nemen van de Ampere-architectuur in de vorm van dit grafische monster. Hoewel de RTX 3090 Ti op dezelfde GA102-chip als de RTX 3090 is gebaseerd, werden alle registers opengetrokken om meer prestaties uit deze gpu te persen. Die missie bleek geslaagd, maar ging ten koste van elke gram efficiëntie die je de RTX 3090 nog kon toerekenen.
In mei hergebruikte ook AMD zijn chips voor een refresh, waarbij naast de iets hogere kloksnelheden van de gpu ook sneller GDDR6-geheugen werd gebruikt. De fabrikant bracht drie modellen uit: de Radeon RX 6950 XT, RX 6750 XT en RX 6650 XT. Een nieuw prestatieniveau werd niet bereikt, wel gingen de licht hogere framerates gepaard met een hoger energiegebruik.
Nieuwe generatie: strijd laait op
Pas in oktober dit jaar was het dan eindelijk tijd voor een nieuwe generatie videokaarten. Nvidia gaf het startschot en kwam daarbij gelijk met zijn GeForce RTX 4090-vlaggenschip op basis van de Ada Lovelace-architectuur aanzetten. Consumenten waren dankzij de RTX 3090 Ti al enigszins voorbereid op een hoog energiegebruik en de RTX 4090 viel in vergelijking met die kaart positief op door een hogere efficiëntie. Van de nieuwe features waar Nvidia mee uitpakte, kreeg DLSS 3 de meeste aandacht. Op papier klonk het genereren van extra frames op basis van geavanceerde interpolatie goed. De fabrikant moest er flink aan trekken om de feature op tijd beschikbaar te krijgen in een aantal games voordat de reviews van de RTX 4090 online kwamen. En in de praktijk bleek DLSS 3 het voor de cijfertjes in benchmarks dan wel goed te doen, visueel ging er nog wel eens wat mis met deze gegenereerde frames.
De komst van Nvidia's RTX 40-serie ging ook gepaard met negatieve berichten rondom de 12Vhpwr-connector, die als opvolger van de PEG-connector werd gepresenteerd. Door een slechte verbinding kunnen connectors verbranden of smelten, waarbij Nvidia stelde dat slecht ingeplugde stekkers de oorzaak zijn.
Amper een maand later kwam Nvidia met zijn GeForce RTX 4080. Oorspronkelijk bedoeld als een tweetal met verschillende specificaties onder dezelfde naam, zag de fabrikant later toch af van het goedkopere 12GB-model. De wél uitgebrachte RTX 4080 met 16GB geheugen moest de RTX 4090 wat prestaties betreft ruim voor zich laten, maar eindigde comfortabel boven alles van de vorige generatie in de benchmarks. Ook kreeg de RTX 4080 ondersteuning voor dezelfde features mee als zijn grotere broer, en daarbij helaas ook een bijbehorend prijskaartje. Een flagshipvideokaart met een astronomische prijs is niet nieuw, maar dat het 'goedkopere' broertje daaronder bij deze generatie al 1500 euro kost, is toch even slikken.
Halverwege december bracht rivaal AMD zijn nieuwe Radeons uit. De RX 7900 XT en RX 7900 XTX op basis van de RDNA3-architectuur lieten de strijd van de volgende generatie videokaarten eindelijk losbarsten. Met prestatieclaims die voor verschillende interpretaties vatbaar waren, bleken de verwachtingen hooggespannen. De RX 7900 XTX kon zich bij de launch meten met de RTX 4080, maar Nvidia's vlaggenschip evenaren was een brug te ver. Hoewel AMD's RDNA3 de nodige verbeteringen met zich meebracht, ging er meer aandacht uit naar de vernieuwende opbouw van de gpu met chiplets. Net als bij de Ryzen-processors worden meerdere kleine chips gecombineerd. Dat zorgt voor lagere productiekosten, meer flexibiliteit in de samenstelling en vermindert beperkingen van de maximale chipoppervlakte.
Team rood, team groen en team ... blauw?
Uitgesmeerd over de tweede helft van het jaar zijn er ook videokaarten van een derde speler uitgekomen die poogt de duopolie van AMD en Nvidia te doorbreken. Intel ging deze buitengewoon zware taak aan met zijn Arc-serie, waarvan de Arc A380 de instapper en de Arc A770 het topmodel werd. De processorfabrikant mikte met deze generatie vanaf het begin al op midrange prestaties en heeft aangegeven gaandeweg de drivers hiervoor te zullen verbeteren. De jarenlange optimalisaties van de ervaren driverteams bij Nvidia en AMD waren zichtbaar in de eerste reviews van de Arc-videokaarten, waarbij de op papier langzamere GeForces en Radeons ruimschoots hun nieuwe blauwe concurrent voorbijschoten. Of Intel zijn drivers voor zowel nieuw uitgekomen games als de oudere spellen kan optimaliseren tot het niveau van de concurrentie, moet nog blijken, omdat de strijd tegenwoordig ook hard gevochten wordt op het gebied van driverfeatures. Intels aanwezigheid in deze markt an sich is echter al goed nieuws voor de consument als de concurrentie verder kan toenemen.
Wat gebeurt er in 2023?
Zo onstuimig als 2022 zal het jaar 2023 waarschijnlijk niet worden, nu de wereld uit de mininghype is en de energiecrisis op steeds meer plekken zijn sporen achterlaat. De introductie van Nvidia's RTX 40-serie en AMD RX 7000-serie hebben wat dat betreft een ongelukkige timing gehad, nu steeds meer gebruikers een hoge efficiëntie en vooral een laag verbruik als prioriteit stellen. Goedkopere, zuinigere en dus lager gepositioneerde kaarten is waar de markt momenteel om vraagt. Omdat deze bij de vorige generatie ook later werden geïntroduceerd, zullen AMD en Nvidia hier met hun opvolgers eveneens niet veel haast maken. De nieuwe productieprocedés zijn bovendien nog duur, waardoor goedkopere kaarten uitbrengen minder aantrekkelijk is omdat hun marges lager zijn ten opzichte van topmodellen.
De geannuleerde 12GB-versie van de RTX 4080 is omgedoopt tot de GeForce RTX 4070 Ti, en naar verwachting zal deze begin januari al worden uitgebracht. Of dit model de directe tegenhanger wordt van de RX 7900 XT, of dat AMD hier een nieuwe kaart tegenover moet zetten, blijft dus nog even afwachten.
Lager gepositioneerde modellen zoals bijvoorbeeld een RTX 4070, RTX 4060, RX 7800 XT, RX 7700 XT en RX 7600 XT zullen naar verwachting wel in 2023 worden uitgebracht. Wanneer dat exact gebeurt, blijft koffiedik kijken. Dat geldt ook voor het antwoord op de vraag of Intel in 2023 met meer nieuwe videokaarten komt. Hoe verder de voorraden van de RTX 30-serie- en RX 6000-serie-videokaarten afnemen en hoe lager de tarieven van TSMC's 4nm-proces, hoe waarschijnlijker het is dat het lagere segment van Nvidia's en AMD's portfolio een update krijgt.
2022: toch niet het jaar van de Gen5-ssd's
Niets is zo lastig als in een kristallen bol turen en de toekomst proberen te voorspellen, en weinig bezigheden kunnen je beschamender te kijken zetten dan een poging daartoe. Ter illustratie: in januari van dit jaar voorspelde ik (Willem) dat 2022 het jaar van de Gen5-ssd zou worden. Het AM5-platform van AMD en de Socket V, ofwel LGA1700, van Intel zouden platformen met PCIe Gen5-lanes leveren, waar ssd-fabrikanten gretig op in zouden spelen met ssd's die twee keer zo snel zouden zijn als de toenmalige generatie. Om een mooi Engels spreekwoord aan te halen: that aged like milk, want de platformen met Gen5-lanes voor ssd's lieten tot ver in het najaar op zich wachten en fabrikanten bleken veel happiger om Gen4-drives uit te brengen, soms in snellere revisies, dan zich aan de nieuwe generatie te wagen.
Zoals het nieuwe jaar tijd is om vooruit te kijken, is het eind van het jaar een tijd om terug te blikken. Want wat ging er mis met die golf aan nieuwe, snelle ssd's met bandbreedte om van te dromen? Waar zijn onze supersnelle ssd's?
Phisons Gen5-controller, de PS5026, is er al een jaar klaar voor.
Ten eerste bleek Alder Lake, Intels eerste generatie processors voor de LGA1700-socket, nauwelijks geschikt voor Gen5-ssd's. Van de 231 moederborden voor Alder Lake en Raptor Lake zijn er slechts 24 moederborden voorzien van M.2-slots met PCIe Gen5-ondersteuning. Acht daarvan zijn Z690-borden die in de tijd van Alter Lake, eind 2021, uitkwamen. Zestien zijn Z790-borden die met Raptor Lake verschenen. Met de komst van AMD's AM5-platform, eind september van dit jaar, kwamen er wat meer moederborden met Gen5-ondersteuning voor de M.2-slots. Daarvan tellen we er inmiddels zo'n 61 in de Pricewatch. Daarmee komt het totaal aantal moederborden met ondersteuning voor Gen5-ssd's op 85 stuks: nog geen vetpot, maar het gaat langzaam de goede kant op.
Dat is een kant van het verhaal dat het gebrek aan Gen5-ssd's verklaart. Een tweede reden is mogelijk dat fabrikanten het liever nog even op safe spelen en de kat uit de boom kijken. Een ssd maken is vanzelfsprekend niet gratis en dat geldt dubbel en dwars voor gloednieuwe producten. Uitzoeken hoe je de controllers en nand optimaliseert voor de hoge snelheden, oplossingen bedenken om de steeds grotere warmteontwikkeling het hoofd te bieden en een manier bedenken om de consument te overtuigen waarom ze veel duurdere ssd's moeten kopen, terwijl het praktijkeffect van die extra snelheid nog niet bewezen is, het kost allemaal meer geld dan je bestaande producten lekker veilig in de markt houden.
Dat laatste is dan ook wat fabrikanten goeddeels hebben gedaan. Met hier en daar wat upgrades van componenten zijn er nauwelijks nieuwe, snelle Gen4-drives uitgekomen, misschien met uitzondering van Samsungs 990 Pro-ssd's en in mindere mate de SN770 van WD. Natuurlijk zijn er veel meer ssd's uitgebracht in 2022, alles bij elkaar een stuk of achthonderd, maar snelle Gen4-drives?
WD heeft een snellere versie uitgebracht van zijn SN850 uit 2020, de SN850X. Die heeft een getweakte controller, sneller BiCs5-nand met meer laagjes en snellere cache. Ook Corsair voerde dat trucje uit, maar dan met de MP600 Pro (XT) en Micron-nand.
Een welkome keerzijde van dat relatieve gebrek aan nieuwe, high-end ssd's is de prijsontwikkeling. Met fabrikanten die voornamelijk de veilige, vertrouwde route volgden en ssd's uitbrachten of bleven bij technologie die al aardig uitontwikkeld is, konden de prijzen lekker omlaag. In een tijd dat we ons blauw betalen aan hardware die wegens allerlei redenen alsmaar duurder wordt, dalen de prijzen van ssd's juist. Niet van allemaal natuurlijk, maar het aantal aanbiedingen van ssd's dit jaar, en dan niet eens alleen tijdens Black Friday, is bijna niet bij te houden. Waar het niet zo lang geleden nog vrij opmerkelijk was een fatsoenlijke ssd van 1TB voor minder dan honderd euro te kopen, is dat nu een eitje. Sterker nog, we zagen niet zo lang geleden een ssd van 2TB voor 99,95 euro te koop staan. Dat was de NV2 van Kingston: niet bepaald een snelheidsmonster, maar wel voor een ongekend lage prijs te koop.
Nu maar zien hoe 2023 zich ontwikkelt wat prijzen van bestaande ssd's betreft: zet die trend van steeds goedkopere drives zich voort en worden straks ook de high-end Gen4-ssd's van nu voor minder dan tien cent per gigabyte verkocht? En de grote vraag is natuurlijk: komen die beloofde Gen5-ssd's er in 2023 dan wel aan? Om nog maar eens het risico van in de glazen bol turen te nemen: vast wel. Maar wat gaan ze dan kosten, en wat heb je aan die extra performance? Ga je dat merken in de praktijk? En: ga je ze kopen?
Nvidia borduurt voort op zijn monolithische, dure gpu's en kwam met de energieslurpende 4000-kaarten
Aparte opmerking, zo heb je dit review van tweakers zelf bijvoorbeeld: review: Radeon RX 7900 XT en XTX - AMD's RTX 4080-concurrent gaat de strijd aan
Waarin je ziet dat de performance per watt (aanzienlijk) hoger ligt dan de vorige generatie.
Ook ligt het totale verbruik vaak redelijk in de buurt van de vorige generatie. Het idee dat ze energie slurpend zouden zijn komt deels door de nieuwe 600watt stekker die bij standaard modellen lang niet helemaal benut wordt.
Juist de AMD variant viel naar mijn inzien tegen met een best hoog verbruik en lagere prestaties. Het energieverbruik is vaak hoger van de 6900 xt(x) dan de de 4080 (waar tegenover hij gepositioneerd is) en komt zelfs meer in de buurt van de 4090.
Oké je hebt dan ook weer overclock modellen maar ik ga nu even uit van tweakers eigen review.
Dat is heel simpele en daardoor gewoonweg foute interpretatie van de cijfers.
Jouw uitspraak "Ook ligt het totale verbruik vaak redelijk in de buurt van de vorige generatie" is lariekoek omdat je dan enkel kijkt naar de absurde, regelracht walgelijke 3090 Ti in de vorige generatie: die is inderdaad net voor de release van de 4000 serie uitgebracht met een enorm hoog verbruik dat in de buurt zit van de 4090.
De conclusie van reviewers was dan ook unaniem voor de 3090 Ti: koop deze stront niet, deze kaart hoort niet te bestaan. Het is dan ook een publiek geheim dat de 3090 Ti enkel en alleen is uitgebracht, vlak voor de 4000 launch, om klanten en partners te laten wennen dat nVidia gewoon straalkachels uitbrengt in het hoogste segment.
De 3090 Ti moet je dus echt negeren, want die kaart is met opzet onzuinig op de markt gebracht om de 40 serie mooier uit de benchmarks te doen komen, de enige vergelijking is dus 3090 vs 4090, en daar zien we gewoon dat nVidia het verbruik meer dan 20% heeft opgeschroefd.
AMD is in de vorige generatie ook al wat mee omhoog gegaan en is dus zeker medeplichtig aan de huidige explosie qua stroomverbruik, maar gelukkig minder hard dan het groene team.
[Reactie gewijzigd door kiang op 23 juli 2024 01:03]
Maar de 4090 is relatief aan de 3090 dan ook een heel stuk sneller dan de 7900xtx dat is relatief aan de 6900/6950xt.
Kijken we in de link van @SRI even naar de Fps/watt grafieken dan zie je dat de 4080/4090 ruimschoots aan kop gaan tov de 7900 xt(X), en dus het efficiëntere product lijkt te zijn deze generatie. Deze rol was binnen hetzelfde segment nog omgedraaid in de RTX3000 vs RX6000 vergelijking.
Dus nee, ik vind het een bijzondere conclusie om Nvidia zo weg te zetten alleen op basis van het maximum opgenomen vermogen zonder dit af te wegen tegen de prestaties die je krijgt.
Stel dat CPU A maximaal 120 watt verbruikt en 1 uur nodig heeft om een taak te voltooien en CPU B maximaal 80 watt verbruikt maar wel 2 uur nodig heeft. Dan is A wat mij betreft de zuinigere/efficiëntere, hetzelfde principe gaat hier wat mij betreft ook op.
Edit: En dan hebben we het nog niet eens over het feit dat de nieuwe AMD kaarten 85-100W verbruiken als je met een multi-monitor setup idle op de desktop werkt, waar Nvidia dit met 23-27W kan: https://tpucdn.com/review...s/power-multi-monitor.png.
Wellicht dat dit in de drivers nog deels opgelost kan worden maar ook de bestaande RX6000's doen het hier relatief slecht.
[Reactie gewijzigd door !mark op 23 juli 2024 01:03]
Beetje open deur dit: het zou nogal wat zijn als de performance/watt AFNAM in een nieuwe generatie... hoewel: dat heeft nVidia al eens gedaan met Fermi
Maar goed: performance/watt is een belangrijke maat, maar 2 dingen:
Ten eerste blijft er het feit dat moeder natuur of je energierekening niet beter wordt van een hogere FPS: dat je meer frames krijgt verandert niets aan het feit dat je, terwijl je dezelfde game speelt, met de 4090 VEEL meer stroom verstookt. Bijna dubbel zoveel als 5 jaar geleden de norm was voor een goede high-end kaart. Leuk dus, die 200 fps, maar 100 fps was misschien afdoende geweest zonder dat je er een heel gasveld voor moest opstoken. Je argument komt dus neer op dit plaatje.
Ten tweede koopt bijna niemand de 4090, en dus is die efficiëntie van de 4090 vooral iets theoretisch. Het is maar afwachten hoe efficient de 4070 en de 4060 zullen zijn. De 4080 voorspelt weinig goeds: normaal neemt de efficiëntie erg toe als je weg gaat van de ultra-high end, dat is bij de 4080 niet het geval omdat nVidia ervoor kiest kleinere (goedkopere) maar hoger geklokte (en dus minder efficiente) chips te gebruiken. Ter referentie: de huidige 4080 is de allerkleinste xx80 kaart ooit, en de 4070Ti die eraan komt is ook weer kleiner.
Als de performance/watt zo enorm goed is, wat was er dan mis met gewoon weer een top-end GPU met een TDP van 300 Watt uit te brengen? Waarom moet het verbruik in godsnaam zo hoog liggen? Off topic: zelfde geldt voor de Zen4 chips: die presteren prima in de 'eco-modus', why the fuck heeft AMD ze uitgebracht met een absurd hoge TDP van 175W?
Het is een blijft een absoluut walgelijke, absurde, en wereldvreemde evolutie dat nVidia besloten heeft dat 300Watt niet meer het glazen plafond is voor stroomverbruik van GPUs, in huidige tijden van absurde energieprijzen, klimaatopwarming, en maatschappelijke tendens net te vergroenen.
Edit: nog een toevoeging:
Stel dat CPU A maximaal 120 watt verbruikt en 1 uur nodig heeft om een taak te voltooien en CPU B maximaal 80 watt verbruikt maar wel 2 uur nodig heeft. Dan is A wat mij betreft de zuinigere/efficiëntere, hetzelfde principe gaat hier wat mij betreft ook op.
Dat is irrelevant voor gaming GPUs: als je FPS 10% lager is ga je niet 10% langer gamen.
[Reactie gewijzigd door kiang op 23 juli 2024 01:03]
Beetje open deur dit: het zou nogal wat zijn als de performance/watt AFNAM in een nieuwe generatie... hoewel: dat heeft nVidia al eens gedaan met Fermi
Klopt, maar een verbetering van 60-70% (uitgaande van de 3090 non Ti) is toch wel echt andere koek dan de ~30% die AMD laat zien van de RX6000 naar de 7000 series volgens de waardes van Tweakers en Techpowerup. Goed, Nvidia kwam natuurlijk van verder, maar heeft nu dus weldegelijk een achterstand in efficiëntie t.o.v. AMD omgebogen in een ~15% voorsprong.
Ten eerste blijft er het feit dat moeder natuur of je energierekening niet beter wordt van een hogere FPS: dat je meer frames krijgt verandert niets aan het feit dat je, terwijl je dezelfde game speelt, met de 4090 VEEL meer stroom verstookt. Bijna dubbel zoveel als 5 jaar geleden de norm was voor een goede high-end kaart. Leuk dus, die 200 fps, maar 100 fps was misschien afdoende geweest zonder dat je er een heel gasveld voor moest opstoken. Je argument komt dus neer op dit plaatje.
Ja en nee, de andere kant van het verhaal is dat als je de FPS capped op zeg de refreshrate van je beeldscherm het verbruik (Vsync, of een frame limiter in de driver) van een 4090 juist minderis, tenzij de 3090 natuurlijk niet krachtig genoeg is om in de buurt te komen van die refreshrate
Ik speel zelf wat oudere games (koop ze liever voor een paar tientjes compleet na een paar jaar dan 60-70 euro te betalen + nog alle DLC los; en heb daarom ook niet de allerbeste hardware nodig ) en ben bijvoorbeeld van een GTX1060 naar een RTX3060Ti gegaan. Het praktijk verbruik in dat soort spellen is met de 3060Ti zo rond de 80-90 Watt, waar de GTX1060 echt voluit moest gaan en 130-140 Watt nodig had voor dezelfde FPS. Dat terwijl het maximum verbruik van de 3060Ti een stuk hoger ligt.
Ten tweede koopt bijna niemand de 4090, en dus is die efficiëntie van de 4090 vooral iets theoretisch.
Fair punt, het is even afwachten wat de meer mainstream kaarten gaan doen.
Als de performance/watt zo enorm goed is, wat was er dan mis met gewoon weer een top-end GPU met een TDP van 300 Watt uit te brengen? Waarom moet het verbruik in godsnaam zo hoog liggen? Off topic: zelfde geldt voor de Zen4 chips: die presteren prima in de 'eco-modus', why the fuck heeft AMD ze uitgebracht met den absurd hoge TDP van 175W?
Het is een blijft een absoluut walgelijke, absurde, en wereldvreemde evolutie dat nVidia besloten heeft dat 300Watt niet meer het glazen plafond is voor stroomverbruik van GPUs, in huidige tijden van absurde energieprijzen, klimaatopwarming, en maatschappelijke tendens net te vergroenen.
Daar zijn we het zeker over eens hoor, wat mij betreft mag de EU zelfs ingrijpen en net zoals met stofzuigers een harde limiet van zeg 250W erop gooien.
Enige toevoeging die ik dus vooral heb is dat het zeker niet alleen Nvidia is, we zien dat helaas van zowel AMD, Nvidia en Intel, ze willen kosten wat kost de prestatiekroon in handen hebben en binnen een segment bovenaan eindigen in de benchmarks. Vergeet ook niet dat het juist AMD was die de 300W grens doorbrak in het consumentensegment met de HD7990 9 jaar later geleden* , en later opnieuw als eerste door de 400W grens ging met de R9 295X2, waarbij de laatste nog altijd recordhouder is met 500W TDP, met in de praktijk een continu verbruik van 650W onder vollast. Tuurlijk dat waren wel dual-GPU's, maar voor de consument was het wel gewoon één kaart/product.
*Dit moet naar wat beter onderzoek de GTX590 zijn, de eerste boven de 400W blijft wel voor AMD.
[Reactie gewijzigd door !mark op 23 juli 2024 01:03]
Dat is echter enkel van toepassing op individuen: als jij je zorgen maakt om stroomverbruik kan je daar wat aan doen. Als we het hebben over de gpus zelf, dan moet je wel gewoon kijken naar wat ze out of the box onder volle belasting (ultra 4k) doen, en dat oordeel is voor deze generatie (vooral dan de 4090) echt snoeihard: het stroomverbruik is absurd en nvidia moet zich schamen.
"als je gaat tweaken en performance inlevert is de gpu wel efficiënt!"
Dat is een onzinargument want dat doen 99% van de gebruikers natuurlijk niet. Een product moet je reviewen zoals het uit de doos komt, en uit de doos is de 3090ti walgelijk inefficiënt.
Om dezelfde reden zijn de reviews van zen 4 volledig fair: ja, eco modus maakt ze echt heel veel efficiënter, maar dat is niet hoe ze geleverd worden dus daar moet je een review niet op baseren.
In de gelinkte review heeft ook AMD een veel betere efficiëntie dan de vorige generatie (ten opzichte van zowel Nvidia als AMD), dus tegenvallen vind ik absoluut niet. Het is een flinke stap voor de nieuwe generatie.
Maar het klopt wel dat de 4080 en 4090 nóg efficiënter zijn. Beide fabrikanten willen echter de prestatiekroon pakken en persen het maximale uit de kaart ten koste van een flink hoger energieverbruik. Dat is waar de opmerking over gaat. De laatste paar procent prestaties kosten onevenredig veel meer procent energie.
Underclock of verlaag de power limit van een 4090 of een 7900XTX eens met 25% en je zult amper 5% prestatie verliezen. (Even uit de losse pols, heb dit soort testen gezien maar weet de exacte getallen niet meer.)
Ik zou graag de opvolger willen zien van de 5700G, een APU met minstens 8 tot 12 RDNA compute units ipv de huidige 2 in de 7000 series en dat gecombineerd met snel DDR5 geheugen. Waarschijnlijk gaat het de 7700G heten en hopelijk ook 65 Watt TDP of ietsje hoger maar minder dan de 105 Watt van de 7700x. Super zuinig 1080p/1440p gamen met minstens 60 fps met minimaal stroomverbruik. Zeker met de huidige energieprijzen die niet snel zullen dalen wel interessant om energiezuinig te kunnen gamen met een acceptabel aantal fps.
Ik ook, ik was van plan een minipc met de 5700g te bouwen maar ik twijfel toch behoorlijk omdat ik een nieuwe generatie verwacht, en AM4 op het einde van de levensduur zit.
Erg jammer dat ze hier nog niks over hebben laten weten.
Ik hoop dat AMD bij de 7700G (als die APU zo zou heten) de hoeveelheid L3-cache niet gaat beperken tot slechts 16 MB maar gewoon op 32 MB: dit ook om als extra video cache te dienen om de grafische instructies sneller af te handelen in combinatie met het snellere DDR5 geheugen. Waarschijnlijk zou deze dan wel geen PCI 5.0 hebben, maar blijven steken op PCI 4.0, maar dat is al een flinke verbetering op de PCI 3.0 bij de 5700G.
de plaats is beperkt op de die, dus kans is reëel dat meer CU's én L3-cache niet zal passen of teveel design changes zouden omvatten om zo'n chip te maken tov wat ze al hebben
Zou het niet zijn met de kleinere die size dat er misschien toch alles erop gepropt kan worden met de 7000 series chiplets ? In principe is alles modulair in zo'n Ryzen processor, waarbij alles gelinkt wordt met de infinity cache unit.
De vega 8 core in de 5700g is al behoorlijk snel en is bijna net zo snel als een gtx 750 en bij medium quality haal je bij veel games al gemakkelijk 60 fps bij 1080p met ddr4 3600. Het is echt een zeer goede integrated graphics chip, die echt vele malen sneller is dan een Geforce 730GT, die vaak wordt gekocht om een Ryzen zonder graphics toch van beeld te kunnen voorzien, maar die toch gemakkelijk tegen de 100 euro kost voor wat basic graphics en je hiermee niet mee kunt gamen tenzij met horten en stoten van de bewegende beeldjes over je beeldscherm, terwijl met de 5700G je toch behoorlijk kunt gamen met 60 fps op 1080p met low/medium quality settings. Dit moet je niet proberen met een instap 730GT grafische kaart. Tel je die bovenop een zegge 5700X (zonder iGPU) en ook nog eens het stroomverbruik (5700x + 730GT) dan is de 5700G niet alleen stukken sneller qua 3D graphics maar ook nog eens een stuk zuiniger aangezien je bij een losse videokaart hierbij het verbruik ook nog moet optellen bij de low power 5700X.
Indien je een 7700G zou hebben met zegge 12 RDNA3 compute units en ook nog eens 32 MB L-3 cache en snel DDR5-7200 CL34 geheugen dan moet je de snelheid moeten benaderen van een Geforce GTX 1060, wat een zeer goede prestatie is en voor de niet veel eisende gamers meer dan genoeg is zonder je blauw te betalen een dedicated grafische kaart en nog belangrijker tegenwoordig: een stuk minder stroomverbruik.
[Reactie gewijzigd door pharmacist op 23 juli 2024 01:03]
Vraag me af of je het echt gaat merken dat het allemaal sneller is. Voor gewoon werk waarschijnlijk helemaal niet.
Op mijn werk heb ik een oude i5 4570, 32GB ddr3 en een oude ssd, maar heb eigenlijk nooit het idee dat dat het allemaal sneller moet. Misschien als je render software of andere zware software gaat gebruiken.
Mijn game pc met 3080 doet het meer dan prima voor mijn games, en bij gebrek aan nieuwe games die ik leuk vind ga ik de komende tijd ook zeker niet upgraden
Je weet pas dat het traag is als je eenmaal op sneller hardware zit. En dat is altijd merkbaar.
Net als dat we voorheen massaal gingen gamen op 60hz en het niet meer uit te staan is als je 144hz hebt meegemaakt.
Dit is waarom het argument dat de 40x0 serie van NVidia efficiënter is dan de vorige generatie dus onzin. Stel dat de 4090 25% efficiënter is, maar het mogelijk maakt om op 144Hz te spelen, dan is dat dus met een hogere inzet van x2,4. Reken daar 25% betere efficiëntie vanaf en je eindigt met een hoger verbruik van x1,8 om van 60Hz naar 144Hz te gaan.
Het is niet dat mensen die zo'n kaart kopen, dat doen om hetzelfde beeld te genereren als voorheen; zo'n kaart koop je juist om béter beeld te genereren. En dus te eindigen met een hoger stroomverbruik, ook al is ie beeld-voor-beeld efficiënter dan de vorige generatie...
Dat is niet echt een eerlijke vergelijking... Idd is 144Hz wel te merken tov 60Hz, maar bijvoorbeeld een 7000MB/sec SSD merk je niet over een 3000MB/sec SSD. Eerlijk gezegd merk je zelfs het verschil amper met überhaupt welke SSD, zelfs een SATA SSD. En dan heb ik het over merken in dagelijks gebruik, niet over cijfers van een benchmark.
Het klinkt lekker snel, en het staat leuk in benchmarks, maar als je kijkt naar dagelijks gebruik, dan nee, dan merk je dat niet tot amper. De groep die het wel, maar ook beperkt, merkt zijn de gamers. Laadtijden van spellen, die soms wel 200GB groot zijn, worden verkort. Je krijgt er een paar % aan fps bij. Enz.
Maar ook daarbij zijn de verschillen vaak alleen te meten, maar niet echt te merken. Het is vaak alleen het idee van het hebben van het nieuwste van het nieuwste, en het snelste van het snelste. Maar ECHT merken, mwah.
Ja ok, als je oude systeem een Ryzen 1700 was en je gaat naar een 7000 serie toe ofzo, dan wel.
[Reactie gewijzigd door mvds op 23 juli 2024 01:03]
Maar het is niet traag voor mijn toepassingen.
De pc start in no time op. Elke programma start binnen 3-5 seconden en blijft dan meestal de hele werkdag aanstaan.
Het is niet meer zoals vroeger met je p3 dat je een pc aanzette, dan even koffie kon halen en tien minuten later je pc klaar was met opstarten bijvoorbeeld.
En ja ik heb daarnaast thuis wel een snelle game pc, maar voor gewoon kantoor werk merk je echt geen verschil
Je kan dat pas zeggen als je het vergeleken hebt. Als je eenmaal gewerkt hebt op een snellere PC dan zal je oude PC significant trager aanvoelen.
Zoals je zegt, vroeger kon je een kop koffie zetten bij het opstarten terwijl men toen ook zei dat het hartstikke snel was.
Ik word al ongeduldig als het langer dan 10 seconden duurt
Mijn RTX 2070 voelde ook prima aan. Totdat ik mijn 4090 had.
Onzin, ik heb hier 2 pc's. De ene werk ik op en is zeer high end. De 2e zit een 4650G in met 32gb geheugen en 2 nvme schijfjes. Alles werkt daar net zo snel als op mijn main pc. Behalve dan als ik zwaardere taken ga doen. Maar meestal is het toch browsen, wat coding etc. En opstarten doet die 2e pc ook sneller. Waarschijnlijk omdat er geen 'extra's' aanhangen.
Dat zijn geen 9 generaties verschil, je had het over een snelle en een langzamere pc. Die 4650G is beduidend langzamer maar dat merkt je niet met niet intensieve taken als browsen, tekst, coding etc.
Gisteren kwam ik er toevallig achter dat AMD stilletjes nog een extra kaart op de markt heeft gebracht, de RX 6700 (non-XT).
In de Pricewatch amper meer te vinden, ...
Fixed ^_^
Vóór November was de 6700 (non XT) een tijdje voor rond de €360 verkrijgbaar; zeker in die tijd was dat, nauwelijks veel hoger dan de prijs van een rx6600xt, bijzonder aantrekkelijk.
[Reactie gewijzigd door Verwijderd op 23 juli 2024 01:03]
Eveneens met de 3060 Ti met GDDR6X, die sinds november verkrijgbaar is, maar bijna geen review over te vinden is. De kaart kan zich meten met de duurdere 3070 door het snellere geheugen.
Mooi al wat 2022 en de verwachtingen voor 2023. Enige upgrade wat ik van plan ben is mijn videokaart. Mijn computer met een Ryzen 7 5800X voldoet de komende jaren nog goed is mijn verwachting.
De opmerking dat de lagere segmenten van AMD veel duurder gaan worden door een duurder productieprocedé gaat niet op, omdat de Navi 33 chip geproduceerd gaat worden op TSMC N6, wat voordeliger is dan de N7 van Navi 23.
Verder is de redactie te aardig voor AMD door op te merken dat hun prestatievoorspelling van de 7900 XTX voor meerdere uitleg vatbaar is. Ze hebben gewoon gelogen over de prestatietoename en trouwens ook over de efficiëntietoename.
Ssd's zijn leuk en aardig. Maar ik verwacht dat niemand het verschil zal merken tussen pci4 en pci5 ssd's.
Het is wachten op games in DirectStorage compressie. Dat wordt een revolutie. De eerste wordt Forspoken, dat 24 januari uit komt.
Het is een rampjaar als je wil upgraden.
Ik dacht dat het een simpele zaak zou zijn. Ik wenste een 34 inch gaming monitor te kopen dit najaar.
Op zich geen probleem en omdat ik geen 4k monitor wil dus ze zijn best betaalbaar. Beetje zoeken voor een goede maar best ok en ze zijn in stock.
Maar dan begint de .... Mijn PC is 4 jaar oud en ik heb een gtx1070. Ik lees dat je voor een 34 inch best een betere kaart neemt vooral als je de nieuwere games wil spelen met +60 fps.
Dus op zoek naar een kaart en dat is natuurlijk een ander paar mouwen.
Ik vond deze site https://www.techpowerup.com/gpu-specs/geforce-gtx-1070.c2840
Als ik dan toch een nieuwe kaart nodig heb moet die 2x maal zo snel zijn anders is het waste money. Dus vanaf RX6800 en die is natuurlijk niet te vinden. Anyway ik ga ervan uit dat de kaart +/- 700 Euro zal zijn of ik nu ga voor de rx6800 of hoger.
Maar zelfs dan is het probleem bijlange niet opgelost. Ik lees dat deze kaarten een voeding van 850 Watt nodig hebben en ik heb momenteel een 500 Watt. voeding. Ik weet ook niet of zo een nieuwe voeding wel in mijn kast past en of ik dan een nieuw Motherboard/processor/koeling etc etc nodig heb..En dan wordt het weer zoeken wat past bij wat en wat is beste keuze en of het wel in stock is en wat kost/verbruikt het als je zelf je PC bouwt. Enfin de typische tweaker stuff.
En als je een gaming PC koopt zit je al snel +2500 Euro. Pure rip off.
Ik kijk nu ook voor het eerst in mijn leven wat een PC verbruikt en dat is wel slikken als ik vergelijk wat mijn PC nu verbruikt als ik game (momenteel 250 Watt),
In het kort: een nieuwe PC nodig voor een 34 monitor en dat in deze dure tijden. NO thanks. En als ik zo lees wordt 2023 niet veel beter. Duimen dat er geen goede games uitkomen
Thx reacties,
Voeding zou ik in ieder geval nieuw kopen, ik neem geen risico voor iets dat minder dan 100 kost.
Maar voorlopig koop ik geen nieuwe kaart/voeding. Ik wacht tot mijn PC de nieuwe games niet meer aankan of de prijzen moeten instorten. En dan heb ik deze CPU - Intel(R) Core(TM) i7-8700 CPU @ 3.20GHz 3.20 GHz en als ik het goed gelezen heb is deze ook nog wel even goed.
Alleen spijtig voor de monitor. Maar wat ik wel geleerd heb is dat een onderdeel vervangen helemaal niet meer vanzelfsprekend is dezer dagen.
Voorspellen blijft lastig, vooral als het over de toekomst gaat.
Persoonlijk denk ik dat er in 2023 veel ARM Laptop SoC's gaan worden aangekondigd en dat daar het meeste van in 2024 op de markt gaat komen. Doorbreken naar een serieus marktaandeel op Windows en ChromeOS gaat nog een paar jaar duren.
Apple gaat in 2023 SoC's op 3nm node uitbrengen.