G.Skill komt in april met DDR5-8000-geheugenset van 48GB

G.Skill introduceert een nieuwe Trident Z5-geheugenset. Deze DDR5-kit krijgt een totale capaciteit van 48GB en haalt snelheden tot 8000 megatransfers per seconde. De geheugenset komt volgende maand uit; G.Skill deelt nog geen adviesprijs.

Volgens G.Skill bestaat de nieuwe Trident Z5 RGB-set uit twee dimms van ieder 24GB. De set haalt de snelheden van 8000MT/s met cl-latency's van 38-48-48-127, claimt de fabrikant. Het geheugen ondersteunt Intel XMP 3.0-overklokprofielen om de beloofde specificaties te halen. Tijdens een test in combinatie met een Intel Core i9-13900K-cpu haalde de dimms lees- en schrijfsnelheden van rond de 120GB/s, claimt de fabrikant. De dimms zijn wat uiterlijk betreft verder identiek aan de Trident Z5 RGB-DDR5-modules die al langer beschikbaar zijn.

G.Skill zegt dat de DDR5-8000-set in april wereldwijd beschikbaar komt voor consumenten. Het bedrijf deelt echter geen adviesprijzen. Het bedrijf toonde eerder al DDR5-8000-sets van 32GB. Daarvan staan momenteel geen prijzen in de Pricewatch, maar deze sets waren eerder dit jaar beschikbaar tegen prijzen van rond de 600 euro. Verschillende andere fabrikanten introduceerden onlangs ook al geheugensets met 24GB- en 48GB-geheugenmodules, waaronder Corsair en Micron, hoewel die sets lager geklokt waren.

G.Skill Trident Z5 RGB DDR5-8000 48GBG.Skill Trident Z5 RGB DDR5-8000 48GB

Door Daan van Monsjou

Nieuwsredacteur

10-03-2023 • 17:31

46

Lees meer

Reacties (46)

46
44
23
1
0
17
Wijzig sortering
Het is toch eigenlijk te gek voor woorden als je even een stapje terug doet naar de late 90s en je denkt er even over na als je toen hoorde dat je gewoon even rustig 96 GB aan 8000MT/s RAM in je pc kon proppen, voor zeer waarschijnlijk prijzen waardoor je het destijds al helemaal niet ging geloven?

Zat je dan met je Pentium II, met tussen de 16 en 64MB RAM op 66 of desnoods zelfs 100MT/s, te bewonderen wat een absolute powerhouse dat ding was en hoe je waarschijnlijk niet kon inbeelden hoeveel meer je nog nodig ging hebben.

Nostalgie.

En nog steeds werkte win98 SE voor mijn gevoel beter en vooral sneller dan Windows 11.

Zouden we ooit een plateau bereiken waar onze at home computing gewoon snel genoeg is voor de komende 20-30 jaar? Welk onderdeel zou dit plateau dan als eerste bereiken? RAM? CPU? GPU (X to doubt)?

Ik probeer me op dit moment vooral in te beelden waar je thuis 48GB of vooral 96GB RAMvoor nodig zou hebben als een gemiddelde gebruiker. Er zijn vanzelfsprekend edge cases, maar ik ben persoonlijk al redelijk blown away dat ik nu gewoon casually op 32GB RAM zit voor minder dan 100 euro, alsof het niets is... De nieuwste games (of iig de engines) komen al aardig in de buurt van "realistic graphics" en breken volgens mij nog niet eens de 16GB.

Hoe dan ook leuk natuurlijk en we gaan het vast ooit wel nodig hebben, maar ik kan me nu zo even niet inbeelden hoeveel verder we hier nog in gaan. En zou het op een gegeven moment niet gewoon worden overgenomen door mainframes/clouds, waar al onze zaken eigenlijk alleen nog maar streamende clients zijn?
Nostalgie is een AMD-386DX40 kopen in 1992, maar met geen mogelijkheid 4 MB kunnen betalen, omdat de prijzen huizenhoog zijn. En je hebt 4 SIPPs nodig, dus dan wordt het 4x 256kb = 1 MB.

Kuch, kuch, Opa vertelt.

[Reactie gewijzigd door secoh op 22 juli 2024 18:43]

En dan te weten dat ik in de jaren 90 m'n 486 DX2-66mhz zelfs uitbreidde van 4x1mb geheugen naar 4x4mb geheugen. Dat geintje kostte 1600 gulden.
Ja, precies. 400 gulden per 4MB SIPP/SIMM.
Dat is tamelijk precies 400 euro nu.
Ik probeer me op dit moment vooral in te beelden waar je thuis 48GB of vooral 96GB RAMvoor nodig zou hebben als een gemiddelde gebruiker.
Je hebt het nodig omdat alle software matig geoptimaliseerd wordt deze tijden (en het is zeker te begrijpen. Alles moet zsm op de markt komen en de functionaliteit wordt alleen maar complexer). Nog geen aantal jaren geleden was 8GB ram genoeg. Nu heb ik een goede workstation laptop met 16GB ram, en op idle wordt al 40-60% gebruikt, en er zit niet eens veel spul op. Ik zie dus zeker wel in dat je zoveel ram nodig zult hebben. Over een aantal jaren zal 1 tabblad in Chrome/Firefox 1GB nodig hebben.

[Reactie gewijzigd door FPSUsername op 22 juli 2024 18:43]

Nouja, ik weet niet 100% zeker of dit een eerlijke meting is eigenlijk.

Die "8gb norm" was er al met windows 7. Dat is intussen 15 jaar geleden. We liepen er met Winxp al tegenaan dat (met het toen nog erg populaire 32-bits) er een 4GB limit aan zat.

Daarnaast heb je het over 40-60% Ram gebruik, maar dit zegt eigenlijk niet zoveel. Je weet pas hoe goed het draait wanneer je het ook echt op die volle 100% smijt.

Feit is dat, wanneer je meer dan genoeg RAM over hebt, je RAM reserved gaat worden door allerlei programma's. Vooral sinds Win8 heeft Microsoft er een heel systeem in zitten die zaken in je RAM houdt zodat het sneller kan herstellen.

Dit krijgt pas een garbage removal wanneer je ook daadwerkelijk RAM tekort dreigt te gaan hebben.
Met de browsers is het ook aardig soortgelijk. Die doen vaak pas garbage removals wanneer het nodig is. Tevens zitten er ook nog allerlei 'slimme' technieken in om dit te managen.

Kortom; Bij overvloed, wordt er aanzienlijk meer verbruikt. Ik zit nu zelf op 5.7GB van de 32 bezet, maar mijn onderbuurman met maar 8gb met soortgelijk gebruik, zit op 4.2GB van de 8 bezet.

Als we samen gaan gamen en ik zit op 12GB gebruik, zit hij op 7.5GB ofzo en het draait eigenlijk aardig soortgelijk. Al dat gereserveerde RAM wordt dan gewoon geleegd (of naar je swap file geschreven).

Althans, volgens mij werkt het een beetje zo. Ik heb me er al heel lang niet in verdiept, dus neem mijn woord er niet voor.
Je weet pas hoe goed het draait wanneer je het ook echt op die volle 100% smijt.
Helaas gaat dat niet met windows (11 alweer). Zodra 80% gebruikt wordt beginnen programma's te crashen (vooral chrome). Heb dit niet meegemaakt op Linux.
ook al stop je er 100gb aan ram in, je geheugen zal ook voor een groot in gebruik zijn.
punt is dat het OS geheugen reserveringen doet en het daardoor lijk dat het geheugen al in gebruik is.
alles om het opstarten van programmas sneller te laten verlopen.
en ja daar overdrijft het systeem mee als je veel geheugen er in hebt gepropt.

maar alles is beter dan gebruik te moeten maken van een swap file.

open photoshop maar eens en ga eens 10 RAW foto's van een High Res camera openen en bewerken tegelijkertijd.
dan weet je waarom je geheugen nodig hebt.
Even een vraagje;

Heeft Photoshop tegenwoordig niet meer die ingebouwde RAM limit?

Ik weet nog dat ik dit vroeger altijd omhoog moest schuiven omdat deze standaard op 512MB of 1GB stond ofzo. Weet ook nog dat de limit toen 2 of 4GB was terwijl ik 8 had. Kon het gewoon niet hoger zetten.

Ik bewerkte ook RAW images maar moet bekennen dat ik nooit RAM problemen heb gehad sinds ik een 8GB systeem had. Nog wel toen ik nog maar 2 of 4 had... To be fair ohad ik er denk ik geen 10 tegelijk open.
Pentium II, 64MB op 66MT/s met Win98SE heb ik lang gebruikt maar... XP was een grote sprong op gebied van gemak. Voelde met de hw van toen niet trager. Win7 nog meer gemak. Voelde niet trager dan XP. Dan Win7 met SSD, gigantische sprong voorwaarts in snelheid. Win10 geen trager gevoel. Win11 eerst via update geïnstalleerd, veel bugs maar voelde niet trager. Win11 fresh install, voelt even snel en geen bugs.

Ik denk dat je vergat dat een goed gebruikte Win98SE draaiend op eerstgenoemde specs pas opgestart was na het zetten van een tas koffie. Dat kon zelfs bij het starten van sommige apps voorkomen. Eens je je swap file hit met een hdd van 4GB en bijbehorende prestaties is het helemaal klaar.

Ik denk dat nostalgie je doet kijken met een roze bril.

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 18:43]

Er is uiteraard een roze bril aanwezig, maar ben het niet volledig met je eens.

Wat je zegt klopt vast wel voor de gemiddelde gebruiker, maar ik kwam uit een ICT gezin en wist al aardig wat ik deed. Er waren veel simpele trucs om Win98SE snel te houden.

Ben het wel met je eens over Windows XP, hoewel de vertraging op een Pentium II wel te merken was, hoor. Vooral na wat service packs.

Windows 7 was zeer zeker een enorme vertraging. Dit is enkel overschaduwd door de flop die Windows Vista was. Het was Windows Vista welke amper draaide op de PC's waar het mee geleverd werd. Windows 7 is gewoon een revamped Vista, zoals 10 dat was van Win8.

Tegen de tijd dat Win7 uit kwam waren we alweer een goede 2 jaar verder dan Vista. Je ging Win7 zeer zeker niet smooth runnen op een Pentium II. Dat maakt het dus wel degelijk trager.

Over Windows 10 heb ik eerlijk gezegd weinig klachten, behalve dat ze heel veel zaken verstopt hadden achter véél meer clicks dan nodig was (vooral instellingen) en dat het een soort hybride was tussen metro style en nog steeds zaken uit win98.

Windows 11 is één groot drama voor mij. Van falende updates waardoor ik in infinite update loops kom (bij een clean install nota bene) tot het verlies van basics zoals je taskbar niet meer kunnen verplaatsen (wat super ruk is met multi-screen), de zoekfunctie is pijnlijk, pijnlijk traag. Waar ik met win10 gewoon altijd een deel van een woord typte en meteen op enter ramde om een programma te openen, is dit in Win11 wachten... wachten.... wachten.... Meer typen want "Discord" vindt hij niet als je op "Disc" zoekt... Wachten... wachten.... Enter. OH, nu opent hij een Bing search!

Betreft snelheid vind ik het moeilijk te vergelijken omdat ik nu op een m.2 Samsung Pro SSD draai. Ik draai al op een SSD sinds win7 en dan wordt het allemaal wat minder opvallend. Vooral met 16GB Ram en een 4970K.

Desondanks, kun je zeer zeker niet stellen dat win8/10 niet trager was dan Win7.
Of vergeten we hier even dat deze 2 tot een vrijwel complete stilstand komen met non-stop 100% disk usage op goede oude HDD's?

Ik heb honderden HDDs vervangen voor SSDs in mensen hun pc's en laptops omdat hun windows 8 of 10 gewoon onbruikbaar werd. Bij de één duurde dit 2 weken en bij de ander 2 jaar, maar het gebeurde vroeger of later.
Ik had ook ongelooflijk last van de veel te trage taskbar search op windows 11.
Het vergalde de volledige werking van het OS.

Een google search later kwam ik op
https://www.guidingtech.c...start-menu-in-windows-11/

Het is spijtig dat je zulke basis settings niet gewoon aangereikt krijgt, maar ik kan je wel bevsetigen dat de beleving er door deze kleine hacks ongelooflijk op voorruit gaat.
Mijn dank is gigantisch.
Kun je 66mhz SDR wel vergelijken met 66MT/s DDR?
Er zijn tegenwoordig al games die over de 16GB gaan, zoals Microsoft flight simulator.

Of we ooit computers krijgen die snel genoeg zijn voor de komende 20-30 jaar ligt denk ik meer aan de software kant dan aan de hardware kant.
Ik heb 64GB in mijn laptop en zie met het spelen van anno 1800 (alle DLCs) en een spel dat al lang loopt dat ik tot 28 GB geheugen gebruik kom. Ook city skylines kan flink wat gebruiken als je flink door bouwt.
Ik denk dat die voorspelling wel mee valt en misschien best geloofwaardig zou zijn geweest voor de mensen met kennis. (Wat in die tijd wel minder waren dan vandaag de dag)

Als je na gaat dat thuiscomputers überhaupt pas in opkomst kwamen, en 2 decennia daarvoor computers de grote hadden een gebouw. Waarin specificaties zaten die slechts een paar kb aan ram hadden.
Wat dat betreft is de groei eigenlijk niet heel veel veranderd.

Elke jaar zien we xx procent groei in transistors en daarmee snelheid of capaciteit.
Dat het totale aantal steeds hoger wordt, heeft gewoon met de groei in procenten te maken.

De wet van moore komt uit 1965, er vanuitgaande dat de snelheid van een systeem elk jaar zou verdubbelen.
(Lees hierbij brute ruwe rekenkracht, niet de snelheid in een benchmark)
Deze voorspelling doorzettend zou het dus nog best te verwachten zijn geweest. (We lopen zelfs een beetje achter)
Als ik in Adobe Premiere Pro op Windows 11 wat 4K videomateriaal render, gebruikt mijn systeem 40+ van de beschikbare 64 GB aan RAM. Dit is voor verreweg de meeste gebruikers natuurlijk geen typische use case, maar het maakt wel duidelijk dat er nu al gebruiksscenario’s voor consumenten zijn waarin meer dan 32 GB daadwerkelijk wordt benut.
LOL, ik ga al iets langer mee.

Ik kocht mijn eerste RAM van m'n zakgeld toen ik vijftien was, 4 MB voor honderd gulden per SIMM van 1 MB. Maar ik kan me nog herinneren hoe groot de uitdaging was om 640 kB main memory vrij te maken om Wolfenstein 3D te kunnen spelen. Naast het toewijzen van de juiste IRQ en DMA channel voor je geluid

Om over het pure aantal bits dat nu door m'n glasvezel vliegt in vergelijking met m'n allereerste modem.

Vroegah :+

[Reactie gewijzigd door Alxndr op 22 juli 2024 18:43]

Voor gamen gaat 32GB de standaard worden. Daarna wordt een keer 64GB de standaard.

Nog niet zo heel lang terug was 8GB RAM zat voor gamen. Nu is 16GB de standaard en zijn er al wat spellen waarbij dat niet meer genoeg is. Het kan wat jaren duren, maar er komt vast een punt dat meer dan 32GB nodig is voor bepaalde spellen. Ooit was 8MB genoeg en sindsdien zijn we steeds verder gegaan. Er is geen reden om aan te nemen dat deze trend stopt.
8gb is voor veel laptop in het goedkopere segment nog altijd de standaard. 16gb vind ik persoonlijk toch wel het minimum. Hier op tweakers is als je zegt 32gb is genoeg ... een ware schande. Sorry maar 99,9% van de pc gebruikers draait geen docker, heeft geen vms nodig, heeft geen "homelab" en al dat gezever. Voor huis/tuin/keukengebruik is 32gb meer dan genoeg. Als games 24gb (of meer) pas dan dan zal er een kantelpunt worden waar 64gb nuttig zal worden. Enja voor de "speciale" gebruikers is het niet genoeg, maar dat is echt de absolute minderheid. Dit zal wel weer een -1 worden, maar er bestaan zeker nog andere gebruikers dan "tweakers", en sorry maar die zijn met veelvouden tov "tweakers"
Ik heb zelf niet genoeg aan 32 GB, Kerbal Space Program met mods en Cities Skylines met mods gebruiken al snel zoveel dat de hele PC crasht met maar 32 GB RAM.
Vooral Cities Skylines is echt erg, het is zelfs niet heel moeilijk om het gebruik boven de 64 GB te krijgen.
Ik hoop ook dat ze dat bij beide spellen in het tweede deel oplossen.

Het zijn natuurlijk niet de meest mainstream usecases maar ik verwacht dat er wel meer spellen zijn met dat probleem.
Ik heb soms momenten van "Oh wow dat zei die ene gozer bij bedrijf X 8 jaar terug al dat zou komen"
Of misschien zijn het 'broken clock' momenten. Kan ook.

Zou wel een interessant artikel zijn voor T.Net.
Een artikel over de verwachtingen van IT'r over ICT en Computers/Hardware van bv 1980, 1990, 2000 2010 tegenover wat het in is geworden. En wat men vandaag verwacht voor over 10 jaar. Kunnen ze dat over 10 jaar gebruiken voor en volgende artikel. :+

En wellicht een soort time-capsule project maken waar tweakers allemaal hun voorspellingen kunnen geven die dan over 5 jaar worden gepresenteerd ofzo. Kun je wel een leuke actie van maken denk ik.
</OT> :o

[Reactie gewijzigd door MrMonkE op 22 juli 2024 18:43]

Ik denk dat dit ook een leuk idee is, eerlijk gezegd
Ik snap NoobishPro helemaal. En nu zeker omdat ik ook heb zitten programmeren en na 40.000 regels code nog steeds maar een exe van 5mb krijg. Er zit volgens mij alleen bij de meeste programmas alleen nog maar paketten met user observation bij die de bulk van het programma zijn, want goed geschreven code neemt echt niet veel plaats in beslag. Dus eigenlijk zouden we met steeds minder moeten uitkomen, maar de praktijk schept een heel ander beeld.
Wanneer je gebruik maakt van frameworks of libraries die heel veel bieden, maar je gebruikt er maar weinig van (en die libs op hun beurt ook weer), of plaatjes/filmpjes afhankelijk van schermresolutie, dan groeit een Hello world al snel. Je kunt er wel snel iets mee ontwikkelen.

Maar je hebt gelijk: het zou ook lean en mean kunnen.
Eens. Ik doe zelf lean en mean. Dat is mijn hele business model.

Ik heb een EU-wijd internationaal ERP systeem geschreven (met app) met op dit moment zo'n 20.000 simultaan actieve gebruikers.

Het is zo'n 8MB aan code (non-compiled) en het draait allemaal op een VPSje met 2 cores en 2gb RAM. Gebruik piekt nog niet eens op 20%. Op rustige momenten is het vaak 1-2%...

Lean en mean is de way to go imo. Mijn klanten stellen het gigantisch op prijs dat alles binnen een flits inlaadt. Ze moeten zo vaak heen en weer navigeren dat de concurrentie het gewoon aflegt als de loadtimes zo lang zijn. Denk even aan 20-30 seconden loadtime per kantoorwerker, zo'n 50-100 keer per dag... Dat tikt aan!
Pure code is heel compact, het zijn de resources zoals plaatjes, video, audio, textures, 3D models die het meeste plek innemen.
Ik ben eigenlijk wel ontgoocheld dat AMD maar officieel tot 5200 mhz ondersteund, daar zou al CL 26 of lager op moeten zitten om uberhaupt sneller dan DDR4 4000mhz (lage CL) te zijn.

Bovendien is het verschil met top mhz DImms gigantisch (5200 mhz vs 8000 mhz) en... AMD houd van snel geheugen, is al bewezen.

Je betaald dus 400-500€ voor een deftig X670E uitgerust bord, en dat bord word waarschijnlijk verpletterd door X770E qua RAM snelheden ondersteuning. Het is vooral erg dat AMD 6000 mhz aanraad, maar dan ook zegt dat dat overklokken is en garantie wegvalt... Tjah wat is het nu, je kan niet iets aanraden als 'standaard to go for' snelheid om het dan eigenlijk met knikkende knieën niet officieel te ondersteunen.

Ik zie ook niet in waarom X670E met al die next-gen dingen, geen hogere mhz aan zou kunnen, x770E zal niet plots beter zijn. Dus waarom geen firmware update?

Had eerste gedachte om 6000 mhz CL 30 te installeren, maar nu weet ik het zelfs niet meer, want pc is te duur om garantie te doen vervallen. En meeste bronnen zeggen dat 4800/5200 mhz zelfs met snellere CL niet goed zijn vergeleken met DDR4.
Voor sneller RAM kun je altijd een kijkje nemen op de QVL tabel van de moederbordfabrikant. Dan weet je met vrij grote zekerheid dat het wel gaat werken.

Wat vervallen garantie betreft betwijfel ik of het in de praktijk ook wel zo hard is. Die stickers die je moet weghalen om een apparaat te openen met "Warranty void if removed" zijn ook niet zo eng als ze klinken https://blog.iusmentis.co...ntenwet-garantiestickers/.
Wat je zegt klopt. En 5200 word bij AM5 tot nu toe enkel met 2 dimms ondersteund, niet eens 4. Volgens AMD 4 dimms maximaal 3600 binnen de huidige 7000-serie. Draai zelf een X670E Hero met 7950X en 4 dimms 6400 van G.Skill, draaien eigenlijk stabiel op “maar” 5200. Draaide 2 dimms stabiel op 6000!
Dat 2 dimms beter zijn dan 4 heb ik ook al vaak gelezen. Ben daarom op zoek naar 64gb (2x 32gb) kits. Kan eventueel starten met 32gb door prijzen, en promoties. 4x16gb komt hier zeker niet binnen :)

Maar jah tenzij er plots CL 26 5200mhz geheugen bestaat die wel ondersteund word, zie ik geen reden om in te stappen dit is jammer.
in welke usecase heb je overclocking nodig.
en, hoeveel win je er echt mee.

mooi dat de framerate met 10 omhoog gaat na overclocking, maar je ogen blijven toch steken op een bepaalde rate die kan je niet overclocken.

of is het overclocken alleem maar voor de fun en de kick?
Is meestal 10% sneller dan 4800 mhz (6000 mhz CM30).

Bovendien als je de DDr5 markt bestudeerd, dan zie je dat 4800 mhz 'wegwerp modules' zijn, er zijn bijna geen met lage CL, of hoge kwaliteit afwerking. 5200 mhz zou beter moeten zijn, maar is ook slap, veel te veel CL 38 latjes. Hoe lager mhz hoe makkelijker lagere CL (cas latency). Maar kijk wat hier gebeurd.

5600 mhz is ongeveer zelfde als 5200 mhz maar er is meer aanbod, en ook iets exotischere latjes.

En nu komt het... 6000 mhz heeft veruit meeste keuze, makkelijkste ram snelheid voor CAS 30. Deze hebben dus als je wat zoekt veel betere CAS en bovenop ook geheugen snelheid.

Het lijkt er uberhaupt op dat er een enorme discrepantie is tussen moederbord en fabrikant ondersteuning (5200 mhz vs 6666 mhz wat Gigabyte aorus master ondersteund met expo).
maar waarom wijken we ineens af van de 32/64/128/256/512 reeks en gaan ze met 24Gb en 48Gb er tussen in zitten?

Ik heb nu 32Gb, bij een volgende PC zal het waarschijnlijk 128Gb worden...maar die rare maten snap ikl echt niet. ;)
Kan te maken hebben met het aantal channels. Vroeger had je ook triple channel 12gb kits. Of servers met 6 channels, dan kreeg je ook dat soort getallen. Zware servers van nu hebben 8 channels.

Hoewel de AMD 7000 serie maar dual channel is..

[Reactie gewijzigd door Navi op 22 juli 2024 18:43]

Omdat 2x 48gb goedkoper te maken is dat 2x 64gb, en waarschijnlijk net past qua plaats productie enzovoort. Ook is DDR5 eigenlijk '2 channels' only supported, meer verlaagt serieus je mhz snelheid. Met 'maar' 2 is het 32 of direct 64gb, geen inbetween, voor mij zou 2x 24gb eigenlijk wel goed werken als is het te betwijfelen of het goedkoper word als 2x 32gb omdat die meer gemaakt worden. 2x 48gb is wel optie als je uberhaupt zoveel nodig hebt.
nieuws: 'AM5-platform start OS niet op met DDR5-geheugendimms van 24 en 48GB'...

Tja, misschien niet zo'n goede investering, totdat dit probleem is opgelost.
Dat is alleen voor AM5 borden. In hetzelfde artikel staat ook dat Intel-borden geen last van dat probleem hebben.

Het marktaandeel van Intel ligt fors hoger dan dat van AMD, dus dit kan wel degelijk een goede investering zijn natuurlijk.
AM5 borden komen er steeds meer, dus zeker relevant.

Weet niet precies hoe je erbij komt dat Intel nog altijd fors meer marktaandeel heeft?
Ik zie wel dit soort grafieken: https://www.cpubenchmark.net/market_share.html

Denk dat het persoonlijk korter bij elkaar ligt.
met een biosdate van vandaag op het mobo, blijkbaar hebben ze wel een heel korte lijn naar Asus :9~
Wow, die L1 cache snelheid. 8.4tb/s copy speed! ter vergelijking mijn DDR4-3000 haalt 978GB/s L1 cache copy speed, meer dan 8x sneller dus. tijd voor een upgrade binnenkort... (alhoewel mijn L2 en L3 cache latency wel lager is dan deze 8000MT/s stick)
Ik kan nog steeds ruim uit met 16gb geheugen. Mijn laatste 4 computers hadden dat, en ik zie nog niet waarom ik 32gb zou moeten kopen de komende tijd.

Ik doe wel van Windows finetunen, het aantal processen bij sommigen rijst de pan uit als je niks doet. Mijn aantal processen is erg minimaal en dat scheelt veel geheugen gebruik.

Op dit item kan niet meer gereageerd worden.