Overklokker behaalt 5,3GHz op alle cores bij AMD Threadripper 3990X

Een professionele overklokker heeft met behulp van vloeibare stikstof een enkele core van de Threadripper 3990X op 5,55GHz laten draaien. Bij een andere overklok liepen alle cores op een kloksnelheid van 5,3GHz.

AMD heeft vrijdag de 3990X geïntroduceerd, de eerste processor voor consumenten die 64 cores en 128 threads heeft. Hij verbruikt flink wat stroom, maar er blijkt nog voldoende ruimte voor overklokken te zijn. De professionele overklokker Tsaik heeft een enkele core van dit model zelfs tot 5,55 GHz gekregen, schrijft Hardware Info.

De boostsnelheid van alle 64 cores van de Threadripper 3990X bedraagt bij volle belasting ongeveer 3,1GHz en Tweakers kreeg zijn exemplaar tot 4GHz op alle cores. De 5,55GHz van Tsaik slaat echter op één enkele core. Daarvoor maakte hij gebruik van vloeibare stikstof en slechts een enkele ddr4-module die op ddr4-1866 met cl13-timings draaide. Het gebruikte moederbord was een MSI TRX40 Creator.

AMD Threadripper 3990X 5,55GHz

Een andere overklokker genaamd Splave heeft alle cores naar 5,3GHz kunnen tillen, ook met de koude, vloeibare stikstof. Deze keer was het moederbord een TRX40 Taichi van ASRock, waar 32GB aan G.Skill's Trident Z Neo ddr4-3200-geheugen op geprikt zat in combinatie met cl11-timings. Om alles te voeden waren wel twee voedingen van 1250 watt nodig. Dit alles resulteerde in een score van 39.518 in de multithreaded test van Cinebench R20. In onze eigen test behaalde de 3990X op stocksnelheden 24.947 punten; de overklok zorgde dus voor een 58 procent hogere score.

AMD Threadripper 3990X 5,3GHz Cinebench

Door Olaf van Miltenburg

Nieuwscoördinator

09-02-2020 • 17:23

174

Reacties (174)

174
167
119
11
1
28

Sorteer op:

Weergave:

Windows 10 schijnt problemen te hebben met deze CPU.

https://www.anandtech.com...readripper-3990x-review/3

Whenever Windows experiences more than 64 threads in a system, it separates those threads into processor groups. The way this is done is very rudimentary: of the enumerated cores and threads, the first 64 go into the first group, the second 64 go into the next group, and so on. This is most easily observed by going into task manager and trying to set the affinity of a particular program:

With our 64 core processor, when simultaneous multithreading is enabled, we get a system with 128 threads. This is split into two groups, as shown above.

When the system is in this mode, it becomes very tricky for most software to operate properly. When a program is launched, it will be pushed into one of the processor groups based on load – if one group is busy, the program will be spawned in the other. When the program is running inside the group, unless it is processor group aware, then it can only access other threads in the same group. This means that if a multi-threaded program can use 128 threads, if it isn’t built with processor groups in mind, then it might only spawn with access to 64.
win server installeren of beter nog, Windows 10 Pro for Workstations.
dit is een windows versie die 4 cpu's ondersteunt. vraag is echter of dit dat probleem oplost. nu moet ik zeggen dat ik er niet ingedoken ben. mag toch aannemen dat MS hier iets mee gaat doen. maar 3990x zal niet mainstream raken omdat hij zo extreem is.
Vreemd dat je gedownmod wordt, want je beredenering is inderdaad juist, Windows 10 Home & Pro kunnen niet (goed) met zoveel traits omgaan, in tegenstelling tot Windows 10 Pro for Workstations en Enterprise. Windows Server uiteraard ook.
Hij wordt gedownmod omdat het probleem gaat over 128 threads, en tja meldt support voor 4 CPUs. Heel wat anders dus.

Dat artikel van je is interessant, maar de benchmarks laten zien dat Win10 Pro met de CPU op 64 threads (SMT/hyperthreading uit) vaak betere resultaten noteert dan Win10 Enterprise met SMT aan (alle 128 threads) . Bovendien ondersteunen beide OS'en de threadcount van 128 volgens de specificaties dus daar kunnen we verder weinig mee uitsluiten.

De waarheid is dus wat gecompliceerder dan "geen win10 home of pro gebruiken".
AnandTech concludeert zelf in dat artikel dan ook dat je op dit moment over het algemeen het beste af bent met SMT uitzetten.

[Reactie gewijzigd door A Lurker op 23 juli 2024 19:06]

@tja heeft wel degelijk gelijk, feit is dat de 3990 eigenlijk een 4-cpu opstelling in één package is. De workstation versie van Windows is gewoon beter geschikt voor veel logische processoren en beter in bij behorende thread management. Overigens verwacht ik gewoon een Windows update om het voorspelbaarder te maken.

[Reactie gewijzigd door GewoonWatSpulle op 23 juli 2024 19:06]

Microsoft heeft waarschijnlijk een bewuste keuze gemaakt voor maximaal 64 threads per groep voor de non-pro Windows versies, dus is het maar de vraag of er een update komt.
Pro-gebruikers moeten maar gewoon een pro-OS versie kopen.
"Bewuste" keuze? Welnee. Verreweg de meeste x86-64 "atomic" (ondeelbare) operaties zijn alleen maar atomic op 8,16, 32 en 64 bits operands. Juist bij threading heb je atomic operaties nodig, dus dan is de keuze voor 64 bits operaties logisch.

Er is maar één 128 bits operatie, "lock cmpxchg16b [ptr]". (16b = bytes, 16x8=128). Om met die ene operatie je thread scheduler te schrijven is mogelijk maar complex, en alsnog werkt het dan niet met meer dan 128 threads. De Xeon Phi heeft al 288 hardware threads. Sowieso ontkom je dus niet aan groepen, alleen is de keuze of je 3x128 danwel 5x64 moet gebruiken. En Microsoft heeft dus de redelijke keuze gemaakt om 64 bits atomic operaties te gebruiken.
Hoezo zou het te maken hebben met atomic operaties? Vanwege API keuze lijkt me logischer zoals hieronder geschreven: https://tweakers.net/nieu...ction=13990092#r_13990092. En dan is het wel een bewuste keuze, namelijk een slecht API ontwerp.
Dat maakt erg weinig uit. Normaal gesproken maakt Microsoft in zo'n geval een SetThreadAffinityMaskEx functie met een >64 bits mask. De oude API is dus geen fundamentele beperking, die kun je uitbreiden. Maar de x86-64 ISA kan Microsoft niet uitbreiden, dat moet Intel doen. Zolang de AVX instructies niet atomiar zijn kan Microsoft niet anders.
Een API kun je uitbreiden, maar bestaande programma's hebben daar niets aan. En Microsoft hecht veel aan compatibiliteit dus wat moet dan het gedrag zijn van programma's die de nieuwe API niet kennen? Verwachten die op elke CPU te kunnen runnen of niet? En als ze zich willen binden aan de CPU waarop ze nu draaien? Iets als SetAffinity(1 << GetProcessorNumber()) (versimpeld). Verder weet Windows ook niet eens of dat een programma de nieuwe API wel of niet kent (dus bewust in potentie wel of geen problemen zou hebben met het aanroepen van GetProcessorNumber => Set...Affinity).
Genoeg programma's hebben niet eens 10 threads, laat staan 64. Als je niet zoveel verschillende threads hebt, dan maakt het ook niet uit dat de fysieke limiet 64 is. En als je wel veel generieke threads hebt, dan gebruik je threadpools en dan maakt de affiniteit ook eigenlijk niet meer uit. Je gooit taken naar de threadpool en die zoekt maar uit om welke thread ze worden uitgevoerd. Als de thread al niet meer uitmaakt, dan maakt de CPU core typisch ook niet uit.
Volgens mij staat Windows 10 Pro gewoon for Professional, dus dan mag je toch gewoon verwachten dat hij door Professionals optimaal gebruikt kan worden.
Het eigenlijk grootste verschil tussen de Home versie is echter dat hij wel native kan remote desktoppen en zulke dingetjes, maar dus (blijkbaar) niet fatsoenlijk met een HEDT CPU om kan gaan.
Threads zijn virtueel. CPU's is hardware. Nogmaals hele andere dingen. @tja kan wel gelijk hebben dat een CPU uit 4 chiplets bestaan (zoals AMD dat noemt), maar nergens wordt een verband aangetoond met het aantal chiplets in een cpu enerzijds, en Windows die niet goed overweg kan met 128 threads anderzijds.

Die dingen moeten we hier dus ook niet door elkaar halen. Naar mijn weten maakt het Windows in zijn thread scheduling niks uit of die 128 threads nu in 1 monolithische CPU, 4 chiplets, of zelfs losse CPUs zitten.

[Reactie gewijzigd door A Lurker op 23 juli 2024 19:06]

Nee, alle Windows edities vanaf Windows 7 64 bits gaan op dezelfde manier om met processor groups en met dan 64 cores, dus ook als server versies.
Zie
https://docs.microsoft.co...octhread/processor-groups

[Reactie gewijzigd door Titulanix op 23 juli 2024 19:06]

Huh? Zelfs Windows server versies niet? Kan bv Linux/Unix wel juist met deze hoeveelheden threads om gaan?

En oef, dat wordt een flink grote redesign voor Windows mocht de hoeveelheid threads in algemene CPUs ook richting die hoeveelheid gaan (of Threadrippers veel populairder worden)
Dat redesign is niet nodig. We weten al langer dat er steeds meer threads komen. Bovengenoemde thread groups zijn een low-level mechanisme om met threads om te gaan, maar op applicatie nivo zijn thread pools een beter mechanisme. Windows heeft al jarenlang support voor thread pools, en die hebben een standaard grootte van 500 threads. Een applicatie die zo'n thread pool gebruikt zal dus op deze 3990X alle 128 hardware threads gebruiken, zonder één regel code aan te passen.
Ff los van dat linux er efficienter mee om lijkt te gaan, windows support 128 threads gewoon, alleen je krijgt dus 2 cpu groups ipv 1 als je over de 64 threads gaat. Software moet cpu-group aware zijn en dat is het meeste niet. Een goeie renderer bijv. wel.

Ik draai al een tijdje 2x een 18-core xeon met HT, en daar heb je hetzelfde probleem, met alles aan op 72 threads loopt sommige software tegen issues aan. Ik heb 4 cores uitgezet om op 64 te blijven.
Maar loopt je software dan ook daadwerkelijk langzamer?

Als in, ik snap dat je niet de volle 100% kan halen, maar wel gewoon naar rato toch? Of onstaan.er echt grote problemen als je meer dan 64 threads kunt draaien?

In jou geval zou je b.v. op die 4 overgebleven cores bv windows laten draaien en nog wat ruimte hebben voor dagelijkse office taken.
Volgens mij is het issie als je 68 cores hebt dat groep 1 64 is en groep 2 4.

Dus als je zware applicatie in groep 2 spawned heeft hij maar 4 cores.
hmm dat ligt aan veel factoren.. 2 groups betekent ook 2 NUMA nodes bijv.

Iig heeft het gros van de software geen baat bij 64+ dus daar hoef je het niet voor te doen. En ik merkte zelf dat er in mijn context met de renderer die ik gebruikte geen winst was met 72 threads actief. HT was wel zinvol dus 4 cores er af bleek de beste keuze.

thread management is echt heel vervelend om te doen, het is handig als apps dit zelf kunnen maar verder zou ik er vanaf blijven. Thread management in windows 10 was echt bagger in 17xx maar nu best prima, hij probeert ook de turbo’s te maximaliseren etc.

Maar dit is ook alweer een ouder v3 setje, zon amd met alles op 1 chip is veel efficienter natuurlijk.
Kan bv Linux/Unix wel juist met deze hoeveelheden threads om gaan?
Ja. Zware SMP-systemen zoals een syteem met 16 Xeon E7-processoren werden in het verleden door enkele partijen, zoals Silicon Graphics, gebouwd. Met ScaleMP kon je zelf met standaardservers een SMP-systeem met heel veel kernen bouwen.

Daardoor is er reeds energie gestoken in het optimaliseren van Linux op deze grote aantallen kernen en daar plukt het nu de vruchten van.
Ook dat zijn NUMA systemen, dus daar zijn de verschillende cores ook gegroepeerd. Het unieke van dit systeem is dat de cores allemaal hetzelde socket en hetzelfde geheugen delen, maar dat er wel een hyperthreading scheduling issue is. Leuk die opmerkingen elders over thread affinity, maar met hyperthreading zijn niet alle cores identiek. Als logische core 0 in gebruik is, wat is dan de andere logische core die dezelfde fysieke core deelt? Is dat core 1 of core 64? Voor je affinity is dat een kritiek verschil, maar de oude API behandelt alle cores identiek.
In ieder geval is de Linux-scheduler bekend met het feit dat het verplaatsen van een proces naar de andere thread van een kern goedkoper is dan het verplaatsen van een proces naar een geheel andere kern. Op HPC-clusters is het veelal gebruikelijk om processen aan een fysieke kern te binden, zodat Linux nog wel de vrijheid heeft om een proces tussen threads op dezelfde kern te migreren, maar niet naar een andere kern.
Dat betekent dat de programmeurs van Microsoft weer aan de slag kunnen om de 64+ cores te gaan ondersteunen. Ook de programmeurs van andere software mag weer aan de slag om de programma's met processorgroepen te laten werken.

Ik vermoed overigens dat dit soort multicore processoren vooral voor meerdere virtuele machines gebruikt gaan worden.
64? Waarom deden ze niet gelijk 128 of 256? Ik bedoel, geheugen gaat paar byte op x86 en x64 systemen. Een byte heeft 256 mogelijke waarden(128 als je hem per ongeluk signed maakt...). Dat maakt het gebruik van enkel 5-bits een beetje raar.

Maar er zijn inderdaad vm opstellingen die hiervan kunnen profiteren. Zelfs gamesystemen zijn er in dit verband, hoewel die meer door enthousiaste tech-hobbyisten gebouwd worden. Ook is het delen van gpu-kracht moeilijker dan cpu, waardoor het vaak noodzakelijk wordt om met een pci-passthrough een gpu per vm te hebben.

Technisch zit er veel brood in dat soort systemen, een pc voor thuis, zonder aparte updates en software downloads, waarbij alle updates in een keer kunnen. Scheelt ook opslagruimte, aannemende dat de softwarepakketten en besturingssystemen gedeeld kunnen worden. Het is efficiënter dan ieder een pc.

Maar toch zie ik er weinig toekomst in op de korte termijn. Veel werk en kennis nodig om het op te zetten, moeilijk te begrijpen voor consumenten, en bovendien met risico op nieuwe problemen door nieuwe infrastructuur. Ik heb zelfs gehoord dat bepaalde game drm en anticheat hier slecht mee om kan gaan.
Windows heeft enkele API functies waarmee programma's kunnen opvragen op welke cpu cores ze lopen en instellen waarop ze willen draaien. Bijvoorbeeld SetThreadAffinityMask https://docs.microsoft.co...ase-setthreadaffinitymask
De belangrijkste parameter daarbij is een masker, zoals de naam al aangeeft. Dat masker is een 64 bits integer (op Windows 32 bits is het een 32 bits integer). Daarbij staat iedere bit voor een specifieke CPU core. Vandaar de limiet van 64 cores. Wanneer multi- threading ingeschakeld is doet de CPU het voorkomen alsof er 2 keer zoveel fysieke cores zijn, dus 128 bij deze AMD.
Overigens hoeft een programma helemaal niet aan Windows te vragen op werkte cores de threads draaien. Maar kennelijk beperkt Windows de cores tot groepen van 64 puur omdat een applicatie dit zou kunnen opvragen en instellen.
Ah, dat verklaart het idd. 128 bits of 256 bits integers zijn uiteraard langzamer op 64-bit cpus en kosten meer geheugen. Bedankt voor de uitleg.
Niet alleen zijn ze langzamer, de operaties erop zijn niet atomair (ondeelbaar). Een 256 bits read of write werkt als 4x64 reads/writes. Dat is problematisch omdat een andere thread dan één van die 4 waardes kan aanpassen. De vraag "wat is de laagste vrije CPU core" = "wat is de laagste 0 bit" is lastig te beantwoorden als iemand de bits aanpast terwijl je ze leest.
Technisch zit er veel brood in dat soort systemen, een pc voor thuis, zonder aparte updates en software downloads, waarbij alle updates in een keer kunnen. Scheelt ook opslagruimte, aannemende dat de softwarepakketten en besturingssystemen gedeeld kunnen worden. Het is efficiënter dan ieder een pc.
Een VM gaat je niet helpen in opslag of updates. Je hebt sowieso de host nodig die je up-to-date wilt houden. En voor iedere gebruiker heb je een client pc nodig. (Die je ook up-to-date moet houden). Ik neem even aan dat je niet om beurten achter een pc (de host) gaat zitten.

Het gaat je hooguit wat schelen in de hardware van de clients omdat die niet full specs hoeven te zijn om toch behoorlijk mee te kunnen werken.
Omdat je het dus helemaal fout ziet. Voor 64 cores heb je al 64 bits nodig daar een programma op meer dan 1 core kan draaien en een affiniteit kan hebben met meer dan 1 core. Je hebt dus al 8 bytes nodig met 64 cores. Voor de 128 threads zou je er dan al 16 nodig hebben. Ga je naar 256 dan zijn dat er 32. En dat per process dat je start.
Waar moet je dan rekening mee houden als je in dotnet programma's schrijft?
Dat kan je hier lezen: https://docs.microsoft.co...octhread/processor-groups

De essentie:

An application that requires the use of multiple groups so that it can run on more than 64 processors must explicitly determine where to run its threads and is responsible for setting the threads' processor affinities to the desired groups.

[Reactie gewijzigd door Titulanix op 23 juli 2024 19:06]

Nee, dat kun je daar niet lezen. @Ruudvoijen vraagt wat de implicatie is voor .Net, en jij verwijst naar de unmanaged Win32 interface. Dit is de .Net API.Je komt dan bij "IdealProcessor" die voor deze CPU dus twee mogeljke waardes heeft.
Het is goed om je te realiseren dat de .net functies onderhuids gewoon de Win32 api aanroepen. Je kan dat ook vanuit je eigen C# code doen, wanneer dat extra mogelijkheden biedt.

Het .net artikel geeft aan dat Windows een thread nog steeds op een andere core kan draaien, ondanks de opgegeven affinity. Maar ik zag geen opmerking over systemen met meer dan 64 threads.
Onder andere... maar AMD zet met deze chip ook heel erg sterk in op video editors van studio's die voor het renderen van bepaalde scenes vaak moest outsourcen omdat inhouse renderen veel te lang duurt en daardoor te kostbaar is... maar met deze threadrippers kan er ineens veel meer inhouse wat het productieproces stukken kan versneller en/of er meer tijd en geld vrij komt om extra/nieuwe dingen te doen.
Nee. Het effect is dat die hardware in de renderfarms geplaatst wordt, niet in de laptops/desktops van de editor. Renderen van seconden kan uren duren. Zo'n editor gaat echt niet om 9 uur 's ochtends een render in de queue gooien zodat hij de hele dag kan wachten met een werkstation op 100% usage.
Daar heeft amd dan weer het Epyc platform voor. Threadripper ondersteund ook "maar" 256gb ram terwijl Epyc doorgaat tot 4tb.

Wijziging: Epyc kan 4tb ram niet 1tb (credits naar MicGlou voor verbeteren)

[Reactie gewijzigd door jcoenen op 23 juli 2024 19:06]

Threadripper ondersteund tot 1TB RAM, de limiet van 256GB komt voornamelijk vanuit de chipset en moederbord fabrikanten. EPYC ondersteund in principe tot 4TB RAM.
Volgens dit artikel van tweakers:
https://tweakers.net/revi...-3990x-nader-bekeken.html

kan de 3990x maximaal 256gb ram aan.

"De i/o-die is geproduceerd op GlobalFoundries' 12nm-procedé en bevat een vierkanaalsgeheugencontroller voor maximaal 256GB ddr4-geheugen, waarbij de maximale geheugensnelheid 3200MT/s bedraagt."
Waarom niet? Als het om bepaalde (test)footage gaat dan kan het enorm tijd besparend zijn vergeleken met bestanden exporteren naar een renderfarm, het daar in een queue te laten zetten en wachten totdat het klaar is om het daarna weer binnen te hengelen. Ik heb het uiteraard niet over complete films, dit gaat meestal over kleine stukjes om het resultaat te kunnen zien etc... gaat echt enorm tijdbesparend kunnen zijn om sneller beslissingen te kunnen nemen en aanpassingen te doen.
Nee dat gaat hij niet, dat komt door de geheugen limitatie van 256gb
256 is zo beetje het minimum wat ze gebruiken bij dat soort implementaties.
Deze bedrijven zullen gewoon epyc gaan draaien. Dan heb je ook 8 kanalen en registered memory.

Voor hobby, of professional on a budget kun je dit soort set ups prima gebruiken..
Volgens mij reageer je op de verkeerde...
Voor server- en renderfarms heeft AMD de Epyc lijn, Threadripper is écht bedoelt als HEDT powerhouse voor workstations.
Ik moet zeggen compilen van unreal engine bij mij is van 30 minuten terug naar 2 min op mijn 3900 cpu nu. Hierdoor hoef ik niet meer te wachten tijdens het bouwen van een built ipv half uur niks doen.
Video renderen en grote, complexe programma's compileren zijn natuurlijk ook zeer rekenintensief en zullen best baat hebben bij zo'n processor.
En die programma’s zijn meestal ook wel aware van de mogelijkheden van cpus en snappen waarschijnlijk de groepen ook wel.

Zo te lezen is het ook geen probleem van Windows, die lijkt er wel op voorbereid. Het probleem ligt in de applicaties die er nog geen rekening mee gehouden hebben en de mogelijkheden van het OS niet benutten.
Het probleem zit voor een deel bij Windows. Voor het aantal beschikbare cores wordt een 64 bit integer gebruikt. Een bit per core. bij multithreading ziet Windows elke core als twee afzonderlijke cores. Als een programma het aantal cores via Windows opvraagt gaat het dus mis.
De programma's moeten dus Windows passeren en direct bij de processor opvragen hoeveel cores/threads er beschikbaar zijn. Wanneer Windows wordt gepatched en wel het juiste aantal cores/threads doorgeeft kan dat voor een aantal programma's al betekenen dat ze ineens wel de volle 128 threads kunnen gebruiken. Veel programma's zullen echter ook een 64 bit integer voor het aantal threads gebruiken.
Zou dit het startschot kunnen zijn van "mainstream" 128-bits of zelfs 256-bits OS'en?
Ik denk het niet. Processoren beschikken reeds lang over instructies om met 128-bits eenheden om te gaan, namelijk sinds de eerste versie van SSE. Het is een kwestie van die inzetten in de code die zich hiermee bezig houdt, in plaats van de hele boel te herschrijven.
De grap is dat grote programma's compileren helemaal niet zo'n probleem is. Elke file kun je prima met 4 cores tegelijk compileren, zodat je 32 files tegelijk kunt compileren met je 3990X. Die 4 threads kunnen onderling prima communiceren, die zitten allemaal in dezelfde thread groep. Op dezelfde manier kun je ook losse frames video in parallel renderen.
Mogen ze gelijk ervoor gaan zorgen dat we nog een flinke tijd vooruit kunnen met 4096 core systemen.

{4x 1024 core CPU's}

Tegen de tijd dat er een CPU komt die uit zichzelf 4096 threads heeft zitten we al lang op 128 bit systemen of zelfs hoger
ben je bekend met COREPRIO? zou dat hier wat kunnen betekenen?
Ha grappig, kan me idd herinneren als een affinity mask voor je thread wilt bepalen, doe je dat met een bitfield en "SetThreadAffinityMask".. en het ondersteunt idd max 64 bits :)
Interessant. Ik heb een Dual xeon met in totaal 32 fysieke cores in mijn systeem. Maar vanwege hyperthreating ziet windows er 64... Is het dan raadzaam HT uit te schakelen?
64 is niet >64 dus nee, dat past ;)
Niet alleen past het dan binnen de 64 threads, maar daarnaast heb je door de 'Dual Xeon' configuratie al 2 NUMA nodes. Dus de affinity van threads moet al rekening houden met 32 threads per NUMA node.

Waar bij Zen3 een tijdje sprake van was, wat nu weer uit de roadmap gehaald is, was SMT-4. Met SMT-4 op een Threadripper van 64 cores, zou je op 256 threads komen.
Microsoft zal toch echt aan de slag moeten om de Windows kernels te gaan voorzien van betere schedulers en 'massive' core / thread count & betere NUMA support.
Steve (Gamers Nexus) en Joe (Bearded Hardware) zijn as we speak ook bezig: https://www.youtube.com/watch?v=6NQhTQIHs1E
But can he do it on a cold rainy night in Stoke?

Maare, na jaren alleen Intel te hebben gedraaid ga ik toch maar een shift maken richting AMD.
Prijs/kwaliteit verhouding is gewoon te goed!
Had niet gedacht dit ooit te zeggen maar Intel CPU’s zijn momenteel gewoon erg overpriced en de moeite niet echt waard. Zelfs de APU’s van AMD doen niet onder voor de geïntegreerde graphics van Intel en de TDP’s zijn vergelijkbaar momenteel (Intel gebruikt onrealistische waardes voor hun CPU’s namelijk aangezien ze de TDP van hun CPU’s zonder turbo opgeven)

Mits je graag thunderbolt wilt gebruiken zonder insteekkaart is Intel gewoon de mindere
ACM Software Architect @mikesmit9 februari 2020 18:04
Had niet gedacht dit ooit te zeggen maar Intel CPU’s zijn momenteel gewoon erg overpriced en de moeite niet echt waard.
Dan ben je wellicht te jong om de 'vroege' Athlon en Opteron processors heel bewust meegemaakt te hebben? Maar ook toen hadden AMD-processors niet alleen een leuke prijs-prestatieverhouding, maar waren ze ook erg goed. De toenmalige 'niet erg interessante'-cpu van Intel was de Pentium 4.

Sterker nog, software met 64-bits architectuur wordt nog altijd vaak amd64 genoemd (hoewel tegenwoordig ook vaak naam is x86-64).

Hoedanook; uiteindelijk wist Intel het tij te keren met hun Intel Core cpu's en werd Intel jarenlang de grote prestatiewinnaar.
Plus de prijs prestaties van de Duron waren ook echt prima. Zeker beter dan de Celerons rond dezelfde tijd.

Heel lang was AMD trouwens gewoon een goede processor voor budget PC's. Ze waren goedkoper, en vooral het platform was een stuk goedkoper. Jammer dat dat weinig werd ingezien want in mijn ogen was voor dezelfde prijs (processor wise) een AMD systeem vaak beter. Alleen kon je niet altijd de prestaties krijgen die je wilde.
De Duron, die je kon overklokken met potlood.
Dat waren nog eens tijden :*)
L1 connectors verbinden een goan!

ah 1 niet 2

[Reactie gewijzigd door steveman op 23 juli 2024 19:06]

Geweldig, Duron 600 @ 1ghz op een Abit kt7 zonder moeite, prachtig :*)

Je moest alleen een beetje opletten bij het monteren van de heatsink, het silicium kon dan wel eens afbrokkelen bij verkeerde montage :)
Niet alleen voor budget PC's vanaf de Athlon 1200 tot en met de Athlon 64 waren ze gewoon top of the game betreft performance en dan ook nog eens voor een goede prijs.
Ja, en die duron's waren geweldig goed over te klokken :)
De AMD Athlon XP1700+? Ik weet dat ik deze toen ter tijd gekocht had omdat deze extreem goed te occen was mits je eentje had met een bepaalde serienummer
En creatief wezen met een potlood om een multiplier te unlocken :)
Met de JUIHB of JIUHB stepping, de Thouroughbred-B cores. Mijne deed helaas 'maar' 2150Mhz vanaf de stock 1466Mhz maar heb exemplaren op T.net veul sneller zien lopen :)
Klopt, ik had een 1700+ througboured uit de juiste week en een XP-m barton 2500+ die allebei boven xp3200+ draaiden, iet van 2500-2650Mhz ofzo.
Nog voor de Athlon's en Opteron's ook. Volgens mij heb ik er nog één van deze gehad: https://en.wikipedia.org/wiki/AMD_K6.
Die K6 waren op zich wel leuk maar de FPU in die CPU's was niet erg sterk. Voor gamen wilde je die niet kopen.
In die tijd (of eigenlijk misschien iets daarvoor) waren floating point operaties nog redelijk zeldzaam in games. In de generaties daarvoor moest je een coprocessor hebben voor FP. Dus voor AMD was het een aardige gok om daar niet specifiek op uit te blinken.

Uiteindelijk misschien niet de beste keuze geweest.
Een aparte co-processor was mogelijk tot en met de 386. Daarna was deze in de processor geïntegreerd.
Maar daar kon je geen aparte fpu bij plaatsen ;)

Voor zover ik mij herinner was er niks mis met de AMD K6 fpu's

De Cyrix 6x86 hadden belabberde fpu's

[Reactie gewijzigd door jbhc op 23 juli 2024 19:06]

Ach, voor een arme scholier was het heel betaalbaar en voldoende voor de games die ik speelde.
Ook daarvoor nog. AMD was wel laat met de 486 (stuk later dan Intel), maar de CPU's waren een stuk goedkoper en/of hoger geclockt. De AMD DX4-120 was een geweldige chip. Daarna had je nog de 586 met z'n Pentium rating die nog op 486 moederborden paste:)

Zelf had ik een DX2-80 (die ook weer net wat sneller wat geclockt dan de Intel DX2-66) van een overclock naar DX4-100 voorzien. Voor dat geld een beest van een chip :)
Dat ze laat waren met de 486 konden ze zich permitteren: Met de AM386DX40 hadden ze een flink voordeel op de 33MHz 386 van Intel en ook op Intels mainstreamprocessor van destijds: De 486SX 25Mhz. Het was de 486DX2 66Mhz waar Intel toen een tijdje de leiding mee had, inderdaad tot AMD zelf met een 486 kwam.

Ik had destijds zelf een 486DX2 80Mhz van Texas Instruments. Ook een naam die al lang uit het geheugen is verdwenen voor wat betreft processoren.
Klop, ik ben wel zo oud en het was echt een revolutie van AMD, maar toch was het anders. Het werd toen al vrij snel duidelijk dat Intel met iets bijzonders zou komen.
Dat is nu heel anders, Intel heeft op dit moment gewoon niks spannends op de roadmap staan. De huidige archtectuur gaat het zeker nier meer brengen. De opvolger wordt al een paar jaar uitgesteld en ook al zou die komen dan is het nog maar de vraag wat die precies gaat doen. Het gaat ook nog zeker 1 tot twee jaar duren voor er echt iets meer bekend is over 7nm bij Intel. Daarnaast heeft AMD nu op de zeer lucratieve servermarkt een voet tussen de deur met een ongekende 5 procent marktaandeel. Dat is echt een gigantische prestatie voor een bedrijf als AMD. Het is dus kort samengevat voor het eerst in lange tijd echt spannend hoe dit verder gaat.
En wat is dat bijzondere waar intel mee gekomen is? Het antwoord van Intel op de Athlon was de pentium 4, en dat kan je moeilijk een groot succes noemen. Het heeft bijna 7 jaar geduurd vooraleer Intel met een deftig antwoord kwam met de core 2 processoren.

[Reactie gewijzigd door dengregg op 23 juli 2024 19:06]

Volgens mij wist Intel vooral het tij te keren door bedrijfsspionage en prijsafspraken. Daar hebben ze ook forse boetes voor gehad.

Boete ivm prijsafspraken.

[Reactie gewijzigd door Bongoarnhem op 23 juli 2024 19:06]

Oh, de Opteron 165, gegarandeerd FX58 prestaties op die old school DFI bordjes.

Toen was overclocking nog een leuke budgetoptie, tegenwoordig moet je betalen om te overclocken met zeer selectieve binnings die eigenlijk geen added value meer hebben.
Daarintegen waren de meeste chipsets op mainboards voor AMD vaak niet zo stabiel evenals de drivers daarvoor.

Verschil met nu: stabiel en prima voor zakelijk gebruik (grotere bedrijven).
De Pentium 4 was nog heel interessant (de Socket 478, bij 775 was het minder idd). Het was de Pentium D tijd dat Intel echt verloren had.
Nou ja, je zegt het zelf, de toenmalige niet-erg-interessante CPU van Intel was de Pentium 4. Dat is een hele tijd terug. Ik weet niet helemaal meer zeker wat er met AMD is gebeurd tijdens het Core 2 Duo tijdperk, maar in ieder geval zijn ze sinds de Core i introductie niet meer relevant geweest. Totdat ze met Ryzen kwamen, dus.

Ik heb de tijd nog meegemaakt van de Athlon 64 en zo. Heb er nog wel een thuis liggen. Maar ik zou ook hebben gezegd dat ik het niet meer verwachtte. Het was niet lang geleden dat ik in AMD geen alternatief voor Intel zag, en ook niet verwachtte dat die nog zou komen. Nu is het toch een heel ander verhaal. Wat AMD met Ryzen heeft neergezet is niet mis.
Algemeen had je vroeger (?) met AMD toch een (overall gezien) trager systeem dan met een verglijkbare Intel systeem. Zeker met hun Quantispeed gedoe waardoor een "AMD 2000" slechts op 1600MHz draaide maar aardig in de buurt kwam qua prijs van een Intel op 2000MHz . Natuurlijk zal één en ander afhangen van de software die je draaide. Eveneens zal ik niet beweren dat AMD persé slechtere CPU's maakt(e), maar vooral vroeger als er optimalisatie was in software was dat meestal in het favor van Intel. Verder is het niet alleen de CPU of de softare maar ook de chipset en een hoop andere zaken die indirect verbonden waren aan AMD die maakte dat je met Intel beter zat.

[Reactie gewijzigd door miitjohn op 23 juli 2024 19:06]

Voor 1080p low settings en maximale FPS vind ik het de meerprijs waard om een Intel te hebben met 8 cores op 4,9 ghz.

Maar als ik nu iets zou kopen (mijn setje is al weer een jaar oud) zou ik waarschijnlijk voor AMD gaan.

[Reactie gewijzigd door HugoBoss1985 op 23 juli 2024 19:06]

"Is alweer een jaar oud", ik snap de hobbie (zelf ook gehad, maar laten klinken alsof een jaar veel is is zo 2004).
Laatst nog een 8! Jaar oude pc schoongemaakt waar de gebruiker nog steeds naar volle tevredenheid op gamed, dat noem ik oud.
Die van mij is rond de 5 jaar oud. Als je geen 3d shooters speelt kun je alles met full hd nog goed spelen is mijn ervaring . Ik had er toen al wel 16gb geheugen in gezet met snelle SSD en combi met 970. Gast denk ik nog mee tot nieuwe generatie consoles. Wellicht dan weer boost nodig
Mijn eigen laptop is 6jaar,echter game ik niet (gaat ook niet echt met een quadro), dus die heb ik niet in me comment meegenomen en daarnaast dus ook niet echt meer hedendaagse kennis van wat wel en niet lekker draaid.
Uiteindelijk gaat het erom dat alles in je pc gewoon netjes is uitgebalanceerd voor hetgeen wat jij ermee gaat doen, als je een dijk van een cpu hebt maar bagger schijven, mobo en gpu dan kom je nog nergens. Idem voor elk ander onderdeel
Ik draai Assassins Creed Odyssey nog op een AMD FX 8350 uit 2015, op medium/high op 30 fps, dat is een spel dat “maar” 70 fps haalt en drops heeft naar 35 op mijn Ryzen 2600 met Geforce GTX 1080. Ze kunnen meer dan je denkt. Ik moet wel zeggen dat die cpu van 4 ghz naar 4,4 ghz overgeklokt is.
Ik heb hier nog een Q9550 quad-core core2duo met 6GB geheugen en een SSD die nog Windows 10 prima draait. Moderne AA games zullen wel tekort schieten, maar die CPU is 12 jaar oud! En heeft nog een floppy drive en IDE controller :)
💪

Mijn Intel qx9650 heeft vandaag zijn custom loop gekregen.

Met 16GB ram, een nvme ssd en m'n trouwe gtx 1080 doet deze machine nog prima mee.

Een jaar oude PC is nog te overzien, 10 jaar ook nog!
Ik heb nog een Commodore PC-I en een PC35-III. En uiteraard de befaamde C64.
Ik neem aan dat je ook een 8 jaar oude gpu bedoelt o.i.d.? 'k zie anders niet echt in wat daar zo schokkend aan is. Als het iets als een 7970 of 7990 is zelfs dat niet. De upgrade van een Phenom II X4 955 naar m'n huidige i7 4790 merkte ik eigenlijk in alles behalve games. (Misschien dat het ondertussen anders zou liggen.)
Die gpu was idd ook ruim 8jaar oud ja (de complete pc was 8jaar niet opengemaakt)
Mijn Commodore 64 wordt nog steeds vrij intensief gebruikt voor games, is pas 38 jaar oud dat ding.
Mijn huidige game-PC is z'n leven begonnen als een AMD Phenom, ergens in 2008-9. Inmiddels is het een Intel i5-2500 en zijn alle onderdelen wel eens vervangen, behalve de case. Grappig genoeg had Windows Vista er absoluut geen moeite mee dat ik van AMD naar Intel overstapte, inclusief een heel nieuw moederbord.
Mijn PC stamt uit 2007, maar afgezien van de case zitten er denk ik geen onderdelen meer in of aan van voor 2008. (M'n originele hdd is voor de zekerheid met pensoen; m'n tweede uit '08 draait voorlopig nog.)
Voor 1080p low settings en maximale FPS vind ik het de meerprijs waard om een Intel te hebben met 8 cores op 4,9 ghz.
Voor 1080p low settings gebruik ik liever een AMD Vega iGPU dan een Intel HD630 iGPU :+
je hebt gewoon gelijk...pas n 2200g systeempje voor iemand in elkaar gezet...draait games als n zonnetje op medium-high...ken geen 8core intel met igpu tegenop...stond r echt van versteld...

is zowiezo wat raar in alle igpu vergelijkingen vind ik...

intel duwt zn beste igpu's in hun topmodellen(8c/16t), waar de igpu dus gevoed word door een 5ghz 8c monster en die worden dan vergeleken met een gpu die door een 3ghz amd 4c word aangestuurd ... (nog wint amd by far daar niet van)

maar denk dat intel nog veel verder achter zou liggen in igpu benchmarks als ze door evenveel cores op dezelfde snelheid werden aangestuurd...

maar dat zie ik nooit getest....en daarom duwt intel ze ws ook niet in minder krachtige modellen...

elke losse gpu word toch ook met dezelfde cpu getest om t verschil in performance te laten zien...toch?
pas n 2200g systeempje voor iemand in elkaar gezet...draait games als n zonnetje op medium-high...ken geen 8core intel met igpu tegenop...stond r echt van versteld...
Precies mijn ervaring, erg leuke chips en veel waar voor je geld. Het werkgeheugen sneller laten lopen levert trouwens behoorlijk wat op, ddr4 van 3000 naar 3333 gaf mij daadwerkelijk nog eens 10 procent meer performance (CPU en GPU moeten deze bandbreedte delen, vandaar dat je het beste alles uit het RAM kunt persen).
De apus van AMD blazen intel uit het water!( op gpu dan)
Als je dat een paar jaar geleden had gezegd had ik je keihard uitgelachen. Maar Ryzen heeft toch wel veel in beweging gebracht. Toch wel apart hoe dat is gelopen.

Het enige waarmee ik het misschien niet helemaal met je eens ben is het APU verhaal. Bij AMD is er geen APU met écht lekker wat CPU kracht. Je krijgt een quad core die mogelijk niet eens doet aan hyperthreading. Waar tegenwoordig 6 cores wel mid range is. Natuurlijk, als je een ultra budget gaming PC wil en je kiest daarvoor een APU uit, dan zoek je geen 6 of 8 cores. En oma heeft ook geen baat bij mid range.

Wat dat betreft zijn de mensen die écht een APU willen niet gebaat bij een sterke CPU. Maar de mensen die gebaat zijn bij een sterke CPU hebben misschien nog wel nut aan een APU. Als ik een 8-core zou willen voor professioneel gebruik, maar geen interesse heb in een krachtige gaming kaart, zou een Ryzen 7 of zelfs 9 APU best leuk zijn. Intel gooit wel een IGP op zijn duurdere CPU's.
Hangt wel nog steeds af van een aantal factoren. Ik wil kost wat kost thunderbolt, dan zijn er maar enkele AMD borden beschikbaar en die zijn heel duur.
Kan dat niet gewoon als PCI-e kaart?
Volgens mijn info moet het moederbord altijd een thunderbolt-header hebben
Even opgezocht, je hebt gelijk idd
Klopt, omdat thunderbolt een kindje van intel is. USB komt hopelijk snel met USB4 die de vervanger moet zijn van thunderbolt 3, hopelijk kan AMD daar dan ook wat meer mee, zeker voor mobiele toepassingen is dat echt wel belangrijk tegenwoordig.
Intel heeft denk ik te lang op z'n lauweren gerust, en nu is het AMD eindelijk gelukt. Chapeau !.
Ook heeft AMD de beveiliging veel beter op orde.
Wacht dan nog even tot zen 3/ ryzen4000
Dit komt deze zomer en zit je meteen goed voor de aankomende 4 jaar.
Zen3 komt pas eind 2020 voor server op de markt en daarna volgt consumenten dus neemt 2de kwartaal van 2021 voor zen3 ;) https://wccftech.com/amd-...enoa-server-cpu-detailed/
ZEN 3 (Ryzen 4000) komt in 2020 op de markt, dat is al een tijdje bekend ook staat het op de roadmap van AMD.
We zullen wel zien ;) ben eerder benieuwd naar Zen4: DDR5, SMT4? en andere socket AM5.
Oh ik dacht dat de Launch veel eerder was
Ehm...

Vanaf de release van Sandy Bridge tot de eerste Ryzen had Intel een complete monopolie (qua prestaties en marktaandeel) en waren de sprongen per generatie zeer klein.
Zelf heb ik in januari 2011 een i7 2600K (Sandy Bridge) en die heb ik eind 2018 pas vervangen. Tot ergens in 2015/2016 was de noodzaak helemaal afwezig, afgezien enkele specifieke scenario’s. De prestatiewinst was maximaal 15-25%

Dit was vroeger ongekend geweest, toen was een CPU na een jaar of 2 al zwaar verouderd. Maar gelukkig gaat hardware tegenwoordig een stuk langer mee en zijn de gigantische sprongen elke generatie ook iets uit het verleden. Dit gaat uiteraard hand in hand met wel of geen concurrentie.
Het lijkt mij sterk dat concurrentie er heel veel te maken heeft.
Door het gebrek aan concurrentie heeft intel zeer lang quad cores verkocht als high end, maar qua ipc zie ik ze niet direct wonderen verrichten.
Het gebrek aan concurrentie had vooral een leuk effect op de winstmarge van intel.
Intel heeft 10+ jaren vastgehouden aan 2 of 4 cores voor consumenten cpu's. Pas toen AMD met Ryzen kwam, wist Intel niet hoe snel ze naar 6 en vervolgens 8 core moesten gaan.

Concurrentie is dus wel degelijk de oorzaak van grotere technische sprongen...
Dat zijn geen technische sprongen.
intel had al jaren cpu's met meer dan 4 cores, ze brachten ze alleen niet uit voor consumenten.
AMD heeft er enkel voor gezorgd dat de prijzen van die cpu's sterk is gedaald.
Hoe dan ook zorgt concurrentie ervoor dat een fabrikant niet lui achterover blijft hangen.

De gigantische sprongen qua CPU in de jaren 1999-2007 kwamen volledig door de concurrentie tussen Intel en AMD. Toen AMD de Athlon uitbracht werd Intel genoodzaakt stappen te nemen. De hele Netburst-architectuur (Pentium 4) werd overboord gegooid omdat ze niet meekonden met de Athlon 64 en genoodzaakt waren het over een andere boeg te gooien.

Ook qua videokaarten zijn er in die jaren grote sprongen gemaakt. Zeker toen ATi en Nvidia recht tegenover elkaar stonden, werden er elke generatie grote sprongen gemaakt tegen zeer scherpe prijzen. Het is eigenlijk ongekend dat we de absurd hoge bedragen voor de huidige GPU's betalen. Dit komt mede door een volledig gebrek aan concurrentie op het high-end segment. Gelukkig lijkt het erop dat AMD eindelijk weer eens mee kan komen met de high-end GPU's.

Als er geen concurrentie is zijn technische sprongen aanzienlijk minder belangrijk en krijg je marginale snelheidsverbeteringen voor een zeer hoge prijs. Om de doodeenvoudige reden dat er geen alternatief is en je het maar gewoon te accepteren hebt...
Pentium 4 was al overboord gegooid voordat AMD met de 64 bits extensies kwam. Het probleem van de P4 was dat de hoge kloksnelheid mogelijk gemaakt werd door een lange pipeline. Bijna die hele pipeline kon je flushen als de CPU een conditionele branch instructie verkeerd voorspelde, dan was dus ook de voorspelling voor de volgende 20 instructies fout.

Eén van de voordelen van hyperthreading nu is dat diezelfde core werk voor een andere thread kan doen, terwijl de pipeline van de eerste thread geflushed wordt.
Het probleem met de Pentium 4 was toch dat het extreem hoge kloksnelheden moest hebben (en kon hebben) om echt tot z'n recht te komen. Keerzijde van deze hoge kloksnelheden waren de enorme warmteontwikkelingen. Hierdoor bleek het uiteindelijk een doodlopend pad te zijn en moest Intel op zoek naar iets anders. Dat andere was de Core-architectuur die z'n oorsprong in de Pentium Pro vindt...
Pas met ryzen? De bulldozer was een first attempt in de multicore wereld. Dat ze vroeg ermee waren (de software was er niet klaar voor) en de prestaties daardoor brak waren (teveel op mt ingezet) was een ander verhaal. Maar amd verkocht 8 core cpus al vanaf de bulldozer era.
Lol... Ik heb afgelopen jaar ook mijn 'antieke' 2600k vervangen... Ben zonder twijfelen voor een AMD 3600 gegaan.
[...]


Whoooo, jij bent wel echt een AMD fan want er is nog nooit een CPU geweest die 4 jaar competitief is gebleven als je hem tegen de prijs kocht bij release. Je hebt bijzonder hoge verwachtingen.

Ik ook hoor, ik denk dat het een geweldige CPU zal worden. Maar meer dan een jaar op zijn best zal ie niet echt top zijn.
De 2500K kon eigenlijk prima 4 jaar op high-end meedraaien doordat het ding via luchtkoeling op 4.8 Ghz all-cores kon draaien ipv de 3.3 Ghz baseclock.
Leuk voor een hele nichemarkt, relaties zeer weinig mensen overklokken hun hardware. Ik durf zelfs te stellen dat 98% niet hun hardware overklokt.
Gaming is uberhaupt een niche markt, maar dat was het punt toch niet? Er werd gesteld dat er nooit een cpu is geweest die 4 jaar lang competitief was. Die was er dus wel :). Ding was bovendien bij launch circa 200 euro, geen geld. Pas bij skylake kreeg dat ding concurrentie.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 19:06]

Ik denk dat er relatief veel 2500K cpu's overklokt zijn hoor.
In oem pc's zat bijna altijd de niet-K en mensen die er minder van kenden kochten vaak de 2400.
De 2500K was enorm populair bij gamers, maar het klopt dat op de totale pcmarkt dat maar een klein aandeel is.
Ik weet niet maar bijvoorbeeld 1 van de eerste generatie i7 kun je nog prima op gamen. Het is niet dat de hedendaagse slomer zijn, maar het is wel een prestatie dat deze nog steeds de meute bijbeent. (zijn toch weer 10jaar verder ofzo). Daarnaast top voor de een is niet top voor de ander, ik hoef echt geen 64cores om een spelletje te spelen, heck ik denk zelfs dat die 64cores onderdoen voor een average i5 in veel games puur om het feit dat de pc de hoeveelheid threads niet aan kan.
Die aanname hoef je niet te maken, want er zijn zat reviews te vinden waaronder hier op Tweakers en nee, dat werkt dus niet eens zo slecht eigenlijk: reviews: AMD Threadripper 3990X getest - 64 cores en dubbel zoveel threads
Hij zegt toch niet dat de CPU 4 jaar competitief is? Dat maak jij ervan. ;)
Door de lagere temp. Is er minder electrische weerstand en heeft de cpu dus minder vermogen nodig
Helaas, nee.
Als de CPU enkel met LN gekoeld werd, en er niks anders aan werd gedaan, zou dat wel gelden, maar hier niet.
Er wordt ten eerste een veel hogere spanning op de CPU gezet omdat dat nodig is om stabiel te blijven bij zulke hoge kloksnelheden, en ten tweede neemt de stroom enorm toe. Er staat nog in het artikel dat een andere overclocker in een vergelijkbare situatie 2x1250W voedingen nodig had.
Om de 12v lijn minder te stressen en meer te verdelen.
Dat is voor de enkele core, de volledige 5,3ghz overclock is 1.6 volgensmij?
Nee 1,616v.

https://hwbot.org/image/2302103.jpg

[Reactie gewijzigd door AMDhardware op 23 juli 2024 19:06]

Ben vooral benieuwd naar het verbruik bij deze snelheid :)
Maakt niet uit, de opgewekte warmte wordt afgevoerd. Het is niet zo dat de tpd hoger wordt, met koelen zorg je ervoor dat ie niet kapot gaat.
Die AMD CPU is een engineering sample en worden niet in een winkel verkocht.
Ben bang dat je dan bij jezelf moet beginnen, want in het plaatje bij deze post staat namelijk heel duidelijk bij de "Specification: AMD Eng Sample: 100-000000163-01_43/29_Y (ES)" en dat duidt er HEEL erg op dat dit wel degelijk een Engineering Sample is. Ook van productie-chips zijn namelijk pre-productie modellen en die zijn vaak ES (Engineering Sample) of QS (Quality Sample). Die kunnen hardware-matig afwijken; het zij qua snelheid (vaak lager geklokt) maar kunnen ook specifiek geselecteerde dies zijn die beter zijn dan het productie-model.

Dit image laat een CPU-Z-afdruk zien die meer overeenkomt met een productie-model. Dat zou er dus op wijzen dan RAAF12 wel (deels) gelijk heeft.
Engineering samples zijn 99/100 keer minder stabiel of even stabiel als het consumentenproduct, niet beter. Mogelijk is het een goeie bin, maar die kan je zelf ook treffen via retail. Men doet altijd zo lekker mysterieus over engineering samples alsof de cpu-illuminati stiekem al superieure hardware tot zijn beschikking heeft. |:(
Mooi dat je toegeeft dat hij gelijk had dus. Geen misinformatie.
Het gaat niet om toegeven of uberhaupt gelijk krijgen. Het gaat om dat je zelf deze overclock kan halen met een chip die je vandaag kan bestellen. Als je ook een LN2 setup hebt.
Die AMD cpu is gewoon te koop sinds 3 dagen. Hm goed punt. Dit wordt nergens vermeld. Alleen op cpu-z validator.

[Reactie gewijzigd door Xfade op 23 juli 2024 19:06]

koude, vloeibare stikstof.

beetje overbodige woordkeuze, ik zou warme vloeibare stikstof veel noemenswaardiger vinden. :+
Er is natuurlijk zoiets als superkritische stikstof, maar dat is nog steeds frisjes.
"In onze eigen test behaalde de 3990X op stocksnelheden 24.947 punten; de overklok zorgde dus voor een 58 procent hogere score."

Is die test niet ook afhankelijk van het gebruikte geheugen (en andere componenten)?
Zolang de overige apparatuur niet gelijk is kun je denk ik niet stellen dat het (alleen) de overclock is die zorgde voor een 58% hogere score.
Gisteren de live stream van Gamers Nexus bekeken. Daar gingen ze ook aan de gang met deze chip. Cinebench R20 kregen ze tot 35000 ongeveer met een all core 4.9GHz overclock. Helaas wilde de 5GHz alleen booten in Windows en geen bench meer draaien.

Daar bespraken ze ook de 5.5GHz uit dit artikel...met een hoop afkeuring werd dit geclaimde resultaat naar de prullenmand gewezen. Daar het alleen een "CPUZ" score bevat. Dus van een bootende en idelende Windows. Geen bench gedraaid.

De record houder is inderdaad de genoemde Splave. Werd ook tijdens de livestream besproken en is wel een relevante prestatie.
Dit is meer 'leuk dat het kan' dan echt praktisch nut, want hoe lang zou die het werkelijke kunnen volhouden op 5.3GHz..

Op dit item kan niet meer gereageerd worden.