AMD Ryzen 7 9800X3D heeft basiskloksnelheid van 4,7GHz en 120W-tdp

Uit supportdocumenten met details over de AMD Ryzen 7 9800X3D blijkt dat de basiskloksnelheid van de chip 4,7GHz bedraagt. De tdp ligt op 120W, terwijl er in totaal 96MB aan cachegeheugen aanwezig is. AMD heeft de specificaties nog niet bevestigd.

De vermeende specificaties staan in een ondersteuningsdocument van moederbordfabrikant MaxSun waarin alle AMD-processors die compatibel zijn met de AM5-moederborden van het bedrijf worden opgesomd. Techwebsite VideoCardz merkt op dat de tdp in de documenten wordt omschreven als ‘power waste’. MaxSun zou ook een fout hebben gemaakt bij de benaming van de chip: het bedrijf vermeldt de Ryzen 9 9800X3D, terwijl dat volgens VideoCardz een Ryzen 7-processor hoort te zijn.

Uit eerdere geruchten blijkt dat de AMD Ryzen 7 9800X3D acht Zen 5-rekenkernen heeft en zestien threads. De boostkloksnelheid van de rekenkernen zou 5,2GHz worden. De chip beschikt over 96MB aan cachegeheugen, waarbij 32MB aan L3-cachegeheugen en 64MB aan 3D V-cache. AMD zou op het punt staan de nieuwe generatie X3D-cpu’s aan te kondigen, wat volgens geruchten op 25 oktober of 7 november zou gebeuren.

De X3D-processors van AMD zijn voorzien van 3D V-Cache, wat neerkomt op extra L3-cache dat boven op de cpu-chiplet wordt gestapeld. In de praktijk levert die extra cache vooral betere prestaties op bij gaming. Eerder deze maand verschenen al enkele vermeende benchmarks van AMD's Ryzen 9000X3D-processors.

Door Jay Stout

Redacteur

21-10-2024 • 07:58

46

Submitter: Vurenvos

Lees meer

Reacties (46)

46
46
17
4
1
17
Wijzig sortering
Lekker wazige info. Base clocks zijn irrelevant, het gaat om de clocks waar de cpu uiteindelijk met een single/all core load op draait en dat is nooit de base clock.
Ook boost clock zegt niets want is dat single core of all core en houdt dit rekening met automatische overclocks?
Tenzij ze dit specifiek in Zen5 hebben gewijzigd kunnen X3D CPU's normaal gesproken niet automatisch overclocken, dit moet je zelf doen mbv PBO (undervolten) en dan nog zijn de gains minimaal (behalve dat ze efficiënter worden).
PB is geen overclock en PBO maakt het normaal gesproken mogelijk dat je een hoger TDP kan gebruiken en dat is wel out of spec.
De max clocks van de X3D CPU's waren nooit te verhogen. Je kon alleen met de Curve Optimiser zorgen dat de boost clocks hoger werden bij gelijke voltages. En inderdaad iets wat undervolten om te zorgen dat hij niet z'n max TDP haalde bij all core workloads en dus weer wat hoger kon boosten. Bij meer dan 0.0625mv ging de max boost clock van een 5800X3D al weer omlaag dus je kon ook niet te ver undevolten omdat PB dan de max boost ging verlagen.

De enige manier om echt een hogere clock te krijgen was BCLK overclocking maar dat is zeer beperkt (102-105MHz vs 100stock afhankelijk van het moederbord dat je had). En lang niet zo stabiel.

Hopelijk heeft de 9800X3D wel ondersteuning voor de boost clock override. Dan kan je 200MHz hogere boost clocks halen. En dan heb je niet de nadelen van BCLK overclock. Dit is iets wat normale non X3D chips wel kunnen. Ik weet niet of de limiet voor AM5 CPU's ook nog 200MHz is maar voor Ryzen 5000 was de standaard limiet 200MHz.
Van de and spec sheet voor de 7800X3D:

Max. Boost Clock
Up to 5 GHz
Base Clock
4.2 GHz

Werkelijke all core clock snelheid waar hij op draait: 4800-4900 MHz. Geen van de waardes zijn dus relevant als indicatie van de performance. En gezien 9000 marge of error sneller is dan 7000 is de werkelijke clock best belangrijk om te weten.

[Reactie gewijzigd door computerjunky op 21 oktober 2024 08:41]

Maar dat zijn toch geen OC waardes? In mijn ogen dan... Mijn 5800X3D draait in principe ook altijd op 4450mhz wanneer dat gevraagd wordt maar nooit hoger (kan ook niet), misschien als er thermal throtteling ontstaat dat hij terug gaat naar de baseclock? maar dat heb ik zelf niet zien gebeuren.
Niet oc in klassieke vorm maar oc door de cpu/moederbord geregeld. Klassiek overclocken is tegenwoordig rommelen in de marge. Daar valt niet veel meer te halen. Betere koeling heeft vaak een grotere impact.

[Reactie gewijzigd door computerjunky op 21 oktober 2024 08:47]

Precies, dat zijn geen OC waardes. Boost is iets anders dan een handmatige overclock, maar je hebt er wel daadwerkelijk een hogere clock mee dan de base clock. 🤷‍♂️
Ook X3D CPU's hebben gewoon een boost en een base clock. Daar is niets anders aan tov normale Ryzen chips. Waar @computerjunky terecht op doelt, is dat de base clock niet echt uitmaakt. Het gaat erom op welke kloksnelheid je CPU in de praktijk draait.

Jouw 5800X3D draait in de praktijk op 4,45GHz, zeg je. Dat doet de mijne ook. De base clock van de 5800X3D is alleen 3,4 GHz, geen 4,45. Snap je waarom de base clock dus gene hele interessante info is?

X3D en non X3D Ryzen CPU's werken en boosten op exact dezelfde manier. X3D CPU's zijn alleen tot nu toe erg gelimiteerd geweest in hun voltage, omdat ze door de fysieke interne layout niet zo veel warmte kwijt kunnen.

De vraag is alleen of de 9800X3D onder load in de buurt komt van de opgegeven max boost. Normale Zen 5 CPU's doen dat in de regel niet echt. De opgegeve 5,4GHz van de 7700X zie je in game eigenlijk nooit bijvoorbeeld. Van de 7800X3D heb ik zo even niet paraat hoe dicht die op de opgegeven 5GHz zit onder load.

[Reactie gewijzigd door youridv1 op 21 oktober 2024 10:04]

ik vrees dat baseclock zowat de enige snelheidsspecificatie is die nog iets of wat een referentiepunt is dat vast ligt. Al de rest is zo variabel of onbereikbaar voor een doorsnee systeem dat je er niets mee bent. Zelfs de IPS is anders dan bij de non X3D of de vorige generatie, waardoor zelfs baseclock een moeilijke is. Toch ga ik het ff doen: Mijn 7600X draait ook op base 4.7 terwijl die daar lustig over (5.2) en onder (4.4) gaat met een procent of 3 cpu-belasting tijdens het tikken van deze comment met slechts 1 tab open en geen andere foreground-programs.
Baseclock is juist belangrijk omdat dit hetgeen is dat je in power/thermal constrained scenario's moet halen. Iets wat Intel niet meer doet met hun stroomverbruik. Je zie alleen wat de boostclock is wanneer er geen restricties zijn en laat je gissen wat de daadwerkelijke clocks zijn met jouw koeling/moederbord.
Ik heb al 10+ jaar geen enkele cpu meer gezien die in wat voor realistisch scenario op de base clock draait. In feite betekend het dat als je cpu base clock draait je ergens een grote fout hebt gemaakt.
Heb je het over desktop? Want laptops is echt wel een ander verhaal. Mijn workstation van het werk heeft een 13950HX en die draait echt niet vrolijk 5ghz all-core...Dat is namelijk 160W.
Tja chatGPT. Reactie op @W1ck1e

Als je 4.77 MHz zou vertalen naar de huidige standaarden. Kwa MHz alleen zou je voor dezelfde MHz meer dan 1000 watt nodig hebben. Zo zuinig is dat dus niet.

Daarnaast hebben huidige generatie processoren staffels waarin ze werken. Ze klokken dus lager als ze file zijn en het energie verbruik gaat daarmee ook naar beneden.

Dan niet te vergeten de instructies. Als je het zelfde wil bereiken met een cpu uit 79 of misschien wel wat nieuwer 89. Ben je jaren bezig om iets te berekenen wat nu in een handomdraai mogenlijk is.

Vergelijking met processoren van 3 4 decennialang geleden kan je niet doen.

Ja we kunnen zuinigere processoren maken kijk naar ARM. Maar de processor in doel van zijn taak moet je ook naar kijken. ARM doet wat anders dan Intel en AMD.

[Reactie gewijzigd door To_Tall op 21 oktober 2024 08:18]

Ja we kunnen zuinigere processoren maken kijk naar ARM. Maar de processor in doel van zijn taak moet je ook naar kijken. ARM doet wat anders dan Intel en AMD.
Deze begrijp ik niet. Het doel van een ARM processor is toch hetzelfde als een x84/x64?
Intel en AMD hebben een grotere instructieset en bieden 'backward' compatibility aan. (d.w.z. dat oudere programma's uit het jaar kruik er ook op draaien) Heel belangrijk voor bedrijven met oudere, custom-made software.

[Reactie gewijzigd door Paul Evenhuis op 21 oktober 2024 08:43]

Hoewel ze een instructieset uitvoeren en er compatible mee zijn, zijn CPU's onderwater eigenlijk helemaal niet zo verschillend. De praktijk is namelijk dat hoewel een CISC en RISC chip qua 'concept' verschillen, er wel degelijk vrij veel lagen ín de CPU zelf zitten, waarbij feitelijk dus ook een 'interpretatie' laag bestaat. Een CISC-chip zoals een Intel-X86 heeft onderwater eigenlijk meer overeen met een RISC chip dan een CISC chip van vroeger. Niet elke instrucite is "in metal", maar met fetching/interpretatie heel vaak geëmuleerd.

Uiteindelijk is het verschil tussen ARM, X86, en bijna zelfs RISC-V de kwaliteit van de branche prediction, de cache/through-die allocatie, de interconnectie-bus, en het productieproces.

Zeker als je mobiele AMD en ARM chips van Qualcomm vergelijkt zitten ze érg dicht bij elkaar, en sterker nog: zelfs in de buurt van Apple (die ook een hoop andere meuk zoals bijna-ASIC's). De praktijk is dus dat de "tiling" en "CPU naast de werkelijke core" veel uitmaakt.

Uiteindelijk draait elke CPU steeds verder van native ASM-gecompileerde apps af, en steeds meer in frameworks, waardoor instructieset nóg minder uitmaakt.
Het is een veel gehoorde opvatting. Ik ben het er eigenlijk niet mee eens. Allereerst de opbouw van een RISC-processor: De instructieset heeft een structurele opbouw zodat decodering van de instructie triviaal en direct aan de eenheden gevoerd kan worden die de instructie uitvoeren. Dat is niet hoe een moderne processor werkt: Ook een moderne RISC-processor heeft meer interne registers dan externe registers en meerdere uitvoeringseenheden waar een instructie in kan. Een moderne processor lijkt intern meer op een VLIW-architectuur zoals de Itanium had dan op een RISC-processor.

Secundair is een moderne instructieset noch volledig CISC noch volledig RISC: CISC-processoren hebben hun scherpe kantjes moeten laten vallen, x86_64 is veel meer orthogonaal geworden en typische x86-monsters zoals AAM en LOOP worden als fossielen beschouwd.

Anderszijds konden de RISC-instructiesets ook niet volledig RISC blijven. Een goed voorbeeld is delen: RISC-processoren hadden geen instructies om delingen uit te voeren. Een deel-instructie is bijna niet te implementeren zonder microcode. Maar probeer zonder deelinstructies maar eens een x86 bij te houden in code die een hoop delingen uitvoert.

Op dezelfde manier hebben moderne x86-processoren hardwarematige instructies voor CRC-berekening, Rijndael-encryptie e.d. Probeer ze maar bij te houden. Daarom hebben vrijwel alle RISC-processoren tegenwoordig een microcode, en hebben ze allen instructies om te kunnen delen. Of ze inmiddels ook allemaal CRC en Rijndael hebben weet ik niet, ARM in ieder geval wel, maar het ligt in de reden dat meer CISC-achtige instructies toegevoegd gaan worden: Er is plek genoeg op een moderne die.

Daarom is een moderne processor noch CISC noch RISC, beiden hebben iets van de ander moeten overnemen.

[Reactie gewijzigd door dmantione op 21 oktober 2024 12:49]

Wat meer diepgang, maar eigenlijk exact wat ik bedoelde in mijn andere comment ;). Hoewel ik daar weer overversimpelde door praktisch de transistor OR/NOR kant op te gaan (en ik weet dat er fora vol zijn met "hoe kan ik met zo min mogelijk dingen een volledige turing machine bouwen en er vervolgens doom op spelen")
Vraag mij af of backward compatibility wel een legitiem argument is, gezien dit om een niche markt gaat en daar op andere vlakken weinig rekening mee wordt gehouden.
Dergelijke instructies zijn bovendien via emulatie ook wel uit te voeren, ARM kan immers ook X86 software draaien, al is dat een stukje trager dan native.

Processen bevatten al tijden architectuur wijzigingen, die een recent OS vereisten om goed te draaien, en om überhaupt ondersteuning te krijgen vanuit Intel/AMD. Die oude software zal in veel gevallen niet op een recent OS draaien, of i.i.g. niet ondersteund worden door de software leverancier. Daarmee geef je dus eigenlijk je backward compatibility al op.

(Voorbeelden van die architectuur wijzigingen zijn o.a. de Intel E en P cores, i.c.m. threads scheduler, introducties van CCD's en niet uniforme cache structuur bij AMD. Ook als we wat verder teruggaan, turbo cores die sneller clocken dan de overige cores, gebruik van SMT/hyperthreading en introductie CPU's met meerdere cores.)
Nope, ARM processoren zijn gebaseerd op RISC, oftewel Reduced Instruction Set Computing.
Processoren gebaseerd op RISC zijn over het algemeen een stuk zuiniger.
Voor sommige taken zijn ze dan wel wat langzamer dan de x86-varianten, maar dat is de afgelopen jaren ook steeds minder geworden en ook minder belangrijk.

Sterker nog, ik denk dat die 'legacy' om nog steeds compatible te zijn met processoren van 30 - 40 jaar geleden (of langer?) best wel een last aan het worden is waarvan je je kunt afvragen of dat nog steeds wel nodig is. Eventueel zou die backwards compatibiliteit ook via emulatie bereikt kunnen worden.
Het weghalen van die legacy instructies maakt het nog steeds niet een RISC platform, maar zou wellicht wel wat kunnen schelen in de complexiteit.
De theorie van RISC is dat je met erg weinig acties "turing complete" kan zijn, dat je feitelijk met een zeer beperkt aantal functies (AND, NOR, XOR, etc...) volledige logica circuits kan bouwen op basis van binaire logica.

Dat klopt, alleen een vermenigvuldiging, of eenvoudig splitsen in factoren, of zelfs simpele algebra kan dan erg lang duren: een digitale computer kan veel trager zijn dan een analoge computer. Om dat te versnellen zijn er meer en meer instructies bij gekomen. Denk aan AVX, SSE, etc...

In pure zaken is ARM allang geen RISC meer: de werkelijkheid is dat AVX in ARM een variantiant heeft genaamd SVE, en zo is er wel meer wat ARM is ingeslopen. En dat is logisch.

Onder water heeft X86 óók het een en ander 'versimpeld', en oude instructies daarmee geemuleerd om compatibility te houden.
"AVX vs SVE" is nog wel iets van een versimpeling. x86 was altijd nog redelijk georganiseerd: SSE1 tot SSE4, en dan AVX en AVX2. Heb je een bepaald nivo, dan heb je ook alle voorafgaande nivo's.

ARM heeft VFP, NEON en SVE. Die hebben elk ook weer subvarianten. Zo heb je VFP1, VFP2, VFPv3-D32, VFPv3-D16, VFPv3-F16, VFPv3U, VFPv4-D32, VFPv4-D16, VFPv4U, en VPF5. Die zijn onderling maar beperkt compatible met geen simpele logica. Je moet een tabel erop naslaan om te kijken welke upwards compatible zijn.

Nu is met AVX-512 een vergelijkbare onhandige diversiteit de x86 wereld ingeslopen. Daar heeft Intel ook een dozijn varianten van inmiddels.
Het doel is op een ARM-PC of een x86-PC gewoon hetzelfde; sinds Apple op ARM is overgestapt gebruiken de klanten nog steeds exact dezelfde programma's.

Het middel (RISC of CISC of "eigenlijk boeit deze discussie al sinds decennia niet meer") is iets verschillend, en de focus (vooral op snelheid of vooral op efficiëntie) is meestal wat anders. Oh, en compatibiliteit door middel van hardware of door middel van emulatie is ook een verschild, maar wederom weer kwa middel.

[Reactie gewijzigd door _Pussycat_ op 21 oktober 2024 11:42]

Ben wel benieuwd naar de benchmarks, als hij dezelfde opbouw heeft als 7800X3D maar dan op Zen 5 zou het wel eens eens een snelle en efficiënte CPU kunnen zijn.
Opbouw is niet helemaal hetzelfde. Het is compacter en er zijn minder connectie punten tussen de cache en ccd die. Of dat prestatie impact heeft moeten we nog zien.
De impact is dat de CPU beter zijn warmte kwijt kan en dat PBO2 dezelfde waarden kan bereiken als de niet X3D
I disagree. Silicon is van zichzelf een zeer slechte warmte geleider. Een kleinere CCD is daardoor simpelweg moelijker te koelen met eenzelfde power load. Je hebt immers minder oppervlakte die warmte kwijt kan.
architectuur verbeteringen kan echter wel de load op die CCD beter verspreiden waardoor het geleidelijker afgevoerd word en ook het productie process kan helpen.

Een grote die met in 4 delen 30 watt warmte produceert zal een veel beter afvoer hebben dan een cpu met in 1 plek 120 watt. Daarom heeft AMD en nu met deze next gen ook Intel offset koeling waar een koeler 2-3mm verplaatsen al een paar graden kan schelen

Maar hoe kleiner de chips in de toekomst gaan worden des te lastiger koelen gaat worden. De warmte kan immers niet snel genoeg afgevoerd worden.
Waar ik op doel is de plaatsing van de 3D cache, waardoor de cpu-deel beter zijn hitte kwijt kan, als groot voordeel tov de 5000 & 7000 series. Dus niet de voor of nadelen van verkleinen van het procedé, of de specifieke verbeteringen van de cache zelf.
De 7800X3D heeft ook een officiële TDP van 120 maar in gaming is dat ding veel zuiniger dan veel andere cpu's met een officiële TDP in diezelfde grootteorde.

Ben benieuwd hoe dat zit bij de 9800X3D. Ik zou vermoeden dat het wat hoger ligt dan bij de 7800X3D.

Ik ben toch blij dat ik alsnog voor de 7600X3D ben gegaan voor mijn SFF, prachtig efficiënt dingetje op vlak van fps/W.
Knap dat je hem hebt kunnen kopen, of woon je in de USA?

Edit* nvm, zie hem nu in een duitse webshop.

[Reactie gewijzigd door Catrinus op 21 oktober 2024 09:06]

In theorie zou Intel nu een concurrerende chip moeten kunnen uitbrengen, gezien ze nu ook modulaire chips maken.
Denk aan een 285K, maar dan 1 E-cores tile (dus 4 E cores) inwisselen voor een cache-Tile voor extra L3 (of L4)
Het heeft AMD heel wat tijd en moeite gekost om dit archictecturaal werkend te krijgen, dus ik vrees dat het niet zo simpel is als je voorstelt. De 3D V-cache is stacked bovenop een bestaande die, wat de manufacturing veel complexer maakt en ook thermisch een invloed heeft (zowel qua extra hitte-productie als verminderde afvoer van de onderliggende die).
Er zijn 4 soorten tiles: compute, GPU, SOC en I/O tile (de filler tile heb ik buiten beschouwing gelaten, want die doet niets). Buiten het feit dat de verschillende cores hun eigen cache hebben (enerzijds 3MB L2 voor elke P-core en anderzijds 4MB shared L2 voor elke E-core cluster van 4) is de 36MB shared L3 er al, dus daar nog extra cache tussenin krijgen is veel ingrijpender voor het volledige design en zal imho pas iets voor binnen een paar generaties zijn, als het concept dan al niet is ingehaald door een andere technologie.
ter lering ende vermaeck:
The Intel 8088 microprocessor has a Thermal Design Power (TDP) of approximately 1-2 watts. Since it was released in 1979, the Intel 8088 was built using 3-micron NMOS technology, and its low power consumption reflects the relatively low clock speed (typically 4.77 MHz or 8 MHz). TDP values for chips from that era were not typically specified as precisely as they are for modern CPUs, but its power consumption is quite low compared to more recent processors.
met dank aan chatgpt.
Je ziet het ook terug op de gameconsoles. Waar de sega megadrive (en de concurrentie uit die tijd) 10 W verstookten, zie je dat het 2 generaties later al op 60-100W zit. En nu verbruikt de PS5 zelfs meer dan 200W. Dacht dat power budget max 250W.
Gelukkig is er bij pc's een hoop te kiezen. Ik heb nog een i7-2600 pc uit 2011 tdp 95. Maar mijn nieuwste spullen zitten op 12 - 28 watt (all in one pc en nuc's). Ik speel geen spelletjes dus dat is voor mij snel genoeg.
Dat klopt niet, ik denk dat je er een generatie naast zit namelijk. De Xbox gebruikte net wat meer dan de concurrentie, maar de Dreamcast, PS2, Gamecube en Wii zaten allemaal onder de 50W.

De Gamecube kwam met een 40W adapter.
De Dreamcast zou iets van 20W verbruiken.
De PS2 blijft ook onder de 50W.

Het hangt allemaal er van af hoe je de chips gebruikt. De PS4 gebruikte namelijk juist weer amper meer dan de PS3. De PS3 luidde wel een flinke stijging in ook, maar die had dan ook relatieve high-end hardware aan boord en een GPU waar men van het begin af aan eigenlijk nooit rekening mee had gehouden.

De PS4 was dan weer gebaseerd op budget laptop hardware, veel cores met lage clock speeds. Dat is een recept voor een relatief zuinig beestje.

Met de PS5 heeft Sony juist gezet op een bijvoorbeeld een GPU die minder kernen heeft dan de Xbox, maar deze wel harder laat lopen. Dat is in de regel juist weer inefficiënt.

Uiteindelijk heeft het er vooral van afgehangen hoe duur en complex iets wordt om te produceren. Koeloplossingen zijn in de afgelopen 20 jaar ook gewoon beter en eleganter geworden. Dat maakt het dus mogelijk om compacte apparaten alsnog veel stroom te laten verbruiken, zonder dat het als een straaljager klinkt.

Verder moet je niet vergeten dat consoles tegenwoordig op een all-purpose x86 platform draaien. Vroeger waren het allemaal RISC chips. Simpel, strak en met enkel gaming in gedachten gemaakt.
Het is wel grappig om te zien hoe efficiënt de cpus zijn zelfs met een hoog tdp. De kloksnelheid is 1000x groter maar verbruikt 100x zoveel stroom voor 8 cores.
Maar als je nu een snelheid vergelijker als "speedcom" (80286 was 100) zou gebruiken, wat zou dan de waarde zijn ?
Heb laatst nog een stukje zitten lezen hierover. Ik weet niet of het waar is maar bijna 100% - 99,99% van de energie die in een cpu gaat komt eruit als warmte de resterende 0,01% wordt daadwerkelijk gebruikt voor berekeningen maken. Ik vraag me echter af wat dit precies inhoudt. Het zijn eigenlijk constant schakelaartje omzetten om zo bepaalde sequences te genereren. En die beweging genereert warmte samen met de hoeveelheid stroom die door die super kleine lanes gaat. Moet eerlijk bekennen dat ik totaal geen idee heb hoe een cpu precies werkt :+

Kan me voorstellen dat met quantum computers die een "schakelaar" op bijvoorbeeld 8 standen kan zetten deze dus ook 8x zo zuinig kan zij omdat je dezelfde handeling doet per transistor maar je ermee wel bijvoorbeeld 4 of 8 standen mee kunt instellen

[Reactie gewijzigd door sygys op 21 oktober 2024 11:47]

Daar komt wel bij dat je quantumcomputers naar (bijna) het absolute nulpunt moet koelen :)
Een quantum computer is geen generieke computer. Je kan er wel eentje mee emuleren, maar dat is enorm duur. Natuurlijk is een quantum computer veel zuiniger als je hem inzet voor specifiek voor quantum gemaakte algoritmes.
Wat een tijd was dat, dat we zelf nog van alles bedachten, tweaks en mods, oplossingen op Tweakers.
The Intel 8088 :)
Mijn pc was van 1985, met een nec v20 (intel 8088 clone)
Tweakers is van 1998 en ik was een paar pc's verder in de tijd
Maar het was inderdaad een andere tijd.
Ik heb het allemaal meegemaakt mijn 1e komputer was een ? Sanyo ? 8088 monochrome scherm geel of groen dat was ook mijn eerste bouwproject waar toen een RGB kaart in ging na wat extra componenten voor de spanning voor de kaart en je had een RGB Toen had je ook nog een aantal computer clubjes waar men dit soort deelde
Dan nog de 286-486 generatie DX SX wel 12 Mhz turbo.
Telefoons zijn op zich al een hele computer in je broekzak.
3DX of X3D? Gok dat er even een titel aanpassing nodig is @JayStout

[Reactie gewijzigd door DutchManticore op 21 oktober 2024 08:11]

Tsja, klopt inderdaad. Is echter al gemeld in de thread voor spel- en tikfoutjes.

Op dit item kan niet meer gereageerd worden.