AM5-platform krijgt drie chipsets met verschillen in PCIe 5.0-ondersteuning

Er komen drie chipsets beschikbaar voor de in de herfst van dit jaar verschijnende AM5-moederborden. Naast de B650- en X670-chipsets, die B550 en X570 opvolgen, komt er ook een 'extra high-end' X670E-chipset, met maximale PCI Express 5.0-ondersteuning.

De chipsets voor AM5-moederborden verschillen vooral van elkaar op het vlak van PCI Express 5.0-ondersteuning, zo vertelde de manager van AMD's desktopdivisie, David McAfee, tijdens de Computex-keynote van het bedrijf. Het totale platform kan in totaal 24 PCIe 5.0-lanes leveren, waarbij het waarschijnlijk gaat om zestien lanes voor de videokaart, vier lanes voor een M.2-slot en nog eens vier lanes voor de verbinding met de chipset. De meest luxe X670E-chipset, waarbij de E staat voor 'Extreme', kan daarmee twee slots voor videokaarten en een M.2-slot voor een ssd van PCIe 5.0-bandbreedte voorzien. Bij B650 werkt alleen de ssd op PCIe 5.0-snelheid.

Op dit moment zijn er voor consumenten nog geen videokaarten of ssd's te koop die PCI Express 5.0 ondersteunen. Het is nog niet duidelijk of de videokaarten van de volgende generatie daar gebruik van zullen maken, maar aan het gebrek aan PCIe 5.0-ssd's wil AMD in elk geval een einde maken door een samenwerking met controllerontwerper Phison en geheugenfabrikant Micron. Tal van merken zouden rond de release van de Ryzen 7000-cpu's in de herfst een ssd op basis van hardware van die partijen uitbrengen, met een meer dan 60 procent hogere sequentiële leessnelheid dan bestaande PCIe 4.0-ssd's.

AMD B650 X670 X670E chipsets

Socket AM5 markeert voor AMD de overstap van pinnetjes op de processor (pga) naar pinnetjes in de socket (lga), zoals Intel al jaren gebruikt. De AM5-socket telt 1718 pinnen, waarmee de stroomtoevoer en signaalintegriteit op een hoger niveau komen dan met AM4 mogelijk was. De socket kan cpu's met een tdp van 170W aan. Dankzij de wat typisch uitziende heatspreaders van de Ryzen 7000-cpu's, blijft de compatibiliteit met cpu-koelers voor AM4 behouden.

Alle socket AM5-moederborden krijgen DDR5-slots; de geheugencontroller in de Ryzen 7000-processors is niet backwards compatible met DDR4. Ook krijgen de moederborden maximaal vier aansluitingen voor monitoren, want de nieuwe cpu's zijn allemaal voorzien van een RDNA 2-igpu. Zowel HDMI 2.1 als DisplayPort 2 behoort tot de mogelijkheden. Verder kunnen fabrikanten hun moederborden uitrusten met Wi-Fi 6E via een controller waarvoor AMD heeft samengewerkt met MediaTek.

AMD socket AM5 moederborden

In tegenstelling tot de Ryzen 6000-laptopprocessors zullen de Ryzen 7000-desktopmodellen geen USB4 ondersteunen. Er komen maximaal veertien USB-poorten uit het platform, waarvan een beperkt aantal 20Gbit/s haalt. De USB4-poorten van AMD's laptopprocessors halen 40Gbit/s.

Net als de Ryzen 7000-processors komen ook de AM5-moederborden op basis van de B650-, X670- en X670E-chipsets in de herfst op de markt. AMD toonde alvast de X670E-topmodellen van ASRock, ASUS, Biostar, Gigabyte en MSI. Prijzen zijn nog niet bekendgemaakt.

AMD X670E moederborden ASUS Gigabyte MSI ASRock Biostar

Door Tomas Hochstenbach

Redacteur

23-05-2022 • 08:28

104

Lees meer

Reacties (104)

104
102
47
8
0
43
Wijzig sortering
Eerste indruk: Wauw, leuk platform. Maar jammer van de PCIe lanes (ook ik ben een Threadripper 3000 gebruiker die voor de multithreaded en storage based workloads blij is maar voor single threaded processen en gaming buiten werktijd minder blij is). Jammer dat HEDT gemold is.

Tweede indruk: "hmmm". Hear me out.

Ik heb momenteel 3x PCIe gen3 (in Raid0) nVME storage, en 1x PCIe gen4 in m'n PC. Rechtstreeks aan de CPU, wat dus 16 lanes is. Koppel dat met een 16 lanes GPU, en 8 lanes aan networking/losse USB, kom ik 40 lanes enkel voor 'insteekkaarten' (of het nou via een PCIe slot gaat of via een M.2 slot, PCIe = PCIe).

Het feit is echter dat de noodzaak voor die rauwe, lineaire storage speed, ondanks dat ik 'benchmark' naar 8.5GB/sec op de Raid0 array, en 7GB/s op de PCIe 4.0 drive, wat fijn is voor non-indexed lidar, eigenlijk niet mega hoog is. Buiten de benchmarks merk ik dat tijdens het indexeren en LOD-tile bouwen (waar dus eigenlijk de sequentiële load zit terwijl het ook m'n CPU cores vol belast) van de lidar hoewel m'n 3960X richting de 60% gaat (met SMT eigenlijk de max qua belasting, hyperthreading = no real threads etc...), mijn SSD nog "max" 2GB read heeft, en 1.2GB write. Een threadje vrij maken en benchmarken leert dat er qua sequentiële snelheid nog genoeg in het vat zit.

En dit zijn dan de extreme loads. Ik doe niet veel videobewerking maar zelfs daar weet ik dat ook bij 8K video de SSD niet de grootste bottleneck is - zeker niet in sequential speeds.

Het lot wil dat PCIe gen5 SSD's nóg niet beschikbaar zijn, en zoals dit artikel leert (reviews: Het jaar van de PCIe Gen5-ssd - Snellere drives met dubbele bandbreedte) ook nog niet zullen komen buiten datacenter.

Persoonlijk zou het me niet verbazen als de consumenten versies, als ze komen, eigenlijk niet meer 4-lane zullen zijn, maar 2-lane. Dit om zuiniger te zijn, en CPU lanes te besparen.

Directstorage is namelijk leuk in concept, en heeft enorm veel profijt van een SSD aan dezelfde controller als de GPU (zeker als de GPU straks ook decompress taken kan doen), dus eigenlijk altijd: de CPU, maar tenzij we uncompressed textures op de juiste volgorde gaan zetten, is bandbreedte niet het probleem. Sterker nog: AMD kondigde ook een in-GPU decompressie methode aan, wat bandbreedte bespaart (vergeet niet dat ondanks dat games nu al groot zijn, zonder compressed textures/assets zouden ze een factor 8 groter zijn). En eigenlijk geld dan de volgende metric (en waarom ik met weemoed de Optane-saga heb gevolgd - de techniek kwam te vroeg, en is te vroeg weer heen gegaan...): responstijd en random reads. En dat koop je niet met meer PCIe lanes. Dat koop je met meer NAND.

Dus ja... kom maar op. Wire m'n M.2 slots met 2 lanes. Bespaar je CPU lanes. Heck, overweeg 12 GPU lanes. Dan kan ik 4 full-speed gen4 SSD's aan m'n CPU hebben (zei het dat ze Gen5 x2 SSD's zijn).

De komende 4-5 jaar is het toch wel genoeg omdat ook de consoles nou eenmaal niet sneller gaan op het gebied van gaming.

En tsja, m'n lidar? Denk dat ik ze nog wel 4x dichter/groter kan krijgen met m'n huidige rig. Compute is een grotere grens voor mij dan m'n storage.

RIP HEDT, lang leve HEDT-class consumer platformen. Hoewel ik die grote CPU's ga missen uiteraard. Ik zat laatst (TRX40 board heeft af en toe USB kuren... echt een threadripper dingetje, X570 had het ook maar daar zat net wat meer focus op bios upgrades) al een Intel 12th gen of een 5950x te overwegen, maar gezien dit tempo en hoe goed m'n huidige bak nog volstaat (mijn criteria hardware switch: het is zó veel sneller dat het in een dag zeker 15min bespaard, het is zó veel stabieler dat het rustiger werkt, er is een nieuwe feature die zó veel scheelt, of het is enorm veel duurzamer), wacht ik tot de release +3mnd, én de volgende Intel gen release (+3mnd gare bios) als overweging. Ik vrees dat ik, als ik TRX40 dump (mwoah, energiezuinige server...), toch een hoop andere zaken moet bijkopen, zoals een waterblok, geheugen, etc...
Slechts 24 PCIe lanes? Dat is wel heel teleurstellend, een grote reden waarom ik fan was van de hele Ryzen architectuur was de grote hoeveelheid PCIe lanes.

Ik had ook het idee dat dat voor meer mensen gold. Beetje bizar dat ze hiervoor hebben gekozen, is er iemand die weet waarom?
Het gaat om PCIe-5 lanes.
Er is niks gezegd over V4 en V3 lanes.

Het is uiteindelijk ook een kosten-baat berekening die gemaakt zal moeten worden.
90% heeft al voldoende aan PCIe-4 (of zelfs v3)
9% heeft baat bij PCIe-5 met 24 lanes (16x voor de videokaart en een zeer snelle m.2 SSD)
1% die hier niet voldoende aan heeft, is niet de moeite waard om je moederborden nog duurder te maken, deze niche zou wel overstappen op het Threadripper platform die later zal volgen.

Het Threadripper platform bied aanzienlijk meer lanes, maar daar betaal je ook weer voor.
Ik vind de huidige inzet van 24 lanes (waarvan 20 daadwerkelijk beschikbaar) een goede keuze voor dit moment.
Meer dan 90% heeft zelfs voldoende aan 3.0, aangezien zelfs een 3090 op 3.0 x16 nagenoeg hetzelfde presteert als op 4.0 x16
Zelfs op 4.0 x8 zijn de prestaties amper minder dan op 3.0 x16

NVMe SSD's halen op 3.0 x4 zo'n 3000 MB/s en op 4.0x4 zo'n 5000 MB/s
Bijna niemand heeft privé meer dan 1Gb/s, oftewel grofweg 100MB/s internet, dus voor downloads is er al geen voordeel. Zelfs SATA is dan al voldoende.
Ook Windows presteert op NVMe al amper beter dan op SATA, dus het enige voordeel is voor foto/video-editors
En daarvoor is PCIe 4.0 bij mijn weten ook al voldoende

PCIe 5.0 verdubbelt de bandbreedte van 4.0, wat al een verdubbeling was van 3.0
Dus bijna niemand zal daadwerkelijk baat hebben bij de pure snelheid van 5.0
Het enige voordeel is dus dat je op minder lanes dezelfde snelheid haalt
PCIe 5.0 x4 is dus theoretisch gelijk aan 3.0 x16 of 4.0 x8
En PCIe 5.0 x1 is dus gelijk aan 3.0 x4

Als je het aantal lanes dus omrekent staan 24 PCIe 5.0 lanes gelijk aan 48 PCIe 4.0 lanes of 96 PCIe 3.0 lanes
Ik denk dat dat voor echt niemand te weinig is
Het jammere is echter dat Threadripper al heel lang eigenlijk geen HEDT platform meer is, maar is nu volledig gericht op de workstation markt. In feite is de X670E een dikke middelvinger naar de consument die op zoek is naar een HEDT platform. Met zo weinig lanes ben je gewoon beperkt tot één GPU en één SSD. Daar is weinig HEDT meer aan, maar het wordt nu wel een beetje als de plus variant gepresenteerd die normaal voor een HEDT platform is weggelegd.

[Reactie gewijzigd door ocf81 op 22 juli 2024 15:36]

HEDT was al een tijdje een Veblen Good: kijk eens wat voor een dure PC ik me kan veroorloven. De prijs/kwaliteit verhouding maakt niet meer uit, als de prijs de kwaliteit is geworden.

Voor 1440 gaming hebben we geen 980's in SLI meer nodig, zelfs 4K kan prima op een enkele 3090. En de beperking tot 1 M.2 slot? Dat is voor het M.2 slot dat direct met de CPU verbonden is. Je kunt meer SSD's via de chipset aansluiten.
Ik heb zelf mijn systemen nooit echt als Veblen goederen behandeld, maar ik kan mij voorstellen dat sommigen het zo zien.

SSDs aansluiten op de chipset zou kunnen, mits er geen bottleneck op de verbinding zit met de CPU. Helaas geeft het aantal lanes dat tussen chipset en CPU wordt gebruikt mij twijfels of de bandbreedte wel aanwezig is. Ook qua latency heb ik zo mijn bedenkingen.
Vergis je niet dat PCI-E 5.0 x8 hetzelfde is als PCI-E 4.0 x16, wat nog lang niet vol is met een GPU.

Zelfde voor de PCI-E ssd's.
Als er steevast 16 lanes naar de GPU gaan en je geen 4 PCIe SSD's en een 10 GbE kaart kan gebruiken heb ik daar niks aan. Dan zit ik nog steeds met een tekort aan lanes die ik voor andere kaarten kan gebruiken. Tevens zal over tijd de noodzaak om alles op PCIe 5 snelheden te draaien ervoor zorgen dat je ook niet anders kan. oudere versies van PCIe zullen ook alle lanes nodig hebben, dus dat is ook nog een factor.

SSDs zullen al tamelijk rap deze snelheden gaan benutten. GPUs wat minder snel, maar over tijd denk ik dat dit ook het geval zal zijn.

[Reactie gewijzigd door ocf81 op 22 juli 2024 15:36]

ik ben zo ontzettend benieuwd naar jouw "veeleisende consumenten" usecase voor 2/3/4x GPU, 4x PCIe SSD, en 10Gbit ethernet.

En dat is niet sarcastisch bedoeld.
10 GbE: voor toegang tot mijn NAS. Bij het maken van backups etc is het toch wel fijn om een paar TB snel over te kunnen zetten. Met 1GbE duurt dat te lang. (en ja, mijn NAS kan dat ook bijhouden)

4 SSDs: dual boot. per OS 1 data SSD en 1 OS/programma SSD.

[Reactie gewijzigd door ocf81 op 22 juli 2024 15:36]

De high end moederborden in deze reeks hébben toch gewoon een 10Gb poortje (of twee)? Dat je OS van een pci4.0 start ga je ook niet merken...

Ik denk dat je je beter nog wat inleest in moderne systemen ipv gewoon te roepen "ik wil een HEDT!"?
en grotere SSD's met meerdere partities? (als het alleen om dualboot gaat, is dat een goede oplossing) zelfde performance, lagere prijs?

10Gb/5Gb/2.5Gb/1Gb: veel kleine bestandjes maken trage backups. Ja, de link is een factor maar als er 1000x 60KB overheen gaat is dat een stuk langzamer dan een brok van 600MB. Misschien ben je aan het bruteforcen wat met een backup pakket op te lossen is?

10Gb is natuurlijk gewoon hartstikke fijn maar ik ben naast virtualisatie nog geen echte "thuis" usecase tegen gekomen.

Ik weet natuurlijk niet wat er allemaal gebeurd in jouw situatie, maar dit is wat er bij mi door het hoofd schiet..
Ik wil juist een hardwarematige scheiding tussen SSD's om ervoor te zorgen dat je parallel reads kan doen naar het OS en de applicatiedata. Tevens wil ik graag makkelijk een OS kunnen herinstalleren zonder gezeik met partitionering, want ik heb een enorme hekel aan het gezeik met partitionering tijdens het installeren van een OS. Twee redenen om voor aparte SSD's te kiezen dus. Hopelijk kan ik t.z.t. van windows af, dat zou 2 SSD's schelen.

10GbE heeft zeker wel nut. Het is ook wel zoals je zei dat er in eerste instantie een ander toepassing was. Ik draai ook wat servers die 10GbE gebruiken om via iSCSI VM's te bedienen. Het doortrekken van het netwerk buiten de serverkast was daarmee (onweerstaanbaar) laaghangend fruit.
In het verleden wel eens een hele schijf van 2 TB proberen te backuppen. Dat duurde iets van 7 uur over 1GbE. Met 10GbE duurt dat ca. een half uur. Kleine bestandjes zijn inderdaad trager, maar ik heb ook grotere bestanden zoals game recordings van een paar GB. Die gaan wel redelijk rap. Maar ook de NAS zelf wordt een stuk bruikbaarder. Zoals ik al zei is de transfersnelheid merkbaar hoger dan bij 1GbE. Echter, door de lagere latency kan je ook de NAS meer als opslag voor lokaal te bewerken files gebruiken zonder dat je merkbaar last hebt van een I/O bottleneck, zoals dat met 1GbE wel het geval is. De ervaring is nu meer als een HDD dan dat je denkt met een netwerkopslag te werken. Genoeg redenen voor mij om 10 GbE te gebruiken.
Dank voor je reactie!

food for thought ;)

Ik zit nog steeds tegen 10 gb aan te hikken thuis, ik heb de usecase niet en vind de apparatuur nog te duur.

Tegelijkertijd vind ik het gewoon wel "leuk" :)
Het is leuk speelgoed, maar niet goedkoop. Voor mij was de meerprijs ca €500 voor de switch (US-XG-6-POE) en NIC, en dat was 2e-hands.

Tegelijkertijd is de meerprijs/baud die je voor 2.5 of 5GbE (licht) hoger dan voor 10GbE, aangenomen dat je al Cat 6A hebt en dat je links niet langer dan 30m zijn. Ik betaal er echter graag voor, (anders was ik ook geen HEDT klant ;) ) en ik verwacht er lang mee te kunnen doen. Mooi voordeel: als we glasvezelinternet krijgen met 10GbE abonnementen, en dat is in sommige delen van Europa al het geval, dan kan ik over zonder upgrade.
Wat jij wil als cpu, is een server cpu in een desktop jasje. Een workstation in de zakelijke markt.
En dan maakt het niet uit of je de AMD of Intel versie koopt. De consumenten versie van beide kampen kan niet leveren wat je vraagt.
Niet de lanes, niet de hoeveelheid geheugenbanken en niet de bandbrete richting storage om de 10Gbe te benutten. Ja naar de ssd. Maar dat is niet je werkstorage bij dit soort machines.
Ik ben inderdaad op zoek naar een opvolger voor mijn HEDT gaming bak :)
Voorheen was dit altijd mogelijk, maar de laatste jaren niet meer. Wel jammer dat deze markt niet meer lijkt te worden bediend. Overstappen naar een normaal consumentenplatform is behelpen als je al bijna 15 jaar op HEDT platforms zit.
HEDT is gewoon een enorme niche-markt en blijkbaar niet meer lonend genoeg voor AMD en Intel om in te investeren. Kan ik me ook wel iets bij voorstellen; ik zou ook geen fortuinen willen investeren in een product waar minder dan 1% van de markt (schatting) het geld voor over heeft. Staat leuk in je portfolio maar echt winstgevend zal het m.i. niet zijn
Dat is niet zo, een moederbord bied vaak meer pci-e slots aan dan dat er lanes zijn. Je kan daar dus wel een beetje mee spelen. Soms zitten er ook x16 slots op die maar x8 wired zijn, of x8 slots met een x4 link.
Dat soort compromissen zijn altijd een enorme afknapper, en vaak ook totaal niet geschikt voor waar ik naar op zoek ben.
Dat soort compromissen zijn altijd een enorme afknapper, en vaak ook totaal niet geschikt voor waar ik naar op zoek ben.
Waarom koop je dan niet een workstation waar dat soort zaken wel in zitten?
Dat zou kunnen. Hopelijk zullen daar dan ook de CPUs voor komen die rap genoeg zijn. Je ziet bij workstations steeds meer dat de single thread topsnelheid achterloopt bij de desktop CPUs.
Dan moet je zoals gezegd gewoon voor het high-end platform gaan, X299, Threadripper, EPYC, Xeon, daar heb je rustig 48 lanes.
Hier het zelfde probleem,
Leuk pcie 5.0 maar heb meer aan een sloot 3.0 lanes.
Videokaart zal voldoende hebben aan 16 4.0 lanes
8 pcie 5.0 lanes voor m2 zal mooi zijn , 4.0 kan ik ook mee leven, minder dan 8 lanes niet.
8 pcie 3.0 lanes voor Fibre HBA (verbinding met me SAN)
8 pcie 3.0 lanes voor infiniband naar NAS
2 of 4 3.0 lanes voor netwerk (10gb bijv)
Kwa bandwidth zal dit met 24 5.0 lanes kunnen.
Ik denk dat we geen ander keuze hebben dan servergrade te gaan.
Wel jammer dat je dan weer een extra slot kwijt bent voor audio
Op zich zou dit kunnen qua bandbreedte, maar ik vraag me af of het toevoegen van switches om dit te realiseren niet een sloot latency toevoegt.
Buiten dat zal er nooit een bord komen die dat zo mooi opsplitst,
Anderzijds een 12 core epyc met mooie clocks, en een 280W TDP zal hedt kunnen vervangen 😀
En wat is het verschil tussen een HEDT en workstation?
Beide zijn de top van de markt. Beide zijn bedoelt als werkpaarden. En beide zijn gebouwd om stabiel lange tijd te kunnen werken.
Ik denk dat HEDT toch vooral voor de veeleisender consument is, met relatief meer lanes, storage en dat soort zaken, en dat workstation meer een low end server is met een relatief snel geklokte server CPU.

Ik zie zelf een DDR5 platform met 4 geheugenkanalen en 40 à 50 PCIe 5 lanes wel zitten. Helaas geeft AMD dus duidelijk niet thuis.
Een workstation is gewoon bedoeld voor high-end desktop werk. Niet voor server doeleinden. Workstation is gewoon een term die meer in het bedrijfsleven word gebruikt voor high end pc.

Uiteindelijk is alles als een server in te zetten van de PI tot workstations en dedicated servers. Maakt geen verschil in wat die apparaten voor in de markt zijn gezet. Workstations is voor CAD en simulatie e.d. doeleinden.
Dat is één manier om er naar te kijken. Initieel is HEDT neergezet als een platform voor veeleisende consumenten. Er zijn ook altijd meer professionele oplossingen geweest voor de workstation markt, met moederborden die gebaseerd waren op server chipsets. Wat mij betreft zijn het dan ook twee aparte segmenten in de markt.

En een Pi als server? Voor je knutselprojectje misschien.
En een Pi als server? Voor je knutselprojectje misschien.
dat was om te illustreren dat mensen wel vaker hardware voor een doel gebruiken waar het niet voor bedoeld is. Zie jeff Geerlings recente poging om een PI een petabyte aan storage te laten verwerken in een raid opstellig.

Jij noemt workstations low end servers. Maar dat is niet het doel waarvoor ze verkocht worden. De PI is een goed voorbeeld van een ding dat voor veel doeleinden is gebruikt waar het nooit voor bedoeld was.

Workstations zijn een klasse van typisch high performance bakken. Voor mensen die cpu intensieve of data intensieve taken hebben. Dat die CPU's en dus chipsets gebruiken die voor een server markt zijn bedoeld maakt het niet ineens dat workstations servers zijn. Hardware is hardware. Workstation is een workload specificatie, niet een hardwarespecificatie. Dat intel een XEON verkoopt voor server toepassingen wil niet zeggen dat er geen andere toepassingen zijn. AMD zegt "high-performance desktop and workstation microprocessors" als threadripper zijn toepassing. Maar er houd niets je tegen om hem in je htpc te gebruiken.
Maar de vraag is of daar ook echt controllers voor gemaakt moeten worden.
Een geschikte chip ontwikkelen, produceren en op de markt neerzetten kost ook veel geld.

Als er winst gemaakt had kunnen worden op het product, dan hadden ze dit ook uitgebracht.
Het is alleen jammer dat het merendeel van de markt gewoon niet wilt betalen voor zo'n platform, en geef ze eens ongelijk. De meeste mensen hebben dit niet nodig.

Voor de huidige markt hebben de meesten genoeg aan één PCIe-5 Videokaart en één PCIe-5 M.2 SSD.
Daarvoor is PCIe-5 op dit moment zelfs overkill.

Wil je naast je performance m.2 SSD nog extra storage, dan stop je een PCIe-4 m.2 SSD in je systeem.
Videokaarten daar begin ik niet eens meer over sinds SLI en Crossfire eigenlijk al een stille dood zijn gestorven.
Als over 2-3 jaar er meer hardware zijn die gebruik maken van PCIe-5, dan zal er vanzelf een chip ontwikkeld worden die meer lanes gaat ondersteunen.

p.s. bedank ook dat het niet alleen de chip is, ook moederborden zijn aan zeer hoge eisen gebonden hoe de lanes gemaakt moeten worden. De productiekosten van PCIe-4 en 5 lanes zijn aanzienlijk hoger dan de PCIe-1, 2 en 3 lanes. Dus moederborden met meer lanes zullen ook echt "veel" duurder zijn.
Workstation heeft niets met server gebruik te maken. Een i3 of gemiddelde AMD AM4 CPU kan je ook als server inzetten. Sommige moederborden ondersteunen en valideren daarmee ECC geheugen. Zal een gemiddeld bedrijf dat snel doen? Waarschijnlijk niet omdat de performance dichtheid er niet is. Je kan ook niet opschalen op zo'n platform. Maar voor consumenten markt is er genoeg mee te bedienen (of zoals gezegd, zelfs met een RPi).

HEDT is inderdaad voor de veeleisende gebruiker.. maar ook dat kan je nader bepalen. Een gamer is er weinig gebaat bij: die heeft meer aan een hooggeklokte 8-core chip oid (12900KS, 5800X3D) met genoeg lanes voor zijn GPU en M.2 SSD.
Wil je veel CPU performance, dan kan je tegenwoordig al best veel krijgen op een mainstream desktop platform. 4-5 jaar terug waren we allemaal nog heel blij met een quad-core chipje van Intel, en nu hebben we al 2 generaties met genoeg keus uit 10+ core CPU chips.

De extra geheugenkanalen en PCI-e lanes zijn voor sommige toepassingen essentieel om te hebben, maar hebben we het dan over recreatief een familie fotoalbum/video bewerken/monteren, of een iemand die "echt werk" te verzetten heeft waar die geld aan verdient? En is die gebaat bij meer GPU/CPU rekenkracht, meer geheugen, enz? Waarschijnlijk koop je dan een HEDT workstation waar je dat in bij kan plaatsen.

Maar veel gebruikers zullen met een mid-end workstation van 8-16 cores ook al genoeg hebben. De niche voor de de HEDT markt is flink gekrompen en voor Intel zelfs al tijdje afwezig. Voor AMD is er dan relatief weinig noodzaak om TR heel competitief geprijsd in de markt te zetten. Ik denk dat een DDR5 TR platform nog wel uit kan komen, maar waarschijnlijk niet voor onder 1k (of zelfs 2k) EUR per CPU.

[Reactie gewijzigd door Hans1990 op 22 juli 2024 15:36]

Het verschil tussen HEDT in deze context is dat er groep gebruikers is die high end performance wil maar niet de workstation prijzen er voor willen betalen. Als je naar de eerste generatie Threadrippers kijkt is dat precies wat dit was. Je kon als consumer met iets meer te besteden de performance van een workstation waar je 20k voor betaalde maar dan voor 5k.
Kan nog steeds. Kant en klaar. Bijvoorbeeld de Lenovo Thinkstation lijn.
En net zoals een zelfbouw kun je het net zo gek/duur maken als je zelf zou willen.
Met PCI-e 5.x snelheden en bifurcation zou je die om moeten kunnen zetten 4x4 lanes. 1 slot met 4 lanes pci-e is gelijk aan een 16 lane 3.x slot dus als AMD ook videokaarten uitbrengt die PCI-e zijn is er geen enkel probleem ;-)
Die middelvinger-opmerking vindt ik nogal te vroeg. Wellicht wil AMD eerst kijken of de markt er ook echt om vraagt. Zo ja, kan een volgende iteratie hieraan voldoen.
Je gesprek begint op zuigen te gelijken neemt u mij niet kwalijk....
Ik neem het u kwalijk...
Is het niet zo dat de threadripper in de ijskast wordt gezet? En men nu op Epyc richt?
Ja, dat idee heb ik wel. Maar ik heb nu het vermoeden dat mensen die geen Epyc willen kopen nu worden afgescheept met een X670E. Dat is toch wel een karige propositie naar mijn mening.
Ryzen heeft toch altijd maximaal 24 lanes ondersteund? Als je meer wil moest je altijd naar threadripper.
Had er eigenlijk ook wel USB 4 op verwacht naar zo`n lange tijd.

Wat ik ook jammer vind op zo`n ATX bord, dat er generatie naar generatie steeds minder PCI-e slots op het bord worden gemonteerd..

Aan de ene kant snap ik dat wel met die M.2 storage.. Het is alleen jammer dat je met die M.2 verbindingen niks anders ermee kan dan er een M.2 ssd erin te monteren.

Vind dat ze beter gewoon PCI-e slots moeten gebruiken en dan M.2 op dochter kaarten installeren.. Dan heb je ook meer ruimte, zoals vroeger bij de 80286 we van DIP Dram gingen naar Sipps en later naar Simms.
In de 80286 tijd was alle elektronica nog zo langzaam dat je met 't handje een board layout kon maken, en dat werke elektrisch dan ook nog wel. Maar met de snelheden van PCI (de originele) was dat wel zo'n beetje het einde. Tegenwoordig zijn alle board-designs elektrisch gesimuleerd om de signaalintegriteit te bewaken. Connectoren zijn daarbij een bijzonder probleem, of het nu DIMM of PCI-e connectoren zijn. Je ziet zelfs dat high-end GPU's HBM gebruiken om de verbindingen zo kort mogelijk te houden.

Een M.2 slot op een PCi-e kaart die via een PCI-e connector met de chipset verbonden is? Dat is elektrisch wel een eind. Het is waarschijnlijk dan handiger om een PCI-e switch op de PCI-e kaart te hebben. Iets meer latency, duidelijk meer bandbreedte, doordat de switch de PCI-e bussen scheidt.
Ik denk dat er veel mensen niet eens 24 lanes gebruiken. Daarnaast is de bandwidth van die 24 lanes ook veel hoger omdat het 5.0 is dus 64 GT/s als ik Wikipedia mag geloven. (https://en.wikipedia.org/wiki/PCI_Express#PCI_Express_5.0)
Het pin count van het socket is een limiterende factor in het beschikbare PCIe lanes.
Die usb4 keuze vind ik raar.. iemand een idee waarom ze dat er niet ondersteunen?
Volgens mij gaat het er hier om dat usb4 niet rechtstreeks uit de cpu komt. Het kan altijd nog via 1 van de vele andere i/o mogelijkheden worden gemaakt. In een desktop is daar alle ruimte voor. En usb is tegenwoordig ook een verzameling aan andere protocollen die op zich ook weer overal en nergens vandaan komen. Dat verzamelen, daar hoeft de cpu zich dan ook niet mee bezig te houden.
Check, daar zit wel een logica achter, het is dan aan de mobo makers om er een losse chip voor in te zetten of het achterwege te laten dus..
Waarvoor heb je het nodig? Versus, het kost geld.
Op een laptop 1 USB poort die maar je docking station gaat is heel handig met een 4k monitor. Voor PC, 1x alle kabels vastmaken en klaat
Nouja het maakt de boel future proof.. “niet nodig” is een redelijk kul antwoord imo… we hebben pci5 dan toch ook niet nodig?
Alles kost geld, elke chip, elke optie. En daar zit ook marge op.
We kunnen er 10 USB4.0 poorten op zetten, maar wie heeft die ECHT nodig en wil daar voor betalen? Leg je er 20 euro extra voor neer? (Kleine doelgroep = kleine afzet = duur).
Bij alles kun je zeggen future proof, maar over 5 jaar heb je weer een nieuwe PC OF het maakt allemaal niet zo veel uit en je gebruikt toch je huidige.
Een rtx3950 is meer future proof dan een 3070 (vul naar keuze AMD in), waarom word die dure minder verkocht? Precies, niet nodig
Je mist het feit dat moederborden nog altijd werden uitgerust met meerdere controllers per bord en dan de onderverdeeldheid van de toegewezen bandbreedte.
AMD en hun PCIe shenannigans, nu moet je dus naast de CPU en de GPU ook nog gaan opletten welke specifieke chipset je koopt. Hiermee wordt een AM5 weer ingewikkelder voor de niet die-hard tweaker, en minder "future-proof", krijg je straks weer dat ze een GPU uitbrengen met PCIe 5.0 4x die dan op B650 borden ruk draait omdat je dan op PCIe 4.0 zit of zo...

Getekend, een tweaker met een 5700G (PCIe 3.0) en een RX6600 (met 4.0 8x)
Eigenlijk wordt er hier een meerprijs gevraagd voor mensen die hun moederbord aanschaffen om voor een langere periode als platform te dienen. Over tijd zal PCIe 5 steeds meer mainstream worden en zal het gewoon broodnodig worden. Voor dat soort mensen is X670E dus eigenlijk onontbeerlijk.
Of PCIe 5 broodnodig gaat worden voor consumenten wil ik nog zien want momenteel is er maar 1 markt die om meer en sneller PCIe vraagt en dat zijn servers.

Dat is een gevolg van zowel GPU's als rekenkracht inzetten als storage wat allemaal naar NVME aan het gaan is. Als je een server bouwt met 6 GPU's & 12 NVMe drives dan vliegen die PCIe lanes de deur uit alsof het niets is. En nu die server zo snel is wil je ook wel wat bandbreedte op je NIC, 40Gb, 100Gb of waarom geen 200Gb, daar gaan nog eens 16 lanes per netwerk adapter. Tegenwoordig moet je een dual socket nemen omdat je met 128 lanes per CPU niet meer toekomt maar dan krijg je weer latency problemen omdat je met storage zit verdeeld over 2 CPU's (afhankelijk van wat je juist aan het doen bent)

In dat soort scenario's moet je met PCIe 3 niet meer afkomen maar PCIe 4 is eigenlijk ook maar behelpen momenteel dus PCIe 5 is zeker gewenst.

Echter bij consumenten waar je 1 GPU hebt, 1 tot maximaal 2 drives en waar 10Gb nog een zeldzaam gegeven is zie ik totaal niet de toegevoegde waarde van PCIe 5. Bijkomstig is er maar 1 manier om die lanes sneller te krijgen en dat is door een meer zuiver signaal te hebben, dat wilt zeggen meer isolatie, meer timers, meer retimers, etc. Voor server boards is dat minder een probleem omdat die standaard al veel meer robuust gebouwd werden maar voor een consumenten bordje van 80 euro beginnen die eisen vrij onmogelijk te worden. PCIe 4 was al een probleem bij consumenten wat vooral bij AMD gekend is maar Intel heeft er ok last van bij pakweg de Z690I.

Het artikel toont ook dat AMD daar uit geleerd heeft, moederbord fabrikanten gaan sowiezo zoeken naar manieren om het te implementeren zonder de prijs sterk omhoog te gooien dus nu bepaalt AMD zelf hoe ipv achteraf met de problemen te zitten dat het langs alle kanten storingen geeft. Maar hoe je aan die signaal eisen gaat voldoen om het voor dezelfde prijs mainstream te krijgen is mij een raadsel.
Helaas ben ik zo'n persoontje die de grenzen opzoekt. Vroeger was dat geen probleem. Je betaalde een meerprijs en daar kreeg je een leuke featureset voor terug. Nu is die optie helaas aan het verdwijnen. Hier is alleen de laptop nog 1GbE, en dat is omdat het een oud ding is waar geen 10GbE dock voor te krijgen is. In mijn dual boot game PC wil ik graag data en OS van elkaar gescheiden houden, dus ik heb er meer 4 SSDs in zitten. Dat het dual GPU tijdperk voorbij is, kan ik ergens wel begrijpen, maar voorheen was ik dus ook CF gebruiker, en met veel plezier.
Het lijkt wel alsof de veeleisende consument wordt beperkt tot een soort armoeiig bestaan dat wordt gedicteerd door de middelmaat. Een soort volkscomputer, als het ware.
Ja dat is jammer voor jou, maar je doet net alsof het voor de mainstream straks een probleem gaat zijn en dat is dikke onzin. X670 biedt gewoon PCIe5 voor de videokaart. In de mainstream is er vrijwel niemand die daar nog een andere kaart naast zet, laat staan dat die PCIe5 nodig zou hebben.
Ik denk dat je mij verkeerd begrijpt. Met de X670E lijkt AMD te zeggen: als je meer nodig hebt maar geen workstation wil bouwen heb je dikke pech. Dat is toch wel tamelijk zuur.
Dan denk ik dat je misschien gewoon niet zei wat je bedoelde in je oorspronkelijke post.
Voor echte powerusers is het misschien onhandig, maar je stelt het daar alsof het met tijd voor iedereen een probleem zou worden (terwijl het dat voor 99% schat ik niet gaat zijn).
Het een en het ander sluiten elkaar niet geheel uit. Je kan het zien als een fee voor langdurig gebruik van een basisplatform. Tegelijkertijd ben ik ontevreden over hoe AMD HEDT behandelt en zie ik X670E als een mogelijke poging om HEDT klanten af te schepen. De eerste post gaat over de eerste mogelijkheid. Mijn reactie op @sprankel gaat meer over het tweede, aangezien hij dat erbij betrekt.
Vroeger was dat geen probleem. Je betaalde een meerprijs en daar kreeg je een leuke featureset voor terug. Nu is die optie helaas aan het verdwijnen.
Volgens mij krijg je nog altijd meer performance voor meer geld. Sterker nog: je krijgt zelfs meer performance voor minder geld!
Er is meer aan een computer dan de performance. Je wil ook uitbreidingssloten en meer aansluitingen.
Een trekhaak?! Nee, als je een aanhanger wilt koop je maar een vrachtwagen.

Als we toch met auto's beginnen. Dit is min-of-meer het probleem waar je tegenaan loopt als je iets meer eisen hebt.
Nee een elektrische auto die na 250km aan de laad paal moet? Of niet eens mag trekken?
Klopt, met als extra kanttekening dat de board partners waarschijnlijk ook nog die X670E borden volproppen met allerlei meuk waardoor de prijs nog verder stijgt.

Toen ik mijn B450 bordje kocht was er niet heel veel meerwaarde bij een X470, althans, het is niet alsof ik dan nu wel PCIe 4.0 had gehad.
Maar je moet bij de cpu toch altijd letten op de chipset die je gebruikt? Tel daarbij dat er ook een andere socket wordt gebruikt, je kan de cpu-s toch niet uitwisselen.

Naar mijn idee is deze ontwikkeling wel future-proof. Maar helaas voor jou niet history-proof'.
Klopt, mijn punt is meer dat je nu dus bijvoorbeeld een Ryzen 7600x (wel pci-e 5.0), RX7500xt (ook PCIe 5.0) en een B650 mobo (Geen PCIe 5.0 GPU support) kan kopen, en dus met verminderde performance kan komen te zitten, terwijl dit bij voorgaande platform geen probleem was, in ieder geval als je op de generatie van de chipset lette (AM4, 300 en 400 serie, PCIe 3.0, 500 serie, PCIe 4.0)

Het onderscheid tussen je GPU wel of niet op PCIe 5.0 kunnen draaien is nog een tandje subtieler geworden dan het al was, met dus meer kans op miskopen door de minder goed ingelezen consument. Daarnaast, kwa value kreeg ik met een B450 bord evenveel levensduur als een X470 bord, nu word ik "gedwongen" om een X670 te kopen als ik mijn bord langere tijd wil gebruiken
An sich eens, maar dat had je voorheen ook, maar dat was dan bijvoorbeeld de A520 serie. Het is maar net hoe je het ziet, uiteindelijk zijn het willekeurig gekozen namen. Als je eerst een B550 zou kopen, kom je nu waarschijnlijk op de X670 uit.

A520 -> B650
B550 -> X670
X570 -> X670E
Ah, helemaal gemist dat de A520 ook PCIe 3.0 was
Begin moederborden zijn nooit "future-proof".

Dat zag je al met X370. Het wat met X470 die wat meer "future-proof" was..

Leuk maar wat heb je er eigenlijk aan? Achteraf koop je toch weer een B550 of X570 voor de laatste features.

Beste wat je kan doen is niet zo vroeg instappen. En dan de eerste gen borden aan je voorbij laten gaan.
Mwa, ik heb een paar jaar terug een B450 bordje gekocht, en die gewoon gehouden na de upgrade van een 2600 naar 5700g, het enige wat ik mis zijn inderdaad een paar features, hoewel dat ook nog wel meevalt, volgens mij heb ik zelfs SAM werkend gekregen, ondankds dat AMD dat officieel verkoopt als feature voor de 500 series chipsets.

Overigens weet ik ook wel dat ik hiermee "geluk" heb gehad, het is dat AMD moeite had met snel een B550 introduceren, en een hoop backlash kreeg vanwege de ietwat dubbelzinnige belofte van "4 jaar support voor AM4", dat ze toch nog ryzen 5000 support naar de 400 serie chips hebben gebracht (en recent zelfs 300)
Nou ik ga toch over van een Asus ROG X470 crosshair Vii hero wifi.. Heb het bord nou dacht ik wel al 4 jaar in bezit.

Wat ik vooral nou mis is pci-e 3.0 op de chipset sloten.. Bij mijn huidige bord is dit nog 2.0
En daarnaast is een 2.5Gbit ethernet voor een 1Gbit ook wel leuk, net als de wifi 5 naar wifi 6.

En extra usb is altijd welkom. (geen hub nodig)
Het is andersom, AMD maakt het juist makkerlijker met de classificaties.
Moederbord makers moeten zich nu houden aan deze classificaties.
Als die er niet waren dan had elke moederbord maker zijn eigen mix kunnen verzinnen.
Of ze hadden gewoon alles hetzelfde kunnen behandelen, dus x6x0 chipset? > PCIe 5.0 graphics en een m.2 slot

Ik geef je op een briefje dat er mensen gaan zijn die straks een ryzen 7000 en een B650 bord kopen en dan later denken "waarom draait mijn GPU niet op pcie 5? Ik heb toch een 7700x?"
Ik geef je op een briefje dat er mensen gaan zijn die straks een ryzen 7000 en een B650 bord kopen en dan later denken "waarom draait mijn GPU niet op pcie 5? Ik heb toch een 7700x?"
Als ze bij aanschaf dit niet doorhebben of begrijpen gaan ze zich dit meestal later ook niet aanvragen of ervaren. Een B650 met een goede PCI4.0 GPU gaat nog wel wat jaartjes mee. Alleen de echte tweakers, die gaan benchmarken en de laatste percentages performance gaan zoeken gaan het verschil merken. En die doelgroep weet voordat ze kopen hoe het zit.
Inderdaad het B650 bord zal prima zijn voor een breed publiek, en de X670 voor als je iets toekomst zekerder wilt zijn voor een gpu upgrade met pcie 5.0
Veel M.2 SSD's die nu gekocht worden zijn nog steeds pcie 3.0 ipv 4.0 omdat dit voor veel taken (oa gaming) niet merkbaar is in de praktijk, dus ben benieuwd hoe hard die nieuwe pcie 5.0 M.2 SSD's gaan qua verkoopcijfers.
Zolang de prijs (te) hoog is zal het gros pcie 3.0 (en later 4.0 als die prijzen flink zakken) blijven kopen.
en bij 99% (overschatting) gaat die PCIe 4.0 genoeg zijn voor hun GPU... wat is de kans dat ze top-of-the-line GPU hebben met een B650 bord?
In theorie heb je daar 100% gelijk in, ware het niet dat AMD zelf ook kaarten uitbrengt met maar 8 of zelfs 4 lanes.

Een 6500xt (4 lines 4.0) op een PCIe 3.0 bord verliest significant aan snelheid, en dat is toch echt geen top of the line kaart.
is dat zo dat PCIe 3.0 4x te weinig is voor deze kaart? zijn daar benchmarks van?
Ja, je verliest daarmee heel veel
https://youtu.be/FQtdXsPw3wg
reviews: AMD Radeon RX 6500 XT - Laptopchip in een desktopkaart

En dat is ook het hele punt als je een platform wil kopen voor zeg 6 jaar, als je daar in de toekomst een onderkant mid-range kaartje in wil gooien met PCI-e 5.0 x4 of x8 moet je echt Pcie Gen 5 hebben, anders krijg je mogelijk hetzelfde als we nu zien met Gen 3.
Het probleem is juist dat AMD hun eigen GPU's niet het volledig aantal lanes laat gebruiken en dan hun budget-moederborden een generatie achter laten lopen op de PCI-E-versie die er op dat moment wel is op de high-end.

De 6600-reeks heeft maar 8 lanes en de 6500 zelfs maar 4.

Die laatste levert op een wat ouder bord dus een bandbreedte op van 4 lanes op PCI-E 3.0, dat is hetzelfde als PCI-E 1.0 16x en wordt daar zwaar door gebottleneckt.

Dat had AMD prima kunnen aanpassen naar 8 lanes, want alleen de combinatie van een B550/X570-chipset met een non apu 3000/5000-reeks geeft PCI-E 4.0. Ze hebben immers zelf er voor gezorgd dat apu's geen PCI-E 4.0 doen en een 3000-reeks die dat wel kan, dit alleen doet op een B550/X570-bord, terwijl dit ook op een X470/B450 had gekund.

En dan wel PCI-E 5.0 voor gaming op een B650? Dat is meer marketing dan dat het nuttig is. Je merkt al geen bal van in dagelijks gebruik of je 3.0 of 4.0 hebt, laat staan dat de flinke meerprijs van 5.0 de komende jaren is te verantwoorden in een budget-systeem. PCI-E 4.0 heeft al een maximum van 8 GB/s. Daarmee is het geheugen van een videokaart van 16 GB zo gevuld.
Op dit moment is er nog geen consumenten GPU die PCIe 5.0 ondersteunt en het is nog lang niet zeker of AMD 7xxx en nVidia RTX 40xx PCIe 5.0 gaan ondersteunen. De huidige generatie videokaarten zit nog heel ver van het plafond van 4.0 vandaan.
- In het verleden waren GPUs bijna nooit bandwith gelimiteerd. Je RX6600 zal in benchmarks normaal niet veel lager scoren. Met zaken als direct storage kan het eventueel wel belangrijker worden.
- PCIe 5.0 wordt een dure, signaal kwaliteit over heel het board goed houden is niet eenvoudig. Je kan verwachten dat de extreme chipset misschien wel dubbel zo duur wordt. Als je enkel storage/top slot GPU moet doen, kun je deze dicht bij de chipset plaatsen en wordt het een stuk makkelijker.
- Als je kritiek is dat X670E en X670 net iets te veel op elkaar lijkt, daarmee kan ik akkoord gaan.
en er is al bewezen dat er zeer beperkt performance verschil te meten is in uw geval... de tekortkoming zit in de GPU.
https://www.techpowerup.c...ci-express-scaling/3.html

trouwens je tweaker kunde begint al bij het feit dat je een 5700G koopt in combo van een 6600 maar soit.
Klopt, in mijn geval maak ik me ook weing zorgen

wat de combo betreft, de 5700g was een upgrade vanaf een 2600, in de tijd dat GPUs compleet onbetaalbaar waren, ik had dan liever de igpu achter de hand mocht mijn RX570 het opgeven, de 6600 is pas later gekomen, toen de prijzen weer een beetje OK waren (en ook aan de hand van het artikel dat je post, was ik prima op de hoogte van hoe de kaart het op pcie 3.0 ging doen, als er serieuze issues waren geweest had ik wat anders gekocht)
Hiermee wordt een AM5 weer ingewikkelder voor de niet die-hard tweaker (...)
De gemiddelde niet-die-hard tweaker moet al een LOI-cursus volgen om wijs te worden uit verschillende processortypes.

De meeste niet-die-hard tweakers hebben al teveel performance aan het voordeligste platform, of hebben voldoende geld om zich voor de zekerheid het meest uitgebreide platform te laten 'adviseren'.

Voor de mensen die er wel mee bezig zijn: zolang het geen kunstmatige barierres zijn, maar daadwerkelijk meerprijs voor meer mogelijkheden, is er meer te kiezen.
Ik begin nu toch wel zenuwachtig te worden betreft het lot van de pci-e X1 slots/x4 bus met x16 form factor.

Je zag het al bij Intel en bij de X570 refresh borden, maar dat vind ik toch een hele vervelende trend. Het gemak van een extra insteek kaartje lijkt verleden tijd.

Zeker nu er single slot AIO videokaarten de standaard/beschikbaar zullen zijn volgende generatie had ik de stille hoop dat we toch wat meer poorten zouden houden. Je kan die loze ruimte beter vullen lijkt me. Je hoeft ze niet te gebruiken.

En ja ik weet dat de bandbreedte niet bijzonder is, maar het is toch ook een stukje gemak. Minder gepruts met allemaal USB adapters.

Hopelijk komen er nog enthousiast borden die wat minder kaal zijn..
Ik zie borden met 3 pcihe x 16 op de slideshow.

Dus het valt wel mee volgens mij. Van 1 x16 slot kun je al een variant maken van 4 stuks x4.

Ik denk dat er straks genoeg te kiezen valt. Vraag is wel of alle sloten pci-e 5 zullen zijn.
Ze kunnen beter die M.2 poorten weg doen en deze op een daughter board plaatsen.. Bespaard een hoop ruimte.. Blijkbaar is het te duur om er een M.2 daughter card erbij te leveren.
Waarom stapt AMD over van pga naar lga? Omdat dan de CPU goedkoper wordt en ze beter kunnen concurreren met Intel?
Voor de consument is het een sigaar uit eigen doos want dan zullen de moederborden weer duurder worden.
Een Land grid array pin neemt minder ruimte in dan een Pin grid array.

Het kan best zo zijn dat ze meer pinnen nodig hebben en nu kunnen ze zonder de CPU interposer groter te maken meer pinnen kwijt.
Als je dus ooit wil upgraden naar een snellere cpu en vooral snellere gpu is B660 dus een slechte keuze omdat we de impact van PCI-E 5.0 nog niet weten.
Je kan dan maar beter wel de support hebben anders loop je het risico dat je een nieuw bord nodig heb.
als ik het goed begrijp dan kun je dus zelfs op een X670E niet 3 SSD op PCIE 5.0 laten draaien MET een videokaart op 5.0?

gezien er 2 keer een videokaart op die snelheid in kan moet dit toch lukken of mis ik iets?

alvast bedankt voor de hulp

[Reactie gewijzigd door atthias op 22 juli 2024 15:36]

Òp zich zou 4x3 lanes voor SSD plus 8 lanes GPU ook werken. Dat zijn nog steeds 20 lanes. Of er moederborden komen die de PCI-e lanes zo uitsplitsen moeten we gaan zien; qua aantallen komt het uit.
maar dan draaien ze niet op volle snelheid toch?

jammer moet ik toch doorgaan met 1 boot SSD en 1 storage SSD
Het A platform zoals bij AM4 stopt dus met bestaan. De instap is nu bij AM5 het B 650 platform.
Weet iemand al vanaf welke prijzen die B650 bordjes ongeveer te koop gaan zijn?
Nu koop je al een A320 bordje voor een budget build vanaf 35 euro.
Waarschijnlijk vanaf 150 euro of zo. Ze zullen vast wel wat de prijs verhogen.

[Reactie gewijzigd door Robin4 op 22 juli 2024 15:36]

Even een noob-vraag hier.

Ik zit te twijfelen om in de nabije toekomst een 5950X te kopen. Maar met de komst van AM5 is dat dan wel slim? Of komt de opvolgeer van de 5950 pas over enkele jaren?
Als het alleen gaming is zou ik het persoonlijk niet doen.
Want die 5950x is feitelijk niet veel sneller.

Een chip van de nieuwere generatie met minder cores is dan zelfs sneller.

Op dit item kan niet meer gereageerd worden.