Door Jelle Stuip

Redacteur

Column - Wat moet dat M.2-slot op onze desktopmoederborden?

21-02-2021 • 06:00

223

Column

Onlangs schreven we op Tweakers over een watergekoelde M.2-ssd. De ssd heet MP600 Pro Hydro X en dankzij het waterblok ‘pluk je’, volgens de fabrikant in zijn persbericht, ‘de voordelen van lagere temperaturen en elimineer je vrijwel alle throttling’. Nu snap ik dat je je overgeklokte cpu en videokaart, die samen een halve kilowatt verstoken, met vloeistof wil koelen, maar een M.2-ssd, die volgens de specs maar 7 watt mag verstoken? Dat gaat natuurlijk helemaal nergens over.

MiniPCI and MiniPCI Express cards

Het M.2-slot, waarvan we er op de knappere moederborden soms wel drie aantreffen, had daar eigenlijk nooit moeten zitten. Het is bedoeld voor laptops, zoals voorheen mini-PCI Express de laptopversie van PCI Express was en nog eerder mini-PCI de laptopversie van PCI. Op de een of andere manier zijn we laptophardware in onze desktop gaan schuiven en eigenlijk past dat helemaal niet, want het wordt zo warm dat we onze opslag intussen met water moeten koelen als we willen dat het fatsoenlijk blijft werken. Throttling zou wat mij betreft iets moeten zijn dat in een extreem scenario kan voorkomen en niet iets waarvan de fabrikant niet eens durft te garanderen dat het met behulp van zijn waterkoeling niet plaatsvindt.

En de grap is: er is een prachtig alternatief. Of eigenlijk was dat er. Vanaf 2014 werden moederborden namelijk voorzien van SATA-express-connectors. Ken je die nog? Heb je weleens in de situatie gezeten dat je een nieuwe NVMe-ssd wilde kopen, maar dat je moederbord daar geen connector voor had? En dat je dan vervolgens de keuze had tussen een PCIe-insteekkaart kopen en maar gewoon je hele systeem upgraden (en dat je vervolgens dan toch maar alles een upgrade gaf, want nieuwe hardware is leuk en ach, dat oude mobo had niet eens 10Gbit/s-USB-poorten, dus hoog tijd voor wat nieuws).

Sata express

Dat was dus allemaal niet nodig geweest als SATA Express ‘gewoon’ de opvolger van SATA was geworden. Het mooie is, was, namelijk dat je op de Express-connector je gewone oldskool AHCI-ssd kon aansluiten, en als je op een gegeven moment de stap naar een NVMe-ssd zette, hing je je splinternieuwe ssd dankzij diezelfde connector direct aan de PCIe-bus. Magie op je mobo!

We krijgen bij Tweakers met enige regelmaat nieuwe hardware toegestuurd, maar je voelt het al aankomen; in heel 2014 was er geen spoor van SATA Express-ssd’s te bekennen en toen we uiteindelijk in 2015 onze eerste NVMe-ssd testten, was het een Intel 750, met PCIe-aansluiting en geen SATA Express.

Sata express

SATA Express is dus stilletjes verschenen en vertrokken op de moederborden. Kortstondig werden sommige high-end moederborden nog voorzien van een U.2-connector, wat eigenlijk de serverversie van SATA Express was en eigenlijk ook superieur was aan M.2. Voeding en data zitten in dezelfde stekker, die in spanningen van 3,3 en 12 volt voorziet. Hotplug wordt ondersteund en misschien wel het belangrijkste: de ssd’s die je er uiteindelijk aan hangt, zijn van ‘gewoon’ 2,5”- of eventueel 3,5”-formaat. Anders dan met M.2-ssd’s heb je op dat formaat wel genoeg oppervlakte voor een fatsoenlijke heatsink en daardoor hoef je niet naar paardenmiddelen als een waterkoeler te grijpen, zoals bij de M.2-ssd's waarmee we nu opgescheept zitten.

Ook dat snap ik eigenlijk niet; als de ssd-fabrikanten ons met alle geweld M.2-schijven in onze desktop willen doen schuiven, waarom dan die lullige 80mm lange exemplaren? De M.2-specifcatie omvat ook een lengte van 110mm, waarop je dus een 37,5 procent langere heatsink kwijt kunt. Die kan vervolgens meer warmte afvoeren, waardoor je ssd langer throttlevrij is.

Voordat ik daadwerkelijk mensen ga enthousiasmeren voor dode connectors en M.2-ssd’s in formaten die nauwelijks te koop zijn, moet ik toegeven dat ik de aantrekkingskracht van een watergekoelde ssd stiekem wel snap. Sterker nog, ik heb me in het verleden zelf weleens schuldig gemaakt aan het koelen van mijn opslag. Tegenwoordig zit mijn pc in een gesloten behuizing, maar destijds was mijn kast voorzien van een venster en hingen er ccfl’s in. Jaja, opa vertelt: rgb-ledkitjes had je namelijk nog niet. Het was een bijzonder warme zomer in 2004, de temperatuur van mijn harde schijf ging richting de vijftig graden Celsius en toen schafte ik dit aan:

AWESOME HARDE SCHIJF KOELER

En net als de mensen die nu een watergekoelde ssd kopen, was de temperatuur de officiële reden van aanschaf, maar eigenlijk deed ik het ook omdat ik het er heel cool uit vond zien. Dus, watergekoelde ssd-kopers, hoewel ik er bij blijf dat M.2 niet op de desktop thuishoort, snap ik jullie volkomen.

Reacties (223)

Sorteer op:

Weergave:

SATA Express wordt hier geprezen als alternatief voor M.2, voor het gros van de mensen kan ik hier nog iets bij vinden, zeker aangezien LTT een tijd terug een blinde test had gedaan waarbij het tragere SATA sneller werd bevonden.

https://youtu.be/4DKLA7w9eeA

Maar... SATA Express is bij lange na niet zo snel als M.2 NVMe kan zijn, met 16Gbit/s (oftewel puur theoretisch 2GB/s) ten opzichte van PCIe 3.0 M.2 met 1GB/s per lane. De meeste m.2 setups hebben dit als 4 lanes geconfigureerd en daarmee zou het theoretisch dubbel zo snel zijn.
Neem daarbij dat je theoretisch kan doorschalen naar x8 of zelfs x16, dan is er helemaal geen competitie meer. SATA Express zou binnen no-time weer een bottleneck gevormd hebben, nog sneller dan M.2.
Heel veel theoretisch, maar er bestaan volgens mij wel degelijk SSDs die op x8 werken (al dan niet via een normaal PCIe slot).

Het artikel vergeet ook te vermelden dat waterkoeling alleen in uitzonderlijke gevallen nodig is op een M.2 SSD. SATA varianten hebben hier al helemaal geen last van, maar zelfs high end NVMe varianten hebben vaak voldoende aan geen of passieve koeling, enkele heethoofden daargelaten.
Wel ben ik het eens dat de form factor een limiet vormt en we hier iets op moeten vinden; desnoods de breedte in.

Neem daarbij dat SATA Express kabels weer de breedte in gaan voor de data connector en ze worden ook lastig om netjes weg te werken. M.2 heeft geen kabels en zelfs U.2 heeft een relatief ronde en dunne kabel die makkelijk weg te werken is.

Aangezien beide standaarden in principe gewoon het NVMe protocol overbrengen vind ik het dan wel logisch waarom M.2 het heeft gewonnen van SATA Express. Ik vind het artikel hier dan ook wel erg kort door de bocht en negatief richting M.2.
SATA Express is bij lange na niet zo snel als M.2 NVMe kan zijn
Hoe staat het eigenlijk met M.2 NVME evolutionair gezien?

Ik heb een keer een video van Linus gezien waarin mensen gevraagd werd welk systeem voor hun gevoel sneller was en het systeem waarvan testers dachten dat dat het systeem met NVME SSD was (want het meest snel) bleek degene te zijn met een 'oldskool' SATA SSD.

Maar dat was alweer een tijdje geleden. Ontwikkelingen gaan snel op IT gebied. Dus ik heb wel behoefte aan een update op dat vlak. Staat NVME nog steeds in de kinderschoenen vergeleken met wat het maximaal kan leveren of valt dat intussen mee?

En hoe zit het eigenlijk met (de kans op) storingen door interferentie vanwege elektromagnetisme tussen al die verschillende componenten die hutje mutje op dat moederbord gepropt zitten en op topsnelheden werken? Ik heb 20 jaar geleden een elektrotechnicus gesproken die daar toen al sceptisch over was.

[Reactie gewijzigd door Uruk-Hai op 22 juli 2024 13:35]

Met electromagnetische interferentie (EMI) moeten PCB ontwerpers rekening houden. Gelukkig zijn de signalen relatief klein zowel in spanning als stroom, dus de straling -ip een hinderlijk niveau- komt niet heel ver.
Er e
Wordt rekening gehouden met richting van sporen (bussen), je vindt heel veel ontstoringscondensatoren om de voedingen schoon te houden en componenten worden strategisch geplaatst ten opzichte van elkaar - dichtbij om verbindingen kort te houden, of juist ver weg om beïnvloeden tegen te gaan.
PCB ontwerp voor dit soort apparatuur is een kunst.
Dat is precies het filmpje waar ik naar link ;)

Voor zover ik weet gaat M.2 NVMe gewoon mee met de PCIe revisies. Dus wanneer straks PCIe 5 verschijnt kan je er donder op zeggen dat er ook M.2 sloten met PCIe 5 en M.2 SSDs met v5 uit komen.
Misschien als SATA Express mainstream was geworden dat ditzelfde effect daar ook plaats had gevonden.

Maar, dit zal vooral in sequentiële reads/writes effect hebben door de hogere maximale snelheid van de bus. Voor zover ik weet, en correct me if I'm wrong, ben je nog steeds aangewezen op de controller en soort/kwaliteit van flashgeheugen wat betreft latency; en dat is voor random reads juist heel aantrekkelijk. Het lijkt me dat daarom juist ook de SATA SSD heel goed uit de test komt, omdat daar de interface ook geen bottleneck vormt.
En eerlijk gezegd denk ik dat daar ook het stukje responsiveness bij komt kijken, aangezien je OS en programma's niet als één groot bestand op je SSD staan opgeslagen maar uit heel veel kleine stukjes. Dus hogere random IO betekent sneller laden van je programma's (in theorie).
Ik begrijp lang niet alles van je verhaal. Ik vermoed dat ik vergeleken met jou het IQ van een aardappel heb.

Maar wat deze aardappel van jouw verhaal kan maken is dat het tussen SATA, PCIe en NVME nog steeds een nek aan nek race is en je niet zomaar kan zeggen: die heeft dat naampje en is dus beter.

Hoe kun je als zelf bouwende consument dan nog door de bomen het bos zien? Of lukt dat momenteel gewoonweg niet meer?
Ik snap ook de ballen van de meeste dingen kwa opslag :P vandaar de disclaimer dat ik niet weet of wat ik zeg klopt.

Ik denk dat je de essentie te pakken hebt van wat ik probeer te zeggen. Voor dagelijks gebruik is het een nek-aan-nek race aangezien geen enkele interface een bottleneck vormt het snel laden van kleine bestanden. Misschien is SATA met AHCI een fractie trager dan een PCIe SSD; maar niet iets waar een eindgebruiker last van zou moeten hebben. Dat toont het filmpje van LTT tenminste aan.

Wat je wél kan zeggen is dat een bepaald type SSD beter bij een specifieke workload past. Als jij bijvoorbeeld vaak video bestanden moet kopiëren, doorgaans een aantal GB, dan wordt een PCIe-gebaseerde SSD interessanter, want deze heeft een hogere sequentiële (aan-een-stuk-door) lees- en schrijfsnelheid die SATA niet kan bieden.
Maar denk ook aan games die bestanden moeten inladen van een aantal GB groot. Deze kunnen (mits een ander component geen bottleneck vormt natuurlijk) profijt hebben bij een PCIe SSD, al denk ik niet dat het in dat geval echt voor meer FPS gaat zorgen (tenzij het RGB heeft natuurlijk ;) ).

Om dit terug te koppelen naar SATA Express denk ik dan ook dat het een dood platform geweest zou zijn vanaf het begin. SATA doet op zichzelf al 6 Gbit/s of ongeveer 750 MB/s maximaal. SATA Express zou dit dan, in PCIe modus, iets meer dan verdubbelen naar 16 Gbit/s oftewel 2 GB/s.
Om dit in perspectief te zetten; de PCIe 4 x4 SSDs op de markt gebruiken al meer bandbreedte dan PCIe 3 x4 kan bieden, en dat is 4x 1GB/s oftewel 4 GB/s. SATA Express had dus al bijna vanaf het begin af aan al voor bottlenecks gezorgd.

Om je laatste vraag te beantwoorden: ik durf het zelf ook niet meer te zeggen. Voor mij persoonlijk is een goede SATA SSD meer dan voldoende, ook al heb ik nu een NVMe in mijn desktop en laptop zitten. Waarom? Geen idee, hogere cijfertjes = beter I guess? :+
vergeet ook niet de ontwikkeling in big data, machine learning/deep learning. door opslag op de pcie bus te hebben is er minder latency tussen GPUs/accellerators en opslag. NVME over Fabrics voor low latency in clusters/supercomputers.
dus dat had sata-express misschien niet de goudenoplossing geweest in de huidige vorm.

Ik kan mijn reactie echter niet meer '1-2-3' vinden maar in een redelijk recente discussie onder een ander artiekel schreef ik al iets soorgelijks - er zijn meer standaarden dan enkel M.2 - ook Thunderbord zou een optie geweest kunnen zijn. ik denk dan bijvoorbeeld aan een hub die enerzijds pcie-x16 gen(x) ondersteund en aan de andere kant 4x 4lanes of 8x 2 lanes kan verdelen of in een enkel geval zelfs 16x 1lane ondersteunt.

ik ga er gemakshalve dan maar van uit dat indien TB geschikt is voor een e-GPU, het ook wel af kan voor meerdere disks. in een ENKEL geval zou je dan een extreem snelle m.2 ssd gebruiken die bijvoorbeeld over x8 of x16 beschikt en gebruikt kan worden als ultra-highend disk voor taken die zelfs voor pcie gen3 x1 of x2 te zwaar blijken te zijn. het lijkt mij een evident voordeel om usb-c kabels in te kunnen zetten omdat ze
> compacter zijn dan sata + sata-power,
> compatible zijn voor intern en extern gebruik.
> omdat het een inmiddeld door en door bekend, en doorontwikkeld, concept is.
de thunderbolt zit op de pcie bus. dus dan ga je van NVMEdisk-thunderbolt-pcie-thunderbolt-GPU.
als het direct op de pciebus zit gaat het van NVME-pcie-GPU.

de m.2 is voor desktop met de huidige ontwikkelingen loopt tegen limitatie. heatsinks zijn met de pcie4.0 versies zijn een must. maar de SSD direct op de pcie bus is een goede ontwikkeling.

Voor een server in een cluster met hoge I/O zou je SSD's willen hebben als deze
pricewatch: Gigabyte Aorus Gen4 AIC 8TB
en een netwerk met NICs als deze
pricewatch: Mellanox ConnectX-6 VPI Card (Dual-port, PCIe4.0 x16)

als je dan X aantal GPU servers hebt die allemaal met 400gbit glasvezel met elkaar verbonden zijn, dan snap je waarom latency heel belangrijk is.
Ik vind het vooral een punt dat je bij MOBO's rekening moet houden met mogelijk wegvallen van een bus als je een M.2 aansluit.
Dit was echt een eye opener voor me toen ik er 1 in mn pc stopte en er 2 andere SATA harddisk niet meer gebruikt konden worden.

Hier gaat dan ook mn meeste tijd in zitten om te zoek naaar een ander MOBO, ik wil alle kanalen kunnen gebruiken.
Ik vind het altijd reuze vervelend als ik iets aanschaf waarbij achteraf blijkt dat het helemaal niet werkt zoals ik voor ogen had.
En natuurlijk moet ik dan meer onderzoek doen van tevoren, maar ik vind dat persoonlijk echt vervelend.
Helemaal mee eens, al heeft SATA Express dit probleem ook maar dan...andersom? In principe zou de fysieke poort backwards-compatible moeten zijn met reguliere SATA schijven.
https://en.wikipedia.org/wiki/SATA_Express#Compatibility

Als ik dan bij mijn bordje kijk:
https://www.gigabyte.com/...GA-B250M-D3H-rev-10/sp#sp
1 x SATA Express connector
* The SATA Express connector is not compatible with regular SATA devices.
Aldus, fabrikanten kunnen er ook nog eens voor kiezen om enkel PCIe aan de SATA Express connector te koppelen. Dat is ook verwarrend.

Ik snap echter wel waarom Gigabyte dit gedaan heeft, en dat is juist om het probleem wat jij beschrijft te voorkomen. De B250 chipset heeft ruimte voor 6 SATA-poorten:
https://ark.intel.com/con...6/intel-b250-chipset.html

Door 6 reguliere poorten naast SATA Express te plaatsen heeft Gigabyte effectief de mogelijkheid gegeven om beide opties naast elkaar te gebruiken.
Je koopt voor een tientje een M.2-naar-SATA verloopje, da’s toch niet echt en issue?
Daar heb ik geen sloten voor.
Ik heb maar 1 x m.2 op mn MOBO, daar deed ik een 500Gb SSD in.
Toen drukte deze dus 2x sata weg, waardoor ik 2 schijven niet meer kon gebruiken.

Ik heb uiteindelijk maar een insteekkaartje (PCIE volgens mij) gekocht om daar dan maar die 2 harde schijven weer op te zetten, al is dat wel heel traag.
Het is voor opslag, dus die snelheid neem ik op de koop toe.
Mwa, er is niets mis met een kleine form factor, voor wifi kaarten en ssd's vindt ik dat prima. Het moet alleen niet de spuigaten uitlopen. Ik verlang al een tijdje naar een kleine format videokaart voor kleine toepassingen, dit zou nog wel de eerste stap naar die ontwikkeling kunnen zijn.

Maar wat je zegt, het is geen "one size fits all" oplossing, wellicht zien we een ontwikkeling naar modulair bredere kaartslueven zoals bij pci-e x4 t/m pci-e x16 het geval was.
U2 is ook een stukje duurder omdat de kabels perfect moeten zijn om PCIe4 over te brengen. Goedkope SATA kabels gingen al slecht aan 600MB/s, stel je 4000MB/s voor op zo’n Chinees kabeltje. Het goedkoopste Mini-SAS kabeltje dat je kan vinden om een U2 te verbinden is rondweg EUR30 voor een paar cm
Ik snap het ook niet. Lenovo heeft een tijdje SATA Express geleverd met een converter naar NVMe in de HDD bay. Maar de performance viel gewoon tegen door de beperking die je hierboven beschrijft. Daar zijn ze dan ook allang alweer van afgestapt.

Op zich ben ik het er wel mee eens dat gewoon desktop PCI gebruiken handiger zou zijn. Maar een desktop is ook de desktop niet meer. Niet iedereen wil nog een form factor met volledige PCI sloten er in. Logisch dat in een NUC alleen NVMe zit, en om nu alleen voor gaming PC's grotere kaarten te produceren betekent dat het een duur nicheprodukt gaat worden.

NVMe is bovendien snel zat. En de vermogensbeperking is een mooie uitdaging voor controllerleveranciers om zuinig te werken.
Bij linus was idd sata-ssd net zo snel bevonden als een m2-ssd. Vooral latency helpte heel goed in gamebeleving.
Echter toekomstige games zullen meer gebruik maken vannde snellere m2-ssd. Dit dankzii de gameconsoles die er ook gebruik van maken. Het van te voren laden van de game naar de ddr4 geheugen is dan niet echt zo nodig.

Ga je grote bestanden bewerken of uitpakken. Dan is die snelheid wel weer handig
Ben er wel blij mee. Voelt toch als een soort evolutie. Mijn PC ontwikkeld zich steeds, waarbij oudere onderdelen in gebruik blijven tot ze niet meer bruikbaar zijn. Om de 5 jaar ofzo, MOBO, CPU, memory vervangen, maar in de tussen tijd de andere componenten switchen, upgraden of gewoon bij prikken. En de M.2 is lekker handig zonder al de kabels, want die heb ik meer dan genoeg.

Vorige MOBO zat zowel SATA als IDE op, kon je mooi je oude DVD en CD-ROM drive nog op IDE drukken, maar je HDD’s op SATA, en nog een IDE HDD voor de backup of extra storage, langzaam kwamen daar dan meerdere SSD’s bij. CD-rom moest eruit voor een extra IDE HDD. En in die oude tijd dan was het starten van de PC wel of er een Boeing aan het opstijgen was 🤪 Of meer een turboprop, met al de fans en disken.

Daarvoor ook ooit kabelbrij SCSI HDD’s erin gehad, IBM bak van het werk die we thuis konden gebruiken, dat was dan goed voor je ontwikkeling, en ja dat was het, alleen de kabels, pffff. Netfinity ofzo, als ik het mij nog goed herinner.

Huidige MOBO zit nu de oudere kast, SATA en M.2, geen IDE HDD’s meer, die zijn een jaar of wat geleden vernietigd. Maar nog wel SATA HDD’s die langzaam vervangen worden door SATA SSD’s. Een GTX1060 en een GTX970 in de kast hangen. Gewoon omdat het kan. En ook een PCI SATA kaart, want ja, je moet al je oude SATA HDD’s en DVD wel ergens in kunnen prikken. Altijd zo jammer dat dingen niet meer passen. En ze lijken ook nooit echt kapot te gaan.

En al die extra onderdelen in je bak is gewoon handig. Extra HDD”s voor de interne data backup (en dan moet je er natuurlijk wel 2 hebben, moet wel redundant zijn), maar veel extra SSD’s heel handig om voor elke VM een eigen SSD/HDD te kunnen gebruiken. Alleen de extra GPU voelt niet heel nuttig. Ander nadeel is dan wel weer dat je power mee moet groeien van ooit 350W -> 650W naar tegenwoordig een 1kW power supply in de kast. Maar die kan nu juist door de verdere ontwikkeling op termijn weer vervangen worden door een lichtere power supply.

Gamen is niet echt mijn ding meer op de PC, dus vooral de GPU’s beginnen achter te lopen. Heb nu vooral nodig; veel cores (met redelijk performance), memory, storage ruimte en voldoende GPU om drie 4K schermen aan te kunnen sturen.

Heerlijk zo op de zondag-ochtend beetje technische historie en ontwikkeling.
En de M.2 is lekker handig zonder al de kabels, want die heb ik meer dan genoeg.
Het is zelfs extremer dan dat. Zonder al die kabels gaat de airflow in een ATX case er ook best aardig op vooruit, al helemaal na een tijdje wanneer er wat stof in de case zit.
Bijbehorend, met betere airflow is het ook mogelijk om idd een stillere machine te bouwen.

[Reactie gewijzigd door Jeanpaul145 op 22 juli 2024 13:35]

Sorry hoor maar hier geloof ik weinig tot niets van. Ik hoor al jaren mensen over kabels die airflow blokkeren praten alsof het een helige wet is maar ik heb het nog nooit zelf gezien.

Ik had bij stom toeval een identieke build als een vriend van me op een LANparty en toen mijn pc even open moest omdat de kabel van m'n SSD eruit was gedonderd bij vervoer, kreeg ik een geschokte blik omdat mijn kabels gewoon in een bundel in het midden van mijn kast hingen... Een flinke "Hoe koelt jouw pc?!" kwam erachteraan.
Pc's naast elkaar gezet en mijn PC draaide koeler dan de zijne...

Je gaat mij echt niet wijs maken dat kabels meer dan 0.5c schelen

Edit: Graag toon ik je dit: https://youtu.be/YDCMMf-_ASE?t=547
Dit toont aan hoe achterlijk veel je de airflow moet blocken voor je merkbare verschillen krijgt.

En een sidenote; De situatie waar ik het over had was nog ruim voor de tijd dat alle kasten glass sidepanels hadden met RGB en modulaire voedingen, voeding sleeves enz enz. Het was in die tijd vrij normaal om kabels door je pc te hebben lopen.

[Reactie gewijzigd door NoobishPro op 22 juli 2024 13:35]

Of het veel uitmaakt in relatie tot de temperatuur van je componenten weet ik niet, maar dat de airflow gehinderd wordt is onmiskenbaar. Ga jij maar met -10 en flinke wind op een open akker staan en vergelijk dat met bv achter een boom op dezelfde akker staan.

(Ik denk trouwens dat het praktisch geen drol uitmaakt (muv misschien de oude ata-kabels :p). Misschien zijn er ergens tests te vinden voor geïnteresseerden. Ik denk dat het hetzelfde idee is achter andere ultieme optimalisaties die praktisch geen verschil maken (extreem audiofiel bv)

[Reactie gewijzigd door Deleon78 op 22 juli 2024 13:35]

Om de test eerlijk te houden moeten we de akker compleet afsluiten met muren en een plafond, flinke wind vanaf één zijde geven, sta een meter achter de boom (kabels zijn immers ook niet direct tegen je cpu/gpu) met een luchtuitlaat aan de andere kant. Even kijken of die boom daar nut gaat hebben of dat je nog steeds vriest :)
Hahaha je hebt een punt :) overigens heeft de boom dan nog steeds nut (direct erachter) :)
Je zou zelfs kunnen zeggen dat het beter is: Meer obstakels in je flow --> meer turbulentie --> betere koeling.
Een van de bekende YT'ers heeft het ooit getest. Het maakt inderdaad geen drol uit. Het heeft pas effect zodra je fans, intakes en/of exhausts rechtstreeks gaat blokkeren.
Een voorwerp met ronde doorsnede zoals jouw tros kabels houdt ook niet zo gek veel airflow tegen.

Het heeft echter wel degelijk impact, anders zouden bomen niet om kunnen waaien.
De effecten van blokkerende elementen op een luchtstroom zijn nog steeds een raadsel voor de wetenschap. We kunnen ontzettend veel met modellen berekenen, maar de F1 auto moet nog steeds in de windtunnel gezet worden om de effecten van de luchtstroom te kunnen meten en visualiseren.

Lucht die ergens met een flinke snelheid langs stroomt veroorzaakt eerder warmte dan dat het warmte afvoert. Bij luchtstromen kan zich ook een laagje bijna stilstaande lucht gaan vormen. Een prima isolator. Lucht veranderd ook sterk van dichtheid bij het opwarmen en dat creëert weer een eigen luchtstroom. Door het uitzetten van de lucht moet er ook altijd meer volume aan lucht de kast uit dan in.

Koelen gaat het best in een wervelende luchtstroom, maar die moet wel afgevoerd worden en niet (deels) rond blijven hangen.
Een kast met op het oog een perfecte luchtstroom waarbij gigantische hoeveelheden lucht mooi langs alle warme elementen lijkt te gaan kan slecht koelen, maar een kast met maar een kwart van die luchtstroom die overal tegenaan lijkt te botsen kan juist prima koelen.

Als je naar de moderne kasten kijkt is het aantal ventilatoren dat (koele) lucht de kast inperst steeds groter geworden. Het is niet ongewoon dat er drie ventilatoren lucht de kast in persen en dat er maar één of twee de lucht naar buiten moeten geleiden. Daarnaast nog een beperkt aantal ventilatiegaten. In theorie hoeft je lucht alleen in de kast te blazen, naar buiten gaat vanzelf. Je kan de lucht ook alleen naar buiten blazen, dan wordt de lucht vanzelf naar binnen gezogen. In de praktijk geven die mogelijkheden een vrij ongecontroleerde luchtstroom, waardoor je met een push-pull systeem meestal beter af bent. Met een paar kleine goed geplaatste ventilatoren kan je de wervelingen naar een warm object leiden, maar let dan op waar die warme lucht heen gaat.

Met een paar stukjes papier (of slordig rondhangende kabels) kan je de luchtstroom al beïnvloeden. Met wat mazzel kan je de luchtstroom dan zo verbeteren dat je met drie ventilatoren (een in, twee uit) een prima koelende kast kan creëren. Heb je een heethoofd van een videokaart, scheidt dan de luchtstroom voor die hittebron van de rest van de kast af.
Die ouderwetse 40 polige bandkabels konden bij strategisch foute plaatsing heel veel lucht verkeerd sturen, daar komt het beeld dat kabels veel invloed hebben waarschijnlijk vandaan.

Verder veroorzaakt alles dat je in de luchtstroom plaatst turbulentie, turbulentie is chaotisch en dus lastig voorspelbaar en er zullen ongetwijfeld situaties denkbaar zijn waar een onooglijk kabeltje de koeling van een kritisch onderdeel zodanig verstoort dat er rampzalige dingen gebeuren.

Maar gemiddeld genomen zal in een ruime kast de bekabeling nauwelijks invloed hebben op de koeling.
Geloof wat je wil, ik zit niet hier om je te overtuigen van iets waar je helemaal niet van overtuigd wil worden 😉
Het zal vast niets (of zeer weinig) schelen qua temperatuur maar qua looks en geluid scheelt het wel. Ziet er gewoon strakker uit zonder al die loshangende kabelspaghetti en de luchtstroom heeft minder 'obstakels' die windgeruis veroorzaken.
Toch fijn hoe minder kabels hoe beter.
Het argument van minder bekabeling en geen drive monteren in je kast is vaker genoemd, maar dat is een nog sterker argument als je het hebt over SFF systemen. In mijn Shuttle heb ik de hele drive cage eruit kunnen halen door een m-sata op het moederbord te schroeven in plaats van een losse disk in een rack te hangen.
Je kast wordt toch niet kleiner door binnenwerk er uit te laten? :)
(Zou wel kunnen bij nieuwe kasten uiteraard, maar dat kan ook al met standaard ssd’s. 1 platte neemt ook geen noemenswaardige ruimte in)
Nee, maar je houdt wel meer ruimte over voor bijvoorbeeld een betere CPU koeler. Probeer maar eens een 2.5" SSD samen met een koeler in bijvoorbeeld een Streacom F1C Evo te proppen :)
Een aardige bespiegeling, maar de schrijver gaat eraan voorbij dat het beschreven fenomeen onderdeel is van een grotere ontwikkeling: het overbodig worden en verdwijnen van de desktop als afzonderlijke productgroep. SATA-Express is nooit een standaard geworden omdat het in de consoliderende solid state markt niet interessant was om een productlijn voor een marginale doelgroep te ontwikkelen. En dat zijn desktopgebruikers al de nodige tijd: een marginale doelgroep - of je dat nu leuk vindt of niet.

'Good enough' prestaties zijn inmiddels allang beschikbaar in de laptop formfactor. Voor wie graag de voordelen van een desktop wil (ergonomische werkplek met los toetsenbord en muis, meerdere monitoren), is op basis van laptopcomponenten een prima en welhaast onzichtbare small form factor pc te verkrijgen. Het is een kwestie van tijd eer 'good enough' ook opgaat voor de meest veeleisende gebruikers, die meer dan een half dozijn cores en/of een hele dikke gpu nodig hebben.*

Daarmee gaat ongetwijfeld iets verloren - ik heb ook met veel plezier menig pc in elkaar gezet, uit elkaar gehaald, geüpgradet en gemod - maar er wordt ook iets gewonnen: stroomlijning van het productaanbod, standaardisering, meer gefocuste ontwikkeling en daarmee (hopelijk) meer innovatie en lagere kosten. Om niet te spreken over meer duurzaamheid. Laptopfabrikanten werken al aan modulaire chassis waar opslag, geheugen en zelfs cpu en gpu als blokjes aan kunnen worden toegevoegd - en worden vervangen.

Het - inderdaad ridicule, dat schroefje alleen al - m.2 slot op moederborden is slechts een teken aan de wand, en binnen afzienbare tijd kunnen we daar net zo nostalgisch over doen als over die HDD-koeler.

*Omdat ik de Tweakers lezers wel een beetje ken, een voetnoot: professionele workstations reken ik niet tot de groep 'desktops' in de context waar het hier over gaat. Los van de discussie of die niet ook simpelweg zullen verdwijnen om vervangen te worden door een VDI-oplossing op fiber of iets dergelijks, maken workstations veelal gebruik van servercomponenten - inclusief de door auteur aangehaalde U2 SSD's.

[Reactie gewijzigd door whetstone op 22 juli 2024 13:35]

Persoonlijk game ik nog steeds liever op mijn desktop dan op een laptop. Groter scherm, meer afstand tot dat scherm, los toetsenbord, etc. Natuurlijk, da's allemaal af te vangen met een dockingstation, maar dan betaal je én voor de laptop, én voor het scherm (+ de andere randapparatuur, en niet te vergeten de dockingstation zelf).

Ik ben het er wel mee eens dat een desktopmarkt krimpende is, maar er zal wel een niche markt blijven voor de gamer die liever een desktop heeft. Hoe lastig dat ook zeulen is naar de ontelbare LAN parties die we nu (niet) kunnen houden.
Uh, M.2 doet veel meer dan enkel opslag. WiFi is toch ontzettend handig op een desktop, zeker met de nieuwe standaard waarbij prima snelheden mogelijk zijn. Of ben je ook van mening dat enkel laptops WiFi zouden moeten hebben?

Er is ook een reden waarom je juist een M.2 NVMe koopt en dat is snelheid. Dus zeker op een desktop PC voor gaming is dat wel fijn, of hadden de nieuwe consoles beter voor traditionele HDDs of SATA SSDs moeten kiezen want die worden minder warm?

Throttling is echt een probleem bij NVMe en daardoor krijg je bij de meeste moederborden een heatsink erbij. Helaas is dit niet altijd voldoende en is waterkoeling juist een goede oplossing, zeker als het slot aan de achterkant zit en niet wordt gekoeld met airflow.

[Reactie gewijzigd door HollowGamer op 22 juli 2024 13:35]

Het snelheidsargument is bij Sata Express niet relevant, want die bood ook een pci-e verbinding.

Voor wifi kan je nog beargumenteren dat ook dat prima met een pci-e kaart kan, maar misschien is dat dan weer wel een goede use-case voor m.2. Maar daar heb je dan weer niet een 8 of 11cm versie voor nodig. Voor wifi zat (zit?) er vaak ook een speciaal kleiner m.2-slotje op een moederbord die niet eens per se met (nvme-)storage overweg kon...
Het snelheidsargument is bij Sata Express niet relevant, want die bood ook een pci-e verbinding.
https://www.gamersnexus.n...ata-express-best-for-ssds

"SATA Express, meanwhile, communicates maximally through 2 PCI-e lanes on the motherboard, limiting the interface to 2GB/s on Gen3. SATA Express will become a dead and abandoned standard in short order, as the industry continues to ignore its existence and moves fully to M.2 and U.2 interfaces. SATA Express cannot communicate through 4 PCI-e lanes."

[Reactie gewijzigd door HollowGamer op 22 juli 2024 13:35]

Off-topic, natuurlijk, maar...
(...) Het is jammer dat ik zo word gedownvote, misschien moet ik maar niet meer reageren?
Je staat bij mij op een grijze '0' omdat er nog niemand heeft gemod ;)

[Reactie gewijzigd door PCG2020 op 22 juli 2024 13:35]

SATA Express is vooral een onnodige extra standaard die voorbijgestreefd is dankzij NVME.

Sequentiële doorvoer is in de meeste gevallen ook niet zo belangrijk als veel mensen beweren. Cf. filmpje van Linus Tech Tips waar ze een SATA6, PCIe3 en PCIe4 SSD naast elkaar testen.

Sequentiële doorvoer is meestal van ondergeschikt belang, in de plaats daarvan zijn IOPS en latency dé belangrijkste factoren voor een vlotte beleving van zware, tijdskritische software zoals bv. games.
"Of ben je ook van mening dat enkel laptops WiFi zouden moeten hebben?"

Eerlijk gezegd wel ja.
Ik beschouw wifi als een 'noodzakelijk kwaad'.
Het is prachtig dat ik met draadloze apparaten door m'n hele huis door kan lopen, zonder kabel eraan, en dat ze gewoon bij het netwerk/internet kunnen.

Voor apparaten echter die een 'vaste' plek hebben en niet ontworpen zijn om 'mobiel' te zijn beschouw ik wifi echter als een ongewenst iets.
Mijn desktop PC staat permanent op één plek, dus hangt hij aan de kabel. Hetzelfde voor m'n smart TV, slimme speakers (via ethernet dongle), Hue hub en smarthome hub.

Kunnen al die dingen via wifi aangsloten worden?.. ja dat zou kunnen. maar waarom zou je dat doen?
- de verbinding is slechter en instabieler
- de snelheid is minder
- je veroorzaakt meer congestie waardoor je andere 'echte' draadloze apparaten wellicht minder bandbreedte beschikbaar hebben en/of moeten 'wachten'.

Ik snap dat sommige mensen een hekel hebben aan kabels, maar kom op zeg.
Mijn koptelefoon kan draadloos én bedraad aangestuurd worden, en als ik achter m'n PC zit plug ik toch echt die 3,5mm jack erin want niet alleen is dat energiezuiniger het is ook nog eens merkbaar betere audiokwaliteit dan over bluetooth.
Enige ding wat bekabeld kan maar k toch draadloos gebruik is m'n muis.. en dat ook echt alleen omdat het een Logitech Powerplay muis is (is m'n eerste draadloze muis ooit).

Anyway, erg off-topic allemaal, excuses daarvoor. :+

Wat betreft m2 vs sata express: zélf zou ik liever gewoon sata express zien, ik heb geen problemen met 2,5" SSD's want ik heb een grote toren waar ik er zat in kwijt kan (k heb zelf icydock hot-swap 5,25" bays voor beiden 2,5" en 3,5")
Echter vandaag de dag zijn 'mini' builds erg populair en die hebben niet per se 'mooie' plekken om zulke SSD's kwijt te kunnen. Hier komt dan ook nog eens bij dat het weer 2 (of 1 in het geval van sata express) extra kabel(s) zijn per SSD. hetzelfde geld ook voor veel mid-towers. Het is allemaal glas en het moet allemaal mooi en strak zijn met zo min mogelijk (zichtbare) kabels. In dat opzicht kan sata niet op tegen M.2

[Reactie gewijzigd door Ayporos op 22 juli 2024 13:35]

reden dat ik wifi heb op desktop is zodat ik als ik iets zwaars moet downloaden ik mijn datacapped 4G* hotspot kan gebruiken voor een spel downloaden of dergelijke

voor al het andere gebruik ik de vaste lijn zodat ik geen data problemen krijg


*5MB per seconde versus 300 KB per seconde via de vaste lijn

zo is wifi in mijn geval een uitkomst maar ik besef dat ik en uitzondering ben
Veel beter is dan usb tethering te gebruiken, dan ga je wel iets hoger dan 5MB/s.

Wifi biedt alleen meerwaarde als het niet anders kan omdat het gewoon niet praktisch is om alles met een kabel te verbinden.
dat gaat helaas niet werken gezien 4G via speciaal los kastje gaat hiero en die heeft allen een oplaad poort
Een 4g router dus? Die heeft toch wel een ethernet poort?
nope allen laadpoort microUSB ook nog dus ik zit met extra oplader terwijl het niet nodig is
Ik las het en ik dacht, euh....

Ik weet niet in welke situatie jij zit, maar hier heb ik tegenwoordig overal wifi, juist niet de snelste maar gewoon "wifi" met wat lyra asus satelites. Fijn zodat ik buiten ook kan bellen.

Maar wifi is gewoon niet zo stabiel als een kabel. Ik ben in ieder geval blij dat ik in bijna elke kamer 1 of meer UTP aansluitingen heb.
zeker ik ga ook liever voor kabel maar gezien het beperkte noormale internet ben ik blij met een wifi mogelijkehied voor 4G op desktop
Dat is geen WiFi maar 4G netwerk.
ja maar kan het allen ontvangen via de wifi ontvanger want er zit geen ethernet poort op dat ding
USB en tegelijkertijd laad je telefoon daarmee op.
USB naar ethernet kabel; HMM goed idee thanks
Kunnen al die dingen via wifi aangsloten worden?.. ja dat zou kunnen. maar waarom zou je dat doen?
- de verbinding is slechter en instabieler
- de snelheid is minder
- je veroorzaakt meer congestie waardoor je andere 'echte' draadloze apparaten wellicht minder bandbreedte beschikbaar hebben en/of moeten 'wachten'.
Al deze zaken hangen af van je investering, plaatsing van de apparatuur en de omgeving.

Voor het laatste is bijvoorbeeld MU-MIMO uitgevonden en er zijn technieken als Airtime Fairness die juist ervoor zorgen dat bandbreedte eerlijker verdeelt wordt. Met de nieuwe 802.11ax standaard zijn er wederom weer veel zaken verbeterd in dit gebied (ook je andere voorbeelden).

Een kabel is en blijft inderdaad het beste, maar tegenwoordig is portability net zo een must geworden en willen genoeg mensen van al die kabels af of gewoon apparatuur plaatsen waar het mooi/functioneel staat.

Wat bedoel je precies met 'mini' builds en SSD's? Ik heb een M-ITX board en een krappe case, waarbij de NVMe op een logische plaats zit en een heatsink ook een mooie afwerking maakt (persoonlijk). In een 'mini' build doe je ook vaak niet meerdere SDD's, het lijkt me juist dat je daarvoor inderdaad kiest voor iets als een externe closure of een NAS.
Ik bedoel met mini builds idd M-ITX enclosures, maar ik bedoelde ook dat een M.2 in zo een build beter/makkelijker is dan een 2,5" SSD aan sata. Ze hebben allemaal vaak wel 1 of 2 'trays' voor 2,5" of 3,5" schijven maar dan heb je weer extra kabels (stroom+data) en dat maakt de build niet mooier en al helemaal in micro cases.

Ben het overigens helemaal met je eens dat het voor de gemiddelde gebruiker logischer is om gewoon een M2 SSD te hebben met wellicht een 2,5" SSD of twee en vervolgens alle 'bulk' opslag op een NAS te doen. Dat is veel netter en robuuster.
Kunnen al die dingen via wifi aangsloten worden?.. ja dat zou kunnen. maar waarom zou je dat doen?
Omdat er soms gewoon geen kabel is en wifi gemakkelijk is ;)
Bij oudere huizen kan het lastig zijn om bekabeling boven te krijgen.
Een wifi verbinding hoeft niet slechter of instabieler te zijn dan een bedrade verbinding. Daarnaast zijn er vele plaatsen in huiis waar je niet eenvoudig een netwerkkabel naartoe kunt trekken. Op dat moment is wifi een prima alternatief, zeker als je geen gigabit snelheden nodig hebt.
Je wilt niet weten hoe vaak ik bij PC-bouw-projecten te horen krijg dat er draadloos internet bij moet zitten, zowel bij lage- als hoge budgetten

Ik gebruik ook veel liever kabel, maar tegenwoordig wordt bij 90% van de builds ook een wireless PCIe kaart of in ieder geval dongle ingebouwd voor wifi/bluetooth. De redenen die ik hoor lopen uiteen van:

- Er is geen aansluiting in de kamer waar de PC komt te staan, en er is geen mogelijkheid/motivatie om een kabel te trekken
- "Wifi en kabel zijn nagenoeg even snel en stabiel"
- De PC kan verplaatst worden en heeft nog steeds internet
- Ik wil er bluetooth devices aan koppelen, dus dan doe ik er maar meteen wifi bij
- Het modem zit al vol met kabels, en er is geen zin om het netwerk uit te breiden

Zelfs wanneer ik aangeef dat een fatsoenlijke 5Ghz wifi kaart ~€40 van het budget inneemt en dit beter gebruikt kan worden voor GPU/CPU/RAM hebben de meesten dit er alsnog voor over
Als het op €40 aankomt moet je er zondermeer niet aan beginnen
Mijn smart tv heeft maar een 10Mbit LAN verbinding, terwijl de WiFi meer aankan. ;(
Dus 4K streaming lukt mij alleen via WiFi.
- Wifi kaartjes gebruiken geen M.2 slots maar Mini-PCIe.
- Het alternatief voor M.2 NVME is niet HDDs of SATA SSDs maar SATAExpress SSDs. Als je het stuk gelezen had, had je dat geweten.
- Throttling is in 99% van de gevallen helemaal geen probleem. Ik heb ondertussen een dik dozijn aan NVME SSDs in desktops en laptops in gebruik gehad (en in externe cases via USB) en geen van allen hebben ze ooit last gehad van throttling. Ook de high-end Samsungs niet.

Als waterkoeling de oplossing zou moeten zijn dan zouden laptops volcontinue last hebben van throttling. De koeling in laptops is nog veel slechter dan in een goed ontworpen desktop. Toch hoor je hier nauwelijks over. Dus nee, waterkoeling is een minuscuul kleine niche voor NVME SSDs.
De wifi modules zijn al een tijdje "gewoon m2", ze hebben alleen een A+E key ipv een M key zoals het merendeel van de SSDs. Mini-PCIe wordt vaak alleen nog gebruikt voor 3/4/5G modems in laptops.

Verder vind ik m2 ook gewoon logisch in een desktop, veel minder kabels en compacter. Throttling is vaak alleen een probleem tijdens benchmarks.
Nieuwe systemen gebruiken wifi-kaartjes op m.2-formaat, weliswaar met een andere keying (E in tegenstelling tot B of M).
Mini-PCIe is niet echt gangbaar meer. Voor wifi wordt gewoon M.2 gebruikt, maar wél (bijna altijd) een andere keying. Het ene M.2 slot is het andere niet.
Zoals @triflip @hcQd al aangeven zijn de meeste WiFi-kaartjes gewoon M.2. Dit geeft je ook twee sloten waarbij je dus die WiFi-module zou kunnen vervangen door een NVMe, al kan het zijn dat de snelheid minder is of dat het inderdaad niet werkt zoals @ACM al aangeeft (niet alleen door het formaat, maar door het aantal beschikbare lanes).

Ik heb het stuk gewoon gelezen hoor, maar er lijkt me toch een goede reden waarom de next-gen consoles gewoon voor een NVMe hebben gekozen en niet voor een SATAExpress? Zoals @MikeyMan al aangaf is er gewoon een FF en heeft het meerdere toepassingen, SATAExpress is naar mijn weten enkel voor opslag geschikt.

Throttling is wel degelijk een issue, al is dit wel een ouder artikel:
https://www.pugetsystems....-Throttling-Analysis-776/

Het komt er op neer dat als je een fan de warmte kan laten wegnemen en/of een heatsink gebruikt, het helpt om de NVMe/SSD koel te houden. Vergeet niet dat deze dingen 80C of hoger kunnen worden bij hevige load, dus goede koeling/ontwerp van heatsink in iets als een notebook is gewoon mooi meegenomen. Waterkoeling kan dus zeker een must zijn, maar dat hangt zoals je min-of-meer al aangeeft af van de use-case. Normaal pomp je zoveel mogelijk in de cache, maar als je veel I/O doet op zo'n ding, kan ik mij best voorstellen waarom iemand voor waterkoeling kiest.
Ik heb het stuk gewoon gelezen hoor, maar er lijkt me toch een goede reden waarom de next-gen consoles gewoon voor een NVMe hebben gekozen en niet voor een SATAExpress? Zoals @MikeyMan al aangaf is er gewoon een FF en heeft het meerdere toepassingen, SATAExpress is naar mijn weten enkel voor opslag geschikt.
De reden waarom next-gen consoles kiezen voor NVME is heel eenvoudig: SataExpress is al dood. SATAExpress is zoveel jaar geleden ontworpen om SATA op te volgen maar is nooit aan geslagen en daarmee is NVME de defacto standaard geworden. Nu alsnog voor SATAExpress gaan zou de productiekosten van de console hoger maken zonder dat daar inkomsten tegenover staan. Geen goed idee dus. Daarnaast vraag ik me af of er überhaupt een PCIe4 versie van SATAExpress is....
Throttling is wel degelijk een issue, al is dit wel een ouder artikel:
https://www.pugetsystems....-Throttling-Analysis-776/
Throttling was 4.5 jaar geleden bij één model een issue. Dat betekend niet dat het "in het veld" ook daadwerkelijk voor iemand een probleem is....
Ik snap het ook niet. Mijn 980 Pro is niet watergekoeld en werkt prima.

Lijkt alsof auteur niet helemaal snapt dat het een niche is omdat het kan.
mini-pcie is al een paar jaar verleden tijd, alle moderne laptops/desktop borden hebben M.2 wifi kaartjes.
"WiFi is toch ontzettend handig op een desktop"
Ik blijf er altijd ver van weg :-)
Bekabeling is king bij ons.
WiFi op gaming boards 8)7 enigste wat ik kan bedenken is als je complete pc naar een lan-party meeneemt en de persoon thuis geen fatsoenlijke switch heeft voor lan parties, dan is een WiFi goed. Anders dan dat wil ik juist 2.5GB/s of meer utp snelheden hebben op mijn Mainboard. Vooral nu we overgaan op glasvezel over de 1GB/s snelheden.

En daarnaast wordt de nvme niet voor WiFi gebruikt. Staat in het artikel.

Ps, bij het schrijven van dit bericht.
Je hebt toch ook gemerkt dat alleen gaming laptops een utp extra hebben? De gewoon reguliere laptops denk aan MacBooks, Thinkpad etc die hebben allang geen utp aansluiting meer. En werken alleen via adapter of wifi.

Even goed je huiswerk doen

[Reactie gewijzigd door theduke1989 op 22 juli 2024 13:35]

de gemiddelde macbook heeft óók geen beeldscherm poort meer (hdmi of mDP)j, en ook geen USB-type-A als je dus een externe muis wilt moet je 'of een convertor / usb-c muis zoeken of gewoon een Dock kopen waar 'heel toevallig' dan weer wel lan, usb hdmi dp en soms zelfs 3,5mm audio op zit.

het enige (of eigenlijk het meest onverklaarbare) is dat apple zo'n dongel/dock/ding niet standaard in de doos stopt, maar goed ze besparen wel vaker geld ten koste van de consument (oordopjes, oplaadkabels etc).
Nog een opa hier.

Ja ik ken de tijd van de decoupeerzaag en mn bouwmarkt plexiglasplaatje.
En de CCFL buisjes waardoor mn PC eruit zag als een hoerenkast ;)

Maar ik vind de M.2 echt wel een uitkomst. geen gekloot met SATA kabels die losschieten
en een stuk minder schroef en propwerk om alles weg te werken.

Van IDE flatkabels ( of die stoere gebundelde met een sleave ;-) ) naar SATA was al een verademing.
Maar nu 1 schroefje en dat was het.

Als ik kijk naar toen en nu is mijn PC wel een paar kilo lichter geworden, minder storing gevoelig en het energie verbruik is ook een stuk lager.
Hier dan nog een opa! Mooie tijden waren dat _/-\o_

Hier nog 2 SATA SSD's in gebruik maar de kans is groot dat die er zodra ik een bord koop welke 2 M.2 sloten heeft die ook gewoon uit de PC gaan (en als grote M.2 SSD's betaalbaar worden :+ ).
Nu maakt die ene voedingskabel en 2 datakabels een aanzienlijk deel uit van de kabels die nog dwars door de kast lopen en alle beetjes zijn nodig in een kleine(re) build.

Voor ITX is M.2 iig een uitkomst :)
Pffff jullie zijn niet oud genoeg, scsi devices met terminators, dat was pas mooi 8)7
SCSI was alleen voor zakelijk gebruik en is nooit voor consumenten pc,s bedoelt geweest.
De opvolger van SCSI is daarom ook SAS.
Heel vroeger had je MFM en later gewoon IDE.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:35]

Consumenten scanners hadden ook wel een SCSI :)
Ik had toch echt wel scsi drives en expansion card... voor cd writers zonder cache was dat toch echt wel handig. Idem met scsi schijf met de .img of .bin/.cue...
Had ooit Asus mobo met defecte IDE controller. Toen kwam CDrom branden dat was toen nieuw en duur en beste daarvoor was SCSI .
Dus maar meteen daarvoor gegaan.
SCSI was standaard op de Apple ...
en als je video wilde editen op de PC moest je ook echt wel een SCSI-controller er in proppen (met dip-switches en zo voor de IRQ en DMA) om geen framedrops te hebben.
SCSI zat pre-SATA standaard in elke Mac, ook in de eenvoudigste modellen. Die waren toch echt ook voor de consumentenmarkt. Zelfs de ‘pizzadoos’ modellen zoals de LC serie.

Ze waren relatief betaalbaar voor die tijd. Een LC II kostte $ 1.700 in 1993.
De Power Mac gebruikte vanaf de beige G3 gewoon IDE-schijven om kosten te besparen, op de B&W G3 werd het SCSI-poort zelfs verwijderd van het moederbord (wel bleef het mogelijk om via PCI-kaarten SCSI-schijven aan te sluiten)
OK, maar die zijn pas van vanaf 1998, 1999 ofzo, toen SCSI voor externe verbindingen sowieso werd vervangen door het snellere en 'hot swapable' FireWire en ADB door USB. FireWire en USB betekenden het einde van SCSI en ADB.

Als ik me goed herinner werden harde schijven en moederborden toen sowieso groter / sneller zodat de interface minder verschil maakte.
Alongside the transition to PCI, Apple began a gradual transition away from SCSI hard disks to IDE as a cost-saving measure, both for themselves and for users who wanted to upgrade their hard drives. The low-end 5200 and 6200 were the first to adopt IDE internal drives, though Apple's proprietary 25-pin external SCSI connector remained. The beige Power Macintosh G3 models being the last to include SCSI drives as standard, and it was the last Macintosh to include the external SCSI connector. When the Power Macintosh G3 (Blue and White) was introduced in early 1999, the port was replaced by two FireWire 400 ports. The Blue and White G3 was also the last Macintosh to include Apple Desktop Bus ports, a proprietary technology created by Steve Wozniak to connect keyboards, mice and software protection dongles such as those from Avid Technology.[18] Two USB ports were also included, making this the only Power Macintosh to include both ADB and USB.
Ik kreeg een 'multimedia upgrade' voor mijn PC (een 386, denk ik), bestaand uit een geluidskaart, boxen en een (SCSI) CDROM speler (dual speed! :P ). De geluidskaart was een ISA kaart, met een SCSI connector voor de CDROM speler.
Dat setje was echt voor consumenten PC's bedoeld.

Later heb ik trouwens ook nog een flatbad scanner op die SCSI bus aangesloten. Dat werkte, maar je moest niet tegelijkertijd de CDROM benaderen. Limitaties van de ISA bus, neem ik aan.
Ik weet niet of er IDE schijven met MFM zijn geweet, maar die sluiten elkaar niet uit omdat het ene een bus is en het andere een manier van opslag. Bij latere types RLL schijven kon je meestal kiezen tussen ST506 en ATA/IDE.
SCSI was alleen voor zakelijk gebruik en is nooit voor consumenten pc,s bedoelt geweest.
De opvolger van SCSI is daarom ook SAS.
Heel vroeger had je MFM en later gewoon IDE.
"Bedoeld geweest"

lol,
Alsof ontwikkelaars en fabrikanten ergens in een hoekje stonden te wijzen "kijk, weer zo'n gek die thuis een SCSI-device aan gaat sluiten"
Neuhh ... er wordt ontwikkeld voor de markt, of dat nu een consument of zakelijke gebruiker is, maakt niet uit.
Het zijn de rand-figuren ( no offence ;) ) die willen bepalen hoe 'iets bedoeld' is.
Je hebt altijd een nice wat thuis SCSI gebruikt, net als er nu Tweakers zijn met een server rack thuis betekend nog niet dat het normaal is.

Hoofdzakelijk was het voor bedrijven/zakelijk gebruik en niet voor consumenten, kwam mede door de prijs.
Een scanner was vroeger ook hoofdzakelijk voor bedrijven, consumenten hadden die dingen toen nog niet op een enkeling na maar dat is weer de nice markt.
Scanners kwamen pas later voor consumenten en veelal werkte die op de printerpoort of usb.

Ik snap je bedoeling wel hoor een enkeling zal het vast thuis hebben gehad maar normaal was het toen niet.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:35]

Ik snap ook wel waar het grootste deel voor gemaakt is.
Maar lees de comments in vrijwel alle topics maar eens door, altijd is er wel iemand "Maar daar is dat niet voor bedoeld"

En als er door één ding Tweakers groot geworden is, is het om DIE dingen.
Een potloodje was ook niet bedoeld om je Athlon te unlocken :+
Ging mij erom dat we niet moeten doen alsof het doodnormaal was vroeger bij consumenten want dat was het niet.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:35]

Je 8 bits MFM controller vervangen door een 16 bits RLL controller en dan je harddisk low level formatteren voor meer sectoren per track...
Niet vergeten de interleave aan te passen met Spinrite als je cpu de schijf niet bij kan houden...
Norton calibrate, maar ik bleek uiteindelijk geen interleave meer nodig te hebben. Die RLL controller was erg vlot
Of een MFM schijf aan een RLL controller hangen voor 50% meer storage en snelheid... Zelf nooit gedaan, hoewel ik ooit nog een keer een ST225 bij iemand heb ingebouwd.

Mijn eigen eerste schijf was een 8-bit IDE van Miniscribe die nergens mee uitwisselbaar was... De echte kenner weet dan de fabrikant van de computer waar hij inzat en misschien zelfs het geluid dat de schijf maakte.
dat kon ook met het dos programma Debug.exe, geen thirth party nodig
Ja en nee, het enige dat je met debug deed, was de een firmware configuratietool op je controller starten. Als die er niet opzat of er niet in voorzag, had je toch echt losse tools nodig.
op een morrow design controller met S100 bus op een CP/M systeem.
Met DIP switches stap voor stap je Intel 4004 programmeren.
Te modern, doe maar een PDP8.
Op je typmachien de papierspoel aan een bromfietsmotor hangen. Zo deden we het in mijn tijd! En dan je secretaresse opvoeren met 40 koppen koffie voor die rappe 32000 woorden per minuut. Ook toen moest je geluk hebben met de "silicon lottery" maar dat was vooral esthetisch. Voor de synthetische benchmark vlogen we dan Eminem in om te dicteren. Hier is ooit rap muziek voor uitgevonden. Vandaar de naam.

[Reactie gewijzigd door ErwinPeters op 22 juli 2024 13:35]

Jullie jongeren ook!

In mijn tijd gebruikten wij nog echte kleitabletten en een beitel-
Ja, tot er een barst in je scherm kwam
Maar die kon je patchen. Probeer dat maar eens met een LCD-plaat.
Dat is allemaal gekomen omdat "de jonkies" het niet meer konden onthouden en iets moesten hebben om het zich weer te kunnen te herinneren :+
Mijn god, inderdaad. Ik had zelfs m'n plexwriter en reader op een scsi controller. Gewoon omdat 't kon :)
Niet omdat het kon maar omdat het gewoon beter was. Bufferunderruns vonden bijna niet meer plaats en het beste, als je een nieuwe cd erin stopt sloeg niet heel je pc vast voor een seconde van 2 omdat de fat even gelezen moest worden.
Klopt. Anders kon je nog wel eens gedag zeggen tegen een (destijds dure) CD-R. Dat was ook de reden van aankoop. Bedoelde eerder dat het (voor mij) geen must was een SCSI controlled brander te kopen met een paar burns per maand, maar eerder omdat ik het wel mooi (en betrouwbaar) spul vond.

[Reactie gewijzigd door JerryJerryJerry op 22 juli 2024 13:35]

Ik ben net over de 50, dus officieel opa geworden :) Maar idd. SCSI's en IDE's waren echt bagger om weg te werken. De ergste waren de IDE kabels, als je een grote tower had en een verlengde IDE kabel hiervoor nodig had ging de snelheid met een factor 20 naar beneden. Vooral als je en IDE-kabels had en SCSI-kabels (voor mijn Plextor) was het echt een volle boel in de kast en dat was voor de airflow ook niet geweldig. Ik was blij als een kind toen de SATA-kabels kwamen en nu nog blijer met de M.2.
Zo lang is dat nog niet geleden hoor met IDE kabels, Sata kwam pas bij de latere generatie Pentium 4 en SATA 1 was nog bagger en bleef vrij vaak ongebruikt, pas bij SATA 2 werd het goed en ook actief gebruikt, pas toen zag je IDE langzaam aan uitfaseren en toen zaten we al in de dual core tijdperk.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:35]

Ik had het ook niet over hoe lang het geleden is, maar bedoelde eerder dat die krengen noodzakelijk kwaad waren. Ik ben blij dat ik eraf ben.
Ach man nog eerder toen je de hdd kop nog zelf moest parkeren met een commando 😜
Dat was volgens mij toch “park C:” ? :)
Terminators zaten op m'n coax LAN ;)
Ja mooie tijden, met een nulmodum kabel met een vriend gamen
O ja, die vermaledijde ring netwerken.
Ik ben begonnen met 5 1/4 inch floppy's. Daar kon je lekker mee wapperen.
Dan gingen ze stuk toch want ze konden niet tegen zonlicht dan raak je data kwijt. :D

Ik had floppy,s liever dan de diskettes, de oude floppy,s gingen ook wel tot 1.2mb terwijl diskettes tot 1.44mb gingen, de 2.88mb variant is nooit uitgekomen in Nederland.
Nooit uitgekomen? Bijna elke PS/2 had ze, ongeacht waar hij verkocht werd.

Licht was trouwens geen enkel probleem voor floppies, wel stof en eventuele vervorming door grotere warmte (misschien heb je ooit gehoord: niet in de zon laten liggen, dat was dus daarom).
En dan de uitsparing aan de andere kant ook uitknippen zodat je de floppy aan 2 kanten kon gebruiken: 2 x 360KB (double density)
Ik vermoed dat dat 2x180kB geweest zal zijn, voor enkelzijdige drives. De PC heb ik verder alleen met dubbelzijdige drives gekend, dus 360kB zonder omdraaien.

720kB 3,5" was double density, die kon je gebruiken als 1,44MB high density door een gaatje te boren, maar dat had weer niet met omdraaien te maken en was verkeerde zuinigheid omdat je vaak bad sectors kreeg.
DD floppies van 5,25 inch zijn/waren 360KB per kant. Ik kan me eigenlijk niet herinneren dat er SD floppies bestonden. Ik heb het nu over de periode midden jaren '80. We kregen thuis via een pc-prive project van defensie een olivetti pc met 8088 cpu. En daar zaten een 5,25" en een 3,5" floppy drive in. Daarvoor hadden we een Commodore VIC20 met 5,25" externe floppydrive.
Alle floppies waren bij mijn weten DD (=360K per kant)

[Reactie gewijzigd door michielRB op 22 juli 2024 13:35]

Je had de keuze, single en doublesided
In die tijd had je ook voor en tegenstanders, Nu zouden ze hier te vinden zijn, die riepen dat je een floppy maar aan één kant moest beschrijven, daar zijn ze voor.

Maar de andere tweaker kocht zo'n ponsapparaatje op de HCCbeurs, en kneep het blokje er zelf uit.
Op diezelfde HCC gingen we stand na stand af, om een doos met 100 floppys te kopen, tegen de meest gunstige prijs
10 stuks in de winkel 10/25 gulden, 100 stuks zonder doosjes 50 gulden
En wilde je écht besparen, kocht je er 500 zonder sleeve ;) voor 100 guldens - en maakte je zelf je sleeves thuis.
Ik knipte dat blokje er dus zelf uit.... Maar mijn punt was eerder het verschil in SD en DD (single density en double density) Ik herinner me de SD floppies niet.... heb ze in ieder geval nooit gebruikt.
En ja... de hcc dagen af was verplichte kost.... :)
Ik vermoed dat SD de eerdere versie was, van die wij gebruikten dan ( 180Kb, ipv de 360 per side )
Ik kwam onlangs hier ook die knipper tegen, verf helemaal afgesleten van onze mishandelingen

https://www.reddit.com/r/...city_of_that_floppy_disk/
Toevallig vorige week mijn SCSI drive uit mijn Pentium MMX weggegooid (defect) ;)
MFM en RLL schijven, dat was de goeie ouwe tijd. Kom op hoor.
Gelukkig worden ze al meer betaalbaar. Ik ben best wel een early adopter geweest van M.2/NVMe en destijds betaalde je dacht ik voor 32GB-64GB iets van tegen de honderd euro - tegenwoordig heb je daarvoor 1TB opslag en bij duurdere modellen ook betere snelheden/protectie bij stroomuitval.

In die tijd kon je ook kiezen voor SATA Express, maar het werd al snel duidelijk dat deze standaard niet meer op veel borden zou komen en deze nadelen had t.o.v. M.2 (o.a. aantal lanes en dat het enkel voor opslag was).

Voor mij was destijds ook af komen van de kabels, zeker omdat ik toen ook een M-ITX case had gekocht. Helaas heb ik vrij snel toch een 2,5 SSD erbij moeten steken (die waren meer betaalbaar dan een upgrade) al zit deze gelukkig aan de zijkant van de case.

Deze week had ik nog een issue met deze SSD, het bleek dat de SATA kabel ietsjes los was gekomen.. dat heb je met een M.2 dus niet meer inderdaad. :)

[Reactie gewijzigd door HollowGamer op 22 juli 2024 13:35]

Uiteraard worden ze betaalbaarder, heb ook al meer dan een jaar 1TB in M.2 formaat, van toen het nog rond de €200.
Mijn SATA SSD koste toen ook zoiets maar dan voor 2TB.

Een upgrade zal dus iets van 2x2TB of 1x4TB worden en dat kost nog wel wat (vooral 4TB) :X

En voordat ik weer het commentaar krijg of ik dat echt nodig heb; NVME nee, SATA SSD ja.
Zijn jullie P-ATA nu al vergeten?
In volksmond noemt iedereen het IDE, ik heb nog nooit iemand gehoord wat het P-ATA noemde.
Hierbij de eerste dan! ;-)
Het was inderdaad voornamelijk IDE of gewoon ATA, pas toen er SATA was kwam evt PATA ter sprake.
.oisyn Moderator Devschuur® @mr_evil0821 februari 2021 15:37
Wat eigenlijk een misnomer is, IDE is louter ATA-1 :). Maar de reden is natuurlijk wel logisch, de standaard beschreef ook de connector, en die is voor alle P-ATA interfaces hetzelfde gebleven, ook al veranderde het protocol.

[Reactie gewijzigd door .oisyn op 22 juli 2024 13:35]

Het heette ook pas PATA nadat SATA werd ingevoerd. In principe heette de bus ATA, maar werd door iedereen IDE genoemd omdat dat de schijven ook goed beschreef.

Ga je het helemaal precies bekijken, dan is eigenlijk elke ATA, SCSI, SATA, SAS en M.2 schijf ook een IDE schijf, dat betekende oorspronkelijk namelijk dat de controller op de schijf zat.
Klopt Allemaal Integrated Drive Electronics
Het is inderdaad een gekloot. Als ben je dus beperkt op de slots. Dus voorlopig moeten we het doen met 2-3 stuks. Ik zelf heb in mijn huidige kast.
1. Nvme 1tb
2. 2x SSD 256gb voor snelle opslag.
NVME oftewel M.2 was ook nog niet bedoelt voor mass storage daar zijn ze nog te duur voor, daarom zitten er ook zo weinig op het moederbord.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:35]

En als ze wel bedoeld zijn voor mass storage hoeveel ruimte denk je op een gemiddeld moederbord te hebben voor een reeks aan sloten? Vooropgesteld dat chipset danwel cpu de lanes hebben.
Nog een opa hier.

Ja ik ken de tijd van de decoupeerzaag en mn bouwmarkt plexiglasplaatje.
En de CCFL buisjes waardoor mn PC eruit zag als een hoerenkast ;)

Maar ik vind de M.2 echt wel een uitkomst. geen gekloot met SATA kabels die losschieten
en een stuk minder schroef en propwerk om alles weg te werken.

Van IDE flatkabels ( of die stoere gebundelde met een sleave ;-) ) naar SATA was al een verademing.
Maar nu 1 schroefje en dat was het.

Als ik kijk naar toen en nu is mijn PC wel een paar kilo lichter geworden, minder storing gevoelig en het energie verbruik is ook een stuk lager.
Hier ook, ik gebruik nu twee M.2 SSD's, en ze lopen heerlijk koel hier, mijn Samsung 980 Pro 500GB is nu idle 40c en dat met de heatsink dat komt met mijn ASRock X570M Pro4, en de MB chipset fan staat laag, en hoor je niet, en mijn ruim 2 jaar oudere Samsung 970 EVO 2TB met Aqua Computer kryoM.2 heatsink, is 39c idle, en dat met 22.2c kamer temperatuur, temperaturen zijn met de M.2 SSD's geen probleem meer, en waterkoelening is al helemaal niet nodig met M.2 SSD's met heasinks, zo lang je er maar voor zorgt dat de airflow goed is in je PC kast.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 13:35]

Wauw, 1 fabrikant brengt een watergekoelde M.2 SSD uit en dat is voldoende reden om M.2 voor desktop helemaal af te kraken. Voor ieder onderdeel heb je wel fabrikanten die er net over gaan.
Op de een of andere manier zijn we laptophardware in onze desktop gaan schuiven en eigenlijk past dat helemaal niet, want het wordt zo warm dat we onze opslag intussen met water moeten koelen als we willen dat het fatsoenlijk blijft werken.
Heb je onderbouwing voor dit algemene statement? Ik heb namelijk al enkele jaren een M.2 SSD in mijn desktop die perfect werkt. Ook in al mijn laptops zonder waterkoeling in krappere behuizing werken ze perfect.

Je geeft ook spijtig genoeg geen antwoord op je eigen vraag en probeert ook niet te bedenken wat de voordelen zouden kunnen zijn.
De voordelen die ik kan bedenken:
- vastgeschroefde verbinding, dus geen connector die kan loskomen. Heb ik bij SATA spijtig genoeg wel vaak met de standaard kabeltjes, zeker na een verhuis of als ik mijn kast heb opengemaakt.
- geen kabels doorheen mijn behuizing, dus netter.
- ik kan een compactere behuizing gebruiken

Allemaal voordelen van M.2 die SATA Express niet heeft.
Mee eens. Ik zie voornamelijk voordelen.

Heb zelf een tijdje nog een losse harde schijf en sata ssd gehad, maar die heb ik er ook beide uit gegooid toen de Intel 660p erg scherp in de markt kwam een aantal jaren terug. Scheelt kabels en als je toevallig een behuizing hebt met drive cages aan de voorkant kun die er ook vaak nog uithalen, wat de airflow en/of kabelmanagement weer ten goede komt.

Ook zijn er al veel moederborden waarbij ze al heatsinks voorgeïnstalleerd hebben, ondanks thermal throttling bijna geen issue is voor de meeste mensen (was hier ook geen Tweakers artikel over?).

Nu nog wachten totdat NVMe's met grotere opslag goedkoper worden en dan zou ik ook wel leuke compacte NAS systemen willen zien met M.2 slots (Synology oid). :)
Inderdaad ook ik zie alleen voordelen, prijs, opslag, ruimte, airflow.
En opslag van 1 - 2 TB is voor veel mensen al voldoende, en anders plug je er nog eentje bij ;) :)
Ik heb 1 slot voor os, 1 slot voor opslag, dan wil ik er nu 1 bij en dan? Meer sloten heb ik niet. M.2 kun je meestal maar 1 of 2 plaatsen, bij hoge uitzondering 3 of 4.

Vind ik zeker wel een nadeel.
Ja dat klopt, meeste moederborden hebben er 2, sommige 3 of zelfs meer, maar die zitten meestal in hogere prijsklasse.
Het probleem is inderdaad dat de boel qua uitbreiding vaak beperkt is. Je hebt er over het algemeen inderdaad 2 slots (1 van de CPU en 1 van de chipset). Als je er al meer op je moederbord heb in het reguliere (non-HEDT) segment dan kun je die veelal niet eens meer inzetten zonder dat je andere dingen moet inleveren omdat de CPU/Chipset combinatie in het segment simpelweg niet over voldoende PCIe lanes beschikt. Hetzelfde probleem zie je ook bij het aantal PCIe-16x slots.

Pas als je naar het HEDT platform gaat krijg je aanzienlijk meer lanes. Voor de Intel X-based SKU's zijn dat er dan 72 ipv 40 en voor AMD Threadripper 3 ga je naar 88 versus 44. Die extra lanes kun je dan over meerdere zaken verdelen zoals slots maar natuurelijk ook extra M.2's.

SATA is toch vaak al 6 tot 8 poorten en biedt daarmee tot op heden wel superieure uitbreidbaarheid. Bijkomend probleem is dat vaak poorten worden opgeofferd voor andere functionaliteit.
Ik vond die quote ook lachwekkend.

De auteur dacht toch niet dat die watergekoelde m2’s wel goed zouden werken in een laptop? (Er van uitgaande dat de waterkoeling er niet voor de katse kut op zit.)

Juist in een desktop heb je vele malen meer mogelijkheden tot het afvoeren van warmte.

In een laptop wordt een beetje NVMe-ssd bij benchmarken al behoorlijk warm en throttling is heel gebruikelijk bij snellere modellen.
Typisch niveautje twitterjournalistiek dit. Er is niets uitgezocht alleen een controversiele stelling uitgespuugd zonder onderzoek te doen. laat de engagement maar binnen komen. Boeie dat het ruk is, de klik is binnen.
Ehhh dit is een column? Zoals in de titel duidelijk aangegeven staat. Zo heb ik het althans gelezen. Als dit een normaal artikel was, inderdaad raar dat zo een mening wordt gedeponeerd.
"Wauw, 1 fabrikant brengt een watergekoelde M.2 SSD uit en dat is voldoende reden om M.2 voor desktop helemaal af te kraken. Voor ieder onderdeel heb je wel fabrikanten die er net over gaan."

Sterker nog: deze aanleiding is kennelijk al genoeg om hier een Plus-artikel over te schrijven en mensen er voor te laten betalen om dit te lezen...
Dat het een plus artikel heet maakt 't gewoon lachwekkend.
Het is een min artikel
Wat een raar artikel idd. Zijn we eindelijk van die vervelende bulky 2.5” SSDs af (waarom zou een ssd de form factor moeten hebben van een ouderwetse harde schijf?), is er alsnog iemand die nog steeds niet tevreden is. Ik snap ook niet helemaal wat er mis is met 2280 lengte, da’s lang zat. Veel SSDs in laptops zijn er zelfs alleen in 2242 lengte.
Ik heb onlangs een nieuwe PC zin elkaar gezet, eerste keer sinds 15 jaar en in de tussentijd enkel met laptops gewerkt.

Ik vind de M2 NVME HDD een prachtige oplossing, heel mooi dat we deze compacte technieken overnemen van de laptops (in tegenstelling wat er in dit artikel word geschreven)
Het neemt nagenoeg geen ruimte in in je kast, er in schuiven, schroefje erin en klaar, geen voedings- en data kabels meer nodig.

Ook had mijn moederbord standaard geen WiFi en Bluetooth, dus ook een Intel AX200 (laptop) M2 controller erin geschroefd, de antennes erop klikken is even een gepriegel, maar als het allemaal zit en werkt is het toch prachtig, geen full blown PCI kaart meer nodig.

In tegenstelling tot dit artikel, hoop ik dat de HDD’s in de toekomst ook richting die grootte gaan, nog compacter en daardoor nog makkelijker weg te werken, snap niet waarom dit artikel gaat over dat groter beter zou zijn, ja, meer ruimte voor een koelblok, maar als dat in de praktijk, zeker in de toekomst, niet nodig zou hoeven zijn, waarom dan innovatie tegen gaan?
Is het niet veel simpeler; voor de fabrikant is het makkelijker om een SSD te maken die zowel in een laptop als in een desktop past. 1 form factor, dus 1 ontwerp en 1 productielijn.
Ja die zijn er ook heel veel wat in een laptop kan maar ook in een desktop.
Ik het het idee dat er al jaren veel meer laptops worden verkocht dan PCs. Dat heeft direct gevolgen voor de prijs, dus.logisch dat M2 SSDs dominant zijn geworden. Het is zeker niet zo dat de technisch superieure technologie het altijd wint als.je naar het verleden kijkt (b.v. betamax vs vhs).
Is er toch ook. De Thinkpad bijvoorbeeld hebben een nvme slot en die kan je dus ook in je desktop prikken.
Vraag me echt af in hoeverre je prestatieverschil zou opmerken in dagelijks gebruik als je de schijf zou koelen.
Schijnt zelfs dat als je je ssd te ver koelt de nand chips sneller slijten.
https://www.sciencedirect...26271418305079?via%3Dihub

Citaat uit de conclusie: "Write operations at low temperatures lead to a decrease in data retention time, probably not due to a degradation of the cell but due to parametric drifts of the die embedded electronics dedicated to write operations."
Ik kan het volledige artikel helaas niet lezen, maar over welke temperaturen hebben we het hier? Het lijkt me vrij normaal dat extreme temperaturen invloed hebben op elk electronisch board, zowel in koud als warm.

Een HDD schijnt ook erg slecht tegen temperatuur schommelingen te kunnen, maar ook daar twijfel ik niet erg aan. Ben geen expert, maar vrijwel elk materiaal doet iets als je het (extreem) koelt en daarna het weer doet opwarmen (+ andersom). Beste is dan ook de temperatuur zoveel mogelijk gelijk houden, wat ook de meeste fan controllers proberen te doen.
In hoeverre is koelen eigenlijk relevant net als in begin periode hoorde van de beperkingen van hoeveelheid schrijven naar SSD en degraderen ben ik daar nooit tegenaan gelopen in praktijk zolang de SSD werkt met trim is er niks aan de hand.

En dat hoor ik vaker koelen als prio zien vanwege "slijtage", ik heb genoeg machines gezien en hier ook nog een 80486 staan en dat beestje werkt nog steeds uitstekend en latere machines ook en daar werd niet zachtzinnig mee omgegaan.

Tegen de tijd dat het stuk gaat is het allang vervangen voor iets anders.
Zolang je binnen de marges blijft van de fabrikant is koeling nogal overrated, het zal eerder stuk gaan vanwege een fabrieksfout of ESD in verleden.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:35]

Nog heel even wachten en dan komen we op configuraties als TrueSOC (zuig dit even uit mijn duim) of iets dergelijks. CPU/GPU/Audio/NIC/Ram/Storage op 1 chip. Zal dan wel net zo groot worden als een AMD Epyc, maar wees eerlijk, het is niet de vraag "of", maar wanneer. Stel je voor dat je straks een krachtig gamesysteem hebt ten grootte van 2x een Rubik's kubus.

Edit: ik bedoel hier dan verder dan een arduino-board bijv.

[Reactie gewijzigd door SkyStreaker op 22 juli 2024 13:35]

Nou nee geen Epyc want dat zijn supergroot en niet interessant of rendabel voor massa market. De toekomst is 3nm op de AM4 7nm bestaat uit 3 losse chip IO en 2 CPU chiplet een Epyc heeft er 8+1 uiteindelijk komen er ook 3de gen HBM3
Chiplets gaan dan ook meer dan 8 cores krijgen. Want op 3nm zijn 8core chiplet heel klein.

Dus 4
1x io
1x chiplet
1x gpu
1x HBM3 toeren
En dat past met 3nm ook op een fictieve AM6 normal size socket.
Dus op redelijke die op 3nm past dit ook al met 16 cores met wat beefy i/gPU en en HBM3 toren erbij heb je 2 chips

Ik denk dat dit ook komen gaat maar als full system Soc om simple reden dat de massa die 16 cores niet nodig heeft en die chiplets wel erg klein worden met maar 8cores op 3nm dat yield ook niet de veel voordeel bied tov de 8core chiplet op 14nm waar chiplet nogwel redelijke grote had.

Apple M1 heeft ook al wat geheugen on die.

Probleem is dat memory HBM duur is dus interessant voor high-end top meer pro modellen. Rendabeler is om in monolithische SoC te implementeren. Dat maakt het betaalbaar voor de massa. En high-end SOC kan dan een wat krachtige igpu mee krijgen. Op 3nm kan de Die size ook mee vallen.

We komen in tijd dat die space in overvloed is en men heeft niet zo overvloed aan CPU kracht nodig plus dat meeste software niet veel doet met 64cores.
Dan komt er dus meer ruimte vrij voor grotere caches en memory en GPU intergratie

De toekomst is dus niet meer gedreven door de nood van meer compute power maar kleine zuinige PC .

Maar er is ook tegen kracht en dat is de losse gpu markt. Ik denk niet dat AMD of iNtel ook ARM nV met te krachtige beefy igpu in hun Soc of APU gaan proppen omdat losse gpu markt ondermijnd. Memory on Soc gaat er wel komen maar igpu die midrange losse gpu voorbij gaat denk ik niet. Dat is voorbehouden aan console SoC of APU
Met de EPYC bedoelde ik meer de afmeting (zoals je stelt), in de aanname dat voor "krachtig genoeg" het wat groter zal zijn dan 2,5x2,5cm zeg maar :)

[Reactie gewijzigd door SkyStreaker op 22 juli 2024 13:35]

Als je teveel gpu op de cpu wil proppen zit je ook met wat je kunt koelen. Beetje cpu met al die bende erin, 120-140 watt? Dan een mid of mid highend gpu a la 300 watt, daar zit je dan met je kleine zuinige pc.
De M1 can Apple gaat al die richting uit. Het geheugen zit in de chip. Geen upgrades meer :-(
Het RAM zit vastgesoldeerd, maar niet op de chip?
Op de M1 zit het op de chip.

Op dit item kan niet meer gereageerd worden.