Nadat Gigabyte met zijn experimentele Project Stealth bewees dat een build veel mooier wordt als je de kabels niet ziet, presenteerden verschillende fabrikanten hun concepten voor een 'kabelloze' pc op de Computex. Op de CES-beurs zien we voor het eerst moederborden en kasten die echt in grote aantallen op de markt gaan komen. In dit artikel bekijken we de 'kabelloze' moederborden en behuizingen van ASUS, MSI, Corsair, Cooler Master, InWin en Thermaltake.
ASUS: moederborden, behuizingen én videokaarten
ASUS is zonder meer de fabrikant die het meest inzet op het 'kabelloze' concept. Op de CES-beurs toonde het merk niet alleen moederborden en behuizingen die geschikt zijn voor 'BTF', maar ook videokaarten. Back To Future is ASUS' naam voor producten die de kabels via de achterkant wegwerken.
De eerste producten zijn onderdeel van de TUF Gaming-serie. Het TUF Gaming Z790-BTF WiFi-moederbord heeft alle connectors aan de achterzijde en beschikt over een speciaal powerslot in het verlengde van het PCIe x16-slot voor je videokaart. Daar plugt de eveneens getoonde RTX 4070 Ti Super TUF Gaming BTF White Edition in voor zijn stroomtoevoer; deze kaart heeft geen losse stroomaansluitingen meer aan de bovenkant van de kaart. Er komt ook een bijbehorende kast met de benodigde gaten in de moederbordtray voor de connectors aan de achterzijde, namelijk de TUF Gaming GT302 BTF. Deze kast heeft niet alleen gaten voor ATX-moederborden, maar is ook alvast voorbereid op eventuele toekomstige Micro-ATX- en Mini-ITX-borden met het BTF-concept.
ASUS TUF BTF
Onder zijn ROG-merknaam voert ASUS dezelfde aanpassingen door bij luxere hardware. In de ROG Hyperion GR701 BTF toonde de fabrikant een ROG Maximus Z790 Hero BTF-moederbord en een ROG RTX 4090 Strix BTF-videokaart. Het hoge stroomverbruik van die videokaart is geen probleem, want de gebruikte slotconnector kan tot 600W vermogen aan.
ASUS RTX 4090 BTF met slotconnector voor stroomtoevoer
ASUS wil de getoonde BTF-producten aan het einde van het eerste kwartaal op de markt brengen.
MSI: behuizingen en moederborden in meerdere formaten
Ook MSI zet grote stappen op het gebied van 'kabelloze' pc's en brengt zijn daarvoor geschikte producten uit onder de naam Project Zero. Op de CES toonde de fabrikant zijn bestaande Micro-ATX-modellen met de AMD B650- en Intel B760-chipsets, en een nieuw ATX-model met de Intel Z790-chipset. Net als bij ASUS zitten alle connectors aan de achterkant, maar de slotaansluiting voor de stroomtoevoer naar de videokaart zien we bij MSI nog niet terug.
De drie MSI Project Zero-moederborden, met rechts het nieuwe Z790-ATX-model
Naast moederborden toonde MSI ook drie behuizingen die compatibel zijn met Project Zero. Het topmodel is de MEG Maestro 700L PZ, met een tweekamerontwerp en gebogen glas dat zowel de voor- als zijkant van de kast bedekt.
MSI MEG Maestro 700L PZ
Ook de kleinere MAG Pano 100L PZ heeft een ontwerp dat uit twee compartimenten bestaat, zodat er 9cm ruimte voor kabels achter het moederbord is. Dit model heeft doorvoergaten voor zowel ATX- als Micro-ATX-moederborden en heeft drie delen glas, met een hoekstuk tussen de voor- en zijkanten. Hij wordt vanaf maart verkocht en gaat rond de 120 dollar kosten, maar voor dat bedrag krijg je er geen fans bij.
Tot slot is er de MAG Pano M100R PZ, die alleen Micro-ATX-moederborden kan huisvesten. Ook heeft deze kast een traditionelere indeling met maar 3,3cm ruimte voor kabelmanagement. Het kenmerkende driedelige glas van de grotere Pano-kast is echter gebleven.
MSI MAG Pano M100R PZ
Opvallend is overigens dat concurrent Gigabyte, die dit concept met zijn Project Stealth zo'n beetje heeft uitgevonden, op zijn CES-booth geen enkel product voor dit 'kabelloze' concept toonde.
Corsair en Cooler Master
Op deze pagina bekijken we de 'kabelloze' behuizingen van Corsair en Cooler Master.
Corsair: in tweeën verdeelde glaspaleizen
Bij Corsair kwamen we twee behuizingen tegen die compatibel zijn met de ASUS BTF- en MSI Project Zero-moederborden. De Corsair 6500X is de spiritueel opvolger van de Crystal 680X uit 2019, wat zoals de naam al zegt een kast is die vooral om glas en rgb draait. De 6500X is een ATX-behuizing die in twee compartimenten is verdeeld, waardoor je ruim plaats hebt voor kabelmanagement achter het moederbord. De 2500X is als het ware het kleinere broertje van de 6500X, waar maximaal een Micro-ATX-moederbord in past.
Allebei de kasten komen beschikbaar in een versie met een glazen voorpaneel en een meshvoorpaneel. In dat laatste geval eindigt de naam van de kast niet op een X, maar op een D. Ze worden standaard zonder ventilators geleverd; alleen de duurdere 6500X RGB en 2500X RGB worden met fans geleverd. Daarbij gaat het direct om mooie rgb-fans die iCUE Link-compatibel zijn.
De ruimte achter het moederbord in het tweede compartiment van de Corsair 6500X
De delen van de boven- en voorkant die niet uit glas of mesh bestaan, zijn bedekt met 3mm dikke, vervangbare panelen. Corsair komt onder meer met metalen panelen in zwart en zilvergrijs, en panelen van hout en bamboe. Er komen verschillende standaardconfiguraties beschikbaar, maar je kunt de panelen straks ook los kopen.
De verschillende panelen voor de 2500X en 6500X
Prijzen maakte Corsair nog niet bekend, maar aangezien de 6500X de opvolger van de genoemde Crystal-kast is, verwachten we een prijs van tussen de 150 en 200 euro voor de kast zonder fans. De kleinere 2500X wordt vermoedelijk wat goedkoper. Beide behuizingen verschijnen op 27 februari.
Cooler Master: Masterbox 600 met voorkant van mesh
Ook Cooler Master nam zijn eerste behuizingen voor verborgen connectors mee naar de CES. De Masterbox 600 is compatibel met alle moederbordmerken en is voorbereid op borden in alle formaten. De interne deling is redelijk standaard, maar het draaibare rgb-lampje om bijvoorbeeld je gpu te verlichten, is een leuke vondst.
Cooler Master Masterbox 600
De kast wordt standaard geleverd met één fan, maar zal ook uitkomen in een variant met drie extra rgb-ventilators aan de voorkant. Voor de goedkoopste uitvoering mikt Cooler Master op een prijs van minder dan 100 dollar.
Cooler Master Masterbox 600
InWin en Thermaltake
Op deze pagina sluiten we af met de 'hidden connector'-kasten van InWin en Thermaltake.
InWin: standaard midtower en fulltower met modulair voorpaneel
InWin toonde twee nieuwe kasten die geschikt zijn voor het 'kabelloze' concept. Het gaat om de D5-midtower en de E5-fulltower. In beide behuizingen passen moederborden tot en met E-ATX, en ze hebben allebei frontaansluitingen bestaande uit een audiojack, een 20Gbit/s-USB-C-poort en twee 5Gbit/s-USB-A-poorten.
De D5 is een redelijk standaard midtower met een voorpaneel van geperforeerd staal en een zijpaneel van glas. Aan de voorkant is een uitklapbare hoofdtelefoonhanger aanwezig. Er passen videokaarten tot 36,5cm en cpu-koelers tot 16,5cm in de kast. Standaard is er één Neptune AN120-fan voorgeïnstalleerd, en zowel voorin als bovenin passen 360mm-radiators voor waterkoeling.
InWin D5
De F5-fulltower heeft een specialer voorpaneel, met verwisselbare delen van het voorpaneel die je in een willekeurige volgorde kunt vastklikken. In het getoonde voorbeeld zou je de houten strip linksboven op de witte kast bijvoorbeeld juist rechts van de plaat met het InWin-logo kunnen plaatsen, zodat je een doorgaande houten lijn krijgt. De plek van het rooster voor de fans is vanzelfsprekend wel vast. Bij de zwarte versie zijn alle delen van het voorpaneel gewoon van metaal. In deze kast van 51x23,5x54,3cm (65 liter) kun je een gpu tot 43,5cm, een cpu-koeler tot 18cm, 420mm-radiators onder- en bovenin, en een 280mm-radiator voorin kwijt.
InWin F5 en D5
Het is niet bekend wanneer de nieuwe kasten precies uitkomen. De D5 gaat 119 dollar kosten; de F5 moet 149 dollar gaan opbrengen.
Thermaltake: midtower in zwart, wit en blauw
Tot slot is het de beurt aan Thermaltake. Deze fabrikant had maar één behuizing met doorvoergaten voor kabels achter het moederbord gereed, maar deze Ceres 330 TG ARGB komt er dan wel gelijk in drie kleuren: zwart, wit en speciaal ter ere van Thermaltake's 25-jarig bestaan in het blauw. Waarom blauw? Dat past mooi bij de racefiets van de oprichter van de fabrikant, zo werd ons op de stand verteld. De behuizing is compatible met moederborden van in elk geval ASUS en MSI, maar wel uitsluitend met de ATX-versies, want alleen voor die formfactor zijn de juiste doorvoergaten aanwezig.
Thermaltake Ceres 330 TG ARGB
Zoals de naam al zegt, komt de kast met rgb-fans voorgeïnstalleerd. Om precies te zijn gaat het om twee 140mm-rgb-fans voorin en een 140mm-fan zonder rgb achterin. De Ceres 330 TG ARGB biedt plaats aan een 360mm-radiator voorin en een 280mm-radiator bovenin. Optioneel kun je een 3,9"-schermpje bij de kast kopen, waar je live statusinfo of je eigen gifje op kunt weergeven.
De Thermaltake Ceres 330 TG ARGB gaat 110 dollar kosten.
Als er minder kabels zichtbaar vind ik prima. Maar helemaal de moederbord printplaat bedekken is te ver - ik wil toch die mooie chips en condensatoren zien.
Netjes bij elkaar gebonden (liefste velcro, geen tiewraps), zodat het fijn werken is in de kast en het airflow niet in de weg zit, prima, maar juist weggemoffeld achter het mobo zoals je goed ziet bij de Corsair 6500X https://tweakers.net/i/bm...65982.jpeg?f=imagegallery dat vind ik er dus juist vreselijk uit zien. Totaal form over function, als je daar ooit iets aan moet aanpassen, mag je zowat het hele ding uit elkaar halen (en al die tiewraps doorknippen, kijk uit dat je je niet openhaalt aan die scherpe krengen, bloed zal nogal opvallen in zon witte kast).
Doe dan maar "zichtbare" kabels (mijn kast zal toch dicht zijn) zodat het praktisch werken is. Ik vind het nut er een beetje in doorslaan. Maar goed, ieder z'n ding.
die tiewraps zijn er misschien over, maar je kan dat evengoed met velcro doen.
Toch vind ik die beter voor de airflow.
het afschuwelijke wit hoeft voor mij helemaal niet. Alsook het glas niet want hangt toch onder mijn bureau. De dikte is wel van belang, want die moet nog in de ophanging kunnen klemmen en die saat nu al op het maximum.
maar in al deze opstellingen mis ik 1 kabelknoei. De SSD's, HDD en CD.
De SSD's/HDD's zouden ze ook heel mooi kunnen wegsteken met inschuif connectoren, de CD en removable slot zijn lastiger want die staan haaks op de "MoBo-wand"
Het is nu al lastig een behuizing te vinden die, die 2 laatste heeft, laat staan met nog voldoende ander storage slots er in.
Voor airflow is het behoorlijk overgewaardeerd. Je moet er wel echt een spaghettinest van maken wil het je hardware richting het punt van overkoken brengen.
Lucht is best flexibel en zolang je genoeg intake en outflow hebt en dit in de juiste richting doet, doe je weinig fout. Die paar stroomkabels maken daar niks uit, dus de winst die met deze cases gemaakt wordt ten opzichte van normaal degelijke cable management, is werkelijk slechts optisch.
Ik ben ook niet van de RGB in mijn pc en toch vind ik een glazen paneel wel vet. Ieder zijn ding en gelukkig voor iedereen zijn er keuzes genoeg op dat gebied.
Dit doet me denken aan een situatie welke ik ooit had op een LANparty.
Kerel had exact dezelfde hardware als ik, bleek. Dus we gingen vergelijken en uiteindelijk gingen de cases open.
Ik had nog nooit gehoord van cable management en gaf er dus ook niets om. Hij begon over hoe rampzalig dit wel niet moest zijn voor mijn airflow, etc.
Vervolgens hebben we de temps vergeleken en bleek dat het echt he-le-maal geen impact had. Sterker nog, mijn build draaide zo'n 10c koeler. Dit had waarschijnlijk te maken met mijn simpelweg veel betere airflow hebbende case. (Ding is uiteindelijk wel weggedaan ivm ook 0 noise reduction).
Het hele airflow commentaar is al niet meer relevant sinds de komst van ruimere cases (wss door de giga videokaarten en koelers van nu), het achterlaten van de IDE/flatcables en al helemaal met modulaire voedingen. Misschien dat het nog een 0.01c impact zou kunnen hebben op het totaalplaatje ofzo, maar al die ronde kleine kabeltjes doen niet zoveel tegen de zuig/duw kracht van de fans.
Vroeger met de hele ballen van flatcables was dit wel een ietwat ander verhaal, maar airflow is gewoon geen argument meer.
Er zijn meerdere tests mee gedaan door tech websites en bekende tech Youtube kanalen en het blijkt maar heel erg weinig tot nagenoeg niks uit te maken qua koeling hoe je je kabels wegwerkt, zolang je maar een beetje ruimte hebt in je PC en genoeg ingaande en uitgaande fans.. Het is echt meer voor hoe het eruit ziet dan voor airflow en zogenaamd betere koeling..
[Reactie gewijzigd door Inflatable op 22 juli 2024 18:16]
Volgens mij heeft LTT al een keer aangetoond dat kabels echt 0 in de weg zitten mbt airflow. Zelfs als je de kabelbende van drie voedingen in 1 kast propt.
Wel is het zo dat de “patatje joppie ketchup” set kabels de snelheid niet ten goede komen
Op zich vind ik het toch wel leuk om naar te kijken hoor, zo'n strakke layout.
Dat zorgt er ook voor dat je m makkelijker stofvrij kan houden en de airflow is uiteraard een stuk beter.
Als je dan eens een upgrade moet doen is het even in en uitklikken/schroeven en niet eerst al je kabelzooi wegwerken. Scheelt een pak tijd.
Voor mij is het vooral misgelopen met RGB. Tegenwoordig moet alles RGB hebben en bij sommige zaken moet je flinke stunts uithalen om het uit te krijgen.
Dat is het nadeel als een markt eigenlijk 'klaar' is. Tuurlijk, er komen nieuwe modellen en snellere hardware. Maar als je enkel bestaande videokaarten een andere cooler en een stickertje geeft, dan moet je je op een gegeven moment ergens op onderscheiden. Vergelijk het met de 3D bij televisies en de Smart functie. 3D is gelukkig weer op zijn retour, maar een beetje deftige TV vinden zonder smart functionaliteiten is erg lastig.
Ik wil juist een mooi klein en vooral dicht kastje op mijn bureau hebben staan maar waar nog wel alle gangbare hardware in past. Aansluitingen achter op het moederbord maakt de boel alleen maar lomp en dikker. Vind zelf de grote aquariums echt afschuwelijk.
Ik ben misschien ouderwets maar ik kijk tijdens het gamen naar mijn monitor. Niet naar mijn pc kast.
Zal het daar uiteindelijk toch niet op uit draaien gezien de warmteontwikkelingen? DDR geheugen was in het verleden ongekoeld, evenals de nvme ssd. Daar zitten nu heatspreaders op, zou me niets verbazen als dat in de toekomst gewoon meegenomen wordt in de water koeling...
Alleen DDR had standaard geen heatspreaders, DDR2 werd inderdaad behoorlijk warm maar ddr3/4 waren de heatspreaders decoratief.
Ram waterkoeling, das lang geleden dat ik dat ergens gezien heb. probleem met name koeling is gewoon de locatie, luchtstroom is veel lager op die locaties mede door GPU en PCIe sloten.
Optimalisatie van de airflow, makkelijker stofvrij houden? Dat ik het normaal gesproken niet zie betekent niet dat ik niet weet wat er in zit - ik heb hem immers zelf in elkaar gezet.
Dat kabels invloed hebben op je airflow is een mythe. In deze video wordt dat even uitgezocht, resultaat: kabels hebben nul komma nul effect. Slechts wanneer men er allerlei rommel bij stopte (verpakkingen van fans, een mits, en zelfs een trui!) Was er een klein negatief effect op je temperatuur.
Dat er gezegd wordt dat dit de nieuwe standaard wordt, wil niet zeggen dat dit ook daadwerkelijk het geval is
Sterker nog, Dat meerder fabrikanten nu 'kabelloze' moederborden uitbrengen is een mooie stap, maar over de locatie en orientatie van de connectors zijn ze het nog niet eens. Hiervoor is, kort gezegd, (nog?) geen standaard
Ik vind 'kabelloos' (lees: kabels aan de achterkant van het mobo) een hele goeie stap in de richting van esthetische kasten, en (zoals Linus aangeeft in zijn video over dit onderwerp) het bouwen van een eigen pc is iets vergevingsgezinder. Maar we hebben nog een lange weg te gaan voordat we een standaard hebben voor deze nieuwe standaard.
Sterker nog, Dat meerder fabrikanten nu 'kabelloze' moederborden uitbrengen is een mooie stap, maar over de locatie en orientatie van de connectors zijn ze het nog niet eens. Hiervoor is, kort gezegd, (nog?) geen standaard
Persoonlijk zie ik de standaard van Asus snel als winnaar uit de bus komen, puur omdat MSI zover bekend nog geen connector heeft om de stroom van de videokaart te kunnen leveren.
Ik hou ook van een goede airflow, en zie dus echt wel een voordeel in dit systeem (al verwacht ik dat early adopters duur uit zijn)
Ik hoop in elk geval dat ze het snel eens zullen worden, omdat deze ontwikkeling ook nog veel andere voordelen met zich mee gaat brengen. Het zorgt misschien voor duurdere borden, maar tevens ook voor een manier om moederborden meer functionaliteit te geven als deze meer moeten gaan regelen.
Denk aan het regelen van spanning voor de GPU via de bios van het moederbord, voor zowel overclocken, energiebesparing of automatische flows via centrale software (fans die van het moederbord doorkrijgen dat er meer/minder stroom naar de gpu gaat, en daarmee ook hun snelheid aanpassen).
Als je als fabrikant toch een computer bouwt en het kan alle bedrading gewoon integreren in het moederbord en de componenten… waarom zou je dat dan niet doen.
Apple doet dit al 30 jaar met o.a. de PowerMac, die later Mac Pro ging heten. Nee, je ziet er niets van, zeker niet aan de buitenkant, maar het is wel zo prettig als hij een keer open moet.
Natuurlijk was het voor Apple veel makkelijker om dit principe toe te passen, omdat ze zelf ook de hardware bepalen.
Wat een enorme kermis met al die ronddraaiende verlichting.
Maar ik behoor ook niet echt tot de doelgroep
Minder kabels die in de kast hangen is natuurlijk wel beter. "Vroeger" met mijn eerste 486 (dx2 op 66Mhz voor de liefhebber) zag je wel dat die kabels stof aantrokken.
[Reactie gewijzigd door jongetje op 22 juli 2024 18:16]
Vroeger" met mijn eerste 486 (dx2 op 66Mhz voor de liefhebber) zag je wel dat die kabels stof aantrokken.
Ik denk dat "aantrokken" technisch niet correct is; ik vermoed dat de kabels de luchtstroom dusdanig verstoren dat er achter de kabel windstilte (wat is de technische term?) ontstaat waardoor stof zich daar ophoopte. Dat probleem werd een stuk minder toen de platte brede PATA/IDE-kabels werden vervangen door ronde smalle SATA-kabels.
Wellicht ook gebruikt materiaal dat een beetje gaat plakken? Of kwam die plakzooi puur door de airflow daarop (waarschijnlijk meestal teer van roken)? Weet wel dat die kabels, naast stoffig, ook vaak wat plakte, zodat die stof juist bleef hangen. Maar idd, vreselijk voor airflow die dingen.
Daarom waren ronde IDE-kabels ook echt de bom voordat SATA gemeengoed werd! Niet meer die brede flappen in je case maar een paar mooie ronde sleeved kabeltjes
Ik hoop dat dit een aparte standaard word naast ATX en niet dé standaard want voor compacte ITX builds is dit de doodsteek.
Een sandwich layout case, of sowieso elke compacte case, zal een stuk breder moeten worden terwijl de ruimte aan de voorkant onbenut blijft.
Dit is het tegenovergestelde van ruimte optimalisatie
Vooralsnog wordt het helemaal géén standaard, maar dé standaard gaat het nooit worden
Ik zie voor SFF echter ook wel mogelijkheden hiermee
GPU's even negerend, als dit een standaard zou worden en de ATX 24-pin en 8-pin EPS connectors dus op vaste locaties achterop komen, betekent dat ook dat zoiets als Singularity's powerboards een serieuze optie zouden worden. Je klikt je moederbord op het powerboard, PSU rechtstreeks aan het powerboard (waarschijnlijk wel met een adapter board omdat die pinouts uiteraard ook verschillen). Geen ruimte meer nodig voor kabels. Sterker nog, in veel sandwich layouts zou dit misschien ruimte kunnen besparen, omdat je nu met een riser kabel/board zit en de ruimte die daar voor nodig is min of meer uit zou komen met de headers. Dat hangt heel erg van de kast af, maar in bijvoorbeeld een Fractal Terra zou je de PSU met de stekkers naar onder op het adapter board in kunnen prikken; het powerboard zou onder en midden in de kast zitten, waar nu al een centimetertje ruimte tussen moederbord en GPU zit. Voor bijvoorbeeld een T1 zou het powerboard en moederbord onderin aan een kant kunnen komen - omdat er nu geen kabels in de weg zitten, GPU vervolgens boven de CPU...voor lucht gaat dat niet werken, maar voor waterkoeling krijg je dan ineens veel simpelere routes - en wederom geen kabels die in de weg zitten. Ik zie zeker wel mogelijkheden om SFF zelfs nog compacter te maken
Het grote probleem is de stroom voorziening voor GPU's (wat ASUS heeft gedaan is heel leuk, maar dan moet je naast alle moederbord en kast fabrikanten ook nog eens Nvidia, AMD én Intel mee krijgen...en waarschijnlijk PCI-SIG), maar in het T1 voorbeeld hierboven zou het powerboard daarvoor juist iets naar voren kunnen komen, waardoor je vervolgens je PCIe power rechtstreeks omhoog naar de GPU kan laten lopen...of zelfs de GPU op de kop en rechtstreeks op het powerboard, maar dan moeten die PCB's allemaal specifieke lengtes hebben.
Als ik naar m'n huidige setup kijk (Ridge, 7800X3D, 3080 - watergekoeld) zou het inderdaad niet werken. Op lucht zou je nóg meer ruimte kwijt raken en voor water zit het probleem bovenin, niet onderin.
Even voor de duidelijkheid, omdat het artikel het niet helemaal duidelijk maakt: vooralsnog is, en wordt, dit helemaal geen standaard. Ze zijn er allemaal mee bezig, maar ze werken totaal niet samen, laat staan dat er gewerkt wordt aan een daadwerkelijke standaard.
Gigabyte heeft het slechts één keer gedaan en hun layout is heel anders dan de anderen. ASUS en MSI komen redelijk overeen, maar zijn ook niet 100% compatible. De kasten makers hebben de gaten vooral groot genoeg gelaten dat de meeste borden wel zullen werken, maar je hebt op dit moment 0,0 garantie dat een bord en kast bij elkaar passen.
Van wat ik van beide fabrikanten begreep op de CES, is er wel degelijk onderlinge afstemming tussen ASUS en MSI over de gebruikte locaties. Samenwerking tussen de Taiwanese fabrikanten ligt van oudsher natuurlijk gevoelig, maar volgens mij hebben ze wel door dat dat in dit geval onvermijdelijk is.
Voor zover ik begrepen het is het vooral MSI die min of meer ASUS' layout gevolgd heeft om íets van compatibiliteit te creëren, maar dan nog zijn het enkel deze twee. Als je naar Corsair's 6500X kijkt, zijn de uitsparingen gigantisch om maar alles te laten passen, wat de rigiditeit uiteraard niet ten goede komt.
Om dit daadwerkelijk een standaard te laten worden moeten ook ASRock en Gigabyte mee doen (de kleinere spelers negeer ik even, die hebben hier minder interesse in), alsmede alle tientallen behuizingbouwers.
Dat ze door hebben dat het niet winstgevend wordt als niet iedereen mee doet is vast waar, maar dat betekent niet dat het ook opgelost gaat worden. Ik wacht nog steeds op een universele frontpanel header waarbij je niet op hoeft te zoeken welke pin wat is en dat ding gewoon een vaste stekker kan zijn
[Reactie gewijzigd door Werelds op 22 juli 2024 18:16]
Dit is geen positieve ontwikkeling, binnenkort hebben alle fabrikanten een andere manier en kun je onderdelen niet meer fatsoenlijk meenemen naar een nieuwe bouw.
Ik vind een beetje kabels zichtbaar juist zijn charme hebben bij het bouwen van een computer... Nu ziet het er zo schoon uit, het lijkt wel een lego bouwpakket...
Da's ook mijn mening. Het netjes maken van kabels kost een hoop tijd. Alleen als je dat op een goede manier doet dan ziet het er juist beter uit met die kabels dan zonder. Op deze manier is het wel heel kaal aan het worden en valt er minder te zien. Geef mij maar mooie gesleevde kabels die met aandacht er juist goed uitzien.
Het ziet er wel een beetje leeg uit zo zonder de kabels in een air-cooled PC. Een goede set custom kabels juist verwerkt vind ik juist wel wat hebben, maar voor ieder zo wat
Misleidend om het kabelloos te noemen. De getoonde oplossingen gebruiken nog steeds kabels. Ik dacht dat de kabels eindelijk eens allemaal vervangen waren met ZIF-sockets zodat je een moederbord/voeding/enz gewoon in een kast klikt en er geen kabels nodig zijn, maar het gaat gewoon om het verleggen van antieke stekkerkabels zodat ze niet zichtbaar zijn.