Door Tomas Hochstenbach

Redacteur

Zelf een ‘kabelloze’ pc bouwen

Build met geschikte kast, mobo en gpu

09-03-2024 • 06:00

127

ASUS BTF build

Vorig jaar was het nog een experimenteel concept, maar op de CES begin dit jaar zagen we ze opeens overal: 'kabelloze' kasten, oftewel behuizingen waarin alle kabels onzichtbaar zijn weggewerkt. Vanaf nu ligt de geschikte hardware van ASUS, de fabrikant die het meest inzet op deze trend, ook daadwerkelijk in de winkels. Ik ging aan de slag met een moederbord, videokaart en behuizing uit de BTF-lijn van ASUS om voor het eerst zelf een ogenschijnlijk kabelloze pc te bouwen.

Het 'hidden-connector'-concept

Het concept achter de 'kabelloze' hardware is in de basis vrij simpel. Alle connectors die normaal gesproken aan de voorkant van je moederbord zitten, worden verplaatst naar de achterkant van het pcb. Dat geldt voor de grote stroomkabels, zoals de 24-pins ATX-kabel die het moederbord van stroom voorziet, maar ook voor alle kleine headertjes voor het aansluiten van bijvoorbeeld fans, rgb-verlichting en de frontpanelconnectors van de behuizing.

Vanzelfsprekend moet de behuizing hiervoor wel op de juiste plekken uitsparingen achter het moederbord hebben. De ASUS Back to Future- en MSI Project Zero-moederborden gebruiken hiervoor dezelfde locaties, waardoor dit concept is uitgegroeid tot een officieuze standaard. ASUS en MSI brengen zelf kasten op de markt die er geschikt voor zijn, maar ook Corsair heeft al twee behuizingen uitgebracht die er compatibel mee zijn, en van de CES weten we dat ook Cooler Master, In Win en Thermaltake daaraan werken.

ASUS is vooralsnog de enige fabrikant die niet alleen moederborden en behuizingen visueel kabelloos maakt, maar ook afscheid neemt van de stroomkabel naar de videokaart. De stroomconnectors aan de bovenkant van de kaart zijn vervangen door een kleine slotconnector in het verlengde van het PCIe x16-slot, die rechtstreeks in het moederbord plugt. Door deze connector kan maximaal 600W aan vermogen worden geleverd, net zoveel als met de veelbesproken 12Vhpwr-kabel.

ASUS BTF videokaart connector
In het verlengde van het PCIe x16-slot plaatst ASUS een voedingsconnector die tot 600W kan leveren.

Moederbord: ASUS TUF Gaming Z790-BTF WiFi

Het moederbord dat ik gebruikte voor deze eerste build is een TUF Z790-BTF. Net als de rest van de TUF Gaming BTF-componenten is dit moederbord grotendeels wit. Iets later verschijnen ook duurdere ROG BTF-onderdelen, met onder andere een RTX 4090 en een BTF-variant van de Maximus Z790 Hero, die een traditionele zwarte kleurstelling krijgen.

Wat de specificaties betreft is de ASUS TUF Z790-BTF goed te vergelijken met de reguliere TUF Z790-Pro. Beide borden hebben een PCIe 5.0 x16-slot, twee PCIe 4.0 x4-slots en in totaal vier M.2-slots met telkens vier PCIe 4.0-lanes bandbreedte. Ook de aansluitingen zijn vrijwel identiek. De meerprijs voor het BTF-model bedraagt op dit moment ruim 100 euro.

Opvallend aan ASUS' BTF-line-up is dat er vooralsnog geen AMD-moederborden zijn. Als straks ook de ROG Hero uitkomt, zijn er in totaal drie Intel-borden: de Hero, de Z790 TUF en een al langer bestaand B760 TUF-model, dat nog niet de slotconnector voor de stroomtoevoer naar een videokaart had.

Videokaart: ASUS TUF Gaming RTX 4070 Ti Super BTF

De enige BTF-videokaart die je nu kunt kopen, is de RTX 4070 Ti Super. Daar komt binnenkort nog een RTX 4090 in de ROG-serie bij, maar andere opties zijn er voorlopig niet. De kaart is vrijwel een een-op-eenkopie van de reguliere ASUS TUF RTX 4070 Ti Super White, maar dan zonder de veelbesproken 12Vhpwr-poort en in de plaats daarvan met de eerdergenoemde slotconnector.

ASUS geeft aan dat deze connector niet alleen de stroomkabel overbodig maakt, maar ook helpt tegen het doorbuigen van de videokaart. Er is nu immers bijna aan het einde van de printplaat een tweede punt waar de videokaart in verbinding staat met het moederbord. Dat betekent wel dat het pcb daar ook lang genoeg voor moet zijn: op zijn minst zo'n 22cm. Dat maakt dit type videokaarten op Mini-ITX-moederboden per definitie een onmogelijkheid, en ook Nvidia's referentie-pcb's voor de Founders Edition zijn vaak korter dan dat.

Op het moment van schrijven betaal je minstens 1075 euro voor de TUF RTX 4070 Ti Super BTF, wat 100 tot 150 euro meer is dan wat een vergelijkbare kaart zonder de BTF-connector kost. Als je dit alleen vergelijkt met ASUS' eigen witte 4070 Ti Super, is het prijsverschil maar ongeveer 75 euro. Dat komt vooral doordat ASUS ook met zijn reguliere producten nu eenmaal geen prijsvechter is.

Als je deze videokaart koopt, of straks zijn duurdere ROG Strix RTX 4090-broer, moet je je er wel van bewust zijn dat de reguliere stroomconnectors ook niet beschikbaar zijn als back-up. De videokaart is dus onbruikbaar in een normaal moederbord. Mocht het 'kabelloze' concept geen succes worden, dan moet je je videokaart dus per se samen met het moederbord en de kast verkopen, wat de tweedehands waarde flink zou kunnen beperken.

Behuizing: ASUS TUF Gaming GT302 ARGB

Ik bouwde de 'kabelloze' build in een TUF Gaming GT302 ARGB-behuizing, ASUS' eerste kast met ondersteuning voor zijn BTF-standaard. Het duurt vermoedelijk nog even voordat deze kast de winkels bereikt, omdat de voorraad per boot naar Europa wordt verscheept. Zoals gezegd heeft Corsair wel al BTF-compatibele kasten in de winkels liggen, en waarschijnlijk komen daar snel meer merken bij.

De TUF GT302 is een redelijk doorsnee, middelgrote kast: hij is ongeveer net zo groot als de populaire Corsair 4000D. De TUF-kast heeft vier fans met addressable rgb, die netjes via pwm worden aangestuurd. Op het voorpaneel, dat bij deze kast zowaar letterlijk op de voorkant zit, zitten twee USB-A-poorten (5Gbit/s) en een USB-C-poort die tot 20Gbit/s kan halen. Er passen videokaarten tot wel 40cm lang en eATX-moederborden in de behuizing, in feite gewoon alle soorten hardware dus.

Waar het echt om draait, is dat deze kast extra uitsparingen heeft achter het moederbord, zodat alle kabels rechtstreeks naar achteren kunnen lopen. In de onderstaande fotocarrousel zie je het eindresultaat van de volledige build, inclusief het kabelmanagement aan de achterkant. De ASUS-behuizing heeft daarvoor 22mm ruimte achter de moederbordtray, wat in de praktijk ruim voldoende is om de bocht te maken met de kabels die uit het moederbord komen. Daarbij moet ik wel opmerken dat de kabels van de gebruikte voeding dankzij de individuele sleeving erg flexibel zijn. Bij psu's met stuggere kabels zou wat meer ruimte wellicht welkom zijn. Een tweekamerkast zoals de Corsair 6500X is eigenlijk ideaal voor dit concept.

Voor de volledigheid vind je hieronder de volledige specificaties van het systeem. Houd bij het bekijken daarvan in je achterhoofd dat dit op geen enkele wijze een aankoopadvies is, maar puur een gelegenheidsbuild om kennis te maken met het BTF-concept.

Onderdeel Product Prijs
Processor Intel Core i5-14600K Boxed € 305
Moederbord ASUS TUF Gaming Z790-BTF WIFI € 344
Videokaart ASUS TUF Gaming GeForce RTX 4070 Ti Super BTF White OC € 1.074
Behuizing ASUS TUF Gaming GT302 ARGB n.n.b.
€ 150?
Processorkoeling ASUS ROG Ryujin III 360 ARGB White Edition € 404
Geheugen intern Corsair Vengeance RGB CMH32GX5M2D6000C36W € 136
Voeding ASUS TUF Gaming 850W Gold € 133
Solid state drive Samsung 990 Pro (zonder heatsink) 1TB € 107
Totaal € 2.653

Conclusie

Nu ik voor het eerst zelf een 'kabelloze' pc heb gebouwd, moet ik eerlijk bekennen dat ik toch wel heel blij word van het resultaat. Een build zonder zichtbare kabels ziet er veel strakker uit, is eenvoudiger in te bouwen en helpt je gelijk van wat hoofdbrekens af. Je hoeft niet meer na te denken of de kleur van de kabels wel bij de rest van de hardware past, of alle kabels lang genoeg zijn en of je geen al te scherpe bocht hoeft te maken met de gevoelige 12Vhpwr-kabel.

Maar nu je de benodigde componenten ook daadwerkelijk kunt kopen, volgt natuurlijk de belangrijkste vraag: zou je dat ook doen? Als ik nog even buiten beschouwing laat dat de keuze voorlopig beperkt is, betaal je in vergelijking met dezelfde onderdelen zonder BTF ongeveer 100 euro meer voor het moederbord en 100 à 150 euro meer voor de videokaart. Is een visueel kabelloos systeem je 250 euro extra waard?

Op de redactie van Tweakers lopen de meningen sterk uiteen. De een zou de extra investering serieus overwegen voor de strakke looks en het extra inbouwgemak. De ander vindt het maar onzin, koopt liever een kast met een dicht zijpaneel en steekt de 250 euro, en mogelijke meerprijs van andere uiterlijke opsmuk, liever in zijn zak.

Nu steken Tweakers-communityleden hun mening zelden onder stoelen of banken, maar in dit geval ben ik extra benieuwd hoe jullie hierover denken. Of dit soort onderdelen gaan aanslaan, kan namelijk zomaar bepalen of over vijf jaar praktisch iedere pc alle connectors aan de achterkant heeft, of dat dit idee rap de geschiedenisboeken in verdwijnt als een leuk probeersel.

Een visueel kabelloze pc - is dat wat voor jou?

Nee, ik zou er geen cent meer voor over hebben
30,3%
Mwah, eerst maar eens afwachten tot het aanbod groter wordt
28,0%
Mwah, de huidige meerprijs is mij nog te hoog
27,8%
Ja, mijn volgende pc wordt sowieso kabelloos!
11,4%
Mijn gedachten zijn genuanceerder - ik laat ze achter in de comments
2,5%

Aantal stemmen: 4.509. Deelname gesloten op 28-03-2024 15:22. Stemmen is niet meer mogelijk.

Lees meer

Reacties (127)

127
125
93
0
0
22
Wijzig sortering
De meerprijs is nu nog erg hoog en het aanbod is laag maar ik denk dat we, zeker qua moederborden, dit meer en meer gaan zien. Eigenlijk is het vreemd dat we zolang op deze "oplossing" hebben moeten wachten.

Maar ik zou zelf al blij zijn wanneer die ATX-24pins kabel aan de achterkant zou zitten en de rest gewoon aan de voorzijde....
Waarom is dat vreemd? Deze "oplossing" is puur esthetisch, want er is geen enkel praktisch voordeel. Sterker nog: er zijn praktisch gezien enkel nadelen, aangezien je kast nu sowieso dikker wordt om ruimte te geven aan de connectoren aan de achterkant.

Het "voordeel" van betere airflow is onzin: er zijn al talloze testen gedaan die aantonen dat cable management totaal geen invloed heeft op de koelprestaties.

Let op: ik ben zeker niet tegen deze trend, maar het woord "oplossing" is niet echt van toepassing vind ik, omdat het enkel praktische nadelen creëert.
Ik dacht dit dus ook. Tot ik mij realiseerde dat het wel degelijk invloed kan hebben op de ventilatie en mogelijk ook de koeling van de kabels. En stof huishouding.

Stel je hebt een set up die normaal in een ventilatiebaan liggen. En het kwadraat is te klein dan kan de koeling van de ventilator er voor zorgen dat er niets gebeurt (koude lucht ventilatie) Of juist wel. Je kwadraat is groot genoeg maar door warme lucht ben je alsnog de Sjaak.

Anderszijds kan door je kabel management wel degelijk je warmte /stof huishouding beïnvloed worden dan wel in negatieve als in positieve zin.

@Tomas Hochstenbach misschien een idee om ook een review te maken over de warmte huishouding en stof management in een kabelloze kast dan wel een kast met kabels. (Hint: neem niet alleen de kast mee maar ook de omgeving)
Mja, niet dus: testen hebben aangetoond dat cable management totaal geen invloed heeft op de koeling: https://youtu.be/YDCMMf-_ASE?si=j47JPjjNLuaT_EdH
Niet in dit soort kasten nee, maar voor SFF kasten zou ik ook graag kabelloze componenten zien, want daar heeft het wel degelijk impact.
Die dan flink dikker moeten worden door de aansluitingen op de achterzijde :+

Schiet een beetje het S deel in SFF voorbij :+
Of ze moeten het goed doen, zodat de kabels zo kort mogelijk kunnen zijn, en eventueel weggemoffeld kunnen worden naar een klein hoekje. Dat doen ze nu met deze 'kabelloze' trend ook al. Alleen de GPU-connector durf ik echt kabelloos te noemen, en dat lijkt me (terugdenkend aan EISA-insteeksloten) nog wel een goed idee ook: het is alleen nuttig voor high-end kaarten die niet met de gebruikelijke 75W uit de voeten kunnen. Die zijn toch vaak lang.
Echter... moet je alsnog de stroom vervoeren, alleen nu naar het moederbord, en eroverheen. Voor 600W is dat flink wat koper.
Maar kabels is een voedings ding en niet perse moederbord en case gerelateerd. Dat is simpel op te lossen, koop of maak een set custom kabels met de juiste lengte.

Als ik even een aantal SFF cases er bij pak zoals de Dan A4, Dan H2O, Ncase M1, Ncase EVO, Formdt T1, Loque GHost S1, Coolermaster NR200, Fractal Terra, ect. Daarbij zit de voeding voorin vrijwel tegen het moederbord aan, een gemiddelde SFX voeding heeft een kabel van 30cm? Bij heel veel van die cases is een 24-pins kabel van minder dan de helft al lang genoeg, eventueel met een bocht er al ingemaakt door de kabellengte te variëren. CPU voeding kan veelal achter het moederbord langs of bovenlangs of onderlangs (inverted borden).
Sata is nog wel een ding want schijven zitten op verschillende plekken maar juist daarbij is een custom kabel peanuts en kun je op lengte maken zodat wegwerken perfect kan.
Vodeokaart is wel een ding maar ook daarbij maken custom kabels veel verschil, eventueel met 180graden connectors zodat de kabel strak over je backplate naar kan lopen.
Hou je nog wat fans, USB, power ect over. Die zijn wel lastig zeker USB3 kabels zijn stug en relatief dik maar verder is het imho goed te doen.

Ik heb hier een paar tientjes betaald voor een custom ATX en PCIe 8 pins kabels, SATA voeding zelf gemaakt van een oude PCIe kabel en sata kabel, CPU is de stock kabel, en verder nog een rits eigen gemaakte kabels.
Impact op de temperatuur is letterlijk 0 :+
of gebruik een Seasonic Connect
Die Connect unit is langer dan mijn behuizing is :+

Kun je voorstellen hoe dat in een echt kleine behuizing is van sub 10L :+
Maar in sff kan je dit BTF concept niet toepassen, het neemt te veel ruimte in.
Waarom is dat vreemd? Deze "oplossing" is puur esthetisch, want er is geen enkel praktisch voordeel. Sterker nog: er zijn praktisch gezien enkel nadelen, aangezien je kast nu sowieso dikker wordt om ruimte te geven aan de connectoren aan de achterkant.
Maar juist daarom ben ik het ermee eens dat je het vreemd kan noemen. Momenteel zijn er bijna 3x zoveel kasten in de PW met glazen paneel als die gesloten zijn. Blijkbaar is er enorme vraag naar esthetisch mooie PCs. Mijne is gewoon gesloten en heb ik een aantal kabels netjes via de achterkant, maar bij mijn moederbord kabel had ik er genoeg van en die gaat gewoon door de kast. Maar als je wel een mooie kast wil hebben dan snap ik dit prima.

Waarom is het dan nieuw? Ïk vermoed vooral omdat toen al onze huidige standaarden werden gemaakt het hele concept van in je PC willen kijken nieuw was. Tegelijk weet ik niet hoeveel mensen met een glazen zijkant dit echt willen. Als in: Ik ben geheel tevreden met een goede luchtkoeler, maar als ik een glazen zijkant nam, dan ging ik 100% voor een AIO waterkoeling omdat het er gewoon mooier uitziet. Maar er worden toch nog stuk meer luchtkoelers verkocht volgens mij.
puur esthetisch, want er is geen enkel praktisch voordeel.
Dat is er wel.
Het aansluiten gaat makkelijker. De dikste kabels hoeven niet meer helemaal van de voorkant naar de achterkant. Als dit 'de' standaard zou worden zouden in theorie de kabels een stukje korter kunnen of, aangezien voedingen toch modulair zijn, misschien wel het zetje kunnen geven om bouwers de gewenste kabels er los bij te laten kiezen i.p.v. dat er een standaard set 'universele' kabels wordt meegeleverd.

En of het puur esthetisch is of niet of voordelen heeft is niet eens de kwestie. Het gaat meer om het feit dat er eens concreet iets gebeurt met die standaard waar we al decennia lang mee bouwen, maar die ondertussen misschien niet meer optimaal is .
Neem bijvoorbeeld de GPU, waarvan de positie niet is gewijzigd sinds het een open printplaat was die niet eens actieve koeling nodig had. Terwijl het ding nu vele malen groteren zwaarder is, enorm hoge temperaturen je kast in gooit, de 'mooie' kant ook nog eens niet zichtbaar is en ook nog eens de stroomaansluitingen op de meest idiote plekken heeft zitten..

Dat de kast breder wordt vind ik niet direct een nadeel. En kasten zijn nu sowieso al breder omdat er ruimte is voor kabelmanagement en aan de andere kant voor CPU-koelers tot 20 cm.
De meeste behuizingen zijn nog steeds dezelfde rechthoekige bakken die qua inrichting moeten voldoen aan de voornamelijk door het moederbord bepaalde posities van hardware. Daar is 30 jaar lang amper iets in gewijzigd.

Ik heb persoonlijk helemaal geen behoefte aan een open kast en zorgen dat er geen kabels tegen ventilators aan komen en zonder knellen in de kast zitten is alles wat ik aan kabelmanagement wil doen.
Uiteraard wordt door de fabrikanten gepusht naar open kasten en alles wat daar bij hoort want daar zit geld. En ik kan me ook best voorstellen dat mensen het leuk en mooi vinden en er ook geld aan willen besteden.
Ook al lijkt het onder het mom van esthetiek en lijkt het een kleine aanpassing, dan is het nog steeds positief dat fabrikanten eindelijk aan de moederbord standaard durven komen en ook, in tegenstelling tot eerdere pogingen, daadwerkelijk een levensvatbaar product brengen.
kan je dat 24pins stekkerblokje niet op de achterkant monteren ? en ook vast solderen op de achterkant ? dan komt het stekkerblokje wel iets meer van de print af te zitten.

of met verleng draadjes aan de achterkant van het moederbord solderen met 24pins stekker?

Update: ik heb hier een Moederbord nader bekeken, dat vast solderen stekker aan achterzijde met of zonder verleng draadje gaat mij wel lukken.
en als je het met verleng draadjes doet met daaraan een 24pins stekker hoef je ook geen andere kast te kopen

[Reactie gewijzigd door wim1928 op 22 juli 2024 17:17]

Ben benieuwd naar het resultaat :)
Als je die connevtor zelf van voor naar achter verhuist, als dat al zou lukken, dan zitten de aansluitpunten gespiegeld en moet je dus ook de bedrading in de connector aan de kabel spiegelen.
Dit gaat sowieso steeds meer mainstream worden, maar ik denk dat het voor de komende paar jaren nog wel een niche gaat blijven, en dat is puur gewoon door de prijs nu vanwege dat er weinig aanbod is en dat het ook nog eens splinternieuwe technologie is.
Maar ik zou zelf al blij zijn wanneer die ATX-24pins kabel aan de achterkant zou zitten en de rest gewoon aan de voorzijde....
Ik heb zelf zo'n 90° stekkertje van Ali, maakt al een heel verschil met de klassieke 'krul'
Heeft dit kabelloze concept nou ook nog (echt) voordelen voor de airflow binnen in de kast? Uiteraard zal het verschil best meetbaar zijn op een één of andere Javier, maar blijven componenten ook (echt) koeler? Of is dat zo erg op de marge dat het echt alleen maar voor het cosmetische is?
Sinds we parallelle kabels gedropt hebben en de achterkant van de kast kunnen gebruiken voor cablemanagement is airflow geblokt door kabels toch geen issue meer?
Maakt geen verschil, je doet het vooral voor het visuele.
Het verschil met de oudere kasten is vaak de harde schijf kooien die fans voor 60% of meer blokkeren.
Die airflow op zich is geen doel maar een middel om te koelen. Koelt deze aanpak waarbij componenten in toenemende mate worden ingepakt is een vraag die ik wat lastiger kan beantwoorden.
Ik zie voor mijn niche hoekje van de zelfbouw markt eigenlijk alleen maar nadelen aan dit concept.
ITX word hiermee vrijwel onmogelijk. Het is nu qua PCB al en draak om zoveel aansluitingen op een bordje van 17x17cm te plakken, als dan ook allerlei connectors ook nog op vaste plekken moeten zitten word dat een ontwerp hel.
Daarnaast vind ik de mogelijkheid tot relatief compacte builds zo fijn maar door alle connectors aan de achterkant te plaatsen heb je flink extra ruimte nodig aan die kant. Nu kan het deel van de behuizing aan de achterkant van het bord minimaal zijn, spacers, plaat voor montage en het zijpaneel kan daar op principe strak tegenaan. Met 1cm (of minder zelfs) dikte aan de achterkant kan dat, een ATX voedings connector is al hoger. Aan de voorzijde heb je die ruimte toch al qua hoogte ivm je CPU koeler.

Daarnaast is die GPU voedingsconnector mooi maar ITX borden zijn niet eens breed genoeg om die kwijt te kunnen :+

Nou weet ik dat dit een niche binnen een niche is maar toch, het zou een standaard als ATX flink versplinteren.
Ik zie voor mijn niche hoekje van de zelfbouw markt eigenlijk alleen maar nadelen aan dit concept.
ITX word hiermee vrijwel onmogelijk.
Ik zie dit vooral als een methode voor erbij. Dit gaat niets vervangen.
Daarnaast is die GPU voedingsconnector mooi maar ITX borden zijn niet eens breed genoeg om die kwijt te kunnen :+
De mini-ITX kast zou hierin kunnen faciliteren, door naast het moederbord of op een (ingebouwde) riser card de connector op de juiste plek aan te bieden. De plek van het PCIe-slot is gestandaardiseerd, dus ongeacht het moederbord is de plek van die extra connector ook op een vaste plaats.

Voor mij is dit niets. Dit lijkt met name voor high-end, en voor high-end ga je snel aan de slag met waterkoeling. Je ziet dan alsnog de slangen van waterkoeling, wat voor mij te veel op dikke kabels lijkt. Buiten dat een build niet "kabelloos" voor mij hoeft te zijn, zou ik mij storen aan iets dat niet zichtbaar "kabelloos" is maar wel zo wordt gepresenteerd.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 17:17]

ITX word hiermee vrijwel onmogelijk. Het is nu qua PCB al en draak om zoveel aansluitingen op een bordje van 17x17cm te plakken, als dan ook allerlei connectors ook nog op vaste plekken moeten zitten word dat een ontwerp hel.
Dat kan eventueel opgelost worden met een aangepaste connector op het moederbord met een verloopkabel waarop je dan weer meerdere kabels op kan aansluiten.
Voor ITX gebruiken veel manufacturers al een daughterboard principe. waarbij veel connectors op een daughterbord zitten samen met de M.2 SSD

wat ze ook kunnen doen voor ITX is IPV sata een "SFF-8643" connector gebruiken.
hierbij krijg je meer sata voor minder ruimte
Ik zie nog steeds twee gigantische "kabels" van de CPU koeling. Waarom niet luchtgekoeld ?
Omdat het geen kabels zijn. En waarom niet?
Het was mooi geweest als de CPU op de achterkant van het moederbord had gezeten, dan kon de AIO ook weggewerkt worden.
Dan had je net zo goed alle kabels via de voorkant kunnen laten gaan en de glazen deur aan de achterkant kunnen zetten.

Eigenlijk wou ik zeggen dat de kast dan een flink stuk breder wordt als de cpu koeling aan de onderkant van het moederbord zou zitten
Mee eens, dit had natuurlijk een costum waterkoeling systeem moeten zijn. De bouw afronden met een standaard AIO waterkoeler is vloeken in de kerk als je voor de looks gaat.
omdat er een intel in zit :+
Ik vind het een mooi concept maar wat ik nog prettiger vind dan het kabel loze aspect is de toegankelijkheid van de stekkers. Niet meer eindeloos pielen met kleine stekkertje op een slecht verlicht moederbord terwijl je je handen aan alle kanten kan openhalen door alle aanwezige scherpe randjes, maar gewoon goed toegankelijke poortjes die goed verlicht en bereikbaar zijn. Daar zou ik sowieso iets extra's voor over hebben maar of dat zoveel is weet ik nog niet.
Helemaal met je eens, vraag me alleen wel af of het systeem nog op start zonder dat je een bloedoffer hebt gebracht...
Mee eens, het feit dat het PC bouwen hierdoor een stuk gebruiksvriendelijker wordt is een niet te onderschatten factor.
Een bloedoffer voor de goden hoort er bij.
Het grootste probleem wat ik zie is gebrek aan standaardisatie. Als dit de trend wordt en fabrikanten hun eigen ding gaan doen heb je dadelijk het probleem dat je moederbord niet meer in iedere kast past.

En persoonlijk zie ik hier ook niet echt een heel groot probleem. In een moderne normale kast heb je de mogelijkheid om de kabels via de achterkant van het moederbord te laten lopen. Hiermee heb je aan de voorkant alleen aan de zijkant van het moederbord zichtbare kabels en ziet het er nog steeds behoorlijk clean/netjes (imho). Voor mij is dit dus een non-issue en niet iets waar ik heel veel behoefte aan heb.
Mjah, vooralsnog zijn er 3 fabrikanten (ASUS, MSI, Corsair) die hetzelfde ding doen ipv ieder hun eigen ding. Ik verwacht dat de meeste hardwaremakers wel slim genoeg zijn om in te zien dat ze zichzelf in de voet schieten als ze iets maken wat niet compatible is met wat de concurrenten maken (Apple buiten beschouwing gelaten). Ik denk dat dit snel genoeg een standaard kan worden mits het aanslaat bij het grote publiek en de prijzen redelijk overeenkomen met 'normale' versies.
Persoonlijk vind ik dit wel een mooie stap. Minder kabels in de luchtstroom is minder luchtgeruis (voor koeling zal het idd niet veel uitmaken), dus nog stillere systemen.
Ik zie zelf wel iets in een vervolgstap waarbij je een soort modulaire kast hebt waar de connectors al in zitten, zodat je je mobo er enkel in hoeft te drukken. SATA volledig vervangen door NVME zodat die poorten overbodig worden. PSU die je zo in de kast schuift, enz...

[Reactie gewijzigd door FooLsKi op 22 juli 2024 17:17]

Momenteel is de fase nog net te vroeg om al over standaardisatie van oplossingen te praten. Daarvoor moet eerst een consensus bestaan over die oplossingen.

Om een voorbeeld te geven. Ga je bepaalde grotere connectoren naar beneden uitvoeren dan kan je interferentie krijgen met de afsteunpunten van het moederbord. Op zich niet zo'n big deal. Nu bevindt de 24 pins voedingconnector zich ook vaak al op dezelfde plek. Dit omdat de connector die afsteunpunten moet ontwijken maar er tegelijkertijd ook dichtbij wil zijn zodat het bord de kracht van connecteren kan weerstaan. Dat bij het connecteren die kracht aan de afsteunpunten trekt in plaats van de druk bij een connector die bovenop het bord is geplaatst stelt misschien andere eisen aan de plaats van de connector.

Je kan denken: die montagepunten van het moederbord zijn nu toch al een stay out zone voor elektronica? Op zich is dat zo. Die stay out zone wordt echter groter zodra de connectoren naar beneden gericht worden. Dan moet namelijk ook rekening gehouden worden met het materiaal in de moederbordtray dat nodig is om bij die afsteunpunten voor die afsteuning voldoende stijfheid te bieden.

De fabrikanten zullen terughoudend zijn om aan het bestaande afsteunpatroon van moederborden te tornen. Ik vind het zo lastig te overzien, maar helemaal uit te sluiten is het niet dat voor connectoren naar beneden het montagepatroon beter een aanpassing kan krijgen. Dan kijken we naar een uitbreiding van de ATX conventie, moederbordtrays met extra uitsparingen voor die connectoren en een extra groep alternatief geplaatste montagegaten. Misschien mondt het uit in een tweede moederbord tray voor omlaag gerichte connectoren. Dit zou natuurlijk een behoorlijke weerstand zijn voor deze ontwikkeling. Als het even kan zullen fabrikanten dit willen ontwijken. Dan is het wel opletten dat de moederbordafsteuning voldoende stijf is waar stijfheid nodig is en dat het moederbord niet teveel van die connectiekracht zelf moet verwerken omdat de montagepunten te ver bij de connectors verwijderd zijn.
Eerste wat mij opviel zijn die twee kabels voor de processor koeling. Misschien juist omdat er verder geen kabels zijn.
Dat zijn geen kabels maar waterleiding.
Je hebt uiteraard helemaal gelijk, maar op het eerste oog ziet het er voor mij uit als twee dikke “kabels” in een verder kabel loze kast.
Ziet er allemaal mooi en rustig uit.
Wit is het voor mij dan weer niet.

Maar zeer netjes, ik denk wel dat ik voor zoiets ga in mijn volgende build.
Ik zie dat de plaatsing van de connectors een officieuze standaard is. Mocht dat allemaal wat zekerder worden, en mocht het een redelijke prijs krijgen, dan ga ik ook zeker over.

Relevante quote:
De ASUS Back to Future- en MSI Project Zero-moederborden gebruiken hiervoor dezelfde locaties, waardoor dit concept is uitgegroeid tot een officieuze standaard
Mijn build is nog geen jaar oud, en met mijn verwachting hoelang mijn huidige meegaat zou het allemaal gemeengoed moeten zijn.
Of we hebben helemaal geen volledige pc meer maar een telefoon die je op een dockingstation aansluit oud.
Anoniem: 57411 9 maart 2024 06:34
Voor mij is het mooie van een raampje in de pc juist het zien hoe een en ander in elkaar steekt.

Het verbergen van de kabels valt dan, wat mij betreft, onder de zelfde categorie onzinnige aanpassingen als zo een kap op de voeding.

Als ik zicht wil op een klinisch kunstwerkje, dan plak ik dat wel op het zijpaneel.
Inderdaad, waar heb je nu uiteindelijk zicht op. Plastic kapjes, vierkante blokjes. Twee slangen, een hoop RGB en niets in zicht dat ook maar wijst op elektronica.
Ikzelf ben nogal utilitair ingesteld. Zo is mijn kast gewoon dicht en zet ik wat nog overschiet van RGB (want een deel van de componenten is daar altijd mee uitgerust) uit.

Als kabelloze kasten ertoe leiden dat ik cruciale zaken niet meer moet plooien, bv. om eens 't stof af te doen of, inderdaad, die 12v connector aan die GPU, dan ben ik fan. Anders hoeft het niet voor mij.
Ben het met je eens, kabels zijn moeilijk schoon te maken maar hoeven niet stofvrij te zijn. Pcbs wel anders oxideren ze uiteindelijk en meer warmte ontwikkeling. Als je toch je case dicht doet.
Maar stoffilters werken al best prima.

Op dit item kan niet meer gereageerd worden.