AMD introduceert XConnect-standaard voor externe videokaarten

AMD presenteert met de XConnect-technologie een standaard voor het gebruik van externe grafische kaarten in combinatie met laptops. De techniek maakt gebruik van Thunderbolt 3, waarmee een bandbreedte van 40Gbit/s beschikbaar is.

AMD XConnect Technology eGPUVanaf nu integreert AMD de XConnect-technologie in zijn Radeon Software. Eerder op donderdag werden al nieuwe drivers vrijgegeven waarin de techniek kort werd vermeld. Nu heeft AMD alle informatie vrijgegeven over de standaard, die in samenwerking met Razer en Intel ontwikkeld is.

Om gebruik te maken van XConnect is een laptop met Thunderbolt 3-aansluiting nodig. Via dit protocol zijn vier pci-e-lanes beschikbaar, wat een bandbreedte van 40Gbit/s oplevert, vergelijkbaar met een pci-e-3.0 x4-slot. De Thunderbolt 3-standaard maakt gebruik van dezelfde omkeerbare connector als usb-c. De XConnect-techniek werkt momenteel alleen in combinatie met Windows 10 Build 10586 of nieuwer.

Het doel van de XConnect-technologie is om het gebruik van externe gpu's in combinatie met bijvoorbeeld laptops te standaardiseren en plug-en-play-functionaliteit mogelijk te maken. Bij gebruik van producten die aan de standaard voldoen is het niet nodig om het systeem te herstarten bij het aan- of afkoppelen van de externe videokaart. Ook kan er binnen applicaties direct gewisseld worden tussen de interne of externe gpu, zonder de software te onderbreken of te sluiten. Het is niet nodig om een externe monitor te gebruiken, de kracht van de externe gpu kan gebruikt worden om de grafische prestaties van de laptop zelf te verbeteren. Wel is er netvoeding nodig om de gpu van stroom te voorzien.

Als de externe grafische kaart onverwacht losgekoppeld wordt, moet de driver er voor zorgen dat het systeem niet crasht, maar dat enkel de applicatie wordt afgesloten. XConnect laat in de interface van Windows 10 zien of de externe gpu veilig losgekoppeld kan worden, net als bij usb-apparaten. Ook wordt in het systeemvak weergegeven welke programma's gebruikmaken van de externe gpu als deze is aangesloten.

AMD XConnect

XConnect werkt in combinatie met de volgende gpu's: R9 Fury en Nano, R9 300-series, R9 290X, 290 en 280. Ook afgeleide mobiele chips van deze gpu's worden ondersteund en bovendien vermeldt AMD dat toekomstige videokaarten op basis van de nieuwe Polaris-architectuur ook ondersteund zullen worden.

Kasten met externe grafische kaarten, die aangesloten kunnen worden op laptops, bestaan al langer, maar in de praktijk werkte dat niet probleemloos. Zo waren er speciale drivers nodig, moesten systemen herstart worden of werkte het laptopscherm niet meer bij gebruik van de externe gpu. XConnect moet een oplossing bieden voor dergelijke problemen. Eerder hintte marketingtopman Robert Hallock van AMD al op de komst van een standaard voor externe grafische kaarten.

Volgens AMD is Razer de eerste fabrikant die een XConnect-compatibel systeem gaat leveren. Het gaat om de Razer Blade Stealth-laptop en het Razer Core-chassis waar een AMD-videokaart ingestoken dient te worden. In januari maakten we op de CES-elektronicabeurs al kennis met dit systeem, maar destijds was nog niet bekend welke techniek Razer gebruikte voor het koppelen van de gpu aan de laptop.

De Razer Blade is een 12,5"-ultrabook met een zuinige Intel i7-6500U-processor. Er komen varianten met een resolutie van 2560x1440 pixels of 3840x2160 pixels. In beide gevallen gaat het om een igzo-aanraakscherm van Sharp. De dunne laptop is voorzien van de benodigde Thunderbolt 3-aansluiting, zodat de Razer Core-behuizing kan worden aangesloten. Deze kast biedt plaats aan een pci-e-videokaart naar keuze, mits deze voorkomt op de lijst van ondersteunde gpu's, met een maximum tdp van 375W.

Razer Blade en Razer Core

Razer Blade Stealth-ultrabook en Razer Core-chassis

Bij gebruik moet de Razer Core-behuizing worden aangesloten op een stopcontact. De Core kan dan ook de laptop opladen via de Thunderbolt-aansluiting. Ook heeft het chassis usb 3.0-poorten en een ethernet-aansluiting, datastromen vanuit deze poorten worden eveneens aan de laptop doorgegeven via de Thunderbolt-kabel.

AMD verwacht dat er verschillende soorten externe gpu's op de markt komen, variërend van behuizingen waar gebruikers zelf een videokaart in kunnen stoppen, tot compacte uitbreidingen die voorzien zijn van een geïntegreerde gpu.

Het is niet de eerste keer dat AMD een standaard probeert op te zetten voor externe gpu's. In 2008 probeerde het bedrijf, destijds nog ATi, het ATi eXternal Graphics Platform aan de man te brengen. De functionaliteit hiervan was beperkt tot het gebruik van de mobiele HD 3870-gpu en later ook de HD 5870 via pci-e 2.0, maar dat systeem werd niet breed opgepakt door laptopfabrikanten.

Hoewel Nvidia officieel nog geen uitgebreide details heeft gegeven over het ondersteunen van externe grafische kaarten, blijkt er sinds eind januari in de GeForce WHQL-driver bètasupport aanwezig te zijn voor externe gpu's via Thunderbolt 3. Vermoedelijk werkt Nvidia dan ook aan een driver die vergelijkbaar is met AMD's XConnect en het lijkt aannemelijk dat de behuizingen voor externe videokaarten die met Thunderbolt 3 werken zowel gebruikt kunnen worden met gpu's van AMD als van Nvidia.

Door Julian Huijbregts

Nieuwsredacteur

10-03-2016 • 15:00

74

Reacties (74)

74
73
60
4
0
12
Wijzig sortering
Goede ontwikkeling maar vraag mij wel af hoe groot de markt hier voor is. Ik ga er van uit dat mensen die veel gamen vaak op de zelfde plek zitten en daarvoor liever gaan voor een normale PC. De gene die veel onderweg is moet naast een prijzige laptop dus ook nog een prijzig accessoire aanschaffen. Daarnaast moet het ook nog eens makkelijk mee te nemen zijn. Stel je voor in de trein laptop in je rugtas en je videokaart in een sporttas... :/
Ik heb dit ( http://www.slashgear.com/...oster-video-card-2824433/ ) ) model uit 2008 gehad, en dat was echt leuk, voor school en onderweg had ik een fijne 13,3" laptop en thuis verbond ik hem met één kabel met mijn tobo, muis en scherm. _/-\o_

Ideaal, maar toen der tijd waren de CPU's in laptops nog niet snel genoeg om veel snellere GPU's aan de praat te houden, dus ik denk dat het daarom niet echt lekker van de grond af kwam.
Dat externe kastje toen der tijd was een stuk eleganter dan de bak die er nu bij komt. Het lijkt bijna een omgekeerde vroeger / nu vergelijking.
Ik vind het een interessante ontwikkeling om alles op 1 PC te kunnen doen. Een compacte laptop die ik altijd mee kan nemen, met flinke accuduur en dan voor een LAN party kan ik speciaal de (hopelijk binnenkort compacte) externe videokaart mee nemen.

Het is duidelijk een investering in de toekomst. In de huidige vormfactor is er weinig spannends aan.

In de toekomst hoop ik dat je net als externe HDD's/SSD's ook externe GPU's te zien. Compatible met vrijwel iedere laptop voorzien van dezelfde poort. Dat is namelijk echt een interessante ontwikkeling.
Dat zeg je nu wel maar dit is toch echt bedoeld voor een niche markt.

En dat soort dingen worden tegenwoordig steeds minder gevraagd.

Kijk maar naar de desktop, desktopgebruik is dramatisch teruggezakt.

Zo een externe videokaart was 10 jaar geleden misschien wel interessant maar tegenwoordig zal het echt een hele kleine groep aanspreken.

En met HBM zie je dat er eigenlijk wel ontwikkelingen zijn om meer performance in een kleinere oppervlak en met minder stroomverbruik mogelijk te maken.

Als HBM nog doorontwikkeld wordt en er zuinige varianten van komen dan wordt het gat tussen laptop en desktop weer iets kleiner.
Tegelijkertijd zitten er steeds minder aansluitingen op een laptop en laten oems zelfs de GPU wegom hem dunner te maken.

Een dock is dus steeds interesanter en normaler, waarom zouden we daar niet meteen een GPU in steken?
Ik vind het best wel een interessante ontwikkeling en overweeg zeker zo'n externe kaart bij m'n volgende laptop te kopen. Huidige laptops met krachtige GPUs zijn bijna altijd erg fors en vaak ook afschuwelijk lelijk (je gaat daar niet mee bij een vergadering zitten).
"Zo een externe videokaart was 10 jaar geleden misschien wel interessant maar tegenwoordig zal het echt een hele kleine groep aanspreken."

Onzin!
Ik ken minstens 10 mensen die hier echt wel warm voor lopen, en nou niet omdat ik alleen met tweakers omga.. Ik zou het zelf ook ideaal vinden, 1 laptop voor alle doeleinden, gamen doe ik niet op het werk of in de trein, maar wel in de huiskamer of bij vrienden. en mijn PC is te lomp om mee te nemen en even op de eettafel te zetten..
Het enige struikelpunt -nu- is dat de laptop die het ondersteunt een dure is, en dat het even duurt voor de rest het kan. maar ik durf te wedden dat er straks betaalbare ultrabooks zijn die het ook kunnen, en dat is nu precies wat de markt zoekt imho.
helaas zijn zulke laptops wel prijzig.

maar je kan ook een M-itx kast nemen met plek voor 1 GPU (2/3 slots)

en die dan gewoon menemen overal naar toe.

dit is ook mogelijk
dan nog met een 500GB SSD zit je wel goed qua opslag voor vele games

gewicht ligt dan onder de 5KG.
Ja maar dan een scherm, toetsenbord, kabels, etc..
Ik heb nu (nog kleiner dan m-itx kasten) een omgebouwde munitiekist met een gamepc erin, maar dat is het toch net niet..
Het is tot nu toe niet de meest economische oplossing geweest, maar het heeft wel wat voordelen:
- één pc dus geen gedoe met synchronisatie
- een sneller/betere laptop dan bij een game pc + cheapo laptop combi
- cpu's zijn vrij snel, dus minder noodzaak voor een 17" workstation laptop.
- toch nog een stuk kleiner dan een lanpc + monitor
- als je de laptop ook zakelijk gebruikt kun je je baas mee laten betalen of btw terugkrijgen :P
Ik ben geen echte gamer, maar hou er zo nu en dan wel van om iets te spelen. Dan vind ik het wel prettig als de performance redelijk is. Ik heb nu dus een laptop met een GTX 850M. De lichste laptop met zo'n GPU is ongeveer 2,5 kilo. Maar voor alle tijd dat ik geen spelletje speel is al die extra koeling en dergelijken loos gewicht en zou ik aan een laptop met een I5-6200U best wel genoeg hebben. Deze zijn redelijk betaalbaar vanaf 1,5 kilo.

Nu hoef ik dus niet zo'n systeem met een grote externe GPU. Maar bijvoorbeeld een case met een ingebakken GTX 960M ofzo zou wel gaaf zijn. En als ik straks weer een nieuwe laptop koop kan ik die case gewoon meenemen. En zo'n losse unit zou gewoon power kunnen trekken uit de laptop of natuurlijk op een eigen accu draaien en zou dan niet veel meer dan 1-1,5 kilo hoeven wegen.
Apple Macbook Pro's zijn meestal 1,5-1,6 kg en hebben optioneel een vergelijkbare videokaart.

Het wordt wel minder bij Apple, van het laatste model heeft alleen de high end een redelijke videokaart (R9 M370X).
De modellen daarvoor hadden een GTX 750, GTX650, Radeon 6770, 330GT, 9600GT, 8600GT. Tussen 2008 en 2015 waren Macbook Pro's behoorlijk goede gaming machines ondanks een laag gewicht. De laatste generatie ben ik niet meer zo over te spreken.
De Mac Book Pro met extra GPU komt alleen in de 15,6" model en weegt dan rond de twee kilo. Tevens kost die 2500€ wat toch beduidend meer is dan ik verwachtte uit te geven. Is natuurlijk ook hogere kwaliteit dan ik verwachtte te kopen. Maar zou het nog steeds interessant vinden om een goede dedicated gpu los van mijn laptop te kunnen kopen.
Overdag is het een saaie zakenlaptop, maar 's nachts...[heftig muziekje]
/Jambers
Het is zeker interessant. Mijn Laptop is nu 4 jaar oud en draait op een GT540M. Yeeeuh... :(.
Doet het opzich prima hoor, maar is verouderd en wat meer oomph zou wel fijn zijn.
Echter zijn Gamin laptops logge, zware lelijke dingen (mijn mening), en daarnaast ook nog eens zeer prijzig.
Liever zie ik een optie voor een relatief goedkope laptop (Goede CPU, goed scherm, maar verder niks boeiends qua GPU. Als ik dan onderweg ben moet ik maar genoegen nemen met minder. (weet toch niet beter :)) en dan dit erop aansluiten voor als ik thuis ben. Kleine kast, makkelijk weg te werken ergens of onder de bank te parkeren.

Ja ik zie zeker een markt, maar dan moet het wel:
  • Op relatief goedkope laptops beschikbaar komen
  • Het GPU kastje openbaar en upgradebaar zijn met nieuwere kaarten
Ik vraag me af hoe het zit met latency. Vooral als je met VR aan de slag wil is iedere extra ms een doodzonde. Heb ergens op het internet geruchten gelezen dat Thunderbolt voor 1,5 ms extra latency zorgt, dat zou eigenlijk al teveel zijn voor VR...
net als dat de latency van het geheugen niet een hele groter factor is bij GPU's is de latency van de PCI-E bus dat ook niet. een GPU weer eigenlijk altijd ruim van te voren wat hij nodig gaat hebben.

en zolang de totale latency onder de 20ms blijft heeft veruit het overgrote deel van de mensen nergens last van met VR. en voor desktop gamen is 1.5ms helemaal verwaarloosbaar.
Hoeveel trager is een laptop gpu eigenlijk vergeleken met een desktop gpu?
Dit is wel erg kort door de bocht, maar kijk hier:
http://puu.sh/nByqe/8b7795a612.png
Dat is dus wel een behoorlijk verschil.
De 980 (desktop) moet je dan ook vergelijken met de 990m. Dat zijn voor zover ik weet dezelfde chips met evenveel shaders.
Voor de desktop heb je echter nog sterkere GPU's dan de gtx 980. Zoals de 980 ti, titan X,r9 fury etc.
Niet te vergeten dat laptop GPU's over het algemeen vele malen duurder zijn dan gelijk presterende desktop-uitvoeringen (waar beschikbaar).
Anoniem: 669957 @eL_Jay10 maart 2016 17:01
De 990m heet tegenwoordig gtx 980 (notebooks). Precies wat je zegt, zelfde chip met evenveel shaders, zelfde prestatie en overclock mogelijkheden.
Niet helemaal een goede vergelijking. De 980M is dan ook meer een 970. Dus nee, zo'n kaart doet het prima dan.
Anoniem: 669957 @Luca10 maart 2016 17:02
Maar de 990m aka gtx 980 (notebooks) is gewoon dezelfde videokaart als de desktop gtx 980
Normaal gesproken kan je bij een 980M vergelijken met een 970, of een 970M met een 960.

Er zijn uitzonderingen waarbij ze laptop GPU's rebranden ipv de nieuwe architectuur gebruiken.
Ligt er aan. Over het algemeen hebben laptops een -M notatie bij het modelnummer om aan te geven dat het om een mobiele versie gaat. En mobiele versies zijn vaak een paar stappen terug op hun desktop naamgenoten. Bijv. een GTX 970M van Nvidia zal dichter zitten bij een desktop GTX 950, dan een desktop GTX 970.

Als je echt prestaties wil vergelijken dan kan je het beste de GPU benchmark lijst van notebookcheck.net bekijken.

[Reactie gewijzigd door Joerdgs op 22 juli 2024 14:39]

Een 970M presteerd vergelijkbaar met een 960 en de 980M met een 970

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 14:39]

980M met 970 bedoel je denk ik
sorry, foutje inderdaad. even verbeterd.
Desktop GPU's zijn toch een stuk krachtiger dan laptop GPU's.

Het gaat om meer dan power alleen. Je kan via een laptop soms maar één extern scherm aansluiten. Met deze oplossing kan je gemakkelijk drie of meer externe monitors verbinden.

Ik vind het een mooie evolutie en hoop dat het ingang vindt in de markt!
Er zijn echt te veel variabelen om hier een eenduidig antwoord over te geven (denk aan warmte afvoer, draaisnelheid fans, grootte behuizing, turbo, stroomtoevoer, clockspeeds, andere cpu's e.d.).
De beste site met de meeste benches van mobiele gpu's is http://www.notebookcheck.net/ en dat kun je dan vergelijken met een site als tweakers, welke meer aandacht besteed aan de desktop.

Again de verschillen bij laptops onderling zijn veel groter dan op de desktop want OEMs kunnen veel meer aanpassen.
Desktop GPU's kunnen veel meer hitte afvoeren vanwege de formfactor van de videokaart (en koeler) alsook de betere airflow van een case.

De performance per watt ligt bij laptop GPU's vaak wel hoger omdat dit ook een stuk belangrijker is.
Immers een normaal formaat laptop kan maar maximaal 100 a 150 watt warmte afvoeren met luchtkoeling. Daarom is het belangrijk dat voor elke watt energie die moet worden afgevoerd, er zo veel mogelijk performance uitgeperst wordt.

Volgens mij zijn (high-end) laptopGPU's vaak ook de betere chips, omdat je bij mindere chips (desktop) dit kan verbloemen (lees: dezelfde performance haalt) door er wat extra energie doorheen te pompen. En dat is ook helemaal niet erg voor de gemiddelde gebruiker.
Niet alleen is een desktop-GPU potentieel een stuk sneller, maar veel mensen hebben ook niet de behoefte aan mobiel gamen maar willen wel maar 1 systeem hebben waar al hun zaken op geinstalleerd staan. Als je dan thuis bent kun je een fatsoenlijke GPU inpluggen, wat ook nog eens kosteneffectiever is en waardoor je laptop minder zwaar is als je van huis bent.
Naast dat er nog wel verschil zit, is het voornamelijk een vraag van draagbaarheid. Ik wil helemaal geen laptop met dedicated gpu, en dus navenante laptop behuizing, overal mee naartoe sleuren. Ook veroudert je GPU veel sneller dan je CPU, dus het is prettig dat je na een paar jaar je midrange GPU kan vervangen door een nieuwe midrange GPU. Je hoeft dus niet direct weer een top of the line gaming laptop te kopen van een paar duizend euro.

Dat soort laptops zijn meestal ook nog eens foeilelijk, en sowieso: Huray voor dockingstations in de consumentenmarkt!
Hebben overige aansluitingen bepaalde limitaties dat er specifiek voor TB3 is gekozen? Sata lijkt me hardware technisch natuurlijk een issue, USB3.0 is blijkbaar te traag?

Vind het an sich wel een logische, maar wel goede ontwikkeling, onderweg of mobiel heb je gewoon je laptop, maar thuis op een meer vaste locatie kan je alsnog de kracht van een flinke videokaart gebruiken. Al vraag ik me dan af, zeker voor de R9 290X of Fury, heeft die CPU dan uberhaubt wel genoeg kracht om alles uit die kaart te halen? Meeste games draaien redelijk gebalanceerd op CPU/GPU.
Thunderbolt 3 heeft vier PCI-e rev 3 lanes. Hiermee zijn de aangesloten apparaten die daar gebruik van maken direct in verbinding met de cpu. Natuurlijk is dat veel sneller dan USB 3, daar gaat alles via losstaande controllers.
Dat ze gewacht hebben tot TB3 is om deze redenen dan ook begrijpelijk (het is hardware-technisch gezien letterlijk PCI-express over een kabel en het is eindelijk 'snel genoeg'), maar wat mij toch wat zorgen baart: Is die 40Gbps wel voldoende bandbreedte om bv. een recente top-GPU als de GTX980Ti of de Fury X ten volle te benutten, laat staan de aankomende Pascal/Polaris-generatie?

Dat een mid-end GPU hiermee voldoende heeft kan goed zijn, maar er zijn voldoende tests die uitwijzen dat het wel degelijk wat uitmaakt of je maar 4 lanes aan een high-end GPU kan geven in vergelijking met 8 of de volle 16 van een normaal PCIe-slot.
Ome Tom heeft hier een tijdje terug nog eens wat benchmarks op losgelaten, en kwam tot de conclusie dat het nauwelijks verschil maakte, zelfs als je een (destijdse) topkaart in een PCI-e v1 x8 slot stak:

http://www.tomshardware.c...yths-debunked,3739-3.html

Nou zal dat misschien inmiddels iets meer zijn gaan schelen, maar een PCI-e v3 x4 slot heeft effectief dezelfde bandbreedte als een v2 x8 slot, wat weer gelijk staat aan een v1 x16 slot, en die schelen in die test al helemaal niets.

Ik verwacht dus dat je het verschil in prestaties niet gaat merken, maar dat je dat hooguit met benchmarks kunt meten - en zelfs dan zal het lastig zijn om dat buiten de meetonzekerheid van je methode te kunnen krijgen.
TB3 kan gewoon pci-e aan, en is snel zat. Denk dat dat de voornaamste reden is. Usb en andere protocollen hebben toch wat meer overhead.
Dat zat ik ook te kijken, waarom zou je in godsnaam een Fury aan een laptop willen hangen. Ik snap perfect dat je een externe GPU aan je laptop wilt hangen maar niet waarom ze dit met high end modellen willen doen?

Een i7 6650u haalt 4882 punten in Passmark, een i3 6100 haalt er 5516. (kwestie van snel even een idee te geven hoe een I7 mobile zich verhoud tegen over de desktop modellen)
Dit is dus hetzelfde als een Fury in een desktop steken met een i3 CPU

Of je moet een dikke 4000 euro stuk slaan voor een laptop (MSI GT80S) met een i7-6920HQ => 9622 in Passmark

Ik zat eerder te denken in de range 100 - 200 euro kaarten om extern aan te sluiten op een laptop. Maar ik ga er vanuit dat men wilt uitpakken met de high end modellen in de pers en later stilletjes de "gewone" kaarten toevoegen.
Het is natuurlijk een stap in de goede richting, ik hoop dat er dan later sets op de markt komen waar je zelf een videokaart in kan zetten. Dit beperkt je niet in de keuze en dan is het voor ieders portemonnee wellicht mogelijk. Ik denk dat dit ook aansluit op wat Triogap zegt.
Anoniem: 16328 @SEQREEL10 maart 2016 15:58
Een oplossing van 200 euro zou ik nog wel wat vinden bij een standaard laptop. Alleen zit er natuurlijk alleen TB3 op de allerduurste en als gaming laptops in de markt gezette producten. Om vervolgens een externe unit aan te bieden van minimaal 400 euro. Op die manier blijft het een marge product.
Inderdaad, als dit enig succes wil hebben, dan moeten fabrikanten betaalbare oplossingen bieden. Ik hoop dat we externe docks gewoon el cheapo uit china kunnen laten komen en dat TB3 vrij gemeengoed wordt op elke toekomstige ultrabook/mobiel workstation.
Volgens mij is dat wat die razer set is. Een laptop met een thunderbolt port en een doos waar de gpu in kan.
Interessant...

Ik hoop dat er snel support komt op MATX boards...

Ik heb nl een desktop in de bureau staan voor FPS enzo, maar speel race games liever beneden op de TV met de xbox controller (en daar komt een media center met MATX)

Zou tof zijn mocht ik maar 1 GPU moeten upgraden...

ps: momenteel zijn er nog maar 2 MATX socket 1151 mobos met Thunderbolt 3... dus dat beloofd niet veel goeds :(

[Reactie gewijzigd door Mastakilla op 22 juli 2024 14:39]

Wel eens gedacht aan een Steam Link of iets vergelijkbaars? (Nvidia Shield dacht ik)

Werkt nog best goed hoor :) Ik gebruik m ook op PC games op de bank te spelen. Geen merkbare vertraging.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 14:39]

Heb ik idd ook sterk overwogen en hoewel Nvidia met Shield goed bezig is met hun laatste updates, zijn er toch nog steeds een paar gaps die je met een open systeem kan omzeilen, terwijl je met Shield moet wachten op Nvidia...
Dan heb je de SteamLink nog :)
Is dat niet enkel voor Steam games? De meeste games die ik heb zijn niet in Steam
Je kan ieder programma toevoegen aan steam en starten via SteamLink, zelfs Internet Explorer en VLC media player. Ik speel ook gewoon games als Battlefield 4 & Diablo (Origin & Battle.net, beide niet via steam beschikbaar) met de steamlink :)

Dit doe je door je game (of game launcher, of iedere andere applicatie) toe te voegen aan steam via "add non-steam game to library". Vervolgens kan je via Big Picture de game (of programma) starten.

De Steam Link ondersteunt tenminste (zelf getest) de xbox 360 controller, toetsenbord & muis en de steam controller zonder enige problemen.

M.a.w. voor 60 euro schaf je dat ding aan en kan je ieder programma op je PC streamen naar je TV en bedienen met je xbox controller, steam controller of gewoon toetsenbord & muis.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 14:39]

Bij Nvidia Shield kan je ook zelf executables toevoegen aan Gforce Experience en ze met GameStream lokaal streamen, maar niet alle games zijn 100% compatibel qua bediening:
https://shield.nvidia.com/game-stream
(onderaan staat een lijst)

Hoe zit dit met Steam Link? Werken hier alle games zowiezo 100%? Of hebben ze ook een compatibility list?

Trouwens: Als een bakkie van 60 euro dit kan over 100mbit, bestaat er dan geen software waarmee ik het "nog beter" kan streamen (minder lag / compressie) naar mijn core i3 1gbit mediacenter??
Toen-ie nog in beta was, wilde sommige games nog wel eens raar doen. Tegenwoordig lijkt het allemaal wel te werken. Ik zou voor specifieke games even googlen.

Iedere game die ik tegenwoordig probeer in mijn library werkt uiteindelijk wel, soms met een kleine tweak (resolutie instellen bijv.). Voor een kastje van 60 euro, zeker geen miskoop.

Steam zelf kan ook gewoon in-house streamen. Je kan van steam-PC naar steam-PC streamen. Je kan zo bijv. je game PC streamen naar je macbook o.i.d.

Werkwijze is hetzelfde; voeg de software toe aan je library op je game pc ("server"), open steam op je client en klik de game aan in de library.

Voor exacte how-to, even googlen :) "steam in-house streaming". Kost je 0 euro, zo te horen. Je hebt de hardware al :) Compressie en resolutie kan je instellen in settings, waarbij je kan kiezen tussen een compromis van bandbreedte, latency en kwaliteit.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 14:39]

Waarom doen of kunnen ze niet een desktop gpu hiervoor gebruiken? Aangezien het toch extern is?
Anoniem: 16328 @Nazlive10 maart 2016 16:16
XConnect werkt in combinatie met de volgende gpu's: R9 Fury en Nano, R9 300-series, R9 290X, 290 en 280. Ook afgeleide mobiele chips van deze gpu's worden ondersteund en bovendien vermeldt AMD dat toekomstige videokaarten op basis van de nieuwe Polaris-architectuur ook ondersteund zullen worden.
Is Thunderbolt 3 hetzelfde als USB-C?
Nee. Thunderbolt 3 is een communicatietechnologie, USB Type-C is een type stekker. De ene standaard schrijft voor hoe beide kanten met elkaar moeten communiceren, de andere standaard schrijft voor wat voor afmetingen de aansluitingen moeten hebben, welke pin waarvoor is etc.

Thunderbolt 3 gebruikt in de praktijk tegenwoordig de Type-C aansluiting maar dat maakt ze niet hetzelfde.
Bedankt! Het was me niet duidelijk.
Domme vraag: Maakt het uit dat TB3 "maar" PCI-E 3.0x4 aankan? Intern zitten videokaarten toch altijd in x16 slots, ik neem aan dat dat een vier keer zo snelle verbinding is? Of hebben ze die alleen nodig voor extra stroomtoevoer ofzo?
In principe zit zit een videokaart altijd op een PCIe x16 slot, maar videokaarten presteren ook prima op x8 of zelfs op x4. 99% van de SLi setups hebben de 2 videokaarten op x8 draaien zonder merkbaar performance impact. Het verschil tussen x8 en x16 is zover ik weet niet eens meetbaar. Het performance verschil tussen x4 en x16 is slechts enkele %punten en verschilt per game.

Je zal het verschil in praktijk niet merken :)
Zou tof zijn mocht je daar nog andere soort PCI kaarten kunnen insteken, zoals een Blackmagic Decklink 4K kaart. Die dan aansluitbaar is via usb-c.

Op dit item kan niet meer gereageerd worden.