Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 81 reacties

AMD wil het platform voor externe videokaarten standaardiseren, zodat videokaarten eenvoudig op laptops aangesloten kunnen worden die dan meer grafische rekenkracht krijgen. Dat blijkt uit uitlatingen van een AMD-marketingmedewerker.

Er is een enorm groeipotentieel voor externe videokaarten voor laptops, volgens Robert Hallock, hoofd technische marketing bij AMD. Volgens hem haalt niemand het in zijn hoofd om gamelaptops overal mee naartoe te nemen, maar is er wel grote behoefte aan dunne laptops waarmee je kunt gamen. "Ik wil wedden dat er gamers zijn die, naarmate ze rond de dertig of veertig worden, het niet erg zouden vinden om een enkel apparaat te gebruiken voor al hun computertaken", aldus Hallock. Gebruikers zouden zelfs een mitx-systeem opgeven als een laptop hetzelfde zou kunnen.

Volgens de marketingtopman zijn externe videokaarten de oplossing. "Externe gpu's met gestandaardiseerde aansluitingen, kabels, drivers, plug 'n' play, OS-ondersteuning, enzovoort", schrijft hij. Tijdens de CES viel al op dat veel fabrikanten externe videokaarten demonstreerden die met laptops verbonden konden worden. Zo had Razer de Core met een Radeon R9 Nano, Asus de ROG XG Station 2 en Acer zijn Graphics Dock. Al eerder was het MSI dat zijn GS30 Shadow met de Gaming Dock combineerde en Dell Alienware dat zijn Graphics Amplifier uitbracht. Ook Sony koppelde zijn Vaio Z met een grafisch docking station, met een Radeon HD 6650M.

De accessoires van Alienware en MSI maakten gebruik van een eigen pci-e-connector, de andere systemen van thunderbolt. Het combineren van een standaardconnector met een open specificatie, waaronder bijvoorbeeld driverondersteuning, kan de adoptie van externe grafische kaarten ten goede komen. Het is echter niet de eerste keer dat AMD dit probeert. In het verleden probeerde het bedrijf deze markt al aan te boren met zijn ATi XGP, oftewel ATI eXternal Graphics Platform. Dat platform uit 2008 beperkte zich eerst tot het gebruik van een mobiele HD 3870 en later tot de HD 5870 via pci-e 2.0, maar werd niet breed opgepakt door laptopfabrikanten.

Razer Core

Moderatie-faq Wijzig weergave

Reacties (81)

En vervolgens komt Nvidia met Nvidia NotebookPlay®, strooit met wat geld bij de laptopfabrikanten en kan AMD niks anders doen dan kijken hoe hun idee naar de knoppen geholpen wordt. Wat dat betreft heb ik respect voor AMD vanwege het feit dat ze alles gewoon open willen houden. Alleen zo zonde dat de grote concurrent voor elk open initiatief van AMD met een gesloten variant komt.

Edit: voordat ik commentaar krijg. Nvidia heeft nog niks om hiermee te concurreren en ik hoop héél erg dat AMD's initiatief volop ondersteund gaat worden én dat Nvidia een keer netjes samen gaat spelen. Zou een stuk beter zijn voor iedereen.

[Reactie gewijzigd door SomerenV op 1 maart 2016 09:29]

Zou het niet leuk zijn als beide GPU makers dezelfde software tech en standaarden zouden gebruiken, en enkel concureerden d.m.v. het maken van snellere kaarten? Denk dat we dan veel meer innovatie en veel betere performance zouden zien.
Dan zouden we op precies hetzelfde punt zitten nu.

28nm is gewoon uitontwikkeld en de enige reden dat zowel AMD als Nvidia nu niet sneller kunnen is omdat het dan te kostbaar/te foutgevoelig/inefficient/een te grote die wordt die waarschijnlijk ook teveel prik vraagt om nog leuk te kunnen koelen.

We praten allemaal over gebrekkige concurrentie maar feit blijft wel dat de stagnatie met name komt door een gebrek aan procesverkleining. De hoofdreden ook dat Intel voorloopt op AMD qua perf/watt, of in elk geval de reden dat AMD nooit voorbij Intel zal kunnen gaan wat dat betreft. Het uitstel van sub 20 nm doet de markt geen goed. Toch kopen hele volksstammen nu nog een high end GPU terwijl we straks twee nodes lager zitten. Kortom: linksom of rechtsom verkopen de GPU bakkers hun product (dus waarom sneller innoveren??). AMD is al sinds 2012 aan het rebranden en heel beperkt echt aan verbeteringen van GCN aan het werken. Maar ook de updates van die arch brengen niet echt veel met zich mee qua performance, het is vooral een stukje efficiency winst. Idem dito bij Maxwell; de enige reden dat er meer performance uit kan worden gehaald is omdat het wat efficienter is geworden, waardoor de die wat groter kan en er meer shaders in kunnen.

Dus ik geloof er niet zo in. Ik geloof ook niet zo in AMD als de voorvechter van standaarden en Nvidia als de grote boosdoener. Beide zijn commerciele bedrijven met een strategie, en AMD kiest voor zijn strategie om de goodwill te kweken die ervoor zorgt dat het producten verkoopt. Meer is het niet.

Verder niet om het een of ander, maar zie jij nou zoveel innovatie in de 'markt van standaarden'? Ik zie de innovatie namelijk vooral komen uit nieuwe producten die buiten een standaard vallen of hun 'eigen standaard' vormen. Denk bijvoorbeeld eens aan Gsync: pas daarná kwam AMD met een update van de standaard van Displayport met Async. Denk aan draadloos laden of het ecosysteem van opladen/gebruiken van Tesla. Als er heel veel afhankelijk wordt van een bepaalde standaard, dan wordt die standaard op den duur ook een vorm van stagnatie (DX11!). Niet alle standaarden groeien 'op tijd' mee, denk bijvoorbeeld aan de standaard waarop TV uitzendingen nu zitten. We kopen al 4K TVs maar de content ontbreekt. Innovatie is vaak pas zinvol wanneer de markt erachter groot genoeg is.

[Reactie gewijzigd door Vayra op 1 maart 2016 16:36]

Verder niet om het een of ander, maar zie jij nou zoveel innovatie in de 'markt van standaarden'? Ik zie de innovatie namelijk vooral komen uit nieuwe producten die buiten een standaard vallen of hun 'eigen standaard' vormen. Denk bijvoorbeeld eens aan Gsync: pas daarná kwam AMD met een update van de standaard van Displayport met Async. Denk aan draadloos laden of het ecosysteem van opladen/gebruiken van Tesla. Als er heel veel afhankelijk wordt van een bepaalde standaard, dan wordt die standaard op den duur ook een vorm van stagnatie. Niet alle standaarden groeien 'op tijd' mee, denk bijvoorbeeld aan de standaard waarop TV uitzendingen nu zitten. We kopen al 4K TVs maar de content ontbreekt. Innovatie is vaak pas zinvol wanneer de markt erachter groot genoeg is.
Andersom gebeurd het ook. DirectX 11 was te beperkend voor AMD dus bedachten ze de open standaard Mantle. Zonder deze ontwikkeling was DirectX 12 nooit zo snel gevoltooid inclusief closer to the metal api's
Dat is een hardnekkig fabeltje, maar MS heeft DX12 echt niet ineens uit de hoge hoed getoverd. Ze hadden sowieso een API update nodig met de X1 en Windows 10. Dat Mantle misschien ergens de ontwikkeling wat heeft versneld zou zo kunnen zijn, maar dat verhaal wordt alleen verteld door AMD zelf, dat ondertussen koos om het project feitelijk te laten vallen en opgaan in Khronos.

Kortom, het is een nogal ongeloofwaardig geheel. De hele markt was gewoon klaar voor een nieuwe stap na zeven jaar vast te zitten aan PS3/X360, en het is niet de eerste keer dat meerdere mensen op hetzelfde moment dezelfde mogelijkheden zien.

[Reactie gewijzigd door Vayra op 1 maart 2016 16:39]

Heb je het artikel wel gelezen? Dat is precies wat AMD probeert en @somerenV hoopt dat Nvidia daaraan mee gaat doen ipv hun eigen (proprietary, natuurlijk) versie gaat klussen.
Ja dat had ik gelezen en die conclusie trok ik ook. Vind het alleen zo jammer dat alleen amd dit doet en dat Nvidia vervolgens bakken met geld op developers gooit om ervoor te zorgen dat allen hun gesloten tech gebruikt kan worden.
Mjah, het is jammer net zoals een leeuw die een antilope opeet jammer is (voor de antilope dan): het is simpel oorzaak -> gevolg. Vanuit het perspectief van Nvidia levert het blijkbaar minder op om mee te werken dan om hun eigen ding te doen. Ik ben het met je eens dat dat niet consumentvriendelijk is, maar de enige manier waarop er verandering komt in dat gedrag is wanneer Nvidia er meer voordeel uit zou halen om mee te gaan werken hieraan. Dat kan bijvoorbeeld wanneer een significant deel van hun user base specifiek die feature zou willen. Een AMD met een sterkere concurrentiepositie had ook meegeholpen. Maar los van dat soort dingen zie ik niet veel veranderen.
Als het echt zo veel beter zou zijn dan hadden de tweakers en diehard hardware hobbyisten allemaal wel jarenlang amd gepropageerd wat ze niet hebben gedaan. Mijn inziens begint de markt voor pc's bij deze groep mensen, die de gehele onwetende roedel vaak helpt elektronica te kopen. Zei het direct dan wel indirect via reviews of wat dan ook.
Dat valt natuurlijk over alles wel te zeggen. Autofabrikanten, smartphone-ontwikkelaars, software devs. Ik denk dat er al genoeg slimme koppen hebben gekeken naar de voordelen van samenwerken en het de moeite niet waard hebben gevonden qua opbrengst.
Ik snap momenteel nog steeds niet waarom er nog geen externe PCI-E verbinding mogelijk is. Bij de huidige moederborden is de PCI-e aansluiting compatible met alle kaarten.
Het ExpressCard-slot van mijn Sony VAIO ondersteunt PCIe, dus technisch gezien zou het toch mogelijk moeten zijn om een externe grafische kaart te produceren die op die manier verbinding maakt.
Bij mijn Lenovo X230 kan ik de express gleuf gewoon gebruiken voor een externe videokaart (met een adapter). Je haalt natuurlijk niet de max uit een high end videokaart maar het kan best een leuke upgrade zijn.

Voor veel laptops kan dit, als je in google zoekt vind je veel topics van mensen die zon soort opstelling hebben.
Alienware en msi gebruiken allebei een externe pci expess port. Alienware heeft dan alleen een fors kleinere port en beter uitgewerkt dan msi. Beide bieden 4x pci express 3.0. 4 lanes omdat de huidige cpu's niet meer ondersteunen.
Via thunter bolt is het al jaren mogelijk........ Externe pcie slots.....
Waarom denk je dat AMD met open standaarden komt? Omdat ze het leuk vinden en ze zo graag open standaarden willen? Nee, omdat dit de enige manier is waarmee ze met NVidia kunnen concureren.

AMD kan niet met een gesloten standaard komen, omdat de adoptie gewoon te laag zou zijn. Zoals je zelf al zegt zijn zelfs de open standaarden van AMD al niet zo heel populair.

Grote bedrijven zijn allemaal het zelfde, ze doen gewoon wat hun het meeste opleverd.
Als AMD 1 dollar meer zou verdienen door een gesloten standaard te introduceren zouden ze dat meteen doen.

Daarbij is het voor AMD waarschijnlijk ook goedkoper om een open standaard te introduceren aangezien het development kan worden gedistribueert

Het is helaas voor AMD sink or swim, en voor hun is dat open source gaan.
Als ze echt zo pro open source waren, dan hadden ze catalyst al lang vrij gegeven maar dat is ook nog toekomst muziek.

Edit:
Kijk bijvoorbeeld naar Apple, Google en Microsoft.
Eerst was Microsoft de big bad, en dat konden ze want ze hadden flink marktaandeel.
Google en Apple waren de aanvoerders van de revolutie en waren er voor de mensen.
Ze gebruikte veel open source projecten en MS was alleen maar closed.

Nu hebben zowel Google als Apple een grote sprong gemaakt en nu zijn de rollen praktisch omgedraait.
Beide zijn veel meer op closed source gaan focussen en komen toch regelmatig negatief in het nieuws. Microsoft is juist het tegenover gestelde gaan doen en is veel naar open source aan het migreren en is juist weer een positiever image aan het kweken.

Als AMD morgen een grotere markt positie heeft als NVidia, dan zie je daar precies het zelfde gebeuren.

En het geld niet alleen in de tech sector, maar kijk b.v. naar Volkswagen. De kwaliteit staat lijnrecht tegenover het markt aandeel.

Want ja, je bent de grootste en iedereen wil je product dus waarom zou je meer doen dan nodig?

[Reactie gewijzigd door LOTG op 1 maart 2016 10:12]

Als wat meer naar de historie van AMD kijkt dan zie je dat ze al veel langer bezig zijn met het vrijgeven van dingen. Zo'n beetje elke grote geheugen standaard voor videokaarten is in samenwerking met of door ATI/AMD gemaakt (gddr3, gddr5, HBM). Nvidia heeft die expertise niet want anders hadden we allang NVPremiumRam gezien.

Beide bedrijven hebben gewoon een andere aanpak en het is gewoon zo dat alles van Nvidia proprietaire is en dat het meeste van AMD open is.
Niet elk bedrijf gedraagd zich als een eikel indien ze de kans hebben, hoe graag jij dat ook wilt geloven; anders waren er nergens grote open source projecten te vinden.
Nvidia lift dus gewoon gratis mee op de ontwikkelingen van ATI/AMD.
Waarom energie er aan verspillen als je concurrent het al doet en het opensource maakt. Nvidia heeft genoeg resources om het wel zelf te doen. Dat is niet het issue.
Freesync is anders wel fors populairder dan Nvidia's alternatief volgens mij.

EDIT:

AMD > Nvidia. Freesync is van AMD. Goeeeedemorgen.

[Reactie gewijzigd door NoxiuZ op 1 maart 2016 14:37]

hoe bedoel je, freesync wordt gebruikt door amd als alternatief op g-sync. Het is juist een selling point van ze.

http://www.amd.com/en-us/...hnologies-gaming/freesync
Freesync is amd's alternatief... Gsync is van Nvidea.
Freesync IS AMD's alternatief (op nVidia's GSync). Of begrijp ik iets niet? :+
Nee is correct, ik was nog niet wakker :+

* NoxiuZ koffie haalt
Nu hebben zowel Google als Apple een grote sprong gemaakt en nu zijn de rollen praktisch omgedraait.
Beide zijn veel meer op closed source gaan focussen en komen toch regelmatig negatief in het nieuws. Microsoft is juist het tegenover gestelde gaan doen en is veel naar open source aan het migreren en is juist weer een positiever image aan het kweken.
nou.... Microsoft een positievere image aan het kweken? ik denk het niet hoor, mensen met een ad spammen om te upgraden naar Windows 10 en dan in windows 10 geforceerd windows updates doen terwijl iemand dat misschien niet wilt want diegene wil snel ze laptop afsluiten en iets anders doen i.p.v 2-3 uur te wachten tot de updates klaar zijn om dan iets anders te doen??? ik noem dat geen positievere image, ik voel me vrijer in windows 7/8/8.1 dan in windows 10.
je wordt niet geforceerd automatisch te updaten, je hebt in de update opties een knopje advanced options, daarin kun je zeggen wanneer je de update wilt installeren. verder wordt er nooit een update geïnstalleerd wanneer de computer gebruikt wordt... ik krijg lekker een prompt met " wanneer wil je de update laten installeren?"
AMD had een betere positie tov van Intel een jaar of 8 terug, met de Athlon. Hebben ze het misbruikt? Nee.

Catalyst vrijgeven zou geen enkel voordeel hebben op dit moment. Niemand gaat dat zooitje onderhouden behalve AMD.
wat heeft nvidia aan iedereen? meste grote bedrijven denken aan zichzelf en al helemaal in een markt met maar weinig spelers
Uiteindelijk zou het denk ik voor beide ook beter uitpakken als ze de open standaard van AMD kiezen. Als zowel Nvidea als AMD dezelfde standaard aanhouden zal de markt voor externe grafische kaarten voor laptops veel meer groeien dan wanneer er twee verschillende zijn.
Nvidia had het al in zijn drivers geimplementeerd voordat deze aankondiging gedaan was. De laatste nvidia drivers bieden ondersteuning om hun gpu's extern te gebruiken.
Nvidia heeft een dermate hoge market share in de GPU markt, dat ze niet eens met geld hoeven te strooien.Het enige wat ze hoeven te doen is de nieuwe standaard niet ondersteunen. Waarom zou je als fabrikant immers geld steken in een standaard die slechts wordt ondersteund door een kleine gedeelte van de totale markt?
"Ik wil wedden dat er gamers zijn die, naarmate ze rond de dertig of veertig worden, het niet erg zouden vinden om een enkel apparaat te gebruiken voor al hun computertaken"
> die een dikke SLI pc aanschaffen omdat ze geen concessies willen doen :+ ...
mobiel gamen, leuk op je telefoon/tablet, maar potje battlefield e.d. toch liever op een 'echte' pc :)
als je uit de pubertijd bent dan merk je pas dat graphics zo belangrijk niet zijn. Je wilt gewoon een leuk spel dat werkt. Die paar pixels extra of ultra realstische schaduwen is alleen voor epic 1337 gamers interessant
Dat ligt toch geheel aan je eigen eisen?

Er zijn ook Tweakers die honderden euro's uitgeven om films te beleven op een 55 inch OLED en reference speakers. Met versterkers van een klein maandsalaris.


Waarom mag je als gamer dan niet genieten van spellen in alle glorie?
Wat een kort door de bocht reactie :+
Als je uit je pubertijd bent en niet meer afhankelijk bent van je weekendbaantje is een nieuwe grafische kaart ook geen spannende uitgave meer.

Sommige spellen hebben een extra "oe aahh" factor juist door de ongelofelijke graphics (zoals 'vroegah' far cry had).
weet niet hoe bij jou zit; maar mijn budget is met 40u+ werkweek iets hoger dan bijbaantje bij de supermarkt; en juist nu de dikke 'ongelimiteerde' PC.
Ik ben ook al de pubertijd uit. En heb een pracht zoon. Maar vind extra pixels en 144hz toch echt wel leuk. Dus ligt helemaal aan je eisen.
Hele bijzondere reactie, de meeste pubers spelen cod of fifa op een console, ipv the witcher 3 met een 980.
Niet voor de hardcore gamer maar wel voor mensen als ik. Mobiel en ook nog wel een spelletje kunnen spelen gaat helaas niet samen. Ik heb gekozen voor mobiel en daar soms wel een beetje spijt van. Toch ook blij dat ik mijn oude zware laptop kwijt ben. Wat AMD hier wil klinkt toch wel perfect.
Mijn alienware 15 die ik naast me desktop gebruik vloert de gemiddeld pc anders flink met een geforce 980m die zodanig hoog geclocked is dat deze net zo snel als een desktop geforce 970 is maar dan met 8gb aan videogeheugen.
Same here met mijn mx18 980m sli
Nouja, ik ben eigenlijk voorstander hiervoor om een hele andere reden:

Als je een dikke GPU hebt die je in een grote doos kan bijbestellen -- dan kan ik mijn laptop zonder die dikke externe GPU bestellen- die dan hopelijk voor de rest wel goede specs heeft EN een goede accuduur. Fantastisch.
[...]

> die een dikke SLI pc aanschaffen omdat ze geen concessies willen doen :+ ...
mobiel gamen, leuk op je telefoon/tablet, maar potje battlefield e.d. toch liever op een 'echte' pc :)
Ik denk dat er absoluut een markt is voor externe GPUs. Ik heb tegenwoordig absoluut meer budget voor een high-end PC dan ik 15 jaar geleden had als puber, maar mijn leven is ook compleet anders dan 15 jaar geleden. Toen woonde ik thuis, had ik een kamer van 4 bij 3 meter die mijn 'heiligdom' was, en niemand om rekening mee te houden. Ik kon hele avonden met het licht uit en een koptelefoon op achter mijn 19" CRT zitten.

Nu woon ik samen met mijn vriendin, heb ik een fulltime baan, en heb ik weinig zin om me op te moeten sluiten in een game hok als ik een keer wat wil gamen, en ik wil absoluut geen bureau met PC in de woonkamer hebben. Veel liever zou ik dan mijn MacBook Pro op de eettafel stallen, een eGPU inpluggen, en daar gamen. En als dat 500 EUR zou kosten voor een GTX970 in een enclosure, zou ik het prompt kopen.

Ik heb nu een Hackintosh annex game PC in mijn thuiskantoor staan, en dat ding wordt eigenlijk maar zelden voor games gebruikt. Simpelweg omdat ik niet hele avonden 'weg van de bewoonde wereld' wil zijn. Ik neem nu genoegen met de Iris Pro in mijn MacBook Pro omdat ik locatie belangrijker vind dan graphics.
Ik zie dit nog wel als een alternatief voor de console zelfs. Wanneer ik wil gamen ga ik tijdens de aanschaf niet kiezen tussen een laptop of een PS4. De laptop heb ik sowieso nodig en de PS4 kan ik niks anders dan gamen. Ik koop dus een duur laptop én daarnaast een PS4. Wanneer er zo'n externe kaart als optie is, kan ik daarvoor gaan in plaats van een PS4. De laptop heb ik immers toch al, die heb ik al nodig voor andere zaken. In plaats van een PS4 kan ik dan ervoor kiezen om een externe videokaart te halen. Qua geld maakt het mij immers dan niet uit. Ik kan dan mijn laptop die ik eigenlijk voor andere zaken heb gebruikt, prima inzetten om te gebruiken als game machine in combinatie met een externe kaart. (Ik zou overigens de PS4 sowieso halen, omdat ik console gaming juist chill vind, maar zie mijzelf zo'n externe kaart wel erbij halen)

Als zo'n kaart rond de ¤250-350 is, zie ik het mijzelf best kopen míts het ook waar voor dat geld geeft. Ik verwacht voor ¤350 dus een videokaart die vergelijkbaar is met een GPU die je in de PC stopt voor hetzelfde bedrag. Iets zegt mij dat je aardig ook wat betaalt voor de interface, R&D etc etc. Dus zo'n ¤350 kaart zal denk ik een kaart bevatten die gelijk is met een 2e hands ¤180 kaart.

Of verkoop het als een externe case (vergelijkbaar hdd cases) voor ronde ¤50 zodat je altijd nieuwe GPU's in kan stoppen.

[Reactie gewijzigd door ASNNetworks op 1 maart 2016 10:12]

als lege externe case ga je in ieder geval meer dan 50 euro betalen gok ik zo. Naast de R&D zit er waarschijnlijk ook een voeding in, wat 'dure' printplaatjes en 'dure' kabels. Denk dat je eerder richting de 150 euro moet denken.

Voor dat geld zou ik het overigens nog steeds direct doen :)
Dat is dus ook gelijk mijn kritiek. Je betaalt ¤350, maar krijgt een midrange (of lager) GPU ervoor terug. De vraag is dan in hoeverre het beter presteert dan een PS4 (die geoptimaliseerd is om op te gamen). In dat geval biedt het voor mij geen meerwaarde. Maargoed, het is afwachten tot de eerste producten komen. Dan kan er gekeken worden naar de prijs/kwaliteit verhouding.

Maar iets zegt me helaas dat het geen 'bang for buck' optie zal bieden...
Je vergeet dat je de videokaart er ook uit kan halen en daarna er een nieuwe, betere in kunt stoppen. Je hoeft dus maar éénmalig die kast aan te schaffen en daarna kan jij (bij een open standaard) je oude videokaart vervangen door een nieuwe.
In plaats van dat je in het geval van de PS4 na een paar jaar een PS5 hoef te kopen van ~450 euro, hoef je dan alleen maar een nieuwe videokaart te kopen van zoveel euro als je zelf wilt, en voor minder dan 450 euro heb je zeker een krachtiger videokaart dan (waarschijnlijk) in een console zit. Dus op lange termijn bespaar je zeker geld.
De graphics amplifier van Alienware is al 200 euro. Waarom? Voeding, klein moederbordje met de PCI express interface en chassis zelf. Ik denk dat die van Razer niet goedkoper gaat zijn.
Dit zou ook handig zijn voor mensen die enkel een laptop kopen voor zakelijk gebruik, en toch voor thuis er een leuke gamebak van willen maken. De CPU is niet zo krachtig als die van een desktop, maar is ook geen al te nauwe bottleneck voor de meeste spellen.
De accessoires van Alienware en MSI maakten gebruik van een eigen pci-e-connector, de andere systemen van thunderbolt. Het combineren van een standaardconnector met een open specificatie, waaronder bijvoorbeeld driverondersteuning, kan de adoptie van externe grafische kaarten ten goede komen.
Wat al deze oplossingen missen (en AMD hopelijk aanpakt) is dat je veelal niet het interne scherm van de laptop kan gebruiken om te gamen. Dat is niet een heel groot gemis, maar zou wel handig zijn voor semi-mobiel gebruik (LAN-parties), zodat je niet nog eens een scherm hoeft mee te slepen als het interne scherm afdoende is.
Bij alienware kan je het interne of een externe scherm gebruiken: http://www.dell.com/conte...9&l=en&s=dhs&sku=452-BBRG hoe het bij msi zit weet ik niet precies
Er zijn al een paar laptops uitgekomen met een desktop CPU en gpu. Tweakers waren er ook reviews van verschenen.
Nvidia had een maand geleden ondersteuning voor gpu's via thunderbolt 3 in de driver ingebouwd.

Is thunderbolt 3 geen acceptabele standaard voor amd dan? Of gaat dit over het hokje en de voeding?

[Reactie gewijzigd door haarbal op 1 maart 2016 10:16]

Zoals je leest hebben er een paar AMD kaarten met thunderbolt aansluiting, denk dat het AMD eerder te doen is welke aansluiting als standaard gezien moet worden, daar je anders weer fragmentatie gaat krijgen, wat in sommige gevallen niet ten goede komt voor de consument.

Edit :
Je koopt zo'n externe grafische kaart, wilt hem inpluggen ..... gatverdamme, de aansluiting past niet - weer een nieuwe kabel kopen of misschien ondersteund je laptop geen thunderbolt of heeft geen extra pci express over.)

[Reactie gewijzigd door martin.M op 1 maart 2016 10:54]

Het werd eens tijd dat er een standaard kwam. Iedere fabrikant deed zijn eigen ding en kwamen zelf steeds met meerdere standaarden. De poorten verstoften vaak ook omdat de beloofde externe videokaartupgrades niet kwamen waardoor je er eigenlijk niets meer aan had.
Zou een goed concept zijn. Zelf ben ik ook aan het uitkijken voor een laptop om wat bijscholing te volgen. De meeste krachtige laptops zijn echter van die - naar mijn mening - van lompe, zware bakken en met teveel bling-bling. Of ze zijn dan net weer peperduur.

Het zou mooi zijn als je je grafische kaart tijdens zware toepassingen even inplugt en dat je voor basiswerk bezig kan zijn op je dunne laptop.
Ik zou het wel fijn vinden als ik een pc echt modulair kan bouwen met onderling koppelbare onderdelen zonder alles in en uit elkaar te moeten schroeven. Ideaal voor het vervangen van een nieuwe videokaart. Nu is dat vaak weer een issue met connectoren of stroomvoorziening. Externe geluidskaarten hebben een boel dingen al makkelijker gemaakt. Dan kan de footprint van een "core machine (cpu/mem/bus) ook kleiner. En zou je met fatsoenlijke interfaces ook kunnen denken aan externe storage om zo een modulaire thin client te maken die indien nodig wat extra beef kan krijgen.
Enige wat ik me afvraag is hoe het met latency zit. Vriend van me heeft een XPS 15 en uitgezocht hoe het zit met externe GPU's, volgens hem komt er 1,5 ms aan latency bij. Niet zo erg als je met 60 fps speelt op een scherm, wel erg als je op 90 fps VR wil doen...!
Hier hoop ik zeker op!!!
Ik wil dolgraag een laptop en hou van gamen. Maar het grootste deel van de tijd zal ik een laptop niet voor games gaan gebruiken of zo lichte games dat een dedicated kaart niet nodig is. Heb thuis namelijk wel een game PC staan en spellen als terraria zijn niet zwaar maar wel leuk. Als ik een externe kan aansluiten als ik plannen heb om buiten huis te gamen zou dat perfect zijn!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Microsoft Xbox One S FIFA 17 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True