Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties
Bron: nVidia, submitter: Deadsy

In een serie van persberichten heeft nVidia bekendgemaakt dat het in samenwerking met bekende fabrikanten van notebooks een nieuwe universele standaard heeft ontwikkeld voor verwisselbare videokaarten in laptops. De zogenaamde MXM (Mobile PCI Express Module) biedt plaats aan een GPU en afhankelijk van het type een aantal geheugenchips, die via een PCI Express x16 interface met het moederbord verbonden kunnen worden. Het is mogelijk voor fabrikanten om standaard onboard graphics aan te bieden en daarnaast een MXM-slot te plaatsen voor (toekomstige) upgrades. In zo'n geval wordt er simpelweg een doorluskaart in de gleuf geduwd.

nVidia MXMOm zoveel mogelijk verschillende soorten en maten notebooks tevreden te stellen zijn er drie verschillende smaken van de standaard gelanceerd: MXM-I meet 70 bij 68 millimeter, ondersteunt 128MB geheugen in vier chips en levert maximaal 18 Watt vermogen. MXM-II is met zijn 73 bij 78 millimeter iets groter. Bovendien kan deze uitvoering 25 Watt leveren en is er plaats voor acht geheugenchips, voor een capaciteit van 256MB. De grootste uitvoering heet MXM-III en meet 82 bij 100 millimeter; hiermee kan tot 35 Watt verstookt worden.

Hoewel tot nu toe alleen bekend is dat er een aantal versies van de nVidia GeForce 6 Go in MXM-formaat uit zullen komen, benadrukt het bedrijf in de documentatie dat het om een open standaard gaat waar ook andere fabrikanten van GPU's gebruik van kunnen maken. Onder andere FIC, AOpen, Asus en Mitac hebben hun steun al aangekondigd.

nVidia MXM

Update: Op Hot Hardware is inmiddels meer informatie verschenen over MXM. In het artikel wordt onder andere gepraat over zaken als multimonitor en koeling.

Moderatie-faq Wijzig weergave

Reacties (61)

Leuk dat ze nu langszaamaan ook ''upgradable'' zijn, maar bij aankoop moet je nog steeds kiezen wat voor MXM-interface je wilt. Jebent dan nog steeds afhankelijk van je eerste besluit.
:(
Aan de andere kant als ik een notebook koop met een dikte van 10 mm en minimale afmetingen wil ik niet dat de helft van de ruimte in beslag wordt genomen door een standaard die totaal overbodig is voor dat type aparaat.
Want wees eens eerlijk denk je dat in zo'n ultra kleine notebook ruimte is om 35W aan warte af te voeren?

In deze toepassingen telt elke militer.
Als je het meest flexibel wilt blijven moet je een desktop replacement kopen. Die zijn groot genoeg om een grote vidkaart in te stoppen en de warmte af te voeren.
Volgens mij moet je het anders zien.
Elke stap hoger vreet en meer stroom en meer ruimte. Een laptopfabrikant moet voor elke hogere stap extra moeite doen om de stroom te leveren en de warmte af te voeren. Door het fysiek onmogelijk te maken dat je er een te veel eisende (en dus warmte leverende) kaart in drukt, is het systeem Monkey Proof.
En de stanaarden zijn wel downwards compatible. Dus wil je zeker zijn, in een MXM III kan ook een MXM I. Je blijft zo altijd onder de maximale specifcaties van je laptop.
Drie standaarden, drie typen: Low, Mid en High End.. :)
Simpel.
ja echt joh?
Hij bedoelt dat je daarna niet meer terug kan!
dat zou flink balen zijn als je ineens een 3 serie wil omdat je bepaalde games toch wel leuk vind en net 3dmax hebt ontdekt.

Of je besluit te stoppen met gamen en wil van je 35watt verstokende kaartje af... dan kan je niet terug naar een 1 serie.

dat is erg jammer vind ik zo
Bij bvb. de MXM-III kan er tot 35 Watt verstookt worden. Dit wil niet zeggen dat alle MXM-III kaartjes dit moeten doen eh.

Er kunnen best low-end upgrades komen in de MXM-III vorm.
op hothardware: is the case because proprietary modules were created for particular notebook designs, but not for all notebooks. So a proprietary module for a Dell Inspiron 8600, for example, may not work with an Inspiron 5150M, and each needed to be designed, produced, tested and brought to market individually.

Het gaat bij de Dell module dus net niet om een standaard module, maar eentje van Dell zelf... Ati is dus nog niet op die wagen gesprongen...
Hoe zit dat dan met de koeling?
Want als je die enorme koelingen tegenwoordig ziet op AGP kaarten, vraag ik me af wat zo'n zwaardere GPU aan warmte produceerd en wat zoiets wel niet aan batterijen gaan slurpen.
Het zullen nog altijd mobiele kaarten zijn en als je ziet dat het "zwaarste" slot 35W levert zal het nog allemaal wel meevallen...

Wat een beetje lastig is is dat er 3 verschillende formaten zijn...
Denk niet dat dat lastig is, je krijgt gewoon low,med en high-end mobiele oplossingen.

Net zoals nu bij de losse kaarten.
En het kan ook gewoon alleen geheugen zijn
weer weinig,meer,veel.

En als er een markt is zouden er eigenlijk alle soorten kaarten in kunnen.
Zeker wel lastig want je kan dan niet van een low-end naar een high-end overstappen en das toch meestal de bedoeling van upgraden
bij desktops : ja
bij laptops: nee

denk je eens in, een gebruiker op dit moment heeft 't prima met een vrij kale geintegreerde videochip op de mamaplaat van z'n laptop. Dat zal de komende jaren nog wel zo blijven omdat windows xp niet zulke hoge eisen heeft.

echter, zodra longhorn uitkomt, zal de noodzaak komen om, als je je laptop wilt voorzien van die windows variant, je laptop te voorzien van een DirectX9 videokaart. Dan is MXM errug handig.

de highend laptops zullen misschien al een wat fellere gpu aan boord hebben, aangevuld met een MXM-III, waardoor je uiteindelijk ietsje beter kunt schalen als er de noodzaak voor is.

* 786562 arjankoole
Vanuit het update-hot hardware linkje

Also note that the stand-off locations for the screws will be the same for all MXM graphics modules, which would allow one motherboard to support all three MXM graphics module types

Oftewel. Een notebook fabrikant kan alle 3 de formaten tegelijk ondersteunen als hij maar genoeg ruimte vrijlaat :)
Mijn laptop (P4) valt al geregeld uit omdat ie te warm word. Goed, ik draai er F@H op, en dat is misschien niet zo snugger op een notebook :D, maar toch. Lijkt mij dat dat voor de GPU voor de die-hard gamer niet veel anders zal zijn.

En laten we vooral niet vergeten dat veel eindgebruikers ipv een desktop een notebook kopen en niet zoals de gemiddelde tweaker d'r een notebook bij kopen. Die willen daar dus wel die-hard op gamen (spellen als Battlefield Vietnam stoken aardig).

Al met al lijkt het me dat als zowel de CPU als de GPU daar gezamenlijk een beetje gaan staan stoken dat hitte afvoer wel degelijk een probleem kan worden, om nog maar niet over batterijen te praten. Met 100% CPU belasting is de notebook binnen een uur leeg, terwijl als ie alleen MP3's draait ruim 2 1/2 uur mee gaat. En F@H is nog niet eens disk intensief e.d.
Waarschijnlijk doen ze hetzelfde als AMD met hun Athlon XP Mobiles heeft gedaan. Als de GPU weinig te doen heeft (2D applicaties, Word, Windows desktop, etc, dat dan het voltage / snelheid van de core wordt aangepast zodat ie minder warmte produceert en minder stroom verbruikt. Als je dan games gaat spelen gaat de actieve koeling misschien aan en wordt de kaart op een hogere frequentie gezet zodat je normaal kan gamen.
betekend dit dat je voortaan de videokaart van je notebook relatief makelijk kan omwisselen (upgraden) ?
zou erg welkom zijn :7 want het blijft het zwakste punt in de notebooks
yep.
je rukt de GPu als het ware via een kaart eruit en duwt er een andere in.
ik denk dat je de 3 verschillende maten kunt indelen in verbruik.
de meest verbruikende is de snelste en zal dus voor laptops zijn die dienst doen als desktop replacement waar stroom verbruik niks uitmaakt.
de kleinste en dus de kaart die het minst verbruikt zal gebruikt worden voor laptops waar energie bespaart moet worden en waar verbuik van de onderdelen een grote rol speelt.
Het is mogelijk voor fabrikanten om standaard onboard graphics aan te bieden en daarnaast een MXM-slot te plaatsen voor (toekomstige) upgrades.
Je haalt her er niet perse uit dus. Tenzij je voor de 2e keer upgrade. Maar tweakers die dat doen zullen bij de tweede keer wel gaan voor een geheel nieuwe laptop.
Bij een oude ASUS 6300 kon je ook al de videokaart/cpu enz upgraden die laptop kreeg je daardoor van pentium tot pentium 2 of 3 d8 ik.
Pentium naar Pentium 2 of 3 heeft wel iets meer voeten in de aarde (Chipset is volkomen anders, L2 cache op de CPU ipv op het moederbord etc) maar de Pentium 2 met MMC module kon je relatief makkelijk upgraden binnen de mogelijkheden van het moederbord ja.

* 786562 Opa
De laatste tijd zie je steeds meer dat onderdelen niet meer gesoldeerd zitten maar in voetjes. Van mijn werk D600 kan ook nog de wireless, de Bluetooth en de modem kaart vervangen worden zonder soldeerbout.
Een P2 heeft ook gewoon de L2 cache op de cpu.
@ gekke dirkie
Pentium naar Pentium 2 of 3 heeft wel iets meer voeten in de aarde (Chipset is volkomen anders, L2 cache op de CPU ipv op het moederbord etc)
Beweert 'ie wat anders dan :?
toevallig...
daarnet heb ik mijn notebook opengelgd, en ik vroeg me al af wat dat ene kaartje daar was.
Ik kon het niet identificeren, want alle onderdelen wist ik goed zitten (HD, CPU, RAM, ...)
ik vermoed dat dat mn GPU is, kan het dat ik al een soort verwisselbaar ding heb?
Verwisselbare grafische kaart in een Laptop? Dat kan. De video kaartjes van Ati en Nvidia zijn nu ook al "losse" kaartjes!
Ok, maar waar kan je dan nu een nieuwe/betere kopen ?
Nu al ?
Nee denk het niet. PCI-Express is nog niet uit, laat staan op je Laptop
Nu alleen de CPU upgradeable maken. Het heeft niet echt zin om bijvoorbeeld een x800XT te combineren met een 1,4 GHz proc. PC kan niet eens meer bijbenen
CPU is wel degelijk upgradable...
1.4ghz pentium M is nog altijd gelijk aan p4 2.2ghz of AMD 2200+

De nieuwere laptops hebben 1.7 a 1.8ghz dus al gelijk aan 2.6 a 2.7ghz

Zo slecht nog niet dus
Nu nog een adapter voor Desktop PCI-Express en je hoeft maar 1 high-end GPU-kaartje te kopen.
Aan de voorzijde van je desktop kast een MXM-III slot zie ik wel zitten.
In combinatie met de Video Array van Alienware wordt het mischien nog leuker, kan die samen met je desktop GPU je game renderen (ok, moet je er toch 2 kopen...)
Nu nog een adapter voor Desktop PCI-Express en je hoeft maar 1 high-end GPU-kaartje te kopen.
De high-end desktop kaarten zijn waarschijnlijk goedkoper/sneller dan de high-end notebook kaarten hoor.
Zal inderdaad best wat schelen, maar ik kan mijn desktop kaart niet in mijn notebook proppen. Met zo'n adapter kan het andersom wel. Kan ik dus l33t gamen onderweg en met m'n MXM-adaptered-Alienwared-Video-array-dual-GPU in uber-mode gamen... :9
totdat na 10 minuten je batterij leeg gestookt is vanwege je hoge cpu en grafkaart usage :)
Dan is het wachten todat Alienware met een accuuitbreiding komt aanzetten in l33t case. (2 vrachtwagen accus in een geil jasje plus oplader) :Y)
En dan zeggen dat enkele maanden geleden bij hoog en bij laag beweert werd dat een verwisselbare GPU op een moederbord niet zou mogelijk zijn.
Niet dat het daarmee goedkoper zou worden. Het zou in elk geval een mooie oplossing zijn voor shuttle en aanverwanten. High-end graphics zonder dat je de airflow van dat ding uit evenwicht brengt door er een joelel van een grafische kaart in te proppen.
zoals je ziet is het inderdaad onmogelijk om op een moederbord de GPU te wissellen, daarom is er een insteekkaartje bedacht, GPU samen met wat electronica en geheugen kan wel... Het klopt dus helemaal met wat toen beweerd werd.

Wat ik overigens vreemd vind is dat FIC, AOpen, Asus en Mitac al hebben toegezegd hier achter te staan, terwijl ATI en Intel, toch net zo groot in de mobile GPU markt) helemaal niet genoemd wordt. Het lijkt me als je een nieuwe open standaard ontwikkeld (en dat beweerd nVidia) dat je iig alle grote marktspelers om hun mening vraagt.

Ook leuk is dat er gewoon 4 gaten rondom de GPU te zien zijn, het is dus gewoon mogelijk om een eigen koeling te kiezen, en dus je koeling optimaal te integreren in je notebook. Ideaal dus voor notebookbouwers.
Er staat nog geen persbericht van ATi online, maar bij Hot Hardware (link net toegevoegd aan de nieuwspost) wordt wel een MXM-kaart van Dell getoond met Mobility Radeon aan boord. Ik denk dus dat ATi ook op een of andere manier bij de ontwikkeling betrokken is geweest.
Lijkt me niet meer dan logisch

Bij mijn weten is Intel marktleider bij notebook video chips met een behoorlijk percentage en daar valt dus voor beide partijen veel te verdienen wanneer ati en nvidia met een goed alternatief kunnen komen.
Voor beide partijen zou het dus een win-situatie kunnen zijn.
ATi is overduidelijk marktleider op het gebied van notebooks. 73% van de standalone mobiele GPU's komt van hen af. Intel levert alleen graphics die met de chipset ge´ntegreerd zijn, maar zelfs wanneer die meegeteld worden heeft ATi nog 55%.
Goed dat wat meer mensen zich bekommeren om noteboekjes. Aan de andere kant, zo'n chip past natuurlijk alleen in nieuwe laptops (correct me if I'm wrong :x) Dus nu moet iedereen als nog een nieuwe laptop kopen om hier van te profiteren?
ja... een notebook zit aardig vol he ;)
dus nieuwe dingen er bij doen is erg moeilijk, vooral als het om een heel nieuw systeem gaat.
\En het is PCI express... heeft een notebook dat nu? nee :)
(owhja en je zou ook nog een gat in je 'hull' moeten zagen om dat ding er in en er uit te halen.. en dat wil volgensmij niemand met een notebook...

"nu noteboek met window en ccfl na mislukte poging inbouwen MXM, maar 200euro :+)
Ik mis in dit hele verhaal of deze bus aangestuurd kan worden door dezelfde chips op de grafische kaart als de standaard PCI-Express. Indien dit niet het geval is betekent het dat men aparte GPU's moet gaan uitbrengen voor notebooks, in welk geval het nog maar de vraag is of ATi zich aan deze standaard wil gaan houden.
Natuurlijk moeten ze aparte GPU's uitbrengen voor notebooks, ze kunnen moeilijk die moderne 100+ Watt gevallen gaan gebruiken in zo'n klein plat kastje dat op een batterij draait. Maar dat zal het probleem niet zijn: nVidia en ATi doen dat beide al jaren, en ATi is er zelfs een heel stuk groter en beter in dan nVidia. Verder is PCI Express x16 gewoon een standaard, het gaat hier puur om de layout en afmetingen van het kaartje, zodat het in zo'n slot past.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True