Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste prijsvergelijker en beste community. Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers!

Nvidia komt met GeForce MX110- en MX130-gpu's voor laptops

Nvidia heeft de GeForce MX110 en MX130 op zijn website gezet. Beiden zijn laptop-gpu's, die onder de MX150 gepositioneerd worden. Specificaties noemt de fabrikant niet en vermoedelijk gaat het om rebrands van de 920MX en 940MX.

Nvidia stelt dat de MX130 tot 2,5x sneller is dan een Intel HD 620 en dat de MX110 tot 1,5x sneller is. Beide gpu's worden gepositioneerd onder de MX150 die eerder dit jaar uitkwam. Volgens de cijfers van Nvidia is die gpu tot 4x sneller dan Intels HD 620.

Volgens eerdere geruchten en uitgelekte informatie die door NotebookCheck is verzameld, zijn de MX130 en MX110 geen nieuwe gpu's, maar rebrands van de bestaande 920MX en 940MX. De gpu's zijn daarmee nog gebaseerd op de oude Maxwell-architectuur, in tegenstelling tot de MX150, die van de Pascal-generatie is. De afbeeldingen die Nvidia van de nieuwe gpu's publiceert op zijn website lijken dat te bevestigen.

Nvidia kondigde de MX150-gpu in mei aan. De rekenkracht is vergelijkbaar met de GT 1030-budgetvideokaart voor desktops. De gpu wordt vooral toegepast in dunne laptops, waarin geen plaats is voor een krachtiger exemplaar. Datzelfde zal waarschijnlijk gelden voor de MX110 en MX130. Laptops met de nieuwe gpu's zijn nog niet aangekondigd.

Door Julian Huijbregts

Nieuwsredacteur

16-11-2017 • 08:31

32 Linkedin Google+

Reacties (32)

Wijzig sortering
Ik snap niet dat dit soort dingen in laptops gestopt worden. Na de HD620 zijn er nog een aantal sterkere modellen van Intel, wat betekend dat deze GPU's weinig tot geen meerwaarde bieden t.o.v. iGPU's. Maar het kost wel ruimte om te implementeren en het verbruikt weer meer stroom.
Leuk voor de specsheet misschien, maar wat mij betreft laten ze dit soort onzin gewoon achterwegen.
Ik heb zelf een laptop met een geintegreerde GPU op de core i7 processor en een Nvidia 610 GPU. Qua snelheid is het idd misschien net als hier 1,5-2x sneller, maar het grootste verschil zit hem in de driver kwaliteit. Dat ding staat eigenlijk altijd op de Nvidia GPU ingesteld puur omdat de intel drivers veel te veel problemen opleverden met hardware accelerated software..
Nu is dat een "oud beestje" en kan het best zijn dat het met hedendaagse intel chips en drivers een minder groot probleem is, maar wat ben ik blij dat er een dedicated GPU in zit met gewoon degelijke drivers, anders had dat ding voor mij bijna niet bruikbaar geweest.

En verder is het natuurlijk zo dat de extra snelheid hoewel het verre van impressive is een applicatie net wel bruikbaar maakt die op de intel GPU gewoon echt niet vooruit te branden is.

[Reactie gewijzigd door VNA9216 op 16 november 2017 09:02]

Naast dit heeft een dedicated GPU ook zijn eigen werkgeheugen en hoeft dus niks te delen met het interne werkgeheugen.
Dat is helaas niet altijd waar..
Welke dedicated videokaart ken jij die tegenwoordig geen eigen geheugen heeft?
In laptops? Lang geleden dat ik laptops heb gevolgd maar was toch schering en inslag?
Kan je een voorbeeld noemen? De laptops die ik in het algemeen zie heb het wel namelijk.. Of ik zit er compleet naast maar dan zou ik ook graag het antwoord willen zien:)
Lang geleden had mijn Radeon 1250 laptop (Acer weetikwelktype met centrino sticker) een shared configuratie, zoals de vroegere onboard desktop plankjes ook deden. Maar dat is volledig shared op een 'dedicated' chip uit de tijd dat er geen integrale gpu's waren.

Neemt niet weg dat er veel mensen zijn die er nog steeds van overtuigd zijn dat een igpu niet mr kan dan een desktop weergeven en voor Candy Crush al een 'dedicated' kaart la dit nodig is. Dat maakt markt.

En processorseries waarvan de igpu standaard is uitgeschakeld, wegens fouten op de versgebakken wafeltjes? Voor ARM-gebaseerde systemen die mr willen dan de standaard soc te bieden heeft?
De krachtigere igpus(boven de hdx30) zitten vaak alleen in macbooks. :'(
Inderdaad, als je die Iris GPU's in de pricewatch als filter instelt krijg je alleen maar Macbooks en een enkele premium windows machine te zien. Als je voor onder de 1000 euro een laptop zoekt die ook af en toe eens een spelletje kan spelen kom je eigenlijk meteen al uit bij laptops met een low/mid-end Nvidia chip zoals een 940mx.
Gelukkig komen de Ryzen chips eraan. De Ryzen 2500U scored op cpu gebied rond een 6700HQ, en op GPU gebied als een Iris 580(snelste intel igpu).

De HP laptop met de 2500U kost nu $600.
Die Ryzen chips zijn inderdaad bijzonder interessant en lijken eindelijk een goede concurrentie te vormen voor Intel en Nvidia. Ik hoop wel dat OEMs dit maal wat weer moeite doen om echt goede laptops op de markt te brengen met AMD chips, met de vorige generatie was dit vaak niet echt het geval (vaak alleen plastic budget modellen met lage resolutie beeldschermen en trage HDDs).

Is het stroomverbruik van die Ryzen chips trouwens al eens getest? Ben best benieuwd hoe efficint zo'n Ryzen APU is t.o.v. een (op prestaties) vergelijkbare Intel + Nvidia combo.
Ik heb er een gekocht voor 799 euro in januari 2017: een 6700HQ met GTX 960m :P
Jou GTX960M is sneller dan de 940MX die nu verkocht gaat worden als "nieuwe" MX versies en valt nog best op te spelen. http://gpuboss.com/gpus/GeForce-GTX-960M-vs-GeForce-940MX
Precies. Komt daar nog eens bij dat je voor die kleine boost in performance de prijs betaald van met Optimus te moeten werken, waardoor je ondermeer de mogelijkheid om V-sync te gebruiken verliest, en dus sneller met scheuren (tearing) in je beeld komt te zitten.

Ik snap niet waarom een laptopmaker deze chips zou integreren, tenzij je ze combineert met een erg zwakke Intel CPU, zoals een Pentium of Celeron, waarbij de integrated graphics nog een trapje trager zijn dan bij hun duurdere Core i-broertjes.
Die iris IGPU's verbruiken ook meer stroom dan een HD/HD620. Die dan vaak samen met de cpu op max 15w tdp ingesteld worden.

Zoek maar eens een review van de xps13 met iris graphics, daar downclockte de gpu en cpu zeer zwaar :)
Maar ik vind de winst van een MX110 of 130 ook wat aan de lage kant om aan te bieden. Mx150 is nog Ok.
Ik snap het prima en het is ook heel simpel.

Zoals in de tekst staat:
In dunnen laptops waar geen plaats is voor een krachtiger exemplaar.
Denk hierbij vooral aan koeling van een kraxhtigere chip.

Het voordeel van deze aldan nieuwe chip is vrij simpel:

Je hebt niet het nadeel van langzaam gedeeld ddr 4 geheugen maar gewoon gddr geheugen naast je systeem geheugen.
Je lapot kan dunner en lichter zijn dan 1 met een 1030 of 1050 omdat je de koeling niet nodig hebt.

Nadeel is, ze presteren ondermaats.
Ik persoonlijk met een 630m in de laptop zou deze nieuwe chip graag hebben.

Vanaf prijs voor een 1050 laptop is 900 euro en voor afentoe daar gebruik van te maken vind ik te duur.
Als de mx 130 met een kaby refresh komt met een i5je vanaf 600 euro sta ik morgen nog in de mediamarkt😂
Bedoel je waarom er uberhaupt een krachtige grafische processor in laptop zit.

Of waarom deze zwakke er in zitten?

Want het lijkt me logisch dat als je een desktop vervanger wenst dezs op zijn minst voor hetzelfde als dekstop gebruikt kan worden.

Overigens gebruik ze alleen significant energie indien ze ook aangesproken worden.

Als je in pricewatch gaat kijken zijn er genoeg laptops tekoop zonder extra grafische capaciteit.

Maar ik denk dat er genoeg mensen zoals ik zitten te wachten op een 15" laptop met 1 GB SSD, oled touchscreen 4k scherm, 16GB ddr4, mechanisch keyboard, octacore cpu en op zijn minst aan grafische kaart die meer presteert dan een nvidia 1080ti en op 100% perfomance dat 8 uur volhoud op batterijen zonder warmer te worden dan kamer temperatuur.

En allemaal voor onder de 1000 euro....

Ik denk dat we over een paar jaar zover zijn...
De meeste dedicated GPU's (Of alle) hebben hun eigen werkgeheugen.
Lees eens de review van de Xiaomi Mi Notebook Pro. Het is een wereld van verschil in gaming. https://youtu.be/Rv3EWrlPLvc
In tegenstelling tot de MX150 wordt op de MX110 en MX130 de Vulkan-API niet ondersteund. Ook is GPU Boost 2.0 aanwezig en niet 3.0, wat inderdaad duidt op Maxwell-rebrands.

Het is jammer dat de GPU's in dezelfde serie vallen, want het is niet alleen een performance verschil maar er zijn dus features die op de MX150 wel werken en op de MX110 en MX130 niet.

Line-up
  • GeForce MX150 (GP108 Pascal): 384 shaders @ 1468 - 1532 (Boost) MHz = 1,18 TFLOPS
  • GeForce MX130 (GM108 Maxwell): 384 shaders @ 952 - 1020 (Boost) MHz = 0,78 TFLOPS
  • GeForce MX110 (GM108 Maxwell): 256 shaders @ 965 - 993 (Boost) MHz = 0,51 TFLOPS

[Reactie gewijzigd door Balance op 16 november 2017 09:01]

Ik snap nVidia in deze niet. Waarom laptop chips gebruiken van de vorige generatie terwijl de huidige meer performance/watt bied? Waarom zou ik voor een MX110 of MX130 gaan als Intel ook een HD650 heeft?
Die Intel HD650 zit natuurlijk alleen in de duurste processoren. En dan ook nog alleen in de ultra-low-power versies. De "normale" mobiele CPUs moeten het met de 630 stellen.

Ik zie niet heel veel nut in een 110 en zelfs de 130 is nou niet echt interessant (als de 130 genoeg is, is de HD630 waarschijnlijk ook wel genoeg). Maar als nVidia er een markt voor kan creeren, waarom niet?
Baas! ik heb nog een bak oude 920mx's en 940mx's gevonden wat gaan we hier mee doen?
Haha, dat klinkt best logisch trouwens. Niet aan gedacht. Ik bedoelde eigenlijk waarom zou je dan nVidia kiezen terwijl Intel (bijna) vergelijkbare performance heeft die ingebakken in de CPU zit (met vermoedelijk minder energieverbruik, maar dat weet ik niet).
Omdat het beter staat in de spec sheet. Mensen zien een discrete GPU en denken dat het betere performance zal bieden.
mijn 920MX is ongeveer dubbel intel hd, nog steeds om van te huilen als ik eerlijk ben.
Wordt op Userbenchmark dan ook als 'terrible' aangeduid: http://gpu.userbenchmark....7104/NVIDIA-GeForce-920MX
De MX150 ook, dus zegt niet veel.
Zelfs een 1050 is 'very poor'.
Pas vanaf de 1060 is het 'average'.
Nochtans worden de meeste ietwat betaalbare gamelaptops uitgerust met een 1050 of 1060.
Met een 1050 kan je toch wel gamen op 1920x1080. Ok, voor sommige games moet je de instellingen dan waarschijnlijk beperken tot medium, maar 'very poor' lijkt mij toch wat aan de lage kant.
Laat Henk (*insert random naam*) een paar nieuws stickers printen en dan verkopen we die oude prut onder een nieuwe fancy naam!.

Even serieus; vraag me sterk af wat de added value van deze kaarten is tozv Iris Pro?. Zeker omdat je met extra componenten het stroomverbruik behoorlijk negatief benvloed lijkt me?.

[Reactie gewijzigd door Tortelli op 16 november 2017 08:47]

off topic
sinds kort is intel aan het samenwerken met AMD om de concurrentie van nvidia die in alle klassen iets te bieden heeft te bestrijden.
waarschijnlijk is het omdat ze een doos met allerlei 920/40MXen gevonden hebben.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True