Nvidia kondigt GeForce MX450-laptopvideokaart met pci-e 4.0 en gddr6 aan

Nvidia heeft zijn GeForce MX450-videokaart aangekondigd. Details over welke gpu er in zit en hoe snel die is, geeft Nvidia niet. Wel laat de fabrikant weten dat de MX450 pci-e 4.0-ondersteuning heeft en gecombineerd kan worden met gddr5 of gddr6.

Zoals gebruikelijk bij MX-gpu's geeft Nvidia op zijn website geen technische specificaties van de MX450. Ook noemt de fabrikant geen 'prestatiescore'. Dat was bij de MX350 wel het geval; Nvidia gaf bij die gpu een score die de prestaties in verhouding tot een Intel-igpu zou moeten weergeven.

Nieuw is de ondersteuning voor gddr6-geheugen en de pci-e 4.0-interface. Dat laatste zal mogelijk zijn in laptops met Intels Tiger Lake-processors. AMD's Ryzen 4000-laptopprocessors ondersteunen geen pci-e 4.0 en ook huidige Intel-laptopprocessors doen dat niet.

Volgens eerdere aanwijzingen en geruchten zou de MX450 gebaseerd zijn op een variant van de TU117-gpu die ook in de GeForce GTX 1650 zit. Als dat klopt, gaat het vermoedelijk om een lager geklokte variant of een versie met minder cores. De tdp van de MX450 zou 25W bedragen; de GTX 1650 heeft in de zuinige Max-Q-uitvoering een tdp van 35W.

De MX450 is de opvolger van de MX350. Die videokaart gebruikt een variant van de GP107-gpu van de Pascal-generatie, die ook in de GeForce GTX 1050 zit. GeForce MX-gpu's worden gebruikt in relatief goedkope laptops, of als extra videokaart in dunne en lichte laptops. De MX-kaarten zijn minder snel dan de GTX- en RTX-varianten. Nvidia zegt dat er vanaf oktober laptops met de MX450-videokaart uitkomen.

Door Julian Huijbregts

Nieuwsredacteur

25-08-2020 • 18:35

26 Linkedin

Reacties (26)

26
26
14
4
0
9
Wijzig sortering
Ik vraag me toch wel af of met de komst van Ryzen 4000 deze kaarten uberhaubt nog wel relevant zijn... Ook Intel komt binnenkort met betere ingebouwde GPU's.
Indd. Zelf nu op zoek naar een lichte dGPU laptop maar ik denk dat een Ryzen 4000 APU grafisch bijna net zo sterk is dan de MX350.
I.i.g. in de review van de Lenovo Yoga Slim 7 komt de 4800U in de buurt van de GTX1650 Max-Q i.c.m. een Intel i7 10710U in de 3DMark Cloudgate - Graphics test.
In games is het verschil wel groter zoals in deze video https://youtu.be/-onT20sx7dg of deze https://youtu.be/kiniHyPJRqc. Dan zijn het alleen geen eerlijke vergelijkingen (4700U heeft meer cores dan de i5 1035G1. En de 4500U heeft juist weer minder grafisch vermogen dan de MX350). Het is sws al beetje appels en peren vergelijken omdat de koeling en de grootte van de laptops ook al van elkaar afwijken.
https://youtu.be/kiniHyPJRqc.

Dit is ook een beetje een slecht voorbeeld van de Vega 7. De video bevat de Acer Swift 3... En dit draait normaal 8GB of LPDDR4X/3733 in dual-channel mode ...

Het probleem met LPDDR4X is dat het bijna de helft van de bandbreedte heeft van normaal DDR4 geheugen. Om dat probleem op te lossen, kan LPDDR4X draaien in Quad Channel ( het is speciaal ontworpen om zo te werken ).

LPDDR4X 3733 in Quad Channel is +- gelijk aan DDR4 3200 Dual Channel. Maar de probleem met de Swift 3 is dat men ... Dual Channel LPDDR4X 3733 draait ( gesoldeerd op het MB ). Met andere woorden, de Vega 7 heeft maar de helft van de bandbreedte beschikbaar! Oeps!

Daarom dat de resultaten in die video veel slechter zijn, dan andere video's waar men de MX350 vergelijkt. En je weet hoe gevoelig APU's zijn voor bandbreedte.

[Reactie gewijzigd door Wulfklaue op 25 augustus 2020 23:30]

Daarvan was ik helemaal niet op de hoogte! 8)7
Bedankt voor de uitleg. Dan mag ik daar nog wel eens op gaan letten :P

Lenovo Slim 7 AMD draait op 4266MHz, dat zou dan vergelijkbaar zijn met 2133MHz DDR4 qua performance??

[Reactie gewijzigd door J Kortje op 25 augustus 2020 23:34]

Ik heb me eventjes zot bekeken maar de Lenova Slim 7 Pro draait enkel dual channel LPDDR4X 4266MHz.

M.a.w ik verwacht dat de normale Lenovoa Slim 7 ook dual channel draait. Zeker aangezien al het marketing materiaal en websites nogal verdacht "vergeten" om neer te schrijven wat de LPDDR4X 4266MHz is.

In Dual Channel mode is LPDDR4X 4266MHz ... moeten effen rekenen:

LPDDR4X 4266MHz in Quad is +-68GB/s
DDR4 in Dual 3200 is +-55GB/s

M.a.w:

LPDDR4X 4266MHz in Dual zal dus +- 34GB/s zijn
DDR4 in Dual 2133Mhz is 36GB/s

M.a.w, in theorie iets trager. Hou rekening ook dat LPDDR4X een hogere latency heeft dan DDR4. LPDDR4X is gebouwd voor deze all in one laptops met gesoldeerd geheugen dat lange batterij leven willen tonen. Door LPDDR4X te draaien met minder chips ( quad = dubbel zoveel geheugen chips ), verminderd men ook extra de stroom verbruik.

Minder snel geheugen is ook minder snelle APU, wat dan weer de batterij leven te goed komt.

Je dacht toch niet dat deze compacte laptops niets links of rechts bezuinigde voor lagere kosten / langer batterij level ;-)

Komt er op neer dat dit eigenlijk hetzelfde is als die laptops waar men 1 DDR4 geheugenslotje voorzag en enkel in single channel draaide. Identieke hetzelfde ...

LPDDR4X 4266MHz kan een voordeel zijn maar dan moet de fabrikant de moeite doen om quad channel te draaien ( dubbel de chips, dubbel de traces op de MB, ... ). En dan kan de extra bandbreete de APU ten goed komen.
https://www.google.com/ur...Vaw3OWT997V8EFEFVDgfmUSxA

Dit PDF geeft aan dual channel.

Mag ik u zeer bedanken voor uw uitleg op de late avond ;)
Ik dacht dat ik wel iets van computers af wist maar dit was nieuw, ik wist niet dat er zo'n groot verschil zou zitten tussen LPDDR4X en DDR4. Maar ja, prijs en efficiëntie moeten ze ergens vandaan halen natuurlijk.
Kijk eens aan!
En dat op een CPU+GPU van "15W". Een MX 350 werkt op 25W als de koeling daarvoor geschikt is.
Ik zou iig het niet gaan vergelijken met een 1650 Max-Q. Die haalt dubbele fps in vergelijking met een Vega 8. Vergeet ook niet dat de GPU's de bottleneck zijn, en dat het aantal fps wat je mist met uw gelinkte cpu's echt minimaal is.
Ik heb zelf een laptop met een 4000 APU en een dedicated 1650ti (oneerlijke vergelijking) er naast, kan het leuk vergelijken.
https://www.notebookcheck..._9834_10313.247598.0.html

[Reactie gewijzigd door Xfade op 25 augustus 2020 20:44]

Deze is juist uitgebracht als reactie op Amd en Intel integrated graphics verbeteringen. De MX350 is uitgebracht in het begin van dit jaar en ze komen nu al met een refresh omdat deze inderdaad amper beter was dan vega 8. Nu Intel volgende maand uitkomt met Tiger lake en Xe graphics die nog vele betere GPU performance hebben moet nvidia nog wel een beetje relevant blijven in laptop markt. Deze GPU zal dus een grote performance uplift moeten hebben anders gaan OEM's die nooit in hun laptops steken.
Idd, die vraag had ik ook.
Ik denk dat het vooral te maken heeft met veel meer dedicated gpu RAM (en je ontlast uw cpu ram) + betere verdeling van de warmteafvoer omdat je zo twee heatsinks kan gebruiken ipv 1. Dus meer koeloppervlakte. Dus het nuttig te gebruiken TDP stijgt.

Zo kan je zelfs met vrij entry level performance toch zware gpu-accelerated applicaties files draaien omdat je kan rekenen op een hoop snelle ddr6 gpu ram. Terwijl een de bottleneck bij dit soort applicaties bij een igpu de ram snelheid/capaciteit is.

Zover ik kan zien zal de mx450 ook wat ruwe prestaties betreft ook sneller zijn dan de igpu’s van AMD en Intel.

Ook hebben/hadden igpu’s last met het aansturen van 2 externe 4k schermen aan 60 hz. Geen idee of het nu nog zo is.

[Reactie gewijzigd door Coolstart op 26 augustus 2020 15:34]

Laat Intel eerst maar eens komen met een PCI-E 4.0 plank, we wachten daar al een tijd op.

Het gaat er niet om of het nuttig is of niet het gaat erom dat Intel gewoon geen PCI-E 4.0 heeft op moment en dat is ronduit slecht te noemen.

[Reactie gewijzigd door mr_evil08 op 25 augustus 2020 18:40]

Dit dus. Ben ook al een tijdje van mening dat als je echt GPU power nodig hebt in een laptop dat je beter voor een externe gpu moet gaan waar mogelijk
pci-e 4.0 voor een laptop videokaart x8 ipv x16 geeft weer wat bandbreedte vrij aan de rest van het systeem? een nog snellere ssd. Belangrijker is die gddr6 een meer video geheugen.
Alleen als het aantal lanes gelijk is...
Mijns inziens is pcie 4.0 en gddr6 overkill voor zo'n low end grafische chip...
Niet helemaal. Gddr6 laat het toe om over de 64bit geheugenbus toch wat meer data te pompen. Deze low end gpus kunnen dat zeker gebruiken. Aangezien ze als aanvulling ook nog je ram gebruiken zou in theorie pcie 4.0 je ram sneller beschikbaar kunnen maken.

Kan allemaal best van betekenis zijn op een low end gpu met beperkt eigen geheugen.
Misschien om nietsvermoedende consumenten het idee te geven een "gaming laptop" te hebben gekocht.
Eindelijk een opvolger van de MX440 :+
Hij zit tussen de MX440 en MX460 in. Mijn vader heeft ooit nog een MX440 in zijn pc gehad. Dat was toen een Pentium (1) 200MHz.

Met andere woorden, ze zijn rond bij Nvidia
hahaha dat was de eerste gpu die ik kocht want ik wilde warcraft 3 spelen
Weer zon kaart met verschillende uitvoeringen onderling wat de consument verward??
Mijn MX250 volstaat om op mijn laptop casual WoW, WoW Classic en Rocket League te spelen ter aanvulling van mijn Desktop. Het is mooi meegenomen dat deze lekker cool blijft en een aantal uur meegaat enkel en alleen op batterij.

De MX450 kan echter wel eens een grote update zijn. Echter zal deze wel wat meer thermals vereisen vrees ik. Benieuwd of er nog één-fan-laptops kunnen bestaan met deze MX450.
Waar baseer je dat op? De MX250 heeft ook een TDP van 10-25Watt afhankelijk van de versie. Daarnaast zal de nieuwe variant niet meer op Pascal gebaseerd zijn gok ik (waar Nvidia gewoon cheap deed met de MX150, MX250 en MX350 wat allemaal Pascal is).
Nvidia zat gewoon lekker te cashen en moet nu wat meer werk verzetten.
Kun je hier wel netflix 4k hdr mee kijken? Of heb je dan nog steeds ook 3gb geheugen erbij nodig terwijl de intel uhd het wel met 2 af kan?
Wil graag een laptop die ook af en toe als htpc ingezet kan worden, op een 17” scherm hoef ik geen 4k.
Details over welke gpu er in zit en hoe snel die is, geeft Nvidia niet.
Aankondigen maar de belangrijkste details weg laten. Is dit gebruikelijk bij het aankondigen van laptop GPU’s?
Waarom is een mobiele Telefoon GPU zo veel sneller dan die dure computers

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee