Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties

Nvidia heeft de GeForce 820M-gpu voor laptops aan zijn assortiment toegevoegd, maar deze eerste videochip in de 800M-lijn is niet op een nieuwe gpu-generatie gebaseerd. Het gaat om een rebrand van de GF117, die op de huidige Kepler-architectuur gebaseerd is.

Nvidia heeft kort geleden stilletjes de GeForce 820M op zijn site gezet. Het gaat om de eerste videochip die in de nieuwe 800M-lijn uitgebracht wordt. Tegelijkertijd maakten sommige sites, zoals Fudzilla, melding van de komst van een instap-gpu met typenaam GM117 dit kwartaal. Dit zou de eerste gpu op basis van de komende Maxwell-architectuur van Nvidia zijn. Tegenover PC GamesHardware laat Nvidia weten dat de GeForce 820M echter gewoon rond de GF117-gpu is opgetrokken.

De GF117 is op basis van de huidige Kepler-architectuur ontwikkeld en vormde ook al het hart van de GeForce 710M, 720M en sommige 620M-modellen. Daarmee betreft het een rebrand, maar onduidelijk is nog of Nvidia bijvoorbeeld de kloksnelheid heeft verhoogd.

Uit een roadmap van laptopmaker Clevo viel eerder al op te maken dat er nieuwe 800M-gpu's van Nvidia op komst zijn. De krachtigste variant, de GTX 880M zou met 8GB gddr5-geheugen uitgerust worden, waardoor ook hier de naam Maxwell viel, aangezien de huidige op de Kepler-architectuur gebaseerde gpu van de GTX 780M over maximaal 4GB kan beschikken. Volgens VideoCardz gaat het hierbij echter ook om een rebrand en beschikt de GTX 880M over een Kepler GK104-gpu.

Nvidia GeForce 820M

Moderatie-faq Wijzig weergave

Reacties (53)

Huh? Als ik deze kaart even opzoek zie ik release date: Nov 27th, 2013
http://www.techpowerup.com/gpudb/2524/geforce-820m.html
NVIDIA GeForce 820M
The NVIDIA GeForce 820M (sometimes also called GT 820M) is an entry-level, DirectX 11 compatible graphics card that has been announced in January 2014. Its core is based on the 28nm GF117 chip (Fermi architecture) and equipped with 64-bit DDR3 memory. Compared to the older 710M, the 820M should be clocked similar or slightly higher.
http://www.notebookcheck....eForce-820M.108477.0.html
Zelfs driverproblemen:
I just bought an Acer E1-772G laptop with Geforce 820M, but there is no available driver here for Win7 and when I try to autodetect it's says "NVIDIA product not found".
Posted 12/14/2013 05:43 PM

[Reactie gewijzigd door ADQ op 14 januari 2014 16:41]

Als je leest wat er in de review staat: graphics card that has been announced in January 2014.
Dan zie je al dat er iets niet helemaal klopt, uitgebracht voordat de aankondiging er was...
Echter verklaart dat het driverprobleem dat je gequote hebt niet...

[Reactie gewijzigd door computer1_up op 15 januari 2014 11:51]

Bij de buren las ik net dat zelfs de 880M een rebrand wordt... http://nl.hardware.info/n...80m-is-rebranded-gtx-780m

Edit: ik zou me ook niet kunnen voorstellen dat bij videokaarten voor een lager gepositioneerd model een nieuwere chipset gebruikt zou worden dan bij een topmodel.

[Reactie gewijzigd door computer1_up op 15 januari 2014 11:46]

Dat had je hier ook kunnen lezen als je tenminste de moeite had gedaan het hele artikel te lezen.
Ja excuse me, had ik gewoon overheengelezen.
Maar het gebeurt veel vaker dan dat we door hebben dat Nvidea een rebrand maakt van zijn kaarten. Slimme manier om `nieuwe` kaarten uit te brengen.
Amai de GTX 880M zou 8Gb hebben, dat is ook niet van de poes!
Meer GDDR5 geheugen dan de meeste mensen RAM geheugen hebben :P
Hier heb je dus niks aan, zelfs op hoge resoluties met veel anti aliasing gaat die kaart het nooit vol krijgen. Het zijn vooral de textures die het meeste geheugen pakken tegenwoordig. De limiterende factor zal waarschijnlijk eerder de geheugenbandbreedte zijn.

Mooi voorbeeld:
For example - the framebuffer requirements for 1920x1080 in 32 bit colour would be:
1920 x 1080 = 2073600 pixels
2073600 x 32 = 66355200 bits
66355200 / 8 = 8294400 bytes
8294400 / 1024 = 8100 kilobytes
8100 / 1024 = 7.91015625 megabytes

So even at that high resolution an 8MB card would be able to display an image.
Zelfs met 3 1080p schermen merk je er weinig van, in het geval van games heb je natuurlijk nog meer dingen in het geheugen... :P.

Als een highend desktop kaart bijvoorbeeld de GTX78x, Titan, HD79xx, 290 (dus niet de GTX670,680,770 want daar zijn de meeste compute dingen uitgesloopt) zoveel ram zou hebben dan had het misschien nog nuttig kunnen zijn icm compute applicaties (OpenCL/CUDA), nu zit het er alleen in omdat mensen met weinig kennis van computers denken dat het beter is. Bijvoorbeeld de 820m gpu heeft 8Gb ram hij is veeeel sneller dan een GTX 880M die maaaar 2Gb of 4Gb ram heeft.....
Heel nuttig ook. Zo'n GPU kan toch nooit genoeg werk verzetten om dat geheugen vol te krijgen.
Ehm, Unified Memory, het systeem kan er gewoon gebruik van maken. Dus de GPU misschien niet, maar de computer wel.
Artikel hierover

[Reactie gewijzigd door Niet Henk op 14 januari 2014 16:46]

GPU berekeningen lopen vaker tegen geheugen problemen op, dus meer RAM is altijd welkom.
De hoeveelheid geheugen is niet zozeer het probleem, maar de bandbreedte. Zeker bij de goedkopere gpu's is dit te merken. Bij kaarten met eenzelfde hoeveelheid gddr3 of gddr5 geheugen is dit verschil te zien en bij gedeeld geheugen zijn de verschillen nog groter.

Vaak zie je ook dat de fabrikanten een andere hoeveelheid geheugen gebruiken (bijvoorbeeld 1GB vs 2GB), hetgeen echter nagenoeg geen impact heeft op de performance. Als de gpu niet snel genoeg is heeft het plaatsen van meer geheugen vrijwel geen nut.

Het kan echter wel nut hebben om veel geheugen op een kaart te plaatsen, maar dan praat je het al over meerdere high-res schermen; een opstelling die maar weinig consumenten hebben.
GPU berekeningen bedoel ik CUDA. Als je een set van 512MB upload en het resultaat is ook 512MB dan is 1GB al te weinig RAM. Daarnaast wordt het geheugen natuurlijk ook nog gebruikt voor je grafische toepassing én de overhead van de calculaties zitter er nog niet in. Dus voor grote berekeningen is meer RAM altijd welkom.
unified memory: maxwell

Dit is dus nog steeds een kepler met 8GB die niet toe te wijzen is als unified memory
De 820M is inderdaad Kepler. Maar de 880M, die over 8GB RAM bezit, is Maxwell. En daar heb ik het over.
In het artikel staat nog dat dat waarschijnlijk niet zo is. Belgar heeft dus gewoon gelijk en ik zie dan ook niet veel toepassing voor 8GB op een gamingkaart.
Er is inderdaad nog geen 100% zekerheid over. Maar er zijn ook veel nieuwsberichten die het wel hebben over de GTX 880M als Maxwell processor, omdat 8GB RAM onder Kepler op dit moment niet logisch is, en de kaart waarvan dit anders een rebrand van zijn dit niet heeft.

Misschien moeten we het zien als hij uitkomt, maar ik gok op Maxwell.
Het video geheugen wordt ook veel gebruikt voor frame buffering, het hangt helemaal van de engine af die gebruikt wordt (in games bijvoorbeeld) hoeveel frames er gebuffered worden en dus hoeveel RAM er wordt aangeschreven voor deze gebufferde frames. Het is dus altijd handig om zo veel mogelijk RAM te hebben, vooral met al de komende next-gen engines. Het gebruik van gebufferde frames is trouwens super handig, minimaliseerd lag spikes!
Het is zelfs zo dat vele scripts die op de GPU gedraaid worden vrijwel geen RAM gebruiken voor de meeste variabelen, het tijdelijk opslaan van variabelen in de video RAM kost vaak meer tijd dan het opnieuw berekenen van de variabele (wanneer mogelijk) wanneer deze opnieuw gebruikt wordt omdat de GPU cores zo super snel zijn.

Voor zover ik weet is deze informatie correct, anders wordt ik graag gecorrigeerd!
Tim Visée
Uiteraard is veel geheugen handig, maar het moet nog wel nuttig zijn. 32GB ram bij een Celeron slaat ook nergens op. Die CPU kan nooit zoveel dingen doen dat al dat geheugen gebruikt wordt.

Hetzelfde gaat hier op. Een laptop-GPU gaat nooit zoveel renderen dat die 8GB vol komt te staan met data. Als die GPU op vol vermogen draait weet hij misschien net 3GB te vullen met frames en textures. Laptop-GPU's zullen ook zeer zelden op meer dan Full HD renderen.
3-4GB voor een high-end desktop kaart is logisch. De GPU rekent dan veel frames uit, en frames en textures kunnen dan een aardig deel van het VRAM vullen.
Het is ook volledig logisch als je 8GB VRAM aan een desktop Quadro-kaart hangt. Als je op zo'n GPU flink met CAD gaat lopen spelen, wil je dat nog wel eens vol krijgen.
Uiteraard is veel geheugen handig, maar het moet nog wel nuttig zijn. 32GB ram bij een Celeron slaat ook nergens op. Die CPU kan nooit zoveel dingen doen dat al dat geheugen gebruikt wordt.
Nonsense. Een CPU doet hele andere dingen dan het geheugen.
Je kunt makkelijk 4 Virtual Machines open hebben staan. Zolang die idle zijn gaat de Celeron daar helemaal niets van merken maar je geheugen loopt wel gewoon vol.
Daarnaast kan Windows anticiperend laden waar de CPU geen last van heeft maar je wel een enorme performance boost merkt wanneer je iets opent omdat het niet meer van harddisk geladen hoeft te worden.

Als men nou de GPU drivers zo programmeert dat een spel ook dat soort dingen kan doen dan ga je ook dat extra videogeheugen merken. Toegegeven; ik kan niet bedenken hoe dat werkt. Maar ja, ik ben ook geen driver/spel programmeur.
Ik zie dit in de toekomst wel een functie hebben. Aangezien we nu steeds hogere resoluties willen. En dan mag je toch echt wel een beetje kracht onder de kap van je laptop hebben om daar een beetje op te kunnen gamen.

*edit typo*

[Reactie gewijzigd door Foggybanana op 14 januari 2014 16:38]

Niet alleen de hogere resolutie maar ook nog is meerdere beeldschermen...
Laptop met 3 schermen?
Bij ons bij trading hangen er 4 hoge resolutie schermen in portret stand naast elkaar per werkplek, de GPU kun daarnaast goed gebruiken om je forcast door te rekenen.

Gaat er met name om hoeveel geheugen per core en hoe snel je de data naar een andere core kunt krijgen.

Hoe meer data hoe nauwkeuriger/betrouwbaarder de forcast kan zijn.

[Reactie gewijzigd door djwice op 14 januari 2014 23:18]

Alleen voor dat werk lijkt mij een echt workstation toch wat fijner ;)
Werk bij een verzekeraar waarbij we met 2 x 4 beeldschermen werken met daarop een 30 tal applicaties open
Laptop in docking
punt is dat je dan wel het geheugen hebt maar dat de GPU never de nooit die resolutie aan kan sturen omdat de chip zelf te traag is.

8gb is gewoon overkill zeker op een laptopchip.
als een GTX 780TI 3gb heeft dan is 8gb voor en chip met de helft van de horsepower compleet nutteloos.
Dit heet dus marketing...
De ietwat meer diehard gamer heeft een desktop en weet wat wel belangrijk is... Er zijn ook mensen die denken, ik wil spelletjes kunnen spelen op mijn laptop en ik heb geld over, wow, 8GB video ram, die moet wel goed zijn!
Het is al jaren zo, ik geloof dat zelfs de 610M al 1GB ram heeft... terwijl een 9600mGT met slechts 256MB ram waarschijnlijk sneller is... |:( Ik heb zelfs series gezien waar het laag over meer video ram beschikt als het midden segment... Klinkt als marketing, want meer ram klinkt beter, de GPU zelf is slechter, maar dat beseft de gemiddelde consument niet, maar de prijs kwaliteit LIJKT beter dus de laptop wordt goed verkocht... 8)7
Precies en dat zie je ook als je advies aan een leek geeft. Die neigen dan toch liever naar dikke specs dan wat jij adviseert. Toevallig laatst nog dat iemand mij vroeg omdat zijn videokaart kapot was. Kan altijd gebeuren natuurlijk. Zijn budget was zo'n 50 euro. Nee hij haalt liever geen 2e hands (toch nog vrij krachtige) GTX460, maar beter een magere instapkaart (GT620 met 2GB DDR3 bijv ;( )... lekker nuttig dacht hij en bleef ie maar zeggen. Op een gegeven moment had ik wel zoiets dan moet je hem maar kopen, reviews liegen over het algemeen niet maar als hij dan zo specsgeil is hou ik hem niet tegen. Uiteraard niet zo gezegd, wel gedacht. :9 ;)

Anderzijds nog een recent voorbeeld bij een huisgenoot. Die fijne meneer gamed op amper full HD, wilde een 780Ti halen. Ja kan natuurlijk, maar was eigenlijk dik 200 euro boven zijn budget. Ik netjes benchmarks erbij gepakt en hem dat gegeven om te laten zien dat een GTX770 of bijv. 280X al wel voldoende zou zijn. Nu hoor ik afgelopen weekend dat ie toch een 780Ti heeft gekocht en dan wel de EVGA Classified ook nog eens. Ja duur = beter zei die... kijk, daarvan ga ik dus huilen en zal ik iig in de toekomst minder energie instoppen voor advies. Praten tegen een muur heet zoiets. :X
Duur = altijd beter als je het snelste wilt op een single GPU, alleen upgraden op termijn is reteduur en of je het in eerste plaats benut vraag ik me af als je niet eens full HD gamed.

Tja hele verhalen over te vertellen, uiteindelijk doen specsgeile mensen of leken toch dingen die volgens benchmarks bullshit zijn. Marketing FTW! Hulde! [/sarcasm]

[Reactie gewijzigd door marcel87 op 14 januari 2014 23:36]

Ik (en waarschijnlijk heel veel meer mensen hier) herken het en leef met je mee ;) een 780Ti is meer een status product als iets anders :D Maar als het eigenlijk 200 euro boven zijn budget viel had hij voor die 200 euro waarschijnlijk beter een mooi 24" FHD scherm kunne halen :X
Precies!!! Maar goed, om een lang verhaal kort te maken, ik maak me er verder ook niet druk om... het is immers mijn geld niet. Mooie is nu met die dikke kaart dat zijn voeding het niet trekt, dus die moet ie nu ook nog vernieuwen. Tja... met een lichtere kaart was er niets aan de hand geweest waarschijnlijk. Geld moet rollen, nietwaar? lol :+ 7(8)7
Zelfs met 3x 4K krijg je dat niet vol denk ik, niet dat een laptop GPU als deze dat aankan.
Lanceert men normaal niet eerst de desktop varianten van een nieuwe generatie?
Ja, tenzij ze gaan rebranden dan is het volgens mij andersom ;)
620m, 720m, 820m allemaal met eenzelfde GK117.
Ligt het aan mij of wordt het nou steeds erger met die rebrands.
Doodleuk 3 generaties op eenzelfde core baseren is IMHO tegen het belachelijke aan.
Net zoals je van bepaalde modellen zo maar 5 verschillende versies had, GT555m bijv.

•144 cores 709MHz (GF106), 128Bit GDDR5, e.g. MSI GX780
•144 cores 590MHz (GF106), 192Bit DDR3, e.g. Dell XPS 17, Alienware M14x
•144 cores 590MHz (GF106), 128Bit DDR3, e.g. Schenker XMG A501 / A701 (Clevo W150HRM / W170HN)
•96 cores 753MHz (GF108), 128Bit GDDR5, e.g. Lenovo Y570p / Y560p
•144 cores 525 MHz (GF116), 128 Bit DDR3, e.g. Medion Akoya P6812

Bron

Doe mij maar weer zoals vroeger, komt er iets nieuws dan pass een nieuw type/naam/model.
Het artikel heeft het over een GF117. Dat is dus helemaal geen Keppler, maar Fermi.

Het is een die-shrink van de GF 108 (van 40 nm naar 28nm).

De GF108 werd voor het eerst gebruikt in de Geforce 420M in september 2010.

Wikipedia: Comparison of Nvidia graphics processing units
Ligt het aan mij of wordt het nou steeds erger met die rebrands.
Niet echt, Nvidia doet dit al jaren in het low-end segment. GT210 ging gewoon drie generaties mee en werd toen opgevolgd door GT610 wat weer een rebrand van GT520 was.
leuk 8gb aan ram op je videokaart. Maar geen enkel spel gebruikt meer dan 3gb aan videokaart. Heb liever dan sneller geheugen met een hogere bandbreedte. Dan een overkill aan videokaartramgeheugen. Ik denk vierde kwartaal voordat 20nm een beetje opgang gaat komen.
Heb liever dan sneller geheugen met een hogere bandbreedte. Dan een overkill aan videokaartramgeheugen.
Het is GDDR5, dus sowieso het snelste geheugen dat verkrijgbaar is, reken op effectief meer dan 4,8 GHz.
Denk dat ie op werkgeheugen bedoeld voor de CPU ;)

Maargoed daar is 50GB/s is nu al normaal bij DDR3@1600Mhz (quadchannel), dat is dus 2ms per 100MB data die je uit wil lezen. Ben dus benieuwd waar die snelheid te kort komt :D


Edit: denk dat je gelijk hebt, ookal heeft bandbreedte net zo veel met de frequentie te maken als met de bus-breedte (in bits) alsmede met het type geheugen...

[Reactie gewijzigd door watercoolertje op 14 januari 2014 17:09]

Zou kunnen, maar bij zijn opmerking staat duidelijk bandbreedte, wat m.i, duidt op een GPU, waar je 128, 256, 384 en 512 bit tegen komt.
Ik denk als je paar schermen op 4k samen laat draaien voor een game, dat je wel boven de 3GB uitkomt hoor!
En dat ga je op een laptop doen? Laat staan op deze kaart, die geen high-end is en daar niet voor bedoeld is.
Meer is toch altijd beter? Het staat iig leuk op de spec sheets!
/sarcasme
Die 8GB wordt ook gebruikt voor je systeem
of install een paar skyrim mods, kom je wel boven de 4GB uit :)
Waarom zou er geen 8GB op kunnen? Mocht de memory controller het al niet aan kunnen kan dat eventueel met een revisie nog wel opgelost worden.
Maar ik kan me best voorstellen dat de memory controller het wel kan maar de geheugenchips die hier voor nodig zijn gewoon te duur zijn.

Anyway ik verbaas me er niet over dat dit nog niet de nieuwe Generatie is. AMD heeft ook het EA moeten rebranden. 20nm van TSMC is nog te nieuw. Ik verwacht deze nieuwe architecturen pas in H2 van 2014. Misschien eind Q2 maar ik gok zelf toch op Q3/Q4.
bij gros van de kaarten is de gpu core altijd de bottleneck
als ik m'n 780 overclockte had ik veel meer profijt aan de core te overclocken dan het geheugen
tenzij je op 4K resoluties of meer speelt dan kan het geheugen er goed van hebben om te OCen

om een voorbeeld te geven

een 9400gt of een 5870 allebei 1 GB ik moet een geen tekening bij maken hé
dus puur voor gaming is 8 GB teveel ook na 3-5 jaar want dat ga je maar 10 Fps halen omdat de core niet mee kan.
Kunnen we 20 nm verwachten rond april ofso? wil wel binnen 6 maanden iets nieuws

[Reactie gewijzigd door A87 op 14 januari 2014 18:04]

Betekend dit dat we Maxwell niet meer in Q1 hoeven te verwachten?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True