Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 79 reacties

Uit een roadmap van de Taiwanese laptopfabrikant Clevo is op te maken dat de eerste laptops met GeForce 800M-gpu's begin 2014 op de markt komen. De krachtigste modellen krijgen maar liefst 8GB geheugen. De verwachting is dat de gpu's op de Maxwell-architectuur gebaseerd zijn.

Uit de productenroadmap van Clevo, die op het forum van Notebookreview verscheen, staat dat in februari 2014 de eerste laptops van het bedrijf met GeForce 800M-gpu's uitkomen. Het gaat om verschillende modellen, variërend van thin-&-lights tot gamelaptops, die met onder andere een GeForce GTX 880M, GTX 870M, GTX 860M, GTX 850M en GT 840M uitgerust gaan worden.

Over de specificaties is verder niets duidelijk, behalve dat de GTX 880M gecombineerd gaan worden met 8GB videogeheugen en de GTX 870M 6GB krijgt. De maximale hoeveelheid geheugen waar de huidige op de Kepler-architectuur gebaseerde gpu van de GTX 780M over kan beschikken is maximaal 4GB. Om deze reden lijkt het er op dat in ieder geval een deel van de nieuwe gpu's op de komende Maxwell-architectuur gebaseerd gaat worden, hoewel het deels ook om een refresh van de huidige line-up onder een nieuwe naam kan gaan.

Een van de nieuwe eigenschappen die Nvidia met Maxwell introduceert is unified virtual memory, waarmee de cpu toegang krijgt tot het videogeheugen. Daarnaast worden de gpu's op 20nm in plaats van 28nm geproduceerd, waardoor ze zuiniger kunnen worden en mogelijk hogere kloksnelheden kunnen krijgen.

Clevo roadmap laptops Q1 2014Clevo roadmap laptops Q1 2014Clevo roadmap laptops Q1 2014Clevo roadmap laptops Q1 2014

Moderatie-faq Wijzig weergave

Reacties (79)

Altijd dat gezever over overkil, moest iedereen altijd op deze manier reageren in de technologie wereld zaten we nu nog met pc's met 2MB ram onze onzinnige reacties op usenet te posten via een inbel verbinding
Momenteel is 4GB voor de mensen terug te vinden in nut,logica en dus inzetbaarheid.
De stap naar 8GB doet de meeste mensen denken aan marketing omdat dit gewoon een feit is wat telkens terugkomt in vrijwel iedere line-up. De reacties zijn dan ook prima te verklaren en mede veroorzaakt door het gebrek aan info over een techniek die kennelijk ready-to-go is maar niet geintroduceerd/toegelicht is.

Vragen die voor mij blijven staan zijn:

- indien er GDDR5 gebruikt wordt, de warmteproductie en verbruik behoorlijk omhoog gaan.
Kijk maar eens bij de desktop varianten van dezelfde GPU met GDDR5 en 3 modellen.

- Waarom is hier nog ergens iets over te terug te vinden in desktop varianten?
Lijkt me dat het hier eenvoudiger toe te passen is aangezien warmte en verbruik geen issue is.

- CPU's die VRAM aan kunnen spreken lijkt mij een antwoord op een vraag die er niet is.
Bandbreedte tekort voor de CPU lijkt mij momenteel n.v.t. met DC DDR3 1866 voor Haswell.
Overklokken of veel sneller RAM heeft aantoonbaar weinig tot geen zin.

- GPU's hebben IMHO genoeg aan hun eigen vakgebied zeker nu de resoluties omhoog gaan.
4K is om de hoek dus in mijn optiek liggen de prio's eerder daar i.p.v. CPU ondersteuning.
De huidige laptops met +-desktop CPU power hebben meer aan GPU power i.p.v. die TDP ruimte inzetten voor ondersteunende taken.

Vooruitgang tegenhouden is wat anders als wat je hier veelal leest, niet begrijpen waar deze techniek voor bedoeld, en zinvol is. Wat meer info over de techniek en het nut vanuit Nvidia hierover lijkt mij dan niet overbodig. Tot die tijd ben ik niet zonder meer overtuigd, en met de kennis van vandaag, sceptisch.
Warmteproductie en verbruik van geheugen? Valt volgens mij best mee ivg met de cpu en gpu. Tenzij je het geheugen zwaar overclockt.

"CPU's die VRAM aan kunnen spreken lijkt mij een antwoord op een vraag die er niet is."
Dit is nochtans één van de beste ontwikkelingen die er nu zijn. Dit gaat volgens mij niet over standaard cpu taken, maar wel over grafische effecten en grafische algoritmen zoals morphing van 3D meshes, conditionele aanpassingen van textures (schade, roest, modder, regen, toepassen bepaalde physics, etc... ), die beter/ook door de cpu kunnen afgehandeld worden, zonder veel gedoe, rechtstreeks in het grafische geheugen van de gpu.
Revolutionaire technieken wat mij betreft!

Hopelijk heb ik je kennis van vandaag al iets uitgebreid ;)
Dat gaat voor mij helaas iets te diep in de materie, heb je het hier over realtime software rendering voor de eindgebruiker of valt dit onder software ontwikkeling?
Oftewel, heb je het dan niet over technieken die ik dan eerder verwacht in Quadro kaarten?

Clevo laptops vallen niet in de categorie van bijv. de precisions en andere workstations waar dit soort werk meestal op gedaan wordt, veelal uitgevoerd met Quadro's en AMD Firepro's

Zoek maar eens naar zelfde GPU's met GDDR3 en 5, de laatste wordt veelal serieus kreupel gemaakt met halve geheugenbus waardoor het nut zo goed als weg valt.
Het verbruik van GDDR5 ligt weldegelijk hoger en daar 8GB van......

http://www.geforce.com/ha...rce-gt-630/specifications

[Reactie gewijzigd door Double-X-L op 14 december 2013 18:40]

de quadro kaarten voor laptops zijn nagenoeg identiek qua techniek ;) , het verschil zit hem vooral in de drivers en de aansturing.
Beetje late reactie van mij, maar wou je toch nog even laten weten dat ik vooral spreek vanuit het standpunt van realtime rendering zoals bij games.
En deze nieuwe "optimalisaties" zijn volgens mij welkom bij zowel pc's, consoles als ook laptops. Denk ook wel dat dit nog relatief nieuw is bij de "gewone" videokaarten en nog veel zal verbeteren bij komende generaties uiteraard.
het is allebei beetje kort door de bocht. in een laptop een overkill aan geheugen plaatsen is niet echt wenselijk omdat je met een laptop gewoon zo lang mogelijk wil doen op de accu ipv constant netstroom te moeten gebruiken. maar stil blijven staan bij huidige techniek is ook niet wenselijk.
Bij een laptop zijn "volgens mij" het scherm, cpu, hdd,... de grootgebruikers. Die memory chipjes gebruiken amper iets. ;)
Wat is het nut hiervan? Het is niet dat het erg snel geheugen is of wel soms. Videokaarten met 4GB in laptops heb ik al nooit begrepen, waarom dan wel 8GB?
Kan iemand een scenario bedenken waarin een laptop 8GB VRAM nodig heeft?
Volgens mij hebben de laptops bij 'entertainment' 2GB ddr3 geheugen + vram geheugen, en de laptops bij 'gaming' 4/8GB vram geheugen waarbij de cpu daar ook toegang tot heeft.

Correct me if i'm wrong..
Scenario: virtualisatie.
Leg eens uit dan, wat heb je bij virtualisatie aan zoveel videogeheugen? Voor als je verschillende operating systems tegelijk draait die allemaal grafisch zware dingen doen?
Een verkoper die moeten proberen een duurdere laptop te verkopen. "Deze heeft maar liefst 8 Gigabyte aan videogeheugen!"

Beetje overkill, maar blijkbaar kan de CPU dit geheugen ook gebruiken.
Lekker zinnig, ook. Net alsof Nvidia ineens laptop-CPU's maakt. Dan moeten ze wel heel goede vriendjes zijn met Intel als dit echt zoden aan de dijk wil gaan zetten. Het simpelweg nabouwen van AMD's HUMA truc is leuk, maar AMD kan de CPU en GPU ook helemaal op elkaar afstemmen. Nvidia kan dat niet, in ieder geval niet als er een vlotte x86-CPU bij moet.
Nee nvidia maakt zelf geen laptops, maar ze hebben wel graag dat er zoveel mogelijk laptops met nvidia GPU's worden gemaakt
Uiteraard. Maar IMHO blijft dit een beetje naar omgedraaid HyperMemory ruiken - in plaats van dat de GPU het systeemgeheugen aanspreekt, spreekt het systeem nu het vRAM aan. Maar het blijft over de PCIe bus gaan, én het blijft een feit dat AMD dat gewoon beter kan integreren. Ik vraag me dus af of dit in de praktijk veel gebruikt gaat worden.
Of Nvidia gaat er gewoon weer geld voor vragen om dit te mogen gebruiken. Zou ook de eerste keer niet zijn.
Echt een nut heeft het niet. Dat is hetzelfde als het aantal megapixels op een camera. Voor een groot deel van de consumenten geeft dat de doorslag over de kwaliteit van de camera, hoe meer mp's hoe beter. Budgetvideokaarten worden ook vaak met veel te veel geheugen uitgebracht zonder dat dat allemaal gebruikt zal worden.
Neemt niet weg dat het voor een high-end chip wel nuttig kan zijn als je bijvoorbeeld 2-3 jaar denkt te gaan doen met je laptop. Het afgelopen jaar nemen resoluties van alle type schermen behoorlijk toe en als je over 3 jaar een nieuwe game hebt in 4k-res, dan zal je die 8GB misschien wel nodig hebben, wie weet...
Ik hoop dat er wel een grotere stap in performance en stroomverbruik gemaakt wordt van de 7 naar de 8 serie dan van de 6 naar de 7.

[Reactie gewijzigd door BlueLed op 14 december 2013 12:45]

Moet alles een nut hebben? Soms is het gewoon om te tonen dat het kan.
De krachtigste modellen krijgen maar liefst 8GB geheugen.
Is dat nuttig? Ik neem aan dat meer geheugen toevoegen relatief makkelijk is in vergelijking met het versnellen van de processor, maar worden er toepassingen verwacht die daadwerkelijk gebruik maken van zoveel geheugen op de GPU, en zijn deze laptop-gerichte chips snel genoeg om daar ook iets mee te doen? Gaat het hier om professionele applicaties, of is dit gewoon voor de marketing?

Overigens stel ik deze vragen terwijl ik zelf een systeem met 32GiB RAM gebruik, dus ik ben vooral benieuwd. Zou leuk zijn als dit de eerste indicaties zijn van veel snellere GPUs als reactie op de nieuwe generatie consoles, nu het verschil tussen de nieuwste consoles en een nieuwe PC niet zo groot meer is als de afgelopen 7 jaar.
Zolang laptops nog niet het niveau van desktops hebben blijft het nuttig in mijn ogen.
hhmm gddr5 geheugen anyone?
Moet toch wel aardig wat sneller zijn dan ddr3(wel moet het uiteraard weer door meer wegen stromen om er gebruik van te maken), de test zullen het uitwijzen.
Wel apart dat er opeens (weer?) reclame is van nvidia, is lang niet geweest.
Zal wel te maken hebben met amd:ps4+xbox1= stress.
bwa.. ze hebben toch ook veel dingen zoals bv de snelste single gpu (780 ti) of g sync of belichting online renderen met CloudLight in de laatste maanden.
Denk niet dat ze echt stress hebben van die Ps4 + xboxOne..

Wat AMD heeft is bv: " AMD schrapt ARM-serverprocessors met 16 cores voor 2014" & "'AMD heeft geen nieuwe FX-processors in de planning", maar zetten wel in met die nieuwe kaveri APU's & Heterogeneous Queuing & trueAudio

[Reactie gewijzigd door SmokingCrop op 14 december 2013 13:10]

Misschien word dit een soort voorbereiding voor games dat op consoles komen en daarna op de pc, omdat de consoles nu ook 8GB hebben?

Zou waarschijnlijk het porten van games van console naar PC makkelijker maken als PC's ook zoveel geheugen hebben
Nee zelf denk ik dat het niet puur om games gaat ( die groep is relatief klein ) wat mij opvalt is dat ze de grens tussen desktop en mobiel steeds verder aant verkleinen zijn.
Mensen moeten mobiel en het liefst met een dongel/sim.

Ik vind persoonlijk nog altijd de desktop beter en stabieler dan de laptop, wat je steeds meer ziet is dat men mijn idee steeds meer aan het verkleinen is.
Laptops worden steeds beter en beter en dadelijk is er geen reden meer voor een desktop behalve het tweak gedeelte.
Maar bij consoles moeten GPU en CPU hetzelfde geheugen gebruiken, dat is hier anders als ik het goed heb begrepen, hier KAN de CPU het geheugen van de GPU gebruiken.
Dus eigenlijk het antwoordt op of eerder gezegd een tegenhanger van AMD's HSA

[Reactie gewijzigd door Dragonetti op 14 december 2013 14:45]

Maar dat is hetzelfde als zeggen: een fakkel geeft nog genoeg licht, waarom een zaklantaarn fysiek of in je telefoon, want mijn fakkel geeft genoeg licht om iets te zien....
We zijn hier op tweakers, de meeste hier, althans ik zijn dol op nieuwe technieken. En dit is naar mijn idee een leuke nieuwe wereld die open gaat in de laptop sector

Ik vind dit persoonlijk een grote verandering in de laptop sector, mocht het artikel kloppen uiteraard Zijn dit leuke berichten voor mensen die van de desktop willen overstappen naar de laptop.
Onbegrijpelijk dat 90% van de reacties hier zijn dat 8GB overkill is...
Geeft mij het gevoel dat die mensen totaal geen inzicht hebben in de grafische opbouw van games.
Ik zit persoonlijk al heel lang te wachten tot er eens een deftige hoeveelheid geheugen zit op kaarten en liefst meteen gedeeld tussen gpu en cpu.
Wil je een game met een grote virtuele wereld spelen op deftige resolutie met AA en met hoge resolutie van textures, dan zit je zelfs met 8GB met gemak aan de limiet! En dan spreek ik lang nog niet over >4k resolutie met fotorealistische graphics...
Persoonlijk droom ik al van 64GB ...
Ehm, kijk eens goed naar de plaatjes..

Ik zeg 80% kans dat ze het hebben over het normale geheugen, niet het video geheugen. Ze hebben het namelijk over de specs van hun laptops.

[Reactie gewijzigd door jeroen84 op 14 december 2013 17:26]

Het zou inderdaad kunnen wat je zegt, maar als je bij multimedia staan 1gb ddr3. het lijkt me niet dat een multimedia laptop 1 gb heeft.. dus mijn twijfels daarover
wat een heerlijk nietszeggende opmerking.. wat is het 'normale' geheugen?

zoals al beschreven in het stuk gaat het om unified memory. oftewel: je RAM voor de CPU en de RAM in je videokaart worden 1 geheel.
dan kan je zeggen: dat heb ik al, maar de integrated video controller op je moederbord, die vervolgens zowel de CPU als de GPU bediend, houd de data gescheiden. er wordt een deel 'gereserveerd' waardoor beide processors niet optimaal gebruik kunnen maken van de ram.
Dat is nu nieuw: en dat wordt hopelijk de standaard, maar 'normaal' is het nog lang niet.
Waarvoor ga je die 8GB gebruiken? Zelfs als je CPU er gebruik van maakt zie ik er weinig nut in... Misschien een RamDisk? Hm, kan je ook gewoon je CPU geheugen voor gebruiken...
Ik weet niet hoor, maar als de CPU ook het GPU geheugen aan kan spreken zit er misschien in totaal 8GB in die laptop en niet 8GB + systeemgeheugen.
En dan is normaal RAM ook nog is veel goedkoper.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True