Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties

Nvidia komt naar verluidt niet met een GTX 1070M en GTX 1080M met afgeleide gpu's voor laptops. De fabrikant zou de gpu's van de desktopversies van de GTX 1070 en 1080 gaan gebruiken, zoals het eerder deed bij de GTX 980.

Nvidia gaat alleen de tdp verlagen bij de GTX 1070 en 1080 voor laptops, maar de gpu's blijven dezelfde, schrijft PCGamer op basis van informatie die de site van zijn bronnen tijdens de Computex hoorde. De fabrikant zou ook niet van plan zijn nog speciale M-varianten van de high-end grafische kaarten voor laptops uit te brengen. De GTX 1070 en 1080 beschikken over tdp's van respectievelijk 150W en 180W. Hoewel dit laag is in vergelijking met voorgaande videokaarten, moeten de kloksnelheden voor laptopgebruik teruggebracht worden om de tdp te verlagen, volgens PCGamer.

De site denkt dat de eerste laptops met de videokaarten in augustus of september verschijnen. Videocardz tekent aan dat de MXM 3.0 type B-specificatie een maximale tdp van 100W voorschrijft en Nvidia dus waarschijnlijk een eigen module gaat gebruiken als het gerucht klopt. Een eigen ontwikkelde module zou de kosten kunnen verhogen.

De GTX 1070 en 1080 zijn beide rond de GP104-gpu opgetrokken. Die gpu is op de nieuwe Pascal-architectuur gebaseerd en wordt op een 16nm-finfet-procede geproduceerd. Bij de GTX 1070 heeft Nvidia 1920 shaders geactiveerd en bij de GTX 1080 zijn dat er de volledige 2560. In het verleden gebruikte Nvidia altijd afgeleide gpu's voor laptops. Zo is de gpu van de GTX 980M een GM204 met 1536 shaders, terwijl de GM204 bij de GTX 980 voor desktopkaarten 2048 shaders heeft. Vorig jaar bracht Nvidia de GTX 980 met de volledige gpu voor het eerst ook naar laptops.

Onder andere MSI en Gigabytes Aorus komen met gamelaptops met gpu's van Nvidia's nieuwe generatie, schrijft TweakTown. De site refereert aan de naam GTX 1080M maar geeft toe dat deze naam niet genoemd is door de bedrijven. Waarschijnlijk gaat Nvidia de M-aanduiding wel behouden voor minder high-end gpu's voor laptops, zoals bij kaarten met de GP106 die wel in MXM-vorm naar laptops lijkt te komen.

Moderatie-faq Wijzig weergave

Reacties (84)

lol, dit is gewoon pure pr bullshit. Een 1080 die je vervolgens praktisch moet halveren in wattages en prestaties gewoon een 1080 blijven noemen is toch gewoon pure oplichting? Mensen vrolijk de indruk geven dat ze desktop level graphics kunnen krijgen op hun laptops en dan er thuis achter komen dat het ding significant langzamer presteert. Is het echt zo erg om de kaart 1080m te noemen?
Ze noemen hem niet 1080m omdat hij net wel dezelfde prestaties haalt.
Kijk maar eens in de benchmarks van de 980 notebook hoe klein het verschil met 980 desktop niet is: http://www.notebookcheck....80-Notebook.150599.0.html
Ze nemen gewoon de best gebinde chips eruit en deze halen dezelfde performance bij minder vermogen.
Weet ook dat het vermogen van de 1080 een stuk lager ligt dan die van de 980 wat hem dus nog geschikter maakt.
Dat klopt, de specs komen vrijwel geheel overeen. In een benchmark krijg je zo ook hele mooie resultaten. Als je een langer lopende test zou doen zie je echter wel dat die desktop/standaard gpu's in een laptop hun warmte een stuk minder goed kwijt kunnen, en dat ze de boost clock niet kunnen aanhouden.
Dat klopt, de specs komen vrijwel geheel overeen. In een benchmark krijg je zo ook hele mooie resultaten. Als je een langer lopende test zou doen zie je echter wel dat die desktop/standaard gpu's in een laptop hun warmte een stuk minder goed kwijt kunnen, en dat ze de boost clock niet kunnen aanhouden.
Maar dat is een probleem van de laptops, niet van de chipset!
Maar dat is ook zijn hele punt, ondanks dezelfde chip is de performance toch anders.

Ik vind iets herlabelen wel terecht idd. Nvidia doet het misschien iets minder maar zeker AMD plakt vaak een nieuw label op een oude kaart. Zo gek is het dus niet.

Misschien komen de andere fabrikanten wel met creatieve koeling. Waterkoeling oid waarmee wel alle warmte kan worden afgevoerd.

[Reactie gewijzigd door Mr_gadget op 2 juni 2016 21:41]

AMD heeft het de afgelopen jaren 2 keer gedaan. Nvidia heeft deze praktijken ook uitgehaald (ook een paar jaar achter elkaar), ik weet zo niet meer met welke GPU precies, moet wel te vinden zijn. Maar om alleen AMD daar op aan te spreken klopt niet.

[Reactie gewijzigd door TheHeavySoldier op 2 juni 2016 21:39]

de gtx 250, moet je maar eens uitpluizen waar die vandaan komt ......
Dan de gtx 550 welke een gtx 460 was enz.

@ CedricB
Bij de gtx 980 was de grap dat het letterlijk een desktop 980 was qua specs. maar het zou me verbazen als ze dat nog een keertje gaan doen, ik gok dat ze de 1070 en 1080 met 400MHz of terug clocken, wat waarschijnlijk enorm in het verbruik zou schelen ( hoe hoger je clocked hoe meer je de voltage moet opvoeren, dit is exponentieel)
Waarom hernoemen? Je kan toch zelf ook wel bedenken dat een Laptop nooit de prestaties van een Desktop met vergelijkbare specs gaan halen?
Als ze zeggen dat er een desktopkaart in zit, dan mag je toch die performance verwachten? Zo gek is dat toch niet?

Er zijn wel vaker laptops met desktop gpu's geweest waar geen concessies aan gemaakt zijn (trekt wel accu binnen no-time leeg).

Als het niet dezelfde performance kan leveren omdat hij lager geklokt is, dan mag daar best een ander naampje aan hangen om dat duidelijker te maken voor de consument.

Andersom (als een kaart hoger dan stock geklokt geleverd wordt) maken ze er ook geen probleem om er een andere naam aan te hangen want dan is het een positief iets.

[Reactie gewijzigd door Zoop op 3 juni 2016 13:26]

Waarom mag je dat verwachten? Als je (bijv) een Alienware laptop koop je toch ook per specificatie, en niet per modelnummer? Waarom kan je hier er wel over zeuren, maar niet als je PC koopt met dezelfde naam, maar wel andere onderdelen inzitten?

Ik vind dat omdat de laptop minder hitte kwijt kan, je niet zomaar de naam hoeft te veranderen, zeker niet als er dezelfde chip in zit, omdat dit gewoon keihard te verwachten is. Het is in ieder geval geen misleiding.

Bij de M edities zaten er altijd een oudere of andere chip van een lagere budget model in, waardoor er veel grote verschillen inzaten tussen de Desktop en Mobile variant.

[Reactie gewijzigd door BJ_Berg op 3 juni 2016 16:01]

En daar gaat het dus om, is het echt de volwaardige kaart die mogelijk wat heter wordt (en dus gaat throttlen), of is hij bij voorbaat al omlaag geclocked? Indien het laatste, is het dus niet hetzelfde product als de desktop variant.
Ja lekker is dat.

Het een heeft toch met het ander te maken.

Dan had je toch 10 jaar geleden ook dikke GPU's in laptops kunnen steken en zeggen dat de laptops een probleem bebben met het stroomverbruik en watmteafvoer.
En daarom is het een GTX1080M en niet een GTX1080. Fair enough, toch?
Nee juist niet. Er komt geen GTX1080M. Ze gaan de M aanduiding laten vallen dus wordt de laptop variant ook GTX1080 genoemd.
De grote vraag is dus, gaat die 'laptop' gtx1080 nu slechter presteren dan een normale?

In deze opmerking zit het probleem al, het is lastig onderscheid te maken tussen 2 wezenlijk verschillende producten (althans, als ze verschillende resultaten neer zetten, waar je wel van uit kan gaan, denk ik).
Ja dat gaat het. Vooral wanneer een game tegen de maximale verhitting aankomt want dan kan de laptop opeens geen hitte meer kwijt en gaan de kloksnelheden naar beneden..
Een koeler hoeft straks nog maar de helft aan hitte kwijt. En hogere stroomverbruik = meer hitte. Ik denk niet dat huidige desktop 1080 in een laptop gepropt kan worden zonder hem een stuk dikker(en zwaarder) te maken en er een aparte heatsink speciaal voor de GPU inzet.

[Reactie gewijzigd door BJ_Berg op 3 juni 2016 16:06]

De m versies zijn altijd vele malen trager dan hun desktopversie. Dit is niks nieuws. Ik zie het juist als een voordeel: je hebt een volwaardige desktop gpu in je laptop. Als de fabriekant het goed speelt kan je dus erg leuk overklokken als je op netstroom zit en de koeling ook wat opleukt. desktopprestaties in je rugzak is een mooi vooruitzicht.
nieuw apparaat garantie kwijt?
Goh ... op m'n ASUS ROG G752VY-GC067T met GTX980M merk ik toch niets van dat "vele male trager". Mijn m heeft zelfs 8GB terwijl een desktop maar 4GB heeft. In Doom vooral kan ik de textures op nightmare zetten, dat moet je met 4GB niet proberen.
Ik heb zo'n zelfde GPU als werk laptop maar die komt niet in de buurt van mijn desktop 980 Ti, eerder iets van 10% onder een GTX 970 (dus niet VR ready). Die 8GB is meer future proofing volgens mij omdat je een laptop GPU niet zo 1 2 3 vervangt.

[Reactie gewijzigd door Wolfos op 3 juni 2016 10:54]

Er zit inderdaad een behoorlijk verschil tussen een GTX980 en een GTX980TI.
Tussen de GTX980 en de GTX980m niet zo.
Wederom, de 980m zit 10% onder de GTX 970 die al ver onder de 980 zit. De M kaarten zijn gewoon niet vergelijkbaar met high-end desktop kaarten.

Hier een benchmarkje:
http://laptopmedia.com/re...-showdown-and-benchmarks/
Heb die benchmark nu maar diagonaal gelezen, maar gaat dt over 4K gamen?

Ik kan je zeggen dat in die Asus laptop een G-Sync 17" scherm zit dat aan 75H werkt. Ik heb alle grafische opties op maximaal gezet, en diegenen die de nightmare opties hebben daarop. Resolutie is 1080p, en mijn frames komen niet onder 75 (dus door de g-sync)

Zo slecht is het dan allemaal toch niet, toch?
pricewatch: Clevo P775DM1-G ze zijn er ook met een Desktop GPU in een laptop :)
Het zijn nu tenminste nog dezelfde chips, maar op lagere clock en voltage. Dat is ook wel eens anders geweest.
Dat worden orkaankracht laptops qua koeling... :o

Ik kan me niet voorstellen dat deze laptops toe wordt gelaten in bibliotheken e.d. Tenzij de idle stand gigantisch veel minder energie verbruikt natuurlijk... Maar dan moet je niet even snel een YouTube filmpje opzetten, want dan gaat het aggregaat weer aan ivm piek rekenvermogen. :)
Daar dient nvidia optimus voor. De intel kaart neemt al het normale werk op zich en wanneer er gegamed wordt schiet de nvidia pas aan. Geen probleem dus.
De vraag is natuurlijk wil je je 5kg bakbeest meenemen.
Mijn Alienware 15 met een 13pwatt 980M weegt 3kg, maakt weinig fan geluid en de Gpu wordt max 65C. Die tijd van oververhitte laptop bakbeesten zijn al een tijd voorbij.
Dat is dan ook een 980M. Die is speciaal gemaakt om in laptops gebruikt te worden.

Hij ligt qua specs ergens tussen de desktop 960 en 970. Komt dus, ook qua verbruik, niet in de buurt van een desktop 980.
Het licht quaspecs gewoon op een desktop 980 met een deel van de cores disabled. Gaat erom dat dit een 130watt gpu al is in een laptop en de 1080 bijvoorbeeld 180watt en de 1070 150watt. Moeilijk om die te integreren zal het niet zijn.

[Reactie gewijzigd door Rin op 3 juni 2016 10:36]

Het licht quabspecs gewoon op een desktop 980 met een deel van de cores disabled.
En een veel lagere kloksnelheid (zo'n 20% lager)....
Gaat erom dat dit een 130watt gpu al is in een laptop en de 1080 bijvoorbeeld 180watt en de 1070 150watt. Moeilijk om die te integreren zal het niet zijn.
De 122W van de 980M krijgt men nauwelijks afgevoerd zonder enorme herrie. 180W, anderhalf keer zoveel, van een 1080 gaat daarmee nagenoeg onmogelijk zijn om af te voeren.
Onzin. Ik heb de 980M met 200mhz overclocked en de fans spinnen op een lage snelheid met een temperatuur van 65c.

Nogmaals de tijd van bakbeest gaming laptops met voor desktop maatstaven midrange specs is voorbij.

Daarnaast snelheid zo;n 20% lager? Nee hoor snelheid is 1038 base clock vs 1126 base clock. Het geheugen snelheid is lager.
En dan te bedenken dat de 980M al een TDP heeft van 122W tov 150/180W van de 1070/1080 die makkelijk terug te schroeven zijn naar 120W met maar een marginaal verlies in performance. Sowieso zijn Alienware laptops van erg goede kwaliteit als het aankomt op performance, temperaturen en stroomverbruik in een relatief klein jasje. Natuurlijk is niet iedereen het erover eens dat een 3/4kg laptop nog mobiel is, maar voor iedereen die wel ooit eens een sportschool heeft bezocht is het een makkelijke keuze als je een fatsoenlijke desktopvervanger wilt die ook gewoon de nieuwste games op de hoogste instellingen kan spelen. Mijne speelt na vier jaar nog met gemak de nieuwste games op leuke (medium tot high) instellingen af en de upgradebaarheid is ook super, alles van CPU tot CD lezer kan naar wens vervangen worden mocht de performance ooit toch een beetje gaan tegenvallen.
[sarcasme] 3kg maar? Wat een licht gewicht! [/sarcasme]
Het is een laptop die ik in mijn bezit heb. Gigabyte bijvoorbeeld biedt 980M laptop maar dan iets luider aan in een chassis van 2KG.

Asus met hun G502 in een chassis van 2.2KG. 3KG vs 5KG is een groot verschil en 5kg vs 2 nog meer.

Punt blijft staan dat je dit soort performance niet meer alleen in 17inch bakbeesten hoeft te verwachten.
Klopt, m'n ASUS ROG G752VY-GC067T is echt niet om mee te zeulen, dat kreng weegt teveel. 17" wil je zowiezo niet meesleuren, je hebt de helft van de tafel al nodig, en proficiat aan diegene die voor je laptop zit voor de warme lucht en de LED-show.
Ik heb de MSI GT72 (6QF) laptop met de desktop GTX 980, maar tijdens het gamen kan je daar goed je haar mee föhnen. (als je dat bakbeest (3.8 kilo) überhaupt boven de schouder kan tillen)

Voor het switchen van Nvidia naar de intel of terug, moet ik de laptop herstarten.
Ik heb laptops gezien waarbij ze terugvallen op on-board/alternatieve video als er geen aanspraak gedaan hoeft te worden op de zware videokaart. Ongetwijfeld doen ze zoiets.
Zou me ook logisch dunken want anders vreet dat in no-time door je accu heen. Je hebt voor standaard gebruik absoluut geen reden om een zware videokaart aan te spreken.

[Reactie gewijzigd door Alpha Bootis op 2 juni 2016 18:52]

Ik dacht dat iets als YouTube meer van de CPU vereist dan van de GPU
Lijkt me hoe dan ook niet dat een YT filmpje spannend genoeg is voor serieuze koelgeluiden.
Ik heb 5 tot 15 procent processorbelasting bij het kijken van een 4K youtube filmpje op mijn 5 jaar oude 2500k CPU.
Dat is omdat je gpu het rekenwerk doet ;)
Volgens mij was er iets hogerop juist vastgesteld dat je cpu het meest doet. Op die basis ben ik gaan kijken want ik ben niet op de hoogte van wat youtube allemaal doet.
Maakt ook niet uit, het punt is dat elk modern systeem met half degelijke onboard oplossing gewoon 4k video op 30fps doet en daar hoeftie niet voor te gaan blazen.
HD Video 'Playback' gebruikt inderdaad over het algemeen meer van je CPU dan van je GPU.

Maar zou een videokaart als deze in een laptop niet een beetje overkill zijn voor een YouTube filmpje kijken in de bibliotheek?
Valt mee hoor, vroeger in de bibliotheken hoorde ik vaker van die platte krengen met hun kleine rot ventilators.
Voor idle en Youtube video's zit er dan meestal nog een Intel of andere onboard videochip in :)

Tegenwoordig zijn de intel videochips zelfs zo snel dat je daar sommige spellen gewoon prima mee kan spelen dus dan heb je de dedicated videokaart niet eens nodig.
Of gewoon vloeistofkoeling. Is ook eerder gedaan in een laptop.
Dat lijkt me ook zwaar
Het is snikheet en mijn GT72 (980M) heeft momenteel een GPU core temp van 39 C (135 MHz core speed, 270 MHz shader speed) en de fans draaien idle. Dat valt bijzonder goed mee, de CPU (i7-4720HQ) staat warmer met 43 C bij ~10% load. De fans rampen pas omhoog bij ongeveer 50 C.

Ik heb een 100-tal Chrome-tabs open staan, een Steam-download op de achtergrond (vandaar de CPU load) en muziek die speelt vanuit Youtube.
Gewoon benieuwd.

Wat doe je met 100-tal browser tabs ;) ?
Mijn drie en een half jaar oude Asus heeft een intel en een nvidia kaartje, bij desktop gebruik zit hij op de intel kaart en je kan per programma instellen welke kaart hij gebruikt, in principe wordt de nvidia kaart enkel aangesproken bij het gamen maar zelfs dan kan je het overriden als je lichtere games liever op de intel speelt ivm batterijverbruik. Toevallig heb ik gisteren nog wat aan het experimenteren geweest met EVGA Precision X en MSI Afterburner om te kijken wat de kaarten doen. Bleek dat een hidden object game op meer dan 400fps aan het lopen was en dus mijn laptop fel liet blazen, beperking tot 60fps ingesteld en de temperatuur en de fan-speed liepen terug, geen herrie meer.
Mooi, blijkbaar zorgt het kleinere productieproces van de nieuwe generatie ervoor dat er steeds krachtigere chips kleiner en zuiniger kunnen zijn.

Wat ik me afvraag: als de TDP wordt verlaagd, gaan de prestaties dan ook navenant naar beneden? Gaat dezelfde GPU die men binnen 150 Watt houdt ook 1.5 keer beter presteren dan dezelfde GPU die men binnen 100 Watt houdt? Of is het verschil niet zo dramatisch?
Ik weet niet of het verschil zo dramatisch is, maar de prestaties gaan sowieso wel omlaag.
[Edit - ben een oen]

[Reactie gewijzigd door Enai op 3 juni 2016 08:40]

de prestaties gaan alleen naar beneden als de kloksnelheden ook naar beneden gaan. Dat zal vast gebeuren, maar niet iedere chip verbruikt in verhouding evenveel energie als een exact zelfde chip. Dus sommige chips zullen misschien worden uitgezocht op verbruik, ook wel binning genoemd. Dan krijgen ze zo hoog mogelijke snelheid op een beperkt verbruik.
De prestaties zijn eigenlijk hetzelfde als de desktop variant. Nvidia neemt de meest efficiënte chips die ze produceren (niet elke 1080 die gemaakt wordt is evengoed) en gebruiken deze voor de laptops. Het enige wat je als laptopfabrikant moet doen is hem even goed koelen zoals je in een desktop zou doen.
Kijk hier voor benchmarks van de 980 die in laptops zit:
http://www.notebookcheck....80-Notebook.150599.0.html
Maar ze gebruiken toch altijd op desktop gebaseerde GPU's? Neem bijvoorbeeld een GTX 680M, dat is ook gewoon een desktop GTX 670 maar dan met lagere clocks en voltage.
In het bronartikel:
Traditionally, GeForce M version GPUs were cut down quite a bit compared to their desktop counterparts (e.g. 970M is 1280 cores @ ~993MHz and 970 is 1664 cores @ ~1178MHz).
Ofwel: in plaats van zowel het aantal cores en de kloksnelheid verminderen, verlagen ze nu alleen de kloksnelheid :)
Klopt maar dan worden er een paar shaders uitgeschakeld en het tdp verlaagd zodat de gebruiker of een 180 watt of 240 watt psu krijgt. Voor sommige laptops ( met sli ) zijn er 330 watt psu's
Snap ik even iets niet? Wat is dit dan...?: http://www.tweaktown.com/...-120hz-display/index.html Daar zit toch echt duidelijk een dubbele GTX 1080M in.
Het zal vast 1080M gaan heten, maar het is geen andere kaart maar gewoon een teruggeclockte normale gpu.
Letterlijk vanuit t artikel;

"Waarschijnlijk gaat Nvidia de M-aanduiding wel behouden voor minder high-end gpu's voor laptops, zoals bij kaarten met de GP106 die wel in MXM-vorm naar laptops lijkt te komen."
> UPDATE: The Aorus X7 Pro actually features dual GeForce GTX 970M in SLI, not dual GTX 1080M, and the 17-inch display runs at 3K 120Hz, not 4K 120Hz. A GIGABYTE representative reached out to us to confirm the specs, and apologies for the mix up--we were going off of reports from another source.
Dat bleek niet te kloppen, het waren twee 970's.
Hoe zal dit zich vertalen naar eerdere msi modellen zoals de msi gt72. Daar werd beloofd dat de 9xxx modelen sowieso door de mxm standaard nog een generatie upgradebaar zouden zijn. Zal dit dan nog steeds het geval zijn?
Letterlijk gelezen wel. Er zullen "M"-versies van tragere kaarten uitkomen, dus een 1050M of 1060M zal geen probleem zijn. Natuurlijk heb je geen boodschap aan deze kaarten die trager zijn dan een 980M, maar MSI is slim geweest en er staat enkel "toekomstige generaties".

We zijn erin getrapt. |:(

[Reactie gewijzigd door Enai op 3 juni 2016 00:14]

Of het is marketing technisch een andere naam? Zullen de 1070 en 1080 dan echt niet van mxm formaat zijn?
Een 1070 naar exact 100 watt krijgen, mogelijk te doen. Maar als de 1080 zich er dan nog van wilt onderscheiden gaat de mxm standaard alleen niet voldoen ben ik bang. Misschien een regulator die direct power van de power ingang trekt, en als die niet aangesloten is dat ie zich verder terug clocked naar 100 watt?
De 980 notebooks ook op mxm gebasseerd trekt ongeveer 160 watt.

Terugclocken wordt gedaan of wanneer de powertarget bereikt is, of de hele zaak te warm wordt.

Over het algemeen boosten de laptops minder goed op stock vbios en op custom vbios ( geconstateerd op alienware laptops ).
Helaas heeft MSI beloofd dat huidige laptops een upgrade naar "toekomstige generaties GPU's" zullen ontvangen.

Dit blijkt dus lekker mis poes te zijn, of tenminste enkel naar een kaart die geen betekenisvolle upgrade is over de 980M. Naar de 1080M of 1070M mogen we dus fluiten. En niet alleen MSI, elke huidige laptop met 970M of 980M wordt afgekapt.

Bende leugenaars. :(
Waaruit concludeer jij dit?
Ik heb nu een GT72 met 980M. Ik lees dit in je link:

"Newer GT72 models featuring the GTX970M/GTX980M in their turn will be upgradable to future graphics generations in 2015"

Afgezien van het jaar 2015 wat genoemd is lijkt mij de 1070 of 1080 een eerste future generation na de 980M.
Ja, maar volgens dit artikel zullen de 1070 en 1080 niet in MXM-formaat aangeboden worden wegens de 100 watt-limiet.
Ik meende dat clock voor clock de 980Ti zelfs beter was dan de 1080 en dat de 1080 vooral sneller is vanwege de verhoogde clocksnelheid.

Om de TDP te verlagen zullen ze de clocksnelheid flink omlaag moeten doen denk ik, dus verwacht geen gigantische sprong zoals we die bij 980 vs 1080 zagen.
Daar zijn ze dus goed voor.. voor die overpriced laptops
Helaas voor sommigen, die vaak onderweg zijn, is dat geen andere optie. Ook ik zou graag een desktop hebben, maar gezien ik 9/10x niet thuis ben, is dat natuurlijk ook geen doen.

Hint, als je een betaalbare laptop wil, koop dan een Clevo Barebone, en zet alles er zelf in. Dit heb ik net zelf ook gedaan met een Clevo 17'' met een i7 6820HK, 32GB DDR4, Geforce 970M en 2 SSD's (128GB voor OS & 240GB voor games). Bij elkaar was ik "slechts" 1200 euro kwijt.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True